_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
67262 | من یک EKF را برای ردیابی وضعیت یک وسیله نقلیه در حال حرکت به صورت سه بعدی اجرا کرده ام. سوال من دوگانه است: 1. اگر اندازه گیری (مثلاً برای سرعت $y$) کوواریانسی داشته باشد که با وضعیت فعلی و کوواریانس همپوشانی نداشته باشد چه اتفاقی می افتد؟ به عنوان مثال، اندازه گیری ممکن است مقدار 4 با واریانس 0.2 داشته باشد، اما مقدار بردار حالت برای $y$ 6 با واریانس 0.3 است. 2. دلیل اینکه من سوال 1 را می پرسم این است که مقادیر منفی در امتداد قطر در ماتریس کوواریانس خود دریافت می کنم و واریانس های منفی را نشان می دهم که به وضوح اشتباه است. من سعی کردهام از معادله بهروزرسانی فرم جوزف استفاده کنم، یعنی $ P' = (I - KH)P(I-KH)^T + KRK^T$، اما، ماتریس کوواریانس من مقادیر منفی را بعد از مرحله پیشبینی نشان میدهد، نه به روز رسانی کنید. مشکل پیشبینی ماتریس کوواریانس با استفاده از $P' = APA^T + Q$ است که در آن $A$ در واقع یک ماتریس ژاکوبین تابع انتقال من است. جالب اینجاست که مقاله ویکیپدیا این را برای EKF دارد: $P' = AP + PA^T + Q$ من ماتریسهای خروجی اشکال زدایی خام دارم که در صورت نیاز میتوانم پست کنم. به نظر میرسد که موضوع برخی از مقادیر کوواریانس منفی بین سرعتهای خطی و چرخشی من باشد. اگر این سوال ساده است پیشاپیش عذرخواهی می کنیم. من با فیلترهای کالمن آشنا هستم، اما هرگز EKF را که قبلاً این مجموعه بود، اجرا نکرده بودم. | حالت های غیر همپوشانی و کوواریانس های اندازه گیری در فیلتر کالمن |
15163 | من یک متغیر مستقل طبقه بندی با دو سطح دارم (گروه 1 و گروه 2). این گروه ها در دو زمان روی 10 متغیر وابسته اندازه گیری شدند، بنابراین، من 2 مجموعه 10 متغیری برای زمان 1 و زمان 2 دارم. برای مثال، اجازه دهید Hit_1 (تست شده در زمان 1) و Hit_2 (تست شده در زمان 2) را در نظر بگیریم. 10 متغیر وابسته هستند، یعنی عملکرد یک متغیر به عملکرد متغیر دیگر بستگی دارد (آنها در واقع متغیرهای تشخیص سیگنال هستند. از یک کار حافظه مانند ضربه، رد صحیح و غیره). 10 متغیر همه فاصله هستند. برخی از متغیرها به طور معمول توزیع نشده بودند، بنابراین من یک تبدیل ریشه مربعی انجام دادم. چگونه می توانم کارهای زیر را انجام دهم: 1. آزمایش کنید که آیا تأثیری برای گروه 1 وجود دارد (یعنی تفاوت بین Hit_1 و Hit_2)؟ 2. برای تست Hit_1 آیا تفاوت معنی داری بین گروه 1 و 2 وجود دارد؟ برای هر یک از موارد فوق، چگونه می توانم یک تحلیل مقایسه چندگانه با اصلاح آلفا انجام دهم؟ | چگونه می توان اثر زمان را در دو گروه بر روی ده متغیر وابسته مقایسه کرد؟ |
2555 | در _درباره چگالی های گاوس مانند از مرتبه بزرگتر از دو_ (Willett, P. Thomas, J. B., 1987)، بخش دوم، نویسنده بیان می کند: $\mathcal{N}(x,y,\rho)=\ phi(x)\phi(y)\sum_{n=0}^{\infty}\rho^nH_n(x)H_n(y)$ کجا 1. $\phi(.)$ چگالی نرمال واحد است، 2. $H_n(.)$ چند جمله ای $n^{th}$ هرمیت است، 3. $\mathcal{N}(x,y,\rho )$ چگالی گاوسی دو متغیره با همبستگی $\rho$ است. من سعی کردم این را تکرار کنم (تقریبا، یعنی تا چند جملهای هرمیت دهم) در R: library(PolynomF) x<-polynom() H<-polylist(1,x);for(n در 2:10) H[ [n+1]]<-x*H[[n]]-(n-1)*H[[n-1]] Hp<-as.function(H) #The چند جمله ای هرمیت از مرتبه 10 rho<-0.7 R<-c();for(n در 0:10) R[[n+1]]<-rho^n HPA<-function(z) prod(dnorm(z) )*sum(Hp(z[1])*Hp(z[2])*R) z<-runif(2) HPA(z) که کاملاً خارج از علامت است (یعنی برای $z=(0.65,0.63)$ من 1194 میگیرم). من چه غلطی می کنم؟ | مسائل استفاده از تقریب هرمیت برای دو متغیره گاوسی در R |
34030 | من در حال حاضر در حال تجزیه و تحلیل داده ها از یک مقیاس لیکرت 34 سوالی هستم. من قبلاً متغیرهای منفی بیان شده را در SPSS به عنوان متغیرهای مختلف رمزگذاری مجدد کردم. من در شرف انجام تحلیل عاملی هستم. **آیا در تحلیل عاملی باید از متغیرهای اصلی استفاده کنم یا از متغیرهای کدگذاری مجدد؟** | آیا در تحلیل عاملی از اقلام با کد اصلی یا معکوس استفاده کنیم؟ |
13267 | اگر من دو متغیر داشته باشم که از دو توزیع متفاوت پیروی می کنند و دارای انحرافات استاندارد متفاوت هستند... چگونه باید دو متغیر را تبدیل کنم تا وقتی دو نتیجه را جمع می کنم توسط یک متغیر فرار رانده نشود. برای مثال... متغیر A نسبت به متغیر B نوسانات کمتری دارد (از 0 تا 3000 می باشد) و متغیر B از آن طرف می رود. 300 تا 350. اگر به سادگی دو متغیر را با هم جمع کنید، نتیجه واضح است که توسط A ایجاد می شود. | چگونه دو متغیر را که در مقیاس های مختلف هستند جمع کنیم؟ |
109900 | آیا کسی می تواند به من یک مستند یا حتی بهتر از آن مثالی برای عملکرد ancmg1 یا ancmg بسته WRS اشاره کند. یک پاراگراف بسیار کوتاه در کتاب Wilcox در مورد تخمین قوی وجود دارد که به طور خلاصه پارامترهایی را که باید ارائه شوند، توضیح می دهد، اما هیچ چیز در مورد روش واقعی استفاده شده یا فرضیاتی که باید برآورده شوند، نیست. به طور خاص، میخواهم بدانم پیام خطای simpleError در near(xm، pts[i]، fr = fr): همه معیارهای پراکندگی برابر با 0 هستند به این معنی است که اگر من یک Ancova قوی با تابع ancmg1 برای یک واحد انجام دهم. متغیر کمکی | R - Ancova قوی: مستندات/نمونههایی برای تابع ancmg در بسته WRS |
108367 | برای نمودار qq نمایی، توزیع نظری را ثابت می کنیم که λ=1 باشد. به منظور مقایسه نقاط ترسیم شده با خط y=x، چه نوع مقیاس گذاری مجدد باید روی داده ها اعمال شود و چرا؟ Hint با این مشکل داده می شود: اگر X از توزیع نمایی با پارامتر λ پیروی کند، λX از توزیع نمایی با پارامتر 1 پیروی می کند. من نمی دانم چگونه از این اشاره در پاسخ به این سوال استفاده کنم. این یک مشکل تکلیف است. تا کنون، من نمودار ln (x) را در نظر گرفته ام اما مطمئن نیستم که با آن و اشاره چه کنم. | توزیع نمایی پرسش تکلیف طرح qq |
113900 | من در حال حاضر در حال تلاش برای یافتن بهترین پیکربندی مجموعه ویژگی/معماری شبکه برای یک مشکل طبقه بندی باینری هستم، با این حال به نظر نمی رسد که به آن از طریق ابزارهای معمول ساخت و آزمایش نزدیک شویم. از آنجایی که من باید چهار شکل شبکه ممکن (با لایهها و اندازههای متفاوت) را روی دو نوع شبکه مختلف (BLSTM و MLP) آزمایش کنم، جایی که شش مجموعه ویژگی مختلف هر کدام با 36 کلاس مختلف وجود دارد، به سرعت کاملاً نامرتب میشود و در نتیجه 2 مورد ایجاد میشود. *4*6*36 = 1728 شبکه ممکن. من تصمیم گرفتم ضریب 36 را با آموزش دستهای از شبکهها که قابلیت طبقهبندی چندگانه را دارند حذف کنم و سپس شبکهای را انتخاب کنم که بهترین نتایج را بهعنوان الگو برای طبقهبندیکننده باینری من به دست میدهد. با این حال، من تعجب می کنم، آیا این یک رویکرد معتبر است؟ آیا برای من منطقی است که فرض کنم مجموعه شبکه/ویژگی که عملکرد بهینه را در یک مسئله چند کلاسه به من می دهد برای مورد باینری نیز کار می کند؟ اگر چنین است (یا خیر)، آیا کسی می تواند به من در جهت هر مقاله مفیدی اشاره کند؟ متشکرم! | اخلاق استفاده از یک مجموعه ویژگی چند کلاسه بهینه برای طبقه بندی باینری |
41597 | **تنظیمات** بسیاری از الگوریتم ها بر روی یک رابطه یا جدول واحد عمل می کنند، در حالی که بسیاری از پایگاه های داده دنیای واقعی اطلاعات را در چندین جدول ذخیره می کنند (دومینگوس، 2003). **سوال** چه نوع الگوریتم هایی از جداول چندگانه (رابطه ای) به خوبی یاد می گیرند. به طور خاص، من به الگوریتم هایی علاقه مند هستم که برای وظایف رگرسیون و طبقه بندی قابل اجرا هستند (نه الگوریتم های مبتنی بر تحلیل شبکه، به عنوان مثال، پیش بینی پیوند). * * * من از چندین رویکرد لیست شده در زیر آگاه هستم (اما مطمئن هستم که برخی از آنها را از دست داده ام): * داده کاوی چند رابطه ای (MRDM) (Dzeroski, 2002) * برنامه ریزی منطقی استقرایی (ILP) (Muggleton, 1992) * آماری یادگیری رابطه ای (SRL) (Getoor، 2007) * * * Džeroski، S. (2003). داده کاوی چند رابطه ای: مقدمه خبرنامه اکتشافات ACM SIGKDD. Getoor, Lise, and Ben Taskar, eds. مقدمه ای بر یادگیری رابطه ای آماری. مطبوعات MIT، 2007. S. Muggleton و C. Feng. القای کارآمد برنامه های منطقی. در مجموعه مقالات اولین کنفرانس تئوری یادگیری الگوریتمی، صفحات 368-381. Ohmsha، توکیو، 1990. | یادگیری از داده های رابطه ای |
13262 | آمار GRS Gibbons و همکاران است. (1989) آماری که آزمایش می کند که آیا رهگیری های برآورد شده از یک مدل رگرسیون چندگانه به طور مشترک صفر هستند یا خیر. سناریوی معمولی شامل یک رگرسیون پنل خطی چند متغیره است که در آن شما بازده اوراق بهادار را بر حسب مواجهه آن با سری بازده عوامل توضیح میدهید. از نظر تئوری، یک مدل عامل خوب دارای یک برش است که از نظر آماری از صفر قابل تشخیص نیست. چگونه می توانم آمار GRS را در R محاسبه کنم؟ متشکرم | آمار GRS در R برای آزمایش اینکه رهگیری از رگرسیون پانل چند متغیره به طور مشترک صفر است؟ |
68525 | فرض کنید من یک کابل شبکه طولانی در زمین دفن شدهام و کارگران ساختمانی گاهی اوقات هنگام انجام کارهای حفاری به آن آسیب میرسانند. من باید احتمال شکستگی را با فرض تصادفی بودن آن تحلیل کنم. اگر بخواهم احتمال شکستن کابل را در هر نقطه مشخصی بررسی کنم، آنگاه صفر خواهد شد زیرا طول یک نقطه صفر است، بنابراین آسیب رساندن ناخواسته به کابل در یک نقطه خاص غیرممکن است. بنابراین من باید کابل را به بخش هایی برای تجزیه و تحلیل تقسیم کنم تا سپس بخش هایی با طول های غیر صفر و احتمال آسیب غیر صفر داشته باشم. چگونه طول بخش ها را انتخاب کنم و چه راه های دیگری برای محاسبه احتمال وجود دارد که با صفر بودن طول نقطه شکست سروکار دارد؟ | با توجه به اینکه طول ناحیه شکستگی صفر است، چگونه می توانم مورد شکستن کابل را در هر نقطه تجزیه و تحلیل کنم؟ |
73514 | من یک مجموعه داده با 18٪ از متغیر AGE از دست رفته دارم که یک متغیر مهم برای تجزیه و تحلیل است. 1. آیا باید انتساب رگرسیون را امتحان کنم یا باید آن مشاهدات را کنار بگذارم؟ 2. آیا حتی انتساب رگرسیون در این مورد (برای سن) معنی دارد؟؟ 3. من هم متغیر درآمد دارم اما همبستگی سن و درآمد منفی و قدرت 0.1 است چه کار کنم؟ | درمان ارزش از دست رفته |
67267 | من 3 درمان مختلف با مشاهده 6 تکرار مختلف دارم. با این حال، همه این درمان های مختلف (گروه ها) تعداد بیماران متفاوتی دارند. گروه اول 26 بیمار، گروه دوم 28 بیمار و گروه سوم 19 بیمار. بنابراین، می توانم بگویم که اندازه های نمونه نابرابر برای آنووا اندازه گیری های مکرر دو طرفه دارم. وقتی تجزیه و تحلیل را با استفاده از SPSS انجام می دهم، مجموع مجذورات و درجات آزادی را با استفاده از حداقل حجم نمونه گروه سوم که 19 است محاسبه می کند. حل مسئله و انجام مقایسه ها با دست زمان بر است. میخواهم بدانم چگونه میتوان با استفاده از رایانه با این نوع مشکل، که حجم نمونههای نابرابر در هر گروه است، برخورد کرد. آیا برنامه دیگری (SAS یا R؟) وجود دارد که به غیر از SPSS با آن سروکار داشته باشد که واضح است که نمی تواند؟ | اندازه های نمونه نابرابر برای اندازه گیری های مکرر دو طرفه |
79217 | من یک توزیع پیوسته تک وجهی دارم که کج است و میخواهم حالت را با استفاده از بسته متوسط در R تخمین بزنم. با این حال، بسته تعداد نسبتاً زیادی روش برای انجام این کار ارائه میدهد. چیزی که وضعیت را پیچیده تر می کند این است که برخی از این روش ها گزینه های بیشتری برای روش های مختلف تخمین حالت در یک روش خاص دارند. از آنجایی که به طور کلی در زمینه آمار نسبتاً تازه کار هستم، کمی غرق شده ام. چگونه می توانم روش مناسب را در اینجا انتخاب کنم؟ آیا فقط رسم توزیع و استفاده از روشی که مقداری را که با توجه به اطلاعات گرافیکی معقول به نظر می رسد، برمی گرداند، یک رویکرد معتبر است؟ | بسته R modeest: کدام روش تخمین حالت؟ |
34034 | من سعی می کنم یک پیش بینی از یک مدل محاسباتی را با یک آزمایش بیولوژیکی آزمایش کنم. این مدل یک وابستگی خطی بین اندازه سلول و عدم تقارن را پیشبینی میکند. من آزمایشی را انجام دادم که مشخص است بر اندازه سلول تأثیر میگذارد، و شیب قابل توجهی در هنگام بازگشت عدم تقارن به اندازه سلول به دست آوردم. با این حال، در زیست شناسی، به ندرت یک آزمایش کاملاً تمیز وجود دارد. برای توضیح سایر اثرات بالقوه اغتشاش، یک متغیر ساختگی برای اغتشاش به رگرسیون اضافه کردم. ضریب ساختگی معنی دار نیست (0.5=p)، اما ضریب اندازه سلول نیز دیگر معنی دار نیست (0.1=p). با فرض درستی پیشبینی مدل، چگونه میتوانم، با توجه به نتایج رگرسیون خود، محاسبه کنم که چقدر اندازهگیری اضافی باید انجام دهم تا ضریب اندازه سلول حتی در حضور ساختگی مخدوشکننده نیز قابل توجه باقی بماند؟ | اندازه نمونه برای رگرسیون چندگانه: به چه مقدار داده بیشتر نیاز دارم؟ |
76073 | چگونه می توان ضرایب بتا در R را برای مدلی تفسیر کرد که دارای یک متغیر وابسته طبقه ای است که باینری نیست؟ به عنوان مثال، در مدل فرضی زیر، من B1 را هم از نظر آماری معنادار و هم مثبت تفسیر میکنم، اما اگر متغیر وابسته طبقهای من بتواند 4 دسته داشته باشد، B1 کدام دسته را به طور مثبت پیشبینی میکند؟ یعنی اگر DV می تواند (آبی، قرمز، سبز، زرد) باشد، B1 چه چیزی را پیش بینی می کند؟ به عنوان یک طرف، من با یک نمونه بسیار کوچک سروکار دارم. bayesglm (فرمول = DV ~ B1 + B2 + B3، خانواده = دوجمله ای (پیوند = probit)، داده = داده) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -1.07714 0.03221 0.14180 0.25680 0.25680 0.8659 Cost. خطای z مقدار Pr(>|z|) (فاصله) -6.336e-01 1.859e+00 -0.341 0.7332 B1 2.691e+00 1.347e+00 1.998 0.0457 * B2 1.5186e 0.341+0. 0.2212 B3 6.637e-01 1.755e+00 0.378 0.7052 | متغیر وابسته طبقه بندی در R |
18532 | شاید یک سوال احمقانه باشد، اما نیاز به راهنمایی و نظرات شما دارم. من ورودی های داده (ترکیبات) با دو مقدار Value1 و Value2 (فعالیت برای دو پروتئین) دارم. آیا ساخت منحنی ROC برای این ورودی های داده با کلاس 1 (صفر) به عنوان مقدار 1 و کلاس 2 (یک) به عنوان مقدار 2 معنادار است؟ بنابراین، اگر ROC AUC نزدیک به 0.5 باشد - به این معنی است که ما نمی توانیم بین Class1 و Class2 تمایز قائل شویم. آیا آن 2 پیشنهاد صحیح است؟ خیلی ممنونم | منحنی ROC برای ورودی های یکسان با مقادیر مختلف |
76072 | برای تعیین اینکه آیا کاری که انجام می دهم کافی است یا خیر به کمک نیاز دارم. من انحنا را از دو چهره انسان استخراج کرده ام (در اصل منحنی است که از یک گوش، از صورت تا چانه پایین می رود و به گوش دیگر بالا می رود). اکنون میخواهم یک شباهت منحنی را با یک چهره انسانی دیگر محاسبه کنم. برای اینکه سعی کنم این را نسبت به اندازههای مختلف منحنی ممکن تغییر دهم (از آنجایی که تصاویری که این چهرهها از آنها گرفته شدهاند را میتوان از فواصل مختلف از شخص گرفت) من هر دو بعد X و Y را با کم کردن میانگین و تقسیم بر استاندارد نرمال کردهام. انحراف (من مطمئن نیستم که این درست باشد). در نهایت، من از Dynamic Time Warping برای مقایسه این منحنیها استفاده میکنم، این نوع نتیجهای است که به دست میآورم:  اساساً من. من می پرسم که آیا این رویکرد منطقی به نظر می رسد؟ | مقایسه انحنای صورت دو صورت انسان |
108363 | من به نوعی در حال تمام شدن کلمات هستم، ژنراتورهای همسو خطی واقعاً PRNG با کیفیت پایینی هستند، اما این تمام چیزی بود که برای برخی چیزهای اساسی نیاز داشتم، اکنون باید جای خالی را پر کنم و با خانواده های دیگر PRNG آشنا شوم، اما چیزی ندارم. ایده در مورد همه خانواده های موجود PRNG ها. احتمالاً کسی می تواند سلسله مراتب یا لیستی از انواع PRNG های ممکن را در آنجا بنویسد؟ | چه نوع PRNG خارج از ژنراتورهای همخوانی خطی وجود دارد؟ |
34038 | من سعی می کنم طرحی را که در نشریه ای یافتم (شهردار-فرناندز و همکاران 2012) بازتولید کنم که نرخ بیکاری را در طول زمان برای چندین منطقه نشان می دهد. این یک نقشه حرارتی (؟)، یک نمودار سری زمانی (پانل پایینی) و نمودارهای جعبه (پانل سمت راست) را ترکیب می کند. با عرض پوزش برای این سوال اساسی، اما من تازه وارد تجزیه و تحلیل داده ها و R هستم. برای درک بهتر از طرح لطفا به صفحه 7 در http://www2.dse.unibo.it/wp/WP835.pdf مراجعه کنید. جهت صحیح یا کدی را به اشتراک بگذارید؟ از کمک و وقت شما بسیار سپاسگزارم! | تجسم روند زمانی برای مناطق |
96896 | چگونه سطوح قیمت را در یک رگرسیون لحاظ کنیم؟ آیا ما فقط فهرست شماره شاخص قیمت را می گیریم، به عنوان مثال: شماره شاخص قیمت مصرف کننده ارائه شده توسط دفتر آمار ملی (آژانس آماری بریتانیا)؟ اگر نه، پس چگونه آن را درج کنیم؟ آیا صرفاً درج نرخ تورم به عنوان یک رگرسیون در RHS قابل قبول است؟ اگر من پسانداز را مدلسازی میکنم و میخواهم ببینم چگونه به سطوح قیمت پاسخ میدهد، چگونه این کار را انجام میدهم؟ | سطوح قیمت و تورم در رگرسیون |
76077 | من کارهای زیادی در زمینه رگرسیون انجام داده ام (زمان ثابت) اما اکنون در حال مطالعه پیش بینی هستم. سوال من در مورد تعیین میزان تاخیر برای استفاده در یک مدل اتورگرسیو است. من فرض میکنم که در پیشبینی، از دادههای خود تا زمان t برای آموزش مدل خود استفاده میکنید و سپس یک آزمایش خارج از نمونه روی دادهها پس از زمان t انجام میدهید تا عملکرد مدل خود را آزمایش کنید. آیا چیزی به نام بیش از حد برازش در مدل های اتورگرسیو وجود دارد؟ یعنی استفاده از تاخیر بیش از حد به گونه ای که مدل به خوبی به داده های خارج از نمونه تعمیم نمی یابد. یا اینکه بعد از تعداد معینی تاخیر، دیگر شاهد بهبود عملکرد نیستید؟ | تعیین میزان تاخیر در یک مدل خودرگرسیون |
8021 | من یک سوال قبلی ارسال کردم، این مربوط است، اما فکر می کنم بهتر است یک تاپیک دیگر شروع شود. این بار، من در تعجب هستم که چگونه می توان نقاط توزیع شده یکنواخت را در کره واحد 3 بعدی ایجاد کرد و چگونه توزیع را به صورت بصری و آماری بررسی کرد؟ من استراتژی های ارسال شده در آنجا را مستقیماً قابل انتقال به این وضعیت نمی بینم. لطفا کمک کنید. با تشکر فراوان. | چگونه در توپ واحد 3 بعدی نقاط توزیع شده یکنواخت ایجاد کنیم؟ |
68524 | در این تاپیک @whuber پاسخ مفصلی در مورد استفاده از آمار داده های آموزشی برای استانداردسازی مجموعه داده های cv داد. سوال من این است که اگر برخی از ویژگی ها چند جمله ای هستند چگونه مجموعه داده های نگهدارنده را در اعتبار سنجی متقاطع n برابر استاندارد کنیم؟ استاندارد کردن ویژگی های چند جمله ای آنها را بی فایده می کند، درست است؟ با تشکر | اعتبار سنجی و استانداردسازی متقابل |
76074 | فرض کنید $X$ و $Y$ دارای توزیع های شرطی هستند که توسط: \begin{align} f(x|y)&\propto ye^{-yx}\;\;\text{for}\;\;0<x <B<\infty\\\ g(y|x)&\propto xe^{-xy}\;\;\text{for}\;\;0<y<B<\infty \end{align} مطابق برای مقاله، محاسبه توزیع حاشیه ای $g(x)$ آسان نیست، اما از $B<\infty$ وجود دارد. به راحتی می توان تعیین کرد که: \begin{align} f(x|y)&= \frac{e^B}{e^B-1}ye^{-yx}\;\;\text{for}\ ;\;0<x<B<\infty\\\ g(y|x)&= \frac{e^B}{e^B-1}xe^{-xy}\;\;\text{for}\;\;0<y<B<\infty \end{align} اکنون از $f (x|y)f(y)=f(x,y)=g(y|x)g(x)$، به این معنی است که: $$\frac{f(y)}{g(x)}=\frac{g(y|x)}{f(x|y)}=\frac{x}{y}.$$ و به این ترتیب که : $$\frac{1}{g(x)}=\frac{1}{g(x)}\int_0^Bf(y)dy=\int_0^B\frac{f(y)}{g(x )}dy=\int_0^B\frac{x}{y}dy=x\ln(y)\Big|_{y=0}^{y=B}=-\infty.$$ این بدان معناست که $g(x)=0$، و با آرگومان مشابه، $f(y)=0$. من کاملاً مطمئن نیستم که از این چه باید بکنم. آیا میتوانم نتیجه بگیرم که از آنجایی که نسبت حاشیهها یک شکل نامشخص (صفر بر صفر) است، این روش محاسبه آنها در این مورد خاص با شکست مواجه میشود؟ و اینکه در واقع هر دو صفر نیستند. همچنین، آیا این یک تکنیک رایج برای محاسبه حاشیه ها با توجه به شرطی ها است؟ در حالی که تلاش میکردم ببینم چرا نمیتوان تکنیک نمونهگیری گیبس را با ارزیابی (احتمالا عددی) برخی انتگرال (احتمالاً بسیار دشوار) جایگزین کرد، به آن رسیدم. در نهایت، همانطور که در بالا ذکر کردم، مقاله میگوید حاشیهها به راحتی قابل محاسبه نیستند، که به نظر میرسد نشان میدهد که در تئوری میتوان آنها را محاسبه کرد، چگونه این کار انجام میشود؟ | محاسبه حاشیه ها با توجه به توزیع های شرطی |
34031 | ما در حال انجام نمونه برداری MCMC در فضای n بعدی با جمعیت MCMC هستیم. هدف این است که وقتی تقریباً همگرا می شوند متوقف شوند. مشکل این است که همگرایی، که به راحتی به صورت بصری دیده می شود، کدگذاری سخت است. Gelman-Rubin/Geweke معمولی به خوبی برای عملکردهایی با رفتار خوب کار می کند، اما برای برخی از توابع بد با ویژگی های عجیب و غریب، آنها نوسان می کنند یا دارای قله های تصادفی هستند که نشان دهنده همگرایی آهسته ثابت آنطور که می خواهید نیست. چه آمارهای همگرایی دیگری را می توانید توصیه کنید؟ من به دنبال استفاده از روش های سری زمانی بودم، اما هیچ مقاله ای در مورد همگرایی سری های زمانی پیدا نکردم. داشتم به این فکر می کردم که آیا می توان یک فویر گسسته گرفت و با آن کاری کرد یا .....؟ برخی قبلاً به این موارد نگاه کرده بودند: کرامر فون میزس، کولموگروف-اسمیرنوف، کویپر، رافتلی-لوئیس، هاینبرگ-ورتلی. | همگرایی MCMC برای توابع بد رفتار |
68520 | من در حال حاضر با یک مدل خطر زمان گسسته ضریب تصادفی کار می کنم. مفروضات زیر مشمول این نوع مدل هستند: * فرض افزودنی خطی * فرض تناسب * فرض عدم تجانس مشاهده شده اکنون می خواهم این مفروضات را به نحوی آزمایش کنم. در مقالاتی که تا به حال خوانده ام، این فرضیات همیشه به عنوان داده شده در نظر گرفته شده است و من هنوز هیچ آزمون استانداردی برای آنها ندیده ام. آیا آزمون استاندارد شده ای برای این مفروضات وجود دارد یا بیشتر مربوط به مشخصات صحیح مدل با آزمایش و مقایسه انحراف و غیره مشخصات مدل های مختلف است؟ | آزمون های فرضی در مدل خطر گسسته زمان |
35345 | من دادههای زیر را دارم: * تعداد ماه سالانه افراد مبتلا به مشکل کمر/گردن * تعداد افرادی که از جراحی (فیوژن کمر) به عنوان یک درمان استفاده میکنند، هدف محاسبه میزان استفاده از جراحی است (`= تعداد جراحیها / تعداد افراد با مشکل کمر/گردن») برای هر ماه و از این رو پیش بینی ماهانه ارائه می شود. بهترین رویکرد برای مدل سازی این داده ها چیست؟ من سعی کردم فصلی بودن داده ها را کشف کنم، اما با موفقیت کمی. آیا امکان دارد که اطلاعات من فصلی نداشته باشد؟ اگر از رگرسیون پواسون استفاده کنم، آیا باید نرمال بودن را آزمایش کنم؟ یا می توانم توزیع داده ها را نادیده بگیرم. روش گام به گام درخواست می شود زیرا من در این زمینه جدید هستم. من اطلاعاتی از ژانویه 2006 تا مه 2012 دارم. تعداد من بین 1 تا 70 است. من از sas و sas jmp استفاده می کنم. در نسخه sas که من استفاده می کنم محدودیت وجود دارد. مجوز سری زمانی ندارد. * * * فصلی در تعداد با مشکل کمر/گردن وجود ندارد. بنابراین، حدس میزنم در تعداد جراحیها نیز فصلی وجود نداشته باشد. از آنجایی که من داده های شمارشی دارم از رگرسیون پواسون برای مدل کردن تعداد جراحی ها استفاده می کنم. اما رگرسیون پواسون چند فرض قوی دارد. روش ممکن دیگر رگرسیون دو جمله ای منفی است. در حال حاضر مدل من دارای یک متغیر وابسته تاخیری (تعداد تاخیری جراحی) و عدد با درد کمر/گردن است. امیدوارم در مسیر درست باشم. یا روش بهتری را پیشنهاد می کنید؟ | چگونه داده های شمارش ماهانه (تعداد جراحی های فیوژن کمر) را مدل کنم؟ |
35348 | من دانشجوی دکترا هستم و در حال انجام تحقیق در مورد تحلیل رگرسیون هستم. سوال من این است که چگونه می توان تشخیص داد که داده ها کمی، متوسط یا بسیار غیرعادی توزیع شده اند؟ * * * TQ به تمام پاسخ های سوال من. اما، ممکن است سوال من چندان واضح نباشد. بسیار خوب، بگذارید بگوییم که من مقادیر متفاوتی از چولگی و کشیدگی دارم (به عنوان مثال: چولگی = 1.5، کشیدگی = 2.0). بنابراین سوال من این است که از مقادیر چولگی و کشیدگی، نوع توزیع داده ها چیست؟ آیا نسبتاً غیر طبیعی است یا بسیار غیر طبیعی یا چه؟ | چگونه تعیین کنیم که داده ها کمی یا بسیار غیرعادی توزیع شده اند؟ |
79210 | Cramer-von Mises روش خوبی برای مقایسه توزیع ها با این موارد ارائه می دهد: $$ \int [(\hat{F}_n(x) - F_0(x)]^2dF_0(x)؛ $$ من می خواهم از چیزی شبیه به این برای مقایسه دو توزیع تجربی، آیا آمار مشابهی وجود دارد که به جای آن استفاده میکند: $$ \int_n[\hat{f}_n(x) - f_0(x)]^2df_0(x) یعنی آیا چیز خاصی در مورد استفاده از CDF ها بر خلاف تراکم ها وجود دارد؟ | Cramer-von Mises با استفاده از pdf به جای Cdf |
68522 | من یک تحلیل عاملی تاییدی همزمان انجام میدهم تا بررسی کنم که آیا آیتمهای یک نظرسنجی به مفاهیم زیربنایی جداگانه مورد نظر بدون بارگذاری متقاطع بر روی مفاهیم اشاره دارند یا خیر. از آنجایی که من این کار را در چارچوب یک دوره آموزشی SEM انجام می دهم، به نحوه تخمین این نرم افزار نیز توجه دارم. من یاد گرفتم که مدل نباید کمتر شناسایی شود، جایی که پارامترهای بیشتری برای تخمین نسبت به اطلاعات موجود وجود دارد، یعنی مدل پیچیدهتر از دادهها است. اکنون آنچه من فکر می کنم این است که مدل من کمتر شناسایی شده است، با این حال، بسته lavaan در R مشکلی برای نصب آن ندارد و نشان می دهد که حتی 38 درجه آزادی بیشتر وجود دارد. مدل من به این شکل است:  متغیرهای دارای ستاره، متغیرهای آشکار ترتیبی هستند که به متغیرهای پاسخ پنهان پیوسته تبدیل می شوند. این مشخصات مدل در R است: TP.cfa <- 'tpeff =~ plcpvcr + plccbrg + plcarcr tpfairdis =~ plcvcrp + plcvcrc tpfairproc =~ plcrspc + plcfrdc + plcexdc fit + plcexdc همکاری =vd <prct' خلاصه cfa(TP.cfa، data=ESS5BE، ordered=c(plcvcrp،plcvcrc، plcrspc، plcfrdc، plcexdc، caplcst، widprsn، wevdct)) .cfa، fit.measures=TRUE، modin=T) اگر درست بشمارم، 25 اطلاعات موجود است: 3 برای 3 متغیر مانیفست پیوسته {k(k+1)/2}، و 22 نسبت برای متغیرهای مانیفست ترتیبی (6 مورد از آنها دارای 4 دسته پاسخ، 2 دارای 3 دسته، و برای یک متغیر ترتیبی نسبت های c-1 اطلاعات منحصر به فردی هستند. ). لاوان 53 پارامتر را برآورد می کند: 6 کوواریانس، 7 بار عاملی، 3 قطع، 22 آستانه و 15 واریانس. حال سوال من این است که آیا R میتواند مدل را تخمین بزند، حتی اگر کمتر شناسایی شود؟ یا واقعاً من یک مدل بیش از حد شناسایی شده با 38 درجه آزادی دارم و بعد اینها از کجا می آیند؟ | درجات آزادی در تحلیل عاملی تاییدی همزمان |
91344 | من در مورد چگونگی انجام تجزیه و تحلیل حساسیت بر روی پیشین ها نمی دانم. بسیاری از سایت ها پاسخ های متفاوتی دارند. یک سایت نشان میدهد که سه پیشنمایش غیر آموزنده، ضعیف و شناخته شده را انجام میدهد. دیگری پیشنهاد می کند که مدل را با اولویت های مختلف اجرا کنید. در اینجا سؤالات من وجود دارد: من می خواهم این پارامتر A را تخمین بزنم که در آن A = mean1 + mean2 . بنابراین، پیشینهای میانگین 1 و میانگین 2 (*در کدگذاری**) به صورت زیر فرموله میشوند: mean1 ~ N(u1, tau1) A ~ N (mean1, tau2) که در آن tau1 ~ گاما (آلفا1، بتا1) tau2 ~ گاما (alpha2,beta2) با فرمول بالا، چگونه می توانم تجزیه و تحلیل حساسیت را انجام دهم؟ 1. آیا باید محدوده ای از u1، tau1 و tau2 را تعریف کنم؟ اگر چنین است، رویه های سیستماتیک چیست؟ به نظر من ترکیب های مختلفی وجود دارد: تغییر u1 و ثابت کردن tau1 و tau2. یا u1 و tau2 را اصلاح کنید، tau1 را تغییر دهید. یا u1 و tau1 را با tau2 تغییر دهید. از کجا بفهمیم که پیش از استفاده صحیح کدام است؟ 2. چگونه می توانم پیش از آموزنده ضعیف را در فرمول بالا بگنجانم؟ 3. اگر تست حساسیت با تغییر مقادیر اولیه، میانگین های تخمینی متفاوت 1 و A را برگرداند، چه؟ چگونه نتیجه گیری کنیم؟ توصیه شما مورد قدردانی قرار خواهد گرفت و به من کمک می کند تا شروع کنم. متشکرم! ویرایش: یک خطا را تصحیح کردم. شما می توانید _mean2_ تخمین زده شده را از پارامترهای تخمینی _A_ و _mean1_ تخمین زده شده محاسبه کنید. | مشاوره در مورد تجزیه و تحلیل حساسیت برای پیشینیان در آمار بیزی |
100443 | اگر سه گروه مستقل از دادههای بازهای دارم و میخواهم بررسی کنم که آیا میانگین آنها تفاوت معنیداری دارند، باید از چه آزمون آماری استفاده کنم؟ همچنین باید توجه داشته باشم که اندازه نمونه های هر گروه متفاوت است (N1=50، N2=10، N3=13). آیا عاقلانه تر است که یکی را با دیگری مقایسه کنیم و سپس همین کار را برای دو جفت دیگر انجام دهیم؟ (G1=G2؛ G2=G3؛ G1=G3)؟ من می دانم که ANOVA یک طرفه و Tukey's post-hoc بهترین گزینه هستند، اما آیا تفاوت در اندازه نمونه مشکلی ایجاد می کند؟ متشکرم! | از چه آزمون آماری برای سه گروه با حجم نمونه متفاوت استفاده کنم؟ |
108361 | من در تلاش برای حل یک مشکل بیزی هستم که در آن دو فرضیه متقابل منحصر به فرد و جامع دارم: $H_1$ و $H_2$. با توجه به فرمول بی: $$P(H|D) = \frac{P(H)P(D|H)}{P(D)}$$ (که $D$ دادههای من است) من آن یکی را خواندهام راه برای به دست آوردن پسین $P(H_1|D)$ و $P(H_2|D)$، ایجاد جدولی مانند این است: P(H) (قبلی) | P(D|H) (احتمال) | _________________________________________________ H1 | P(H1) | L(H1) | P(H1)*L(H1) H2 | P(H2) | L(H2) | P(H2)*L(H2) سپس با جمع کردن مقادیر در ستون سوم، ثابت _normalization_ $P(D)$ را به صورت: $$P(D) = P(H_1)L(H_1) + P(H_2) دریافت می کنم. L(H_2)$$ که برای هر فرضیه موارد پسین را به صورت زیر به دست می دهد: $$P(H_1|D) = \frac{P(H_1)L(H_1)}{P(H_1)L(H_1) + P(H_2)L(H_2)}$$ $$P(H_2|D) = \frac{P(H_2)L (H_2)}{P(H_1)L(H_1) + P(H_2)L(H_2)}$$ دانش من در آمار زیاد نیست و نتوانستم تأیید کنم این هر جای دیگر کسی می تواند به من بگوید که آیا این درست است؟ | به دست آوردن پسین برای فرضیه های انحصاری و جامع |
23407 | در یادگیری تقویتی، تفاوت بین برنامه نویسی پویا و یادگیری تفاوت زمانی چیست؟ | تفاوت بین برنامه نویسی پویا و یادگیری تفاوت زمانی در یادگیری تقویتی |
57232 | آیا راهی برای بدست آوردن باندهای اطمینان حول منحنی اثرات ثابت جمعیت برازش شده برای مدلهای اثرات مختلط غیرخطی برازش شده در تابع «R» «nlme()» وجود دارد؟ من مایلم منحنی برازش میانگین جمعیت را با عدم قطعیت در برآوردها رسم کنم، با این حال، هیچ راه روشنی برای انجام این کار با در نظر گرفتن واریانس اثرات تصادفی پیدا نکردم. | باندهای اطمینان در مدلهای اثرات مختلط غیر خطی |
79216 | **مشکل**: هنگام تلاش برای محاسبه واریانس مجموع سری های زمانی، من یک واریانس منفی دریافت می کنم، که بیشتر به دلیل خودکوواریانس ها در مراحل تاخیر بزرگ است. واقع بینانه به نظر نمی رسد. من یک سری زمانی دارم که از یک سری زمانی دیگر با استفاده از یک معادله رگرسیون محاسبه می شود. من می خواهم عدم قطعیت در رگرسیون به سری های زمانی نهایی را تبلیغ کنم. سپس میخواهم بخشهای مختلف سریهای زمانی را در دورههای زمانی مختلف جمع کنم (یا مقادیر میانگین را بگیرم) و عدم قطعیت مجموع را دریافت کنم. سری های زمانی در اصل در فرکانس 1 ساعت است و من می خواهم در دوره های 1 روزه (نمونه برداری مجدد به فرکانس روزانه) تا چندین سال جمع بندی کنم. سریهای زمانی در زمانهای تاخیر کوتاه بهشدت همبستگی خودکار دارند. برای بدست آوردن واریانس مجموع (در حالتی که 3 عنصر جمع شوند): $$Var(a+b+c)= \\\ Var(a)+Var(b)+Var(c) + 2 \times (Cov(a,b) + Cov(a,c)+Cov(b,c))$$ من از `r` برای محاسبات استفاده می کنم. من واریانسهای هر عنصر سری زمانی را به صورت $SE^2$ دریافت میکنم، که در آن $SE$ خطای استاندارد (`se.fit`) است که از تابع `predict()` r با استفاده از مدل رگرسیون برگردانده میشود. کوواریانس هایی که من از تابع اتوکوواریانس «acf()» دریافت می کنم. در اینجا تعدادی کد و مجموعه ای از داده ها وجود دارد (ببخشید کد R ناشیانه است، من با R بسیار جدید هستم): #tsY سری های زمانی پیش بینی شده از رگرسیون tsY=c است (81.4، 79.0، 83.4، 81.7، 75.7، 68.3، 62.3، 57.2، 52.6، 48.8، 45.4، 42.6، 39.9، 37.6، 35.6، 33.8، 32.2، 30.8، 29.6، 28.4، 27.3، 26.2، 25.0، 23.9). 1.60، 1.56، 1.41، 1.23، 1.09، 0.97، 0.87، 0.78، 0.71، 0.65، 0.60، 0.55، 0.51، 0.48، 0.45، 0.40، 0.40، 0.40، 0.40، . 0.34، 0.32، 0.30) tsVar=tsSE^2 #یک ماتریس از خودکوواریانس ها در زمان های تاخیر مختلف ایجاد کنید، مورب lag=0 است #ردیف ها و ستون ها شاخص هایی در سری زمانی هستند covmat<-matrix(numeric(0), length(tsY) ,length(tsY)) برای ( i in (1:(length(tsY)) ) ) { if (i == 1) { autocov<-acf(tsY, type='covariance', lag.max= length(tsY)) autocovvec<-autocov$acf[1:nrow(autocov$acf)] covmat[i: length(tsY),i]=autocovvec } else { autocov<-acf(tsY[-(1:i-1)], type='covariance', lag.max= length(tsY)) autocovvec<-autocov$acf[1:nrow(autocov$acf)] covmat[i:length(tsY),i]=autocovvec } } # مجموع ماتریس ستونها، اما نه مجموع ستونهای مورب <- rep(NA, ncol(covmat)) برای (i در (1:ncol(covmat))) { if (i == 1) { sumofColumns[i]=sum(covmat[-(1),i]) } else{sumofColumns[i]=sum(covmat[-(1 :i),i]) } } sumofCov=sum(sumofColumns) # مجموع کوواریانس (Cov(a,b) + Cov(a,c)+...) sumofVar=sum(tsVar) # مجموع واریانس های هر عنصر سری زمانی varofSum=sumofVar+2*sumofCov # واریانس مجموع سری های زمانی # از covmat واریانس منفی در رخ می دهد زمان تاخیر بزرگتر acf(tsY, type='covariance', lag.max= length(tsY)) > sumofCov [1] -1151.529 > varofSum [1] -2283.246 **بنابراین من سوالات زیر را دارم:** > 1. آیا من کاملاً انجام دادم نحوه محاسبه واریانس مجموع را اشتباه متوجه شده اید؟ > > 2. آیا بهتر است از یک برش از حداکثر تأخیرها برای در نظر گرفتن در اتوکوواریانس استفاده شود؟ اگر چنین است چگونه می توان این را تعیین کرد؟ این امر به ویژه در مورد داده های کامل که طول آن چندین هزار است مهم است. > > > > ~~3\. چرا کوواریانس در این داده های نمونه در کل منفی است؟ هنگام ترسیم tsY`plot(tsY)` به نظر می رسد که کوواریانس/همبستگی باید مثبت باقی بماند.~~ زیرا این تغییر جهت از میانگین آنها است. **ویرایش:** > نظر در مورد **سوال 2** بالا: من متوجه شده ام که استفاده از تاخیرهای n-1، مانند > بالا در کد، چندان منطقی نیست. به نظر میرسد که راههای متفاوتی برای تعیین حداکثر تاخیر وجود دارد. Box & Jenkins > (1970) n/4 و R را به طور پیش فرض 10*log10(n) پیشنهاد می کند. با این حال، این به سوال > پاسخ نمی دهد که چگونه یک برش مناسب برای جمع کوواریانس های > تعیین کنیم. > > آیا منطقی است که به خودهمبستگی جزئی (تابع pacf())، > نگاه کنیم تا تأثیر کوواریانس خودکار در عبارت جمع را بیش از حد برآورد نکنیم؟ خود همبستگی جزئی برای داده های من به طور قابل توجهی > متفاوت از صفر تنها در 1 یا 2 تاخیر است. به طور مشابه، با برازش یک مدل AR > با استفاده از تابع ()ar، مرتبه 1 یا 2 را نیز دریافت می کنم. | مجموع واریانس سری های زمانی خودهمبسته |
103473 | من مجموعه بزرگی از عکسها از انواع مختلف دارم که با برخی برچسبها برچسبگذاری شدهاند، اما واقعا نمیتوان به آنها اعتماد کرد (به عنوان مثال، برخی از پرترهها دارای برچسب عمودی هستند در حالی که بسیاری از آنها چنین برچسبهایی را برای منظره و غیره ندارند) . من می خواهم به نحوی تشخیص دهم که کدام یک از آنها دارای منظره و/یا معماری هستند (برخلاف انسان ها، چه صورت و چه تمام قد، اتومبیل، غذا و غیره). من متشکرم که این موضوع پیچیده ای است و من واقعاً مهارت یا زمان لازم برای پرداختن به آن را ندارم، بنابراین فقط امیدوارم از چند کتابخانه منبع باز استفاده کنم و امیدوارم بهترین ها را داشته باشم، زیرا به دقت بالایی نیاز ندارم. - هم مثبت کاذب و هم منفی کاذب فاجعه نیست. همچنین به این که چه ساختمانی در چه تصویری است یا کدام کوه و غیره اهمیتی نمیدهم. ایده فعلی من این است که برخی از الگوریتمهای تشخیص چهره موجود (شاید Haar با استفاده از OpenCV) را روی آن اجرا کنم و از همه مواردی که موارد مثبت را نشان میدهند صرف نظر کنم. آیا کار نسبتاً ساده دیگری وجود دارد که بتوانم برای حذف عکس افراد از پشت، بشقاب های غذا و غیره (بدون آموزش طبقه بندی کننده های خودم) انجام دهم؟ آیا فکر من در جهت درست است یا راه حل های آسان تری را از دست می دهم؟ | شناسایی/تشخیص عکس های منظره و معماری |
87857 | من یک توزیع تجربی را به مجموعه ای از داده های سری زمانی (Y) با کد زیر در R برازش دادم: Ye=rank(Y)/(length(Y)+1) چگونه می توانیم معکوس این توزیع را پیدا کنیم؟ با تشکر | چگونه تابع تجربی را معکوس کنیم؟ |
23406 | همانطور که در این سوال دیدیم، استراتژی توصیه شده برای ساختن درخت تصمیم، پس هرس است. دو روش برای آن عبارتند از _subtree جایگزینی_ و _subtree raising_. در هر گره، یک الگوریتم تصمیم میگیرد که آیا باید جایگزینی زیردرخت، بلند کردن زیردرخت را انجام دهد یا زیردرخت را همانطور که هست رها کند. * _Subtree جایگزینی_ یک زیردرخت را انتخاب می کند و آن را با یک برگ جایگزین می کند. * _افزایش درخت فرعی_ یک زیردرخت را انتخاب میکند و آن را با یک فرزند جایگزین میکند (یعنی یک زیردرخت جایگزین والد آن میشود) جوانب مثبت و منفی چیست، چه زمانی باید از هر کدام استفاده کنیم؟ | جایگزینی زیردرخت در مقابل افزایش درخت فرعی |
28656 | من رگرسیون لجستیک چند جمله ای انجام می دهم. متغیر وابسته دارای 6 دسته است. 6 متغیرهای مستقل در مقیاس فاصله ای اندازه گیری می شوند (به عنوان متغیرهای کمکی در SPSS گنجانده شده است) اکنون من تست LR را تماشا می کنم. هیچ یک از متغیرهای مستقل دارای مقدار $\chi^2$ نیستند و هیچ درجه آزادی نشان داده نمیشود، بنابراین معنیداری مشخص نشده است. (به جز ثابت که قابل توجه است و 5 df دارد). یک متغیر در تخمین پارامترها اضافی است. وقتی IV اضافی را در مدل حذف میکنم، مقادیر $\chi^2$، df و مقادیر معنیداری برای متغیرهای مستقل وجود دارد. آیا مدل اول بیش از حد پارامتر شده بود یا چیزی؟ توضیح این وضعیت چیست؟ و آیا حذف یک متغیر مستقل در مدل معتبر است؟ | آزمون نسبت احتمال در رگرسیون لجستیک چند جمله ای با استفاده از SPSS |
35346 | این سؤال حاوی یک مقدمه نسبتاً طولانی است، زیرا می خواهم انگیزه سؤال را تا حد امکان واضح توضیح دهم. ممکن است من سوال اشتباهی بپرسم (یعنی راه حل بهتری نسبت به چیزی که دارم تلاش میکنم وجود دارد) و از هر پاسخ خوبی در این راستا استقبال میکنم. من یک نقشه زمان واقعی برای یک کمیت فیزیکی بر روی یک منطقه بزرگ (یک قاره) پیادهسازی کردهام که صدها نقطه داده را ترکیب میکند و از یک فیلتر کالمن برای تخمین مشترک ضرایب یک ترکیب خطی از توابع پایه (نقشه) به اضافه یک عدد بزرگ استفاده میکند. تعداد سوگیری های ابزاری و سایر پارامترهای مزاحم. یک مشکل در این رویکرد این است که نقاط داده به روشی بسیار ناهموار توزیع می شوند. برخی از مناطق دارای تعداد زیادی نقاط داده با فاصله نزدیک هستند و مناطق دیگر بسیار پراکنده تر هستند. از آنجایی که نقشه با مجموعه ای جهانی از توابع پایه نشان داده می شود، هیچ رسانه خوشحال کننده واقعی در انتخاب بهترین ترتیب بسط برای تابع مولد وجود ندارد. من برای نواحی پراکنده که منجر به مصنوعات جعلی می شوند، نظم بسیار بالایی دارم، یا برای مناطق غنی از داده، نظم بسیار پایینی دارم، که ساختار واقعی را که توسط داده ها پشتیبانی می شود، صاف می کنم. به منظور تطبیق بیشتر با چگالی داده های محلی، من به استفاده از نوعی رویکرد تابع پایه شعاعی (RBF) با استفاده از خوشه بندی بدون نظارت (به عنوان مثال K-means) برای توزیع مجموعه ای از مبدا تابع پایه برای مطابقت با چگالی داده های محلی فکر می کنم. . من هنوز باید از نوعی فیلتر برای تخمین پارامترهای مزاحم همراه با نقشه استفاده کنم، اما این رویکرد RBF خطی بودن سیستم را حفظ می کند تا بتوان از فیلتر Kalman استفاده کرد. من فقط باید با اشکال مختلف توابع پایه و پارامترهای آنها، تعداد توابع پایه برای استفاده و غیره آزمایش کنم. با این حال، ایده آل است که یک محدودیت صافی را نیز در نظر بگیرم، مانند مورد یک صفحه نازک. اسپلاین (TPS). این را می توان به عنوان مجموعه ای از محدودیت های خطی اضافی بر روی مقادیر نقشه در هر مبدأ پایه بیان کرد و فرمول استاندارد TPS یک راه حل شکل بسته دارد. کاری که من میخواهم انجام دهم این است که این محدودیتهای خطی را در مکانیزم فیلتر، همانطور که به دلیل نویز بودن برخی از قسمتهای سیستم لازم است، بجای حداقل کردن TPS یکباره، بگنجانم. من می توانم به طور مبهم تصور کنم که چگونه می توان این کار را انجام داد، اما مهارت های جبر خطی من در حد وظیفه استنتاج کامل آن (یا حتی نشان دادن انجام آن) نیست. بنابراین سوال من این است که آیا این رویکرد امکان پذیر است و اگر چنین است، فرم فیلتر حاصل چگونه به نظر می رسد. آیا اصطلاح خاصی وجود دارد که به اختصار آنچه را که میخواهم انجام دهم را توصیف کند؟ آیا نتیجه استانداردی برای این وضعیت وجود دارد؟ | ترکیب یک فیلتر کالمن خطی با محدودیت های خطی اضافی؟ |
87854 | من در تعجبم که چگونه می توان ماتریس طراحی را برای یک مدل «coxph()» با عبارت «pspline()» بازسازی کرد. به عنوان مثال، اگر من با مدل زیر مطابقت داشته باشم، fit <- coxph(Surv(t,delta) ~ pspline(x,df=0))) چگونه می توانم پیش بینی خطی را با دست برای مقدار معین x$ محاسبه کنم؟ من به طور رسمی $h(t|x) = h_0(t)\cdot e^{(X^\intercal\beta)}$ را مدل می کنم و می خواهم بدانم چگونه $X$ یا $X^\intercal را محاسبه کنم \بتا $ با دست. وقتی از عبارت pspline() استفاده میشود، نمیتوانم مستندات دقیقی از نحوه ساخت ماتریس طراحی پیدا کنم. در مورد اینکه چرا من اهمیت میدهم، من مجموعه بزرگی از پیشبینیهای جدید را از یک شی «coxph()» با عبارت «pspline()» اجرا میکنم. من خطر تجمعی $H_0(t)$ را ذخیره کرده ام و می خواهم بتوانم $H_0(t)\cdot e^{(X^\intercal\beta)}$ را به طور موثر محاسبه کنم. من متوجه شدم که استفاده از predict(fit, newdata=data.frame(x=x.new)، type='lp') بسیار ناکارآمد است! هر گونه راهنمایی بسیار قدردانی خواهد شد. | چگونه یک ماتریس طراحی برای coxph با عبارت pspline بسازیم؟ |
4200 | من تعداد زیادی (صدها تا هزاران) سری زمانی پر سر و صدا دارم که مشاهدات همزمان از موضوعات مختلف را نشان می دهد. من فرض میکنم که بین مشاهدات برای سوژههای مختلف (یا گروههایی از سوژهها) روابط سرب- تاخیر وجود دارد. چه روش هایی را می توانم برای این در نظر بگیرم؟ ویرایش: برای روشن شدن، من به روابط زوجی نگاه نمی کنم. چیزی که من به دنبال آن هستم، روشی است که به کوهی از دادههای در دست نگاه میکند و تلاش میکند تا روابط لید-لگ (بالقوه غیرخطی) بین گروههای _سرطانی_ سری و سریهای فردی را که باید پیشبینی شود، کشف کند. | استفاده از روابط سرب- تاخیر برای پیش بینی سری های زمانی |
73513 | چگونه می توان به طور تصادفی از یک توزیع T در R نمونه برداری کرد. از آنچه من پیدا کردم، تابع «rt» در R به شما اجازه نمی دهد میانگین و انحراف استاندارد را مشخص کنید. برای توزیع نرمال به سادگی «rnorm(x,mu,sd)» است. ویرایش: برای توزیع t یک نسخه _central_ و_non-central_ وجود دارد. من می خواهم تفاوت این دو را بدانم. علاوه بر این، اگر بخواهم میانگین و انحراف معیار را مشخص کنم، آیا به طور خودکار به این معنی است که من با نسخه غیر مرکزی توزیع t سروکار دارم؟ من استفاده از توزیع t را انتخاب کردم زیرا دادههایی که استفاده میکنم نسبتاً دم چاق هستند و توزیع t با درجه آزادی کم ایده خوبی به نظر میرسد. چه توزیع های دیگری برای مدیریت داده های دم چربی وجود دارد؟ همچنین اگر بتوانید تابع را در R نیز مشخص کنید عالی خواهد بود. | داده ها را از یک توزیع t با میانگین و انحراف استاندارد مشخص شده تولید کنید |
35347 | در زمینه یک مشکل پردازش سیگنال آماری، من یک مدل سیگنال به شکل $x[n]=s[n;\theta]+w[n]$ دارم که در آن $w[n]\sim{\cal N} (0,\sigma^2)$ و $s[n;\theta]$ به صورت غیرخطی به $\theta$ بستگی دارد. $n=0،\ldots،N-1$ شاخص نمونه زمانی است. من برآورد حداکثر احتمال $\theta$ را به صورت $\theta_{\rm ML}=\underset{\theta}{\arg\min}\,\,p(x[0],x[1],\ محاسبه میکنم. ldots,x[N-1]|\theta)$ با به حداقل رساندن احتمال ورود به سیستم. حال سوال من این است: آیا می توانم در این مورد از توزیع $\chi^2$ برای تست خوب بودن استفاده کنم؟ اکثر کتاب های آماری که من دیده ام، آزمون $\chi^2$ را در زمینه رگرسیون خطی ارائه می کنند. من به خصوص به حالت کلی چند متغیره ($\boldsymbol{\theta}$ یک بردار است) و $\mathbf{w}[n]\sim{\cal N}(0,\mathbf{C})$ علاقه دارم. همچنین، لطفاً کسی می تواند یک کتاب خوب (در سطح کازلا و برگر) که مطالب مرتبط را ارائه می دهد، معرفی کند؟ | آزمون کای دو برای رگرسیون غیرخطی |
87858 | من سعی کردم از بسته glmnet در R برای ایجاد یک مدل رگرسیون کمند استفاده کنم. جزئیات داده های من عبارتند از: متغیرهای وابسته $y$: 451 مشاهدات، یک مقدار برای هر مشاهده. متغیرهای مستقل $x$: 451 مشاهده، 959 مقدار برای هر مشاهده. من مقدار بهینه $\lambda$ را با به حداقل رساندن خطای میانگین مربعات متقاطع پیدا می کنم. سپس پارامترهای $\beta$ را با مقدار مربوطه $\lambda$ ایجاد کردم. تعداد پارامترهای غیر صفر حدود 20 است. در نهایت من مقادیر پیش بینی شده $\hat{y}=\sum\beta x$ را ایجاد کردم. وقتی نمودار $\hat{y}$ را در برابر $y$ میسازم، شیب نمودار کوچکتر از 1 است. اما اگر $y$ را در برابر $\hat{y}$ رسم کنم، شیب برابر با 1 است. سوالات من عبارتند از: 1. آیا این به این معنی است که مدل من نقص دارد؟ چرا شیب $y$ در برابر $\hat{y}$ برابر با معکوس شیب $\hat{y}$ در برابر $y$ نیست؟ 2. آیا این به دلیل غیر خطی بودن داده های من است؟ من می دانم که رابطه بین $y$ و $x$ غیر خطی است. 3. آیا این بدان معناست که مدل من را می توان با انجام مقداری تبدیل غیرخطی روی $y$ بهبود بخشید؟ من سعی کردم تبدیل سیگموید را انجام دهم زیرا شیب را تغییر نمی دهد. با تشکر فراوان. | آیا نمودار مقدار پیشبینیشده در مقابل نمودار ارزش مشاهدهشده، شیب برابر 1 در مدل LASSO ندارد؟ |
103470 | فیلتر کالمن پیشبینیهای یک گام جلوتر در بازگشتها را فراهم میکند. ما شروع به تخمین واریانس (ناشناخته) پارامترها می کنیم، برای مثال از طریق «MC» یا «MLE». سپس از تخمین های واریانس (به عنوان مثال میانگین) برای اجرای فیلتر کالمن استفاده می کنیم. اما، از آنجایی که قبلاً از دادهها برای تخمین واریانسها استفاده کردهایم، آیا میتوانیم دوباره با استفاده از همان دادهها، پیشبینیها را محاسبه کنیم؟ این چیزی است که من متوجه شده ام که تابع «dlmFilter» از بسته «dlm» انجام می دهد و می خواهم بدانم چرا این درست است. | درک پیش بینی ها در مدل های فضای حالت خطی |
87856 | من سعی می کنم داده های 2 جمعیت را با هم مقایسه کنم تا بگویم آیا تفاوت بین تیمارها از نظر آماری معنی دار است یا خیر. به نظر می رسد که مجموعه داده ها به طور معمول با تفاوت بسیار کمی بین این دو مجموعه توزیع شده اند. میانگین تفاوت 0.00017 است. من یک آزمون t زوجی انجام دادم، با این انتظار که در رد فرضیه صفر مبنی بر عدم تفاوت بین میانگین ها شکست بخورم، با این حال، مقدار t محاسبه شده من بسیار بالاتر از مقدار t بحرانی من است. | اگر میانگین اختلاف تقریباً صفر باشد، آزمون t چگونه می تواند از نظر آماری معنادار باشد؟ |
34033 | من یک مجموعه داده حاوی سه متغیر دارم. من این سردرگمی را دارم، mse پایین یعنی همبستگی بالاتر، اینطور نیست؟ حالا وقتی mse را برای متغیر دو و سه محاسبه میکنم که در آن متغیر سوم حقیقت پایه من است، mse بالاتری نسبت به متغیری که با مقایسه متغیر یک و متغیر سه (صحت پایه) بدست میآورم، میگیرم. با این حال، وقتی همبستگی را با استفاده از تابع corr در متلب محاسبه می کنم، همبستگی بالاتری بین متغیر دو و سه در حدود 0.78 دریافت می کنم. از طرفی همبستگی بین متغیر یک و سه برابر 76/0 است. چرا اینطور است؟ اجازه دهید به شما بگویم که من تعداد متفاوتی از متغیرهای1-variable3 و variable2-variable3 دارم. منظورم این بود که بگویم گاهی اوقات مقادیر متغیرها گم می شوند. بنابراین در مجموع، من 1280 مجموعه متغیر1-متغیر 3 جفت و 400 مجموعه متغیر2-متغیر 3 جفت دارم. همانطور که گفتم برای مجموعه متغیر1-variable 3 mse بالاتری نسبت به مجموعه variable2-variable3 دارم که برای تعداد جفت نقاط به ترتیب 400 و 1280 محاسبه می شود. من کمی گیج هستم. هر بینش؟ | سردرگمی در مورد همبستگی و mse |
74568 | من سعی می کنم از میانگین گیری مدل بیزی برای انتخاب متغیر با تعداد زیادی متغیر استفاده کنم. در R، بسته BMS امکان اعمال روش را با امکان استفاده از نمونهگر MCMC (الگوریتم Metropolis Hastings) در زمانی که تعداد متغیرهای کمکی زیاد است، میدهد. در اینجا یک کد نمونه وجود دارد: data(datafls) fls1 = bms (datafls, burn = 50000, iter=100000, g = BRIC, mprior = uniform, nmodel = 2000, mcmc=bd, user.int= F) result = coef(fls1) با این حال، اگر یک کد را دو بار اجرا کنید، نتایج (یعنی کد پسین) احتمالات) کاملاً متفاوت خواهد بود. آیا کسی می داند چگونه کد را تنظیم کند تا نتایج برای هر اجرا یکسان باشد؟ ممنون | میانگینگیری مدل بیزی برای انتخاب متغیر در R |
76925 | آیا می توان ضرایب را به سمت عددی غیر از صفر در یک رگرسیون پشته در R جریمه کرد؟ به عنوان مثال، فرض کنید من متغیر وابسته Y و متغیرهای مستقل X1، X2، X3 و X4 دارم. به دلیل ماهیت چند خطی ivs، رگرسیون رج مناسب است. اما بگویید من نسبتاً مطمئن هستم که ضریب X1 نزدیک به 5، X2 نزدیک به 1، X3 نزدیک به -1 و X4 نزدیک به -5 است. آیا بسته و روشی در R وجود دارد که بتوانم جریمه هایی را روی ضرایب ivs اعمال کنم که آنها را به جای 0 نسبت به آن اعداد جریمه کند؟ من دوست دارم در صورت امکان مثالی را در R با داده های مثال خود ببینم. متشکرم. | رگرسیون ریج در R که در آن ضرایب به اعدادی غیر از صفر جریمه می شوند |
94062 | من سعی میکنم از بستهها برای تخمین مدلها استفاده نکنم تا درک عمیقتری از نحوه کار کردن داشته باشم. در حال حاضر، من سعی دارم یک VAR(1) (خودرگرسیون برداری مرتبه اول) را تخمین بزنم و سوال من در مورد چگونگی ساخت ماتریس متغیرهای وابسته و مستقل است. از نظر تئوری، مدل من این است:  در مورد ماتریس متغیرهای وابسته، باید به اندازه کافی آسان باشد. من فقط باید «xt» و «zt» را پشته کنم. با این حال، من نمی دانم چگونه ماتریس متغیرهای مستقل را بسازم. من خواندم که VAR بسیار شبیه به SUR (رگرسیون های به ظاهر نامرتبط) است، بنابراین فکر می کنم که ماتریس متغیرهای مستقل باید یک ماتریس مورب بلوکی باشد، اما چگونه باید باشد؟ به خصوص اگر بخواهم یک روند ثابت و زمانی به مدل اضافه کنم؟ متشکرم. | ماتریسی از متغیرهای انباشته در رگرسیون VAR بسازید |
79215 | چگونه می توان مقادیر از دست رفته را هنگام محاسبه شباهت (یا فاصله ها) مدیریت کرد؟ (من مقادیر ویژگی های باینری را دارم و از ضریب تطبیق ساده استفاده می کنم، اما فکر می کنم پاسخ این سوال ممکن است کلی تر باشد) می توانم به دو گزینه فکر کنم: * مقادیر گمشده را حذف کنید * مقادیر از دست رفته را به عنوان خطا بشمارید، اما حذف مقادیر تهی باعث شده است. مشکل این است که نمره بالا را می توان تنها با یک یا چند مقدار به دست آورد (به مثال A مراجعه کنید). و شمارش گمشده به عنوان خطا این مشکل را دارد که مسابقات از دست رفته واقعی باید بیشتر از مقادیر گمشده شمارش شوند (به مثال B مراجعه کنید). آیا تکنیکی وجود دارد که هیچ یک از این کاستی ها را نداشته باشد؟ مثال A Instance1 Instance2 Feature1 از دست رفته ویژگی2 1 ویژگی از دست رفته3 0 0 Feature4 از دست رفته 1 Feature5 از دست رفته است Feature6 از دست رفته Simple-matching-similarity-REMOVE = 1/1 (دو برابر B) Simple-matching-AS-COUNT- ERROR = 1/6 مثال B Instance1 Instance2 Feature1 وجود ندارد 1 Feature2 1 0 Feature3 0 0 Feature4 1 1 Feature5 1 0 Feature6 0 missing Simple-matching-similarity-REMOVE = 2/4 Simple-matching-similarity-COUNT-AS-ERROR = 2/6 (دو برابر بیشتر از الف) | اندازه گیری شباهت با مقادیر از دست رفته |
23409 | با ساختن درخت کامل و هرس کردن آن پس از آن، به جای هرس پیش از هرس (یا هرس رو به جلو) یک استراتژی هرس پس از هرس (یا هرس به عقب) را اتخاذ می کنیم. پیش هرس شامل تلاش برای تصمیم گیری در طول فرآیند درخت سازی است که چه زمانی توسعه درختان فرعی متوقف شود. این جذاب است زیرا اجازه می دهد تا از تمام کارهای مربوط به توسعه زیردرخت ها اجتناب کنید و آنها را پس از آن دور بریزید. پس هرس چه فوایدی دارد؟ | درختان تصمیم گیری و هرس معکوس |
76927 | اولین سوال من در اینجا و امیدوارم که واضح یا احمقانه نباشد. مشکل من: من تعدادی مقدار $x$ دارم ($x$ می تواند متفاوت باشد) که از توزیع نرمال پیروی می کنند. من می توانم تمام آمارهای توصیفی معمولی (حداقل، میانگین، چارک ها و غیره) را محاسبه کنم، اما این مقادیر $x$ فقط کسری کوچک از یک محدوده بالقوه بسیار بزرگتر از مقادیر را توصیف می کنند (که همچنان از همان توزیع پیروی می کند و میانگین نباید تغییر کند. زیاد). بنابراین آنچه من واقعاً می خواهم این است که حداقل مقدار توزیع کامل ناشناخته را تخمین بزنم. چیزی شبیه تخمین حداقل مقطع x یک توزیع شناخته شده با مقدار شیب و نوک داده شده. به عنوان مثال مجموعه داده استاندارد درخت را در R تصور کنید (تصویر زیر را ببینید). من نمی خواهم بدانم که مقدار حداقل مقادیر ارتفاع داده شده (60) چقدر است، اما در عوض مقدار حداقل واقعی ممکن را به دقیق ترین روش تخمین بزنم (ممکن است $height<=50$) باشد.  آیا این ممکن است یا فقط احمقانه است؟ یا من یک اصل آماری اساسی را گم کرده ام که به من امکان می دهد آن مقادیر را تخمین بزنم؟ | حداقل مقادیر یک توزیع نرمال گاوسی را تخمین بزنید |
4203 | فرض کنید من مجموعه ای از $N$ نقاط آزمایشی به شکل \begin{equation} \\{x_i, y_i, d_i\\}, \end{equation} دارم که در آن $i=1,...,N,$ و $d_i$ نوارهای خطای $y_i$ هستند. برای برازش دادهها، مربع خی کاهش یافته \begin{معادله} \chi^2(p) = \sum_{i=1}^N \frac{[y_i - f(x_i,p)]^2} را به حداقل میرسانم. {d_i^2}، \end{equation} که در آن $f(x,p)$ یک تابع (عموما غیر خطی) است که توسط برخی از پارامترهای $p$ پارامتر شده است (ممکن است بیش از یک وجود داشته باشد. پارامتر، اما واقعاً مهم نیست). سوال من این است: با توجه به پارامتر بهینه $p_0$، یعنی $\chi^2(p)$ در $p=p_0$ حداقل است، و با فرض اینکه $y_i$ مستقل است و به طور معمول توزیع شده است، چه می توان گفت در مورد توزیع $f(x, p0)$؟ | توزیع یک تابع کمینه کننده خی دو چگونه است؟ |
74565 | از تصاویر عمق کینکت، سریهای زمانی زیر را جمعآوری کردهام که نشاندهنده ویژگیها = موقعیتهای مفصل سهبعدی، زوایای چهارم، تفاوت بین مفصل ران و مرکز بازوی راست (متشکل از شانه راست، مفصل آرنج راست و مچ دست راست) است. اینها مجموعه ویژگی ها در هر بازه زمانی هستند. اما اینها پر سر و صدا هستند و من باید آن فریم هایی را که در آنها داده وجود ندارد حذف کنم، موارد دور از دسترس را حذف کنم و مجموعه ویژگی ها را صاف کنم. مجموعه دادههای من حاوی فریمهایی است که مقادیر آن صفر است زیرا ضبط بلافاصله شروع نمیشود. من برخی از روشها مانند فیلترهای میانگین متحرک را دیدهام و در هر بعد برای صاف کردن اعمال میشود، بنابراین خروجی حاوی نقاط داده یکسان است. با این حال، برای حذف پرت، طول مجموعه داده ممکن است تغییر کند. در نتیجه، من باید به جای در نظر گرفتن هر سری زمانی جداگانه، روی کل مجموعه داده اعمال کنم. Q1: راههایی که میتوانم از طریق آنها را برای سریهای زمانی چندبعدی شناسایی و حذف کنم تا بتوانم فریمهای بدی را که از فریمهای خوب کمک نمیکنند حذف کنم؟ Q2: آیا پیاده سازی یا بسته هایی برای دستیابی به این امر وجود دارد؟ | تشخیص و هموارسازی پرت برای سری های زمانی چند بعدی |
91244 | امیدوارم بتوانم یک ماتریس کوواریانس 3x3 بگیرم و آن را به یک بیضی خطا تبدیل کنم، اما تاکنون نتوانسته ام به این هدف برسم. من با R بسیار تازه کار هستم (در واقع برای حل این مشکل به آن روی آوردم) - و پس از یافتن یک نمونه کار برای یک ماتریس 2x2، نتوانستم آن را برای 3x3 با موفقیت تغییر دهم - آیا کسی می تواند به من اشاره کند لطفا جهت اینکه کدام تغییرات مورد نیاز است؟ کد کار برای ماتریس 2x2 (در اینجا در یک سوال دیگر یافت می شود) در زیر آمده است: ctr <- c(0, 0) A <- ماتریس(c(2.2، 0.4، 0.4، 2.8)، nrow=2) RR <- chol (A) زوایای <- seq(0، 2*pi، length.out=200) ell <- 1 * cbind(cos(زاویه)، sin(زوایه)) %*% RR ellCtr <- sweep(ell, 2, ctr, +) eigVal <- eigen(A)$values eigVec <- eigen(A)$بردار eigScl <- eigVec %*% diag (sqrt(eigVal)) xMat <- rbind(ctr[1] + eigScl[1, ]، ctr[1] - eigScl[1, ]) yMat <- rbind(ctr[2] + eigScl[2, ], ctr[2] - eigScl[2, ]) ellBase <- cbind(sqrt(eigVal[1]) *cos(زاویه)، sqrt(eigVal[2])*sin(زاویه)) ellRot <- eigVec %*% t(ellBase) plot((ellRot+ctr)[1, ], (ellRot+ctr)[2, ], asp=1, type=l, lwd=2) matlines(xMat, yMat, lty =1، lwd=2، col=سبز) نقاط(ctr[1]، ctr[2]، pch=4، col=red، lwd=3) پیشاپیش از هرگونه کمکی متشکرم. | ترسیم خطای بیضی از ماتریس کوواریانس 3x3 در R؟ |
76920 | من میدانم که یادگیری نظارتشده با خطایی مرتبط است که میتواند بین بایاس و واریانس تقسیم شود: $ MSE = b^2 + var $ به طور شهودی سوگیری و واریانس به چه معناست؟ من میدانم که سوگیری * معیاری برای دقت پیشبینی مدل است: اگر مدل آموختهشده در چندین مجموعه داده به طور سیستماتیک نتواند خروجی را از ورودی دیگر پیشبینی کند، سوگیری مهم است. * واریانس حساسیت به مجموعه داده های آموزشی مدل ها در توانایی آنها برای پیش بینی خروجی از یک ورودی جدید است. به عبارت دیگر، اگر آموزش یک مدل بر روی مجموعه دادههای آموزشی مختلف خروجی بسیار متفاوتی برای یک مجموعه داده ورودی داده شود، واریانس بالایی وجود دارد. اگر مدلی که بر روی طیف وسیعی از ورودیها آموزش داده شده نتواند پیشبینی کند، بیش از حد به سمت دادههای آموزشی کشیده شده است، سوگیری دارد. تا اونجا چطور درسته؟ همچنین، اگر مدل من که بر روی برخی از دادهها آموزش داده شده، نتواند (سوگیری) را پیشبینی کند، به این معنی نیست که وقتی روی مجموعه دادههای مختلف آموزش داده میشود، پیشبینیکنندههای بسیار متفاوتی (واریانس) ارائه میدهد؟ آیا برای روشن شدن مطلب به مرجعی اشاره می کنید؟ | مبادله سوگیری-واریانس -- تعصب یا اثر واریانس |
94792 | سوال تکلیف: مدل 1-d Ising را در نظر بگیرید. اجازه دهید $x = (x_1،...x_d)$. $x_i$ یا -1 یا +1 است $\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}}$ یک الگوریتم نمونهبرداری gibbs طراحی کنید تا نمونههایی تقریباً از توزیع هدف $\pi(x)$. **تلاش من:** به طور تصادفی مقادیر (یا -1 یا 1) را برای پر کردن بردار $x = (x_1،...x_{40})$ انتخاب کنید. بنابراین شاید $x = (-1، -1، 1، 1، 1، -1، 1، 1،...،1)$. بنابراین این $x^0$ است. بنابراین اکنون باید ادامه دهیم و اولین تکرار را انجام دهیم. باید 40 x مختلف را به قیمت x^1$ به طور جداگانه ترسیم کنیم. بنابراین... $x_1^1$ را از $\pi(x_1 | x_2^0,...,x_{40}^0)$ بکشید x_2^1$ را از $\pi(x_2 | x_1^1, x_3^0،...،x_{40}^0)$ ترسیم $x_3^1$ از $\pi(x_3 | x_1^1، x_2^1، x_4^0,...,x_{40}^0)$ و غیره. بنابراین بخشی که مرا به هم می زند این است که چگونه از توزیع شرطی استفاده کنیم. $\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}}$ چگونه وارد عمل میشود؟ شاید مثالی از یک قرعه کشی همه چیز را روشن کند. | نمونه گیری گیبس برای مدل ایزینگ |
7285 | ### هدف من: مایلم تابعی داشته باشم که یک آدرس ایمیل می گیرد و یک عدد شبه تصادفی 1، 2، 3 یا 4 را خروجی می دهد. به این معنی که با توجه به یک جمعیت معمولی از آدرس های ایمیل، احتمال به دست آوردن مقدار 1، 2، 3 یا 4 تقریباً برابر است، و ویژگی های سیستماتیک آشکار آدرس ایمیل مانند از آنجایی که نام دامنه بر احتمال دریافت مقدار 1، 2، 3 یا 4 تأثیر نمی گذارد. من می خواهم به طور تصادفی شرکت کنندگان را به یکی از چهار گروه اختصاص دهم. در حالی که انجام این کار برای یک جلسه آسان است (من فقط می توانم از یک مولد اعداد تصادفی استفاده کنم)، به روشی برای به خاطر سپردن تخصیص در جلسات نیاز دارم. بنابراین، من فکر کردم که می توانم یک تخصیص گروهی شبه تصادفی را از ایمیل شرکت کننده استخراج کنم. من همچنین در مجموعه عملکردهایی که در اختیار دارم محدود هستم (برای لیست کامل اینجا را ببینید). توابع رشته عبارتند از: tolower upper capize concat search replaceall شامل startswith endswith substring trimright trimleft format length ارزیابی ### افکار اولیه: من در مورد تلاش برای استخراج مجموعه ای از ویژگی های آدرس ایمیل که مقدار 1، 2 را برمی گرداند، فکر کردم. 3 یا 4 با احتمالات تقریباً مساوی. سپس، میتوانم این ویژگیها را جمعبندی کنم و مد 4 به علاوه 1 آن را دریافت کنم. بنابراین، با فرض چیزی مانند قضیه حد مرکزی، ممکن است نزدیک شوم. ویژگی های احتمالی که به ذهن من رسید: * طول رشته * موقعیت اولین a، b، و غیره. | از یک آدرس ایمیل گرفته تا یک شماره شبه تصادفی |
76922 | من روی یک کار برچسبگذاری دنباله با استفاده از یک فیلد تصادفی شرطی کار میکنم. داده های آموزشی من دارای برخی خطاها است. اینها به معنای داشتن نشانه هایی که دارای برچسب های نادرست هستند، خطا نیستند. در عوض، برخی از نشانه ها دارای اشتباهات املایی هستند. جای تعجب نیست که برچسبگذار هنگام آزمایش بر روی دادههایی که حاوی اشتباهات تایپی هستند، نتایج نادرستی دریافت میکند. من نمی توانم تصمیم بگیرم که آیا بهتر است اشتباهات تایپی را در آنجا بگذارم یا آنها را حذف کنم. یک مزیت احتمالی حفظ اشتباهات تایپی به همان شکلی که هستند این است که دادههای آموزشی با دقت بیشتری دادههای دنیای واقعی را نشان میدهند که برچسبگذار روی آنها استفاده میشود. از سوی دیگر، من می ترسم که آموزش بر روی داده های با کیفیت پایین منجر به برچسب گذاری با کیفیت پایین تر شود. آیا روش استاندارد یا حکمت متعارفی در مورد این نوع مشکل وجود دارد؟ ببخشید این سوال برای این انجمن خیلی ذهنی تلقی می شود. من همین امروز این سایت را کشف کردم. | چگونه با داده های کثیف بدون کاهش قدرت تعمیم مدل برخورد کنیم؟ |
74566 | من دادههایی دارم که رفتار را در چهار شرایط مقایسه میکند (اندازهگیریهای مکرر) (من چندین متغیر رفتاری مختلف دارم و هر رفتار جداگانه تجزیه و تحلیل میشود و رفتارها در حال حاضر در قالب درصد زمان هستند). متغیرهای رفتاری حتی پس از تبدیل بسیار غیرعادی هستند. بنابراین من تست های فریدمن را برای تست های omnibus (friedman.test در R) اجرا کرده ام. برای posthocs من از فریدمن از بسته Agricolae استفاده کرده ام، اما می خواهم اندازه افکت ها را نیز گزارش کنم. من مطمئن نیستم که کدام محاسبه صحیح است، زیرا داده ها نه تنها عادی نیستند، بلکه دارای انحراف بسیار مثبتی هستند. من تابع rFromWilcox را از Field امتحان کردم اما مطمئن نیستم که برای استفاده از آن مناسب باشد. همچنین من نتایج r مانند -0.564NULL را دریافت می کنم. من برای انجام تحلیل خودم کاملاً تازه کار هستم، اما مشتاق یادگیری هستم، پس لطفاً اگر چیزی را کاملاً درست بیان نکرده ام، ناراحت نشوید. @Michael: من سعی میکنم تعیین کنم که آیا رفتارهای خاصی در شرایط مختلف بیشتر یا کمتر اتفاق میافتند و این تفاوتها کجا هستند (هیچ چیز خیلی عمیق نیست). دو درمان مشابه اما متفاوت بین شرایط یک و دو و بین سه و چهار اعمال میشود. من پیشبینی میکنم که بین همه شرایط، به ویژه بین یک و دو، و سه و چهار، تغییرات خاصی (برخی رفتارها افزایش مییابد و برخی کاهش مییابد) وجود خواهد داشت. تست posthocs من بین تمام ترکیبات جفتی و من از یک تصحیح Bonferroni استفاده کرده ام. من در حال برنامهریزی برای گزارش آمار خلاصه، برای هر شرط برای هر رفتار، آمار آزمون و مقدار p، و نتایج پس از مرگ در مواردی که فریدمن معنیدار است، و اندازهها بر روی آن موارد پساتحکمی را گزارش میکردم. | محاسبه صحیح اندازه اثر پس از آزمون فریدمن در یک جمعیت کج |
86001 | من سعی میکنم یک مدل خطی با استفاده از ماتریسها را در مجموعه دادههایم جا بدهم، حتی اگر میتوانم از OLS استفاده کنم و آن را بدون ماتریس به عنوان یک آموزش ساده برای خودم انجام دهم تا هم «R» و هم نماد ماتریس را بهتر درک کنم. این مدلی است که من سعی میکنم آن را جا بزنم: $$\bf Y=X\boldsymbol\beta+\varepsilon$$ که در آن $\bf Y$ یک ماتریس $1\ برابر n$ است، $\bf X$ یک $n است. بار ماتریس k$ (که $k$ تعداد $\beta$ است که در این مورد 2 است)، $\boldsymbol \beta$ یک $k\ برابر 1$ است. ماتریس و در نهایت عبارت خطای ما $n\times 1$ است. من این بخش را درک می کنم. هنگامی که من به سادگی از دستور «lm()» برای جا دادن داده های خود استفاده می کنم، از دستور «summary()» موارد زیر را دریافت می کنم: فراخوانی: lm(فرمول = y ~ x) باقیمانده ها: Min 1Q Median 3Q Max -4.0503 -1.4390 0.4921 1.0589 3.9446 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 2.9849 0.8219 3.632 0.00191 ** x 0.5612 0.1084 5.178 6.32e-05 *** بنابراین `summary()` به من می گوید که matrix $ abeta $2 است \ برابر ماتریس 1$، با ماتریس اول عدد (که $\beta_0$) به عنوان 2.0949 و عدد دوم (که $\beta_1) $ به عنوان 0.1084 است. سوال من این است: ما می دانیم که ماتریس $\beta$ در واقع این است: $$\boldsymbol\beta=(\bf{X}^T\bf{X})^{-1}(\bf{X}^ T\bf{Y})$$ و وقتی سعی می کنم به سادگی این محاسبه را با دست با استفاده از R با استفاده از `b=(t(x)*x)^-1*t(x)*y` انجام دهم، یک عدد دریافت می کنم $1\ برابر بردار 20$ (که البته 20$ n$ است، تعداد مشاهدات). چرا من یک ماتریس $2\ برابر 1 $ آنطور که باید می گرفتم دریافت نمی کنم؟ | تناسب رگرسیون خطی ساده به صورت دستی از طریق معادلات ماتریس با خروجی lm() مطابقت ندارد |
43107 | من نتایج دقت را از یک ویژگی واحد با استفاده از LDA محاسبه می کنم. من بسیار کنجکاو هستم که چرا یک ویژگی خاص هنگام محاسبه دقت با استفاده از تکنیک اعتبارسنجی متقاطع 10 برابری به طور مداوم در کمتر از شانس عمل می کند. من یک کلاس باینری با توزیع مساوی دارم و انجام xval های متعدد منجر به دقتی می شود که تقریباً در حدود 0.3 نوسان می کند. این بدان معناست که دادههای آموزشی به طور مداوم مرزی را تعیین میکنند که وقتی در برابر آن آزمایش میشود، اساساً برعکس آن چیزی است که روی آن آموزش داده شده است. من این xval 10 برابری را 10 تا 20 بار انجام میدهم و انتظار دارم که حدود 0.5 نوسان داشته باشد، اما تقریباً در ناحیه 0.3 تا 0.4 ثابت است. با تشکر از کمک! | اعتبار سنجی متقاطع چندگانه به طور مداوم بدتر از شانس عمل می کند |
81847 | SurveyMonkey مراحل و نموداری برای شما دارد که بر اساس اندازه جمعیت خود، به چه حجم نمونه برای یک حاشیه خطا یا فاصله اطمینان معین نیاز دارید. اندازه نمونه SurveyMonkey آیا این نمودار به سادگی این واقعیت را نادیده می گیرد که شما یک نمونه تصادفی دریافت نمی کنید، زیرا فقط افرادی را دریافت می کنید که زحمت پاسخ دادن به نظرسنجی را می دهند؟ وقتی این را تایپ می کنم به من هشدار داده می شود که سوال ذهنی به نظر می رسد بنابراین شاید من آن را درست نمی پرسم. این واقعاً در مورد SurveyMonkey نیست، اما یک سؤال کلی تر است - آیا می توانید فواصل اطمینان را از داده های پاسخ داوطلبانه با استفاده از برخی تکنیک های پیشرفته که من درباره آنها نمی دانم محاسبه کنید؟ در نظرسنجی های خروجی یا نظرسنجی های ملی، بدیهی است که باید با این مشکل برخورد کنند. تحصیلات من تکنیکهای نمونهگیری نظرسنجی را به طور عمیق پوشش نمیدهد، اما فرض میکنم که شامل جمعآوری دادههای جمعیتشناختی و استفاده از آن برای دانستن اینکه چقدر نماینده نمونهای هستید، باشد. اما جدای از آن، برای یک نظرسنجی آنلاین ساده، آیا آنها فقط فرض میکنند افرادی که زحمت پاسخ دادن را به خود میدهند، نمونهای تصادفی از جامعه هستند؟ | آیا SurveyMonkey این واقعیت را نادیده می گیرد که شما یک نمونه غیر تصادفی دریافت می کنید؟ |
28518 | من سعی می کنم مشکل ردیابی را حل کنم. در مقاطع خاصی از زمان، مکان شی را دریافت می کنم و باید تصمیم بگیرم که آیا مکان شی دریافت شده متعلق به مسیر موجود است یا خیر. اگر نه، باید آهنگ جدیدی ایجاد کنم. هر آهنگ با فیلتر کالمن فیلتر می شود تا بتوانم سرعت و پسین را محاسبه کنم. چه الگوریتم یا خانواده ای از الگوریتم ها مناسب تر است؟ شاید نزدیکترین همسایه؟ | ردیابی و ارتباط داده ها با فیلترهای کالمن |
7286 | پیادهروی تصادفی Metropolis-Hasitings با پیشنهاد متقارن $q(x|y)= g(|y-x|)$ دارای این ویژگی است که احتمال پذیرش $$P(accept\ y) = \min\\{1, f(y) /f(x)\\}$$ به پیشنهاد $g(\cdot)$ بستگی ندارد. آیا این بدان معناست که من میتوانم $g(\cdot)$ را به عنوان تابعی از عملکرد قبلی زنجیره تغییر دهم، بدون اینکه بر مارکوی بودن زنجیره تأثیر بگذارم؟ برای من جالب است، تنظیم مقیاس پیشنهادی عادی به عنوان تابعی از نرخ پذیرش. همچنین اگر کسی بتواند به الگوریتمهای انطباق مورد استفاده در عمل برای این نوع مسائل اشاره کند، بسیار سپاسگزار خواهد بود. با تشکر فراوان. [ویرایش: با ارجاعات داده شده توسط robertsy و wok شروع کردم، من منابع زیر را در مورد الگوریتم های تطبیقی MH یافتم: Andrieu، Christophe، و Éric Moulines. 2006. در مورد ویژگی های Ergodicity برخی از الگوریتم های MCMC تطبیقی. The Annals of Applied Probability 16, no. 3: 1462-1505. http://www.jstor.org/stable/25442804. آندریو، کریستف و یوهانس تامز. 2008\. آموزش MCMC تطبیقی. آمار و محاسبات 18، شماره. 4 (12): 343-373. doi:10.1007/s11222-008-9110-y. http://www.springerlink.com/content/979087678366r78v/. Atchadé، Y.، G. Fort، E. Moulines، و P. Priouret. 2009. مونت کارلو زنجیره مارکوف تطبیقی: نظریه و روشها. پیش چاپ. آچاده، ایو. 2010. قضایای حدی برای برخی از الگوریتم های تطبیقی MCMC با هسته های زیرهندسی. برنولی 16، شماره 1 (بهمن): 116-154. doi:10.3150/09-BEJ199. http://projecteuclid.org/DPubS?verb=Display&version=1.0&service=UI&handle=euclid.bj/1265984706&page=record. Cappé، O.، S. J Godsill، و E. Moulines. 2007. مروری بر روش های موجود و پیشرفت های اخیر در مونت کارلو متوالی. مجموعه مقالات IEEE 95، شماره. 5: 899-924. جیوردانی، پائولو. 2010. کلانشهر مستقل تطبیقی–هیستینگز با تخمین سریع مخلوط های نرمال. مجله آمار محاسباتی و گرافیکی 19، شماره. 2 (6): 243-259. doi:10.1198/jcgs.2009.07174. http://pubs.amstat.org/doi/abs/10.1198/jcgs.2009.07174. لاتوسزینسکی، کریستوف، گرت او رابرتز، و جفری اس روزنتال. 2011. نمونه بردارهای تطبیقی گیبس و روشهای MCMC مرتبط. 1101.5838 (30 ژانویه). http://arxiv.org/abs/1101.5838. پاساریکا، سی، و آ. گلمن. 2009. مقیاس بندی تطبیقی الگوریتم متروپلیس با استفاده از فاصله پرش مربع مورد انتظار. آمار سینیکا رابرتز، گرت او. 2009. نمونه هایی از MCMC تطبیقی. مجله آمار محاسباتی و گرافیکی 18، شماره. 2 (6): 349-367. doi:10.1198/jcgs.2009.06134. http://pubs.amstat.org/doi/abs/10.1198/jcgs.2009.06134. ] | آیا می توانم توزیع پروپوزال را در MH MCMC تصادفی تغییر دهم بدون اینکه بر روی Markovianity تأثیر بگذارم؟ |
74564 | من میخواهم تناسب یک مدل خطی (M1) و مدل غیرخطی (M2) را مقایسه کنم: * M1: $y = b_0 + b_1x_1 + b_2x_2 + b_3x_1x_2 + \epsilon, \epsilon \sim N(0, \sigma^2) $ * M2: $y = b_0 + b_1x_1 + b_2x_2 + b_1 b_2x_1x_2 + \epsilon, \epsilon \sim N(0, \sigma^2)$ به طور خاص میخواهم بدانم آیا M1 تفاوت قابل توجهی با M2 دارد یا خیر. برای تخمین پارامترها، به جای اینکه احتمال را از طریق روش های MLE به حداکثر برسانم، خطاهای حداقل مربعات را به حداقل می رسانم. به طور خاص، من از تابع R nls() به صورت زیر استفاده می کنم: # ایجاد یک مجموعه داده نمونه n <- 50 x1 <- rnorm(n, 1:n, 0.5) x2 <- rnorm(n, 1:n, 0.5 ) b0 <- 1 b1 <- 0.5 b2 <- 0.2 y <- b0 + b1*x1 + b2*x2 + b1*b2*x1*x2 + rnorm(n,0,0.1) # مدل واقعی متناسب با M1 <- nls(y ~ b0 + b1*x1 + b2*x2 + b3*x1*x2, start=list(b0=1 ، b1=0.5، b2=0.5، b3=0.5)) M2 <- nls(y ~ b0 + b1*x1 + b2*x2 + b1*b2*x1*x2, start=list(b0=1, b1=0.5, b2=0.5)) من می خواهم مدل ها را با استفاده از یک معیار تناسب نسبی مانند AIC مقایسه کنم که می تواند در R به شرح زیر: AIC(M1, M2) df AIC M1 5 -88.47849 M2 4 -90.46491 زیرا $\Delta AIC \تقریباً 2$ و مدلها تنها با یک پارامتر متفاوت هستند، من نتیجه میگیرم که هر دوی آنها به خوبی با دادهها مطابقت دارند. علاوه بر این، من می خواهم بدانم که آیا پارامتر $b_3$ از M1 با استفاده از یک آزمون آماری مانند F-test به میزان قابل توجهی به تناسب اضافه می کند یا خیر. این را می توان در R به صورت زیر انجام داد: anova(M1, M2) تجزیه و تحلیل جدول واریانس مدل 1: y ~ b0 + b1 * x1 + b2 * x2 + b3 * x1 * x2 مدل 2: y ~ b0 + b1 * x1 + b2 * x2 + b1 * b2 * x1 * x2 Res.Df Res.Sum Sq Df مجموع مربع F مقدار Pr(>F) 1 46 0.40843 2 47 0.40855 -1 -0.00011097 0.0125 0.9115 سوال کلی من این است: * آیا این تحلیل ها مناسب هستند؟ به طور خاص: * آیا می توانم از AIC برای مقایسه مدل های برازش حداقل مربعات استفاده کنم؟ از چند پست مانند این به نظر می رسد که AIC باید مناسب باشد. با این حال، من پست هایی مانند این را دیده ام که نشان می دهد استفاده از AIC در مدل های غیر MLE ممکن است یک مشکل باشد. من می دانم که اگر خطا به طور معمول توزیع شود، حداقل مربعات معادل MLE است، اما آیا این حتی برای مدل های غیر خطی هم صادق است؟ * آیا می توانم از آزمون F برای آزمایش اینکه آیا $b_3$ تفاوت قابل توجهی با $b_1 b_2$ دارد استفاده کنم؟ من می دانم که اگر مدل تودرتو باشد چنین F-test منطقی است، اما مطمئن نیستم که آیا در این مورد مناسب است یا خیر. | آیا زمانی که پارامترها به جای MLE با حداقل مربعات برازش می شوند AIC برای انتخاب مدل مناسب است |
76765 | _ قالب مطالعات من آزمایش 10 نفر در 5 شرایط و 100 بار در هر شرایط است (این یک آزمون رفتاری است) - که منجر به حدود 5000 نقطه داده خام می شود. _ من در حال حاضر از 3 روش آماری خانواده ها برای پروژه خود استفاده می کنم. اینها عبارتند از: * t-test * ANOVAa * مدل های خطی من در تعجب هستم که برای کدام یک از این روش ها تجزیه و تحلیل تمام داده های من به صورت خام مفیدتر است (این انگیزه اولیه من برای همه روش ها بود، اما ظاهراً اهمیت من را در این روش افزایش می دهد. حداقل برای برخی) و من فقط باید ابزار هر فرد را به عنوان نقطه داده در نظر بگیرم. می توانید به من کمک کنید؟ در حال حاضر من از آزمونهای t و ANOVA برای میانگینهای هر شرکتکننده و مدلهای خطی روی دادههای خام خود استفاده میکنم، اگرچه این فقط به این دلیل است که چند آزمایش نادرست و آزمون t زوجی دارم و ANOVA به خوبی با دادههای از دست رفته مقابله نمیکند. اما شاید حتی برای مجموعه داده های کامل هم کار درستی باشد؟ | anova، t-test، مدل های خطی: اجرا بر روی نقاط داده فردی یا به ازای هر نفر؟ |
91247 | بگویید من در 2 رستوران مختلف می نشینم، Cheesecake Factory و Panda Express، که هیچ وجه اشتراکی در منوی آنها ندارد. من به طور تصادفی آیتمهایی را از منو سفارش میدهم و میزان شکر آن را ثبت میکنم و همچنین این مورد یک پیشغذا، غذا یا دسر است. در هر رستوران، 30 دقیقه بعد از اولین سفارشم، سفارش را متوقف می کنم. در پایان روز، من یک مجموعه داده دارم که ممکن است شبیه تصویر زیر باشد... من در تعجب هستم که چگونه درصد شکر را در سفارشاتم از Cheesecake Factory با آنهایی که در Panda Express وجود دارد مقایسه کنم؟ من می دانم که اقلام دو رستوران متفاوت هستند و ممکن است به یک معنا غیرقابل مقایسه باشند، اما اگر بخواهم به سادگی میانگین قند را از اقلام فهرست شده در منوی هر رستوران مقایسه کنم، چه باید بکنم؟  | مقایسه نسبت بین دو گروه بزرگ |
114439 | من در حال حاضر در حال گذراندن دوره ای در اقتصاد سنجی مالی هستم و یک سوال در یادداشت های سخنرانی در مورد آزمایش مجدد VaR وجود دارد که با آن مشکل دارم. اول از همه، روش آزمایش برگشتی VaR با استفاده از یک طرح رولینگ به شرح زیر است: فرض کنید که دادههای بازگشتی $r_{t}، t=1،...، T$ را برای مقداری به اندازه کافی بزرگ $T$ داریم. ما 60 مشاهده اول را می گیریم و میانگین نمونه آنها $\mu_{1-60}$ و واریانس $\sigma_{1-60}^{2}$ را محاسبه می کنیم و سپس محاسبه می کنیم: $$\mbox{VaR}_{1-60}\left(\alpha\right)=-\mu_{1-60}+\Phi^{-1}\left(\alpha\right)\cdot\sigma_ {1-60}$$ جایی که $\alpha$ پارامتر اطمینان ما است (معمولا $\alpha=0.05$) و $\Phi^{-1}$ استاندارد معکوس نرمال است CDF. اگر $r_{61}<-\mbox{VaR}_{1-60}\left(\alpha\right)$$1$ و در غیر این صورت $0$ علامت گذاری می کنیم. ما همین کار را برای مشاهدات $2...62$ در مقایسه با $63$ و غیره ادامه می دهیم و در پایان تعداد دفعاتی را می شماریم که در آن نتیجه $1$ بود. در حالی که بر اساس فرضیه صفر انتظار داریم که نسبت دفعاتی که $1$ به دست آوردیم حداکثر $\alpha$ باشد. به ویژه مهم است که توجه داشته باشید که ما در اینجا این فرض را داشتیم که بازده ها همه به طور معمول توزیع شده اند، $r_{t}\sim N\left(\mu_{t},\sigma_{t}^{2}\right)$. حالا برای سوال واقعی، فرض کنید $r_{t}، t=1،...، T$ بازدهی با استفاده از استراتژی سرمایه گذاری WML (استراتژی معاملاتی مومنتوم) هستند. آیا روشی که در بالا توضیح داده شد برای آزمایش VaR در چنین موردی مناسب است و اگر نه چرا؟ معمولاً بیان سؤال به این موضوع اشاره می کند که در استفاده از این رویه در چنین موردی نوعی مشکل وجود دارد، اما من نمی دانم که چرا چنین می شود ... کمک بسیار قابل قدردانی است! **ویرایش**: WML مخفف Winners Minus Losers است. این یک استراتژی سرمایه گذاری است که در آن برندگان گذشته را خریداری می کنید و بازندگان گذشته را بر اساس بازده در یک دوره ارزیابی کوتاه می فروشید. به عنوان مثال، اگر 4 سهام در سبد سهام خود دارید، پس: $WML=\frac{1}{2}\left(\mbox{SmallHigh + BigHigh}\right)-\frac{1}{2}\left(\mbox {SmallLow}+\mbox{BigLow}\right)$ بنابراین به طور کلی برای سهام $n$، میانگین بازدهی بالای $n/2$ را می گیرید و میانگین را کم می کنید. از $n/2$ بازده کم. | ارزیابی مجدد ارزش در معرض خطر با استراتژی سرمایه گذاری WML |
81840 | من در حال حاضر در تلاش برای انجام طبقه بندی بر روی مجموعه ای از داده ها هستم. من 19 مشاهدات دسته_1 و 15 مشاهدات دسته_2 دارم. بهترین راه برای نمونه برداری از این مجموعه داده برای آموزش و آزمایش طبقه بندی کننده من چیست، یا اینکه مشاهدات کافی وجود ندارد؟ | چند نمونه برای طبقه بندی مورد نیاز است |
91208 | اگر مدلی با متغیر طبقهبندی $X_1=\\{0,1,2,3\\}$ و متغیر پیوسته $X_2$ داشته باشم، و یک مدل رگرسیونی داشته باشم که شامل تعامل بین $X_1$ و $ است. X_2$، سپس تصمیم میگیرم که $X_1$ را در یک متغیر نشانگر جمع کنم که در آن $X_{1\text{_new}}=0$ اگر $X=0$ و $X_{1\text{_new}}=1$ اگر $X\ge1$، آیا مدل جدید من با عبارت تعاملی بین $X_{1\text{_new}}$ و $X_2$ با مدل اصلی تودرتو شده است؟ | آیا یک مدل قبل از فروپاشی متغیرهای طبقهبندی درون خود تودرتو است؟ |
86810 | من سعی می کنم مدل چند نمایی خود را با برخی از داده های تجربی تطبیق دهم و از یک الگوریتم بازپخت شبیه سازی شده استفاده می کنم. تابع هدف من تاکنون مجموع مربعات باقیمانده ها بوده است: $\sum_{i=1}^n (y_i - \hat{y_i})^2 = \sum_{i=1}^n e_i^2 \ :\:$ ...(1) با این حال، متوجه شدم که شاید بتوانم تابع هدف خود را مجموع مجذورهای تابع همبستگی خودکار باقیمانده ها با تاخیر $j$ تنظیم کنم: $\sum_{j=1}^m R^2_{j} = \sum_{j=1}^m \left( \sum_{i=1}^n e_i\,\overline{e}_{i-j} \right)^2 \:\:$ ...(2) آیا این منطقی است؟ به نظر میرسد که اجبار کردن همبستگی خودکار عبارتهای باقیمانده ممکن است منجر به تخمین پارامترهای اشتباه شود. من این را به دقت ثابت نکردهام، اما گمان میکنم که به حداقل رساندن (2) به این معنی نیست که (1) به حداقل میرسد. هر ایده ای؟ | به حداقل رساندن مجموع مجذورهای تابع خودهمبستگی باقیمانده ها به جای مجموع مجذورهای باقیمانده |
81843 | من به تخمینی از میانگین مقدار $\bar{X}$ دادههای موجود در ناحیه سایهدار این نمودار و فاصله اطمینان مربوط به آن نیاز دارم.  در حالت ایده آل، داده ها برخی نوسانات جزئی را منعکس می کنند. من وسوسه می شوم که این را نادیده بگیرم و از $CLT$ استفاده کنم تا خطای استاندارد $SE=\frac{S}{\sqrt{N}}$ باشد که $S$ نمونه انحراف استاندارد است و $N $ تعداد کل نقاط داده در محدوده است. اما من با این رویکرد ناراحت هستم زیرا می دانم که این کاملاً صحیح نیست. اما مشکل اصلی این است که گاهی اوقات داده ها برای کل محدوده ثابت نیستند و می توانند چندین بخش ثابت را مانند شکل زیر نشان دهند.  این مسائل هرگونه فرض عادی بودن را باطل می کند. من در تلاش برای شناسایی یک روش مناسب برای محاسبه یک مقدار واحد برای میانگین و فاصله اطمینان برای کل محدوده داده هستم. هر ایده ای؟ | چگونه می توان فاصله اطمینان میانگین نمونه یک سری زمانی غیر ثابت را تخمین زد؟ |
76926 | بنابراین من یک تکلیف دارم و مطمئن نیستم که دقیقاً منظور آنها از تعریف یک مدل رگرسیون چندگانه چیست. خوب من می دانم که چیست اما چگونه می توانم یکی را تعریف کنم؟ من باید از CARPRICE به عنوان متغیر پاسخ و 3 پیش بینی دیگر استفاده کنم. همچنین مفروضات مدل چیست؟ با تشکر | تعریف مدل رگرسیون چندگانه؟ |
23403 | یک مشکل رایج این است که ML کیفیت پایین داده است: خطا در مقادیر ویژگی، نمونه های طبقه بندی اشتباه، و غیره. یکی از راه های رسیدگی به این مشکل این است که به صورت دستی داده ها را مرور کنید و بررسی کنید، اما آیا تکنیک های دیگری وجود دارد؟ (شرط می بندم وجود دارد!) کدام یک بهتر هستند و چرا؟ | پاکسازی خودکار داده ها |
76923 | من یک مجموعه 40000 عددی دارم. اگر من به طور تصادفی 2000 عدد ترسیم کنم، برای پوشش کل مجموعه به چند قرعه نیاز دارم؟ لطفا تئوری پشت پاسخ را نیز بیان کنید. مشکل به کار من مربوط می شود، من مجموعه ای از 40000 ژن دارم و فقط می توانم یک شبکه 2000 ژنی از این مجموعه بسازم. من می خواهم تمام احتمالات شبکه بین این ژن ها را پوشش دهم. بنابراین اگر بگوییم که فاصله اطمینان 95٪ مطمئن است که مجموعه داده را پوشش می دهم و p=0.01، آیا نتیجه را تغییر می دهد؟ | حداقل تعداد دفعات مورد نیاز برای پوشش یک مجموعه خاص چقدر است؟ |
38471 | من عمدتاً با افراد غیرآمار در زمینه هایی مانند پزشکی، علوم اجتماعی و آموزش کار می کنم. چه من با دانشجویان فارغ التحصیل مشورت کنم، چه به پژوهشگران در مقالات کمک کنم یا مقالاتی را برای مجلات بررسی کنم، اغلب این مشکل را دارم که شخصی (مشتری، نویسنده، کمیته پایان نامه، ویراستار مجله) می خواهد از برخی تکنیک های نسبتاً شناخته شده استفاده کند، در حالی که این روش کاملاً است. نامناسب یا زمانی که روش های بهتر اما کمتر شناخته شده وجود دارد. اغلب، من روش جایگزین را توضیح می دهم اما سپس به من می گویند همه این کار را به روش دیگری انجام می دهند. برای من جالب است که دیگران چگونه با این نوع مشکل برخورد می کنند. اضافات @MichaelChernick پیشنهاد کرد که میتوانم داستانهایی را به اشتراک بگذارم، بنابراین در حال حاضر با فردی کار میکنم که مقاله قبلی را کپی میکند و یک متغیر مستقل اضافه میکند تا ببینم کمکی میکند یا خیر. مقاله قبلی، رک و پوست کنده، وحشتناک است. با داده های وابسته طوری رفتار می کند که انگار مستقل هستند. به شدت اضافه است و مشکلات دیگری نیز وجود دارد. با این حال او (مشکل من) نسخه قبلی را به عنوان پایان نامه ارائه کرد و نه تنها مدرک خود را گرفت، بلکه به طور گسترده برای تحقیق مورد تحسین قرار گرفت. _ بارها سعی کرده ام مردم را متقاعد کنم که متغیرها را دوقطبی نکنند. این موضوع اغلب در پزشکی مطرح می شود. من با حوصله به این نکته اشاره میکنم که دوهوتوم کردن (مثلاً) وزن هنگام تولد به وزن کم و طبیعی (معمولاً 2500 گرم) به معنای رفتار با یک نوزاد 2499 گرمی مانند یک نوزاد 1400 گرمی است. اما رفتار با نوزاد 2501 گرمی کاملاً متفاوت است. پزشک با من موافق است که این احمقانه است. سپس می گوید این کار را به این صورت انجام دهید. من مدتها پیش یک مشتری دانشجوی فارغ التحصیل داشتم که کمیته او بر تحلیل خوشه ای اصرار داشت. دانش آموز روش را نمی فهمید، روش به سؤالات مفید پاسخ نمی داد، اما این چیزی بود که کمیته می خواست، بنابراین آنها به این نتیجه رسیدند. کل رشته گرافیک آماری جایی است که برای خیلی ها «این طوری بود که پدربزرگ این کار را کرد» کافی است. سپس افرادی هستند که به نظر می رسد فقط دکمه ها را فشار می دهند. من یک ارائه را به یاد می آورم (نه توسط کسی که به او کمک کرده بودم!) که یک پرسشنامه کامل را گرفته بود و فاکتور آن را تجزیه و تحلیل کرده بود. یکی از متغیرهایی که او وارد کرد شماره شناسه بود! اوه | راهکارهایی برای معرفی آمارهای پیشرفته به مخاطبان مختلف |
86819 | آیا کسی می تواند این مشکل را روشن کند. به دنبال این نیستم که پاسخ را برای من بنویسید، فقط چند نکته مفید است که امیدوارم من را در مسیر درست هدایت کند. سوال اینجاست: > ما علاقه مندیم نسبت سایت های اشغال شده را تعیین کنیم. مشکل اینجاست که تشخیص کامل نیست. در حالی که تشخیص تمرکز > حیوان ما در یک سایت خاص به این معنی است که سایت اشغال شده است، عدم شناسایی > به معنای غایب حیوان نیست. مشابه مثال > در کلاس، مدل تولیدی را برای این داده حضور/غیاب بنویسید. فقط برای روشن شدن این مسئله، من این مشکل را امتحان کردم و راه حل زیر را دریافت کردم: من از P (حالا)، S (نشانه های حیوان) و D (حیوان شناسایی شده) P=1 (حیوان حاضر) P=0 (حیوان غایب) S= استفاده کردم. 1 (نشانههای حیوان) S=0 (بدون علامت حیوان) D=1 (حیوان شناسایی شد) D=0 (حیوان شناسایی نشد) بنابراین من با تاس انداختن این کار را انجام دادم، بنابراین: P=1 (1،2)، S=1 (1-5)، D=1 (1-3)، D=0 (6)----> حیوان موجود P=0 (3-6)، S=1 ( 1)، D=0، S=) (2-6)-----> حیوان وجود ندارد P~ برنولی (1/3) S=1/P=1~ برنولی= (5/6) D= 1/ S=1، P= 1~ برنولی= (1/2) S= 1/P=0~برنولی= (1/6) D= 0/S= 1,P=0~ برنولی=(0) | مدلهای مولد: آمار بیزی کمک میکند |
91241 | من سعی می کنم یک بازه t برای اولین پارامتر شکل یک متغیر توزیع شده بتا بر اساس یک نمونه تصادفی ایجاد کنم. $ f(x;\theta,\beta) = \dfrac{\Gamma(\theta+\beta)}{\Gamma(\theta)\Gamma(\beta)}x^{\theta-1}(x-1 )^{\beta-1}$ با توجه به اینکه $E[X]=\dfrac{\theta}{\theta+\beta}$، من $MME(\theta) = را پیدا کردم \dfrac{\beta\overline{X}}{1-\overline{X}}$ بنابراین میخواهم فاصله اطمینان $(1-\alpha)*100\%$ t را با استفاده از $\dfrac{\beta محاسبه کنم. \overline{X}}{1-\overline{X}} \pm t_{\alpha/2,n-1}*SE\left[\dfrac{\beta\overline{X}}{1-\overline{X}}\right]$ به خاطر برآورد من، من خواهم بود تعمیر $\beta=4$. من سعی کردهام و سعی کردهام این را به طور کلی دریافت کنم، زیرا احساس میکنم در قلب آن تمام این کمیت نشاندهنده تغییر میانگین نمونه است (روش دلتا/CLT) اما تا آخر عمر نمیتوانم هیچ کششی روی آن داشته باشم. پس از تلاش و شکست، چند شبیهسازی را اجرا کردم و در چند مثال، $\theta=2$، $\beta=4$، نسبت $\dfrac{Var\left[\dfrac{\beta\overline{X را تنظیم کردم. }}{1-\overline{X}}\right]}{Var(\overline{X})} \approx 81.7$ تنظیم $\theta=3$, $\beta=4$، نسبت $\تقریباً 151.5$ اینها خیلی کمکی نمیکنند، اما وقتی به یک نتیجه نظری رسیدم، تخمینهایی را به من میدهند تا با آنها آزمایش کنم. اگر کسی بتواند کاستی های من را روشن کند ممنون می شوم. در هر صورت، ممنون که وقت گذاشتید و نگاه کردید. کد R من برای تست نسبت های واریانس نوشتم. تست <- function(alpha=1,beta=1){ ratio <- numeric() for (j در 1:100){به معنی <- عددی() آلفا <- numeric() برای (i در 1:1000){ نمونه <- rbeta(100،آلفا،بتا) به معنی[i] <- میانگین(نمونه) آلفا[i] <- beta*mean(نمونه)/(1-mean(نمونه)) } نسبت[j] <- var(alphas)/var(means)} paste0(نسبت Var: ,round(mean(نسبت)،3) ،. نسبت SD: ,round(sqrt(mean(ratio)),3)) } نقشه برداری (تست، آلفا=1:5، بتا=4، SIMPLIFY=F) | توزیع مجانبی پارامتر توزیع بتا |
6111 | مشکل اینجاست: یک نظرسنجی شامل 7 سوال دودویی (پاسخ بله/خیر) است. اگر دو نفر به نظرسنجی پاسخ دهند، احتمال تطابق پاسخ آنها در 4 یا بیشتر از سوالات چقدر است؟ به عبارت دیگر، اگر چهار یا بیشتر پاسخ منطبق داشته باشیم، میتوانیم پاسخ کلی نظرسنجی را برای هر دو نفر مشابه در نظر بگیریم. | احتمال اینکه دو نفر پاسخ های یکسانی را در مورد سؤالات نظرسنجی ارائه دهند |
81849 | مطالعه من یک کارآزمایی بالینی با _2 گروه درمانی_ است که بیش از _4 نقطه زمانی اندازه گیری شد... با نتایج ارزیابی شده _سطوح خون_ بود. بنابراین متغیرهای مستقل من درمان (2 گروه) و زمان (4 نقطه زمانی - با زمان یک عامل درون آزمودنی است) ... و متغیر وابسته من سطوح خون است. بنابراین...من یک **ANOVA اندازه گیری های مکرر (مدل مختلط)** را در SPSS انجام می دهم، اما فرض من مبنی بر همسویی بودن برآورده نمی شود. داده های من با فرض نرمال بودن و کروی بودن مطابقت دارد...اما نه از همگنی واریانس ها/همسانی. من نمی دانم بهترین گزینه های من ... با توجه به این محدودیت. من دگرگونی ها را امتحان کرده ام و واقعا کمکی نکرده اند. من واقعاً از هرگونه پیشنهاد / کمکی قدردانی می کنم. **ویرایش**: من امکان گزینه هایی را در مورد من درک می کنم مانند: 1\. تست های t زوجی مکرر با اصلاح بونفرونی (به قیمت از دست دادن توان) 2\. معادل های ناپارامتریک (مثلاً آزمون فریدمن) برای rmANOVA ... اما به جای طراحی علمی، کدام آزمون قوی تر است؟ | نقض هوموسکداستیسیته: ANOVA با اقدامات مکرر |
76768 | من به کمک مردم نیاز دارم من یک r.v لجستیک دارم. $V\sim \Lambda (0, \frac {\pi^2}{3})$ و یک برنولی $Z \sim B(p_z)$ مستقل. من همچنین $c\in R$، $\tilde Z = cZ$ دارم، و باید چگالی $$U = V + \tilde Z$$ را پیدا کنم، می دانم که می توان با استفاده از dirac از روش کانولوشن استفاده کرد. تابع دلتا برای نوشتن **pmf** $\tilde Z$ به عنوان یک جمع وزنی، اما من با مهره ها و پیچ ها مشکل دارم، چیزی واضح در کتاب ها پیدا نکردم، در حالی که برخی از پست های مرتبط را پیدا کردم اینجا و در ریاضیات. SE این کار را برای من انجام نداد. $1)$ آیا $$P(\tilde Z=\tilde z) = p_z\delta (\tilde z+c) + (1-p_z)\delta(\tilde z)$$ روش صحیح نوشتن ** است pmf** از $\tilde Z$؟ و $2)$ در انتگرال کانولوشن آیا باید جایگزینی $u =v+\tilde z \Rightarrow v=u- \tilde z$ را انجام دهم و w.r.t را در $\tilde z$ یا $u =v+\tilde z \ ادغام کنم. فلش راست \tilde z=u-v$ و ادغام w.r.t در $v$؟ من احساس می کنم که این چیز بی اهمیت است، اما این بار کور شدم. | PDF مجموع یک متغیر لجستیک پیوسته و یک متغیر تصادفی برنولی |
97539 | من سعی می کنم احتمال تجمعی 2 رویداد مستقل را پیدا کنم (حداقل فکر می کنم احتمال تجمعی آن). در روزهای بارانی (رویداد 1) جایی که ماشین من روشن نمی شود (رویداد 2) کار را از دست خواهم داد. احتمال اینکه ماشین من در هر روز روشن نشود 20٪ است. احتمال بارندگی در هر روز معین در ماه 10 در 30 (33.3 درصد) است. این دو رویداد مستقل از یکدیگر هستند. احتمال اینکه ماشین من در یک روز بارانی روشن نشود 0.2 * 0.33 = 0.067 است در یک ماه 30 روزه انتظار دارم کار را از دست بدهم 0.67 * 30 = 2.0 روز (گرد) اما چگونه می توانم احتمال گم شدن 1 را پیدا کنم. روز، 2 روز، 3 روز ... تمام 30 روز و غیره در طول یک ماه 30 روزه؟ | احتمال تجمعی 2 رویداد مستقل |
74561 | من داده های فصلی دارم که از آنها پیش بینی می کنم. مراحلی که من انجام میدهم عبارتند از: فصلزدایی از دادهها، یافتن رگرسیون خطی برای نقاط غیرفصلشده، پیشبینی چند نقطه از رگرسیون خطی و اضافه کردن فصلی به مقادیر پیشبینیشده برای به دست آوردن دادههای پیشبینی. ورودی من کاملاً سینوسی است بنابراین همه چیز به خوبی کار می کند. مشکل این است که هرچه در آینده بیشتر پیش بینی کنید، خطاهای پیش بینی بیشتر می شود. من می خواهم آن را در نمودار نشان دهم، اما مطمئن نیستم که چگونه این خطاها را محاسبه کنم. من به چیزی شبیه باندهای فاصله پیش بینی برای داده های پیش بینی فکر می کردم (هر چه نامیده شود). این باندها هر چه بیشتر در آینده پیش بینی کنید افزایش خواهند یافت. در اینجا چند تصویر وجود دارد که نشان می دهد من سعی دارم انجام دهم: نمونه باند image1 نمونه باند image2 **سوال** من این است که نام این باندها چیست؟ (سپس می توانم برای آن جستجوی گوگل انجام دهم) همچنین از فرمول های مورد نیاز برای محاسبات باند قدردانی می کنم. من حدس می زنم یک انحراف معیار در آنجا وجود دارد. من به فاصله اطمینان نگاه کردم، اما به نظر می رسد که برای داده های موجود است، نه برای داده های پیش بینی. | نحوه ایجاد باندهای بازه پیش بینی داده های پیش بینی |
74567 | آیا مسائلی برای اجرای رگرسیون سری زمانی نیوی وست روی یک متغیر وابسته که یک احتمال است وجود دارد؟ سوگیری هایی که من با آن روبرو هستم چیست؟ من نمی توانم چیزی را در اینترنت پیدا کنم که بتواند در مورد این مشکل به من کمک کند. | احتمال به عنوان یک متغیر وابسته در رگرسیون سری زمانی |
85546 | اخیرا متوجه شدم که گوگل و اپل خدمات تشخیص گفتار با کیفیت بسیار بالایی دارند. من در مورد پیشرفته ترین روش ها و تکنیک هایی که آنها برای دستیابی به چنین کیفیتی استفاده می کنند تعجب می کردم. من قبلاً میدانم که مدلهای پنهان مارکوف را میتوان برای تشخیص گفتار استفاده کرد، اما میخواستم بدانم که آیا این تکنیک اکنون استفاده میشود یا خیر. چون همانطور که می دانم HMM قدیمی هستند. بسیار عالی خواهد بود اگر بتوانید به برخی از مقالات مهم اخیر پیوند دهید که می تواند روش های جدید مورد استفاده را شامل/توصیف کند. | روش های پیشرفته برای تشخیص گفتار؟ |
36066 | محققان دو نوع آزمایش مختلف را روی گروه بزرگی از افراد انجام دادند. پس از آن، محققان شرکتکنندگان را در موقعیتهایی مانند Z قرار دادند و پاسخ آنها R را یادداشت کردند. کسانی که نمرات بالایی در آزمون T2 داشتند، پاسخ خوبی داشتند. به همین ترتیب، کسانی که نمرات پایینی در آزمون T2 داشتند، پاسخ بدی داشتند. بنابراین، محققان نتیجه میگیرند که نمره آزمون T2 بر پاسخ R تأثیر میگذارد. با این حال، حقیقت اساسی این است: 1. نمره آزمون T1 بر پاسخ R تأثیر میگذارد. 2. واقعیت 2: امتیاز آزمون T1 بر نمره آزمون T2 تأثیر میگذارد. 3. واقعیت 3: نمره آزمون T2 بر پاسخ R تأثیر نمی گذارد. در اینجا، محققان به اشتباه فرض کردند که نمره آزمون T2 بر پاسخ R تأثیر می گذارد. اما این درست نیست زیرا مقصر واقعی آزمون T1 است. محققان چه خطایی مرتکب شده اند و روش آماری صحیح برای این سناریو چیست؟ به عنوان مثال، ** چه خطایی وجود دارد که فرض کنیم یک تست باعث پاسخ می شود در حالی که در واقع فقط با تست دیگری که باعث پاسخ می شود مرتبط است؟** | چه خطایی وجود دارد که فرض کنیم یک تست باعث پاسخ می شود در حالی که در واقع فقط با تست دیگری که باعث پاسخ می شود ارتباط دارد؟ |
36064 | من به چند مدل رگرسیون ساده با استفاده از بسته R و 'statsmodels' Python نگاه می کنم. من متوجه شده ام که هنگام محاسبه ضریب تعیین، «statmodels» از فرمول زیر برای $R^2$ استفاده می کند: $$ R^2 = 1 - \frac{SSR}{TSS}~~~~~~( \text{centered}) $$ که در آن $SSR$ مجموع مجذور باقیماندهها است و $TSS$ مجموع مجموع مربعهای مدل است. (مرکز به این معنی است که میانگین از سری حذف شده است.) با این حال، همان محاسبه در R نتیجه متفاوتی را برای $R^2$ به دست می دهد. دلیل آن این است که R به نظر می رسد $R^2$ را به صورت زیر محاسبه می کند: $$ R^2 = 1 - \frac{SSR}{TSS}~~~(\text{uncentered}) $$ بنابراین، چه چیزی می دهد؟ احتمالاً دلایلی برای ترجیح یکی بر دیگری در شرایط خاص وجود دارد. من نتوانستم اطلاعاتی را به صورت آنلاین در مورد مواردی که یکی از فرمول های بالا ترجیح داده شود پیدا کنم. میشه لطفا یکی توضیح بده که چرا یکی از دیگری بهتره؟ | محاسبه R-squared (ضریب تعیین) با مجموع مربع در مرکز در مقابل غیر مرکز |
38479 | مقاله تحقیقاتی Forecasting NBA Player Performance نوشته داگلاس هوانگ روشی را برای پیشبینی عملکرد بازیکن با استفاده از یک مدل زمانبندی آماری و توزیع Weibull-Gamma توصیف میکند. من از یک درک ابتدایی از آمار توصیفی و استنتاج بیزی به این موضوع می پردازم و می خواهم پیشینه ای را برای درک بهتر و به طور بالقوه یک رویکرد مشابه برای پیش بینی عملکرد فردی (خارج از عرصه ورزشی) به کار ببرم. * کدام شاخه از آمار این نوع تحلیل را در بر می گیرد؟ * مسیر معمولی که دانشآموزان/تمرینکنندگان در یادگیری نحوه طراحی و اجرای این تحلیلها دنبال میکنند چیست؟ * آیا پیشنهادی در مورد کتاب یا منابع (تا حد امکان اعمال شده) دارید؟ یا کتابخانه های منبع باز که پیاده سازی هایی از این نوع را ارائه می دهند؟ | مسیری برای درک و اجرای مدل های زمان بندی آماری |
11182 | آیا کسی می داند چرا افست در رگرسیون پواسون استفاده می شود؟ با این چه چیزی به دست می آورید؟ | چه زمانی از افست در رگرسیون پواسون استفاده کنیم؟ |
73439 | در قضیه بیزی، $$p(y|x) = \frac{p(x|y)p(y)}{p(x)}$$، و از کتابی که میخوانم، $p(x| y)$ را _احتمال_ مینامند، اما من فرض میکنم که فقط احتمال _شرط_$x$ با توجه به $y$ باشد، درست است؟ برآورد _حداکثر احتمال_ سعی می کند $p(x|y)$ را به حداکثر برساند، درست است؟ اگر چنین است، من به شدت گیج شده ام، زیرا $x,y$ هر دو متغیر تصادفی هستند، درست است؟ به حداکثر رساندن $p(x|y)$ فقط برای پیدا کردن _the_ $\hat y$ است؟ یک مشکل دیگر، اگر این 2 متغیر تصادفی مستقل باشند، $p(x|y)$ فقط $p(x)$ است، درست است؟ سپس به حداکثر رساندن $p(x|y)$ برای حداکثر کردن $p(x)$ است. یا شاید، $p(x|y)$ تابعی از برخی پارامترهای $\theta$ باشد، یعنی $p(x|y; \theta)$، و MLE سعی می کند $\theta$ را پیدا کند که می تواند $ را به حداکثر برساند. p(x|y)$؟ یا حتی اینکه $y$ در واقع پارامترهای مدل است، نه متغیر تصادفی، به حداکثر رساندن احتمال یافتن $\hat y$؟ **به روز رسانی** من در یادگیری ماشینی مبتدی هستم، و این مشکل یک سردرگمی از مطالبی است که از یک آموزش یادگیری ماشین خواندم. در اینجا با توجه به مجموعه داده مشاهده شده $\\{x_1, x_2,...,x_n\\}$، مقادیر هدف $\\{y_1,y_2,...,y_n\\}$ هستند و I سعی کنید مدلی را روی این مجموعه داده قرار دهید، بنابراین فرض میکنم که با توجه به $x$، $y$ دارای شکلی از توزیع به نام $W$ است که با $\theta$ پارامتر شده است، یعنی $p(y|x; \theta)$، و من فرض میکنم این احتمال پسین است، درست است؟ اکنون برای تخمین مقدار $\theta$، از MLE استفاده می کنم. خوب، مشکل من به اینجا می رسد، فکر می کنم احتمال $p(x|y;\theta)$ است، درست است؟ به حداکثر رساندن احتمال به این معنی است که باید $\theta$ و $y$ مناسب را انتخاب کنم؟ اگر درک من از احتمال اشتباه است، لطفا راه درست را به من نشان دهید. | مقایسه تخمین حداکثر درستنمایی (MLE) و قضیه بیز |
14351 | با عرض پوزش از این سوال مبهم و مبهم، من هیچ سابقه ای در آمار ندارم. من دو بردار داده سری زمانی دارم که یک دوره شش ماهه را پوشش می دهد. داده ها در فواصل روزانه (به جز آخر هفته ها) است. بردار اول شامل حجم سهام یک شرکت در هر روز است. بردار دوم شامل یک متغیر حجم خارجی (تعداد جستجوهای گوگل) است که در همان تاریخ گرفته شده است.  همانطور که در نمودار بالا قابل مشاهده است، (که خارج از مقیاس است و غیره) نوعی رابطه بین این دو وجود دارد. من می خواهم دو سری زمانی را برای پیش بینی مقادیر حجم سهام در آینده مدل کنم. تا کنون به طور خلاصه به موارد زیر نگاه کرده ام: * ماشین های بردار پشتیبانی برای رگرسیون: اما وقتی داده ها را روی نمودار پراکندگی رسم کردم، هیچ رابطه واضحی وجود ندارد، بنابراین این باعث شد فکر کنم که رویکرد SVM شکست خواهد خورد. * تجزیه و تحلیل سری های زمانی: این رویکرد من را گیج کرد زیرا هیچ روند آشکاری در داده ها وجود ندارد آیا کسی می تواند در مورد رویکردی که باید اتخاذ کنم توصیه ای ارائه دهد؟ | پیش بینی سری های زمانی بر اساس رفتار یکی دیگر |
6119 | من مردم را بر اساس جریان توییترشان تجزیه و تحلیل می کنم. ما از یک مدل «کیف کلمات» از کاربران استفاده میکنیم، که اساساً به این معناست که تعداد دفعات ظاهر شدن هر کلمه در جریان توییتر افراد را محاسبه میکند (و سپس از آن به عنوان یک پروکسی برای یک «احتمال استفاده از یک کلمه معین» استفاده میکنیم. طول خاص متن). به دلیل محدودیتهای بیشتر در خط لوله، نمیتوانیم دادههای کامل استفاده از همه کلمات را برای همه کاربران حفظ کنیم، بنابراین سعی میکنیم «کارآمدترین» کلمات را پیدا کنیم تا در تجزیه و تحلیل خود حفظ کنیم. به این معنا که ما سعی میکنیم زیرمجموعهای از ابعاد را حفظ کنیم، که دانستن مقادیر آنها به یک بیننده فرضی اجازه میدهد تا احتمالات همه کلمات (از جمله هر کدام را که از تجزیه و تحلیل رها کردهایم) با دقت بیشتری مدلسازی کند. بنابراین یک رویکرد از نوع تحلیل مؤلفههای اصلی (PCA) اولین قدم مناسب به نظر میرسد. (با خوشحالی در حال حاضر این واقعیت را نادیده می گیریم که PCA همچنین ما را به ابعادی می چرخاند که با هیچ کلمه خاصی مطابقت ندارد). اما من دارم می خوانم که توزیع Zipf .. مشخصه استفاده از کلمات در یک زبان طبیعی (مانند انگلیسی) است و تا آنجا که من می دانم، تجزیه و تحلیل PCA مفروضات مختلفی را در مورد داده هایی که به طور معمول توزیع می شوند ایجاد می کند. بنابراین، من متعجبم که آیا مفروضات اساسی تجزیه و تحلیل PCA به اندازه کافی دور از واقعیت است که یک مشکل واقعی باشد. یعنی، آیا PCA به نزدیک بودن دادهها به نرمال گاوسی متکی است تا به خوبی کار کند؟ اگر این مشکلی است که من گمان می کنم، آیا توصیه دیگری وجود دارد؟ یعنی رویکرد دیگری ارزش بررسی دارد که به نوعی با PCA برابر است اما برای داده های توزیع شده Zipf یا قانون قدرت مناسب تر است؟ توجه داشته باشید که من یک برنامه نویس هستم، نه یک آمارگیر، پس اگر اصطلاحاتم را در بالا به هم ریختم عذرخواهی می کنم. (البته از اصلاحات استقبال می شود!) | آیا تجزیه و تحلیل مؤلفه های اصلی معتبر است اگر توزیع(های) مانند Zipf باشد؟ چه چیزی شبیه PCA است اما برای داده های غیر گاوسی مناسب است؟ |
38476 | من می خواهم عوامل تعیین کننده محدودیت های اعتباری یک شرکت را تجزیه و تحلیل کنم. من اطلاعاتی برای اعتبار رسمی و غیر رسمی دارم. من 6 دسته وضعیت محدودیت اعتباری یک شرکت برای اعتبار رسمی دارم، در حالی که فقط 2 دسته برای اعتبار غیررسمی دارم. از آنجایی که وضعیت محدودیت اعتباری به طور همزمان تعیین می شود و بازار اعتبار رسمی و غیررسمی به هم مرتبط هستند، من می خواهم عوامل تعیین کننده محدودیت های اعتباری را برای بازار اعتبار رسمی و غیررسمی به طور همزمان تخمین بزنم. مدل لاجیت/پروبیت دو متغیره ممکن است خیلی ساده باشد. آیا توسعه مدل لاجیت دو متغیره یا نوعی مدل لاجیت چند متغیره چند متغیره در Stata وجود دارد؟ پیشاپیش از شما بسیار سپاسگزارم. | ترکیبی از مدل لاجیت چند جمله ای و مدل لاجیت |
32403 | من سعی می کنم روشی برای استفاده از موتیف ها برای پیش بینی پیدا کنم. نقوش تعریف شده به عنوان دنباله های (زیر) مشابه را می توان با استفاده از روش های تقریبی یا دقیق پیدا کرد، به کشف دقیق موتیف های سری زمانی مراجعه کنید. مشکل من این است: هنگامی که شما نقوش سری های زمانی برچسب گذاری شده دارید، چگونه می توان از موتیف ها برای پیش بینی استفاده کرد؟ | نقوش برای پیش بینی |
38474 | من تعداد زیادی از میکروب ها را در یک اکوسیستم «مدل رودخانه» با نمونه برداری در دو نقطه اندازه گیری می کنم. من میخواهم این فرضیه را آزمایش کنم که گونههای کلیدی بالادست بهترین پیشبینیکنندهها برای هر جمعیت معین در یک سایت نمونه پایین دست هستند (و میخواهم بهترین پیشبینیکنندهها را توصیف کنم). چند سوال اولی یک سوال کلی در مورد رگرسیون با نتایج بسیار است: سطح جمعیت هر یک از صدها گونه می تواند مهم باشد. بنابراین آیا باید نگران استفاده از رگرسیون خطی در همه گونه های بالادست برای پیش بینی هر بردار پاسخ گونه پایین دست باشم؟ من فکر می کنم مشکل اینجا کشف نادرست به دلیل مقایسه های متعدد است. 2) با بسیاری از ویژگی ها و پیش بینی کننده های بالقوه، بهترین روش رگرسیون برای استفاده چیست؟ من انتظار دارم که گونههای نزدیک به هم بهترین پیشبینیکنندههای جمعیتهای پاییندست باشند... بنابراین سبد خریدها برای ترکیب شهودی ویژگیها؟ PCA / انتخاب ویژگی برای کاهش ابعاد به اجزای مرتبط؟ یا فقط اجازه دهید یک مدل خطی (glm؟) الگوی ویژگیهای غیر مهم را حذف کند؟ 3) جزء فضایی بسیار ساده است. من انتظار دارم که فراوانی گونه های پایین دست از گونه های بالادست قابل پیش بینی باشد. بنابراین نکته جالب در اینجا احتمالاً فراوانی گونهها است که نمیتوانیم توضیح دهیم. با این حال، آیا لازم است با همبستگی بالقوه بین دو سایت مقابله کنیم؟ ترجیح من این است که فعلاً این مؤلفه را نادیده بگیرم. با تشکر از همه! | پسرفت در بسیاری از نتایج در یک مدل فضایی |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.