_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
57053
دو مجموعه از متغیرهای تصادفی مستقل به من داده شده است که توسط دو توزیع نرمال متفاوت $X_1,...,X_n \sim N(\theta_1,1)$ و $Y_1,...,Y_m \sim N(\theta_2, 1) دلار. و از آنها خواسته شده است که تابع احتمال log را برای پارامتر $\theta = (\theta_1,\theta_2)$ پیدا کنند. می‌خواستم بدانم آیا یک رویکرد صحیح این است که $l(\theta) = \sum_{i=1}^n(log(f(\theta_1;x_i)) + \sum_{i=1}^m(log (f(\theta_2;y_i)))$، که $f(\theta_1;x_i)$ پی دی اف برای $X_i \sim N(\theta_1,1)$ است یا من هستم این کار را کاملاً اشتباه انجام می دهید؟
احتمال log چند پارامتری توزیع نرمال برای دو نمونه جداگانه
27992
اجازه دهید $X = (X_1، \ldots، X_p) \sim F$ یک بردار تصادفی چند متغیره باشد. ما n مشاهده iid از F، $\\{x_i\\}_{i=1}^n$ داریم. فرض کنید $\hat r_{ab}$ تخمین تجربی همبستگی جزئی بین $X_a$ و $X_b$ با توجه به سایر اجزای F باشد. چه نتایجی برای $P[|\hat r_{ab} - r_ شناخته شده است. {ab}| > t] \leq f(t)$ که $r_{ab}$ همبستگی جزئی جمعیت است و $f(t)$ مقداری تابع نزولی t است؟ اگر $F$ گاوسی چند متغیره باشد چه؟ از مراجع استقبال می شود.
نتایج غلظت نمونه محدود برای همبستگی جزئی
80698
من انواع مختلفی از روش‌ها را برای یافتن مدل‌ها با رگرسیون، و بسیاری از مدل‌های مختلف برای یافتن خوشه‌ها با الگوریتم‌های خوشه‌بندی یاد گرفته‌ام، اما از زمانی که با ML شروع کردم، همیشه به این فکر می‌کردم که چگونه می‌توان از یک الگوریتم به جای الگوریتم دیگری استفاده کرد؟ آیا همیشه باید خطاهای هر مدل را اندازه گیری کنیم سپس انتخاب خود را بر اساس آن انجام دهیم؟ من چیزهایی مانند SVM، الگوریتم پرسپترون، شبکه های عصبی فید فوروارد، ماشین های بولتزمن را یاد گرفته ام، اما چه زمانی باید یکی را بر دیگری انتخاب کنم؟ این همیشه واقعاً من را گیج کرده است. بنابراین از آنچه من می‌دانم، یک دانشمند داده فقط برای i در all_algorithms: use_algorithm(data) use_best_algorithm(data) ایده جانبی: من همچنین داشتم می‌خواندم که الگوریتم واقعاً مهم نیست، بلکه مقدار داده‌ای است که شما دارید. که واقعا مهم است پیشاپیش از شما متشکرم
چگونه یک مدل/برآورنده انتخاب کنم؟
27994
با توجه به یک توالی نامتناهی از مقادیر، انتخاب شده به صورت تصادفی (با جایگزینی) از مجموعه ای از مقادیر N، مقداری X را از مجموعه مقادیر انتخاب می کنم. سپس، از اولین رخداد X در دنباله شروع می‌کنم، تعداد مقادیر بین هر وقوع بعدی X را می‌شمارم و یک دنباله جدید می‌دهم. میانگین و SD این سکانس جدید چیست؟ به عنوان مثال، اگر N=2 و مقادیر 0 و 1 باشند، دنباله نامتناهی من ممکن است شروع شود: 0010101101111000101010011001001... اگر X را به عنوان 1 انتخاب کنم، دنباله جدید خواهد بود: 00101011011110101010... 1000 3 1 1 20 2 2... یا تعداد 0 هایی که هر 1 متوالی را از هم جدا می کند. با تشکر. [انتظار داشتم که این میانگین و واریانس N داشته باشد (به‌طور مبهم چیزی در مورد آمار پواسون از مدرسه به خاطر می‌آورم)، اما به نظر می‌رسد برخی آزمایش‌ها نشان می‌دهند که SD N است.]
میانگین و SD برای فاصله بین وقوع یک مقدار معین در دنباله ای که به صورت تصادفی ترسیم شده است
69886
من اخیراً برای مقاله تحقیقاتی خود تجدید نظری دریافت کردم و در زیر نظر داور در مورد مقاله من آمده است: > نتایج به دست آمده از یک مدل کاملاً قانع کننده نیست، به خصوص خطی > رگرسیون معمولاً در برخورد با موارد پرت نقص دارد. من به نویسندگان پیشنهاد می‌کنم رگرسیون لجستیک را نیز امتحان کنند و نتایج مربوطه را با نتایج فعلی مقایسه کنند. اگر مشاهدات مشابه به دست آید، نتایج > محکم تر خواهد بود. آیا نظر داور درست است؟ آیا رگرسیون لجستیک بهتر از رگرسیون خطی چندگانه است؟ مشکل این است که متغیر وابسته من مقوله ای نیست، یک متغیر مقیاس است. الان چیکار کنم؟ چه روش رگرسیون دیگری را برای ارزیابی مدل من توصیه می کنید؟ امتیاز در جدول زیر متغیر وابسته است. تازگی، فراوانی، دوره تصدی و آخرین امتیاز متغیرهای مستقل هستند. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/uvq3z.jpg) من این متغیرها را از یک سایت استخراج کرده ام و فرض می کنم که این **متغیرهای مستقل** **تاثیر قابل توجهی* دارند. * در **امتیاز**. بنابراین، من مدل‌های زیر را نشان می‌دهم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3LE8f.jpg) * * * به هر حال، مقدار مربع R برای این مدل خطی 0.316 است. ! داور همچنین در مورد این مقدار نیز اظهار نظر کرد: > پس نتایج قانع کننده نیستند زیرا هیچ شاخصی در مورد کیفیت > ضرایب آموخته شده وجود ندارد. یک R^2 کوچک نمی تواند عملکرد خوب را نشان دهد زیرا ممکن است مدل > بیش از حد برازش داشته باشد. آیا 0.316 برای مجذور R بسیار کم است؟ در مقالات قبلی مقادیر مشابه را زیاد دیدم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/UUpAP.png)
استفاده از رگرسیون لجستیک برای یک متغیر وابسته پیوسته
27995
برای یک پروژه اخیر، من از رگرسیون خطی چندگانه برای مدل‌سازی داده‌ها استفاده کردم. من سعی کردم بین مدل کامل اولیه و مدل کاهش یافته با انجام یک آزمون F جزئی یکی را انتخاب کنم. مدل‌های مورد استفاده به شرح زیر بودند: مدل کامل: $\hat{Y}$ = $B_0$ + $B_1$$x_1$ + $B_2$$x_2$ + $B_3$$x_3$ مدل کاهش‌یافته: $\hat{Y }$ = $B_0$ + $B_2$$x_2$ + $B_3$$x_3$ مدل کاهش یافته فقط یک متغیر کمکی حذف شده است - $x_1$. F-Test جزئی یک F-value 2.162 و P-value بیشتر از 0.1 را برگرداند، بنابراین من فرضیه صفر را رد نکردم و به این نتیجه رسیدم که اضافه کردن $x_1$ در مدل ممکن است هیچ سهم خطی قابل توجهی در مدل نداشته باشد. پیش بینی $Y$. بعداً معلمم به من گفت که نباید یک F-Test جزئی را روی مدل کاهش یافته فقط یک متغیر کمتر اجرا کنم. معلم گفت نه تنها نباید چنین کاری انجام دهم، بلکه انجام این کار اشتباه است. به من گفته شد که در عوض فقط دو مدل را با استفاده از مقادیر R^2$، F-values ​​و T-values ​​هر مدل مقایسه کنم. من می‌توانم ببینم که چگونه آزمون F جزئی در این مورد ممکن است اطلاعات مفیدی ارائه نکند، زیرا فرضیه صفری که آن را آزمایش می‌کند این است که $B_1 = 0$، که همان چیزی است که آزمون T روی پارامتر x_1$ آزمایش می‌کند ( در مدل کامل). [توجه: من مطمئن نیستم که رابطه دقیق بین این T-value و F-value آزمون F جزئی چیست.] با این وجود، چرا استفاده و تفسیر نتایج حاصل از آزمون F جزئی اشتباه تلقی می شود. ?
آیا یک آزمون F جزئی روی یک مدل تنها با یک متغیر کاهش می یابد معتبر است؟
54888
آیا می توانم برای یک سری زمانی ثابت از میانگین نمونه به عنوان تخمین میانگین سری زمانی استفاده کنم؟ همچنین روش پیشنهادی برای تخمین واریانس چیست؟ این سری با همبستگی خودکار است.
تخمین میانگین و واریانس یک سری زمانی ثابت
17724
اندرو گلمن، در کتابی که با جنیفر هیل نوشت، در فصل 9، (بخش 9.3)، در صفحه 177 بیان می‌کند: > فقط برای کنترل پیش‌بینی‌کننده‌های قبل از درمان، یا به‌طور کلی، پیش‌بینی‌کننده‌هایی که نمی‌توانند انجام شوند، مناسب است. تحت تأثیر درمان (مانند > نژاد یا سن). این نکته در بخش 9.7 بیشتر توضیح داده خواهد شد... و در آنجا (9.7 با عنوان متغیرهای پس از درمان را کنترل نکنید) او به جای مسئله قبل از تغییر مستقیماً به مسئله اندازه گیری متغیرهای واسطه بحث می کند. در اینجا ذکر این نکته مهم است که به نظر من گلمن/هیل متن درخشانی است... و من از درک آن کاملاً لذت می برم. با این حال، این کمی علاقه من را برانگیخت، زیرا رویکرد Everitt & Pickles به همین مشکل را به ذهن می آورد. اوریت بر این عقیده است که استفاده از امتیاز تغییر (نمره B - نمره A) یافته‌های شما را به نفع درمان سوگیری می‌کند، در حالی که گنجاندن نمرات پایه در مدل محافظه‌کارانه‌تر است. آنها از این موضوع با یک شبیه سازی پشتیبانی می کنند - این بسیار متقاعد کننده است. درک من تا اینجا این بود که آنچه شما کنترل می‌کنید تفاوت‌های گروهی در نمرات پایه است که ممکن است باعث شود اثر درمانی ظاهری بیشتر از آن چیزی باشد که هست یا وجود داشته باشد، در حالی که وجود ندارد. همچنین درک من این است که به این دلیل است که رگرسیون به میانگین در کار است، به طوری که نمرات پایه بالاتر مستقل از اثر درمان با کاهش بیشتری همراه خواهد بود و بالعکس. اوریت شدیداً با «نمرات تغییر» مخالف است و به نظر می‌رسد گلمن توصیه می‌کند که نمرات پایه را در مدل لحاظ نکنید. با این حال، گلمن این را در 2-3 صفحه بعدی، از جمله نمرات پیش آزمون به عنوان یک پیش بینی، نشان می دهد. او این هشدار را می دهد که سپس طیف وسیعی از اثرات درمانی قابل قبول را دریافت می کنید که مشروط به نمره پیش آزمون است، نه طیفی از اثرات درمانی که صرفاً عدم اطمینان در تأثیرات را نشان می دهد. نظر من این است که به نظر می‌رسد استفاده از «نمرات تغییر» واقعاً کاری در مورد رگرسیون به میانگین انجام نمی‌دهد، در حالی که گنجاندن امتیاز خط پایه به‌عنوان پیش‌بینی‌کننده اجازه می‌دهد تا تفاوت‌های گروه پایه را لغو کند، که اساساً ساختار کوواریانس را معرفی می‌کند. من یک پزشک هستم و باید در مورد اینکه کدام درمان موثر است، تصمیمات واقعی بگیرم. پس باید چیکار کنم؟ شامل نمرات پایه هر فرد یا استفاده از نمرات تغییر؟
چگونه باید تفاوت های گروهی و فردی در نمرات قبل از درمان را در یک کارآزمایی تصادفی کنترل شده کنترل کرد؟
22902
هنگام مقایسه نتایج به‌دست‌آمده با مدل‌های مختلف در R، برای انتخاب بهترین آنها باید به دنبال چه چیزی باشم؟ اگر برای مثال از 4 مدل زیر استفاده کنم که برای نمونه حضور/غیاب یکسان گرفته شده از مجموعه داده گونه‌ها، با متغیرهای یکسان استفاده می‌شود: * مدل خطی تعمیم‌یافته * مدل‌های افزودنی تعمیم‌یافته طبقه‌بندی * درخت رگرسیون * شبکه‌های عصبی مصنوعی آیا باید همه روش‌ها را بر اساس مقایسه کنم AIC، Kappa، یا اعتبار متقابل؟ آیا هرگز از انتخاب بهترین مدل مطمئن خواهم شد؟ چه اتفاقی می‌افتد اگر آن 4 مدل پیش‌بینی را با فاکتور بیز مقایسه کنم؟ آیا می توانم آنها را مقایسه کنم؟
ارزیابی و مقایسه مدل برای انتخاب بهترین مدل
94020
مشکل ما این است که تعیین کنیم آیا رابطه ای بین بازده حقوق صاحبان سهام شرکت ها (ROE) و وجود (تعداد شاخص های استفاده شده) (Y) نوع خاصی از شاخص که در گزارش سالانه نشان داده می شود وجود دارد یا خیر. در ابتدا 118 مشاهده داشتیم و پس از تعدیل 104 شرکت داشتیم. به منظور بررسی وجود رابطه خطی بین Y (توزیع شده پواسون) و پیش بینی کننده ROE، 8 خوشه بر اساس توزیع ROE ساختیم و برای هر کلاس میانگین ROE (ROEM)، میانگین تعداد شاخص های استفاده شده را محاسبه کردیم. (ym) و در نهایت، مقدار کل شاخص های استفاده شده توسط هر طبقه. سپس log_ym و ROEM را در یک نمودار رسم کردیم، رابطه آنها خطی نبود بلکه درجه دوم بود. ![scatterplot](http://i.stack.imgur.com/YzIhq.png) بنابراین تصمیم گرفتیم رگرسیون پواسون را با استفاده از متغیر وابسته Y و به عنوان پیش بینی کننده ROE و ROE^2 اعمال کنیم. این مدل چندان خوب نبود: شبه R^2 بسیار کوچک بود (حدود 0.02) و فرضیه بیش از حد پراکندگی پذیرفته شد. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/xq8Rw.png) همانطور که در برخی مقالات خواندیم، به این نتیجه رسیدیم که تمایل به مشاهدات به خوشه وجود دارد. در این مرحله تصمیم گرفتیم رگرسیون پواسون را روی داده های خوشه ای با استفاده از متغیر وابسته مقدار کل شاخص های استفاده شده توسط هر کلاس (ym گسسته نیست) و به عنوان پیش بینی کننده ROEM و ROEM^2 اعمال کنیم. به عنوان متغیر افست از تعداد موارد در هر خوشه استفاده کردیم. خروجی مدل در زیر خلاصه شده است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/7G761.png) * آیا رویکرد ما صحیح است؟ * آیا روش های ساده تری وجود دارد؟ * آیا 8 خوشه کم است؟ * اگر از 14 خوشه به جای 8 استفاده کنیم، نتایج بدتر می شوند. آیا این بدان معنی است که مدل به خوبی جا نمی شود؟
رگرسیون پواسون با متغیر افست
54885
من باید تعیین کنم که آیا همیشه یک ریشه منحصربه‌فرد از معادله احتمال l'(x,0)=0 برای اندازه‌های نمونه‌های مختلف توزیع کوشی وجود دارد یا خیر. اما من در مورد چگونگی تعریف واقعی تابع log-lihood R و اینکه واقعاً قادر به رسم این نمودارها هستم مطمئن نیستم. هر توصیه ای قدردانی خواهد شد!
چگونه توابع loglikelihood توزیع کوشی را در R رسم کنم؟
94028
من در مورد وظیفه طبقه بندی SVM (و بیشتر در کار طبقه بندی کلی)، در مورد **عادی سازی داده ها** تردید زیادی دارم. فرض کنید من یک **SVM آموزش دیده با داده های نرمال شده** و **داده های جدید برای طبقه بندی** دارم. **1** ) **چگونه داده های جدید را عادی کنم**؟ لطفاً توجه داشته باشید که وقتی SVM خود را عادی و آموزش دادم آنها را نمی شناسم. **2** ) **بهترین/روش نرمال سازی مناسب کدام است**؟ حداقل حداکثر یا صفر میانگین + واریانس؟ یک راه حل ممکن که من فکر کردم این است: هنگامی که داده های جدید وارد می شوند، و همانطور که ما با SV ها (که بخشی از داده های آموزشی هستند) کار می کنیم، می توانیم SV ها را غیرعادی کنیم، min-Max/mean-var را دوباره محاسبه کنیم. مجموعه داده جدید WHOLE، و عادی سازی داده های جدید و عادی سازی مجدد SV ها. در مورد این چطور؟ پیشاپیش متشکرم، ایوانو
نرمال سازی داده های SVM... در مورد طبقه بندی داده های جدید (آموزشی) چطور؟
11088
من یک تازه کار در آمار هستم. من در حال تکمیل پایان نامه ام در الگوریتم تکاملی هستم. من باید تعدادی اعداد تصادفی را از توزیع T یا توزیع لاپلاس تولید کنم. چگونه می توانم این کار را انجام دهم؟ توضیح آسان و ساده قدردانی خواهد شد. پیشاپیش ممنون
تولید اعداد تصادفی با استفاده از توزیع t یا توزیع لاپلاس
96479
من دو متغیر پیوسته دارم. متغیر $X$ مقادیر واقعی را نشان می دهد (در واقع فشار اتمسفر است که از طریق فشارسنج اندازه گیری می شود). متغیر $Y$ روشی را برای تقریب فشار اتمسفر بر اساس ارتفاع، دما و برخی پارامترهای فیزیکی دیگر نشان می دهد. من مقادیر $n=17$ دارم. اکنون سؤال این است که تقریب ها چقدر به مقادیر واقعی نزدیک هستند، یعنی چقدر به $X$ و $Y$ نزدیک هستند. به نظر من پلات بلند آلتمن (به عنوان ابزار توصیفی) و ضریب همبستگی تطابق برای ارزیابی تطابق دو متغیر و در نتیجه دقت Y$ مناسب هستند. تنها نگرانی من این است که یکی از متغیرها نشان دهنده مقدار واقعی (یعنی X$) باشد و درک من این است که روش های ذکر شده در شرایطی که من دو اندازه گیری را بدون اطلاع واقعی از مقادیر واقعی مقایسه می کنم، اعمال می شود. قابلیت اطمینان ارزیاب سوال من این است که آیا می توانم از آن دو روش استفاده کنم و آیا روش های مناسب دیگری (بیشتر) وجود دارد؟
اندازه گیری دقت یا اندازه گیری توافق برای داده های پیوسته با مقادیر واقعی
94026
من از SPSS برای تجزیه و تحلیل مجموعه داده ای استفاده می کنم که هدف آن پیش بینی اینکه آیا افراد بر اساس پنج علامت (a، b، c، d، e) مبتلا به سرطان هستند یا خیر. در این مجموعه داده ها بیشتر افراد مبتلا به سرطان هستند. من یک رگرسیون لجستیک باینری اجرا کردم و خروجی زیر را دریافت کردم: ![Block 0](http://i.stack.imgur.com/aXuqu.png) این مدلی را آزمایش می کند که با آن فقط ثابت را شامل می شود و در کل 91.8 را پیش بینی می کند. % درست است. من می دانم که این واقعیت که من پیش بینی کننده های قابل توجهی در جدول متغیرها در معادله نیستند دارم به این معنی است که افزودن یک یا چند مورد از این متغیرها به مدل باید قدرت پیش بینی آن را بهبود بخشد. بعد از اینکه همه پیش‌بینی‌کننده‌ها گنجانده شدند، به مدل نگاه کردم: ![http://i.imgur.com/Y5WdePl.png](http://i.stack.imgur.com/77Fal.png) پیش‌بینی فقط بسیار کمی متفاوت است اکنون پیش بینی می شود که دو نفر به سرطان مبتلا نشوند. درصد کلی درست 91.8٪ باقی می ماند. * چرا با وجود قابل توجه بودن پیش بینی ها، هیچ بهبودی رخ نداد؟ * با این مجموعه داده از اینجا باید به کجا بروم؟ آیا می توان قدرت پیش بینی مدل را بدون گنجاندن پیش بینی های جدید بهبود بخشید؟ * چگونه باید مدل را ارزیابی کنم؟ آیا این واقعیت که نسبت به مدل بهبود نمی‌یابد تنها با شواهد ثابتی که نشان می‌دهد مدل بی‌فایده است؟ خروجی کامل در اینجا قابل مشاهده است. مجموعه داده‌ها در اینجا به‌عنوان سند Google قابل دانلود است.
چگونه می توانم قدرت پیش بینی این مدل رگرسیون لجستیک را بهبود بخشم؟
52487
تکنیک‌های Real-Time Learning دقیقاً چگونه با مشکل توزیع اریب در متغیرهای وابسته و مستقل برخورد می‌کنند؟ من در حال آشنایی با Vowpal Wabbit هستم و با این مشکل روبرو هستم. داده های من دارای انواع مختلفی از متغیرها (عددی و اسمی) هستند. من از آن برای رگرسیون و طبقه بندی استفاده می کنم. می‌دانم احتمالاتی که دریافت می‌کنم هنوز باید کالیبره شوند، درست است؟ من این عدم تعادل را در حال حاضر در حوزه می‌دانم، اما از آنجایی که یادگیری بی‌درنگ نمونه‌های آموزشی را جمع‌آوری می‌کند، چگونه کار می‌کند؟ عدم تعادل (توزیع اریب) در متغیر مستقل نیز یک مشکل در رگرسیون است، پس چگونه حل می شود؟ فکر می کنم تمام آن تکنیک های پیچیده برای رسیدگی به این مشکلات توسعه یافته اند، اما برای شروع به جزئیاتی نیاز دارم.
کالیبراسیون احتمالات در یادگیری آنلاین (یادگیری بلادرنگ) با Vowpal Wabbit
22901
من یک مدل ارتفاعی دیجیتال شبکه بندی شده (DEM) دارم که ارتفاع زمین ($z$) را در مختصات دکارتی $(x,y)$ ارائه می کند. من همراه با DEM، RMS ارتفاعات را می شناسم. تا آنجا که من می دانم RMS را می توان در هر نقطه ای از DEM اعمال کرد و انحراف استاندارد ارتفاعات ثابت است. حال، اگر دو نقطه از DEM بگیرم، ارتفاعات در این نقاط مستقل نیستند، اما اگر فاصله بین نقاط زیر یک محدوده خاص باشد، همبستگی خودکار دارند. من می توانم یک واریوگرام از داده های ارتفاع DEM بسازم که تابع تغییرات ارتفاع را به عنوان تابعی از فاصله ارائه می کند. برای فواصل فراتر از محدوده، تغییرات ارتفاع مستقل است و فقط میانگین تمام ارتفاعات در زمین است. با این حال، چیزی که من واقعاً می خواهم بدانم عدم قطعیت ارتفاع در فواصل نزدیک متفاوت است. من فرض می کنم که عدم قطعیت برابر با RMS در محدوده بزرگ است، اما اگر فاصله نزدیک به صفر باشد، به صفر نزدیک می شود. چیزی که من نیاز دارم تابع vor مقادیر بین فاصله صفر و محدوده است. من فقط تابع واریوگرام ارتفاع را به عدم قطعیت اعمال می‌کنم و آن را از ارتفاع متوسط ​​به RMS مقیاس می‌دهم، اما حدس می‌زنم این یک رویکرد تقریباً ساده‌شده است.
همبستگی داده های ارتفاع و عدم قطعیت ارتفاع به عنوان تابعی از محدوده در یک DEM
11611
اگر 0 در جدول احتمالی وجود داشته باشد و مدل‌های poisson/loglinear تودرتو (با استفاده از تابع «glm» R) را برای آزمایش نسبت احتمال برازش می‌دهیم، آیا باید داده‌ها را قبل از برازش مدل‌های glm تنظیم کنیم (مثلاً اضافه کردن 1/ 2 به همه موارد)؟ بدیهی است که برخی از پارامترها را نمی توان بدون مقداری تنظیم تخمین زد، اما تنظیم/عدم تنظیم چگونه بر تست LR تأثیر می گذارد؟
آیا برای آزمایش نسبت احتمال مدل‌های پواسون/لاگ خطی باید شمارش صفر تنظیم شود؟
57054
من می خواهم توزیع استاندارد Student's-t را متناسب کنم. log-likelihood توسط: \begin{align*} log \mathcal{L}(\nu | l_1,...,l_n)=\sum_{i=1}^n \left( log \left( ( \pi (\nu-2))^{-\frac{1}{2}}\Gamma \left(\frac{\nu}{2} \right)^{-1} \Gamma \left(\frac{\nu+1}{2} \right) \left(1+\frac{l^2}{\nu-2} \right)^{\text{$-\frac{1+ \nu}{2}$}}\right)\right) \end{align*} سعی می‌کنم این کار را با دستور optim انجام دهم. کد R من (داده) است: # log likelihood pinumber<-3.141592653589793 startvalue<-55 loglikstandardizedt <-function(par){ if(par>0) return(-sum(log((pinumber*(par-2))^(-1/2)*gamma(par/2)^(-1)*gamma((par+1)/2)*(1+ standresidalvewma^2/(par-2))^(-(1+par)/2)))) else return(Inf) } optim(startvalue,loglikstandardizedt, method=BFGS) param = optim(startvalue,loglikstandardizedt, method=BFGS)$par من می توانم آن را با نگاه کردن به نمودار کنترل کنم: denstiystandtresid<-function (x) (پیشمبر*(پارام-2))^(-1/2)*گاما(پارام/2)^(-1)*گاما((پارام+1)/2)*(1+x^2/(پارام- 2))^(-(1+پارام)/2) نمودار(تراکم(standresidalvewma)،ylim=c(0,0.8)) منحنی(denstiystandtresid,col=red,add=TRUE) من این مشکل را دارم که خروجی optim، یعنی مقدار par به مقدار زیادی به مقدار شروع بستگی دارد. ارزش شروع درست چیست؟ و بهترین ارزش برای $\nu$ من چیست؟ تنوع بسیار زیاد است، من مقادیر از 27 تا 215 را دریافت می کنم، بنابراین این یک تفاوت بزرگ است؟
نتیجه بهینه به شدت به مقدار شروع بستگی دارد
52482
من از خودم می‌پرسم آیا حذف آن متغیرهایی با مقدار اهمیت متغیر منفی (%IncMSE) در زمینه رگرسیون ایده خوبی است؟ و اگر پیش بینی بهتری به من بدهد؟ نظر شما چیست؟
ارزش متغیر تصادفی Forest مقادیر منفی
80577
من یک سوال دارم که نمی توانم پاسخی برای آن پیدا کنم اگرچه واقعاً زمان زیادی را صرف جستجو کردم. من داده های سری زمانی حدود 20 منطقه یک کشور را دارم. هر سری زمانی 20 سال را پوشش می دهد. من می خواهم اندازه گیری کنم که تکامل متغیر x تا چه اندازه از یک الگو در مناطق پیروی می کند. من مطمئن هستم که تا حدودی انجام شده است، اما می خواهم در مقاله خود استدلال کنم که آنها از یک الگوی مشابه پیروی می کنند، بنابراین من به یک اندازه گیری دقیق نیاز دارم. من فقط به همبستگی داده‌ها برای مناطق فکر می‌کردم، اما جدول متقابلی که دریافت می‌کنم برای نتیجه‌گیری میزان شباهت‌ها کافی نیست. هر ایده ای؟ من گزینه همبستگی خودکار و همبستگی متقاطع را دیدم اما حدس می‌زنم این چیزی نیست که به دنبالش هستم. به نظر می رسد که گزینه پیش بینی نیز بهترین راه برای انجام این کار نیست. من می خواهم تجزیه و تحلیل آماری را فقط در ابتدای مقاله خود ذکر کنم - سپس برای اثبات نظرم به مطالعات موردی کیفی می پردازم، بنابراین نیازی به ارائه یک مدل بزرگ برای داده های آماری ندارم. من از کمک شما قدردانی خواهم کرد. * ویرایش - فرضیه من نظریه محور است. من فرض می کنم x و y به طور علی به هم مرتبط هستند. از نظر تئوری منطقی است. من کشور را از نظر کیفی (تحلیل تاریخی) بررسی کرده ام و به نظر منطقی است. من آن را با داده های آماری سطح کشور نیز بررسی کرده ام و همبستگی زیادی بین x و y وجود دارد، اما من فقط برای 22 سال اطلاعات دارم، بنابراین می ترسم این همبستگی فقط یک تصادف باشد. برای مثال از خودم می‌پرسم که آیا این همبستگی ناشی از تغییرات در برخی مناطق، معدود، نیست. که با تبیین علی باطل می شود. به همین دلیل است که می‌خواهم ببینم آیا سری داده‌ها با هم مرتبط هستند - من نمودارها را دیده‌ام و به نظر می‌رسد همه مناطق از الگوی قابل مشاهده در داده‌های سطح کشور پیروی می‌کنند، اما می‌خواهم مطمئن باشم. من دوست دارم همبستگی x و y را در سطح منطقه ای نیز بررسی کنم! نمی دانم چگونه این کار را انجام دهم (اما این از اهمیت کمتری برخوردار است، فقط به این دلیل که من شک دارم که آیا داده های منطقه ای که در y پیدا کردم قابل اعتماد هستند و منبع داده دیگری ندارند).
همبستگی سری های زمانی برای 20 منطقه (SPSS)
56907
می‌خواهم بدانم که آیا استدلال من در اینجا درست است، به‌اندازه کافی ساده به نظر می‌رسد، اما من فقط می‌خواهم توضیح بدهم (من این مدرک را در نظر می‌گیرم که اگر یک فرآیند مارکوف شرایط تعادل دقیق را برآورده کند، پس قابل برگشت است). اگر $X_{t}$ یک فرآیند مارکوف فضای حالت گسسته است، اجازه دهید $\pi_{x}^{(n)} = P(X_{n} = x)$، $\pi$ توزیع ثابت و $ باشد. P(X_{n+1}=y|X_{n}=x) = P_{xy}$. سپس، $P(X_{n} = x |X_{n+1}=y) = \large\frac{P(X_{n+1}=y|X_{n}=x)P(X_{n }=x)}{P(X_{n+1}=y)} = \frac{P_{xy}P(X_{n}=x)}{P(X_{n+1}=y)} = \large\frac{P_{xy}\pi_{x}}{\pi_{y}}$. این آخرین برابری است که برای من کاملاً واضح نیست. آیا می توانم آن را با گفتن این واقعیت توجیه کنم: $\large\frac{P_{xy}P(X_{n}=x)}{P(X_{n+1}=y)} = \large\frac{P_{ xy}\pi_{x}^{(n)}}{\pi_{y}^{(n+1)}}$، اما از $\pi^{(n)} \rightarrow \pi$ به عنوان $n\rightarrow\infty$ و از آنجایی که $P(X_{n} = x |X_{n+1}=y)$ ثابت است، می توانم $n \rightarrow \infty$ را در بالا بگذارم، به طوری که $\ large\frac{P_{xy}\pi_{x}^{(n)}}{\pi_{y}^{(n+1)}} =\large\frac{P_{xy}\pi_{x}}{\pi_{y}}$؟ با تشکر از بینش و افکار شما.
هویت در فرآیند مارکوف
54884
من این سوال را در Mathoverflow.net پرسیده بودم و کسی پیشنهاد داد که این انجمن ممکن است انجمن بهتری باشد. بنابراین دوباره سوال اینجاست سلام، من دو ماتریس همبستگی n*n با مقادیر بین -1،1 دارم. (2 ماتریس همبستگی چون من n عبارت یکسان را تحت 2 شرایط مختلف دارم) با در نظر گرفتن مطلق ماتریس همبستگی، سپس همبستگی را به یک ماتریس شباهت تبدیل کردم که در آن مقادیر بین [0,1] متغیر است. شباهت با استفاده از فرمول اینجا محاسبه شد: ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/QYxMl.gif) که در آن lij = summation(aiu.auj) و aiu= مقدار همبستگی بین ith است. و عنصر uth در ماتریس همبستگی. ki،kj در مورد ما n-1 است. این به من 2 ماتریس شباهت می دهد. سوال من این است که چگونه می توانم تفاوت بین ماتریس های شباهت (SIM) را محاسبه کنم؟ آیا انجام یک abs ساده (SIM1-SIM2) منطقی آماری/ریاضی خواهد بود؟ آیا راهی قوی برای یافتن/کمیت‌سازی تفاوت بین دو ماتریس شباهت وجود دارد؟ هر ایده ای واقعا قدردانی خواهد شد. پیشاپیش ممنون
چگونه تفاوت بین 2 ماتریس شباهت را محاسبه کنیم؟
53280
تفاوت بین انجام آزمون t بر روی داده هایی که رتبه بندی شده اند و انجام آزمون من ویتنی U بر روی داده های رتبه بندی نشده چیست؟ من به خواندن مواردی از این قبیل ادامه می دهم: به عنوان مثال، صفحه ویکی پدیا برای ANOVA در Ranks بیان می کند: > این روش مبتنی بر رتبه به عنوان قوی در برابر خطاهای غیر عادی، مقاوم در برابر نقاط پرت و بسیار کارآمد برای بسیاری از توزیع ها توصیه شده است. > ممکن است منجر به یک آمار شناخته شده شود (به عنوان مثال، در دو نمونه مستقل > نتایج رتبه بندی طرح در آزمون ویلکاکسون rannk-sum / Mann-Whitney U). دلیل سردرگمی من این است که آزمون U Mann-Whitney برای تفاوت در مکان، فرض می کند که نمونه ها از توزیع های یکسان می آیند. و با این حال انجام ANOVA در رتبه ها چنین فرضی ندارد. با تشکر
ANOVA در رتبه ها در مقابل آزمون من ویتنی U
63597
من داده‌هایی در یک دیتافریم با ستون‌های زیر دارم: تاریخ، زمان، نماد، قیمت من سعی می‌کنم مدل زیر را در قیمت R اجرا کنم ~ فاکتور(زمان) + فاکتور(نماد)* عامل(زمان) + 0 که ضریب اول است. از یک متغیر ساختگی ستون زمان در چارچوب داده و ضریب دوم از حاصلضرب متغیر ساختگی ستون زمان و ستون نماد می آید. من از lm() برای انجام مدل استفاده کردم. fit<-lm(price~factor(time) + factor(symbol)*factor(time) + 0, data=mydata) با این حال، این کار نمی کند زیرا ضرایب بسیار عجیبی برای من به دست می دهد که چیزی نمی گویند. من حدس می‌زنم که این اثر به نوعی با هم مطابقت داشت و نه فقط محصول مستقیم. من سعی کردم یک متغیر جدید با ضرب حاصلضرب فاکتورها و سپس قرار دادن آن در رگرسیون بسازم، اما کار نکرد زیرا r به من گفت که * در عملیات ممکن برای factor() وجود ندارد. بنابراین، چگونه می توانید دو عامل را در یک رگرسیون خطی ضرب کنید؟ کمک شما بسیار قابل تقدیر است، پیشاپیش از شما متشکرم. ویرایش: وقتی می گویم عجیب است، حدس می زنم که باید بیشتر بگویم نه آنچه را که می خواهم. من ضرایبی برای شرکت، سپس ضرایب برای زمان و سپس ضرایب برای شرکت و زمان دریافت می کنم. با این حال، من فقط می‌خواهم ضرایب شرکت و زمان بر مدل تأثیر بگذارد و در نهایت واقعاً علاقه‌مندم که این کار با تأثیرات درون روزی که با استفاده از متغیرهای ساختگی زمان تقریبی می‌شوند، چه می‌کند. اگر من اثرات متقابل شرکت، زمان و سپس شرکت و زمان را دریافت کنم، این بر ضریب اول تأثیر می گذارد، در حالی که فقط شرکت و زمان بر ضریب اول تأثیر می گذارد؟
R: حاصل ضرب متغیرهای ساختگی هنگام استفاده از عامل در رگرسیون خطی
54880
من می خواهم نقص کد را با معیارهای پیچیدگی کد مانند نزدیکی مرتبط کنم. یکی از مدل‌های رایج این است که آن را به عنوان یک فرآیند پواسون مشاهده کنیم، که در آن مدت زمان صرف کدنویسی می‌شود و چگالی تابعی از پیچیدگی کد است. من می توانم یک رگرسیون انجام دهم و مقادیر معناداری و غیره را بدست بیاورم. با این حال، تجسم نتایج برای من سخت است (و حتی برای همکارانی که تمایل کمتری به ریاضی دارند). آیا راه خوبی برای مشاهده این موضوع برای مشاهده مواردی مانند نقاط پرت، اگر روند خطی است و غیره وجود دارد؟ (پیوندها به بسته‌های R قدردانی می‌شوند.) برای مثال، می‌توانم «نقص / زمان ~ پیچیدگی» را ترسیم کنم، اما این نسبتاً پر سر و صدا است و از آنجایی که «نقایص» گسسته و بسیار کوچک هستند، مشاهده روند دشوار است. چیزی که به آن فکر می‌کردم این بود که می‌توانم داده‌ها را به چندک تقسیم کنم و سپس یک رگرسیون به ازای هر چندک انجام دهم و چگالی‌های حاصل را رسم کنم - البته مطمئن نیستم چقدر معتبر است، به خصوص که داده‌های من به طور معمول توزیع نمی‌شوند، بنابراین ممکن است مردم را در مورد اینکه یک کمیت چیست گمراه کنید.
تجسم خوب برای رگرسیون پواسون چیست؟
53281
آیا روشی از لحاظ نظری درست برای انجام انتشار خطاها با آمار قوی وجود دارد؟ من سعی می کنم خطاهای ذاتی یک اندازه گیری را مشخص کنم و عدم قطعیت را از طریق محاسبات مربوط به آن تخمین منتشر کنم. در گذشته، من فرض می کردم که خطاهای من به طور معمول توزیع می شوند و سپس از انتشار عدم قطعیت استفاده می کنند. با این حال، این به وضوح یک فرض بد است (داده‌های من متقارن هستند اما تضمین شده‌اند که مقادیر پرت قابل توجهی دارند)، و من با استفاده از معیاری مانند انحراف مطلق میانه شیفته‌ام. آیا درست است که با MAD مانند انحراف معیار رفتار کنیم؟ آیا معیار دیگری وجود دارد که باید برای این برنامه استفاده کنم؟
انتشار خطاهای با انحراف مطلق میانه از میانه؟
112420
من در حال حاضر سعی می کنم به تنهایی یک رگرسیون لجستیک را با استفاده از توابع 'optim'، 'nlm' و غیره اجرا کنم. من گمان می کنم که تابع احتمال من ممکن است متفاوت باشد، اما نمی توانم محل ذخیره تابع احتمال logit را در glm پیدا کنم. کسی میدونه؟ با تشکر
در تابع glm برای رگرسیون لجستیک، تابع درستنمایی کجا ذخیره می شود؟ آیا در خانواده است؟
27991
من سعی می کنم برنامه ای بنویسم که به طور خودکار شباهت های بین بردارها را گروه بندی کند. بردارها از مختصات نقطه ای تشکیل شده اند. به عنوان مثال (با فرض اینکه X، Y و Z عدد هستند): مجموعه داده 1: [1، 8، **X1**، **X2**، 6، **X3**، **X4**، 8 ، 5، 4، 9، 4، **Y1**، **Y2**، **Y3**، **Y4**، **Y5**، 1، 5، 7] مجموعه داده 2: [ **X1**، **X2**، **X3**، **X4**، 6، 3، 5، 4، 3، 6، **Y1**، * *Y2**، **Y3**، 7، **Y4**، **Y5**، 7، 3، 5، 7] مجموعه داده 3: [ **X3** ، 5، 6، 4، 3، 6، **X1**، **Y3**، 3، 5، 6، **X4**، 2، 6، 7، **X2**، **Y2 ** ، 5، 6، **X4**، **Y4** ] X1، X2، X3، و X4، و Y1، Y2، Y3، Y4، و Y5 بین مجموعه داده 1 و 2 کاملاً با یکدیگر مطابقت ندارند، اما بر خلاف مثال در مجموعه داده 3، در مجاورت بسیار نزدیک قرار دارند و به همان ترتیب هستند. آیا الگوریتمی وجود دارد که بتواند این نوع گروه بندی را انجام دهد. ?
ثبت شباهت بین بردارها با R
60641
من سعی می کنم شباهت بین دو سیگنال را اندازه گیری کنم، یعنی چقدر آنها یکسان هستند. یک همپوشانی کامل (دو خط که یک خط را تشکیل می‌دهند) باید به من مقدار 1 بدهد، هر چه فاصله بین خطوط بیشتر باشد و هر چه روند کلی کمتر شبیه باشد، مقدار باید به 0 نزدیک‌تر شود. من انحراف معیار را اندازه‌گیری کرده‌ام. $\sigma$ و انواع مختلف همبستگی $r$ با استفاده از توابع MATLAB `std()`, `xcorr()` و corr2()`. آنها این ترفند را انجام ندادند، به عنوان مثال. $\sigma_{\phi_{A}}$ $>$ از $\sigma_{\phi_{B}}$ بود (شکل زیر را ببینید). من به استفاده از نوعی میانگین وزنی بین $\sigma$ و $r$ فکر می کردم. امکان دیگر اندازه گیری تفاوت بین نواحی زیر منحنی ها خواهد بود (اما در آن صورت نمودارهای متقاطع مختلف می توانند مساحت یکسانی داشته باشند). سوالات مرتبطی با این موضوع وجود دارد، اما آنها یا عبارتند از: (i) بحث در مورد مفهوم عمومی _شباهت_ یا (ii) پیشنهاد استفاده از xcorr() (انواع مختلف آن برای من کار نکردند). ![لینک به تصویری از دو سیگنال](http://oi43.tinypic.com/2s8h95k.jpg)
اندازه گیری شباهت دو سیگنال گذرا
62642
این در یک سوال امتحانی گذشته بود که با آن برخورد کردم. یک مدل خودرگرسیون مرتبه اول به یک سری زمانی از 50 مشاهدات برازش داده شده است که $\hat\mu = 15$ و $\hat\alpha =0.6$ را نشان می دهد. 12 خود همبستگی باقیمانده اول داده شد و انحراف استاندارد برآورد شده $r_k(\hat Z_t)=0.15 $ $ k=1,2...12.$ سوال بررسی کفایت مدل برازش شده بود. تنها آزمون کفایتی که به ما داده شد، آزمون Ljung-Box بود که فکر می‌کنم از همبستگی‌های خودکار نمونه استفاده می‌کند، نه خود همبستگی باقیمانده.
چگونه می توان کفایت یک مدل سری زمانی را با استفاده از همبستگی های خودکار باقیمانده بررسی کرد؟
48143
LogQ= a+bLogP+cLogI+dLogPm b= -2.174 c= 0.461 d= 1.909 تعیین کشش قیمتی تقاضا، کشش درآمدی و کشش قیمت متقاطع
حل لگاریتم با استفاده از متغیرها
6067
خوب، بنابراین فکر می کنم با در نظر گرفتن قانون کلی 20:1، نمونه مناسبی دارم: یک نمونه نسبتاً بزرگ (N=374) برای مجموع 7 متغیر پیش بینی کننده نامزد. مشکل من این است: از هر مجموعه ای از متغیرهای پیش بینی کننده که استفاده می کنم، طبقه بندی ها هرگز بهتر از ویژگی 100٪ و حساسیت 0٪ نمی شوند. هرچند رضایت‌بخش نباشد، با توجه به مجموعه متغیرهای پیش‌بینی‌کننده کاندید (که نمی‌توانم از آن عدول کنم، این می‌تواند در واقع بهترین نتیجه ممکن باشد). اما، نمی‌توانستم فکر نکنم که می‌توانم بهتر عمل کنم، بنابراین متوجه شدم که دسته‌های متغیر وابسته کاملاً نابرابر متعادل هستند، تقریباً 4:1. آیا یک نمونه فرعی متعادل تر می تواند طبقه بندی ها را بهبود بخشد؟
آیا یک نمونه نامتعادل هنگام انجام رگرسیون لجستیک اهمیت دارد؟
27999
احتمالا یه سوال پیش پا افتاده ولی مدتیه که سرم رو دورش حلقه می کنم... یه نمونه کوچیک دارم (N=7) که تست رو در دو حالت انجام داد. هیچ فرضی در مورد عادی بودن نهایی جمعیت نمی توان داشت. من می خواهم آزمایش کنم که آیا تغییر شرایط به طور قابل توجهی بر نتایج آزمون ها در سراسر افراد تأثیر می گذارد یا خیر. در این مورد، آزمون t روی میانگین دو شرط در بین آزمودنی ها نباید اعمال شود. راست میگم؟ آیا آزمون Mann U-test یا Wilcoxon signed-test مناسب تر است؟ ویرایش: (من می دانم که این دو آزمون میانه های نتایج را با هم مقایسه می کنند) با تشکر
مقایسه میانگین و واریانس یک گروه در دو شرایط
19011
من داده های کوچک زیر را دارم: پدر <- c(NA، NA، NA، 1، 1، 1، 2، 2، 2، 3، 4) مادر <- c(NA، NA، NA، 2، 2، 1 , 1, 1, 3, 4, 4) idd <- c(1:11) yvar <- rnorm(11, 5, 2) xvar <- c(1،1،2، 1،2،1، 1،1، 2، 1،2) mydf <- data.frame (پدر، مادر، idd، yvar، xvar) نیاز به( خویشاوندی) kmat <- خویشاوندی( mydf$idd، mydf$ پدر، mydf$mother) 1 2 3 4 5 6 7 8 9 10 11 1 0.500 0.000 0.00 0.250 0.250 0.500 0.250 0.250 0.0000 0.1250 0.250 2 0.000 0.500 0.00 0.250 0.250 0.250 0.250 0.2500 0.1250 0.250 3 0.000 0.000 0.50 0.000 0.000 0.000 0.000 0.000 0.2500 0.2500 0.000 0.000 4 0.250 0.250 0.250 0.250 0.250 0.250 0.1250 0.2500 0.500 5 0.250 0.250 0.00 0.250 0.500 0.250 0.250 0.2250 0.2250 0.2250 0.250 0.1 0.500 0.000 0.00 0.250 0.250 0.750 0.250 0.250 0.0000 0.1250 0.250 7 0.250 0.250 0.00 0.250 0.250 0.250 0.250 0.1250 0.1250 0.250 8 0.250 0.250 0.00 0.250 0.250 0.250 0.250 0.500 0.1250 0.1250 0.250 0.250 0.250 0.250 0.250 0.125 0.000 0.125 0.125 0.5000 0.1875 0.125 10 0.125 0.125 0.25 0.250 0.125 0.125 0.125 0.125 0.1850.1850. 0.250 0.250 0.00 0.500 0.250 0.250 0.250 0.250 0.1250 0.2500 0.750 این نمونه ای از شجره نامه همزاد در گیاهانی است که هر چیزی می تواند پدر یا مادر یا بالعکس باشد. حتی یک فرد مجرد نیز می تواند هرمافرودیت (هم مادر و هم پدر) کم خود باشد. حتی در این شرایط ارتباط بین فرد 1 با فرد 1 باید 0.5 باشد. آیا راه درستی برای اصلاح این مشکل تخمین ماتریس خویشاوندی وجود دارد؟ برازش مدل مختلط با استفاده از تابع 'lmekin' از بسته خویشاوندی خطای زیر را می دهد: require(inship) model1 <- lmekin(yvar ~ xvar , random = ~ 1|idd, varlist=list(kmat), data = mydf) اخطار پیام: در coxme.varcheck(cluster, varlist, n, gvars, group, sparse, rescale, : مورب ماتریس واریانس ثابت نیست
چگونه می توان یک ماتریس رابطه بدون ثابت مورب در هنگام برازش مدل مخلوط در R ایجاد کرد؟
52736
من با یک مجموعه داده کار می کنم، که برای حذف داده های نویز، میانگین خود نمونه را می گیرم و هر چیزی را بالاتر از میانگین آن برش می دهم. چیزی که در اینجا می‌خواهم بفهمم این است که آیا این نامی دارد که فکر نمی‌کنم به معنای فیلتر کردن باشد - اما دانستن اینکه این چه نوع فرآیند فیلترینگ است مفید خواهد بود زیرا باید آن را در یک مقاله توضیح دهم. چرا این کار را کردم یا این فقط حذف موارد دور از دسترس است؟
حذف داده های بالاتر از میانگین
112422
من فایل CSV را می خوانم و مجموعه داده ای ایجاد می کنم Yourdata<-read.csv('C:/Work/mydat.csv') این دارای پنج ستون و نزدیک به 100 هزار ردیف است و من می خواهم فقط چند ردیف را انتخاب کنم. مثلاً، اگر من بخواهم فقط 1000 ردیف اول را انتخاب کنم، چگونه می توانم آن را در وکتور استخراج کنم تا پردازش بیشتری روی آن انجام دهم.
نحوه انتخاب هیچ ردیفی از Data frame
41156
اغلب، ما از داده هایی استفاده می کنیم که از برخی اندازه گیری ها به دست می آیند. این اندازه‌گیری‌ها معمولاً دارای یک معیار اطمینان هستند که نشان می‌دهد ما تا چه اندازه در مورد اندازه‌گیری قابل اعتماد یا مطمئن هستیم. به عنوان مثال، ما اغلب فاصله های اطمینان مرتبط با نظرسنجی های مختلف را می بینیم. می خواستم بدانم آیا نظریه یا جبری در مورد ترکیب چند اندازه گیری و معیار اطمینان حاصل از کل وجود دارد؟ به عنوان مثال، اگر X را با فاصله اطمینان +-x٪، Y را با فاصله اطمینان +-y٪ اندازه گیری کنم، در مورد فاصله اطمینان X + Y چه می توانم بگویم؟ به طور مشابه، در مورد فواصل اطمینان برای سایر اپراتورها چه می توانیم بگوییم؟ آیا جبری برای این کار وجود دارد؟
جبر برای اطمینان داده ها
60643
من به دنبال اطلاعاتی در مورد تفاوت بین رگرسیون دوجمله ای، دوجمله ای منفی و رگرسیون پواسون هستم و این که این رگرسیون برای کدام موقعیت ها مناسب تر است. آیا آزمایشاتی وجود دارد که بتوانم در SPSS انجام دهم که بتواند به من بگوید کدام یک از این رگرسیون ها برای شرایط من بهترین است؟ همچنین، چگونه می توانم یک دوجمله ای پواسون یا منفی را در SPSS اجرا کنم، زیرا هیچ گزینه ای مانند من در قسمت رگرسیون وجود ندارد؟ اگر لینک مفیدی دارید خیلی ممنون میشم.
تفاوت بین دوجمله ای، دوجمله ای منفی و رگرسیون پواسون
113773
من به دنبال یک کتاب درسی خوب برای یک ترم درس احتمال و آمار برای دانشجویان سال اول مهندسی کامپیوتر هستم (مثلاً بدون حساب دیفرانسیل و انتگرال). میشه پیشنهاد بدید حساب دیفرانسیل و انتگرال نباید پیش نیاز باشد: برنامه ما دارای احتمال و آمار در ترم اول سال اول است. یعنی دانش آموزان این درس را در کنار حساب دیفرانسیل و انتگرال می گذرانند. از این رو آنها حساب دیفرانسیل و انتگرال را نمی دانند. این امر بسیاری از کتاب های احتمالی و آمار عالی را رد می کند. بدون برنامه نویسی سطح بالا: حتی اگر دانشجویان ما دانشجوی مهندسی کامپیوتر هستند، برنامه نویسی نمی دانند. در صورت امکان کتاب مربوط به موارد استفاده مهندسان کامپیوتر باشد. من از سوالات مشابه کتاب خوب در این سایت مطلع هستم، اما فکر می کنم شرایط من آنقدر خاص است که بتوانم یک سوال دیگر بپرسم.
کتاب درسی خوب برای یک ترم احتمال و آمار برای مهندسی کامپیوتر سال 1
112423
در مدل اثرات مختلط من یک اثر ثابت و دو اثر تصادفی (موضوع و زمان اندازه‌گیری) وجود دارد. fit <- lmer(DV ~ group + (1|موضوع) + (1|زمان)) اکنون برای برخی از DV ها واریانس و انحراف معیار برای زمان اثر تصادفی 0 است. در صفحات 10/11 کتاب او (lme4: Mixed-effects مدل سازی با R) داگلاس بیتس نوشت: > تخمین 0 برای σ به این معنی نیست که هیچ گونه تغییری بین > گروه ها وجود ندارد. (...) برآورد، σ1 = 0، به سادگی نشان می دهد که سطح تنوع > بین گروهی برای تضمین گنجاندن اثرات تصادفی در مدل کافی نیست. نکته مهمی که باید از این مثال صرف نظر کرد این است که باید اجازه دهیم تخمین مولفه های واریانس > صفر باشد. ما چنین مدلی را به‌عنوان منحط توصیف می‌کنیم، به این معنا که > مطابق با یک مدل خطی است که در آن اثرات تصادفی مرتبط با Batch را حذف کرده‌ایم. مدل‌های منحط می‌توانند و در عمل رخ می‌دهند. حتی زمانی که مدل نهایی برازش شده فرسوده نیست، باید چنین مدل هایی را در هنگام تعیین تخمین پارامترها از طریق بهینه سازی عددی مجاز کنیم. بنابراین من کاملاً درک نمی کنم که این برای من چه معنایی دارد. از طرفی به نظر می رسد که گنجاندن زمان به عنوان یک افکت تصادفی موجه نیست (برای تضمین استفاده از جلوه های تصادفی در مدل کافی نیست)، از سوی دیگر به نظر می رسد که برای واریانس/SD صفر بودن مشکلی ندارد. (به شرطی که درست تفسیر شود). آیا می توانید در تفسیر صحیح پاراگراف به من کمک کنید؟
جلوه تصادفی با صفر SD در LMM
62644
آیا کسی هست که بتواند به من بگوید یا در مورد یافتن خطای نوع 1 برای کارآزمایی بالینی بیزی به من توضیح دهد. از 100 بیمار من به 59 بیمار موفق نیاز دارم تا از آستانه خلفی من فراتر بروند. من توانسته ام این کار را از طریق R انجام دهم اما اکنون در تلاش برای یافتن خطای احتمال نوع 1 برای این 59 موفقیت هستم. من می دانم که مقدار باید 0.044 ~ باشد، اما من مطمئن نیستم که چگونه این مقدار را پیدا کنم. هر کمکی لطفا
نوع 1 خطای آمار بیزی
48140
تا کنون، تست اجرا یا تست bds با داده‌های i.d خوب عمل می‌کند، اما برای مجموعه داده‌های مستقل اما **نه ** توزیع‌شده یکسان بر اساس تجربیات عملی من با آنها، اینطور نیست. آیا تست دیگری وجود دارد که ویژگی های خوبی در آزمایش این جریان داده های غیر i.d داشته باشد؟
آزمایش برای سری های زمانی مستقل اما نه به طور یکسان؟
54882
به دنبال برخی توصیه های کلی سری زمانی! من داده های عملکرد را در فواصل زمانی ثابت از یک سیستم مشترک با هدف بررسی تاثیر اشتراک گذاری بر عملکرد برشی خود از سیستم جمع آوری کرده ام. عملکرد همانطور که ادعا می شود باید در طول زمان ثابت باشد، اقدامات همسایه ها جدا از تأثیر بر عملکرد من مشاهده نمی شود. متأسفانه من نمی‌توانم طرح‌های زمانی جمع‌آوری‌شده (در مدت دو هفته) یا طرح تفاوت‌ها را پست کنم زیرا تازه اینجا هستم. دلیلی وجود ندارد که باور کنیم این سری باید روندهای قطعی داشته باشد و اعتقاد اولیه من این است که یک مدل خوب P(t) = ثابت + تغییرات تصادفی خواهد بود، با این حال، سری عملکرد مطمئناً غیر ثابت به نظر می رسد (و تست KPSS را رد می کند. ثابت بدون روند) و همبستگی بسیار آهسته تحلیل می رود در حالی که pacf هیچ همبستگی غیر قابل توجهی را پس از 15 تاخیر نشان نمی دهد. با نگاهی به طرح زمانی من و سری های متفاوت، به نظر می رسد که واریانس در حال تغییر است. من در تجزیه و تحلیل سری های زمانی تازه کار هستم و از هر اشاره گر و آنچه که ممکن است جهت مفیدی برای تجزیه و تحلیل باشد قدردانی می کنم. درک من (که ممکن است اشتباه باشد) این است که واریانس غیر ثابت همراه با همبستگی سریال در یک سری باعث می شود روندهای محلی - روندهای تصادفی؟ آیا یک مدل ARCH/GARCH در اینجا قابل استفاده است یا باید ابتدا مدل های ARIMA را امتحان کنم؟ من علاقه کمتری به پیش بینی عملکرد آینده دارم و بیشتر علاقه مند به درک ساختار داده ها هستم. هر گونه کمک قدردانی!
توصیه عملی سری زمانی
95774
من به دنبال ابزارهایی برای **برازش خودکار مدل سری زمانی میانگین متحرک (MA)** به داده های خود در `R` هستم. من روش R:stats::ar را برای تطبیق یک مدل سری زمانی خودرگرسیون با داده ها می شناسم (به طور پیش فرض پیچیدگی را توسط AIC انتخاب می کنم) اما در یافتن معادل آن برای مدل MA ناکام هستم. روش armaFit وجود دارد اما نیاز به تعریف از قبل ترتیب مدل MA دارد. من می خواهم چیزی داشته باشم که آن را به طور خودکار انجام دهد.
یک مدل سری زمانی میانگین متحرک (MA) را به داده ها برازش دهید (R:stats::ar معادل)
99421
آیا اعتبار متقاطع فقط برای انتخاب مدل استفاده می شود یا می توانم از اعتبار سنجی متقاطع برای آزمایش دقت عملکرد یک شبکه عصبی استفاده کنم؟
اعتبار سنجی متقاطع و عملکرد شبکه عصبی
52731
من سری قیمت دارم که همه ثابت هستند بدون اینکه تفاوتی در نظر بگیرند --> I(0). آیا هنوز هم می توانم یک مدل ECM برای آزمایش عدم تقارن انجام دهم؟ به عنوان مثال: Y= ثابت X; پسماندها را گرفته و این عبارت را به صورت منفی و مثبت (ECT+ و ECT-) جدا کنید. سپس: D.Y=cons LD.X LD.Y ECT- ECT+ آیا این برای متغیرهای I(0) درست است؟
مدل تصحیح خطا (برای آزمایش عدم تقارن) با متغیرهای ثابت I(0).
113775
من همیشه بر این باور بوده‌ام که ماتریس همبستگی رتبه اسپیرمن نیازی به مثبت بودن نیمه معین ندارد، زیرا همبستگی‌ها به صورت زوجی تخمین زده می‌شوند، بنابراین همیشه این احتمال وجود دارد که چنین نباشد. با این حال، اخیراً عمیق‌تر به این موضوع نگاه کرده‌ام و گیج شده‌ام، به خصوص پس از خواندن این: https://www.usenix.org/legacy/event/sysml07/tech/full_papers/sabato/sabato.pdf در صفحه # 4، قضیه 2 می گوید: _یک ماتریس همبستگی رتبه اسپیرمن PSD است_ **اثبات:** _همبستگی اسپیرمن یک همبستگی پیرسون برای رتبه ها اعمال شد. بنابراین ماتریس همبستگی رتبه اسپیرمن PSD_ است، بنابراین... آیا ماتریس همبستگی اسپیرمن می تواند نیمه معین مثبت نباشد؟ آیا نمونه متقابلی وجود دارد که مردم بدانند؟ یا اینکه تصور اینکه ماتریس همبستگی اسپیرمن می تواند قطعی غیر مثبت باشد، سوء تفاهم است؟
آیا ماتریس همبستگی رتبه اسپیرمن مثبت است یا خیر؟
60648
من سعی می کنم مصرف برق را در گیگاوات ساعت برای 2 سال آینده (از ژوئن 2013) با استفاده از R (بسته پیش بینی) پیش بینی کنم. برای این منظور من رگرسیون را با خطاهای ARIMA امتحان کردم. من مدل را با استفاده از تابع «auto.arima» برازش کردم، و از متغیرهای زیر در آرگومان «xreg» در تابع «forecast.Arima» استفاده کردم: \- روزهای درجه حرارت و سرمایش، \- ساختگی برای تمام 12 ماه و \- آدمک های متحرک تعطیلات (عید پاک و رمضان) در رابطه با مدل چند سوال دارم: 1) آیا استفاده از هر 12 آدمک برای فصلی بودن ماهانه صحیح است؟ از زمانی که من سعی کردم 11 را اضافه کنم، تابع خطا را نشان داد. تابع `Auto.arima` مدل ARIMA را برگرداند(0,1,2) 2) مدل ضرایب زیر را برگرداند (من همه آنها را مشخص نمی کنم زیرا ضرایب بسیار زیاد است): ma1 ma2 HDD CDD ژانویه فوریه مارس آوریل -0.52 -0.16 0.27 0.12 525.84 475.13 472.57 399.01 من در حال تلاش برای تعیین تأثیر جزء دما بر بار الکتریکی هستم. در درصد، (تفسیر ضرایب درست مانند رگرسیون معمول) مولفه های دما (`HDD`+`CDD`) 11.3% از مصرف برق را تشکیل می دهند. با توجه به اینکه مصرف برق بیشتر تحت تاثیر مولفه آب و هوا است این خیلی کم نیست؟ از سوی دیگر، با نگاهی به ضرایب آدمک ها، مشخص می شود که فصلی بودن بخش بیشتری از بار را به خود اختصاص می دهد. چرا این است؟ آیا مدل کاملاً نادرست است؟ من رگرسیون خطی را امتحان کردم، و مولفه دما 20٪ را تشکیل می دهد، اما هنوز هم درصد پایینی است. چرا این است؟ 3) بدیهی است که من در استفاده از forecast.Arima یا پارامترهای تابع نمودار اشتباه می کنم زیرا وقتی پیش بینی ها را رسم می کنم، تصویری از سری زمانی اصلی دریافت می کنم که با پیش بینی ها برای کل ادامه می یابد (ادغام می شود). دوره سری زمانی (از 2004 تا 2015). من نمی دانم چگونه این را بهتر توضیح دهم، سعی کردم عکس را بچسبانم، اما به نظر می رسد نمی توانم عکس ها را اینجا بچسبانم.
صحت رگرسیون با مدل خطاهای آریما و مسائل تفسیر ضرایب
63590
1. از Applied Statistical Genetics with R توسط Foulkes (pFDR = نرخ کشف نادرست مثبت): > q-value به طور مشابه به عنوان بزرگترین کران پایینی $pFDR$> تعریف می شود که می تواند از رد آمار آزمون $T$ و یک نمونه $x$ با > $T(x)=t$ بر اساس منطقه رد $Γ$ در مجموعه رد تودرتو > مناطق. به طور رسمی، مقدار q نوشته می شود $$q(t) =\inf_{Γ :t∈Γ } [pFDR(Γ > )]$$ از آنجایی که $pFDR$ در اینجا دخالت دارد، باید چندین فرضیه صفر وجود داشته باشد، و متفاوت null ممکن است قوانین تست متفاوتی داشته باشد. اما در اینجا آیا فرض می‌شود که یک قانون آزمایشی مشترک $(T, Γ)$ برای همه تهی‌ها وجود دارد؟ 2. از ویکی پدیا > q-value به عنوان آنالوگ FDR از p-value تعریف شده است. **Q-value > یک آزمون فرضیه فردی ** حداکثر FDR است که در آن آزمون > ممکن است معنی دار نامیده شود. یک رویکرد این است که به جای تعیین سطحی که در آن FDR کنترل شود، به طور مستقیم مقادیر q تخمین زده شود. * چرا در مورد ارزش q آزمون فرضیه **یک فرد** صحبت می کنیم؟ آیا مقدار q برای تهی های متعدد و قوانین تست آنها نیست؟ * آیا _maximum_ FDR باید حداقل FDR باشد؟ * یک رویکرد برآورد مستقیم مقادیر q به جای تعیین سطحی برای کنترل FDR است به چه معناست؟ یک رویکرد در تلاش برای حل چیست؟ 3. آیا من درست می گویم که pFDR به توزیع نمونه بستگی دارد و با آن تغییر می کند، بنابراین q-value هم هست؟ با تشکر و احترام!
مقدار q چگونه تعریف می شود؟
80572
من علاقه مند به انجام یک متاآنالیز از تجزیه و تحلیل متغیرهای ابزاری از تعداد انگشت شماری از مطالعات مختلف هستم و از همه محققین مطالعه، مجموعه ای مشابه از نتایج مدل را درخواست می کنم. با این حال، در حال حاضر با Stata آشنا نیستم و خروجی «inregress» ایجاد می‌شود. آیا می توان از خروجی های جداگانه برای انجام یک متاآنالیز استفاده کرد؟
استفاده از خروجی های مختلف در یک متاآنالیز؟
103261
من سعی می کنم سه نمونه تکراری گرفته شده در زمان های مختلف را با هم مقایسه کنم تا ببینم آیا تکراری با تکرار دو و سه و ویزا verse تفاوت دارد یا خیر. علاقه من این است که ببینم آیا این سه تکرار یک جامعه را با فراوانی گونه های مشابه نشان می دهند یا نه؟ از مطالعه‌ای که انجام داده‌ام، فکر می‌کنم که اندازه‌گیری مکرر آنالیز واریانس دو طرفه کار را برای من انجام می‌دهد، اما من کاملاً مطمئن نیستم که درست باشد؟ لطفاً پیوند داده‌های من را با دنبال کردن پیوند مشاهده کنید: https://gist.github.com/plxsas/9ec2a528f94bd2dff46d لطفاً کسی می‌تواند به من در مورد آن و نحوه دستیابی به آن در R راهنمایی کند؟
دو طرفه ANOVA اندازه گیری مکرر
20414
ما در حال راه اندازی یک آزمایش دستکاری در جنگل هستیم که در آن تأثیر مدیریت را بر تعدادی از شاخص های بهداشتی آزمایش خواهیم کرد. ما 1 عامل، 3 سطح، 3 پلات داریم که هر کدام 3 بار تکرار شده اند. طرح آزمایشی کاملا تصادفی است. نگرانی ما و دو سوال ما در مورد بهترین راه برای تخصیص سطوح عامل به طرح ها است. قطعه‌ها در جنگل پراکنده شده‌اند، اما ممکن است در مجاورت یکدیگر قرار داشته باشند و یک یا چند ضلع مشترک بین هر یک باشند. کاهش اندازه طرح یک گزینه نیست و نه افزایش تعداد تکرارها است. برای اطمینان از استقلال نمودارها، چند محدودیت برای تخصیص تصادفی سطوح به نمودارها قرار می‌دهیم تا اطمینان حاصل کنیم که سطوح فاکتورهای مختلف به نمودارهای مجاور تخصیص داده می‌شوند. **سوال اول** آیا فکر می کنید این سازش بین تصادفی سازی و پراکندگی باعث سوگیری تحلیل های بیشتر می شود؟ ما می خواهیم تضمین کنیم که شرایط اولیه نمودارها، تا آنجا که به متغیرهای پاسخ ما مربوط می شود، تا حد امکان مشابه هستند. ما اطلاعات کافی در مورد شرایط اولیه داریم و ممکن است قبل از شروع آزمایش، برابری یک متغیر پاسخ را برای هر ترکیبی از پیکربندی تخصیص سطح به نمودارها آزمایش کنیم. سپس می‌توانیم پیکربندی سطوح را در نمودارهایی انتخاب کنیم که از آستانه معنی‌داری فراتر می‌رود (یا به سادگی مقدار _p_ را به حداکثر می‌رساند)، یا واریانس متغیر پاسخ توضیح داده شده توسط سطح عامل را به حداقل می‌رساند. **سوال دوم** تعادل صحیح بین تصادفی سازی و اطمینان از شرایط اولیه بین واحدهای آزمایشی کجاست؟
تعادل بین تصادفی سازی، پراکندگی و حتی شرایط اولیه واحدهای آزمایشی
67031
من جستجو کردم، اما نمی توانم درک کنم: لطفا به یک مبتدی کمک کنید. 1) سناریو - از 10 نفر (نمونه تصادفی) 6 سوال پرسیده می شود. 6 سوال به 2 دسته تقسیم می شوند (یعنی 3 سوال دسته کلمات طولانی و 3 سوال دسته کلمات کوتاه) که متغیر مستقلی برای آزمایش اینکه آیا تفاوتی بین عملکرد دسته کلمات بلند و سوالات دسته کلمات کوتاه وجود دارد (بر اساس اثر طول کلمه بر طول حافظه برای حافظه کاری). بنابراین 10 آزمودنی بر اساس عملکرد کلمه بلند و عملکرد کلمه کوتاه امتیازات فردی دارند (همه از یک پرسشنامه پرسیده شده است). من ادامه می دهم و میانگین را برای همه موضوعات محاسبه می کنم: به عنوان مثال، میانگین کلمه بلند 1.3 و میانگین کلمه کوتاه 2.3 است. انحراف معیار گروه ها نیز محاسبه خواهد شد. 2) سوال 1. برای آزمایش اینکه آیا دو میانگین از یک گروه با نتایج بر اساس دسته بندی سوالات مختلف یک پرسشنامه منفرد که به طور کامل برای یک فرد اجرا شده است یا نه، آیا می توانم از آزمون t استفاده کنم تا مشخص کنم میانگین ها از نظر آماری متفاوت هستند (تمام مطالب I آیا صحبت در مورد دو نمونه متفاوت {معمولاً به عنوان نمونه مستقل}، یا یک نمونه منفرد اما تحت دو آزمایش جداگانه (یکی قبل از مداخله و سپس دیگری پس از مداخله) یافته اید، اما نمونه به عنوان وابسته خوانده می شود در مورد استفاده از آزمون t مطمئن نیستم زمانی که میانگین ها از یک پرسشنامه به دست می آیند و یک بار برای یک گروه اجرا می شوند.
آزمون t یا نه، مستقل یا نه
60649
سوال من با الگوریتم معروف داده کاوی Dynamic Time Warping که به نام DTW نیز شناخته می شود، مرتبط است. طبق ویکی پدیا، فاصله بین دو دنباله عنصر (i-th,j-th) ماتریس DTW است. اما در مقالات تحقیقی می‌بینم که برای طبقه‌بندی به دو مورد نیاز داریم که کمترین هزینه مسیر/مسیر تاب برداشتن را پیدا کنند، که مجموع تمام سلول‌های این مسیر است (مطمئن نیست). آیا نمی توانیم فقط از مقدار DTW[i, j] استفاده کنیم؟ همچنین، من می بینم که بسیاری از افراد فاصله را بر یک ثابت تقسیم می کنند و می گویند این یک نرمال سازی است. چرا این کار را می کنند؟
تاب خوردگی زمان پویا - چرا به کمترین هزینه نیاز داریم؟
112421
من چهار ترانسکت (یا 6 بسته بسته به سایت) دارم که در 10 سایت تو در تو قرار گرفته اند، با داده های تکرار شده در طی 4 سال، با 5 بازدید ماهانه. پاسخ من داده های شمارش است و من از Poisson (و شاید Neg Bin) GLMM استفاده می کنم. آیا توصیه می شود ترانسکت ها را به عنوان یک اثر تصادفی در نظر بگیریم؟ آیا بهتر است به برهمکنش اثر تصادفی محل x ترانسکت نگاه کنیم یا حتی تعداد ترانسکت‌های داخل یک سایت را به عنوان یک افست در نظر بگیریم؟ من سعی کردم مدلی را با اثر متقابل اثر تصادفی سایت x transect اجرا کنم، اما زمانی که متغیرهای کمکی را به مدل معرفی می‌کنم (که مربوط به ترانسکت هستند)، یک پیام NaN برای ارتباط بین شیب و قطع دریافت می‌کنم. چرا ممکن است این باشد؟ هر توصیه ای بسیار قدردانی می شود. متشکرم.
توصیه عوامل تصادفی تو در تو
84218
من یک مجموعه داده با حدود. در مجموع 13000 مورد و تقریباً 1000 پرونده نتیجه ای دارند که من علاقه مند به پیش بینی آن هستم (محکوم به حبس). من یک رگرسیون لجستیک در کل نمونه اجرا کرده‌ام و این مدل در پیش‌بینی «حبس» وحشتناک است، اگرچه در پیش‌بینی «بدون حبس» بسیار خوب است. سعی کردم نمونه‌ای تصادفی از پرونده‌های «غیر حبس» ترسیم کنم و آنها را با موارد «حبس» بپیوندم تا نمونه متعادل‌تری داشته باشم. وقتی تعداد موارد مشابهی داشته باشم (یعنی 50٪ حبس 50٪ بدون حبس) به پیش بینی بسیار خوبی از هر دو نتیجه می رسم. با این حال، وقتی تعداد موارد «غیر حبس» را دو برابر می‌کنم، پیش‌بینی کلی من افزایش می‌یابد، اما توانایی پیش‌بینی حبس به‌ویژه کاهش می‌یابد. استفاده از نمونه برای بهترین پیش بینی حبس معتبر است یا من به نحوی بر نتایج تأثیر می گذارم؟ آیا این واقعیت که مدل اولیه من در پیش بینی زندان ضعیف بود فقط به این معنی است که من مدل خوبی ندارم؟ (تشخیص به طور کلی نشان می دهد که عالی نیست اما خوب است). با تشکر
رگرسیون لجستیک و نسبت موارد به غیر مورد در نمونه
63592
از صفحه 17 برخی از اسلایدها، در مقایسه چندگانه، وقتی همه فرضیه های صفر درست نیستند، چرا تعداد موارد مثبت کاذب $V$ کمتر از تعداد مثبت گزارش شده $R$ است، یعنی $V <R$؟ هنوز هم ممکن است مثبت (های مثبت) واقعی وجود داشته باشد، درست است؟
چرا تعداد FPها کمتر از موارد مثبت گزارش شده در این مورد است؟
78464
من یک فیزیکدان هستم که چند سالی از آخرین دوره تحصیلی اش در آمار سپری شده است، بنابراین امیدوارم هنگام مقایسه برخی از داده هایی که اخیراً تولید کرده ام، توصیه هایی دریافت کنم. من این سوال را در وب سایت Mathematics Stack Exchange پرسیدم، اما هیچ پاسخی دریافت نکردم، بنابراین فکر کردم اینجا هم امتحان کنم. زمینه به شرح زیر است. من دو مدل نظری کمی متفاوت دارم که از آنها برای تولید دو مجموعه داده استفاده کردم (اعداد دارای قدرت تابشی در اتم های چند الکترونی برای انتقال های مختلف هستند، اما دقیقاً برای ریاضیات مرتبط نیستند). من همچنین مجموعه‌ای از مقادیر «پذیرفته‌شده» یا «ادبیات» مربوط به این انتقال‌ها را دارم، و می‌خواهم ببینم کدام یک از دو مدل من نتایجی ایجاد می‌کند که به طور کلی/متوسط ​​به مدل «پذیرفته‌شده» نزدیک‌تر است. معیار مقایسه فعلی من خطای نسبی برای هر انتقال است (یعنی $\delta_{rel}=\frac{|T_{i,j}−A_j|}{A_j}$ که $T_{i,j}$ نظری من است نتیجه برای انتقال $j$ و مدل نظری $i$ و $A_{j}$ نتیجه پذیرفته شده برای انتقال $j$ است. واضح ترین مکان برای شروع به نظر می رسید. من اکنون درگیر این هستم که چگونه می توانم از این خطاهای نسبی معنایی به دست بیاورم. در حال حاضر، من فقط میانگین حسابی خطاهای نسبی را گرفته‌ام، اما شهودم به من می‌گوید این روش دقیق یا درستی در این مورد نیست. از آنچه به یاد دارم، هر خطای نسبی را می توان یک متغیر تصادفی مستقل در نظر گرفت. اگر مجذور تفاوت در صورت‌گر تفاوت نسبی خود را بگیرم، معتقدم که باید یک توزیع $\chi^2$ دریافت کنم. بنابراین، من دو نمونه از دو توزیع نظری $\chi^2$، یکی برای هر یک از مدل‌هایم، دارم. چگونه باید این دو توزیع را مقایسه کنم؟ دانش تست فرضیه من کمی زنگ زده است و به یاد ندارم که دو توزیع $\chi^2$ را با هم مقایسه کرده باشم. هر گونه توصیه یا نشانه ای مبنی بر اینکه آیا من درخت اشتباهی را پارس می کنم قدردانی خواهد شد.
مقایسه توزیع خطا برای تعیین اینکه کدام مدل نتایج بهتری را به همراه دارد
62646
من داده‌هایی درباره حجم نامه‌های ارسال شده توسط خانواده برای هفت گروه سنی، با داده‌های 12 ساله برای هر گروه سنی دارم. من در ابتدا یک رگرسیون ساده روی هر گروه سنی به صورت جداگانه انجام دادم و متوجه شدم که باید عمیق‌تر بگردم. هدف من اکنون این است که داده ها را جمع آوری کنم (به من 84 مشاهده داده است) و سعی کنم برخی از اثرات دوره (یا اثرات سال، هر کدام را که ترجیح می دهید) شناسایی کنم. داده های تلفیقی من در حال حاضر به این شکل سازماندهی شده اند (PPHPY مخفف Pieces per Household Per Year است): گروه سنی سال PPHPY 1 2001 127.62 1 2002 144.47 1 2003 111.70 1 2004 95.96 196206 195.96 1 2006 139.91 1 2007 85.52 1 2008 75.43 1 2009 109.34 1 2010 53.16 1 2011 64.09 1 2012 50.94 2 2004 2004 122827. 2003 137.79. . . . . . . . . 7 2012 163.39 من برای اولین بار PPHPY را روی آدمک‌های سال و سال پسرفت کردم (برای جلوگیری از چند خطی کامل، فاصله را 0 گذاشتم). این به من اثرات دوره را برای داده های انبوه داد (یعنی چیزی شبیه اثر دوره در تمام گروه های سنی، فکر می کنم). این به شکل زیر است: > ## با استفاده از factor() > YearDummy <- factor(YearVar) > > ## را بررسی کنید تا ببینید YearDummy واقعاً یک متغیر عامل است > > is.factor(YearDummy) [1] TRUE > > ## (...+0) تضمین می کند که رهگیری حذف شده است و بنابراین YearDummy1 در داخل باقی می ماند. ## یکی یا دیگری باید کم شود برای جلوگیری از چند خطی کامل > > LSDVYear <- lm(PPHPY ~ YearVar + YearDummy + 0, data=maildatapooled) > خلاصه (LSDVYear) فراخوانی: lm(فرمول = PPHPY ~ YearVar + YearDummy + 0، داده = maildapools میانه 3Q Max -99.658 -39.038 8.814 43.670 82.300 ضرایب: (1 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای t مقدار Pr(>|t|) YearVar 5.743e-02 9.851e-03 5.830 1.45e-07 *** YearDummy2001 1.099e+02 2.795e+01 3.930 0.000e-03 0.000Dummy2001 *** 2.796e+01 4.324 4.85e-05 *** YearDummy2003 7.791e+01 2.797e+01 2.786 0.006819 ** YearDummy2004 8.053e+01 **012.7970+02.797e YearDummy2005 6.887e+01 2.798e+01 2.461 0.016236 * YearDummy2006 6.572e+01 2.799e+01 2.348 0.021618 * YearDummy2007+20070.799 2.134 0.036210 * YearDummy2008 5.836e+01 2.800e+01 2.084 0.040696 * YearDummy2009 4.119e+01 2.801e+01 1.4471 701405. 3.056e+01 2.801e+01 1.091 0.278990 YearDummy2011 1.472e+01 2.802e+01 0.525 0.600951 YearDummy2012 NA NA NA NA Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 52.44 در 72 درجه آزادی چندگانه R-squared: 0.9316، R-squared تنظیم شده: 0.920 آمار: 81.71 در 12 و 72 DF، p-value: < 2.2e-16 چیزی که من می‌خواهم این است که جلوه‌های دوره را برای هر گروه سنی به صورت جداگانه حذف کنم. این چیزی است که من مطمئن نیستم چگونه تنظیم کنم. من امیدوار بودم که کسی بتواند به من کمک کند تا کدی در R ابداع کنم که اثرات دوره را برای _هر یک از هفت گروه سنی با استفاده از داده های تلفیقی حذف کند، و همچنین به من در درک مفهومی مشکل کمک کند. ویرایش: فراموش کردم اشاره کنم که می‌دانم باید یک اصطلاح تعاملی را در بر داشته باشم تا اجازه دهیم ضرایب در گروه‌های سنی متفاوت باشند. من فقط در ساختن عبارت تعامل مناسب و معادله رگرسیون در نتیجه مشکل دارم. ویرایش 2: من با دو مدل آمدم و آنها را اجرا کردم. من احساس کردم که این سوال در این مرحله تکامل یافته است و ممکن است مستحق یک پست جدید باشد که در اینجا یافت می شود.
رگرسیون سری زمانی تلفیقی در R
20417
من روی یک مطالعه مونت کارلو در مورد بوت استرپینگ در یک مدل AR(1) برای تکلیف خانه کار می کنم (من از Matlab استفاده می کنم). هدف این است که چیزی در مورد احتمالات رد تجربی بوت استرپ در این زمینه خاص بگوییم. با این حال، من با برخی از مشکلات محاسباتی مواجه شده ام. ابتدا مقداری زمینه فرض کنید یک رگرسیون $y_t = \gamma + \rho y_{t-1} + \varepsilon_t$ دارد و می‌خواهد فرضیه دو دنباله $\rho = \rho_0$ را توسط بوت استرپ آزمایش کند. برای انجام این کار، ابتدا رگرسیون را با مثلا OLS تخمین می زنیم و سپس از باقیمانده های بدست آمده $\hat \varepsilon_t$ و ضرایب $\hat \gamma, \; \hat \rho$ برای ساختن نمونه های بوت استرپ. با این حال، در این مورد، نمونه بوت استرپ باید به صورت بازگشتی ساخته شود. آنچه برای محاسبات بدتر است، باید این محاسبات را بارها با استفاده از مجموعه داده های شبیه سازی شده مختلف _and_ مقادیر مختلف $\rho$ تکرار کنم. (دلیل آن این است که به فرد اجازه می دهد تا حدی از سطح تجربی آزمون در مقادیر مختلف $\rho$ دریافت کند.) تا کنون من این کار را به روشی ساده و ساده انجام داده ام که فقط بسیاری از رگرسیون ها را تخمین می زند و نمونه های راه انداز را تولید می کند. ، و غیره. من توانستم تعداد زیادی حلقه را با استفاده از تابع «فیلتر» در هنگام تولید نمونه‌های بوت استرپ حذف کنم، اما باز هم زمان‌های محاسباتی بسیار زیاد است. من آن را با بوت استرپ داخلی در gretl مقایسه کردم و چندین برابر کندتر است. (من می‌دانم که gretl به زبان C نوشته شده است، اما احساس می‌کنم که چیزی بیشتر از آن وجود دارد.) بنابراین، سؤال من این است: چه توصیه‌ای کلی می‌توانید برای پیاده‌سازی کارآمد بوت استرپینگ در یک زبان مبتنی بر ماتریس داشته باشید؟ آیا راه‌های هوشمندانه‌ای برای جلوگیری از تخمین بسیاری از رگرسیون‌های OLS و تولید نمونه‌های بوت استرپ وجود دارد؟ اگرچه من از Matlab برای محاسبات استفاده می کنم، اما اگر توصیه های کلی در مورد انجام این کار با R دارید، از همه کمک ها بسیار قدردانی می شود. همچنین، از آنجایی که این یک تکلیف است که باید انجام دهم، استفاده از کتابخانه های موجود واقعاً یک گزینه نیست. :)
چگونه بوت استرپ را به طور موثر در یک زبان مبتنی بر ماتریس پیاده سازی کنیم؟
78281
کسی می تواند به من توضیح دهد که باند اطمینان در همبستگی چیست و اگر ضریب خودهمبستگی خارج از این خط باشد به چه معناست؟ به عنوان مثال در نمودار من، تاخیر 14 به طور قابل توجهی بالا است، به چه معناست؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/pTqbG.png)
نوار اطمینان در همبستگی
99423
من یک آماردان مبتدی هستم که از R استفاده می کنم. من یک BLR را برای تعیین احتمال وجود سایت های خوب یا بد برای ساخت یک ساختار اجرا می کنم. هر مکان دارای یک امتیاز ترکیبی است که از مقادیر شاخص ایجاد شده در مدل قبلی ایجاد شده است. وقتی BLR را اجرا می‌کنم، رهگیری و ضریب من به نظر می‌رسد نامناسب است. رهگیری مقدار -91.197 را ثبت می کند و ضریب آن 18.188 است. به همین ترتیب log-likelihood درست به نظر نمی رسد، زیرا -2.1503e-07 است. بنابراین هنگام محاسبه احتمال پیش‌بینی‌شده از Log Units و Raw Units، مقادیر بسیار پایینی مانند 1.024419e-166 دریافت می‌کنم. آیا کسی می تواند روشن کند که این موضوع چه می تواند باشد؟ آیا مجموعه داده بدی دارم؟ آیا از روش آماری اشتباهی استفاده می کنم؟ هر گونه کمکی بسیار قدردانی می شود.
رگرسیون لجستیک باینری - ارزش Log-Likelihood بسیار پایین
52730
من با یادگیری ماشین و این انجمن تازه کار هستم. من یک شک مبتدی در مورد داده های نامتعادل دارم. اینجاست: من یک کار طبقه بندی باینری دارم، که در آن بیشتر به طبقه بندی دقیق طبقه مثبت (که در جمعیت هدف در اقلیت است) علاقه مندم. برخلاف مشکل رایج **_not_** داشتن نمونه های کلاس مثبت (اقلیت) کافی در مجموعه آموزشی، مجموعه داده آموزشی من شامل کلاس مثبت در **_majority_** است. در اینجا ترکیب جمعیت هدف (که انتظار دارم در محیطی که طبقه‌بندی کننده/مدل من در آن مستقر می‌شود پیدا شود): * کلاس مثبت: ~ 35٪ * کلاس منفی: ~ 65٪ در اینجا ترکیب مجموعه آموزشی من است: * کلاس مثبت: ~ 95٪ * کلاس منفی: ~ 5٪ از آنجایی که ترکیب مجموعه آموزشی من به شدت با ترکیب جمعیت هدف متفاوت است، طبقه بندی خواهد شد الگوریتم هنگام طبقه بندی نمونه ها از جامعه هدف تعمیم نمی یابد؟ همانطور که قبلاً اشاره کردم، من بیشتر به طبقه بندی دقیق نمونه های کلاس مثبت علاقه مند هستم، که مجموعه آموزشی من به وفور دارد. من شرح زیر را در یک نشریه در مورد مجموعه داده های نامتعادل خواندم: هدف از یادگیری ماشینی این است که طبقه بندی کننده توزیع احتمال جمعیت هدف را تخمین بزند. از آنجایی که این توزیع ناشناخته است، سعی می کنیم توزیع جمعیت را با استفاده از توزیع نمونه تخمین بزنیم. آمار. به ما می گوید که تا زمانی که نمونه به صورت تصادفی ترسیم شود، می توان از توزیع نمونه برای تخمین توزیع جمعیت از جایی که رسم شده است استفاده کرد، بنابراین با یادگیری توزیع نمونه، می توانیم تقریبی توزیع هدف را بیاموزیم. از آنجایی که مجموعه داده آموزشی من می تواند **_not_** به عنوان یک نمونه تصادفی از توزیع هدف در نظر گرفته شود، آیا این بر قدرت تعمیم طبقه بندی کننده من تأثیر می گذارد؟ اگر چنین است، برای جلوگیری از این امر چه باید کرد؟ نمونه برداری بیش از حد / کمتر از حد؟ ماتریس هزینه؟ PS: من سعی کردم در پست های قبلی در مورد مسائل مشابه من جستجو کنم، اما همه آنها به مشکل نداشتن مثال های کافی برای طبقه اقلیت (که دقیقا برعکس سناریوی من است) پرداختند. پیشاپیش متشکرم -S
داده های عجیب و غریب نامتعادل
54774
فرهنگ لغت Merriam-Webster یک رویداد یا موقعیت _contingent_ را به صورت 1 تعریف می کند: احتمال وقوع اما قطعی نیست: ممکن است 2: از نظر منطقی ضروری نیست. به ویژه : تجربی 3 الف : اتفاق افتادن تصادفی یا علل غیرقابل پیش بینی ب : مشروط به اتفاق یا اثرات غیر قابل مشاهده : غیر قابل پیش بینی ج : برای استفاده در شرایطی که به طور کامل پیش بینی نشده است 4 : وابسته یا مشروط به چیز دیگری 5 : ضروری نیست : با انتخاب آزاد تعیین می شود . با توجه به اصطلاحات آماری کنونی، از آنجایی که جداول اقتضایی برای نشان دادن طیف وسیعی از داده ها در موقعیت های مختلف استفاده می شود، چرا آنها را می نامیم جداول احتیاطی؟ در کدام یک از معنی های پنج گانه فوق کلمه «احتمال» در این اصطلاح به کار رفته است؟
در جدول احتمالی چه چیزی وجود دارد؟
113777
اهمیت واقعی یک عبارت رهگیری در معادله رگرسیون چیست؟ اگر رگرسیورها متغییرهایی مانند سن، قد، وزن و جنسیت را شامل شود (1= مذکر، 0= زن)، آیا معادله باید یک ترم قطع داشته باشد؟
اهمیت عبارت رهگیری در معادله رگرسیون
67038
من به تازگی یک نسخه از _ عناصر یادگیری آماری_ اثر هستی، تبشیرانی و فریدمن را دریافت کردم. در فصل 2 (نمای اجمالی یادگیری تحت نظارت) بخش 4 (نظریه تصمیم گیری آماری)، او مشتقاتی از تابع رگرسیون ارائه می دهد. > اجازه دهید $X \in \mathbb{R}^p$ یک بردار ورودی تصادفی با ارزش واقعی را نشان دهد، و > $Y\in\mathbb{R}$ یک متغیر خروجی تصادفی با ارزش واقعی، با توزیع مشترک > $Pr(X, Y) $. ما به دنبال یک تابع $f(X)$ برای پیش بینی $Y$ داده شده > مقادیر ورودی $X$ هستیم. این تئوری به یک تابع ضرر $L(Y,f(X))$ > برای جریمه کردن خطاها در پیش بینی نیاز دارد، و تا حد زیادی رایج ترین و راحت ترین آن، از دست دادن خطا مربع است: $L(Y,f(X))=( Y-f(X))^2$. این ما را به > معیاری برای انتخاب $f$، > > $$\begin{align*} EPE(f) &= E(Y-f(X))^2 \\\ &= \int [y - f( هدایت می‌کند x)]^2Pr(dx, > dy)\end{align*}$$ خطای پیش‌بینی مورد انتظار (مربع). من کاملاً تنظیم و انگیزه را درک می کنم. اولین سردرگمی من این است: منظور او $E[(Y - f(x))]^2$ است یا $E[(Y - f(x))^2]$؟ دوم، من هرگز علامت $Pr(dx,dy)$ را ندیده ام. کسی که معنی آن را دارد می تواند برای من توضیح دهد؟ آیا فقط این است که $Pr(dx) = Pr(x)dx$؟ افسوس که سردرگمی من به اینجا ختم نمی شود، > با شرطی کردن روی $X$، می توانیم $EPE$ را به صورت $$\begin{align*}EPE(f) = > E_XE_{Y|X}([Y-f(X)] بنویسیم. ^2|X)\end{align*}$$ من ارتباط بین این دو مرحله را از دست داده‌ام و با تعریف فنی تهویه‌سازی آشنا نیستم. اگر می توانم چیزی را روشن کنم به من بگو! فکر می کنم بیشتر سردرگمی من از نشانه گذاری ناآشنا ناشی شده است. من مطمئن هستم که اگر کسی بتواند این اشتقاق را به انگلیسی ساده تقسیم کند، آن را دریافت خواهم کرد. با تشکر stats.SE!
گیج شدن با استخراج تابع رگرسیون
67036
من یک سوال در مورد روش تتا در بسته پیش بینی در R داشتم. من سعی کردم از مثال AirPassenger با thetaf() استفاده کنم، اما فقط یک خط روند بدون فصلی در پیش بینی ارائه داد. آیا «thetaf()» فصلی بودن را شناسایی و پیش‌بینی می‌کند؟ این کد «R» است که من استفاده کردم: library(forecast) x.fit4 <- thetaf(AirPassengers, h=24) plot(x.fit4)
آیا thetaf() در بسته پیش بینی در R فصلی بودن را تشخیص می دهد؟
89091
مثلاً اگر در فرمول رگرسیون جنسیت داشته باشم. اطلاعات من 90 مرد و 10 زن دارد. من می دانم که خوب نیست دو گروه اینقدر نامتعادل باشند. تخمین جنسیت دارای خطای استاندارد نسبی بزرگی خواهد بود. آیا جنبه منفی دیگری برای گنجاندن آن به عنوان متغیر توضیحی وجود دارد؟ اگر یک متغیر وابسته در رگرسیون لجستیک باشد چه؟
اگر یک متغیر باینری بسیار نامتعادل باشد چه؟
78286
متغیر وابسته نسبتی است به عنوان معیار مشارکت در یک آزمایش (سوالات پاسخ داده شده/سوالات پرسیده شده). متغیر مستقل یک مقیاس لیکرت 5 نقطه ای است که علاقه به آزمایش را نشان می دهد. چه نوع تحلیل رگرسیون در اینجا قابل استفاده است؟
نسبت وابسته و مقیاس لیکرت 5 درجه ای مستقل، از چه رگرسیونی استفاده کنیم؟
62647
فرض کنید من قوانین زیر را از یک مجموعه داده ایجاد می کنم: **قانون A:** اگر روزانه ورزش می کنید، بر اساس 100 مورد از داده ها، 70٪ شانس داشتن BMI زیر 28 دارید. **قانون B:** اگر کمتر از یک بار در هفته فست فود می خورید، بر اساس 10 مورد از داده ها، 90٪ شانس داشتن BMI زیر 28 دارید. چالش برای من این است که به نظر می رسد قانون B همبستگی قوی تری را بین یک عامل و BMI زیر 28 نشان می دهد، اما در موارد بسیار کمتری نسبت به قانون A مشاهده می شود و بنابراین واریانس بالاتری دارد. چگونه می توانم از نظر ریاضی تعیین کنم که کدام قانون مهم تر است؟
تعیین اهمیت یک قانون
68912
من یک سوال دارم که ابتدا مدل MGARCH DCC را با مشخصات GARCH(1,1) برای همه معادلات اجرا کردم و به خوبی کار کرد. سپس، من می خواهم مدل MGARCH DCC را با مشخصات SAARCH(1) برای همه معادلات اجرا کنم. اما STATA می‌گوید: > گزینه saarch() مجاز نیست، نمی‌دانم چرا از آنجایی که earch برای مدل‌سازی تک متغیره GARCH برای متغیر 1 و 2 به خوبی کار می‌کرد. آیا کسی می‌تواند در این مورد به من کمک کند؟ خیلی ممنون! خروجی stata این است: mgarch dcc (var1 = , arch(1) saarch(1)) (var2 = , arch(1) saarch(1))، توزیع(t) گزینه saarch() مجاز نیست
چرا نمی توانم به سادگی گارچ نامتقارن را در تحلیل dcc گارچ چند متغیره اجرا کنم؟
62643
من یک الگوریتم برای پر کردن مقادیر از دست رفته در لیست اعداد ایجاد کردم. من یک لیست برای مثال دارم [2,4,5,3,6,8,4,NaN,5,NaN,4,6,4,2,4,6,NaN.....]. خیلی خیلی بزرگتر بهش فکر کن من به دنبال ابزاری هستم که بتوانند همین کار را انجام دهند. آن مقادیر از دست رفته را پر کنید. اما نه به صورت تصادفی. در مورد من، من از یک شبکه عصبی برای یافتن محتمل ترین عدد برای قرار دادن در آنجا استفاده می کنم. من 90 درصد الگوریتم خود را درست می دانم و می خواهم آن را با ابزارهای دیگر در همان داده مقایسه کنم. آیا می توانید ابزاری را برای امتحان آن پیشنهاد دهید؟
ابزارهایی برای پر کردن مقادیر از دست رفته در یک مجموعه داده
78282
در این مطالعه، افراد به طور مداوم در طول روز از طریق الکتروکاردیوگرافی (ECG) اندازه گیری می شوند. در طول روز، رویدادهای محرک خاصی به طور تصادفی رخ می دهند. هنگامی که تمام داده ها جمع آوری شد، رویدادهای محرک بررسی می شوند و هر بار که یک رویداد محرک رخ می دهد، ECG برای بررسی وجود یک وضعیت پزشکی خاص استفاده می شود. این بدان معناست که تعداد مشاهدات در هر موضوع متفاوت است. در مجموع $n=2240$ مشاهدات و $m=42$ افراد وجود دارد. تعداد مشاهدات در هر موضوع از 13 تا 216 متغیر است. این مطالعه قبلاً تجزیه و تحلیل شده است و من در تلاش برای درک نتایج هستم. برای تجزیه و تحلیل داده ها رگرسیون لجستیک با رهگیری تصادفی انتخاب شد. من از «glmer» از «lme4» در «R» برای بازتولید نتایج استفاده خواهم کرد. در اینجا $Y$ یک متغیر باینری 0/1 است و $X1، \ldots، X3$ متغیرهای مورد علاقه و `id` نشانگر موضوع است. اگر مدلی را فقط با یک متغیر برازش کنم این را دریافت می کنم: مدل ترکیبی خطی تعمیم یافته برازش بر اساس حداکثر احتمال ['glmerMod'] خانواده: دوجمله ای ( logit ) فرمول: Y ~ X1 + (1 | id) داده: داده ها AIC BIC logLik انحراف 1548.1535 1565.2962 -771.0768 1542.1535 اثرات تصادفی: نام گروه ها Variance Std.Dev. id (Intercept) 0.02596 0.1611 تعداد obs: 2240، گروه‌ها: id، 42 جلوه‌های ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -2.1235717 0.0756041 -28.088 < 2e-16 *** X1 0.0007553 0.0001924 3.927 8.62e-05 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) X1 -0.166 آنچه می بینیم این است که واریانس اثر موضوع تصادفی 0.026 است. . کوچک است، اما برابر با صفر نیست. اگر دو متغیر کمکی دیگر اضافه کنم، دریافت می‌کنم: برازش مدل مختلط خطی تعمیم‌یافته با حداکثر احتمال ['glmerMod'] خانواده: دوجمله‌ای ( logit ) فرمول: Y ~ X1 + X2 + X3 + (1 | id) داده: داده‌ها AIC BIC logLik انحراف 1514.2474 1542.8186 -752.1237 1504.2474 اثرات تصادفی: نام گروه ها Variance Std.Dev. id (Intercept) 1.021e-11 3.195e-06 تعداد obs: 2240، گروه‌ها: id، 42 جلوه‌های ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -2.1770583 0.0727357 -29.931 < 2e-16 *** X1 0.0009218 0.0001914 4.816 1.46e-06 *** 788206 *** X2 -0. -6.043 1.51e-09 *** X3 0.0041024 0.0045297 0.906 0.365 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) X1 X2 X1 -0.229 X2 0.281 -0.131 X3 -0.044 0.01 از نظر فنی 0. چگونه می خواهم این را توضیح دهید؟ تعبیر من این است که با توجه به متغیرهای کمکی اضافه شده، تمام تغییرات در نظر گرفته شده است و تغییر دیگری برای موضوع خاصی باقی نمانده است. آیا این معقول است؟ اطلاعات اضافی در مورد متغیرهای کمکی: $X1$ و $X2$ اندازه‌گیری‌های خاص ماشه (طول و شدت) هستند. مقدار آنها معمولاً برای رویدادهای محرک مختلف تغییر می‌کند. از این رو آنها برای هر اندازه گیری حتی برای یک موضوع متفاوت هستند. $X3$ سن موضوع است.
اثر تصادفی با 0 واریانس در GLMM
60640
نظر شما را در مورد چگونگی تحلیل پرسشنامه ارزیابی ریسک در پروژه های ساختمانی می خواهم. برای هر سوال، در مورد یک ریسک خاص برای پروژه، دو پاسخ وجود دارد: برآوردی برای احتمال وقوع ریسک (در مقیاس 1 تا 5) و یکی برای تاثیر تخمینی ریسک برای پروژه (همچنین). در محدوده 1-5). یک راه رایج برای ترکیب این دو مقدار، ضرب آنهاست. سپس، با توجه به ماتریس احتمال/تاثیر انتخاب شده (توسط سازمان)، می توانم تعیین کنم که کدام ترکیب احتمال و تاثیر منجر به طبقه بندی ریسک به عنوان ریسک بالا، ریسک متوسط یا خطر کم می شود. سپس می توانم از این پاسخ های کیفی برای تجزیه و تحلیل داده هایم استفاده کنم. با این حال، نمی‌خواهم اطلاعات مربوط به احتمال ریسک را از دست بدهم، زیرا ریسک طبقه‌بندی شده به عنوان بالا باید به گونه‌ای متفاوت با آن برخورد شود، اگر این به جای تاثیر زیاد ناشی از احتمال زیاد باشد. تأثیر را نمی توان تغییر داد، اما ممکن است با انجام اقدامات مناسب، احتمال کاهش یابد. اگر بخواهم برای هر سوال یک پاسخ کیفی و کمی داشته باشم، ماتریس داده چه شکلی خواهد داشت؟ چه روش هایی را برای تحلیل پیشنهاد می کنید؟
چگونه یک پرسشنامه ارزیابی ریسک را تجزیه و تحلیل کنیم که در آن هر ریسک از نظر احتمال و تأثیر رتبه بندی می شود؟
109537
با مقایسه مدل‌های تولید شده توسط nlrob با مدل‌های تولید شده توسط nls، متوجه شده‌ام که حتی اگر مدل‌ها تقریباً یکسان باشند، احتمال ورود مدل‌ها گاهی به‌طور قابل‌توجهی متفاوت است، به عنوان مثال. (کد قابل تکرار در زیر): ضرایب (fit.nls) a b c 1.990388 -3.049477 1.019370 ضرایب(fit.nlrob) a b c 1.990650 -3.049251 1.019687 ![مناسب plot](http://i.stack.imgur.com/KgnNJ.png) با این حال: logLik(fit.nls) 'log Lik.' 3.341953 (df=4) logLik(fit.nlrob) 'log Lik.' 5.114307 (df=4) با نگاهی به کد Loglik.nls، به نظر می رسد که این از استفاده از خط زیر برای به دست آوردن باقیمانده های مدل ناشی می شود: res <- object$m$resid() با استفاده از همان کد برای محاسبه احتمال log اما با در عوض، روش residuals() log-likelihood به دست آمده بسیار نزدیکتر به آنچه برای مدل nls تولید می شود، است: logLik.nlrob.method [1] 3.340076 مستندات nlrob به باقیمانده های مختلف مربوط می شود، با این حال من نمی دانم که آیا این مربوط به موارد فوق است: > residuals(.)، به طور پیش فرض نوع = response، مقدار را برمی گرداند. باقیمانده ها e_i، > تعریف شده در بالا به صورت e[i] = Y[i] - f(x[i]، تتا^). این‌ها با باقیمانده‌های استاندارد یا وزن‌دار متفاوت هستند که، به عنوان مثال، فرض می‌شود که به طور عادی توزیع می‌شوند، و نسخه‌ای از آن در مؤلفه working.residuals > برگردانده می‌شود. من با آمارهای قوی آشنا نیستم، بنابراین تعجب می کنم: 1. آیا احتمال گزارش متفاوت واقعاً تفاوت عمیق تری را بین مدل ها منعکس می کند؟ یا فقط یک تفاوت فنی ناشی از استفاده غیر استاندارد از تابع ()resid است؟ 2. فرض کنید من می خواهم بین مدل های nls و nlrob بر اساس معیار AIC یکی را انتخاب کنم. به خاطر سوال، فرض می‌کنم به اندازه کافی درباره مدل زیربنایی نمی‌دانم تا بتوانم در مورد احتمال موارد پرت چیزی بگویم. آیا باید از توابع استاندارد AIC/logLik برای آن استفاده کنم؟ یا باید از نسخه خودم، بر اساس تابع ()residuals به جای شی\$m\$resid() استفاده کنم؟ کد (در نظر گرفته شده برای جلسه تعاملی): library(robustbase) library(ggplot2) #generate data set.seed(1357) f <- function(x) 2*x*x-3*x+1 x=rnorm(50,0 ,2) df <- data.frame(x=x,y=f(x)+rnorm(length(x),0,0.3)) #fit fit.nls <- nls(y~a*I(x*x)+b*x+c,start=c(a=2,b=-3,c=1),data=df) fit.nlrob < - ضرایب nlrob(y~a*I(x*x)+b*x+c، start=c(a=2،b=-3،c=1)، داده=df)(fit.nls) ضرایب(fit.nlrob) #plot s <- data.frame(x=seq(0,2,by=0.1)) ggplot(data=s,aes(x=x)) + geom_line(aes(y=f( x),color=f(x))) + geom_line(aes(y=predict(fit.nls,s),color=nls)) + geom_line(aes(y=predict(fit.nlrob,s),color=nlrob)) #log likelihood logLik(fit.nls) logLik(fit.nlrob) #بیایید دو نسخه باقیمانده res.obj را با هم مقایسه کنیم - fit.nlrob$m$resid() res.method <- residuals(fit.nlrob) N <- length(res.obj) #همه وزن ها در هر دو مدل 1 هستند، بنابراین شرایط وزن لغو می شوند logLik.nlrob.obj <- -N * (log(2 * pi) + 1 - log(N) + log( sum(res.obj^2)))/2 logLik.nlrob.method <- -N * (log(2 * pi) + 1 - log(N) + log(sum(res.method^2)))/2 #این یکی با تابع اصلی logLik.nls logLik.nlrob.obj #یکسان است و این یکی بسیار نزدیک به fit.nls log likelihood logLik.nlrob.method است.
احتمال ورود (و AIC) مدل nlrob قوی با مدل استاندارد nls متفاوت است
68911
من داده‌های مربوط به شار گاز را از قطعات خاکی که تحت 5 تیمار مختلف (D2، K2، M، N و O2) جمع‌آوری کرده‌ام، که دارای محتوای رسی متغیر نیز بود. آزمایش در قالب طرح بلوک های کامل تصادفی در 4 تکرار اجرا شد. در هر کرت، دو اندازه گیری مجزا از شار انجام شد. 4 بلوک x 5 درمان x 2 اندازه‌گیری مکرر برای 40 مشاهده کل، من یک مدل خطی مخلوط با nlme ساخته‌ام، و مقایسه‌های چندگانه‌ای را با آزمون Tukey انجام داده‌ام، همانطور که در زیر نشان داده شده است. data.frame cum_fluxes را می توان از این آدرس دانلود کرد: https://www.dropbox.com/s/e58k4vdnevw2fsm/cum_fluxes require(multcomp) require(nlme) cum_fluxes <- dget(cum_fluxes) n2o_flux.lme(2_fluxlnme <_fluxlme ~ درمان * خاک رس + بلوک، تصادفی = ~1|نمونه‌برداری فرعی، داده = cum_fluxes) aov.n2o <- anova(n2o_flux.lme) comp.treat <- glht(n2o_flux.lme, linfct=mcp(treatment=Tukey)) print(summary( comp.treat)) دو تا سوال دارم. از یک طرف، جدول ANOVA حاصل به این شکل است (اثر قابل توجه درمان با p = 0.0279): numDF denDF F-value p-value (Intercept) 1 20 14815.691 <.0001 درمان 4 7 5.281 0.01274 0.01270 clay بلوک 3 7 0.674 0.5951 درمان: خاک رس 4 7 0.810 0.5568 با این حال، ظاهراً هیچ تفاوت قابل توجهی هنگام در نظر گرفتن مقایسه زوجی از پنج تیمار وجود ندارد. آیا جایی اشتباه کردم یا نتایج را اشتباه تفسیر می کنم؟ دوم، زمانی که دستور glht() را اجرا می‌کنم، پیام هشدار زیر را دریافت می‌کنم: پیام هشدار: در mcp2matrix (model, linfct = linfct): تعاملات متغیر پیدا شده است - کنتراست پیش‌فرض ممکن است نامناسب باشد. برای برهمکنش بین یک متغیر کمکی (رگرسیور کمی - یعنی محتوای رس) و یک عامل (بنابراین، غیر موازی خطوط)، تفاوت بین دو سطح عامل به مقدار متغیر کمکی بستگی دارد. با این حال، من نمی توانم بفهمم که چگونه و به چه مقدار باید متغیر کمکی را هنگام مقایسه سطوح عامل تعیین کنم؟
انجام مقایسه‌های چندگانه بر روی مدل مختلط خطی
78289
من در حال آماده شدن برای انجام یک مطالعه هستم و علاقه مند به استفاده از رویکرد شبکه عصبی هستم. می خواستم بدانم آیا راهی وجود دارد که بتوان حجم نمونه مورد نیاز را به طور تقریبی تعیین کرد؟
حجم نمونه مدلسازی شبکه عصبی
78280
من داده های فعالیت کاربر در روز را به arima(1,0,1)x(1,0,0) برازش داده ام. این یک تناسب خوب است. اما آیا معنایی دارد؟
آیا این مدل مفهومی دارد؟
78287
با توجه به تمام ویژگی‌های خوب مدل‌های فضای حالت و KF، نمی‌دانم - **معایب** مدل‌سازی فضای حالت و استفاده از فیلتر کالمن (یا EKF، UKF یا فیلتر ذرات) برای تخمین چیست؟ بیایید روش‌های مرسوم مانند ARIMA، VAR یا روش‌های ad-hoc/heuristic را در نظر بگیریم. آیا کالیبراسیون آنها سخت است؟ آیا آنها پیچیده و سخت هستند که ببینیم چگونه تغییر در ساختار یک مدل بر پیش بینی ها تأثیر می گذارد؟ یا به بیان دیگر - مزایای ARIMA معمولی، VAR نسبت به مدل‌های فضای حالت چیست؟ من فقط می توانم به _مزایای_ یک مدل فضای حالت فکر کنم: 1. به راحتی شکست های ساختاری، جابجایی ها، پارامترهای متغیر با زمان برخی از مدل های ایستا را کنترل می کند - فقط آن پارامترها را حالت های پویا یک مدل فضای حالت و مدل به طور خودکار تنظیم کنید. هرگونه تغییر در پارامترها؛ 2. به طور طبیعی داده های از دست رفته را کنترل می کند، فقط مرحله انتقال KF را انجام دهید و مرحله به روز رسانی را انجام ندهید. 3. این اجازه می دهد تا پارامترهای خود را در یک مدل فضای حالت تغییر دهید (کوواریانس نویزها و ماتریس های انتقال/مشاهده) بنابراین اگر مشاهدات فعلی شما از منبع کمی متفاوت از سایرین آمده است - می توانید به راحتی آن را در تخمین بگنجانید. بدون انجام کار خاصی؛ 4. با استفاده از ویژگی‌های بالا، به راحتی می‌توانید داده‌های با فاصله نامنظم را مدیریت کنید: یا هر بار یک مدل را با توجه به فاصله بین مشاهدات تغییر دهید یا از فاصله زمانی منظم استفاده کنید و فواصل بدون مشاهدات را به عنوان داده‌های گمشده در نظر بگیرید. 5. اجازه می دهد تا از داده ها از منابع مختلف به طور همزمان در یک مدل برای تخمین یک کمیت اساسی استفاده شود. 6. امکان ساخت یک مدل از چندین مؤلفه دینامیکی غیرقابل مشاهده قابل تفسیر و برآورد آنها را فراهم می کند. 7. هر مدل ARIMA را می توان به شکل فضای حالت نشان داد، اما فقط مدل های فضای حالت ساده را می توان دقیقاً به شکل ARIMA نشان داد.
معایب مدل‌های فضای حالت و فیلتر کالمن برای مدل‌سازی سری‌های زمانی چیست؟
109534
من می خواهم ضرایب همبستگی را در یک جدول نمایش دهم (در حالت ایده آل - با مقدار p). با این حال، کد من دقیقاً همان مقادیر را برای هر دوره تولید می کند (بنابراین واضح است که چیزی اشتباه است). ممکن است راهنماییم کنید: #اول از همه، من جدول داده هایم را از فایل CSV خواندم: وارداتی <- read.table (file=/home/someone/data_for_R.csv, header=TRUE, sep='\t ', quote='\'', dec=',', fill=FALSE, comment.char=#, na.strings = NA, nrows = -1, skip = 0, check.names = TRUE, strip.white = FALSE, blank.lines.skip = TRUE) # تایپ: class(imported[[Period]]) تولید می کند: # [1] factor #Typing: سطوح (وارد شده[[دوره]]) تولید می کند: # [1] تابستان 2010 تابستان 2011 Winter 2010 Winter 2011 Winter 2012 xx <- imported[c(Period,Data1.MEANData2.MEAN)] نتیجه <- توسط(xx، xx$Period، تابع (x) {cor(xx$Data1.MEAN، xx$Data2.MEAN)}) result.dataframe <- as.data.frame(as.matrix(نتیجه)) result.dataframe$C <- rownames(نتیجه) **ویرایش:** کدی که فایل را از Github می خواند: library(RCurl) x <- getURL(https ://raw.githubusercontent.com/kedziorm/testowe/master/data_for_R.csv) وارد شده <- read.csv (text=x, header=TRUE, sep='\t', quote='\'', dec=',', fill=FALSE, comment.char=#, na.strings = NA، nrows = -1، skip = 0، check.names = TRUE، strip.white = FALSE، blank.lines.skip = TRUE) xx <- imported[c(Period, Data1.MEAN, Data2.MEAN)] نتیجه <- توسط(xx, xx$Period, function(x) {cor(xx$Data1.MEAN, xx$Data2.MEAN )}) result.dataframe <- as.data.frame(as.matrix(نتیجه)) result.dataframe$C <- rownames(نتیجه) **ویرایش:** بالاخره باید کار کند: x <- Period\tDate\tData1.MEAN\tData1.MEDIAN\tData2.MEAN\tData2.MEDIAN\tData3.MEAN\tData3.MEDIAN\nزمستان 2010\t26-03-2010\t0,3580917\t0,307479\t0,551191\t0,612853\t0,3476462\t0,3996462\nزمستان 2010\t26-04-2010\t0,3016958\t0,2643808\t0,417791\t0,393714\t0,2811050286\t0,3061050286\nتابستان 2010\t03-07-2010\t0,1916181\t0,1816603\t0,390925\t0,37385\t0,2183438286\t0,2923438286\nتابستان 2010\t04-07-2010\t0,2548711\t0,1738567\t0,4349834\t0,4957131\t0,2467746286\t0,3437746286\nزمستان 2011\t01-11-2010\t0,3393042\t0,2870481\t0,497295\t0,538132\t0,3210420857\t0,3690420857\nتابستان 2011\t04-06-2011\t0,222748\t0,2218226\t0,363823\t0,275725\t0,2309696\t0,2809696\nتابستان 2011\t05-06-2011\t0,241889\t0,1918457\t0,373566\t0,292997\t0,2306573429\t0,2966573429\nزمستان 2012\t07-11-2011\t0,2264874\t0,2601413\t0,373048\t0,274139\t0,2456219143\t0,2756219143\nزمستان 2012\t08-11-2011\t0,2414665\t0,2662565\t0,314382\t0,279857\t0,2348871429\t0,2598871429\nزمستان 2012\t09-11-2011\t0,2817838\t0,2325952\t0,376063\t0,468148\t0,254412\t0,287412\nزمستان 2012\t10-11-2011\t0,2476841\t0,2667485\t0,406902\t0,476582\t0,2632384571\t0,3632384571\n وارد شده (TR=خوانش شده، UE، TR=ext.x. sep='\t'، quote='\''، dec='،'، fill=FALSE، comment.char=#، na.strings = NA، nrows = -1، skip = 0، check.names = TRUE، strip.white = FALSE، blank.lines.skip = TRUE) xx <- imported[c(Period, Data1.MEAN, Data2.MEAN)] نتیجه <- توسط(xx, xx$Period, function(x) {cor(xx$Data1.MEAN, xx$Data2.MEAN )}) result.dataframe <- as.data.frame(as.matrix(نتیجه)) result.dataframe$C <- rownames(نتیجه)
ضریب همبستگی برای جدول داده ها
78283
من مجموعه داده ای از 17000 مورد در SPSS 21 دارم که با آن سعی می کنم رگرسیون خطی چندگانه را اجرا کنم. من باقیمانده های Studentised را در برابر مقادیر پیش بینی شده غیراستاندارد و همچنین در برابر هر پیش بینی کننده ای که در مدل گنجانده شده است رسم کرده ام و این نمودارها نشان دهنده درجه منصفانه چولگی و چند نقطه پرت ممکن است. متغیر نتیجه به خودی خود بسیار منحرف است، بنابراین من همچنین مدلی را بر اساس تبدیل Log10 از این داده‌ها برازش کردم که باقیمانده‌های غیرعادی کمتری (اگرچه اکنون کمی در جهت مخالف تغییر کرده است) تولید می‌کند. داده‌ها به‌طور گسترده پاک شده‌اند و من کاملاً مطمئن هستم که هیچ‌یک از موارد پرت خطا نیستند. من مطمئن نیستم که چگونه ادامه دهم. در جایی خواندم که نرمال بودن باقیمانده ها تا زمانی که سایر مفروضات (اعتبار و خطی بودن) رعایت شوند، در واقع از اهمیت کمی برخوردار است. به خصوص با توجه به حجم نمونه بزرگ، آیا باید بیش از حد نگران غیرعادی بودن باقیمانده ها باشم؟ و اگر بخواهم از مدل بر اساس داده های تبدیل شده استفاده کنم، چگونه خروجی را به درستی تفسیر کنم؟ متشکرم
نرمال نبودن باقیمانده ها در رگرسیون خطی نمونه بسیار بزرگ در SPSS
99422
من چند مقاله جالب آنلاین در مورد این موضوع پیدا کردم، اما هیچ کدام که خیلی بریده و خشک به نظر نمی رسد. سوال من این است که یک پیش‌بینی دقیق پیش‌بینی‌کننده بر اساس پیش‌بینی اجزای تک تک اجزا، سپس جمع کردن (یا هر تابعی که شامل می‌شود) ارائه می‌کند ... در مقابل پیش‌بینی در سطح کل (که برخی روندها را از دست می‌دهد اما ممکن است واریانس کمتری داشته باشد) . مثالی که روی آن کار می کنم: سعی می کنم مخاطبین تلفن و ایمیل را پیش بینی کنم. منبع این تماس‌ها مشتریانی است که محصولات نرم‌افزاری را سفارش می‌دهند و سپس مشکلات فنی یا پرداختی دارند یا آنچه که شما دارید. من می‌توانم در پایین‌ترین سطح، پیش‌بینی برای مخاطبین هر گروه نرم‌افزاری متفاوت داشته باشم (نرم‌افزار A الگوهای تماس بسیار متفاوتی نسبت به نرم‌افزار B دارد). همچنین می‌توانم پیش‌بینی‌ها را بین سفارش‌های ثبت‌شده و نرخ تماس تقسیم کنم (ممکن است مخاطبین را ثابت ببینیم، اما سفارش‌ها در حال افزایش هستند و نرخ تماس در حال کاهش است). همه اینها واقعاً به یک سؤال اشاره می کنند - من تمام داده های گرانول را دارم - آیا پیش بینی در سطح کل دقیق تر است (مجموع تماس های من در این ماه چقدر است؟) یا اینکه پیش بینی قسمت های تفکیک شده و سپس اضافه کردن آنها بهتر است؟
دقت پیش‌بینی کل در مقابل تفکیک
68910
من یک متن دارم و برای هر کلمه متمایز تعداد دفعاتی که آن کلمه در متن ظاهر می شود را می شمارم. در برخی از متون، کلمات کمیاب بسیاری وجود دارد، بنابراین توزیع دارای یک دم طولانی از کلمات است که یک بار ظاهر می شوند. در متون دیگر، کلمات رایجی وجود دارد که معمولاً بیش از یک بار ظاهر می شوند، بنابراین «دم» کوتاهتر خواهد بود. اندازه گیری استانداردی که این تفاوت را توصیف می کند چیست؟
روشی مختصر برای توصیف توزیع کلمات در یک متن
54775
تعداد معمولی ارزیابی هسته (بین دو بردار آموزشی) که در طول آموزش ماشین بردار پشتیبان (SVM) انجام می شود چقدر است؟ من این سوال را می‌پرسم زیرا باید تعیین کنم که چقدر به بهینه‌سازی هسته نیاز دارم تا امیدی به انجام آموزش در مدت زمان معقول داشته باشم. زمان محاسبه کرنل فعلی بسیار زیاد است (1+ ساعت)، اما جایی برای بهبود وجود دارد (با چندین مرتبه بزرگی). توجه: در یک کلاس حدود 60 هزار بردار و در کلاس دیگر 10 هزار بردار وجود دارد.
تعداد ارزیابی کرنل در آموزش SVM
68913
من تازه از R استفاده می کنم و به همین دلیل شک دارم. من یک جدول داده با اندازه گیری ترشح غدد جوجه ها در دو سن مختلف دارم، گاهی اوقات ما فقط به اندازه گیری نیاز داریم بنابراین متعادل نیست. همچنین معمولاً در هر لانه دو جوجه می گرفتیم اما گاهی اوقات فقط یک جوجه داریم. سوال من این است که آیا ترشح غده تحت تاثیر سن قرار می گیرد یا خیر، برای آن با توجه به مدل هایی که در اینترنت پیدا کردم، موارد زیر را انجام دادم و اگر درست است به من اطلاع دهید. ابتدا جدول داده ای که وارد کردم این خواهد بود: سن ترشح جوجه NEST 257 1 1.429 5 257 2 1.890 10 127 1 1.567 5 127 1 1.900 10 127 2 1.320 5 127 >002 NEST (NEST) > AGE = ضریب (سن) > کتابخانه (nlme) > lme (Secretion ~ AGE، تصادفی = 1 ~ | NEST) آیا مدل من درست است؟
اقدامات مکرر نامتعادل
48149
من در حال خواندن مقاله ای هستم که در ANOVA با 4 متغیر مستقل بیان می کند که 4 اثر اصلی و 11 تعامل وجود خواهد داشت. می خواستم بدانم که چگونه عدد، 11 فعل و انفعال، به دست می آید؟
تعداد تعاملات در ANOVA با 4 متغیر مستقل
109283
از آنجایی که دانت مقایسه‌های چندگانه را تصحیح می‌کند، فرض می‌کنم که p-value همیشه بالاتر از آزمون t دو نمونه‌ای مستقیم است. به موقعیتی برخوردم که اینطور نبود. دلایل احتمالی چرا؟ مثال: library(multcomp) a1=data.frame(group=rep(c('a','b',' control','d'),each=3), y=c(13.3,13.8,13.6, 10.9،14.4،11.1،18.8،15.2،16.6،1.6،1.2،.9)) a1$group=relevel(a1$group,ref='control') fit=aov(y~group,data=a1) summary(fit) test.dunnett=glht(fit,linfct=mcp(group=Dunnett) ) خلاصه (test.dunnett) t.test(a1$y[a1$group=='control'],a1$y[a1$group=='a'])$p.value t.test(a1$y[a1$group==' control'],a1$y[a1$group=='b'])$p.value t.test(a1$y[a1$group=='control'],a1$y[a1$group=='d'])$p.value خروجی: Df Sum Sq میانگین مربع F مقدار Pr(>F) گروه 3 413.0 137.67 74.99 3.37e-06 *** باقیمانده 8 14.7 1.84 آزمون‌های همزمان برای فرضیه‌های خطی عمومی مقایسه‌های چندگانه میانگین‌ها: تضادهای دانت برازش: aov(فرمول = y ~ گروه، داده = a1) فرضیه‌های خطی: برآورد Std. خطای t مقدار Pr(>|t|) a - کنترل == 0 -3.300 1.106 -2.983 0.04298 * b - کنترل == 0 -4.733 1.106 -4.279 0.00704 ** d - کنترل == 0 -15.13 0.61 - 0.61 <4. *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (مقادیر p تنظیم شده -- روش تک مرحله ای) [1] 0.08504438 [1] 0.03780491 [1] 0.03 The مقادیر p Dunnett (.04، 0.007، 0.001) در مقایسه با مقادیر p-test (0.085، 0.038، 0.003) کوچکتر هستند.
چرا مقادیر p دانت کوچکتر از مقادیر آزمون t دو نمونه ای است؟
78288
من سعی می کنم یک متغیر (V) را به عنوان یک توزیع نرمال log مدل کنم. $$ V = \mu \cdot\eta\,, \ \text{where } \eta \text{ log normal است} $$ سپس $$ \ln V = ln(\mu) +\xi \\\\\ \\\\text{where} \ \ \ \xi \ \text{ is }\ N(0,\sigma^2) $$ V تابعی از ورودی‌های باینری $x_i است، i\in(1,...,n)$ . من می‌خواهم مدل را به ورودی‌ها وابسته کنم با این فرض که $\mu=\Pi{f_1(x_i)}$ و $\sigma=\Pi{f_2(x_i)}$ که $f_1(x_i)=c_i$ اگر $x_i=1$ یا 1 اگر $x_i=0$ و $f_2(x_i)=d_i$ اگر $x_i=1$ یا 1 وقتی $x_i=0$. هدف من بدست آوردن بهترین تخمین ها برای مقادیر $c_i,d_i $ با مجموعه ای از اندازه گیری $(V_i,\\{x_j\\}_{j\in(1,n)})$ است. احتمال log در این مورد به این صورت خواهد بود: $$ -\log L = \frac{1}{2}\left(\frac{\ln V - \Sigma \ln c_i}{\Pi{d_i}}\right )^2 + \log\sqrt{2\pi}\Pi{d_i} $$ بهترین راه برای مقابله با این مشکل چیست، برای حل و به دست آوردن بهترین مقادیر برای $c_i$ و پارامترهای $d_i$؟ اگر فرض کنم $\sigma$ تابعی از ورودی ها نیست، بلکه یک ثابت است، می دانم که می توانم مشکل را با یک رگرسیون الاستیک-نت خطی حل کنم، اما وقتی σ را به عنوان تابعی از ورودی های $x_i$ نیز در نظر بگیرم. من مطمئن نیستم که از کدام رگرسیون یا روش برای حل مشکل استفاده کنم؟ (از کجا بفهمم تابعی محدب است؟)
بهینه سازی یادگیری مدل لاگ نرمال
20416
من در واقع در حال نوشتن یک پیاده‌سازی از جنگل‌های تصادفی هستم، اما معتقدم این سؤال مختص درخت‌های تصمیم‌گیری است (مستقل از RF). بنابراین زمینه این است که من یک گره در درخت تصمیم ایجاد می کنم و متغیرهای پیش بینی و هدف پیوسته هستند. گره دارای آستانه تقسیم برای تقسیم داده ها به دو مجموعه است و من یک پیش بینی جدید برای هر زیر مجموعه بر اساس میانگین مقدار هدف در هر مجموعه ایجاد می کنم. آیا این رویکرد صحیح است؟ دلیلی که می‌پرسم این است که هنگام پیش‌بینی متغیرهای _دودویی_، معتقدم رویکرد معمولی (درست؟) تقسیم داده‌ها به زیرمجموعه‌های 0 و 1 بدون در نظر گرفتن میانگین روی ردیف‌های داده در هر زیر مجموعه است. تقسیم‌های بعدی به زیرمجموعه‌های با دانه‌بندی ریزتر تقسیم می‌شوند و با گرفتن میانگین در هر تقسیم، تقسیم‌های بعدی (درخت تصمیم را پایین بیاورید) بر روی متغیرهایی که اکنون پیوسته هستند به جای متغیرهای باینری (زیرا به جای مقادیر اصلی بر روی مقادیر خطای باقی مانده عمل می‌کنیم) عمل می‌کنند. اهداف). سوال جانبی: آیا تمایز بین این دو رویکرد (دودویی در مقابل پیوسته) قابل توجه است - یا آنها در واقع نتایج یکسانی برای یک درخت تصمیم کامل خواهند داشت؟
چگونه باید تقسیم درخت تصمیم را هنگام پیش‌بینی متغیرهای پیوسته اجرا کرد؟
109288
آیا نمودار مقادیر پیش بینی شده و اندازه گیری شده برای دو مدل به طور جداگانه در مقایسه آنها مفید خواهد بود؟
مقایسه گرافیکی مدل های رگرسیون
24211
اگر من 232 نفر را از یک مجموعه 363 نفری بدون جایگزین انتخاب کنم، احتمال اینکه 2 نفر از لیست 12 نفری خاص در آن انتخاب باشند چقدر است؟ این یک قرعه کشی تصادفی برای یک مسابقه فوق العاده است که در آن 363 شرکت کننده برای 232 نقطه وجود داشت. این بحث وجود دارد که آیا این انتخاب علیه یک گروه 12 نفره مغرضانه بوده است. تلاش اولیه من برای محاسبه این بود که 232 انتخاب 363 انتخاب ممکن بود. تعداد ترکیب های هر یک از افراد از لیست دوازده نفری 1 انتخاب 12 + 2 انتخاب 12 + ... + 11 انتخاب 12 + 12 انتخاب 12 است. بنابراین 1 انتخاب 12 + 2 انتخاب 12 .... / 232 انتخاب 363 که در نهایت عدد بسیار پایینی است که به وضوح بسیار کم است. چگونه این را محاسبه کنم؟
احتمال اینکه n نفر از لیست m نفر در یک انتخاب تصادفی x نفر از لیست y نفر باشند چقدر است؟
72633
ما یک متغیر پاسخ $Y$ و یک پیش بینی $X$ داریم، و $n$ نمونه $(Y_1,X_1), \ldots, (Y_n, X_n)$ را از جمعیت مورد نظر برای انجام تحلیل رگرسیون می گیریم. تحت مفروضات یک مدل رگرسیون خطی ساده، سوال من یک سوال مفهومی است: واقعاً چگونه در مورد پاسخ واحد $i$th، $Y_i$ فکر می کنیم؟ آیا می گوییم که از سطح یا زیرجمعیت افراد با $ X = x_i $ گرفته شده است یا از کل جمعیت بیش از همه مقادیر X $؟ علاوه بر این، در حالی که فرض می‌کنیم که پاسخ $Y$ در هر زیرجمعیت تعریف شده توسط $X$ طبیعی است با واریانس‌های مساوی، چگونه در مورد جمعیت کل که $Y_i$ از آن ترسیم شده است فکر می‌کنیم؟
ترسیم داده ها از جمعیت برای تحلیل رگرسیون
78284
من داده ها را در R بارگذاری کردم و با استفاده از عملکرد GLM آن را نصب کردم. > fit.glm = glm(y~ aX+bZ+cW) سپس، نقطه برش را با استفاده از ابزار segmented R پیدا کردم. > o<-segmented(fit.glm,seg.Z=~X,psi= 10) اکنون نقطه برش و دو شیب مختلف X را دارم. > Call: segmented.glm(obj = fit.glm1, seg.Z = ~PTH، psi = 10) > > ضرایب معنی دار عبارات خطی: (برق) X Z W > > 19.43840 2.29574 0.08701 8.75784 > > نقطه شکست (های) تخمینی psi1.PTH : مجموع 3.4 مجموع > 8.5 پوچ)؛ 314 انحراف تهی باقیمانده: 17320 > انحراف باقیمانده: 7645 AIC: 1971 با این حال، من سعی می کنم ارزش y تخمینی دو مدل رگرسیون خطی را با استفاده از نتیجه تقسیم شده بدست آوریم. آیا با استفاده از R امکان پذیر است یا باید Z و W را با مقادیر میانگین Z و W جایگزین کنم و مقدار y را خودم محاسبه کنم؟
مقدار «y» خاص را از رگرسیون چند متغیره تقسیم‌بندی شده با GLM بیابید
83078
از مجموع 50 مورد، 20 مورد درست وجود دارد، اگر به طور تصادفی 20 مورد را انتخاب کنم، احتمال انتخاب 11 مورد (یا بیشتر) از این موارد صحیح چقدر است؟ چگونه می توانم این کار را در R انجام دهم؟ من به استفاده از «binom.test()» فکر می کردم، اما این جایگزینی را فرض می کند، و سؤالات من شامل «عدم جایگزینی» هنگام انتخاب شماست.
احتمال انتخاب صحیح N از K از کل جمعیت X
37955
## مشکل در رگرسیون معمولاً **میانگین مربع خطا** (MSE) را برای نمونه محاسبه می‌کند: $$ \text{MSE} = \frac{1}{n} \sum_{i=1}^n\left (g(x_i) - \widehat{g}(x_i)\right)^2 $$ برای اندازه‌گیری کیفیت یک پیش‌بین. در حال حاضر من روی یک مشکل رگرسیون کار می کنم که هدف آن پیش بینی قیمتی است که مشتریان مایل به پرداخت برای یک محصول با توجه به تعدادی از ویژگی های عددی هستند. اگر قیمت پیش‌بینی‌شده خیلی بالا باشد، هیچ مشتری محصولی را نمی‌خرد، اما ضرر پولی کم است، زیرا قیمت را می‌توان به سادگی کاهش داد. البته نباید زیاد باشد زیرا ممکن است محصول برای مدت طولانی خریداری نشود. از طرفی اگر قیمت پیش‌بینی‌شده خیلی پایین باشد، محصول به سرعت و بدون امکان تعدیل قیمت خریداری می‌شود. به عبارت دیگر، الگوریتم یادگیری باید قیمت‌های کمی بالاتر را پیش‌بینی کند که در صورت لزوم می‌توان آن‌ها را کاهش داد، نه اینکه قیمت واقعی را دست کم بگیرد که منجر به زیان پولی فوری می‌شود. ## سوال چگونه متریک خطا را طراحی می کنید که این عدم تقارن هزینه را در خود جای دهد؟ * * * ## راه حل ممکن یک روش برای تعریف تابع تلفات نامتقارن این است که به سادگی در یک وزن ضرب کنیم: $$ \frac{1}{n} \sum_{i=1}^n \left| \alpha - \mathbb{1}_{(g(x_i) - \widehat{g}(x_i)) < 0} \right|\cdot \left(g(x_i) - \widehat{g}(x_i)\ راست)^2 $$ با $\alpha \in (0,1)$ پارامتری است که می توانیم برای تغییر درجه عدم تقارن تنظیم کنیم. اینجا پیداش کردم به نظر می رسد این ساده ترین کار است، در حالی که ضرر درجه دوم را حفظ می کند.
چگونه یک تابع ضرر نامتقارن برای رگرسیون طراحی و پیاده سازی کنیم؟
109531
من در حال خواندن کتابی به نام مقدمه ای بر یادگیری آماری: با برنامه های کاربردی در R هستم و در مورد مطالب داخل آن یک سوال دارم. من می‌دانم که می‌توانیم مجموع مربع‌های باقی‌مانده را با پیدا کردن تفاوت بین مقدار پاسخ مشاهده‌شده $i^\text{th}$ و مقدار پاسخ $i^\text{th}$ که توسط مدل ما پیش‌بینی می‌شود، پیدا کنیم. به عبارت دیگر مجموع $(y_i - \hat{y}_i)^2$ برای هر نقطه داده نمونه که $\hat{y}_i$ پاسخ مورد انتظار مدل ما با استفاده از ثابت‌های $β_0$ و $β_1$ است. . چیزی که من نمی توانم درک کنم این است که چگونه می توان از حساب دیفرانسیل و انتگرال برای یافتن کمینه کننده های $β_0$ (این در واقع منطقی است) و $β_1$ برای مدل استفاده کرد. به من گفته شد که برای رسیدن به این معادله که مینیمم کننده‌هایی را پیدا می‌کند، ما برای یافتن مینیمم تابع RSS با استفاده از مشتقات جزئی نیاز داریم که هم $β_0$ و هم $β_1$. با این حال من هیچ سرنخی برای انجام این کار ندارم، امیدوارم کسی با تجربه بیشتر بتواند آن را برای من بنویسد. در همین حال من مشتقات جزئی را بررسی می کنم تا این را بهتر درک کنم. در اینجا یک اسکرین شات از فرمول ارائه شده در کتاب برای یافتن مینیینه سازها آورده شده است: ![صفحه نمایش فرمول ارائه شده در کتاب برای یافتن حداقل سازها](http://imgur.com/w388Dvq.jpg)
انتخاب $β_0$ و $β_1$ برای به حداقل رساندن مجموع باقیمانده مربع ها
66348
من امتحانی دادم که نظر داده شده این بود که پاسخ من به دو سوال خیلی کوتاه یا کم بود... (نمی دانم چه چیزی کم بود). دوست دارم یاد بگیرم و بفهمم. همانطور که به یاد می‌آورم فکر می‌کنم وقتی به پاسخ‌هایم رسیدم از چیزی به نام ماشین‌حساب آنلاین برای مقادیر طبقه‌بندی استفاده کردم. سوالات امتحان عبارت بودند از: 1. دانش آموزانی که دو منطقه جغرافیایی مختلف را نمایندگی می کردند، یک آزمون امتحانی داشتند. * گروه 1 36 درست و 13 باطل داشت * گروه 2 29 درست و 19 باطل داشت آیا بین این گروه ها تفاوت معنی داری وجود دارد (05/0p<)؟ 2. اگر نتیجه مسابقه به این شکل باشد: * گروه 1 360 درست، 130 اشتباه * گروه 2 290 درست، 190 اشتباه آیا تفاوت معنی داری بین این گروه ها وجود دارد (05/0p<)؟ پاسخ های من این بود: 1. بله تفاوت معنی داری وجود دارد 2. خیر تفاوت معنی داری وجود ندارد. سوالات من از شما این است: * آیا پاسخ های من صحیح است؟ * و راه درست نشان دادن نحوه رسیدن به این/یا پاسخ صحیح (بدون استفاده از ماشین حساب) چیست؟ یعنی برای حل این نوع سوالات چه مراحلی باید طی کنم؟ اگر کسی وقت دارد این را برای من توضیح دهد بسیار سپاسگزارم.
تفاوت قابل توجه بین دو گروه در یک مسابقه درست / غلط
81974
من مجموعه داده ای دارم که شامل موارد زیر است: * تعداد موفقیت ها، $Y_i$ * طول مشاهده، $\text{length}_i$ * چند پیش بینی، $X_1، X_2، \text{etc}$ از آنجایی که شمارش ها مشاهده می شود در طول های مختلف به یک مدل نرخ نیاز دارم. برای رگرسیون پواسون، ما به این نتیجه می رسیم: $\log(\mu_i /\text{length}_i) = \beta_0 + \beta_1 X_1 +\beta_2X_2$ که سپس به صورت: $\log(\mu_i) = \ بازنویسی می شود. beta_0 + \beta_1 X_1 +\beta_2X_2 + \log(\text{length}_i)$ $\text{length}_i$ افست است و دارای ضریب ثابت 1 است. در R با استفاده از روش offset آن را مشخص می کنیم. چیزی شبیه به این: «مدل <- glm(Y ~ offset(log(LENGTH)) + x1 + x2، داده = داده، خانواده = «poisson»)» با این حال، زمانی که افست را به عنوان دارای یک افست مشخص کنم، نتایج پیش‌بینی بهتری دریافت می‌کنم. ضریب -0.5. یعنی: «مدل <- glm(Y ~ offset(-0.5 * log(LENGTH)) + x1 + x2، داده = داده، خانواده = «poisson»)» به این معنی است که میانگین به متغیرهای پیش بینی کننده مانند : $\log(\mu_i * \sqrt{\text{length}_i}) = \beta_0 + \beta_1 X_1 +\beta_2X_2$ چند سوال دارم: 1. چرا با استفاده از ضریب منفی نتایج بهتری می‌گیرم؟ 2. توضیح نظری ممکن برای جبران منفی چیست؟ 3. آیا باید مدل دیگری را امتحان کنم؟
افست منفی در مدل های نرخ (پواسون یا دوجمله ای منفی).
37950
من می‌خواهم تفاوت میانگین یک متغیر پیوسته را بین چهار گروه (اسمی) در نمونه خود آزمایش کنم. متغیر 1 دارای توزیع بسیار اریب است. این آزمون همچنین باید برای سه متغیر پیوسته دیگر اصلاح شود که مطمئناً متغیرهای مخدوش کننده هستند در توضیح تفاوت های متغیر 1 بین چهار گروه. با تشکر فراوان
مناسب ترین تست برای این شرایط چیست؟