_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
47022
این اساساً می گوید: > رژیم غذایی بر سطح کلسترول تأثیر می گذارد. مدل استاندارد زیر مربوط به > سطح کلسترول به محتوای چربی های اشباع شده در رژیم غذایی است به صورت > > $$Y = \beta_0 + \beta_1 x + \epsilon $$ > که در آن $x$ مصرف چربی های اشباع شده را توصیف می کند. اعتقاد بر این است که > خوردن میوه ها می تواند سطح کلسترول را کاهش دهد. مدل رگرسیون چندگانه جدید را از جمله تأثیر میوه تعریف کنید: بنابراین گفتم $$Y = \beta_0 + \beta_1x + \beta_2 f + \epsilon$$ که در آن $f$ مصرف میوه است. سپس، از من پرسیده شد > پیشنهاد آزمایشی برای بررسی اینکه آیا خوردن میوه روی سطح کلسترول تأثیر می‌گذارد، بنابراین گفتم، از آزمون F استفاده می‌کنم که در آن $H_0$ نشان می‌دهد که میوه روی سطح کلسترول تأثیر نمی‌گذارد. با این حال، در پاسخ‌ها، می‌گوید که می‌خواهند با مقایسه مجموع مربعات باقی‌مانده برای مدل تهی ($\beta_2 = 0$) با مجموع مربع‌هایی که قبلاً در سؤال به من داده شد، آزمایش کنند که آیا $\beta_2 = 0$ . من می‌دانم که این کار مقایسه اساساً فقط آزمایش F را انجام می‌دهد، اما چرا آنها به $\beta_2 = 0$ نگاه می‌کنند؟ آیا به این دلیل است که از آزمون F در GLM ها استفاده می شود تا ببیند آیا محدودیتی در شرایط برآوردگر وجود دارد؟
توزیع F در مدل های خطی عمومی برای چیست؟
108186
من به داده‌های آزمایش‌هایی نگاه می‌کنم که برای جستجوی تفاوت بین نسبت‌ها، 1 دنباله انجام شده‌اند. در بسیاری از اینها مشخص شده است که بین این دو نسبت تفاوت قابل توجهی وجود دارد (به عنوان مثال، اندازه اثر 3٪، p<0.05) با این حال، من یک تجزیه و تحلیل توان post-hoc را انجام داده ام و اندازه اثر را وارد کرده ام. مشاهده شد)، توان مورد نظر (0.8)، معنی‌داری (0.05)، و نشان می‌دهد که اندازه نمونه به طور قابل‌توجهی بزرگ‌تر (به عنوان مثال 3 برابر بزرگ‌تر) از آنچه استفاده شده است، در واقع برای اجرای آزمون در این توان مورد نیاز است. / سطح معناداری مشکلی که من دارم تفسیر این است. اگر تجزیه و تحلیل توان قبلا انجام شده بود و ما فقط اندازه واقعی اثر حاصل را وارد کرده بودیم - اندازه نمونه مورد نیاز به اندازه N بزرگتر نشان داده می شد، بنابراین با یافتن اهمیت در N پایین تر، چگونه باید نتیجه را تفسیر کنم؟ چقدر اعتماد به نفس (در صورت وجود) از بین رفته است؟ به عنوان یک کنار: می‌دانم که توصیه نمی‌شود آنالیز قدرت پس‌هک با اندازه اثر مشاهده‌شده انجام شود، اما من فقط سعی می‌کنم کیفیت آزمایش را تأیید کنم و تا چه حد می‌توانم به اهمیتی که پیدا شده است اطمینان داشته باشم. همانطور که در بالا توضیح داده شد، فرضاً همان تحلیل توان را می‌توانست از قبل به‌طور یکسان انجام دهد و این N بالاتر را پیشنهاد می‌کرد که در نهایت به آن نرسید. من فقط نمی دانم این چه پیامدهایی برای اندازه اثر و p<0.05 دارد که در صورت نیاز به اندازه نمونه در داده ها پیدا می شود.
تفاوت قابل توجهی بین نسبت‌ها، در اندازه نمونه کمتر از آنالیز توان پیشنهاد شده است
97132
این سوال زمانی برای من پیش آمد که در یک سخنرانی عمومی در مورد سوالات حل نشده در ریاضیات نشستم. به خوبی شناخته شده است که هنوز بسیاری از سؤالات ریاضی حل نشده وجود دارد. این باعث شد به این فکر کنم که مشکلات حل نشده در آمار چیست. پس از گذراندن مدتی برای جستجوی این موضوع در گوگل، فکر نمی‌کنم بحث نسبتاً مفصلی در مورد این سؤال وجود داشته باشد. از این رو، من واقعاً دوست دارم نظر مردم در مورد آن را بشنوم. آمار به عنوان یک رشته به کجا می رود؟ آیا باید زمان بیشتری را صرف بهبود تئوری کنیم یا باید بر چگونگی تجزیه و تحلیل داده های خاص جمع آوری شده از انواع آزمایش های علمی تمرکز کنیم؟ هر گونه فکر در این مورد بسیار قدردانی می شود. متشکرم
آینده آمار
47029
من باید تحقیقاتی را در زمینه‌ای ارائه کنم که معمولاً از مطالعات مورد-شاهدی استفاده می‌کند (مقایسه آن‌هایی که بیماری دارند در مقابل مواردی که بدون آن هستند) و این به ذهنم رسید که یک طرح گروهی افراطی (که من از آن استفاده می‌کنم) ممکن است بسیار شبیه باشد. منظور من از طراحی گروه افراطی تعداد زیادی از افراد بر روی X اندازه گیری می شوند (در مورد من، 1000) و سپس بخشی به گروه های بالا و پایین (مانند 25٪ بالا و پایین در X) انتخاب می شوند. تنها گروه‌های افراطی بر روی گروه‌های b/t تست‌های T اندازه‌گیری می‌شوند یا یک همبستگی تخمینی برای نمونه کامل (آلف و آبرامز، 1975) به دست می‌آید. آیا کسی در این مورد نظری دارد؟ (به عنوان مثال، شباهت ها، تفاوت ها، دام ها، خطرات)
آیا مطالعات مورد شاهدی نمونه ای از طراحی گروهی افراطی هستند؟
5614
در حالی که استفاده از آزمون تیپ پیرسون chi-square/cressie-read آسان تر است، من می خواهم برابری نسبت ها را در دسته های $k$ در دو گروه با استفاده از آزمون نوع کولموگروف-اسمیرنوف به شکل پیشنهادی پتیت و استفنز آزمایش کنم. (1977) (اینجا را نیز ببینید). به ویژه همانطور که نویسندگان آن مقاله اشاره می کنند، ممکن است قدرتی در برابر جایگزین های متداول داشته باشد. بنابراین آزمون کولموگروف-اسمیرنوف اسمی/طبقه‌ای تک نمونه‌ای آنها به این شکل است: $$ D_n = \sup_{\pi}\sup_{1 \leq j \leq k}\vert \sum_{i=1}^j(f_ {exp,\pi(i)}-f_{obs,\pi(i)})\vert$$ که $\pi$ جایگشتی از ترتیب دسته‌ها است، $f_{.,i}$ فرکانس های مشاهده شده و مورد انتظار (یا معادل آن، نسبت مشاهدات) در دسته $i$ هستند. این را می توان به طور معادل به صورت زیر نوشت: $$ D_n = \frac{1}{2} \sum_{i=1}^k\vert f_{exp,i}-f_{obs,i} \vert$$ من می‌خواهم برای گسترش این مورد به یک مورد دو نمونه با استفاده از یک روش تصادفی/جایگزینی، مانند: $$ D_n^{(r)} = \frac{1}{2} \sum_{i=1}^k\vert f^{(r)}_{\text{group1},i}-f^{(r)}_{\text{group2},i} \vert,\ , r=1,\dots,R $$ که در آن $.^{(r)}$ نشان دهنده آماری است که بر اساس جایگشت $r^{\text{th}}$ متغیر طبقه‌بندی شده است. اگر مقدار آمار اصلی بزرگتر از مقدار $95\%$ از آمار جابجایی باشد، رد کنید. هر گونه نظر در مورد مزایا / معایب / اعتبار چنین روشی بسیار استقبال می شود. با تشکر
آزمون های جایگشت دو نمونه ای کولموگروف-اسمیرنوف
13849
هنگام انجام تجزیه و تحلیل PCA روی مجموعه ای از سؤالات (از شرکت کنندگان خواسته شده است که یک پرسشنامه را پر کنند)، چه اقداماتی می توان برای تنظیم سؤالات کاملاً مغرضانه جنسیتی انجام داد؟ یعنی چگونه می توان با این واقعیت که نر و ماده تمایل دارند این صفت یکسان را به طرق مختلف بیان کنند، تنظیم کرد؟ به عنوان مثال، اگر کسی بخواهد اجزایی را بیابد که فعالیت بدنی را توصیف می کند، چگونه باید با این واقعیت سازگار شود که زن و مرد تمایل دارند این ویژگی مشابه را از طریق ابزارهای مختلف بیان کنند. بله، می دانم که یک راه حل واضح طراحی مجدد پرسشنامه است، اما چه روش های ریاضی دیگری وجود دارد (برای مواردی که طراحی مجدد، به دلیل ماهیت سؤالات امکان پذیر نیست)؟
تنظیم PCA بر اساس اطلاعات قبلی
31576
من مجموعه داده های زیر را دارم: 70 شرکت کننده که به سؤالات حسابی با طول های مختلف پاسخ دادند. یک پاسخ اشتباه با کد 0، یک پاسخ صحیح با کد 1. می خواهم بدانم آیا تفاوت کلی بین این دو نوع سؤال وجود دارد یا خیر. از آنجایی که هر شرکت‌کننده هر دو نوع سؤال را پر کرد، از چه رویه‌ای باید استفاده کنم تا بفهمم آیا آنها متفاوت هستند یا نه زیرا مجموعه داده‌های من وابسته است. من می خواهم آنالیز را در R انجام دهم. آیا موارد زیر نتایج درستی به من می دهد؟ آزمون مک نمار با ادامه زیر. جدول: کوتاه بلند درست w x اشتباه y z کسی می تواند کمک کند؟
از چه آزمون فرضیه ای برای آزمایش احتمالات برابر موفقیت در داده های باینری جفت شده استفاده کنم؟
103338
من از stats.aov() در R برای انجام یک ANOVA روی 2x2 خود در طرح آزمایش موضوع استفاده می کنم. من مطمئن نیستم که چگونه داده ها را به بهترین شکل مدل سازی کنم، بنابراین 3 مدل را فرموله کرده ام که به این صورت می نویسم (IV* که متغیرهای مستقل من هستند): اندازه گیری~(IV1*IV2)+خطا(ID/(IV1*IV2)) اندازه گیری اندازه گیری ~IV1+Error(ID/IV1)~IV2+Error(ID/IV2) در نحو RPy به نظر می رسد: av1 = r.aov(r.formula(Measurement~(IV1*IV2)+Error(ID/(IV1*IV2))), data=com.convert_to_r_dataframe(df)) av2 = r.aov(r.formula( اندازه گیری~IV1+خطا(ID/IV1))، data=com.convert_to_r_dataframe(df)) av3 = r.aov(r.formula(measurement~IV2+Error(ID/IV2))، data=com.convert_to_r_dataframe(df)) همه اینها کار می کند، بنابراین من در مورد نحو سوال نمی کنم. با این حال، وقتی می‌خواهم تناسب بودن این مدل‌ها را مقایسه کنم و اجرا کنم: fitness = r.anova(av1,av2,av3) با پیغام خطای زیر مواجه می‌شوم: خطا در UseMethod(anova): هیچ روش کاربردی برای 'anova' به یک شی از کلاس c('aovlist', 'listof') اعمال شد ------------------------------------------------ ------------------------- RRuntimeError Traceback (آخرین تماس اخیر) <ipython-input-24-cfcf7011485f> در <module>() ----> 1 متا = r.anova(av1,av2,av3) /usr/lib64/python2.7/site-packages/rpy2/robjects/functions.pyc در __call__(self, *args , **kwargs) 164 v = kwargs.pop(k) 165 kwargs[r_k] = v --> 166 return super(SignatureTranslatedFunction, self).__call__(*args, **kwargs) 167 168 pattern_link = re.compile(r'\\link\{(.+?)\}') /usr/lib64/ python2.7/site-packages/rpy2/robjects/functions.pyc در __call__(self, *args, **kwargs) 97 for k, v در kwargs.items(): 98 new_kwargs[k] = conversion.py2ri(v) ---> 99 res = super(function, self).__call__ (*new_args، **new_kwargs) 100 res = conversion.ri2ro(res) 101 بازگشت res RRuntimeError: خطا در UseMethod(anova): هیچ روش قابل اجرا برای anova روی یک شی از کلاس c('aovlist', 'listof') اعمال نشده است.
تجزیه و تحلیل انحراف را بر روی مدل‌های ()aov R/RPy انجام دهید
62512
من مجموعه ای از داده های روزهای پس از آخرین بازدید را از Google Analytics دارم: روز از آخرین تعداد بازدید کاربران مجموع 400K 0 100K 1 50K 2 10K .... با توجه به یک بازه زمانی ثابت، ردیف 1 50K به این معنی است که 50 هزار کاربر وجود دارد که دو آخرین بازدید را در یک روز متوالی داشته اند و 0 100K به این معنی است که برای آن 100 هزار کاربر، دو بازدید آخر آنها در یک روز اتفاق می افتد. بنابراین آیا می توانم تعداد روزهای مورد انتظار برای بازدید کاربران از سایت ها در یک ماه را تخمین بزنم؟
یافتن تعداد رویدادها در یک دوره معین بر اساس فاصله زمانی بین رویدادها
88953
من در حال نوشتن یک آزمون t با استفاده از کد اینجا هستم: چگونه با وارد کردن آمار نمونه به جای داده های خام، آزمون های t دو نمونه ای را در R انجام دهیم؟ اما من می خواهم از ریشه واریانس به عنوان برآورد کننده انحراف معیار استفاده کنم. چرا؟ چون من فقط یک بار می توانم از داده هایم عبور کنم تا میانگین و واریانس داشته باشم. برای انحراف معیار، من به میانگین نیاز دارم، بنابراین باید اطلاعاتم را دوبار اسکن کنم.
آیا واریانس جایگزین مربع انحراف معیار در آزمون t است؟
82425
اجازه دهید سوالم را با مثال زیر توضیح دهم: data(Grunfeld, package = plm) y <- data.frame(split(Grunfeld$inv, Grunfeld$firm)) purtest(y, pmax = 4, exo = «قطع»، تست = «مادو») نتیجه می دهد. اما اگر یک مقدار گمشده را در آن لحاظ کنیم، به عنوان مثال، «Grunfeld$inv[2] <- NA»، مراحل بالا برای آزمایش ریشه واحد، خطای «in lm.fit(X, y): NA/NaN را نشان می‌دهد. /Inf در 'x' در مورد آزمایش ریشه واحد پانل زمانی که مقادیر گم شده در داده های خود داریم، چه کاری می توانیم انجام دهیم؟
آیا راهی برای دریافت نتیجه آزمایش ریشه واحد پانل زمانی که داده ها حاوی مقادیری از دست رفته هستند وجود دارد؟
82423
من رشته بیوانفورماتیک هستم. همه ما می دانیم که دما در طول یک سال تغییر می کند. من متوجه شدم که بروز بیماری در زمانی که درجه حرارت نسبتاً بالا باشد واقعاً زیاد است، در حالی که وقتی درجه حرارت نسبتاً پایین باشد واقعاً پایین می‌شود. یعنی با هم مرتبط هستند. من می‌خواهم راهی پیدا کنم که ثابت کنم آنها با هم مرتبط هستند، نه اینکه فقط به طور شهودی احساس کنم که با هم مرتبط هستند. پیشنهادی دارید؟
چگونه ثابت کنیم که تغییر یک متغیر تحت تأثیر متغیر دیگری است. یعنی با هم مرتبط هستند؟
11565
من یک برنامه کاربردی دارم که برای استفاده به عنوان بخشی از تابع درستنمایی، به یک تقریبی به pdf مجموع نرمال نیاز دارم. توزیع مجموع لگ نرمال هیچ شکل بسته ای ندارد و مجموعه ای از مقالات در مجلات پردازش سیگنال در مورد تقریب های مختلف وجود دارد. من از یکی از ساده‌ترین تقریب‌ها (فنتون 1960) استفاده کرده‌ام، که شامل جایگزینی مجموع لگ نرمال‌ها با یک لگ نرمال منفرد با لحظه‌های اول و دوم می‌شود. این برای کدنویسی بسیار ساده است، اما با قضاوت بر اساس ادبیات موضوعی که در 50 سال گذشته نوشته شده است، ممکن است این بهترین تقریب برای همه برنامه ها نباشد. من شهودی برای تشخیص اینکه کدام تقریب ها به بهترین تخمین MLE منجر می شود، ندارم. آیا کسی می داند که آیا (الف) تقریب متفاوتی وجود دارد که باید برای کاربرد حداکثر احتمال استفاده کنم؟ (ب) کد R موجود برای هر یک از تقریب های محاسباتی فشرده تر وجود دارد؟ به روز رسانی: برای پیشینه ای در مورد مشکل، این بررسی را ببینید
تقریبی مجموع لگ نرمال pdf (به R)
85995
فرض کنید من آزمایشی دارم که در آن یک سکه را ورق می زنم، و یک ماشین پیش بینی می کند که آیا سر است یا دم. چگونه می‌توانیم «دقت» پیش‌بینی‌های دستگاه را با داده‌های محدود اندازه‌گیری کنیم؟ (اگر می‌توانستیم آزمایش‌های نامحدود انجام دهیم، آنگاه فقط 1000000 آزمایش انجام می‌دادیم و سپس میانگین را محاسبه می‌کردیم.) با این حال، فرض کنید ما فقط داده‌هایی برای تعداد کمی تست (<100) داریم، که دستگاه x بار درست بوده است. . آیا نوعی روش عددی برای تخمین احتمال دقت دستگاه بیش از 50٪ وجود دارد؟
روش اندازه گیری صحت یک سیستم با داده های نمونه محدود؟
39010
فرض کنید ما یک جمعیت $P$ داریم که به آن علاقه مندیم. می خواهیم شروع شرایط خاصی را ردیابی کنیم (یعنی $A$، $B$ و $C$). فرض کنید با کاهش فشار خون، این اتفاقات رخ می دهد. بنابراین $C$ با کاهش سطح بالاتر فشار خون مرتبط است. چگونه از تحلیل بقا برای تحلیل این وضعیت استفاده کنیم؟
تجزیه و تحلیل بقا با چندین رویداد
91882
من می‌خواهم از الگوریتم _Viterbi_ برای رمزگشایی یک دنباله HMM استفاده کنم، اما مشاهدات بسیار کمی در برخی از مراحل یا نقاط پرت وجود ندارد. حالت های پنهان در این مراحل همانند حالت های قبلی آنها (یا حالت های مجاور آنها) فرض می شود. آیا کسی می تواند به من بگوید چگونه می توانم احتمال انتشار را در این مراحل تنظیم کنم. اگر بخواهم از الگوریتم _Baum-Welch_ استفاده کنم، چه کاری باید انجام دهم؟
برای مقابله با مشاهدات گمشده (یا مشاهدات پرت) برای ویتربی چه باید کرد؟
89399
من دو مجموعه داده جمع آوری شده از دو گروه دارم (گروه 1 قرمز، گروه 2 به رنگ آبی). هر مجموعه داده با یک سیگموئید با 4 پارامتر سازگار شده است: فلات پایین، فلات بالا، نقطه عطف، و شیب در نقطه عطف. بنابراین برای هر گروه، من اکنون تخمینی از چهار پارامتر و همچنین فواصل اطمینان (تصویر نشده) برای هر پارامتر دارم: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/OZq9T.jpg ) سوال من این است: چگونه می توانم آزمایش کنم که آیا یک پارامتر خاص، به عنوان مثال نقطه عطف، تفاوت قابل توجهی بین دو مدل دارد؟ یکی از ایده‌های من این است که برای همه آزمودنی‌های یک گروه تخمین بزنم و برای هر یک از چهار پارامتر یک آزمون t نمونه مستقل انجام دهم. مطمئن نیستم که الف) این یک روش معتبر برای آزمایش تفاوت های آماری معنی دار باشد و ب) آیا راه بهتری برای انجام آن وجود دارد. از کمک شما متشکرم!
چگونه می توان تفاوت های آماری معنی دار بین پارامترها را برای سیگموئیدهای متناسب با دو مجموعه داده مختلف آزمایش کرد؟
13848
در تجزیه و تحلیل بقا برای گروه های 1 و 2، کل مرگ و میر متفاوت نیست. اما در تجزیه و تحلیل زیر گروه از پیش تعیین شده، مرگ و میر قلبی عروقی در گروه 1 بیشتر است. آیا مرگ و میر غیر قلبی عروقی لزوماً در گروه 2 بیشتر است؟ 2\. آیا مرگ و میر قلبی عروقی یک خطر رقابتی است یا یک رویداد سانسور کننده (پایانه) وابسته برای مرگ و میر غیر قلبی عروقی؟
ناهماهنگی در مرگ و میر کلی و قلبی عروقی
47020
سلام، من مدل لجستیک زیر را با یک برهمکنش متغیر طبقه بندی دارم که می خواهم آن را در R رسم کنم، اما در تلاش برای یافتن راه حلی هستم - M <-glm(بی نظمی ~ مکان * قومی، خانواده = دوجمله ای) متغیر قومی دارای سه دسته است ( سفید، سیاه و غیره) دسته «دیگر» با قرارگیری متغیر در تعامل است تا نتیجه قابل توجهی ایجاد کند. من موارد زیر را امتحان کردم اما خطی نمایش نمی‌دهد: disorder_1 <- cbind(disorder) - 1 any_ic_dat <- as.data.frame(cbind(ethnic,disorder_1,placement)) g <- glm(disorder_1~placement +قومیت، خانواده = دوجمله ای، هر_یک_دات) طرح (جایگاه، اختلال_1) x <- seq(0,19, length.out=1500) mydata <- data.frame(ethnic='Other', place=x) y.ethnic<-predict(g,newdata=mydata) خطوط (x,y.ethnic, col='red') چگونه این را روی یک نمودار رسم کنم؟ پیشاپیش از شما متشکرم سارا
رسم برهمکنش رگرسیون لجستیک (مقوله ای) در R
97137
من به دنبال ایجاد یک مدل رگرسیون برای درک تأثیر ثبت نام در یک وب سایت با فروش هستم. من یک نمونه تصادفی 200 هزار مشتری فعال (از 30 میلیون یا بیشتر) گرفتم. معلوم شد که هیچ یک از آنها در وب سایت ثبت نام نکرده اند. بنابراین، من جمعیت افرادی را که در یک ماه معین در وب سایت ثبت نام کردند (~30k) انتخاب کردم. بنابراین من یک مجموعه داده دارم که شامل یک نمونه تصادفی از 200 هزار مشتری است که ثبت نام نکرده اند و 30 هزار مشتری که ثبت نام کرده اند... من می خواهم رگرسیون خود را از این موضوع ایجاد کنم. آیا چیزی وجود دارد که من باید در اینجا در نظر بگیرم؟ آیا باید وزن نمونه یا چیزی شبیه آن را اعمال کنم یا طرح تست من خوب است؟ ممنون میشم کمک کنید
آیا وزن نمونه مورد نیاز است؟
16721
من مشاهدات 4k بر روی افراد دارم که در 10 دسته ترتیبی موقعیت اجتماعی-اقتصادی توزیع شده اند (1 بدترین، 10 - بهترین). از چه نوع آزمون آماری می توانم در Stata برای قضاوت در مورد اینکه آیا روندی در این ده دسته ترتیبی وجود دارد در موارد زیر استفاده کنم: 1. متغیر پیوسته (درآمد)؟ 2. متغیر طبقه‌بندی ترتیبی (پاسخ از 0 'دشوار' تا 11 'آسان' کدگذاری شده است) با تشکر فراوان برای کمک!
چگونه می توانم روند بین گروه های ترتیبی را در Stata آزمایش کنم؟
110431
من نمی‌دانم که آیا نظریه‌ای وجود دارد که بتواند این ایده را تایید یا رد کند: من از اعتبارسنجی متقاطع و ساختن مدل‌ها بر روی بردار مقادیر پارامتر استفاده می‌کنم تا سپس مقدار بهینه آن پارامتر را انتخاب کنم. آیا می توانم تصمیم بگیرم که این مقدار پارامتر بهینه است و به انتخاب مقدار بهینه پارامتر دیگری ادامه دهم؟ به طور خاص، من از CV و برازش های مدل تکراری برای تعیین بهترین ضریب برای پنالتی ریج استفاده می کنم. آیا درست است که ضریب پنالتی ریج را ثابت نگه داریم و روی ضرایب پنالتی کمند تکرار کنیم تا بهترین ترکیب از این دو را پیدا کنیم؟ آیا ممکن است ترکیب بهینه 2 با هم شامل مقادیر بهینه مستقل برای L1 یا L2 به تنهایی نباشد؟ ببخشید اگر این گیج کننده است. در صورت نیاز به توضیح به من اطلاع دهید.
آیا می توانم از اعتبارسنجی متقاطع برای انتخاب پارامترهای بهینه به طور جداگانه استفاده کنم؟
89392
من داده های تجربی دو بعدی $ (x_i,y_i)$ دارم که برای جا دادن یک چند جمله ای استفاده می شود. $$ y = \sum_{k=0}^n a_k x^k $$ من از کتابخانه GSL استفاده می‌کنم و از API برازش خطی استفاده می‌کنم. معمولاً خوب عمل می کند، اما در برخی موقعیت ها، من یک وارونگی شیب چند جمله ای را دریافت می کنم، و **می دانم** که این نمی تواند باشد. من به دنبال راهی برای اضافه کردن محدودیت به فرآیند برازش هستم: به طور خلاصه، می‌خواهم بیان کنم که مشتق چند جمله‌ای همیشه مثبت است. من یک ریاضیدان نیستم، بنابراین سؤالات من این است: * آیا ابزار ریاضی شناخته شده ای برای انجام این کار وجود دارد؟ * عملا، آیا GSL چنین الگوریتمی را ارائه می دهد؟ (منظورم این است که من می توانم دفترچه راهنما را بخوانم، اما واقعاً نمی دانم کجا باید نگاه کنم) **ویرایش**: برای روشن شدن نیازهای من، داده ها در یک محدوده نرمال می شوند به طوری که $x \in [0:1] $. آنچه با چند جمله ای خارج از این محدوده اتفاق می افتد اهمیتی ندارد، زیرا داده ها همیشه در این محدوده باقی می مانند.
اعمال محدودیت بر مشتق هنگام برازش چند جمله ای
105624
من یک رگرسیون خطی بر روی یک مجموعه داده بزرگ و بسیار اریب انجام دادم که شامل 80 متغیر است، حدود 1.0 میلیون کاربر که پول خرج نکرده‌اند و حدود 15 هزار کاربر که مقدار متفاوتی هزینه می‌کنند. هدف من ساخت یک مدل رگرسیونی بود که به من این امکان را می دهد که مقدار پولی را که یک کاربر بیش از 180 روز خرج می کند پیش بینی کنم. من چندین مدل ساختم (برای اولین روز ثبت نام، پس از 7 روز از ثبت نام و بعد از آن 14 روز ثبت نام) در تمام مدل ها داده ها را به مقیاس ورود به سیستم تبدیل کردم. نتایجی به دست آوردم که توضیح آنها برایم سخت است: در حالی که r-squered نسبت به سه مدل در حال بهبود است، دامنه خطاها (بعد از اینکه داده ها را با anti-log پیش بینی کردم) بالاتر می رود. من نمی دانم. چگونه ممکن است این اتفاق بیفتد. در اینجا نتایج نهایی وجود دارد: روز 0 R^2 = 92.4٪، میانگین خطاها: 2.22، محدوده خطاها: 26570 روز7 R^2 = 94٪، میانگین خطاها: 1.65، محدوده خطاها: 28873 روز14 R^2 = 95٪، میانگین خطاها: 1.19، محدوده خطاها: 45،400 من انتظار دارم که محدوده خطاها (مقادیر واقعی - پیش بینی) باشد. پس از بهبود r^2 و سایر پارامترها مانند میانگین کاهش می یابد خطاها هر ایده ای استقبال می شود ویرایش: محدوده خطاها به شرح زیر محاسبه شد: `abs(min(واقعی-پیش بینی)) + max (واقعی-پیش بینی))` میانگین خطاها به صورت زیر محاسبه شد: `avg(واقعی - پیش بینی شده) `
در رگرسیون خطی دامنه خطای پیش‌بینی افزایش می‌یابد در حالی که میانگین خطا کاهش می‌یابد.
103569
من از آزمون Breusch-Pagan برای ناهمسانی استفاده کردم، اما مشاهدات زیادی دارم ($\حدود 500،\\! 000$) و تست Breusch-Pagan از $nR^2$ به عنوان یک آمار آزمون استفاده می کند که در آن $n$ عدد است. از مشاهدات اما با آزمون Breusch-Pagan من همیشه ناهمسانی خواهم داشت، مگر اینکه $R^2$ من تقریباً 0 باشد. از نمودارهای باقیمانده به نظر می رسد که هیچ ناهمسانی وجود ندارد، اما طبق آزمون Breusch-pagan وجود دارد. بنابراین آیا آزمایشی وجود دارد که در مورد مشاهدات زیاد استفاده شود؟
آزمایش ناهمگونی با مشاهدات بسیار
82422
این یک سوال کلی در مورد تعریف نرخ کشف واقعی (TDR) و نرخ مثبت واقعی (TPR) است. استفاده از TPR که به عنوان $\frac{TP}{TP+FN}$ و نرخ کشف نادرست (FDR) با $\frac{FP}{TP+FP}$ تعریف می‌شود، رایج‌تر است. من در اینترنت برای TDR جستجو کردم، اما به نظر می رسد که مردم به ندرت از این اصطلاح استفاده می کنند و تعریف آن را هم پیدا نکردم. سوال من: آیا TDR و TPR یکسان هستند؟ با تشکر
آیا نرخ کشف واقعی (TDR) با نرخ مثبت واقعی (TPR) یکی است؟
87045
من به تازگی تکلیف ریاضی خود را به پایان رسانده ام و آزمون کای دو فرضیه صفر مبنی بر مستقل بودن داده های من را تأیید کرد. اما ضریب همبستگی پیرسون 23/0- است. بنابراین آیا آنها می توانند مستقل باشند و همزمان همبستگی منفی داشته باشند؟
ضریب همبستگی مجذور کای و پیرسون
19911
من به داده‌های بیمار نگاه می‌کنم که در آن نتیجه اصلی آزمایش مرگ و میر طی 30 روز پس از بستری شدن در بیمارستان با شرایط اورژانسی است. من روی داده های 2003-2008 کار می کنم. قبلاً فهمیده بودم که این یک تحلیل لجستیک چند سطحی «ساده» است، که با آن تجربه‌ای دارم، اما تازه فهمیدم که علاقه اصلی در تغییرات تغییرات در سطح بیمارستان در نتیجه در طول دوره نهفته است. بنابراین یک عنصر سری زمانی نیز در آن وجود دارد، اما داده‌ها اندازه‌گیری‌های تکراری در سطح بیمار نیستند (در واقع بیمارانی که چندین بستری دارند حذف می‌شوند). سرپرست بالینی گفت که او فکر می کند که داده ها باید به 6 مجموعه داده تقسیم شوند، یکی برای هر سال، و همان مدل روی هر مجموعه داده اجرا شود و سپس به چگونگی تغییر در سطح بیمارستان نگاه کند. این به نظر من ایده آل نیست. از طرف دیگر من نمی دانم چه چیزی ایده آل است. این برای تشکیل یک کارآموزی 2 هفته ای در یک بخش زیست آماری است که در روز دوشنبه خیره می شود! این پروژه در واقع توسط یک آمارشناس مناسب به محض اتمام دوره کارآموزی من انجام می شود، اما در 2 هفته من قرار است فقط غرق شوم یا شنا کنم، بنابراین باید بعد از عجله ایده هایی را جمع آوری کنم. هر گونه پیشنهاد یا پیوند به مطالعات مشابه بسیار قدردانی خواهد شد.
تجزیه و تحلیل زمانی تغییرات در اثرات تصادفی
39017
من اطلاعاتی در مورد وضعیت درمان در حدود 800 بیمارستان دارم. به عنوان مثال: Hosp N با توجه به سن C.I. گروه 1 5 3 0 0 A 1 11 5 1 1 B 1 21 15 2 1 C 1 32 24 1 1 D 1 111 70 3 1 E 2 10 7 1 25 0 A 2 2 0 B و غیره. لطفاً توجه داشته باشید که این داده ها ساخته شده اند بالا هر ردیف نشان دهنده یکی از 5 گروه سنی در یک بیمارستان است. N تعداد بیماران با یک بیماری خاص است. «داده شده» تعداد بیماران، از «N»، دریافت کننده درمان، «C.I.» تعداد بیماران، از «N» است که برای درمان منع مصرف داشتند، و «امتناع» تعداد بیماران است. ، از N که درمان را رد کرده است، باید آزمایش کنم که آیا این نسبت ها بین گروه های سنی داده شده / N C.I / N رد / N متفاوت است آیا انجام یک دوجمله ای مناسب است یا خیر. رگرسیون برای هر نسبت، با Age.Group به عنوان متغیر توضیحی؟ چه راه های جایگزینی برای این کار وجود دارد؟
آزمایش اینکه آیا نسبت بین گروه ها متفاوت است یا خیر
73911
سوال من کاملاً مستقیم خواهد بود اما فعلاً نمی توانم پاسخ روشنی پیدا کنم. من سعی می کنم از تابع knn.reg از بسته FNN در R برای پیش بینی و تلقی مقادیر گمشده در مجموعه ای از داده ها استفاده کنم. با استفاده از 5 همسایه نزدیک، سعی می کنم آن مقادیر از دست رفته را پیش بینی کنم. بنابراین، من مجموعه ای از داده ها به نام WineComplete دارم که به عنوان داده های خود استفاده می کنم، و نام مجموعه ای WineIncomplete با مقادیر گمشده به عنوان NA نوشته شده است. در اینجا کد من با استفاده از تابع knn.reg است. neir=knn.reg(G1، #data train cross valid test=Gtest، y=datainc.wine$total.sulfur.dioxide، #data برای تکمیل k=5 #neirest number) G1 و datainc.wine هر دو data.frame هستند . total.sulfur.dioxide مقداری است که می‌خواهم پیش‌بینی کنم و می‌خواهم از ویژگی‌های الکل و باقیمانده. قند برای این کار استفاده کنم. من ویژگی total.sulfur.dioxide را از data.frame G1 حذف کردم، بنابراین فقط الکل و قند باقیمانده را به عنوان ویژگی دارد. Gtest عبارت است از data.frame ناقص بدون ویژگی total.sulfur.dioxide. به طوری که من از total.sulfur.dioxide برای ساخت مدل استفاده نمی کنم. مشکل من این است که همانطور که در حال حاضر است، knn.reg فقط NA را برمی گرداند. و خواندن در راهنما نحوه استفاده از آن عملکرد را واضح تر نمی کند. من آن وب سایت و مثال را در پایان بررسی کردم. اما من قادر به درک تفاوت با آنچه که حتی فکر می کردم نیستم، باید تفاوت وجود داشته باشد. هر گونه کمکی برای درک نحوه عملکرد تابع و نحوه محاسبه مشکل خود بسیار قدردانی خواهد شد. همانطور که هست، سوالات من این است: 1. آرگومان های تابع در کدام قالب باید باشد. به این معنی که، به عنوان مثال، من در حال حاضر به y (که پاسخ هر مشاهده در مجموعه آموزشی است)) ستون را برای تکمیل می فرستم و احتمالاً اشتباه است. 2. چرا knn.reg در حال حاضر NA را برمی گرداند. از دیدگاه من، اگر کد من کاملاً اشتباه باشد، فقط باید یک اخطار برگرداند. 3. پاسخ هر مشاهده در مجموعه آموزشی دقیقاً چیست؟ با تشکر از همه. متاسفم که من با R جدید هستم اما سابقه خوبی با Matlab دارم. و انگلیسی زبان اول من نیست.
استفاده از knn.reg در R
102935
من یک شبکه عصبی پایه ایجاد کرده ام که از اطلاعات اولیه یاد می گیرد و می تواند بررسی کند که آیا یک قطعه اطلاعات با پارامترهای آن مطابقت دارد یا نه. با این حال، از نظر مفهومی، من نتوانستم چیزی در مورد جمع‌آوری چیزی جدید در گوگل بیابم یا پیدا کنم. به عنوان مثال، اگر به شبکه‌ام صدها تصویر سگ بدهم، می‌تواند یک سگ را تشخیص دهد، اما نمی‌تواند یک سگ را بکشد. قطعاً لازم نیست دقیق باشد، اما چگونه می توانم شبکه را در این مثال یک سگ بکشم؟ آیا می توانم به سادگی کاری مانند ترسیم گره های دارای وزن بالاتر انجام دهم؟
داشتن یک شبکه عصبی، آموخته های آن را بازسازی می کند
258
قوانین: * یک طبقه بندی در هر پاسخ * رای موافق در صورت موافقت * رای منفی/حذف موارد تکراری. * درخواست خود را در کامنت بگذارید
بهترین طبقه بندی 2 کلاسه خارج از جعبه برای برنامه شما چیست؟
82429
من در حال حاضر با یک پانل دیتا کار می کنم که در آن 6 کشور دارم و تجزیه و تحلیل آن 10 سال است. یعنی $n=6$ و $t=10$. پنل خوبیه؟ من واقعاً گیج می شوم زیرا مردم در مورد تعداد کمی از مشاهدات از من سؤال می کنند. من می توانم ارزش $n$ را افزایش دهم، اما پس از آن هدف مقاله واقعاً تغییر می کند و تنوع زیادی در بین کشورهای مختلف وجود خواهد داشت. کسی میتونه کمکم کنه؟ لطفاً به برخی از مقالاتی که با $n$ کوچک کار می کنند مراجعه کنید.
مشخصات رگرسیون داده های پانل
97688
با توجه به بردار تصادفی $$ \mathbf{h} = \left(\begin{matrix} \mu \\\ \varepsilon_1 \\\ \varepsilon_2 \end{matrix} \right) \thicksim \mathcal{N}(\mathbf {0}، \mathbf{\Sigma}_\mathbf{h}) $$ و تبدیل رتبه پایین: $$ \mathbf{P} = \left( \begin{ماتریس} 1 & 1 & 0 \\\ 1 & 0 & 1 \\\ \end{matrix} \right) $$ به راحتی می‌توان نشان داد که $$ \mathbf{ P}\mathbf{h} = \left( \begin{matrix}\mu + \varepsilon_1 \\\ \mu + \varepsilon_2 \end{matrix} \right) = \left( \begin{matrix} x_1 \\\ x_2 \end{matrix}\right) = \mathbf{x} \thicksim \mathcal{N}(\mathbf{0}, \mathbf{\Sigma_x}) $$ با $$ \mathbf{\Sigma_x} = \mathbf{P\Sigma_\mathbf{h}P}^T $$ سوال من این است که چگونه انتظار $\mathbf{h}$ داده شده $\mathbf{x}$ را محاسبه کنم. من معتقدم که $$ \mathbb{E}[\mathbf{h}|\mathbf{x}] = \mathbf{\Sigma_h}\mathbf{P}^T\mathbf{\Sigma}_\mathbf {x}^{-1}\mathbf{x} $$ اما نمی‌توانم بفهمم چگونه می‌توان آن نتیجه را استخراج کرد. هر کمکی بسیار قدردانی خواهد شد!
انتظار شرطی بردار تصادفی با توجه به تبدیل خطی با رتبه پایین
39018
در یادگیری نظارت شده، برخی از روش های گروهی وجود دارند که به طور قابل توجهی بر سایرین غلبه می کنند (آدابوست یا جنگل های تصادفی برای ذکر برخی). چند سال بعد، گروه هایی در یادگیری بدون نظارت نیز پیشنهاد شدند. آیا تکنیک هایی وجود دارد که بهتر از سایرین عمل کند؟ تجربیات شما با آنها چیست؟ دقت، دستکاری آسان و پیچیدگی زمانی آنها؟
موثرترین گروه های خوشه بندی کدامند؟
97689
انگیزه متغیر پنهان برای رگرسیون لجستیک بدین ترتیب پیش می رود. $Y^*=\beta^tX+\epsilon$ وجود دارد که پیوسته است. ما فقط می‌توانیم $Y$ را در آستانه‌های خاص $Y^*$ مشاهده کنیم، مثلاً در $Y^*\leq \alpha_1$، $\alpha_1<Y^*\leq \alpha_2$، $\alpha_2<Y^*\ leq \alpha_3$ و $\alpha_3<Y^*\leq \alpha_4$ به ترتیب با $Y=1, 2, 3,4$ بنابراین $P(Y\leq j)=P(Y^*\leq \alpha_j)=P(\beta^tX+\epsilon\leq \alpha_j)=P(\epsilon\leq \alpha_j-\beta^tX)$ با فرض اینکه $\epsilon$ لجستیک پس از آن داریم: logit$(P(Y\leq j))=\alpha_j-\beta^tX$ سوال من به این صورت است: فقط با یک آستانه بگویید $\alpha$: یک مدل لجستیک باینری از فرم logit$(P(Y=j))=\alpha-\beta^tX$ دریافت می کنیم. و با $n$ آستانه برای $n$ بزرگ تقریباً همه $Y^*$ را مشاهده می کنیم بنابراین می توانیم از رگرسیون حداقل مربعات معمولی برای مدل سازی استفاده کنیم. آیا کسی می تواند به من توضیح دهد که چه چیزی به دست می آوریم و چه چیزی را برای $n$ بزرگ و برای $n$ کوچک از دست می دهیم که $n$ به تعداد آستانه ها اشاره دارد؟
انگیزه متغیرهای پنهان برای رگرسیون لجستیک ترتیبی و باینری
47028
من در مورد مدل سازی همبستگی زمانی در یک مقاله خاص کمی گیج بودم. فرض کنید، من بردار $\bf{x}$ از بعد m، و یک سری زمانی $\bf{x_1}،\bf{x_2}،...\bf{x_N}$ دارم. اکنون می خواهم همبستگی زمانی نقاط داده را مدل کنم. بنابراین اگر $\bf{x_n} = A\bf{x_{n-1}} + w_n$ را تعریف کنم که در آن A پارامتر و $w= N(0,\tau)$ است، چگونه این همبستگی زمانی را مدل می‌کند. از هر بعد؟ این ممکن است یک سوال بسیار اساسی باشد. اما من واقعاً می خواهم بدانم چگونه این همبستگی را مدل می کند.
سردرگمی مربوط به مدل سازی همبستگی زمانی
73916
چندین مقاله، مانند این مقاله، مفهوم و فرمولی برای درجات آزادی یک برآوردگر منظم ارائه کرده اند. تقریباً، Zou et. al. مقاله استفاده از SURE را پیشنهاد می‌کند، و به یک نتیجه از Efron اشاره می‌کند که نشان می‌دهد برای یک متغیر با ارزش برداری، این کمیت را می‌توان به صورت چیزی شبیه کوواریانس نرمال شده بین مقادیر برازش شده و مقادیر واقعی یک روش برازش محاسبه کرد. سوال من: آیا کسی می تواند به من مقاله ای را نشان دهد که مفهوم مشابهی را برای مقدار برازش متغیرهای تصادفی با ارزش برداری بیان می کند، برای مثال تخمین های کوواریانس منظم متفرقه که در اطراف شناور هستند؟ در فرض ساده به نظر می رسد، اما به نظر می رسد به تعمیم SURE و MSE نیز نیاز دارد.
برآوردگر درجه آزادی کوواریانس
16720
من در حال حاضر روی پایان نامه خود کار می کنم که در آن یک رگرسیون خطی چندگانه انجام دادم. تحلیل اساساً در مورد تأثیر پروژه ها است. در میان سایر متغیرهای مستقل، من **متغیر ساختگی** _تیم ترکیب_ را دارم که به دو دسته عملکردی (0) و متقابل (1) تقسیم می شود. متغیر مستقل N -------------------------------------------- .. .. ترکیب تیم 77 تیم عملکردی (0) 70 تیم متقابل عملکردی (1) 7 همانطور که مشاهده می شود تعداد مشاهدات (N) بین آن دو کاملاً متفاوت است. از تجزیه و تحلیل رگرسیون مشخص شد که _ترکیب_تیم_******آماری معنی دار نیست که برخلاف انتظار من بود. اکنون سعی می کنم بفهمم دلیل چنین نتیجه ای چه می تواند باشد. **سوال من این است** که آیا تفاوت زیاد در تعداد مشاهدات بین _عملکردی_ و _متقابل_عملکردی_ می تواند یکی از عوامل تأثیرگذار بر اهمیت آماری گمشده در تحلیل رگرسیون باشد؟ thx
آیا تفاوت زیاد در تعداد مشاهدات در یک متغیر ساختگی بر نتیجه رگرسیون آن تأثیر می گذارد؟
87046
من قبلاً در سراسر CrossValidated StackExchange خوانده بودم، اما پاسخی برای مشکل زیر پیدا نکردم. من گروه های مختلفی از حیوانات را دارم که نرخ بقای آنها در روزهای پس از اولین تماس داده شده است، مانند [5، 10، هنوز زنده، 50، 104، هنوز زنده، ...] - چگونه می توانم داده ها را از قبل پردازش کنم، به خصوص آنهایی که با برچسب نشان داده شده اند. هنوز زنده، برای انجام آزمایش Mann-Whitney-U در مورد بقا در روزهای دو گروه؟ آیا اول از همه از روش Kaplan Meier برای سانسور داده ها استفاده می کنم، یا می توانم داده ها را به نوعی احتمال شرطی تبدیل کنم، یا فقط از داده های خام استفاده می کنم و از داده هایی که هنوز زنده هستند صرف نظر می کنم؟ با تشکر از هر کسی که می تواند به من در مورد نحوه پردازش این نوع داده ها با توجه به آزمون Mann Whitney U راهنمایی کند.
مقایسه بقا در روز با استفاده از آزمون Mann-Whitney-U
102931
نمایش علیت با استفاده از نقشه های شناختی فازی، یک مدل شناختی را ارائه می دهد که یک مدل گرافیکی متشکل از نمودار جهت دار وزنی است. برای من شبیه یک ماشین انتقال حالت است. آیا کسی می تواند تفاوت بین نقشه علی و زنجیره مارکوف را توضیح دهد؟ متشکرم
تفاوت بین مدل گرافیکی و زنجیره مارکوف
102930
من از آزمون Kruskal Wallis برای پایان نامه خود استفاده می کنم و می خواهم نتایج این آزمون را گزارش کنم. با این حال، یکی از نمودارهای این تست، تست مقایسه زوجی است که من متوجه نمی شوم. آیا کسی می تواند به من توضیح دهد که چگونه می توانم این را در یک مقاله علمی گزارش کنم و چگونه اعداد موجود در جدول با نمودار ترسیم شده مطابقت دارند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/sfBXB.png)
نحوه گزارش مقایسه Pairwise در SPSS
39013
من به دنبال یک روش خوشه‌بندی سریع برای خوشه‌بندی نوع بزرگی از داده‌ها به تعداد ناشناخته خوشه‌ها هستم. من از الگوریتم PAM اطلاع دارم. اما فقط برای مجموعه داده های کم کارآمد است. آیا الگوریتم جایگزینی وجود دارد؟ (و شاید یک پیاده سازی در C یا جاوا؟) **//EDIT** با بدون پارامتر می گویم که تعداد خوشه ها یا فاصله بین آنها را تعریف نمی کنم. به مرور زمان فقط می‌خواهم مهرهای زمانی را با L1-Distance (شاید مجموعه داده‌های بین 1000 تا 5000 داده) خوشه‌بندی کنم. اما شاید بخواهم داده های خوشه ای در NxM باشم (مطمئن نیستم). با سلام
به دنبال یک الگوریتم خوشه‌بندی سریع غیر پارامتری هستید
64612
فرضیه صفر: LOG_AUSTRIA دارای یک ریشه واحد برون زا: طول تاخیر ثابت: 1 (خودکار - بر اساس SIC، maxlag=29) t-Statistic Prob.* آمار آزمون دیکی-فولر افزوده 1.765602 0.9997 0.9997 0.9997 0.9997 1% مقدار آزمایشی -50% سطح % -2.862181 سطح 10% -2.567155 *مک کینون (1996) مقادیر p یک طرفه. متغیر وابسته معادله تست دیکی-فولر تقویت شده: D(LOG_AUSTRIA) روش: حداقل مربعات تاریخ: 07/17/13 زمان: 18:55 نمونه (تعدیل شده): 3 3450 مشاهدات شامل: 3448 پس از تعدیل ضریب متغیر St. خطا t-Statistic Prob. LOG_AUSTRIA(-1) 0.000659 0.000373 1.765602 0.0776 D(LOG_AUSTRIA(-1)) 0.053321 0.017030 3.131112 0.0018 0.0004 0.0003018 C -0 -1.560515 0.1187 R-squared 0.003923 میانگین وابسته var 0.000428 Adjusted R-squared 0.003345 S.D. وابسته var 0.010612 S.E. رگرسیون 0.010595 معیار اطلاعات آکایک -6.256058 مجموع مربع باقی مانده 0.386693 معیار شوارتز -6.250711 احتمال ورود 10788.44 معیار هانان-کوئین. -6.254148 F-statistic 6.784764 Durbin-Watson stat 2.000233 Prob(F-statistic) 0.001146
چگونه نتایج آزمایش‌های ریشه واحد را با فاصله تفسیر می‌کنید؟
21630
من مشکلی دارم که شامل پیش بینی 16 مقدار بعدی برای 250 سری زمانی تقاضای روزانه است، آیا می توانم فقط برای یک دوره آینده پیش بینی کنم و سپس آن را در 16 ضرب کنم؟ آیا درست است؟ میخواستم بدونم پیشنهاداتتون رو به من میدید؟
h پیش بینی یک قدم جلوتر
16724
من یک مربع لاتین با یک درمان خاص دارم. من یک کنتراست انجام داده ام بنابراین مقداری برای میانگین کنتراست دارم $$\hat \theta_1 = \mu_1-\frac{1} {3}(u_2+u_3+u_4) \>.$$ همچنین یک خطای پاسخ از کل نمونه $\sigma^2$. من واریانس میانگین کنتراست $$\mathrm{Var}(\hat \theta_1) \>، $$ کل N = 48 را دارم، اندازه هر گروه درمانی 12 است، بنابراین 4 گروه. برای گرفتن فاصله اطمینان، چیزهایی مانند $$\bar x \pm t_{n-1}^{(1-\alpha/2)}\frac{s} {\sqrt{n} } \>، $ را امتحان می‌کنم دلار اما چیزی که انتظارش را دارم به من نمی دهد. آیا این فرمول صحیح برای فاصله اطمینان میانگین کنتراست است؟ واریانس نمونه $s^2$ در زمینه کنتراست چیست؟
چگونه یک فاصله اطمینان برای کنتراست پیدا کنیم؟
81194
در نمودار پراکندگی تاخیری، چنین نموداری داریم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gecGh.png) اگر یک انحنای سازمان یافته در الگوی نقاط داشته باشیم، به این معنی است که غیرخطی است. وابستگی بین زمان جدا شده سوال من اکنون این است: در کدام سری زمانی وابستگی غیرخطی داریم؟ کدام ویژگی ها باید این سری های زمانی را داشته باشند؟
وابستگی غیرخطی در نمودار پراکندگی خودهمبستگی با تأخیر
63048
می خواهم بدانم آیا یک سری زمانی همگرا شده است یا خیر؟ من به ادبیات MCMC نگاه کردم (که نیاز به انجام کاری مشابه دارد - دانستن اینکه آیا یک زنجیره همگرا شده است) و موارد زیر را پیدا کردم: http://www.people.fas.harvard.edu/~plam/teaching/methods/convergence/convergence_print .pdf صفحه 13 را با نمودار میانگین در نظر بگیرید. ایده این است که میانگین را تا هر تکرار ترسیم کنید و ببینید که آیا ثابت می شود یا خیر. اول این که بگم هیچ جای دیگه ای با گوگل اشاره ای به این روش پیدا نکردم. هنگامی که به دنبال اجرای طرح‌های بد می‌گردم، بیشتر این دسته از اسلایدها را در نتیجه برمی‌گردانم. بنابراین مطمئن نیستم که آیا این واقعاً یک روش شناخته شده برای بررسی همگرایی MC است یا خیر. دوم اینکه من از این ایده کاملا متعجبم. اگر اشتباه نکنم، هر طرحی از این دست، فقط به دلیل قضیه حد مرکزی، خیلی سریع همگرا می شود. ما مقداری توزیع داریم و از آن نمونه برداری می کنیم و میانگین را ترسیم می کنیم. البته در اطراف میانگین توزیع با واریانس نسبتاً کمی تثبیت خواهد شد. من فکر می کنم ایده این است که اگر MC همگرا نشده باشد، پس از مدتی زمانی که توزیع به یک ایستگاه جدید منتقل شد، شاهد تثبیت میانگین و سپس تغییر مجدد خواهیم بود. اما به نظر من راه خوبی برای بررسی همگرایی MCMC نیست. آیا کسی می تواند به من مطالبی در مورد این ایده اجرای طرح متوسط ​​ارجاع دهد، چگونه می توان از آن برای بررسی همگرایی سری یا حداقل همگرایی MC استفاده کرد؟
آیا نمودارهای میانگین در حال اجرا شاخص های خوبی برای همگرایی سری های زمانی هستند؟
12032
من با CrossValidated جدید هستم، امیدوارم این سوال مناسب باشد... اگر نه، عذرخواهی می کنم. من در حال مطالعه پایداری یک مولکول B هستم و داده هایی در سطح ثبت شده در مقاطع زمانی مختلف دارم. مولکول B در واقع به مرور زمان افزایش می‌یابد زیرا مولکول مادرش، AB، در حال تجزیه است و آن را آزاد می‌کند (و A): AB -> A + B اگر من AB را اندازه‌گیری می‌کردم، فکر می‌کنم در امتداد مدل زیر تجزیه می‌شود: $$ N (t) = N_0 e^{-\lambda t} $$ که در آن $N_0$ غلظت شروع AB است، $\lambda=\ln(2)/t_{1/2}$ و $t$ زمان است. برای مثال وقتی $N_0=1000$ و $t_{1/2}=2$ به شکل زیر در می‌آییم، که وقتی log اینها را تغییر می‌دهد یک خط مستقیم خوب را تشکیل می‌دهند که داده‌های واقعی را به راحتی می‌توان روی آن قرار داد، تصاویر دست چپ را در این Google مشاهده کنید. صفحه گسترده با این حال، چون من B را اندازه می‌گیرم، و غلظت شروع والد ناشناخته است (احتمالاً بسیار بزرگتر از B)، نموداری مانند (نمودار بالا سمت راست در پیوند) دریافت می‌کنم که آینه‌ای از فروپاشی است. منحنی AB، از غلظت شروع B (مشخص، و در این مثال 100) شروع می شود و با فروپاشی AB افزایش می یابد: ($N_0 - N(t)$) در هر $t$. با این حال، تبدیل log این یک خط مستقیم ایجاد نمی کند، زیرا غلظت به نصف یا دو برابر نمی شود، بلکه با مقداری افزایش می یابد که مربوط به غلظت شروع ناشناخته AB است، و نمودار نه چندان مفید را تولید می کند (گراف پایین سمت راست در پیوند) . بنابراین، برای من سخت است که بتوانم خطی را با داده های خود تنظیم کنم. من سعی کردم غلظت B را به چیزی شبیه غلظت AB تبدیل کنم که می تواند به راحتی با تبدیل log به یک خط مستقیم تبدیل شود، اما شانسی نداشتم زیرا من $N_0$ را برای AB نمی دانم. امیدوارم چیزی را از دست داده باشم و راه خوبی وجود دارد که داده‌های من را به یک خط مستقیم تبدیل کند، یا آن را به روش دیگری مدل‌سازی کند. هر گونه کمک و ایده بسیار قدردانی خواهد شد! ممنون نیک
برازش غلظت مولکول کودک در واپاشی نمایی مولکول مادر
64614
آیا کسی روشی برای مقایسه دو متغیر با آزمون مجذور کای می‌داند اگر متغیرها از نظرسنجی‌های مختلف با عبارات «svydesign()» متفاوت باشند؟ من به دنبال آزمایش تفاوت در توزیع متغیر در دو موج از یک نظرسنجی هستم، اما عبارت `svychisq()` به یک شی طراحی محدود می شود. آیا قرار دادن دو متغیر در یک «data.frame» جدید، ایجاد یک عبارت «svydesign» جدید با وزن‌های جمعی و سپس اجرای آزمایش مشروع است؟
طرح نظرسنجی مربع چی
21631
من به دنبال انجام یک تخمین چگالی هسته در مجموعه ای از 40 مکان هستم. در ابتدا من از LSCV به عنوان پهنای باند استفاده کردم، اما به نظر می رسد که داده ها را بیش از حد هموار کرده است، و در مناطقی که نباید تراکم بالایی ایجاد می کند. من به دنبال اطلاعاتی در مورد اینکه کدام پهنای باند در چه شرایطی بهترین است، اما در حال مبارزه هستم، گشتم. آیا کسی منبعی سراغ دارد که این را به خوبی توضیح دهد؟ اساساً من امیدوار هستم که گزینه ای برای پهنای باند بیابم که مانند LSCV داده ها را هموار نکند و سپس بتواند انتخاب من را از روی ادبیات توجیه کند. خیلی ممنون بن
از چه پهنای باندی برای تخمین چگالی هسته استفاده کنم؟
21635
من ماتریسی دارم که مقادیر تکی را می دهد که بسیار کوچک هستند. من می خواهم آن را به گونه ای آشفته کنم که آن را به ماتریس اصلی نزدیک نگه دارد، فقط مقادیر تکی بزرگتری دارد. برای یک ماتریس مربع، راهی برای انجام این کار اضافه کردن $\lambda I$ به ماتریس است. آیا راهی برای انجام این کار برای یک ماتریس غیر مربعی وجود دارد؟
چگونه مقادیر مفرد یک ماتریس را بزرگ کنیم؟
91886
من یک مجموعه داده پانل با متغیرهای individual و time دارم و می خواهم آن را از دیدگاه شبکه مطالعه کنم. یعنی درک اینکه آیا سرمایه‌گذارانی که در شبکه نزدیک به هم هستند (مثلاً در یک منطقه زندگی می‌کنند) رفتار مشابهی دارند یا خیر. کدام نوع روش های آماری را پیشنهاد می کنید؟ هر مرجعی؟
چگونه یک مجموعه داده پانل را با استفاده از تئوری شبکه مطالعه کنیم؟
110430
در یک مثال خاص از کتاب _تحقیقات اپیدمیولوژیک_ نوشته کلینبام [مثال 15.1]، من سه مشکل دارم. داده‌های جدول 01 را در نظر بگیرید. این داده‌ها مربوط به یک مطالعه بعدی در مورد ارتباط احتمالی بین چاقی و مرگ‌ومیر (به هر علت) در میان زنان سفیدپوست 60 تا 75 ساله از جمعیت شهری غرب میانه است. $$\text{جدول 01. نوع چگالی داده از یک مطالعه چاقی}$$ $$ \begin{array}{l|cc|l} & \text{چاق}(E) & \text{Nonobese}(\ نوار E) & \\\ \hline \text{مرگ‌های 1960-1967}&30&36&m_1=66\\\ \text{Person-Years of follow up,1960-1967}&699&399&L=2098\\\ \hline \end{array} $$ Here, $a=30 , b=36, L_1=699, L_0=1399$, به طوری که نسبت چگالی بروز، $$\hat {IDR}=\frac{\hat {ID_1}}{\hat {ID_0}}=\frac{30/699}{36/1399}=1.67 $$ فرضیه ما این است: $$H_0:IDR=1\quad\text{در مقابل}\quad H_A: IDR>1$$ از آنجایی که $\hat {ID_1}$ و $\hat {ID_0}$ _نسبت های دوجمله ای نیستند_، آزمون فرضیه استاندارد در اینجا نمی توان از روش ها استفاده کرد. * **اولین سوال من این است:** چرا $\hat {ID_1}$ و $\hat {ID_0}$ _نسبت های دو جمله ای نیستند؟ (اگرچه نمی‌دانم، چرا $\hat {ID_1}$ و $\hat {ID_0}$، نسبت‌های دوجمله‌ای هستند؟) اگر آنها نسبت‌های دوجمله‌ای نیستند، چرا نمی‌توان از روش‌های آزمون فرضیه استاندارد در اینجا استفاده کرد؟ با بازگشت به مثال خاص خود، مرحله بعدی به این صورت توصیف می‌شود: یکی از روش‌های آزمایش $H_0$ در مقابل $H_A$ این است که فرض کنیم هر یک از $m_1$ موارد مشاهده‌شده، یک آزمایش_مستقل برنولی را نشان می‌دهد، با موفقیت و شکست. به ترتیب به عنوان دسته های _exposed_ و _unexposed_ تعریف می شوند. احتمال موفقیت و شکست در زیر $H_0$ به ترتیب $$p_0=\frac{L_1}{L}\quad\text{and}\quad q_0=\frac{L_0}{L}$$ است. . * **سوال دوم من این است: ** چرا احتمالات در فرضیه صفر تعریف می شوند؟ اگر احتمالات در فرضیه صفر تعریف نشده باشند، چه اتفاقی می افتد؟ مجدداً، به مثال خود برمی گردیم، در مرحله بعد، آنها مقدار $p$-value را محاسبه کرده و بر اساس این $p$-value تفسیر کرده اند.روش پیدا کردن این $p$-value ابتدا محاسبه آمار Z$$ است. همانطور که نمونه بزرگی داریم $$Z=\frac{(A-m_1p_0)}{\sqrt{m_1p_0q_0}}=\frac{30-(66)(.333)}{\sqrt{(66)(.333)(.667)} }=2.10$$ به طوری که $$pr(A\ge 30 |H_0)=pr(Z>2.10|H0)=.0179$$ از آنجایی که $p<0.05$، بر اساس نمونه به این نتیجه رسیدیم که شواهد قوی از ارتباط واقعی مواجهه با بیماری وجود دارد. * **آخرین سوال من این است:** اگر نتیجه گیری ما بر اساس $p$-value است، در همان ابتدای مثال، نیاز به محاسبه برآورد $\hat {IDR}=1.67$ کجاست؟ برآورد $\hat {IDR}=1.67$ به ما چه می گوید؟
آزمایش ارتباط بین قرار گرفتن در معرض و بیماری
97136
من می خواهم یک نمرات ترکیبی از چندین متغیر استاندارد شده با توزیع نرمال (z-score) محاسبه کنم. برخی از این اقدامات با هم مرتبط هستند، برخی نه. از این رو، من می خواهم به همبستگی بین آنها توجه داشته باشم. اگر درست متوجه شده باشم، فاصله ماهالانوبیس (MD) فاصله مرکب از مرکز چند متغیره متقابل را به من می دهد. با این حال، این یک فاصله مطلق است که فقط مقادیر مثبت دارد. می‌خواستم بدانم که آیا می‌توان فاصله Mahalanobis را با مقادیر مثبت و منفی به دست آورد، که در آن مقادیر منفی نشان دهنده فاصله از میانگین است که نشان‌دهنده بدتر از میانگین نمرات است، و نمرات مثبت نشان‌دهنده بهتر از میانگین نمرات است. مثال: 3 آزمون عملکرد شناختی \- حافظه \- تمرکز\- سرعت پردازش اگر یک آزمودنی خاص به طور متوسط ​​(نسبتا) در این تست ها نمره بدی کسب کند، من دوست دارم MD منفی ببینم. اگر یک آزمودنی به طور متوسط ​​(نسبتا) در این تست ها نمره خوبی کسب کند، من دوست دارم MD مثبت ببینم. آیا این امکان پذیر است؟ اگر نه، آیا اقدامی وجود دارد که این کار را انجام دهد؟ بهترین، وینسنت
فاصله ماهالانوبیس منفی
81191
من متعجب بودم که در چند کتاب در مورد اقتصاد سنجی کشف کردم که آنها چیزهای زیادی را در مورد توزیع بتا توضیح می دهند. بنابراین من یک مثال و چند سوال مرتبط با آن دارم: ماتریس کوواریانس واریانس در واقع چه کاری انجام می دهد. و هنگامی که آن را به صورت زیر محاسبه کردم چگونه این را به باقی مانده ها اضافه کنم تا باقیمانده های سفید را بدست بیاورم. من می دانم که چگونه OLS ماتریس طرح ریزی آن را محاسبه کنم و چگونه باقیمانده ها را محاسبه کنم، همچنین می توانم فرمول ارائه شده در زیر را محاسبه کنم، اما نمی توانم ببینم چگونه برای تصحیح خطاهای استخراج شده با محاسبه مقدار بیشتر حرکت کنم. OLS. لطفا کمک کنید، آیا چندین دانش آموز (همکلاسی) با درک این موضوع مشکل دارند. معلم ما گفت که ما باید بتوانیم این کار را قبل از دریافت تکلیف انجام دهیم زیرا ظاهراً تکلیف ما متکی به دریافت لیستی از موارد باقیمانده اصلاح شده است. من دارم ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/0scQ3.jpg) ویرایش: من سوال را ویرایش کردم زیرا نظری دریافت کردم، چیزی که می خواهم محاسبه کنم یک برداری است با باقیمانده ها پس از اعمال خطاهای استاندارد newwey west. دلیلی وجود دارد که من به این لیست از خطاهای استاندارد نیاز دارم. بنابراین نمی دانم که آیا کسی اینقدر مهربان است و توضیح می دهد که چگونه این کار را مرحله به مرحله انجام دهد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/uV2gC.jpg)
توضیح ماتریس کوواریانس OLS و تصحیح باقیمانده ها
49543
من از 8 فرد (پرنده) از دو منطقه نمونه برداری کرده ام. برای هر یک از این 16 فرد، من 9 پر را که هر کدام به ترتیب (از 1 تا 9) رشد کرده اند، نمونه برداری کرده ام. در مرحله بعد، ایزوتوپ های کربن و نیتروژن را در هر یک از نمونه های پر اندازه گیری کرده ام. من داده‌های خود را رسم کرده‌ام (شکل 1) و در برخی افراد رابطه بین مقدار ایزوتوپ و موقعیت پر خطی، در برخی موارد یکنواخت و در موارد معدودی هیچ‌کدام نیست. ![Delta15N بر اساس موقعیت پر برای همه افراد در منطقه جنوب](http://i.stack.imgur.com/Nz6oi.png) من به دنبال یک روش ناپارامتریک (؟) برای آزمایش این سه جایگزین هستم. فرضیه ها برای هر فرد در مجموعه داده من. H1: اگر 9 پر رشد شده متوالی در هر فرد در یک مکان تحت یک رژیم غذایی یکسان رشد کنند، مقادیر ایزوتوپ با موقعیت پر و خط رگرسیون اساساً مسطح همبستگی خواهد داشت. H2: اگر فردی رژیم غذایی خود را به طور سیستماتیک جابجا کند یا تغییر دهد، مقادیر ایزوتوپ و موقعیت پر همبستگی دارند اما خط رگرسیون مثبت یا منفی خواهد بود. H3: اگر فرد به طور ناگهانی حرکت کند یا رژیم غذایی خود را تغییر دهد، مقادیر ایزوتوپ همبستگی ندارند و رابطه خطی نخواهد بود. در نهایت، من می خواهم این فرضیه را آزمایش کنم که تفاوت آنها بین رابطه ایزوتوپ های پر و موقعیت پر در افراد بین دو منطقه متفاوت است. اگر همه داده‌ها (برای هر فرد) خطی یا یکنواخت باشند، شهودی‌تر خواهد بود، اما اینطور نیست. از درک اولیه من برای استفاده از همبستگی پیرسون یا GLM، این آزمون‌ها فرض می‌کنند که داده‌ها خطی هستند، در حالی که اسپیرمن داده‌ها را یکنواخت فرض می‌کند. داده‌های نمونه: WW_Wing_SI <- ساختار(list(Individual_ID = c(WW_08A_02, WW_08A_02, WW_08A_02, WW_08A_02, WW_08A_02, WW_08A_02, WW_08A_02, WW_08A_0, WW_08A_02 WW_08A_02، WW_08A_03، WW_08A_03، WW_08A_03، WW_08A_03، WW_08A_03، WW_08A_03، WW_08A_03، W3، W_08A_0، WW_08A_0 WW_08A_04، WW_08A_04، WW_08A_04، WW_08A_04، WW_08A_04، WW_08A_04، WW_08A_04، WW_08A_04، WW_08A_0، WW_08A_0، WW_08A_0 WW_08A_05، WW_08A_05، WW_08A_05، WW_08A_05، WW_08A_05، WW_08A_05، WW_08A_05، WW_08A_05، WW8،W_08A_0، WW_08A_0 WW_08A_06، WW_08A_06، WW_08A_06، WW_08A_06، WW_08A_06، WW_08A_06، WW_08A_06، WW_08A_08، W8، W_08A_0، WW_08A_0 WW_08A_08، WW_08A_08، WW_08A_08، WW_08A_08، WW_08A_08، WW_08A_08، WW_08A_09، WW_08A_09، WW_08A_9، WW_08A_0، WW_08A_0 WW_08A_09، WW_08A_09، WW_08A_09، WW_08A_09، WW_08A_09، WW_08A_13، WW_08A_13، WW_08A_13، WW_08A_3، WW_08A_0، WW_08A_0 WW_08A_13، WW_08A_13، WW_08A_13، WW_08A_13، WW_08B_02، WW_08B_02، WW_08B_02، WW_08B_02، W2، W_08B_0، WW_08B_0 WW_08B_02، WW_08B_02، WW_08B_02، WW_08G_01، WW_08G_01، WW_08G_01، WW_08G_01، WW_08G_01، WW_08G_0، WW_08G_0، WW_08G_0 WW_08G_01، WW_08G_01، WW_08G_02، WW_08G_02، WW_08G_02، WW_08G_02، WW_08G_02، WW_08G_02، WW2، W_08G_0، WW_08G_0 WW_08G_02، WW_08G_05، WW_08G_05، WW_08G_05، WW_08G_05، WW_08G_05، WW_08G_05، WW_08G_05، WW_08G_05، WW_08G_0، WW_08G_0 WW_08G_07، WW_08G_07، WW_08G_07، WW_08G_07، WW_08G_07، WW_08G_07، WW_08G_07، WW_08G_07، W7، W_08G_0، W_08G_0 WW_08I_01، WW_08I_01، WW_08I_01، WW_08I_01، WW_08I_01، WW_08I_01، WW_08I_01، WW_08I_01، W3، W_08I_0، W3، W_08I_0 WW_08I_03، WW_08I_03، WW_08I_03، WW_08I_03، WW_08I_03، WW_08I_03، WW_08I_03، WW_08I_07، W8، W_08I_0 WW_08I_07، WW_08I_07، WW_08I_07، WW_08I_07، WW_08I_07، WW_08I_07، WW_08I_12، WW_08I_12، W2، W_08I_0، W2_08I_0 WW_08I_12، WW_08I_12، WW_08I_12، WW_08I_12، WW_08I_12)، Feather = c(1، 2، 3، 4، 5، 6، 7، «8»، «9»، «1»، «2»، «3»، «4»، «5»، «6»، «7»، «8»، «9»، «1»، «2»، «3»، «4»، «5»، «6»، «7»، «8»، «9»، «1»، «2»، «3»، «4» ، 5، 6، 7، 8، 9، 1، 2، 3، 4، 5، 6، 7، «8»، «9»، «1»، «2»، «3»، «4»، «5»، «6»، «7»، «8»، «9»، «1»، «2» ، 3، «4»، «5»، «6»، «7»، «8»، «9»، «1»، «2»، «3»، «4»، «5»، «6»، «7» ، 8، 9، 1، 2، 3، 4, 5، 6، 7، 8، 9، 1، «2»، «3»، «4»، «5»، «6»، «7»، «8»، «9»، «1»، «2»، «3»، «4»، «5» ، 6، «7»، «8»، «9»، «1»، «2»، «3»، «4»، «5»، «6»، «7»، «8»، «9»، «1» ، 2، 3، 4، 5، 6، 7، 8، 9، 1، 2، 3، 4، «5»، «6»، «7»، «8»، «9»، «1»، «2»، «3»، «4»، «5»، «6»، «7»، «8» ، 9، «1»، «2»، «3»، «4»، «5»، «6»، «7»، «8»، «9»، «1»، «2»، «3»، «4» ، 5، 6، 7، 8، 9)، Delta13C = c(-18.67، -19.16، -20.38، -20.96، -21.61، -21.65، -21.31، -20.8، -21.28، -20.06، -20.3، -21.21، -22.9، -22.87-، -21.13، -20.68-، -20.58، -20.69، -16.54، -15.6، -16.61، -16.61، -20.19 - ، -21.7، -21.18، -21.33، -20.33، -20.28،
چگونه می توان همبستگی را با داده هایی که فرض خطی بودن را نقض می کنند و یکنواخت نیستند آزمایش کرد؟
63049
فرمول آماری آزمون هاسمن: $$ H=(\beta_{f}-\beta_{r})' \left[\mathrm{Cov}(\beta_{f})-\mathrm{Cov}(\beta_{r} )\right]^{-1}(\beta_{f}-\beta_{r} ) $$ که $\beta_{f}$ بتای مدل جلوه‌های ثابت است و $\beta_{r}$ بتای مدل اثرات تصادفی است. آنچه تاکنون فهمیده‌ام: خطای استاندارد با افزایش حجم نمونه داده‌ها کاهش می‌یابد آنچه من _نمی‌فهمم: رابطه بین خطای استاندارد و ماتریس کوواریانس واریانس، که به نوبه خود آمار آزمون هاسمن را افزایش می‌دهد، همانطور که در فرمول بالا بیان شد. چرا آمار آزمون هاسمن به طور خودکار بالاتر است، نمونه داده ها بالاتر است؟
آزمون هاسمن: هر چه نمونه بزرگتر باشد، آمار آزمون هاسمن معنادارتر است؟
90486
اخیراً شروع به این سوال کردم که چگونه می توان تأثیر آموزش را بر شاخص هایی مانند تولید ناخالص داخلی اندازه گیری کرد: به عنوان مثال در سطح کشور، نتیجه ریاضیات یا علوم رایانه بر تولید ناخالص داخلی چیست. در این مثال، امکان تغییر آزمایش وجود ندارد. من از روش‌هایی مانند علیت گرنجر برای سری‌های زمانی آگاه هستم، اما بیشتر علاقه‌مندم که بدانم آیا می‌توانیم مستقیماً از زوج‌ها (تحصیلات، تولید ناخالص داخلی) همه کشورها بینش کسب کنیم. آیا زمانی که متغیرها همبستگی بالایی دارند می توان از امتیازهای گرایش استفاده کرد؟ آیا می توانیم با اضافه کردن متغیرهای دیگر به مدل، همخطی را کاهش دهیم؟
استنتاج علیت با هم خطی بالا
97682
تقریب خی دو توزیع آمار آزمون در آزمون نسبت درستنمایی (LRT) ممکن است قابل اعتماد نباشد اگر پارامتر یک مدل در مرز فضای پارامتر باشد --- چیزی است که من اغلب در اسناد می بینم. من می خواهم بدانم مرز یک فضای پارامتر واقعاً به چه معناست. به عنوان مثال، اگر پارامتر احتمال یک توزیع دو جمله ای باشد، فقط p=0 یا p=1؟ یا آیا این شامل مقادیر اطراف مرزها می شود (به عنوان مثال، p=0.001 نزدیک مرز است و باعث ایجاد مشکل می شود؟)؟ اگر شامل مقادیر نزدیک به مرز باشد، چگونه می توان تعیین کرد که یک مقدار نزدیک است یا خیر؟
آزمون نسبت احتمال و پارامترهای مرزی
63041
من یک متغیر X غیرعادی توزیع شده دارم (همچنین باقیمانده های آن غیرعادی توزیع شده اند). من همچنین دو متغیر پیش بینی دارم، یکی مقوله ای (دو دسته) و دیگری گسسته. از کدام رگرسیون برای آزمایش ارتباط بین پیش بینی کننده ها و X استفاده کنم؟ من کارشناس آمار نیستم و در دریایی از روش های مختلف رگرسیون گم می شوم. متشکرم
رگرسیون چندگانه متغیر ناپارامتریک بر روی انواع مختلف متغیر
87041
در تلاش‌های مداوم من برای درک یک مجموعه داده بسیار همبسته بدون حذف بیشتر متغیرها، در مرحله تلاش برای تفسیر خروجی PCA هستم. امیدوارم در موارد زیر درست گفته باشم: من تصمیمی را بر اساس مقادیر ویژه تولید شده از ماتریس همبستگی خود می گیرم. (در مورد من قطعی نیست) من تعدادی رایانه شخصی تولید می کنم (کمتر از تعداد دارای مقادیر معادل > 0 به دلیل ماتریس NPD) که تنوع تا حد ممکن را با تعداد کمی از رایانه های شخصی ممکن توضیح می دهد. از این، مجموعه‌ای از بارهای عاملی و بارگذاری‌های عامل چرخشی تولید می‌شوند که به طور موثر متغیرهای اصلی من را روی رایانه‌های شخصی جدید وزن می‌کنند. اغلب مثال‌هایی را می‌بینم که کاملاً واضح است که هر رایانه شخصی ادغام بخشی از متغیر اصلی را نشان می‌دهد که یک متغیر دنیای واقعی را نشان می‌دهد. (به عنوان مثال، برای داده‌های خودرو؛ «اندازه موتور» و «شتاب» ممکن است روی PC1 وزن داشته باشند و «قدرت» تعیین شوند که «طول» روی PC1 وزن نداشته باشد) من این نتیجه برش تمیز را ندارم برخی از متغیرها روی بسیاری از اجزای مختلف بارگذاری می‌شوند. مهم نیست که چند یا چند متغیر را انتخاب کنم، همچنین ممکن است تعداد زیادی متغیر اصلی روی یک مؤلفه بارگذاری شوند، به عنوان یک متغیر دنیای واقعی غیرقابل تشخیص است (حداقل برای من) من می دانم که این باید خیلی اتفاق می افتد، اما من می خواهم بدانم که چگونه با آن کنار بیایم. نکته آخر این است که حداقل باید بتوانم رایانه های شخصی را به زندگی واقعی مرتبط کنم. PCA برای کاری که می‌خواهم انجام دهم ایده‌آل است زیرا ترجیح می‌دهم متغیرهای اصلی خود را حفظ کنم تا بفهمم آیا هر یک در توصیف متغیر وابسته مدل‌سازی شده مهم است یا خیر. با این حال من مایل به حذف متغیرهای مستقل بر اساس همبستگی نیستم. همچنین به نظر می رسد این هنوز هم خطی بودن را در مدل ها ایجاد می کند (توجه داشته باشید، برخی از عوامل تقریباً به چیزی واقعی قابل تشخیص هستند)
استفاده از PCA زمانی که بارهای عامل چرخش شده برای ارتباط با متغیرهای دنیای واقعی دشوار است؟
81198
چگونه می توانم تعاملی را با یک تعدیل کننده ترتیبی 3 سطحی انجام دهم، که در آن نتیجه پیوسته، پیش بینی کننده ترتیبی (3 سطح) و متغیرهای کمکی مختلف است؟ متشکرم
تعامل با یک ناظر ترتیبی 3 سطحی
12030
من صفحات ویکی پدیا را برای آزمون فریدمن و کروسکال-والیس خوانده ام، اما مطمئن نیستم که از کدام یک استفاده کنم. آیا تفاوت هایی در مفروضات وجود دارد؟
تست فریدمن مقابل کروسکال والیس
12035
من یک جدول داده‌ای دارم که پارامترهای بافت‌شناسی مختلف را در میان 3 گروه از بیماران - DLE، SCLE و ACLE نشان می‌دهد. می‌خواهم بدانم چگونه می‌توانیم تحلیلی بر روی قدرت ارتباط یک پارامتر با یک گروه خاص انجام دهیم.
تجزیه و تحلیل همبستگی پارامترها
88046
من در تلاش برای یافتن برآوردگر حداکثر احتمال یک نمونه تصادفی هستم که در آن X~BIN(1,p) است. من در تلاش برای یافتن گزارش طبیعی یک جایگشت گیر کرده ام. لطفا کمک کنید!
نحوه یافتن سیاهه طبیعی
362
تفاوت بین تست نرمال بودن شاپیرو-ویلک و تست نرمال بودن کولموگروف-اسمیرنوف چیست؟ چه زمانی نتایج حاصل از این دو روش متفاوت خواهد بود؟
تفاوت بین تست نرمال بودن شاپیرو-ویلک و تست نرمال بودن کولموگروف-اسمیرنوف چیست؟
12039
من به دنبال فرمول فاصله اطمینان برای تفاضل میانگین ها در آزمون t تک نمونه ای هستم. من فقط توانستم فرمول یک آزمون t دو نمونه ای را پیدا کنم. اجازه دهید مثالی بزنم: من ده امتیاز زیر را دارم: 10،12،13،11.5،9،11،11.1،11.9،12.1،9.3. . وقتی یک آزمون t یک نمونه را در SPSS انجام می‌دهم، نتایج زیر را دریافت می‌کنم: t به‌دست‌آمده = -10.776 SIG (یعنی P) = 0.000 95% CI از تفاوت = -5.3363 تا -3.4837. من می دانم که SPSS چگونه t و P را محاسبه می کند، اما نمی دانم چگونه 95٪ CI تفاوت را محاسبه می کند. این 95% CI تفاوت با CI برای میانگین یکسان نیست. CI برای میانگینی که می توانم با $$CI =\bar{x} \pm t S/\sqrt{N} بدست بیاورم. $$ فاصله اطمینان در این مورد: 10.16،12.01 است. اگر این را در SPSS محاسبه کنم همین نتیجه را می‌گیرم. بنابراین سوال من این است: فرمول CI تفاوتی که SPSS تولید می کند چیست؟ چگونه می توانم آن محدوده را بدست بیاورم؟ من CI را برای میانگین نمی خواهم. با تشکر
فاصله اطمینان فرمول برای تفاوت میانگین ها - آزمون t یک نمونه
16727
توزیع زیر را متعلق به خانواده نمایی در نظر بگیرید. $p_{\theta}(x) = \theta e^{-\theta x} $ MLE که پارامتر $\theta$ را تخمین می‌زند $\newcommand{\thetaMLE}{\hat{\theta}_{\mathrm{ است. MLE}}}\thetaMLE = 1/\bar{X}$ که $\bar{X}$ میانگین نمونه است. چگونه سوگیری این برآوردگر را پیدا کنیم؟ $\mathrm{bias}(\thetaMLE) = E[\thetaMLE] - \theta = E[1/\bar{X}] - \theta$ چگونه انتظار متقابل میانگین نمونه را پیدا کنیم؟
یافتن انتظار متقابل میانگین نمونه
97687
من مشکل زیر را دارم: می‌خواهم یک توزیع پیش‌بینی‌کننده پسین برای متغیر رگرسیون لجستیک هدف $y$ بدست بیاورم. یعنی با توجه به ترکیبی از متغیرهای توضیحی $X$، من می‌خواهم توزیع شرطی $P(y|X)$ را از مدل بدست بیاورم. آیا به درستی تصور می‌کنم که باید یک مدل بیزی را از طریق MCMC نمونه‌برداری کنم تا به درستی پیش‌بینی‌های خلفی را تقریب بزنم؟ یا راه ساده تری وجود دارد؟ بهترین رویکرد برای چنین مشکلی چه خواهد بود؟ همچنین، با توجه به اینکه من به طور موثر هزاران متغیر توضیحی ساختگی دارم، آیا حتی می توان چنین عدد پارامتر عظیمی را از طریق روش های نمونه برداری مدیریت کرد؟ من واقعاً از هر کمکی در اینجا قدردانی می کنم.
نمونه برداری از رگرسیون بیزی پیش بینی پسین
49544
من سعی می کنم یک برنامه مطالعه برای یادگیری MLE برنامه ریزی کنم. برای انجام این کار، من سعی می کنم بفهمم حداقل سطح محاسباتی که برای درک MLE لازم است چقدر است. آیا درک اصول حساب دیفرانسیل و انتگرال (یعنی یافتن حداقل و حداکثر توابع) برای درک MLE کافی است؟
چقدر محاسبه برای درک تخمین حداکثر احتمال لازم است؟
19917
یک طرح دارای دو متغیر پیش بینی کننده (هر دو پیوسته) است. پاسخ قبول/شکست است. من می خواهم بدانم چگونه از رگرسیون لجستیک باینری استفاده کنم تا بدانم چه مقدار از هر متغیر نرخ شکست 0.000001 را با اطمینان 95٪ به من می دهد. با یک متغیر پیش بینی، واضح است - اما نه با دو. من معمولاً از Minitab استفاده می‌کنم، اما محدود به ثابت نگه داشتن یک متغیر پیش‌بینی‌کننده در حالی که متغیر دیگر را تغییر می‌دهم - این می‌تواند انجام شود، اما خسته‌کننده است (و واقعاً آن چیزی نیست که می‌خواهم انجام دهم). من همچنین نمی خواهم بیش از حد طراحی کنم. من نمی دانم که آیا می توان این کار را در اکسل یا R انجام داد، اما دانستن آن خوب است. از بسیاری جهات، من به دنبال ایجاد سطحی هستم، که در آن متغیرهای پیش‌بینی‌کننده روی محورهای x و y و احتمال آن روی محور z باشد. من می‌خواهم 95 درصد اطمینان پایین‌تر این سطح، نرخ شکست 0.000001 را داشته باشد. هر گونه پاسخ بسیار قدردانی می شود.
استفاده از رگرسیون لجستیک باینری برای یافتن طراحی برای قابلیت اطمینان و اطمینان بسیار بالا
21638
من می‌خواهم توزیعی (هر چیزی که دوست دارید) را بر اساس این الزامات تنظیم کنم: 1. مقادیر صحیح را تولید می‌کند (ترجیح است اما لازم نیست) 2. میانگین = 100 3. Std=114 4. Quantiles (25%, 50%, 75) %)=(6,39,200) 5. Min=0; حداکثر = 300 (اما $\infty $ قابل قبول است). پواسون با معیارهای 1،2 و تقریباً 3 مطابقت دارد، اما نه چندان دور 4. Lognormal... شاید اطلاعات اضافی: مقدار 0 در 8% مواقع و 300 در 18% تولید می شود. آیا میشه همچین کاری کرد؟ یا به اطلاعات بیشتری نیاز داریم؟
اتصالات توزیع
69194
آیا راهی برای انجام رگرسیون رج در متلب با چند خروجی وجود دارد؟ منظورم این است که تابع ridge به طور پیش فرض فقط یک خروجی را پشتیبانی می کند؟
انجام رگرسیون رج با خروجی های متعدد در متلب
45466
من یک نمودار پراکندگی دارم که در آن هر نقطه در مختصات اعداد صحیح است که ممکن است شامل 0 برای X و Y باشد. دامنه هر مختصات بزرگ است، اما بیشتر داده‌ها در حدود 0 خوشه‌بندی می‌شوند. نمودار ورود به سیستم برای نشان دادن چند دهه داده. اما از آنجایی که 0 وجود دارد، ایده آل نیست (من می توانم یک تغییر اضافه کنم، اما این کار تفسیر داده ها را دشوارتر می کند). علاوه بر این، از آنجایی که داده ها اعداد صحیح هستند، در نمودارهای log-log بسیار نواری به نظر می رسند. باز هم، نسبتا بی توجه. نمونه‌ای از داده‌ها: ![Original Data](http://i.stack.imgur.com/oDbCC.png) نمونه‌ای از داده‌های log-log که در آن هر محور قبل از گرفتن گزارش یک شیفت دارد: ! [Log-Log Data](http://i.stack.imgur.com/5BTzv.png) بنابراین، آیا نوع دیگری از تبدیل وجود دارد که داده‌ها را معقول‌تر نشان دهد؟ دیدن همه مقیاس های داده ها مهم است.
تکنیک هایی برای نشان دادن داده های چندین دهه
257
ممکن است فرض کنیم که فایل CSV داریم و می‌خواهیم یک طرح خط بسیار ابتدایی با چندین خط در یک طرح و یک افسانه ساده داشته باشیم.
ساده ترین راه برای ایجاد نمودارهای با کیفیت انتشار در لینوکس چیست؟
90480
مجموعه داده ای از تصاویر (GRAZ_02 مجموعه داده-ماشین ها، دوچرخه ها، افراد) را دریافت کردم و با استفاده از یک توصیفگر (الگوریتم SIFT) ویژگی هایی را از هر تصویر در پایگاه داده استخراج کردم که یک ماتریس از ترتیب را برمی گرداند: (تعداد نقاط علاقه) X128 . از آنجایی که تعداد نقاط علاقه شناسایی شده برای هر تصویر از تصویری به تصویر دیگر متفاوت است، ماتریس توصیفی خروجی یکنواخت نیست. برای غلبه بر این مشکل، ما از خوشه‌بندی K-means استفاده می‌کنیم که به منظور طبقه‌بندی به desriptorl با اندازه یکسان ارائه می‌شود. (حضور / عدم وجود یک شی). سوال من این است که چگونه این ماتریس :(kX128) برای هر تصویر به برداری تبدیل می شود تا بتوان آن را در طبقه بندی SVM اعمال کرد؟
نحوه دادن ورودی تصویر به SVM پس از پیش پردازش
49549
من سعی می کنم قبل از انجام یک رگرسیون لجستیک مقداری کاهش متغیر را انجام دهم. من کاملاً علاقه مند به استفاده از «Hmisc::varclus» در R هستم. با این حال، من در تفسیر خروجی مشکل دارم. تا آنجا که من می توانم بگویم، نمودار (درخت) تولید شده با استفاده از varclus تنها راه داخلی برای به دست آوردن اطلاعات در مورد گروه های ایجاد شده توسط این روش است. سوال اصلی من این است که بدانم در چه سطحی از سلسله مراتب باید خوشه هایی را انتخاب کرد که برای کاهش متغیر استفاده می شوند؟ من خواندم که یک قانون سرانگشتی برای حفظ یک خوشه این است که rho آن (برای اسپیرمن) حداقل 0.30 باشد. آیا این به صورت بصری از روی طرح ارزیابی می شود؟ برای جدا کردن درخت به خوشه های _نهایی، برش با چه مقدار rho انجام می شود؟ باز هم، آیا این کار به صورت بصری انجام می شود؟ شاید مهارت های جستجوی اینترنتی من کم باشد، اما در یافتن اطلاعات در مورد این روش به طور کلی و به طور خاص در R مشکل دارم. آیا مقاله _مبتدی_ خوبی در مورد خوشه بندی متغیر وجود دارد که از دست داده ام و اصول اولیه را بیان کند؟ آیا دستورات اضافی برای «varclus» در R وجود دارد که علاوه بر بررسی بصری درخت، به تصمیم گیری نهایی خوشه کمک کند؟ # مثال varclust در R با استفاده از mtcars data mtcn <- data.matrix(mtcars) clust <- varclus(mtcn) clust plot(clust)
چگونه از روش خوشه بندی متغیر (varclus) خوشه ها را انتخاب کنیم؟
93489
من یک دسته از پردازش های مؤلفه $y_{it}$ دارم که $i=1..n$. من می‌توانم مدل‌های سری زمانی معقول $y_{it}=f_i(y_{i,s<t},X_t)$ بسازم، که در آن $X_t$ - متغیرهای برون‌زا هستند. اینها می توانند فرآیندهای ARIMAX برای هر جزء $i$ باشند. من همچنین می‌توانم مدل‌های خودرگرسیون برداری (VAR) را بسازم $y_t=Ay_{t-1}+BX_t$ و غیره. با این حال، من یک اطلاعات اضافی در دسترس دارم: سطح کل $Y_t=\sum_{i=1}^nw_ {it}y_{it}$ برای هر بار $t$ هم در گذشته _و هم در آینده_، که وزن‌های $w_{it}$ در _گذشته_ شناخته می‌شوند. وزن‌ها در آینده مشخص نیستند، اما احتمالاً می‌توانم در آینده با فرض ثابت بودن وزن‌ها کنار بیایم، بنابراین مشکل بزرگی نیست. مشکل من این است که چگونه می توان $Y_t$ را در پیش بینی $y_{it}$ گنجاند؟ این اساساً به نوعی مشکل تفکیک است. تفاوت های ظریف. وقتی می گویم $Y_t$ مشخص است دقیق نمی گویم. من واقعاً $Y_t$ را در آینده نمی‌دانم، بنابراین باید بگویم آیا می‌دانم $Y_t$ بهترین پیش‌بینی من از $y_{it}$ چیست؟ به عبارت دیگر، من به دنبال بهترین پیش بینی مشروط به آگاهی از سطح کل $\hat{y}_{i,t+h}=f_i(y_t,X_{t+h},Y_{t+h هستم })$
با دانستن سطح فرآیندهای کل، چگونه می توان سطوح اجزای تشکیل دهنده را بدست آورد؟
64615
در حال حاضر مشغول نگارش پایان نامه کارشناسی ارشدم در مورد بین المللی شدن واحد پول چین رنمینبی یا یوان چین هستم. من در تجزیه و تحلیل آماری تازه کار هستم و در حال حاضر کاملاً ناامید هستم. یکی از نویسندگان کار مرتبط با پایان نامه من دارای روشی برای تجزیه و تحلیل تأثیر ارزها بر سایر ارزها است. فرمول زیر را دارد: ![Formula](http://i.stack.imgur.com/qwR4C.jpg) دلتا به معنای تغییرات درجه یک روزانه است، بتا ضریب (درجه تأثیر بر متغیر وابسته) و واحد پول است. /SDR نرخ روزانه حق برداشت ویژه است که نوعی ارز مصنوعی توسط صندوق بین المللی پول است. در تهیه داده ها از داده های نرخ ارز روزانه از Datastream استفاده کردم. سپس ln تمام مقادیر روزانه را گرفتم و هر یک از آنها را از روز قبل $\ln(X(t))- \ln(X(t-1))$ کم کردم. یا من همچنین سعی کردم $X(t)/X(t-1)$ را تقسیم کنم و سپس ln را گرفتم. بنابراین من تغییرات روزانه را دریافت کردم. اکنون مشکل من: اگر اکنون رگرسیون را اجرا کنم، نتایج متفاوتی از نویسندگان دریافت می کنم، که تا حدی منطقی نبودند و همیشه مقادیر $R^{2}$ کمتری داشتند. آیا ممکن است که آماده سازی اطلاعات من با ln و تقسیم خراب شده باشد؟ من در تلاش برای یافتن اشتباهم متوجه شدم که اگر قدر مطلق (نرمال و ln) ارزها را برای دو ارز نزدیک به هم (مثلاً یورو و دینار بوسنیایی) مرتبط کنم، نتیجه 0.9 یا بیشتر را دریافت می کنم که باعث می شود حس کامل اگر همین کار را بعد از $X(t)/X(t-1)$ یا $\ln(X(t))- \ln(X(t-1))$ انجام دهم، مقادیر بسیار کمتری (گاهی کمتر از 0.1 دلار) چیزی که اصلاً معنی ندارد. واقعا ممنون میشم اگه بتونید کمکم کنید
مشکل ضریب رگرسیون خطی
74687
من سعی می کنم مدلی بسازم که میزان بقای حیات وحش را بر اساس شدت یک زمستان کامل پیش بینی کند. ایده این است که هوای سردتر در ترکیب با برف زیاد تأثیر منفی دارد (هرچه سردتر باشد، برف طولانی‌تر می‌ماند). ممکن است زمستان سرد با برف زیاد باشد، اما اگر سرما و برف در یک ماه اتفاق نمی‌افتد، تأثیر کمتری خواهد داشت. به منظور حفظ تعامل برف و دما، ما می خواهیم از داده های ماهانه استفاده کنیم، اما بقای ما همیشه برای کل زمستان خواهد بود. واقعاً مهم نیست که آب و هوای بد در کدام ماه رخ می دهد، بنابراین من در استفاده از ماه به عنوان یک متغیر مردد هستم. آیا تکنیکی وجود دارد که بتوانم از آن استفاده کنم که تعامل برف و دما را در هر ماه حفظ کند اما از اثر تجمعی همه ماه‌ها در زمستان برای پیش‌بینی بقا استفاده کند؟ نمونه ای از شکل داده ها: بقای سال1 = 0.9 ماه دمای برف m1 -5 20 m2 -15 20 m3 -20 100 m4 2 100 Year2 survival = 0.7 ماه دمای برف m1 -5 20 m2 -18 110 m3 -20 100 m4 -11 20 دما میانگین دمای ماه بود و برف مجموع همه بود برف در یک ماه من مطمئن نیستم که نظر در مورد آمار سفارش به کجا می‌رود، اما اگر تفاوتی ایجاد کند، داده‌های روزانه در دسترس است.
مدل سازی اثر تجمعی یک زمستان
90487
داده‌های من دارای یک پاسخ باینری (درست/نادرست)، یک پیش‌بینی‌کننده پیوسته (با «NaN») و چندین پیش‌بینی‌کننده طبقه‌بندی هستند. من می خواهم یک وقفه تصادفی برای یک عامل تصادفی موضوع اضافه کنم. همه پیش بینی ها درون موضوع هستند. من می‌خواهم بهترین مدل را انتخاب کنم و در صورت امکان، یک مقدار p برای هر فاکتور گنجانده شده را گزارش کنم (به روش مانند ANOVA). مدل مخلوط شده و با استفاده از آنها احساس بسیار آماتوری و تصادفی داشته باشید)، و (2) در مورد بدست آوردن مقادیر p برای هر عامل، اما نه برای هر سطح (در صورت امکان) توصیه هایی دریافت کنید. * * * نحوه ادامه کار به این صورت است: چون «NaN» در پیش بینی پیوسته وجود دارد، من آن خطوط را از داده ها برای انتخاب مدل حذف می کنم. اگر قرار باشد این پیش بینی حذف شود، من دوباره آن خطوط را در آن قرار می دهم. من سعی کردم از یک GLMM دو جمله ای با استفاده از 3 عملکرد مختلف استفاده کنم: کتابخانه(glmmML) M1 <- glmmML(acc ~ race*sex*emotion+score، خانواده=دو جمله ای، داده=زیر مجموعه، cluster=subj). summary(M1) این یک اخطار می دهد: در glmmML.fit(X، Y، وزن ها، cluster.weights، start.coef، start.sigma، : Hessian غیر مثبت قطعی. بدون واریانس! و خروجی فقط یک دسته ای از «NA» من را شگفت زده نمی کند زیرا در برخی شرایط «آسان» یک «اثر سقفی» وجود دارد من باید دوباره از این نوع مدل بر روی مجموعه دیگری از داده ها استفاده کنم، بنابراین خوب است که اکنون یاد بگیرم که چگونه این تجزیه و تحلیل را به درستی اجرا کنم، حتی اگر نتایج را برای این مجموعه داده به دلیل اثر سقفی نادیده بگیرم (MASS) M2 <- glmmPQL(acc~race*sex*emotion+score, random=~1|subj, family = binomial, data = subset) خلاصه (M2) می دهد یک خروجی خوب با مقادیر p برای هر سطح از فاکتورها (اما بدون AIC) و در نهایت: کتابخانه(lme4) M3 <- glmer(acc ~ race*sex*emotion+score+(1|subj)، خانواده=دوجمله ای، داده ها =subset # ظاهراً استفاده از خانواده با lmer منسوخ شده است (M3) که همچنین خروجی خوبی با مقادیر p برای هر سطح از فاکتورها ارائه می دهد. AIC من باید تعجب کنم زیرا فکر می کردم «(g)lmer» مقادیر p را ارائه نکرده است؟ تغییرات کوچکی در مقادیر p بین «glmmPQL» و «glmer» وجود دارد که من را شگفت‌زده نمی‌کند (شاید باید باشد؟) زیرا می‌دانم که مقادیر p «مرز» نباید در GlMM قابل اعتماد باشند. خوب... پس تنها گزینه برای انتخاب مدل استفاده از خروجی «glmer» است که دارای AIC است. به یاد دارم که در جایی خواندم که انتخاب مدل برای GLMM باید با دست انجام شود. اما چون تنبل هستم، سعی می‌کنم به هر حال از «drop1» استفاده کنم و بررسی کنم که آیا مقادیر p نشان‌داده‌شده با «drop1» با AIC سازگار است یا خیر. پس از چندین دور به مدل حداقلی می رسم: M5 <- glmer(acc ~ race + sex + emotion + seks: emotion + race: emotion + score +(1|subj)، خانواده = دوجمله ای، داده = زیر مجموعه) drop1 (M5 , test=Chisq) که نشان می‌دهد هیچ عبارت دیگری نمی‌تواند حذف شود و برای عبارت‌های سطح بالاتر (دو تعامل دو طرفه + امتیاز) مقدار p می‌دهد. مقادیر P بسیار پایین هستند ('e-07') بنابراین می توانم در مورد آنها احساس اطمینان کنم، مشروط بر اینکه مرحله اعتبار سنجی درست باشد. در اینجا نحوه انجام اعتبار سنجی: برازش <- predict(M5, type=response) resid <- resid( M5, type=pearson) # در مورد نوع باقیمانده ها مطمئن نیستم باید از نمودارهای اعتبار سنجی استفاده کنم: plot(subset $race, resid) نمودار (زیرمجموعه$emotion, resid) بدون طرح الگوی واضح (زیر مجموعه$sex, resid) یک الگوی جزئی از متغیرهای بیشتر و منفی باقیمانده ها برای طرح محرک های مرد (زیرمجموعه$score، باقیمانده) یک الگوی مشخص از متغیرهای باقیمانده بیشتر و باقیمانده های منفی برای نمرات بالاتر مطمئن نیستم که چقدر بد است. محرک‌های «مرد» و محرک‌های با «نمره» بالا قرار است آسان‌تر باشند. آیا این می تواند به اثر سقف مربوط باشد یا ربطی به آن ندارد؟ و در نهایت طرح (مناسب، ساکن) این کاملاً عجیب به نظر می رسد و من مطمئن نیستم که چگونه این را تفسیر کنم، یا حتی اگر این کار را انجام دهم. من دو خط می بینم، یکی نسبتاً مستقیم و افقی و نزدیک به مقدار صفر است، دیگری همان است با این تفاوت که وقتی مقادیر برازش نزدیک به 1 می شوند، به مقادیر منفی کاملاً بزرگ کاهش می یابد (بیشتر بین 0 تا 10-). برای ارتباط با مشکل بالا: وقتی عملکرد تقریباً کامل است، پسماندهای منفی بزرگی دریافت می کنم؟ آیا این نشانه اثر سقف است؟ در هر صورت: برای هر فاکتوری باید مقدار p را گزارش کنم! نه «drop1()» و نه «summary()» این کار را انجام نمی دهند. چگونه باید ادامه دهم؟ من سعی کردم در وب جستجو کنم و در نهایت در مورد آزمون والد مطالعه کردم، اما مطمئن نیستم که آیا یا چگونه این مورد در اینجا اعمال می شود یا خیر.
مدل ترکیبی دوجمله‌ای با پیش‌بینی‌کننده‌های طبقه‌بندی: انتخاب مدل و گرفتن مقادیر p
45464
من یک گروه مجرم را با یک گروه کنترل در یک کار خاص در یک مدل خطی تعمیم یافته با دقت (0-1) به عنوان DV مقایسه می کنم. منتقدان با ذکر این نکته که یک گروه زندانی شده اند و گروه دیگر نه، از من انتقاد کردند. اکنون می‌خواهم مدت زمان زندانی شدن آنها را کنترل کنم، اما البته این با سن نیز مرتبط است. بنابراین، من در مورد بهترین راه برای کنترل این موضوع شک دارم. مدت حبس در گروه شاهد صفر (غیبت نشده) می باشد. فرض کنید من به تعامل بین «گروه*A*B» علاقه مند هستم. از پیش‌بینی‌کننده‌های ثابت در مدل عبارتند از: A، B، گروه، A*B، A*Group، B*Group، A*B*Group. آیا مدل جدید باید به این صورت باشد: سن، حبس، A، B، گروه، A*B، A*Group، B*Group، A*B*Group. یا مانند این: سن، حبس، الف، ب، گروه، الف*ب، الف*گروه، ب*گروه، الف*ب*گروه الف*حبس، ب*حبس، گروه*حبس، الف*ب*حبس، الف *حبس*گروهی،ب*گروه*حبس، الف*ب*گروه*حبس. یا متفاوت؟ من همچنین دو عامل تصادفی را وارد کردم: /RANDOM USE_INTERCEPT=SUBJECTS TRUE=ID COVARIANCE_TYPE=VARIANCE_COMPONENTS /RANDOM EFFECTS=آزمایش USE_INTERCEPT=FALSE COVARIANCE_TYPE=VARIANCE_COMPONENTS
متغیرهای کمکی در مدل خطی تعمیم یافته با DV باینری
46843
من سعی می کنم نشان دهم که لحظه مرکزی یک توزیع متقارن: $${\bf f}_x{\bf (a+x)} = {\bf f}_x{\bf(a-x)}$$ برای اعداد فرد بنابراین برای مثال سومین لحظه مرکزی $${\bf E[(X-u)^3] = 0}.$$ من با تلاش برای نشان دادن اینکه $${\bf E[(X-u)^3] = E[X شروع کردم ^3] -3uE[X^2] + 3u^2E[X] - u^3}.$$ مطمئن نیستم از اینجا به کجا بروم، پیشنهادی دارید؟ آیا راه بهتری برای اثبات این موضوع وجود دارد؟
لحظه های مرکزی توزیع های متقارن
45468
ده نفر شراب A و شراب B را می‌چشند. اجازه دهید X$ نشان‌دهنده عددی باشد که A را ترجیح می‌دهد. فرض کنید بقیه افراد ترجیحی برای B دارند. اگر $X=10$، و فرضیه صفر عدم تفاوت در اولویت بین شراب ها (در مقابل جایگزین دو طرفه) را آزمایش کنیم، مقدار $p$ برابر با 0.0020 است. من متوجه نمی شوم که چگونه می توان به این نتیجه رسید که p-value 0.0020 است. آیا قرار است از تست یک نمونه برای نسبت استفاده کنید؟
فرضیه صفر برای یک نمونه و دو نسبت
69192
من علاقه مند به محاسبه همبستگی هشتگ هستم. یعنی با توجه به یک هشتگ، کدام هشتگ دیگر محتمل است؟ من می دانم که چگونه می توانم همبستگی را زمانی که داده ها در قالب $(x، y)$ هستند انجام دهم، اما این در قالب $(timestamp، hashtag)$ است. من به دنبال راهی برای یافتن کلوگی هر دو هشتگ داده شده، اندازه گیری شده بر حسب واحد زمان هستم - یک کلوگی با مقدار زمانی کم به این معنی است که آنها با هم آویزان هستند، در حالی که یک کلوگی با مقدار زمانی بزرگ به این معنی است که رابطه زیادی وجود ندارد. **ویرایش:** داده های نمونه -- به عنوان مثال، به دنبال ارتباط بین ورزش و خلق و خوی. با نگاهی به جدول، به نظر می‌رسد پیوندی بین «#ورزش‌شده» و «#حال خوب» وجود دارد، چگونه می‌توانم آن را کمیت کنم؟ همچنین، به نظر می‌رسد بین «#ورزش‌شده» و «#حال خوب» همبستگی منفی وجود دارد. 1 سپتامبر 2013، 7:00 صبح #ورزش شده 1 سپتامبر 2013، 9:00 صبح #goodMood 2 سپتامبر 2013، ساعت 10:00 صبح #okMood 3 سپتامبر 2013، 7:00 صبح #ورزش شده 3 سپتامبر 2013 9:00 AM #Mood 9: 4 سپتامبر 2013 9:00 صبح #خوشحالی
یافتن رویدادهایی که با هم رخ می دهند
46844
پس از اعمال الگوریتم یادگیری ماشین روی برخی داده ها، جدولی دارم که یک ستون آن مقدار پیش بینی است (می تواند باینری یا پیوسته باشد). ستون های دیگر ویژگی های مستقل هستند (عمدتاً مقادیر عددی). من سعی می کنم به دنبال راهی برای تجسم بگردم که به این سوال پاسخ دهد: کدام یک از ویژگی های مستقل بیشترین همبستگی را با مقدار پیش بینی دارد؟ سعی کردم چیزی پیدا کنم اما چیزی پیدا نکردم. ممکن است به دنبال شرایط مناسبی نباشم. لطفاً ببخشید اگر سؤال من واضح نیست زیرا من هنوز در حوزه یادگیری ماشین جدید هستم.
بهترین راه برای نشان دادن ارتباط بین ارزش پیش بینی و ویژگی های مستقل چیست؟
64617
در تمام مطالعات خودم، با روش‌های مختلفی برخورد کرده‌ام که به نظر می‌رسد مردم داده‌های خود را قبل از محاسبه ماتریس کوواریانس عادی می‌کنند. من گیج شده ام که چه راه هایی درست هستند، یا اینکه آیا فقط به برنامه وابسته است. برای برنامه خاص خود، من یک ماتریس داده $X$ دارم که یک ماتریس $9$x$10000$ است. (بگذارید $s=9$، و $N = 10000$). این ماتریس از 9 حسگر روی زمین بدست آمد که ارتعاشات را در طول زمان اندازه گیری می کردند. من وظیفه دارم ببینم «چقدر خوب» خروجی‌های حسگر مختلف با یکدیگر همبستگی دارند، به عبارت دیگر، ماتریس کوواریانس را مطالعه کنم. **گزینه 1:** روش استانداردی که من از آن آگاهم این است که میانگین هر ردیف $X$ را از خودش کم کنم و سپس ماتریس کوواریانس نمونه را محاسبه کنم: بنابراین، اجازه دهید $\bar{X}$ هیچ باشد. اما X$، با کم کردن میانگین هر ردیف. سپس، ماتریس کوواریانس با $C = (N-1)^{-1}\bar{X} \bar{X}^T$ داده می‌شود. به این ترتیب، واریانس خروجی هر سنسور بدون تغییر است، اما تمام خروجی های سنسور دارای میانگین صفر هستند. **گزینه 2:** روش مشابه دیگری که من دیدم، این است که صرفاً در حذف میانگین متوقف نمی شود، بلکه انحراف استاندارد خروجی هر سنسور را قبل از محاسبه $C$ مجبور می کند 1 باشد. بنابراین در این مورد، ماتریس داده‌های خود را $X$ می‌گیرم، میانگین را از هر ردیف حذف می‌کنم، اما سپس هر ردیف را بر انحراف استاندارد خودش تقسیم می‌کنم، به طوری که اکنون، تمام سطرها/خروجی‌های سنسور صفر میانگین هستند. واریانس واحد _and_. سپس ماتریس کوواریانس را مانند قبل محاسبه می کنیم. البته در اینجا، ماتریس کوواریانس متفاوت به نظر خواهد رسید... پس آیا این درست است؟ **گزینه 3:** در حالی که این گزینه از نظر فنی در مورد نرمال سازی داده ها قبل از محاسبه ماتریس کوواریانس نیست، این روش (ضریب همبستگی پیرسون) به سادگی هر عنصر از ماتریس کوواریانس محاسبه شده با استفاده از (1) را برعکس وزن می کند. حاصل ضرب انحراف معیار بردارهایی که نشان می دهد. در این مورد، ماتریس همبستگی پیرسون من مقادیری بین 1- و 1 خواهد داشت. مانند (2)، این نیز تأثیر «نگرانی» به انرژی هر حسگر را دارد. * * * اکنون، من در مورد اینکه باید از کدام روش برای این برنامه استفاده کنم سردرگم هستم... آیا من به سادگی داده های حسگر خود را تحقیر می کنم و واریانس آنها را قبل از محاسبه $C$، به عنوان روش کتاب درسی، حفظ می کنم؟ آیا قبل از محاسبه $C$، _and_ همه واریانس های آنها را استاندارد می کنم، همانطور که برخی متون یادگیری ماشین انجام می دهند؟ یا به ماتریس پیرسون به عنوان گزینه (3) که نوعی نرمال سازی توسط سیگما را نیز انجام می دهد نگاه کنم؟ خیلی گیج شده :-/
نحوه عادی سازی داده ها قبل از محاسبه ماتریس کوواریانس
90484
چرا PCA یک سیگنال تغییرناپذیر ترجمه، مبنای فوریه می دهد؟ من شواهدی برای این موضوع پیدا کرده‌ام، اما دوست دارم برخی شهودها را درک کنم. هر کمکی بسیار قدردانی می شود! * * * **ویرایش:** با عرض پوزش که این سوال نامشخص بود. من آمار تصاویر طبیعی را مطالعه می‌کنم و در اینجا نمونه‌ای از نوع پاراگراف است که الهام‌بخش این سؤال است (از اینجا): > _ هنگام اعمال PCA برای سیگنال‌هایی مانند تصاویر، معمولاً فرض می‌شود که > ویژگی‌های آماری تصویر تغییرناپذیر هستند (همچنین). > شناخته شده به عنوان ثابت). به طور خاص، فرض می شود که همبستگی شدت > در دو مکان در تصویر تنها به جابجایی > بین مکان ها بستگی دارد، نه به مکان های مطلق آنها. در این مورد، > **توابع پایه سینوسی تبدیل فوریه تضمین شده است که > مجموعه معتبری از محورهای مؤلفه اصلی باشد** (اگرچه، مانند قبل، این مجموعه > لازم نیست منحصر به فرد باشد). واریانس در امتداد هر یک از این محورها به سادگی طیف توان فوریه > است. سفید کردن ممکن است با محاسبه تبدیل فوریه >، تقسیم هر جزء فرکانس بر جذر واریانس > آن، و (اختیاری) محاسبه تبدیل فوریه معکوس به دست آید. این در ادامه بیشتر مورد بحث قرار گرفته است._ [تاکید از آن من است] **من نیازی به مدرک رسمی ندارم، فقط یک شهود می‌خواهم و احساس می‌کنم دارم به آن نزدیک می‌شوم، اما دوست دارم بینش بیشتری داشته باشم.** این چیزی است که من تا کنون به دست آورده‌ام: اول: شما یک دسته از تصاویر طبیعی را از جهان می‌کشید - فقط این را بدیهی بدانید که ترجمه ثابت هستند، به این معنی که **همبستگی بین دو پیکسل فقط به فاصله بین پیکسل ها بستگی دارد، نه به موقعیت مطلق **. همچنین، برای سادگی، بیایید تصور کنیم که فقط تصاویر 1 بعدی [یعنی برش هایی از یک تصویر] دریافت می کنیم. Sidenote: در مورد 1d، این واقعیت که همبستگی فقط به فاصله بین پیکسل ها بستگی دارد، نه به موقعیت مطلق، به این معنی است که ماتریس کوواریانس این نمونه ها ساختاری مورب خواهد داشت -- کوواریانس در امتداد قطر بدیهی است که یکسان خواهد بود، اما همچنین کوواریانس در امتداد هر مورب خاموش یکسان خواهد بود [یعنی cov(x1,x2) = cov(x2,x3) = cov(x3،x4)، و غیره]. در مورد تصاویر طبیعی که در آن همبستگی به طور یکنواخت با فاصله کاهش می‌یابد، با دور شدن از مورب، تغییرات کمکی به صورت یکنواخت کاهش می‌یابد، اما می‌توانید نوعی سیگنال را تصور کنید که در آن ساختار تناوبی بیشتری وجود دارد - بقیه شهودها اینطور نیستند. بستگی به این دارد که در کدام رژیم هستیم. دوم: مبنای فوریه مبنایی است که فقط موقعیت نسبی را در نظر می گیرد نه مطلق. به طور دقیق تر، توابع ویژه عملگر ترجمه، توابع پایه فوریه هستند: $e_k(t) = \frac{1}{T} e^{i\frac{2\pi kt}{T}}$. فرض کنید شما یک عملگر ترجمه به نام $\mathcal{T}$ دارید که فقط توابع را با a ترجمه می کند. بنابراین: $$\mathcal{T} e_k(t) = e_k (t + a) = \frac{1}{T} e^{i\frac{2\pi k (t + a)}{T}} $$ $$ = \frac{1}{T} e^{i\frac{2\pi k a}{T}} e^{i\frac{2\pi k t}{T}}$$ $$ = e^{i\frac{2\pi k a}{T}} e_k(t)$$ بنابراین، با ترجمه تابع فوریه، تابع فوریه را در مقداری ثابت [مقدار ویژه آن] ضرب می کنیم. کار کردن با این موضوع به من طعمی داد که چرا مبنای فوریه برای سیگنال‌های غیرمتغیر ترجمه مفید است، اما همانطور که می‌بینید این کمی رکیک است -- اگر کسی بینش بیشتری داشته باشد، واقعاً از آن متشکرم. و یک سوال خاص آخر -- من متوجه شدم که چرا پایه های فوریه برای سیگنال ثابت مفید هستند، اما هنوز یک سوال در مورد PCA وجود دارد -- ** چرا مبنای متعارفی که حداکثر واریانس را ثبت می کند شبیه فوریه است؟**
پایه های فوریه برای سیگنال ثابت و ارتباط با PCA برای تصاویر طبیعی
69191
آیا تابع پیش بینی در رگرسیون لجستیک تابعی از حاصلضرب نقطه بردار پارامتر و بردار ویژگی بر روی یک مقدار واقعی بین صفر و یک است؟ اگر من محصولات نقطه‌ای را خارج از آن بازه دریافت کنم، به این معنی است که بردار پارامتر من بد است؟ با تشکر
محدوده تابع پیش بینی کننده در رگرسیون لجستیک چقدر است؟
64618
من سعی می کنم یک تجزیه با اثرات متقابل انجام دهم. این مقاله راه حلی برای n-factor ارائه می دهد که در آن هر عامل یک حالت باینری دارد (به بخش 2 مراجعه کنید). من با 2 فاکتور مشکل دارم که یکی حالت باینری و دیگری سه حالت دارد. به عنوان مثال: فاکتور 1 شرایط آسمان است که می تواند آفتابی یا ابری باشد فاکتور 2 نوعی بستنی است که می تواند وانیلی، شکلاتی یا توت فرنگی باشد. مورد شروع وانیل در یک روز آفتابی است. مورد پایان توت فرنگی در یک روز ابری است. من می توانم پولی که یک بستنی فروشی برای هر ترکیب فاکتور 1 و فاکتور 2 به دست می آورد را اندازه گیری کنم. به عنوان مثال، فروش شکلات در یک روز آفتابی 5.50 دلار است. من می خواهم یک تجزیه کامل با اثرات متقابل انجام دهم. فرمول چه خواهد بود؟ در حالت ایده آل، راه حل بر اساس مثالی که برای حداکثر وضوح ارائه کرده ام بیان می شود.
چگونه می توانم یک تجزیه چند حالته با اثرات متقابل انجام دهم؟
49891
اولاً، چگونه می توانیم _فصول___ زمستان، بهار، تابستان و پاییز را تعریف کنیم؟ احتمالات زیادی وجود دارد، اجازه دهید دمای متوسط ​​بیست و چهار ساعته $\bar t$ را انتخاب کنیم. سپس $t_1$ و $t_2$ را تنظیم می کنیم (معمولا $0^\circ C$ و $6^\circ C$). برخی از هواشناسان زمستان را به عنوان دوره ای تعریف می کنند که $\bar{t} < t_1$ _به طور پیوسته (پایدار)_. بنابراین تابستان دوره زمانی است که $\bar{t} > t_2$ به طور پایدار است. بین $t_1$ و $t_2$ _زمان انتقالی_ قرار می گیرد (برای اهداف من مهم نیست بهار یا پاییز). این فرضیه وجود دارد که در اروپای مرکزی (و در اکثر مناطق روسیه) _فصول انتقالی در آینده کوتاه تر و کوتاه تر خواهد شد. _ خب هواشناسی برای من علم عجیبی است پس بیایید از آمار تحلیلی استفاده کنیم! با Wolfram Mathematica می توانید اطلاعات آب و هوای زیادی را دریافت کنید. در اینجا نمونه ای از تجزیه و تحلیل است: برای مسکو 1994-95 (و دوره بزرگنمایی فوریه-ژوئن 94) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Lc2rx.png) ![تصویر را وارد کنید توضیحات اینجا](http://i.stack.imgur.com/F3Mfa.png) و این سوال اینجاست: _چگونه می توان مدت زمان فصل های انتقالی را به اندازه کافی درست پیدا کرد؟_ روزهایی که $t_1 < \bar{t} < t_2$ سبز رنگ شده است. اما مدت زمان همه روزهای سبز راه حل درستی نیست، زیرا بسیاری از آنها ذوب و یخبندان هستند، نه انتقال! بنابراین من سعی می کنم یک تعریف الگوریتمی از مدت زمان فصل های انتقالی پیدا کنم.
تجزیه و تحلیل آماری مدت زمان فصول
110189
من دو تست تشخیصی پزشکی متفاوت دارم، هر دو وضعیت یکسانی را آزمایش می کنند (نتیجه باینری). شرط مورد بحث نسبتاً مبهم تعریف شده است، بنابراین آنها همیشه موافق نیستند. بهترین راه برای تعیین کمیت درجه تطابق بین دو آزمون چیست؟
بهترین راه برای تعیین کمیت تطابق دو آزمون چیست؟
69190
من یک ماتریس نیمه قطعی مثبت (ماتریس کوواریانس) دارم. آیا جای تعجب بود که آیا توزیعی وجود دارد که بتواند پیش از تعیین کننده قرار دهد؟ چیزی در امتداد خطوط $$\exp(-k|X|)$$ توجه داشته باشید که توزیع گامای ماتریس چیزی نیست که من به دنبال آن هستم.
موارد قبلی در تعیین کننده ماتریس
46846
برای خوشه‌بندی کاربرانی که داده‌های ماتریس باینری مورد کاربر داده شده است، من قصد دارم ابتدا شباهت کاربر (Jaccard) را پیدا کنم و سپس از نظریه گراف برای جداسازی خوشه‌ها (جامعه) استفاده کنم. من باید ماتریس شباهت را به یک نمودار باینری ترسیم کنم که در آن $e_{ij}=1\; \text{iff}\; \text{sim}(u_i,u_j) > th$، یعنی اگر شباهت بین کاربران $u_i$ و $u_j$ بیشتر از آستانه $th$ باشد، یک لبه بین گره‌های $i,j$ وجود دارد. در اینجا توزیع شباهت کاربران من است: > summary(sim) Min. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.0000 0.0310 0.0910 0.1093 0.1710 0.4620 * راه بهینه برای یافتن آستانه مناسب چیست؟ * آیا حتی رویکرد درستی است؟
آستانه مناسب برای ترسیم مقدار شباهت به لبه در نمودار
90482
من k طبقه‌بندی‌کننده و n مجموعه داده دارم، و فقط یک اندازه‌گیری دقت (که در واقع میانگین سه تکرار مستقل از CV 5 برابری است، یعنی میانگین بیش از 15 مقدار دقت) برای هر ترکیب الگوریتم + مجموعه داده دارم. من دمسار 2006 و چند مقاله جدیدتر را خوانده ام. من ابتدا از آزمون فریدمن تراز شده استفاده می‌کنم و در صورتی که نتیجه قابل توجه باشد، از آزمون پس‌هک استفاده می‌کنم. مشکل این است که، به دلایل خاص، من فقط نمی‌خواهم یک روش کنترلی را با بقیه روش‌های معمول مقایسه کنم (مثلاً، مقایسه‌های k-1؛ بسیاری از موارد پس‌هک برای 1 در مقابل همه با اصلاح p-value برای k وجود دارد. -1 مقایسه) اما در عوض، من می خواهم همه مقایسه ها را در مقابل همه مقایسه ها انجام دهم. می‌دانم که می‌توانم از تست‌های Wilcoxon متعدد جفتی (آزمون رتبه علامت‌دار Wilcoxon) با مقداری تصحیح p-value (Holm، و غیره) استفاده کنم، درست مانند تابع pairwise.wilcox.test در R، که به‌طور خودکار ویلکاکسون p تنظیم‌نشده را تصحیح می‌کند. -مقادیر برای محاسبه همه مقایسه ها. اما من فکر می کنم بعد از Aligned Friedman تست های post hoc مناسب تری وجود دارد، لطفا راهنماییم کنید؟ بعلاوه، من می‌دانم که این post hoc رایج برای 1 در مقابل همه بعد از Aligned Friedman استفاده می‌شود: $z_{ij} = (R_i - R_j)/\sqrt{\frac{k(kn+1)}{6}}$ where $R_i $ و $R_j$ رتبه های میانگین فریدمن تراز شده الگوریتم های i-th (کنترل) و j-th هستند. توجه داشته باشید $z_{ij}$ = $-z_{ji}$. از آنجایی که z از یک N(0,1) پیروی می کند، مقادیر p تنظیم نشده $z_{ij}$ و $z_{ji}$ یکسان است، `pval = 2*pnorm(-abs(z))`. سوال دوم من این است: آیا استفاده از z برای انجام همه در مقابل همه درست است (برای k=4، من 6 مقایسه انجام می دهم)، به شرط اینکه هر جفت الگوریتم فقط یک بار مقایسه شود، و من تنظیم p-value را انجام دهم (از طریق به عنوان مثال Holm) از 6 pvalue تعدیل نشده با فرمول بالا محاسبه شده است؟ یا z در این post hoc به طور خاص برای 1 vs all بعد از Aligned Friedman در نظر گرفته شده است و نمی توان برای چیز دیگری استفاده کرد؟ خیلی ممنون
همه در مقابل همه پس‌هک پس از تراز فریدمن (k طبقه‌بندی‌کننده روی مجموعه داده‌های متعدد)
58058
من توزیع ارزش افراطی تعمیم یافته (GEV) را به مجموعه ای از حداکثرهای سالانه متغیر X$ تطبیق می دهم. $X$ روند خطی را نشان می دهد. وقتی GEV را روی X$ قرار دادم، فکر می‌کنم انتخاب 1 را دارم. از رگرسیون خطی برای محاسبه شیب در طول زمان استفاده کنید و شیب را حذف کنید a) $X_i = B_0 + B_1 \times Y_i + e_i;~ e \ سیم کارت N(0,σ^2)$; $Y$ یک شاخص زمانی است، به عنوان مثال، سال. ب) باقیمانده‌های $e$ از رگرسیون سری ثابت هستند، $X_s$ 2. $Y$ را به‌عنوان یک متغیر کمکی به تناسب ML من از توزیع GEV وارد کنید بنابراین تقریباً می‌توانم سری زمانی را ثابت کنم. سپس GEV را متناسب کنید، یا می‌توانم یک متغیر مشترک را به تناسب GEV خود وارد کنم و همه آن را یکباره انجام دهم. **در نهایت می‌پرسم که آیا می‌توانم از این دو روش به جای هم استفاده کنم، یا یکی مناسب‌تر است. ** برای کمی پیش‌زمینه بیشتر، به پاسخ b/c علاقه‌مندم من در واقع 70 سری مستقل $ دارم. X$ که برخی از آنها ثابت هستند و برخی دیگر ثابت نیستند. اگر می‌خواستم همه آنها را حذف کنم، _فقط برای اطمینان_، ترجیح می‌دهم از روش 1 استفاده کنم. اگر مجبور باشم از روش 2 استفاده کنم، در مورد اینکه کدام یک را ترک کرده‌ام، انتخاب بیشتری انجام می‌دهم. نمی خواهید یک پارامتر اضافی را به تناسب ML وارد کنید. این مبادله به ظاهر ناعادلانه مرا نسبت به اعتبار رویه 1 مشکوک کرد: آیا من یک پارامتر را به صورت رایگان تنظیم می کنم؟ من به پارامترهای GEV و s.e آنها برای هر سری از X$ علاقه دارم، به خصوص پارامتر شکل. من همچنین می خواهم نمودارهای سطح بازگشت در مقابل _return time_ ایجاد کنم. شکل این نمودارها توسط پارامتر شکل GEV تعیین می‌شود، اما پارامتر مکان (من فکر می‌کنم) فقط سطح بازگشت را به بالا یا پایین تغییر می‌دهد (یعنی در طول زمان بازگشت، سطح بازگشت در پارامترهای مکان و مقیاس خطی است و در پارامترهای مقیاس غیر خطی است. پارامتر شکل).
برازش GEV به سری های زمانی غیر ایستا از افراط (سوال ایستایی عمومی؟)
74684
در حال حاضر دانشجوی سال چهارم دانشگاه هستم. به عنوان بخشی از مطالعاتم، در کلاسی به نام Capstone شرکت می کنم که در آن دانش آموزان یک پروژه تحقیقاتی طراحی و اجرا می کنند. بخش مهمی از فرمول‌بندی این تحقیق، انتخاب یک روش آماری برای تجزیه و تحلیل و ارائه نتایج است. مطالعه من بر مطالعه افزایش آگاهی دانش آموزان دوره راهنمایی در مورد موضوع قلدری متمرکز است. برای انجام این کار، گروهی از دانش‌آموزان خواهیم داشت که یک پرسشنامه اولیه را می‌پرسند که دارای سؤالات چند گزینه‌ای در مورد موقعیت‌های مختلف و نوع قلدری آنها است. پس از آن آزمون، همان دانش‌آموزان کارگاهی را برگزار می‌کنند که در آن درباره قلدری بحث خواهیم کرد: انواعی که وجود دارد، نحوه تشخیص آنها و تأثیر منفی که می‌توانند داشته باشند. پس از آن کارگاه‌ها، دانش‌آموزان آزمون دیگری را خواهند گرفت که دقیقاً از همان سؤالات اول تشکیل شده است. هدف این است که با مقایسه پاسخ‌های هر دو آزمون، متوجه می‌شویم که پاسخ‌های دانش‌آموزان در آزمون دوم با شناسایی و درک بهتری از قلدری چیست. سوال من این است: از چه نوع آزمون آماری برای مرتب‌سازی و تجزیه و تحلیل داده‌هایی که به خاطر می‌آورم استفاده کنم؟
از چه روش آماری برای تجزیه و تحلیل داده های خود استفاده کنم؟
46840
من سعی می کنم تعداد کمک های مالی را که انتظار می رود در چندین مکان در سراسر کشور دریافت شود، پیش بینی/پیش بینی کنم. من دارم و می خواهم از اطلاعاتی که دارم استفاده کنم. این اطلاعات 10 سال گذشته کمک های دریافتی را تا روز دهم ماه که در آن پیش بینی انجام می شود، پوشش می دهد. هدف پیش‌بینی تعداد کمک‌های دریافتی برای باقیمانده ماه جاری است. به عنوان مثال، من در 14 می 2012 هستم. می خواهم تعداد کمک های دریافتی را از 14 می 2012 تا پایان ماه پیش بینی کنم. من می‌توانم از داده‌های ده ساله تا و شامل داده‌های 10 می 2012 استفاده کنم. از آنجایی که می‌خواهم از روش پیش‌بینی استفاده کنم، چگونه می‌توان این کار را انجام داد؟ من شماره، تاریخ و ساعت دقیق هر کمک دریافتی را دارم. این پیش بینی باید شامل آخر هفته ها باشد. لطفاً به خاطر داشته باشید که من هنوز در تلاش هستم تا به این سایت و نحوه عملکرد آن عادت کنم. من سوالات/پاسخ های موجود را جستجو کردم و نتوانستم چیزی را پیدا کنم که به من کمک کند.
چگونه می توان تعداد کمک های مالی را پیش بینی کرد؟
21637
من مجموعه ای از شمارش ها را به عنوان متغیر پاسخ دارم (از 0 تا 85). من می‌خواهم ساده‌ترین راه را برای نمودار شمارش در محور y در مقابل فرکانس آن شمارش در محور x پیدا کنم، نوع نموداری که در نمودارهای «قانون قدرت» می‌بینید. به عنوان مثال، من 2 نفر با تعداد = 100، 5 نفر با تعداد 75، ...، 20 نفر با تعداد 5 دارم. این واقعاً فقط برای تجزیه و تحلیل داده های اکتشافی است. من تقریباً می توانم با معکوس کردن ترتیب محور y یک نمودار میله ای افقی به همان چیزی برسم (اما نمی توانم بفهمم که چگونه محور y را معکوس کنم). بنابراین، هیچ ایده ای در مورد هر یک دارید؟
چگونه می توان فرکانس ها را در مقابل مقادیر در SAS (گراف سبک قدرت) رسم کرد؟