_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
89167
من سعی می کنم یک رگرسیون خطی چندگانه با تغییر دمای آب به عنوان متغیر پاسخ من و چهار متغیر عددی توضیحی (که بر تغییر دما تأثیر می گذارد) ایجاد کنم. هر متغیر عددی قبل از تغییر دما (به عنوان مثال مقدار یخ اضافه شده به آب) ثبت شد. مشکل من این است که پیشینه آماری یا R برای در نظر گرفتن خودهمبستگی را ندارم، با توجه به اینکه مشاهده قبلی احتمالاً بر روی مشاهده بعدی تأثیر می گذارد. مدل اصلی من به شرح زیر است و یک MLRM با انتخاب معکوس است (البته همبستگی خودکار در نظر گرفته نشده است): _lm(y ~ x1 + x2 + x3 + x4)_ از هر کمکی بسیار قدردانی می شود!
چگونه خودهمبستگی را در یک رگرسیون خطی چندگانه حساب کنیم؟
95120
من مقاله مخلوط های فرآیند دیریکله مدل های خطی تعمیم یافته نوشته L. A. Hannah را می خوانم. اگر می خواهم مدل زیر را شبیه سازی کنم $$\mathcal{P}\sim \text{DP}(c\mathbb{G}_0)$$ $$\theta_i|\mathcal{P}\sim\mathcal{P }$$ $$X_{i,j}|\theta_{i,x}\sim\mathcal{N}(\mu_{ij}،\sigma^2_{ij})، j=1،...d$$ $$Y_i|X_i،\theta_{i,y}\sim\mathcal{N}(\beta_{i0}+\sum^d_j=\beta_{ij}X_{ij },\sigma^2_{ij})$$ در R، چگونه می توانم $\mathcal{P}$ و $\theta_i|\mathcal{P}$ را در R دریافت کنم $$\mathcal{P}\sim\text{DP}(c\mathbb{G}_0)$$ $$\theta_i|\mathcal{P}\sim\mathcal{P}$$
شبیه سازی فرآیند دیریکله در R
69949
برای استفاده از نمرات مولفه ها/عوامل استخراج شده در تحلیل رگرسیون بیشتر، مانند رگرسیون مدل اثرات مختلط به عنوان پیش بینی کننده متغیر نتیجه یا DV. آیا هنگام استفاده از نمرات سناریوهای زیر (بسته «روانی» در R) در نتایج حاصل از تحلیل رگرسیون اختلاف وجود خواهد داشت: \- مؤلفه‌های اصلی بدون چرخش «هیچ» \- مؤلفه‌های اصلی چرخش متعامد «varimax» \ - مولفه‌های اصلی چرخش اریب «promax» \- عوامل چرخش مایل «promax» با استفاده از «ml» استخراج (حداکثر احتمال) \- عوامل چرخش اریب «promax» با استفاده از استخراج «pa» (محورهای اصلی)؟ آیا استفاده از هر یک از نمرات بالا در تحلیل رگرسیون بیشتر نامعتبر است؟ آیا مسائل شناخته شده در این زمینه وجود دارد؟ یا تجربیات مشابه قبلی؟
آیا چرخش اجزا/عوامل استخراج‌شده پس از PCA/EFA بر نتایج تحلیل رگرسیون بعدی تأثیر می‌گذارد؟
96362
من سعی می کنم برخی از داده ها را با هم مقایسه کنم و ببینم آیا ارزش Pinteraction قابل توجهی بین آنها وجود دارد یا خیر. داده ها بسیار کج هستند و بنابراین من می خواهم از یک تبدیل استفاده کنم. تبدیل لاگ منجر به باقیمانده های بسیار غیر عادی می شود، بنابراین من به دنبال تبدیل مناسب تری هستم، اگر وجود داشته باشد. من به تبدیل Box-Cox رسیدم، و سعی می‌کنم ببینم که آیا کار می‌کند یا خیر. با این حال، برای هر مجموعه داده من یک لامبدا منحصر به فرد دارم، و بنابراین یک معادله متفاوت از شکل Box-Cox با استفاده از اولی، زیرا مقدار لامبدا من در همه موارد صفر نیست. بنابراین سوال من این است که آیا می توانم دو مجموعه داده تبدیل شده با مقادیر مختلف لامبدا را به صورت آماری مقایسه کنم یا راهی برای یافتن مقدار لامبدا وجود دارد که حداکثر احتمال برای هر دو مجموعه داده باشد. یا اگر اشتباه وحشتناکی مرتکب شده ام. متشکرم! ~~~~~ من اینطوری مقدار لامبدا را پیدا کردم، فقط برای اینکه مطمئن شوم اشتباه نکرده ام. مجموعه داده Data1 و Data2 را فرض کنید، که در آن Data1 متغیر پاسخ است. library('MASS') #رگرسیون اولیه برای دریافت شی رگرسیون LM <- lm(Data1 ~ Data2) LM.b <- boxcox(LM) #x = مقادیر لامبدا، y = مقادیر احتمال lam <- LM.b$x lik <- LM.b$y lam.lik <- cbind(lam,lik) #مرتب‌سازی بر اساس احتمال برای بدست آوردن حداکثر احتمال لامبدا lam.lik.sort <- lam.lik[order(-lik),] LAM <- lam.lik.sort[1,1] #انجام رگرسیون روی مقادیر تبدیل شده Data1.trans <- ((Data1^LAM) - 1 )/LAM LM.trans <- lm(Data1.trans ~ Data2) shapiro.test(LM.trans$residuals) از وقتی که در اختیار ما گذاشتید متشکریم!
مقایسه داده های تبدیل شده باکس-کاکس با لامبداهای مختلف.
52270
می خواستم بدانم چه روابط و تفاوت هایی بین تجزیه و تحلیل سری زمانی و پردازش سیگنال آماری وجود دارد؟ من توصیه هایی از کتاب های سری زمانی پیدا کردم، از جمله کتاب هایی در پردازش سیگنال آماری. اما من مطمئن نیستم که این دو حوزه چگونه به هم مرتبط هستند و تفاوت دارند؟ با تشکر و احترام!
روابط و تفاوت بین تجزیه و تحلیل سری زمانی و پردازش سیگنال آماری؟
82850
من یک لباس قبلی با مقادیر معین $a$ و $b$ دارم (نه یکنواخت استاندارد). چگونه می توانم این توزیع را به روز کنم تا نتایج حاصل از داده های خود را در نظر بگیرم؟ اگر $U(1,1)$ بود، می‌توانستم آن را به توزیع بتا تبدیل کنم، اما از آنجایی که اینطور نیست، مطمئن نیستم چگونه به این موضوع نزدیک شوم.
به روز رسانی یکنواخت
94215
من سعی می کنم یک مدل بازار سهام بر اساس متغیرهای بنیادی برای اقتصاد ایالات متحده ایجاد کنم. من از R استفاده می کنم. برخی از متغیرهایی که به دنبال آن هستم عبارتند از: تولید ناخالص داخلی، نرخ بیکاری، مطالبات اولیه و غیره... با توجه به اینکه برخی از این شاخص ها بازه زمانی متفاوتی از هفتگی تا سه ماهه دارند، آیا به دلیل NA پیام های خطا دریافت می کنم. اگر مدل های مختلف را امتحان کنم ارزش دارد؟ در زیر خروجی df من ایجاد شده است که تمام مقادیر NA را نشان می دهد. Var1 Var2 Var3 Var4 2013-12-08 NA NA 358000 NA 2013-12-15 NA NA 368000 NA 2013-12-22 NA NA 339000 NA 2013-12-29 NA 401-12-29 NA 401-401 6.6 144 NA 317602 2014-01-05 NA NA 333000 NA 2014-01-12 NA NA 329000 NA 2014-01-19 NA NA 334000 NA 2014-NA 2014-NA-01 2014-02-01 6.7 197 NA 317760 2014-02-02 NA NA 328000 NA 2014-02-09 NA NA 343000 NA 2014-02-16 NA NA 3302-02-02 NA NA 33000 351000 NA 2014-03-01 6.7 192 NA 317920 2014-03-02 NA NA 325000 NA 2014-03-09 NA NA 319000 NA 2014-03-03 NA 2014-03-03 NA 2014-03-23 ​​NA NA 310000 NA 2014-03-30 NA NA 326000 NA آیا مدلی وجود دارد که بتواند با تمام بازه های زمانی مختلف (روزانه، هفتگی، ماهانه) مقابله کند؟ یا باید سعی کنم بازه های زمانی را در بالاترین مرتبه (یعنی ماهانه) ادغام کنم؟ هر گونه بینش یا کمک بسیار قدردانی خواهد شد. * این اولین سوال من در این تبادل است.
پرداختن به داده های سری زمانی مختلف در یادگیری ماشینی
89161
داده های دو متغیره متشکل از متغیرهای همبسته را در نظر بگیرید (r ~ 0.9). مشخص است که هر دو متغیر چگونه محاسبه می شوند. هر مشاهده به طور یکسان توزیع شده است اما **غیر مستقل**. همچنین، مجموعه داده از نظر ماهیت نسبتاً اریب است. با توجه به این اطلاعات، من علاقه مند به جداسازی مشاهداتی هستم که دارای انحراف زیاد از میانگین شرطی متغیر وابسته _با توجه به مقدار متغیر مستقل هستند. از آنجایی که اکثر مفروضات آماری در این مورد شکست می خورند (عدم استقلال، چولگی)، راه خوبی برای انجام این کار چیست؟ در اینجا نگاهی اجمالی به داده ها وجود دارد: مستقل وابسته 34903602883 8.39206E+13 34455688425 6.36408E+12 34030939061 7.84165E+13 298434257+13298434252. 29229730881 5.33052E+13 23079743414 2.2329E+13 1158.2 133519.05 1020.63 5607390.48 1006.88 1106.88 0 1193238. 3661218.52 برخی از نمودارهای داده های تبدیل نشده و تبدیل نشده به ترتیب: ![نقشه 50](http://i.stack.imgur.com/p7SwF.png) ![log plot](http://i.stack.imgur .com/BZuR8.png) فرض کنید واریانس شرطی به عنوان تابعی از متغیر مستقل متفاوت است. چگونه می توانم مشاهدات موجود در نمونه داده های خود را نزدیک به لبه ها پیدا کنم، شاید امتیازی بر اساس فاصله از آن لبه ها باشد؟ میانگین و واریانس شرطی به ترتیب میانگین و واریانس توزیع احتمال متغیر وابسته (محور y) با توجه به مقدار متغیر مستقل هستند. به روز رسانی: با تشکر از نظرات، رویکرد اولیه من در اینجا است: 1. مدل سازی میانگین شرطی با استفاده از روش های ناپارامتریک (به عنوان مثال، یک برآوردگر خطی محلی) روی داده های تبدیل شده با log. 2. مجذور باقیمانده ها را از میانگین شرطی محاسبه کنید {e(i) = Y(i) - m(X(i))} 3. مدل واریانس شرطی مجذور باقیمانده ها، دوباره با استفاده از برخی روش های ناپارامتریک. 4. باقیمانده های به دست آمده از (2) را با استفاده از مدل واریانس شرطی به دست آمده مورد مطالعه قرار دهید. مجدداً تأکید می‌کنم که وجود دگرگونی و عدم استقلال این مشکل را نه چندان پیش پاافتاده می‌کند، که باعث شد من به دگرگونی‌ها متوسل شوم (اگرچه ناهمگونی همچنان حاکم است)، ناگفته نماند که این رویکرد ظاهراً کاملاً موقتی است. . همچنین، استفاده از روش‌های ناپارامتریک باید به داده‌های نسبتاً بیشتری نیاز داشته باشد (در مورد من حدود 800 مشاهده وجود دارد). در اینجا نموداری از باقیمانده های دانشجویی در مقابل میانگین های شرطی در گزارش ها آمده است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/CiyEp.png) اگرچه این نتایج خوب به نظر می رسند، من هنوز تا حدودی هستم در مورد تمرینم شک دارم آیا راهی برای تقویت این موضوع وجود دارد؟ یا شاید از روش های قوی تری استفاده کنید؟
شناسایی مشاهدات روی لبه ها در داده های ناهمسان
49020
من سعی می کنم نسبت های نرخ بروز (IRR) را با هم مقایسه کنم. این همان چیزی است که من دارم: گروه A (در معرض در معرض در مقابل عدم مواجهه) IRR و گروه B (در معرض در معرض در مقابل قرار نگرفته) IRR بنابراین چگونه می توانم به درستی تفاوت بین IRR از گروه A و IRR از گروه B را آزمایش کنم؟ سوالی که من می خواهم به آن پاسخ دهم این است که آیا تفاوت های افزایشی مشاهده شده در گروه A مشابه تفاوت های مشاهده شده در گروه B است؟ لطفا کمک کنید!
مقایسه نسبت های نرخ بروز
69368
ما آزمایشی را انجام دادیم که در آن سه تکنیک تعامل را برای یک کار اتصال سه بعدی مقایسه کردیم. بنابراین ما دو عامل داشتیم: نوع تکنیک فوق الذکر و عاملی که نشان دهنده ترجمه جهت است (به عنوان مثال: اگر شرکت کنندگان مجبور بودند شیئی را که نزدیک به دیدگاه آنها به نظر می رسد حرکت دهند و آن را در عمق حرکت دهند یا برعکس). هر آزمایش 5 بار تکرار شد. برخی از آن آزمایش‌ها به دلیل دشواری نادیده گرفته شدند. اگر من یک آنووا با اندازه گیری های مکرر معمولی اجرا کنم، هر شرکت کننده که حتی یک مقدار از دست رفته را از تجزیه و تحلیل حذف می کند. این بدان معناست که من باید بیش از نیمی از شرکت کنندگان را حذف کنم. با مطالعه اطراف به نظر می رسد می توانم به جای آن از یک مدل ترکیبی خطی استفاده کنم. شک من این است که آیا می توانم از یک مدل ترکیبی برای این نوع شرایط استفاده کنم؟ من در مورد اینکه آیا مدل‌های ترکیبی تنها زمانی مرتبط هستند که شما یک فاکتور بین آزمودنی‌ها مانند گروه‌های درمان/کنترل کلاسیک داشته باشید. در مورد من، هر شرکت کننده تحت شرایط یکسانی قرار داشت. هیچ فاکتور بین آزمودنی وجود نداشت. من تجزیه و تحلیل مدل ترکیبی را با استفاده از تکنیک، جهت و تکرار به عنوان _تکرار_، شناسه هر شرکت کننده به عنوان _موضوع_ و تکنیک و جهت به عنوان عوامل ثابت اجرا کردم. آیا فرضیات من درست است یا اشتباه وحشتناکی انجام دادم؟ اگر چنین است، چه جایگزین هایی برای مواجهه با مقادیر از دست رفته دارم؟ با تشکر
مدل مختلط خطی برای تجزیه و تحلیل اندازه گیری های مکرر با مقادیر گمشده
46038
من اغلب با مثال زیر مواجه می شوم: تعداد زیادی ژن (به ترتیب صدها هزار)، چند صد نمونه طبقه بندی شده در گروه های متعدد. و آن گروه ها همپوشانی دارند (یعنی سالم / بیمار + جوان / پیر یا چیزی مشابه). وظیفه - من باید یک آزمون فرضیه برای تفاوت در میانگین برای هر یک از ژن ها اجرا کنم. بنابراین من معمولاً آزمون t را با اصلاح مقایسه چندگانه مقادیر p انجام می دهم. اما حالا اگر این کار را بکنم - چند گروه را مخلوط می کنم. در حالت ایده‌آل، باید آزمون t را برای همه ترکیب‌های مختلف دو گروه (جوانان سالم در مقابل جوانان بیمار؛ سالمندان سالم در مقابل پیران بیمار) اجرا کنم. اما این حجم نمونه پایین من را حتی بیشتر کاهش می دهد. بنابراین من کنجکاو برای پیشنهادات هستم - راه معمولی برای نزدیک شدن به این وضعیت چیست؟ ANOVA هر ترکیبی از گروه ها را به عنوان گروه جداگانه در نظر می گیرد؟
آزمون فرضیه بر روی داده ها با گروه های همپوشانی
69369
من دو جدول فراوانی دارم، یکی نشان دهنده داده های مشاهده شده و دیگری نشان دهنده داده های مدل شده. من به دنبال یک معیار خوب تناسب هستم، بررسی می کنم که آیا داده های مدل با داده های مشاهده شده مطابقت دارند یا خیر. مشکل این است که تعداد من نسبتاً کوچک است (اکثر آنها کوچکتر از 5 هستند) و بنابراین Pearson Goodness of Fit روی این مجموعه داده ها عمل نمی کند (من از R استفاده می کنم). R موارد زیر را گزارش می کند: X-squared = Inf، df = 534، p-value < 2.2e-16 آیا باید از معیار دیگری برای Goodness of Fit استفاده کنم؟ پیشنهادی دارید؟ **ویرایش** (ارائه برخی اطلاعات بیشتر): _model_ حاوی فرکانس هایی از موضوعات است که با اسناد خوانده شده توسط کاربران در ماه گذشته مرتبط است. _داده های مشاهده شده_ حاوی «موضوعاتی» است که با «اسناد» خوانده شده توسط کاربران در روز گذشته مرتبط است. (اگر اسناد سی دی های موسیقی هستند، برای مثال موضوع ژانرهای موسیقی هستند) من سعی می کنم بفهمم آیا مدل (داده ها در طول زمان) با داده های مشاهده شده مطابقت دارد (داده های روز گذشته). اگر مدل با داده های مشاهده شده مطابقت داشته باشد، باید به این معنی باشد که کاربران در همان «موضوعات» باقی می مانند (به گوش دادن به همان ژانرهای موسیقی ادامه دهند).
خوبی برازش با استفاده از جداول فراوانی با تعداد کم
82852
اگر من یک دسته 130 قطعه ای داشته باشم و نمونه تصادفی 14 قسمتی را بررسی کنم، یا آن قطعه را بپذیرم یا رد کنم، و درصد نقص نمونه را محاسبه کنم، چقدر می توانم مطمئن باشم که درصد نقص در نمونه نشان دهنده درصد نقص است. در دسته؟ دلیل اینکه من باید بدانم این است: ما فرآیندی با قابلیت بسیار ضعیف داریم - معمولاً حدود 20٪ معیوب است. ما می‌خواهیم به محض اینکه مجموعه‌ای از 130 قطعه انجام شد، نمونه‌ای را برداریم و بتوانیم بازده را با مقداری اطمینان پیش‌بینی کنیم، بنابراین اگر کمتر از 20 درصد معیوب از دسته ما انتظار می‌رود، بتوانیم با ادامه کار واکنش نشان دهیم. فاصله اطمینان یا خاموش شدن در صورت نقص بیش از 20٪ بر اساس نمونه انتظار می رود. از من پرسیده می شود که چقدر مطمئن هستم که بازده نمونه نشان دهنده بازده نهایی دسته ای است. P.S. من آمارگیر نیستم، اما ریاضیات مهندسی زیادی خوانده ام.
اعتبار تخمین نسبت از نمونه محدود
104925
بابت ارسال تقریباً یک سوال در روز عذرخواهی می کنم. من سعی می کنم برخی از جنبه های یادگیری ماشین آماری را بیاموزم، بنابراین هر روز سؤالات زیادی پیش می آید و اگر در انجمن همتایان آفلاین خود پاسخی پیدا نمی کنم، سعی می کنم از شما بپرسم. آنقدر خوب جواب می دهید که افرادی مثل من را تشویق می کند که بپرسند. سعی کردم مدل Naive Bayes را دور بزنم. به نظر می رسد از طبقه بندی چند کلاسه پشتیبانی می کند. اکنون برخی از طبقه بندی کننده های باینری نیز مانند رگرسیون لجستیک وجود دارد. داشتم به این فکر می‌کردم که تفاوت تخمین بین طبقه‌بندی باینری و طبقه‌بندی چند طبقه چگونه خواهد بود (نه لجستیک چند جمله‌ای یا چند برچسبی). اگر یکی از اعضای محترم گروه ممکن است خواهش من را ببخشد. پیشاپیش از شما متشکرم، با احترام، سابهابراتا بانرجی.
تفاوت بین طبقه بندی باینری و طبقه بندی چند کلاسه چیست؟
51898
در پاسخ به سؤالی در مورد فاصله اطمینان برای نسبت دوجمله ای به این واقعیت اشاره کردم که تقریب نرمال یک روش غیرقابل اعتماد است که قدیمی است. این نباید به عنوان یک روش تدریس شود، اگرچه ممکن است این بحث وجود داشته باشد که به عنوان بخشی از یک درس در مورد اینکه چه چیزی یک روش مناسب را می سازد، گنجانده شود. سایر رویکردهای آماری «استاندارد» که تاریخ استفاده از آنها گذشته است و باید از نسخه‌های بعدی کتاب‌های درسی حذف شوند (در نتیجه فضا برای ایده‌های مفید ایجاد می‌شود) کدامند؟
چه روش های آماری قدیمی هستند و باید از کتاب های درسی حذف شوند؟
99276
من پیشینه آماری قوی ندارم، و سعی می کنم بهترین راه را برای تعیین اینکه آیا با استفاده از Minitab بین دو متغیر $x$ و $y$ همبستگی وجود دارد یا خیر، پیدا کنم. من برای هر یک از 8 موضوع مختلف اندازه‌گیری‌ها را برای هر دو متغیر تکرار کرده‌ام، اما برای هر موضوع معین، $n$ برای متغیر $x$ با $n$ برای متغیر $y$ متفاوت است. به طور مشابه در بین موضوعات، $n$ برای $x_i$ با $n$ برای $x_j$، و $n$ برای $y_i$ با n برای $y_j$ متفاوت است. فکر می‌کنم فقط می‌توانم میانگین‌های هر $x_i$ و $y_i$ را جداگانه محاسبه کنم و با استفاده از آن‌ها یک رگرسیون انجام دهم، اما به نظر می‌رسد که این بسیار ساده‌سازی خواهد بود و ممکن است من را به یک نتیجه‌گیری نامعتبر برساند. آیا مسیر بهتری وجود دارد که باید به سمت پایین حرکت کنم؟
رگرسیون با اقدامات مکرر در minitab
69360
آیا در رگرسیون خطی دو متغیره رابطه مستقیمی بین حجم نمونه $n$، ضریب تعیین $r^2$ و $\sigma_\beta$ (خطای استاندارد ضریب $\beta$) وجود دارد؟ فرض کنید داده ها عادی شده اند، بنابراین هر دو متغیر هدف و پیش بینی $\sigma=1$ هستند. سوال را به گونه‌ای دیگر مطرح کنیم، آیا $\sigma_\beta$ چیزی متفاوت از $r^2$ به من می‌گوید یا آنها معیارهای یکسانی هستند؟ یا، آیا ممکن است بین دو متغیر ($\beta$ بزرگ، $\sigma_\beta$ کوچک، اما $r^2$ کوچک) یک پیوند قوی، مطمئن اما غیر قابل اعتماد وجود داشته باشد؟ (در رگرسیون چندگانه این مورد صدق نمی‌کند، زیرا حتی با $r^2$ بالا، $\sigma_\beta$ می‌تواند عدم قطعیت را نشان دهد که کدام یک از پیش‌بینی‌کننده‌های متعدد باعث پاسخ می‌شود). **ویرایش** این را از نرم افزار من دریافت کردم (بدون داده های استاندارد شده): ضریب رگرسیون 0.023 stderr از ضریب 0.0046 p=0.000002 n=131 مضاعف r2=0.17 تنظیم شده r2=0.16 پیش بینی std=22.5 ضریب استاندارد شده هدف std=2.2 است احتمالا 0.023*22.5/2.24 = 0.23 دلار. اگر ضریب استاندارد شده با همبستگی یکسان باشد، آنگاه $r^2 = 0.23^2 = 0.053$ ... با نرم افزار یکسان نیست. من چه غلطی می کنم؟
آیا در رگرسیون خطی دو متغیره رابطه مستقیمی بین $n$، $r^2$ و خطای ضریب وجود دارد؟
60364
من در یافتن مقایسه بین روش های ناپارامتریک و پارامتری، به ویژه برای کار تخمین چگالی (مانند GMM در مقابل استفاده از فرآیندهای دیریکله) مشکل دارم. بیشتر از قابلیت tractability یا زمان اجرا، من به عملکرد آماری آنها در مجموعه داده های عمومی علاقه مند هستم. آیا مطالعات یا مقالات شناخته شده ای در این زمینه وجود دارد؟
ارزیابی روش های پارامتریک در مقابل ناپارامتریک
46037
من در حال ساختن یک طبقه بندی کننده ساده بیز برای یک طبقه بندی باینری هستم. در حال حاضر من یک برآوردگر برای توزیع های برنولی و توزیع های واقعی (با استفاده از توزیع مخلوط هسته) دارم. من می‌توانم توزیع‌هایم را به خوبی بسازم و فایل‌های PDF را از توزیع و نمونه‌هایم بگیرم. اما وقتی احتمالات را با هم ترکیب می کنم، احتمالات برنولی من به سادگی بر تمام شواهد دیگر غلبه می کند. حتی برای مجموعه داده‌هایی که من می‌دانم شانس آن‌ها برای عضویت در یک کلاس صفر است، در نهایت احتمالاتی در محدوده 90-99٪ دارند. فکر می کنم دارم ساده لوح می شوم (ها!) آیا چیزی را از دست داده ام؟ ویرایش: این یک نظر کمی طولانی است، بنابراین من آن را به سوال خود پیوست کردم. داده‌های من مانند یک مشکل سوزن در انبار کاه به نظر می‌رسد - تعداد بسیار کمی در کلاس True من (حدود 3-5٪)، بیشتر در کلاس false. بنابراین احتمال کاذب من دیوار آتش است که خوب است. اما کلاس True من هم بیش از حد تخمین زده می شود که بد است. من موافقم که NBC احتمالات wrt دقیقی ندارد - فقط طبقه بندی کلی. وقتی شروع به اضافه کردن مقادیر بولی خود می کنم این نتایج شدید را دریافت می کنم. چیزی که من را آزار می دهد. شاید من درک درستی از نحوه اجرای این را از دست داده ام. برای ایده دادن به مجموعه آموزشی خود، 20000 نمونه آموزشی، 10،000 در کلاس واقعی، 10،000 در کلاس غلط دارم. من حدود 400 هزار ردیف پیش بینی می کنم. اگر از یک تخمین ساده probtrue > probfalse استفاده کنم، 126 از 400K را به عنوان در کلاس واقعی دریافت می کنم (مقدار واقعی کمی بیشتر از 10000 است). اگر به سادگی از 0.99 probtrue کنیم، به حدود 84K کاهش می یابد. یک پیشرفت، اما هنوز آن چیزی نیست که انتظار داشتم. اگر بتوانم این مجموعه را به 40K کاهش دهم، به وجد خواهم آمد. FYI: من قبلاً از موتور پیش بینی Prior Knowledge استفاده می کردم که با استفاده از آن توانستم به دقت معقولی برسم. سپس آنها توسط Salesforce خریداری شدند و مدیرعامل خود را مدیر تجزیه و تحلیل پیش بینی کردند.
برای ساختن یک طبقه بندی کننده ساده بیزی باید در مورد توزیع های برنولی بدانم؟
99275
من اندازه گیری (غیر دقیق) N نقطه را دارم. من همچنین به مقدار واقعی M <N چنین نقاطی دسترسی دارم. فرض کنید خطای اندازه گیری به طور معمول توزیع شده است. بر اساس این دانش، احتمالاً می‌توانم میانگین (error_mean) و SD (error_sd) خطای اندازه‌گیری را بر اساس نقاط M که هم مقدار واقعی و هم اندازه‌گیری را دارم محاسبه کنم. با این حال من مطمئن نیستم که چگونه این کار را انجام دهم. در زیر ببینید دقیقا به چه چیزی نیاز دارم. هدف من این است: با توجه به یکی از نقاط N-M که برای آن به مقدار واقعی دسترسی ندارم، می خواهم یک فاصله اطمینان 95% برای چنین مقداری ارائه دهم. من فکر می‌کنم فاصله اطمینان باید حدودی باشد: CI_lower_end = اندازه‌گیری -error_mean -2*error_sd CI_upper_end = اندازه‌گیری -error_mean +2*error_sd اما من گمان می‌کنم که error_mean و error_sd صرفاً میانگین و SD مقادیر M نیستند که از انجام اندازه گیری - مقدار_ true از M نقاط بالا. به طور خاص، اگر M مانند 2 کم باشد، error_sd احتمالاً با چنین رویکرد ساده لوحی دست کم گرفته می شود. آیا می توانید به من بگویید چگونه فاصله اطمینان ذکر شده در بالا را محاسبه کنم؟ متشکرم.
فاصله اطمینان برای مقدار اندازه گیری شده با خطا
65629
چند وقت پیش این مقاله کوتاه عالی را در مورد رابطه بین «همبستگی»، «استقلال» و «متعامد» خواندم. به طور خلاصه، دو بردار می توانند ناهمبسته باشند، آنها می توانند متعامد باشند، می توانند هر دو باشند، یا نمی توانند هیچ کدام باشند. من متوجه شده‌ام که در کتاب‌های درسی رگرسیون متفاوت، نویسندگان الزامات مختلفی را برای اطمینان از اینکه مقادیر ضرایب تحت تأثیر درج متغیرهای مستقل اضافی قرار نمی‌گیرند، بیان می‌کنند. به عنوان مثال، در کتاب درسی _مقدمه ای بر اقتصادسنجی_ توسط Stock & Watson، نویسندگان بیان می کنند که اگر متغیرهای رگرسیون با یکدیگر همبستگی نداشته باشند، تخمین ضرایب آنها نسبت به گنجاندن متغیرهای مستقل اضافی ثابت خواهد بود. نویسنده در کتاب مقدمه ای بر تحلیل رگرسیون خطی نوشته مونتگومری می گوید که متغیرهای رگرسیون باید متعامد با یکدیگر باشند تا اطمینان حاصل شود که تخمین های ضرایب آنها تحت تأثیر یکدیگر قرار نمی گیرند. استادی که کلاسی را که از کتاب دوم استفاده می‌کرد تدریس می‌کرد، می‌گوید وقتی کتاب تعامد را ضروری توصیف می‌کرد، به نسخه‌های متمرکز متغیرهای رگرسیون اشاره می‌کرد. اگر این درست باشد، در واقع این متغیرهای _ناهمبسته_ هستند که دارای تخمین ضرایب ثابت هستند - حداقل در رابطه با گنجاندن متغیرهای اضافی، همانطور که کتاب اول نشان می دهد. هنگام مطالعه طراحی آزمایش‌ها، فرد می‌آموزد که ماتریس‌های طراحی به‌طور خاص به‌گونه‌ای ایجاد می‌شوند که تخمین‌های ضرایب مرتبط با یک متغیر رگرسیون نسبت به سایر متغیرهای مورد استفاده در تجزیه و تحلیل تغییری ندارند. جالب توجه است، هرچند، این ماتریس‌های طراحی نه تنها از عدم همبستگی IVها اطمینان می‌دهند (که تمام چیزی که برای دستیابی به نتیجه لازم است)، بلکه متعامد بودن را نیز تضمین می‌کنند. ** سوال من این است: آیا هدف بزرگتری برای اطمینان از متعامد بودن علاوه بر ناهمبستگی وجود دارد؟ و/یا اطمینان از «ناهمبستگی» بدون اطمینان از تعامد بسیار دشوار است؟**
ماتریس های طراحی DOE و متعامد
60369
وقتی داده‌ها را برای تحلیل متا شبکه بیزی با استفاده از مدل منتشر شده در Woods B.S، Hawkins N et al - فراتحلیل شبکه در مقیاس لگاریتم خطر، ترکیب آمار شمارش و نسبت خطر برای آزمایش‌های چند بازویی، آماده می‌کنم. یک آموزش (2010)، من باید سیستمی از معادلات همزمان (معمولاً بی اهمیت) را حل کنم که ممکن است بیش از حد مشخص شوند، مانند شکل زیر: $ \left\\{ \begin{array}{ll} \text{hr} _1 = 0 \\\ \text{hr}_2 - \text{hr}_1 & = \text{HR}_{2,\,1}\\\ \text{hr}_3 - \text{hr}_1 & = \text{HR}_{3,\,1}\\\ \text{hr}_3 - \text{hr}_2 & = \text{HR }_{3,\,2} \end{array} \right. $ که در آن $\text{HR}_{i,\,j}$ یک نرخ خطر منتشر شده است، و $\text{hr}_k$ خطر تجمعی پنهانی است که می‌خواهم آن را تخمین بزنم. کاری که مردم معمولا انجام می دهند، نادیده گرفتن معادلات تصادفی از مجموعه بالا و حل بقیه به صورت جبری است. اما من فکر می‌کنم که راه‌حل بهتر این است که به‌طور سیستماتیک (نه تصادفی) همه مجموعه‌های معادلات بریده‌شده متمایز و قابل حل جبری و از میانگین همه نتایج را تولید کنیم. البته قابل انجام است و من می توانم آن را به عنوان مثال برنامه ریزی کنم. R. (من باید همه جایگشت های ممکن برای برش این معادله را بگیرم، تصمیم بگیرم که کدام قابل حل است، آنها را حل کنم و نتایج را میانگین بگیرم). در انبوهی از بسته هایی که قبلاً در R وجود دارد، شاید کسی قبلاً توابعی را منتشر کرده باشد که من ممکن است برای این منظور از آنها استفاده کنم؟ مشکل این است که من نمی دانم چگونه آنها را پیدا کنم. شاید حداقل بتوانید به خلاقیت من کمک کنید و با عبارت جستجویی که می توانستم در گوگل قرار دهم به من کمک کنید؟
نحوه تقریبی حل معادلات خطی بدون جواب
99274
من یک رگرسیون لجستیک را با متغیرهای مستقل 24 دلار و مشاهدات 123996 دلاری انجام می دهم. من تناسب مدل را ارزیابی می‌کنم تا مشخص کنم آیا داده‌ها با مفروضات مدل مطابقت دارند و با استفاده از بسته «arm» «R» نمودار باقیمانده زیر را تولید کرده‌اند: ![توضیح تصویر را اینجا وارد کنید](http://i.stack .imgur.com/cS39X.png) بدیهی است که برخی از نشانه های بد در این طرح وجود دارد: بسیاری از نقاط خارج از باند اطمینان قرار می گیرند و یک الگوی متمایز برای این طرح وجود دارد. باقی مانده ها سوال من این است - آیا می توانم این مسائل را به مفروضات خاصی از مدل رگرسیون لجستیک متصل کنم؟ به عنوان مثال، آیا می توانم بگویم که شواهدی مبنی بر غیرخطی بودن متغیرهای مستقل یا ناهمسانی وجود دارد؟ اگر نه، آیا تشخیص های دیگری وجود دارد که بتوانم به شناسایی مشکل در کجا کمک کنم؟ * * * بر اساس پاسخ دانیل، به نظر می رسد که مسئله اصلی این است که من از باقیمانده ها در مقیاس لاجیت استفاده می کردم اما از مقادیر مورد انتظار در مقیاس پاسخ استفاده می کردم. اگر طرح را با باقیمانده ها نیز در مقیاس پاسخ بازتولید کنم، به نظر می رسد: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/rgyyD.png) که بسیار باورپذیرتر است.
تفسیر یک نمودار باقیمانده در رگرسیون لجستیک
60363
یک سوال بیان می کند: میانگین تغییر در تعداد مگس گیرهای کشته شده را زمانی که اشغال جعبه لانه 10 درصد افزایش می یابد، تخمین بزنید. شیب این رگرسیون 0.10766X است. از این رو، پاسخ می گوید، 0.10766 (10) = تغییر میانگین را در نظر بگیرید. سوال من این است: دلیل اینکه آنها 10 را وارد می کنند این نیست که 10٪ تغییر کرده است، درست است؟ من نمی توانم توضیح دیگری پیدا کنم، اما مطمئن هستم که این دلیل نمی تواند باشد. وقتی مطمئن شدم می‌توانم احتمالات دیگر را ارزیابی کنم.
تخمین تغییر در میانگین (مثال رگرسیون خطی)
46031
من در حال خواندن مقاله معرفی کمند گرافیکی هستم، که راهی برای تخمین ماتریس کوواریانس معکوس پراکنده است. http://www-stat.stanford.edu/~tibs/ftp/graph.pdf یافتن یک ماتریس کوواریانس معکوس پراکنده می تواند مفید باشد زیرا 0 در معکوس ماتریس کوواریانس نشان می دهد که دو متغیر مستقل هستند. در این مقاله ذکر شده است که مربوط به حل حداقل مربعات است زیرا $$B = (X^T X)^{-1} X^T Y$$. در این راه حل $(X^TX)^{-1}$ را می توان به عنوان ماتریس کوواریانس معکوس در نظر گرفت. من در مورد دو چیز کنجکاو هستم: 1) بگویید من داده هایی دارم که در آنها گمان می کنم که متغیرهای $X$ مستقل از برخی متغیرهای دیگر در $X$ هستند. شاید محاسبه ماتریس کوواریانس تجربی $X$ آن ایده را منعکس نکند، بنابراین در عوض سعی می کنم با استفاده از کمند گرافیکی یک ماتریس کوواریانس معکوس پراکنده پیدا کنم. اکنون، من یک متغیر پاسخ $Y$ را معرفی می کنم و می خواهم یک رابطه خطی را مدل کنم که این ایده را در نظر می گیرد که برخی از متغیرها در $X$ کاملا مستقل از سایر متغیرهای در $X$ هستند. آیا این بدان معناست که من می توانم با گرفتن ماتریس پاسخ $Y$ و یک ماتریس طراحی $X$، و محاسبه ماتریس کوواریانس معکوس پراکنده $X$ (این $W$ را صدا کنید) یک مسئله حداقل مربعات گرافیکی را حل کنم و سپس در آن ضرب کنم محصول متقاطع $X^T Y$، یعنی $$B = W X^T Y$$؟ هنگام محاسبه محصول متقاطع $X^T Y$، آیا باید همچنان از ماتریس طراحی اصلی $X$ استفاده کنم یا اینکه اکنون باید تابعی از $W$ باشد؟ 2) من در مورد موردی که پاسخ یک تاپلی باشد کنجکاو هستم، شاید پاسخ $Y$ یک ماتریس سه ستونی باشد. فرض کنید من می‌خواهم یک مدل خطی را برای $Y$ با ماتریس طراحی $X$ دوباره اندازه‌گیری کنم، اما این بار فقط می‌خواهم ضرایب رگرسیون پراکنده باشد و ما را به مسئله کمند استاندارد برگرداند. من می‌توانم روی هر ستون $Y$ تکرار کنم (اینها را $j_1، j_2، j_3$ صدا کنید)، و یک کمند با $j_i$ و $X$ اجرا کنم که 3 بردار ضریب به دست می‌دهد که هر بردار پراکندگی دارد. شاید در عوض من بخواهم یک ماتریس ضریب کامل را تخمین بزنم، که در آن ماتریس به عنوان یک کل پراکنده است اما هر ستون به طور جداگانه نیازی به پراکندگی ندارد. مقاله این را دارد که بگوید: (آیا این به این معنی است که حل یک ماتریس B پراکنده با استفاده از کمند گرافیکی مناسب‌تر است؟) > Blockquote یک راه ساده و از نظر مفهومی جذاب برای مشاهده این روش وجود دارد. با توجه به یک ماتریس داده X و بردار نتیجه y، می‌توانیم تخمین‌های رگرسیون حداقل مربعات خطی $(X^TX)^{-1}X^TY$ را به‌عنوان توابعی نه > داده‌های خام، بلکه محصولات داخلی در نظر بگیریم. $X^TX$ و $X^TY$. به طور مشابه، می توان نشان داد که تخمین های کمند توابعی از این محصولات داخلی نیز هستند. از این رو در مسئله کنونی، می‌توانیم تخمین‌های > کمند برای متغیر pth روی بقیه را به‌عنوان تابعی > شکل lasso در نظر بگیریم (S11; s12;): (9) اما استفاده از کمند برای هر متغیر > حل نمی‌کند. مشکل (1)؛ برای حل این مشکل از طریق کمند گرافیکی ما در عوض از محصولات داخلی W11 و s12 استفاده می کنیم. یعنی (9) را با lasso (W11; > s12; ) جایگزین می کنیم: (10) نکته این است که مسئله (1) معادل p جداگانه > مشکلات رگرسیون منظم نیست، بلکه معادل مشکلات کمند p جفت شده است که > همان W و $\theta = W^{-1}$. استفاده از W11 به جای S11 اطلاعات را بین مشکلات به شیوه ای مناسب به اشتراک می گذارد. بلوک نقل قول
استفاده از ماتریس کوواریانس معکوس پراکنده در تخمین ضرایب حداقل مربعات
111295
فرض کنید که می‌خواهیم این فرضیه را آزمایش کنیم که نسبت مریخی‌های چشم آبی در طول قرن بیستم در حال کاهش بوده است. متأسفانه، جمعیت مریخ به شدت در نوسان است، بنابراین هر دهه تفاوت زیادی در کل جمعیت وجود دارد [به روز رسانی: جمعیت مریخ را ثابت در نظر بگیرید که یک میلیارد نارتیایی است. داده های زیر نمونه های تصادفی در هر سال است]. مجموعه داده ها (در حین نوشتن این مطلب ساخته شده است) می تواند چیزی شبیه به این باشد: سال | کل جمعیت مریخی | مریخیان چشم آبی | نسبت 1910 | 400 | 250 | 0.625 1920 | 2000 | 1000 | 0.500 1930 | 70 | 40 | 0.571 1940 | 30 | 14 | 0.467 1950 | 10 | 4 | 0.400 1960 | 140 | 52 | 0.371 1970 | 50 000 | 15 400 | 0.308 1980 | 70 000 | 22 000 | 0.314 1990 | 1500 | 80 | 0.053 2000 | 5000 | 800 | 0.160 تجزیه و تحلیل سالهایی که جمعیت مریخ کمتر از 100 سال است به وضوح به اندازه زمانی که جمعیت بیش از 10000 نفر است از نظر آماری معنادار نیست، زیرا در مورد دوم مجموعه داده های بزرگتری داریم. با این حال، ما می خواهیم از تمام داده های موجود برای تأیید فرضیه خود با سطح معنی داری 95 درصد استفاده کنیم. چگونه پیش برویم؟ آیا اهمیت هر سال را با توجه به حجم نمونه در آن زمان وزن می کنیم؟ ویرایش بیشتر برای تناسب نگرانی ها: نگرانی در اینجا این است که چگونه هر مجموعه داده را به اندازه کافی وزن کنیم، با در نظر گرفتن این که اندازه آنها متفاوت است. هیچ سوگیری نمونه ای وجود ندارد زیرا داده ها به طور تصادفی انتخاب می شوند.
آیا جمعیت مریخی های چشم آبی در حال کاهش است؟
69363
فرض کنید من مجموعه ای از مجموعه های داده $(m_i)$ دارم. هر یک از این مجموعه داده $m_i$ مربوط به پارامتر $\hat{\theta}_i$ است که من می شناسم. سپس من دو مدل دارم که فواصل HPD ها را برای هر $\theta_i|m_i$ در اختیار من قرار می دهد. من می خواهم عملکرد این دو مدل را ارزیابی / مقایسه کنم. بدیهی است که می توانم به سادگی نگاه کنم که چه تعداد از $\hat{\theta}_i$ در فواصل هر دو روش می افتد، اما به نظر می رسد این یک توصیف بسیار خشن باشد (دو مدل می توانند امتیازهای یکسانی ارائه دهند اما HPD هایی با ماهیت بسیار متفاوت) و نمی دانم آیا ابزار خاصی برای انجام این کار وجود دارد؟
مقایسه عملکرد دو مدل
60362
ما یک مجموعه داده با سه متغیر داریم (dV: اندازه گیری خود گزارش شده در مقیاس 1-5، فرض شده متریک؛ iV1: عامل با 4 سطح، iV2: عامل با 8 سطح). ما علاقه مند هستیم که آیا dV با توجه به هر دو iV متفاوت است و آیا تعاملی بین iV ها وجود دارد یا خیر. ایده: محاسبه ANOVA با هر دو اثر اصلی و تعامل بین هر دو iV با استفاده از R. سوال: چه نوع مجموع مربعات باید برای این سوال تحقیق استفاده شود؟ با استفاده از aov() در R، مجموع مربعات Type-I را به صورت استاندارد محاسبه می کند. از سوی دیگر، SPSS و SAS، مجموع مربعات Type-III را به طور پیش فرض محاسبه می کنند. با این حال، استفاده از Anova() {car} در ترکیب با گزینه‌ها (contrasts=c(contr.sum, contr.poly)) در R همان جداول ANOVA Type-III محاسبه شده در SPSS را به دست می‌دهد. من قبلاً بحث های زیر را خوانده ام: * http://afni.nimh.nih.gov/sscc/gangc/SS.html * http://myowelt.blogspot.de/2008/05/obtaining-same-anova-results -in-r-as-in.html با این حال، من هنوز گیج هستم که کدام نوع از مجموع مربع ها برای سوال ما مناسب تر است. نتایج (مقادیر F و p) به طور قابل توجهی متفاوت است.
انتخاب بین نوع I، نوع II، یا نوع III ANOVA
82857
پس از اندازه نمونه 400+ توانستم ضریب پیرسون 0.25 را بدست بیاورم. چگونه قرار است این را به یک احتمال یا درصد تقسیم کنم. در عوض، چگونه می توانم یافته های خود را به صورت غیرمستقیم توضیح دهم؟ باید اطلاعات بیشتری بدهم ما دو تست متفاوت داریم. یکی از این تست ها 1 سوال دارد که چقدر راضی هستید؟ این امتیاز بین 1-4 است که 4 بیشترین رضایت و 1 کمترین امتیاز را دارد. آزمون دیگر 18 سوال دارد. اینها یک بررسی داخلی بود. این بررسی شامل سوالاتی از این قبیل بود (آیا نماینده خدمات مشتری از نام مشتری استفاده کرده است، آیا نماینده خدمات مشتری پاسخ فنی صحیحی را ارائه کرده است، آیا نماینده به مشتری آموزش داده است که در صورت لزوم چگونه مشکل را برطرف کند). تست اول از مشتری پرسیده می شود و تست دوم با 18 سوال مختلف توسط استاد راهنما پر می شود. آنها یا (-1)، غیر قابل اجرا یا عدم قبولی/شکست (0) یا شکست (1) را می گذرانند. هدف ما این است که بفهمیم کدام متغیرها در آزمون دوم بهترین پیش بینی نمرات در آزمون اول را دارند. ما می‌خواهیم این کار را برای یافتن بخش‌های مشکل‌دار که می‌توانیم به صورت داخلی برطرف کنیم تا به مشتریان خود خدمات بهتری ارائه دهیم و بهترین تجربه ممکن را به آنها ارائه دهیم (3 و 4 موارد بیشتر در اولین آزمایش).
استفاده از ضریب همبستگی پیرسون برای احتمال
52273
این یک سؤال کاملاً کلی است، اما، من اغلب کتاب‌های درسی آماری را پیدا می‌کنم که ادعا می‌کنند، برای توجیه فرض نرمال بودن درون گروه‌ها از ANOVA یک طرفه، می‌توانید به نمودار QQ از باقیمانده‌ها نگاه کنید. با این حال، نمودارهای qq تنها زمانی می‌توانند غیرعادی بودن را تشخیص دهند که واریانس (یا انحراف استاندارد) در همه گروه‌ها همگن باشد. من در تعجب بودم که چگونه می توانم از این نوع طرح استفاده کنم وقتی از ANOVA ولش استفاده می کنم. به عنوان مثال، در مورد ANOVA ولش، نیازی نیست که به هیچ فرضی مبنی بر واریانس همگن پایبند باشید، اما اگر واریانس شما همگن نیست، چگونه می توانید از نمودار QQ برای تست نرمال بودن استفاده کنید؟ من به این فکر می‌کردم که ابتدا هر یک از باقیمانده‌ها را با انحرافات استاندارد درون گروهی استاندارد کنم تا همه واریانس‌ها برابر باشند. من احساس می‌کنم این رویکرد معقول است، اما در هیچ کتاب درسی یا هیچ جای آنلاین ندیده‌ام که درباره آن بحث شود. بیایید فرض کنیم اندازه نمونه هر گروه نابرابر و برای استناد به قضیه حد مرکزی بسیار کوچک است.
ANOVA: نحوه تشخیص غیر نرمال بودن با QQPlot در حضور واریانس غیر همگن
46032
فرض کنید من یک شبکه اعتقادی با مجموعه ای از گره ها دارم. برای ایجاد یک درخت اتصال معتبر، باید گراف را اخلاقی کنم. اکنون فرض کنید که من گره هایی با بیش از 2 والدین دارم (مثلاً 3 والدین) پس باید هر یک از والدین را پیوند دهم. پس از انجام این کار، مدل های گرافیکی حاوی چند دسته غیر ضروری هستند. آیا می توانم فقط از بخشی از دسته ها برای Junction Tree Creation استفاده کنم؟ یا باید از هر دسته در درخت اتصال استفاده کنم (به عنوان مثال، یک مورد با 8 گره و 8 دسته)؟
اخلاقی سازی و مثلث سازی در شبکه های اعتقادی
64286
من دو پست بسیار مفید در مورد تفاوت بین تحلیل رگرسیون خطی و ANOVA و نحوه تجسم آنها پیدا کردم: چرا ANOVA به گونه ای آموزش داده می شود که گویی یک روش تحقیق متفاوت در مقایسه با رگرسیون خطی است؟ چگونه می توان آنچه را ANOVA انجام می دهد تجسم کرد؟ همانطور که در پست اول گفته شد، برای آزمایش اینکه آیا میانگین قد نر و ماده یکسان است، می توانید از یک مدل رگرسیون استفاده کنید ($y = \alpha + \beta x + \epsilon$، که $y$ نشان دهنده قد و $x است. $ نشان دهنده جنسیت است) و آزمایش کنید که آیا $\beta = 0$ است. اگر $\beta = 0 $، آنگاه تفاوتی در قد بین نر و ماده وجود ندارد. با این حال، من کاملاً مطمئن نیستم که وقتی شما سه گروه دارید، چگونه آزمایش می شود. مثال زیر را تصور کنید: ارتفاع (y) - گروه (x) 5 - A 6 - A 7 - A 6 - A 30 - B 32 - B 34 - B 33 - B 20 - C 19 - C 21 - C 22 - C مدل رگرسیون به این صورت خواهد بود: $$y = a+ b x + \epsilon$$ من به سرعت داده ها را تجسم کردم (تصویر زیر را ببینید) آنطور که من مدل رگرسیون را فهمیدم این است که اکنون آزمایش می کند که آیا هر یک از سه شیب (AB، AC یا BC) دارای شیب $b$ است که به طور قابل توجهی با 0 متفاوت است. اگر اینطور باشد، می توان مانند ANOVA نتیجه گرفت که حداقل یک گروه وجود دارد. که در آن قد با یک یا چند گروه تفاوت قابل توجهی دارد. پس از آن، می‌توان از آزمون تعقیبی استفاده کرد تا بررسی کرد که کدام یک از گروه‌ها واقعاً با هم تفاوت دارند. آیا درک من از چگونگی آزمون مدل های رگرسیون این فرضیه درست است؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/6LD5Q.png)
رگرسیون خطی و ANOVA
97543
1. من می خواهم هتروسکداستیکی را در یک مدل Tobit با Stata 12 آزمایش کنم. اما نمی دانم چگونه این کار را انجام دهم. 2. وقتی از یک مدل OLS استفاده کردم، ناهمبستگی و همبستگی خودکار را آزمایش کردم، و چیز زیادی پیدا نکردم، اما مدل OLS معنادار نیست (Prob > _F_ = 0.54) و _R_ ² کوچک = 0.01 است. چگونه می توانم آن مشکل را بهبود بخشم؟ با تشکر
چگونه می توانم هتروسکداستیکی را در مدل توبیت با Stata 12 آزمایش کنم؟
97098
این یک سؤال کاملاً آماری نیست - من می توانم تمام کتاب های درسی را در مورد فرضیات ANOVA بخوانم - سعی می کنم بفهمم که چگونه تحلیلگران واقعی کار داده هایی را مدیریت می کنند که کاملاً با فرضیات مطابقت ندارند. من سوالات زیادی را در این سایت در جستجوی پاسخ گذرانده‌ام و مدام پست‌هایی درباره زمان استفاده نکردن از ANOVA (در یک زمینه ریاضی ایده‌آل‌شده) یا نحوه انجام برخی از کارهایی که در زیر توضیح می‌دهم پیدا می‌کنم. من واقعاً سعی می کنم بفهمم مردم واقعاً چه تصمیماتی می گیرند و چرا. من در حال انجام تجزیه و تحلیل بر روی داده های گروه بندی شده از درختان (درختان واقعی، نه درختان آماری) در چهار گروه هستم. من اطلاعاتی برای حدود 35 ویژگی برای هر درخت دارم و در حال بررسی هر ویژگی هستم تا تعیین کنم که آیا گروه ها به طور قابل توجهی در آن ویژگی تفاوت دارند یا خیر. با این حال، در چند مورد، مفروضات ANOVA اندکی نقض می شوند زیرا واریانس ها برابر نیستند (طبق آزمون Levene، با استفاده از alpha=.05). همانطور که من می بینم، گزینه های من عبارتند از: 1. تبدیل داده ها به برق و دیدن اینکه آیا Levene p-val تغییر می کند یا خیر. 2. از یک تست ناپارامتریک مانند Wilcoxon استفاده کنید (اگر چنین است، کدام یک؟). 3. یک نوع تصحیح در نتیجه ANOVA، مانند Bonferroni (من در واقع مطمئن نیستم که چیزی شبیه به این وجود دارد؟) انجام دهید. من دو گزینه اول را امتحان کردم و نتایج کمی متفاوت گرفتم - در برخی موارد یک رویکرد مهم است و دیگری نه. من از افتادن در دام ماهیگیری با ارزش p می ترسم و به دنبال توصیه ای هستم که به من کمک کند تا بتوانم از کدام رویکرد استفاده کنم. من همچنین مواردی را خوانده ام که نشان می دهد ناهمسانی واقعاً مشکل بزرگی برای ANOVA نیست، مگر اینکه میانگین ها و واریانس ها همبستگی داشته باشند (یعنی هر دو با هم افزایش می یابند)، بنابراین شاید بتوانم نتیجه Levene را نادیده بگیرم مگر اینکه یک مورد را ببینم. اینطور الگو؟ اگر چنین است، آیا آزمایشی برای این وجود دارد؟ در نهایت، باید اضافه کنم که من این تجزیه و تحلیل را برای انتشار در یک مجله معتبر انجام می‌دهم، بنابراین هر رویکردی که من در آن تصمیم می‌گیرم باید با داوران کنار بیاید. بنابراین، اگر کسی بتواند پیوندهایی به نمونه های مشابه منتشر کند، فوق العاده خواهد بود.
به طور عملی، مردم چگونه ANOVA را مدیریت می کنند، در حالی که داده ها کاملاً با مفروضات مطابقت ندارند؟
49023
$EY$ چیست، اگر $Y=max(X_{1},X_{2},...,X_{n})$ که در آن $X_{i}$ مشاهداتی از توزیع یکنواخت روی مجموعه $(0 است، a)$، $EY$ به $a$ می رود همانطور که $n$ به بی نهایت می رود؟
$EY$ چیست، اگر $Y=max(X_{1},X_{2},...,X_{n})$ که $X_{i}$ مشاهداتی از توزیع یکنواخت بیش از $(0,a هستند ) دلار
99272
من از یک بسته رگرسیونی استفاده می کنم که از «gam()» از بسته «mgcv» استفاده می کند. آیا می توان جریمه L1 را با عملکرد بازی درج کرد؟ مستندات نشان می‌دهد که می‌توان از پنالتی L2 با استفاده از پارامتر _H_ استفاده کرد، اما من نمی‌دانم چگونه می‌توان از آن برای کمند نیز استفاده کرد. Splines در مدل نیست. تنها دلیلی که من از «glmnet» استفاده نمی کنم این است که تابعی که استفاده می کنم GAM را پیاده سازی کرده است. کد مثال: formula.eq = Y ~ X model.out = گام (formula.eq، دوجمله ای (پیوند = logit)، گاما = 1) که در آن 'Y' بردار صفر و یک است و 'X' شامل > 400 ویژگی، بنابراین من باید برخی از روش های انقباض را انجام دهم. با تشکر
رگرسیون کمند با مدل های GAM در R
48378
با توجه به دو متغیر تصادفی مستقل $X\sim \mathrm{Gamma}(\alpha_X,\beta_X)$ و $Y\sim \mathrm{Gamma}(\alpha_Y,\beta_Y)$، توزیع تفاوت چقدر است، یعنی. $D=X-Y$؟ اگر نتیجه به خوبی شناخته نشده است، چگونه می توانم نتیجه را استخراج کنم؟ متشکرم!
تفاوت متغیرهای تصادفی گاما
59848
پاسخ های بسیار مفید پیتر فلوم، وین و بسیاری دیگر را دنبال کنید. من الان شروع به استفاده از R کرده ام و این به من احساس پایتون می دهد :) نتایج زیر است اما مطمئن نیستم چگونه باید از اینجا بروم؟ چگالی مشخص بعد از تبدیل log بسیار بهتر به نظر می رسد. آیا می توانید لطفاً در مورد چگونگی انجام تجزیه و تحلیل بیشتر توضیح دهید؟ خیلی ممنون R - نتایج زیر: نمودار (تراکم (طول پیام‌ها)) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/4YlXo.png) نمودار (تراکم (ورود (ورود پیام‌ها (طول پیام))) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3jZDL.png) خلاصه (پیام ها) > خلاصه (پیام$mb) حداقل 1 ق. میانگین میانه 3rd Qu. حداکثر 0.00665 0.32610 0.88450 2.08500 2.35000 49.13000 qqnorm (messages$length) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/y3R43.png) ================================================== =================== ویرایش: با تشکر از همه پاسخ دادن! من qqnorm را با log(x) امتحان کردم و به نظر می رسد یک خط مستقیم است! آیا این بدان معناست که داده های من تقریباً از توزیع Log-normal پیروی می کنند؟ qqnorm (log(messages$length)): ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/TK5CA.png) همچنین سعی کرده ام داده های خود را با یک log-normal مطابقت دهم و در زیر آمده است نتیجه > fitdistr(message$mb, densfun=log-normal) meanlog sdlog > -0.19019347 1.45795269 (0.02003787) (0.01416891) آیا این معنی دارد؟
ادامه سوال قبلی من - توزیع برای مجموعه ای از داده ها با استفاده از نتایج R
91436
من دو نمونه A و B دارم. A شامل 100 عنصر است در حالی که B دارای 150 عنصر است. می خواهم بدانم آیا برای مقایسه این دو نمونه A و B با اندازه های مختلف می توان آزمون کولموگروف اسمیرنوف را انجام داد؟ لطفا پاسخ دهید با احترام پوغلو
آزمون کولموگروف اسمیرنوف برای دو نمونه با اندازه های مختلف
52272
در ژنومیک و زیست شناسی محاسباتی، مجموعه داده های بیانی دارای تعداد بسیار بیشتری از ویژگی ها (p) نسبت به تعداد مشاهدات (N) هستند. من می‌خواستم داده‌ها را در جایی که p>>N شبیه‌سازی کنم تا عملکرد روش‌های طبقه‌بندی‌کننده را مقایسه کنم (مانند روش‌های منظم، روش‌های انتخاب خودکار ویژگی‌ها، و فیلتر کردن/انتخاب ویژگی قبل از اعمال هر روشی). به امید تقلید از داده‌های بیان ژن، ژن‌های آموزنده از توزیع لاپلاس نامتقارن (ALD) نمونه‌برداری شدند (پوردوم، هولمز، 2005، پیشنهاد کرد که داده‌های بیان ژن از ALD بهتر از توزیع طبیعی پیروی می‌کند) و ژن‌های غیر اطلاعاتی/نویز نمونه‌برداری شدند. از توزیع نرمال استاندارد برای مورد 1، با n = 100 و p = 1000، 300 ژن آموزنده از X ~ ALD (-3، 0.5، 1) برای کلاس 1 و از Y~ ALD (3، 2، 1) برای کلاس 2، و 700 ژن غیر اطلاعاتی/نویز از e ~ N(0,1) نمونه برداری شد. سپس با افزایش پارامتر مقیاس از 1 به 10، 5 درصد از بیان ژن آموزنده به نقاط پرت تبدیل شد. در نهایت، نمونه ها (ردیف ها) مخلوط شدند. ما E(X) = -1.93934، E(Y) = 1.93934، و Var(X) = Var(Y) = 4.761039 داریم. منحنی‌های چگالی اینجا هستند: ![https://www.dropbox.com/s/y3n7vrybauvste0/stackexchange.jpeg](http://i.stack.imgur.com/J4iqS.jpg) خط قرمز (کلاه نوک تیز سمت چپ) ) X است، خط آبی (کلاه نوک تیز سمت راست) Y، خط سیاه e، خط نارنجی X است که به نقاط پرت تبدیل می شود و خط سبز است. Y تبدیل به پرت شد. پس از صحبت با یک استاد در این مورد، او پیشنهاد کرد که همبستگی هایی را در ویژگی ها اضافه کنم زیرا از آنجایی که هر بار به طور مستقل نمونه برداری می کنم، ماتریس کوواریانس من برای ویژگی ها ماتریس هویت است. او پیشنهاد کرد که ماتریس کوواریانس من به rho^|i-j| تبدیل شود، که در آن 0 سؤالات من عبارتند از: 1. **چرا بهتر است که ماتریس کوواریانس rho^|i-j| برای شبیه سازی آیا این در داده های بیان ژن واقعی تر است؟ آیا دلیل خاصی وجود دارد که چرا همه آن فقط rho در مورب خاموش و 1 در مورب نیست؟** 2. **اگر من 300 ویژگی اول را آموزنده و ویژگی های 301-1000 را غیر اطلاعاتی داشته باشم (~N( 0،1))، آیا فقط همبستگی هایی را به 300 ویژگی اول اضافه می کنم؟ اگر چنین است، آیا ماتریس کوواریانس {rho^|i-j| را دارم برای 1 <i,j <300 اگر i برابر با j نیست، و 0 برای i، j > 300 و i برابر با j} نیست؟** این پیشنهاد ممکن است مربوط به زمانی باشد که به او گفتم که نتیجه سبد خرید من است. تنها یک ویژگی متفاوت را در R ...
چرا همبستگی ها در شبیه سازی داده ها برای مقایسه طبقه بندی کننده ها زمانی که p >> N اهمیت دارد؟
48374
می‌پرسم آیا روش‌هایی برای محاسبه حجم نمونه در مدل‌های ترکیبی وجود دارد؟ من از «lmer» در R برای جا دادن مدل‌ها استفاده می‌کنم (من شیب‌ها و وقفه‌های تصادفی دارم).
محاسبه اندازه نمونه برای مدل های ترکیبی
82854
من از PROC KDE برای تناسب چگالی به مجموعه بزرگی از داده های پیوسته استفاده می کنم. من نمی توانم بفهمم که چگونه می توانم مشکل همگرایی را در زیر حل کنم. پیشنهادی دارید؟ من می توانم صدک ها را رسم کنم، اما تراکم ها را ترجیح می دهم. گزارش من اینجاست: گرافیک 285 ods خاموش است. 286 ods graphics on; 287 proc kde data=sasdata.have; 288 univar x(bwm=2) x(bwm=0.25)/ plots=(histdensity); 289 اجرا; توجه: در حال پردازش عبارت UNIVAR شماره 1. اخطار: الگوریتم برای اتصال Sheather-Jones همگرا نشد. با استفاده از حداکثر مقدار پهنای باند هشدار: الگوریتم برای اتصال Sheather-Jones همگرا نشد. با استفاده از حداکثر مقدار پهنای باند توجه: رویه KDE استفاده شده (کل زمان پردازش): زمان واقعی 14.63 ثانیه زمان پردازنده 5.67 ثانیه 290 ods گرافیک خاموش.
مشکل همگرایی PROC KDE
64289
من در حال انجام یک متاآنالیز اندازه های افکت **_d_** در R با استفاده از بسته متافور هستم. **_d_** نشان دهنده تفاوت در نمرات حافظه بین بیماران و افراد سالم است. با این حال، برخی از مطالعات تنها امتیازهای فرعی معیار علاقه **_d_** را گزارش می‌کنند (به عنوان مثال چندین امتیاز حافظه مختلف یا امتیازات از سه بلوک جداگانه تست حافظه). لطفاً مجموعه داده های ساختگی زیر را با **_d_** که نشان دهنده اندازه اثر مطالعات و همچنین انحراف معیار آنها sd است، ببینید: d <- round(rnorm(5,5,1),2) sd <- round(rnorm (5،1،0.1)،2) مطالعه <- زیر امتیاز c(1،2،3،3،3) <- c(1،1،1،2،3) my_data <- as.data.frame(cbind(study, subscore, d, sd)) library(metafor) m1 <- rma(d,sd, data=my_data) summary(m1) برای بهترین راه نظر شما را می خواهم نحوه رسیدگی به این امتیازات فرعی - به عنوان مثال: 1. از هر مطالعه ای که بیش از یک امتیاز را گزارش می کند، یک امتیاز فرعی انتخاب کنید. 2. شامل همه زیرنمرات (این فرض مستقل بودن مدل rfx را نقض می کند زیرا امتیازات فرعی یک مطالعه از همان نمونه حاصل می شود) 3. برای هر مطالعه ای که زیر امتیازها را گزارش می کند: میانگین نمره و میانگین انحراف استاندارد را محاسبه کنید و این ادغام شده را در نظر بگیرید. اندازه اثر در متاآنالیز rfx. 4. شامل تمام امتیازات فرعی و اضافه کردن یک متغیر ساختگی است که نشان می دهد از کدام مطالعه یک امتیاز خاص به دست آمده است.
چگونه می توان به بهترین وجه زیر امتیازها را در یک متاآنالیز مدیریت کرد؟
7876
من در فهمیدن اینکه نوارهای محدوده در «plot.stl» دقیقاً به چه معنی هستند مشکل دارم. من پست گاوین را در مورد این سوال پیدا کردم و مستندات را نیز خواندم، می دانم که آنها بزرگی نسبی اجزای تجزیه شده را می گویند، اما هنوز کاملاً مطمئن نیستم که چگونه کار می کنند. به عنوان مثال: داده: نوار کوچک، بدون مقیاس فصلی: نوار کامل، با مقیاس از 0.6- تا 0.2 روند: یک نوار کوچک دیگر (به نظر می رسد برابر با داده است)، بدون مقیاس باقیمانده: نوار اندازه متوسط ​​با مقیاس از 1.5- تا 0.5 من نمی دانم که اساس رابطه چیست و چرا روند مقیاس ندارد. من «stl» و «تجزیه» را با نتایج یکسان برای روش‌های ضربی و جمعی امتحان کردم.
تفسیر میله های محدوده در R's plot.stl؟
16865
من در نمادهای مناسب معانی و همچنین معانی برخی نمادهای مربوط به متغیرهای تصادفی و توزیع آنها گیج می شوم. در زیر، مواردی را که فکر می‌کنم درست هستند، و همچنین چیزهایی را که نمی‌فهمم، فهرست می‌کنم، و من دوست دارم ورودی/اصلاح‌ها را انجام دهم. من برای سهولت ارجاع، هر نکته/سؤال را با یک عدد برچسب گذاری کرده ام. اگر فهرست کردن موارد در یک سوال مانند این مناسب نیست، لطفاً به من اطلاع دهید. من فکر کردم خوب است زیرا همه آنها کوتاه هستند. 1. یک متغیر تصادفی با یک حرف بزرگ نشان داده می شود، به عنوان مثال. X$. 2. عملیات روی یک متغیر تصادفی به چه معناست؟ (به عنوان مثال، چگونه $X^2$ را در کلمات تفسیر می کنید؟). 3. یک قرعه کشی خاص از یک متغیر تصادفی با حروف کوچک (مثلاً $x$) یا حروف کوچک با یک زیرنویس (مثلاً $x_1$) یا یک عدد بزرگ با یک عدد (مثلاً $X_1$) نشان داده می شود. 4. متغیر تصادفی که آمار سفارش $kth$ از $n$ است از یک متغیر تصادفی $X$ به عنوان $X_{kn}$ نشان داده می شود. 5. آیا روش کوتاهی برای نوشتن X متغیر تصادفی است که توسط F(x) توزیع می شود (یا cdf F(x) یا B(a,b) یا هر راهی برای مشخص کردن یک توزیع وجود دارد) ? 6. آیا می توانم $\mathbb{E}F(x)$ را به معنای انتظار متغیر توزیع شده بر اساس $F(x)$ بنویسم؟ 7. اگر من عملیاتی را بر روی سی دی اف متغیر X انجام دهم، برای مثال، $F_{new}(x) = F_{old}(x)^2$ برای دریافت cdf حداکثر 2 قرعه کشی از $X$، آیا می توانم به نحوی آن را بر حسب X$ یادداشت کنم؟ 8. آیا روش مناسب برای نوشتن $(F(x))^2$ به طور خلاصه $F^2(x)$ یا $F(x)^2$ است؟ 9. آیا تفاوت نمادی بین متغیر گسسته و پیوسته وجود دارد؟
قراردادهای نمادگذاری برای متغیرهای تصادفی و توزیع آنها
12156
من یک data.frame بزرگ در R دارم. می‌خواهم اگر توزیع آن متناسب با توزیع نرمال یا توزیع ارزش شدید بهتر باشد، در اینجا data.frame ساده شده من است. x <- data.frame(A=c(1,3,1,5,4,5,5,7,3,2,2,1,1,1,4,9,10)) ممکن است به من بگویید چگونه این کار را انجام دهم؟ آیا می توانم این تحلیل را با R انجام دهم؟
آیا داده‌های من برای «توزیع ارزش شدید» یا «توزیع عادی» مناسب است؟
97545
من در حال حاضر در حال نوشتن پایان نامه خود با استفاده از رگرسیون چندگانه هستم. با این حال داده های من با فرض رگرسیون توزیع نرمال مطابقت ندارد. من می خواهم توضیح دهم که به دلیل توزیع غیر عادی، تفسیر داده ها محدود است. من نمی‌خواهم داده‌ها را تغییر دهم، فقط می‌خواهم بگویم تأثیر توزیع غیر نرمال بر نتایج رگرسیون من (N = 110) چقدر است. اگر زیاد گوگل کرده‌ام، فقط فرضیات را پیدا کرده‌ام، اما وقتی هنوز آزمایش‌هایم را انجام می‌دهم، هیچ‌وقت واقعاً عواقبی در پی نخواهد داشت. آیا هیچ یک از شما می‌داند که پیامدهای توزیع غیرعادی برای نتایج رگرسیون من چیست؟ و همچنین بسیار مهم، کدام مقاله می تواند استناد شود؟ برای راهنمایی شما بسیار سپاسگزار خواهم بود!
پیامدهای رگرسیون چندگانه با توزیع غیر نرمال
108829
فرض کنید می‌خواهید یک مدل مارکوف پنهان را با حالت‌های پنهان $n$ آموزش دهید، و (به طور تصادفی) خود مشکل را می‌توان با یک مدل مارکوف پنهان با $n$ (یا حالت‌های کمتر) توصیف کرد. تعداد نمونه های مورد انتظار برای یادگیری صحیح چنین مدلی (با خطای $<\epsilon$) چقدر است؟
طول نمونه مورد نیاز مورد انتظار برای آموزش یک مدل مارکوف پنهان
99279
من به سایت deeplearning.net در مورد نحوه پیاده سازی معماری های یادگیری عمیق اشاره می کنم. من چندین مقاله تحقیقاتی در مورد خلاصه‌سازی اسناد (هم سند واحد و هم چند سند) خوانده‌ام، اما نمی‌توانم بفهمم که خلاصه دقیقاً چگونه برای هر سند ایجاد می‌شود. پس از انجام آموزش، شبکه در مرحله آزمایش تثبیت می شود. بنابراین حتی اگر مجموعه ای از ویژگی هایی را که در مرحله آموزش آموخته شده بدانم (که متوجه شده ام)، در حین آزمایش تشخیص اهمیت هر ویژگی (به دلیل تثبیت وزن بردار شبکه) دشوار خواهد بود. مرحله ای که در آن سعی خواهم کرد خلاصه ای برای هر سند ایجاد کنم. من مدتها سعی کردم این موضوع را بفهمم اما بی فایده بود. اگر کسی روی آن کار کرده است یا ایده ای در مورد آن دارد، لطفاً نکاتی را به من ارائه دهد. من واقعا از کمک شما قدردانی می کنم. متشکرم.
خلاصه سازی اسناد متنی (حوزه حقوقی) با استفاده از تکنیک های یادگیری عمیق
12152
به عنوان ابزاری برای ایجاد انگیزه سوال، یک مسئله رگرسیون را در نظر بگیرید که در آن ما به دنبال تخمین $Y$ با استفاده از متغیرهای مشاهده شده $\\{ a, b \\}$ هستیم هنگام انجام رگرسیون چند جمله‌ای چند متغیره، سعی می‌کنم بهینه‌سازی تابع را پیدا کنم. $$f(y)=c_{1}a+c_{2}b+c_{3}a^{2}+c_{4}ab+c_{5}b^{2}+\cdots$$ که بهترین تناسب داده ها به معنای حداقل مربع است. اما مشکل این است که پارامترهای $c_i$ مستقل نیستند. آیا راهی برای انجام رگرسیون بر روی مجموعه دیگری از بردارهای بنیاد که متعامد هستند وجود دارد؟ انجام این کار مزایای آشکار بسیاری دارد 1) ضرایب دیگر همبستگی ندارند. 2) مقادیر خود $c_i$ دیگر به درجه ضرایب بستگی ندارد. 3) این مزیت محاسباتی نیز دارد که می‌تواند شرایط مرتبه بالاتر را برای تقریب درشت‌تر اما هنوز دقیق به داده‌ها حذف کند. این به راحتی در حالت تک متغیری با استفاده از چند جمله‌ای متعامد، با استفاده از مجموعه‌ای به خوبی مطالعه شده مانند چند جمله‌ای چبیشف به دست می‌آید. با این حال (به هر حال برای من) واضح نیست که چگونه این را تعمیم دهم! به ذهنم رسید که می‌توانم چندجمله‌ای‌های chebyshev را به صورت جفت جفت کنم، اما مطمئن نیستم که آیا این کار از نظر ریاضی درست است یا خیر. کمک شما قابل قدردانی است
رگرسیون چند جمله ای متعامد چند متغیره؟
57993
من مجموعه داده ای از جمعیت دو وجهی دارم. این شامل یک قله کوچکتر است که به عنوان بد در نظر گرفته می شود و یک قله بزرگتر. سعی می کنم قسمت بد داده ها را از بقیه داده ها جدا کنم. کاری که من انجام دادم این بود: ابتدا یک تخمین چگالی هسته انجام دادم، سپس حداکثر محلی این قله کوچک و حداقل محلی گودال بین دو قله را پیدا کردم، سپس نقطه میانی (میانگین حسابی مختصات x) آنها را گرفتم. و آن را به عنوان یک برش تعریف کنید. همه چیز زیر این برش بد در نظر گرفته می شود. دلیل اینکه من به جای پیت از نقطه میانی استفاده کردم این است که سعی کردم محافظه کارتر باشم. حالا می خواهم بپرسم: آیا کاری که انجام دادم معقول است؟ اگر بله، چگونه می توانم اقدام خود را به شیوه ای مورد علاقه آماردانان توضیح دهم؟ اگر نه، چگونه می توانم تغییر دهم؟ (از هر روش دیگری به خصوص روش هایی که در R پیاده سازی شده اند استقبال می شود.) متشکرم! این شکل است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/C0KZv.png)
چگونه توضیح دهیم که چگونه یک توزیع دووجهی را بر اساس تخمین چگالی هسته تقسیم کردم
57991
من یک نمونه از رکوردها، با رشته و ستون های عددی دارم. نمونه من در حال حاضر در یک صفحه گسترده اکسل میزبانی می شود. من به ابزاری نیاز دارم که برای هر ستون آمار توصیفی تولید کند، مانند مقادیر حداکثر و حداقل، تعداد مقادیر منحصر به فرد، حداکثر طول رشته. آیا چنین ابزارهایی در دسترس هستند؟ هر گونه راهنمایی؟ هدف نهایی استخراج یک فرهنگ لغت داده است.
ابزارهای کاوش داده برای اکسل
28290
فرض کنید من دو متغیر تصادفی $X_t\sim NID(0,1)$ و $Y_t\sim NID(0,4)$ و $Cov(X_t,Y_t)=2$ دارم. متغیر تصادفی $Z_t = X_t + Y_t + Y_tX_t$ را در نظر بگیرید. $E(Z_t) = E(X_t)+E(Y_t X_t)+E(Y_t) = 0 + 2 + 0 = 2$ زیرا، $E(X_t)=0$$E(Y_t)=0$E (X_tY_t) = E(X_t)\بار E(Y_t)+cov(X,Y) = 0 + 0 + 2$ اما اگر بخواهم بدست بیاورم $E(Z_t|X_t)$ دلیل آن چیست؟ من قادر به تشخیص نیستم. با واریانس یکسان است: $Var(Z_t) = Var(X_t)+Var(Y_t X_t)+Var(Y_t) = 1 + 2 + 4 = 7$ اما $Var(Z_t|X_t)$ چطور؟
برخی تردیدها در مورد انتظار مشروط
63104
این احتمالاً برای کارشناسان آمار تقریباً بی اهمیت است. با این حال، اگرچه مدت زیادی است که در وب جستجو کرده ام، نتوانستم به پاسخ قانع کننده ای برسم. با توجه به دو متغیر تصادفی گاوسی (تقریباً) $u$ و $v$، PDF و مقدار انتظاری $u – v$ با توجه به دانش قبلی که $u – v \ge 0$ است چقدر است؟ به یاد دارم که به طور مبهم چیزی در این راستا بر اساس استنتاج بیزی دیده بودم. با این حال، اکنون به نظر می رسد که نمی توانم این منبع را پیدا کنم.
تفاوت متغیرهای تصادفی مشروط به مقادیر غیر منفی
85798
اگر یک رگرسیون چندگانه انجام دهم مانند: df<-data.frame(y1=rnorm(100,2,3), y2=rnorm(100,3,2), x1=rbinom(100,1,0.5), x2 =rnorm(100,100,10)) fit<-lm(cbind(y1,y2)~x1+x2,data=df) > anova(fit) تجزیه و تحلیل جدول واریانس Df Pillai تقریبی F num Df den Df Pr(>F) (برق) 1 0.75423 147.306 2 96 <2e-16 *** x1 1 0.00720 0.348 2 96 0.7069 x2 1 0.00928 0.450 2 96 0.6391 Residuals 97 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 من نمی‌دانم چگونه این شی ANOVA را توضیح دهم که در آن دو مدل پاسخ‌های متفاوت و مجموعه‌ای از پیش‌بینی‌کننده‌های یکسان دارند.
چگونه خروجی ANOVA از رگرسیون چندگانه را توضیح دهیم؟
9312
SPSS کران های پایین و بالایی را برای قابلیت اطمینان برمی گرداند. هنگام محاسبه خطای استاندارد اندازه‌گیری، آیا باید از کران‌های پایین و بالایی استفاده کنیم یا به استفاده از تخمین قابلیت اطمینان ادامه دهیم. من از فرمول استفاده می کنم: $$\text{SEM}\% =\left(\text{SD}\times\sqrt{1-R_1} \times 1/\text{mean}\right) × 100$$ جایی که SD انحراف استاندارد است، $R_1$ همبستگی درون کلاسی برای یک اندازه گیری واحد است (ICC یک طرفه).
چگونه می توان خطای استاندارد اندازه گیری (SEM) را از برآورد قابلیت اطمینان محاسبه کرد؟
90015
من با مدل‌هایی برای داده‌های پانل افراد کار می‌کنم که در آنها: متغیرهای پنهان من Yt= $\beta$Yt-1+Ai+Q سطح فرآیند افراد A~N(l,h) نوآوری در Q~N( 0,q) متغیرهای مشاهده شده Xt=$\lambda$Y+$\epsilon$ باقیمانده اندازه گیری $\epsilon$~N(0,e) اساساً، یک مدل خودرگرسیون برداری چند متغیره با پارامترهای ثابت در طول زمان، که در آن افراد می توانند در سطح متوسط ​​فرآیند متفاوت باشند، و در آن نویز گواسی کاذب در متغیر مشاهده شده وجود دارد. مدل بحرانی نیست، اما من فکر کردم که بهتر است آن را مشخص کند. من از بسته sem openmx در R استفاده می کنم که برای تخمین FIML به بهینه ساز NPSOL متکی است. من نگران هستم زیرا حتی اگر به نظر می رسد تخمین اولیه من همگرا می شود و تخمین های معقولی ایجاد می کند، وقتی پارامترهای شروع خود را تغییر می دهم یا مرزهای پارامتر بالا و پایین را به مدل اضافه می کنم، می توانم به راه حل بهتری با -2 ll کمتر برسم. یعنی پیمایش سطح احتمال من دشوار به نظر می رسد. بهترین رویکردها در چنین موردی چیست - خط فکر فعلی من این است که به جای تلاش برای بهینه‌سازی، روی تمام تخمین‌های پارامترهای قابل اجرا تکرار کنم، یا برخی استراتژی‌های ترکیبی که ممکن است برخی از پارامترها را تکرار کنم و در عین حال بقیه را بهینه کنم. هر گونه پیشنهاد یا مطالب خواندنی در مورد موضوع مورد استقبال قرار می گیرد.
تخمین پارامتر در سم خودرگرسیون دو متغیره با ناهمگنی فردی - سطح احتمال مشکل ساز
9313
آیا می توانید یک بررسی خوب از الگوریتم های تطبیق کنترل موردی پیشنهاد دهید؟ الگوریتم‌هایی که می‌توانند برای راه‌اندازی جفت‌های منطبق از یک کیس و یک کنترل استفاده شوند، یا بلوک‌های همسان یک کیس و چندین کنترل.
بررسی الگوریتم های تطبیق کنترل موردی؟
9318
من قصد دارم برنامه ای بنویسم که MDS را انجام دهد. آیا اشاره ای به جایی که می توانم به شبه کد MDS دسترسی داشته باشم وجود دارد؟ با تشکر
شبه کد مقیاس بندی چند بعدی
8956
من می‌خواهم در تعدادی از اندازه‌گیری‌ها که از مقیاس لیکرت استفاده شده است، همبستگی انجام دهم. با نگاهی به نمودارهای پراکنده، به نظر می رسد که مفروضات خطی بودن و همسانی بودن ممکن است نقض شده باشد. * با توجه به اینکه به نظر می‌رسد بحث‌هایی پیرامون رتبه‌بندی سطح ترتیبی وجود دارد که مقیاس تقریبی سطح فاصله‌ای وجود دارد، آیا باید آن را ایمن بازی کنم و از Rho اسپیرمن به جای r پیرسون استفاده کنم؟ * آیا مرجعی وجود دارد که بتوانم به آن استناد کنم اگر با Spearman's Rho همراه شوم؟
همبستگی اسپیرمن یا پیرسون با مقیاس لیکرت که در آن خطی بودن و همسویی بودن ممکن است نقض شود.
8959
چگونه می توانم برچسب های محور عمودی y را در یک باکس پلات تغییر دهم، به عنوان مثال. از اعداد تا متن؟ به عنوان مثال، من می خواهم {-2، -1، 0، 1، 2} را با {0hour، 1hours، 2hours، ...} جایگزین کنم.
چگونه برچسب های محور را در یک باکس پلات سفارشی کنیم؟
10423
آیا مقاله/کتاب/ایده‌ای در مورد رابطه بین تعداد ویژگی‌ها و تعداد مشاهداتی که فرد برای آموزش یک طبقه‌بندی قوی باید داشته باشد، وجود دارد؟ به عنوان مثال، فرض کنید من 1000 ویژگی و 10 مشاهده از دو کلاس به عنوان مجموعه آموزشی و 10 مشاهده دیگر به عنوان مجموعه آزمایشی دارم. من مقداری طبقه‌بندی کننده X را آموزش می‌دهم و 90٪ حساسیت و 90٪ ویژگی در مجموعه آزمایشی به من می‌دهد. فرض کنید از این دقت راضی هستم و بر اساس آن می توانم بگویم که طبقه بندی خوبی است. از طرف دیگر، من تابعی از 1000 متغیر را تنها با استفاده از 10 امتیاز تقریب زدم، که ممکن است به نظر خیلی قوی نباشد؟
تعداد ویژگی ها در مقابل تعداد مشاهدات
48375
من می خواهم یک HMM بسازم که به طور مشابه با برچسب بخش های گفتار کار کند. اما به جای اینکه کلمات را در یک جمله با قسمت گفتارشان برچسب گذاری کنم، کلمات را در جستجوی کاربران در سایت های تجارت الکترونیک با دسته آنها برچسب گذاری می کنم. برای مثال، هر دو «لباس قرمز مهمانی» و «کراوات رسمی مشکی» با «[color] [casion] [item]» برچسب‌گذاری می‌شوند. من یک درک اساسی از رویکرد خود دارم با یک استثنا: چگونه باید با عناصر چند عبارتی در رشته جستجو برخورد کنم؟ برای مثال «عقاب آمریکایی» یک «[نام تجاری]» دو نشانه است. کت و شلوار حمام یک [ مورد] دو نشانه است. و آبی periwinkle یک [رنگ] دو علامت است. بنابراین من می‌خواهم که کت و شلوار شنای عقاب آمریکایی آبی رنگی فقط سه برچسب داشته باشد، یعنی [رنگ] [نام تجاری] [مورد]. رویکردی که من دنبال می‌کنم از فصل 6 این کتاب واقعاً عالی می‌آید، اما به نمادهای چند نشانه‌ای یا معادل آن نمادهای متعددی که در طول یک حالت خاص منتشر می‌شوند، نمی‌پردازد. * ایده های شما چیست؟ * آیا مقالاتی وجود دارد که بتوانید به من مراجعه کنید؟
مدل پنهان مارکوف: چگونه با چندین نماد ساطع شده از یک حالت معین برخورد کنیم
27050
در دوره Stanford ML، به ما آموزش داده شد که با تکرار مقادیر مختلف لامبدا در چندین مجموعه اعتبارسنجی متقاطع و انتخاب مقادیری که با فرضیه با حداقل خطای CV مطابقت دارند، مقادیر خوبی برای پارامترهای لامبدا رج / کمند پیدا کنیم. مشکل این است که من با یک مجموعه داده بزرگ بازی می کنم (که حتی ممکن است برای رگرسیون لجستیک مناسب نباشد (??): مجموعه تبلیغات اینترنتی) و نمی توانم از روشی که در بالا توضیح داده شد استفاده کنم زیرا در طول بهینه سازی، هزینه باقی می ماند. پایدار (بین تکرارها فقط حدود هشتمین رقم اعشار تغییر می کند) و به نظر نمی رسد همگرا باشد. من برای همگرا شدن نیاز به مقادیر خوبی برای منظم سازی دارم، اما نمی توانم بدون مقادیر خوب فوق الذکر همگرا شوم. پیشنهادی دارید؟ آیا باید به استفاده از SVM بروم یا این مجموعه داده با رگرسیون لجستیک قابل حل است؟ توجه: من این کار را برای اهداف یادگیری انجام می‌دهم، بنابراین بیشتر به توضیح اینکه چرا رویکرد من بد است نسبت به کتابخانه‌های جعبه سیاه علاقه‌مندم که به من راه‌حلی بدهد. **ویرایش: برخی از کدهای مربوطه (برای وضوح، گاهی اوقات شبه کد). نمادهای معمول اعمال می شوند.** تابعی که برای محاسبه هزینه استفاده می شود: def computeCost(تتا، X، y): iter سراسری iter += 1 اگر iter > 10: افزایش TooManyIterationsException(iter) # چون هزینه همگرا نمی شود، من وقفه را مجبور می کنم تا به ترکیب دیگری از مقادیر لامبدا بپرم m = y. اندازه h = sigmoid(X.dot(theta.T)) J = y.T.dot(log(h)) + (1.0 - y.T).dot(numpy.log(1.0 - h)) J_reg2 = تتا[1:]**2 J_reg1 = تتا[1:] هزینه = (-1.0 / متر) * (J.sum()) + LAMBDA2 * J_reg2.sum() + LAMBDA1 * J_reg1.sum() چاپ هزینه: ، هزینه بازگشت هزینه فراخوانی scipy.optimize.fmin_bfgs: initial_thetas = numpy.zeros((len(train_X[0]), 1) myargs = (train_X، train_y) برای LAMBDA1 در [0.01، 0.02، 0.04، ...، 10]: برای LAMBDA2 در my_range[0.01، 0.02، 0.04، ...، 10]: امتحان کنید: iter = 0 تتا = scipy.optimize.fmin_bfgs(computeCost، x0=initial_thetas، args=myargs) به جز TooManyIterationsException یک خروجی معمولی به این صورت است: ![enter توضیحات تصویر در اینجا](http://i.stack.imgur.com/b9gdK.jpg) **دوباره ویرایش شد: تکامل تتاها!**![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur. com/xzDCM.jpg)
چگونه می توان پارامترهایی را برای تنظیم ریج و کمند پیدا کرد در حالی که به حداقل رساندن هزینه همگرا نیست؟
9311
من می توانم ببینم که تفاوت های رسمی زیادی بین اندازه گیری های فاصله کول بک-لیبلر در مقابل کولموگروف-اسمیرنوف وجود دارد. با این حال، هر دو برای اندازه گیری فاصله بین توزیع ها استفاده می شوند. * آیا شرایط معمولی وجود دارد که باید از یکی به جای دیگری استفاده شود؟ * چه دلیلی برای این کار وجود دارد؟
فاصله کول بک – لیبلر در مقابل کولموگروف – اسمیرنوف
62859
من می‌دانم که HSD توکی رایج‌ترین تست تعقیبی برای ANOVA بین گروهی است. به نظر می رسد که برخی آن را به عنوان یک آزمون تعقیبی برای ANOVA درون گروهی توصیه یا انتخاب نمی کنند. در عوض، تست بونفرونی یا تست سیداک را ترجیح می دهند. اما، به نظر می‌رسد که هر دوی آنها فقط هر مقدار _p_ را که از آزمون t زوجی بدست می‌آورید در تعداد فرضیه‌هایی که آزمایش می‌کنید ضرب می‌کنند. این رویکرد نه چندان قوی به نظر می رسد. درعوض، اگر می توانستم ترجیح می دادم از تست HSD Tukey در این شرایط [در درون گروهی ANOVA] استفاده کنم. آیا می توانم این کار را انجام دهم؟ یا دلایل خاصی برای عدم وجود دارد.
آیا می توانم از آزمون HSD Tukey به عنوان یک آزمون تعقیبی برای آزمون ANOVA درون گروهی استفاده کنم؟
7873
امروز من یک سوال در مورد رگرسیون دوجمله ای / لجستیک دارم که بر اساس تجزیه و تحلیلی است که گروهی در بخش من انجام داده اند و در جستجوی نظرات هستند. من مثال زیر را برای محافظت از ناشناس بودن آنها ایجاد کردم، اما آنها مشتاق بودند که پاسخ ها را ببینند. ابتدا، تجزیه و تحلیل با یک پاسخ دوجمله ای ساده 1 یا 0 (به عنوان مثال، بقا از یک فصل تولید مثل به فصل بعدی) آغاز شد و هدف مدل سازی این پاسخ به عنوان تابعی از برخی متغیرهای کمکی بود. با این حال، اندازه‌گیری‌های چندگانه برخی از متغیرهای کمکی برای برخی افراد در دسترس بود، اما برای برخی دیگر نه. برای مثال، تصور کنید متغیر x معیاری از میزان متابولیسم در طول زایمان است و افراد از نظر تعداد فرزندان متفاوت هستند (مثلاً متغیر x 3 بار برای فرد A، اما تنها یک بار برای فرد B اندازه‌گیری شد). این عدم تعادل به خودی خود به دلیل استراتژی نمونه گیری محققین نیست، بلکه نشان دهنده ویژگی های جامعه ای است که آنها از آن نمونه برداری کرده اند. برخی از افراد فرزندان بیشتری نسبت به دیگران دارند. همچنین باید اشاره کنم که اندازه گیری پاسخ دوجمله ای 0\1 بین رویدادهای زایمان امکان پذیر نبود زیرا فاصله بین این رویدادها بسیار کوتاه بود. باز هم تصور کنید گونه مورد بحث فصل تولید مثل کوتاهی دارد، اما می تواند بیش از یک فرزند در طول فصل به دنیا بیاورد. محققان مدلی را انتخاب کردند که در آن از میانگین متغیر x به عنوان یک متغیر کمکی و تعداد فرزندانی که یک فرد به دنیا می آورد به عنوان متغیر کمکی دیگر استفاده کردند. اکنون، من به دلایل متعددی مشتاق این رویکرد نبودم. 1) در نظر گرفتن میانگین x به معنای از دست دادن اطلاعات در تغییرپذیری درون فردی x است. 2) میانگین خود یک آمار است، بنابراین با قرار دادن آن در مدل در نهایت به انجام آمار در مورد آمار می پردازیم. 3) تعداد فرزندانی که یک فرد داشت در مدل موجود است، اما برای محاسبه میانگین متغیر x نیز استفاده می شود که به نظر من می تواند مشکل ایجاد کند. بنابراین، سوال من این است که مردم چگونه می توانند این نوع داده ها را مدل کنند؟ در حال حاضر، احتمالاً برای افرادی که یک فرزند دارند، سپس برای افرادی که دو فرزند دارند و غیره، مدل های جداگانه ای اجرا می کنم. همچنین، من از میانگین متغیر x استفاده نمی کنم و فقط از داده های خام برای هر تولد استفاده می کنم، اما هستم. متقاعد نیستم که این خیلی بهتر است. ممنون از وقتی که گذاشتید (PS: پوزش می طلبم که سوال بسیار طولانی است و امیدوارم مثال واضح باشد)
بحث رگرسیون دو جمله ای و استراتژی های مدل سازی
26901
خطوط زیر از یک سخنرانی که در اینجا یافت می شود گرفته شده است. من یک سوال بسیار کوچک در مورد این توضیح در مورد احتمال پواسون دارم. _احتمال پواسون را می توان هر زمان که داده های شما در فواصل مجزا (که ما آن را «شمارش» می نامیم) استفاده کرد و شمارش ها مستقل از یکدیگر هستند. به طور شماتیک، ما تصور می کنیم که فضای داده را به سطل ها تقسیم کنیم، که می تواند سطل هایی در کانال انرژی آشکارساز ما، مکان در آسمان، زمان رسیدن یا هر یک از موارد دیگر باشد. فرض کنید **در یک مدل خاص $m$، انتظار دارید که $m_i$ شمارش در bin $i$** وجود داشته باشد. سپس اگر مدل صحیح باشد، احتمال مشاهده واقعی $d_i$ شمارش در bin $i$ داده ها، از توزیع پواسون، _ $L_i = m_i^{d_i}/d_i است! \; exp(-m_i)$ _توجه داشته باشید که $m_i$ می تواند هر عدد واقعی مثبت باشد، در حالی که $d_i$ باید یک عدد صحیح باشد. همچنین توجه داشته باشید که مجموع $L_i$ از $d_i = 0$ تا ∞ 1 است. احتمال برای کل مجموعه داده حاصل ضرب احتمالات برای هر bin است:_ $L = \Pi\; m_i^{d_i}/d_i! \; exp(-m_i)$ _ با افزایش $m_i$، این با گاوسی بهتر و بهتر تقریب می‌شود. در واقع، اگر می‌توانید مدیریت کنید، بهترین راه برای نمایش داده‌هایتان این است که سطل‌هایی به قدری کوچک داشته باشید که انتظار داشته باشید ** 0 یا 1 تعداد در هر bin**._ سوال من این است: اگر یکی از * *مقادیر مورد انتظار** $m_i$ صفر است (یعنی: مدل تعداد صفر را در آن bin $i$ پیش بینی می کند)؟ آیا این باعث نمی شود که ارزش نهایی $L$ باطل شود؟ # ویرایش پس از خواندن پاسخ @leonbloy و @Henry، فکر می‌کنم باید کمی بیشتر مشکل خاص خود را با این تحلیل توضیح بدهم و اینکه چه چیزی را به وضوح درک نمی‌کنم. در مورد من **دو هیستوگرام** دارم که داده های _مدل شده_ و داده های _مشاهده شده را نشان می دهد. بنابراین $[d_i, \; i=1,n]$ هیستوگرام از مشاهدات واقعی ساخته شده است (یعنی: شمارش در هر bin $d_i$ از طریق آزمایش به دست می آید) و هیستوگرام $[m_i, \; i=1,n]$ توسط یک مدل تولید می‌شود: این بدان معناست که تعداد $m_i$ در مورد من **اعداد صحیح** هستند که در واقع می‌توانند مقدار 0** را بگیرند. اکنون، اینجاست که من به وضوح اشتباه می‌کنم زیرا در آن مقاله خطی خواندم که می‌گوید _توجه داشته باشید که $m_i$ می‌تواند هر عدد واقعی مثبت باشد_ و پاسخ @leonbloy نیز به آن جهت اشاره می‌کند، در مورد من مقادیر $m_i$ **همه** اعداد صحیح هستند و **مقدار 0** را بارها می گیرند. من باید از یک مرحله مهم در مورد محاسبه مقادیر $m_i$ صرف نظر کنم. بنابراین اگر مدل من **شمار در هر bin** را به من بدهد، چگونه باید مقادیر m_i$$ را محاسبه کنم؟ به نظر می‌رسد پاسخ هنری با پاسخ @leonbloy در تناقض است زیرا او می‌گوید $m_i=0$ **احتمالی است** در حالی که @leonbloy می‌گوید **اینطور نیست**. در هر صورت، به نظر می‌رسد که هنری هر زمان که $m_i=0$، سپس $d_i=0$ نیز باشد، فرض می‌کند تا شخص $L_i=1$ را بدست آورد زیرا $0⁰=1$. این مورد من نیست، زیرا $m_i$ می تواند 0 باشد، اما به این معنی نیست که $d_i$ نیز مجبور است 0 باشد (هیستوگرام _observed_ من، $[d_i، \; i=1,n]$، و _modeled_ من هیستوگرام، $[m_i، \; i=1,n]$، مستقل از یکدیگر مشتق شده‌اند) من هنوز کمی گم شده ام. لطفاً به این گزیده گرفته شده از این مقاله نگاهی بیندازید: _(...) بنابراین آزمون انتخاب شده برای انجام بر روی این هیستوگرام یک آزمون احتمال ورود به سیستم برای آمار پواسون است (Eidelman et al. 2004)_: $-2ln(\lambda (\theta))=2\, \sum\limits_{i=1}^N \, (\nu_i(\theta)-n_i+n_i\, ln\frac{n_i}{\nu_i(\theta)})$ (8) _در این فرمول $\theta$ مجموعه‌ای از پارامترهای ناشناخته است که می‌خواهیم استخراج کنیم، $n = (n_1, n_2, . . . , n_N )$ بردار داده حاوی **مشاهدات** با $N$ تعداد bin ها در یک هیستوگرام است. $\nu$ **مقادیر مورد انتظار** هستند که از هیستوگرام **داده های مدل شده** مشتق شده اند و بنابراین به $\theta$ وابسته هستند. وقتی $n_i = 0$، آخرین جمله در معادله. (8) روی صفر تنظیم شده است (...)_ همانطور که می بینید، تجزیه و تحلیل یکسان است (تفاوت در اینجا این است که آخرین معادله احتمال _نسبت_ را نشان می دهد)، اکنون مقادیر _مورد انتظار_$\nu_i(\theta) هستند. $. از آنچه تاکنون فهمیده ام که پارامتر $\nu_i(\theta)$ باید **مستقل** از تعداد شمارش های موجود در bin ها باشد و **فقط یک مقدار** برای هر هیستوگرام داشته باشد. اگر اینطور است پس چرا از زیرنویس $i$ استفاده کنید؟ و چگونه باید آن مقدار را برای هر هیستوگرام محاسبه کنم؟
احتمال پواسون و شمارش صفر در مقدار مورد انتظار
63106
هنگام استفاده از متغیرهای ساختگی در یک مدل اثرات تصادفی، چگونه مدل را مشخص کنم؟ با فرض سه ساختگی (مثلاً برای سه صنعت): * آیا آن را به عنوان سه رگرسیون در نظر می‌گیرم که در آن جدولی با سه ستون برای هر یک از این ساختگی‌ها ارائه کنم؟ (جایی که همه متغیرهای دیگر در زیر در هر ستون یکسان هستند) * یا آیا جدولی دارم که فقط یک ستون دارد اما سه متغیر ساختگی در زیر در ستون گنجانده شده است؟ ویرایش: به ویژه، تفاوت بین دو روش ارائه جداول چیست؟ آیا منطقی است که ابتدا جدولی شامل همه متغیرها در یک ستون ارائه شود و در مرحله دوم تجزیه و تحلیل‌های نمونه فرعی با در نظر گرفتن هر دسته ساختگی ارائه شود؟ با تشکر فراوان برای هر پاسخ سریع باب
استفاده از آدمک ها در مدل جلوه های تصادفی
48373
من از طرف یکی از همکارها می پرسم. من امیدوار بودم که پاسخی برای او داشته باشم، اما ترجیح می دهم به دنبال راهنمایی باشم و کمی اعتماد به نفس بیشتری داشته باشم. او در حال طراحی یک مطالعه درمانی است که من در اینجا برای اهداف توضیحی ابداع می کنم. درمان (آواز خواندن) قرار است خلق و خو را افزایش دهد، در حالی که کنترل (زمزمه کردن) ممکن است خلق و خو را افزایش دهد، اما ما مطمئن نیستیم. خلق و خو با یک متغیر پیوسته اندازه گیری خواهد شد. N شرکت‌کننده به طور تصادفی به یکی از دو گروه تقسیم می‌شوند: خط پایه، آواز، کنترل زمزمه (ABC)، یا پایه، کنترل زمزمه، آواز (ACB). مرحله آزمایشی (BC یا CB) هر گروه شامل سه جلسه هفتگی به مدت شش هفته خواهد بود. به عبارت دیگر، پس از شروع، شرکت‌کنندگان یا سه هفته آواز خواندن و سپس سه هفته کنترل زمزمه را تکمیل می‌کنند یا برعکس. او انتظار دارد که گروه ABC در اوایل (در طول مرحله آواز خواندن) بهبودهایی را نشان دهد، که یا حفظ می شود یا در مرحله کنترل زمزمه اندکی به حالت اولیه باز می گردد. انتظار می رود گروه ACB تا زمانی که شروع به آواز خواندن کند، تغییر کمی نسبت به خط پایه نشان دهد. سؤالات: **چه تحلیل آماری برای طرح مناسب‌تر است؟** (من به طرح تست‌های t زوجی ساده فکر می‌کردم که در آن ما A را با B، B به C، و A به C را برای هر گروه مقایسه می‌کنیم. لطفاً من را تصحیح کنید.) ** با فرض اندازه اثر «متوسط» به چند شرکت کننده نیاز است؟ متغیر وابسته من او را به دو کتاب ارجاع دادم (طراحی و تجزیه و تحلیل کارآزمایی‌های بالینی و آمار اعمال شده در کارآزمایی‌های بالینی) اما آنها بسیار فنی هستند و بحث ممکن است مفیدتر باشد. او نمی تواند شرکت کنندگان زیادی داشته باشد، و امیدوار است که قدرت طراحی متقاطع مفید باشد. امیدوارم 10 یا بیشتر کافی باشد، اما او مطمئن نیست. هر گونه کمک یا راهنمایی قدردانی خواهد شد!
کدام تحلیل آماری برای طراحی درمان متقاطع مناسب‌تر است؟ چند شرکت کننده؟
49686
من موارد زیر را در یک مقاله علوم شبکه یافته‌ام و می‌خواهم درباره آنچه نویسندگان ادعا می‌کنند توضیح دهم: > مشاهده می‌کنیم که ریشه میانگین مربع تفاوت بین توزیع‌های تجربی > چگالی احتمال شبکه‌های نمونه با $h$ و $( h + 1)$ > seeds به طور پیوسته تناسب با خط $y = 1/x$ را کاهش می‌دهد و تأیید می‌کند که تخمین > ما به میانگین طول مسیر واقعی همگرا می‌شود. نویسندگان در تلاشند تا میانگین طول مسیر یک شبکه بزرگ را با نمونه‌برداری از رئوس به صورت تصادفی (که به آنها _seeds_ می‌گویند؛ احتمالاً نمونه‌برداری یکنواخت است) اندازه‌گیری کنند و سپس یک جستجوی گسترده از راس انتخاب‌شده برای تعیین طول را انجام دهند. مسیر هر گره دیگر در شبکه (به طور ضمنی، نمودار باید به هم متصل شود.) آیا کسی می تواند حدس بزند که نویسندگان در اینجا در مورد ادعای سازگاری خود چه می کنند؟ آیا نامی برای این روش وجود دارد؟ و لطفاً می توانید آن را بهتر توضیح دهید تا من بفهمم چگونه می توان همان کار را در یک موقعیت مشابه انجام داد؟ گزیده بالا از صفحه 839، درست بالای سرفصل بخش 5.2 مقاله زیر است. > Y.-Y. Ahn، S. Han، H. Kwak، S. Moon و H. Jeong (2007)، تجزیه و تحلیل > ویژگی های توپولوژیکی سرویس های عظیم شبکه های اجتماعی آنلاین، > _Proc. WWW 2007 (Track: Semantic Web)_، صفحات 835-844.
ارزیابی سازگاری یک برآوردگر طول مسیر متوسط ​​یک شبکه بزرگ
63101
این سوال امتداد سوال قبلی من است هرچند تکرار نمی شود. OR های بوت استرپ من اوکی هستند. آنها برابر با OR های غیر بوت استرپ هستند. با این حال، فواصل اطمینان رگرسیون بوت استرپ و غیر بوت استرپ بسیار متفاوت است. در حالی که رگرسیون غیر بوت استرپ برای مثال OR's 95% CI ~= 1.2 تا 2.3 را گزارش می دهد، Bootstrapped 95% CI OR ~= 1.1 تا 25000 را گزارش می دهد. **عجیب** و **غیر عملی** است. سوالات من این است: 1. آیا این bootstrapped OR CI **درست** است؟ 2. آیا می توانم مدل بوت استرپ خود را برای مزایای آن در مطالعه خود نگه دارم، اما OR CI غیر بوت استرپ را گزارش کنم؟ 3. آیا می توانم هر دو رگرسیون را گزارش کنم؟ با تشکر فراوان.
فواصل اطمینان بوت استرپ برای ORها در رگرسیون لجستیک باینری من به طرز عجیبی بزرگ یا کوچک هستند. آیا آنها در وهله اول معتبر هستند؟
26903
اولا من آمارگیر نیستم. با این حال، من برای دکتری خود تحلیل شبکه آماری انجام داده ام. به عنوان بخشی از تجزیه و تحلیل شبکه، من یک تابع توزیع تجمعی تکمیلی (CCDF) از درجات شبکه ترسیم کردم. آنچه من دریافتم این بود که برخلاف توزیع‌های شبکه معمولی (مثلاً WWW)، توزیع به بهترین وجه با یک توزیع لگ نرمال مطابقت دارد. من سعی کردم آن را با یک قانون توان تطبیق دهم و با استفاده از اسکریپت های Matlab Clauset و همکاران، متوجه شدم که دم منحنی از یک قانون توان با یک برش پیروی می کند. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/TM2je.jpg) خط نقطه نشان دهنده تناسب قانون قدرت است. خط بنفش نشان دهنده تناسب log-normal است. خط سبز نشان دهنده تناسب نمایی است. چیزی که من برای درک آن تلاش می کنم این است که همه اینها به چه معناست؟ من این مقاله نیومن را خوانده ام که کمی به این موضوع می پردازد: http://arxiv.org/abs/cond-mat/0412004 حدس و گمان من در زیر آمده است: اگر توزیع درجه از توزیع قانون توان پیروی کند، می فهمم که به این معنی است که در توزیع پیوندها و درجه شبکه، پیوست ترجیحی خطی وجود دارد (اثر غنی تر می شود یا فرآیند Yules). آیا من درست می گویم که با توزیع لگ نرمال که شاهد آن هستم، در ابتدای منحنی پیوند ترجیحی زیرخطی وجود دارد و به سمت دم خطی تر می شود، جایی که می توان آن را با قانون قدرت تطبیق داد؟ همچنین، از آنجایی که توزیع لگاریتم نرمال زمانی اتفاق می‌افتد که لگاریتم متغیر تصادفی (مثلا X) به طور نرمال توزیع شده باشد، آیا این بدان معناست که در توزیع لگ نرمال، مقادیر کوچک X بیشتر و مقادیر بزرگ X کمتر از یک وجود دارد. متغیر تصادفی که از توزیع قانون توان پیروی می کند، خواهد داشت؟ مهمتر از آن، با توجه به توزیع درجه شبکه، آیا یک پیوست ترجیحی log-عادی هنوز یک شبکه بدون مقیاس را پیشنهاد می کند؟ غریزه من به من می گوید که از آنجایی که دم منحنی را می توان با قانون قدرت برازش کرد، هنوز هم می توان نتیجه گرفت که شبکه دارای ویژگی های بدون مقیاس است. کمک شما بسیار قابل تقدیر است. با احترام، مایکل
تفسیر تفاوت بین توزیع لگ نرمال و قانون توان (توزیع درجه شبکه)
54948
من سعی می کنم مقادیر اوج را پیش بینی کنم. من یک مجموعه داده هفتگی ~ 10 سال دارم. من معیارهای آب و هوا را به عنوان متغیرهای توضیحی دارم. من سعی می کنم مدلی تولید کنم که بتواند با استفاده از معیارهای آب و هوا پیک های داده های هفتگی را به دقت پیش بینی کند. پیک ها کاملا دقیق نیستند، آیا باید از روش دیگری استفاده کنم؟ من در حال حاضر از MLR استفاده می کنم. Pred در مقابل واقعی توانایی توضیحی خوبی را نشان می دهد تا زمانی که به مشاهدات شدیدتر برسید. با تشکر
پیش بینی مقادیر شدید
49974
در خروجی پروبیت من همه مقادیر p ناچیز هستند. من می خواهم حداقل برخی از متغیرهای من قابل توجه باشند. چگونه آن را اصلاح کنم؟ متغیرهای من عبارتند از: دورگه، سن 2، جنسیت، تجربه تحصیلی2، تمام وقت، نژاد محلی، سیستم مزرعه، مالکیت 2، نیروی کار استخدامی، هزینه2، درآمد شیر2، veteanaryattendence2، خدمت دامپزشکی، ترنینگگوت، آموزش بیشتر، سلامت.
تجزیه و تحلیل پروبیت هیچ متغیر قابل توجهی را نشان نمی دهد
8955
من به دنبال هر گونه کمک، توصیه یا راهنمایی در مورد چگونگی توضیح ناهمگنی / ناهمگونی به زیست شناسان در بخش خود هستم. به طور خاص می‌خواهم توضیح دهم که چرا جستجوی آن و مقابله با آن در صورت وجود اهمیت دارد، من به دنبال نظراتی در مورد سؤالات زیر بودم. 1. آیا ناهمگونی بر قابلیت اطمینان تخمین های اثر تصادفی تأثیر می گذارد؟ من تقریباً مطمئن هستم که دارد، اما نتوانستم مقاله ای پیدا کنم. 2. ناهمگونی چقدر مشکل جدی است؟ من نظرات متناقضی در این مورد پیدا کرده ام، در حالی که برخی می گویند که خطاهای استاندارد مدل و غیره غیر قابل اعتماد خواهند بود، همچنین خوانده ام که فقط اگر ناهمگنی شدید باشد مشکل دارد. شدت آن چقدر است؟ 3. مشاوره در مورد مدل سازی ناهمگونی. در حال حاضر، من تا حد زیادی بر روی بسته nlme در R و استفاده از متغیرهای کمکی واریانس تمرکز می کنم، این بسیار ساده است و اکثر مردم در اینجا از R استفاده می کنند، بنابراین ارائه اسکریپت ها مفید است. من همچنین از بسته MCMCglmm استفاده می کنم، اما پیشنهادات دیگر، به ویژه برای داده های غیر عادی، مورد استقبال قرار می گیرد. 4. هر گونه پیشنهاد دیگر استقبال می شود.
مشاوره در مورد توضیح ناهمگونی / ناهمگونی
62853
من یک تحلیل رگرسیون در r اجرا می کنم: fit <- lm (هزینه ~ شیب + YardDist، داده = آزمون) می خواهم دو متغیر مستقل را برای چند خطی بودن آزمایش کنم. من آن را با vif() (از بسته ماشین) و kappa() تست کردم. > vif(fit) Slope YardDist 1.000121 1.000121 > kappa(fit) [1] 11631.87 VIF به من می گوید که چند خطی وجود ندارد و کاپا به من می گوید که چند خطی بسیار بالایی وجود دارد. تفاوت بین هر دو چیست و کدام یک درست است؟
تفاوت بین عامل تورم واریانس (VIF) و کاپا در R؟
26902
به خوبی پذیرفته شده است که هنگام انجام مقایسه‌های مدل باید پیچیدگی مدل را در نظر گرفت و روش کلی این است که مدل‌های پیچیده‌تر را به شدت جریمه کنیم. در حالی که زمانی که پارامترهای یک مدل معین به راحتی تخمین زده می‌شوند، منطقی به نظر می‌رسد (یعنی به صورت تحلیلی، مانند میانگین، واریانس، و غیره)، به نظرم می‌رسد که اگر تخمین پارامتر تلاش دشوارتری باشد، مدل‌های پیچیده‌تر ممکن است تا حدی خود به خود. -جریمه کردن یعنی اگر تخمین پارامتر نیاز به جستجوی فضای پارامتر داشته باشد، احتمالاً فضاهای پارامتر بزرگ‌تر برای جستجو دشوارتر است و بنابراین هر الگوریتم جستجوی محدود احتمال بیشتری دارد (با گسترش فضای پارامتر) قبل از یافتن نقطه حداکثر احتمال جهانی خاتمه یابد. آیا اصلاً در ادبیات آماری به این ایده توجه شده است؟
افکاری در مورد خود جریمه سازی مدل در میان برآورد پارامتر دشوار
109751
اجازه دهید $X_1,...,X_n$ iid r.v. با توزیع F، با میانگین $\mu$ و میانه $\theta$. فرض کنید $Var(X_i)=\sigma^2$ و $F'(\theta)>0$. اگر $\hat{\mu}_n$ میانگین نمونه، و $\hat{\theta}_n$ میانه نمونه است، سپس با استفاده از منحنی/توابع نفوذ، نشان دهید که $\left( \begin{array}{ccc } \sqrt{n} (\hat{\mu}_n-\mu) \\\ \sqrt{n} (\hat{\theta}_n-\theta) \end{آرایه} \right)\xrightarrow[d]{}N(\mathbf{0},C)$، با $C$ یک ماتریس واریانس کوواریانس. خوب، ما می دانیم که $\sqrt{n} (\hat{\theta}_n-\theta)\xrightarrow[d]{}N(0,(2F'(\theta))^{-2})$ ( در اینجا من از برخی از ویژگی‌های منحنی تأثیر پارامترها استفاده کردم که «تقریبی خطی» شبیه به روش دلتا می‌دهند) و همچنین از $\sqrt{n} (\hat{\mu}_n-\mu)\xrightarrow[d]{}N(0,\sigma^2) $ بنابراین، به این فکر می‌کردم که می‌توانم فوراً آنچه را که تمرین می‌پرسد نتیجه‌گیری کنم و فقط ورودی‌های C باقی بمانند. ماتریسی که به صراحت تعیین شود. آیا می توانم این کار را انجام دهم؟ بنابراین، $\mathbf{C}=\left( \begin{array}{ccc} \sigma^2 & \lim Cov(\hat{\mu}_n,\hat{\theta}_n) \\\ \lim Cov(\hat{\theta}_n,\hat{\mu}_n) & (2F'(\theta))^{-2} \end{array} \right)$ بعد، با استفاده از خواص/تعریف منحنی‌های تأثیر (IC) و یک فرض دیگر، $\sqrt{n} (\hat{\mu}_n-\mu)=\frac{1}{\sqrt{n}}\sum IC_{ \mu}(X_i,F)+R_1=\frac{1}{\sqrt{n}}\sum (X_i-\mu)+R_1$ $\sqrt{n} (\hat{\theta}_n-\theta)=\frac{1}{\sqrt{n}}\sum IC_{\theta}(X_i,F)+R_2=\frac{1}{\sqrt{n }}\sum \frac{sign(X_i-\theta)}{2F'(\theta)}+R_2$ با $R_1,R_2\rightarrow_p0$. با استفاده از عبارات RHS من سعی کردم کوواریانس را در ماتریس C محاسبه کنم و $\frac{\mu-2E(X_iI(X_i<\theta))}{2F'(\theta)}$ به دست آوردم آیا این استنتاج صحیح است؟ هر گونه کمکی قدردانی خواهد شد.
محدود کردن توزیع مشترک برآوردگرها. آمار عملکردی; منحنی های تاثیر؛
54947
من $n$ تحقق $s_1,\, \dots , s_n$ از متغیرهای تصادفی $S_1,\, \dots, S_n$ دارم که i.i.d فرض می‌شوند. با توزیع ناشناخته اینها زمان بین رویدادها را اندازه گیری می کنند. من می‌خواهم احتمال مدل‌سازی داده‌ها را با یک فرآیند تجدید محاسبه کنم: $(X_t)_{t\geq0}$ که در آن $X_t$ تعداد کل پرش‌ها بر اساس زمان $t$ است. به طور خاص، من از معادله تجدید اولیه $\lim_{t\rightarrow \infty} \frac{E[X_t]}{t} = \frac{1}{E[S_i]}$ استفاده می‌کنم و این احتمال را می‌خواهم که مقادیر مشاهده شده LHS و RHS برای $(n, t)$ معین مطابقت دارند. آیا می‌خواهم چگونه یک فاصله اطمینان برای آمار $\frac{E[X_t]}{t}$ بسازم و آزمایش کنم که آیا $\frac{1}{E[S_i]}$ در این بازه قرار دارد یا خیر؟ حدس می‌زنم که من می‌پرسم، این است که چگونه می‌توانم خطای قانون قوی اعداد بزرگ را برای یک $n$ معین محاسبه کنم؟ بابت توضیحات گیج کننده پوزش می طلبم، آمار من بهترین نیست!
آزمون فرضیه فرآیند تجدید
62858
من سعی می کنم یک مدل ساده برای محاسبه ارزش طول عمر مشتری (CLV) بر اساس تازگی، فرکانس و پول (R,F,M) بسازم. با مرور وب، این سوال RFM و مدل‌سازی ارزش طول عمر مشتری را در R یافتم و پس از بررسی پاسخ داده شده، تردیدهایی به وجود آمد: 1. یکی از رویکردها شامل موارد زیر است: > _یکی دیگر از رویکردهای محبوب، ساختن است. یک مدل کمی پیچیده تر برای > پیش بینی ارزش پولی بر اساس دو مدل فرعی: یکی برای احتمال > پاسخ (به عنوان مثال استفاده از رگرسیون لجستیک به عنوان تابعی از RFM)، و دیگری برای درآمد مشروط به پاسخ (باز هم، می تواند به سادگی یک مدل خطی RFM باشد). ارزش پولی مورد انتظار حاصلضرب دو پیش‌بینی است. من قبلاً خروجی رگرسیون لجستیک خود را داشتم، اما نمی‌دانم چگونه پاسخ داده‌شده توسط آن (احتمال پاسخ) را با هم ترکیب کنم تا مثلاً رگرسیون خطی برای درآمد همانطور که ممکن است متوجه شوید، در پاسخ ذکر شده در بالا، گفته شده است که این کار مشروط به پاسخ انجام می شود، اما چگونه می توان این کار را انجام داد؟ چگونه می توانم آن مدل ها را ترکیب کنم؟ 1. اگر من درآمد (پولی) را بر اساس احتمال _P_ که توسط رگرسیون لجستیک داده می شود، رگرسیون کنم اشکالی ندارد؟ می ترسم این متغیر به نحوی گنجانده شود زیرا من آن را با اجرای مدلی با _R، F_ و _M_ به عنوان متغیرهای پیش بینی به دست آوردم. 2. لطفاً چند منبع آنلاین (مقاله) برای دریافت بیشتر این موضوع در اختیار من قرار دهید؟
ارزش طول عمر مشتری بر اساس RFM (ترکیب رگرسیون لجستیک و خطی)
65970
من پنج نظرسنجی از همان گروه از دانشجویان در طول یک ترم دارم. هر نظرسنجی از یک مقیاس لیکرت 5 درجه ای استفاده می کند. نظرسنجی اول و آخر شامل چند سوال در مورد شروع و پایان کلاس است (تأثیر اول، برداشت نهایی)، اما اکثر سوالات برای هر چهار یا پنج نظرسنجی یکسان هستند. من می خواهم اهمیت آماری تغییرات پاسخ های دانش آموزان را در طول زمان ارزیابی کنم. متاسفانه آمار مناسب من نیست. من از آزمون t اطلاع دارم، اما به نظر می رسد که فقط برای دو گروه از داده ها قابل استفاده است (لطفاً اگر اشتباه می کنم، من را اصلاح کنید). چگونه باید این داده ها را ارزیابی کنم؟ آیا آنالیز واریانس یک طرفه اقدامات مکرر مناسب است؟
چگونه می توان تغییرات داده های مقیاس لیکرت را در بررسی های متعدد از یک گروه ارزیابی کرد؟
12155
هنگام اجرای الگوریتم Metropolis-Hastings با توزیع یکنواخت نامزد، دلیل داشتن نرخ پذیرش در حدود 20٪ چیست؟ فکر من این است: هنگامی که مقادیر پارامتر درست (یا نزدیک به درست) کشف شد، آنگاه هیچ مجموعه جدیدی از مقادیر پارامتر کاندید از همان بازه یکنواخت، مقدار تابع درستنمایی را افزایش نخواهد داد. بنابراین، هرچه تکرارهای بیشتری را اجرا کنم، نرخ پذیرش کمتری باید دریافت کنم. من کجای این تفکر اشتباه می کنم؟ با تشکر فراوان در اینجا تصویر محاسبات من است: $$Acceptance\\_rate = \exp \\{l(\theta_c|y) + \log(p(\theta_c)) - [l(\theta^*|y) + \ log(p(\theta^*) ]\\}، $$ که $l$ احتمال log است. از آنجایی که $\theta$ نامزدها همیشه از یک یونیفرم گرفته می‌شوند فاصله، $$p(\theta_c) = p(\theta^*).$$ بنابراین محاسبه نرخ پذیرش کاهش می یابد: $$Acceptance\\_rate = \exp \\{l(\theta_c | y) - [l (\theta^* | y) ]\\}$$ قانون پذیرش $\theta_c$ به شرح زیر است: اگر $U \le Acceptance\\_rate $، که در آن $U$ از توزیع یکنواخت در بازه $[0,1]$، سپس $$\theta^* = \theta_c، $$ other $\theta_c$ را از توزیع یکنواخت در بازه $[\theta_{ بکشید. min}، \theta_{max}]$
نرخ پذیرش برای کلان شهر هاستینگ با توزیع یکنواخت نامزدها
62852
من یک نمونه‌گیر گیبس را برای **شبکه الاستیک بیزی** (BEN) مطابق این مقاله در مورد رگرسیون مجازات شده توسط کیونگ و همکاران پیاده‌سازی کرده‌ام. در این مقاله، آنها یک مطالعه شبیه سازی را اجرا می کنند که در مقالات دیگر در مورد رگرسیون مجازات شده (LASSO، Bridge، Ridge) برای مقایسه عملکرد مدل های پیشنهادی استفاده شده است. در اینجا جزئیات شبیه سازی گرفته شده از مقاله ذکر شده در بالا آمده است: > ما داده ها را از مدل واقعی $$ y=X\beta+\sigma\epsilon > \quad\epsilon_i\,{\raise.17ex\hbox{$\scriptstyle شبیه سازی می کنیم. \sim$}}\,\text{iid}\,N(0,1) > $$ مجموعه داده‌ها را با $n=20$ شبیه‌سازی می‌کنیم تا مدل‌ها و $n=200$ برای مقایسه > خطاهای پیش‌بینی مدل‌های پیشنهادی با هشت پیش‌بینی‌کننده. اجازه می دهیم > $\beta=(3,1.5,0,0,2,0,0,0)$ و $\sigma=3$. همبستگی زوجی بین > $x_i$ و $x_j$ به صورت $corr(i,j)=0.5^{|i-j|}$ تنظیم شد. > بعداً می گویند برای خطای پیش بینی، > میانگین مجذور خطا را بر اساس 50 تکرار محاسبه می کنند. منظور آنها از میانگین > میانه در این مورد است. برای شبیه سازی این داده ها و محاسبه MSE از کد زیر در R استفاده کردم: # تعداد مشاهدات n.train <- 20 n.test <- 200 # خطای واریانس سیگما <- 3 # همبستگی زوجی X cor <- 0.5 # تعداد پیش‌بینی‌کننده‌ها p <- 8 # ایجاد مجموعه داده‌های آموزشی و آزمایشی (بسته QRM و mvtnorm مورد نیاز) Z <- equicorr(p, rho=cor) X.train <- rmvnorm(n.train,sigma=Z) X.test <- rmvnorm(n.test,sigma=Z) # ایجاد خطا error.train <- rnorm(n. train,mean=0,sd=1) error.test <- rnorm(n.test,mean=0,sd=1) # ایجاد بتا beta.true <- c(3,1.5,0,0,2,0,0,0) # هر دو پاسخ را ایجاد کنید Y.train <- X.train %*% beta.true + sigma*error.train Y.test <- X.test %*% beta.true + sigma*error.test # مجموعه داده های آموزشی را با BEN Gibbs Sampler beta.ben تنظیم کنید <- BEN(X.train,Y.train, iter=11000, burn = 1000) # محاسبه پاسخ پیش بینی شده Y.pred <- X.test %*% beta.ben # محاسبه میانگین مربعات خطا (MSE) MSE <- مجموع ((Y.train - Y.pred)^2)/n.train مشکل من این است که نتایج من حتی به نتایجی که در مقاله آمده است قابل مقایسه نیست. باعث می‌شود به تنظیم مطالعه شبیه‌سازی خود شک کنم. از آنجایی که یکی از نویسندگان مقاله کد نمونه‌گیر گیبس را آپلود کرده است و من می‌توانم بررسی کنم که آیا اشتباهی انجام داده‌ام، می‌دانم که مشکل اینجا نیست. بنابراین سوالات من این است: 1. آیا کسی تجربه این نوع مطالعه شبیه سازی را دارد و می تواند بررسی کند که آیا من کار اشتباهی انجام داده ام؟ 2. آیا MSE من محاسبه می کنم همان چیزی است که در مقاله استفاده شده است؟ در تحقیق در مورد این موضوع راه های مختلفی برای محاسبه MSE پیدا کردم و گاهی اوقات از آن استفاده می شد اما در واقع منظور از میانگین مربعات خطای پیش بینی بود. به عنوان مثال مقاله ویکی‌پدیا در مورد MSE به تنهایی سه تغییر را فهرست می‌کند. من برای کدنویسی نیازی به کمک ندارم، بلکه اطلاعات بیشتری در مورد نحوه اجرای این شبیه‌سازی معمولاً انجام می‌شود تا بتوانم بفهمم چه اشتباهی انجام می‌دهم.
مطالعه شبیه سازی را از یک مقاله تکرار کنید و MSE را در R محاسبه کنید
21754
متغیرهای زیر را دارم: 1. وزن (مقیاس نسبت) 2. نتیجه به دست آمده از آزمون روانشناسی (مثلا iq) (مقیاس نسبت) 3. استایل 1 (مقیاس نسبت) 4. استایل2 (مقیاس نسبت) 5. استایل3 (مقیاس نسبت) من می‌خواهم این فرضیه را آزمایش کنم: افرادی که نتیجه بالا در سبک 1 و نتیجه بالا در مقیاس IQ دارند وزن بیشتری نسبت به افرادی با نتیجه بالا در سبک 2 و نتیجه پایین در سبک 2 دارند. مقیاس IQ. آیا باید یک متغیر طبقه‌بندی «سبک» بسازم و مقادیر سبک 1، سبک 2 و سبک 3 را دوباره کدنویسی کنم و سپس تحلیل رگرسیون را ادامه دهم یا راهی برای آزمایش فرضیه بدون این تبدیل وجود دارد. شرط می بندم که باید آنالیز رگرسیون چند متغیره باشد، اما من نمی دانم چگونه فایل را به گروه تقسیم کنم، وقتی سه متغیر دارم.
آزمون فرضیه در رگرسیون چندگانه
54943
من با اثبات معادله عادی مشکل دارم، بنابراین یک سوال پست کردم که امیدوارم به زودی حل شود. با این حال، من در آنجا اشاره کردم که با اثبات هایی که با حساب ماتریسی سروکار دارند، ناراحت هستم، به ویژه وقتی صحبت از مشتقات حاصلضرب بردارها یا حاصل ضرب ماتریس ها و بردارها می شود. علاوه بر این، چند کنوانسیون طرح بندی وجود دارد که حتی به طور مداوم مورد استفاده قرار نمی گیرند. به همین دلیل، من فکر کردم که می توانم با استفاده از نماد تانسور به جای آن از شر این همه جنون خلاص شوم. در رابطه با سوال معادله عادی، من بسیار علاقه مند هستم که به اثبات این معادله نگاه کنم (در اینجا می توانید زمینه را مشاهده کنید): $$\beta = (X^{T}X)^{-1}X^ {T}{\bf{y}}$$ با استفاده از نماد تانسور. و به عنوان یک درخواست کلی تر، مایلم در مورد مسئله برخورد با محاسبات ماتریسی و مشتقات مشاوره دریافت کنم. به ویژه، من می خواهم در مورد رویکرد شما بشنوم زمانی که شما باید چیزی از این نوع را با توجه به ناهماهنگی در نمادها و ماهیت غیر شهودی برخی از هویت ها محاسبه کنید. آیا هر بار که می‌خواهید مشتقی از بردارها یا ماتریس‌ها را محاسبه کنید، به ویکی‌پدیا یا کتابچه راهنمای دیگری مراجعه می‌کنید؟ آیا برخی از هویت های تکراری را حفظ می کنید؟ آیا روش جایگزینی می شناسید؟
اثبات معادله نرمال در رگرسیون با استفاده از نماد تانسور
45075
من گیج شده ام که در تابع scipy.stats.norm.pdf چیست. تعریف چندک می گوید که k-th از q-quantile اساساً مقداری است که جمعیت را به k/q و (q-k)/q تقسیم می کند. اما اگر من scipy.stats.norm.pdf ([0,1,2,3,4], 2, 9) را فراخوانی کنم آنگاه بردار `v` با 5 عدد دریافت خواهم کرد. «v[i]» در این مورد به چه معناست؟ احتمال RV نرمال برابر است؟ میشه توضیح بدی لطفا
quantile در کتابخانه scipy
57999
از سند و راهنما، مدل probit توسط mlogit پشتیبانی می شود. اما وقتی آن را با این اسکریپت‌های R امتحان کردم، زمان اجرای تخمین بسیار طولانی‌تر است (نسبت به logit verion) و نتیجه نیز کمی متفاوت است (argument probit=FALSE). آیا پروبیت درست عمل می کند؟ اگر چنین است، چگونه باید ضرایب er.gc، er.gr و غیره را تفسیر کنم؟ > require(mlogit) > data(Heating) > H <- mlogit.data(Heating, shape=wide, Choice=depvar, varying=c(3:12)) > m1.probit = mlogit(depvar~ ic+oc، H، probit=TRUE) > summary(m1.probit) فراخوانی: mlogit (فرمول = depvar ~ ic + oc، داده = H، probit = درست) فرکانس های جایگزین: ec er gc gr hp 0.071111 0.093333 0.636667 0.143333 0.055556 bfgs روش 37 تکرار، 0h:4m:54s g'1g'(-H) بالاتر ^-0. ضرایب : Estimate Std. خطا t-value Pr(>|t|) er:(intercept) 2.5611e-01 3.6641e-01 0.6990 0.48457 gc:(intercept) -2.6944e-02 3.3211e-01 -0.0811 -1.8439e+01 3.2798e+01 -0.5622 0.57398 اسب بخار:(قطع) -6.4231e-01 7.4214e-01 -0.8655 0.38677 ic -1.1447e -1.1447e-1.1447e-1.1447e-1.1447 -1.1447e-175. 0.03133 * oc -3.3779e-03 1.4011e-03 -2.4109 0.01591 * er.gc 4.4987e-01 2.6880e-01 1.6736 0.09421. er.gr 5.8580e+00 1.1236e+01 0.5214 0.60212 er.hp 1.2613e+00 5.0231e-01 2.5109 0.01204 * gc.gc 7-10130-7.191. 2.0010 0.04540 * gc.gr -8.4606e+00 1.6848e+01 -0.5022 0.61555 gc.hp 6.7245e-01 6.1475e-01 1.0939 1.0930 0.201+ 0.2701. 2.6034e+01 0.5410 0.58849 گرم اسب بخار 4.9476e-01 4.4568e-01 1.1101 0.26694 اسب بخار کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Log-Likelihood: -1000.1 McFadden R^2: 0.021626 آزمون نسبت درستنمایی: chisq = 44.21 e-05) > m1.logit = mlogit(depvar~ic+oc، H، probit=FALSE) > summary(m1.logit) فراخوانی: mlogit(فرمول = depvar ~ ic + oc، داده = H، probit = FALSE، روش = nr ، print.level = 0) فرکانس های جایگزین: ec er gc gr hp 0.071111 0.093333 0.636667 0.143333 0.055556 nr روش 6 تکرار، 0h:0m:0s g'(-H)^-1g = 9.58E-06 مقادیر تابع متوالی در محدوده های تحمل ضرایب: برآورد ضرایب. خطای t-value Pr(>|t|) er:(intercept) 0.19459102 0.20424212 0.9527 0.3407184 gc:(intercept) 0.05213336 0.46598878 0.46598878 0.1919 (intercept) 0.1911 -1.35058266 0.50715442 -2.6631 0.0077434 ** اسب بخار:(قطع) -1.65884594 0.44841936 -3.6993 0.0002162 *** 15 3060606. -2.4694 0.0135333 * oc -0.00699637 0.00155408 -4.5019 6.734e-06 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Log-Likelihood: -1008.2 McFadden R^2: 0.013691 آزمون نسبت درستنمایی: chisq = 27.99. e-07)
تخمین مدل پروبیت چند جمله ای با mlogit (بسته R)
49975
بیایید فرض کنیم موقعیت همه افراد از گونه های مختلف گیاهی را در 3 قطعه نمونه با شکل نامنظم که بسیار نزدیک به یکدیگر هستند، ثبت کرده ایم. به عنوان نمونه 2 عکس با 2 گونه مختلف در زیر قرار دادم. هر شبکه مربوط به 100 متر است و هر دایره نشان دهنده یک گیاه است (اندازه دایره ها برای این سوال مهم نیست). ![Species 1](http://i.stack.imgur.com/1xYpP.png) ![Species 2](http://i.stack.imgur.com/WZYsf.png) ما می خواهیم آنچه را تجزیه و تحلیل کنیم میزان وقوع افراد به متغیرهای اکولوژیکی مختلف بستگی دارد. در تعدادی از مطالعات مشابه، نویسندگان یک اندازه گیری کمی از میزان خودهمبستگی فضایی درون گونه ای برای هر گونه ارائه کردند، معمولاً I موران. با این حال، مطمئن نیستم که چگونه می توانیم این کار را در مورد خود انجام دهیم، زیرا: تجزیه و تحلیل خودهمبستگی فضایی، مانند موران I، همگنی را در منطقه مورد مطالعه فرض می کند، که به وضوح اینطور نیست. * شکل کرت های نمونه کاملا نامنظم است. * بسیاری از گونه ها به طور کامل در یکی از 3 قطعه وجود ندارند. ما می‌توانیم با استفاده از خودهمبستگی فضایی محلی، مانند LISA، خوشه‌هایی را در سطح محلی پیدا کنیم. اگر من LISA را به درستی درک می کردم، باید منطقه مطالعه خود را در زیر واحدهای مختلف همگن جدا کنیم، که به نوعی خودسرانه به نظر می رسد. چه اطلاعاتی در مورد همبستگی خودکار فضایی درون گونه ای می توانیم بر اساس داده های خود ارائه دهیم؟ آیا این حتی از نظر آماری منطقی است یا بهتر است فقط الگو را به صورت کیفی توصیف کنیم؟ به هر حال، ما از R برای تجزیه و تحلیل استفاده می کنیم. ویرایش: شاید برخی اطلاعات اضافی در مورد مطالعه ما به پاسخ به این سوال کمک کند. تا کنون، ما از تکنیک‌های مدل‌سازی توزیع گونه‌های موجود (مانند MaxEnt) استفاده کردیم. نتایج به طور کلی رضایت بخش هستند، با عملکرد مدل خوب و پیش بینی هایی که از نقطه نظر اکولوژیکی منطقی هستند. با این حال، برخی از نویسندگان هشدار می دهند که خود همبستگی فضایی بین رخدادها می تواند بر مدل تأثیر بگذارد. بنابراین، ما می خواهیم یک اندازه گیری _ساده (در صورت امکان) از خودهمبستگی مکانی برای توصیف داده ها ارائه کنیم. ویرایش 2: با توجه به پیشنهاد استفاده از تابع K یا L ریپلی: تا آنجا که من می دانم، این توابع فرض می کنند که فرآیندهای نقطه زیرین از نظر فضایی همگن هستند (ایستا)، که در مورد ما صحیح نیست. توابع K و L برای الگوی نقطه‌ای ناهمگن در سال‌های اخیر توسعه یافته‌اند، که شدت غیر ثابت را در هر مکان در منطقه مورد مطالعه در نظر می‌گیرند (برای مثال اینجا را برای شبیه‌سازی در R ببینید). با این حال، برای تجزیه و تحلیل ما، ما واقعاً علاقه مند به محاسبه همبستگی فضایی _after_ برای شدت های مختلف نیستیم، بلکه به این علاقه مندیم که شدت های مختلف از نظر مکانی همبستگی خودکار داشته باشند (من نمی دانم که آیا این کاملاً منطقی است یا خیر).
خود همبستگی فضایی داده‌های نقطه‌ای غیر همگن در نمودارهای نمونه با شکل نامنظم
26909
من به دنبال یک الگوریتم MCMC عمومی برای یک مدل خطی هستم. من مقالات زیادی را آنلاین خوانده ام و آنها بسیار گیج کننده هستند. امیدوارم بفهمم این روش از نظر تئوری چگونه کار می کند **آیا کسی می تواند با یک الگوریتم گام به گام برای اجرای یک روش MCMC برای تخمین بتا و واریانس ($\sigma^2$) به من کمک کند؟**
الگوریتم MCMC برای تخمین بتا و واریانس
62850
من سعی می کنم بفهمم چگونه یک ماتریس همبستگی (R) را به یک ماتریس کوواریانس (S) برای ورودی به یک مولد اعداد تصادفی تبدیل کنم که فقط S (rmvnorm(mvtnorm) در R) کتابخانه (mvtnorm را می پذیرد. ) TRUTH= 0.8 # مقدار همبستگی هدف بین X1 و X2 R <- as.matrix(data.frame(c(1, TRUTH)، c(TRUTH، 1))) V <- diag(c(sqrt(1)، sqrt(1))) # ماتریس مورب sqrt(واریانس ها) S <- V %*% R %*% V cor (rmvnorm(100, sigma=S) ) # این را تکرار کنید تا ایده ای از واریانس اطراف تخمینگر پیرسون داشته باشید. 1 V <- diag(c(sqrt(3), sqrt(2))) S <- V %*% R %*% V cor(rmvnorm(100, sigma=S) ) این درست به نظر می رسد، اما من مایل به نقد کارشناسی هستم
به دست آوردن ماتریس کوواریانس از ماتریس همبستگی
59845
اجازه دهید $X_1,...,X_N$ متغیرهای تصادفی عادی مستقل باشند. $X_i$ با میانگین $\mu_i$ و انحراف استاندارد $\sigma_i$ طبیعی است. اجازه دهید $x_i$ یک نمونه تصادفی منفرد از $X_i$ باشد. **ورودی:** ما همه $x_i$ و همه $\sigma_i$ را دریافت می کنیم، اما $\mu_i$ را دریافت نمی کنیم. **سوال 1** هیستوگرام $\mu_i$ را تخمین بزنید. **سوال 2** فرض کنید که میانگین $\mu_i$ به طور مستقل از توزیع $\mathcal{M}$ گرفته شده است. تخمینی معادل $\mathcal{M}$ ایجاد کنید. توجه: سوال 1 در زیر توسط @soakley پاسخ داده شد اما راه حل به درخواست من کمک نکرد، بنابراین من سوال 2 را اضافه کردم. توجه داشته باشید که هدف تخمین $\mu_i$ به صورت جداگانه نیست، بلکه هدف بدست آوردن یک تخمین خوب است. برای هیستوگرام، یا توزیع، همه $\mu_i$ با هم. امیدواریم این تخمین بهتر از آن چیزی باشد که با مخلوط کردن گاوسی ها در اطراف $x_i$ بدست می آوریم. برآورد حداکثر احتمال باید کار کند، اما من نمی دانم چگونه آن را تولید کنم. **سوال گرم کردن:** وقتی همه $\sigma_i$ یکسان باشند، یک سوال ساده تر است. این آسان است: پاسخ را در پایین ببینید. **جزئیات بیشتر:** به روشی نیاز دارم که بتوانم برنامه ریزی کنم و در زمان معقولی اجرا شود. بنابراین الگوریتم های زمان نمایی کافی نخواهند بود. در ورودی من، $N$ حدود 5000 است، انحرافات استاندارد بیشتر بین 5 تا 50 است، و میانگین ها اغلب بین 0 تا 40 است. اختلاط همه این گاوسی ها. نتایج به هیچ وجه شبیه توزیع صحیح $\mu_i$ نیست. به عنوان مثال، تصور کنید همه $X_i$ها RVهای معمولی استاندارد هستند. سپس روش ساده من حدس می‌زند که $\mu_i$ در یک گاوسی بسیار گسترده در حدود 0 قرار دارد. با این حال، با توجه به نمونه‌های $x_i$ و انحرافات استاندارد $\sigma_i$، یک الگوریتم هوشمندانه می‌تواند به وضوح بهترین حدس را ببیند. این است که تمام $\mu_i$ برابر با صفر است. بنابراین، احتمالاً با استفاده هوشمندانه از تجزیه فوریه، می‌توان خیلی بهتر از الگوریتم ساده‌لوح من انجام داد. **پاسخ به سوال گرم کردن:** سوال 1 راه حل خوبی ندارد. برای به دست آوردن یک راه حل خوب، باید توزیع پسینی را در نظر گرفت. در مورد سوال 2: وقتی همه انحرافات استاندارد یکسان هستند، برای بدست آوردن تخمینی برای توزیع $\mathcal{M}$، به سادگی باید توزیع x_i$s را با گاوسی جدا کنیم. با این حال، نمی‌دانم چگونه می‌توان این را به موارد متفاوت $\sigma_i$ تعمیم داد. **انگیزه:** من یک بازیکن پوکر هستم که در یک بازی پوکر بسیار چرخشی (Pot Limit Omaha) بازی می کنم. ما می‌خواهیم با تعیین «نرخ برنده واقعی» استخر بازیکنان دریابیم که آیا هنگ خیلی زیاد است یا خیر. ما به عنوان داده، میزان برد همه بازیکنان در استخر بازیکنان در طول یک سال کامل را داریم (اینها x_i$ هستند)، و انحرافات استاندارد برد آنها (این $\sigma_i$ است) و می‌خواهیم توزیع آنها را تخمین بزنیم. واقعی winrates ($\mu_i$'s) برای اینکه بفهمید آیا تعداد بازیکنان زیادی برنده هستند یا خیر. این به مشکل بالا ترجمه می شود. **تحقیقات در حال انجام** من به تازگی مقاله ای از بووی و همکاران پیدا کردم که به نظر می رسد به تعمیم سوال من می پردازد و الگوریتمی را پیشنهاد می کند. به نظر می رسد بسیار مرتبط است. من آن را می خوانم و هر یافته ای را اینجا گزارش می کنم.
با توجه به نمونه هایی از چندین RV معمولی، چگونه هیستوگرام میانگین آنها را بازیابی کنیم؟
10425
من از تابع auto.arima() در بسته پیش‌بینی استفاده می‌کنم تا مدل‌های ARMAX را با متغیرهای مختلف تطبیق دهم. با این حال، من اغلب تعداد زیادی متغیر برای انتخاب دارم و معمولاً به یک مدل نهایی می رسم که با زیر مجموعه ای از آنها کار می کند. من تکنیک‌های تک‌تک برای انتخاب متغیر را دوست ندارم زیرا انسان هستم و در معرض سوگیری هستم، اما اعتبارسنجی متقابل سری‌های زمانی سخت است، بنابراین راه خوبی برای آزمایش خودکار زیرمجموعه‌های مختلف متغیرهای موجود خود پیدا نکرده‌ام، و من گیر کرده ام که مدل هایم را با بهترین قضاوت خودم تنظیم کنم. وقتی مدل‌های glm را جا می‌دهم، می‌توانم از توری الاستیک یا کمند برای تنظیم و انتخاب متغیر از طریق بسته glmnet استفاده کنم. آیا یک جعبه ابزار موجود در R برای استفاده از توری الاستیک در مدل‌های ARMAX وجود دارد، یا باید خودم را رول کنم؟ آیا این حتی ایده خوبی است؟ ویرایش: آیا محاسبه دستی عبارات AR و MA (مثلاً تا AR5 و MA5) و استفاده از glmnet برای مطابقت با مدل منطقی است؟ ویرایش 2: به نظر می‌رسد که بسته FitAR من را در این راه، اما نه همه آن‌ها، می‌کند.
تطبیق مدل ARIMAX با تنظیم یا جریمه (به عنوان مثال با کمند، توری الاستیک یا رگرسیون برآمدگی)
1980
**سوال:** آیا نمونه های خوبی از تحقیقات تکرارپذیر با استفاده از R وجود دارد که به صورت رایگان به صورت آنلاین در دسترس باشد؟ **مثال ایده آل:** به طور خاص، نمونه های ایده آل ارائه می دهند: * داده های خام (و در حالت ایده آل متا داده ها که داده ها را توضیح می دهند)، * همه کدهای R شامل واردات داده ها، پردازش، تجزیه و تحلیل و تولید خروجی، * Sweave یا روش دیگری برای پیوند خروجی نهایی به سند نهایی، * همه در قالبی که به راحتی قابل دانلود و کامپایل در رایانه خواننده است. در حالت ایده‌آل، مثال می‌تواند یک مقاله ژورنالی یا پایان‌نامه‌ای باشد که در آن بر یک موضوع کاربردی واقعی در مقابل یک مثال آموزشی آماری تأکید می‌شود. **دلایل علاقه:** من به موضوعات کاربردی در مقالات و پایان نامه های ژورنالی علاقه خاصی دارم، زیرا در این مواقع چندین مسئله اضافی ایجاد می شود: * مسائل مربوط به پاکسازی و پردازش داده ها * مسائل مربوط به مدیریت ابرداده ها * مجلات مطرح می شود. و پایان نامه ها اغلب دارای انتظارات راهنمای سبک در رابطه با ظاهر و قالب بندی جداول و شکل ها هستند * بسیاری از مجلات و پایان نامه ها اغلب دارای طیف گسترده ای از تجزیه و تحلیل هستند که مسائل مربوط به آن را مطرح می کنند. گردش کار (به عنوان مثال، نحوه توالی تجزیه و تحلیل) و زمان پردازش (به عنوان مثال، مسائل مربوط به تجزیه و تحلیل کش و غیره). دیدن نمونه‌های کاری کامل می‌تواند مواد آموزشی خوبی برای محققانی که با تحقیقات تکرارپذیر شروع می‌کنند فراهم کند.
نمونه های اساسی تحقیق قابل تکرار را با استفاده از R
59842
به تازگی وارد یادگیری ماشینی شده‌ام، و من می‌پرسم آیا رابطه‌ای بین الگوریتم یادگیری پرسپترون و رگرسیون خطی وجود دارد؟
PLA در مقابل رگرسیون
68703
من در مراحل اولیه طوفان فکری هستم تا بتوانم خلاصه‌ای ساده و اجمالی از مقالات علمی را که در چند آمار خلاصه شده‌اند، و احتمالاً مقداری در مقیاسی بر اساس نسخه‌های وزن‌دار آن آمار ارائه کنم تا بتوانم سریع‌تر ارائه کنم. ، تصویری تقریبی برای احتمال نسبی درست بودن داده های درون در مقابل یک کاغذ متضاد. به عنوان مثال، اگر من وضعیت تکرار یک نتیجه را در مقیاس (از پایین به بالاتر) تکرار نکردم، تلاش نکردم تکرار کنم، با موفقیت تکرار شد را دنبال کنم، آنگاه شخصی که به دو مقاله با نتایج متضاد نگاه می کند، فرض می کند که مقاله با وضعیت «تکثیر نشد» احتمال کمتری دارد که درست باشد نسبت به مقاله با وضعیت «تکثیر با موفقیت» (یا «بدون تکرار تلاش کرد). فرض بر این است که با یکسان بودن تمام معیارهای دیگر، «بالاتر بودن» در مقیاس با افزایش احتمال مطابقت دارد. ** چیزی که من در مورد آن کنجکاو هستم این است که معیارهای بیشتری (در طراحی آزمایشی یا موارد دیگر) وجود دارد که می تواند به عنوان یک قاعده سرانگشتی برای رتبه بندی احتمال نسبی صحیح بودن نتایج یک مقاله در مقایسه با مقاله دیگر در مورد همان موضوع مورد استفاده قرار گیرد. ? آیا این حتی امکان پذیر است؟** معیارهای پیشنهادی من تاکنون: * _**وضعیت تکرار_**: تکرار نشد، تکرار نشد، با موفقیت تکرار شد * _**نوع مطالعه_**: گذشته نگر، آینده نگر، آزمایش تصادفی * _ **(فقط آزمایشات) کوری_** : هیچ، کور، دو کور * _**انتخاب جمعیت_**: غیر تصادفی، تصادفی * _**(فقط نظرسنجی) بازه زمانی نظرسنجی_**: گذشته، گذشته فوری، زمان واقعی * _**اندازه نمونه_** * _**فاصله اطمینان_**
برای ارزیابی احتمال درست بودن نتیجه مقاله از چه کیفیت داده هایی می توان استفاده کرد؟
21752
لطفاً کسی می تواند به من بگوید که آرگومان «جایگزین» در «fisher.test()» در R چیست؟ بیشتر و کمتر دلالت بر چه چیزی دارند؟ fisher.test(x، y = NULL، فضای کاری = 200000، ترکیبی = FALSE، control = list()، یا = 1، جایگزین = دو طرفه، conf.int = TRUE، conf.level = 0.95، شبیه سازی. p.value = FALSE, B = 2000) من بخش راهنما را امتحان کردم و تمام چیزی که می گوید این است که فرضیه جایگزین باید یکی از «دوطرفه»، «بزرگتر» یا «کمتر»». چه زمانی باید از هر کدام استفاده کنم؟ من به نمایش بیش از حد در مجموعه خود در برابر یک مجموعه کنترل نگاه می کنم.
استدلال جایگزین در آزمون دقیق فیشر در R
48084
من باید ضریب جینی را بر روی برخی از داده های جمعیتی که در براکت های درآمدی مرتب شده اند محاسبه کنم: برای مثال $0->$1000: 10000 نفر $1000->$10000: 50000 نفر مشکل من این است که آخرین براکت نامحدود است، یعنی به شکل: $100:0000 <$100000 است. 500 نفر آیا راهی برای محاسبه ضریب جینی داده شده وجود دارد این داده ها؟
محاسبه ضریب جینی با براکت های درآمدی نامحدود؟
62851
من سعی می‌کنم از سناریوی چند حالته بیماری-مرگ برای مدل‌سازی یک متغیر کمکی وابسته به زمان در تحلیل ریسک‌های رقیب با پیروی از Beyersmann و همکاران استفاده کنم. 2012 (رقابت ریسک ها و مدل های چند حالته با R، Springer New York، 2012). به طور کلی همه آزمودنی ها در وضعیت سالم = 0 با امکان انتقال به حالت بیمار = 1 (متغیر وابسته به زمان) شروع می شوند. هر یک از این حالت ها ممکن است به یکی از دو حالت جذب کننده رقیب تبدیل شود ترخیص = 2، مرگ = 3. سوال خاص من این است که آیا بیمار می تواند در هر دو حالت 0 یا 1 شروع کند یا همه بیماران باید در حالت 0 شروع کنند. تا این مدل کار کند داده های من شامل بیمارانی است که در ابتدای مشاهده در هر دو حالت سالم و بیمار شروع می کنند. با تشکر
مدل بقای چند حالته بیماری-مرگ
44301
من تخمین‌گر Shlosser را برای تعداد مقادیر متمایز در جامعه‌ای که یک نمونه داده شده است، پیاده‌سازی کرده‌ام. اکنون می خواهم مطمئن شوم که الگوریتم من به درستی پیاده سازی شده است. آیا نمونه‌ای وجود دارد که به من امکان می‌دهد محاسبه من را با مقدار متعارف مطابقت دهد؟
مجموعه های مثالی برای برآوردگر ارزش متمایز Shlosser؟