_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
89167 | من سعی می کنم یک رگرسیون خطی چندگانه با تغییر دمای آب به عنوان متغیر پاسخ من و چهار متغیر عددی توضیحی (که بر تغییر دما تأثیر می گذارد) ایجاد کنم. هر متغیر عددی قبل از تغییر دما (به عنوان مثال مقدار یخ اضافه شده به آب) ثبت شد. مشکل من این است که پیشینه آماری یا R برای در نظر گرفتن خودهمبستگی را ندارم، با توجه به اینکه مشاهده قبلی احتمالاً بر روی مشاهده بعدی تأثیر می گذارد. مدل اصلی من به شرح زیر است و یک MLRM با انتخاب معکوس است (البته همبستگی خودکار در نظر گرفته نشده است): _lm(y ~ x1 + x2 + x3 + x4)_ از هر کمکی بسیار قدردانی می شود! | چگونه خودهمبستگی را در یک رگرسیون خطی چندگانه حساب کنیم؟ |
95120 | من مقاله مخلوط های فرآیند دیریکله مدل های خطی تعمیم یافته نوشته L. A. Hannah را می خوانم. اگر می خواهم مدل زیر را شبیه سازی کنم $$\mathcal{P}\sim \text{DP}(c\mathbb{G}_0)$$ $$\theta_i|\mathcal{P}\sim\mathcal{P }$$ $$X_{i,j}|\theta_{i,x}\sim\mathcal{N}(\mu_{ij}،\sigma^2_{ij})، j=1،...d$$ $$Y_i|X_i،\theta_{i,y}\sim\mathcal{N}(\beta_{i0}+\sum^d_j=\beta_{ij}X_{ij },\sigma^2_{ij})$$ در R، چگونه می توانم $\mathcal{P}$ و $\theta_i|\mathcal{P}$ را در R دریافت کنم $$\mathcal{P}\sim\text{DP}(c\mathbb{G}_0)$$ $$\theta_i|\mathcal{P}\sim\mathcal{P}$$ | شبیه سازی فرآیند دیریکله در R |
69949 | برای استفاده از نمرات مولفه ها/عوامل استخراج شده در تحلیل رگرسیون بیشتر، مانند رگرسیون مدل اثرات مختلط به عنوان پیش بینی کننده متغیر نتیجه یا DV. آیا هنگام استفاده از نمرات سناریوهای زیر (بسته «روانی» در R) در نتایج حاصل از تحلیل رگرسیون اختلاف وجود خواهد داشت: \- مؤلفههای اصلی بدون چرخش «هیچ» \- مؤلفههای اصلی چرخش متعامد «varimax» \ - مولفههای اصلی چرخش اریب «promax» \- عوامل چرخش مایل «promax» با استفاده از «ml» استخراج (حداکثر احتمال) \- عوامل چرخش اریب «promax» با استفاده از استخراج «pa» (محورهای اصلی)؟ آیا استفاده از هر یک از نمرات بالا در تحلیل رگرسیون بیشتر نامعتبر است؟ آیا مسائل شناخته شده در این زمینه وجود دارد؟ یا تجربیات مشابه قبلی؟ | آیا چرخش اجزا/عوامل استخراجشده پس از PCA/EFA بر نتایج تحلیل رگرسیون بعدی تأثیر میگذارد؟ |
96362 | من سعی می کنم برخی از داده ها را با هم مقایسه کنم و ببینم آیا ارزش Pinteraction قابل توجهی بین آنها وجود دارد یا خیر. داده ها بسیار کج هستند و بنابراین من می خواهم از یک تبدیل استفاده کنم. تبدیل لاگ منجر به باقیمانده های بسیار غیر عادی می شود، بنابراین من به دنبال تبدیل مناسب تری هستم، اگر وجود داشته باشد. من به تبدیل Box-Cox رسیدم، و سعی میکنم ببینم که آیا کار میکند یا خیر. با این حال، برای هر مجموعه داده من یک لامبدا منحصر به فرد دارم، و بنابراین یک معادله متفاوت از شکل Box-Cox با استفاده از اولی، زیرا مقدار لامبدا من در همه موارد صفر نیست. بنابراین سوال من این است که آیا می توانم دو مجموعه داده تبدیل شده با مقادیر مختلف لامبدا را به صورت آماری مقایسه کنم یا راهی برای یافتن مقدار لامبدا وجود دارد که حداکثر احتمال برای هر دو مجموعه داده باشد. یا اگر اشتباه وحشتناکی مرتکب شده ام. متشکرم! ~~~~~ من اینطوری مقدار لامبدا را پیدا کردم، فقط برای اینکه مطمئن شوم اشتباه نکرده ام. مجموعه داده Data1 و Data2 را فرض کنید، که در آن Data1 متغیر پاسخ است. library('MASS') #رگرسیون اولیه برای دریافت شی رگرسیون LM <- lm(Data1 ~ Data2) LM.b <- boxcox(LM) #x = مقادیر لامبدا، y = مقادیر احتمال lam <- LM.b$x lik <- LM.b$y lam.lik <- cbind(lam,lik) #مرتبسازی بر اساس احتمال برای بدست آوردن حداکثر احتمال لامبدا lam.lik.sort <- lam.lik[order(-lik),] LAM <- lam.lik.sort[1,1] #انجام رگرسیون روی مقادیر تبدیل شده Data1.trans <- ((Data1^LAM) - 1 )/LAM LM.trans <- lm(Data1.trans ~ Data2) shapiro.test(LM.trans$residuals) از وقتی که در اختیار ما گذاشتید متشکریم! | مقایسه داده های تبدیل شده باکس-کاکس با لامبداهای مختلف. |
52270 | می خواستم بدانم چه روابط و تفاوت هایی بین تجزیه و تحلیل سری زمانی و پردازش سیگنال آماری وجود دارد؟ من توصیه هایی از کتاب های سری زمانی پیدا کردم، از جمله کتاب هایی در پردازش سیگنال آماری. اما من مطمئن نیستم که این دو حوزه چگونه به هم مرتبط هستند و تفاوت دارند؟ با تشکر و احترام! | روابط و تفاوت بین تجزیه و تحلیل سری زمانی و پردازش سیگنال آماری؟ |
82850 | من یک لباس قبلی با مقادیر معین $a$ و $b$ دارم (نه یکنواخت استاندارد). چگونه می توانم این توزیع را به روز کنم تا نتایج حاصل از داده های خود را در نظر بگیرم؟ اگر $U(1,1)$ بود، میتوانستم آن را به توزیع بتا تبدیل کنم، اما از آنجایی که اینطور نیست، مطمئن نیستم چگونه به این موضوع نزدیک شوم. | به روز رسانی یکنواخت |
94215 | من سعی می کنم یک مدل بازار سهام بر اساس متغیرهای بنیادی برای اقتصاد ایالات متحده ایجاد کنم. من از R استفاده می کنم. برخی از متغیرهایی که به دنبال آن هستم عبارتند از: تولید ناخالص داخلی، نرخ بیکاری، مطالبات اولیه و غیره... با توجه به اینکه برخی از این شاخص ها بازه زمانی متفاوتی از هفتگی تا سه ماهه دارند، آیا به دلیل NA پیام های خطا دریافت می کنم. اگر مدل های مختلف را امتحان کنم ارزش دارد؟ در زیر خروجی df من ایجاد شده است که تمام مقادیر NA را نشان می دهد. Var1 Var2 Var3 Var4 2013-12-08 NA NA 358000 NA 2013-12-15 NA NA 368000 NA 2013-12-22 NA NA 339000 NA 2013-12-29 NA 401-12-29 NA 401-401 6.6 144 NA 317602 2014-01-05 NA NA 333000 NA 2014-01-12 NA NA 329000 NA 2014-01-19 NA NA 334000 NA 2014-NA 2014-NA-01 2014-02-01 6.7 197 NA 317760 2014-02-02 NA NA 328000 NA 2014-02-09 NA NA 343000 NA 2014-02-16 NA NA 3302-02-02 NA NA 33000 351000 NA 2014-03-01 6.7 192 NA 317920 2014-03-02 NA NA 325000 NA 2014-03-09 NA NA 319000 NA 2014-03-03 NA 2014-03-03 NA 2014-03-23 NA NA 310000 NA 2014-03-30 NA NA 326000 NA آیا مدلی وجود دارد که بتواند با تمام بازه های زمانی مختلف (روزانه، هفتگی، ماهانه) مقابله کند؟ یا باید سعی کنم بازه های زمانی را در بالاترین مرتبه (یعنی ماهانه) ادغام کنم؟ هر گونه بینش یا کمک بسیار قدردانی خواهد شد. * این اولین سوال من در این تبادل است. | پرداختن به داده های سری زمانی مختلف در یادگیری ماشینی |
89161 | داده های دو متغیره متشکل از متغیرهای همبسته را در نظر بگیرید (r ~ 0.9). مشخص است که هر دو متغیر چگونه محاسبه می شوند. هر مشاهده به طور یکسان توزیع شده است اما **غیر مستقل**. همچنین، مجموعه داده از نظر ماهیت نسبتاً اریب است. با توجه به این اطلاعات، من علاقه مند به جداسازی مشاهداتی هستم که دارای انحراف زیاد از میانگین شرطی متغیر وابسته _با توجه به مقدار متغیر مستقل هستند. از آنجایی که اکثر مفروضات آماری در این مورد شکست می خورند (عدم استقلال، چولگی)، راه خوبی برای انجام این کار چیست؟ در اینجا نگاهی اجمالی به داده ها وجود دارد: مستقل وابسته 34903602883 8.39206E+13 34455688425 6.36408E+12 34030939061 7.84165E+13 298434257+13298434252. 29229730881 5.33052E+13 23079743414 2.2329E+13 1158.2 133519.05 1020.63 5607390.48 1006.88 1106.88 0 1193238. 3661218.52 برخی از نمودارهای داده های تبدیل نشده و تبدیل نشده به ترتیب:   فرض کنید واریانس شرطی به عنوان تابعی از متغیر مستقل متفاوت است. چگونه می توانم مشاهدات موجود در نمونه داده های خود را نزدیک به لبه ها پیدا کنم، شاید امتیازی بر اساس فاصله از آن لبه ها باشد؟ میانگین و واریانس شرطی به ترتیب میانگین و واریانس توزیع احتمال متغیر وابسته (محور y) با توجه به مقدار متغیر مستقل هستند. به روز رسانی: با تشکر از نظرات، رویکرد اولیه من در اینجا است: 1. مدل سازی میانگین شرطی با استفاده از روش های ناپارامتریک (به عنوان مثال، یک برآوردگر خطی محلی) روی داده های تبدیل شده با log. 2. مجذور باقیمانده ها را از میانگین شرطی محاسبه کنید {e(i) = Y(i) - m(X(i))} 3. مدل واریانس شرطی مجذور باقیمانده ها، دوباره با استفاده از برخی روش های ناپارامتریک. 4. باقیمانده های به دست آمده از (2) را با استفاده از مدل واریانس شرطی به دست آمده مورد مطالعه قرار دهید. مجدداً تأکید میکنم که وجود دگرگونی و عدم استقلال این مشکل را نه چندان پیش پاافتاده میکند، که باعث شد من به دگرگونیها متوسل شوم (اگرچه ناهمگونی همچنان حاکم است)، ناگفته نماند که این رویکرد ظاهراً کاملاً موقتی است. . همچنین، استفاده از روشهای ناپارامتریک باید به دادههای نسبتاً بیشتری نیاز داشته باشد (در مورد من حدود 800 مشاهده وجود دارد). در اینجا نموداری از باقیمانده های دانشجویی در مقابل میانگین های شرطی در گزارش ها آمده است:  اگرچه این نتایج خوب به نظر می رسند، من هنوز تا حدودی هستم در مورد تمرینم شک دارم آیا راهی برای تقویت این موضوع وجود دارد؟ یا شاید از روش های قوی تری استفاده کنید؟ | شناسایی مشاهدات روی لبه ها در داده های ناهمسان |
49020 | من سعی می کنم نسبت های نرخ بروز (IRR) را با هم مقایسه کنم. این همان چیزی است که من دارم: گروه A (در معرض در معرض در مقابل عدم مواجهه) IRR و گروه B (در معرض در معرض در مقابل قرار نگرفته) IRR بنابراین چگونه می توانم به درستی تفاوت بین IRR از گروه A و IRR از گروه B را آزمایش کنم؟ سوالی که من می خواهم به آن پاسخ دهم این است که آیا تفاوت های افزایشی مشاهده شده در گروه A مشابه تفاوت های مشاهده شده در گروه B است؟ لطفا کمک کنید! | مقایسه نسبت های نرخ بروز |
69368 | ما آزمایشی را انجام دادیم که در آن سه تکنیک تعامل را برای یک کار اتصال سه بعدی مقایسه کردیم. بنابراین ما دو عامل داشتیم: نوع تکنیک فوق الذکر و عاملی که نشان دهنده ترجمه جهت است (به عنوان مثال: اگر شرکت کنندگان مجبور بودند شیئی را که نزدیک به دیدگاه آنها به نظر می رسد حرکت دهند و آن را در عمق حرکت دهند یا برعکس). هر آزمایش 5 بار تکرار شد. برخی از آن آزمایشها به دلیل دشواری نادیده گرفته شدند. اگر من یک آنووا با اندازه گیری های مکرر معمولی اجرا کنم، هر شرکت کننده که حتی یک مقدار از دست رفته را از تجزیه و تحلیل حذف می کند. این بدان معناست که من باید بیش از نیمی از شرکت کنندگان را حذف کنم. با مطالعه اطراف به نظر می رسد می توانم به جای آن از یک مدل ترکیبی خطی استفاده کنم. شک من این است که آیا می توانم از یک مدل ترکیبی برای این نوع شرایط استفاده کنم؟ من در مورد اینکه آیا مدلهای ترکیبی تنها زمانی مرتبط هستند که شما یک فاکتور بین آزمودنیها مانند گروههای درمان/کنترل کلاسیک داشته باشید. در مورد من، هر شرکت کننده تحت شرایط یکسانی قرار داشت. هیچ فاکتور بین آزمودنی وجود نداشت. من تجزیه و تحلیل مدل ترکیبی را با استفاده از تکنیک، جهت و تکرار به عنوان _تکرار_، شناسه هر شرکت کننده به عنوان _موضوع_ و تکنیک و جهت به عنوان عوامل ثابت اجرا کردم. آیا فرضیات من درست است یا اشتباه وحشتناکی انجام دادم؟ اگر چنین است، چه جایگزین هایی برای مواجهه با مقادیر از دست رفته دارم؟ با تشکر | مدل مختلط خطی برای تجزیه و تحلیل اندازه گیری های مکرر با مقادیر گمشده |
46038 | من اغلب با مثال زیر مواجه می شوم: تعداد زیادی ژن (به ترتیب صدها هزار)، چند صد نمونه طبقه بندی شده در گروه های متعدد. و آن گروه ها همپوشانی دارند (یعنی سالم / بیمار + جوان / پیر یا چیزی مشابه). وظیفه - من باید یک آزمون فرضیه برای تفاوت در میانگین برای هر یک از ژن ها اجرا کنم. بنابراین من معمولاً آزمون t را با اصلاح مقایسه چندگانه مقادیر p انجام می دهم. اما حالا اگر این کار را بکنم - چند گروه را مخلوط می کنم. در حالت ایدهآل، باید آزمون t را برای همه ترکیبهای مختلف دو گروه (جوانان سالم در مقابل جوانان بیمار؛ سالمندان سالم در مقابل پیران بیمار) اجرا کنم. اما این حجم نمونه پایین من را حتی بیشتر کاهش می دهد. بنابراین من کنجکاو برای پیشنهادات هستم - راه معمولی برای نزدیک شدن به این وضعیت چیست؟ ANOVA هر ترکیبی از گروه ها را به عنوان گروه جداگانه در نظر می گیرد؟ | آزمون فرضیه بر روی داده ها با گروه های همپوشانی |
69369 | من دو جدول فراوانی دارم، یکی نشان دهنده داده های مشاهده شده و دیگری نشان دهنده داده های مدل شده. من به دنبال یک معیار خوب تناسب هستم، بررسی می کنم که آیا داده های مدل با داده های مشاهده شده مطابقت دارند یا خیر. مشکل این است که تعداد من نسبتاً کوچک است (اکثر آنها کوچکتر از 5 هستند) و بنابراین Pearson Goodness of Fit روی این مجموعه داده ها عمل نمی کند (من از R استفاده می کنم). R موارد زیر را گزارش می کند: X-squared = Inf، df = 534، p-value < 2.2e-16 آیا باید از معیار دیگری برای Goodness of Fit استفاده کنم؟ پیشنهادی دارید؟ **ویرایش** (ارائه برخی اطلاعات بیشتر): _model_ حاوی فرکانس هایی از موضوعات است که با اسناد خوانده شده توسط کاربران در ماه گذشته مرتبط است. _داده های مشاهده شده_ حاوی «موضوعاتی» است که با «اسناد» خوانده شده توسط کاربران در روز گذشته مرتبط است. (اگر اسناد سی دی های موسیقی هستند، برای مثال موضوع ژانرهای موسیقی هستند) من سعی می کنم بفهمم آیا مدل (داده ها در طول زمان) با داده های مشاهده شده مطابقت دارد (داده های روز گذشته). اگر مدل با داده های مشاهده شده مطابقت داشته باشد، باید به این معنی باشد که کاربران در همان «موضوعات» باقی می مانند (به گوش دادن به همان ژانرهای موسیقی ادامه دهند). | خوبی برازش با استفاده از جداول فراوانی با تعداد کم |
82852 | اگر من یک دسته 130 قطعه ای داشته باشم و نمونه تصادفی 14 قسمتی را بررسی کنم، یا آن قطعه را بپذیرم یا رد کنم، و درصد نقص نمونه را محاسبه کنم، چقدر می توانم مطمئن باشم که درصد نقص در نمونه نشان دهنده درصد نقص است. در دسته؟ دلیل اینکه من باید بدانم این است: ما فرآیندی با قابلیت بسیار ضعیف داریم - معمولاً حدود 20٪ معیوب است. ما میخواهیم به محض اینکه مجموعهای از 130 قطعه انجام شد، نمونهای را برداریم و بتوانیم بازده را با مقداری اطمینان پیشبینی کنیم، بنابراین اگر کمتر از 20 درصد معیوب از دسته ما انتظار میرود، بتوانیم با ادامه کار واکنش نشان دهیم. فاصله اطمینان یا خاموش شدن در صورت نقص بیش از 20٪ بر اساس نمونه انتظار می رود. از من پرسیده می شود که چقدر مطمئن هستم که بازده نمونه نشان دهنده بازده نهایی دسته ای است. P.S. من آمارگیر نیستم، اما ریاضیات مهندسی زیادی خوانده ام. | اعتبار تخمین نسبت از نمونه محدود |
104925 | بابت ارسال تقریباً یک سوال در روز عذرخواهی می کنم. من سعی می کنم برخی از جنبه های یادگیری ماشین آماری را بیاموزم، بنابراین هر روز سؤالات زیادی پیش می آید و اگر در انجمن همتایان آفلاین خود پاسخی پیدا نمی کنم، سعی می کنم از شما بپرسم. آنقدر خوب جواب می دهید که افرادی مثل من را تشویق می کند که بپرسند. سعی کردم مدل Naive Bayes را دور بزنم. به نظر می رسد از طبقه بندی چند کلاسه پشتیبانی می کند. اکنون برخی از طبقه بندی کننده های باینری نیز مانند رگرسیون لجستیک وجود دارد. داشتم به این فکر میکردم که تفاوت تخمین بین طبقهبندی باینری و طبقهبندی چند طبقه چگونه خواهد بود (نه لجستیک چند جملهای یا چند برچسبی). اگر یکی از اعضای محترم گروه ممکن است خواهش من را ببخشد. پیشاپیش از شما متشکرم، با احترام، سابهابراتا بانرجی. | تفاوت بین طبقه بندی باینری و طبقه بندی چند کلاسه چیست؟ |
51898 | در پاسخ به سؤالی در مورد فاصله اطمینان برای نسبت دوجمله ای به این واقعیت اشاره کردم که تقریب نرمال یک روش غیرقابل اعتماد است که قدیمی است. این نباید به عنوان یک روش تدریس شود، اگرچه ممکن است این بحث وجود داشته باشد که به عنوان بخشی از یک درس در مورد اینکه چه چیزی یک روش مناسب را می سازد، گنجانده شود. سایر رویکردهای آماری «استاندارد» که تاریخ استفاده از آنها گذشته است و باید از نسخههای بعدی کتابهای درسی حذف شوند (در نتیجه فضا برای ایدههای مفید ایجاد میشود) کدامند؟ | چه روش های آماری قدیمی هستند و باید از کتاب های درسی حذف شوند؟ |
99276 | من پیشینه آماری قوی ندارم، و سعی می کنم بهترین راه را برای تعیین اینکه آیا با استفاده از Minitab بین دو متغیر $x$ و $y$ همبستگی وجود دارد یا خیر، پیدا کنم. من برای هر یک از 8 موضوع مختلف اندازهگیریها را برای هر دو متغیر تکرار کردهام، اما برای هر موضوع معین، $n$ برای متغیر $x$ با $n$ برای متغیر $y$ متفاوت است. به طور مشابه در بین موضوعات، $n$ برای $x_i$ با $n$ برای $x_j$، و $n$ برای $y_i$ با n برای $y_j$ متفاوت است. فکر میکنم فقط میتوانم میانگینهای هر $x_i$ و $y_i$ را جداگانه محاسبه کنم و با استفاده از آنها یک رگرسیون انجام دهم، اما به نظر میرسد که این بسیار سادهسازی خواهد بود و ممکن است من را به یک نتیجهگیری نامعتبر برساند. آیا مسیر بهتری وجود دارد که باید به سمت پایین حرکت کنم؟ | رگرسیون با اقدامات مکرر در minitab |
69360 | آیا در رگرسیون خطی دو متغیره رابطه مستقیمی بین حجم نمونه $n$، ضریب تعیین $r^2$ و $\sigma_\beta$ (خطای استاندارد ضریب $\beta$) وجود دارد؟ فرض کنید داده ها عادی شده اند، بنابراین هر دو متغیر هدف و پیش بینی $\sigma=1$ هستند. سوال را به گونهای دیگر مطرح کنیم، آیا $\sigma_\beta$ چیزی متفاوت از $r^2$ به من میگوید یا آنها معیارهای یکسانی هستند؟ یا، آیا ممکن است بین دو متغیر ($\beta$ بزرگ، $\sigma_\beta$ کوچک، اما $r^2$ کوچک) یک پیوند قوی، مطمئن اما غیر قابل اعتماد وجود داشته باشد؟ (در رگرسیون چندگانه این مورد صدق نمیکند، زیرا حتی با $r^2$ بالا، $\sigma_\beta$ میتواند عدم قطعیت را نشان دهد که کدام یک از پیشبینیکنندههای متعدد باعث پاسخ میشود). **ویرایش** این را از نرم افزار من دریافت کردم (بدون داده های استاندارد شده): ضریب رگرسیون 0.023 stderr از ضریب 0.0046 p=0.000002 n=131 مضاعف r2=0.17 تنظیم شده r2=0.16 پیش بینی std=22.5 ضریب استاندارد شده هدف std=2.2 است احتمالا 0.023*22.5/2.24 = 0.23 دلار. اگر ضریب استاندارد شده با همبستگی یکسان باشد، آنگاه $r^2 = 0.23^2 = 0.053$ ... با نرم افزار یکسان نیست. من چه غلطی می کنم؟ | آیا در رگرسیون خطی دو متغیره رابطه مستقیمی بین $n$، $r^2$ و خطای ضریب وجود دارد؟ |
60364 | من در یافتن مقایسه بین روش های ناپارامتریک و پارامتری، به ویژه برای کار تخمین چگالی (مانند GMM در مقابل استفاده از فرآیندهای دیریکله) مشکل دارم. بیشتر از قابلیت tractability یا زمان اجرا، من به عملکرد آماری آنها در مجموعه داده های عمومی علاقه مند هستم. آیا مطالعات یا مقالات شناخته شده ای در این زمینه وجود دارد؟ | ارزیابی روش های پارامتریک در مقابل ناپارامتریک |
46037 | من در حال ساختن یک طبقه بندی کننده ساده بیز برای یک طبقه بندی باینری هستم. در حال حاضر من یک برآوردگر برای توزیع های برنولی و توزیع های واقعی (با استفاده از توزیع مخلوط هسته) دارم. من میتوانم توزیعهایم را به خوبی بسازم و فایلهای PDF را از توزیع و نمونههایم بگیرم. اما وقتی احتمالات را با هم ترکیب می کنم، احتمالات برنولی من به سادگی بر تمام شواهد دیگر غلبه می کند. حتی برای مجموعه دادههایی که من میدانم شانس آنها برای عضویت در یک کلاس صفر است، در نهایت احتمالاتی در محدوده 90-99٪ دارند. فکر می کنم دارم ساده لوح می شوم (ها!) آیا چیزی را از دست داده ام؟ ویرایش: این یک نظر کمی طولانی است، بنابراین من آن را به سوال خود پیوست کردم. دادههای من مانند یک مشکل سوزن در انبار کاه به نظر میرسد - تعداد بسیار کمی در کلاس True من (حدود 3-5٪)، بیشتر در کلاس false. بنابراین احتمال کاذب من دیوار آتش است که خوب است. اما کلاس True من هم بیش از حد تخمین زده می شود که بد است. من موافقم که NBC احتمالات wrt دقیقی ندارد - فقط طبقه بندی کلی. وقتی شروع به اضافه کردن مقادیر بولی خود می کنم این نتایج شدید را دریافت می کنم. چیزی که من را آزار می دهد. شاید من درک درستی از نحوه اجرای این را از دست داده ام. برای ایده دادن به مجموعه آموزشی خود، 20000 نمونه آموزشی، 10،000 در کلاس واقعی، 10،000 در کلاس غلط دارم. من حدود 400 هزار ردیف پیش بینی می کنم. اگر از یک تخمین ساده probtrue > probfalse استفاده کنم، 126 از 400K را به عنوان در کلاس واقعی دریافت می کنم (مقدار واقعی کمی بیشتر از 10000 است). اگر به سادگی از 0.99 probtrue کنیم، به حدود 84K کاهش می یابد. یک پیشرفت، اما هنوز آن چیزی نیست که انتظار داشتم. اگر بتوانم این مجموعه را به 40K کاهش دهم، به وجد خواهم آمد. FYI: من قبلاً از موتور پیش بینی Prior Knowledge استفاده می کردم که با استفاده از آن توانستم به دقت معقولی برسم. سپس آنها توسط Salesforce خریداری شدند و مدیرعامل خود را مدیر تجزیه و تحلیل پیش بینی کردند. | برای ساختن یک طبقه بندی کننده ساده بیزی باید در مورد توزیع های برنولی بدانم؟ |
99275 | من اندازه گیری (غیر دقیق) N نقطه را دارم. من همچنین به مقدار واقعی M <N چنین نقاطی دسترسی دارم. فرض کنید خطای اندازه گیری به طور معمول توزیع شده است. بر اساس این دانش، احتمالاً میتوانم میانگین (error_mean) و SD (error_sd) خطای اندازهگیری را بر اساس نقاط M که هم مقدار واقعی و هم اندازهگیری را دارم محاسبه کنم. با این حال من مطمئن نیستم که چگونه این کار را انجام دهم. در زیر ببینید دقیقا به چه چیزی نیاز دارم. هدف من این است: با توجه به یکی از نقاط N-M که برای آن به مقدار واقعی دسترسی ندارم، می خواهم یک فاصله اطمینان 95% برای چنین مقداری ارائه دهم. من فکر میکنم فاصله اطمینان باید حدودی باشد: CI_lower_end = اندازهگیری -error_mean -2*error_sd CI_upper_end = اندازهگیری -error_mean +2*error_sd اما من گمان میکنم که error_mean و error_sd صرفاً میانگین و SD مقادیر M نیستند که از انجام اندازه گیری - مقدار_ true از M نقاط بالا. به طور خاص، اگر M مانند 2 کم باشد، error_sd احتمالاً با چنین رویکرد ساده لوحی دست کم گرفته می شود. آیا می توانید به من بگویید چگونه فاصله اطمینان ذکر شده در بالا را محاسبه کنم؟ متشکرم. | فاصله اطمینان برای مقدار اندازه گیری شده با خطا |
65629 | چند وقت پیش این مقاله کوتاه عالی را در مورد رابطه بین «همبستگی»، «استقلال» و «متعامد» خواندم. به طور خلاصه، دو بردار می توانند ناهمبسته باشند، آنها می توانند متعامد باشند، می توانند هر دو باشند، یا نمی توانند هیچ کدام باشند. من متوجه شدهام که در کتابهای درسی رگرسیون متفاوت، نویسندگان الزامات مختلفی را برای اطمینان از اینکه مقادیر ضرایب تحت تأثیر درج متغیرهای مستقل اضافی قرار نمیگیرند، بیان میکنند. به عنوان مثال، در کتاب درسی _مقدمه ای بر اقتصادسنجی_ توسط Stock & Watson، نویسندگان بیان می کنند که اگر متغیرهای رگرسیون با یکدیگر همبستگی نداشته باشند، تخمین ضرایب آنها نسبت به گنجاندن متغیرهای مستقل اضافی ثابت خواهد بود. نویسنده در کتاب مقدمه ای بر تحلیل رگرسیون خطی نوشته مونتگومری می گوید که متغیرهای رگرسیون باید متعامد با یکدیگر باشند تا اطمینان حاصل شود که تخمین های ضرایب آنها تحت تأثیر یکدیگر قرار نمی گیرند. استادی که کلاسی را که از کتاب دوم استفاده میکرد تدریس میکرد، میگوید وقتی کتاب تعامد را ضروری توصیف میکرد، به نسخههای متمرکز متغیرهای رگرسیون اشاره میکرد. اگر این درست باشد، در واقع این متغیرهای _ناهمبسته_ هستند که دارای تخمین ضرایب ثابت هستند - حداقل در رابطه با گنجاندن متغیرهای اضافی، همانطور که کتاب اول نشان می دهد. هنگام مطالعه طراحی آزمایشها، فرد میآموزد که ماتریسهای طراحی بهطور خاص بهگونهای ایجاد میشوند که تخمینهای ضرایب مرتبط با یک متغیر رگرسیون نسبت به سایر متغیرهای مورد استفاده در تجزیه و تحلیل تغییری ندارند. جالب توجه است، هرچند، این ماتریسهای طراحی نه تنها از عدم همبستگی IVها اطمینان میدهند (که تمام چیزی که برای دستیابی به نتیجه لازم است)، بلکه متعامد بودن را نیز تضمین میکنند. ** سوال من این است: آیا هدف بزرگتری برای اطمینان از متعامد بودن علاوه بر ناهمبستگی وجود دارد؟ و/یا اطمینان از «ناهمبستگی» بدون اطمینان از تعامد بسیار دشوار است؟** | ماتریس های طراحی DOE و متعامد |
60369 | وقتی دادهها را برای تحلیل متا شبکه بیزی با استفاده از مدل منتشر شده در Woods B.S، Hawkins N et al - فراتحلیل شبکه در مقیاس لگاریتم خطر، ترکیب آمار شمارش و نسبت خطر برای آزمایشهای چند بازویی، آماده میکنم. یک آموزش (2010)، من باید سیستمی از معادلات همزمان (معمولاً بی اهمیت) را حل کنم که ممکن است بیش از حد مشخص شوند، مانند شکل زیر: $ \left\\{ \begin{array}{ll} \text{hr} _1 = 0 \\\ \text{hr}_2 - \text{hr}_1 & = \text{HR}_{2,\,1}\\\ \text{hr}_3 - \text{hr}_1 & = \text{HR}_{3,\,1}\\\ \text{hr}_3 - \text{hr}_2 & = \text{HR }_{3,\,2} \end{array} \right. $ که در آن $\text{HR}_{i,\,j}$ یک نرخ خطر منتشر شده است، و $\text{hr}_k$ خطر تجمعی پنهانی است که میخواهم آن را تخمین بزنم. کاری که مردم معمولا انجام می دهند، نادیده گرفتن معادلات تصادفی از مجموعه بالا و حل بقیه به صورت جبری است. اما من فکر میکنم که راهحل بهتر این است که بهطور سیستماتیک (نه تصادفی) همه مجموعههای معادلات بریدهشده متمایز و قابل حل جبری و از میانگین همه نتایج را تولید کنیم. البته قابل انجام است و من می توانم آن را به عنوان مثال برنامه ریزی کنم. R. (من باید همه جایگشت های ممکن برای برش این معادله را بگیرم، تصمیم بگیرم که کدام قابل حل است، آنها را حل کنم و نتایج را میانگین بگیرم). در انبوهی از بسته هایی که قبلاً در R وجود دارد، شاید کسی قبلاً توابعی را منتشر کرده باشد که من ممکن است برای این منظور از آنها استفاده کنم؟ مشکل این است که من نمی دانم چگونه آنها را پیدا کنم. شاید حداقل بتوانید به خلاقیت من کمک کنید و با عبارت جستجویی که می توانستم در گوگل قرار دهم به من کمک کنید؟ | نحوه تقریبی حل معادلات خطی بدون جواب |
99274 | من یک رگرسیون لجستیک را با متغیرهای مستقل 24 دلار و مشاهدات 123996 دلاری انجام می دهم. من تناسب مدل را ارزیابی میکنم تا مشخص کنم آیا دادهها با مفروضات مدل مطابقت دارند و با استفاده از بسته «arm» «R» نمودار باقیمانده زیر را تولید کردهاند:  بدیهی است که برخی از نشانه های بد در این طرح وجود دارد: بسیاری از نقاط خارج از باند اطمینان قرار می گیرند و یک الگوی متمایز برای این طرح وجود دارد. باقی مانده ها سوال من این است - آیا می توانم این مسائل را به مفروضات خاصی از مدل رگرسیون لجستیک متصل کنم؟ به عنوان مثال، آیا می توانم بگویم که شواهدی مبنی بر غیرخطی بودن متغیرهای مستقل یا ناهمسانی وجود دارد؟ اگر نه، آیا تشخیص های دیگری وجود دارد که بتوانم به شناسایی مشکل در کجا کمک کنم؟ * * * بر اساس پاسخ دانیل، به نظر می رسد که مسئله اصلی این است که من از باقیمانده ها در مقیاس لاجیت استفاده می کردم اما از مقادیر مورد انتظار در مقیاس پاسخ استفاده می کردم. اگر طرح را با باقیمانده ها نیز در مقیاس پاسخ بازتولید کنم، به نظر می رسد:  که بسیار باورپذیرتر است. | تفسیر یک نمودار باقیمانده در رگرسیون لجستیک |
60363 | یک سوال بیان می کند: میانگین تغییر در تعداد مگس گیرهای کشته شده را زمانی که اشغال جعبه لانه 10 درصد افزایش می یابد، تخمین بزنید. شیب این رگرسیون 0.10766X است. از این رو، پاسخ می گوید، 0.10766 (10) = تغییر میانگین را در نظر بگیرید. سوال من این است: دلیل اینکه آنها 10 را وارد می کنند این نیست که 10٪ تغییر کرده است، درست است؟ من نمی توانم توضیح دیگری پیدا کنم، اما مطمئن هستم که این دلیل نمی تواند باشد. وقتی مطمئن شدم میتوانم احتمالات دیگر را ارزیابی کنم. | تخمین تغییر در میانگین (مثال رگرسیون خطی) |
46031 | من در حال خواندن مقاله معرفی کمند گرافیکی هستم، که راهی برای تخمین ماتریس کوواریانس معکوس پراکنده است. http://www-stat.stanford.edu/~tibs/ftp/graph.pdf یافتن یک ماتریس کوواریانس معکوس پراکنده می تواند مفید باشد زیرا 0 در معکوس ماتریس کوواریانس نشان می دهد که دو متغیر مستقل هستند. در این مقاله ذکر شده است که مربوط به حل حداقل مربعات است زیرا $$B = (X^T X)^{-1} X^T Y$$. در این راه حل $(X^TX)^{-1}$ را می توان به عنوان ماتریس کوواریانس معکوس در نظر گرفت. من در مورد دو چیز کنجکاو هستم: 1) بگویید من داده هایی دارم که در آنها گمان می کنم که متغیرهای $X$ مستقل از برخی متغیرهای دیگر در $X$ هستند. شاید محاسبه ماتریس کوواریانس تجربی $X$ آن ایده را منعکس نکند، بنابراین در عوض سعی می کنم با استفاده از کمند گرافیکی یک ماتریس کوواریانس معکوس پراکنده پیدا کنم. اکنون، من یک متغیر پاسخ $Y$ را معرفی می کنم و می خواهم یک رابطه خطی را مدل کنم که این ایده را در نظر می گیرد که برخی از متغیرها در $X$ کاملا مستقل از سایر متغیرهای در $X$ هستند. آیا این بدان معناست که من می توانم با گرفتن ماتریس پاسخ $Y$ و یک ماتریس طراحی $X$، و محاسبه ماتریس کوواریانس معکوس پراکنده $X$ (این $W$ را صدا کنید) یک مسئله حداقل مربعات گرافیکی را حل کنم و سپس در آن ضرب کنم محصول متقاطع $X^T Y$، یعنی $$B = W X^T Y$$؟ هنگام محاسبه محصول متقاطع $X^T Y$، آیا باید همچنان از ماتریس طراحی اصلی $X$ استفاده کنم یا اینکه اکنون باید تابعی از $W$ باشد؟ 2) من در مورد موردی که پاسخ یک تاپلی باشد کنجکاو هستم، شاید پاسخ $Y$ یک ماتریس سه ستونی باشد. فرض کنید من میخواهم یک مدل خطی را برای $Y$ با ماتریس طراحی $X$ دوباره اندازهگیری کنم، اما این بار فقط میخواهم ضرایب رگرسیون پراکنده باشد و ما را به مسئله کمند استاندارد برگرداند. من میتوانم روی هر ستون $Y$ تکرار کنم (اینها را $j_1، j_2، j_3$ صدا کنید)، و یک کمند با $j_i$ و $X$ اجرا کنم که 3 بردار ضریب به دست میدهد که هر بردار پراکندگی دارد. شاید در عوض من بخواهم یک ماتریس ضریب کامل را تخمین بزنم، که در آن ماتریس به عنوان یک کل پراکنده است اما هر ستون به طور جداگانه نیازی به پراکندگی ندارد. مقاله این را دارد که بگوید: (آیا این به این معنی است که حل یک ماتریس B پراکنده با استفاده از کمند گرافیکی مناسبتر است؟) > Blockquote یک راه ساده و از نظر مفهومی جذاب برای مشاهده این روش وجود دارد. با توجه به یک ماتریس داده X و بردار نتیجه y، میتوانیم تخمینهای رگرسیون حداقل مربعات خطی $(X^TX)^{-1}X^TY$ را بهعنوان توابعی نه > دادههای خام، بلکه محصولات داخلی در نظر بگیریم. $X^TX$ و $X^TY$. به طور مشابه، می توان نشان داد که تخمین های کمند توابعی از این محصولات داخلی نیز هستند. از این رو در مسئله کنونی، میتوانیم تخمینهای > کمند برای متغیر pth روی بقیه را بهعنوان تابعی > شکل lasso در نظر بگیریم (S11; s12;): (9) اما استفاده از کمند برای هر متغیر > حل نمیکند. مشکل (1)؛ برای حل این مشکل از طریق کمند گرافیکی ما در عوض از محصولات داخلی W11 و s12 استفاده می کنیم. یعنی (9) را با lasso (W11; > s12; ) جایگزین می کنیم: (10) نکته این است که مسئله (1) معادل p جداگانه > مشکلات رگرسیون منظم نیست، بلکه معادل مشکلات کمند p جفت شده است که > همان W و $\theta = W^{-1}$. استفاده از W11 به جای S11 اطلاعات را بین مشکلات به شیوه ای مناسب به اشتراک می گذارد. بلوک نقل قول | استفاده از ماتریس کوواریانس معکوس پراکنده در تخمین ضرایب حداقل مربعات |
111295 | فرض کنید که میخواهیم این فرضیه را آزمایش کنیم که نسبت مریخیهای چشم آبی در طول قرن بیستم در حال کاهش بوده است. متأسفانه، جمعیت مریخ به شدت در نوسان است، بنابراین هر دهه تفاوت زیادی در کل جمعیت وجود دارد [به روز رسانی: جمعیت مریخ را ثابت در نظر بگیرید که یک میلیارد نارتیایی است. داده های زیر نمونه های تصادفی در هر سال است]. مجموعه داده ها (در حین نوشتن این مطلب ساخته شده است) می تواند چیزی شبیه به این باشد: سال | کل جمعیت مریخی | مریخیان چشم آبی | نسبت 1910 | 400 | 250 | 0.625 1920 | 2000 | 1000 | 0.500 1930 | 70 | 40 | 0.571 1940 | 30 | 14 | 0.467 1950 | 10 | 4 | 0.400 1960 | 140 | 52 | 0.371 1970 | 50 000 | 15 400 | 0.308 1980 | 70 000 | 22 000 | 0.314 1990 | 1500 | 80 | 0.053 2000 | 5000 | 800 | 0.160 تجزیه و تحلیل سالهایی که جمعیت مریخ کمتر از 100 سال است به وضوح به اندازه زمانی که جمعیت بیش از 10000 نفر است از نظر آماری معنادار نیست، زیرا در مورد دوم مجموعه داده های بزرگتری داریم. با این حال، ما می خواهیم از تمام داده های موجود برای تأیید فرضیه خود با سطح معنی داری 95 درصد استفاده کنیم. چگونه پیش برویم؟ آیا اهمیت هر سال را با توجه به حجم نمونه در آن زمان وزن می کنیم؟ ویرایش بیشتر برای تناسب نگرانی ها: نگرانی در اینجا این است که چگونه هر مجموعه داده را به اندازه کافی وزن کنیم، با در نظر گرفتن این که اندازه آنها متفاوت است. هیچ سوگیری نمونه ای وجود ندارد زیرا داده ها به طور تصادفی انتخاب می شوند. | آیا جمعیت مریخی های چشم آبی در حال کاهش است؟ |
69363 | فرض کنید من مجموعه ای از مجموعه های داده $(m_i)$ دارم. هر یک از این مجموعه داده $m_i$ مربوط به پارامتر $\hat{\theta}_i$ است که من می شناسم. سپس من دو مدل دارم که فواصل HPD ها را برای هر $\theta_i|m_i$ در اختیار من قرار می دهد. من می خواهم عملکرد این دو مدل را ارزیابی / مقایسه کنم. بدیهی است که می توانم به سادگی نگاه کنم که چه تعداد از $\hat{\theta}_i$ در فواصل هر دو روش می افتد، اما به نظر می رسد این یک توصیف بسیار خشن باشد (دو مدل می توانند امتیازهای یکسانی ارائه دهند اما HPD هایی با ماهیت بسیار متفاوت) و نمی دانم آیا ابزار خاصی برای انجام این کار وجود دارد؟ | مقایسه عملکرد دو مدل |
60362 | ما یک مجموعه داده با سه متغیر داریم (dV: اندازه گیری خود گزارش شده در مقیاس 1-5، فرض شده متریک؛ iV1: عامل با 4 سطح، iV2: عامل با 8 سطح). ما علاقه مند هستیم که آیا dV با توجه به هر دو iV متفاوت است و آیا تعاملی بین iV ها وجود دارد یا خیر. ایده: محاسبه ANOVA با هر دو اثر اصلی و تعامل بین هر دو iV با استفاده از R. سوال: چه نوع مجموع مربعات باید برای این سوال تحقیق استفاده شود؟ با استفاده از aov() در R، مجموع مربعات Type-I را به صورت استاندارد محاسبه می کند. از سوی دیگر، SPSS و SAS، مجموع مربعات Type-III را به طور پیش فرض محاسبه می کنند. با این حال، استفاده از Anova() {car} در ترکیب با گزینهها (contrasts=c(contr.sum, contr.poly)) در R همان جداول ANOVA Type-III محاسبه شده در SPSS را به دست میدهد. من قبلاً بحث های زیر را خوانده ام: * http://afni.nimh.nih.gov/sscc/gangc/SS.html * http://myowelt.blogspot.de/2008/05/obtaining-same-anova-results -in-r-as-in.html با این حال، من هنوز گیج هستم که کدام نوع از مجموع مربع ها برای سوال ما مناسب تر است. نتایج (مقادیر F و p) به طور قابل توجهی متفاوت است. | انتخاب بین نوع I، نوع II، یا نوع III ANOVA |
82857 | پس از اندازه نمونه 400+ توانستم ضریب پیرسون 0.25 را بدست بیاورم. چگونه قرار است این را به یک احتمال یا درصد تقسیم کنم. در عوض، چگونه می توانم یافته های خود را به صورت غیرمستقیم توضیح دهم؟ باید اطلاعات بیشتری بدهم ما دو تست متفاوت داریم. یکی از این تست ها 1 سوال دارد که چقدر راضی هستید؟ این امتیاز بین 1-4 است که 4 بیشترین رضایت و 1 کمترین امتیاز را دارد. آزمون دیگر 18 سوال دارد. اینها یک بررسی داخلی بود. این بررسی شامل سوالاتی از این قبیل بود (آیا نماینده خدمات مشتری از نام مشتری استفاده کرده است، آیا نماینده خدمات مشتری پاسخ فنی صحیحی را ارائه کرده است، آیا نماینده به مشتری آموزش داده است که در صورت لزوم چگونه مشکل را برطرف کند). تست اول از مشتری پرسیده می شود و تست دوم با 18 سوال مختلف توسط استاد راهنما پر می شود. آنها یا (-1)، غیر قابل اجرا یا عدم قبولی/شکست (0) یا شکست (1) را می گذرانند. هدف ما این است که بفهمیم کدام متغیرها در آزمون دوم بهترین پیش بینی نمرات در آزمون اول را دارند. ما میخواهیم این کار را برای یافتن بخشهای مشکلدار که میتوانیم به صورت داخلی برطرف کنیم تا به مشتریان خود خدمات بهتری ارائه دهیم و بهترین تجربه ممکن را به آنها ارائه دهیم (3 و 4 موارد بیشتر در اولین آزمایش). | استفاده از ضریب همبستگی پیرسون برای احتمال |
52273 | این یک سؤال کاملاً کلی است، اما، من اغلب کتابهای درسی آماری را پیدا میکنم که ادعا میکنند، برای توجیه فرض نرمال بودن درون گروهها از ANOVA یک طرفه، میتوانید به نمودار QQ از باقیماندهها نگاه کنید. با این حال، نمودارهای qq تنها زمانی میتوانند غیرعادی بودن را تشخیص دهند که واریانس (یا انحراف استاندارد) در همه گروهها همگن باشد. من در تعجب بودم که چگونه می توانم از این نوع طرح استفاده کنم وقتی از ANOVA ولش استفاده می کنم. به عنوان مثال، در مورد ANOVA ولش، نیازی نیست که به هیچ فرضی مبنی بر واریانس همگن پایبند باشید، اما اگر واریانس شما همگن نیست، چگونه می توانید از نمودار QQ برای تست نرمال بودن استفاده کنید؟ من به این فکر میکردم که ابتدا هر یک از باقیماندهها را با انحرافات استاندارد درون گروهی استاندارد کنم تا همه واریانسها برابر باشند. من احساس میکنم این رویکرد معقول است، اما در هیچ کتاب درسی یا هیچ جای آنلاین ندیدهام که درباره آن بحث شود. بیایید فرض کنیم اندازه نمونه هر گروه نابرابر و برای استناد به قضیه حد مرکزی بسیار کوچک است. | ANOVA: نحوه تشخیص غیر نرمال بودن با QQPlot در حضور واریانس غیر همگن |
46032 | فرض کنید من یک شبکه اعتقادی با مجموعه ای از گره ها دارم. برای ایجاد یک درخت اتصال معتبر، باید گراف را اخلاقی کنم. اکنون فرض کنید که من گره هایی با بیش از 2 والدین دارم (مثلاً 3 والدین) پس باید هر یک از والدین را پیوند دهم. پس از انجام این کار، مدل های گرافیکی حاوی چند دسته غیر ضروری هستند. آیا می توانم فقط از بخشی از دسته ها برای Junction Tree Creation استفاده کنم؟ یا باید از هر دسته در درخت اتصال استفاده کنم (به عنوان مثال، یک مورد با 8 گره و 8 دسته)؟ | اخلاقی سازی و مثلث سازی در شبکه های اعتقادی |
64286 | من دو پست بسیار مفید در مورد تفاوت بین تحلیل رگرسیون خطی و ANOVA و نحوه تجسم آنها پیدا کردم: چرا ANOVA به گونه ای آموزش داده می شود که گویی یک روش تحقیق متفاوت در مقایسه با رگرسیون خطی است؟ چگونه می توان آنچه را ANOVA انجام می دهد تجسم کرد؟ همانطور که در پست اول گفته شد، برای آزمایش اینکه آیا میانگین قد نر و ماده یکسان است، می توانید از یک مدل رگرسیون استفاده کنید ($y = \alpha + \beta x + \epsilon$، که $y$ نشان دهنده قد و $x است. $ نشان دهنده جنسیت است) و آزمایش کنید که آیا $\beta = 0$ است. اگر $\beta = 0 $، آنگاه تفاوتی در قد بین نر و ماده وجود ندارد. با این حال، من کاملاً مطمئن نیستم که وقتی شما سه گروه دارید، چگونه آزمایش می شود. مثال زیر را تصور کنید: ارتفاع (y) - گروه (x) 5 - A 6 - A 7 - A 6 - A 30 - B 32 - B 34 - B 33 - B 20 - C 19 - C 21 - C 22 - C مدل رگرسیون به این صورت خواهد بود: $$y = a+ b x + \epsilon$$ من به سرعت داده ها را تجسم کردم (تصویر زیر را ببینید) آنطور که من مدل رگرسیون را فهمیدم این است که اکنون آزمایش می کند که آیا هر یک از سه شیب (AB، AC یا BC) دارای شیب $b$ است که به طور قابل توجهی با 0 متفاوت است. اگر اینطور باشد، می توان مانند ANOVA نتیجه گرفت که حداقل یک گروه وجود دارد. که در آن قد با یک یا چند گروه تفاوت قابل توجهی دارد. پس از آن، میتوان از آزمون تعقیبی استفاده کرد تا بررسی کرد که کدام یک از گروهها واقعاً با هم تفاوت دارند. آیا درک من از چگونگی آزمون مدل های رگرسیون این فرضیه درست است؟  | رگرسیون خطی و ANOVA |
97543 | 1. من می خواهم هتروسکداستیکی را در یک مدل Tobit با Stata 12 آزمایش کنم. اما نمی دانم چگونه این کار را انجام دهم. 2. وقتی از یک مدل OLS استفاده کردم، ناهمبستگی و همبستگی خودکار را آزمایش کردم، و چیز زیادی پیدا نکردم، اما مدل OLS معنادار نیست (Prob > _F_ = 0.54) و _R_ ² کوچک = 0.01 است. چگونه می توانم آن مشکل را بهبود بخشم؟ با تشکر | چگونه می توانم هتروسکداستیکی را در مدل توبیت با Stata 12 آزمایش کنم؟ |
97098 | این یک سؤال کاملاً آماری نیست - من می توانم تمام کتاب های درسی را در مورد فرضیات ANOVA بخوانم - سعی می کنم بفهمم که چگونه تحلیلگران واقعی کار داده هایی را مدیریت می کنند که کاملاً با فرضیات مطابقت ندارند. من سوالات زیادی را در این سایت در جستجوی پاسخ گذراندهام و مدام پستهایی درباره زمان استفاده نکردن از ANOVA (در یک زمینه ریاضی ایدهآلشده) یا نحوه انجام برخی از کارهایی که در زیر توضیح میدهم پیدا میکنم. من واقعاً سعی می کنم بفهمم مردم واقعاً چه تصمیماتی می گیرند و چرا. من در حال انجام تجزیه و تحلیل بر روی داده های گروه بندی شده از درختان (درختان واقعی، نه درختان آماری) در چهار گروه هستم. من اطلاعاتی برای حدود 35 ویژگی برای هر درخت دارم و در حال بررسی هر ویژگی هستم تا تعیین کنم که آیا گروه ها به طور قابل توجهی در آن ویژگی تفاوت دارند یا خیر. با این حال، در چند مورد، مفروضات ANOVA اندکی نقض می شوند زیرا واریانس ها برابر نیستند (طبق آزمون Levene، با استفاده از alpha=.05). همانطور که من می بینم، گزینه های من عبارتند از: 1. تبدیل داده ها به برق و دیدن اینکه آیا Levene p-val تغییر می کند یا خیر. 2. از یک تست ناپارامتریک مانند Wilcoxon استفاده کنید (اگر چنین است، کدام یک؟). 3. یک نوع تصحیح در نتیجه ANOVA، مانند Bonferroni (من در واقع مطمئن نیستم که چیزی شبیه به این وجود دارد؟) انجام دهید. من دو گزینه اول را امتحان کردم و نتایج کمی متفاوت گرفتم - در برخی موارد یک رویکرد مهم است و دیگری نه. من از افتادن در دام ماهیگیری با ارزش p می ترسم و به دنبال توصیه ای هستم که به من کمک کند تا بتوانم از کدام رویکرد استفاده کنم. من همچنین مواردی را خوانده ام که نشان می دهد ناهمسانی واقعاً مشکل بزرگی برای ANOVA نیست، مگر اینکه میانگین ها و واریانس ها همبستگی داشته باشند (یعنی هر دو با هم افزایش می یابند)، بنابراین شاید بتوانم نتیجه Levene را نادیده بگیرم مگر اینکه یک مورد را ببینم. اینطور الگو؟ اگر چنین است، آیا آزمایشی برای این وجود دارد؟ در نهایت، باید اضافه کنم که من این تجزیه و تحلیل را برای انتشار در یک مجله معتبر انجام میدهم، بنابراین هر رویکردی که من در آن تصمیم میگیرم باید با داوران کنار بیاید. بنابراین، اگر کسی بتواند پیوندهایی به نمونه های مشابه منتشر کند، فوق العاده خواهد بود. | به طور عملی، مردم چگونه ANOVA را مدیریت می کنند، در حالی که داده ها کاملاً با مفروضات مطابقت ندارند؟ |
49023 | $EY$ چیست، اگر $Y=max(X_{1},X_{2},...,X_{n})$ که در آن $X_{i}$ مشاهداتی از توزیع یکنواخت روی مجموعه $(0 است، a)$، $EY$ به $a$ می رود همانطور که $n$ به بی نهایت می رود؟ | $EY$ چیست، اگر $Y=max(X_{1},X_{2},...,X_{n})$ که $X_{i}$ مشاهداتی از توزیع یکنواخت بیش از $(0,a هستند ) دلار |
99272 | من از یک بسته رگرسیونی استفاده می کنم که از «gam()» از بسته «mgcv» استفاده می کند. آیا می توان جریمه L1 را با عملکرد بازی درج کرد؟ مستندات نشان میدهد که میتوان از پنالتی L2 با استفاده از پارامتر _H_ استفاده کرد، اما من نمیدانم چگونه میتوان از آن برای کمند نیز استفاده کرد. Splines در مدل نیست. تنها دلیلی که من از «glmnet» استفاده نمی کنم این است که تابعی که استفاده می کنم GAM را پیاده سازی کرده است. کد مثال: formula.eq = Y ~ X model.out = گام (formula.eq، دوجمله ای (پیوند = logit)، گاما = 1) که در آن 'Y' بردار صفر و یک است و 'X' شامل > 400 ویژگی، بنابراین من باید برخی از روش های انقباض را انجام دهم. با تشکر | رگرسیون کمند با مدل های GAM در R |
48378 | با توجه به دو متغیر تصادفی مستقل $X\sim \mathrm{Gamma}(\alpha_X,\beta_X)$ و $Y\sim \mathrm{Gamma}(\alpha_Y,\beta_Y)$، توزیع تفاوت چقدر است، یعنی. $D=X-Y$؟ اگر نتیجه به خوبی شناخته نشده است، چگونه می توانم نتیجه را استخراج کنم؟ متشکرم! | تفاوت متغیرهای تصادفی گاما |
59848 | پاسخ های بسیار مفید پیتر فلوم، وین و بسیاری دیگر را دنبال کنید. من الان شروع به استفاده از R کرده ام و این به من احساس پایتون می دهد :) نتایج زیر است اما مطمئن نیستم چگونه باید از اینجا بروم؟ چگالی مشخص بعد از تبدیل log بسیار بهتر به نظر می رسد. آیا می توانید لطفاً در مورد چگونگی انجام تجزیه و تحلیل بیشتر توضیح دهید؟ خیلی ممنون R - نتایج زیر: نمودار (تراکم (طول پیامها))  نمودار (تراکم (ورود (ورود پیامها (طول پیام)))  خلاصه (پیام ها) > خلاصه (پیام$mb) حداقل 1 ق. میانگین میانه 3rd Qu. حداکثر 0.00665 0.32610 0.88450 2.08500 2.35000 49.13000 qqnorm (messages$length)  ================================================== =================== ویرایش: با تشکر از همه پاسخ دادن! من qqnorm را با log(x) امتحان کردم و به نظر می رسد یک خط مستقیم است! آیا این بدان معناست که داده های من تقریباً از توزیع Log-normal پیروی می کنند؟ qqnorm (log(messages$length)):  همچنین سعی کرده ام داده های خود را با یک log-normal مطابقت دهم و در زیر آمده است نتیجه > fitdistr(message$mb, densfun=log-normal) meanlog sdlog > -0.19019347 1.45795269 (0.02003787) (0.01416891) آیا این معنی دارد؟ | ادامه سوال قبلی من - توزیع برای مجموعه ای از داده ها با استفاده از نتایج R |
91436 | من دو نمونه A و B دارم. A شامل 100 عنصر است در حالی که B دارای 150 عنصر است. می خواهم بدانم آیا برای مقایسه این دو نمونه A و B با اندازه های مختلف می توان آزمون کولموگروف اسمیرنوف را انجام داد؟ لطفا پاسخ دهید با احترام پوغلو | آزمون کولموگروف اسمیرنوف برای دو نمونه با اندازه های مختلف |
52272 | در ژنومیک و زیست شناسی محاسباتی، مجموعه داده های بیانی دارای تعداد بسیار بیشتری از ویژگی ها (p) نسبت به تعداد مشاهدات (N) هستند. من میخواستم دادهها را در جایی که p>>N شبیهسازی کنم تا عملکرد روشهای طبقهبندیکننده را مقایسه کنم (مانند روشهای منظم، روشهای انتخاب خودکار ویژگیها، و فیلتر کردن/انتخاب ویژگی قبل از اعمال هر روشی). به امید تقلید از دادههای بیان ژن، ژنهای آموزنده از توزیع لاپلاس نامتقارن (ALD) نمونهبرداری شدند (پوردوم، هولمز، 2005، پیشنهاد کرد که دادههای بیان ژن از ALD بهتر از توزیع طبیعی پیروی میکند) و ژنهای غیر اطلاعاتی/نویز نمونهبرداری شدند. از توزیع نرمال استاندارد برای مورد 1، با n = 100 و p = 1000، 300 ژن آموزنده از X ~ ALD (-3، 0.5، 1) برای کلاس 1 و از Y~ ALD (3، 2، 1) برای کلاس 2، و 700 ژن غیر اطلاعاتی/نویز از e ~ N(0,1) نمونه برداری شد. سپس با افزایش پارامتر مقیاس از 1 به 10، 5 درصد از بیان ژن آموزنده به نقاط پرت تبدیل شد. در نهایت، نمونه ها (ردیف ها) مخلوط شدند. ما E(X) = -1.93934، E(Y) = 1.93934، و Var(X) = Var(Y) = 4.761039 داریم. منحنیهای چگالی اینجا هستند:  خط قرمز (کلاه نوک تیز سمت چپ) ) X است، خط آبی (کلاه نوک تیز سمت راست) Y، خط سیاه e، خط نارنجی X است که به نقاط پرت تبدیل می شود و خط سبز است. Y تبدیل به پرت شد. پس از صحبت با یک استاد در این مورد، او پیشنهاد کرد که همبستگی هایی را در ویژگی ها اضافه کنم زیرا از آنجایی که هر بار به طور مستقل نمونه برداری می کنم، ماتریس کوواریانس من برای ویژگی ها ماتریس هویت است. او پیشنهاد کرد که ماتریس کوواریانس من به rho^|i-j| تبدیل شود، که در آن 0 سؤالات من عبارتند از: 1. **چرا بهتر است که ماتریس کوواریانس rho^|i-j| برای شبیه سازی آیا این در داده های بیان ژن واقعی تر است؟ آیا دلیل خاصی وجود دارد که چرا همه آن فقط rho در مورب خاموش و 1 در مورب نیست؟** 2. **اگر من 300 ویژگی اول را آموزنده و ویژگی های 301-1000 را غیر اطلاعاتی داشته باشم (~N( 0،1))، آیا فقط همبستگی هایی را به 300 ویژگی اول اضافه می کنم؟ اگر چنین است، آیا ماتریس کوواریانس {rho^|i-j| را دارم برای 1 <i,j <300 اگر i برابر با j نیست، و 0 برای i، j > 300 و i برابر با j} نیست؟** این پیشنهاد ممکن است مربوط به زمانی باشد که به او گفتم که نتیجه سبد خرید من است. تنها یک ویژگی متفاوت را در R ... | چرا همبستگی ها در شبیه سازی داده ها برای مقایسه طبقه بندی کننده ها زمانی که p >> N اهمیت دارد؟ |
48374 | میپرسم آیا روشهایی برای محاسبه حجم نمونه در مدلهای ترکیبی وجود دارد؟ من از «lmer» در R برای جا دادن مدلها استفاده میکنم (من شیبها و وقفههای تصادفی دارم). | محاسبه اندازه نمونه برای مدل های ترکیبی |
82854 | من از PROC KDE برای تناسب چگالی به مجموعه بزرگی از داده های پیوسته استفاده می کنم. من نمی توانم بفهمم که چگونه می توانم مشکل همگرایی را در زیر حل کنم. پیشنهادی دارید؟ من می توانم صدک ها را رسم کنم، اما تراکم ها را ترجیح می دهم. گزارش من اینجاست: گرافیک 285 ods خاموش است. 286 ods graphics on; 287 proc kde data=sasdata.have; 288 univar x(bwm=2) x(bwm=0.25)/ plots=(histdensity); 289 اجرا; توجه: در حال پردازش عبارت UNIVAR شماره 1. اخطار: الگوریتم برای اتصال Sheather-Jones همگرا نشد. با استفاده از حداکثر مقدار پهنای باند هشدار: الگوریتم برای اتصال Sheather-Jones همگرا نشد. با استفاده از حداکثر مقدار پهنای باند توجه: رویه KDE استفاده شده (کل زمان پردازش): زمان واقعی 14.63 ثانیه زمان پردازنده 5.67 ثانیه 290 ods گرافیک خاموش. | مشکل همگرایی PROC KDE |
64289 | من در حال انجام یک متاآنالیز اندازه های افکت **_d_** در R با استفاده از بسته متافور هستم. **_d_** نشان دهنده تفاوت در نمرات حافظه بین بیماران و افراد سالم است. با این حال، برخی از مطالعات تنها امتیازهای فرعی معیار علاقه **_d_** را گزارش میکنند (به عنوان مثال چندین امتیاز حافظه مختلف یا امتیازات از سه بلوک جداگانه تست حافظه). لطفاً مجموعه داده های ساختگی زیر را با **_d_** که نشان دهنده اندازه اثر مطالعات و همچنین انحراف معیار آنها sd است، ببینید: d <- round(rnorm(5,5,1),2) sd <- round(rnorm (5،1،0.1)،2) مطالعه <- زیر امتیاز c(1،2،3،3،3) <- c(1،1،1،2،3) my_data <- as.data.frame(cbind(study, subscore, d, sd)) library(metafor) m1 <- rma(d,sd, data=my_data) summary(m1) برای بهترین راه نظر شما را می خواهم نحوه رسیدگی به این امتیازات فرعی - به عنوان مثال: 1. از هر مطالعه ای که بیش از یک امتیاز را گزارش می کند، یک امتیاز فرعی انتخاب کنید. 2. شامل همه زیرنمرات (این فرض مستقل بودن مدل rfx را نقض می کند زیرا امتیازات فرعی یک مطالعه از همان نمونه حاصل می شود) 3. برای هر مطالعه ای که زیر امتیازها را گزارش می کند: میانگین نمره و میانگین انحراف استاندارد را محاسبه کنید و این ادغام شده را در نظر بگیرید. اندازه اثر در متاآنالیز rfx. 4. شامل تمام امتیازات فرعی و اضافه کردن یک متغیر ساختگی است که نشان می دهد از کدام مطالعه یک امتیاز خاص به دست آمده است. | چگونه می توان به بهترین وجه زیر امتیازها را در یک متاآنالیز مدیریت کرد؟ |
7876 | من در فهمیدن اینکه نوارهای محدوده در «plot.stl» دقیقاً به چه معنی هستند مشکل دارم. من پست گاوین را در مورد این سوال پیدا کردم و مستندات را نیز خواندم، می دانم که آنها بزرگی نسبی اجزای تجزیه شده را می گویند، اما هنوز کاملاً مطمئن نیستم که چگونه کار می کنند. به عنوان مثال: داده: نوار کوچک، بدون مقیاس فصلی: نوار کامل، با مقیاس از 0.6- تا 0.2 روند: یک نوار کوچک دیگر (به نظر می رسد برابر با داده است)، بدون مقیاس باقیمانده: نوار اندازه متوسط با مقیاس از 1.5- تا 0.5 من نمی دانم که اساس رابطه چیست و چرا روند مقیاس ندارد. من «stl» و «تجزیه» را با نتایج یکسان برای روشهای ضربی و جمعی امتحان کردم. | تفسیر میله های محدوده در R's plot.stl؟ |
16865 | من در نمادهای مناسب معانی و همچنین معانی برخی نمادهای مربوط به متغیرهای تصادفی و توزیع آنها گیج می شوم. در زیر، مواردی را که فکر میکنم درست هستند، و همچنین چیزهایی را که نمیفهمم، فهرست میکنم، و من دوست دارم ورودی/اصلاحها را انجام دهم. من برای سهولت ارجاع، هر نکته/سؤال را با یک عدد برچسب گذاری کرده ام. اگر فهرست کردن موارد در یک سوال مانند این مناسب نیست، لطفاً به من اطلاع دهید. من فکر کردم خوب است زیرا همه آنها کوتاه هستند. 1. یک متغیر تصادفی با یک حرف بزرگ نشان داده می شود، به عنوان مثال. X$. 2. عملیات روی یک متغیر تصادفی به چه معناست؟ (به عنوان مثال، چگونه $X^2$ را در کلمات تفسیر می کنید؟). 3. یک قرعه کشی خاص از یک متغیر تصادفی با حروف کوچک (مثلاً $x$) یا حروف کوچک با یک زیرنویس (مثلاً $x_1$) یا یک عدد بزرگ با یک عدد (مثلاً $X_1$) نشان داده می شود. 4. متغیر تصادفی که آمار سفارش $kth$ از $n$ است از یک متغیر تصادفی $X$ به عنوان $X_{kn}$ نشان داده می شود. 5. آیا روش کوتاهی برای نوشتن X متغیر تصادفی است که توسط F(x) توزیع می شود (یا cdf F(x) یا B(a,b) یا هر راهی برای مشخص کردن یک توزیع وجود دارد) ? 6. آیا می توانم $\mathbb{E}F(x)$ را به معنای انتظار متغیر توزیع شده بر اساس $F(x)$ بنویسم؟ 7. اگر من عملیاتی را بر روی سی دی اف متغیر X انجام دهم، برای مثال، $F_{new}(x) = F_{old}(x)^2$ برای دریافت cdf حداکثر 2 قرعه کشی از $X$، آیا می توانم به نحوی آن را بر حسب X$ یادداشت کنم؟ 8. آیا روش مناسب برای نوشتن $(F(x))^2$ به طور خلاصه $F^2(x)$ یا $F(x)^2$ است؟ 9. آیا تفاوت نمادی بین متغیر گسسته و پیوسته وجود دارد؟ | قراردادهای نمادگذاری برای متغیرهای تصادفی و توزیع آنها |
12156 | من یک data.frame بزرگ در R دارم. میخواهم اگر توزیع آن متناسب با توزیع نرمال یا توزیع ارزش شدید بهتر باشد، در اینجا data.frame ساده شده من است. x <- data.frame(A=c(1,3,1,5,4,5,5,7,3,2,2,1,1,1,4,9,10)) ممکن است به من بگویید چگونه این کار را انجام دهم؟ آیا می توانم این تحلیل را با R انجام دهم؟ | آیا دادههای من برای «توزیع ارزش شدید» یا «توزیع عادی» مناسب است؟ |
97545 | من در حال حاضر در حال نوشتن پایان نامه خود با استفاده از رگرسیون چندگانه هستم. با این حال داده های من با فرض رگرسیون توزیع نرمال مطابقت ندارد. من می خواهم توضیح دهم که به دلیل توزیع غیر عادی، تفسیر داده ها محدود است. من نمیخواهم دادهها را تغییر دهم، فقط میخواهم بگویم تأثیر توزیع غیر نرمال بر نتایج رگرسیون من (N = 110) چقدر است. اگر زیاد گوگل کردهام، فقط فرضیات را پیدا کردهام، اما وقتی هنوز آزمایشهایم را انجام میدهم، هیچوقت واقعاً عواقبی در پی نخواهد داشت. آیا هیچ یک از شما میداند که پیامدهای توزیع غیرعادی برای نتایج رگرسیون من چیست؟ و همچنین بسیار مهم، کدام مقاله می تواند استناد شود؟ برای راهنمایی شما بسیار سپاسگزار خواهم بود! | پیامدهای رگرسیون چندگانه با توزیع غیر نرمال |
108829 | فرض کنید میخواهید یک مدل مارکوف پنهان را با حالتهای پنهان $n$ آموزش دهید، و (به طور تصادفی) خود مشکل را میتوان با یک مدل مارکوف پنهان با $n$ (یا حالتهای کمتر) توصیف کرد. تعداد نمونه های مورد انتظار برای یادگیری صحیح چنین مدلی (با خطای $<\epsilon$) چقدر است؟ | طول نمونه مورد نیاز مورد انتظار برای آموزش یک مدل مارکوف پنهان |
99279 | من به سایت deeplearning.net در مورد نحوه پیاده سازی معماری های یادگیری عمیق اشاره می کنم. من چندین مقاله تحقیقاتی در مورد خلاصهسازی اسناد (هم سند واحد و هم چند سند) خواندهام، اما نمیتوانم بفهمم که خلاصه دقیقاً چگونه برای هر سند ایجاد میشود. پس از انجام آموزش، شبکه در مرحله آزمایش تثبیت می شود. بنابراین حتی اگر مجموعه ای از ویژگی هایی را که در مرحله آموزش آموخته شده بدانم (که متوجه شده ام)، در حین آزمایش تشخیص اهمیت هر ویژگی (به دلیل تثبیت وزن بردار شبکه) دشوار خواهد بود. مرحله ای که در آن سعی خواهم کرد خلاصه ای برای هر سند ایجاد کنم. من مدتها سعی کردم این موضوع را بفهمم اما بی فایده بود. اگر کسی روی آن کار کرده است یا ایده ای در مورد آن دارد، لطفاً نکاتی را به من ارائه دهد. من واقعا از کمک شما قدردانی می کنم. متشکرم. | خلاصه سازی اسناد متنی (حوزه حقوقی) با استفاده از تکنیک های یادگیری عمیق |
12152 | به عنوان ابزاری برای ایجاد انگیزه سوال، یک مسئله رگرسیون را در نظر بگیرید که در آن ما به دنبال تخمین $Y$ با استفاده از متغیرهای مشاهده شده $\\{ a, b \\}$ هستیم هنگام انجام رگرسیون چند جملهای چند متغیره، سعی میکنم بهینهسازی تابع را پیدا کنم. $$f(y)=c_{1}a+c_{2}b+c_{3}a^{2}+c_{4}ab+c_{5}b^{2}+\cdots$$ که بهترین تناسب داده ها به معنای حداقل مربع است. اما مشکل این است که پارامترهای $c_i$ مستقل نیستند. آیا راهی برای انجام رگرسیون بر روی مجموعه دیگری از بردارهای بنیاد که متعامد هستند وجود دارد؟ انجام این کار مزایای آشکار بسیاری دارد 1) ضرایب دیگر همبستگی ندارند. 2) مقادیر خود $c_i$ دیگر به درجه ضرایب بستگی ندارد. 3) این مزیت محاسباتی نیز دارد که میتواند شرایط مرتبه بالاتر را برای تقریب درشتتر اما هنوز دقیق به دادهها حذف کند. این به راحتی در حالت تک متغیری با استفاده از چند جملهای متعامد، با استفاده از مجموعهای به خوبی مطالعه شده مانند چند جملهای چبیشف به دست میآید. با این حال (به هر حال برای من) واضح نیست که چگونه این را تعمیم دهم! به ذهنم رسید که میتوانم چندجملهایهای chebyshev را به صورت جفت جفت کنم، اما مطمئن نیستم که آیا این کار از نظر ریاضی درست است یا خیر. کمک شما قابل قدردانی است | رگرسیون چند جمله ای متعامد چند متغیره؟ |
57993 | من مجموعه داده ای از جمعیت دو وجهی دارم. این شامل یک قله کوچکتر است که به عنوان بد در نظر گرفته می شود و یک قله بزرگتر. سعی می کنم قسمت بد داده ها را از بقیه داده ها جدا کنم. کاری که من انجام دادم این بود: ابتدا یک تخمین چگالی هسته انجام دادم، سپس حداکثر محلی این قله کوچک و حداقل محلی گودال بین دو قله را پیدا کردم، سپس نقطه میانی (میانگین حسابی مختصات x) آنها را گرفتم. و آن را به عنوان یک برش تعریف کنید. همه چیز زیر این برش بد در نظر گرفته می شود. دلیل اینکه من به جای پیت از نقطه میانی استفاده کردم این است که سعی کردم محافظه کارتر باشم. حالا می خواهم بپرسم: آیا کاری که انجام دادم معقول است؟ اگر بله، چگونه می توانم اقدام خود را به شیوه ای مورد علاقه آماردانان توضیح دهم؟ اگر نه، چگونه می توانم تغییر دهم؟ (از هر روش دیگری به خصوص روش هایی که در R پیاده سازی شده اند استقبال می شود.) متشکرم! این شکل است.  | چگونه توضیح دهیم که چگونه یک توزیع دووجهی را بر اساس تخمین چگالی هسته تقسیم کردم |
57991 | من یک نمونه از رکوردها، با رشته و ستون های عددی دارم. نمونه من در حال حاضر در یک صفحه گسترده اکسل میزبانی می شود. من به ابزاری نیاز دارم که برای هر ستون آمار توصیفی تولید کند، مانند مقادیر حداکثر و حداقل، تعداد مقادیر منحصر به فرد، حداکثر طول رشته. آیا چنین ابزارهایی در دسترس هستند؟ هر گونه راهنمایی؟ هدف نهایی استخراج یک فرهنگ لغت داده است. | ابزارهای کاوش داده برای اکسل |
28290 | فرض کنید من دو متغیر تصادفی $X_t\sim NID(0,1)$ و $Y_t\sim NID(0,4)$ و $Cov(X_t,Y_t)=2$ دارم. متغیر تصادفی $Z_t = X_t + Y_t + Y_tX_t$ را در نظر بگیرید. $E(Z_t) = E(X_t)+E(Y_t X_t)+E(Y_t) = 0 + 2 + 0 = 2$ زیرا، $E(X_t)=0$$E(Y_t)=0$E (X_tY_t) = E(X_t)\بار E(Y_t)+cov(X,Y) = 0 + 0 + 2$ اما اگر بخواهم بدست بیاورم $E(Z_t|X_t)$ دلیل آن چیست؟ من قادر به تشخیص نیستم. با واریانس یکسان است: $Var(Z_t) = Var(X_t)+Var(Y_t X_t)+Var(Y_t) = 1 + 2 + 4 = 7$ اما $Var(Z_t|X_t)$ چطور؟ | برخی تردیدها در مورد انتظار مشروط |
63104 | این احتمالاً برای کارشناسان آمار تقریباً بی اهمیت است. با این حال، اگرچه مدت زیادی است که در وب جستجو کرده ام، نتوانستم به پاسخ قانع کننده ای برسم. با توجه به دو متغیر تصادفی گاوسی (تقریباً) $u$ و $v$، PDF و مقدار انتظاری $u – v$ با توجه به دانش قبلی که $u – v \ge 0$ است چقدر است؟ به یاد دارم که به طور مبهم چیزی در این راستا بر اساس استنتاج بیزی دیده بودم. با این حال، اکنون به نظر می رسد که نمی توانم این منبع را پیدا کنم. | تفاوت متغیرهای تصادفی مشروط به مقادیر غیر منفی |
85798 | اگر یک رگرسیون چندگانه انجام دهم مانند: df<-data.frame(y1=rnorm(100,2,3), y2=rnorm(100,3,2), x1=rbinom(100,1,0.5), x2 =rnorm(100,100,10)) fit<-lm(cbind(y1,y2)~x1+x2,data=df) > anova(fit) تجزیه و تحلیل جدول واریانس Df Pillai تقریبی F num Df den Df Pr(>F) (برق) 1 0.75423 147.306 2 96 <2e-16 *** x1 1 0.00720 0.348 2 96 0.7069 x2 1 0.00928 0.450 2 96 0.6391 Residuals 97 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 من نمیدانم چگونه این شی ANOVA را توضیح دهم که در آن دو مدل پاسخهای متفاوت و مجموعهای از پیشبینیکنندههای یکسان دارند. | چگونه خروجی ANOVA از رگرسیون چندگانه را توضیح دهیم؟ |
9312 | SPSS کران های پایین و بالایی را برای قابلیت اطمینان برمی گرداند. هنگام محاسبه خطای استاندارد اندازهگیری، آیا باید از کرانهای پایین و بالایی استفاده کنیم یا به استفاده از تخمین قابلیت اطمینان ادامه دهیم. من از فرمول استفاده می کنم: $$\text{SEM}\% =\left(\text{SD}\times\sqrt{1-R_1} \times 1/\text{mean}\right) × 100$$ جایی که SD انحراف استاندارد است، $R_1$ همبستگی درون کلاسی برای یک اندازه گیری واحد است (ICC یک طرفه). | چگونه می توان خطای استاندارد اندازه گیری (SEM) را از برآورد قابلیت اطمینان محاسبه کرد؟ |
90015 | من با مدلهایی برای دادههای پانل افراد کار میکنم که در آنها: متغیرهای پنهان من Yt= $\beta$Yt-1+Ai+Q سطح فرآیند افراد A~N(l,h) نوآوری در Q~N( 0,q) متغیرهای مشاهده شده Xt=$\lambda$Y+$\epsilon$ باقیمانده اندازه گیری $\epsilon$~N(0,e) اساساً، یک مدل خودرگرسیون برداری چند متغیره با پارامترهای ثابت در طول زمان، که در آن افراد می توانند در سطح متوسط فرآیند متفاوت باشند، و در آن نویز گواسی کاذب در متغیر مشاهده شده وجود دارد. مدل بحرانی نیست، اما من فکر کردم که بهتر است آن را مشخص کند. من از بسته sem openmx در R استفاده می کنم که برای تخمین FIML به بهینه ساز NPSOL متکی است. من نگران هستم زیرا حتی اگر به نظر می رسد تخمین اولیه من همگرا می شود و تخمین های معقولی ایجاد می کند، وقتی پارامترهای شروع خود را تغییر می دهم یا مرزهای پارامتر بالا و پایین را به مدل اضافه می کنم، می توانم به راه حل بهتری با -2 ll کمتر برسم. یعنی پیمایش سطح احتمال من دشوار به نظر می رسد. بهترین رویکردها در چنین موردی چیست - خط فکر فعلی من این است که به جای تلاش برای بهینهسازی، روی تمام تخمینهای پارامترهای قابل اجرا تکرار کنم، یا برخی استراتژیهای ترکیبی که ممکن است برخی از پارامترها را تکرار کنم و در عین حال بقیه را بهینه کنم. هر گونه پیشنهاد یا مطالب خواندنی در مورد موضوع مورد استقبال قرار می گیرد. | تخمین پارامتر در سم خودرگرسیون دو متغیره با ناهمگنی فردی - سطح احتمال مشکل ساز |
9313 | آیا می توانید یک بررسی خوب از الگوریتم های تطبیق کنترل موردی پیشنهاد دهید؟ الگوریتمهایی که میتوانند برای راهاندازی جفتهای منطبق از یک کیس و یک کنترل استفاده شوند، یا بلوکهای همسان یک کیس و چندین کنترل. | بررسی الگوریتم های تطبیق کنترل موردی؟ |
9318 | من قصد دارم برنامه ای بنویسم که MDS را انجام دهد. آیا اشاره ای به جایی که می توانم به شبه کد MDS دسترسی داشته باشم وجود دارد؟ با تشکر | شبه کد مقیاس بندی چند بعدی |
8956 | من میخواهم در تعدادی از اندازهگیریها که از مقیاس لیکرت استفاده شده است، همبستگی انجام دهم. با نگاهی به نمودارهای پراکنده، به نظر می رسد که مفروضات خطی بودن و همسانی بودن ممکن است نقض شده باشد. * با توجه به اینکه به نظر میرسد بحثهایی پیرامون رتبهبندی سطح ترتیبی وجود دارد که مقیاس تقریبی سطح فاصلهای وجود دارد، آیا باید آن را ایمن بازی کنم و از Rho اسپیرمن به جای r پیرسون استفاده کنم؟ * آیا مرجعی وجود دارد که بتوانم به آن استناد کنم اگر با Spearman's Rho همراه شوم؟ | همبستگی اسپیرمن یا پیرسون با مقیاس لیکرت که در آن خطی بودن و همسویی بودن ممکن است نقض شود. |
8959 | چگونه می توانم برچسب های محور عمودی y را در یک باکس پلات تغییر دهم، به عنوان مثال. از اعداد تا متن؟ به عنوان مثال، من می خواهم {-2، -1، 0، 1، 2} را با {0hour، 1hours، 2hours، ...} جایگزین کنم. | چگونه برچسب های محور را در یک باکس پلات سفارشی کنیم؟ |
10423 | آیا مقاله/کتاب/ایدهای در مورد رابطه بین تعداد ویژگیها و تعداد مشاهداتی که فرد برای آموزش یک طبقهبندی قوی باید داشته باشد، وجود دارد؟ به عنوان مثال، فرض کنید من 1000 ویژگی و 10 مشاهده از دو کلاس به عنوان مجموعه آموزشی و 10 مشاهده دیگر به عنوان مجموعه آزمایشی دارم. من مقداری طبقهبندی کننده X را آموزش میدهم و 90٪ حساسیت و 90٪ ویژگی در مجموعه آزمایشی به من میدهد. فرض کنید از این دقت راضی هستم و بر اساس آن می توانم بگویم که طبقه بندی خوبی است. از طرف دیگر، من تابعی از 1000 متغیر را تنها با استفاده از 10 امتیاز تقریب زدم، که ممکن است به نظر خیلی قوی نباشد؟ | تعداد ویژگی ها در مقابل تعداد مشاهدات |
48375 | من می خواهم یک HMM بسازم که به طور مشابه با برچسب بخش های گفتار کار کند. اما به جای اینکه کلمات را در یک جمله با قسمت گفتارشان برچسب گذاری کنم، کلمات را در جستجوی کاربران در سایت های تجارت الکترونیک با دسته آنها برچسب گذاری می کنم. برای مثال، هر دو «لباس قرمز مهمانی» و «کراوات رسمی مشکی» با «[color] [casion] [item]» برچسبگذاری میشوند. من یک درک اساسی از رویکرد خود دارم با یک استثنا: چگونه باید با عناصر چند عبارتی در رشته جستجو برخورد کنم؟ برای مثال «عقاب آمریکایی» یک «[نام تجاری]» دو نشانه است. کت و شلوار حمام یک [ مورد] دو نشانه است. و آبی periwinkle یک [رنگ] دو علامت است. بنابراین من میخواهم که کت و شلوار شنای عقاب آمریکایی آبی رنگی فقط سه برچسب داشته باشد، یعنی [رنگ] [نام تجاری] [مورد]. رویکردی که من دنبال میکنم از فصل 6 این کتاب واقعاً عالی میآید، اما به نمادهای چند نشانهای یا معادل آن نمادهای متعددی که در طول یک حالت خاص منتشر میشوند، نمیپردازد. * ایده های شما چیست؟ * آیا مقالاتی وجود دارد که بتوانید به من مراجعه کنید؟ | مدل پنهان مارکوف: چگونه با چندین نماد ساطع شده از یک حالت معین برخورد کنیم |
27050 | در دوره Stanford ML، به ما آموزش داده شد که با تکرار مقادیر مختلف لامبدا در چندین مجموعه اعتبارسنجی متقاطع و انتخاب مقادیری که با فرضیه با حداقل خطای CV مطابقت دارند، مقادیر خوبی برای پارامترهای لامبدا رج / کمند پیدا کنیم. مشکل این است که من با یک مجموعه داده بزرگ بازی می کنم (که حتی ممکن است برای رگرسیون لجستیک مناسب نباشد (??): مجموعه تبلیغات اینترنتی) و نمی توانم از روشی که در بالا توضیح داده شد استفاده کنم زیرا در طول بهینه سازی، هزینه باقی می ماند. پایدار (بین تکرارها فقط حدود هشتمین رقم اعشار تغییر می کند) و به نظر نمی رسد همگرا باشد. من برای همگرا شدن نیاز به مقادیر خوبی برای منظم سازی دارم، اما نمی توانم بدون مقادیر خوب فوق الذکر همگرا شوم. پیشنهادی دارید؟ آیا باید به استفاده از SVM بروم یا این مجموعه داده با رگرسیون لجستیک قابل حل است؟ توجه: من این کار را برای اهداف یادگیری انجام میدهم، بنابراین بیشتر به توضیح اینکه چرا رویکرد من بد است نسبت به کتابخانههای جعبه سیاه علاقهمندم که به من راهحلی بدهد. **ویرایش: برخی از کدهای مربوطه (برای وضوح، گاهی اوقات شبه کد). نمادهای معمول اعمال می شوند.** تابعی که برای محاسبه هزینه استفاده می شود: def computeCost(تتا، X، y): iter سراسری iter += 1 اگر iter > 10: افزایش TooManyIterationsException(iter) # چون هزینه همگرا نمی شود، من وقفه را مجبور می کنم تا به ترکیب دیگری از مقادیر لامبدا بپرم m = y. اندازه h = sigmoid(X.dot(theta.T)) J = y.T.dot(log(h)) + (1.0 - y.T).dot(numpy.log(1.0 - h)) J_reg2 = تتا[1:]**2 J_reg1 = تتا[1:] هزینه = (-1.0 / متر) * (J.sum()) + LAMBDA2 * J_reg2.sum() + LAMBDA1 * J_reg1.sum() چاپ هزینه: ، هزینه بازگشت هزینه فراخوانی scipy.optimize.fmin_bfgs: initial_thetas = numpy.zeros((len(train_X[0]), 1) myargs = (train_X، train_y) برای LAMBDA1 در [0.01، 0.02، 0.04، ...، 10]: برای LAMBDA2 در my_range[0.01، 0.02، 0.04، ...، 10]: امتحان کنید: iter = 0 تتا = scipy.optimize.fmin_bfgs(computeCost، x0=initial_thetas، args=myargs) به جز TooManyIterationsException یک خروجی معمولی به این صورت است:  **دوباره ویرایش شد: تکامل تتاها!** | چگونه می توان پارامترهایی را برای تنظیم ریج و کمند پیدا کرد در حالی که به حداقل رساندن هزینه همگرا نیست؟ |
9311 | من می توانم ببینم که تفاوت های رسمی زیادی بین اندازه گیری های فاصله کول بک-لیبلر در مقابل کولموگروف-اسمیرنوف وجود دارد. با این حال، هر دو برای اندازه گیری فاصله بین توزیع ها استفاده می شوند. * آیا شرایط معمولی وجود دارد که باید از یکی به جای دیگری استفاده شود؟ * چه دلیلی برای این کار وجود دارد؟ | فاصله کول بک – لیبلر در مقابل کولموگروف – اسمیرنوف |
62859 | من میدانم که HSD توکی رایجترین تست تعقیبی برای ANOVA بین گروهی است. به نظر می رسد که برخی آن را به عنوان یک آزمون تعقیبی برای ANOVA درون گروهی توصیه یا انتخاب نمی کنند. در عوض، تست بونفرونی یا تست سیداک را ترجیح می دهند. اما، به نظر میرسد که هر دوی آنها فقط هر مقدار _p_ را که از آزمون t زوجی بدست میآورید در تعداد فرضیههایی که آزمایش میکنید ضرب میکنند. این رویکرد نه چندان قوی به نظر می رسد. درعوض، اگر می توانستم ترجیح می دادم از تست HSD Tukey در این شرایط [در درون گروهی ANOVA] استفاده کنم. آیا می توانم این کار را انجام دهم؟ یا دلایل خاصی برای عدم وجود دارد. | آیا می توانم از آزمون HSD Tukey به عنوان یک آزمون تعقیبی برای آزمون ANOVA درون گروهی استفاده کنم؟ |
7873 | امروز من یک سوال در مورد رگرسیون دوجمله ای / لجستیک دارم که بر اساس تجزیه و تحلیلی است که گروهی در بخش من انجام داده اند و در جستجوی نظرات هستند. من مثال زیر را برای محافظت از ناشناس بودن آنها ایجاد کردم، اما آنها مشتاق بودند که پاسخ ها را ببینند. ابتدا، تجزیه و تحلیل با یک پاسخ دوجمله ای ساده 1 یا 0 (به عنوان مثال، بقا از یک فصل تولید مثل به فصل بعدی) آغاز شد و هدف مدل سازی این پاسخ به عنوان تابعی از برخی متغیرهای کمکی بود. با این حال، اندازهگیریهای چندگانه برخی از متغیرهای کمکی برای برخی افراد در دسترس بود، اما برای برخی دیگر نه. برای مثال، تصور کنید متغیر x معیاری از میزان متابولیسم در طول زایمان است و افراد از نظر تعداد فرزندان متفاوت هستند (مثلاً متغیر x 3 بار برای فرد A، اما تنها یک بار برای فرد B اندازهگیری شد). این عدم تعادل به خودی خود به دلیل استراتژی نمونه گیری محققین نیست، بلکه نشان دهنده ویژگی های جامعه ای است که آنها از آن نمونه برداری کرده اند. برخی از افراد فرزندان بیشتری نسبت به دیگران دارند. همچنین باید اشاره کنم که اندازه گیری پاسخ دوجمله ای 0\1 بین رویدادهای زایمان امکان پذیر نبود زیرا فاصله بین این رویدادها بسیار کوتاه بود. باز هم تصور کنید گونه مورد بحث فصل تولید مثل کوتاهی دارد، اما می تواند بیش از یک فرزند در طول فصل به دنیا بیاورد. محققان مدلی را انتخاب کردند که در آن از میانگین متغیر x به عنوان یک متغیر کمکی و تعداد فرزندانی که یک فرد به دنیا می آورد به عنوان متغیر کمکی دیگر استفاده کردند. اکنون، من به دلایل متعددی مشتاق این رویکرد نبودم. 1) در نظر گرفتن میانگین x به معنای از دست دادن اطلاعات در تغییرپذیری درون فردی x است. 2) میانگین خود یک آمار است، بنابراین با قرار دادن آن در مدل در نهایت به انجام آمار در مورد آمار می پردازیم. 3) تعداد فرزندانی که یک فرد داشت در مدل موجود است، اما برای محاسبه میانگین متغیر x نیز استفاده می شود که به نظر من می تواند مشکل ایجاد کند. بنابراین، سوال من این است که مردم چگونه می توانند این نوع داده ها را مدل کنند؟ در حال حاضر، احتمالاً برای افرادی که یک فرزند دارند، سپس برای افرادی که دو فرزند دارند و غیره، مدل های جداگانه ای اجرا می کنم. همچنین، من از میانگین متغیر x استفاده نمی کنم و فقط از داده های خام برای هر تولد استفاده می کنم، اما هستم. متقاعد نیستم که این خیلی بهتر است. ممنون از وقتی که گذاشتید (PS: پوزش می طلبم که سوال بسیار طولانی است و امیدوارم مثال واضح باشد) | بحث رگرسیون دو جمله ای و استراتژی های مدل سازی |
26901 | خطوط زیر از یک سخنرانی که در اینجا یافت می شود گرفته شده است. من یک سوال بسیار کوچک در مورد این توضیح در مورد احتمال پواسون دارم. _احتمال پواسون را می توان هر زمان که داده های شما در فواصل مجزا (که ما آن را «شمارش» می نامیم) استفاده کرد و شمارش ها مستقل از یکدیگر هستند. به طور شماتیک، ما تصور می کنیم که فضای داده را به سطل ها تقسیم کنیم، که می تواند سطل هایی در کانال انرژی آشکارساز ما، مکان در آسمان، زمان رسیدن یا هر یک از موارد دیگر باشد. فرض کنید **در یک مدل خاص $m$، انتظار دارید که $m_i$ شمارش در bin $i$** وجود داشته باشد. سپس اگر مدل صحیح باشد، احتمال مشاهده واقعی $d_i$ شمارش در bin $i$ داده ها، از توزیع پواسون، _ $L_i = m_i^{d_i}/d_i است! \; exp(-m_i)$ _توجه داشته باشید که $m_i$ می تواند هر عدد واقعی مثبت باشد، در حالی که $d_i$ باید یک عدد صحیح باشد. همچنین توجه داشته باشید که مجموع $L_i$ از $d_i = 0$ تا ∞ 1 است. احتمال برای کل مجموعه داده حاصل ضرب احتمالات برای هر bin است:_ $L = \Pi\; m_i^{d_i}/d_i! \; exp(-m_i)$ _ با افزایش $m_i$، این با گاوسی بهتر و بهتر تقریب میشود. در واقع، اگر میتوانید مدیریت کنید، بهترین راه برای نمایش دادههایتان این است که سطلهایی به قدری کوچک داشته باشید که انتظار داشته باشید ** 0 یا 1 تعداد در هر bin**._ سوال من این است: اگر یکی از * *مقادیر مورد انتظار** $m_i$ صفر است (یعنی: مدل تعداد صفر را در آن bin $i$ پیش بینی می کند)؟ آیا این باعث نمی شود که ارزش نهایی $L$ باطل شود؟ # ویرایش پس از خواندن پاسخ @leonbloy و @Henry، فکر میکنم باید کمی بیشتر مشکل خاص خود را با این تحلیل توضیح بدهم و اینکه چه چیزی را به وضوح درک نمیکنم. در مورد من **دو هیستوگرام** دارم که داده های _مدل شده_ و داده های _مشاهده شده را نشان می دهد. بنابراین $[d_i, \; i=1,n]$ هیستوگرام از مشاهدات واقعی ساخته شده است (یعنی: شمارش در هر bin $d_i$ از طریق آزمایش به دست می آید) و هیستوگرام $[m_i, \; i=1,n]$ توسط یک مدل تولید میشود: این بدان معناست که تعداد $m_i$ در مورد من **اعداد صحیح** هستند که در واقع میتوانند مقدار 0** را بگیرند. اکنون، اینجاست که من به وضوح اشتباه میکنم زیرا در آن مقاله خطی خواندم که میگوید _توجه داشته باشید که $m_i$ میتواند هر عدد واقعی مثبت باشد_ و پاسخ @leonbloy نیز به آن جهت اشاره میکند، در مورد من مقادیر $m_i$ **همه** اعداد صحیح هستند و **مقدار 0** را بارها می گیرند. من باید از یک مرحله مهم در مورد محاسبه مقادیر $m_i$ صرف نظر کنم. بنابراین اگر مدل من **شمار در هر bin** را به من بدهد، چگونه باید مقادیر m_i$$ را محاسبه کنم؟ به نظر میرسد پاسخ هنری با پاسخ @leonbloy در تناقض است زیرا او میگوید $m_i=0$ **احتمالی است** در حالی که @leonbloy میگوید **اینطور نیست**. در هر صورت، به نظر میرسد که هنری هر زمان که $m_i=0$، سپس $d_i=0$ نیز باشد، فرض میکند تا شخص $L_i=1$ را بدست آورد زیرا $0⁰=1$. این مورد من نیست، زیرا $m_i$ می تواند 0 باشد، اما به این معنی نیست که $d_i$ نیز مجبور است 0 باشد (هیستوگرام _observed_ من، $[d_i، \; i=1,n]$، و _modeled_ من هیستوگرام، $[m_i، \; i=1,n]$، مستقل از یکدیگر مشتق شدهاند) من هنوز کمی گم شده ام. لطفاً به این گزیده گرفته شده از این مقاله نگاهی بیندازید: _(...) بنابراین آزمون انتخاب شده برای انجام بر روی این هیستوگرام یک آزمون احتمال ورود به سیستم برای آمار پواسون است (Eidelman et al. 2004)_: $-2ln(\lambda (\theta))=2\, \sum\limits_{i=1}^N \, (\nu_i(\theta)-n_i+n_i\, ln\frac{n_i}{\nu_i(\theta)})$ (8) _در این فرمول $\theta$ مجموعهای از پارامترهای ناشناخته است که میخواهیم استخراج کنیم، $n = (n_1, n_2, . . . , n_N )$ بردار داده حاوی **مشاهدات** با $N$ تعداد bin ها در یک هیستوگرام است. $\nu$ **مقادیر مورد انتظار** هستند که از هیستوگرام **داده های مدل شده** مشتق شده اند و بنابراین به $\theta$ وابسته هستند. وقتی $n_i = 0$، آخرین جمله در معادله. (8) روی صفر تنظیم شده است (...)_ همانطور که می بینید، تجزیه و تحلیل یکسان است (تفاوت در اینجا این است که آخرین معادله احتمال _نسبت_ را نشان می دهد)، اکنون مقادیر _مورد انتظار_$\nu_i(\theta) هستند. $. از آنچه تاکنون فهمیده ام که پارامتر $\nu_i(\theta)$ باید **مستقل** از تعداد شمارش های موجود در bin ها باشد و **فقط یک مقدار** برای هر هیستوگرام داشته باشد. اگر اینطور است پس چرا از زیرنویس $i$ استفاده کنید؟ و چگونه باید آن مقدار را برای هر هیستوگرام محاسبه کنم؟ | احتمال پواسون و شمارش صفر در مقدار مورد انتظار |
63106 | هنگام استفاده از متغیرهای ساختگی در یک مدل اثرات تصادفی، چگونه مدل را مشخص کنم؟ با فرض سه ساختگی (مثلاً برای سه صنعت): * آیا آن را به عنوان سه رگرسیون در نظر میگیرم که در آن جدولی با سه ستون برای هر یک از این ساختگیها ارائه کنم؟ (جایی که همه متغیرهای دیگر در زیر در هر ستون یکسان هستند) * یا آیا جدولی دارم که فقط یک ستون دارد اما سه متغیر ساختگی در زیر در ستون گنجانده شده است؟ ویرایش: به ویژه، تفاوت بین دو روش ارائه جداول چیست؟ آیا منطقی است که ابتدا جدولی شامل همه متغیرها در یک ستون ارائه شود و در مرحله دوم تجزیه و تحلیلهای نمونه فرعی با در نظر گرفتن هر دسته ساختگی ارائه شود؟ با تشکر فراوان برای هر پاسخ سریع باب | استفاده از آدمک ها در مدل جلوه های تصادفی |
48373 | من از طرف یکی از همکارها می پرسم. من امیدوار بودم که پاسخی برای او داشته باشم، اما ترجیح می دهم به دنبال راهنمایی باشم و کمی اعتماد به نفس بیشتری داشته باشم. او در حال طراحی یک مطالعه درمانی است که من در اینجا برای اهداف توضیحی ابداع می کنم. درمان (آواز خواندن) قرار است خلق و خو را افزایش دهد، در حالی که کنترل (زمزمه کردن) ممکن است خلق و خو را افزایش دهد، اما ما مطمئن نیستیم. خلق و خو با یک متغیر پیوسته اندازه گیری خواهد شد. N شرکتکننده به طور تصادفی به یکی از دو گروه تقسیم میشوند: خط پایه، آواز، کنترل زمزمه (ABC)، یا پایه، کنترل زمزمه، آواز (ACB). مرحله آزمایشی (BC یا CB) هر گروه شامل سه جلسه هفتگی به مدت شش هفته خواهد بود. به عبارت دیگر، پس از شروع، شرکتکنندگان یا سه هفته آواز خواندن و سپس سه هفته کنترل زمزمه را تکمیل میکنند یا برعکس. او انتظار دارد که گروه ABC در اوایل (در طول مرحله آواز خواندن) بهبودهایی را نشان دهد، که یا حفظ می شود یا در مرحله کنترل زمزمه اندکی به حالت اولیه باز می گردد. انتظار می رود گروه ACB تا زمانی که شروع به آواز خواندن کند، تغییر کمی نسبت به خط پایه نشان دهد. سؤالات: **چه تحلیل آماری برای طرح مناسبتر است؟** (من به طرح تستهای t زوجی ساده فکر میکردم که در آن ما A را با B، B به C، و A به C را برای هر گروه مقایسه میکنیم. لطفاً من را تصحیح کنید.) ** با فرض اندازه اثر «متوسط» به چند شرکت کننده نیاز است؟ متغیر وابسته من او را به دو کتاب ارجاع دادم (طراحی و تجزیه و تحلیل کارآزماییهای بالینی و آمار اعمال شده در کارآزماییهای بالینی) اما آنها بسیار فنی هستند و بحث ممکن است مفیدتر باشد. او نمی تواند شرکت کنندگان زیادی داشته باشد، و امیدوار است که قدرت طراحی متقاطع مفید باشد. امیدوارم 10 یا بیشتر کافی باشد، اما او مطمئن نیست. هر گونه کمک یا راهنمایی قدردانی خواهد شد! | کدام تحلیل آماری برای طراحی درمان متقاطع مناسبتر است؟ چند شرکت کننده؟ |
49686 | من موارد زیر را در یک مقاله علوم شبکه یافتهام و میخواهم درباره آنچه نویسندگان ادعا میکنند توضیح دهم: > مشاهده میکنیم که ریشه میانگین مربع تفاوت بین توزیعهای تجربی > چگالی احتمال شبکههای نمونه با $h$ و $( h + 1)$ > seeds به طور پیوسته تناسب با خط $y = 1/x$ را کاهش میدهد و تأیید میکند که تخمین > ما به میانگین طول مسیر واقعی همگرا میشود. نویسندگان در تلاشند تا میانگین طول مسیر یک شبکه بزرگ را با نمونهبرداری از رئوس به صورت تصادفی (که به آنها _seeds_ میگویند؛ احتمالاً نمونهبرداری یکنواخت است) اندازهگیری کنند و سپس یک جستجوی گسترده از راس انتخابشده برای تعیین طول را انجام دهند. مسیر هر گره دیگر در شبکه (به طور ضمنی، نمودار باید به هم متصل شود.) آیا کسی می تواند حدس بزند که نویسندگان در اینجا در مورد ادعای سازگاری خود چه می کنند؟ آیا نامی برای این روش وجود دارد؟ و لطفاً می توانید آن را بهتر توضیح دهید تا من بفهمم چگونه می توان همان کار را در یک موقعیت مشابه انجام داد؟ گزیده بالا از صفحه 839، درست بالای سرفصل بخش 5.2 مقاله زیر است. > Y.-Y. Ahn، S. Han، H. Kwak، S. Moon و H. Jeong (2007)، تجزیه و تحلیل > ویژگی های توپولوژیکی سرویس های عظیم شبکه های اجتماعی آنلاین، > _Proc. WWW 2007 (Track: Semantic Web)_، صفحات 835-844. | ارزیابی سازگاری یک برآوردگر طول مسیر متوسط یک شبکه بزرگ |
63101 | این سوال امتداد سوال قبلی من است هرچند تکرار نمی شود. OR های بوت استرپ من اوکی هستند. آنها برابر با OR های غیر بوت استرپ هستند. با این حال، فواصل اطمینان رگرسیون بوت استرپ و غیر بوت استرپ بسیار متفاوت است. در حالی که رگرسیون غیر بوت استرپ برای مثال OR's 95% CI ~= 1.2 تا 2.3 را گزارش می دهد، Bootstrapped 95% CI OR ~= 1.1 تا 25000 را گزارش می دهد. **عجیب** و **غیر عملی** است. سوالات من این است: 1. آیا این bootstrapped OR CI **درست** است؟ 2. آیا می توانم مدل بوت استرپ خود را برای مزایای آن در مطالعه خود نگه دارم، اما OR CI غیر بوت استرپ را گزارش کنم؟ 3. آیا می توانم هر دو رگرسیون را گزارش کنم؟ با تشکر فراوان. | فواصل اطمینان بوت استرپ برای ORها در رگرسیون لجستیک باینری من به طرز عجیبی بزرگ یا کوچک هستند. آیا آنها در وهله اول معتبر هستند؟ |
26903 | اولا من آمارگیر نیستم. با این حال، من برای دکتری خود تحلیل شبکه آماری انجام داده ام. به عنوان بخشی از تجزیه و تحلیل شبکه، من یک تابع توزیع تجمعی تکمیلی (CCDF) از درجات شبکه ترسیم کردم. آنچه من دریافتم این بود که برخلاف توزیعهای شبکه معمولی (مثلاً WWW)، توزیع به بهترین وجه با یک توزیع لگ نرمال مطابقت دارد. من سعی کردم آن را با یک قانون توان تطبیق دهم و با استفاده از اسکریپت های Matlab Clauset و همکاران، متوجه شدم که دم منحنی از یک قانون توان با یک برش پیروی می کند.  خط نقطه نشان دهنده تناسب قانون قدرت است. خط بنفش نشان دهنده تناسب log-normal است. خط سبز نشان دهنده تناسب نمایی است. چیزی که من برای درک آن تلاش می کنم این است که همه اینها به چه معناست؟ من این مقاله نیومن را خوانده ام که کمی به این موضوع می پردازد: http://arxiv.org/abs/cond-mat/0412004 حدس و گمان من در زیر آمده است: اگر توزیع درجه از توزیع قانون توان پیروی کند، می فهمم که به این معنی است که در توزیع پیوندها و درجه شبکه، پیوست ترجیحی خطی وجود دارد (اثر غنی تر می شود یا فرآیند Yules). آیا من درست می گویم که با توزیع لگ نرمال که شاهد آن هستم، در ابتدای منحنی پیوند ترجیحی زیرخطی وجود دارد و به سمت دم خطی تر می شود، جایی که می توان آن را با قانون قدرت تطبیق داد؟ همچنین، از آنجایی که توزیع لگاریتم نرمال زمانی اتفاق میافتد که لگاریتم متغیر تصادفی (مثلا X) به طور نرمال توزیع شده باشد، آیا این بدان معناست که در توزیع لگ نرمال، مقادیر کوچک X بیشتر و مقادیر بزرگ X کمتر از یک وجود دارد. متغیر تصادفی که از توزیع قانون توان پیروی می کند، خواهد داشت؟ مهمتر از آن، با توجه به توزیع درجه شبکه، آیا یک پیوست ترجیحی log-عادی هنوز یک شبکه بدون مقیاس را پیشنهاد می کند؟ غریزه من به من می گوید که از آنجایی که دم منحنی را می توان با قانون قدرت برازش کرد، هنوز هم می توان نتیجه گرفت که شبکه دارای ویژگی های بدون مقیاس است. کمک شما بسیار قابل تقدیر است. با احترام، مایکل | تفسیر تفاوت بین توزیع لگ نرمال و قانون توان (توزیع درجه شبکه) |
54948 | من سعی می کنم مقادیر اوج را پیش بینی کنم. من یک مجموعه داده هفتگی ~ 10 سال دارم. من معیارهای آب و هوا را به عنوان متغیرهای توضیحی دارم. من سعی می کنم مدلی تولید کنم که بتواند با استفاده از معیارهای آب و هوا پیک های داده های هفتگی را به دقت پیش بینی کند. پیک ها کاملا دقیق نیستند، آیا باید از روش دیگری استفاده کنم؟ من در حال حاضر از MLR استفاده می کنم. Pred در مقابل واقعی توانایی توضیحی خوبی را نشان می دهد تا زمانی که به مشاهدات شدیدتر برسید. با تشکر | پیش بینی مقادیر شدید |
49974 | در خروجی پروبیت من همه مقادیر p ناچیز هستند. من می خواهم حداقل برخی از متغیرهای من قابل توجه باشند. چگونه آن را اصلاح کنم؟ متغیرهای من عبارتند از: دورگه، سن 2، جنسیت، تجربه تحصیلی2، تمام وقت، نژاد محلی، سیستم مزرعه، مالکیت 2، نیروی کار استخدامی، هزینه2، درآمد شیر2، veteanaryattendence2، خدمت دامپزشکی، ترنینگگوت، آموزش بیشتر، سلامت. | تجزیه و تحلیل پروبیت هیچ متغیر قابل توجهی را نشان نمی دهد |
8955 | من به دنبال هر گونه کمک، توصیه یا راهنمایی در مورد چگونگی توضیح ناهمگنی / ناهمگونی به زیست شناسان در بخش خود هستم. به طور خاص میخواهم توضیح دهم که چرا جستجوی آن و مقابله با آن در صورت وجود اهمیت دارد، من به دنبال نظراتی در مورد سؤالات زیر بودم. 1. آیا ناهمگونی بر قابلیت اطمینان تخمین های اثر تصادفی تأثیر می گذارد؟ من تقریباً مطمئن هستم که دارد، اما نتوانستم مقاله ای پیدا کنم. 2. ناهمگونی چقدر مشکل جدی است؟ من نظرات متناقضی در این مورد پیدا کرده ام، در حالی که برخی می گویند که خطاهای استاندارد مدل و غیره غیر قابل اعتماد خواهند بود، همچنین خوانده ام که فقط اگر ناهمگنی شدید باشد مشکل دارد. شدت آن چقدر است؟ 3. مشاوره در مورد مدل سازی ناهمگونی. در حال حاضر، من تا حد زیادی بر روی بسته nlme در R و استفاده از متغیرهای کمکی واریانس تمرکز می کنم، این بسیار ساده است و اکثر مردم در اینجا از R استفاده می کنند، بنابراین ارائه اسکریپت ها مفید است. من همچنین از بسته MCMCglmm استفاده می کنم، اما پیشنهادات دیگر، به ویژه برای داده های غیر عادی، مورد استقبال قرار می گیرد. 4. هر گونه پیشنهاد دیگر استقبال می شود. | مشاوره در مورد توضیح ناهمگونی / ناهمگونی |
62853 | من یک تحلیل رگرسیون در r اجرا می کنم: fit <- lm (هزینه ~ شیب + YardDist، داده = آزمون) می خواهم دو متغیر مستقل را برای چند خطی بودن آزمایش کنم. من آن را با vif() (از بسته ماشین) و kappa() تست کردم. > vif(fit) Slope YardDist 1.000121 1.000121 > kappa(fit) [1] 11631.87 VIF به من می گوید که چند خطی وجود ندارد و کاپا به من می گوید که چند خطی بسیار بالایی وجود دارد. تفاوت بین هر دو چیست و کدام یک درست است؟ | تفاوت بین عامل تورم واریانس (VIF) و کاپا در R؟ |
26902 | به خوبی پذیرفته شده است که هنگام انجام مقایسههای مدل باید پیچیدگی مدل را در نظر گرفت و روش کلی این است که مدلهای پیچیدهتر را به شدت جریمه کنیم. در حالی که زمانی که پارامترهای یک مدل معین به راحتی تخمین زده میشوند، منطقی به نظر میرسد (یعنی به صورت تحلیلی، مانند میانگین، واریانس، و غیره)، به نظرم میرسد که اگر تخمین پارامتر تلاش دشوارتری باشد، مدلهای پیچیدهتر ممکن است تا حدی خود به خود. -جریمه کردن یعنی اگر تخمین پارامتر نیاز به جستجوی فضای پارامتر داشته باشد، احتمالاً فضاهای پارامتر بزرگتر برای جستجو دشوارتر است و بنابراین هر الگوریتم جستجوی محدود احتمال بیشتری دارد (با گسترش فضای پارامتر) قبل از یافتن نقطه حداکثر احتمال جهانی خاتمه یابد. آیا اصلاً در ادبیات آماری به این ایده توجه شده است؟ | افکاری در مورد خود جریمه سازی مدل در میان برآورد پارامتر دشوار |
109751 | اجازه دهید $X_1,...,X_n$ iid r.v. با توزیع F، با میانگین $\mu$ و میانه $\theta$. فرض کنید $Var(X_i)=\sigma^2$ و $F'(\theta)>0$. اگر $\hat{\mu}_n$ میانگین نمونه، و $\hat{\theta}_n$ میانه نمونه است، سپس با استفاده از منحنی/توابع نفوذ، نشان دهید که $\left( \begin{array}{ccc } \sqrt{n} (\hat{\mu}_n-\mu) \\\ \sqrt{n} (\hat{\theta}_n-\theta) \end{آرایه} \right)\xrightarrow[d]{}N(\mathbf{0},C)$، با $C$ یک ماتریس واریانس کوواریانس. خوب، ما می دانیم که $\sqrt{n} (\hat{\theta}_n-\theta)\xrightarrow[d]{}N(0,(2F'(\theta))^{-2})$ ( در اینجا من از برخی از ویژگیهای منحنی تأثیر پارامترها استفاده کردم که «تقریبی خطی» شبیه به روش دلتا میدهند) و همچنین از $\sqrt{n} (\hat{\mu}_n-\mu)\xrightarrow[d]{}N(0,\sigma^2) $ بنابراین، به این فکر میکردم که میتوانم فوراً آنچه را که تمرین میپرسد نتیجهگیری کنم و فقط ورودیهای C باقی بمانند. ماتریسی که به صراحت تعیین شود. آیا می توانم این کار را انجام دهم؟ بنابراین، $\mathbf{C}=\left( \begin{array}{ccc} \sigma^2 & \lim Cov(\hat{\mu}_n,\hat{\theta}_n) \\\ \lim Cov(\hat{\theta}_n,\hat{\mu}_n) & (2F'(\theta))^{-2} \end{array} \right)$ بعد، با استفاده از خواص/تعریف منحنیهای تأثیر (IC) و یک فرض دیگر، $\sqrt{n} (\hat{\mu}_n-\mu)=\frac{1}{\sqrt{n}}\sum IC_{ \mu}(X_i,F)+R_1=\frac{1}{\sqrt{n}}\sum (X_i-\mu)+R_1$ $\sqrt{n} (\hat{\theta}_n-\theta)=\frac{1}{\sqrt{n}}\sum IC_{\theta}(X_i,F)+R_2=\frac{1}{\sqrt{n }}\sum \frac{sign(X_i-\theta)}{2F'(\theta)}+R_2$ با $R_1,R_2\rightarrow_p0$. با استفاده از عبارات RHS من سعی کردم کوواریانس را در ماتریس C محاسبه کنم و $\frac{\mu-2E(X_iI(X_i<\theta))}{2F'(\theta)}$ به دست آوردم آیا این استنتاج صحیح است؟ هر گونه کمکی قدردانی خواهد شد. | محدود کردن توزیع مشترک برآوردگرها. آمار عملکردی; منحنی های تاثیر؛ |
54947 | من $n$ تحقق $s_1,\, \dots , s_n$ از متغیرهای تصادفی $S_1,\, \dots, S_n$ دارم که i.i.d فرض میشوند. با توزیع ناشناخته اینها زمان بین رویدادها را اندازه گیری می کنند. من میخواهم احتمال مدلسازی دادهها را با یک فرآیند تجدید محاسبه کنم: $(X_t)_{t\geq0}$ که در آن $X_t$ تعداد کل پرشها بر اساس زمان $t$ است. به طور خاص، من از معادله تجدید اولیه $\lim_{t\rightarrow \infty} \frac{E[X_t]}{t} = \frac{1}{E[S_i]}$ استفاده میکنم و این احتمال را میخواهم که مقادیر مشاهده شده LHS و RHS برای $(n, t)$ معین مطابقت دارند. آیا میخواهم چگونه یک فاصله اطمینان برای آمار $\frac{E[X_t]}{t}$ بسازم و آزمایش کنم که آیا $\frac{1}{E[S_i]}$ در این بازه قرار دارد یا خیر؟ حدس میزنم که من میپرسم، این است که چگونه میتوانم خطای قانون قوی اعداد بزرگ را برای یک $n$ معین محاسبه کنم؟ بابت توضیحات گیج کننده پوزش می طلبم، آمار من بهترین نیست! | آزمون فرضیه فرآیند تجدید |
62858 | من سعی می کنم یک مدل ساده برای محاسبه ارزش طول عمر مشتری (CLV) بر اساس تازگی، فرکانس و پول (R,F,M) بسازم. با مرور وب، این سوال RFM و مدلسازی ارزش طول عمر مشتری را در R یافتم و پس از بررسی پاسخ داده شده، تردیدهایی به وجود آمد: 1. یکی از رویکردها شامل موارد زیر است: > _یکی دیگر از رویکردهای محبوب، ساختن است. یک مدل کمی پیچیده تر برای > پیش بینی ارزش پولی بر اساس دو مدل فرعی: یکی برای احتمال > پاسخ (به عنوان مثال استفاده از رگرسیون لجستیک به عنوان تابعی از RFM)، و دیگری برای درآمد مشروط به پاسخ (باز هم، می تواند به سادگی یک مدل خطی RFM باشد). ارزش پولی مورد انتظار حاصلضرب دو پیشبینی است. من قبلاً خروجی رگرسیون لجستیک خود را داشتم، اما نمیدانم چگونه پاسخ دادهشده توسط آن (احتمال پاسخ) را با هم ترکیب کنم تا مثلاً رگرسیون خطی برای درآمد همانطور که ممکن است متوجه شوید، در پاسخ ذکر شده در بالا، گفته شده است که این کار مشروط به پاسخ انجام می شود، اما چگونه می توان این کار را انجام داد؟ چگونه می توانم آن مدل ها را ترکیب کنم؟ 1. اگر من درآمد (پولی) را بر اساس احتمال _P_ که توسط رگرسیون لجستیک داده می شود، رگرسیون کنم اشکالی ندارد؟ می ترسم این متغیر به نحوی گنجانده شود زیرا من آن را با اجرای مدلی با _R، F_ و _M_ به عنوان متغیرهای پیش بینی به دست آوردم. 2. لطفاً چند منبع آنلاین (مقاله) برای دریافت بیشتر این موضوع در اختیار من قرار دهید؟ | ارزش طول عمر مشتری بر اساس RFM (ترکیب رگرسیون لجستیک و خطی) |
65970 | من پنج نظرسنجی از همان گروه از دانشجویان در طول یک ترم دارم. هر نظرسنجی از یک مقیاس لیکرت 5 درجه ای استفاده می کند. نظرسنجی اول و آخر شامل چند سوال در مورد شروع و پایان کلاس است (تأثیر اول، برداشت نهایی)، اما اکثر سوالات برای هر چهار یا پنج نظرسنجی یکسان هستند. من می خواهم اهمیت آماری تغییرات پاسخ های دانش آموزان را در طول زمان ارزیابی کنم. متاسفانه آمار مناسب من نیست. من از آزمون t اطلاع دارم، اما به نظر می رسد که فقط برای دو گروه از داده ها قابل استفاده است (لطفاً اگر اشتباه می کنم، من را اصلاح کنید). چگونه باید این داده ها را ارزیابی کنم؟ آیا آنالیز واریانس یک طرفه اقدامات مکرر مناسب است؟ | چگونه می توان تغییرات داده های مقیاس لیکرت را در بررسی های متعدد از یک گروه ارزیابی کرد؟ |
12155 | هنگام اجرای الگوریتم Metropolis-Hastings با توزیع یکنواخت نامزد، دلیل داشتن نرخ پذیرش در حدود 20٪ چیست؟ فکر من این است: هنگامی که مقادیر پارامتر درست (یا نزدیک به درست) کشف شد، آنگاه هیچ مجموعه جدیدی از مقادیر پارامتر کاندید از همان بازه یکنواخت، مقدار تابع درستنمایی را افزایش نخواهد داد. بنابراین، هرچه تکرارهای بیشتری را اجرا کنم، نرخ پذیرش کمتری باید دریافت کنم. من کجای این تفکر اشتباه می کنم؟ با تشکر فراوان در اینجا تصویر محاسبات من است: $$Acceptance\\_rate = \exp \\{l(\theta_c|y) + \log(p(\theta_c)) - [l(\theta^*|y) + \ log(p(\theta^*) ]\\}، $$ که $l$ احتمال log است. از آنجایی که $\theta$ نامزدها همیشه از یک یونیفرم گرفته میشوند فاصله، $$p(\theta_c) = p(\theta^*).$$ بنابراین محاسبه نرخ پذیرش کاهش می یابد: $$Acceptance\\_rate = \exp \\{l(\theta_c | y) - [l (\theta^* | y) ]\\}$$ قانون پذیرش $\theta_c$ به شرح زیر است: اگر $U \le Acceptance\\_rate $، که در آن $U$ از توزیع یکنواخت در بازه $[0,1]$، سپس $$\theta^* = \theta_c، $$ other $\theta_c$ را از توزیع یکنواخت در بازه $[\theta_{ بکشید. min}، \theta_{max}]$ | نرخ پذیرش برای کلان شهر هاستینگ با توزیع یکنواخت نامزدها |
62852 | من یک نمونهگیر گیبس را برای **شبکه الاستیک بیزی** (BEN) مطابق این مقاله در مورد رگرسیون مجازات شده توسط کیونگ و همکاران پیادهسازی کردهام. در این مقاله، آنها یک مطالعه شبیه سازی را اجرا می کنند که در مقالات دیگر در مورد رگرسیون مجازات شده (LASSO، Bridge، Ridge) برای مقایسه عملکرد مدل های پیشنهادی استفاده شده است. در اینجا جزئیات شبیه سازی گرفته شده از مقاله ذکر شده در بالا آمده است: > ما داده ها را از مدل واقعی $$ y=X\beta+\sigma\epsilon > \quad\epsilon_i\,{\raise.17ex\hbox{$\scriptstyle شبیه سازی می کنیم. \sim$}}\,\text{iid}\,N(0,1) > $$ مجموعه دادهها را با $n=20$ شبیهسازی میکنیم تا مدلها و $n=200$ برای مقایسه > خطاهای پیشبینی مدلهای پیشنهادی با هشت پیشبینیکننده. اجازه می دهیم > $\beta=(3,1.5,0,0,2,0,0,0)$ و $\sigma=3$. همبستگی زوجی بین > $x_i$ و $x_j$ به صورت $corr(i,j)=0.5^{|i-j|}$ تنظیم شد. > بعداً می گویند برای خطای پیش بینی، > میانگین مجذور خطا را بر اساس 50 تکرار محاسبه می کنند. منظور آنها از میانگین > میانه در این مورد است. برای شبیه سازی این داده ها و محاسبه MSE از کد زیر در R استفاده کردم: # تعداد مشاهدات n.train <- 20 n.test <- 200 # خطای واریانس سیگما <- 3 # همبستگی زوجی X cor <- 0.5 # تعداد پیشبینیکنندهها p <- 8 # ایجاد مجموعه دادههای آموزشی و آزمایشی (بسته QRM و mvtnorm مورد نیاز) Z <- equicorr(p, rho=cor) X.train <- rmvnorm(n.train,sigma=Z) X.test <- rmvnorm(n.test,sigma=Z) # ایجاد خطا error.train <- rnorm(n. train,mean=0,sd=1) error.test <- rnorm(n.test,mean=0,sd=1) # ایجاد بتا beta.true <- c(3,1.5,0,0,2,0,0,0) # هر دو پاسخ را ایجاد کنید Y.train <- X.train %*% beta.true + sigma*error.train Y.test <- X.test %*% beta.true + sigma*error.test # مجموعه داده های آموزشی را با BEN Gibbs Sampler beta.ben تنظیم کنید <- BEN(X.train,Y.train, iter=11000, burn = 1000) # محاسبه پاسخ پیش بینی شده Y.pred <- X.test %*% beta.ben # محاسبه میانگین مربعات خطا (MSE) MSE <- مجموع ((Y.train - Y.pred)^2)/n.train مشکل من این است که نتایج من حتی به نتایجی که در مقاله آمده است قابل مقایسه نیست. باعث میشود به تنظیم مطالعه شبیهسازی خود شک کنم. از آنجایی که یکی از نویسندگان مقاله کد نمونهگیر گیبس را آپلود کرده است و من میتوانم بررسی کنم که آیا اشتباهی انجام دادهام، میدانم که مشکل اینجا نیست. بنابراین سوالات من این است: 1. آیا کسی تجربه این نوع مطالعه شبیه سازی را دارد و می تواند بررسی کند که آیا من کار اشتباهی انجام داده ام؟ 2. آیا MSE من محاسبه می کنم همان چیزی است که در مقاله استفاده شده است؟ در تحقیق در مورد این موضوع راه های مختلفی برای محاسبه MSE پیدا کردم و گاهی اوقات از آن استفاده می شد اما در واقع منظور از میانگین مربعات خطای پیش بینی بود. به عنوان مثال مقاله ویکیپدیا در مورد MSE به تنهایی سه تغییر را فهرست میکند. من برای کدنویسی نیازی به کمک ندارم، بلکه اطلاعات بیشتری در مورد نحوه اجرای این شبیهسازی معمولاً انجام میشود تا بتوانم بفهمم چه اشتباهی انجام میدهم. | مطالعه شبیه سازی را از یک مقاله تکرار کنید و MSE را در R محاسبه کنید |
21754 | متغیرهای زیر را دارم: 1. وزن (مقیاس نسبت) 2. نتیجه به دست آمده از آزمون روانشناسی (مثلا iq) (مقیاس نسبت) 3. استایل 1 (مقیاس نسبت) 4. استایل2 (مقیاس نسبت) 5. استایل3 (مقیاس نسبت) من میخواهم این فرضیه را آزمایش کنم: افرادی که نتیجه بالا در سبک 1 و نتیجه بالا در مقیاس IQ دارند وزن بیشتری نسبت به افرادی با نتیجه بالا در سبک 2 و نتیجه پایین در سبک 2 دارند. مقیاس IQ. آیا باید یک متغیر طبقهبندی «سبک» بسازم و مقادیر سبک 1، سبک 2 و سبک 3 را دوباره کدنویسی کنم و سپس تحلیل رگرسیون را ادامه دهم یا راهی برای آزمایش فرضیه بدون این تبدیل وجود دارد. شرط می بندم که باید آنالیز رگرسیون چند متغیره باشد، اما من نمی دانم چگونه فایل را به گروه تقسیم کنم، وقتی سه متغیر دارم. | آزمون فرضیه در رگرسیون چندگانه |
54943 | من با اثبات معادله عادی مشکل دارم، بنابراین یک سوال پست کردم که امیدوارم به زودی حل شود. با این حال، من در آنجا اشاره کردم که با اثبات هایی که با حساب ماتریسی سروکار دارند، ناراحت هستم، به ویژه وقتی صحبت از مشتقات حاصلضرب بردارها یا حاصل ضرب ماتریس ها و بردارها می شود. علاوه بر این، چند کنوانسیون طرح بندی وجود دارد که حتی به طور مداوم مورد استفاده قرار نمی گیرند. به همین دلیل، من فکر کردم که می توانم با استفاده از نماد تانسور به جای آن از شر این همه جنون خلاص شوم. در رابطه با سوال معادله عادی، من بسیار علاقه مند هستم که به اثبات این معادله نگاه کنم (در اینجا می توانید زمینه را مشاهده کنید): $$\beta = (X^{T}X)^{-1}X^ {T}{\bf{y}}$$ با استفاده از نماد تانسور. و به عنوان یک درخواست کلی تر، مایلم در مورد مسئله برخورد با محاسبات ماتریسی و مشتقات مشاوره دریافت کنم. به ویژه، من می خواهم در مورد رویکرد شما بشنوم زمانی که شما باید چیزی از این نوع را با توجه به ناهماهنگی در نمادها و ماهیت غیر شهودی برخی از هویت ها محاسبه کنید. آیا هر بار که میخواهید مشتقی از بردارها یا ماتریسها را محاسبه کنید، به ویکیپدیا یا کتابچه راهنمای دیگری مراجعه میکنید؟ آیا برخی از هویت های تکراری را حفظ می کنید؟ آیا روش جایگزینی می شناسید؟ | اثبات معادله نرمال در رگرسیون با استفاده از نماد تانسور |
45075 | من گیج شده ام که در تابع scipy.stats.norm.pdf چیست. تعریف چندک می گوید که k-th از q-quantile اساساً مقداری است که جمعیت را به k/q و (q-k)/q تقسیم می کند. اما اگر من scipy.stats.norm.pdf ([0,1,2,3,4], 2, 9) را فراخوانی کنم آنگاه بردار `v` با 5 عدد دریافت خواهم کرد. «v[i]» در این مورد به چه معناست؟ احتمال RV نرمال برابر است؟ میشه توضیح بدی لطفا | quantile در کتابخانه scipy |
57999 | از سند و راهنما، مدل probit توسط mlogit پشتیبانی می شود. اما وقتی آن را با این اسکریپتهای R امتحان کردم، زمان اجرای تخمین بسیار طولانیتر است (نسبت به logit verion) و نتیجه نیز کمی متفاوت است (argument probit=FALSE). آیا پروبیت درست عمل می کند؟ اگر چنین است، چگونه باید ضرایب er.gc، er.gr و غیره را تفسیر کنم؟ > require(mlogit) > data(Heating) > H <- mlogit.data(Heating, shape=wide, Choice=depvar, varying=c(3:12)) > m1.probit = mlogit(depvar~ ic+oc، H، probit=TRUE) > summary(m1.probit) فراخوانی: mlogit (فرمول = depvar ~ ic + oc، داده = H، probit = درست) فرکانس های جایگزین: ec er gc gr hp 0.071111 0.093333 0.636667 0.143333 0.055556 bfgs روش 37 تکرار، 0h:4m:54s g'1g'(-H) بالاتر ^-0. ضرایب : Estimate Std. خطا t-value Pr(>|t|) er:(intercept) 2.5611e-01 3.6641e-01 0.6990 0.48457 gc:(intercept) -2.6944e-02 3.3211e-01 -0.0811 -1.8439e+01 3.2798e+01 -0.5622 0.57398 اسب بخار:(قطع) -6.4231e-01 7.4214e-01 -0.8655 0.38677 ic -1.1447e -1.1447e-1.1447e-1.1447e-1.1447 -1.1447e-175. 0.03133 * oc -3.3779e-03 1.4011e-03 -2.4109 0.01591 * er.gc 4.4987e-01 2.6880e-01 1.6736 0.09421. er.gr 5.8580e+00 1.1236e+01 0.5214 0.60212 er.hp 1.2613e+00 5.0231e-01 2.5109 0.01204 * gc.gc 7-10130-7.191. 2.0010 0.04540 * gc.gr -8.4606e+00 1.6848e+01 -0.5022 0.61555 gc.hp 6.7245e-01 6.1475e-01 1.0939 1.0930 0.201+ 0.2701. 2.6034e+01 0.5410 0.58849 گرم اسب بخار 4.9476e-01 4.4568e-01 1.1101 0.26694 اسب بخار کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Log-Likelihood: -1000.1 McFadden R^2: 0.021626 آزمون نسبت درستنمایی: chisq = 44.21 e-05) > m1.logit = mlogit(depvar~ic+oc، H، probit=FALSE) > summary(m1.logit) فراخوانی: mlogit(فرمول = depvar ~ ic + oc، داده = H، probit = FALSE، روش = nr ، print.level = 0) فرکانس های جایگزین: ec er gc gr hp 0.071111 0.093333 0.636667 0.143333 0.055556 nr روش 6 تکرار، 0h:0m:0s g'(-H)^-1g = 9.58E-06 مقادیر تابع متوالی در محدوده های تحمل ضرایب: برآورد ضرایب. خطای t-value Pr(>|t|) er:(intercept) 0.19459102 0.20424212 0.9527 0.3407184 gc:(intercept) 0.05213336 0.46598878 0.46598878 0.1919 (intercept) 0.1911 -1.35058266 0.50715442 -2.6631 0.0077434 ** اسب بخار:(قطع) -1.65884594 0.44841936 -3.6993 0.0002162 *** 15 3060606. -2.4694 0.0135333 * oc -0.00699637 0.00155408 -4.5019 6.734e-06 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Log-Likelihood: -1008.2 McFadden R^2: 0.013691 آزمون نسبت درستنمایی: chisq = 27.99. e-07) | تخمین مدل پروبیت چند جمله ای با mlogit (بسته R) |
49975 | بیایید فرض کنیم موقعیت همه افراد از گونه های مختلف گیاهی را در 3 قطعه نمونه با شکل نامنظم که بسیار نزدیک به یکدیگر هستند، ثبت کرده ایم. به عنوان نمونه 2 عکس با 2 گونه مختلف در زیر قرار دادم. هر شبکه مربوط به 100 متر است و هر دایره نشان دهنده یک گیاه است (اندازه دایره ها برای این سوال مهم نیست).   ما می خواهیم آنچه را تجزیه و تحلیل کنیم میزان وقوع افراد به متغیرهای اکولوژیکی مختلف بستگی دارد. در تعدادی از مطالعات مشابه، نویسندگان یک اندازه گیری کمی از میزان خودهمبستگی فضایی درون گونه ای برای هر گونه ارائه کردند، معمولاً I موران. با این حال، مطمئن نیستم که چگونه می توانیم این کار را در مورد خود انجام دهیم، زیرا: تجزیه و تحلیل خودهمبستگی فضایی، مانند موران I، همگنی را در منطقه مورد مطالعه فرض می کند، که به وضوح اینطور نیست. * شکل کرت های نمونه کاملا نامنظم است. * بسیاری از گونه ها به طور کامل در یکی از 3 قطعه وجود ندارند. ما میتوانیم با استفاده از خودهمبستگی فضایی محلی، مانند LISA، خوشههایی را در سطح محلی پیدا کنیم. اگر من LISA را به درستی درک می کردم، باید منطقه مطالعه خود را در زیر واحدهای مختلف همگن جدا کنیم، که به نوعی خودسرانه به نظر می رسد. چه اطلاعاتی در مورد همبستگی خودکار فضایی درون گونه ای می توانیم بر اساس داده های خود ارائه دهیم؟ آیا این حتی از نظر آماری منطقی است یا بهتر است فقط الگو را به صورت کیفی توصیف کنیم؟ به هر حال، ما از R برای تجزیه و تحلیل استفاده می کنیم. ویرایش: شاید برخی اطلاعات اضافی در مورد مطالعه ما به پاسخ به این سوال کمک کند. تا کنون، ما از تکنیکهای مدلسازی توزیع گونههای موجود (مانند MaxEnt) استفاده کردیم. نتایج به طور کلی رضایت بخش هستند، با عملکرد مدل خوب و پیش بینی هایی که از نقطه نظر اکولوژیکی منطقی هستند. با این حال، برخی از نویسندگان هشدار می دهند که خود همبستگی فضایی بین رخدادها می تواند بر مدل تأثیر بگذارد. بنابراین، ما می خواهیم یک اندازه گیری _ساده (در صورت امکان) از خودهمبستگی مکانی برای توصیف داده ها ارائه کنیم. ویرایش 2: با توجه به پیشنهاد استفاده از تابع K یا L ریپلی: تا آنجا که من می دانم، این توابع فرض می کنند که فرآیندهای نقطه زیرین از نظر فضایی همگن هستند (ایستا)، که در مورد ما صحیح نیست. توابع K و L برای الگوی نقطهای ناهمگن در سالهای اخیر توسعه یافتهاند، که شدت غیر ثابت را در هر مکان در منطقه مورد مطالعه در نظر میگیرند (برای مثال اینجا را برای شبیهسازی در R ببینید). با این حال، برای تجزیه و تحلیل ما، ما واقعاً علاقه مند به محاسبه همبستگی فضایی _after_ برای شدت های مختلف نیستیم، بلکه به این علاقه مندیم که شدت های مختلف از نظر مکانی همبستگی خودکار داشته باشند (من نمی دانم که آیا این کاملاً منطقی است یا خیر). | خود همبستگی فضایی دادههای نقطهای غیر همگن در نمودارهای نمونه با شکل نامنظم |
26909 | من به دنبال یک الگوریتم MCMC عمومی برای یک مدل خطی هستم. من مقالات زیادی را آنلاین خوانده ام و آنها بسیار گیج کننده هستند. امیدوارم بفهمم این روش از نظر تئوری چگونه کار می کند **آیا کسی می تواند با یک الگوریتم گام به گام برای اجرای یک روش MCMC برای تخمین بتا و واریانس ($\sigma^2$) به من کمک کند؟** | الگوریتم MCMC برای تخمین بتا و واریانس |
62850 | من سعی می کنم بفهمم چگونه یک ماتریس همبستگی (R) را به یک ماتریس کوواریانس (S) برای ورودی به یک مولد اعداد تصادفی تبدیل کنم که فقط S (rmvnorm(mvtnorm) در R) کتابخانه (mvtnorm را می پذیرد. ) TRUTH= 0.8 # مقدار همبستگی هدف بین X1 و X2 R <- as.matrix(data.frame(c(1, TRUTH)، c(TRUTH، 1))) V <- diag(c(sqrt(1)، sqrt(1))) # ماتریس مورب sqrt(واریانس ها) S <- V %*% R %*% V cor (rmvnorm(100, sigma=S) ) # این را تکرار کنید تا ایده ای از واریانس اطراف تخمینگر پیرسون داشته باشید. 1 V <- diag(c(sqrt(3), sqrt(2))) S <- V %*% R %*% V cor(rmvnorm(100, sigma=S) ) این درست به نظر می رسد، اما من مایل به نقد کارشناسی هستم | به دست آوردن ماتریس کوواریانس از ماتریس همبستگی |
59845 | اجازه دهید $X_1,...,X_N$ متغیرهای تصادفی عادی مستقل باشند. $X_i$ با میانگین $\mu_i$ و انحراف استاندارد $\sigma_i$ طبیعی است. اجازه دهید $x_i$ یک نمونه تصادفی منفرد از $X_i$ باشد. **ورودی:** ما همه $x_i$ و همه $\sigma_i$ را دریافت می کنیم، اما $\mu_i$ را دریافت نمی کنیم. **سوال 1** هیستوگرام $\mu_i$ را تخمین بزنید. **سوال 2** فرض کنید که میانگین $\mu_i$ به طور مستقل از توزیع $\mathcal{M}$ گرفته شده است. تخمینی معادل $\mathcal{M}$ ایجاد کنید. توجه: سوال 1 در زیر توسط @soakley پاسخ داده شد اما راه حل به درخواست من کمک نکرد، بنابراین من سوال 2 را اضافه کردم. توجه داشته باشید که هدف تخمین $\mu_i$ به صورت جداگانه نیست، بلکه هدف بدست آوردن یک تخمین خوب است. برای هیستوگرام، یا توزیع، همه $\mu_i$ با هم. امیدواریم این تخمین بهتر از آن چیزی باشد که با مخلوط کردن گاوسی ها در اطراف $x_i$ بدست می آوریم. برآورد حداکثر احتمال باید کار کند، اما من نمی دانم چگونه آن را تولید کنم. **سوال گرم کردن:** وقتی همه $\sigma_i$ یکسان باشند، یک سوال ساده تر است. این آسان است: پاسخ را در پایین ببینید. **جزئیات بیشتر:** به روشی نیاز دارم که بتوانم برنامه ریزی کنم و در زمان معقولی اجرا شود. بنابراین الگوریتم های زمان نمایی کافی نخواهند بود. در ورودی من، $N$ حدود 5000 است، انحرافات استاندارد بیشتر بین 5 تا 50 است، و میانگین ها اغلب بین 0 تا 40 است. اختلاط همه این گاوسی ها. نتایج به هیچ وجه شبیه توزیع صحیح $\mu_i$ نیست. به عنوان مثال، تصور کنید همه $X_i$ها RVهای معمولی استاندارد هستند. سپس روش ساده من حدس میزند که $\mu_i$ در یک گاوسی بسیار گسترده در حدود 0 قرار دارد. با این حال، با توجه به نمونههای $x_i$ و انحرافات استاندارد $\sigma_i$، یک الگوریتم هوشمندانه میتواند به وضوح بهترین حدس را ببیند. این است که تمام $\mu_i$ برابر با صفر است. بنابراین، احتمالاً با استفاده هوشمندانه از تجزیه فوریه، میتوان خیلی بهتر از الگوریتم سادهلوح من انجام داد. **پاسخ به سوال گرم کردن:** سوال 1 راه حل خوبی ندارد. برای به دست آوردن یک راه حل خوب، باید توزیع پسینی را در نظر گرفت. در مورد سوال 2: وقتی همه انحرافات استاندارد یکسان هستند، برای بدست آوردن تخمینی برای توزیع $\mathcal{M}$، به سادگی باید توزیع x_i$s را با گاوسی جدا کنیم. با این حال، نمیدانم چگونه میتوان این را به موارد متفاوت $\sigma_i$ تعمیم داد. **انگیزه:** من یک بازیکن پوکر هستم که در یک بازی پوکر بسیار چرخشی (Pot Limit Omaha) بازی می کنم. ما میخواهیم با تعیین «نرخ برنده واقعی» استخر بازیکنان دریابیم که آیا هنگ خیلی زیاد است یا خیر. ما به عنوان داده، میزان برد همه بازیکنان در استخر بازیکنان در طول یک سال کامل را داریم (اینها x_i$ هستند)، و انحرافات استاندارد برد آنها (این $\sigma_i$ است) و میخواهیم توزیع آنها را تخمین بزنیم. واقعی winrates ($\mu_i$'s) برای اینکه بفهمید آیا تعداد بازیکنان زیادی برنده هستند یا خیر. این به مشکل بالا ترجمه می شود. **تحقیقات در حال انجام** من به تازگی مقاله ای از بووی و همکاران پیدا کردم که به نظر می رسد به تعمیم سوال من می پردازد و الگوریتمی را پیشنهاد می کند. به نظر می رسد بسیار مرتبط است. من آن را می خوانم و هر یافته ای را اینجا گزارش می کنم. | با توجه به نمونه هایی از چندین RV معمولی، چگونه هیستوگرام میانگین آنها را بازیابی کنیم؟ |
10425 | من از تابع auto.arima() در بسته پیشبینی استفاده میکنم تا مدلهای ARMAX را با متغیرهای مختلف تطبیق دهم. با این حال، من اغلب تعداد زیادی متغیر برای انتخاب دارم و معمولاً به یک مدل نهایی می رسم که با زیر مجموعه ای از آنها کار می کند. من تکنیکهای تکتک برای انتخاب متغیر را دوست ندارم زیرا انسان هستم و در معرض سوگیری هستم، اما اعتبارسنجی متقابل سریهای زمانی سخت است، بنابراین راه خوبی برای آزمایش خودکار زیرمجموعههای مختلف متغیرهای موجود خود پیدا نکردهام، و من گیر کرده ام که مدل هایم را با بهترین قضاوت خودم تنظیم کنم. وقتی مدلهای glm را جا میدهم، میتوانم از توری الاستیک یا کمند برای تنظیم و انتخاب متغیر از طریق بسته glmnet استفاده کنم. آیا یک جعبه ابزار موجود در R برای استفاده از توری الاستیک در مدلهای ARMAX وجود دارد، یا باید خودم را رول کنم؟ آیا این حتی ایده خوبی است؟ ویرایش: آیا محاسبه دستی عبارات AR و MA (مثلاً تا AR5 و MA5) و استفاده از glmnet برای مطابقت با مدل منطقی است؟ ویرایش 2: به نظر میرسد که بسته FitAR من را در این راه، اما نه همه آنها، میکند. | تطبیق مدل ARIMAX با تنظیم یا جریمه (به عنوان مثال با کمند، توری الاستیک یا رگرسیون برآمدگی) |
1980 | **سوال:** آیا نمونه های خوبی از تحقیقات تکرارپذیر با استفاده از R وجود دارد که به صورت رایگان به صورت آنلاین در دسترس باشد؟ **مثال ایده آل:** به طور خاص، نمونه های ایده آل ارائه می دهند: * داده های خام (و در حالت ایده آل متا داده ها که داده ها را توضیح می دهند)، * همه کدهای R شامل واردات داده ها، پردازش، تجزیه و تحلیل و تولید خروجی، * Sweave یا روش دیگری برای پیوند خروجی نهایی به سند نهایی، * همه در قالبی که به راحتی قابل دانلود و کامپایل در رایانه خواننده است. در حالت ایدهآل، مثال میتواند یک مقاله ژورنالی یا پایاننامهای باشد که در آن بر یک موضوع کاربردی واقعی در مقابل یک مثال آموزشی آماری تأکید میشود. **دلایل علاقه:** من به موضوعات کاربردی در مقالات و پایان نامه های ژورنالی علاقه خاصی دارم، زیرا در این مواقع چندین مسئله اضافی ایجاد می شود: * مسائل مربوط به پاکسازی و پردازش داده ها * مسائل مربوط به مدیریت ابرداده ها * مجلات مطرح می شود. و پایان نامه ها اغلب دارای انتظارات راهنمای سبک در رابطه با ظاهر و قالب بندی جداول و شکل ها هستند * بسیاری از مجلات و پایان نامه ها اغلب دارای طیف گسترده ای از تجزیه و تحلیل هستند که مسائل مربوط به آن را مطرح می کنند. گردش کار (به عنوان مثال، نحوه توالی تجزیه و تحلیل) و زمان پردازش (به عنوان مثال، مسائل مربوط به تجزیه و تحلیل کش و غیره). دیدن نمونههای کاری کامل میتواند مواد آموزشی خوبی برای محققانی که با تحقیقات تکرارپذیر شروع میکنند فراهم کند. | نمونه های اساسی تحقیق قابل تکرار را با استفاده از R |
59842 | به تازگی وارد یادگیری ماشینی شدهام، و من میپرسم آیا رابطهای بین الگوریتم یادگیری پرسپترون و رگرسیون خطی وجود دارد؟ | PLA در مقابل رگرسیون |
68703 | من در مراحل اولیه طوفان فکری هستم تا بتوانم خلاصهای ساده و اجمالی از مقالات علمی را که در چند آمار خلاصه شدهاند، و احتمالاً مقداری در مقیاسی بر اساس نسخههای وزندار آن آمار ارائه کنم تا بتوانم سریعتر ارائه کنم. ، تصویری تقریبی برای احتمال نسبی درست بودن داده های درون در مقابل یک کاغذ متضاد. به عنوان مثال، اگر من وضعیت تکرار یک نتیجه را در مقیاس (از پایین به بالاتر) تکرار نکردم، تلاش نکردم تکرار کنم، با موفقیت تکرار شد را دنبال کنم، آنگاه شخصی که به دو مقاله با نتایج متضاد نگاه می کند، فرض می کند که مقاله با وضعیت «تکثیر نشد» احتمال کمتری دارد که درست باشد نسبت به مقاله با وضعیت «تکثیر با موفقیت» (یا «بدون تکرار تلاش کرد). فرض بر این است که با یکسان بودن تمام معیارهای دیگر، «بالاتر بودن» در مقیاس با افزایش احتمال مطابقت دارد. ** چیزی که من در مورد آن کنجکاو هستم این است که معیارهای بیشتری (در طراحی آزمایشی یا موارد دیگر) وجود دارد که می تواند به عنوان یک قاعده سرانگشتی برای رتبه بندی احتمال نسبی صحیح بودن نتایج یک مقاله در مقایسه با مقاله دیگر در مورد همان موضوع مورد استفاده قرار گیرد. ? آیا این حتی امکان پذیر است؟** معیارهای پیشنهادی من تاکنون: * _**وضعیت تکرار_**: تکرار نشد، تکرار نشد، با موفقیت تکرار شد * _**نوع مطالعه_**: گذشته نگر، آینده نگر، آزمایش تصادفی * _ **(فقط آزمایشات) کوری_** : هیچ، کور، دو کور * _**انتخاب جمعیت_**: غیر تصادفی، تصادفی * _**(فقط نظرسنجی) بازه زمانی نظرسنجی_**: گذشته، گذشته فوری، زمان واقعی * _**اندازه نمونه_** * _**فاصله اطمینان_** | برای ارزیابی احتمال درست بودن نتیجه مقاله از چه کیفیت داده هایی می توان استفاده کرد؟ |
21752 | لطفاً کسی می تواند به من بگوید که آرگومان «جایگزین» در «fisher.test()» در R چیست؟ بیشتر و کمتر دلالت بر چه چیزی دارند؟ fisher.test(x، y = NULL، فضای کاری = 200000، ترکیبی = FALSE، control = list()، یا = 1، جایگزین = دو طرفه، conf.int = TRUE، conf.level = 0.95، شبیه سازی. p.value = FALSE, B = 2000) من بخش راهنما را امتحان کردم و تمام چیزی که می گوید این است که فرضیه جایگزین باید یکی از «دوطرفه»، «بزرگتر» یا «کمتر»». چه زمانی باید از هر کدام استفاده کنم؟ من به نمایش بیش از حد در مجموعه خود در برابر یک مجموعه کنترل نگاه می کنم. | استدلال جایگزین در آزمون دقیق فیشر در R |
48084 | من باید ضریب جینی را بر روی برخی از داده های جمعیتی که در براکت های درآمدی مرتب شده اند محاسبه کنم: برای مثال $0->$1000: 10000 نفر $1000->$10000: 50000 نفر مشکل من این است که آخرین براکت نامحدود است، یعنی به شکل: $100:0000 <$100000 است. 500 نفر آیا راهی برای محاسبه ضریب جینی داده شده وجود دارد این داده ها؟ | محاسبه ضریب جینی با براکت های درآمدی نامحدود؟ |
62851 | من سعی میکنم از سناریوی چند حالته بیماری-مرگ برای مدلسازی یک متغیر کمکی وابسته به زمان در تحلیل ریسکهای رقیب با پیروی از Beyersmann و همکاران استفاده کنم. 2012 (رقابت ریسک ها و مدل های چند حالته با R، Springer New York، 2012). به طور کلی همه آزمودنی ها در وضعیت سالم = 0 با امکان انتقال به حالت بیمار = 1 (متغیر وابسته به زمان) شروع می شوند. هر یک از این حالت ها ممکن است به یکی از دو حالت جذب کننده رقیب تبدیل شود ترخیص = 2، مرگ = 3. سوال خاص من این است که آیا بیمار می تواند در هر دو حالت 0 یا 1 شروع کند یا همه بیماران باید در حالت 0 شروع کنند. تا این مدل کار کند داده های من شامل بیمارانی است که در ابتدای مشاهده در هر دو حالت سالم و بیمار شروع می کنند. با تشکر | مدل بقای چند حالته بیماری-مرگ |
44301 | من تخمینگر Shlosser را برای تعداد مقادیر متمایز در جامعهای که یک نمونه داده شده است، پیادهسازی کردهام. اکنون می خواهم مطمئن شوم که الگوریتم من به درستی پیاده سازی شده است. آیا نمونهای وجود دارد که به من امکان میدهد محاسبه من را با مقدار متعارف مطابقت دهد؟ | مجموعه های مثالی برای برآوردگر ارزش متمایز Shlosser؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.