_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
10501 | پیدا کردن مساحت محاسبهکننده بسته تحت ROC آسان است، اما آیا بستهای وجود دارد که مساحت زیر منحنی فراخوان دقیق را محاسبه کند؟ | محاسبه AUPR در R |
99375 | تشخیص Gelman و Rubin برای بررسی همگرایی چندین زنجیره mcmc که به صورت موازی اجرا می شوند استفاده می شود. این واریانس درون زنجیره ای را با واریانس بین زنجیره ای مقایسه می کند، توضیح زیر است: ** مراحل (برای هر پارامتر):** 1. m ≥ 2 زنجیره به طول 2n را از مقادیر شروع بیش از حد پخش کنید. 2. اولین n رسم در هر زنجیره را دور بریزید. 3. واریانس درون زنجیره ای و بین زنجیره ای را محاسبه کنید. 4. واریانس تخمینی پارامتر را به عنوان مجموع وزنی واریانس درون زنجیره ای و بین زنجیره ای محاسبه کنید. 5. ضریب کاهش مقیاس بالقوه را محاسبه کنید. 6. آیتم فهرستی که میخواهم از این آمار استفاده کنم، اما متغیرهایی که میخواهم از آن استفاده کنم، بردارهای تصادفی هستند. آیا گرفتن میانگین ماتریس های کوواریانس در این مورد منطقی است؟ | تشخیص همگرایی گلمن و روبین، چگونه به کار با بردارها تعمیم دهیم؟ |
21415 | من سعی می کنم نتایج Austin, PC را (دوباره) تولید کنم. (2010).. سوال به دست آوردن یک $\beta$ تقریبی است که منجر به یک تفاوت ریسک خاص (تفاوت نسبت ها) $p_0 - p_1 = 0.02$ می شود، که در آن $p_0$ و $p_1$ نسبت افراد در گروه کنترل و trt که به ترتیب دارای پاسخ $Y = 1$ هستند. 4 متغیر کمکی، 1 نشانگر درمان و 1 متغیر نتیجه وجود دارد:$x_1، x_2، x_3،$ و $x_4$، که set.seed(123) N = 10000 x1=rnorm(N);x2=rnorm(N) ; x3=rbinom(N,1,0.5);x4=rbinom(N,1,0.5) که در آن $N$ تعداد موضوعات در هر مجموعه داده را نشان می دهد و مجموعا $s = 1000$ مجموعه داده شبیه سازی شده وجود دارد. برای هر موضوع، اگر موضوعی در trt $(t=1)$ باشد، $Pr(Y = 1)$ را محاسبه می کنیم یا کنترل $(t=0)$ is $p_{i,1} = \frac{ 1}{1+e^{-(\alpha_0+\alpha_1x_{1i}+\alpha_2x_{2i}+\alpha_3x_{3i} + \alpha_4x_{4i} + \beta_{(k)})}}$، یا $p_{i,0} = \frac{1}{1+e^{-(\alpha_0+\alpha_1x_{1i}+\alpha_2x_ {2i}+\alpha_3x_{3i} + \alpha_4x_{4i})}}$ که در آن مقادیر $\alpha_0=-1، \alpha_1=\alpha_2=\alpha_3=\alpha_4=1$ ثابت هستند، اما $\beta_{(k)}$ توسط ادغامهای مونت کارلو با فرآیند تکراری $k$th با استفاده از دوبخشی تقریبی میشود. روش: $\bar{p}_1 = \quad \idotsint_{x_1} \frac{1}{1+e^{-(\alpha_0+\alpha_1x_{1i}+\alpha_2x_{2i}+\alpha_3x_{3i} + \alpha_4x_{4i} + \beta_{(k)})}} f (x_1)...f(x_4)dx_1...dx_4$ و $\bar{p}_0 = \quad \idotsint_{x_1} \frac{1}{1+e^{-(\alpha_0+\alpha_1x_{1i}+\alpha_2x_{2i}+\alpha_3x_{3i} + \alpha_4x_{4i})}} f(x_1) ...f(x_4)dx_1...dx_4$. $\bar{p}_0^{mc(k)} = \frac{1}{10000}\sum_{i=1}^{10000}p_{i,0}$ و $\bar{p}_1^ {mc(k)} = \frac{1}{10000}\sum_{i=1}^{10000}p_{i,1}$، که $mc$ نشاندهنده monte است کارلو تفاوت ریسک حاشیه ای تجربی مجموعه داده $s^{th}$ $\gamma_{(s)}^{(k)} = \bar{p}_0^{mc(k)} - \bar{p}_1 است. ^{mc(k)}$. ما بیش از 1000 مجموعه داده را تکرار کردیم، میانگین تفاوت ریسک نهایی تجربی بعد از $k^{th}$ فرآیند تکراری (روش دوبخشی) $\gamma^{(k)} = \frac{1}{1000}\sum_{s= است. 1}^{1000}\gamma_{(n)}^{(k)} =0.02$ چگونه می توانم یک کد R بنویسم تا به صورت تقریبی به دست بیاورم $\beta$ برای $p_0 - p_1 = \gamma^{(k)}=0.02$؟ پیشاپیش با تشکر فراوان | با استفاده از ادغام مونت کارلو با روش دوبخشی برای یافتن مقدار واقعی در R |
113598 | این سوال در مورد تعامل سه طرفه و امکان اعمال بدون ترم دوم پایین تر با حفظ متغیرهای اصلی در معادله مانند سوالات دیگر است. در واقع پاسخ های دیگر نشان می دهد که امکان درخواست وجود دارد. من اینجا نیستم تا بهترین راه حل را پیدا کنم زیرا آن را می دانم و قبلاً در سؤال خود گنجانده ام، اما برای اینکه بدانم آیا این امکان وجود دارد صرف نظر از اینکه ترجیح داده شود یا نه. با تشکر از شما و لطفاً سوال من را برای بحث باز کنید. معادله رگرسیون شناخته شده برای ارزیابی تعامل سه طرفه $$ Y= B_1 X+B_2 Z+B_3 W +B_4XZ+B_5XW+B_6ZW+B_7XZW+B_0 $$ همه شرایط مرتبه پایین تر است. در معادله رگرسیون برای ضریب B7 گنجانده شده است تا اثر برهمکنش سه طرفه را بر Y نشان دهد. آیا وجود دارد راه ممکن برای رد شدن از شرایط مرتبه پایین تر و شامل فقط عبارت بالاتر؟ مانند: $$ Y= B_1 X+B_2 Z+B_3 W +B_4XZW+B_0 $$ و اگر X & Z متغیرهای پیوسته و W متغیر ساختگی است، به چند مشاهده نیاز دارم تا چنین معادله ای را انجام دهم؟ اگر کسی بتواند پیشنهادی به من بدهد ممنون می شوم | آیا می توانیم از اصطلاحات مرتبه پایین تر در تعاملات صرف نظر کنیم؟ |
57898 | اخیراً به مقاله ای برخوردم که از آزمون مک نمار برای ارزیابی اثربخشی یک مداخله برای بهبود پایبندی به درمان استفاده می کند. این مطالعه از یک طرح قبل و پس آزمون استفاده کرد که به موجب آن رفتار پایبندی برای هر دو گروه کنترل و مداخله با استفاده از یک ابزار اندازهگیری شد و به عنوان دادههای پیوسته بیان شد. سپس بهبود نسبی (پست / پیش) بین دو گروه را مقایسه می کند. من قبلا هرگز تست مک نمار را برای این مورد استفاده نکرده بودم، اما به اندازه کافی با آمار آشنا نیستم. آیا واقعا روش مناسبی است؟ آیا آزمون t (جفتی) یا چیزی شبیه به آن منطقی تر نخواهد بود؟ | آیا آزمون مک نمار برای ارزیابی تفاوتهای پیش از پس از مطالعه در مطالعات مداخله با بازوی کنترل مناسب است؟ |
90118 | هنگامی که سعی می کنید یک مدل AR(p) را به یک سری زمانی در R برازید، به نظر می رسد که هم ar.ols() و هم arima() کار خواهند کرد. آیا در مورد زمان استفاده از آن در نظر گرفته شده است؟ به نظر میرسد ()ar.ols از تخمین حداقل مربع استفاده میکند، در حالی که arima() از حداکثر احتمال یا حداقل کردن مجموع مربعات شرطی (روش پیشفرض) استفاده میکند. آیا به حداقل رساندن مجموع مربعات شرطی معادل MLE شرطی برای فرآیند ثابت گاوسی است؟ بنابراین آیا arima() اساساً MLE است یا MLE شرطی؟ با تشکر | ar.ols() یا arima() برای مدل سازی سری های زمانی |
78467 | من میخواهم الگوریتمهای طبقهبندی چند برچسبی را ارزیابی کنم و به این فکر میکردم که از دقت و اندازهگیری F1 استفاده کنم: دقت = #تقاطع(پیشنهادات،برچسب_های_درست) / #اتحادیه(پیشنهادات،برچسب_های_درست) F1 Measure = 2 * (P * R) ) / (P + R) موارد فوق برای یک مثال واحد است و سپس با توجه به آزمون میانگین می شود اندازه آیا منطقی است که هر دو معیار فوق را در نظر بگیریم و چرا؟ آیا شرایطی وجود دارد که در آن یکی از دیگری بهتر عمل کند؟ | دقت در مقابل اندازه گیری F1 در طبقه بندی چند برچسبی |
62793 | آیا کتابی وجود دارد که توضیح دهد که چرا تکنیک های استاندارد بهتری مثلاً از Tukey و ANOVA وجود ندارد؟ برای مقایسه، به عنوان مثال، من در مورد فرضیه صفر یک نمونه آزمون $t$ مطالعه کردم و حتی به خود زحمت ندادم که آزمونهای بهتری وجود دارد. اما این احتمالاً فقط یک باور مغرضانه است که هیچ چیز پیچیدهتری از نظر ریاضی وجود ندارد که بتوان با گاوسی برای بهبود در آزمون یک نمونه $t$ انجام داد. با این حال، Tukey و ANOVA از نظر ریاضی پیچیدهتر هستند و برای من واضح نبود که چرا باید در وهله اول آنها را در نظر گرفت. به عنوان مثال در یک سوال قبلی در مورد اینکه چرا روش Tukey در تمام تستهای $t$-دو نمونهای دوتایی مورد نیاز است پرسیدم. پاسخی که من برای این سوال گرفتم این است که تمام تستهای $t$-دو نمونهای جفتی از مثبت کاذب رنج میبرند. اما برای من شهودی نیست که چگونه روش توکی بهترین راه برای فرار از این مشکل است. چگونه می توان به طور شهودی متوجه شد که Tukey و ANOVA به طور کلی تکنیک های بسیار خوبی در بین همه احتمالات هستند؟ | چرا پیشرفت های آشکاری نسبت به روش توکی وجود ندارد؟ |
29345 | کتابهای درسی معمولاً هنگام توضیح موضوع، طرحهای مثال خوبی از پایههای یکنواخت دارند. چیزی شبیه یک ردیف مثلث های کوچک برای یک اسپلاین خطی، یا یک ردیف قوز کوچک برای یک اسپلاین مکعبی. این یک مثال معمولی است: http://support.sas.com/documentation/cdl/en/statug/63033/HTML/default/viewer.htm#statug_introcom_a0000000525.htm من میپرسم آیا راه آسانی برای ایجاد یک نمودار پایه spline با استفاده از توابع استاندارد R (مانند bs یا ns). من حدس میزنم یک قطعه ساده از محاسبات ماتریسی همراه با یک برنامه R بیاهمیت وجود دارد که طرحهای زیبایی از یک پایه spline را به روشی زیبا نشان میدهد. من فقط نمی توانم به آن فکر کنم! | تجسم یک پایه اسپلاین |
63262 | من مدلی برای رگرسیون تعدیلشده چندگانه با «پرداخت» (مستمر) به عنوان DV، یک پیشبینیکننده پیوسته (نوروتیسیسم)، و دو عامل طبقهبندی باینری بین موضوعی دارم: استرس در مقابل عدم استرس و خودپرداختی در مقابل پرداخت دیگر. . اساساً، میخواهم بدانم که آیا افزایش تفاوت بین پرداخت به خود و دیگران بسته به روان رنجوری در شرایط استرس بیشتر از بدون استرس است؟ بنابراین، من تعامل 3 طرفه را از نظر معناداری آزمایش کردم و اثر قابل توجهی یافتم، اما همانطور که تعاملات 3 طرفه را درک می کنم، یک معنی می تواند از فرضیه جایگزین من یا این فرضیه که سایر تعاملات دو طرفه متفاوت است حمایت کند. چگونه دقیقاً فرضیه فوق را آزمایش کنم و چگونه آن را در SPSS پیاده سازی کنم؟ من همچنین مطمئن نیستم که در این مورد از کدام سیستم کدگذاری استفاده کنم و چرا از نظر قابلیت تفسیر. | کاوش برهمکنش سه طرفه با یک متغیر پیوسته و دو متغیر طبقه ای |
63263 | بگویید من مجموعه داده ای دارم که از اشیاء $N$ تشکیل شده است. هر شی دارای تعداد معینی از مقادیر اندازه گیری شده است (در این مورد سه عدد): $x_1[a_1، b_1، c_1]، x_2[a_2، b_2، c_2]، ...، x_N[a_N، b_N، c_N] $ به این معنی که من ویژگی های $[a_i، b_i، c_i]$ را برای **هر** $x$ مورد اندازه گیری کرده ام. فضای _measurement_ فضایی است که توسط متغیرهای $[a, b, c]$ تعیین میشود، که در آن هر شیء $x$ با یک نقطه در آن نشان داده میشود. به صورت گرافیکی تر: من اشیاء $N$ دارم که در یک فضای سه بعدی پراکنده شده اند. چیزی که من نیاز دارم راهی است برای تعیین احتمال (یا احتمال؟، آیا تفاوتی وجود دارد؟) یک شی **جدید** $y[a_y, b_y, c_y]$ متعلق به این ابر اشیاء این احتمال برای هر شی $x$ البته بسیار نزدیک به 1 خواهد بود. آیا این امکان پذیر است؟ * * * ## اضافه کردن 1 برای پاسخ به سوال AdamO: شی $y$ متعلق به مجموعه ای است که از $M$ _مخلوط_ اشیاء (با $M$ > $N$) تشکیل شده است. این بدان معناست که برخی از اشیاء در این مجموعه احتمال تعلق به اولین مجموعه داده ($N$) و برخی دیگر احتمال کمتری خواهند داشت. من در واقع به این اشیاء با احتمال کم علاقه دارم. من همچنین میتوانم تا 3 مجموعه داده دیگر از اشیاء $N1$، $N2$، و $N3$ بیاورم، که همه آنها دارای ویژگیهای _global_ یکسان با مجموعه دادههای $N$ هستند. به عنوان مثال: یک شی در $M$ که احتمال کمی در $N$ دارد در مقایسه با $N1$، $N2$ و $N3$ نیز احتمالات پایینی خواهد داشت (و بالعکس: اشیاء در $M$ احتمال تعلق زیاد دارند. به $N$ همچنین احتمال زیاد تعلق به $N1$، $N2$ و $N3$ را نشان خواهد داد. * * * ## افزودن 2 با توجه به پاسخ داده شده در سؤال تفسیر/استفاده از چگالی هسته، من نمی توانم **احتمال یک شی جدید متعلق به مجموعه ای که $kde/pdf$ را ایجاد کرده است، استخراج کنم (با فرض اینکه I حتی قادر خواهد بود معادله $pdf$ غیر یک وجهی را حل کند، زیرا من باید این فرض را پیشینی داشته باشم که آن شی جدید توسط همان فرآیندی که مجموعه داده را تولید می کند، ایجاد شده است. که از آن $kde$ بدست آوردم. کسی میتونه این رو تایید کنه لطفا | احتمال تعلق یک شی به گروهی از اشیاء |
67568 | من دو تا کارکرد دارم تابع اول دارای مقدار مثبت برای AIC و تابع دوم دارای مقدار منفی fir AIC است. چگونه مقایسه کنیم؟ مقادیر جبری یا مطلق؟؟ ممنون :) | چگونه AIC (معیار اطلاعات akaike) را مقایسه کنیم؟ |
95196 | من سعی می کنم یک مدل پواسون دو متغیره برای پیش بینی نتایج بازی های فوتبال ارائه کنم. من نرخ گلزنی برای تیم های میزبان و میهمان را دارم و احتمال گلزنی هر امتیاز (یعنی 1-0، 2-1، 3-3) (که توسط بنگاه ها داده می شود) برای هزاران بازی. من فرض میکنم احتمالاتی که مؤسسهها برای هر امتیاز احتمالی به دست میآورند و با نرخ امتیازدهی من برای هر تیم مطابقت دارند، درست است. من چندین مقاله در مورد این موضوع خواندهام، مفیدترین آنها پواسون دو متغیره و مدلهای رگرسیون پواسون دو متغیره متورم مورب در R بود. همه آنها از **نتایج** بازیهای فوتبال گذشته استفاده میکنند تا به نرخهای امتیازدهی برای هر تیم برسند. و سپس یک رگرسیون برای تناسب نرخ ها با نتایج انجام دهید. من میخواهم از نرخهای امتیازدهی که قبلاً دارم، و توزیعهای احتمال دادهشده توسط بنگاهداران، برای ساختن یک مدل پواسون دو متغیره استفاده کنم. به نظر می رسد همه از نتایج بازی های گذشته برای ایجاد یک مدل استفاده می کنند زیرا امتیازات هر تیم را ندارند. من آنها را دارم، بنابراین معتقدم که بهتر است مدلی از این طریق ارائه شود. هدف نهایی این است که مدلی داشته باشیم که بتوانم نرخ امتیازدهی را برای تیم A و B وارد کنم و در مدل توزیع احتمال هر امتیاز را به دست بیاورم (یعنی 0-0، 1-3، 2-1، ... ). چگونه باید این کار را انجام دهم؟ بسته bivpois که سازندگان مقاله از آن استفاده کردهاند، در صورتی که از نتایج بازیهای گذشته استفاده میکنید، بسیار مفید است. آیا می توانید پکیج دیگری برای R پیشنهاد دهید که بتوانم از آن استفاده کنم؟ با تشکر از کمک شما. | رگرسیون پواسون دو متغیره با توجه به امتیازات و احتمالات هر امتیاز و نه نتایج مسابقات |
95192 | من اولین مدل را در نظر میگیرم که در آن 6 مورد مشاهدهپذیر (غلظت متابولیتها) بر روی مجموعه دادهها (معیار تجربی این 6 غلظت) برازش میشوند. من یک مدل دوم هم دارم که زیرمجموعه اولی است و فقط 4 قابل مشاهده را مدل می کند. این مدل دوم تنها بر روی بخشی (4 غلظت از 6 غلظت) از مجموعه داده های مورد استفاده برای مدل اول برازش می یابد. من نمی توانم از AIC برای مقایسه این دو مدل استفاده کنم زیرا آنها دقیقاً روی داده های مشابهی قرار ندارند. آیا اینها توسعه AIC یا معیار اطلاعات دیگری است که می تواند در مورد مدل های تودرتو و داده های تودرتو به من کمک کند؟ (اگر مرجعی داشته باشید، عالی است!) | معیارهای انتخاب مدل برای مدل های تودرتو که بر روی داده های تودرتو نصب شده اند؟ |
16901 | فرض کنید من متغیرهای تصادفی $X$ و $Y$ دارم. $X$ قابل مشاهده است. $Y$ نیست. ما همچنین می دانیم که اگر $X \leq Y$، $Z = f(X,Y)$ که $Z$ یک متغیر تصادفی سوم است و $f(\cdot)$ یک تابع شناخته شده است. در غیر این صورت $Z$ گم شده است. $Z$ نیز قابل مشاهده است (فقدان یا یک عدد واقعی). فرض کنید من توزیع X$ را می دانم و می توانم توزیع Z$$ را از روی داده ها تخمین بزنم. نمی دانم آیا می توانم توزیع $Y$ را تخمین بزنم. اولین سوال من این است: این مشکل چیست؟ این شبیه به یک مشکل رگرسیون سانسور شده کتاب درسی است اما متفاوت است. آیا این یک مشکل رگرسیون سانسور شده تصادفی است؟ سوال بعدی من این است که آیا مشکل قابل شناسایی است؟ من متوجه شدم که برای هر مجموعه ای از نمونه های تصادفی $X_1، X_2، X_3، ...$، ممکن است چندین دنباله $Y_1، Y_2، Y_3، ...$ وجود داشته باشد که خروجی یکسانی داشته باشد $Z_1، Z_2، Z_3 ،... دلار. بنابراین حدس میزنم یافتن بهترین راهحل دشوار خواهد بود مگر اینکه محدودیتهایی اعمال شود. اگر حدس من درست است، محدودیتهای معمولی که افراد اعمال میکنند چیست؟ اگر بتوانیم برخی از محدودیتها را برای مسئله اعمال کنیم تا بتوانیم پارامترهای بهینه را پیدا کنیم که برخی از معیارهای خطای از پیش تعریف شده را به حداقل برساند. امیدواریم بتوانیم توزیع $Y$ را تخمین کنیم. پیشنهادات، کتابها و مقالات شما قابل استقبال است. هر ایده ای؟ | یک مشکل رگرسیون تصادفی سانسور شده؟ |
62790 | تقویت یک دسته از یادگیرندگان ضعیف را می گیرد و یک یادگیرنده قوی ایجاد می کند. اما چرا ایجاد یک یادگیرنده قوی از همان ابتدا بدون استفاده از تکنیک های تقویتی اینقدر دشوار است؟ و بنابراین نیاز به تقویت را برطرف می کند. | چرا تقویت موثر است؟ |
64744 | من یک مجموعه داده بزرگ از 20 میلیون مشاهدات با 20+ اندازه گیری برای هر مشاهده (افراد) دارم. علاوه بر این، من مجموعه ای از وزن ها را دارم که نشان دهنده جمعیت نژادی است که هر فرد در آن زندگی می کند. به عنوان مثال، از دادههای سرشماری، این میتواند درصد جمعیت در کد پستی یا بخشهایی باشد که آفریقایی آمریکایی، سفیدپوست، آسیایی و غیره هستند. این درصدها به 100% اضافه میشوند. ما فاقد معیار مستقیم نژاد در افراد هستیم. این اطلاعات در دسترس نیست. سپس داده های نمایه به این صورت خواهند بود: ID، سفید، آسیایی، آمریکایی آفریقایی،... 1234 70% 20% 5% 5% 0% 2345 30% 50% 10% 5% 5% 3456 5% 90% 5% 0 % 0% 4567 25% 25% 25% 15% 10% 20 معیار ترکیبی از داده های مالی و پرچم های درست/نادرست هستند. این داده های مالی به شدت منحرف هستند و همچنین صفرهای زیادی دارند. ما میانگین وزنی تمام معیارها را محاسبه خواهیم کرد، به عنوان مثال. میانگین ارزش آمریکایی های آفریقایی تبار سوالات من حول محور اندازه گیری واریانس محاسباتی برای این ابزارها است. من فکر میکنم سادهترین راه برای محاسبه تخمینهای واریانس، راهاندازی شناسهها، حفظ نمایه هر ID و محاسبه میانگین وزنی $N$ است. از طرف دیگر، میتوانیم بهطور تصادفی یک مسابقه را برای هر نفر $N$ برابر نمایه انتخاب کنیم و میانگین وزنی $N$ را محاسبه کنیم. همچنین میتوانیم هر دو را انجام دهیم، شناسهها را دوباره نمونهبرداری کنیم و در هر تکرار 1 مسابقه انتخاب کنیم. من نمی توانم بفهمم نتایج شبیه سازی یک مسابقه واقعاً چه چیزی را اندازه گیری می کند. از آنجا که به هر فرد یک مسابقه اختصاص داده شده است، نمی توان از آن برای فاصله اطمینان از میانگین وزنی اصلی استفاده کرد. _**آیا نامی برای این روش دوم شبیه سازی متغیر تصادفی وجود دارد؟_** آیا مرجعی برای استفاده از آن وجود دارد؟ | چگونه می توان اعتماد یک معیار وزنی را تقویت کرد؟ |
29343 | فرض کنید من یکسری افراد دارم که چند تست انجام داده اند (بیایید آن را تست A بنامیم). اکنون یک آزمون دوم (تست B) را انجام می دهم تا این افراد را به دو دسته (که یک پاسخ درست از پیش تعریف شده دارند) دسته بندی کنم. _توجه داشته باشید که نمره آزمون A فقط می تواند نسبت سیگنال به نویز تست B را پیش بینی کند. یعنی شما نمی توانید از نمره آزمون A برای انجام خود دسته بندی استفاده کنید._ هدف من انتخاب گروهی از افراد است که به راحتی در دسته بندی قرار می گیرند. دسته بندی های صحیح را تا حد امکان (یعنی نمره واقعی آزمون B مهم نیست)، با استفاده از نمره آزمون A. اکنون، می خواهم بررسی کنم که چگونه آزمون A (که از چندین متغیر A1 تشکیل شده است، A2...) نتیجه نهایی را پیش بینی می کند. چگونه می توانستم این کار را انجام دهم؟ من به این فکر کردم که دستهای از زیر گروهها با حجم نمونه ثابت را بهطور تصادفی ایجاد کنم و میانگین نمره آزمون A و درصدی را که طبقهبندی درستی برای این زیر گروهها به دست آوردهام اندازهگیری کنم و سپس تحلیل رگرسیون را روی آن اعمال کنم. آیا این یک رویکرد معتبر خواهد بود؟ اگر نه، راه صحیح انجام این کار چیست؟ | چگونه ارزش پیش بینی متغیرها را برای نتیجه ای که فقط به صورت گروهی می توان مشاهده کرد، بررسی کرد؟ |
63267 | فاصله Mahalanobis، زمانی که برای اهداف طبقهبندی استفاده میشود، معمولاً یک توزیع نرمال چند متغیره را در نظر میگیرد، و فواصل از مرکز باید پس از توزیع $\chi^2$ (با درجه آزادی $d$ برابر با تعداد ابعاد/ویژگیها) باشد. . ما میتوانیم احتمال تعلق یک نقطه داده جدید به مجموعه را با استفاده از فاصله Mahalanobis آن محاسبه کنیم. من مجموعه داده هایی دارم که از توزیع نرمال چند متغیره پیروی نمی کنند ($d \ تقریباً 1000 $). در تئوری، هر ویژگی باید از توزیع پواسون پیروی کند، و از نظر تجربی به نظر میرسد که این مورد برای بسیاری از ویژگیها ($\تقریباً 200 دلار) صادق است، و آنهایی که نیستند در نویز هستند و میتوانند از تحلیل حذف شوند. چگونه می توانم نقاط جدید را در این داده ها طبقه بندی کنم؟ حدس میزنم دو مؤلفه وجود دارد: 1. فرمول «فاصله ماهالانوبیس» مناسب روی این داده چیست (یعنی توزیع پواسون چند متغیره)؟ آیا تعمیم فاصله با سایر توزیع ها وجود دارد؟ 2. چه از فاصله معمولی Mahalanobis استفاده کنم یا فرمول دیگری، توزیع _این_ فواصل چگونه باید باشد؟ آیا روش دیگری برای انجام آزمون فرضیه وجود دارد؟ **متعارف...** تعداد نقاط داده شناخته شده $n$ در هر کلاس به طور گسترده ای متفاوت است، از $n=1$ (خیلی کم، حداقل را به صورت تجربی تعیین خواهم کرد) تا حدود $n=6000$. فاصله Mahalanobis با $n$ مقیاس می شود، بنابراین نمی توان فواصل از یک مدل/کلاس به مدل دیگر را مستقیماً مقایسه کرد. هنگامی که داده ها به طور نرمال توزیع می شوند، آزمون کای دو راهی برای مقایسه فواصل از مدل های مختلف (علاوه بر ارائه مقادیر یا احتمالات بحرانی) فراهم می کند. اگر راه دیگری برای مقایسه مستقیم فواصل مانند ماهالانوبیس وجود داشته باشد، حتی اگر احتمالات را _نمی دهد، می توانم با آن کار کنم. | فاصله ماهالانوبیس در داده های غیر عادی |
88368 | من یک پواسون glm را بر روی داده های فرکانس خود نصب کردم و به نتیجه رسیدم: انحراف صفر: 657.49 در 583 درجه آزادی انحراف باقیمانده: 575.00 در 571 درجه آزادی AIC: 1534.4 آیا مقدار AIC بالا و انحراف باقیمانده نسبتاً بالا یک موضوع جدی است. مورد توجه قرار گیرد؟ با تشکر | تفسیر AIC و مقادیر انحراف |
62794 | من در حال کار بر روی تعیین میانگین Frechet چند منحنی هستم. من از این معادله استفاده می کنم: $$ \sum_{n=1} (P_a - P_b)^2 $$ اما کاملاً مطمئن نیستم که چگونه این کار را در چندین منحنی انجام دهم. همچنین، پاسخ باید این باشد، مگر اینکه کاملاً اشتباه میکنم، باید یک منحنی باشد، اما به جای آن یک عدد واحد میگیرم. کسی میتونه کمکم کنه؟ | Frechet میانگین منحنی های چندگانه |
67560 | من سعی می کنم بفهمم چگونه می توان نقطه برش بهینه را برای یک منحنی ROC (مقداری که در آن حساسیت و ویژگی به حداکثر می رسد) محاسبه کرد. من از مجموعه داده «aSAH» از بسته «pROC» استفاده میکنم. متغیر نتیجه را می توان با دو متغیر مستقل توضیح داد: s100b و ndka. با استفاده از نحو بسته Epi، من دو مدل ایجاد کردم: library(pROC) library(Epi) ROC(form=outcome~s100b, data=aSAH) ROC(form=outcome~ndka, data=aSAH) خروجی در دو نمودار زیر نشان داده شده است:   در نمودار اول (`s100b )، تابع می گوید که نقطه برش بهینه در مقدار مربوط به lr.eta=0.304 محلی سازی شده است. در نمودار دوم ('ndka') نقطه برش بهینه در مقدار متناظر با 'lr.eta=0.335' محلی سازی شده است (معنی 'lr.eta' چیست). اولین سوال من این است: * مقادیر «s100b» و «ndka» مربوط به مقادیر «lr.eta» نشان داده شده چیست (نقطه برش بهینه از نظر «s100b» و «ndka» چیست)؟ **سوال دوم:** حالا فرض کنید من یک مدل با در نظر گرفتن هر دو متغیر ایجاد کنم: ROC(form=outcome~ndka+s100b, data=aSAH) نمودار به دست آمده این است:  من می خواهم بدانم مقادیر ndka و s100b در کدام حساسیت و ویژگی هستند توسط تابع به حداکثر می رسند. به عبارت دیگر: مقادیر «ndka» و «s100b» که در آنها Se=68.3% و Sp=76.4% (مقادیر به دست آمده از نمودار) داریم چیست؟ من فرض میکنم این سوال دوم مربوط به تجزیه و تحلیل multiROC است، اما مستندات بسته «Epi» نحوه محاسبه برش بهینه برای متغیرهای _both_ مورد استفاده در مدل را توضیح نمیدهد. سؤال من بسیار شبیه به این سؤال از reasearchGate است که به طور خلاصه میگوید: > تعیین امتیاز برش که نشان دهنده یک مبادله بهتر است > بین حساسیت و ویژگی یک معیار ساده است. با این حال، برای تجزیه و تحلیل منحنی ROC چند متغیره، اشاره کردهام که بیشتر محققان بر روی الگوریتمهایی برای تعیین دقت کلی ترکیب خطی چند شاخص (متغیر) بر حسب AUC تمرکز کردهاند. > [...] > > با این حال، این روش ها به نحوه تصمیم گیری ترکیبی از امتیازات برش مرتبط با شاخص های متعدد اشاره نمی کنند که بهترین دقت تشخیصی را ارائه می دهد. یک راه حل ممکن همان چیزی است که شولتز در مقاله خود پیشنهاد کرده است، اما از این مقاله من نمی توانم بفهمم که چگونه نقطه برش بهینه را برای یک منحنی ROC چند متغیره محاسبه کنم. شاید راهحل بسته «Epi» ایدهآل نباشد، بنابراین هر پیوند مفید دیگری قدردانی خواهد شد. | تجزیه و تحلیل ROC و multiROC: چگونه نقطه برش بهینه را محاسبه کنیم؟ |
98956 | من برای شروع با این سوال کمی مشکل دارم.  من می دانم چگونه تست نیمن-پیرسون و منطقه بحرانی آن را استخراج کنم. نگرانی اصلی من استخراج تابع Likelihood نمونه با توجه به فرضیه صفر و فرضیه جایگزین آن است. من می خواهم این را به تنهایی حل کنم اما مطمئن نیستم که چگونه آن را شروع کنم. | یک تست نیمن-پیرسون از H0 بدست آورید: p1=p2=2/5 در برابر جایگزین p1=1/2 و p2=1/5 زمانی که خطای نوع 1 0.05 است. |
62872 | من روی یک مشکل راهزن چند مسلح کار می کنم که در آن هیچ اطلاعاتی در مورد توزیع پاداش نداریم. من مقالات زیادی پیدا کرده ام که کران پشیمانی را برای توزیع با کران شناخته شده و برای توزیع های عمومی با پشتیبانی در [0،1] تضمین می کنند. من می خواهم بدانم آیا راهی برای عملکرد خوب در محیطی وجود دارد که توزیع پاداش هیچ تضمینی در مورد پشتیبانی آن ندارد. من سعی می کنم یک حد تحمل ناپارامتریک را محاسبه کنم و از آن عدد برای مقیاس بندی توزیع پاداش استفاده کنم تا بتوانم از الگوریتم 2 مشخص شده در این مقاله استفاده کنم (http://jmlr.org/proceedings/papers/v23/agrawal12/agrawal12.pdf ). آیا کسی فکر می کند این روش کارساز باشد؟ اگر نه، آیا کسی می تواند من را به نقطه مناسب راهنمایی کند؟ با تشکر از یک دسته! | راهزن چند مسلح برای توزیع کلی پاداش |
67564 | برای پایان نامه کارشناسی ارشدم در حال بررسی رابطه واسطه ای هستم. من باید مدل معادله را بنویسم، اما دقیقاً نمی دانم چگونه این کار را انجام دهم. در مورد من چهار متغیر مستقل دارم، یک متغیر واسطه و یک متغیر وابسته. چگونه متغیر واسطه شده را به معادله اضافه کنم؟ تا به حال این را دریافت کردم: نوآوری استثماری $= \alpha + \beta_1\ $ انگیزه الهام بخش $+\ \beta_2\ $ توجه فردی $ +\ \بتا_3\ $ تحریک فکری $+\ \بتا_4\ $ تاثیر ایده آل $+\ \ beta_5$ قابلیت تبادل دانش و ترکیب $+\ \epsilon, \epsilon \sim$ iin (0, $\sigma$). $\beta_5$ متغیر واسطه من است. آیا می توانم فقط این را اضافه کنم یا باید چیزی را ضرب کنم؟ | چگونه با واسطه معادله رگرسیون بنویسیم؟ |
26829 | متخصص غیر آماری کم سواد به دنبال رابطه کوتاه مدت برای سود بسیار یک طرفه است. سیستم مورد بحث شامل سنگ ها و خواص فیزیکی است. مدلسازی بیتهای زمین معمولاً به معنای اندازهگیری واقعی کمی در مقایسه با حجم مدل است. برآوردهای زیادی لازم است، و من هیچ ایده ای ندارم که چگونه بیانیه عدم قطعیت ها را مدیریت کنم. برای مثال، فرض کنید جریان فرآیند مدلسازی به این صورت است که «نمونه کوچک سنگها را اندازهگیری کنید: ویژگی X را دریافت کنید (از طریق میانگین اندازهگیریها)»، سپس «از X در مدل ساده برای تعیین Y استفاده کنید». به عنوان مثال، Y = mX + b. اگر 20 سنگ داشته باشم که آنها را اندازه میگیرم و میانگینی برای خاصیت X بدست میآورم، چگونه عدم قطعیت آن را برای شروع نشان دهم، و سپس چگونه آن را در محاسبه Y منتشر کنم (با فرض اینکه عدم قطعیت در اطراف m در مقایسه ناچیز است. )؟ من به داده های خود به صورت گرافیکی نگاه کرده ام، و به نظر می رسد که آنها بیشتر شکل گاوسی دارند. به عنوان مثال این نموداری از تراکم هسته ویژگی X است:  مقداری انحراف و ناهمواری مشهود است که احتمالاً تحت تأثیر اندازه نمونه کوچک است. بسیار خوب، بنابراین مقادیر نسبتاً زیادی برای برخی از انواع سنگ ها وجود دارد، اما در اصل ما با حجم های بزرگ سروکار داریم، و باید مدل های خود را کمی ایده آل کنیم، بنابراین دنباله هایی مانند شما در منحنی زرد در سمت چپ، در حالی که واقعی هستند، در شبیه سازی عددی ما مورد بررسی قرار نمی گیرند. یک بار یک حرفه ای مسن تر به من گفت که اگر مدل من بتواند حدود 85 درصد مشاهدات را توضیح دهد، باید شامپاین بخرم. این: به نظر می رسد تخمین خطا از اندازه گیری های مکرر سؤال مشابهی باشد، اما من حتی واقعاً پاسخ پذیرفته شده را درک نمی کنم. Std dev/sqrt(n) خطای استاندارد است؟ | چگونه خطای اندازه گیری در داده های پراکنده را مدیریت کنم؟ |
62797 | من یک نمونه با میلیون ها امتیاز دارم. هر نقطه $x$ دارای دو مقدار مرتبط است، فرض کنید $A_{x}$ و $B_{x}$. من مقادیر میانگین A و B را در نمونه محاسبه کردم: $\overline{m}_{A} = 0.19 \quad \text{and} \quad \overline{m}_{B} = 0.21$ توزیعهای مقادیر متفاوت هستند و نرمال نیستند. و انحراف معیار وسیله ناچیز است. آیا می توانم بگویم که میانگین ها از نظر آماری تفاوت معنی داری دارند؟ آیا برای اثبات آن باید آزمون رتبه امضا شده ویلکاکسون را محاسبه کنم؟ | آزمون رتبه امضا شده ویلکاکسون. آیا لازم است؟ |
21416 | من به دنبال یک فرآیند دو مرحله ای تشخیص هستم. مرحله 1 غربالگری است که افراد دارای تشخیص را با مقداری خطا شناسایی می کند، مرحله 2 یک معاینه دقیق است (یک استاندارد طلایی) در مرحله 1، N نفر غربالگری شدند و S به طور مثبت غربالگری شدند. هنگامی که افراد S که مثبت غربالگری شده بودند با جزئیات مورد بررسی قرار گرفتند، مشخص شد که G واقعاً به این بیماری مبتلا بوده است، یک نمونه تصادفی 10٪ از افراد منفی غربالگری شده نیز با جزئیات مورد بررسی قرار گرفتند و مشخص شد که J واقعاً این بیماری را داشته است (منفی کاذب از مرحله اول) شیوع بیماری مجموع مثبت واقعی و منفی کاذب مرحله اول یا (G/S)(S/N) + است. (J/(N-S))((N-S)/S)) = (G+J)/N سوال من این است که خطای استاندارد این تخمین شیوع چیست؟ | خطای استاندارد برای مجموع میانگین های وزنی |
35242 | من به دنبال **مجموعه ای از طبقه بندی کننده های ضعیف** هستم که با **Adaboost** کار می کنند تا روی ** مجموعه داده های محبوب** آزمایش شوند. بیشتر نمونههای موجود در وب از نوعی یادگیرنده ضعیف تصادفی استفاده میکنند که روی مجموعه دادههای تولید شده بهطور تصادفی خودشان کار میکنند. آیا می توانید به من یادگیرندگان ضعیف قابل استفاده اشاره کنید؟ | زبان آموزان ضعیف رایج برای Adaboost |
90003 | من در حال تحقیق در زمینه زبان شناسی هستم و مطمئن نیستم که در مسئله زیر چه آزمونی را انتخاب کنم. یک گروه 26 دانش آموز وجود دارد. از آنها یک سوال پرسیده می شود و دو نوع احتمالی پیشنهاد می شود. 12 نفر از آنها پاسخ اول و 14 نفر از آنها گزینه دوم را انتخاب می کنند. از چه آزمونی استفاده کنم تا از نظر آماری مشخص کنم که آیا دانش آموزان یک پاسخ را بر پاسخ دیگری ترجیح می دهند؟ | تست برای یک دسته |
62798 | من سیستمی دارم که در آن نرخ ورود پواسون فرض میشود، اما شرطی برای پذیرش این ورود وجود دارد که اگر $Z$ (متغیر تصادفی فاصله یکنواخت) $\le$ مقداری $X$ و $X$ میتواند بین آنها متفاوت باشد. مقادیر $[0.5، 0.25، 0.125]$. در واقع X ابتدا مقدار 0.5 را می گیرد و اگر Z>X برای دو بار --> X می شود 0.25 و اگر Z>X برای دو بار دیگر --> X می شود 0.125 و با 0.125 ادامه می دهیم تا Z<=X رخ دهد. چگونه می توانم توزیع نرخ ورود را تحت این شرایط انتخاب کنم؟ | چگونه توزیع نرخ ورود را انتخاب کنیم؟ |
29341 | من می خواهم الگوریتم Baum-Welch را درک کنم. من این ویدیو را در الگوریتم Forward Backward دوست داشتم: http://www.youtube.com/watch?v=7zDARfKVm7s&feature=related من در پیدا کردن منابع خوب برای Baum-Welch مشکل دارم. هر ایده ای؟ با تشکر | آیا توضیحات *بسیار* کاربرپسند (ترجیحاً ویدئویی) در مورد Baum-Welch وجود دارد؟ |
24546 | از ماه گذشته تحصیل در مقطع دکترا را در رشته اقتصاد سنجی شروع کردم. در حال حاضر مشغول مطالعه برخی از دروس اجباری (نظریه احتمالات و استنتاج آماری) و همچنین مرور ادبیات رشته خود هستم. من همچنین میخواهم ریاضیات بیشتری را مطالعه کنم، که فکر میکنم باعث میشود برای تحقیقات رسمیام آمادگی بیشتری داشته باشم. آیا کسی می تواند چند کتاب ریاضی (درسی) پیشنهاد دهد؟ خیلی ممنون | کتاب های ریاضی برای تحصیل در مقطع دکتری اقتصاد سنجی |
88083 | من پیشبینیکنندههایم را در مقابل متغیر پاسخ خود ترسیم کردهام تا بتوانم یک مدل پواسون خوب را با دادههایم تطبیق دهم. با این حال، من آن نمودارهای پراکندگی را برای تقریباً همه پیشبینیکنندهها دریافت میکنم که من را نسبتاً نگران میکند، زیرا گنجاندن این پیشبینیکنندهها باعث میشود که انحراف باقیمانده من به مقدار 575 در df 571 (به اندازه کافی زیاد) برسد، متشکرم | تفسیر نمودارهای پراکندگی |
82808 | آیا من این را به درستی درک می کنم: شما یک مدل با پارامترهای ناشناخته را در یک مجموعه داده قرار می دهید. شما پارامترها را انتخاب می کنید تا احتمال مجموعه داده تحت مدل حداکثر باشد. بگذارید این $L_{max، model1}$ باشد. شما همین کار را با یک مدل پیشرفته تر انجام می دهید. مجدداً ضرایب مدل را انتخاب می کنید تا احتمال وجود مجموعه داده تحت مدل حداکثر باشد. بگذارید این $L_{max, model2}$ باشد برای اینکه ببینید کدام مدل بهترین است، این دو (حداکثر) احتمال را با هم مقایسه کنید. حال آنچه مرا گیج می کند، تعریف آزمون نسبت درستنمایی است: > «نسبت احتمال، نسبت احتمالات دو مدل است... >». آیا نباید نسبت احتمال، نسبت حداکثر احتمالات دو مدل است... باشد؟ | تعریف آزمون نسبت درستنمایی |
8854 | من علاقه مند به تعیین اینکه آیا دو یا چند گروه از داده ها میانگین یکسانی دارند یا خیر، و به نظر می رسد که چارچوب ANOVA روش خوبی برای نزدیک شدن به این موضوع است. با این حال، ANOVA فرض می کند که باقیمانده ها به طور معمول توزیع می شوند، در حالی که هر یک از داده های من عددی بین 0 تا 100 (درصد) است. از آنجا که توزیعهای نرمال از تمام خطوط واقعی پشتیبانی میکنند، دادههای من نمیتوانند به فرض نرمال بودن پایبند باشند. سوال من: **آیا آزمون ANOVA-مانندی وجود دارد که برای پیش بینی درصدها مناسب باشد** (یعنی متغیرهایی که محدود شده است)؟ | آزمون ANOVA مانند برای متغیرهای محدود (درصد) |
58549 | من میخواهم با استفاده از دستور optim یک توزیع هیپربولید تعمیمیافته استاندارد شده را به دادههایم تطبیق دهم. در مورد پست من در اینجا، فکر می کنم باید آن را به صورت دستی و با استفاده از دستور optim امتحان کنم. مشکل من این است که دستور بهینه سازی منجر به مقادیر پارامتر می شود که تعریف نشده اند، بنابراین با پیغام خطا مواجه می شوم: Fehler in if (delta <= 0) stop(delta must be greater of صفر) کد زیر را ببینید ( داده های من را می توانید در اینجا پیدا کنید: library(fBasics) startvalue<-c(1,0,1) loglikstandghyp <-function(zetapar,rhopar,lambdapar){ if(par>0) return(-sum(log(dsgh(mydata,zeta=zetapar,rho=rhopar,lambda=lambdapar)))) else return(Inf) } # پارامتر شکل زتا مثبت است، پارامتر چولگی rho در محدوده (-1، 1) است. optim(startvalue, fn=loglikstandghyp, method=BFGS) param = optim(startvalue,loglikstandghyp, method=BFGS)$par این منجر به نتیجه می شود که optim پارامترها را روی مقداری تنظیم می کند که مجاز نیستند. بنابراین سوال من این است که چگونه می توانم این کار را به درستی انجام دهم؟ R می گوید: پارامتر شکل زتا مثبت است، پارامتر چولگی rho در محدوده (-1، 1) است. من نمی توانم از روش برنت برای ارائه محدوده مجاز برای پارامترها استفاده کنم، زیرا برنت فقط برای مسائل یک بعدی است. بنابراین مشکل استفاده از دستور optim است، اما من باید محدودیت هایی را ارائه دهم، چگونه می توانم این کار را انجام دهم؟ پس از آن، من از دستور .paramGH(zeta,rho,lambda) برای تغییر پارامترسازی به پارامترهای آلفا، بتا، دلتا، مو، لامبدا استفاده می کنم. به نظر شما کاری که من انجام می دهم درست است؟ EDIT: حتی اگر از مقادیر شروع دیگر و روش L-BFGS-B مانند زیر استفاده کنم، باز هم پیام خطا را دریافت می کنم: startvalue<-c(20,0,1) optim(startvalue, fn=loglikstandghyp, method= L- BFGS-B,lower=c(0.00000001,-1,-Inf), upper=c(Inf,1,Inf)) ویرایش: خوب، من اکنون موارد زیر را امتحان کردم: optim(startvalue, fn=loglikstandghyp, method=L- BFGS-B,lower=c(0.00000001,-0.999999999,-Inf),upper=c(Inf,0.99999999,Inf )) این به نظر بهتر است، اما مشکل من اکنون این است که راه حل بسیار وابسته است در مقادیر شروع و من نمی دانم، چه مقادیر شروعی مناسب هستند؟ به عنوان مثال اگر مقادیر شروع را روی `startvalue<-c(100,-0.5,90)` تنظیم کنم: > optim(startvalue, fn=loglikstandghyp, method=L-BFGS-B,lower=c(0.00000001,-0.999999999,-Inf),upper=c(Inf,0.99999999,Inf)) $par [1] 100.0189990 0.312500001,-0.999999999,-Inf) `startvalue<-c(50,0.5,1)`: > optim(startvalue, fn=loglikstandghyp, method=L-BFGS-B”,lower=c(0.00000001,-0.999999999,-Inf),upper=c( Inf, 0.99999999, Inf)) $ par [1] 0.00000001 0.09105067 8.27463528 کاملاً متفاوت است، پس باید چه کار کنم؟ | چگونه با استفاده از Optim یک توزیع هذلولی تعمیم یافته استاندارد شده را به داده های خود منطبق کنم؟ |
26824 | این رگرسیون خطی چند متغیره به معنای متغیرهای وابسته چندگانه (Y) است. داده A هم X (متغیرهای توضیحی) و هم Y دارد، اما داده B فقط Y دارد. نمیدانم آیا راهی برای ترکیب دادههای A و B در مدل رگرسیون وجود دارد. اگر درست به خاطر داشته باشم، تحلیل آماری با داده های از دست رفته توسط لیتل و همکاران، نوعی رویکرد تکراری مانند الگوریتم EM را پیشنهاد کرد که در آن دنبال کردن را تا زمان همگرایی 1 تکرار می کنید. X گمشده را بر اساس مدل رگرسیون فعلی تخمین بزنید. 2. مدل رگرسیون را محاسبه کنید با X کامل تخمین زده شده در #1 اما در این مورد، تمام ستونهای ماتریس X وجود ندارد. بنابراین سؤالات من: 1. آیا رویکرد بالا هنوز مؤثر است؟ یعنی گنجاندن داده های B در مدل به هیچ وجه کمکی می کند؟ 2. اگر چنین است، چگونه می توان ستون های کامل X را تخمین زد؟ به روز رسانی: دلیلی که می خواهم داده B را اضافه کنم این است که داده B داده های خاص برنامه است در حالی که داده A داده های عمومی تر است. من امیدوارم که داده های آموزشی داشته باشم که دارای وزن بیشتری برای فضای ورودی ویژه برنامه باشد. | نحوه رسیدگی به داده های از دست رفته در همه متغیرهای توضیحی در رگرسیون خطی |
101156 | من سعی می کنم کلانشهر پیاده روی تصادفی را در پایتون پیاده سازی کنم تا از یک pdf $f$ تولید کنم که در دامنه تعریف شده است: $$(0, \infty) \times [3, 4] \times (0, \infty)$ $ من از Metropolis Random Walk با نرمال سه متغیره استفاده می کنم. آیا کسی می تواند فقط نگاهی بیندازد و ببیند آیا الگوریتم من درست است؟ def MRW(): #ماتریس کوواریانس matrizCov = np.array([[5,0.0,0.0], [0.0,2,0.0], [0.0,0.0,0.6]]) #آرایه با شامل # زنجیره جهانی زنجیره من خواهد بود حالت اولیه حداکثر نقطه احتمال تابع من cadeia = است np.array([[1.25,3.28,3.54]]) y=np.array([[1.0, 1.0, 1.0]]) #ایجاد 999 حالت زنجیره دیگر برای t در محدوده (999): y[0]=np .random.multivariate_normal(mean = chain[t], cov=matrizCov) #Generates a نامزد جدید برای وضعیت زنجیره در حالی که در دامنه نیست اگر(y[0][0]< 0 یا y[0][1] <3 یا y[0][1] > 4 یا y[0][2] <=0 یا f(y[0])<0): a = 0 other: a = min(1, f(y[0])/f(زنجیره[t]) ) u = np.random.uniform( ) #تولید عدد یکنواخت در (0,1) #تأیید کنید که آیا y[0] پذیرفته میشود if(u <= a):#موردی که y پذیرفته میشود chain = np.append(chain,y,axis=0) else:# مورد که y پذیرفته نمی شود chain=np.append(chain,np.array([chain[t]]), axis=0) خوشحال می شوم اگر کسی بتواند به کد من نگاهی بیاندازد متشکرم! | الگوریتم پیاده روی تصادفی متروپلیس در پایتون |
24543 | من باید برخی از داده های به دست آمده از آزمایش نرم افزار in vivo را تجزیه و تحلیل کنم. متأسفانه من یک مهندس SW هستم، نه یک آمارگیر. مجموعه داده شامل مشاهداتی برای تعدادی از پیام های ارسال شده بین 2 گره است (در واقع، ارسال شده و برگردانده شده است). دو نتیجه ممکن مستقل وجود دارد: 1. پیام پرچم گذاری شد و 2. یکپارچگی پیام از دست رفت. (من همچنین علاقه مند به تجزیه و تحلیل 1 OR 2 و 1 AND 2 هستم.) برای هر پیام، من این موارد را دارم: الف) داده های باینری، همپوشانی، توصیف ویژگی های سیستم فعال شده یا نه (به عنوان مثال، سیستم ممکن است فعال شده باشد. راه اندازی فقط با ویژگی «سفارش کلی»، یا ویژگی های «سفارش کلی و رمزگذاری X» یا هیچ، و غیره). برای هر پیام مجموعهای از 10 ویژگی وجود دارد، فعال یا غیر فعال. این پارامترها کاملاً مستقل از یکدیگر هستند. ب) یک پارامتر از داده های طبقه بندی: پیام در کدام یک از 5 مکان مورد تجزیه و تحلیل قرار گرفته است. ج) در نهایت، من چهار پارامتر برای دسته پیام دارم (از تشخیص خودکار معنایی)، که ممکن است روی «بله»، «نه» یا «نمیتوانم بگویم» تنظیم شود. به عنوان مثال: (فوری، بله) (هماهنگی، نمی توانم بگویم) (انتقادی، بله) (غیر قانونی، نمی توانم بگویم). من سعی می کنم بفهمم آیا ترکیبی از این پارامترها وجود دارد که احتمال وقوع نتایج احتمالی را بیشتر می کند. به عنوان مثال، فعال سازی ویژگی های 3 و 4 در مکان X برای پیام هایی که به عنوان فوری و غیر هماهنگ طبقه بندی می شوند، پیش بینی می کند که پیام ها یکپارچگی را از دست می دهند. من به برخی از تکنیک ها نگاه کرده ام و قبلاً برای استقلال هر متغیر، خی دو را امتحان کرده ام. با این حال، این رویکرد نمی تواند درست باشد: من به ترکیبی از پارامترها نیاز دارم که نتایج را توضیح دهند. چگونه باید برای گرفتن چنین چیزی اقدام کنم؟ | آزمایش دادههای باینری و طبقهای با هم تداخل دارند |
28431 | من در حال نوشتن پایان نامه دکتری خود هستم و متوجه شده ام که برای مقایسه توزیع ها بیش از حد به نمودارهای جعبه تکیه می کنم. کدام گزینه های دیگر را برای دستیابی به این وظیفه می پسندید؟ همچنین میخواهم بپرسم آیا منبع دیگری بهعنوان گالری R میشناسید که در آن بتوانم ایدههای متفاوتی در مورد تجسم دادهها به خودم الهام کنم. | تکنیک های بصری سازی داده ها برای مقایسه توزیع ها چیست؟ |
28438 | من میخواهم بر اساس دادههای تاریخی، پیشبینی رتبه (چیزی شبیه به رگرسیون) انجام دهم، آیا بستهای وجود دارد که بتوانم در R استفاده کنم؟ مشکلات من اینجاست: من یک داده تاریخی از بازی های ورزشی دارم، و تمام رتبه هر تیم و برخی از آمار این تیم ها، می خواهم از این داده ها برای پیش بینی رتبه این تیم ها در سال آینده استفاده کنم. با تشکر | چگونه با استفاده از R پیش بینی رتبه انجام دهیم؟ |
59493 | من مجموعه آموزشی و مجموعه تست را از داده های خود ایجاد کرده ام. سپس auto.arima() و ets() را در R در مجموعه آموزشی برای پیشبینی پیشبینیهای یک مرحلهای جلوتر انجام دادم. سپس این مقادیر با مقادیر مجموعه آزمون برای اندازه گیری خطا، یعنی RMSE، MAPE و MAE مقایسه شدند. این خروجی هر دو ets و auto.arima RMSE.ets است [1] 3767.561 RMSE.ar [1] 3776.308 MAE.ets [1] 2885.112 MAE.ar [1] 2624.482 MAPE.ets [1] 0.042320 1] 0.03857747 که معیارها باید به طور ایده آل برای انتخاب یکی از دو مدل (ets یا auto.arima) برای پیش بینی های آینده استفاده شوند. یا معیار دیگری وجود دارد که من آن را از دست داده ام. لطفا کمک کنید | بهترین معیار اندازه گیری دقت در بین rmse، mae و mape کدام است؟ |
63269 | 1. آیا درست است که علیها بر اساس سالهای پایه مختلف نمایه شوند؟ در میان بسیاری از مراجع، من فکر می کنم پاسخ نه است. آیا این درست است؟ _p.360 Wooldridge [Introductory Econometrics: A Modern Approach, 5th ed]._ می گوید که شما باید یک سال پایه مشترک داشته باشید. فقط رگرسیون «سال پایه مشترک» را در گوگل جستجو کنید و تعداد زیادی پشتیبانی را مشاهده خواهید کرد. 2. آیا داشتن متغیر Y به عنوان شاخص بر اساس 100 مشکلی ندارد؟ به عنوان مثال 100، 98، 103، 101، و غیره. | دو سوال در مورد نمایه سازی و رگرسیون |
92778 | اجازه دهید $A=o_{a.s.}(1)$; $A:k\times k$ ماتریس و $Vu=O_p(1)$; $V:k\times k$; $u: k\ برابر 1$. به طور خاص، $Vu$ در توزیع به $\mathcal N(0,I_k)$ همگرا می شود. آیا می توانیم نشان دهیم که $VAu=o_p(1)$ یا $\|VAu\|=o_p(1)$؟ * * * اگر $V=O(1)$ و $V^{-1}=O(1)$، آنگاه می توانیم نشان دهیم که $VAV^{-1}Vu=o_p(1)$. با این حال، $V^{-1}$ می تواند بدون محدودیت باشد... * * * سوال مرتبط: آیا $Vu=O_p(1)$ و $V=O(1)$ می توانند دلالت بر $u=O_p(1)$ داشته باشند؟ | همگرایی یک محصول ماتریس |
10411 | من چند مجموعه داده از تعامل بین جفت عناصر دارم مانند این: element1 element2 1 element2 element3 1 element4 element5 1 ... element505535 element4 2 که در آن مقدار در ستون 3 قدرت تعامل است. تقریباً همه این نقاط قوت 1 هستند. قدرت 1 به این معنی است که این تعامل یک بار مشاهده شده است. قدرت 2 به معنای 2x و غیره است. من در واقع یک گام فراتر رفته ام و همه مجموعه داده های خود را بر اساس تعداد کل تعاملات مشاهده شده در مجموعه داده عادی کرده ام تا بتوان مقادیر تعامل مجموعه داده ها را با هم مقایسه کرد. 5 تا 6 میلیون تعامل در هر فایل فهرست شده است و هر مجموعه داده به وضوح کمتر نمونه برداری شده است زیرا حدود 500 هزار عنصر وجود دارد (یک ماتریس مربعی با 250 تریلیون موقعیت). من میخواهم این مجموعه دادهها را خوشهبندی کنم تا بتوانم در مورد اینکه کدام نوع از عناصر با کدام نوع عناصر دیگر خوشهبندی میشوند، اظهارنظر کنم. بدیهی است که استحکام خوشه بندی یک عامل خواهد بود - اما این تا حدی با این واقعیت بهبود می یابد که من تکرارهای بیولوژیکی از داده ها خواهم ساخت. من چند روش مختلف خوشهبندی «سادهانگیز» را امتحان کردهام تا ببینم چه کاری میتوانم به راحتی با دادهها انجام دهم. من کاملاً میدانم که اینها روشهای مشکلساز خوشهبندی هستند، یا به این دلیل که قوی نیستند یا به این دلیل که دادهها بسیار کم نمونه هستند، اما کاری که من انجام دادهام این است: 1. تا زمانی که حداقل یک عنصر وجود داشته باشد، عناصر را با هم دستهبندی کنیم. تعامل بین هر عنصر در خوشه و حداقل یک عنصر دیگر در خوشه. وقتی این کار را انجام میدهم، تمام عناصر به یک خوشه ختم میشوند. انجام این کار مهم بود زیرا به من می گوید که هیچ جفت عنصری وجود ندارد که کاملاً از بقیه گروه جدا باشد. 2. یافتن «ابرخوشهها» - یعنی خوشههایی که در آن هر عضو خوشه با هر عضو دیگری از خوشه تعامل دارد (مثلاً یک مثلث برای یک خوشه 3 و یک جعبه با X در وسط برای یک خوشه 4 و غیره. ). این تقریباً به طور انحصاری خوشه هایی با عناصر 2 و 3 را پس از تجزیه و تحلیل حدود 10٪ از داده ها به دست می آورد (این هنوز در حال اجرا است). من دوست دارم بتوانم نوعی خوشه بندی سلسله مراتبی را با استفاده از مقادیر قدرت تعامل خود به عنوان اندازه گیری فاصله بین هر جفت عنصر انجام دهم (برهم کنش های مشاهده نشده دارای قدرت 0 هستند). آیا کسی راهی برای انجام HC بر روی این نوع داده های بزرگ و پراکنده می داند - یا روش خوشه بندی را می شناسد که ممکن است مناسب تر باشد؟ من تا الان از R استفاده کردم | خوشه بندی مجموعه داده های بزرگ و پراکنده |
35247 | من از تابع adk.test (تست AD، بسته adk) برای تخمین اینکه آیا یک نمونه داده از یک خانواده توزیع پیروی می کند استفاده می کنم. سوال من این است که من 'داده' با 100 مقدار دارم، آیا باید توزیع را با 100 مقدار شبیه سازی کنم یا با هر تعداد که می خواهم؟ rnorm(100) یا rnorm(1000000) EDIT: با استفاده از توابع fitdist و gofstat بسته fitdistrplus نتایج زیر را دریافت می کنم: به عنوان مثال: توزیع عادی ad = 1.4491191816923، adtest = رد شد چگونه می توانم اعتبار نتیجه گیری تابع را بررسی کنم؟ من باید ad را با .... همچنین برای همان داده نتایج بسیار متفاوتی با استفاده از adk دریافت می کنم: چارک اول از 100 اجرای adk با 1000 نمونه: p-value = 0.20 دقیقه p-value = 0.05 نتیجه: صفر را نمی توان رد کرد | adk.test: حجم نمونه |
96402 | در R، من از روش تجزیه روی شی سری زمانی خود استفاده می کنم و به من فصلی + روند + مولفه تصادفی می دهد. برای مولفه فصلی، مقدار مطلق را به من می دهد که خوب است، اما من می خواهم شاخص فصلی ماهانه را نیز بدانم (مثلاً مانند ژانویه 084، فوریه 0.90، مارس 1.12، و غیره). آیا راهی سریع برای بدست آوردن این شاخص فصلی در R وجود دارد؟ ضمناً به طور معمول چگونه محاسبه می شود؟ | چگونه شاخص فصلی سری های زمانی را در R محاسبه کنیم؟ |
59490 | 1.AdaBoost وزن نمونه را توسط طبقه بندی کننده ضعیف فعلی در آموزش هر مرحله به روز می کند. چرا از تمام طبقه بندی کننده های ضعیف قبلی برای به روز رسانی وزن استفاده نمی کند. **(من آن را آزمایش کرده بودم که اگر از طبقه بندی کننده های ضعیف قبلی برای به روز رسانی وزن استفاده کنم، به آرامی همگرا می شود)** 2. پس از به روز رسانی باید وزن را به 1 نرمال کند (فقط باید ضریب را ضرب کرد). من فکر می کنم این مرحله را می توان در اجرا حذف کرد. درسته؟ | به روز رسانی وزن در adaboost |
59495 | در آماده سازی برای امتحان پایان ترم R، من روی فایل CSV زیر کار کرده ام که از R الگوبرداری شده است، که در حال حاضر در کشف آن با مشکل مواجه هستم.   برای بررسی در این شماره تصمیم گرفتم یک متغیر دوخطی (SxPR) را معرفی کنم که ضرب متغیر S (ظرفیت نیروگاه) و متغیر طبقه بندی شده PR (خواه LWR باشد). قبلاً در همان سایت وجود داشت) و این را می توان در داده های اکسل مشاهده کرد. مدل فعلی من که از من خواسته شده است «شرایط مناسب» را به آن اضافه کنم تا بررسی کنم که آیا دلیل خوبی برای این باور وجود دارد که تأثیر ظرفیت نیروگاه بر هزینه های ساخت و ساز ممکن است برای نیروگاه هایی که دارای LWR هستند یکسان نباشد. در همان سایت قبلی و آنهایی که این کار را نکردند این است:  معادله $C = -9752+ 140.3*D + 4.868*T2+ 0.4180*S- 86.49*PR+ 153.2*NE- 8.38*N$ بنابراین اساساً باید تأیید کنم که کاری که در حال حاضر برای حل این مشکل انجام داده ام صحیح است یا اگر نه، چه چیزی دیگر می توانم انجام دهم زیرا با این سوال مشکلات زیادی داشتم.  من به این نتیجه رسیدم که نتایج نشان می دهد که عبارت دوخطی (SxPR) دارای p-value> 0.05 است که نشان می دهد هیچ تعاملی بین S و PR (زیرا SxPR پیش بینی کننده قابل توجهی برای مدل نیست). این باعث میشود که من باور کنم تأثیر ظرفیت نیروگاه بر هزینه ساخت برای نیروگاههایی که قبلاً در همان سایت یک LWR وجود داشت و آنهایی که نداشتند یکسان نیست. برای حمایت از این استدلال، نمودار پراکندگی زیر رابطه بین هزینه ساخت و ظرفیت نیروگاه را بسته به اینکه قبلاً یک LWR در همان سایت وجود داشته است یا خیر نشان می دهد. صلیب ها قطعات ظرفیت نیروگاهی هستند که در آن LWR قبلاً در همان سایت وجود نداشت و الماس هایی که قبلاً یک LWR در همان سایت وجود داشت.   کسی دوست دارد موافقم من در مسیر درستی هستم پوزش بابت طولانی شدن سوال امیدوارم منطقی باشد! | بررسی برهمکنش دو پیش بینی کننده با استفاده از نرم افزار R |
28439 | همکار توجه من را به مقاله بحث زیر جلب کنید. به نظر من این مقاله بحث به وضوح به عنوان نقدی بر مقالاتی است که به طور معمول در این زمینه منتشر می شود. مقاله بحث رشد تولید ناخالص داخلی را با طول قسمت خاصی از بدن مرد مرتبط می کند. این رابطه به وضوح غیرمعنا است، اما نویسنده استدلال کاملاً قانعکنندهای با پشتوانه دادهها و تحلیلهای آماری معقول (در نگاه اول) ارائه میکند. سوال من این است که آیا اشکالات آماری در استدلال های نویسنده وجود دارد؟ این مقاله در وبلاگ Freakonomics ذکر شده است. | خطاهای آماری مقاله مربوط به رشد تولید ناخالص داخلی با یک متغیر غیرمعنی خاص |
67565 | آیا وزن یک شبکه عصبی بدون لایه پنهان و تابع فعال سازی لجستیک باید با پارامترهای یک رگرسیون لجستیک یکسان باشد؟ مال من یکی نیست؟ nnallnohidden=nnet(PartialPrepayzo~FIXPER+MEDSAL2+DREL+LEEFTIJD+HH2CRED+LTV_curr+ rate1Y+rate5Y+CIremFIRP+URB+WELSTAN2+OutNot+mover+SavRate+CRate، data=ski، size=0) glm(PartialPrepayzo~FIXPER+MEDSAL2+DREL+ LEEFTIJD+HH2CRED+LTV_curr+rate1Y+rate5Y+CIremFIRP+URB+WELSTAN2+OutNot+mover+SavRate+CRate، داده = آزمایش، خانواده = «خلاصه (دو جمله ای)») ] [,2] [1,] -1.029560622391 -1.26664018566 [2،] -0.078225500455 -0.06536644222 [3،] 0.410455341173 0.670361072504 0.670361072506 [670361072504] -0.11463794856 [5،] 0.473629162069 0.70074482878 [6،] 0.614550199698 0.83536187570 [7،] -0.6128327570 [7،] -0.6128327570 [7،] -0.6128327570 -0.743739495966 -1.06994471577 [9،] 0.200419240204 0.83957097597 [10،] -0.166568966328 -0.505832717715 -0.505832717715] 0.12678131085 [12،] -0.005947704128 -0.04248886193 [13،] -0.428175932694 -1.69521649738 [14،] 0.0494886572 [15،] 1.602200661890 2.50479250068 [16،] 0.367771764513 0.96127873663 | آیا وزن شبکه عصبی بدون لایه پنهان باید با رگرسیون لجستیک مطابقت داشته باشد؟ |
34312 | من به صورت آنلاین خواندم که فقط زمانی که با یک نمونه کار می کنید به جای کل جمعیت، استفاده از Adjusted-$R^2$ ضروری است. داده هایی که من با آنها کار می کنم اطلاعاتی در مورد یک سری سمینارهای آموزشی زنده است. هر نقطه داده نشان دهنده یک سمینار واحد است که در گذشته برگزار شده است و حاوی اطلاعات مختلفی در مورد ویژگی های آن برنامه است. در تلاش برای تصمیم گیری برای استفاده از $R^2$ یا تنظیم-$R^2$، می توانم دو روی مختلف سکه را ببینم. 1. از آنجایی که مجموعه داده من شامل تمام سمیناریهایی است که تا به امروز برگزار کردهایم، من با کل جمعیت کار میکنم، بنابراین باید با $R^2$ قدیمی معمولی استفاده کنم. 2. جمعیت مورد علاقه واقعاً همه سمینارهای _ممکن_ هستند، از جمله سمینارهایی که هنوز اتفاق نیفتاده اند، به خصوص که هدف من در این مدل درک بهتر رابطه عوامل آینده است. بنابراین من به دنبال یک نمونه هستم و باید از adjusted-$R^2$ استفاده کنم. کدام منطق صحیح است و از کدام معیار همبستگی استفاده کنم؟ | آیا باید از r-square استفاده کرد یا از r-square تعدیل شده با حجم نمونه کوچکی که ممکن است کل جامعه را نشان دهد؟ |
62134 | کارآمدترین راه برای یافتن مجموعه ای از 5 نقطه صلب، همسطح و غیر هم خط در یک ابر نقطه سه بعدی مثلاً 100 نقطه چیست؟ (1) پیکربندی با مختصات 2 بعدی (یا به صورت 3 بعدی با z=0) مشخص می شود. نقاط موجود در پیکربندی و نقاطی که در ابر نقطه ای که می خواهیم جستجو کنیم در مختصات متریک مشخص شده اند. (2) جستجو باید برای ابرهای چند نقطه برای همان پیکربندی تکرار شود. (3) هدف یافتن سریعترین روش است. (من همین سوال را در انجمنهای stackoverflow، ریاضیات و نظری علوم کامپیوتر امتحان کردم، بنابراین فکر کردم در صورتی که این مشکل مربوط به تجسم دادهها باشد، اینجا را امتحان کنم.) | قرار دادن مجموعه ای از 5 نقطه محدود هندسی در ابری از نقاط |
19250 | من سعی میکنم مدلی را برای دادههای توزیع شده دوجملهای برازش دهم، که این کار را از طریق روش حداکثر درستنمایی انجام دادهام. معمولاً من با دادههای توزیع شده معمولی کار میکنم (یا دادههایی که میتوانم خودم را متقاعد کنم و گاهی اوقات دیگران به طور معمول توزیع میشوند) و در مورد نحوه یافتن خطاهای نامتقارن در پارامترهایم کمی گیج هستم. معمولاً با اسکن فضای پارامترهای برازش شده و یافتن سطحی که X^2 یک بزرگتر از بهترین مقدار مناسب است، عدم قطعیت ها را پیدا می کنم. من برخی اظهارات اثبات نشده پیدا کرده ام که نشان می دهد این روش صرف نظر از اینکه آیا از حداکثر احتمال گاوسی استفاده می شود یا نه قابل اجرا است. آیا این مورد است؟ | عدم قطعیت در پارامترهای برازش حداکثر احتمال |
90000 | من می خواهم اندازه نمونه را برای رگرسیون لجستیک پیدا کنم که در آن یک متغیر کمکی با 15 سطح دارم و متغیرهای کمکی با زمان تعامل دارند، به این معنی که تأثیر متغیرهای کمکی برای دوره های زمانی مختلف متفاوت است. آیا کسی می تواند به من کمک کند تا اندازه نمونه و اندازه اثر را پیدا کنم؟ ای کاش می توانستم این کار را با استفاده از شبیه سازی انجام دهم. آیا کدی در SAS یا R وجود دارد؟ | محاسبه اندازه نمونه برای رگرسیون لجستیک با استفاده از شبیه سازی |
35048 | اخیراً من در حال مطالعه یک مسئله احتمال مربوط به توزیع ابر هندسی چند متغیره هستم. مشکل به صورت زیر بیان میشود: > با توجه به توپهای $n$ با رنگهای $m$ که به خوبی مخلوط شدهاند، و فرض کنید که $n_i$ تعداد > توپهای با رنگ $i$ است، جایی که $i \in {1، ... ، m}$. بنابراین ما داریم > $\sum_{i=1}^{m}n_i = n$ > > قرعه کشی های تصادفی $k$ را بدون جایگزینی انجام دهید. احتمال اینکه ترسیم > $k$-th رنگی باشد که از ترسیمات $(k-1)$ قبلی کشیده شده است چقدر است؟ راه حل ساده من به این صورت است: کل دنباله های توپ ممکن برای $i$ قرعه کشی خواهد بود: $P(n، k)$ که در آن $P(n، k)$ جایگشت آیتم های $k$ از آیتم های $n$ است. . و در بین این دنباله ها، فقط آنهایی که حداقل یک بار رنگ توپ آخر را داشته باشند، نیاز را برآورده می کنند. بنابراین، توالیهای ممکن، همه دنبالهها خواهند بود، به جز مواردی که هیچ یک از ترسیمهای $(k-1)$ حاوی رنگ آخرین توپ نباشد: $P(n, k) - \sum_{i=1}^{m} n_i*P(n-n_i، k-1)$ بنابراین احتمال را می توان به صورت زیر محاسبه کرد: $1 - {{\sum_{i=1}^{m}n_i*P(n-n_i, k-1)}\over{P(n, K)}}$ اکنون سؤالات من این است: 1. آیا راه حل ساده لوحانه من درست است ، یا مواردی وجود ندارد یا با هم تداخل دارند؟ 2. من سعی کردم یک برنامه کامپیوتری بنویسم تا احتمال داده شده $n، m$ و $k$ را محاسبه کنم، اما به لطف جایگشت ها، برای ورودی های بزرگ بسیار کند است. آیا فرمول ساده تری (به این سرعت در محاسبه) برای این احتمال وجود دارد، مانند فرمول فرم بسته؟ هر گونه راهنمایی قابل قدردانی است، و اگر درک سوال خیلی سخت است به من اطلاع دهید | رسم توپ از مجموعه ای از توپ های رنگی: احتمال ترسیم رنگی که قبلا دیده شده است؟ |
62795 | برای مثال ساده فرض کنید که دو مدل رگرسیون خطی وجود دارد * مدل 1 دارای سه پیش بینی کننده 'x1a'، 'x2b'، و 'x2c' است * مدل 2 دارای سه پیش بینی از مدل 1 و دو پیش بینی اضافی 'x2a' است و `x2b` یک معادله رگرسیون جمعیت وجود دارد که در آن واریانس جمعیت توضیح داده شده $\rho^2_{(1)}$ برای مدل 1 است و $\rho^2_{(2)}$ برای مدل 2. واریانس افزایشی توضیح داده شده توسط مدل 2 در جامعه $\Delta\rho^2 = \rho^2_{(2)} - \rho^2_{( 1)}$ من علاقه مند به بدست آوردن خطاهای استاندارد و فواصل اطمینان برای برآوردگر $\Delta\rho^2$ هستم. در حالی که این مثال به ترتیب شامل 3 و 2 پیش بینی کننده است، علاقه پژوهشی من به طیف گسترده ای از تعداد مختلف پیش بینی کننده ها (به عنوان مثال، 5 و 30) مربوط می شود. اولین فکر من این بود که از $\Delta r^2_{adj} = r^2_{adj(2)} - r^2_{adj(1)}$ به عنوان تخمینگر استفاده کنم و آن را بوت استرپ کنم، اما مطمئن نبودم که آیا این مناسب خواهد بود. ### سؤالات * **آیا $\Delta r^2_{adj}$ برآورد معقولی برای $\Delta \rho^2$ است؟** * **چگونه می توان یک فاصله اطمینان برای تغییر r-square جمعیت به دست آورد؟ (یعنی $\Delta\rho^2$)؟** * **آیا راه اندازی $\Delta\rho^2$ برای فاصله اطمینان مناسب است محاسبه؟** هر گونه ارجاع به شبیه سازی ها یا ادبیات منتشر شده نیز بسیار استقبال می شود. ### کد مثال اگر کمک کند، من یک مجموعه داده شبیهسازی کوچک در R ایجاد کردم که میتوان از آن برای نشان دادن پاسخ استفاده کرد: n <- 100 x <- data.frame(matrix(rnorm(n *5)، ncol=5) ) names(x) <- c('x1a', 'x1b', 'x1c', 'x2a', 'x2b') بتا <- c(1،2،3،1،2) model2_rho_square <-.7 error_rho_square <- 1 - model2_rho_square error_sd <- sqrt(error_rho_square / model2_rho_square* sum (beta^2)) model1_rho_sum ^2) / (sum(beta^2) + error_sd^2) delta_rho_square <- model2_rho_square - model1_rho_square x$y <- rnorm(n, beta[1] * x$x1a + beta[2] * x$x1b + beta[3] * x$x1c + بتا[4] * x$x2a + بتا[5] * x$x2b، error_sd) c(delta_rho_square, model1_rho_square, model2_rho_square) summary(lm(y~., data=x))$adj.r.square - summary(lm(y~x1a + x1b + x1c, data=x))$adj. r.square ### دلیل نگرانی در مورد بوت استرپ من یک بوت استرپ را اجرا کردم در برخی از داده ها با حدود 300 مورد، و 5 پیش بینی در مدل ساده و 30 پیش بینی در مدل کامل. در حالی که تخمین نمونه با استفاده از اختلاف r-square تعدیلشده «0.116» بود، فاصله اطمینان تقویتشده عمدتاً CI95٪ (0.095 تا 0.214) بزرگتر بود و میانگین راهاندازها به برآورد نمونه نزدیک نبود. به نظر میرسد میانگین نمونههای تقویتشده بر روی تخمین نمونه از تفاوت بین r-squares در نمونه متمرکز است. این در حالی است که من از مربع های r تنظیم شده نمونه برای تخمین تفاوت استفاده می کردم. جالب اینجاست که من یک روش جایگزین برای محاسبه $\Delta\rho^2$ را امتحان کردم. تخمین $\Delta \rho^2$ را به `.082` کاهش داد، اما فواصل اطمینان برای روشی که ابتدا ذکر کردم، CI95% مناسب به نظر می رسید. (.062, 0.179) با میانگین 0.118. به طور کلی، من نگران این هستم که bootstrapping فرض میکند که نمونه، جامعه است، و بنابراین تخمینهایی که کاهش برای اضافهبرازش ممکن است عملکرد مناسبی نداشته باشد. | نحوه بدست آوردن فاصله اطمینان در تغییر مربع r جمعیت |
24544 | من ماتریس اصلی را تعریف می کنم: 1 2 3 4 5 6 7 8 به صورت زیر: PROC IML; تنظیم مجدد NOPRINT؛ ماتریس = {1 2 3 4، 5 6 7 8}; EXIT: من به دنبال نمونهبرداری مجدد از هر ردیف (برای استفاده از bootstrap) با جایگزینی هستم، بنابراین ماتریسهایی مانند: 1 3 4 2 6 6 5 5 و 1 1 3 2 5 6 6 8 را چگونه میتوان انجام داد؟ | نمونه برداری مجدد با SAS/IML |
19256 | من دادههای بقای زیر را دارم و یک طرح بقا ساختهام، اما نمیتوانم نقاط سانسور شده درست را علامتگذاری کنم (که باعث میشود فکر کنم نمودار بقای من نیز نادرست است) - لطفاً چگونه میتوانم این را مدیریت کنم؟ حالا جواب داد! -   | چگونه می توانم منحنی بقا را با علائم سانسور درست نمایش دهم؟ |
90886 | بنابراین من به دنبال مقایسه ترکیب های مختلف ویژگی ها و طبقه بندی کننده ها هستم. اما من ترکیبهای زیادی را دریافت میکنم که به دقت اعتبارسنجی متقابل 100٪ دست مییابند. من سعی می کنم بفهمم که چگونه می توانم مفید بودن هر ترکیب را مقایسه کنم. به عنوان مثال، من میتوانم هر دو یک SVM را با استفاده از ویژگیهای 1، 10، 15 آموزش دهم تا دقت 100% را به دست بیاورم. اما در عین حال میتوانم یک طبقهبندی کننده رگرسیون لجستیک را فقط با استفاده از ویژگی 7 آموزش دهم تا دقت 100٪ را به دست بیاورم. همچنین این یک مشکل طبقه بندی باینری است. | چگونه می توان ویژگی ها و طبقه بندی کننده هایی را که به دقت کامل دست یافتند، مقایسه کرد؟ |
58540 | من نسخه دوم تجزیه و تحلیل سری زمانی مالی را مرور می کنم و در بخش ARMA هستم. یکی از تکنیکهای انتخاب مدل، محاسبه تابع همبستگی خودکار توسعهیافته است، که نشان میدهد، در جدول EACF با ضرایب MA که در بالا و ضرایب AR در پایین فهرست شدهاند، EACF در سمت چپ بالا که کمتر از مقدار مطلق 2 برابر خطای استاندارد EACF در موقعیتی است که انتخاب خوبی برای سفارشات مدل را نشان می دهد. لطفا کسی می تواند به من توضیح دهد که EACF دقیقا چیست؟ | با توجه به سری های زمانی ARMA، eacf (عملکرد همبستگی خودکار توسعه یافته) دقیقا چیست؟ |
91444 | من خودم دارم مطالعه می کنم و متن می گوید «اگر $\epsilon_\alpha$ مقدار بالای $\alpha$-quantile توزیع $\frac{\hat{\theta}-\theta}{\hat{ باشد. \sigma}}$، سپس $P(\hat{\theta}-\epsilon_\beta\hat{\sigma}\leq \theta \leq \hat{\theta}-\epsilon_{1-\alpha}\hat{\sigma} )\geq 1-\beta-\alpha$.» با این حال، از ویکی، من فکر می کنم ما این $P(\hat{\theta}-\epsilon_\beta\hat{\sigma}\leq \theta)=P(\frac{\hat{\theta}-\theta را داریم }{\hat{\sigma}}\leq \epsilon_\beta)\geq \beta$، همراه با $P(\hat{\theta}-\epsilon_{1-\alpha}\hat{\sigma}\geq \theta)=P(\frac{\hat{\theta}-\theta}{\hat{\ sigma}}\geq \epsilon_{1-\alpha})=1-P(\frac{\hat{\theta}-\theta}{\hat{\sigma}}< \epsilon_{1-\alpha})\geq 1-(1-\alpha)=\alpha$، دلالت بر این دارد که $P(\hat{\theta}-\epsilon_\beta\hat{\sigma}\leq \theta \leq \hat{\theta}-\epsilon_{1-\alpha}\hat{\sigma} )\geq \beta-\alpha$. پس کجا اشتباه کردم؟ من در حال خواندن آمار مجانبی، نوشته Van der Vaart، در صفحه 326 هستم | توزیع یک پارامتر تخمین زده شده |
100223 | من همه جا را برای این پاسخ جستجو کردم و دست خالی آمدم. من در حال ساخت یک مدل پیشبینی برای ترافیک رابط گزارش شده در فواصل 5 دقیقهای در یک دوره 1 ساله هستم. برای توضیح فصلی بودن چندگانه، به این نتیجه رسیدم که تابع TBATS در R بسیار مفید خواهد بود (با فصول 60/5*24=288 و 7 برای 7 روز در هفته). ترسیم شی TBATS خروجی زیر را تولید کرد:  و در حالی که فکر می کنم درک خوبی از معنای فصلی دارم، مطمئن نیستم که چگونه شیب و سطح را تفسیر کنم. من فکر می کنم که شیب اولین مشتق از روند است (بنابراین از آنجایی که به طور مداوم مثبت است، روند با نرخ های مختلف در حال افزایش است)، اما من کاملاً گیج هستم که چه سطحی را نشان می دهد. آیا چیزی قابل مقایسه با نمودار باقیمانده در تجزیه و تحلیل STL وجود دارد همچنین من کاملاً مطمئن نیستم که مقادیر زمانی در امتداد پایین نشان دهنده چیست. توضیح در مورد آن بسیار قدردانی خواهد شد.  | تفسیر اجزای TBATS |
24548 | تابع توزیع احتمال متغیر $y$ که توسط $$y=\frac{x_1}{x_1-x_2}،\quad \: x_i\ge 0، $$ داده شده است با توجه به اینکه $x_1$ و $x_2$ هستند چیست؟ مستقل و به طور یکسان توزیع شده و $$x_i = c+z_i،\quad i=1,2 $$ که در آن $c$ یک ثابت غیرمنفی واقعی است و $z_i\sim\chi^2_\nu$. | تبدیل متغیرهای تصادفی |
32733 | مجموعه ای از تقریباً 100 جدول متقاطع (بیشتر دو بعدی، اما برخی سه بعدی) بر اساس یک مجموعه داده واحد و در عین حال در دسترس به من داده شده است. وظیفه من انجام تست های آماری پایه ($\chi^2$، Mann-Whitney، Kruskal-Wallis، و غیره) است. من میتوانم آنها را با دست محاسبه کنم، زیرا استفاده از روشهای کارآمد که به طور خودکار شکلها، جداول و موارد زیبای Excel را میسازد، بیش از یک مرتبه سریعتر خواهد بود. متأسفانه ابزارهای من از پایگاه داده به عنوان ورودی استفاده می کنند و نمی توانم آنها را با خلاصه ها تغذیه کنم. صفحات متقاطع همپوشانی دارند، یعنی اگر یک تلاقی بین var1 و var2 باشد، می تواند بین $var1 \times var3$ باشد. آیا نرم افزار موجود (مثلاً در R) وجود دارد که بتوانم از آن برای ایجاد هر پایگاه داده (مجموعه داده) استفاده کنم که با تمام جدول بندی های داده شده مطابقت داشته باشد؟ (می دانم که بازسازی پایگاه داده از جداول متقاطع یک مشکل منحصر به فرد نیست. می دانم که همه بهتر خواهند بود که یک پایگاه داده مناسب برای شروع داشته باشند.) O O O من گمان می کنم که راه حل آماده ای وجود ندارد، بنابراین نوشتن یک را تنظیم کردم: هر crosstab را می توان به عنوان مجموعه ای از معادلات خطی نوشت (یک معادله برای هر فرکانس شناخته شده، ضرایب برابر با 1 یا 0)، بنابراین از نظر ریاضی، من مشکل را معادل پیدا کردن می بینم. حل عدد صحیح برای مجموعه معادلات خطی این مشکل از دامنه برنامه نویسی عدد صحیح است، درست مانند mr. ووبر پیشنهاد کرد متأسفانه در اندازه بازدارنده معادلات مشکل وجود دارد. تنها راهی که می توانم فکر کنم این است که مجموعه داده را به گروه های $\text{no}(var1) \times \text{no}(var2) \times \text{no}(var3)$ تقسیم کنم، جایی که $\text{ no}(var)$ تعداد سطوح (گروه) متمایز متغیر var را نشان می دهد. ممکن است برای این مثال ساده خوب باشد، اما در مورد من، وقتی تمام اعداد سطوح هر متغیر را ضرب میکنم، به عدد نجومی به ترتیب $10^{25}$ میرسم. و من گمان میکنم که بهینهسازی ماتریسهای پراکنده کمکی نمیکند، بنابراین تمام آنچه که نوشتم ممکن است فقط یک بنبست باشد. آیا کسی ایده ای در مورد چگونگی حل این مشکل دارد؟ | چگونه پایگاه داده را از داده های جدول بندی شده بازسازی کنیم؟ |
1555 | من جدول فرکانس زیر را دارم: 35 0 4 3 7 6 5 4 39 1 9 6 7 7 6 8 36 0 7 10 11 11 10 16 41 0 9 8 8 7 6 7 41 0 8 9 10 11 9 25 9 11 12 11 13 55 1 10 10 11 10 12 11 47 1 14 8 12 15 12 12 45 1 10 11 10 10 9 18 56 0 13 16 12 12 12 8 12 15 12 12 45 MS Chi-sq Prob>Chi-sq Columns 25306.8 7 3615.26 47.16 5.18783e-008 Error 17083.2 72 237.27 مجموع 42390 79 با توجه به مقایسه چندگانه از میانگین گروه های مختلف از Sixn در رتبه های متوسط *1. شش گروه از میانگین به طور قابل توجهی متفاوت از گروه 2 (ستون 2) * * * اکنون آزمون های Kruskal-Wallis و مقایسه های متعدد منطقی هستند، با این حال آزمون Chi Square مقدار مجذور کای 31.377 و مقدار p 0.9997 را برمی گرداند که منجر می شود. فرضیه صفر مستقل بودن فرکانس ها را بپذیریم. من میدانم که یک فرض ANOVA استقلال است، اما... میخواهم ببینم آیا فرکانسها از نظر آماری مستقل هستند، آیا آزمونهای Kruskal-Wallis و مقایسه چندگانه روششناسی صحیحی بود؟ توجه: من سعی نمیکنم ذهنی باشم، اما برای مجموعهای از فرکانسها، چگونه آزمایش میکنید که تفاوتهای بین گروهها قابل توجه است؟ | آزمایش کنید که آیا تفاوت بین فرکانس ها قابل توجه است یا خیر |
92384 | من در حال خواندن این فصل اصول پیش بینی و تمرین از یک کتاب پیش بینی هستم. نویسنده یک مدل رگرسیون خطی را توضیح داده است. اکنون این مدل رگرسیون خطی قطعاً دارای برخی خطاها در برازش خواهد بود. برای این خطاها، نویسنده ویژگی های شنیداری خاصی دارد که باید مورد توجه قرار گیرد. او فرض می کند که این خطاها: 1. به معنای صفر باشد. در غیر این صورت پیش بینی ها به طور سیستماتیک مغرضانه خواهد بود. 2. همبستگی خودکار ندارند. در غیر این صورت، پیش بینی ها ناکارآمد خواهند بود زیرا اطلاعات بیشتری برای بهره برداری در داده ها وجود دارد. 3. با متغیر پیش بینی کننده ارتباط ندارند. در غیر این صورت اطلاعات بیشتری وجود دارد که باید در بخش سیستماتیک مدل گنجانده شود. مشکل این است که من نمی توانم اینها را درک کنم و مثالی بیاورم تا به این نکات پی ببرم. آیا کسی می تواند به چند مثال / موقعیت از زندگی روزمره اشاره کند تا این نکات را درک کند. به عنوان مثال نویسنده در نقطه 2 نوشته است.] ... اطلاعات بیشتری برای بهره برداری در داده ها وجود دارد... این اطلاعات چیست؟ چگونه به وجود می آید؟ اگر من حتی نمی دانم این اطلاعات چگونه به وجود می آیند، پس چگونه می توانم وجود یا تأثیرات آن را برای آن موضوع درک کنم؟ آیا توضیح ساده همراه با مثال برای سوال من وجود دارد؟ من خیلی وقته سعی کردم اینو بفهمم لطفا راهنمایی کنید | پیش بینی و همبستگی خودکار |
34318 | آیا کسی از پارامترسازی مجدد هر تابع s شکل نامتقارن (مثل، اما نه لزوماً منحنی لجستیک 5 پارامتر) آگاه است، که در آن یکی از پارامترها اولین نقطه عطف اولین مشتق (یعنی حداکثر مشتق دوم) است. ). منظورم **نقطه 1** در شکل بالا است:  (تصویر نقطه ذکر شده در بالا را برای حالت یک تابع لجستیک متقارن). دکر). با این حال، من فقط پارامترهایی را پیدا کردم که یکی از پارامترها نقطه عطف تابع است (نقطه 2 در شکل بالا). متأسفانه، محاسبه این نقطه پس از تخمین در مورد من راه حل ممکنی نیست زیرا این پارامتر باید در معادله دیگری که به طور همزمان تخمین زده می شود ادغام شود. | پارامترسازی مجدد یک تابع s شکل نامتقارن |
79735 | از انتخاب مدل من بر اساس معیارهای اطلاعاتی مانند SBIC یک مدل ARMA(0,0) به من برمیگرداند. آیا باید آن را انتخاب کنم یا رد کنم؟ و چرا؟ در این مورد به راهنمایی نیاز دارید | آیا انتخاب ARMA(0,0) اشتباه است؟ |
35049 | من نمونه هایی از داده ها دارم که از 6 ویژگی تشکیل شده اند. هر صفت مقادیری بین 1-10 می گیرد. هر نمونه دارای ابزاری است که توسط برخی از تابع های کاربردی محاسبه می شود: مثال: {1,1,2,5,5,2} , utility = 0.89 در برخی از خوانش های این مقادیر مشخصه، مقادیر تعریف نشده ممکن است در نمونه ظاهر شوند، من آنها را به عنوان علامت گذاری می کنم. علامت سوال ؟ مثال: {1,1,?,5,?,2} این علامتهای سوال عدم قطعیت را در نمونه نشان میدهند. چگونه می توانم این عدم قطعیت را به روش آماری یا ریاضی مدل کنم؟ با تشکر | مدل سازی عدم قطعیت برای نمونه ها |
24540 | نمیدانم که آیا میتوان در R یک خوشهبندی از متغیرهای دادههای مختلط انجام داد؟ به عبارت دیگر، من یک مجموعه داده حاوی متغیرهای عددی و دستهبندی دارم و بهترین راه را برای خوشهبندی آنها پیدا میکنم. در SPSS از خوشه دو مرحله ای استفاده می کنم. من نمی دانم که آیا در R می توانم تکنیک های مشابهی پیدا کنم. پیشاپیش ممنون به من در مورد بسته poLCA گفته شد، اما مطمئن نیستم ... | خوشه بندی متغیرهای طبقه ای با R |
55134 | من الگوریتمهای مختلفی را برای تخمین بهترین تعداد سطلها برای استفاده در هیستوگرام پیادهسازی میکنم. اکثر مواردی که من پیادهسازی میکنم در صفحه ویکیپدیا توضیح داده شدهاند: https://en.wikipedia.org/w/index.php?title=Histogram&oldid=548769683#Number_of_bins_and_width * من در یک مشکل با فرمول Doane گیر کردهام: 1 + log(n) + log(1 + kurtosis(داده) * sqrt(n / 6.)) که در آن n اندازه داده است. مشکل زمانی است که کشش منفی و 'n >> 1' باشد زیرا آرگومان log منفی می شود. * (این صفحه از زمانی که این پست ارسال شده تغییر کرده است، پیوند ویرایش شد تا به صفحه همانطور که در زمان ارسال بود اشاره کند) | فرمول Doane برای Bining هیستوگرام |
78395 | من از رگرسیون رج برای محاسبه وزن های بهینه مجموعه ای از امتیازها استفاده می کنم. این نمرات همبستگی دارند بنابراین استفاده از رگرسیون برجستگی برای جریمه کردن مقادیر زیاد وزن ها استفاده می شود. بنابراین هدف از رگرسیون پشته یافتن بتا است که موارد زیر را به حداقل برساند: $$ \sum_i{(y_i - x^T_i\beta_i)^2} + \lambda \sum_j{\beta^2_j} $$ **سوال من این است ** : چگونه یک مقدار بهینه برای لامبدا، _به معنای اعتبارسنجی متقاطع_ انتخاب کنم؟ من در درک مفهومی این مشکل دارم. در طبقهبندی، اعتبارسنجی متقاطع ساده است- دادهها را به k-fold تقسیم کنید، روی k-1 fold آموزش دهید، در آخرین فولد پیشبینی کنید و خطای پیشبینی را در همه تاها میانگین کنید. این چگونه برای رگرسیون کار می کند؟ من میتوانم مجموع فاصلههای مجذور هر چین را اندازهگیری کنم، اما این در معرض نویزهای پرت است. دلیل استفاده از رگرسیون پشته به جای رگرسیون استاندارد در وهله اول، به حداقل رساندن این نبود. من به مقاله زیر نگاه کردم اما هنوز رویکرد کلی استفاده از اعتبارسنجی متقاطع برای انتخاب یک مدل رگرسیون پشته بهینه را درک نمیکنم. | اعتبار سنجی متقاطع برای رگرسیون ریج |
35040 | فرض کنید من چندین بار به طور مستقل از هر یک از دو توزیع نرمال نمونه برداری می کنم. با توجه به میانگین، انحراف معیار و تعداد نمونهها از هر توزیع، چگونه میتوانم احتمال اینکه بیشترین مقدار نمونهگیری شده از توزیع اول به دست آمده را محاسبه کنم؟ من می توانم این سوال را با شبیه سازی عددی حل کنم، اما یک عبارت تحلیلی پیدا نکرده ام. | کدام توزیع احتمالاً منبع بیشترین ارزش است؟ |
35590 | من نتوانستم بفهمم که چگونه رگرسیون خطی را در R برای طراحی اندازه گیری مکرر انجام دهم. در سوال قبلی (هنوز بی پاسخ) به من پیشنهاد شد که از lm استفاده نکنم بلکه از مدل های ترکیبی استفاده کنم. من از «lm» به روش زیر استفاده کردم: lm.velocity_vs_Velocity_response <- lm(Velocity_response~Velocity*Subject, data=mydata) (جزئیات بیشتر در مورد مجموعه داده را می توان در پیوند بالا یافت) اما نتوانستم در هر مثالی را با کد R که نحوه انجام تحلیل رگرسیون خطی را نشان می دهد را به اینترنت متصل کنید. چیزی که من میخواهم از یک طرف نموداری از دادهها با خط متناسب با دادهها و از سوی دیگر مقدار $R^2$ همراه با p-value برای آزمون اهمیت مدل است. آیا کسی هست که بتواند پیشنهاداتی ارائه دهد؟ هر نمونه کد R می تواند کمک بزرگی باشد. * * * **ویرایش** با توجه به پیشنهادی که تاکنون دریافت کرده ام، راه حلی برای تجزیه و تحلیل داده های من به منظور درک اینکه آیا رابطه خطی بین دو متغیر Velocity_response (برگرفته از پرسشنامه) و سرعت (برگرفته از پرسشنامه) وجود دارد یا خیر. عملکرد) باید این باشد: خلاصه کتابخانه(nlme)(lme(Velocity_response ~ Velocity*Subject, data=scrd, random= ~1|موضوع)) نتیجه خلاصه این را به دست میدهد: > summary(lme(Velocity_response ~ Velocity*Subject, data=scrd, random=~1|Subject)) مدل اثرات مختلط خطی متناسب با دادههای REML: scrd AIC BIC logLik 104.2542 126.1603 -30.1271 تصادفی اثرات: فرمول: ~1 | موضوع (برق) باقیمانده StdDev: 2.833804 2.125353 اثرات ثابت: Velocity_response ~ Velocity * Subject Value Std.Error DF t-value p-value (Intercept) -26.99558 25.8221808 25.82218049 -204. 24.52675 19.28159 20 1.2720292 0.2180 SubjectSubject10 21.69377 27.18904 0 0.7978865 NaN SubjectSubject11 11.3141507435433N. SubjectSubject13 52.45966 53.96342 0 0.9721337 NaN SubjectSubject2 -14.90571 34.16940 0 -0.4362299 NaN موضوع3 26.658153 7462404. SubjectSubject6 37.28252 50.06033 0 0.7447517 NaN SubjectSubject7 12.66581 26.58159 0 0.4764880 NaN SubjectSubject8 14.28029 NaN 3247014 SubjectSubject9 5.65504 34.54357 0 0.1637076 NaN Velocity:SubjectSubject10 -11.89464 21.07070 20 -0.5645111 0.5787 Velocity:SubjectSubject.5787 0.5787 Velocity:SubjectSubject. 20 -0.1887672 0.8522 Velocity:SubjectSubject13 -41.06777 44.43318 20 -0.9242591 0.3664 Velocity:SubjectSubject2 11.532397 25.4378 25.4017 0.6549 Velocity:SubjectSubject3 -19.47392 23.26966 20 -0.8368804 0.4125 Velocity:SubjectSubject6 -29.60138 41.47500 20 -0.713743Subject -6.85539 19.92271 20 -0.3440992 0.7344 Velocity:SubjectSubject8 -12.51390 22.54724 20 -0.5550080 0.5850 Velocity:SubjectSubject28.329 -28.29. -0.0810519 0.9362 همبستگی: (Intr) Velcty SbjS10 SbjS11 SbjS13 SbjcS2 SbjcS3 SbjcS6 SbjcS7 SbjcS8 SbjcS9 V:SS10 V:SS11 V:SS39-V:SS10 V:SS11 V:SS20 SubjectSubject10 -0.950 0.943 SubjectSubject11 -0.770 0.765 0.732 SubjectSubject13 -0.479 0.475 0.454 0.369 SubjectSubject2 -0.756 0.7156 0.7151 0.58Subject -0.878 0.872 0.834 0.676 0.420 0.663 SubjectSubject6 -0.516 0.512 0.490 0.397 0.247 0.390 0.453 SubjectSubject7 -0.960.960. 0.465 0.734 0.853 0.501 SubjectSubject8 -0.810 0.804 0.769 0.624 0.388 0.612 0.711 0.418 0.787 SubjectSubject9 -0.740.740. 0.358 0.565 0.656 0.386 0.726 0.605 Velocity:SubjectSubject10 0.909 -0.915 -0.981 -0.700 -0.435 -0.687 -0.687 -0.798 -0.460 -0.798 -0.798 -0.460 -0.798 -0.915 -0.915 Velocity:SubjectSubject11 0.692 -0.697 -0.657 -0.986 -0.331 | رگرسیون خطی با اندازه گیری های مکرر در R |
110569 | من یک مجموعه داده بر اساس 14 سایت میدانی دارم، متغیر وابسته ای که در حال بررسی هستم، تعداد داده های ثبت شده در هر سایت (در 3-5 بازدید) است. متغیرهای مستقل (من حدود 45 دارم) در هر سایت ثابت هستند (به غیر از سرعت باد و دما). یک مجموعه داده نمونه که این را نشان میدهد در زیر آمده است: تعداد پروانههای آب درختان سایت 1 6 8 3 سایت 1 6 8 12 سایت 2 3 3 8 سایت 2 3 3 0 بهترین راه برای آمادهسازی این نوع دادهها برای تجزیه و تحلیل رگرسیون چندگانه چیست؟ R؟ آیا data1.glm = glm (تعداد پروانه ~ 1، داده = داده 1، خانواده = poisson) و کار از طریق افزودن کمترین متغیرهای با ارزش AIC به معادله کار می کند؟ هر گونه کمکی بسیار قدردانی خواهد شد. | تحلیل رگرسیون چندگانه |
92777 | لطفاً من در مطالعه پایان نامه دکتری خود تردید دارم... عنوان: توسعه پروتکل ترمال سیکلینگ برای مواد دندانپزشکی. هدف: ایجاد پروتکلی برای پیری حرارتی، از اندازهگیریهایی که در دهان افراد یافت شد. شک: از چه تجزیه و تحلیل هایی می توانم برای داده های این تغییرات دمایی استفاده کنم؟ واحد آزمایش: شش داوطلب متغیر: دما یک دانشجوی دکترای دندانپزشکی کاری را برای توصیف یک الگوی متوسط از تغییرات دما (درجه سانتیگراد) در حفره دهان شش داوطلب انجام داد. او داده های دمای دهان (درجه سانتیگراد) را به مدت 3 روز در 6 بیمار در هر 4 ثانیه از 4 ثانیه جمع آوری کرد. هدف ایجاد یک الگوی متوسط از تغییرات دما، با توجه به زمان، تغییرات دما و تعداد تغییرات در روز است. بیماران روتین های متفاوتی با یکدیگر دارند و در روز، بنابراین، آیا تحلیل های آماری وجود دارد که بتوانم یک پروتکل استاندارد با داده های او ایجاد کنم؟ اساساً او میخواهد پاسخی مانند این را پیدا کند: یک فرد به طور متوسط در روز سه بار افزایش دما به میزان 40 درجه سانتیگراد دارد که به مدت 40 ثانیه حفظ شد و 3 درجه کاهش دما از 16 درجه سانتیگراد به مدت 40 ثانیه حفظ شد. آیا آزمون ARIMA برای این مطالعه مناسب است؟ اگه نه راه حل دیگه ای هست؟ | آیا مدل ARIMA برای این تحقیق دندانپزشکی مناسب است؟ |
91449 | من سعی می کنم عملکرد استنتاج پسین را روی مجموعه ای از اسناد با فرآیند دیریکله سلسله مراتبی برای مدل سازی موضوع آزمایش کنم. چگونه می توانم داده ها (سند) خود را به فرمت داده استاندارد تبدیل کنم؟ مانند این دستور: [M] [term_1]:[count] [term_2]:[count] ... [term_N]:[count] که در آن [M] تعداد عبارتهای منحصربهفرد در سند [تعداد] مرتبط با هر عبارت چند بار است که آن عبارت در سند ظاهر شده است. | تبدیل داده ها به فرمت داده های استاندارد در فرآیند دیریکله سلسله مراتبی |
109322 | آیا فرض می کنیم که توزیع جامعه نرمال است یا توزیع نمونه نرمال است یا توزیع نمونه نرمال است؟ اگر مورد دوم است، منظور ما از توزیع نمونه در این زمینه چیست؟ چرا باید این را فرض کنیم؟ آیا عادی بودن این چیزها متضمن عادی بودن دیگران است یا نشان می دهد؟ | هنگام انجام ANOVA، چه چیزی را باید فرض کنیم که به طور معمول توزیع شده است؟ |
35042 | اگر متغیرهای تصادفی $X_1,X_2,\ldots,X_n$ داشته باشم که پواسون با پارامترهای $\lambda_1, \lambda_2,\ldots, \lambda_n$ توزیع شده است، توزیع $Y=\left\lfloor\frac{ چقدر است. \sum_{i=1}^n X_i}{n}\right\rfloor$ (یعنی کف عدد صحیح میانگین)؟ مجموع پواسون ها نیز پواسون است، اما من به اندازه کافی به آمار اطمینان ندارم که تشخیص دهم برای مورد بالا یکسان است یا خیر. | توزیع میانگین متغیرهای تصادفی پواسون چگونه است؟ |
91990 | من میخواهم PCA را روی مجموعهای از متغیرها اجرا کنم و سپس نمرات متغیر وابسته خود را به عقب برگردانم. من سوالات زیر را دارم: 1. آیا باید متغیرهای خود را مقیاس و مرکز کنم؟ 2. اگر بله، آیا باید قبل از اجرای رگرسیون خطی، متغیر وابسته خود را نیز استاندارد کنم؟ 3. اگر متغیر وابسته خود را استاندارد نکنم چه می شود؟ | PCA و رگرسیون خطی |
110561 | رسمیت می گوید که هنگام محاسبه واریانس نمونه یا مجموع مربع ها، یک میانگین نمونه با داده های نمونه داده شده محاسبه می شود. اگر به دلایلی به تخمین بهتری از میانگین (از نمونه بزرگتر) دسترسی داشتم، آیا می توانم به جای میانگین نمونه داده شده از آن میانگین استفاده کنم؟ من میخواهم $R^2$ و آمار t را از تحلیل رگرسیون محاسبه کنم، که برای آن به $\text{SSX}$ و $\text{SSY}$ به عنوان مجموع مربعهای مجموعه داده Y و مجموعه داده نیاز دارم. X. این SSX/Y اساساً واریانس(X)*(n-1)=SSX و واریانس(Y)*(n-1)=SSY هستند. بنابراین اگر برای تجزیه و تحلیل رگرسیون خود از نمونه کوچکتری نسبت به نمونه واقعی استفاده کنم. پس از این، برای مثال، باید $R^2$ را محاسبه کنم، که در آن میخواهم با استفاده از یک نمونه بزرگتر، تخمین بهتری از میانگین/واریانس را مطرح کنم. این به نظر می رسد با نظریه مفهومی من مطابقت دارد، زیرا برآورد بهتری همیشه مورد نظر است و با توجه به اینکه هر دو مجموعه داده (نمونه کوچکتر و گسترده) از یک جامعه هستند. آیا دلیلی برای عدم انجام این کار وجود دارد؟ | دقت میانگین برای مجموع مربعات/واریانس |
55139 | میخواهم دادههای بقای مدل احتمالی زیر را شبیهسازی کنم که با استفاده از مدل کاکس تحلیل میشود: یک مواجهه $X$ بهصورت باینری مدلسازی میشود که $X \sim_{iid} \mbox{برنولی}(p)$ که $p = است. \frac{1}{3}$. خطر تابعی از $X$ است با: \begin{eqnarray} \log \left( \lambda(t|X=0) \right) &=& \beta_0\\\ \log \left( \lambda(t |X=1) \right) &=& \beta_0 + \Delta\cdot\mathcal{I}(t \geq \tau) \end{eqnarray} من همچنین میخواهم تولید کنم یک متغیر سانسور کننده دارای توزیع نمایی مستقل. | تحلیل شبیه سازی مدل بقای کاکس با نقطه تغییر. |
35591 | تفاوت بین Normalization و Scaling داده چیست؟ تا به حال فکر می کردم هر دو اصطلاح به یک فرآیند اشاره دارد، اما اکنون متوجه شدم که چیز دیگری وجود دارد که نمی دانم / نمی فهمم. همچنین اگر تفاوتی بین Normalization و Scaling وجود دارد، چه زمانی باید از Normalization استفاده کنیم اما از Scaling استفاده نکنیم و برعکس؟ لطفا با چند مثال توضیح دهید. | عادی سازی در مقابل مقیاس بندی |
35047 | من مجموعه داده ای از 40000 فرد دارم که با استفاده از k-means آنها را خوشه بندی کردم. من از 30 متغیر استفاده کردم که هر عدد از 1=حداقل تا 5=حداکثر بود. من این 30 متغیر را به 10 عامل کاهش دادم و K-means را روی این متغیرهای جدید اجرا کردم. من یک خوشه از 12 خوشه نگه داشتم. من اکنون 7000 مشاهدات جدید دارم، میخواهم اینها را با استفاده از یک تابع تشخیص طبقهبندی کنم. من یکی را در SPSS با استفاده از 30 متغیر قبلی ساختم. من یک طبقه بندی خوب در مجموعه داده اصلی (40000) دریافت می کنم، اما وقتی آن را روی مشاهدات جدید اجرا می کنم، یک بخش اصلاً نشان داده نمی شود. 0 مورد از این نوع است. این برای من معنی ندارد. خوشههای اصلی سالم و جدا به نظر میرسند، من آنها را در R با چندین روش مرکز اولیه مختلف انجام دادم و چندین بار آنها را اجرا کردم و به بهترین آنها چسبیدم. تابع تفکیک کننده مشکلی برای یافتن این خوشه ناپدید شدن در مجموعه داده اصلی ندارد. چه چیزی می تواند باعث این شود؟ | مشکل در طبقه بندی مشاهدات جدید با تجزیه و تحلیل متمایز |
55136 | من در حال بررسی رابطه بین میدان های دمایی به دست آمده از مدل های عددی آب و هوا و تقاضای برق هستم. من از یک رویکرد مبتنی بر PCA استفاده میکنم، یعنی رابطه خطی بین الگوها/حالتهای دمای اصلی و الگوها/حالتهای تقاضای اصلی را مطالعه میکنم. با توجه به اینکه من روی تقاضای سالانه تابستان کار میکنم، سریهای زمانی با نمونههای کم (<20) دارم و به همین دلیل تصمیم گرفتم از روش راهاندازی زیر استفاده کنم: 1. من یک دما و الکتریسیته ایجاد میکنم. مجموعه داده های تقاضا با نمونه گیری معمولی با جایگزینی 2. من مدل خطی خود را بین دو فیلد ایجاد می کنم. 3. یک مجموعه داده دما با نمونه های انتخاب نشده ایجاد می کنم و آنها را روی فضای PCA که به تازگی محاسبه کرده ام پیش می برم. 4. محاسبه می کنم. خروجی خارج از نمونه من این کار را حدود 5000 بار انجام می دهم و در نهایت ماتریسی را با تنها خروجی های خارج از نمونه به دست می آورم. من میانگین تمام تقاضاهای پیش بینی شده خارج از نمونه را برای هر سال محاسبه می کنم و از آن برای محاسبه خطای RMSE استفاده می کنم. من فکر می کنم این رویکرد را می توان یک رویه بوت استرپ 0.632 در نظر گرفت. من می خواهم اهمیت نتایج به دست آمده را محاسبه کنم. من به این فکر می کردم که در هر تکرار بوت استپ مجموعه داده های دما را به هم بزنم تا ببینم آیا نتایج مشابهی به دست می آورم که ارتباط زمانی مستقیم بین تقاضا و دما را می شکند یا خیر. با توجه به اینکه من پیشینه آماری قوی ندارم، نظر شما را در مورد هر روشی برای به دست آوردن اهمیت آماری روش بوت استرپ من می خواهم. | خارج از نمونه راه انداز و اهمیت |
55132 | من می خواهم الگوریتم EM را به صورت دستی پیاده سازی کنم و سپس آن را با نتایج «normalmixEM» بسته «mixtools» مقایسه کنم. البته خوشحال می شوم اگر هر دو به یک نتیجه برسند. مرجع اصلی Geoffrey McLachlan Finite Mixture Models 2000 است. من یک چگالی مخلوط از دو گاوسی دارم، در شکل کلی، احتمال ورود به سیستم توسط (McLachlan صفحه 48) داده می شود:  $z_{ij}$ 1 است، اگر مشاهده از طرف $i$th تراکم جزء، در غیر این صورت 0. $f_i$ چگالی توزیع نرمال است. $\pi$ نسبت مخلوط است، بنابراین $\pi_1$ احتمال است که یک مشاهده از توزیع گاوسی اول باشد و $\pi_2$ احتمال است، که یک مشاهده از توزیع گاوسی دوم باشد. مرحله E اکنون محاسبه حالت است. انتظار:  که پس از چند مشتق به نتیجه منتهی می شود (صفحه 49):  در مورد دو گاوسی (صفحه 82):  مرحله M اکنون به حداکثر رساندن Q است (صفحه 49):  این منجر به (در مورد دو گاوسی) می شود (صفحه 82):   و ما می دانیم که (ص 50 )  مراحل E، M را تکرار می کنیم تا  کوچک است من سعی کردم یک کد R بنویسم (داده ها را می توانید در اینجا پیدا کنید) # الگوریتم EM به صورت دستی # dat داده # مقادیر اولیه pi1 است. <-0.5 pi2<-0.5 mu1<--0.01 mu2<-0.01 sigma1<-0.01 sigma2<-0.02 loglik[1]<-0 loglik[2]<-sum(pi1*(log(pi1)+log(dnorm(dat,mu1,sigma1))))+sum(pi2*(log(pi2)+log(dnorm (dat,mu2,sigma2)))) tau1<-0 tau2<-0 k<-1 # حلقه while(abs(loglik[k+1]-loglik[k]) >= 0.00001) { # E step tau1<-pi1*dnorm(dat,mean=mu1,sd=sigma1)/(pi1*dnorm(x,mean =mu1,sd=sigma1)+pi2*dnorm(dat,mean=mu2,sd=sigma2)) tau2<-pi2*dnorm(dat,mean=mu2,sd=sigma2)/(pi1*dnorm(x,mean=mu1,sd=sigma1)+pi2*dnorm(dat,mean=mu2,sd=sigma2)) # M گام pi1<-sum(tau1)/length(dat) pi2<-sum(tau2)/length(dat) mu1<-sum(tau1*x)/sum(tau1) mu2<-sum(tau2*x)/sum(tau2) sigma1<-sum(tau1*(x- mu1)^2)/sum(tau1) sigma2<-sum(tau2*(x-mu2)^2)/sum(tau2) loglik[k]<-sum(tau1*(log(pi1)+log(dnorm(x,mu1,sigma1))))+sum(tau2*(log(pi2)+log(dnorm(x,mu2,sigma2) ))) k<-k+1 } # کتابخانه مقایسه (mixtools) gm<-normalmixEM(x,k=2,lambda=c(0.5,0.5),mu=c(-0.01,0.01),sigma=c(0.01,0.02)) gm$lambda gm$mu gm$sigma gm$ loglik الگوریتم کار نمی کند، زیرا برخی از مشاهدات احتمال صفر دارند و گزارش آن -Inf است. اشتباه من کجاست؟ کمک بسیار قدردانی خواهد شد، زیرا این موضوع برای من بسیار پیشرفته است. | الگوریتم EM به صورت دستی پیاده سازی شده است؟ |
110560 | من 2 منطقه مطالعاتی دارم منطقه مطالعه 1: 12 ایستگاه هواشناسی - سالهای موجود 1981-2000 (همان داده ها و مرحله) منطقه مطالعه 2: 10 ایستگاه هواشناسی - سالهای موجود 1985-2011 (همان داده ها و مرحله) از منطقه اول مطالعاتی که دارم برای استفاده از سری داده های ذکر شده در بالا. می خواهم بدانم از کدام آزمون آماری می توانم برای انتخاب سال های مناسب از منطقه 2 تحصیلی استفاده کنم. پیشاپیش از شما متشکرم. | روش آماری برای مقایسه سری های زمانی با دوره های مختلف |
91996 | من و همکارم در مورد دادههای زیر و محاسبه میانگین اختلاف نظر داریم: با توجه به $n$ پاسخدهندگان، هر پاسخدهنده سه شانس برای زدن یک حلقه در بسکتبال دارد. اگر پاسخ دهنده 1 یا بیشتر حلقه بزند، با موفقیت حلقه زده است. با توجه به جدول نمرات زیر پاسخگو id | امتحان کنید 1 | امتحان کنید 2 | سعی کنید 3 1 1 1 1 2 0 0 1 3 0 0 0 4 1 1 0 این می شود: شناسه پاسخ دهنده | موفقیت 1 1 2 1 3 0 4 1 من 3/4 موفقیت را استدلال می کنم، او 3/(4 * 3) موفقیت را استدلال می کند و این را با گفتن اینکه هر کدام 3 تلاش دارند توجیه می کند. برای من این تنها زمانی معنا پیدا می کند که ما هر موفقیت را کاهش نمی دهیم، بلکه هر موفقیتی را نیز حساب می کنیم. آیا من اشتباه می کنم؟ آیا من حلقه را از دست داده ام؟ | کدام معنی صحیح است؟ |
110562 | من با استفاده از افزونه فرآیند یک تعدیل تعدیل شده را انجام می دهم. هیچ تعامل 3 طرفه قابل توجهی برای 3 ناظم من وجود ندارد (یکی جنسیت است) اما اثرات مشروط نشان می دهد که تعامل دو طرفه مهم برای مردان و زنان متفاوت است. چگونه این را تفسیر/گزارش کنم؟ | تعدیل تعدیل شده - اثرات مشروط نشان دهنده تعامل 3 طرفه است اما هیچ اثر اصلی وجود ندارد |
91992 | من سعی می کنم قسمتی از کتاب رگرسیون کوانتیل کوئنکر (ص.33) را درک کنم. می گوید: (توجه داشته باشید که y،x بردار هستند و w بردار جهت است)  با قسمت اول نتیجه مشکلی نیست: من قانون محصول را برای مشتقات اعمال می کنم و مشتق تابع نشانگر 0 است زیرا ناپیوستگی تابع نشانگر در y-x'b متفاوت از صفر اتفاق نمی افتد. اما در y-x'b=0 چه اتفاقی می افتد؟ ذهن منطقی من به من می گوید که اگر تقریب پیچیده ای نباشد، هیچ مشتقی برای تابع نشانگر وجود ندارد، پس چگونه کونکر به آن نتیجه رسید؟ پیشاپیش متشکرم | مشتق جهتی یک تابع حاوی تابع شاخص - شرط بهینه برای رگرسیورهای چندکی |
34319 | فرض کنید من مدل های رگرسیون لجستیک زیر را دارم: df=data.frame(income=c(5,5,3,3,6,5), win=c(0,0,1,1,1,0) age=c(18,18,23,50,19,39), home=c(0,0,1,0,0,1)) > md1 = glm(عامل(برد) ~ درآمد + سن + خانه، + داده = df، خانواده = دوجمله ای (لینک = logit)) > md2 = glm (عامل (برنده) ~ فاکتور (درآمد) + عامل (سن) + فاکتور (خانه)، + داده = df، family=binomial(link=logit)) > خلاصه (md1) تماس: glm(فرمول = فاکتور(برنده) ~ درآمد + سن + خانه، خانواده = دوجمله ای (پیوند = logit)، data = df) Deviance Residuals: 1 2 3 4 5 6 -1.0845 -1.0845 0.8017 0.4901 1.7298 -0.8017 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) 4.784832 6.326264 0.756 0.449 درآمد -1.027049 1.056031 -0.973 0.331 سن 0.007102 0.0097759 خانه -0.896802 2.252894 -0.398 0.691 (پارامتر پراکندگی برای خانواده دوجمله ای 1 در نظر گرفته شده است) انحراف صفر: 8.3178 در 5 درجه آزادی انحراف باقیمانده: 6.8700 در 2 درجه آزادی AIC: عدد S7cor > 148تر. خلاصه (md2) فراخوانی: glm (فرمول = فاکتور (برنده) ~ عامل (درآمد) + عامل (سن) + فاکتور (خانه)، خانواده = دوجمله ای (پیوند = logit)، داده = df) باقیمانده های انحراف: 1 2 3 4 5 6 -6.547e-06 -6.547e-06 6.547e-06 6.547e-06 6.547e-06 -6.547e-06 ضرایب: (3 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای z مقدار Pr(>|z|) (انتقال) 2.457e+01 1.310e+05 0 1 factor(income)5 -4.913e+01 1.605e+05 0 1 factor(income)6 -2.573e-30 1.853 e+05 0 1 factor(سن)19 NA NA NA NA فاکتور(سن) 23 -1.383e-30 1.853e+05 0 1 فاکتور(سن)39 -3.479e-14 1.605e+05 0 1 فاکتور(سن)50 NA NA NA فاکتور(خانه)1 NA NA NA NA (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف تهی: 8.3178e+00 در 5 درجه آزادی انحراف باقیمانده: 2.5720e-10 در 1 درجه آزادی AIC: 10 بنابراین بسته به حالت پیش بینی کننده ها، R خروجی های مختلفی تولید می کند. برای فاکتورها، R ضرایب را به دسته های جداگانه برای سطوح تقسیم می کند، اما نه برای مدل با پیش بینی کننده های عددی. من در مورد چند چیز تعجب می کنم. 1. آیا هرگز مفید است که دستههای پاسخ به صورت ردیفهای جداگانه بیان شوند؟ 2. برای بیان معادله رگرسیون کلی، چگونه می توان از یک مدل با مقوله های بیان شده در یک معادله فردی به معادله ای با یک B_i منفرد رفت. بنابراین، برای مثال، اگر جنسیت دو ضریب دارد، 3.5 برای مذکر و 2.3 برای زن، چگونه می توان از آن در معادله ای استفاده کرد که (علاوه بر تبدیل آنها به مقادیر عددی): Y = B0 + B1 (جنسیت) | خروجی رگرسیون R - عوامل در مقابل متغیرهای عددی |
16381 | مفروضات معمول برای رگرسیون خطی چیست؟ آیا آنها عبارتند از: 1. رابطه خطی بین متغیر مستقل و وابسته 2. خطاهای مستقل 3. توزیع نرمال خطاها 4. homoscedasticity آیا موارد دیگری وجود دارد؟ | فهرست کاملی از مفروضات معمول برای رگرسیون خطی چیست؟ |
9329 | بگویید من یک مدل طبقه بندی پیش بینی بر اساس یک جنگل تصادفی (با استفاده از بسته randomForest در R) دارم. من میخواهم آن را طوری تنظیم کنم که کاربران نهایی بتوانند یک مورد را برای ایجاد پیشبینی مشخص کنند، و یک احتمال طبقهبندی خروجی بدهد. تا اینجای کار مشکلی نیست اما مفید/خوب خواهد بود که بتوان چیزی مانند نمودار اهمیت متغیر را خروجی داد، اما برای آیتم خاصی که پیشبینی میشود، نه برای مجموعه آموزشی. چیزی شبیه به: مورد X پیشبینی میشود که یک سگ باشد (به احتمال 73 درصد) زیرا: پا=4 نفس=خز بد=غذای کوتاه=تخیم شما نکته را متوجه شدید. آیا راه استاندارد یا حداقل قابل توجیهی برای استخراج این اطلاعات از یک جنگل تصادفی آموزش دیده وجود دارد؟ اگر چنین است، آیا کسی کدی دارد که این کار را برای بسته randomForest انجام دهد؟ | آیا راهی برای توضیح یک پیشبینی از یک مدل جنگل تصادفی وجود دارد؟ |
54951 | هدف تجزیه و تحلیل همبستگی متعارف (CCA) به حداکثر رساندن همبستگی محصول-لحظه معمول پیرسون (یعنی ضریب همبستگی خطی) ترکیبهای خطی دو مجموعه داده است. اکنون، این واقعیت را در نظر بگیرید که این ضریب همبستگی فقط تداعیهای خطی را اندازهگیری میکند - به همین دلیل است که ما از ضرایب همبستگی Spearman-$\rho$ یا Kendall-$\tau$ (رتبه) نیز استفاده میکنیم که یکنواختی دلخواه را اندازهگیری میکنند. نه لزوماً خطی) ارتباط بین متغیرها. از این رو، من به موارد زیر فکر می کردم: یکی از محدودیت های CCA این است که فقط سعی می کند ارتباط خطی بین ترکیبات خطی تشکیل شده را به دلیل تابع هدف خود ثبت کند. آیا نمی توان CCA را به نوعی با به حداکثر رساندن، مثلاً Spearman-$\rho$ به جای Pearson-$r$ گسترش داد؟ آیا چنین رویه ای به چیزی قابل تفسیر و معنادار از نظر آماری منجر می شود؟ (مثلاً انجام CCA در رتبه ها منطقی است؟) من می دانم که آیا وقتی با داده های غیر عادی سروکار داریم کمکی می کند ... | تحلیل همبستگی متعارف با همبستگی رتبه ای |
23395 | شبکههای عصبی پالسی یا Spiking بیشتر از پویایی غشای نورونهای بیولوژیکی را در خود جای میدهند، جایی که پالسها اطلاعات را به لایه بعدی منتقل میکنند. نورونها لزوماً مجبور نیستند همزمان «آتش» کنند، مثلاً در یک پشتی. با این حال، به نظر می رسد موانعی در برابر استفاده از این مدل ها برای مشکلات یادگیری ماشین وجود دارد. چه مسائل خاصی بر سر راه تمرینکنندگان یادگیری ماشینی با استفاده از مدلهایی قرار میگیرد که از نظر بیولوژیکی واقعیتر هستند؟ | چه چیزی مانع استفاده از شبکه های عصبی پالسی در برنامه های کاربردی است؟ |
35041 | من تفاوت بین «rfobject$importance» و «importance(rfobject)» در ستون MeanDecreaseAccuracy را نمیدانم. مثال: > داده (عنبیه) > تناسب <- randomForest(Species~., data=iris, important=TRUE) > fit$importance setosa versicolor virginica MeanDecreaseAccuracy MeanDecreaseGini Sepal.Length 0.027078501 0.019470.604 0.02898837 9.173648 سپال.عرض 0.008553449 0.001962036 0.006951771 0.00575489 2.472105 گلبرگ. طول 0.3113303 0.280981959 0.29216790 41.284869 گلبرگ. عرض 0.349686983 0.318527008 0.270975757 0.31054451 46.323415 MeanDecreaseAccuracy MeanDecreaseGini Sepal.Length 1.277324 1.632586 1.758101 1.2233029 9.173648 Sepal.Width 1.007943 0.252731 0.252736 1.014 1.014 2.472105 گلبرگ.طول 3.685513 4.434083 4.133621 2.5139980 41.284869 گلبرگ. عرض 3.896375 4.421567 4.38536423 4.38536423. مقادیر MeanDecreaseAccuracy متفاوت است اما ترتیب یکسانی برای متغیرهای اهمیت دارند (برای «fit$importance» و همچنین برای «importance(fit)»: 1. Petal.Width 2. Petal.Length 3. Sepal.Length 4. Sepal. عرض اما در سایر مجموعه های داده من گاهی اوقات سفارشات متفاوتی دریافت می کنم. کسی می تواند توضیح دهد که اینجا چه اتفاقی می افتد؟ آیا این احتمالاً یک باگ است؟ پیشاپیش از شما متشکرم * * * **ویرایش** (در پاسخ به مارتین اولری) باشه ممنون! من متوجه چیز دیگری شدم. با نگاهی به تابع «rfcv()» متوجه این خط شدم: impvar <- (1:p)[order(all.rf$importance[, 1], decreasing = TRUE)] با این خط اولین ستون را انتخاب می کنیم. از «all.rf$importance» که به ما ترتیب معیارهای خاص کلاس (برای **عامل اول**) را می دهد که فقط به عنوان کاهش میانگین در دقت محاسبه می شوند. این ترتیب همیشه با میانگین کاهش دقت در همه کلاسها یکسان نیست (MeanDecreaseAccuracy). آیا بهتر نیست ستون MeanDecreaseAccuracy یا MeanDecreaseGini را انتخاب کنید، یا بهتر نیست از تابع importance() برای مقادیر مقیاس شده استفاده کنید؟ بنابراین تعداد پیشبینیکنندهها را بهطور متوالی کاهش میدهیم که بر اساس اهمیت متغیر (در همه کلاسها) رتبهبندی میشوند و نه تنها بر اساس اهمیت متغیر برای کلاس اول رتبهبندی میشوند. | اشکال تصادفی جنگل و اهمیت متغیر؟ |
35597 | ما حدود 200 ماشین بردار پشتیبان خطی (با کد دستی در سی شارپ) متعلق به 200 دسته خود را آموزش داده ایم و از آنها در دسته بندی متن استفاده می کنیم. به دلیل کوتاه بودن متن در نمونه های آموزشی ما و سایر عوامل غیرقابل کنترل، اغلب هر ماشینی یک عدد منفی برای یک سند داده شده (طبقه بندی به عنوان منفی) برمی گرداند. برگرداندن هیچ به عنوان پاسخ امکان پذیر نیست زیرا ممکن است در حدود 40٪ مواقع اتفاق بیفتد و طبقه بندی نکردن 40٪ از اسناد از نظر تجاری غیرقابل قبول است. کاری که ما انجام می دهیم این است که در مورد علامت نتایج به خود زحمت نمی دهیم و به هر حال دسته را با حداکثر مقدار برمی گردانیم. با این حال، من احساس میکنم که این باعث میشود میزان خطای ما بیشتر از حد نیاز باشد. بنابراین سوال من اینجاست: آیا یک راه اصولی میانه راه وجود دارد؟ یعنی گاهی اوقات (اما نه خیلی اوقات، شاید در حدود 5٪ مواقع) هیچ را برمی گرداند و گاهی اوقات حداکثر اعداد منفی را برمی گرداند، به طوری که |اسناد طبقه بندی شده اشتباه| + ک.|اسناد طبقه بندی نشده| حداقل خواهد بود (برای برخی از k<=1)؟ به عنوان مثال، آیا راهی برای ترجمه فاصله داده شده توسط SVM به مقدار احتمال وجود دارد؟ یا به همین ترتیب، آیا روشی اصولی برای مقایسه خروجی دو ماشین بردار پشتیبان وجود دارد، یعنی +0.2 نشان دهنده احتمال بالاتر عضویت در یکی از آنهاست؟ هر گونه پیشنهاد، منبع، مقاله استقبال می شود. متشکرم. | وقتی هر SVM «عضو نیست» را برمیگرداند چه باید کرد؟ |
93599 | من معمولاً مدلهای درختی (rpart) خود را فقط بر روی مقدار cp اعتبار سنجی میکنم، به عنوان مثال. با استفاده از caret یا xpred یا تابع اعتبارسنجی متقاطع rpart داخلی. با این حال، پارامترهای rpart دیگری وجود دارد - برای مثال حداقل اندازه و استفاده جایگزین. آیا باید بر روی این پارامترها نیز اعتبار متقابل انجام شود، یا این امر اضافی است (و از این رو در بسته های اعتبارسنجی متقابل استاندارد گنجانده نشده است؟ | مدلهای Rpart و درختی -- اعتبارسنجی متقاطع فراتر از مقدار cp |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.