_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
10501
پیدا کردن مساحت محاسبه‌کننده بسته تحت ROC آسان است، اما آیا بسته‌ای وجود دارد که مساحت زیر منحنی فراخوان دقیق را محاسبه کند؟
محاسبه AUPR در R
99375
تشخیص Gelman و Rubin برای بررسی همگرایی چندین زنجیره mcmc که به صورت موازی اجرا می شوند استفاده می شود. این واریانس درون زنجیره ای را با واریانس بین زنجیره ای مقایسه می کند، توضیح زیر است: ** مراحل (برای هر پارامتر):** 1. m ≥ 2 زنجیره به طول 2n را از مقادیر شروع بیش از حد پخش کنید. 2. اولین n رسم در هر زنجیره را دور بریزید. 3. واریانس درون زنجیره ای و بین زنجیره ای را محاسبه کنید. 4. واریانس تخمینی پارامتر را به عنوان مجموع وزنی واریانس درون زنجیره ای و بین زنجیره ای محاسبه کنید. 5. ضریب کاهش مقیاس بالقوه را محاسبه کنید. 6. آیتم فهرستی که می‌خواهم از این آمار استفاده کنم، اما متغیرهایی که می‌خواهم از آن استفاده کنم، بردارهای تصادفی هستند. آیا گرفتن میانگین ماتریس های کوواریانس در این مورد منطقی است؟
تشخیص همگرایی گلمن و روبین، چگونه به کار با بردارها تعمیم دهیم؟
21415
من سعی می کنم نتایج Austin, PC را (دوباره) تولید کنم. (2010).. سوال به دست آوردن یک $\beta$ تقریبی است که منجر به یک تفاوت ریسک خاص (تفاوت نسبت ها) $p_0 - p_1 = 0.02$ می شود، که در آن $p_0$ و $p_1$ نسبت افراد در گروه کنترل و trt که به ترتیب دارای پاسخ $Y = 1$ هستند. 4 متغیر کمکی، 1 نشانگر درمان و 1 متغیر نتیجه وجود دارد:$x_1، x_2، x_3،$ و $x_4$، که set.seed(123) N = 10000 x1=rnorm(N);x2=rnorm(N) ; x3=rbinom(N,1,0.5);x4=rbinom(N,1,0.5) که در آن $N$ تعداد موضوعات در هر مجموعه داده را نشان می دهد و مجموعا $s = 1000$ مجموعه داده شبیه سازی شده وجود دارد. برای هر موضوع، اگر موضوعی در trt $(t=1)$ باشد، $Pr(Y = 1)$ را محاسبه می کنیم یا کنترل $(t=0)$ is $p_{i,1} = \frac{ 1}{1+e^{-(\alpha_0+\alpha_1x_{1i}+\alpha_2x_{2i}+\alpha_3x_{3i} + \alpha_4x_{4i} + \beta_{(k)})}}$، یا $p_{i,0} = \frac{1}{1+e^{-(\alpha_0+\alpha_1x_{1i}+\alpha_2x_ {2i}+\alpha_3x_{3i} + \alpha_4x_{4i})}}$ که در آن مقادیر $\alpha_0=-1، \alpha_1=\alpha_2=\alpha_3=\alpha_4=1$ ثابت هستند، اما $\beta_{(k)}$ توسط ادغام‌های مونت کارلو با فرآیند تکراری $k$th با استفاده از دوبخشی تقریبی می‌شود. روش: $\bar{p}_1 = \quad \idotsint_{x_1} \frac{1}{1+e^{-(\alpha_0+\alpha_1x_{1i}+\alpha_2x_{2i}+\alpha_3x_{3i} + \alpha_4x_{4i} + \beta_{(k)})}} f (x_1)...f(x_4)dx_1...dx_4$ و $\bar{p}_0 = \quad \idotsint_{x_1} \frac{1}{1+e^{-(\alpha_0+\alpha_1x_{1i}+\alpha_2x_{2i}+\alpha_3x_{3i} + \alpha_4x_{4i})}} f(x_1) ...f(x_4)dx_1...dx_4$. $\bar{p}_0^{mc(k)} = \frac{1}{10000}\sum_{i=1}^{10000}p_{i,0}$ و $\bar{p}_1^ {mc(k)} = \frac{1}{10000}\sum_{i=1}^{10000}p_{i,1}$، که $mc$ نشان‌دهنده monte است کارلو تفاوت ریسک حاشیه ای تجربی مجموعه داده $s^{th}$ $\gamma_{(s)}^{(k)} = \bar{p}_0^{mc(k)} - \bar{p}_1 است. ^{mc(k)}$. ما بیش از 1000 مجموعه داده را تکرار کردیم، میانگین تفاوت ریسک نهایی تجربی بعد از $k^{th}$ فرآیند تکراری (روش دوبخشی) $\gamma^{(k)} = \frac{1}{1000}\sum_{s= است. 1}^{1000}\gamma_{(n)}^{(k)} =0.02$ چگونه می توانم یک کد R بنویسم تا به صورت تقریبی به دست بیاورم $\beta$ برای $p_0 - p_1 = \gamma^{(k)}=0.02$؟ پیشاپیش با تشکر فراوان
با استفاده از ادغام مونت کارلو با روش دوبخشی برای یافتن مقدار واقعی در R
113598
این سوال در مورد تعامل سه طرفه و امکان اعمال بدون ترم دوم پایین تر با حفظ متغیرهای اصلی در معادله مانند سوالات دیگر است. در واقع پاسخ های دیگر نشان می دهد که امکان درخواست وجود دارد. من اینجا نیستم تا بهترین راه حل را پیدا کنم زیرا آن را می دانم و قبلاً در سؤال خود گنجانده ام، اما برای اینکه بدانم آیا این امکان وجود دارد صرف نظر از اینکه ترجیح داده شود یا نه. با تشکر از شما و لطفاً سوال من را برای بحث باز کنید. معادله رگرسیون شناخته شده برای ارزیابی تعامل سه طرفه $$ Y= B_1 X+B_2 Z+B_3 W +B_4XZ+B_5XW+B_6ZW+B_7XZW+B_0 $$ همه شرایط مرتبه پایین تر است. در معادله رگرسیون برای ضریب B7 گنجانده شده است تا اثر برهمکنش سه طرفه را بر Y نشان دهد. آیا وجود دارد راه ممکن برای رد شدن از شرایط مرتبه پایین تر و شامل فقط عبارت بالاتر؟ مانند: $$ Y= B_1 X+B_2 Z+B_3 W +B_4XZW+B_0 $$ و اگر X & Z متغیرهای پیوسته و W متغیر ساختگی است، به چند مشاهده نیاز دارم تا چنین معادله ای را انجام دهم؟ اگر کسی بتواند پیشنهادی به من بدهد ممنون می شوم
آیا می توانیم از اصطلاحات مرتبه پایین تر در تعاملات صرف نظر کنیم؟
57898
اخیراً به مقاله ای برخوردم که از آزمون مک نمار برای ارزیابی اثربخشی یک مداخله برای بهبود پایبندی به درمان استفاده می کند. این مطالعه از یک طرح قبل و پس آزمون استفاده کرد که به موجب آن رفتار پایبندی برای هر دو گروه کنترل و مداخله با استفاده از یک ابزار اندازه‌گیری شد و به عنوان داده‌های پیوسته بیان شد. سپس بهبود نسبی (پست / پیش) بین دو گروه را مقایسه می کند. من قبلا هرگز تست مک نمار را برای این مورد استفاده نکرده بودم، اما به اندازه کافی با آمار آشنا نیستم. آیا واقعا روش مناسبی است؟ آیا آزمون t (جفتی) یا چیزی شبیه به آن منطقی تر نخواهد بود؟
آیا آزمون مک نمار برای ارزیابی تفاوت‌های پیش از پس از مطالعه در مطالعات مداخله با بازوی کنترل مناسب است؟
90118
هنگامی که سعی می کنید یک مدل AR(p) را به یک سری زمانی در R برازید، به نظر می رسد که هم ar.ols() و هم arima() کار خواهند کرد. آیا در مورد زمان استفاده از آن در نظر گرفته شده است؟ به نظر می‌رسد ()ar.ols از تخمین حداقل مربع استفاده می‌کند، در حالی که arima() از حداکثر احتمال یا حداقل کردن مجموع مربعات شرطی (روش پیش‌فرض) استفاده می‌کند. آیا به حداقل رساندن مجموع مربعات شرطی معادل MLE شرطی برای فرآیند ثابت گاوسی است؟ بنابراین آیا arima() اساساً MLE است یا MLE شرطی؟ با تشکر
ar.ols() یا arima() برای مدل سازی سری های زمانی
78467
من می‌خواهم الگوریتم‌های طبقه‌بندی چند برچسبی را ارزیابی کنم و به این فکر می‌کردم که از دقت و اندازه‌گیری F1 استفاده کنم: دقت = #تقاطع(پیشنهادات،برچسب_های_درست) / #اتحادیه(پیشنهادات،برچسب_های_درست) F1 Measure = 2 * (P * R) ) / (P + R) موارد فوق برای یک مثال واحد است و سپس با توجه به آزمون میانگین می شود اندازه آیا منطقی است که هر دو معیار فوق را در نظر بگیریم و چرا؟ آیا شرایطی وجود دارد که در آن یکی از دیگری بهتر عمل کند؟
دقت در مقابل اندازه گیری F1 در طبقه بندی چند برچسبی
62793
آیا کتابی وجود دارد که توضیح دهد که چرا تکنیک های استاندارد بهتری مثلاً از Tukey و ANOVA وجود ندارد؟ برای مقایسه، به عنوان مثال، من در مورد فرضیه صفر یک نمونه آزمون $t$ مطالعه کردم و حتی به خود زحمت ندادم که آزمون‌های بهتری وجود دارد. اما این احتمالاً فقط یک باور مغرضانه است که هیچ چیز پیچیده‌تری از نظر ریاضی وجود ندارد که بتوان با گاوسی برای بهبود در آزمون یک نمونه $t$ انجام داد. با این حال، Tukey و ANOVA از نظر ریاضی پیچیده‌تر هستند و برای من واضح نبود که چرا باید در وهله اول آنها را در نظر گرفت. به عنوان مثال در یک سوال قبلی در مورد اینکه چرا روش Tukey در تمام تست‌های $t$-دو نمونه‌ای دوتایی مورد نیاز است پرسیدم. پاسخی که من برای این سوال گرفتم این است که تمام تست‌های $t$-دو نمونه‌ای جفتی از مثبت کاذب رنج می‌برند. اما برای من شهودی نیست که چگونه روش توکی بهترین راه برای فرار از این مشکل است. چگونه می توان به طور شهودی متوجه شد که Tukey و ANOVA به طور کلی تکنیک های بسیار خوبی در بین همه احتمالات هستند؟
چرا پیشرفت های آشکاری نسبت به روش توکی وجود ندارد؟
29345
کتاب‌های درسی معمولاً هنگام توضیح موضوع، طرح‌های مثال خوبی از پایه‌های یکنواخت دارند. چیزی شبیه یک ردیف مثلث های کوچک برای یک اسپلاین خطی، یا یک ردیف قوز کوچک برای یک اسپلاین مکعبی. این یک مثال معمولی است: http://support.sas.com/documentation/cdl/en/statug/63033/HTML/default/viewer.htm#statug_introcom_a0000000525.htm من می‌پرسم آیا راه آسانی برای ایجاد یک نمودار پایه spline با استفاده از توابع استاندارد R (مانند bs یا ns). من حدس می‌زنم یک قطعه ساده از محاسبات ماتریسی همراه با یک برنامه R بی‌اهمیت وجود دارد که طرح‌های زیبایی از یک پایه spline را به روشی زیبا نشان می‌دهد. من فقط نمی توانم به آن فکر کنم!
تجسم یک پایه اسپلاین
63262
من مدلی برای رگرسیون تعدیل‌شده چندگانه با «پرداخت» (مستمر) به عنوان DV، یک پیش‌بینی‌کننده پیوسته (نوروتیسیسم)، و دو عامل طبقه‌بندی باینری بین موضوعی دارم: استرس در مقابل عدم استرس و خودپرداختی در مقابل پرداخت دیگر. . اساساً، می‌خواهم بدانم که آیا افزایش تفاوت بین پرداخت به خود و دیگران بسته به روان رنجوری در شرایط استرس بیشتر از بدون استرس است؟ بنابراین، من تعامل 3 طرفه را از نظر معناداری آزمایش کردم و اثر قابل توجهی یافتم، اما همانطور که تعاملات 3 طرفه را درک می کنم، یک معنی می تواند از فرضیه جایگزین من یا این فرضیه که سایر تعاملات دو طرفه متفاوت است حمایت کند. چگونه دقیقاً فرضیه فوق را آزمایش کنم و چگونه آن را در SPSS پیاده سازی کنم؟ من همچنین مطمئن نیستم که در این مورد از کدام سیستم کدگذاری استفاده کنم و چرا از نظر قابلیت تفسیر.
کاوش برهمکنش سه طرفه با یک متغیر پیوسته و دو متغیر طبقه ای
63263
بگویید من مجموعه داده ای دارم که از اشیاء $N$ تشکیل شده است. هر شی دارای تعداد معینی از مقادیر اندازه گیری شده است (در این مورد سه عدد): $x_1[a_1، b_1، c_1]، x_2[a_2، b_2، c_2]، ...، x_N[a_N، b_N، c_N] $ به این معنی که من ویژگی های $[a_i، b_i، c_i]$ را برای **هر** $x$ مورد اندازه گیری کرده ام. فضای _measurement_ فضایی است که توسط متغیرهای $[a, b, c]$ تعیین می‌شود، که در آن هر شیء $x$ با یک نقطه در آن نشان داده می‌شود. به صورت گرافیکی تر: من اشیاء $N$ دارم که در یک فضای سه بعدی پراکنده شده اند. چیزی که من نیاز دارم راهی است برای تعیین احتمال (یا احتمال؟، آیا تفاوتی وجود دارد؟) یک شی **جدید** $y[a_y, b_y, c_y]$ متعلق به این ابر اشیاء این احتمال برای هر شی $x$ البته بسیار نزدیک به 1 خواهد بود. آیا این امکان پذیر است؟ * * * ## اضافه کردن 1 برای پاسخ به سوال AdamO: شی $y$ متعلق به مجموعه ای است که از $M$ _مخلوط_ اشیاء (با $M$ > $N$) تشکیل شده است. این بدان معناست که برخی از اشیاء در این مجموعه احتمال تعلق به اولین مجموعه داده ($N$) و برخی دیگر احتمال کمتری خواهند داشت. من در واقع به این اشیاء با احتمال کم علاقه دارم. من همچنین می‌توانم تا 3 مجموعه داده دیگر از اشیاء $N1$، $N2$، و $N3$ بیاورم، که همه آنها دارای ویژگی‌های _global_ یکسان با مجموعه داده‌های $N$ هستند. به عنوان مثال: یک شی در $M$ که احتمال کمی در $N$ دارد در مقایسه با $N1$، $N2$ و $N3$ نیز احتمالات پایینی خواهد داشت (و بالعکس: اشیاء در $M$ احتمال تعلق زیاد دارند. به $N$ همچنین احتمال زیاد تعلق به $N1$، $N2$ و $N3$ را نشان خواهد داد. * * * ## افزودن 2 با توجه به پاسخ داده شده در سؤال تفسیر/استفاده از چگالی هسته، من نمی توانم **احتمال یک شی جدید متعلق به مجموعه ای که $kde/pdf$ را ایجاد کرده است، استخراج کنم (با فرض اینکه I حتی قادر خواهد بود معادله $pdf$ غیر یک وجهی را حل کند، زیرا من باید این فرض را پیشینی داشته باشم که آن شی جدید توسط همان فرآیندی که مجموعه داده را تولید می کند، ایجاد شده است. که از آن $kde$ بدست آوردم. کسی میتونه این رو تایید کنه لطفا
احتمال تعلق یک شی به گروهی از اشیاء
67568
من دو تا کارکرد دارم تابع اول دارای مقدار مثبت برای AIC و تابع دوم دارای مقدار منفی fir AIC است. چگونه مقایسه کنیم؟ مقادیر جبری یا مطلق؟؟ ممنون :)
چگونه AIC (معیار اطلاعات akaike) را مقایسه کنیم؟
95196
من سعی می کنم یک مدل پواسون دو متغیره برای پیش بینی نتایج بازی های فوتبال ارائه کنم. من نرخ گلزنی برای تیم های میزبان و میهمان را دارم و احتمال گلزنی هر امتیاز (یعنی 1-0، 2-1، 3-3) (که توسط بنگاه ها داده می شود) برای هزاران بازی. من فرض می‌کنم احتمالاتی که مؤسسه‌ها برای هر امتیاز احتمالی به دست می‌آورند و با نرخ امتیازدهی من برای هر تیم مطابقت دارند، درست است. من چندین مقاله در مورد این موضوع خوانده‌ام، مفیدترین آنها پواسون دو متغیره و مدل‌های رگرسیون پواسون دو متغیره متورم مورب در R بود. همه آنها از **نتایج** بازی‌های فوتبال گذشته استفاده می‌کنند تا به نرخ‌های امتیازدهی برای هر تیم برسند. و سپس یک رگرسیون برای تناسب نرخ ها با نتایج انجام دهید. من می‌خواهم از نرخ‌های امتیازدهی که قبلاً دارم، و توزیع‌های احتمال داده‌شده توسط بنگاه‌داران، برای ساختن یک مدل پواسون دو متغیره استفاده کنم. به نظر می رسد همه از نتایج بازی های گذشته برای ایجاد یک مدل استفاده می کنند زیرا امتیازات هر تیم را ندارند. من آنها را دارم، بنابراین معتقدم که بهتر است مدلی از این طریق ارائه شود. هدف نهایی این است که مدلی داشته باشیم که بتوانم نرخ امتیازدهی را برای تیم A و B وارد کنم و در مدل توزیع احتمال هر امتیاز را به دست بیاورم (یعنی 0-0، 1-3، 2-1، ... ). چگونه باید این کار را انجام دهم؟ بسته bivpois که سازندگان مقاله از آن استفاده کرده‌اند، در صورتی که از نتایج بازی‌های گذشته استفاده می‌کنید، بسیار مفید است. آیا می توانید پکیج دیگری برای R پیشنهاد دهید که بتوانم از آن استفاده کنم؟ با تشکر از کمک شما.
رگرسیون پواسون دو متغیره با توجه به امتیازات و احتمالات هر امتیاز و نه نتایج مسابقات
95192
من اولین مدل را در نظر می‌گیرم که در آن 6 مورد مشاهده‌پذیر (غلظت متابولیت‌ها) بر روی مجموعه داده‌ها (معیار تجربی این 6 غلظت) برازش می‌شوند. من یک مدل دوم هم دارم که زیرمجموعه اولی است و فقط 4 قابل مشاهده را مدل می کند. این مدل دوم تنها بر روی بخشی (4 غلظت از 6 غلظت) از مجموعه داده های مورد استفاده برای مدل اول برازش می یابد. من نمی توانم از AIC برای مقایسه این دو مدل استفاده کنم زیرا آنها دقیقاً روی داده های مشابهی قرار ندارند. آیا اینها توسعه AIC یا معیار اطلاعات دیگری است که می تواند در مورد مدل های تودرتو و داده های تودرتو به من کمک کند؟ (اگر مرجعی داشته باشید، عالی است!)
معیارهای انتخاب مدل برای مدل های تودرتو که بر روی داده های تودرتو نصب شده اند؟
16901
فرض کنید من متغیرهای تصادفی $X$ و $Y$ دارم. $X$ قابل مشاهده است. $Y$ نیست. ما همچنین می دانیم که اگر $X \leq Y$، $Z = f(X,Y)$ که $Z$ یک متغیر تصادفی سوم است و $f(\cdot)$ یک تابع شناخته شده است. در غیر این صورت $Z$ گم شده است. $Z$ نیز قابل مشاهده است (فقدان یا یک عدد واقعی). فرض کنید من توزیع X$ را می دانم و می توانم توزیع Z$$ را از روی داده ها تخمین بزنم. نمی دانم آیا می توانم توزیع $Y$ را تخمین بزنم. اولین سوال من این است: این مشکل چیست؟ این شبیه به یک مشکل رگرسیون سانسور شده کتاب درسی است اما متفاوت است. آیا این یک مشکل رگرسیون سانسور شده تصادفی است؟ سوال بعدی من این است که آیا مشکل قابل شناسایی است؟ من متوجه شدم که برای هر مجموعه ای از نمونه های تصادفی $X_1، X_2، X_3، ...$، ممکن است چندین دنباله $Y_1، Y_2، Y_3، ...$ وجود داشته باشد که خروجی یکسانی داشته باشد $Z_1، Z_2، Z_3 ،... دلار. بنابراین حدس می‌زنم یافتن بهترین راه‌حل دشوار خواهد بود مگر اینکه محدودیت‌هایی اعمال شود. اگر حدس من درست است، محدودیت‌های معمولی که افراد اعمال می‌کنند چیست؟ اگر بتوانیم برخی از محدودیت‌ها را برای مسئله اعمال کنیم تا بتوانیم پارامترهای بهینه را پیدا کنیم که برخی از معیارهای خطای از پیش تعریف شده را به حداقل برساند. امیدواریم بتوانیم توزیع $Y$ را تخمین کنیم. پیشنهادات، کتاب‌ها و مقالات شما قابل استقبال است. هر ایده ای؟
یک مشکل رگرسیون تصادفی سانسور شده؟
62790
تقویت یک دسته از یادگیرندگان ضعیف را می گیرد و یک یادگیرنده قوی ایجاد می کند. اما چرا ایجاد یک یادگیرنده قوی از همان ابتدا بدون استفاده از تکنیک های تقویتی اینقدر دشوار است؟ و بنابراین نیاز به تقویت را برطرف می کند.
چرا تقویت موثر است؟
64744
من یک مجموعه داده بزرگ از 20 میلیون مشاهدات با 20+ اندازه گیری برای هر مشاهده (افراد) دارم. علاوه بر این، من مجموعه ای از وزن ها را دارم که نشان دهنده جمعیت نژادی است که هر فرد در آن زندگی می کند. به عنوان مثال، از داده‌های سرشماری، این می‌تواند درصد جمعیت در کد پستی یا بخش‌هایی باشد که آفریقایی آمریکایی، سفیدپوست، آسیایی و غیره هستند. این درصدها به 100% اضافه می‌شوند. ما فاقد معیار مستقیم نژاد در افراد هستیم. این اطلاعات در دسترس نیست. سپس داده های نمایه به این صورت خواهند بود: ID، سفید، آسیایی، آمریکایی آفریقایی،... 1234 70% 20% 5% 5% 0% 2345 30% 50% 10% 5% 5% 3456 5% 90% 5% 0 % 0% 4567 25% 25% 25% 15% 10% 20 معیار ترکیبی از داده های مالی و پرچم های درست/نادرست هستند. این داده های مالی به شدت منحرف هستند و همچنین صفرهای زیادی دارند. ما میانگین وزنی تمام معیارها را محاسبه خواهیم کرد، به عنوان مثال. میانگین ارزش آمریکایی های آفریقایی تبار سوالات من حول محور اندازه گیری واریانس محاسباتی برای این ابزارها است. من فکر می‌کنم ساده‌ترین راه برای محاسبه تخمین‌های واریانس، راه‌اندازی شناسه‌ها، حفظ نمایه هر ID و محاسبه میانگین وزنی $N$ است. از طرف دیگر، می‌توانیم به‌طور تصادفی یک مسابقه را برای هر نفر $N$ برابر نمایه انتخاب کنیم و میانگین وزنی $N$ را محاسبه کنیم. همچنین می‌توانیم هر دو را انجام دهیم، شناسه‌ها را دوباره نمونه‌برداری کنیم و در هر تکرار 1 مسابقه انتخاب کنیم. من نمی توانم بفهمم نتایج شبیه سازی یک مسابقه واقعاً چه چیزی را اندازه گیری می کند. از آنجا که به هر فرد یک مسابقه اختصاص داده شده است، نمی توان از آن برای فاصله اطمینان از میانگین وزنی اصلی استفاده کرد. _**آیا نامی برای این روش دوم شبیه سازی متغیر تصادفی وجود دارد؟_** آیا مرجعی برای استفاده از آن وجود دارد؟
چگونه می توان اعتماد یک معیار وزنی را تقویت کرد؟
29343
فرض کنید من یکسری افراد دارم که چند تست انجام داده اند (بیایید آن را تست A بنامیم). اکنون یک آزمون دوم (تست B) را انجام می دهم تا این افراد را به دو دسته (که یک پاسخ درست از پیش تعریف شده دارند) دسته بندی کنم. _توجه داشته باشید که نمره آزمون A فقط می تواند نسبت سیگنال به نویز تست B را پیش بینی کند. یعنی شما نمی توانید از نمره آزمون A برای انجام خود دسته بندی استفاده کنید._ هدف من انتخاب گروهی از افراد است که به راحتی در دسته بندی قرار می گیرند. دسته بندی های صحیح را تا حد امکان (یعنی نمره واقعی آزمون B مهم نیست)، با استفاده از نمره آزمون A. اکنون، می خواهم بررسی کنم که چگونه آزمون A (که از چندین متغیر A1 تشکیل شده است، A2...) نتیجه نهایی را پیش بینی می کند. چگونه می توانستم این کار را انجام دهم؟ من به این فکر کردم که دسته‌ای از زیر گروه‌ها با حجم نمونه ثابت را به‌طور تصادفی ایجاد کنم و میانگین نمره آزمون A و درصدی را که طبقه‌بندی درستی برای این زیر گروه‌ها به دست آورده‌ام اندازه‌گیری کنم و سپس تحلیل رگرسیون را روی آن اعمال کنم. آیا این یک رویکرد معتبر خواهد بود؟ اگر نه، راه صحیح انجام این کار چیست؟
چگونه ارزش پیش بینی متغیرها را برای نتیجه ای که فقط به صورت گروهی می توان مشاهده کرد، بررسی کرد؟
63267
فاصله Mahalanobis، زمانی که برای اهداف طبقه‌بندی استفاده می‌شود، معمولاً یک توزیع نرمال چند متغیره را در نظر می‌گیرد، و فواصل از مرکز باید پس از توزیع $\chi^2$ (با درجه آزادی $d$ برابر با تعداد ابعاد/ویژگی‌ها) باشد. . ما می‌توانیم احتمال تعلق یک نقطه داده جدید به مجموعه را با استفاده از فاصله Mahalanobis آن محاسبه کنیم. من مجموعه داده هایی دارم که از توزیع نرمال چند متغیره پیروی نمی کنند ($d \ تقریباً 1000 $). در تئوری، هر ویژگی باید از توزیع پواسون پیروی کند، و از نظر تجربی به نظر می‌رسد که این مورد برای بسیاری از ویژگی‌ها ($\تقریباً 200 دلار) صادق است، و آنهایی که نیستند در نویز هستند و می‌توانند از تحلیل حذف شوند. چگونه می توانم نقاط جدید را در این داده ها طبقه بندی کنم؟ حدس می‌زنم دو مؤلفه وجود دارد: 1. فرمول «فاصله ماهالانوبیس» مناسب روی این داده چیست (یعنی توزیع پواسون چند متغیره)؟ آیا تعمیم فاصله با سایر توزیع ها وجود دارد؟ 2. چه از فاصله معمولی Mahalanobis استفاده کنم یا فرمول دیگری، توزیع _این_ فواصل چگونه باید باشد؟ آیا روش دیگری برای انجام آزمون فرضیه وجود دارد؟ **متعارف...** تعداد نقاط داده شناخته شده $n$ در هر کلاس به طور گسترده ای متفاوت است، از $n=1$ (خیلی کم، حداقل را به صورت تجربی تعیین خواهم کرد) تا حدود $n=6000$. فاصله Mahalanobis با $n$ مقیاس می شود، بنابراین نمی توان فواصل از یک مدل/کلاس به مدل دیگر را مستقیماً مقایسه کرد. هنگامی که داده ها به طور نرمال توزیع می شوند، آزمون کای دو راهی برای مقایسه فواصل از مدل های مختلف (علاوه بر ارائه مقادیر یا احتمالات بحرانی) فراهم می کند. اگر راه دیگری برای مقایسه مستقیم فواصل مانند ماهالانوبیس وجود داشته باشد، حتی اگر احتمالات را _نمی دهد، می توانم با آن کار کنم.
فاصله ماهالانوبیس در داده های غیر عادی
88368
من یک پواسون glm را بر روی داده های فرکانس خود نصب کردم و به نتیجه رسیدم: انحراف صفر: 657.49 در 583 درجه آزادی انحراف باقیمانده: 575.00 در 571 درجه آزادی AIC: 1534.4 آیا مقدار AIC بالا و انحراف باقیمانده نسبتاً بالا یک موضوع جدی است. مورد توجه قرار گیرد؟ با تشکر
تفسیر AIC و مقادیر انحراف
62794
من در حال کار بر روی تعیین میانگین Frechet چند منحنی هستم. من از این معادله استفاده می کنم: $$ \sum_{n=1} (P_a - P_b)^2 $$ اما کاملاً مطمئن نیستم که چگونه این کار را در چندین منحنی انجام دهم. همچنین، پاسخ باید این باشد، مگر اینکه کاملاً اشتباه می‌کنم، باید یک منحنی باشد، اما به جای آن یک عدد واحد می‌گیرم. کسی میتونه کمکم کنه؟
Frechet میانگین منحنی های چندگانه
67560
من سعی می کنم بفهمم چگونه می توان نقطه برش بهینه را برای یک منحنی ROC (مقداری که در آن حساسیت و ویژگی به حداکثر می رسد) محاسبه کرد. من از مجموعه داده «aSAH» از بسته «pROC» استفاده می‌کنم. متغیر نتیجه را می توان با دو متغیر مستقل توضیح داد: s100b و ndka. با استفاده از نحو بسته Epi، من دو مدل ایجاد کردم: library(pROC) library(Epi) ROC(form=outcome~s100b, data=aSAH) ROC(form=outcome~ndka, data=aSAH) خروجی در دو نمودار زیر نشان داده شده است: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/kb5SH.jpg) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/RA1gv.jpg) در نمودار اول (`s100b )، تابع می گوید که نقطه برش بهینه در مقدار مربوط به lr.eta=0.304 محلی سازی شده است. در نمودار دوم ('ndka') نقطه برش بهینه در مقدار متناظر با 'lr.eta=0.335' محلی سازی شده است (معنی 'lr.eta' چیست). اولین سوال من این است: * مقادیر «s100b» و «ndka» مربوط به مقادیر «lr.eta» نشان داده شده چیست (نقطه برش بهینه از نظر «s100b» و «ndka» چیست)؟ **سوال دوم:** حالا فرض کنید من یک مدل با در نظر گرفتن هر دو متغیر ایجاد کنم: ROC(form=outcome~ndka+s100b, data=aSAH) نمودار به دست آمده این است: ![توضیح تصویر را اینجا وارد کنید](http:// i.stack.imgur.com/LbN2p.jpg) من می خواهم بدانم مقادیر ndka و s100b در کدام حساسیت و ویژگی هستند توسط تابع به حداکثر می رسند. به عبارت دیگر: مقادیر «ndka» و «s100b» که در آنها Se=68.3% و Sp=76.4% (مقادیر به دست آمده از نمودار) داریم چیست؟ من فرض می‌کنم این سوال دوم مربوط به تجزیه و تحلیل multiROC است، اما مستندات بسته «Epi» نحوه محاسبه برش بهینه برای متغیرهای _both_ مورد استفاده در مدل را توضیح نمی‌دهد. سؤال من بسیار شبیه به این سؤال از reasearchGate است که به طور خلاصه می‌گوید: > تعیین امتیاز برش که نشان دهنده یک مبادله بهتر است > بین حساسیت و ویژگی یک معیار ساده است. با این حال، برای تجزیه و تحلیل منحنی ROC چند متغیره، اشاره کرده‌ام که بیشتر محققان بر روی الگوریتم‌هایی برای تعیین دقت کلی ترکیب خطی چند شاخص (متغیر) بر حسب AUC تمرکز کرده‌اند. > [...] > > با این حال، این روش ها به نحوه تصمیم گیری ترکیبی از امتیازات برش مرتبط با شاخص های متعدد اشاره نمی کنند که بهترین دقت تشخیصی را ارائه می دهد. یک راه حل ممکن همان چیزی است که شولتز در مقاله خود پیشنهاد کرده است، اما از این مقاله من نمی توانم بفهمم که چگونه نقطه برش بهینه را برای یک منحنی ROC چند متغیره محاسبه کنم. شاید راه‌حل بسته «Epi» ایده‌آل نباشد، بنابراین هر پیوند مفید دیگری قدردانی خواهد شد.
تجزیه و تحلیل ROC و multiROC: چگونه نقطه برش بهینه را محاسبه کنیم؟
98956
من برای شروع با این سوال کمی مشکل دارم. ![یک گربه مشغول](http://i.imgur.com/JKeSBhN.png) من می دانم چگونه تست نیمن-پیرسون و منطقه بحرانی آن را استخراج کنم. نگرانی اصلی من استخراج تابع Likelihood نمونه با توجه به فرضیه صفر و فرضیه جایگزین آن است. من می خواهم این را به تنهایی حل کنم اما مطمئن نیستم که چگونه آن را شروع کنم.
یک تست نیمن-پیرسون از H0 بدست آورید: p1=p2=2/5 در برابر جایگزین p1=1/2 و p2=1/5 زمانی که خطای نوع 1 0.05 است.
62872
من روی یک مشکل راهزن چند مسلح کار می کنم که در آن هیچ اطلاعاتی در مورد توزیع پاداش نداریم. من مقالات زیادی پیدا کرده ام که کران پشیمانی را برای توزیع با کران شناخته شده و برای توزیع های عمومی با پشتیبانی در [0،1] تضمین می کنند. من می خواهم بدانم آیا راهی برای عملکرد خوب در محیطی وجود دارد که توزیع پاداش هیچ تضمینی در مورد پشتیبانی آن ندارد. من سعی می کنم یک حد تحمل ناپارامتریک را محاسبه کنم و از آن عدد برای مقیاس بندی توزیع پاداش استفاده کنم تا بتوانم از الگوریتم 2 مشخص شده در این مقاله استفاده کنم (http://jmlr.org/proceedings/papers/v23/agrawal12/agrawal12.pdf ). آیا کسی فکر می کند این روش کارساز باشد؟ اگر نه، آیا کسی می تواند من را به نقطه مناسب راهنمایی کند؟ با تشکر از یک دسته!
راهزن چند مسلح برای توزیع کلی پاداش
67564
برای پایان نامه کارشناسی ارشدم در حال بررسی رابطه واسطه ای هستم. من باید مدل معادله را بنویسم، اما دقیقاً نمی دانم چگونه این کار را انجام دهم. در مورد من چهار متغیر مستقل دارم، یک متغیر واسطه و یک متغیر وابسته. چگونه متغیر واسطه شده را به معادله اضافه کنم؟ تا به حال این را دریافت کردم: نوآوری استثماری $= \alpha + \beta_1\ $ انگیزه الهام بخش $+\ \beta_2\ $ توجه فردی $ +\ \بتا_3\ $ تحریک فکری $+\ \بتا_4\ $ تاثیر ایده آل $+\ \ beta_5$ قابلیت تبادل دانش و ترکیب $+\ \epsilon, \epsilon \sim$ iin (0, $\sigma$). $\beta_5$ متغیر واسطه من است. آیا می توانم فقط این را اضافه کنم یا باید چیزی را ضرب کنم؟
چگونه با واسطه معادله رگرسیون بنویسیم؟
26829
متخصص غیر آماری کم سواد به دنبال رابطه کوتاه مدت برای سود بسیار یک طرفه است. سیستم مورد بحث شامل سنگ ها و خواص فیزیکی است. مدل‌سازی بیت‌های زمین معمولاً به معنای اندازه‌گیری واقعی کمی در مقایسه با حجم مدل است. برآوردهای زیادی لازم است، و من هیچ ایده ای ندارم که چگونه بیانیه عدم قطعیت ها را مدیریت کنم. برای مثال، فرض کنید جریان فرآیند مدل‌سازی به این صورت است که «نمونه کوچک سنگ‌ها را اندازه‌گیری کنید: ویژگی X را دریافت کنید (از طریق میانگین اندازه‌گیری‌ها)»، سپس «از X در مدل ساده برای تعیین Y استفاده کنید». به عنوان مثال، Y = mX + b. اگر 20 سنگ داشته باشم که آنها را اندازه می‌گیرم و میانگینی برای خاصیت X بدست می‌آورم، چگونه عدم قطعیت آن را برای شروع نشان دهم، و سپس چگونه آن را در محاسبه Y منتشر کنم (با فرض اینکه عدم قطعیت در اطراف m در مقایسه ناچیز است. )؟ من به داده های خود به صورت گرافیکی نگاه کرده ام، و به نظر می رسد که آنها بیشتر شکل گاوسی دارند. به عنوان مثال این نموداری از تراکم هسته ویژگی X است: ![image kernal](http://i.stack.imgur.com/7oM6l.png) مقداری انحراف و ناهمواری مشهود است که احتمالاً تحت تأثیر اندازه نمونه کوچک است. بسیار خوب، بنابراین مقادیر نسبتاً زیادی برای برخی از انواع سنگ ها وجود دارد، اما در اصل ما با حجم های بزرگ سروکار داریم، و باید مدل های خود را کمی ایده آل کنیم، بنابراین دنباله هایی مانند شما در منحنی زرد در سمت چپ، در حالی که واقعی هستند، در شبیه سازی عددی ما مورد بررسی قرار نمی گیرند. یک بار یک حرفه ای مسن تر به من گفت که اگر مدل من بتواند حدود 85 درصد مشاهدات را توضیح دهد، باید شامپاین بخرم. این: به نظر می رسد تخمین خطا از اندازه گیری های مکرر سؤال مشابهی باشد، اما من حتی واقعاً پاسخ پذیرفته شده را درک نمی کنم. Std dev/sqrt(n) خطای استاندارد است؟
چگونه خطای اندازه گیری در داده های پراکنده را مدیریت کنم؟
62797
من یک نمونه با میلیون ها امتیاز دارم. هر نقطه $x$ دارای دو مقدار مرتبط است، فرض کنید $A_{x}$ و $B_{x}$. من مقادیر میانگین A و B را در نمونه محاسبه کردم: $\overline{m}_{A} = 0.19 \quad \text{and} \quad \overline{m}_{B} = 0.21$ توزیع‌های مقادیر متفاوت هستند و نرمال نیستند. و انحراف معیار وسیله ناچیز است. آیا می توانم بگویم که میانگین ها از نظر آماری تفاوت معنی داری دارند؟ آیا برای اثبات آن باید آزمون رتبه امضا شده ویلکاکسون را محاسبه کنم؟
آزمون رتبه امضا شده ویلکاکسون. آیا لازم است؟
21416
من به دنبال یک فرآیند دو مرحله ای تشخیص هستم. مرحله 1 غربالگری است که افراد دارای تشخیص را با مقداری خطا شناسایی می کند، مرحله 2 یک معاینه دقیق است (یک استاندارد طلایی) در مرحله 1، N نفر غربالگری شدند و S به طور مثبت غربالگری شدند. هنگامی که افراد S که مثبت غربالگری شده بودند با جزئیات مورد بررسی قرار گرفتند، مشخص شد که G واقعاً به این بیماری مبتلا بوده است، یک نمونه تصادفی 10٪ از افراد منفی غربالگری شده نیز با جزئیات مورد بررسی قرار گرفتند و مشخص شد که J واقعاً این بیماری را داشته است (منفی کاذب از مرحله اول) شیوع بیماری مجموع مثبت واقعی و منفی کاذب مرحله اول یا (G/S)(S/N) + است. (J/(N-S))((N-S)/S)) = (G+J)/N سوال من این است که خطای استاندارد این تخمین شیوع چیست؟
خطای استاندارد برای مجموع میانگین های وزنی
35242
من به دنبال **مجموعه ای از طبقه بندی کننده های ضعیف** هستم که با **Adaboost** کار می کنند تا روی ** مجموعه داده های محبوب** آزمایش شوند. بیشتر نمونه‌های موجود در وب از نوعی یادگیرنده ضعیف تصادفی استفاده می‌کنند که روی مجموعه داده‌های تولید شده به‌طور تصادفی خودشان کار می‌کنند. آیا می توانید به من یادگیرندگان ضعیف قابل استفاده اشاره کنید؟
زبان آموزان ضعیف رایج برای Adaboost
90003
من در حال تحقیق در زمینه زبان شناسی هستم و مطمئن نیستم که در مسئله زیر چه آزمونی را انتخاب کنم. یک گروه 26 دانش آموز وجود دارد. از آنها یک سوال پرسیده می شود و دو نوع احتمالی پیشنهاد می شود. 12 نفر از آنها پاسخ اول و 14 نفر از آنها گزینه دوم را انتخاب می کنند. از چه آزمونی استفاده کنم تا از نظر آماری مشخص کنم که آیا دانش آموزان یک پاسخ را بر پاسخ دیگری ترجیح می دهند؟
تست برای یک دسته
62798
من سیستمی دارم که در آن نرخ ورود پواسون فرض می‌شود، اما شرطی برای پذیرش این ورود وجود دارد که اگر $Z$ (متغیر تصادفی فاصله یکنواخت) $\le$ مقداری $X$ و $X$ می‌تواند بین آنها متفاوت باشد. مقادیر $[0.5، 0.25، 0.125]$. در واقع X ابتدا مقدار 0.5 را می گیرد و اگر Z>X برای دو بار --> X می شود 0.25 و اگر Z>X برای دو بار دیگر --> X می شود 0.125 و با 0.125 ادامه می دهیم تا Z<=X رخ دهد. چگونه می توانم توزیع نرخ ورود را تحت این شرایط انتخاب کنم؟
چگونه توزیع نرخ ورود را انتخاب کنیم؟
29341
من می خواهم الگوریتم Baum-Welch را درک کنم. من این ویدیو را در الگوریتم Forward Backward دوست داشتم: http://www.youtube.com/watch?v=7zDARfKVm7s&feature=related من در پیدا کردن منابع خوب برای Baum-Welch مشکل دارم. هر ایده ای؟ با تشکر
آیا توضیحات *بسیار* کاربرپسند (ترجیحاً ویدئویی) در مورد Baum-Welch وجود دارد؟
24546
از ماه گذشته تحصیل در مقطع دکترا را در رشته اقتصاد سنجی شروع کردم. در حال حاضر مشغول مطالعه برخی از دروس اجباری (نظریه احتمالات و استنتاج آماری) و همچنین مرور ادبیات رشته خود هستم. من همچنین می‌خواهم ریاضیات بیشتری را مطالعه کنم، که فکر می‌کنم باعث می‌شود برای تحقیقات رسمی‌ام آمادگی بیشتری داشته باشم. آیا کسی می تواند چند کتاب ریاضی (درسی) پیشنهاد دهد؟ خیلی ممنون
کتاب های ریاضی برای تحصیل در مقطع دکتری اقتصاد سنجی
88083
من پیش‌بینی‌کننده‌هایم را در مقابل متغیر پاسخ خود ترسیم کرده‌ام تا بتوانم یک مدل پواسون خوب را با داده‌هایم تطبیق دهم. با این حال، من آن نمودارهای پراکندگی را برای تقریباً همه پیش‌بینی‌کننده‌ها دریافت می‌کنم که من را نسبتاً نگران می‌کند، زیرا گنجاندن این پیش‌بینی‌کننده‌ها باعث می‌شود که انحراف باقی‌مانده من به مقدار 575 در df 571 (به اندازه کافی زیاد) برسد، متشکرم![scatterplot](http://i.stack. imgur.com/42Fbf.jpg)
تفسیر نمودارهای پراکندگی
82808
آیا من این را به درستی درک می کنم: شما یک مدل با پارامترهای ناشناخته را در یک مجموعه داده قرار می دهید. شما پارامترها را انتخاب می کنید تا احتمال مجموعه داده تحت مدل حداکثر باشد. بگذارید این $L_{max، model1}$ باشد. شما همین کار را با یک مدل پیشرفته تر انجام می دهید. مجدداً ضرایب مدل را انتخاب می کنید تا احتمال وجود مجموعه داده تحت مدل حداکثر باشد. بگذارید این $L_{max, model2}$ باشد برای اینکه ببینید کدام مدل بهترین است، این دو (حداکثر) احتمال را با هم مقایسه کنید. حال آنچه مرا گیج می کند، تعریف آزمون نسبت درستنمایی است: > «نسبت احتمال، نسبت احتمالات دو مدل است... >». آیا نباید نسبت احتمال، نسبت حداکثر احتمالات دو مدل است... باشد؟
تعریف آزمون نسبت درستنمایی
8854
من علاقه مند به تعیین اینکه آیا دو یا چند گروه از داده ها میانگین یکسانی دارند یا خیر، و به نظر می رسد که چارچوب ANOVA روش خوبی برای نزدیک شدن به این موضوع است. با این حال، ANOVA فرض می کند که باقیمانده ها به طور معمول توزیع می شوند، در حالی که هر یک از داده های من عددی بین 0 تا 100 (درصد) است. از آنجا که توزیع‌های نرمال از تمام خطوط واقعی پشتیبانی می‌کنند، داده‌های من نمی‌توانند به فرض نرمال بودن پایبند باشند. سوال من: **آیا آزمون ANOVA-مانندی وجود دارد که برای پیش بینی درصدها مناسب باشد** (یعنی متغیرهایی که محدود شده است)؟
آزمون ANOVA مانند برای متغیرهای محدود (درصد)
58549
من می‌خواهم با استفاده از دستور optim یک توزیع هیپربولید تعمیم‌یافته استاندارد شده را به داده‌هایم تطبیق دهم. در مورد پست من در اینجا، فکر می کنم باید آن را به صورت دستی و با استفاده از دستور optim امتحان کنم. مشکل من این است که دستور بهینه سازی منجر به مقادیر پارامتر می شود که تعریف نشده اند، بنابراین با پیغام خطا مواجه می شوم: Fehler in if (delta <= 0) stop(delta must be greater of صفر) کد زیر را ببینید ( داده های من را می توانید در اینجا پیدا کنید: library(fBasics) startvalue<-c(1,0,1) loglikstandghyp <-function(zetapar,rhopar,lambdapar){ if(par>0) return(-sum(log(dsgh(mydata,zeta=zetapar,rho=rhopar,lambda=lambdapar)))) else return(Inf) } # پارامتر شکل زتا مثبت است، پارامتر چولگی rho در محدوده (-1، 1) است. optim(startvalue, fn=loglikstandghyp, method=BFGS) param = optim(startvalue,loglikstandghyp, method=BFGS)$par این منجر به نتیجه می شود که optim پارامترها را روی مقداری تنظیم می کند که مجاز نیستند. بنابراین سوال من این است که چگونه می توانم این کار را به درستی انجام دهم؟ R می گوید: پارامتر شکل زتا مثبت است، پارامتر چولگی rho در محدوده (-1، 1) است. من نمی توانم از روش برنت برای ارائه محدوده مجاز برای پارامترها استفاده کنم، زیرا برنت فقط برای مسائل یک بعدی است. بنابراین مشکل استفاده از دستور optim است، اما من باید محدودیت هایی را ارائه دهم، چگونه می توانم این کار را انجام دهم؟ پس از آن، من از دستور .paramGH(zeta,rho,lambda) برای تغییر پارامترسازی به پارامترهای آلفا، بتا، دلتا، مو، لامبدا استفاده می کنم. به نظر شما کاری که من انجام می دهم درست است؟ EDIT: حتی اگر از مقادیر شروع دیگر و روش L-BFGS-B مانند زیر استفاده کنم، باز هم پیام خطا را دریافت می کنم: startvalue<-c(20,0,1) optim(startvalue, fn=loglikstandghyp, method= L- BFGS-B,lower=c(0.00000001,-1,-Inf), upper=c(Inf,1,Inf)) ویرایش: خوب، من اکنون موارد زیر را امتحان کردم: optim(startvalue, fn=loglikstandghyp, method=L- BFGS-B,lower=c(0.00000001,-0.999999999,-Inf),upper=c(Inf,0.99999999,Inf )) این به نظر بهتر است، اما مشکل من اکنون این است که راه حل بسیار وابسته است در مقادیر شروع و من نمی دانم، چه مقادیر شروعی مناسب هستند؟ به عنوان مثال اگر مقادیر شروع را روی `startvalue<-c(100,-0.5,90)` تنظیم کنم: > optim(startvalue, fn=loglikstandghyp, method=L-BFGS-B,lower=c(0.00000001,-0.999999999,-Inf),upper=c(Inf,0.99999999,Inf)) $par [1] 100.0189990 0.312500001,-0.999999999,-Inf) `startvalue<-c(50,0.5,1)`: > optim(startvalue, fn=loglikstandghyp, method=L-BFGS-B”,lower=c(0.00000001,-0.999999999,-Inf),upper=c( Inf, 0.99999999, Inf)) $ par [1] 0.00000001 0.09105067 8.27463528 کاملاً متفاوت است، پس باید چه کار کنم؟
چگونه با استفاده از Optim یک توزیع هذلولی تعمیم یافته استاندارد شده را به داده های خود منطبق کنم؟
26824
این رگرسیون خطی چند متغیره به معنای متغیرهای وابسته چندگانه (Y) است. داده A هم X (متغیرهای توضیحی) و هم Y دارد، اما داده B فقط Y دارد. نمی‌دانم آیا راهی برای ترکیب داده‌های A و B در مدل رگرسیون وجود دارد. اگر درست به خاطر داشته باشم، تحلیل آماری با داده های از دست رفته توسط لیتل و همکاران، نوعی رویکرد تکراری مانند الگوریتم EM را پیشنهاد کرد که در آن دنبال کردن را تا زمان همگرایی 1 تکرار می کنید. X گمشده را بر اساس مدل رگرسیون فعلی تخمین بزنید. 2. مدل رگرسیون را محاسبه کنید با X کامل تخمین زده شده در #1 اما در این مورد، تمام ستون‌های ماتریس X وجود ندارد. بنابراین سؤالات من: 1. آیا رویکرد بالا هنوز مؤثر است؟ یعنی گنجاندن داده های B در مدل به هیچ وجه کمکی می کند؟ 2. اگر چنین است، چگونه می توان ستون های کامل X را تخمین زد؟ به روز رسانی: دلیلی که می خواهم داده B را اضافه کنم این است که داده B داده های خاص برنامه است در حالی که داده A داده های عمومی تر است. من امیدوارم که داده های آموزشی داشته باشم که دارای وزن بیشتری برای فضای ورودی ویژه برنامه باشد.
نحوه رسیدگی به داده های از دست رفته در همه متغیرهای توضیحی در رگرسیون خطی
101156
من سعی می کنم کلانشهر پیاده روی تصادفی را در پایتون پیاده سازی کنم تا از یک pdf $f$ تولید کنم که در دامنه تعریف شده است: $$(0, \infty) \times [3, 4] \times (0, \infty)$ $ من از Metropolis Random Walk با نرمال سه متغیره استفاده می کنم. آیا کسی می تواند فقط نگاهی بیندازد و ببیند آیا الگوریتم من درست است؟ def MRW(): #ماتریس کوواریانس matrizCov = np.array([[5,0.0,0.0], [0.0,2,0.0], [0.0,0.0,0.6]]) #آرایه با شامل # زنجیره جهانی زنجیره من خواهد بود حالت اولیه حداکثر نقطه احتمال تابع من cadeia = است np.array([[1.25,3.28,3.54]]) y=np.array([[1.0, 1.0, 1.0]]) #ایجاد 999 حالت زنجیره دیگر برای t در محدوده (999): y[0]=np .random.multivariate_normal(mean = chain[t], cov=matrizCov) #Generates a نامزد جدید برای وضعیت زنجیره در حالی که در دامنه نیست اگر(y[0][0]< 0 یا y[0][1] <3 یا y[0][1] > 4 یا y[0][2] <=0 یا f(y[0])<0): a = 0 other: a = min(1, f(y[0])/f(زنجیره[t]) ) u = np.random.uniform( ) #تولید عدد یکنواخت در (0,1) #تأیید کنید که آیا y[0] پذیرفته می‌شود if(u <= a):#موردی که y پذیرفته می‌شود chain = np.append(chain,y,axis=0) else:# مورد که y پذیرفته نمی شود chain=np.append(chain,np.array([chain[t]]), axis=0) خوشحال می شوم اگر کسی بتواند به کد من نگاهی بیاندازد متشکرم!
الگوریتم پیاده روی تصادفی متروپلیس در پایتون
24543
من باید برخی از داده های به دست آمده از آزمایش نرم افزار in vivo را تجزیه و تحلیل کنم. متأسفانه من یک مهندس SW هستم، نه یک آمارگیر. مجموعه داده شامل مشاهداتی برای تعدادی از پیام های ارسال شده بین 2 گره است (در واقع، ارسال شده و برگردانده شده است). دو نتیجه ممکن مستقل وجود دارد: 1. پیام پرچم گذاری شد و 2. یکپارچگی پیام از دست رفت. (من همچنین علاقه مند به تجزیه و تحلیل 1 OR 2 و 1 AND 2 هستم.) برای هر پیام، من این موارد را دارم: الف) داده های باینری، همپوشانی، توصیف ویژگی های سیستم فعال شده یا نه (به عنوان مثال، سیستم ممکن است فعال شده باشد. راه اندازی فقط با ویژگی «سفارش کلی»، یا ویژگی های «سفارش کلی و رمزگذاری X» یا هیچ، و غیره). برای هر پیام مجموعه‌ای از 10 ویژگی وجود دارد، فعال یا غیر فعال. این پارامترها کاملاً مستقل از یکدیگر هستند. ب) یک پارامتر از داده های طبقه بندی: پیام در کدام یک از 5 مکان مورد تجزیه و تحلیل قرار گرفته است. ج) در نهایت، من چهار پارامتر برای دسته پیام دارم (از تشخیص خودکار معنایی)، که ممکن است روی «بله»، «نه» یا «نمی‌توانم بگویم» تنظیم شود. به عنوان مثال: (فوری، بله) (هماهنگی، نمی توانم بگویم) (انتقادی، بله) (غیر قانونی، نمی توانم بگویم). من سعی می کنم بفهمم آیا ترکیبی از این پارامترها وجود دارد که احتمال وقوع نتایج احتمالی را بیشتر می کند. به عنوان مثال، فعال سازی ویژگی های 3 و 4 در مکان X برای پیام هایی که به عنوان فوری و غیر هماهنگ طبقه بندی می شوند، پیش بینی می کند که پیام ها یکپارچگی را از دست می دهند. من به برخی از تکنیک ها نگاه کرده ام و قبلاً برای استقلال هر متغیر، خی دو را امتحان کرده ام. با این حال، این رویکرد نمی تواند درست باشد: من به ترکیبی از پارامترها نیاز دارم که نتایج را توضیح دهند. چگونه باید برای گرفتن چنین چیزی اقدام کنم؟
آزمایش داده‌های باینری و طبقه‌ای با هم تداخل دارند
28431
من در حال نوشتن پایان نامه دکتری خود هستم و متوجه شده ام که برای مقایسه توزیع ها بیش از حد به نمودارهای جعبه تکیه می کنم. کدام گزینه های دیگر را برای دستیابی به این وظیفه می پسندید؟ همچنین می‌خواهم بپرسم آیا منبع دیگری به‌عنوان گالری R می‌شناسید که در آن بتوانم ایده‌های متفاوتی در مورد تجسم داده‌ها به خودم الهام کنم.
تکنیک های بصری سازی داده ها برای مقایسه توزیع ها چیست؟
28438
من می‌خواهم بر اساس داده‌های تاریخی، پیش‌بینی رتبه (چیزی شبیه به رگرسیون) انجام دهم، آیا بسته‌ای وجود دارد که بتوانم در R استفاده کنم؟ مشکلات من اینجاست: من یک داده تاریخی از بازی های ورزشی دارم، و تمام رتبه هر تیم و برخی از آمار این تیم ها، می خواهم از این داده ها برای پیش بینی رتبه این تیم ها در سال آینده استفاده کنم. با تشکر
چگونه با استفاده از R پیش بینی رتبه انجام دهیم؟
59493
من مجموعه آموزشی و مجموعه تست را از داده های خود ایجاد کرده ام. سپس auto.arima() و ets() را در R در مجموعه آموزشی برای پیش‌بینی پیش‌بینی‌های یک مرحله‌ای جلوتر انجام دادم. سپس این مقادیر با مقادیر مجموعه آزمون برای اندازه گیری خطا، یعنی RMSE، MAPE و MAE مقایسه شدند. این خروجی هر دو ets و auto.arima RMSE.ets است [1] 3767.561 RMSE.ar [1] 3776.308 MAE.ets [1] 2885.112 MAE.ar [1] 2624.482 MAPE.ets [1] 0.042320 1] 0.03857747 که معیارها باید به طور ایده آل برای انتخاب یکی از دو مدل (ets یا auto.arima) برای پیش بینی های آینده استفاده شوند. یا معیار دیگری وجود دارد که من آن را از دست داده ام. لطفا کمک کنید
بهترین معیار اندازه گیری دقت در بین rmse، mae و mape کدام است؟
63269
1. آیا درست است که علی‌ها بر اساس سال‌های پایه مختلف نمایه شوند؟ در میان بسیاری از مراجع، من فکر می کنم پاسخ نه است. آیا این درست است؟ _p.360 Wooldridge [Introductory Econometrics: A Modern Approach, 5th ed]._ می گوید که شما باید یک سال پایه مشترک داشته باشید. فقط رگرسیون «سال پایه مشترک» را در گوگل جستجو کنید و تعداد زیادی پشتیبانی را مشاهده خواهید کرد. 2. آیا داشتن متغیر Y به عنوان شاخص بر اساس 100 مشکلی ندارد؟ به عنوان مثال 100، 98، 103، 101، و غیره.
دو سوال در مورد نمایه سازی و رگرسیون
92778
اجازه دهید $A=o_{a.s.}(1)$; $A:k\times k$ ماتریس و $Vu=O_p(1)$; $V:k\times k$; $u: k\ برابر 1$. به طور خاص، $Vu$ در توزیع به $\mathcal N(0,I_k)$ همگرا می شود. آیا می توانیم نشان دهیم که $VAu=o_p(1)$ یا $\|VAu\|=o_p(1)$؟ * * * اگر $V=O(1)$ و $V^{-1}=O(1)$، آنگاه می توانیم نشان دهیم که $VAV^{-1}Vu=o_p(1)$. با این حال، $V^{-1}$ می تواند بدون محدودیت باشد... * * * سوال مرتبط: آیا $Vu=O_p(1)$ و $V=O(1)$ می توانند دلالت بر $u=O_p(1)$ داشته باشند؟
همگرایی یک محصول ماتریس
10411
من چند مجموعه داده از تعامل بین جفت عناصر دارم مانند این: element1 element2 1 element2 element3 1 element4 element5 1 ... element505535 element4 2 که در آن مقدار در ستون 3 قدرت تعامل است. تقریباً همه این نقاط قوت 1 هستند. قدرت 1 به این معنی است که این تعامل یک بار مشاهده شده است. قدرت 2 به معنای 2x و غیره است. من در واقع یک گام فراتر رفته ام و همه مجموعه داده های خود را بر اساس تعداد کل تعاملات مشاهده شده در مجموعه داده عادی کرده ام تا بتوان مقادیر تعامل مجموعه داده ها را با هم مقایسه کرد. 5 تا 6 میلیون تعامل در هر فایل فهرست شده است و هر مجموعه داده به وضوح کمتر نمونه برداری شده است زیرا حدود 500 هزار عنصر وجود دارد (یک ماتریس مربعی با 250 تریلیون موقعیت). من می‌خواهم این مجموعه داده‌ها را خوشه‌بندی کنم تا بتوانم در مورد اینکه کدام نوع از عناصر با کدام نوع عناصر دیگر خوشه‌بندی می‌شوند، اظهارنظر کنم. بدیهی است که استحکام خوشه بندی یک عامل خواهد بود - اما این تا حدی با این واقعیت بهبود می یابد که من تکرارهای بیولوژیکی از داده ها خواهم ساخت. من چند روش مختلف خوشه‌بندی «ساده‌انگیز» را امتحان کرده‌ام تا ببینم چه کاری می‌توانم به راحتی با داده‌ها انجام دهم. من کاملاً می‌دانم که اینها روش‌های مشکل‌ساز خوشه‌بندی هستند، یا به این دلیل که قوی نیستند یا به این دلیل که داده‌ها بسیار کم نمونه هستند، اما کاری که من انجام داده‌ام این است: 1. تا زمانی که حداقل یک عنصر وجود داشته باشد، عناصر را با هم دسته‌بندی کنیم. تعامل بین هر عنصر در خوشه و حداقل یک عنصر دیگر در خوشه. وقتی این کار را انجام می‌دهم، تمام عناصر به یک خوشه ختم می‌شوند. انجام این کار مهم بود زیرا به من می گوید که هیچ جفت عنصری وجود ندارد که کاملاً از بقیه گروه جدا باشد. 2. یافتن «ابرخوشه‌ها» - یعنی خوشه‌هایی که در آن هر عضو خوشه با هر عضو دیگری از خوشه تعامل دارد (مثلاً یک مثلث برای یک خوشه 3 و یک جعبه با X در وسط برای یک خوشه 4 و غیره. ). این تقریباً به طور انحصاری خوشه هایی با عناصر 2 و 3 را پس از تجزیه و تحلیل حدود 10٪ از داده ها به دست می آورد (این هنوز در حال اجرا است). من دوست دارم بتوانم نوعی خوشه بندی سلسله مراتبی را با استفاده از مقادیر قدرت تعامل خود به عنوان اندازه گیری فاصله بین هر جفت عنصر انجام دهم (برهم کنش های مشاهده نشده دارای قدرت 0 هستند). آیا کسی راهی برای انجام HC بر روی این نوع داده های بزرگ و پراکنده می داند - یا روش خوشه بندی را می شناسد که ممکن است مناسب تر باشد؟ من تا الان از R استفاده کردم
خوشه بندی مجموعه داده های بزرگ و پراکنده
35247
من از تابع adk.test (تست AD، بسته adk) برای تخمین اینکه آیا یک نمونه داده از یک خانواده توزیع پیروی می کند استفاده می کنم. سوال من این است که من 'داده' با 100 مقدار دارم، آیا باید توزیع را با 100 مقدار شبیه سازی کنم یا با هر تعداد که می خواهم؟ rnorm(100) یا rnorm(1000000) EDIT: با استفاده از توابع fitdist و gofstat بسته fitdistrplus نتایج زیر را دریافت می کنم: به عنوان مثال: توزیع عادی ad = 1.4491191816923، adtest = رد شد چگونه می توانم اعتبار نتیجه گیری تابع را بررسی کنم؟ من باید ad را با .... همچنین برای همان داده نتایج بسیار متفاوتی با استفاده از adk دریافت می کنم: چارک اول از 100 اجرای adk با 1000 نمونه: p-value = 0.20 دقیقه p-value = 0.05 نتیجه: صفر را نمی توان رد کرد
adk.test: حجم نمونه
96402
در R، من از روش تجزیه روی شی سری زمانی خود استفاده می کنم و به من فصلی + روند + مولفه تصادفی می دهد. برای مولفه فصلی، مقدار مطلق را به من می دهد که خوب است، اما من می خواهم شاخص فصلی ماهانه را نیز بدانم (مثلاً مانند ژانویه 084، فوریه 0.90، مارس 1.12، و غیره). آیا راهی سریع برای بدست آوردن این شاخص فصلی در R وجود دارد؟ ضمناً به طور معمول چگونه محاسبه می شود؟
چگونه شاخص فصلی سری های زمانی را در R محاسبه کنیم؟
59490
1.AdaBoost وزن نمونه را توسط طبقه بندی کننده ضعیف فعلی در آموزش هر مرحله به روز می کند. چرا از تمام طبقه بندی کننده های ضعیف قبلی برای به روز رسانی وزن استفاده نمی کند. **(من آن را آزمایش کرده بودم که اگر از طبقه بندی کننده های ضعیف قبلی برای به روز رسانی وزن استفاده کنم، به آرامی همگرا می شود)** 2. پس از به روز رسانی باید وزن را به 1 نرمال کند (فقط باید ضریب را ضرب کرد). من فکر می کنم این مرحله را می توان در اجرا حذف کرد. درسته؟
به روز رسانی وزن در adaboost
59495
در آماده سازی برای امتحان پایان ترم R، من روی فایل CSV زیر کار کرده ام که از R الگوبرداری شده است، که در حال حاضر در کشف آن با مشکل مواجه هستم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/cdRNC.png) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/B6D61.png) برای بررسی در این شماره تصمیم گرفتم یک متغیر دوخطی (SxPR) را معرفی کنم که ضرب متغیر S (ظرفیت نیروگاه) و متغیر طبقه بندی شده PR (خواه LWR باشد). قبلاً در همان سایت وجود داشت) و این را می توان در داده های اکسل مشاهده کرد. مدل فعلی من که از من خواسته شده است «شرایط مناسب» را به آن اضافه کنم تا بررسی کنم که آیا دلیل خوبی برای این باور وجود دارد که تأثیر ظرفیت نیروگاه بر هزینه های ساخت و ساز ممکن است برای نیروگاه هایی که دارای LWR هستند یکسان نباشد. در همان سایت قبلی و آنهایی که این کار را نکردند این است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hZn14.png) معادله $C = -9752+ 140.3*D + 4.868*T2+ 0.4180*S- 86.49*PR+ 153.2*NE- 8.38*N$ بنابراین اساساً باید تأیید کنم که کاری که در حال حاضر برای حل این مشکل انجام داده ام صحیح است یا اگر نه، چه چیزی دیگر می توانم انجام دهم زیرا با این سوال مشکلات زیادی داشتم. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/DYxo7.png) من به این نتیجه رسیدم که نتایج نشان می دهد که عبارت دوخطی (SxPR) دارای p-value> 0.05 است که نشان می دهد هیچ تعاملی بین S و PR (زیرا SxPR پیش بینی کننده قابل توجهی برای مدل نیست). این باعث می‌شود که من باور کنم تأثیر ظرفیت نیروگاه بر هزینه ساخت برای نیروگاه‌هایی که قبلاً در همان سایت یک LWR وجود داشت و آنهایی که نداشتند یکسان نیست. برای حمایت از این استدلال، نمودار پراکندگی زیر رابطه بین هزینه ساخت و ظرفیت نیروگاه را بسته به اینکه قبلاً یک LWR در همان سایت وجود داشته است یا خیر نشان می دهد. صلیب ها قطعات ظرفیت نیروگاهی هستند که در آن LWR قبلاً در همان سایت وجود نداشت و الماس هایی که قبلاً یک LWR در همان سایت وجود داشت. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/I338E.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/M2o13.png) کسی دوست دارد موافقم من در مسیر درستی هستم پوزش بابت طولانی شدن سوال امیدوارم منطقی باشد!
بررسی برهمکنش دو پیش بینی کننده با استفاده از نرم افزار R
28439
همکار توجه من را به مقاله بحث زیر جلب کنید. به نظر من این مقاله بحث به وضوح به عنوان نقدی بر مقالاتی است که به طور معمول در این زمینه منتشر می شود. مقاله بحث رشد تولید ناخالص داخلی را با طول قسمت خاصی از بدن مرد مرتبط می کند. این رابطه به وضوح غیرمعنا است، اما نویسنده استدلال کاملاً قانع‌کننده‌ای با پشتوانه داده‌ها و تحلیل‌های آماری معقول (در نگاه اول) ارائه می‌کند. سوال من این است که آیا اشکالات آماری در استدلال های نویسنده وجود دارد؟ این مقاله در وبلاگ Freakonomics ذکر شده است.
خطاهای آماری مقاله مربوط به رشد تولید ناخالص داخلی با یک متغیر غیرمعنی خاص
67565
آیا وزن یک شبکه عصبی بدون لایه پنهان و تابع فعال سازی لجستیک باید با پارامترهای یک رگرسیون لجستیک یکسان باشد؟ مال من یکی نیست؟ nnallnohidden=nnet(PartialPrepayzo~FIXPER+MEDSAL2+DREL+LEEFTIJD+HH2CRED+LTV_curr+ rate1Y+rate5Y+CIremFIRP+URB+WELSTAN2+OutNot+mover+SavRate+CRate، data=ski، size=0) glm(PartialPrepayzo~FIXPER+MEDSAL2+DREL+ LEEFTIJD+HH2CRED+LTV_curr+rate1Y+rate5Y+CIremFIRP+URB+WELSTAN2+OutNot+mover+SavRate+CRate، داده = آزمایش، خانواده = «خلاصه (دو جمله ای)») ] [,2] [1,] -1.029560622391 -1.26664018566 [2،] -0.078225500455 -0.06536644222 [3،] 0.410455341173 0.670361072504 0.670361072506 [670361072504] -0.11463794856 [5،] 0.473629162069 0.70074482878 [6،] 0.614550199698 0.83536187570 [7،] -0.6128327570 [7،] -0.6128327570 [7،] -0.6128327570 -0.743739495966 -1.06994471577 [9،] 0.200419240204 0.83957097597 [10،] -0.166568966328 -0.505832717715 -0.505832717715] 0.12678131085 [12،] -0.005947704128 -0.04248886193 [13،] -0.428175932694 -1.69521649738 [14،] 0.0494886572 [15،] 1.602200661890 2.50479250068 [16،] 0.367771764513 0.96127873663
آیا وزن شبکه عصبی بدون لایه پنهان باید با رگرسیون لجستیک مطابقت داشته باشد؟
34312
من به صورت آنلاین خواندم که فقط زمانی که با یک نمونه کار می کنید به جای کل جمعیت، استفاده از Adjusted-$R^2$ ضروری است. داده هایی که من با آنها کار می کنم اطلاعاتی در مورد یک سری سمینارهای آموزشی زنده است. هر نقطه داده نشان دهنده یک سمینار واحد است که در گذشته برگزار شده است و حاوی اطلاعات مختلفی در مورد ویژگی های آن برنامه است. در تلاش برای تصمیم گیری برای استفاده از $R^2$ یا تنظیم-$R^2$، می توانم دو روی مختلف سکه را ببینم. 1. از آنجایی که مجموعه داده من شامل تمام سمیناری‌هایی است که تا به امروز برگزار کرده‌ایم، من با کل جمعیت کار می‌کنم، بنابراین باید با $R^2$ قدیمی معمولی استفاده کنم. 2. جمعیت مورد علاقه واقعاً همه سمینارهای _ممکن_ هستند، از جمله سمینارهایی که هنوز اتفاق نیفتاده اند، به خصوص که هدف من در این مدل درک بهتر رابطه عوامل آینده است. بنابراین من به دنبال یک نمونه هستم و باید از adjusted-$R^2$ استفاده کنم. کدام منطق صحیح است و از کدام معیار همبستگی استفاده کنم؟
آیا باید از r-square استفاده کرد یا از r-square تعدیل شده با حجم نمونه کوچکی که ممکن است کل جامعه را نشان دهد؟
62134
کارآمدترین راه برای یافتن مجموعه ای از 5 نقطه صلب، همسطح و غیر هم خط در یک ابر نقطه سه بعدی مثلاً 100 نقطه چیست؟ (1) پیکربندی با مختصات 2 بعدی (یا به صورت 3 بعدی با z=0) مشخص می شود. نقاط موجود در پیکربندی و نقاطی که در ابر نقطه ای که می خواهیم جستجو کنیم در مختصات متریک مشخص شده اند. (2) جستجو باید برای ابرهای چند نقطه برای همان پیکربندی تکرار شود. (3) هدف یافتن سریعترین روش است. (من همین سوال را در انجمن‌های stackoverflow، ریاضیات و نظری علوم کامپیوتر امتحان کردم، بنابراین فکر کردم در صورتی که این مشکل مربوط به تجسم داده‌ها باشد، اینجا را امتحان کنم.)
قرار دادن مجموعه ای از 5 نقطه محدود هندسی در ابری از نقاط
19250
من سعی می‌کنم مدلی را برای داده‌های توزیع شده دوجمله‌ای برازش دهم، که این کار را از طریق روش حداکثر درستنمایی انجام داده‌ام. معمولاً من با داده‌های توزیع شده معمولی کار می‌کنم (یا داده‌هایی که می‌توانم خودم را متقاعد کنم و گاهی اوقات دیگران به طور معمول توزیع می‌شوند) و در مورد نحوه یافتن خطاهای نامتقارن در پارامترهایم کمی گیج هستم. معمولاً با اسکن فضای پارامترهای برازش شده و یافتن سطحی که X^2 یک بزرگتر از بهترین مقدار مناسب است، عدم قطعیت ها را پیدا می کنم. من برخی اظهارات اثبات نشده پیدا کرده ام که نشان می دهد این روش صرف نظر از اینکه آیا از حداکثر احتمال گاوسی استفاده می شود یا نه قابل اجرا است. آیا این مورد است؟
عدم قطعیت در پارامترهای برازش حداکثر احتمال
90000
من می خواهم اندازه نمونه را برای رگرسیون لجستیک پیدا کنم که در آن یک متغیر کمکی با 15 سطح دارم و متغیرهای کمکی با زمان تعامل دارند، به این معنی که تأثیر متغیرهای کمکی برای دوره های زمانی مختلف متفاوت است. آیا کسی می تواند به من کمک کند تا اندازه نمونه و اندازه اثر را پیدا کنم؟ ای کاش می توانستم این کار را با استفاده از شبیه سازی انجام دهم. آیا کدی در SAS یا R وجود دارد؟
محاسبه اندازه نمونه برای رگرسیون لجستیک با استفاده از شبیه سازی
35048
اخیراً من در حال مطالعه یک مسئله احتمال مربوط به توزیع ابر هندسی چند متغیره هستم. مشکل به صورت زیر بیان می‌شود: > با توجه به توپ‌های $n$ با رنگ‌های $m$ که به خوبی مخلوط شده‌اند، و فرض کنید که $n_i$ تعداد > توپ‌های با رنگ $i$ است، جایی که $i \in {1، ... ، m}$. بنابراین ما داریم > $\sum_{i=1}^{m}n_i = n$ > > قرعه کشی های تصادفی $k$ را بدون جایگزینی انجام دهید. احتمال اینکه ترسیم > $k$-th رنگی باشد که از ترسیمات $(k-1)$ قبلی کشیده شده است چقدر است؟ راه حل ساده من به این صورت است: کل دنباله های توپ ممکن برای $i$ قرعه کشی خواهد بود: $P(n، k)$ که در آن $P(n، k)$ جایگشت آیتم های $k$ از آیتم های $n$ است. . و در بین این دنباله ها، فقط آنهایی که حداقل یک بار رنگ توپ آخر را داشته باشند، نیاز را برآورده می کنند. بنابراین، توالی‌های ممکن، همه دنباله‌ها خواهند بود، به جز مواردی که هیچ یک از ترسیم‌های $(k-1)$ حاوی رنگ آخرین توپ نباشد: $P(n, k) - \sum_{i=1}^{m} n_i*P(n-n_i، k-1)$ بنابراین احتمال را می توان به صورت زیر محاسبه کرد: $1 - {{\sum_{i=1}^{m}n_i*P(n-n_i, k-1)}\over{P(n, K)}}$ اکنون سؤالات من این است: 1. آیا راه حل ساده لوحانه من درست است ، یا مواردی وجود ندارد یا با هم تداخل دارند؟ 2. من سعی کردم یک برنامه کامپیوتری بنویسم تا احتمال داده شده $n، m$ و $k$ را محاسبه کنم، اما به لطف جایگشت ها، برای ورودی های بزرگ بسیار کند است. آیا فرمول ساده تری (به این سرعت در محاسبه) برای این احتمال وجود دارد، مانند فرمول فرم بسته؟ هر گونه راهنمایی قابل قدردانی است، و اگر درک سوال خیلی سخت است به من اطلاع دهید
رسم توپ از مجموعه ای از توپ های رنگی: احتمال ترسیم رنگی که قبلا دیده شده است؟
62795
برای مثال ساده فرض کنید که دو مدل رگرسیون خطی وجود دارد * مدل 1 دارای سه پیش بینی کننده 'x1a'، 'x2b'، و 'x2c' است * مدل 2 دارای سه پیش بینی از مدل 1 و دو پیش بینی اضافی 'x2a' است و `x2b` یک معادله رگرسیون جمعیت وجود دارد که در آن واریانس جمعیت توضیح داده شده $\rho^2_{(1)}$ برای مدل 1 است و $\rho^2_{(2)}$ برای مدل 2. واریانس افزایشی توضیح داده شده توسط مدل 2 در جامعه $\Delta\rho^2 = \rho^2_{(2)} - \rho^2_{( 1)}$ من علاقه مند به بدست آوردن خطاهای استاندارد و فواصل اطمینان برای برآوردگر $\Delta\rho^2$ هستم. در حالی که این مثال به ترتیب شامل 3 و 2 پیش بینی کننده است، علاقه پژوهشی من به طیف گسترده ای از تعداد مختلف پیش بینی کننده ها (به عنوان مثال، 5 و 30) مربوط می شود. اولین فکر من این بود که از $\Delta r^2_{adj} = r^2_{adj(2)} - r^2_{adj(1)}$ به عنوان تخمینگر استفاده کنم و آن را بوت استرپ کنم، اما مطمئن نبودم که آیا این مناسب خواهد بود. ### سؤالات * **آیا $\Delta r^2_{adj}$ برآورد معقولی برای $\Delta \rho^2$ است؟** * **چگونه می توان یک فاصله اطمینان برای تغییر r-square جمعیت به دست آورد؟ (یعنی $\Delta\rho^2$)؟** * **آیا راه اندازی $\Delta\rho^2$ برای فاصله اطمینان مناسب است محاسبه؟** هر گونه ارجاع به شبیه سازی ها یا ادبیات منتشر شده نیز بسیار استقبال می شود. ### کد مثال اگر کمک کند، من یک مجموعه داده شبیه‌سازی کوچک در R ایجاد کردم که می‌توان از آن برای نشان دادن پاسخ استفاده کرد: n <- 100 x <- data.frame(matrix(rnorm(n *5)، ncol=5) ) names(x) <- c('x1a', 'x1b', 'x1c', 'x2a', 'x2b') بتا <- c(1،2،3،1،2) model2_rho_square <-.7 error_rho_square <- 1 - model2_rho_square error_sd <- sqrt(error_rho_square / model2_rho_square* sum (beta^2)) model1_rho_sum ^2) / (sum(beta^2) + error_sd^2) delta_rho_square <- model2_rho_square - model1_rho_square x$y <- rnorm(n, beta[1] * x$x1a + beta[2] * x$x1b + beta[3] * x$x1c + بتا[4] * x$x2a + بتا[5] * x$x2b، error_sd) c(delta_rho_square, model1_rho_square, model2_rho_square) summary(lm(y~., data=x))$adj.r.square - summary(lm(y~x1a + x1b + x1c, data=x))$adj. r.square ### دلیل نگرانی در مورد بوت استرپ من یک بوت استرپ را اجرا کردم در برخی از داده ها با حدود 300 مورد، و 5 پیش بینی در مدل ساده و 30 پیش بینی در مدل کامل. در حالی که تخمین نمونه با استفاده از اختلاف r-square تعدیل‌شده «0.116» بود، فاصله اطمینان تقویت‌شده عمدتاً CI95٪ (0.095 تا 0.214) بزرگ‌تر بود و میانگین راه‌اندازها به برآورد نمونه نزدیک نبود. به نظر می‌رسد میانگین نمونه‌های تقویت‌شده بر روی تخمین نمونه از تفاوت بین r-squares در نمونه متمرکز است. این در حالی است که من از مربع های r تنظیم شده نمونه برای تخمین تفاوت استفاده می کردم. جالب اینجاست که من یک روش جایگزین برای محاسبه $\Delta\rho^2$ را امتحان کردم. تخمین $\Delta \rho^2$ را به `.082` کاهش داد، اما فواصل اطمینان برای روشی که ابتدا ذکر کردم، CI95% مناسب به نظر می رسید. (.062, 0.179) با میانگین 0.118. به طور کلی، من نگران این هستم که bootstrapping فرض می‌کند که نمونه، جامعه است، و بنابراین تخمین‌هایی که کاهش برای اضافه‌برازش ممکن است عملکرد مناسبی نداشته باشد.
نحوه بدست آوردن فاصله اطمینان در تغییر مربع r جمعیت
24544
من ماتریس اصلی را تعریف می کنم: 1 2 3 4 5 6 7 8 به صورت زیر: PROC IML; تنظیم مجدد NOPRINT؛ ماتریس = {1 2 3 4، 5 6 7 8}; EXIT: من به دنبال نمونه‌برداری مجدد از هر ردیف (برای استفاده از bootstrap) با جایگزینی هستم، بنابراین ماتریس‌هایی مانند: 1 3 4 2 6 6 5 5 و 1 1 3 2 5 6 6 8 را چگونه می‌توان انجام داد؟
نمونه برداری مجدد با SAS/IML
19256
من داده‌های بقای زیر را دارم و یک طرح بقا ساخته‌ام، اما نمی‌توانم نقاط سانسور شده درست را علامت‌گذاری کنم (که باعث می‌شود فکر کنم نمودار بقای من نیز نادرست است) - لطفاً چگونه می‌توانم این را مدیریت کنم؟ حالا جواب داد! - ![طرح بقا](http://i.stack.imgur.com/V9099.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/EETFq.png)
چگونه می توانم منحنی بقا را با علائم سانسور درست نمایش دهم؟
90886
بنابراین من به دنبال مقایسه ترکیب های مختلف ویژگی ها و طبقه بندی کننده ها هستم. اما من ترکیب‌های زیادی را دریافت می‌کنم که به دقت اعتبارسنجی متقابل 100٪ دست می‌یابند. من سعی می کنم بفهمم که چگونه می توانم مفید بودن هر ترکیب را مقایسه کنم. به عنوان مثال، من می‌توانم هر دو یک SVM را با استفاده از ویژگی‌های 1، 10، 15 آموزش دهم تا دقت 100% را به دست بیاورم. اما در عین حال می‌توانم یک طبقه‌بندی کننده رگرسیون لجستیک را فقط با استفاده از ویژگی 7 آموزش دهم تا دقت 100٪ را به دست بیاورم. همچنین این یک مشکل طبقه بندی باینری است.
چگونه می توان ویژگی ها و طبقه بندی کننده هایی را که به دقت کامل دست یافتند، مقایسه کرد؟
58540
من نسخه دوم تجزیه و تحلیل سری زمانی مالی را مرور می کنم و در بخش ARMA هستم. یکی از تکنیک‌های انتخاب مدل، محاسبه تابع همبستگی خودکار توسعه‌یافته است، که نشان می‌دهد، در جدول EACF با ضرایب MA که در بالا و ضرایب AR در پایین فهرست شده‌اند، EACF در سمت چپ بالا که کمتر از مقدار مطلق 2 برابر خطای استاندارد EACF در موقعیتی است که انتخاب خوبی برای سفارشات مدل را نشان می دهد. لطفا کسی می تواند به من توضیح دهد که EACF دقیقا چیست؟
با توجه به سری های زمانی ARMA، eacf (عملکرد همبستگی خودکار توسعه یافته) دقیقا چیست؟
91444
من خودم دارم مطالعه می کنم و متن می گوید «اگر $\epsilon_\alpha$ مقدار بالای $\alpha$-quantile توزیع $\frac{\hat{\theta}-\theta}{\hat{ باشد. \sigma}}$، سپس $P(\hat{\theta}-\epsilon_\beta\hat{\sigma}\leq \theta \leq \hat{\theta}-\epsilon_{1-\alpha}\hat{\sigma} )\geq 1-\beta-\alpha$.» با این حال، از ویکی، من فکر می کنم ما این $P(\hat{\theta}-\epsilon_\beta\hat{\sigma}\leq \theta)=P(\frac{\hat{\theta}-\theta را داریم }{\hat{\sigma}}\leq \epsilon_\beta)\geq \beta$، همراه با $P(\hat{\theta}-\epsilon_{1-\alpha}\hat{\sigma}\geq \theta)=P(\frac{\hat{\theta}-\theta}{\hat{\ sigma}}\geq \epsilon_{1-\alpha})=1-P(\frac{\hat{\theta}-\theta}{\hat{\sigma}}< \epsilon_{1-\alpha})\geq 1-(1-\alpha)=\alpha$، دلالت بر این دارد که $P(\hat{\theta}-\epsilon_\beta\hat{\sigma}\leq \theta \leq \hat{\theta}-\epsilon_{1-\alpha}\hat{\sigma} )\geq \beta-\alpha$. پس کجا اشتباه کردم؟ من در حال خواندن آمار مجانبی، نوشته Van der Vaart، در صفحه 326 هستم
توزیع یک پارامتر تخمین زده شده
100223
من همه جا را برای این پاسخ جستجو کردم و دست خالی آمدم. من در حال ساخت یک مدل پیش‌بینی برای ترافیک رابط گزارش شده در فواصل 5 دقیقه‌ای در یک دوره 1 ساله هستم. برای توضیح فصلی بودن چندگانه، به این نتیجه رسیدم که تابع TBATS در R بسیار مفید خواهد بود (با فصول 60/5*24=288 و 7 برای 7 روز در هفته). ترسیم شی TBATS خروجی زیر را تولید کرد: ![تجزیه تست Tbats](http://i.stack.imgur.com/eGxNT.png) و در حالی که فکر می کنم درک خوبی از معنای فصلی دارم، مطمئن نیستم که چگونه شیب و سطح را تفسیر کنم. من فکر می کنم که شیب اولین مشتق از روند است (بنابراین از آنجایی که به طور مداوم مثبت است، روند با نرخ های مختلف در حال افزایش است)، اما من کاملاً گیج هستم که چه سطحی را نشان می دهد. آیا چیزی قابل مقایسه با نمودار باقیمانده در تجزیه و تحلیل STL وجود دارد همچنین من کاملاً مطمئن نیستم که مقادیر زمانی در امتداد پایین نشان دهنده چیست. توضیح در مورد آن بسیار قدردانی خواهد شد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/VQM6d.png)
تفسیر اجزای TBATS
24548
تابع توزیع احتمال متغیر $y$ که توسط $$y=\frac{x_1}{x_1-x_2}،\quad \: x_i\ge 0، $$ داده شده است با توجه به اینکه $x_1$ و $x_2$ هستند چیست؟ مستقل و به طور یکسان توزیع شده و $$x_i = c+z_i،\quad i=1,2 $$ که در آن $c$ یک ثابت غیرمنفی واقعی است و $z_i\sim\chi^2_\nu$.
تبدیل متغیرهای تصادفی
32733
مجموعه ای از تقریباً 100 جدول متقاطع (بیشتر دو بعدی، اما برخی سه بعدی) بر اساس یک مجموعه داده واحد و در عین حال در دسترس به من داده شده است. وظیفه من انجام تست های آماری پایه ($\chi^2$، Mann-Whitney، Kruskal-Wallis، و غیره) است. من می‌توانم آنها را با دست محاسبه کنم، زیرا استفاده از روش‌های کارآمد که به طور خودکار شکل‌ها، جداول و موارد زیبای Excel را می‌سازد، بیش از یک مرتبه سریع‌تر خواهد بود. متأسفانه ابزارهای من از پایگاه داده به عنوان ورودی استفاده می کنند و نمی توانم آنها را با خلاصه ها تغذیه کنم. صفحات متقاطع همپوشانی دارند، یعنی اگر یک تلاقی بین var1 و var2 باشد، می تواند بین $var1 \times var3$ باشد. آیا نرم افزار موجود (مثلاً در R) وجود دارد که بتوانم از آن برای ایجاد هر پایگاه داده (مجموعه داده) استفاده کنم که با تمام جدول بندی های داده شده مطابقت داشته باشد؟ (می دانم که بازسازی پایگاه داده از جداول متقاطع یک مشکل منحصر به فرد نیست. می دانم که همه بهتر خواهند بود که یک پایگاه داده مناسب برای شروع داشته باشند.) O O O من گمان می کنم که راه حل آماده ای وجود ندارد، بنابراین نوشتن یک را تنظیم کردم: هر crosstab را می توان به عنوان مجموعه ای از معادلات خطی نوشت (یک معادله برای هر فرکانس شناخته شده، ضرایب برابر با 1 یا 0)، بنابراین از نظر ریاضی، من مشکل را معادل پیدا کردن می بینم. حل عدد صحیح برای مجموعه معادلات خطی این مشکل از دامنه برنامه نویسی عدد صحیح است، درست مانند mr. ووبر پیشنهاد کرد متأسفانه در اندازه بازدارنده معادلات مشکل وجود دارد. تنها راهی که می توانم فکر کنم این است که مجموعه داده را به گروه های $\text{no}(var1) \times \text{no}(var2) \times \text{no}(var3)$ تقسیم کنم، جایی که $\text{ no}(var)$ تعداد سطوح (گروه) متمایز متغیر var را نشان می دهد. ممکن است برای این مثال ساده خوب باشد، اما در مورد من، وقتی تمام اعداد سطوح هر متغیر را ضرب می‌کنم، به عدد نجومی به ترتیب $10^{25}$ می‌رسم. و من گمان می‌کنم که بهینه‌سازی ماتریس‌های پراکنده کمکی نمی‌کند، بنابراین تمام آنچه که نوشتم ممکن است فقط یک بن‌بست باشد. آیا کسی ایده ای در مورد چگونگی حل این مشکل دارد؟
چگونه پایگاه داده را از داده های جدول بندی شده بازسازی کنیم؟
1555
من جدول فرکانس زیر را دارم: 35 0 4 3 7 6 5 4 39 1 9 6 7 7 6 8 36 0 7 10 11 11 10 16 41 0 9 8 8 7 6 7 41 0 8 9 10 11 9 25 9 11 12 11 13 55 1 10 10 11 10 12 11 47 1 14 8 12 15 12 12 45 1 10 11 10 10 9 18 56 0 13 16 12 12 12 8 12 15 12 12 45 MS Chi-sq Prob>Chi-sq Columns 25306.8 7 3615.26 47.16 5.18783e-008 Error 17083.2 72 237.27 مجموع 42390 79 با توجه به مقایسه چندگانه از میانگین گروه های مختلف از Sixn در رتبه های متوسط ​​*1. شش گروه از میانگین به طور قابل توجهی متفاوت از گروه 2 (ستون 2) * * * اکنون آزمون های Kruskal-Wallis و مقایسه های متعدد منطقی هستند، با این حال آزمون Chi Square مقدار مجذور کای 31.377 و مقدار p 0.9997 را برمی گرداند که منجر می شود. فرضیه صفر مستقل بودن فرکانس ها را بپذیریم. من می‌دانم که یک فرض ANOVA استقلال است، اما... می‌خواهم ببینم آیا فرکانس‌ها از نظر آماری مستقل هستند، آیا آزمون‌های Kruskal-Wallis و مقایسه چندگانه روش‌شناسی صحیحی بود؟ توجه: من سعی نمی‌کنم ذهنی باشم، اما برای مجموعه‌ای از فرکانس‌ها، چگونه آزمایش می‌کنید که تفاوت‌های بین گروه‌ها قابل توجه است؟
آزمایش کنید که آیا تفاوت بین فرکانس ها قابل توجه است یا خیر
92384
من در حال خواندن این فصل اصول پیش بینی و تمرین از یک کتاب پیش بینی هستم. نویسنده یک مدل رگرسیون خطی را توضیح داده است. اکنون این مدل رگرسیون خطی قطعاً دارای برخی خطاها در برازش خواهد بود. برای این خطاها، نویسنده ویژگی های شنیداری خاصی دارد که باید مورد توجه قرار گیرد. او فرض می کند که این خطاها: 1. به معنای صفر باشد. در غیر این صورت پیش بینی ها به طور سیستماتیک مغرضانه خواهد بود. 2. همبستگی خودکار ندارند. در غیر این صورت، پیش بینی ها ناکارآمد خواهند بود زیرا اطلاعات بیشتری برای بهره برداری در داده ها وجود دارد. 3. با متغیر پیش بینی کننده ارتباط ندارند. در غیر این صورت اطلاعات بیشتری وجود دارد که باید در بخش سیستماتیک مدل گنجانده شود. مشکل این است که من نمی توانم اینها را درک کنم و مثالی بیاورم تا به این نکات پی ببرم. آیا کسی می تواند به چند مثال / موقعیت از زندگی روزمره اشاره کند تا این نکات را درک کند. به عنوان مثال نویسنده در نقطه 2 نوشته است.] ... اطلاعات بیشتری برای بهره برداری در داده ها وجود دارد... این اطلاعات چیست؟ چگونه به وجود می آید؟ اگر من حتی نمی دانم این اطلاعات چگونه به وجود می آیند، پس چگونه می توانم وجود یا تأثیرات آن را برای آن موضوع درک کنم؟ آیا توضیح ساده همراه با مثال برای سوال من وجود دارد؟ من خیلی وقته سعی کردم اینو بفهمم لطفا راهنمایی کنید
پیش بینی و همبستگی خودکار
34318
آیا کسی از پارامترسازی مجدد هر تابع s شکل نامتقارن (مثل، اما نه لزوماً منحنی لجستیک 5 پارامتر) آگاه است، که در آن یکی از پارامترها اولین نقطه عطف اولین مشتق (یعنی حداکثر مشتق دوم) است. ). منظورم **نقطه 1** در شکل بالا است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/29SIF.jpg) (تصویر نقطه ذکر شده در بالا را برای حالت یک تابع لجستیک متقارن). دکر). با این حال، من فقط پارامترهایی را پیدا کردم که یکی از پارامترها نقطه عطف تابع است (نقطه 2 در شکل بالا). متأسفانه، محاسبه این نقطه پس از تخمین در مورد من راه حل ممکنی نیست زیرا این پارامتر باید در معادله دیگری که به طور همزمان تخمین زده می شود ادغام شود.
پارامترسازی مجدد یک تابع s شکل نامتقارن
79735
از انتخاب مدل من بر اساس معیارهای اطلاعاتی مانند SBIC یک مدل ARMA(0,0) به من برمی‌گرداند. آیا باید آن را انتخاب کنم یا رد کنم؟ و چرا؟ در این مورد به راهنمایی نیاز دارید
آیا انتخاب ARMA(0,0) اشتباه است؟
35049
من نمونه هایی از داده ها دارم که از 6 ویژگی تشکیل شده اند. هر صفت مقادیری بین 1-10 می گیرد. هر نمونه دارای ابزاری است که توسط برخی از تابع های کاربردی محاسبه می شود: مثال: {1,1,2,5,5,2} , utility = 0.89 در برخی از خوانش های این مقادیر مشخصه، مقادیر تعریف نشده ممکن است در نمونه ظاهر شوند، من آنها را به عنوان علامت گذاری می کنم. علامت سوال ؟ مثال: {1,1,?,5,?,2} این علامت‌های سوال عدم قطعیت را در نمونه نشان می‌دهند. چگونه می توانم این عدم قطعیت را به روش آماری یا ریاضی مدل کنم؟ با تشکر
مدل سازی عدم قطعیت برای نمونه ها
24540
نمی‌دانم که آیا می‌توان در R یک خوشه‌بندی از متغیرهای داده‌های مختلط انجام داد؟ به عبارت دیگر، من یک مجموعه داده حاوی متغیرهای عددی و دسته‌بندی دارم و بهترین راه را برای خوشه‌بندی آنها پیدا می‌کنم. در SPSS از خوشه دو مرحله ای استفاده می کنم. من نمی دانم که آیا در R می توانم تکنیک های مشابهی پیدا کنم. پیشاپیش ممنون به من در مورد بسته poLCA گفته شد، اما مطمئن نیستم ...
خوشه بندی متغیرهای طبقه ای با R
55134
من الگوریتم‌های مختلفی را برای تخمین بهترین تعداد سطل‌ها برای استفاده در هیستوگرام پیاده‌سازی می‌کنم. اکثر مواردی که من پیاده‌سازی می‌کنم در صفحه ویکی‌پدیا توضیح داده شده‌اند: https://en.wikipedia.org/w/index.php?title=Histogram&oldid=548769683#Number_of_bins_and_width * من در یک مشکل با فرمول Doane گیر کرده‌ام: 1 + log(n) + log(1 + kurtosis(داده) * sqrt(n / 6.)) که در آن n اندازه داده است. مشکل زمانی است که کشش منفی و 'n >> 1' باشد زیرا آرگومان log منفی می شود. * (این صفحه از زمانی که این پست ارسال شده تغییر کرده است، پیوند ویرایش شد تا به صفحه همانطور که در زمان ارسال بود اشاره کند)
فرمول Doane برای Bining هیستوگرام
78395
من از رگرسیون رج برای محاسبه وزن های بهینه مجموعه ای از امتیازها استفاده می کنم. این نمرات همبستگی دارند بنابراین استفاده از رگرسیون برجستگی برای جریمه کردن مقادیر زیاد وزن ها استفاده می شود. بنابراین هدف از رگرسیون پشته یافتن بتا است که موارد زیر را به حداقل برساند: $$ \sum_i{(y_i - x^T_i\beta_i)^2} + \lambda \sum_j{\beta^2_j} $$ **سوال من این است ** : چگونه یک مقدار بهینه برای لامبدا، _به معنای اعتبارسنجی متقاطع_ انتخاب کنم؟ من در درک مفهومی این مشکل دارم. در طبقه‌بندی، اعتبارسنجی متقاطع ساده است- داده‌ها را به k-fold تقسیم کنید، روی k-1 fold آموزش دهید، در آخرین فولد پیش‌بینی کنید و خطای پیش‌بینی را در همه تاها میانگین کنید. این چگونه برای رگرسیون کار می کند؟ من می‌توانم مجموع فاصله‌های مجذور هر چین را اندازه‌گیری کنم، اما این در معرض نویزهای پرت است. دلیل استفاده از رگرسیون پشته به جای رگرسیون استاندارد در وهله اول، به حداقل رساندن این نبود. من به مقاله زیر نگاه کردم اما هنوز رویکرد کلی استفاده از اعتبارسنجی متقاطع برای انتخاب یک مدل رگرسیون پشته بهینه را درک نمی‌کنم.
اعتبار سنجی متقاطع برای رگرسیون ریج
35040
فرض کنید من چندین بار به طور مستقل از هر یک از دو توزیع نرمال نمونه برداری می کنم. با توجه به میانگین، انحراف معیار و تعداد نمونه‌ها از هر توزیع، چگونه می‌توانم احتمال اینکه بیشترین مقدار نمونه‌گیری شده از توزیع اول به دست آمده را محاسبه کنم؟ من می توانم این سوال را با شبیه سازی عددی حل کنم، اما یک عبارت تحلیلی پیدا نکرده ام.
کدام توزیع احتمالاً منبع بیشترین ارزش است؟
35590
من نتوانستم بفهمم که چگونه رگرسیون خطی را در R برای طراحی اندازه گیری مکرر انجام دهم. در سوال قبلی (هنوز بی پاسخ) به من پیشنهاد شد که از lm استفاده نکنم بلکه از مدل های ترکیبی استفاده کنم. من از «lm» به روش زیر استفاده کردم: lm.velocity_vs_Velocity_response <- lm(Velocity_response~Velocity*Subject, data=mydata) (جزئیات بیشتر در مورد مجموعه داده را می توان در پیوند بالا یافت) اما نتوانستم در هر مثالی را با کد R که نحوه انجام تحلیل رگرسیون خطی را نشان می دهد را به اینترنت متصل کنید. چیزی که من می‌خواهم از یک طرف نموداری از داده‌ها با خط متناسب با داده‌ها و از سوی دیگر مقدار $R^2$ همراه با p-value برای آزمون اهمیت مدل است. آیا کسی هست که بتواند پیشنهاداتی ارائه دهد؟ هر نمونه کد R می تواند کمک بزرگی باشد. * * * **ویرایش** با توجه به پیشنهادی که تاکنون دریافت کرده ام، راه حلی برای تجزیه و تحلیل داده های من به منظور درک اینکه آیا رابطه خطی بین دو متغیر Velocity_response (برگرفته از پرسشنامه) و سرعت (برگرفته از پرسشنامه) وجود دارد یا خیر. عملکرد) باید این باشد: خلاصه کتابخانه(nlme)(lme(Velocity_response ~ Velocity*Subject, data=scrd, random= ~1|موضوع)) نتیجه خلاصه این را به دست می‌دهد: > summary(lme(Velocity_response ~ Velocity*Subject, data=scrd, random=~1|Subject)) مدل اثرات مختلط خطی متناسب با داده‌های REML: scrd AIC BIC logLik 104.2542 126.1603 -30.1271 تصادفی اثرات: فرمول: ~1 | موضوع (برق) باقیمانده StdDev: 2.833804 2.125353 اثرات ثابت: Velocity_response ~ Velocity * Subject Value Std.Error DF t-value p-value (Intercept) -26.99558 25.8221808 25.82218049 -204. 24.52675 19.28159 20 1.2720292 0.2180 SubjectSubject10 21.69377 27.18904 0 0.7978865 NaN SubjectSubject11 11.3141507435433N. SubjectSubject13 52.45966 53.96342 0 0.9721337 NaN SubjectSubject2 -14.90571 34.16940 0 -0.4362299 NaN موضوع3 26.658153 7462404. SubjectSubject6 37.28252 50.06033 0 0.7447517 NaN SubjectSubject7 12.66581 26.58159 0 0.4764880 NaN SubjectSubject8 14.28029 NaN 3247014 SubjectSubject9 5.65504 34.54357 0 0.1637076 NaN Velocity:SubjectSubject10 -11.89464 21.07070 20 -0.5645111 0.5787 Velocity:SubjectSubject.5787 0.5787 Velocity:SubjectSubject. 20 -0.1887672 0.8522 Velocity:SubjectSubject13 -41.06777 44.43318 20 -0.9242591 0.3664 Velocity:SubjectSubject2 11.532397 25.4378 25.4017 0.6549 Velocity:SubjectSubject3 -19.47392 23.26966 20 -0.8368804 0.4125 Velocity:SubjectSubject6 -29.60138 41.47500 20 -0.713743Subject -6.85539 19.92271 20 -0.3440992 0.7344 Velocity:SubjectSubject8 -12.51390 22.54724 20 -0.5550080 0.5850 Velocity:SubjectSubject28.329 -28.29. -0.0810519 0.9362 همبستگی: (Intr) Velcty SbjS10 SbjS11 SbjS13 SbjcS2 SbjcS3 SbjcS6 SbjcS7 SbjcS8 SbjcS9 V:SS10 V:SS11 V:SS39-V:SS10 V:SS11 V:SS20 SubjectSubject10 -0.950 0.943 SubjectSubject11 -0.770 0.765 0.732 SubjectSubject13 -0.479 0.475 0.454 0.369 SubjectSubject2 -0.756 0.7156 0.7151 0.58Subject -0.878 0.872 0.834 0.676 0.420 0.663 SubjectSubject6 -0.516 0.512 0.490 0.397 0.247 0.390 0.453 SubjectSubject7 -0.960.960. 0.465 0.734 0.853 0.501 SubjectSubject8 -0.810 0.804 0.769 0.624 0.388 0.612 0.711 0.418 0.787 SubjectSubject9 -0.740.740. 0.358 0.565 0.656 0.386 0.726 0.605 Velocity:SubjectSubject10 0.909 -0.915 -0.981 -0.700 -0.435 -0.687 -0.687 -0.798 -0.460 -0.798 -0.798 -0.460 -0.798 -0.915 -0.915 Velocity:SubjectSubject11 0.692 -0.697 -0.657 -0.986 -0.331
رگرسیون خطی با اندازه گیری های مکرر در R
110569
من یک مجموعه داده بر اساس 14 سایت میدانی دارم، متغیر وابسته ای که در حال بررسی هستم، تعداد داده های ثبت شده در هر سایت (در 3-5 بازدید) است. متغیرهای مستقل (من حدود 45 دارم) در هر سایت ثابت هستند (به غیر از سرعت باد و دما). یک مجموعه داده نمونه که این را نشان می‌دهد در زیر آمده است: تعداد پروانه‌های آب درختان سایت 1 6 8 3 سایت 1 6 8 12 سایت 2 3 3 8 سایت 2 3 3 0 بهترین راه برای آماده‌سازی این نوع داده‌ها برای تجزیه و تحلیل رگرسیون چندگانه چیست؟ R؟ آیا data1.glm = glm (تعداد پروانه ~ 1، داده = داده 1، خانواده = poisson) و کار از طریق افزودن کمترین متغیرهای با ارزش AIC به معادله کار می کند؟ هر گونه کمکی بسیار قدردانی خواهد شد.
تحلیل رگرسیون چندگانه
92777
لطفاً من در مطالعه پایان نامه دکتری خود تردید دارم... عنوان: توسعه پروتکل ترمال سیکلینگ برای مواد دندانپزشکی. هدف: ایجاد پروتکلی برای پیری حرارتی، از اندازه‌گیری‌هایی که در دهان افراد یافت شد. شک: از چه تجزیه و تحلیل هایی می توانم برای داده های این تغییرات دمایی استفاده کنم؟ واحد آزمایش: شش داوطلب متغیر: دما یک دانشجوی دکترای دندانپزشکی کاری را برای توصیف یک الگوی متوسط ​​از تغییرات دما (درجه سانتیگراد) در حفره دهان شش داوطلب انجام داد. او داده های دمای دهان (درجه سانتیگراد) را به مدت 3 روز در 6 بیمار در هر 4 ثانیه از 4 ثانیه جمع آوری کرد. هدف ایجاد یک الگوی متوسط ​​از تغییرات دما، با توجه به زمان، تغییرات دما و تعداد تغییرات در روز است. بیماران روتین های متفاوتی با یکدیگر دارند و در روز، بنابراین، آیا تحلیل های آماری وجود دارد که بتوانم یک پروتکل استاندارد با داده های او ایجاد کنم؟ اساساً او می‌خواهد پاسخی مانند این را پیدا کند: یک فرد به طور متوسط ​​در روز سه بار افزایش دما به میزان 40 درجه سانتی‌گراد دارد که به مدت 40 ثانیه حفظ شد و 3 درجه کاهش دما از 16 درجه سانتی‌گراد به مدت 40 ثانیه حفظ شد. آیا آزمون ARIMA برای این مطالعه مناسب است؟ اگه نه راه حل دیگه ای هست؟
آیا مدل ARIMA برای این تحقیق دندانپزشکی مناسب است؟
91449
من سعی می کنم عملکرد استنتاج پسین را روی مجموعه ای از اسناد با فرآیند دیریکله سلسله مراتبی برای مدل سازی موضوع آزمایش کنم. چگونه می توانم داده ها (سند) خود را به فرمت داده استاندارد تبدیل کنم؟ مانند این دستور: [M] [term_1]:[count] [term_2]:[count] ... [term_N]:[count] که در آن [M] تعداد عبارت‌های منحصربه‌فرد در سند [تعداد] مرتبط با هر عبارت چند بار است که آن عبارت در سند ظاهر شده است.
تبدیل داده ها به فرمت داده های استاندارد در فرآیند دیریکله سلسله مراتبی
109322
آیا فرض می کنیم که توزیع جامعه نرمال است یا توزیع نمونه نرمال است یا توزیع نمونه نرمال است؟ اگر مورد دوم است، منظور ما از توزیع نمونه در این زمینه چیست؟ چرا باید این را فرض کنیم؟ آیا عادی بودن این چیزها متضمن عادی بودن دیگران است یا نشان می دهد؟
هنگام انجام ANOVA، چه چیزی را باید فرض کنیم که به طور معمول توزیع شده است؟
35042
اگر متغیرهای تصادفی $X_1,X_2,\ldots,X_n$ داشته باشم که پواسون با پارامترهای $\lambda_1, \lambda_2,\ldots, \lambda_n$ توزیع شده است، توزیع $Y=\left\lfloor\frac{ چقدر است. \sum_{i=1}^n X_i}{n}\right\rfloor$ (یعنی کف عدد صحیح میانگین)؟ مجموع پواسون ها نیز پواسون است، اما من به اندازه کافی به آمار اطمینان ندارم که تشخیص دهم برای مورد بالا یکسان است یا خیر.
توزیع میانگین متغیرهای تصادفی پواسون چگونه است؟
91990
من می‌خواهم PCA را روی مجموعه‌ای از متغیرها اجرا کنم و سپس نمرات متغیر وابسته خود را به عقب برگردانم. من سوالات زیر را دارم: 1. آیا باید متغیرهای خود را مقیاس و مرکز کنم؟ 2. اگر بله، آیا باید قبل از اجرای رگرسیون خطی، متغیر وابسته خود را نیز استاندارد کنم؟ 3. اگر متغیر وابسته خود را استاندارد نکنم چه می شود؟
PCA و رگرسیون خطی
110561
رسمیت می گوید که هنگام محاسبه واریانس نمونه یا مجموع مربع ها، یک میانگین نمونه با داده های نمونه داده شده محاسبه می شود. اگر به دلایلی به تخمین بهتری از میانگین (از نمونه بزرگتر) دسترسی داشتم، آیا می توانم به جای میانگین نمونه داده شده از آن میانگین استفاده کنم؟ من می‌خواهم $R^2$ و آمار t را از تحلیل رگرسیون محاسبه کنم، که برای آن به $\text{SSX}$ و $\text{SSY}$ به عنوان مجموع مربع‌های مجموعه داده Y و مجموعه داده نیاز دارم. X. این SSX/Y اساساً واریانس(X)*(n-1)=SSX و واریانس(Y)*(n-1)=SSY هستند. بنابراین اگر برای تجزیه و تحلیل رگرسیون خود از نمونه کوچکتری نسبت به نمونه واقعی استفاده کنم. پس از این، برای مثال، باید $R^2$ را محاسبه کنم، که در آن می‌خواهم با استفاده از یک نمونه بزرگ‌تر، تخمین بهتری از میانگین/واریانس را مطرح کنم. این به نظر می رسد با نظریه مفهومی من مطابقت دارد، زیرا برآورد بهتری همیشه مورد نظر است و با توجه به اینکه هر دو مجموعه داده (نمونه کوچکتر و گسترده) از یک جامعه هستند. آیا دلیلی برای عدم انجام این کار وجود دارد؟
دقت میانگین برای مجموع مربعات/واریانس
55139
می‌خواهم داده‌های بقای مدل احتمالی زیر را شبیه‌سازی کنم که با استفاده از مدل کاکس تحلیل می‌شود: یک مواجهه $X$ به‌صورت باینری مدل‌سازی می‌شود که $X \sim_{iid} \mbox{برنولی}(p)$ که $p = است. \frac{1}{3}$. خطر تابعی از $X$ است با: \begin{eqnarray} \log \left( \lambda(t|X=0) \right) &=& \beta_0\\\ \log \left( \lambda(t |X=1) \right) &=& \beta_0 + \Delta\cdot\mathcal{I}(t \geq \tau) \end{eqnarray} من همچنین می‌خواهم تولید کنم یک متغیر سانسور کننده دارای توزیع نمایی مستقل.
تحلیل شبیه سازی مدل بقای کاکس با نقطه تغییر.
35591
تفاوت بین Normalization و Scaling داده چیست؟ تا به حال فکر می کردم هر دو اصطلاح به یک فرآیند اشاره دارد، اما اکنون متوجه شدم که چیز دیگری وجود دارد که نمی دانم / نمی فهمم. همچنین اگر تفاوتی بین Normalization و Scaling وجود دارد، چه زمانی باید از Normalization استفاده کنیم اما از Scaling استفاده نکنیم و برعکس؟ لطفا با چند مثال توضیح دهید.
عادی سازی در مقابل مقیاس بندی
35047
من مجموعه داده ای از 40000 فرد دارم که با استفاده از k-means آنها را خوشه بندی کردم. من از 30 متغیر استفاده کردم که هر عدد از 1=حداقل تا 5=حداکثر بود. من این 30 متغیر را به 10 عامل کاهش دادم و K-means را روی این متغیرهای جدید اجرا کردم. من یک خوشه از 12 خوشه نگه داشتم. من اکنون 7000 مشاهدات جدید دارم، می‌خواهم اینها را با استفاده از یک تابع تشخیص طبقه‌بندی کنم. من یکی را در SPSS با استفاده از 30 متغیر قبلی ساختم. من یک طبقه بندی خوب در مجموعه داده اصلی (40000) دریافت می کنم، اما وقتی آن را روی مشاهدات جدید اجرا می کنم، یک بخش اصلاً نشان داده نمی شود. 0 مورد از این نوع است. این برای من معنی ندارد. خوشه‌های اصلی سالم و جدا به نظر می‌رسند، من آنها را در R با چندین روش مرکز اولیه مختلف انجام دادم و چندین بار آنها را اجرا کردم و به بهترین آنها چسبیدم. تابع تفکیک کننده مشکلی برای یافتن این خوشه ناپدید شدن در مجموعه داده اصلی ندارد. چه چیزی می تواند باعث این شود؟
مشکل در طبقه بندی مشاهدات جدید با تجزیه و تحلیل متمایز
55136
من در حال بررسی رابطه بین میدان های دمایی به دست آمده از مدل های عددی آب و هوا و تقاضای برق هستم. من از یک رویکرد مبتنی بر PCA استفاده می‌کنم، یعنی رابطه خطی بین الگوها/حالت‌های دمای اصلی و الگوها/حالت‌های تقاضای اصلی را مطالعه می‌کنم. با توجه به اینکه من روی تقاضای سالانه تابستان کار می‌کنم، سری‌های زمانی با نمونه‌های کم (<20) دارم و به همین دلیل تصمیم گرفتم از روش راه‌اندازی زیر استفاده کنم: 1. من یک دما و الکتریسیته ایجاد می‌کنم. مجموعه داده های تقاضا با نمونه گیری معمولی با جایگزینی 2. من مدل خطی خود را بین دو فیلد ایجاد می کنم. 3. یک مجموعه داده دما با نمونه های انتخاب نشده ایجاد می کنم و آنها را روی فضای PCA که به تازگی محاسبه کرده ام پیش می برم. 4. محاسبه می کنم. خروجی خارج از نمونه من این کار را حدود 5000 بار انجام می دهم و در نهایت ماتریسی را با تنها خروجی های خارج از نمونه به دست می آورم. من میانگین تمام تقاضاهای پیش بینی شده خارج از نمونه را برای هر سال محاسبه می کنم و از آن برای محاسبه خطای RMSE استفاده می کنم. من فکر می کنم این رویکرد را می توان یک رویه بوت استرپ 0.632 در نظر گرفت. من می خواهم اهمیت نتایج به دست آمده را محاسبه کنم. من به این فکر می کردم که در هر تکرار بوت استپ مجموعه داده های دما را به هم بزنم تا ببینم آیا نتایج مشابهی به دست می آورم که ارتباط زمانی مستقیم بین تقاضا و دما را می شکند یا خیر. با توجه به اینکه من پیشینه آماری قوی ندارم، نظر شما را در مورد هر روشی برای به دست آوردن اهمیت آماری روش بوت استرپ من می خواهم.
خارج از نمونه راه انداز و اهمیت
55132
من می خواهم الگوریتم EM را به صورت دستی پیاده سازی کنم و سپس آن را با نتایج «normalmixEM» بسته «mixtools» مقایسه کنم. البته خوشحال می شوم اگر هر دو به یک نتیجه برسند. مرجع اصلی Geoffrey McLachlan Finite Mixture Models 2000 است. من یک چگالی مخلوط از دو گاوسی دارم، در شکل کلی، احتمال ورود به سیستم توسط (McLachlan صفحه 48) داده می شود: ![loglikelihood](http://i.stack. imgur.com/PsPRz.png) $z_{ij}$ 1 است، اگر مشاهده از طرف $i$th تراکم جزء، در غیر این صورت 0. $f_i$ چگالی توزیع نرمال است. $\pi$ نسبت مخلوط است، بنابراین $\pi_1$ احتمال است که یک مشاهده از توزیع گاوسی اول باشد و $\pi_2$ احتمال است، که یک مشاهده از توزیع گاوسی دوم باشد. مرحله E اکنون محاسبه حالت است. انتظار: ![condexp](http://i.stack.imgur.com/J6puy.png) که پس از چند مشتق به نتیجه منتهی می شود (صفحه 49): ![tau](http://i.stack .imgur.com/RGYw1.png) در مورد دو گاوسی (صفحه 82): ![taugauss](http://i.stack.imgur.com/HCneA.png) مرحله M اکنون به حداکثر رساندن Q است (صفحه 49): ![q](http://i.stack.imgur. com/4RG1v.png) این منجر به (در مورد دو گاوسی) می شود (صفحه 82): ![mugauss](http://i.stack.imgur.com/lK4Ly.png) ![sigmagauss](http://i.stack.imgur.com/PwJTn.png) و ما می دانیم که (ص 50 ) ![pigauss](http://i.stack.imgur.com/u4G56.png) مراحل E، M را تکرار می کنیم تا ![diffchange](http://i.stack.imgur.com/K9yrV.png) کوچک است من سعی کردم یک کد R بنویسم (داده ها را می توانید در اینجا پیدا کنید) # الگوریتم EM به صورت دستی # dat داده # مقادیر اولیه pi1 است. <-0.5 pi2<-0.5 mu1<--0.01 mu2<-0.01 sigma1<-0.01 sigma2<-0.02 loglik[1]<-0 loglik[2]<-sum(pi1*(log(pi1)+log(dnorm(dat,mu1,sigma1))))+sum(pi2*(log(pi2)+log(dnorm (dat,mu2,sigma2)))) tau1<-0 tau2<-0 k<-1 # حلقه while(abs(loglik[k+1]-loglik[k]) >= 0.00001) { # E step tau1<-pi1*dnorm(dat,mean=mu1,sd=sigma1)/(pi1*dnorm(x,mean =mu1,sd=sigma1)+pi2*dnorm(dat,mean=mu2,sd=sigma2)) tau2<-pi2*dnorm(dat,mean=mu2,sd=sigma2)/(pi1*dnorm(x,mean=mu1,sd=sigma1)+pi2*dnorm(dat,mean=mu2,sd=sigma2)) # M گام pi1<-sum(tau1)/length(dat) pi2<-sum(tau2)/length(dat) mu1<-sum(tau1*x)/sum(tau1) mu2<-sum(tau2*x)/sum(tau2) sigma1<-sum(tau1*(x- mu1)^2)/sum(tau1) sigma2<-sum(tau2*(x-mu2)^2)/sum(tau2) loglik[k]<-sum(tau1*(log(pi1)+log(dnorm(x,mu1,sigma1))))+sum(tau2*(log(pi2)+log(dnorm(x,mu2,sigma2) ))) k<-k+1 } # کتابخانه مقایسه (mixtools) gm<-normalmixEM(x,k=2,lambda=c(0.5,0.5),mu=c(-0.01,0.01),sigma=c(0.01,0.02)) gm$lambda gm$mu gm$sigma gm$ loglik الگوریتم کار نمی کند، زیرا برخی از مشاهدات احتمال صفر دارند و گزارش آن -Inf است. اشتباه من کجاست؟ کمک بسیار قدردانی خواهد شد، زیرا این موضوع برای من بسیار پیشرفته است.
الگوریتم EM به صورت دستی پیاده سازی شده است؟
110560
من 2 منطقه مطالعاتی دارم منطقه مطالعه 1: 12 ایستگاه هواشناسی - سالهای موجود 1981-2000 (همان داده ها و مرحله) منطقه مطالعه 2: 10 ایستگاه هواشناسی - سالهای موجود 1985-2011 (همان داده ها و مرحله) از منطقه اول مطالعاتی که دارم برای استفاده از سری داده های ذکر شده در بالا. می خواهم بدانم از کدام آزمون آماری می توانم برای انتخاب سال های مناسب از منطقه 2 تحصیلی استفاده کنم. پیشاپیش از شما متشکرم.
روش آماری برای مقایسه سری های زمانی با دوره های مختلف
91996
من و همکارم در مورد داده‌های زیر و محاسبه میانگین اختلاف نظر داریم: با توجه به $n$ پاسخ‌دهندگان، هر پاسخ‌دهنده سه شانس برای زدن یک حلقه در بسکتبال دارد. اگر پاسخ دهنده 1 یا بیشتر حلقه بزند، با موفقیت حلقه زده است. با توجه به جدول نمرات زیر پاسخگو id | امتحان کنید 1 | امتحان کنید 2 | سعی کنید 3 1 1 1 1 2 0 0 1 3 0 0 0 4 1 1 0 این می شود: شناسه پاسخ دهنده | موفقیت 1 1 2 1 3 0 4 1 من 3/4 موفقیت را استدلال می کنم، او 3/(4 * 3) موفقیت را استدلال می کند و این را با گفتن اینکه هر کدام 3 تلاش دارند توجیه می کند. برای من این تنها زمانی معنا پیدا می کند که ما هر موفقیت را کاهش نمی دهیم، بلکه هر موفقیتی را نیز حساب می کنیم. آیا من اشتباه می کنم؟ آیا من حلقه را از دست داده ام؟
کدام معنی صحیح است؟
110562
من با استفاده از افزونه فرآیند یک تعدیل تعدیل شده را انجام می دهم. هیچ تعامل 3 طرفه قابل توجهی برای 3 ناظم من وجود ندارد (یکی جنسیت است) اما اثرات مشروط نشان می دهد که تعامل دو طرفه مهم برای مردان و زنان متفاوت است. چگونه این را تفسیر/گزارش کنم؟
تعدیل تعدیل شده - اثرات مشروط نشان دهنده تعامل 3 طرفه است اما هیچ اثر اصلی وجود ندارد
91992
من سعی می کنم قسمتی از کتاب رگرسیون کوانتیل کوئنکر (ص.33) را درک کنم. می گوید: (توجه داشته باشید که y،x بردار هستند و w بردار جهت است) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/KZVlI.png) با قسمت اول نتیجه مشکلی نیست: من قانون محصول را برای مشتقات اعمال می کنم و مشتق تابع نشانگر 0 است زیرا ناپیوستگی تابع نشانگر در y-x'b متفاوت از صفر اتفاق نمی افتد. اما در y-x'b=0 چه اتفاقی می افتد؟ ذهن منطقی من به من می گوید که اگر تقریب پیچیده ای نباشد، هیچ مشتقی برای تابع نشانگر وجود ندارد، پس چگونه کونکر به آن نتیجه رسید؟ پیشاپیش متشکرم
مشتق جهتی یک تابع حاوی تابع شاخص - شرط بهینه برای رگرسیورهای چندکی
34319
فرض کنید من مدل های رگرسیون لجستیک زیر را دارم: df=data.frame(income=c(5,5,3,3,6,5), win=c(0,0,1,1,1,0) age=c(18,18,23,50,19,39), home=c(0,0,1,0,0,1)) > md1 = glm(عامل(برد) ~ درآمد + سن + خانه، + داده = df، خانواده = دوجمله ای (لینک = logit)) > md2 = glm (عامل (برنده) ~ فاکتور (درآمد) + عامل (سن) + فاکتور (خانه)، + داده = df، family=binomial(link=logit)) > خلاصه (md1) تماس: glm(فرمول = فاکتور(برنده) ~ درآمد + سن + خانه، خانواده = دوجمله ای (پیوند = logit)، data = df) Deviance Residuals: 1 2 3 4 5 6 -1.0845 -1.0845 0.8017 0.4901 1.7298 -0.8017 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) 4.784832 6.326264 0.756 0.449 درآمد -1.027049 1.056031 -0.973 0.331 سن 0.007102 0.0097759 خانه -0.896802 2.252894 -0.398 0.691 (پارامتر پراکندگی برای خانواده دوجمله ای 1 در نظر گرفته شده است) انحراف صفر: 8.3178 در 5 درجه آزادی انحراف باقیمانده: 6.8700 در 2 درجه آزادی AIC: عدد S7cor > 148تر. خلاصه (md2) فراخوانی: glm (فرمول = فاکتور (برنده) ~ عامل (درآمد) + عامل (سن) + فاکتور (خانه)، خانواده = دوجمله ای (پیوند = logit)، داده = df) باقیمانده های انحراف: 1 2 3 4 5 6 -6.547e-06 -6.547e-06 6.547e-06 6.547e-06 6.547e-06 -6.547e-06 ضرایب: (3 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای z مقدار Pr(>|z|) (انتقال) 2.457e+01 1.310e+05 0 1 factor(income)5 -4.913e+01 1.605e+05 0 1 factor(income)6 -2.573e-30 1.853 e+05 0 1 factor(سن)19 NA NA NA NA فاکتور(سن) 23 -1.383e-30 1.853e+05 0 1 فاکتور(سن)39 -3.479e-14 1.605e+05 0 1 فاکتور(سن)50 NA NA NA فاکتور(خانه)1 NA NA NA NA (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف تهی: 8.3178e+00 در 5 درجه آزادی انحراف باقیمانده: 2.5720e-10 در 1 درجه آزادی AIC: 10 بنابراین بسته به حالت پیش بینی کننده ها، R خروجی های مختلفی تولید می کند. برای فاکتورها، R ضرایب را به دسته های جداگانه برای سطوح تقسیم می کند، اما نه برای مدل با پیش بینی کننده های عددی. من در مورد چند چیز تعجب می کنم. 1. آیا هرگز مفید است که دسته‌های پاسخ به صورت ردیف‌های جداگانه بیان شوند؟ 2. برای بیان معادله رگرسیون کلی، چگونه می توان از یک مدل با مقوله های بیان شده در یک معادله فردی به معادله ای با یک B_i منفرد رفت. بنابراین، برای مثال، اگر جنسیت دو ضریب دارد، 3.5 برای مذکر و 2.3 برای زن، چگونه می توان از آن در معادله ای استفاده کرد که (علاوه بر تبدیل آنها به مقادیر عددی): Y = B0 + B1 (جنسیت)
خروجی رگرسیون R - عوامل در مقابل متغیرهای عددی
16381
مفروضات معمول برای رگرسیون خطی چیست؟ آیا آنها عبارتند از: 1. رابطه خطی بین متغیر مستقل و وابسته 2. خطاهای مستقل 3. توزیع نرمال خطاها 4. homoscedasticity آیا موارد دیگری وجود دارد؟
فهرست کاملی از مفروضات معمول برای رگرسیون خطی چیست؟
9329
بگویید من یک مدل طبقه بندی پیش بینی بر اساس یک جنگل تصادفی (با استفاده از بسته randomForest در R) دارم. من می‌خواهم آن را طوری تنظیم کنم که کاربران نهایی بتوانند یک مورد را برای ایجاد پیش‌بینی مشخص کنند، و یک احتمال طبقه‌بندی خروجی بدهد. تا اینجای کار مشکلی نیست اما مفید/خوب خواهد بود که بتوان چیزی مانند نمودار اهمیت متغیر را خروجی داد، اما برای آیتم خاصی که پیش‌بینی می‌شود، نه برای مجموعه آموزشی. چیزی شبیه به: مورد X پیش‌بینی می‌شود که یک سگ باشد (به احتمال 73 درصد) زیرا: پا=4 نفس=خز بد=غذای کوتاه=تخیم شما نکته را متوجه شدید. آیا راه استاندارد یا حداقل قابل توجیهی برای استخراج این اطلاعات از یک جنگل تصادفی آموزش دیده وجود دارد؟ اگر چنین است، آیا کسی کدی دارد که این کار را برای بسته randomForest انجام دهد؟
آیا راهی برای توضیح یک پیش‌بینی از یک مدل جنگل تصادفی وجود دارد؟
54951
هدف تجزیه و تحلیل همبستگی متعارف (CCA) به حداکثر رساندن همبستگی محصول-لحظه معمول پیرسون (یعنی ضریب همبستگی خطی) ترکیب‌های خطی دو مجموعه داده است. اکنون، این واقعیت را در نظر بگیرید که این ضریب همبستگی فقط تداعی‌های خطی را اندازه‌گیری می‌کند - به همین دلیل است که ما از ضرایب همبستگی Spearman-$\rho$ یا Kendall-$\tau$ (رتبه) نیز استفاده می‌کنیم که یکنواختی دلخواه را اندازه‌گیری می‌کنند. نه لزوماً خطی) ارتباط بین متغیرها. از این رو، من به موارد زیر فکر می کردم: یکی از محدودیت های CCA این است که فقط سعی می کند ارتباط خطی بین ترکیبات خطی تشکیل شده را به دلیل تابع هدف خود ثبت کند. آیا نمی توان CCA را به نوعی با به حداکثر رساندن، مثلاً Spearman-$\rho$ به جای Pearson-$r$ گسترش داد؟ آیا چنین رویه ای به چیزی قابل تفسیر و معنادار از نظر آماری منجر می شود؟ (مثلاً انجام CCA در رتبه ها منطقی است؟) من می دانم که آیا وقتی با داده های غیر عادی سروکار داریم کمکی می کند ...
تحلیل همبستگی متعارف با همبستگی رتبه ای
23395
شبکه‌های عصبی پالسی یا Spiking بیشتر از پویایی غشای نورون‌های بیولوژیکی را در خود جای می‌دهند، جایی که پالس‌ها اطلاعات را به لایه بعدی منتقل می‌کنند. نورون‌ها لزوماً مجبور نیستند هم‌زمان «آتش» کنند، مثلاً در یک پشتی. با این حال، به نظر می رسد موانعی در برابر استفاده از این مدل ها برای مشکلات یادگیری ماشین وجود دارد. چه مسائل خاصی بر سر راه تمرین‌کنندگان یادگیری ماشینی با استفاده از مدل‌هایی قرار می‌گیرد که از نظر بیولوژیکی واقعی‌تر هستند؟
چه چیزی مانع استفاده از شبکه های عصبی پالسی در برنامه های کاربردی است؟
35041
من تفاوت بین «rfobject$importance» و «importance(rfobject)» در ستون MeanDecreaseAccuracy را نمی‌دانم. مثال: > داده (عنبیه) > تناسب <- randomForest(Species~., data=iris, important=TRUE) > fit$importance setosa versicolor virginica MeanDecreaseAccuracy MeanDecreaseGini Sepal.Length 0.027078501 0.019470.604 0.02898837 9.173648 سپال.عرض 0.008553449 0.001962036 0.006951771 0.00575489 2.472105 گلبرگ. طول 0.3113303 0.280981959 0.29216790 41.284869 گلبرگ. عرض 0.349686983 0.318527008 0.270975757 0.31054451 46.323415 MeanDecreaseAccuracy MeanDecreaseGini Sepal.Length 1.277324 1.632586 1.758101 1.2233029 9.173648 Sepal.Width 1.007943 0.252731 0.252736 1.014 1.014 2.472105 گلبرگ.طول 3.685513 4.434083 4.133621 2.5139980 41.284869 گلبرگ. عرض 3.896375 4.421567 4.38536423 4.38536423. مقادیر MeanDecreaseAccuracy متفاوت است اما ترتیب یکسانی برای متغیرهای اهمیت دارند (برای «fit$importance» و همچنین برای «importance(fit)»: 1. Petal.Width 2. Petal.Length 3. Sepal.Length 4. Sepal. عرض اما در سایر مجموعه های داده من گاهی اوقات سفارشات متفاوتی دریافت می کنم. کسی می تواند توضیح دهد که اینجا چه اتفاقی می افتد؟ آیا این احتمالاً یک باگ است؟ پیشاپیش از شما متشکرم * * * **ویرایش** (در پاسخ به مارتین اولری) باشه ممنون! من متوجه چیز دیگری شدم. با نگاهی به تابع «rfcv()» متوجه این خط شدم: impvar <- (1:p)[order(all.rf$importance[, 1], decreasing = TRUE)] با این خط اولین ستون را انتخاب می کنیم. از «all.rf$importance» که به ما ترتیب معیارهای خاص کلاس (برای **عامل اول**) را می دهد که فقط به عنوان کاهش میانگین در دقت محاسبه می شوند. این ترتیب همیشه با میانگین کاهش دقت در همه کلاس‌ها یکسان نیست (MeanDecreaseAccuracy). آیا بهتر نیست ستون MeanDecreaseAccuracy یا MeanDecreaseGini را انتخاب کنید، یا بهتر نیست از تابع importance() برای مقادیر مقیاس شده استفاده کنید؟ بنابراین تعداد پیش‌بینی‌کننده‌ها را به‌طور متوالی کاهش می‌دهیم که بر اساس اهمیت متغیر (در همه کلاس‌ها) رتبه‌بندی می‌شوند و نه تنها بر اساس اهمیت متغیر برای کلاس اول رتبه‌بندی می‌شوند.
اشکال تصادفی جنگل و اهمیت متغیر؟
35597
ما حدود 200 ماشین بردار پشتیبان خطی (با کد دستی در سی شارپ) متعلق به 200 دسته خود را آموزش داده ایم و از آنها در دسته بندی متن استفاده می کنیم. به دلیل کوتاه بودن متن در نمونه های آموزشی ما و سایر عوامل غیرقابل کنترل، اغلب هر ماشینی یک عدد منفی برای یک سند داده شده (طبقه بندی به عنوان منفی) برمی گرداند. برگرداندن هیچ به عنوان پاسخ امکان پذیر نیست زیرا ممکن است در حدود 40٪ مواقع اتفاق بیفتد و طبقه بندی نکردن 40٪ از اسناد از نظر تجاری غیرقابل قبول است. کاری که ما انجام می دهیم این است که در مورد علامت نتایج به خود زحمت نمی دهیم و به هر حال دسته را با حداکثر مقدار برمی گردانیم. با این حال، من احساس می‌کنم که این باعث می‌شود میزان خطای ما بیشتر از حد نیاز باشد. بنابراین سوال من اینجاست: آیا یک راه اصولی میانه راه وجود دارد؟ یعنی گاهی اوقات (اما نه خیلی اوقات، شاید در حدود 5٪ مواقع) هیچ را برمی گرداند و گاهی اوقات حداکثر اعداد منفی را برمی گرداند، به طوری که |اسناد طبقه بندی شده اشتباه| + ک.|اسناد طبقه بندی نشده| حداقل خواهد بود (برای برخی از k<=1)؟ به عنوان مثال، آیا راهی برای ترجمه فاصله داده شده توسط SVM به مقدار احتمال وجود دارد؟ یا به همین ترتیب، آیا روشی اصولی برای مقایسه خروجی دو ماشین بردار پشتیبان وجود دارد، یعنی +0.2 نشان دهنده احتمال بالاتر عضویت در یکی از آنهاست؟ هر گونه پیشنهاد، منبع، مقاله استقبال می شود. متشکرم.
وقتی هر SVM «عضو نیست» را برمی‌گرداند چه باید کرد؟
93599
من معمولاً مدل‌های درختی (rpart) خود را فقط بر روی مقدار cp اعتبار سنجی می‌کنم، به عنوان مثال. با استفاده از caret یا xpred یا تابع اعتبارسنجی متقاطع rpart داخلی. با این حال، پارامترهای rpart دیگری وجود دارد - برای مثال حداقل اندازه و استفاده جایگزین. آیا باید بر روی این پارامترها نیز اعتبار متقابل انجام شود، یا این امر اضافی است (و از این رو در بسته های اعتبارسنجی متقابل استاندارد گنجانده نشده است؟
مدل‌های Rpart و درختی -- اعتبارسنجی متقاطع فراتر از مقدار cp