_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
33927
من در حال مدل سازی (با استفاده از GLM) یک متغیر توضیحی باینری در برابر یک متغیر پاسخ باینری هستم. خروجی برای من خوب به نظر می رسد، اما من یک زیست شناس با دانش اولیه آمار هستم، فقط می خواستم بپرسم آیا قانون/احتیاط/مشکلی برای مدل سازی یک باینری در مقابل یک باینری وجود دارد؟
مدلسازی یک متغیر پاسخ باینری با یک متغیر توضیحی باینری
85964
من یک نظرسنجی انجام داده‌ام تا اهمیت ویژگی‌های مختلف یک کارت اعتباری را با استفاده از مقیاس لیکرت 5 درجه‌ای با نمرات (بسیار مهم = 5 ... نه مهم یا بی‌اهمیت = 1) وزن کنم. من 8 معیار دارم که هر کدام یک سؤال مشابه دارند، مانند مورد زیر: ویژگی بازگشت پول در کارت اعتباری چقدر مهم است؟ خیلی مهم مهم کمی مهم نه خیلی مهم نه مهم یا بی اهمیت همه 8 سوال از قالب و جمله بندی یکسانی پیروی می کنند و هر کدام با ویژگی کارت اعتباری متفاوتی مرتبط هستند. پس از انجام 10 نظرسنجی، چه کاری باید انجام دهم تا مشخص کنم کدام ویژگی مهم‌ترین است، تا بتوانم وزن هر ویژگی را که برابر با 1 است محاسبه کنم. به خاطر داشته باشید که من ریاضیدان یا آماردان نیستم. با تشکر
چگونه معیارها را بر اساس پاسخ نظرسنجی رتبه بندی کنیم؟
110455
فرض کنید باید «قدرت» دسته‌ای از اشیا را بر اساس تعدادی فاکتور رتبه‌بندی کنم، تا آنجا که می‌توانم بگویم، به نظر می‌رسد افراد معمولاً دو راه این کار را انجام می‌دهند: (الف) محاسبه امتیازهای نرمال شده (یعنی فاکتور- avg(factor)/stddev(factor))، سپس نتایج نرمال شده فردی را برای هر عامل جمع آوری کنید و آن ها را رتبه بندی کنید (b) نوعی رگرسیون تک یا چند متغیره و رتبه بندی بر اساس که چگونه به این نوع چیزها نزدیک می شوید؟
سوال تازه کار - رگرسیون در مقابل نمرات نرمال شده مرکب
109716
ما در حال طراحی یک نظرسنجی هستیم که در آن از دانش‌آموزان می‌خواهیم سطح موافقت خود را نشان دهند (مقیاس لیکرت 1 - کاملاً موافقم ... 5 - کاملاً مخالفم. ما تجزیه و تحلیل عاملی را روی داده‌ها انجام دادیم و 4 عامل را به‌دست آوردیم. برای بدست آوردن نمرات ترکیبی برای هر عامل، این کاری است که ما انجام دادیم: به عنوان مثال، اگر عامل 1 از 3 مورد تشکیل شده باشد که هر کدام دارای نمرات خام 3،4 و 5 هستند، میانگین 3 امتیاز را می گیریم و سپس یک امتیاز z از میانگین برای به دست آوردن امتیازهای استاندارد شده برای تجزیه و تحلیل های بیشتر، اکنون اگر بخواهیم سازه ای را که اندازه گیری می شود به نقاط بالا و پایین تقسیم کنیم، آیا امتیازات z> 0 به طور خودکار نشان دهنده میزان بالایی از ساختار است؟ اگر 3 نقطه صفر بود، مقادیر بالاتر از 3 نشان دهنده عدم توافق است (میزان اندازه گیری کم ساختار پس آیا همان چیزی به امتیاز z نیز تبدیل می شود). امتیازهای z بالای 0 نشان دهنده معیارهای کم است
محاسبه امتیازات ترکیبی از تحلیل عاملی
87441
من دو طبقه بندی کننده دارم که با داده های مشابه ساخته شده اند. چگونه می توانم واگرایی این مدل ها را اندازه گیری کنم؟ من چیزی شبیه DIC پیدا کردم اما نمی دانم چگونه این را در R محاسبه کنم؟
اندازه گیری واگرایی عملکرد دو طبقه بندی کننده؟
47091
معروف است که از آنجایی که شما شواهد بیشتری دارید (مثلاً به شکل $n$ بزرگتر برای $n$ مثال i.d.)، پیشین بیزی فراموش می شود و بیشتر استنباط تحت تاثیر شواهد قرار می گیرد (یا احتمال). دیدن آن برای موارد خاص مختلف (مانند برنولی با بتا قبلی یا نمونه های دیگر) آسان است - اما آیا راهی برای دیدن آن در حالت کلی با $x_1,\ldots,x_n \sim p(x| \mu)$ و مقداری $p(\mu)$ قبلی؟ ویرایش: من حدس می‌زنم که نمی‌توان آن را در حالت کلی برای هیچ قبلی نشان داد (مثلاً، نقطه‌ای قبل از جرم، پسین را یک نقطه جرم نگه می‌دارد). اما شاید شرایط خاصی وجود دارد که تحت آن یک پیشین فراموش می شود. در اینجا نوع مسیری است که من در مورد نشان دادن چیزی شبیه به آن فکر می کنم: فرض کنید فضای پارامتر $\Theta$ است، و اجازه دهید $p(\theta)$ و $q(\theta)$ دو قبلی باشند که جای غیر - جرم احتمال صفر روی همه $\Theta$. بنابراین، دو محاسبه قبلی برای هر مقدار قبلی به: $$p(\theta | x_1,\ldots,x_n) = \frac{\prod_i p(x_i | \theta) p(\theta)}{\int_{\ theta} \prod_i p(x_i | \theta) p(\theta) d\theta}$$ و $$q(\theta | x_1،\ldots،x_n) = \frac{\prod_i p(x_i | \theta) q(\theta)}{\int_{\theta} \prod_i p(x_i | \theta) q(\theta) d\theta }$$ اگر $p$ را بر $q$ (قسمت های پسین) تقسیم کنید، دریافت می کنید: $$p(\theta | x_1,\ldots,x_n)/q(\theta | x_1,\ldots,x_n) = \frac{p(\theta)\int_{\theta} \prod_i p(x_i | \theta) q(\theta)d \theta}{q(\theta)\int_{\theta} \prod_i p(x_i | \theta) p(\theta)d \theta}$$ اکنون می‌خواهم عبارت بالا را بررسی کنم زیرا $n$ به $\infty$ می‌رود. در حالت ایده‌آل، برای یک $\theta$ خاص که معنا دارد یا رفتار خوب دیگری به $1 می‌رسد، اما نمی‌توانم بفهمم چگونه چیزی را در آنجا نشان دهم.
فراموشی قبلی در محیط بیزی؟
92419
من می‌خواهم اهمیت نسبی مجموعه‌ای از متغیرها را برای مدل طبقه‌بندی «جنگل تصادفی» در R تعیین کنم. تابع «اهمیت» متریک «MeanDecreaseGini» را برای هر پیش‌بینی‌کننده منفرد ارائه می‌کند - آیا به سادگی جمع کردن آن در هر پیش‌بینی‌کننده است. در یک مجموعه؟ به عنوان مثال: # فرض می کنیم df دارای متغیرهای a1، a2، b1، b2 و نتیجه rf است <- randomForest(نتیجه ~ ., data=df) اهمیت(rf) # برای تعیین اینکه آیا پیش بینی کننده های a مهم تر از هستند. bs، # آیا می توانم MeanDecreaseGini را برای a1 و a2 جمع کنم و با b1+b2 مقایسه کنم؟
اهمیت نسبی مجموعه ای از پیش بینی کننده ها در طبقه بندی جنگل های تصادفی در R
47090
من در حال آموزش یک طبقه بندی کننده SVM بر اساس مجموعه اسناد معین هستم. من از استفاده از 500 سند برای آموزش شروع کردم، سپس 500 سند دیگر را برای آموزش اضافه کردم و .... به عبارت دیگر، من سه مجموعه آموزشی دارم، 500، 1000، 1500. و مجموعه آموزشی کوچکتر زیرمجموعه ای از مجموعه بزرگتر متوالی است. من مدل را در برابر همان مجموعه آزمایشی تأیید می کنم. SampleSize Precision Recall Accuracy AUC 500 79.62% 67.49% 77.65% 0.854 1000 82.49% 77.94% 82.67% 0.890 1500 81.64% 78.8% 78.0 بهترین عملکرد را دریافت کنید وقتی از مجموعه آموزشی 1000 استفاده می کنیم. به نظر می رسد 500 نمونه آموزشی اضافی برای ساخت مجموعه آموزشی 1500 در واقع به مدل آسیب می زند. چگونه می توانم این مشاهده را توضیح دهم.
افزایش حجم نمونه به عملکرد طبقه بندی کمکی نمی کند
47541
مدل فعلی من این است: > $$y_i = a_0 +a_1x_i + a_2x_i^2 + \epsilon_i $$ با $E[\epsilon_i] = 0، Var[\epsilon_i] = \sigma^2$. من اطلاعات زیر را دارم: > $$\begin{matrix} i & \mathrm{Response} \, y_i & \mathrm{Covariate} \, x_i \\ > 1 & -1 & -0.5 \\ 2 & -0.25 &- 0.25 \\ 3 و 1 و 0 \\ 4 و 1.2 و 0.25 \\ 5 و 2.6 > & 0.5 \end{matrix}$$ من باید یک مدل رگرسیون چند جمله‌ای متعامد به همان ترتیب مدل فعلی‌ام پیشنهاد کنم. بنابراین فکر کردم که اگر اجازه بدهم $\zeta_1$ عبارت‌های خطی و $\zeta_2$ عبارت‌های درجه دوم باشند، آنگاه مدلی می‌خواهم که $\sum \zeta_1 = \sum \zeta_2 = 0$ باشد. بنابراین من دو شکل کلی $\zeta$ را می خواهم. بنابراین اجازه دهید: $$\zeta_1 = a + bx_i$$ $$\zeta_2 = a + bx_i + cx_i^2$$ حالا می‌خواهم برای $a,b,c$ حل کنم. اما من در مورد چگونگی حل آنها گیر کرده ام. من نمی توانم از اینجا فقط از معادلات همزمان معمولی استفاده کنم زیرا همه چیز باطل می شود و همه چیز برای من برابر با $ 0 است. چه کار کنم؟
ساخت مدل رگرسیون چند جمله ای متعامد
47094
من و دو دوست در حال انجام یک بازی هستیم که ترکیبی از مهارت و شانس است. (همانطور که اکثر بازی ها هستند). ما فرض می کنیم که اگر بازی تماماً شانس بود و/یا همه ما سطح مهارت یکسانی داشتیم، در نهایت درصد برد همه ما به 33% نزدیک می شد. بنابراین به چه اندازه نمونه نیاز داریم تا نشان دهیم یکی از ما در بازی بهتر بوده است؟ یعنی اگر ما 50 بازی انجام می‌دادیم، چه درصدی از بازی‌ها (یا چه فاصله‌ای از 33%) برای نشان دادن مهارت در مقابل شانس (شاید به احتمال 95٪ یا 99٪) نیاز داشت. اگر 100 بازی یا 200 بازی انجام می دادیم چه؟ من فرض می‌کنم که با افزایش حجم نمونه، به درصد اختلاف کمتری از 33 درصد نیاز داریم.
شانس یا مهارت در بازی 3 نفره
109714
آیا الگوریتم خاصی برای تشخیص دست خط آنلاین وجود دارد؟ الگوریتم باید دستخط غیر شکسته و شکسته را تشخیص دهد. من می دانم که قبلاً یک پست مشابه در stackoverflow.com وجود دارد، اما 5 سال پیش پست شده بود و من پاسخی پیدا نکردم که نیازم را برآورده کند. من فرض می‌کنم در طی این پنج سال، الگوریتم‌های پیشرفته‌ای برای تشخیص دست‌خط آنلاین می‌توانستند توسعه داده شوند. هر گونه کمکی بسیار قدردانی خواهد شد.
الگوریتم تشخیص آنلاین دست خط
85968
من سعی می‌کنم یک تابع توزیع را با مشاهدات تجربی که دارای ویژگی‌های زیر هستند، برازش دهم: 1. میانگین غیر صفر 2. واریانس غیر واحدی 3. دنباله‌های سنگین 4. نامتقارن در مورد حالتی که در نظر دارم انجام این کار را با برازش یک غیر توزیع t-تعمیم یافته مرکزی، اما من در تلاش برای یافتن ادبیات آنلاین در مورد تخمین 4 پارامتر هستم (یعنی، درجه آزادی، مکان، مقیاس، پارامتر عدم تقارن) از داده های تجربی. آیا برآوردگرهای شکل بسته (MLE، روش لحظه ها، یا هر چیز دیگری!) وجود دارند؟ یا شاید توزیع بهتری برای این کار وجود داشته باشد، جایی که چنین برآوردگرهایی وجود دارد؟ من به یک توزیع لجستیک 4 پارامتری نگاه کرده ام - به نظر می رسد که این کار را نیز انجام می دهد، اما من با مشکلات مشابهی در یافتن برآوردگرهایی که برای این توزیع نیاز دارم مواجه هستم. با تشکر فراوان
برازش توزیع t غیر مرکزی با تغییر مکان و مقیاس
112170
برای یک پروژه باید مقادیری از صورت حساب هزینه گرمایش سالانه مشتریان استخراج کنم. مشتری از صورتحساب عکس می گیرد و برنامه باید مقادیر دوره گرمایش صورتحساب، نوع منبع انرژی (گاز، سوخت و غیره) و مقدار انرژی مصرف شده را استخراج کند. من دانش کمی از یادگیری ماشین دارم (یک سخنرانی در دانشگاه). این کار آسانی نیست، اینطور است؟ آیا می توان با نرم افزار منبع باز (عمدتاً پایتون حدس می زنم) این کار را انجام داد؟
موقعیت ها/ارزش ها را از صورتحساب هزینه های حرارتی دریافت کنید
87443
من مقادیری دارم که به طور معمول توزیع نمی شوند زیرا بیشتر (132) از (140) مقادیر 0 یا 1 هستند. تعداد کمی وجود دارد که <10، یکی حدود 80 و یکی حدود 650 هستند. آیا استفاده از نمودار Q-Q معمولی معتبر است. برای شناسایی نقاط پرت؟
استفاده از نمودار Q-Q نرمال برای تشخیص نقاط پرت در مقادیر غیرعادی توزیع شده
83233
من می‌خواهم در مورد چگونگی تفسیر تخمین‌های پارامتر با یک متغیر وابسته پیوسته (مصرف غذای سالم) و یک پیش‌بینی‌کننده 6 دسته‌ای (درآمد، از 1 = کمترین درآمد تا 6 = بالاترین باند درآمد در GLM) راهنمایی کنم. خروجی من به شرح زیر است: متغیر وابسته برآورد پارامتر: سالم $$\begin{array}{c|cccccc}&B&Std. خطا&t&Sig.&کران پایین&کران بالایی\\\hline Intercept& 7.578&772&9.813&.000&6.059&9.097\\ [income=1]&-1.633 & 0.826&-1.977&.029&-. [income=2]&-1.310 & .801&-1.635&.103&-2.886&.266\\ [income=3]&-.468 & .831& -.563&.574&-2.102&1.166\\ [درآمد= 4]&.664&.927 & 0.716&.474&-1.159&2.486\\ [income=5]&-.906 & 0.980& -.924&.356&-2.834&1.022\\ [income=6]&0^\rm a\end{array} $$\rm a$ این پارامتر بر روی صفر تنظیم شده است، زیرا اگر من درآمد را در a نمودار کنم مدل رگرسیون خطی به‌عنوان پیوسته، من به این نتیجه رسیدم که درست است: ضریب غیر استاندارد = 0.000. برای مدل اول (GLM)، تنها نتیجه قابل توجهی که به دست می‌آورم درآمد = 1 است که کمترین درآمد است و شیب B 1.633- است. من مطمئن نیستم که چگونه آن را تفسیر کنم. اگر من به مدل دوم نگاه کنم (اما مطمئن نیستم که آیا درست است که پیش‌بینی‌کننده طبقه‌بندی را در رگرسیون خطی ترسیم کنیم)، این نشان می‌دهد که هر چه درآمد بیشتر باشد، افراد غذای سالم‌تری می‌خورند. متشکرم!
تفسیر تخمین پارامترها هنگام پیش‌بینی‌کننده‌های چند طبقه‌ای
34932
پس از تلاش برای تولید یک مدل ترکیبی خطی، من با مقدار زیادی ناهمگونی مواجه شدم. lme1 <- lme(Average.payoff ~ Game + Type + Others.Type + Game:Type + Game:Others.Type + Type:Others.Type, random=~1|موضوعات, روش = REML, data=Subjectsm1) عبارت پاسخ Average.payoff پیوسته است، در حالی که همه متغیرهای توضیحی باینری هستند. هنگامی که به اعتبارسنجی نگاه می کنم، به وضوح می توانم ببینم که گسترش باقیمانده ها با مقادیر برازش بزرگتر کاهش می یابد. بنابراین، تصمیم گرفتم به استفاده از استدلال وزن نگاه کنم. من به مدل زیر رسیدم که به نظر می رسد بهترین گزینه است (AIC و loglik). vf1 <- varComb(varIdent(form=~1|Others.Type)، varIdent(form=~1|بازی)، varIdent(form=~1|نوع)، varIdent(form=~1|مرد)) lme1 <- lme(Average.payoff ~ Game + Type + Others.Type + Game:Type + Game:Others.Type + Type:Others.Type, random=~1|Subjects, method=ML, weights=vf1, data=Subjectsm1) 1. آیا می توانم استفاده از تابع varIdent را در کنار اثرات تصادفی توجیه کنم؟ 2. آیا می توانم ترکیب توابع متغیر را توجیه کنم تا واریانس همه متغیرهای توضیحی محاسبه شود؟ 3. اگر یک متغیر توضیحی اثر ثابت را به دلیل ناچیز بودن حذف کنم، آیا همان متغیر از ساختار واریانس حذف می شود؟ 4. اگر من تناسب بهتری داشته باشم (با استفاده از «AIC» و «loglik») بدون درج افکت های تصادفی با مدل سازی مجدد با «gls()»، آیا می توانم استفاده از مدل را بدون افکت های تصادفی توجیه کنم؟ این آزمایش شامل آزمودنی‌های 20 دلاری بود، برای هر موضوع من دو نمونه دارم، یکی که «Others.Type=0» و دیگری «Others.Type=1» بود.
استفاده صحیح از آرگومان وزن ها در مدل مختلط خطی [lme()]؟
76506
من یک سوال در مورد راه اندازی شبیه سازی دارم. فرض کنید دو گروه وجود دارد (Z = 0 و Z = 1). نتیجه برای Z = 0 و Z = 1 توسط معادلات زیر ایجاد می شود: $Y_0 = \alpha_0 + \beta_{01}*{x_1} + \beta_{02}*{x_2} + \epsilon_{0}$ $ Y_1 = \alpha_1 + \beta_{11}*{x_1} + \beta_{12}*{x_2} + \epsilon_{1}$، که در آن $x_1$ و $\epsilon$ استاندارد معمولی $N(0,1)$ و $x_2$ برنولی با $\pi = 0.5$ توزیع شده است. مقادیر واقعی ($\alpha_0$, $\beta_{01}$, $\beta_{02}$) = (0, 1, 2) و ($\alpha_0$, $\beta_{01}$, $ \beta_{02}$) = (1، 2، 3). چگونه می توانم ارزش واقعی میانگین اثر درمان را بر اساس تنظیم بالا بدانم (ATT $ = E(Y_1 - Y_0 \mid Z =1)$)؟ پیشاپیش با تشکر فراوان
تنظیم شبیه سازی برای میانگین اثر درمان روی تیمار شده (ATT)
87448
من سناریوی زیر را دارم: اجازه دهید $X_i$ نشان دهنده یک رویداد باشد. حالا من احتمالات محاسبه شده زیر را دارم. $P(X_1 \cap X_2 \cap \cdots \cap X_9 | X_{10})$$P(X_1 \cap X_2 \cap \cdots \cap X_{8} \cap X_{10} | X_{9}) $ $\vdots$ $P(X_2 \cap \cdots \cap X_{9} \cap X_{10} | X_{1})$ در کلمات، عبارات بالا نشان دهنده احتمال (مشترک) رویدادهای باقی مانده با توجه به اینکه یک رویداد خاص رخ داده است. برای محاسبه این احتمالات، من توزیع احتمال زیربنایی را می‌دانم که کل سیستم را توصیف می‌کند، به عنوان مثال، $p(x_1، x_2، \cdots. x_{10})$، بنابراین برای مثال، محاسبه احتمال $P(X_1 \cap X_2) \cap \cdots \cap X_9 | $\frac{P(X_1 \cap \cdots \cap X_{10})}{P(X_{10})}$ که در آن مخرج و صورت هر دو را می‌توان با ادغام بر روی مناطق خاصی از تابع چگالی احتمال $p محاسبه کرد. (x_1، x_2، \cdots. x_{10})$. سوال من این است که من می خواهم یک مقدار خلاصه پیدا کنم که احتمال متوسط این سیستم را توصیف کند، به عنوان مثال. بگویید $P(X_1 \cap X_2 \cap \cdots \cap X_9 | X_{10})= 0.4$, $P(X_1 \cap X_2 \cap \cdots \cap X_{8} \cap X_{10} | X_ {9})= 0.3$ و غیره، چگونه می توانم این مقادیر 0.4$، 0.3$، و غیره را ترکیب کنم یک مقدار که احتمال متوسط این سیستم را توصیف می کند؟ روش اولیه من فقط گرفتن میانگین حسابی هر مقدار است، اما این از نظر ریاضی نادرست است زیرا احتمالات شرطی قابل جمع نیستند (به جز زمانی که با یک رویداد شرطی شوند). بنابراین آیا معیار/تکنیک دیگری وجود دارد که بتوانم از آنها برای ترکیب این احتمالات منفرد در مقدار یک استفاده کنم؟ یعنی نوعی آمار خلاصه که میانگین احتمال را توصیف می کند؟
آمار خلاصه برای احتمالات شرطی «متوسط».
103043
من آزمایشی با دو عامل هر کدام با دو سطح، 5 تکرار در هر ترکیب و یک متغیر پاسخ اجرا کردم. داده های من غیر عادی و هتروسداستیک هستند. تحولات کمکی نکرد. من یک ANOVA جایگشت (`aovp - بسته lmperm - R`) را اجرا کردم، اما مطمئن نیستم که این راه درستی است و نمی‌دانم در مورد یک آزمون تعقیبی چه کنم، زیرا تعامل قابل توجهی دارم. داده‌های من به این شکل است: F1 F2 BIOMASS A C 0.66 A C 0.31 A C 0.88 A C 0.55 A C 0.81 A D 0.39 A D 0.21 A D 0.17 A D 0.15 A D 0.18 B C 0.005 B C 0.005 B C0 0.02 B D 0.16 B D 0.04 B D 0.21 B D 0.15 B D 0.06
چگونه با داده های هتروسداستیک غیرعادی از یک آزمایش فاکتوریل برخورد کنیم؟
111475
من یک متخصص آمار نیستم، بنابراین امیدوارم کسی در اینجا بتواند به من کمک کند. من یک دسته جفت کلید-مقدار مرتبط با یک محدوده زمانی خاص دارم. چیزی شبیه به این: <time>|<کلید>|<مقدار> 0 |1 |34534 0 |2 |23434 0 |3 |4606 1 |1 |945954 1 |6 |459459 1 |8 |34 10 مورد از وجود خواهد داشت میلیون ها جفت کلید-مقدار در مقادیر مختلف زمانی (24 مقدار منحصر به فرد). من باید بتوانم مجموع مقادیر 10 برتر را در تمام مقادیر زمانی که بر اساس مقدار کلید گروه بندی شده اند محاسبه کنم. من فکر نمی کنم که بتوانم این کار را به طور موثر انجام دهم مگر اینکه مشکل را تقسیم کنم. بنابراین، تئوری من این است که می توانم محاسبه را بر روی هر مقدار زمانی تقسیم کنم. در مثال بالا، دو کار به من می دهد: Job1 <time>|<key>|<value> 0 |1 |34534 0 |2 |23434 0 |3 |4606 Job2 <time>|<key>|<value > 1 |1 |945954 1 |6 |459459 1 |8 |34 حالا تصور کنید که من میلیون ها جفت کلید-مقدار برای هر زمان ارزش من محاسبه می کنم که 1000 مجموع برتر را بر اساس مقدار به صورت نزولی مرتب می کنم. سپس تمام مجموع 1000 شغل برتر را با هم جمع می‌کنم تا «10 کار برتر» محدوده تمام وقت را محاسبه کنم. من از 1000 به عنوان مثال در اینجا استفاده می کنم، اما چه مقدار دقیق تری وجود دارد که تضمین کند 10 برتر من درست است؟ من حتی کاملاً مطمئن نیستم که با این کار از کجا شروع کنم. Vinbot
محاسبه یک X بالا کلی در چندین گروه
34939
من سعی می کنم ساختار شبکه بیزی را از یک مجموعه داده بسیار بزرگ یاد بگیرم، و بسته R که برای یادگیری استفاده کردم، به دلیل محدودیت های محاسباتی، تنها می تواند بخش بسیار کوچکی از مجموعه داده ها (~10٪) را در یک زمان مدیریت کند. استراتژی اعتبارسنجی متقاطع k-fold متداول از زیر مجموعه های k-1 برای آموزش و 1 زیر مجموعه برای آزمایش استفاده می کند. میخوام بدونم میتونم فقط از یک زیرمجموعه تصادفی برای آموزش و از زیر مجموعه تصادفی دیگه برای تست استفاده کنم؟ آیا راه حل بهتری وجود دارد؟
استراتژی اعتبار سنجی متقاطع k برابر برای مجموعه داده های بزرگ در یادگیری آماری
83234
من دو سری اطلاعات در مورد (مثلا) تعداد ماشین ها در دو جاده در طول 1 مایل دارم. من 4 نتیجه را جمع آوری کرده ام: تعداد اتومبیل هایی که از یک تقاطع در 1، 10 و 60 دقیقه عبور می کنند و همچنین بیشترین تعداد اتومبیل ها در منطقه در یک ساعت گذشته. من می خواهم حداکثر مجموع تعداد ماشین های هر دو جاده را در یک ساعت برای یک ساعت معین مدل کنم. افزودن یک مثال برای وضوح (طبق نظرات): اگر (در مدت 20 دقیقه، هر دقیقه نمونه برداری شود)، مشاهدات من «2،4،7،4،8» و «5،4،3،2،1» است. ، حداکثر در هر دو جاده 10 است (7 + 3)، نه 13 (5 + 8)، زیرا حداکثرهای خاص صف در زمان های مختلف اتفاق افتاده است.
برآورد/پیش‌بینی حداکثر فرآیند جمع‌آوری برای مدل‌سازی تعداد خودروهای موجود در جاده؟
30699
من مقادیر p را برای همبستگی ها با استفاده از bootstrapping محاسبه کرده ام. من از همان مقدار p-value بدون در نظر گرفتن تعداد محاسبات جفتی استفاده کرده ام. به طور شهودی، به نظرم می رسد که هر چه همبستگی های بیشتری انجام دهم، احتمال بیشتری برای به دست آوردن یک همبستگی کاذب به دلیل شانس تصادفی دارم. **آیا استفاده از بوت استرپینگ نحوه برخورد شما با مشکلات خطاهای نوع I را هنگام آزمایش همبستگی های متعدد تغییر می دهد؟**
آیا استفاده از bootstrapping نحوه برخورد شما با مشکلات خطاهای نوع I را هنگام آزمایش همبستگی های متعدد تغییر می دهد؟
103040
قبل از طراحی/اجرای آزمایش چه پارامترهایی را باید **از قبل مشخص کرد**؟ (به عنوان مثال، آزمون t دو نمونه، یک طرفه) درک من این است که: 1. فرضیه صفر 2. **حداکثر** سطح اهمیت 3. **حداقل** توان 4. **حداقل** اندازه اثر آیا انتخاب **حداکثر/حداقل** در خطوط بالا صحیح است؟ آیا درست است که بگوییم برای تخمین حجم نمونه **الزامی** باید همه موارد فوق را ایجاد کنیم؟ یا آیا پارامترهای رایگان دیگری وجود دارد که فرد باید ابتدا آن را ایجاد کند؟
طراحی آزمایش های فرکانس A/B
85960
این احتمالاً باید آسان باشد، اما من هنوز نمی‌دانم چگونه آن را ثابت کنم. با توجه به این است که $y=X_1\beta_1 + X_2 \beta_2 + \epsilon$. به این صورت است که $X=\begin{pmatrix} X_1 & X_2 \end{pmatrix}$. علاوه بر این، داده می شود که $X_2'X_2=cX_1'X_1$. اکنون با استفاده از فرمول $\operatorname{Var}(X'X)^{-1}=\sigma^2 V$، جایی که $V=(1/(1+c))(X_1'X_1)^{- نشان دهید 1} دلار. کاری که من تاکنون انجام داده‌ام: $X'X=\begin{pmatrix} X_1' \\ X_2'\end{pmatrix} \begin{pmatrix} X_1 & X_2\end{pmatrix}=\begin{pmatrix} X_1'X_1 و X_1'X_2 \\ X_2'X_1 & cX_1'X_1\end{pmatrix}$. با این حال، من فکر می کنم معکوس کردن این ماتریس دشوار است. هر کمکی قابل تقدیر است.
ثابت کنید که واریانس $b$ به صورت زیر است
34930
من مجموعه بزرگی از داده ها برای 37 واحد بالینی مختلف (همه انکولوژی) در 37 بیمارستان مربوطه آنها دارم. دو متغیر پیامد خاص وجود دارد که باید آنها را تجزیه و تحلیل کنم: اول، مصرف دارو برای انواع و کلاس‌های دارویی خاص (داروهای جمع‌آوری شده) که به صورت نرخ بیان می‌شوند - DDD (دوزهای روزانه تعریف شده) در هر 100 روز بیمار. برای این مجموعه ارقام مصرف دارو برای بیماران فردی وجود دارد. سوال 1: کدام رویکرد رگرسیون را باید در پیش بگیرم؟ از آنچه می توانم جمع آوری کنم می توانم از مدل رگرسیون پواسون استفاده کنم. اگر در نتیجه پراکندگی بیش از حد وجود داشته باشد، می توانم به یک مدل دوجمله ای منفی متوسل شوم. دوم: من داده‌های مقاومت آنتی‌بیوتیکی دارم که به صورت نسبت در محدوده 0 تا 1 بیان می‌شود. این داده‌ها به‌عنوان داده‌های فردی بیمار در دسترس نیستند، اما در هر یک از 37 بیمارستان جمع‌آوری شده‌اند. سوال 2: باز هم کدام رویکرد؟ از آنچه خوانده ام می توانم از مدل رگرسیون لجستیک استفاده کنم. یک آماردان دیگر به من توصیه کرده است که ابتدا از یک مدل لاجیت استفاده کنم و سپس از یک مدل پروبیت استفاده کنم و خوب بودن تناسب را برای هر مدل مقایسه کنم. آیا این یک رویکرد معقول به نظر می رسد؟ آیا متن خاصی وجود دارد که بتوانید من را به آن راهنمایی کنید تا مهارت های اولیه مدل سازی رگرسیون خود را ارتقا دهم. من از R برای تجزیه و تحلیل استفاده خواهم کرد. پیشاپیش ممنون
مشاوره در مورد مدل سازی رگرسیون
85966
من از sklearn پایتون برای طبقه‌بندی چند کلاسه (SVC) استفاده می‌کنم وقتی از روش پیش‌بینی استفاده می‌کنم، با مجموعه داده‌ام نمرات بسیار بالایی می‌گیرم، با این حال، من می‌خواهم منحنی‌های ROC را برای هر یک از کلاس‌هایم ترسیم کنم. یعنی من می خواهم برای هر یک از کلاس ها مشکل را به یک مشکل in_class/out_class کاهش دهم. برای آن من به روش predict_proba SVC متوسل شدم. با این حال، من هیچ ارتباطی بین احتمالات داده شده و پیش بینی ها پیدا نمی کنم. به عنوان مثال، برای یک مسئله طبقه بندی 5 کلاس، ممکن است یک پیش بینی از کلاس 1 دریافت کنم، اما یک بردار احتمال را دریافت کنم - [0.1، 0.2، 0.5، 0.3، 0.0]. کلاس 1 بالاترین احتمال را نداشت. آیا کسی می‌داند که SVM چگونه از تابع تصمیم خود برای پیش‌بینی استفاده می‌کند، یا چگونه predict_proba روی یک مسئله چند کلاسه کار می‌کند؟ با تشکر
استفاده از predict_proba با SVC چند کلاسه sklearn
52857
من یک سری زمان برای دما دارم و سعی می کنم آن را به فرآیند فصلی + روند + تصادفی تجزیه کنم تا ببینم چه مدلی برای فرآیند تصادفی مناسب است. با این حال، من فقط برای 333 روز داده دارم و فرض می‌کنم داده‌های من باید شامل یک پدیده دوره‌ای باشد که دوره آن یک سال یا 365 روز است. چگونه می توانم روند و مؤلفه فصلی را حذف کنم در حالی که داده ای برای کل دوره فرضی ندارم؟ آیا راهی برای پیاده سازی متد در R وجود دارد؟ این مجموعه http://www.wikiupload.com/XD5FHJFC7S857MG EDIT است: طرح این داده توسط @Penguin_Knight ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/j964H.png)
جزء فصلی برای سریالی که فقط یک سال و نیم است
103046
من سعی می کنم داده های بیولوژیکی را تجزیه و تحلیل کنم تا ببینم که آیا تعداد رویدادها در یک بازه زمانی معین بر اساس فرکانس کلی بیشتر یا کمتر از حد انتظار است. چگونه می توان به این موضوع برخورد کرد؟ نمونه ای از اینکه چگونه این را چارچوب بندی کنم: از 100 میلی ثانیه، 16/44 رویداد در 15 میلی ثانیه رخ می دهد و 28/44 رویداد در 85 میلی ثانیه باقی مانده رخ می دهد. آیا بر اساس فرکانس کلی، رویدادهای بیشتری در فاصله 15 میلی‌ثانیه از حد انتظار رخ می‌دهند؟ و من حدس می‌زنم که فرضیه صفر این است که توزیع تصادفی 44 رویداد در 100 میلی‌ثانیه وجود دارد.
تجزیه و تحلیل آماری رویدادها در یک بازه زمانی معین
47092
فرض کنید من مجموعه ای از اطلاعات دارم، > > id t s x H0 h0 H0i Hi Di Eu > Elu > 1 2 1 53 0.01067033 0.01067033 0.01371871 0.01371871 2 115 >0397. 0 60 0.02148908 0.01081875 0.02856059 0.04227930 1 1.019138 > 0.009121439 > 3 5 0 45 0.0434062124 501. 0.09605354 2 1.038006 > 0.027655283 > 4 5 0 50 0.04344224 0.02195316 0.05506429 0.15111783 286 > 0356.056 0 52 0.05472922 0.01128698 0.07003181 0.22114964 2 1.035420 > 0.025161271 > 6 7 1 51 0.077632298787080. 0.32002062 2 1.033386 > 0.023194494 > اگر بخواهم برآورد $\beta$ را از این مورد پیدا کنم، > $$ Q(\beta)=\sum_{i=1}^{G}\sum_{j=1}^{ n_{i}}[\delta_{ij}\{\ln > h_{o}(t_{ij})+\beta'x_{ij}+E(\log > U_{i})\}-H_{o}(t_{ij})e^{\beta'x_{ ij}}E(U_{i})] $$ که در آن، $t_{ij}$ > $j^\mathrm{th}$ نقطه زمانی فرد $i\mathrm{th}$ است، $\delta_{ij}$ > وضعیت است، $x_{ij}$ بردار متغیرهای کمکی است. بگذارید $\beta$ اولیه 0.02 باشد. چگونه می توانیم تخمین $\beta$ را با استفاده از کد R پیدا کنیم؟
تخمین پارامتر $\beta$
87445
من ضریب تصادفی تحلیل پواسون را در R برازش داده ام. نتایج زیر را به دست آورده ام: برازش مدل مختلط خطی تعمیم یافته با حداکثر احتمال ['glmerMod'] خانواده: poisson (log ) فرمول: فرکانس ~ 1 + سی سی + Ageveh + ساخت + (1 |. AREA) داده ها: x انحراف AIC BIC logLik 1359.1477 1389.7370 -672.5739 1345.1477 اثرات تصادفی: نام گروه ها Variance Std.Dev. AREA (Intercept) 1.323 1.15 تعداد obs: 584، گروه‌ها: AREA، 8 جلوه‌های ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (برق) -0.12902 0.44432 -0.290 0.7715 ccL 0.05656 0.12371 0.457 0.6475 agevehO 0.02136 0.0927 0.0926 -0.45454 0.20632 -2.203 0.0276 * make3 -0.31799 0.21422 -1.484 0.1377 ## make4 -0.29708 0.14469 -2.053 0.0401 * Sign. کدها: 0 ' ** _' 0.001 '** ' 0.01 '_' 0.05 '.' 0.1 ' ' 1 همبستگی اثرات ثابت: (Intr) ccL agevhO make2 ccL 0.052 agevehO -0.179 -0.232 -0.232 0.001 make3 -0.156 0.022 -0.078 0.366 make4 -0.300 -0.235 0.167 0.544 0.522 با این حال من قادر به تفسیر نتایج نیستم.
نحوه تفسیر نتایج حاصل از تحلیل داده‌های پواسون با ضریب تصادفی
83232
من در حال ساخت یک مدل پیش بینی بر اساس مدل SVM با هسته RBF هستم. نمونه‌های آموزشی ویژگی‌های به‌دست‌آمده از مناطق ژنومی (موسوم به مکان‌های اتصال) را نشان می‌دهند که توسط پروتئین‌ها هدف قرار می‌گیرند (تنظیم می‌شوند). این مدل یاد می‌گیرد که بین مناطقی که توسط پروتئین‌ها هدف قرار می‌گیرند و مناطقی که نیستند، تمایز قائل شود. (داده های مثبت و منفی ایجاد کردم). سوال من این است که داده‌های مثبت حاوی نمونه‌های آموزشی اضافی هستند (یعنی مکان‌های اتصال یکسان در مکان‌های مختلف ژنوم)، بنابراین، آیا نمونه‌های آموزشی اضافی را نگه دارم (برای اینکه مدل در مورد الگوی خاصی از منطقه هدف بیشتر بداند) یا باید فقط نمونه های آموزشی منحصر به فرد را نگه دارید؟ به عنوان مثال: من در نمونه های آموزشی 10000 نمونه 10000 منطقه هدف مختلف (محل اتصال) پروتئین ها را دارم. اگر بی نظیر را بگیرم حدود 7000 نمونه خواهد بود. (زیرا سایت های اتصال ممکن است در مکان های مختلف یکسان باشند)
نمونه های آموزشی اضافی
74806
ما برنامه‌ای داریم که در آن سعی می‌کنیم کل ریسک (مثلاً ضربه زدن به ترافیک) یک سفر در اتومبیلی را که در آن احتمال تابعی از زمان و یک سری الگوریتم است، کمیت کنیم: ![گراف احتمال ما با نوارهای خطا](http ://i.stack.imgur.com/nMP78.png) چگونه می‌توانیم ریسک «کل» سفر را با توجه به مدت زمانی که خودرو در معرض خطر بالاتری قرار می‌گیرد، کمیت کنیم؟ دل من می گوید که این یک موضوع یکپارچه است، اما آمار من حداقل قوی نیست و فکر می کنم ممکن است چیزی واضح را از دست بدهم. محور y احتمال وقوع یک رویداد و محور x زمان سپری شده، بر حسب دقیقه است. منطقه خاکستری بی ربط است.
احتمال کل هر رویداد
77152
فرض کنید $X1,..,X4$ از pdf $f(x|\theta)=\frac{1}{\theta}$ ,برای $0<x<\theta$ iid باشد. توزیع قبلی $\pi(\theta)=\frac{2}{\theta^3}$ است، برای $\theta>1$ باید به دست بیاورم: a) توزیع پسین $\theta$ با توجه به $Y$ ، که در آن $Y = max(X1,...,X4)$. ب) تخمین نقطه ای $\theta$ بر اساس میانه های خلفی. **کار من** a) شروع با pdf $Y$, $f_{X(4)}(y)=\frac{4y^3}{\theta^4}$ ; با استفاده از فرمول pdf $X_{(n)}$ محاسبه مشترک pdf $f(y,\theta)$ $f(y,\theta)=\frac{8y^3}{\theta^7}$ پسین توزیع $f(\theta|y) \propto \frac{1}{\theta^7}$$f(\theta|y)=\frac{6}{\theta^7} \sim pareto(1,6)$ [با عادی سازی] لطفاً به من اطلاع دهید که آیا رویکرد من برای پسین درست است یا خیر. همچنین، برای بخش (ب)، آیا باید MLE را برای توزیع پسین بدست آورد. از بازخورد و نکات شما سپاسگزارم.
توزیع خلفی
43738
فرمول P(W) در این شبکه بیزی چیست؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/sZilQ.png) **PS 1:** آیا این فرمول به من P(W) می دهد یا خیر: P(Cloudy) × P( آبپاش|ابری) × P(باران|ابری) × P(علف مرطوب | آبپاش، باران) **PS 2:** چگونه می توانیم فرمول P(R|S) ?
منابع مالی شبکه بیزی
73981
آیا ویژگی منحصر به فرد $\mathrm{Gamma}(k=e، \text{ scale})$ یا یک توزیع دوجمله ای منفی با $r=e$ وجود دارد؟ در اینجا، $e$ شماره اویلر است، $e \حدود 2.71828$. دلیلی که می پرسم این است که یکی از متغیرهای شبیه سازی کامپیوتری من می تواند با $\mathrm{Gamma}(k=e, \text{ scale})$ یا $\mathrm{NB}(r=e) برازش شود. ,\ p)$ بسیار قوی. این باعث می‌شود فکر کنم که آیا چیز خاصی در مورد این فرآیند وجود دارد و این مقدار خاص پارامتر شکل ممکن است به آن اشاره کند.
آیا چیز خاصی در مورد توزیع گاما با پارامتر شکل k=e وجود دارد؟
77155
من لیست سری های زمانی را دارم. من این سری ها را با فرمول $$y=ax^2\exp(b*x)$$ تطبیق می دهم. لازم به ذکر است که پارامتر $b$ در فرمول باید منفی باشد زیرا این نشان دهنده رفتار سری های زمانی است. یک نمودار مثال برای خروجی رگرسیون برازش با استفاده از `nls()` در R این است: ![Fitting with nls\(\)](http://i.stack.imgur.com/OoMEZ.png) در ابتدا با من روبرو شدم با مشکل انتخاب مقادیر شروع برای $a$ و $b$. من چنین مقادیری را انتخاب کردم تا مقدار برازش شده در حداکثر برای $y$ یکسان باشد. اما با چند سری زمانی با مشکل بعدی مواجه شدم. بیایید این سری زمانی را در نظر بگیریم: ![افزایش سری های زمانی](http://i.stack.imgur.com/7VfnM.png) هنگام اعمال روش من، `nls()` به من مقدار مثبت $b$ داد که برای من رضایت بخش نبود، اگرچه مقادیر برازش بسیار مطابقت داشتند. با این حال، وقتی سعی کردم مرزهایی را در تابع «nls()» مانند «بالا(a=10,b=-0.0001)» معرفی کنم، متوجه شدم که مهم نیست چه مقدار b$ را قرار می دهم، مقدار حاصل از $ b$ به هیچ مقدار پایداری همگرا نمی شود و منحنی برازش شده بسیار ناسازگار است. از نظر عددی، پارامترها با چیزی که انتظار داشتم پیدا کنم مطابقت داشتند، اما مقادیر برازش شده کالیبره نشده بودند. آیا کسی می تواند پیشنهاد دهد که چگونه می توانم با چنین سری های زمانی بدون تغییر فرمول کلی برخورد کنم؟ با تشکر
برازش الگوریتم NLS
26702
من چند سوال برای فاصله های پیش بینی و تحمل دارم. بیایید ابتدا در مورد تعریف فواصل تحمل توافق کنیم: به ما یک سطح اطمینان داده می شود، مثلاً 90٪، درصد جمعیت برای گرفتن، مثلا 99٪، و حجم نمونه، مثلا 20. توزیع احتمال مشخص است، مثلاً نرمال. برای راحتی حال، با توجه به سه عدد فوق (90%، 99% و 20) و این واقعیت که توزیع اساسی نرمال است، می‌توانیم عدد تلرانس $k$ را محاسبه کنیم. با توجه به یک نمونه $(x_1,x_2,\ldots,x_{20})$ با میانگین $\bar{x}$ و انحراف استاندارد $s$، فاصله تلورانس $\bar{x}\pm ks$ است. اگر این فاصله تحمل 99٪ از جمعیت را بگیرد، آنگاه نمونه $(x_1,x_2,\ldots,x_{20})$ را _موفق__ می نامند و لازمه این است که 90٪ نمونه ها _موفق_ باشند. نظر: 90% احتمال موفقیت یک نمونه پیشینی است. با توجه به موفقیت آمیز بودن نمونه، 99 درصد احتمال مشروط این است که مشاهده آینده در بازه تحمل باشد. سؤالات من: آیا می توانیم فواصل پیش بینی را به عنوان بازه های تحمل ببینیم؟ با نگاه کردن به وب، پاسخ های متناقضی در این مورد دریافت کردم، ناگفته نماند که هیچ کس واقعاً فواصل پیش بینی را با دقت تعریف نکرده است. بنابراین، اگر تعریف دقیقی از فاصله پیش‌بینی (یا مرجع) دارید، ممنون می‌شوم. چیزی که من فهمیدم این است که برای مثال یک بازه پیش‌بینی 99 درصدی، 99 درصد از تمام مقادیر آینده را برای _all_ نمونه‌ها ثبت نمی‌کند. این همان فاصله تحملی است که 99٪ از جمعیت را با احتمال 100٪ جذب می کند. در تعاریفی که برای فاصله پیش‌بینی 90 درصد پیدا کردم، 90 درصد احتمال _پیشینی_ است که به یک نمونه داده می‌شود، مثلاً $(x_1, x_2,\ldots, x_{20})$ (اندازه ثابت است) **و** a مشاهده منفرد آینده $y$، که $y$ در بازه پیش بینی خواهد بود. بنابراین، به نظر می‌رسد که هم نمونه و هم مقدار آینده هر دو به طور همزمان داده می‌شوند، بر خلاف بازه تلورانس که نمونه داده می‌شود و با احتمال معینی یک _موفق_ است و به شرطی که نمونه باشد. a _success_، مقدار آتی داده می شود و با احتمال معینی در بازه تلورانس قرار می گیرد. من مطمئن نیستم که آیا تعریف فوق از فاصله پیش بینی درست است یا نه، اما به نظر می رسد خلاف واقع باشد (حداقل). هیچ کمکی؟
پیش بینی و فواصل تحمل
39319
من روی چند وب سایت کتابخانه کار می کنم و می خواهیم بدانیم کاربران چه کسانی هستند تا بتوانیم درباره نحوه طراحی سایت تصمیم بگیریم و تلاش ها را متمرکز کنیم. اینها طبقات کاربرانی هستند که به آنها علاقه مندیم: لطفاً پاسخی را انتخاب کنید که به بهترین وجه خود را توصیف کند: * k12-معلم-کتابدار * k12-دانشجو *دانشجوی کالج *دانشجوی فارغ التحصیل *دانشگاه-پژوهشگر * نسب شناس-پژوهشگر * بایگانی /librarian * other [کاربر می‌تواند مشخص کند یا خالی بگذارد] ما می‌خواهیم نسبت کاربرانمان را بدانیم که مناسب هستند در هر دسته، و ما می خواهیم تا حدی درک کنیم که اعداد ما چقدر دقیق هستند. ما همچنین می خواهیم بدانیم که آیا این نسبت ها در زمان های مختلف سال تغییر می کنند یا خیر. اولین سوال من این است که آیا این مشکلی است که می توانم از آمار بیزی استفاده کنم؟ ما یک نظرسنجی پاپ آپ انجام دادیم که حدود 6 ماه پیش به مدت دو هفته در هر صفحه از هر دو وب سایت ما بود. از یک کوکی فلش برای مشخص کردن زمان انجام نظرسنجی استفاده می کرد تا کاربران فقط یک بار آن را دریافت کنند. این به google analytics وارد شد تا بتوانیم درصد استفاده از سایت‌ها را از هر نوع کاربر ببینیم. با این حال، وب‌سایت‌های ما در آزمایشگاه‌های رایانه کتابخانه‌ای بسیار استفاده می‌شوند، جایی که آنها با فلش روی یک سیستم فایل فقط خواندنی راه‌اندازی می‌شوند که در نهایت با نمایش نظرسنجی در هر صفحه انجام می‌شود، زیرا ما واقعاً نمی‌توانیم در شی مشترک فلش بنویسیم. آیا می توانم از داده های نظرسنجی پاپ آپ تفنگ ساچمه ای به عنوان پیشین استفاده کنم؟ و سپس نظرسنجی پاپ آپ را برای یک نفر از هر 1000 بازدیدکننده منحصر به فرد هر سایت اجرا کنید؟ من 6 تا 8 نتیجه نظرسنجی جدید در روز دارم که می‌خواهم از آنها برای به‌روزرسانی مداوم مدل بیزی از کاربرانمان استفاده کنم. مسئله این است که من 20 سال است که کلاس آمار نداشته ام و بعد از آن کلاس آمار کلاسیک بود. من در مورد متغیرهای تصادفی گسسته در گوگل جستجو کرده ام و http://www.greenteapress.com/thinkbayes/ را خوانده ام، اما واقعاً نمی دانم در مورد چه چیزی صحبت می کنم. آیا من با این ایده در مسیر درستی هستم (اگر چنین است، هیچ اشاره‌ای برای ادامه کار وجود دارد؟ من در یک کتابخانه کار می‌کنم تا بتوانم هر مرجعی را که می‌توانید به آن اشاره کنید، جستجو کنم) یا این به نظر می‌رسد که به نظر می‌رسد غوغا/بیهوده است؟ * * * به روز رسانی: در اینجا داده های نظرسنجی که ما در دسامبر 2011 انجام دادیم، وب سایت A: 65 k-12 معلم یا کتابدار 71 k-12 دانش آموز 532 دانشجوی کالج یا فارغ التحصیل (ما می خواهیم این را در آینده تقسیم کنیم) 307 هیئت علمی یا دانشگاهی محقق 369 بایگان یا کتابدار 234 نسب شناس یا محقق خانواده 584 دیگر وب سایت B: 133 k-12 معلم یا کتابدار 280 k-12 دانش آموز 445 دانشجوی کالج یا فارغ التحصیل 82 استاد یا محقق دانشگاهی 55 بایگان یا کتابدار 68 نسب شناس یا محقق خانواده 220 دیگر
نظرسنجی کاربران بیزی با فاصله زمانی معتبر
4075
من دو جمعیت دارم، یکی با N (بدون مشاهدات)=38704 و دیگری با N=1313662. این مجموعه داده ها دارای 25 متغیر هستند که همگی پیوسته هستند. من میانگین هر یک را در هر مجموعه داده گرفتم و آمار آزمون را با استفاده از فرمول (t = میانگین تفاوت / خطای std) محاسبه کردم. مشکل درجه آزادی است. با فرمول df=N1+N2-2 آزادی بیشتری نسبت به جدول خواهیم داشت. پیشنهادی در این مورد دارید؟ چگونه آمار t را در اینجا بررسی کنیم. من می‌دانم که آزمون t برای کنترل نمونه‌ها استفاده می‌شود، اما اگر آن را روی نمونه‌های بزرگ اعمال کنیم چه می‌شود.
چگونه تست t را با نمونه های عظیم انجام دهیم؟
87447
بنابراین یک روز پس از یک شام خوشمزه پر از موز، یک ایده به ذهن شما خطور می کند (شما شخص A هستید) - اگر خوردن موز بتواند سرطان را درمان کند چه؟ از آنجایی که در قلب یک دانشمند هستید، یک مطالعه دوسوکور انجام می دهید و داده های شما به شما نشان می دهد که موز با احتمال حداقل 99.99٪ سرطان را درمان می کند. وای! - شما فکر می کنید، - من در اینجا به چیز مهمی هستم!. وسایلتان را جمع می کنید و با عجله به سمت سازمان مرکزی تحقیقات سرطان در کشورتان می روید. با ورود به ساختمان فریاد می زنید: مردم!، من درمان سرطان را پیدا کردم!. آنها شما را به سمت رئیس سازمان (شخص ب) هدایت می کنند. شما داده‌های خود را به او نشان می‌دهید، و او می‌پذیرد که نتیجه‌گیری شما بر اساس داده‌های شما درست است. پسر می گوید: اما، می بینید، - امسال ما حداقل 100000 نفر مانند شما به ما مراجعه کردند و یافته های خود را در مورد درمان سرطان با انواع میوه ها گزارش دادند. و ما انتظار داریم حداقل برخی از آنها این کار را داشته باشند. داده هایی که نشان می دهد آنها سرطان را با احتمال 99.99٪ کاملاً تصادفی درمان می کنند، بنابراین من متقاعد نشده ام، و شما باید تحقیقات بیشتری انجام دهید. پس چی؟ - شما می گویید، - من همه آن آزمایش ها را انجام ندادم، فقط یک آزمایش انجام دادم، و به من نشان داد که موز سرطان را با احتمال 99.99٪ درمان می کند. بنابراین من مطمئن هستم که موز سرطان را با احتمال 99.99٪ درمان می کند. در مطالعات دیگر از میوه های مختلف استفاده شده است و هیچ کدام از آنها از موز استفاده نکرده اند، بنابراین آنها به این موضوع بی ربط هستند. فرض کنید هر دو شخص A و B کاملاً منطقی هستند و کاملاً به یکدیگر اعتماد دارند. عموماً فرض بر این است که دو عامل عقلایی که دانش یکسانی دارند باید به نتایج یکسانی برسند. در این مورد، هر چند به نظر من چیزی وجود ندارد که شخص B بتواند به شخص A بگوید که شخص A را وادار به پذیرش موقعیت شخص B کند. من فکر می‌کنم اتفاقی که خواهد افتاد این است که شخص A قبول کند که شخص B باید واقعاً این موقعیت را داشته باشد که مشخص نیست موز سرطان را درمان می‌کند یا خیر. و شخص B می پذیرد که شخص A با این باور که موز سرطان را با احتمال 99.99 درصد درمان می کند موجه است. بنابراین به نظر من این یک تناقض به نظر می رسد: از یک طرف فاعل های عقلایی که اطلاعات یکسانی به آنها داده می شود باید به یک نتیجه برسند، و از طرف دیگر ما اینجا داریم که فاعل های عقلایی اطلاعات یکسانی دارند اما به نتایج متفاوتی می رسند. آیا راهکاری برای این موضوع می بینید؟
یک تناقض ظاهری با عوامل منطقی که با توجه به داده های یکسان به یک نتیجه نمی رسند
24194
فرض کنید من می خواهم بدانم که آیا درصد برد یک تیم بیسبال در فصل قبل یا انتظار فیثاغورثی آن تیم از فصل قبل، پیش بینی بهتری برای درصد برد فصل بعد است. (من درصدها را می گیرم زیرا تعداد بازی های انجام شده در هر فصل در گذشته تغییر کرده است، بنابراین آسان تر به نظر می رسد). برای هر یک از این متغیرهای مستقل، دلیل خوبی برای مشکوک بودن رابطه خطی آنها با متغیر وابسته وجود دارد، بنابراین به نظر می رسد رگرسیون خطی کارساز باشد. متغیر وابسته همیشه در بازه [0،1] قرار دارد، بنابراین رگرسیون لجستیک نیز به نظر می رسد که کار کند. اما متغیر وابسته دقیقاً یک احتمال نیست (خب، فکر می‌کنم این احتمال است که تیم یک تیم حریف ناشناخته را شکست دهد)، و همچنین هرگز در واقع خیلی نزدیک به 0 یا 1 نیست (تقریباً بدون استثنا بین 0.3 و .7). بنابراین، با در نظر گرفتن همه اینها، کدام روش طبیعی تر برای استفاده است، رگرسیون خطی یا رگرسیون لجستیک؟ آیا هر دو رویکرد معتبری هستند؟
درصد برنده - رگرسیون لجستیک یا رگرسیون خطی؟
88321
چگونه می توانم اندازه نمونه را برای طراحی ANOVA اندازه گیری های مکرر محاسبه کنم، با توجه به توان، اهمیت و اندازه اثر مورد نیاز (2 گروه، من تفاوت میانگینی را که می خواهم بتوانم انحراف استاندارد را بدست بیاورم و تقریبی می دانم) می دانم؟
چگونه می توان اندازه نمونه را برای طرح آنووا اندازه گیری مکرر دو گروهی با توجه به اندازه قدرت، آلفا و اثر انتخاب کرد؟
86316
ما در حال نظارت بر کیفیت هوا هستیم: اساساً غلظت. ما سری‌های زمانی را جمع‌آوری می‌کنیم و به صورت دوره‌ای آنالایزرها را کالیبره می‌کنیم تا فرآیند را کنترل کنیم. با دانستن مشخصات یا ارزیابی تجربی آن، برای هر تحلیلگر، مقداری آستانه پایین در محدوده دینامیکی (وسعت اندازه‌گیری) داریم که در آن داده‌ها به دلیل تنوع روش، نقص و محدودیت‌ها بی‌معنی می‌شوند. غلظت ها مقادیر مثبت واقعی فیزیکی هستند. بنابراین تمرکز واقعی نمی تواند منفی باشد: هر توزیعی که داشته باشد، باید مثبت باشد. آنالایزر واقعی هستند و هنگام اندازه گیری غلظت بسیار کم، گاهی اوقات می تواند به دلیل تغییرپذیری فرآیند، غلظت منفی یا صفر تولید کند (فرض می کنیم هیچ سوگیری در روش وجود ندارد). در شیمی تجزیه، سؤال حد تشخیص اغلب مطرح می شود. کوتاه کردن بخشی از سری داده‌ها به زیر آستانه «خودسرانه» (مدل‌سازی‌شده یا ارزیابی تجربی) یک روش معمول است. البته این داده های سوگیری را کوتاه می کند، که منجر به انتظارات بالاتر می شود. اما استفاده از سوگیری داده های بی معنی نیز. می دانیم که برخورد با DL راه حل کاملی نیست، این یک تکنیک فیلترینگ با مزایا و معایب است. سوال من این است: وقتی (1) null یک مرز سخت است که نمی توان از آن عبور کرد (توزیع غلظت واقعی مثبت است). (2) تغییرپذیری فرآیند نزدیک به مرز پایینی محدوده دینامیکی ابزار را نمی توان فرض کرد: متقارن یا مستقل از غلظت، آیا معقول است که یک حد تشخیص منفی یا صفر برای کوتاه کردن داده هایمان تعیین کنیم؟ اگر چنین است، چه فرضیه ای باید وجود داشته باشد؟
آیا حد تشخیص منفی برای غلظت ها سازگار است
39314
من CFA را انجام می‌دهم تا با استفاده از روش ساخت پنهان اندازه‌گیری نشده، سوگیری روش رایج را آزمایش کنم. میانگین واریانس مشترکی که من از فاکتور مشترک دریافت می کنم حدود 31 درصد است که زیاد است (همانطور که باید کمتر از 25 درصد باشد). من تفاوت در مقادیر p بارهای صفت (بین مدل CFA با ULC و بدون ULC) را بررسی کردم و مقادیر p فقط برای یک مقیاس ناچیز می شوند. برای کنترل آماری اثر واریانس روش رایج در این مورد چه کاری می توانم انجام دهم؟ من در حال انجام تحلیل اعتدال هستم و 6 متغیر دارم
چگونه سوگیری روش رایج را کنترل کنیم؟
73980
من یکپارچه سازی را بر اساس انگل/گرنجر و یوهانسن پیدا کرده ام. با این حال، علیت گرنجر برای هر دو متغیر رد می شود. چگونه ممکن است؟ بر اساس تئوری، اگر x و y I(1) و هم انباشته باشند، x علّی گرنجر به y و/یا y گرنجر علی به x است. با این حال، علیرغم رابطه هم انباشتگی آنها، علیت گرنجر در مورد دو متغیره من رد شده است. آیا به درستی متوجه شدم که باید حداقل یک جریان علیت گرنجر در یک سیستم یکپارچه دو متغیره وجود داشته باشد؟ از پاسخ شما متشکرم! با اعمال یک VECM، نتایج زیر را دریافت می‌کنم: تنها 0.022460- قابل توجه است... تخمین‌های تصحیح خطای برداری تاریخ: 13/10/28 زمان: 23:58 مشاهدات شامل: 1113 پس از تنظیمات خطاهای استاندارد در ( ) و t- آمار در [ ] معادله همجمعی: CointEq1 CAD(-1) 1.000000 NATGAS(-1) 0.067366 (0.02646) [ 2.54615] C -0.077093 تصحیح خطا: D(CAD) D(NATGAS) CointEq1 -0.022460 -0.0060601 (0.006051) [-4.37213] [-0.47714] D(CAD(-1)) -0.054710 0.029241 (0.02998) (0.08073) [-1.82508] [ 0.36220] D(CAD(-2) 03138650. (0.02996) (0.08070) [ 1.18998] [ 1.26200] D(NATGAS(-1)) -0.004642 -0.077700 (0.01120) (0.03016) [-0.41457) [-0.41457] (NATGAS) 5 0.004712 0.056858 (0.01120) (0.03016) [ 0.42067] [ 1.88491] C 0.000176 -0.000850 (0.00019) (0.00019) (0.00051] (0.00051) [351-351] 0.022437 0.011948
همجمعی اما گرنجر-علیت یافت نشد
88323
این یک سوال بعدی است که چگونه می توانم آزمایش کنم که دو توزیع غیر عادی متفاوت است؟ من 13 توزیع دارم، ![X vs Y](http://i.stack.imgur.com/eLKCE.png). برای سوال قبلی، من باید 1. تست Kruskal-Wallis را با 13 نمونه انجام دهم عملاً 0. در ابتدا، این درست به نظر نمی رسید، برای مثال، توزیع های A و B بسیار شبیه به هم هستند (سوال فرعی: آیا باید از «جایگزین = «بزرگتر» در R استفاده کنم؟ من می خواهم تقریباً استدلال کنم که D است. بزرگتر از A.) اکنون، بر اساس یک سوال دیگر، من معتقدم که این به دلیل این واقعیت است که اندازه های نمونه من بر اساس همان سوال، به نظر می رسد که باید اندازه اثر را محاسبه کنم از این دستورالعمل‌ها پیروی کردم، برای مثال، 0.0005 چگونه می‌توانم این مقادیر را تفسیر کنم، حتی وقتی که A و D را با هم مقایسه می‌کنم. نظر whuber، من می خواهم بیان کنم که D > L > K > J > ... > [A,B,C]. به عبارت دیگر، آنهایی که در D هستند به طور کلی بزرگتر از L هستند. در مورد A,B,C باید بگویم که تفاوت معنی داری وجود ندارد. اما باز هم، من می خواهم بر اساس آمار و نه فقط مشاهده بصری استدلال کنم.
اگر دو توزیع غیر نرمال با هم تفاوت داشته باشند، پس از آزمایش چه می کنید؟
49270
من دو سوال در مورد استفاده از جنگل تصادفی (مخصوصا randomForest در R) برای انتساب مقدار گمشده (در فضای پیش بینی) دارم. 1) الگوریتم انتساب چگونه کار می کند - به طور خاص چگونه و چرا برچسب کلاس برای انتساب مورد نیاز است؟ آیا ماتریس مجاورتی که برای وزن دادن به مقدار متوسط ​​برای القای مقدار گمشده به کار می رود، به طور جداگانه توسط کلاس تعریف می شود؟ 2) اگر برچسب کلاس برای منتسب کردن مقادیر از دست رفته مورد نیاز است - چگونه می توان از آن برای نسبت دادن مقادیر گمشده برای داده های جدیدی که می خواهید پیش بینی کنید استفاده کرد؟
انتساب با جنگل های تصادفی
73989
نمودار زیر داده های عنوان GPS را نشان می دهد (در هر ثانیه نمونه برداری می شود) و من سعی می کنم بهترین راه را برای تشخیص چرخش (راست / چپ) در داده ها پیدا کنم. پیشنهادات برای الگوریتم ها/روش ها را برای آن قدردانی می کنید (شاید تشخیص مرحله)؟ ![عنوان GPS نمونه‌برداری شده با فاصله 1 ثانیه](http://i.stack.imgur.com/nFMPt.png) در حالی که پیچ‌ها معمولاً منجر به تغییر شدید در مقدار مسیر می‌شوند، مسیر ممکن است به دلیل انحنای جاده نیز به تدریج تغییر کند که نباید تغییر کند. شناسایی شد.
چگونه تغییرات مرحله ای را در داده های سری زمانی GPS تشخیص دهیم؟
77150
من به چندین جریان داده زنده نگاه می کنم که به صورت روزانه آنها را پردازش می کنم و می خواهم در زمان واقعی نظارت کنم. روشی که من در ابتدا این کار را انجام دادم این بود که یک حد بالایی دلخواه برای هر یک از جریان‌ها را معرفی کردم. نظارت به زمان سپری شده بین موارد استریم متوالی نگاه می‌کرد و اگر از آستانه خود فراتر رفت، در مورد داده‌های احتمالاً از دست رفته در آن جریان هشدار می‌داد. مشکل این رویکرد این است که جریان‌ها در برخی از نقاط روز بسیار فعال هستند و در نقاط دیگر نسبتاً ساکت هستند، بنابراین یک محدودیت کدگذاری سخت به‌طور غیرضروری بالا می‌رود تا از هشدارهای اشتباه در طول دوره‌های آرام جلوگیری شود. روش دومی که من آن را دوباره کار کردم، معرفی آستانه های نرخ داده سطلی برای هر جریان داده بود. بنابراین، برای مثال، چیزی شبیه به: استریم A آستانه 4 صبح، جریان A آستانه 7 صبح، استریم یک آستانه 5 بعدازظهر... و آستانه استفاده شده در طول روز به زمان بستگی دارد. این معقول تر است، اما مشکلی که اکنون دارم این است که زمان های مناسب برای هر جریان را به روشی بهتر از انتخاب خودسرانه آنها برای هر جریان داده ارائه می کنم. برای یک جریان معین، من تصور می کنم که از داده ها عبور کنم و سطل های معقول همراه با آستانه آنها تولید کنم (در حال حاضر از دو برابر حداکثر زمان بین آیتم ها استفاده می کنم زیرا توزیع آنها تقریباً عادی نیست، بنابراین من به نحوه انجام آنها توجه نکرده ام. یک زمان آستانه دریافت کنید که با احتمال کم خاصی مطابقت دارد) اما من نمی‌خواهم برای این کار از کجا شروع کنم؟ و آیا این مشابه یا مشابه با یک مشکل مطالعه شده با راه حل هایی است که ممکن است بخواهم استفاده کنم؟
الگوریتم‌ها/روش‌هایی برای تشخیص تغییرات رژیم در نرخ داده
73987
من سعی می کنم تجزیه و تحلیل MNL را مانند این مقاله یا این مقاله بازسازی کنم. در اکسل من یک برگه با ستون انتخابی من دارم که شامل سهم بازار در هر برنامه سفر است. از طرف دیگر، تعداد مسافران در آن برنامه سفر را نیز دارم که می‌توان به‌عنوان متغیر انتخابی استفاده کرد. سپس، من چندین متغیر دارم که کاربرد برنامه سفر داده شده را توصیف می کنند که شبیه به آنچه در مقالات بالا به عنوان متغیرهای مستقل من هستند. مشکلی که من دارم این است که به جای اینکه ضرایب متغیرهای مستقل خود را برای کل مجموعه داده مانند نشان داده شده در صفحه 22 مقاله اول یا صفحه 18 مقاله دوم نشان دهم، متغیرها را برای هر متغیر انتخابی دریافت می کنم. یک لیست بزرگ در حال حاضر من سعی می کنم از بسته mlogit در R استفاده کنم. من همچنین XLSstats را با چالش های مشابه امتحان کرده ام. به نظر می رسد Accord.NET خروجی مورد علاقه من را تولید می کند، اما به نظر می رسد که نوعی رگرسیون لجستیک دوجمله ای انجام می دهد و نه MNL. **نمونه داده ساده** متغیر پاسخ: پیش‌بینی‌کننده سهم بازار 1: مبدا/مقصد/ حامل (نه در مدل استفاده نمی‌شود) پیش‌بینی‌کننده 2: آیا نوستاپ است؟ (متغیر باینری) پیش‌بینی‌کننده 3: NumberOfSeats * * * 50% DEN/JFK/AA 1 5000 20% DEN/JFK/UA 0 3000 30% DEN/JFK/DL 0 8000 25% DFWLAX/F9 0 10000 75% DFW/LAX/WN 1 25000 **خروجی دلخواه** آیا Nonstop است؟ 2.30 تعداد
تجمیع یا ادغام ضرایب مدل لجستیک چند جمله ای
19456
این احتمالاً یک سؤال احمقانه است، اما اینجا پیش می‌آید: بنابراین می‌خواهیم انتظار زیر را تقریب بزنیم: $$\mathbb{E}[h(x)] = \int h(x)\pi(x) dx$$ Where $ h(x)$ یک تابع دلخواه و $\pi(x)$ یک توزیع است، همچنین برای سادگی، فرض می کنیم که در واقع ثابت نرمال کننده برای $\pi(x)$ را می دانیم. البته ما می خواهیم از توزیع بهینه پیشنهاد نمونه برداری کنیم: $$g(x) = \frac{|h(x)|\pi(x)}{Z}$$، اما البته این یک از فرمی که می‌توانیم نمونه‌برداری کنیم و حتی نمی‌توانیم وزن‌های اهمیت را محاسبه کنیم، زیرا باید بدانیم $Z$: $$ w(x) = \frac{Z \ \pi(x)}{|h(x)|\ pi(x)}$$ اما، اگر فرض کنیم $g(x)$ را می توان از آن نمونه برداری کرد، آیا می توانیم از تخمینگر نمونه برداری اهمیت نسبت استفاده کنیم؟: $$ \frac{\int w(x)h(x)g(x) dx}{\int w(x)g (x)dx}$$ برای واضح بودن، تخمین‌گر را می‌توان با اجازه دادن $\{x^{(i)}\}_{i=1}^N$ مجموعه‌ای از نمونه‌های توزیع با چگالی نیز نوشت. $g(x)$ (به طور جادویی). اجازه می‌دهیم $$w(x^{(i)}) = \frac{1}{|h(x^{(i)})|}$$ تخمین‌گر نهایی را بسازد: $$ \mathbb{E}[h (x)] \approx \frac{\sum_{i=1}^N w(x^{(i)})h(x^{(i)})}{\sum_{i=1}^N w(x^{(i)})} $$ بنابراین، آیا این درست است که برآوردگر فوق مجانبی بی طرفانه (سازگار) است؟ یا چیزی را از دست داده ام؟ اگر واقعاً بی‌طرفانه است، آیا می‌توان از آن در ارتباط با رویکردهای مونت کارلو برای نمونه‌برداری از $g(x)$ استفاده کرد، زیرا می‌توان از آنها (در تئوری) برای نمونه‌برداری از هر توزیع شناخته شده تا یک ثابت نرمال‌کننده استفاده کرد. ویرایش: یک اشتباه تایپی برطرف شد، همچنین، من توانستم ثابت کنم که این یکنواخت است، بنابراین سوال جدید من این است: آیا این ایده خوبی است؟ آیا مقاله ای برای تحلیل این موضوع وجود دارد؟ آیا نام استاندارد دارد؟
نمونه گیری اهمیت بهینه با برآوردگر نسبت
7408
در اینجا یک سوال اساسی واقعی وجود دارد. من سعی می کنم با استفاده از Verzani's Using R for Introductory Statistics کمی آمار را به خودم آموزش دهم. در سوال 5.13 می پرسد: یک نمونه 100 نفری از جمعیت 600000 نفری انتخاب شده است. اگر مشخص شود که 40 درصد جامعه دارای یک ویژگی خاص هستند، احتمال اینکه 35 نفر یا کمتر از نمونه دارای آن ویژگی باشند چقدر است. حالا، حدس می‌زنم شما باید استدلال کنید که جمعیت آنقدر زیاد است که فرض کنیم آزمایش‌های مستقل برنولی به اندازه کافی نزدیک باشد. سپس، شما پاسخ خود را به این صورت دریافت می کنید: > pbinom(35,100,0.4) [1] 0.1794694 سوال من این است. چگونه می خواهید به چنین سؤالی بدون فرض استقلال پاسخ دهید، مثلاً اگر جمعیت کمتر بود؟ مطمئنم بعد از خواندن بیشتر مشخص خواهد شد. فقط سعی می کنم مطمئن شوم چیزی را از دست ندهم. با عرض پوزش برای سوال سطح مقدماتی. با تشکر
نمونه گیری از جمعیت ثابت
21327
من مجموعه ای از داده ها را دارم که در آن فرد فاقد معلولیت، ناتوانی خفیف یا ناتوانی شدید است. من می خواهم مدل ناتوانی های خفیف و شدید را مشخص کنم. من سه لاجیت را با استفاده از همان مجموعه متغیرهای مستقل (X) تخمین زدم. در مدل اول، متغیر وابسته Y1 = 1 اگر ناتوانی دارند (خفیف یا شدید) و 0 در غیر این صورت، سپس دو مدل دیگر را تخمین زدم. اولی دارای متغیر وابسته Y2=1 در صورت داشتن ناتوانی خفیف یا 0 در غیر این صورت است. و سپس یک logit را با Y3=1 در صورت ناتوانی شدید و 0 در غیر این صورت تخمین زدم. (به عبارت دیگر Y1=Y2+Y3) چگونه می توانم از نتایج برای آزمایش اینکه آیا با تخمین دو مدل به طور جداگانه چیزی به دست می آید یا بهتر است مدل اول را تخمین بزنم، از نتایج استفاده کنم تا ضرایب را برای مدل های 1 و 1 محدود کنیم. 2 همینطور بودن
تخمین یک لاجیت در مقابل دو لاجیت با استفاده از 2 متغیر وابسته (یعنی محدود کردن دو لاجیت برای داشتن ضرایب یکسان
39316
من مجموعه ای از 10 آیتم با وزن 0-1 دارم. یک نفر می تواند به هر یک از این 10 مورد با امتیاز 0-100 امتیاز دهد، اما مثلاً فقط 500 امتیاز برای تخصیص بین این 10 مورد به او داده می شود. متوسط یک نفر می تواند به هر آیتم 50 امتیاز دهد و شخص دیگری می تواند به 5 مورد برتر با بالاترین وزن با تمام 100 امتیاز دهد. وزن‌ها به گونه‌ای است که تفاوت در مجموع امتیازهای دریافتی از طریق رتبه‌بندی همه آیتم‌ها با 50 و تنها 5 مورد برتر دارای بالاترین وزن با 100 امتیاز و 5 مورد باقی‌مانده با 0، با توجه به اینکه اختلاف وزن‌ها (همه بین 0-1) زیاد نیست. با توجه به اینکه یک فرد می تواند به طور تصادفی به همه آیتم ها با 50 امتیاز دهد و همچنان یک امتیاز کلی بسیار نزدیک به بالاترین امتیاز ممکن بدست آمده از رتبه بندی 5 آیتم وزن دار برتر با همه 100 امتیاز دریافت کند، مشکل ساز است. آیا روش‌ها/روش‌ها/الگوریتم‌های جایگزین موجود برای حل چنین مشکلی وجود دارد تا فردی که به همه موارد 50 امتیاز می‌دهد امتیازی بسیار دور از حداکثر امتیاز ممکن کسب کند؟
سوال با جمع ثابت
4072
من می‌خواهم در مورد اینکه آیا افراد در مجموعه داده‌های من از استانداردهای قانونی برای تعهد فراتر می‌روند، که تا حد زیادی با خطر تخمینی تکرار جرم تعیین می‌شود، ادعا کنم. من یک مدل لاجیت را تخمین زده ام که تکرار جرم را پیش بینی می کند. در اینجا کد نمونه ای نوشته شده است که سعی دارد مشخص کند چند درصد از افراد با اطمینان 75 درصد، تکرار جرم را حداقل 75 درصد پیش بینی کرده اند: 1 if 1/(1 + exp(ln((1-sr1)/sr1) - 0.67448975*stdsr1)) > 0.75 .sum sr1C1R1 if sr1!=. & sexrecS!=. من بعداً 0.67448975 را با 1.281551566 جایگزین کردم تا استاندارد قانونی بالاتری برای اثبات منعکس کند، اما کد تعداد بازدیدهای بیشتری را ایجاد می کند، نه کمتر، بنابراین می دانم که کار اشتباهی انجام داده ام.
چگونه می توان فواصل اطمینان را در پیش بینی های ایجاد شده توسط لاجیت در Stata محاسبه کرد؟
33435
آیا بیزی‌ها تا به حال استدلال می‌کنند که رویکرد آنها رویکرد مکررگرایی را تعمیم می‌دهد، زیرا می‌توان از پیشین‌های غیر اطلاعاتی استفاده کرد و بنابراین، می‌توان یک ساختار مدل متداول معمولی را بازیابی کرد؟ آیا کسی می تواند مرا به جایی معرفی کند که بتوانم در مورد این استدلال مطالعه کنم، اگر واقعاً استفاده شده است؟ ویرایش: این سوال ممکن است دقیقاً به شکلی نباشد که من قصد داشتم آن را بیان کنم. سوال این است: آیا اشاره ای به بحث در مورد مواردی وجود دارد که در آن رویکرد بیزی و رویکرد مکرر با هم تداخل دارند/تقاطع می یابند/از طریق استفاده از یک پیشین خاص چیزی مشترک دارند؟ یک مثال می تواند استفاده از قبلی نامناسب $p(\theta) = 1$ باشد، اما من تقریباً مطمئن هستم که این فقط نوک کوه یخ است.
آیا بیزی ها تا به حال استدلال می کنند که مواردی وجود دارد که در آن رویکرد آنها با رویکرد مکرر گرایی تعمیم یا همپوشانی دارد؟
86312
من چند متغیر عینی و ذهنی دارم. هدف من ایجاد یک شاخص آماری است که متغیرها و روابط متقابل متغیرها را به طور دقیق تعریف کند. به عنوان مثال، فرض کنید که من در حال ایجاد یک شاخص معنویت هستم که شامل متغیرهای جمعیت شناختی و همچنین متغیرهای ذهنی مانند ادراکات مذهبی و غیره است. با توجه به روابط بین همه متغیرها، چگونه می توانم یک مقدار شاخص ایجاد کنم؟ پیشاپیش ممنون
ایجاد شاخص با متغیرهای عینی و ذهنی
88320
من یک مجموعه داده پانل (کشور و سال) دارم که می‌خواهم تجزیه و تحلیل خوشه‌ای را براساس کشور انجام دهم. مجموعه داده های من حدود 20 متغیر دارد. در اینجا خلاصه ای برای داده های پانل من آمده است: «متغیر پانل: متغیر زمانی کشور (به شدت متعادل): سال، 2010 تا 2013.» اجرای تجزیه و تحلیل خوشه ای kmeans فقط بر روی داده های 2013 بسیار ساده است. اما چگونه تحلیل را با توجه به همه مشاهدات در دوره 2010-2013 انجام می دهید؟ آیا خوشه بندی k-means رویکرد مناسبی است؟ این چیزی است که من فقط برای سال 2013 در Stata اجرا کردم: `خوشه kmeans var1 var2 var3 var4 var5 var6 if year==2013, k(4) name(test1)` با تشکر!
تجزیه و تحلیل خوشه ای بر روی داده های تابلویی
77156
یک شرکت معروف تولید خودرو 3 مدل مختلف خودرو را در 5 رنگ و 3 سی سی احتمالی (1900 سی سی، 2000 سی سی و 2200 سی سی) تولید می کند. فرض کنید هر ترکیبی از مدل، رنگ و سی سی احتمال یکسانی برای انتخاب مشتری دارد: * اگر در یک هفته 6 خودرو فروخته شود، احتمال اینکه حداقل دو خودرو با هم برابر باشند چقدر است (رنگ، ​​سی سی و مدل یکسان) پاسخ من: مجموع ترکیبات ممکن 45^6 است، به جای یافتن حداقل دو ماشین، 1 را پیدا می کنم-(احتمال به دست آوردن ماشین های برابر صفر + احتمال به دست آوردن یک ماشین مساوی) : P(0 اتومبیل مساوی دریافت کنید) = 44^6 P(1 اتومبیل مساوی دریافت کنید) 44^5 بنابراین پاسخ این است: $1-(44^6+44^5/45^6) = 1-0.893 = 0.107$ آیا من است پاسخ درست است؟ با تشکر
احتمال به دست آوردن اتومبیل های برابر
100536
من تأثیر ADHD را بر وزن غیرطبیعی بدن در یک نمونه ملی بسیار بزرگ از کودکان بررسی کردم. در رگرسیون چند جمله ای خود، چندین اختلال خاص را کنترل کردم که در مطالعات قبلی نشان داده شده است که هم با ADHD و هم با وزن بدن مرتبط است. یکی از این آشفتگی ها، داروی ADHD بود. اگرچه به طور قابل توجهی با کمبود وزن (و نه چاقی؛ هر دو نسبت به وزن نرمال) مرتبط بود، نتایجی که من دریافت کردم زمانی که تجزیه و تحلیل‌هایم را مجدداً پس از حذف کودکانی که هم از داروهای ADHD و هم داروهای «دیگر» استفاده می‌کردند، متفاوت بود. زمانی که از نظر آماری مصرف دارو را کنترل می‌کردم، داروهای ADHD شانس کم‌وزنی را افزایش می‌دهند و داروهای «سایر» شانس کم‌وزنی را کاهش می‌دهند (هیچ‌کدام بر چاقی تأثیری نداشتند)، و رابطه بین ADHD و کمبود وزن در مدل معنی‌دار بود. با این حال، وقتی بچه‌ها را از این داروها حذف کردم، ارتباط کم‌وزنی و ADHD غیر قابل توجه شد (برای کسانی که سایه‌های خاکستری را می‌پسندند، خیلی، حتی «در حاشیه»). آیا هنگام تلاش برای کنترل سایر متغیرها در رگرسیون چند جمله ای مشکلات خاصی وجود دارد که ممکن است منجر به این وضعیت شده باشد؟ واضح است که این مدل استفاده از دارو را «کنترل می‌کند»، زیرا هر دو نوع دارو به طور قابل توجهی با نتیجه مرتبط بودند (احتمال کمبود وزن در مقابل وزن طبیعی)، اما به نظر می‌رسد که به طور کامل تأثیر استفاده از دارو در ارتباط بین ADHD و وزن غیر طبیعی
مشکل با کنترل مخدوش در تجزیه و تحلیل رگرسیون چند جمله ای. نتایج متفاوت هنگام برداشتن کودکان از داروها
77154
برای ساخت دو مدل رگرسیون خطی، (var وابسته: B، vars مستقل: A1، A2، A3) باید نقطه برش A1 را تنظیم کنم. (A1 بالا و A2 پایین) من می خواهم مدل*s* (مدلی برای A1 بالا و دیگری برای A2 کم) با کمترین مجموع باقیمانده مربع*s* را انتخاب کنم به طور خلاصه، چگونه می توانم نقطه برش بهینه برای به دست آوردن بهترین مدل های رگرسیون خطی برای هر گروه؟ مقاله ای که می خواهم تکرار کنم در زیر آمده است، این توضیحات همه است. A dep Var است و B ind var است. دو مدل رگرسیون خطی را در نظر گرفتیم، یکی برای افراد زیر یک سطح معین از A و دیگری برای افراد بالاتر از آن سطح. برای تعیین برش های خاص، ما دو مدل رگرسیون خطی شرح داده شده در بالا را برازش کردیم و مجموع مجذورهای باقیمانده را محاسبه کردیم (= مشاهده شده B - تخمینی B) از دو مدل برای هر سطح A. مدل هایی با کمترین مجموع مربعات باقی مانده بهترین مدل های ما بودند، و سطح مربوط به A به عنوان مقادیر قطع بهینه تعریف شد. آدرس مقاله این است: http://link.springer.com/article/10.1007/s00223-012-9669-3
چگونه می توانم برش بهینه را با استفاده از مدل های رگرسیون خطی تخمین بزنم
73983
در یک سخنرانی اخیر به من گفته شد که برای اینکه تخمین حداکثر درستنمایی معتبر باشد، احتمال ورود به سیستم باید به منهای بی‌نهایت برود زیرا پارامتر به مرز فضای پارامتر می‌رود. اما من نمی فهمم چرا این ضروری است. فرض کنید احتمال ثبت به نوعی مجانب می رود. سپس پارامتری که احتمال را به حداکثر می رساند همچنان تخمین حداکثر درستنمایی است، درست است؟
چرا وقتی پارامتر به مرز فضای پارامتر نزدیک می‌شود، احتمال ورود باید به منهای بی‌نهایت برود؟
50244
این یک سوال اساسی است. به من یک رگرسیون لجستیک باینری داده شده است. مدل دارای شرایط قابل توجهی است، اما خوب بودن آزمون های برازش نشان می دهد که مدل لاجیت مناسب نیست. نویسنده این مطالعه نشان می‌دهد که خوب بودن داده‌های برازش، رابطه بین متغیر وابسته و پیش‌بینی‌کننده‌ها را باطل نمی‌کند، تنها توانایی مدل برای پیش‌بینی دقیق نتایج را نشان می‌دهد. بحث این است که از آنجایی که ما فقط به تأیید یک رابطه علاقه مند بودیم و نه بزرگی، نتیجه قطعی است. من به این شک دارم. آیا بهتر نیست بگوییم که عدم تناسب لزوماً روابط را باطل نمی کند؟ با یک تابع پیوند متفاوت، آیا شمارش مشاهده شده و مورد انتظار نمی تواند به اندازه کافی تغییر کند تا برخی از عبارت های ناچیز به معنی یا برعکس منتقل شوند؟
تفسیر نتایج یک رگرسیون لجستیک باینری
43733
مستندات R برای هرکدام از آنها روشن نمی شود. تنها چیزی که می توانم از این پیوند دریافت کنم این است که استفاده از هر یک باید خوب باشد. چیزی که من متوجه نمی شوم این است که چرا آنها برابر نیستند. واقعیت: تابع رگرسیون گام به گام در R، «step()» از «extractAIC()» استفاده می کند. جالب توجه است که اجرای یک مدل «lm()» و یک مدل «glm()» «null» (فقط رهگیری) روی مجموعه داده «mtcars» R نتایج متفاوتی برای «AIC» و «extractAIC()» به دست می دهد. > null.glm = glm(mtcars$mpg~1) > null.lm = lm(mtcars$mpg~1) > AIC(null.glm) [1] 208.7555 > AIC(null.lm) [1] 208.7555 > extractAIC (null.glm) [1] 1.0000 208.7555 > extractAIC(null.lm) [1] 1.0000 115.9434 عجیب است، با توجه به اینکه هر دو مدل بالا یکسان هستند، و «AIC()» نتایج یکسانی را برای هر دو به دست می‌دهد. آیا کسی می تواند موضوع را روشن کند؟
تفاوت AIC() و extractAIC() در R چیست؟
77151
من مجموعه داده ای از حدود 1000 عضو دارم و مدل سازی 100 متغیر چند متغیره است که عمدتاً از روش های پارتیشن استفاده می کند و همچنین برخی از آزمایشات شبکه عصبی را با اعتبار سنجی سه طرفه با استفاده از 60-20-20 و 70-15-15 آزمایش کرده ام. این: استفاده از اعتبارسنجی 3 طرفه و اجرای یک مدل تولید شده با استفاده از یک مجموعه اعتبار سنجی خاص و سپس با مجموعه 60-20-20 متفاوت نتایج کاملاً متفاوتی تولید می کند، گاهی اوقات متغیرهای پیش بینی کننده کمک کننده به طور قابل توجهی تغییر می کنند و همچنین r^2 برای بخش آزمایشی می تواند بین 0-0.5 متغیر باشد، این به من می گوید که من ورودی های داده کافی در این مجموعه داده ندارم توجه داشته باشید که قرار دادن همه پیش بینی کننده های 100 در نتایج فقط در نتایج است. 10 یا بیشتر در هر مدلی با اهمیت است که معمولاً بالاترین آن حتی بین مجموعه‌های اعتبارسنجی مختلف (اما نه همیشه در ترتیبات مشارکتی مشابه) نقش دارد. در نقطه ای که اگر برخی از متغیرهای خطی را حذف کنم، می توانم به طور قابل قبولی از روش بر خلاف k-fold استفاده کنم، [k-fold همیشه بیش از حد تقسیم می شود که نیاز به هرس دستی دارد]. آیا من واقعاً در این زمینه هستم که بتوانم از 3 راه استفاده کنم یا خیر؟
اعتبار سنجی 3 راه - نتایج مدل بین ستون های اعتبار سنجی بسیار متفاوت است
19459
سوالی از یک تازه کار آمار و StackExchange newb، یک انسان شناس با سابقه علوم کامپیوتر. من به دنبال یک معیار آماری مناسب برای همگامی در شرایط زیر هستم: من یک فیلم پانوراما از چند نفر دارم که روی صندلی‌های اطراف دوربین نشسته‌اند و به مدت یک ساعت با هم گفتگو می‌کنند. من ویدیو را بر اساس افراد تقسیم کردم و داده‌های سری زمانی را برای هر فرد ایجاد کردم و میزان حرکت، اشاره و غیره را در طول زمان اندازه‌گیری کردم (یعنی تعداد پیکسل‌های متفاوت بین فریم‌های ویدیویی متوالی). بنابراین من نموداری دارم که نشان می‌دهد یک فرد در هر لحظه بیش از یک ساعت چقدر ساکن یا متحرک است (با استفاده از میانگین متحرک برای صاف کردن همه چیز). من می‌خواهم «همگامی» گروه را در هر لحظه اندازه‌گیری کنم، یعنی سری‌های زمانی دیگری تولید کنم که نشان دهد حرکات آنها در هر لحظه چقدر «همگام» است. چه نوع معیار آماری برای این کار مناسب است؟ ساده تر / شهودی بهتر. برخی از مفروضات: * اگر فقط یک نفر در حال حرکت است، همزمانی باید نزدیک به صفر باشد. * اگر همه در حال حرکت هستند، همگامی باید نزدیک به حداکثر باشد. توجه داشته باشید که این مورد عمدتاً برای بازرسی و تجزیه و تحلیل _بصری استفاده می‌شود، تا قسمت‌هایی از ویدیو را که افراد در آن‌ها همگام هستند برجسته شود. -دانیل
اندازه گیری همگامی با همبستگی سری های زمانی
39317
من در حال تولید مدل هستم و هر مدل یک نمونه تصادفی از کل جامعه مدل است. توصیه می‌شود که 30000 مدل تولید کنم و 5 تا 10 خوشه برتر را برای رسیدن به حالت اصلی انتخاب کنم. من می خواهم عدد 30000 را کمتر تنظیم کنم اما همچنان در محدوده احتمالی ساختار بومی باقی بمانم. اگر $\Pr(\text{Native}\mid 30000)=1$; $\Pr(\text{Native}\mid X)$ چیست؟ من در مورد آمار بیزی مطالعه کردم، اما همه قطعات را ندارم تا قضیه بیز را برای این مسئله کنار هم بگذارم. من همچنین در مورد رویکرد مکرر گرا خوانده ام اما قبلاً از آن استفاده نکرده ام. «تحلیل خوشه‌ای یا خوشه‌بندی وظیفه تخصیص مجموعه‌ای از اشیاء به گروه‌ها (به نام خوشه‌ها) است، به طوری که اشیاء در یک خوشه شباهت بیشتری به یکدیگر داشته باشند تا در خوشه‌های دیگر».
نمونه تصادفی حجم زیر نمونه جامعه
26705
من پروژه‌ای را اجرا می‌کنم که تعداد استنادها را در میان مجموعه‌های داده در سال مقایسه می‌کند، و سپس می‌خواهم تغییرات کلی در فرکانس ذکر منبع معین را ترسیم کنم. در اینجا دو مجموعه داده نمونه وجود دارد: 1999 - منبع A {0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 1، 23، 70، 0، 0، 0، 0، 0، 0، 0 , 32, 0, 0, 0, 25, 0, 3, 13, 0, 1, 0, 0، 0، 0، 11، 0، 0، 0، 0، 0، 0، 0، 0، 8، 0، 0، 6، 0، 0، 0، 1، 0، 22، 0، 0، 0، 0، 0، 1، 0، 0، 0، 0، 2، 0، 2، 0، 21، 6، 10، 0، 0، 0، 0، 0، 0، 0، 0، 2، 0، 0، 0، 0} 2000 - منبع A {0، 0، 0، 0، 0، 4، 400، 82، 0 , 0, 2, 0, 0, 0, 2, 6, 0, 0, 12, 24, 0، 0، 0، 0، 0، 0، 4، 4، 0، 0، 0، 0، 142، 0، 0، 0، 0، 2، 0، 0، 0، 2، 2، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 22، 0، 0، 0، 0، 0، 10، 0، 4، 0، 0، 0} در این مورد، زمانی که من تفاوت بین سال های 1999 و 2000 را در یک نمودار خطی ساده رسم می کنم، 2000 به لطف این نمودار بسیار بزرگتر به نظر می رسد. نقاط داده ای که دارای 400، 142 هستند. آیا راه خوبی برای تجسم این نوع داده ها وجود دارد که به نقاط پرت وفادار بماند، اما همچنان روند کلی را نشان دهد. این در حال انجام است (در صورت وجود)؟ پیشاپیش ممنون
تجسم شمارش هایی که دارای برخی نقاط پرت هستند
19455
برخی از کاربردهای HMM در زمینه بازاریابی - به ویژه CRM و بازاریابی هدفمند چیست؟ به عنوان مثال، آیا عمدتاً برای پیش بینی یک نتیجه با یک توالی است؟ مثلاً اگر بازدیدکنندگان وب سایت از {صفحه 2، صفحه 54، صفحه 23} بازدید کنند، احتمال اینکه $<next>$ از صفحه 22 بازدید کنند چقدر است؟ یا در آن جلسه به صفحه 22 مراجعه کنید؟ آیا HMM یک تکنیک مستقل است یا معمولاً با چیزهای دیگر همراه است؟
استفاده از مدل پنهان مارکوف در CRM
43730
من یک جستجوی تصادفی در فضای فرضیه $$\{(c,h)| انجام داده ام c \ در U[1,256]; h\in U[1,100];c \in \mathrm{Z} \text{ و } h \in \mathrm{Z}\}$$ که پارامترهای یک شبکه عصبی استاندارد چندلایه پرسپترون (MLP) را تعریف می‌کند. در هر مرحله از جستجوی تصادفی، دو پارامتر $c$ و $h$ ترسیم می کنم. $c$ تعداد ویژگی های ورودی و $h$ تعداد گره های لایه پنهان را مشخص می کند. $c$ و $h$ اعداد صحیحی هستند که از توزیع یکنواختی که در بالا تعریف شده است گرفته شده اند. من یک شبکه عصبی تعریف شده توسط $(c,h)$ را آموزش می‌دهم و یک نرخ طبقه‌بندی اشتباه و میانگین نرخ مربع خطا را برای هر مدل محاسبه می‌کنم. این کار با اعتبارسنجی متقاطع 10$ برابر برای تخمین خطای واقعی برای هر $(c,h)$ انجام می شود. بنابراین من یک نرخ متوسط ​​طبقه‌بندی اشتباه و یک میانگین نرخ خطای مربعی در مجموعه‌های قطار و مجموعه‌های سمت چپ برای هر جفت پارامتر دارم. سوال این است که چگونه بهترین جفت $(c,h)$ را انتخاب کنم و آیا روشی که در اینجا استفاده می کنم کافی است؟ همانطور که من امیدوار بودم هیچ نکته ای کاملاً واضح در نتایج وجود ندارد. نتایج بر روی فضای فرضیه در داده های آموزشی به این صورت است: ! پایان نامه ، و در اینجا به این سوال مربوط می شود
جستجوی تصادفی برای تعداد بهینه ویژگی های ورودی و تعداد بهینه لایه های پنهان برای یک MLP؟
86734
من در رشته آمار کارشناسی ارشد هستم و به من توصیه می شود هندسه دیفرانسیل را یاد بگیرم. خوشحال تر می شوم که در مورد کاربردهای آماری هندسه دیفرانسیل بشنوم زیرا این کار باعث ایجاد انگیزه در من می شود. آیا کسی کاربردهای هندسه دیفرانسیل در آمار را می داند، لطفا؟ متشکرم!
آیا هندسه دیفرانسیل ربطی به آمار دارد؟
39318
اثبات اینکه اگر $p(\theta)$ مزدوج قبل از برخی احتمالات باشد، بسیار آسان است: $$q(\theta') \propto p(\theta)I(\theta \in A)$ $ که $A$ زیرمجموعه ای از فضای پارامتر است و $I(r)$ 1 است اگر $r$ درست باشد و 0 در غیر این صورت -- نیز مزدوج قبلی است. اساساً، اگر یک مزدوج را قبل بگیریم و دوباره آن را به زیرمجموعه ای از فضای پارامتر عادی کنیم، باز هم یک خانواده قبلی مزدوج دریافت می کنیم. آیا در جایی به این موضوع اشاره شده است که بتوانم به آن مراجعه کنم؟
رسمی کردن مجدد یک مزدوج قبلی؟
38866
من آزمایشی به نام پروتکل اکتساب شرطی سازی ترس دارم. ما موش‌ها را در معرض صداهای سفید بعدی قرار می‌دهیم و به دنبال آن شوک‌های الکتریکی کوتاهی از طریق زمین ایجاد می‌شود. هدف ما این است که به آنها اجازه دهیم صدا را با شوک مرتبط کنند. ما درجه یادگیری را با اندازه گیری انجماد ماوس در حین نمایش صدا ارزیابی می کنیم. برای انجام مقایسه بین مراحل بعدی آزمایش ها از میانگین انجماد هر موش در هر مرحله استفاده می کنیم. این نمودار نتیجه است: ![گروه در معرض](http://i.stack.imgur.com/Zm9rr.png) سپس ما مجموعه دیگری از موش ها را داریم که در آنها هیچ شوکی صدا را دنبال نمی کند (گروه کنترل) این نتایج است: ![گروه کنترل](http://i.stack.imgur.com/MxHVq.png) مقادیر درصد انجماد در طول مدت فاز هستند. سوالات من این است: 1. از کدام آزمون برای مقایسه میانگین انجماد بین هر مرحله استفاده کنم تا ارزیابی کنم که آیا تفاوت قابل توجهی دارد؟ من از ANOVA با آزمون مقایسه چندگانه بونفرونی استفاده کردم. 2. از نظر گرافیکی سطح انجماد به وضوح در حال افزایش است، آیا مهم است که در مورد اهمیت تفاوت بین سطوح انجماد سؤال شود؟ 3. چگونه می توان به طور رسمی انجماد در گروه در معرض و کنترل را مقایسه کرد تا نشان داد که تفاوت معنی داری دارد؟ 4. مقداری تولید کنید که نشان دهنده انجماد یک موش باشد تا آن را با بیان پروتئین های خاص مرتبط کند. از چه چیزی استفاده کنیم؟ انجماد کامل بیش از نمایش کلی صدا؟ انجماد متوسط؟
تجزیه و تحلیل بقا با مشاهدات مکرر واحدهای آزمایشی و کنترل در دوره‌هایی با اندازه و روند متفاوت در طول دوره‌ها
79057
من منحنی های یادگیری را در زیر با استفاده از مربی های RF مختلف ترسیم کرده ام. مجموعه آموزشی بسیار کوچک و با امکانات کمی است (این مجموعه داده محبوب تایتانیک است). در مرحله پیش پردازش، من فقط مجموعه ای از vars ساختگی را از ویژگی های فاکتور اصلی خود ایجاد کردم. سپس از AUROC برای انتخاب بهترین مقدار برای mtry استفاده کردم. اما در مورد بهترین تفسیر این منحنی های یادگیری مطمئن نیستم. ![منحنی های یادگیری RF](http://i.stack.imgur.com/pTB84.png) سمت چپ خطای طبقه بندی اشتباه را برای اندازه های مختلف مجموعه آموزشی نشان می دهد. دقت مجموعه تمرینی کاهش می‌یابد در حالی که اندازه مجموعه تمرینی افزایش می‌یابد، چیزی که واقعاً انتظار داشتم. به همین دلیل، من انتظار خطای تست کمتری را در حین افزایش اندازه مجموعه آموزشی دارم، که همان چیزی است که من دریافت کردم (کمتر یا بیشتر). نمودار سمت راست خطای طبقه بندی اشتباه را هنگام تغییر پارامتر 'mtry' نشان می دهد. در اینجا، من یک چیز واقعا غیر منتظره دریافت کردم. من مدل را با استفاده از CV روی mtry=4 تنظیم کردم. در حالی که من انتظار کاهش نرخ طبقه بندی اشتباه در مجموعه آموزشی را داشتم در حالی که mtry را افزایش می دادم (احتمالاً به دلیل تطبیق بیش از حد)، من انتظار داشتم مقدار بسیار پایین (اگر نه یک حداقل جهانی) در mtry=4 باشد. حتی عجیب تر، در مجموعه آزمایشی: به نظر می رسد نسبتاً ثابت است/به آرامی کاهش می یابد، با یک سنبله (نویز؟) در mtry=4! این واقعا یک نتیجه غیرمنتظره است! چه چیزی باعث می شود که من این روندها را مشاهده کنم؟
تأثیر mtry و اندازه مجموعه آموزشی در جنگل تصادفی
112247
من سعی می کنم از تابع Match() از بسته Matching در R برای تجزیه و تحلیل امتیاز تمایل استفاده کنم. نتیجه مورد علاقه من یک متغیر باینری است (0/1). درمان من نیز یک متغیر باینری است (0/1). علاوه بر این، من تعدادی متغیر دیگر دارم که می‌خواهم آنها را در این تحلیل کنترل کنم. ابتدا، من یک رگرسیون لجستیک را برای تعریف نمره تمایل برای درمان برازش می‌دهم: glm1 = glm (درمان ~ متغیر1 + متغیر2 + متغیر3 + ...، داده = مجموعه داده، خانواده = بیونومیال) سپس از تابع Match برای میانگین اثر درمان را بر روی تیمار تخمین بزنید: rr1 = Match (Y = نتیجه، Tr = درمان، X = glm1$ fitted) در نهایت، من برای یک خلاصه تماس گرفتم: summary(rr1) سوال من این است که چگونه خروجی را تفسیر کنم. من دریافتم: تخمین... -0.349، AI SE... 0.124، T-stat... -2.827، p.val... 0.005 این به چه معناست؟ به طور خاص، برآورد چیست؟ مستندات می‌گوید «تعداد متوسط ​​تأثیر علیت برآورد شده» است. اما واحدها چیست؟ آیا می توانم این را به این معنا تفسیر کنم که درمان نتیجه را تا 35 درصد نسبی کاهش داد؟ یا با 0.35 مطلق؟ یا باید قدرت بگیرم؟ هر گونه کمک در تفسیر بسیار قدردانی خواهد شد!
نحوه تفسیر خروجی تابع Match() در R (برای تطبیق امتیاز تمایل)
17468
در ادامه پست من در اینجا، من سه همبستگی آماری معنادار بین متغیرهای A و B برای سه گروه سنی دارم. آنها عبارتند از: * گروه 1 (کمتر از 18 سال) r1 = 0.74 p <.001 n = 99 * گروه 2 (18 تا 65 سال) r2 = 0.78 p <.001 n = 96 * گروه 3 (بیش از 65 سال) r3 = 0.75 p <.001 n = 97 توجه: من تصحیح Šidák را بر روی آستانه آلفا 0.05. با این حال، من بیشتر به مقایسه ضرایب همبستگی علاقه مند هستم و از ماشین حساب در اینجا برای انجام تجزیه و تحلیل استفاده کرده ام که مقدار $p$-مقدار 0.794 را می دهد. این از نظر آماری در آستانه آلفای جدید 0.0006 معنی‌دار نیست (بنابراین H_0$ پشتیبانی می‌شود، یعنی تفاوتی بین گروه‌ها وجود ندارد، اگرچه یک رابطه معنی‌دار بین A و B برای هر گروه وجود دارد). ** سوال 1: چگونه می توانم این یافته های مهم و غیر قابل توجه را در یک جدول گزارش کنم؟** ستون هایی با برچسب (به این ترتیب): * گروه * r * r مربع * مقدار p * اندازه نمونه ** سوال 2 : آیا باید فاصله اطمینان را هم لحاظ کنم. این چگونه به اطلاعاتی که قبلا ارائه شده است اضافه می کند، به خصوص زمانی که من مقدار p را یادداشت می کنم؟** یکی از مشارکت کنندگان در زیر پیشنهاد می کند که ممکن است راه دیگری برای رسیدگی به مشکل بالا وجود داشته باشد (که فقط می توانم تصور کنم بهتر است/ روشی قوی نسبت به روش پیرسون که من از آن استفاده کرده ام. **سوال 3: آیا تحلیل جایگزینی وجود دارد که بتوانم برای مشکل بالا انجام دهم (با توجه به این که من روی روابط و برابری روابط بین جمعیتی تمرکز می کنم. ویژگی ها)؟** (فکر می کنم تا به حال واقعاً فهمیده ام که همبستگی علیت نیست؛ من علاقه ای به علیت ندارم!) برخی از بینش ها در مورد اینکه چرا این سؤال ها را می پرسم، به ویژه Q3، در پاسخ به سؤال دیگری در اینجا است.
چگونه می توان همبستگی بین دو متغیر را در چندین گروه در یک جدول گزارش کرد؟
74802
من می‌خواهم یک لاجیت استاندارد (داده‌های پانل) را تخمین بزنم: $\text{logit}(P(y_{i,t}=1))= \alpha + \beta_1 x^1_{i,t} + \beta_2 x ^2_{i,t} +\epsilon_{i,t}$. مشکلی که من با آن روبرو هستم این است که $x^2$ _yearly_ است، در حالی که $y$ و $x^1$ _ماهانه_ هستند. تجمیع $x^1$ به سطح سالانه یک گزینه نیست. بنابراین من ساده لوحانه 12 مشاهده برای هر $x^2$ ایجاد کردم تا بتوانم آن را ماهانه کنم و بتوانم آن را با هر $y$ و $x^1$ مطابقت دهم. با این حال متوجه شدم که این ممکن است مشکلاتی ایجاد کند: 1. ممکن است همبستگی سریالی ایجاد کند. 2. به طور مصنوعی تعداد مشاهدات را افزایش می دهد و در نتیجه SE ضریب $x^2$ را کاهش می دهد. 3. SE سایر ضرایب تحت تأثیر قرار نمی گیرد. 4. همه ضرایب بدون تعصب باقی می مانند. **اولین سوال** من این است: آیا این _تشخیص_ مشکلات احتمالی درست است؟ آیا مشکلات دیگری وجود دارد که به آنها فکر نکردم؟ **سوال دوم** من این است که آیا راه حلی برای مشکلات ذکر شده در بالا، استفاده از خطاهای استاندارد قوی، خوشه بندی مشاهدات بر حسب سال است؟ پیشاپیش ممنونم
داده های پنل: IV با فرکانس های مختلف
86318
من یک ماتریس نیمه کوچک از **ویژگی های باینری** به ابعاد 250k x 100 دارم. هر سطر یک کاربر است و ستون ها برچسب باینری برخی از رفتارهای کاربر هستند، به عنوان مثال. لیک_گربه ها. کاربر 1 2 3 4 5 ... ------------------------- A 1 0 1 0 1 B 0 1 0 1 0 C 1 0 0 1 0 من می خواهم کاربران را در 5-10 خوشه قرار دهم و بارگیری ها را تجزیه و تحلیل کنم تا ببینم آیا می توانم گروه هایی از رفتار کاربر را تفسیر کنم. به نظر می رسد چند رویکرد برای برازش خوشه ها بر روی داده های باینری وجود دارد - فکر می کنیم بهترین استراتژی برای این داده ها چیست؟ * PCA * ساخت یک ماتریس _Jaccard Similarity_، برازش یک خوشه سلسله مراتبی و سپس استفاده از گره های بالا. * K-medias * K-medoids * Proximus؟ * اگنس تا کنون با استفاده از خوشه بندی سلسله مراتبی موفقیت هایی داشته ام اما واقعا مطمئن نیستم که بهترین راه باشد. tags = read.csv(~/tags.csv) d = dist(برچسب ها، روش = دودویی) hc = hclust(d، روش = ward) plot(hc) cluster.means = aggregate(tags,by=list(cutree(hc, k = 6))، mean) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/cyT6t.png)
خوشه بندی یک ماتریس باینری
112241
**خلاصه:** آیا هیچ نظریه آماری برای حمایت از استفاده از توزیع $t$ (با درجات آزادی بر اساس انحراف باقیمانده) برای آزمایش ضرایب رگرسیون لجستیک، به جای توزیع نرمال استاندارد وجود دارد؟ * * * مدتی پیش متوجه شدم که هنگام برازش یک مدل رگرسیون لجستیک در SAS PROC GLIMMIX، تحت تنظیمات پیش‌فرض، ضرایب رگرسیون لجستیک با استفاده از توزیع $t$ به جای توزیع عادی استاندارد آزمایش می‌شوند.$^1$ یعنی ، GLIMMIX ستونی را با نسبت $\hat{\beta}_1/\sqrt{\text{var}(\hat{\beta}_1)}$ گزارش می‌کند. (که در ادامه این سوال $z$ می نامم)، اما همچنین یک ستون درجات آزادی و همچنین یک $p$-value بر اساس فرض توزیع $t$ برای $z$ با درجه گزارش می کند. آزادی بر اساس انحراف باقیمانده -- یعنی درجات آزادی = تعداد کل مشاهدات منهای تعداد پارامترها. در انتهای این سوال، من مقداری کد و خروجی در R و SAS برای نمایش و مقایسه ارائه می‌دهم.$^2$ این باعث سردرگمی من شد، زیرا فکر می‌کردم برای مدل‌های خطی تعمیم‌یافته مانند رگرسیون لجستیک، هیچ نظریه آماری برای پشتیبانی از در این مورد از توزیع $t$ استفاده کنید. در عوض، من فکر می‌کردم آنچه در مورد این مورد می‌دانیم این بود که *$z$ تقریبا به طور معمول توزیع شده است. * این تقریب ممکن است برای اندازه‌های نمونه کوچک ضعیف باشد. * با این وجود نمی توان فرض کرد که $z$ دارای یک توزیع $t$ است که ما می توانیم در مورد رگرسیون معمولی فرض کنیم. اکنون، در سطح شهودی، به نظر من معقول است که اگر $z$ تقریباً به طور معمول توزیع شود، ممکن است در واقع توزیعی داشته باشد که اساساً $t$-مانند باشد، حتی اگر دقیقاً $t$ نباشد. . بنابراین استفاده از توزیع $t$ در اینجا احمقانه به نظر نمی رسد. اما چیزی که می‌خواهم بدانم این است که: 1. آیا در واقع تئوری آماری وجود دارد که نشان دهد $z$ واقعاً از توزیع $t$ در مورد رگرسیون لجستیک و/یا سایر مدل‌های خطی تعمیم یافته پیروی می‌کند؟ 2. اگر چنین نظریه ای وجود نداشته باشد، آیا حداقل مقالاتی وجود دارد که نشان می دهد فرض توزیع $t$ به این روش به همان اندازه، یا شاید حتی بهتر از فرض توزیع نرمال کار می کند؟ به طور کلی تر، آیا پشتیبانی واقعی برای کاری که GLIMMIX در اینجا انجام می دهد وجود دارد، به جز شهودی که احتمالا اساساً معقول است؟ کد R: خلاصه (glm(y ~ x، داده=dat، خانواده=دوجمله ای)) خروجی R: فراخوانی: glm(فرمول = y ~ x، خانواده = دوجمله ای، داده = dat) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر - 1.352 -1.243 1.025 1.068 1.156 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (برق) 0.22800 0.06725 3.390 0.000698 *** x -0.17966 0.10841 -1.657 0.097462 . --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 1235.6 در 899 درجه آزادی انحراف باقیمانده: 1232. 898 درجه آزادی AIC: 1236.9 تعداد تکرارهای امتیاز دهی فیشر: 4 کد SAS: proc glimmix data=logitDat; مدل y(رویداد='1') = x / dist= راه حل دو جمله ای; اجرا؛ خروجی SAS (ویرایش/مخفف): The GLIMMIX Procedure Fit Statistics -2 Log Likelihood 1232.87 AIC (کوچکتر بهتر) 1236.87 AICC (کوچکتر بهتر) 1236.88 BIC (کوچکتر بهتر است) 1246.47QIC بهتر است (1246.47QIC بهتر) (کوچکتر بهتر است) 1240.54 Pearson Chi-Square 900.08 Pearson Chi-Square / DF 1.00 تخمین پارامترها برآورد اثر استاندارد خطای DF t مقدار Pr > |t| Intercept 0.2280 0.06725 898 3.39 0.0007 x -0.1797 0.1084 898 -1.66 0.0978 $^1$ در واقع من برای اولین بار متوجه این موضوع در مورد _mixed-effects_ شدم که با مدل های رگرسیون لجستیک GLIX و PROMMLI بعداً GLI IX و PROMMLI IX را نیز کشف کرد. رگرسیون لجستیک وانیل. $^2$من متوجه هستم که در مثال زیر، با 900 مشاهده، تمایز در اینجا احتمالاً هیچ تفاوتی عملی ایجاد نمی کند. واقعا منظور من این نیست. این فقط داده هایی است که من به سرعت تهیه کردم و 900 را انتخاب کردم زیرا عدد زیبایی است. با این حال من کمی در مورد تفاوت های عملی با اندازه نمونه های کوچک تعجب می کنم، به عنوان مثال. $n$ < 30.
آزمایش ضرایب رگرسیون لجستیک با استفاده از $t$ و درجات انحراف باقیمانده آزادی
17463
من می ترسم یک مشکل آماری ساده است که مرا گیج کرده است. من دو متغیر تصادفی، X و Y دارم که به طور مستقل به طور معمول توزیع شده اند: X ~ N(0، sigmaX) Y ~ N(0، sigmaY). من مجموع این دو متغیر، Z = X+Y را مشاهده می‌کنم و می‌خواهم با توجه به مجموع، یک انتظار شرطی روی X ایجاد کنم. یکی از همکاران گفت، آه، بله، مشکل استخراج سیگنال کلاسیک. راه حل این است: E[X|X+Y] = (X + Y) * sigmaX / (sigmaX + sigmaY) این درست به نظر می رسید، بنابراین از او تشکر کردم و فهمیدم که من آن را در خانه انجام می دهم. به نظر می رسد که من اینجا کمی زنگ زده هستم. من می توانم استدلال شفاهی ارائه کنم که چرا این درست است اما نمی توانم ریاضیات را یادداشت کنم. دلیل ریاضی این موضوع چیست؟ با تشکر از همه!
مشکل استخراج سیگنال: انتظار مشروط یک آیتم در مجموع RVهای عادی مستقل
111315
من در حال خواندن مقاله ای در مورد مدل های مارکوف هستم و سعی می کنم نحوه محاسبه احتمالات $\alpha$-pass را بیابم. به من یک ماتریس $N\times N$ $A$ داده شده است که احتمال انتقال از یک حالت به حالت دیگر را دارد. یک ماتریس $N \times M$ $B$، که با مشاهده $M$، احتمالات یک حالت را دارد. در مدل من $N=2$ و $M=3$ دارم، یک توالی حالت اولیه $\pi = (\pi_{x_0},\pi_{x_1})$ دارم، همچنین مجموعه ای از مشاهدات $O= دارم. (O_0،O_1،O_2،O_3)$. اجازه دهید $X=(x_0,x_1,x_2,x_3)$ یک دنباله حالت باشد. من می دانم که $P(O,X|\lambda)=b_{x_0}(O_0)b_{x_1}(O_1)b_{x_2}(O_2)b_{x_3}(O_3)$ $P(X|\lambda)=\pi_{x_0}a_{x_0,x_1}a_{x_1,x_2}a_{x_2,x_3}$ همچنین می دانم که: $P(O,X|\lambda) = \pi_{x_0}b_{x_0}(O_0)a_{x_0,x_1}b_{x_1}(O_1)a_{x_1,x_2}b_{x_2}(O_2)a_{x_2,x_3}b_{x_3}(O_3 )$ من به احتمال علاقه مند هستم: $\alpha_t(i) = P(O_0,O_1,O_2,O_3,x_t=q_i|\lambda)$، که $t=0,1,2,3$ و $i=0,1$، $q_i$ یک حالت است. من این را دارم: $\alpha_0(i) = \pi_i b_i(O_0)$ برای $i=0,1$ سوال من این است که چگونه $\alpha_1(i)، \alpha_2(i)، \alpha_3(i) را محاسبه کنم )$؟
احتمالات در مدل مارکوف
19986
من با یک شرط ضروری در توزیع احتمال پیوسته که بیش از $[0, \infty]$ تعریف شده است برخورد کرده‌ام و نمی‌دانم که آیا نامی دارد یا خیر. برای توزیع با CDF $F$ و pdf $f$ من نیاز دارم که مقدار: $$\phi(x) \equiv \frac{f(x)}{F(x)+xf(x)}$$ باشد یکنواخت غیر افزایشی. با قرار دادن شرط به شکل دیگری (با گرفتن مشتقات)، لازم است که برای همه $x \in [0,\infty]$ به گونه‌ای که $f'(x) > 0$: $$f(x) \geq \ sqrt{\frac{F(x) f'(x)}{2}}$$ به نظر می‌رسد این یک ویژگی معمولی است، بنابراین آیا نامی دارد؟ این به یک وضعیت نرخ خطر یکنواخت مربوط است، اما متمایز از آن است.
نامی برای این شرط توزیعی؟
19457
من داده هایی در مورد تعدادی از مطالعات دارم که میزان پاسخگویی به درمان های مختلف یک اختلال را مقایسه می کنند. شش درمان مختلف وجود دارد و برخی مطالعات فقط یک درمان را آزمایش می کنند. برای هر درمان در هر مطالعه، من میزان پاسخ و حجم نمونه (به علاوه برخی متغیرهای دیگر) را دارم. به طور معمول، اگر فقط دو درمان وجود داشته باشد و هر مطالعه این دو را مقایسه کند، ممکن است از چیزی شبیه $$D_i=\beta_0+\beta_1\cdot SS_i+u_i+\epsilon_i$$ استفاده کنم که در آن $D_i$ تفاوت بین logits نرخ پاسخ در مطالعه $i$، $\epsilon_i$ خطای نمونه گیری مربوطه، $SS_i$ حجم نمونه مطالعه است. $i$ و $u_i$ عبارت خطای باقیمانده است. آیا امکان آنالیز معقول داده های من به روشی مشابه وجود دارد؟ آیا کلمات کلیدی / مراجعی وجود دارد که باید از آنها آگاه باشم؟ به عنوان مثال، من می خواهم از چیزی مانند $${\rm logit}(RR_{ij})=\beta_0+\beta_1\cdot SS_{ij}+\beta_2\cdot T_j+u_i+\epsilon_{ij}$$ استفاده کنم در جایی که $i$ مطالعه و $j$ درمان است (1 تا 6)، $T_j$ یک متغیر شاخص برای درمان است (به طور متناوب، می‌توان آن را به یک اثر تصادفی دوم)، و $u_i$ و $\epsilon_{ij}$ مانند بالا هستند.
متاآنالیز چند سطحی با چندین درمان
46760
من می خواهم نکاتی را دریافت کنم، زیرا در حال حاضر در بخش رگرسیون خود گیر کرده ام. من از رگرسیون لجستیک باینری استفاده می کنم. هدف مقایسه پاسخ های دو گروه جداگانه است. من یک MV دارم (متغیر تعدیل کننده، 1-یک گروه، 0-گروه دیگر). IV من (متغیرهای مستقل 11 هستند و همه آنها در مقیاس لیکرت 7 درجه ای اندازه گیری شدند). DV من (متغیر وابسته یا نتیجه انتخابی از 2 دسته است). اولین مشکلی که با آن روبرو هستم: من از روش تقسیم میانه برای به دست آوردن DV خود برای هر پاسخ دهنده استفاده کردم، زیرا DV خود را ندارم، که باید برای اجرای رگرسیون آن را بدست بیاورم. دوم، من سعی کردم 2 رگرسیون مجزا را برای دو گروه اجرا کنم، اگرچه ضرایب من ضعیف بود. من سعی کردم یک مدل واحد با تعاملات اجرا کنم. محاسبه عبارت محصول برای هر IV (IV1mean_centered* MVmean_centered) و غیره برای تمام IV که دارم. در حین اجرای یک رگرسیون، تمام IV ها در مقابل MV خود را وارد کردم و همچنین شرایط محصول را با MV_centered محاسبه کردم (همچنین بدون میانگین وسط و فقط با MV امتحان شده است). مسئله من اینه که ضرایب من حتی نسبت به مدلهای مجزا هم کمتر معنی دارن!!! آیا کسی پیشنهادی برای حل این مشکل دارد؟ شاید من در مورد تعاملات در رگرسیون لجستیک اشتباه کرده ام؟ کمک!!!!
با تعاملات در تجزیه و تحلیل رگرسیون لجستیک گیر کرده است
111314
> فرض کنید اسناد دارای برچسب $L$، و اسناد بدون برچسب $U$، که در آن همه اسناد > از کلاس $k$ از توزیع چندجمله ای یا Naive Bayes > با پارامتر $\theta_k$ تولید شده اند، و مجموعاً وجود دارد $K$ > کلاس ها. بگذارید هر نقطه $x_n$ یک بردار بعدی $D$ باشد. > > الف) حداکثر تخمین‌گر احتمال برای $\theta_k$ فقط با استفاده از داده‌های برچسب‌گذاری‌شده چیست؟ > > ب) میانگین مربعات خطای این برآوردگر چقدر است؟ > > ج) می‌توانیم یک تخمین‌گر برای $\theta_1، \ldots، \theta_K$ بسازیم که با به حداکثر رساندن احتمال داده‌های مشاهده‌شده، از داده‌های غیربرچسب‌دار و همچنین برچسب‌دار استفاده می‌کند. تابع log-likelihood را در این مورد بنویسید. > > د) تحت چه شرایطی MLE در مورد (الف) به پارامتر > واقعی همگرا می شود؟ آیا اگر از داده های بدون برچسب به عنوان > در (c) نیز استفاده کنیم، می توان این شرایط را کاهش داد؟ من مطمئن نیستم که چگونه هر یک از اینها را حل کنم. برای بخش (الف)، آیا این احتمال $$ l(\theta_{k,d}) = \prod_{n=1}^N p(y_n)^{I(y_n = k)} \left[ \prod_ {d=1}^D p(x_n^d | y_n = k) \right]^{I(y_n = k)} $$ که باید با توجه به $\theta_{k,d}$؟ اگر چنین است، آیا برآوردگر $$ \theta_{k,d} = \frac{N_k}{N} $$ است که در آن $N_k$ تعداد نقاط داده با برچسب $y_n = k$ است؟ آیا کسی می تواند این را تأیید کند؟ و آیا می توانید در مورد نحوه حل قسمت های باقی مانده به من پیشنهاد دهید؟ با تشکر
مشکل طبقه بندی اسناد
19985
از من خواسته شده است که توزیع مجموعه ای از داده ها را تجزیه و تحلیل کنم، اساساً یک ستون منفرد از نمونه های تصادفی یک پارامتر فیزیکی که نمی تواند منفی باشد. انحراف استانداردی که من معمولاً محاسبه می‌کنم فرض می‌کند که داده‌ها به طور معمول توزیع شده‌اند، که در این مورد نمی‌تواند درست باشد. از آنجایی که من عادت دارم از من خواسته شود انحراف استاندارد و میانگین یک مجموعه داده را به عنوان اندازه گیری خطاها ارائه دهم، می خواهم بدانم آیا پارامتری وجود دارد که به راحتی محاسبه شود برای توزیع مناسب تر که همان هدف را برآورده کند؟ اگر این سوال بد مطرح شده است عذرخواهی می کنم. من از نظر تحصیلی آمارگیر نیستم. با تشکر فراوان، Loruschorus
انحراف استاندارد داده های غیر منفی
80251
فکر می‌کنم این یک سؤال کاملاً اساسی است، اما یافتن پاسخ یا برخورد مناسب با آن در وب برایم دشوار است. برای یک مجموعه داده باینری (دوجمله ای) با برخی از پارامترهای ناشناخته p (احتمال سر یا موفقیت یا چیزی مشاهده شده)، دقت p تخمین زده شده چگونه به تعداد آزمایش ها بستگی دارد؟ من چندین روش برای محاسبه فواصل اطمینان حول p تخمین زده شده خوانده ام، اما به نظر می رسد همه اینها به فرض تعداد زیادی آزمایش و توزیع نرمال بستگی دارد. من به خصوص در اینجا با تعداد کمی آزمایش علاقه مند هستم. برای هر راه حل یا اشاره ای متشکرم.
برای تخمین فرکانس خوب (دوجمله ای) چند عدد محاسبه می شود؟
104677
من یک سوال دارم که در مورد پاسخ آن مطمئن نیستم: > یک مدل خطی دارای ویژگی های زیر است: > > *یک متغیر وابسته ($y$) > > *یک متغیر پیوسته ($x_l$)، شامل یک عبارت درجه دوم ( $x_1^2$) > > *یک متغیر پیش بینی کننده طبقه بندی ($d$ با 3 سطح) و یک تعامل > عبارت ($d \times x_1$) > > چند پارامتر، از جمله رهگیری، با این > مدل مرتبط هستند؟ بنابراین به این فکر کردم: $y=\beta_0 + \beta_1 x_1 + \beta_2 x_1^2 + \beta_3 d$ + $\beta_4dx_1$ فکر کردم برای این مدل به 5 پارامتر نیاز دارم، اما به من گفته شد که پاسخ 7 خواهد بود. بنابراین حدس می‌زنم تعامل را اشتباه انجام دادم. بنابراین به نظر من باید هر سطح از d را با یک تعامل واحد با x1 مدل کنم. اما چگونه این را بنویسم و ​​چرا به آن نیاز دارم؟
چند پارامتر در این مدل خطی خاص با اندرکنش؟
45235
1. از روش _شبیه سازی مونت کارلو روبینشتاین_![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/hYF9R.png) من تعجب کردم که چرا $g$ برای تسلط بر $Hf$ لازم است؟ 2. از ویکی‌پدیا > ایده اصلی نمونه‌گیری اهمیت این است که احتمال $P$ را تغییر دهید تا تخمین $E[X;P]$ آسان‌تر شود. یک متغیر تصادفی $L\geq > 0$ انتخاب کنید به طوری که $E[L;P]=1$ و $P$-تقریباً در همه جا $L(\omega)\neq 0$ باشد. > متغیر $L$ احتمال دیگری را تعریف می‌کند $P^{(L)}=L\، P$ که برآورده می‌کند > $$ \mathbf{E}[X;P] = \mathbf{E}\left[\frac{ x} {l} ؛ p^{(l)} \ درست]. $$ شرایط چگالی ابزاری $L$ $L\geq 0$ است به طوری که $E[L;P]=1$ و $P$-تقریباً در همه جا $L(\omega)\neq 0$ است. فکر می‌کنم می‌توانم آنها را درک کنم، زیرا آنها معادل این هستند که بگوییم $L$ چگالی $P^{(L)}$ wrt $P$ است و مخرج در $\frac{X}{L}$ برابر است با صفر فقط روی زیرمجموعه‌ای از احتمال، صفر را اندازه‌گیری کنید تا بر انتظار/ادغام تأثیری نگذارد. با توجه به اینکه به نظر می رسد این دو منبع پاسخ های متفاوتی می دهند، نمی دانم چه شرایطی باید برای تراکم ابزاری در نظر گرفته شود؟ با تشکر و احترام!
الزامات چگالی ابزاری در نمونه برداری اهمیت چیست؟
19981
من سعی داشتم به همکارم کمک کنم تا منحنی توزیع را برای برخی از داده های تجربی تطبیق دهد. با این حال، از آنجایی که این اولین تجربه من در تقریب توزیع تجربی با توزیع نظری است، موفق نشده ام. میانگین ارزش Y$ 0.32688 است. $\sigma^2_Y$ 0.076191 است. این یک هیستوگرام است: ![Y هیستوگرام](http://i.stack.imgur.com/LDB4m.png) و یک cdf تجربی: ![Y تجربی cdf](http://i.stack.imgur.com/ OxS1q.png) 1024 نمونه در داده ها وجود دارد. بدیهی است که توزیع نامتقارن است. شبیه $\chi^2$ نیست زیرا $\hat{\mu}_Y >> 2\hat{\sigma}_Y^2$ سعی کردم آن را با توزیع بتا تقریب کنم (مختلف $\alpha، \beta را انتخاب کردم پارامترهای $) همراه با نرمال کردن Y با مقداری واقعی در $ [0.5; 3] دلار فایده ای نداشت، آمار کای دو پیرسون همیشه، می دانید، مانند 300، 700 یا حتی بیشتر بود. من سعی کردم Y را مربع کنم و هیستوگرام $Y^2$ به این صورت است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/QyvOK.png) سعی کردم این را با توزیع نمایی تقریبی کنم (و عادی کردن Y با یک عدد واقعی) - اما P-value همیشه مانند صفر بود. خود داده‌ها را می‌توانید در اینجا پیدا کنید: https://docs.google.com/spreadsheet/ccc?key=0AqeuZRXRoMfRdF9UQzFEZVdOTmh0ZzNSaFRhRndHWmc آیا کسی ایده‌ای درباره توزیع این داده‌ها دارد؟
چه نوع توزیعی است؟
45234
من جمعیتی از فروش دارم که ممکن است برنده یا باخته شود. من میزان برنده شدن آنها را از روی داده های تاریخی می دانم. در این مورد 30 درصد آنها از نظر تاریخی برنده می شوند. برای اینکه بفهمم چقدر از این فروش ها درآمد خواهم داشت، باید آنها را وزن کنم. من فقط می توانم تمام ارزش های فروش را جمع کنم و سپس 30٪ از آن عدد را بگیرم، اما تفاوت زیادی در ارزش فروش تک وجود دارد. > توصیف (Dataset$V1) var n میانگین sd میانه برش خورده mad min max range shaw 1 1 2314 185090.7 1129744 32000 52077.27 kurtt 37065 1000 3.5e+07 06 349 se. 478.5 23485.42 > sum(Dataset$V1)*.3 [1] 128489970 بنابراین من به این نتیجه رسیدم که اگر 30 درصد از آنها را برنده شوید، بیایید نمونه برداری از جمعیت را با نرخ برد 30 درصد امتحان کنیم. من کد زیر را اجرا کردم #مقدار درصدی را که می‌خواهید استفاده کنید را در اینجا قرار دهید P <- 0.30 X <- round(nrow(Dataset)*P) boot <- data.frame( boot = replicate(10000, sum(sample(Dataset$V1, size=X))) write.csv(boot, file=ThePath, row.names=FALSE) من جایگزینی به عنوان False دارم زیرا یک فروش واحد را نمی توان بیش از یک بار برنده شد. من می دانم که فقط اولین فروش با نرخ 30٪ انتخاب می شود و بقیه به دلیل عدم تعویض با نرخ کمی پایین تر انتخاب می شوند. بنابراین به طور تصادفی 30٪ از داده ها را می گیرد و سپس آنها را جمع می کند زیرا من فقط به کل مقدار مورد انتظار اهمیت می دهم. من این کار را 10000 بار انجام می دهم، سپس آن را به یک هیستوگرام تبدیل کردم تا توزیع را ببینم. سپس آن را تنظیم کنید تا محاسبه کند که هر بن دارای چه درصدی از 10000 اجرا است. سپس حدود 8000 یا 80 درصد از مقادیر را در سطل های متوالی جستجو کنید. آیا می توانم بگویم که 80٪ مواقع در یک شبیه سازی 10000 انتظار می رود ارزش کل فروش در محدوده X و X باشد؟ یا باید از یک محاسبه فاصله اطمینان بوت استرپ معمولی استفاده کنم؟ آیا این واقعیت که داده های اصلی منحرف هستند مشکلاتی ایجاد می کند و در برخی از مجموعه داده ها وقتی این کد را اجرا می کنم، داده های Bootstrapped تقریباً دووجهی می شوند، آیا این نیز منجر به مشکلاتی می شود؟
نمونه گیری مجدد یا شبیه سازی پایه و فواصل اطمینان
46764
آیا حتی پس از ضرب آن در 100 می توان یک درصد را 0.172% بگوییم؟ دلیلش این است که در محاسباتم به صورت زیر عمل کردم. (4.3601/2329.475495)x100 پاسخ فوق را به من می دهد. آیا این درست است یا من در اشتباه هستم؟
آیا حتی پس از ضرب آن در 100 می توان یک درصد را 0.172% بگوییم؟
19983
من طرح آزمایشی زیر را دارم: نمونه برداری در سه سایت تصادفی انجام می شود (سایت فاکتور کدگذاری شده است: Site1، Site2، Site3). در داخل هر سایت، نمونه برداری در یک کرت خشک و در یک کرت مرطوب انجام می شود (هیدرولوژی فاکتور با کد: خشک/مرطوب) در هر یک از پلات قبلی، نمونه برداری در دو عمق (D1، D2) در سه تکرار انجام می شود. در مجموع n = 36 نمونه = 3 سایت * 2 هیدرولوژی * 2 عمق * 3 تکرار وجود دارد. من از تابع lme در R (بسته lnme) به صورت زیر استفاده می کنم: Site<-as.factor(rep(c(Site1, Site2, Site3),each=12)) Hydrology<-as.factor( rep(rep(c(خشک، تر)، هر = 6)، 3)) عمق<-as.factor(rep(c(D1,D2),each=3),6)) متغیر<-rnorm(36) mydata<-data.frame(Site,Hydrology,Depth, متغیر) mod1<-lme(Variable~ Hydrology*Depth, data=mydata, random=~1|سایت/هیدرولوژی/عمق) می‌خواهم تأثیر هیدرولوژی و عمق را بر روی متغیر وابسته بدون نمایش داده‌های هر سایت تجسم کنم: interaction.HD<-interaction(mydata$Hydrology,mydata$Depth)called_mean< -tapply(mydata$Variable,interaction.HD,mean) mean_V=as.table(matrix(calculated_mean,nrow=2)) rownames(mean_V)=c(Wet,Dry) colnames(mean_V)=c(D1،D2) کتابخانه (gplots) نمودار =barplot2(mean_V، کنار = TRUE) legend(center,c(Dry,Wet),pch=22,pt.bg = c(قرمز،زرد)) هر نوار روی نمودار نشان دهنده میانگین 9 مقدار (3 تکرار) است. در هر سایت برای هر ترکیبی از هیدرولوژی و عمق). من می خواهم نوارهای خطا را روی هر میانگین ترسیم کنم. سوال من این است: صحیح ترین روش محاسبه آن چیست؟ من فکر می کنم که محاسبه انحراف استاندارد یا خطای استاندارد روی 9 مقدار استفاده شده برای محاسبه هر میانگین نادرست است. فکر می کنم محاسبه SD یا SE روی 3 مقدار (هر مقدار مربوط به میانگین هر سایت برای هر ترکیب هیدرولوژی و عمق) صحیح تر باشد. هر گونه راهنمایی در مورد این سوال بسیار قدردانی خواهد شد. آیا فکر می کنید استفاده از روش توضیح داده شده در Cousineau (2005) که در آن تغییرپذیری بین موضوع قبل از محاسبه نوارهای خطا حذف می شود، صحیح است؟ پیوند به مرجع: http://www.tqmp.org/Content/vol01-1/p042/p042.pdf
محاسبه نوارهای خطا در طرح تقسیم‌بندی
46767
من یک شبکه عصبی را برای پیش‌بینی قیمت خودروهای دست دوم اجرا می‌کنم، حجم نمونه 800 است. با استفاده از اعتبارسنجی متقاطع 10 برابری (10 بار) و 1/3 بازدارنده (10 بار)، R^2$ برای آموزش حدود 0.60 است و برای اعتبارسنجی حدود 0.68 برای هر 20 اجرا است. کوچکترین تفاوت در 20 اجرا، آموزش $R^2$ = 0.64 و اعتبارسنجی $R^2$ = 0.68 است، بنابراین آموزش R^2$ همیشه کمتر از اعتبارسنجی $R^2$ است. من بسیار عادت دارم که آموزش R^2$ را بزرگتر از اعتبارسنجی $R^2$ ببینم، که به معنای بیش از حد برازش است. در گذشته زمانی که من آموزش $R^2$ کمتر از اعتبارسنجی $R^2$ دیده بودم، این یک پدیده گذرا بود که با اجرای مجدد مدل ناپدید شد. این اولین باری است که اعتبار سنجی $R^2$ را بطور سیستماتیک بزرگتر از آموزش $R^2$ می بینم. من نمی دانم این به چه معنی است. هر فکری؟
خطای اعتبارسنجی کمتر از خطای آموزشی - پیامدها؟
48609
چگونه می توان دقت کلی را با توجه به دقت محاسبه شده برای هر کلاس محاسبه کرد؟ آیا این فقط میانگین بیش از دقت کلاس است؟ وقتی من از Weka استفاده می‌کنم، دقت جهانی به‌عنوان میانگین محاسبه نمی‌شود، بلکه به‌عنوان یک «میانگین وزنی» محاسبه می‌شود و نمی‌دانم بعداً چگونه محاسبه می‌شود (با چه وزنی؟). مثال زیر نتایجی را که با Weka می گیریم ببینید، لطفاً می توانید به من بگویید چگونه Weighted Avg. آیا در این نتیجه (خط آخر) محاسبه می شود؟ نمونه‌های به‌درستی طبقه‌بندی‌شده 608 93.5385 % موارد طبقه‌بندی نادرست 42 6.4615 درصد تعداد کل نمونه‌ها 650 === دقت تفصیلی براساس کلاس === TP Rate FP Rate Precision Recall F-Measure ROC Area.809. 0.889 0.8 0.995 APP05179028 0.991 0.032 0.866 0.991 0.924 0.999 APP05179007 0.633 0.005 0.864 0.864 0.63010.6301 0 0 0 0 00 0 0 0 0 0 ? APP05179018 0.6 0 1 0.6 0.75 0.988 APP05179027 0 0 0 0 0 ? APP05179023 1 0.002 0.75 1 0.857 1 APP05179025 0.8 0 1 0.8 0.889 0.991 APP05179016 0 0 0 0 0 0 ? APP05179021 0.889 0 1 0.889 0.941 1 APP05179029 0.918 0 1 0.918 0.957 1 APP05179020 0 0 0 0 0 0.9158 0.9179020 APP0 0.963 1 0.981 0.999 APP05179015 0.846 0 1 0.846 0.917 0.998 APP05179008 0.992 0.002 0.992 0.920 0.920 0.992 0.992 0.997 0.9901 0.002 0.973 0.947 0.96 1 APP05179013 1 0 1 1 1 1 APP05179026 0.857 0 1 0.857 0.923 1 APP05179019 0.714 0.714 0.714 0.526 0.952 APP05179017 0.969 0 1 0.969 0.984 1 APP05179030 1 0 1 1 1 1 APP05179024 0.935 0.008 0.390.390. میانگین** a b c d e f g h i j k l m n o p q r s t u v w x 8 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | a = APP05179028 0 110 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | b = APP05179007 0 9 19 0 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | c = APP05179012 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 1 0 0 0 0 0 0 | d = APP05179014 0 3 0 0 103 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | e = APP05179010 0 1 0 0 0 22 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | f = APP05179009 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | g = APP05179018 3 0 0 0 0 0 0 6 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | h = APP05179027 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | i = APP05179023 0 0 0 0 0 0 0 0 0 3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | j = APP05179025 0 1 0 0 0 0 0 0 0 0 4 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | k = APP05179016 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | l = APP05179021 0 0 0 0 0 0 0 0 0 0 0 0 32 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 4 0 0 | m = APP05179029 0 1 0 0 0 1 0 0 0 0 0 0 0 45 0 0 0 0 0 0 0 2 0 0 0 | n = APP05179020 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | o = APP05179022 0 0 0 0 0 0 0 0
میانگین وزنی دقت (یا یادآوری) همه کلاس ها؟
101372
من به نوعی گیج شده‌ام که واقعاً باید با مقادیر نوسانات پیش‌بینی‌شده‌ای که از طریق مدل ARCH/GARCH به دست آورده‌ام، انجام دهم، به غیر از احساس خوشحالی از اینکه می‌دانم نوسانات چه زمانی افزایش یا کاهش می‌یابد. آیا راهی وجود دارد که بتوانم مقادیر نوسانات پیش‌بینی‌شده را از طریق یک مدل GARCH/ARCH در یک مدل پیش‌بینی برای سری‌های زمانی واقعی خود وارد کنم یا آنچه می‌گویم اشتباه است؟ من از R به عنوان ابزار اصلی خود استفاده می کنم.
چگونه می توانم از نتایج GARCH برای بهبود پیش بینی استفاده کنم؟
13376
من می خواهم شبیه سازی را اجرا کنم که در آن مجموع 20 متغیر تصادفی 1000 بار تولید شده و در یک هیستوگرام رسم شود. من اعداد تصادفی را با استفاده از runif(20,0,1) تولید می کنم و سپس با استفاده از تابع sum این اعداد تصادفی را جمع می کنم، اما می خواستم بدانم آیا روش ساده تری برای انجام این 1000 وجود دارد و سپس برای نوشتن یک حلقه for.
چگونه شبیه سازی را در R از مجموع 20 متغیر تصادفی اجرا و رسم کنیم؟
38868
من دو رگرسیون برای انجام دارم - یکی با DV متریک (3- تا 3)، دیگری با DV مرتب شده (0،1،2،3). نه توزیع نرمال و نه همسانی داده شده است. من دو سوال دارم: 1. برخی منابع می گویند که رگرسیون قوی هم از عدم توزیع نرمال و هم عدم توزیع نرمال مراقبت می کند، در حالی که برخی دیگر فقط از توزیع نرمال می گویند. حقیقت چیست؟ 2. آیا راه هایی برای استفاده از رگرسیون های قوی با داده های مرتب شده وجود دارد، یا این فقط برای DV های متریک امکان پذیر است؟ من SPSS، R و MPLUS را در دسترس دارم.
رگرسیون قوی: با داده های مرتب شده امکان پذیر است؟
80259
فرض کنید من مجموعه داده ای دارم که حاوی تاریخ هایی است که اندازه گیری ها روی گروهی از افراد انجام شده است. بنابراین، شناسه های منحصر به فرد افراد، نتایج اندازه گیری و تاریخ اندازه گیری در دسترس هستند. حال فرض کنید که من نسخه دیگری از همان مجموعه داده از منبعی متفاوت دارم و تفاوت هایی بین دو مجموعه داده وجود دارد. آیا آزمون آماری وجود دارد که بتوان از آن استفاده کرد تا تفاوت بین دو مجموعه داده از نظر آماری معنادار باشد؟
تست تفاوت در دو مجموعه داده