_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
33927 | من در حال مدل سازی (با استفاده از GLM) یک متغیر توضیحی باینری در برابر یک متغیر پاسخ باینری هستم. خروجی برای من خوب به نظر می رسد، اما من یک زیست شناس با دانش اولیه آمار هستم، فقط می خواستم بپرسم آیا قانون/احتیاط/مشکلی برای مدل سازی یک باینری در مقابل یک باینری وجود دارد؟ | مدلسازی یک متغیر پاسخ باینری با یک متغیر توضیحی باینری |
85964 | من یک نظرسنجی انجام دادهام تا اهمیت ویژگیهای مختلف یک کارت اعتباری را با استفاده از مقیاس لیکرت 5 درجهای با نمرات (بسیار مهم = 5 ... نه مهم یا بیاهمیت = 1) وزن کنم. من 8 معیار دارم که هر کدام یک سؤال مشابه دارند، مانند مورد زیر: ویژگی بازگشت پول در کارت اعتباری چقدر مهم است؟ خیلی مهم مهم کمی مهم نه خیلی مهم نه مهم یا بی اهمیت همه 8 سوال از قالب و جمله بندی یکسانی پیروی می کنند و هر کدام با ویژگی کارت اعتباری متفاوتی مرتبط هستند. پس از انجام 10 نظرسنجی، چه کاری باید انجام دهم تا مشخص کنم کدام ویژگی مهمترین است، تا بتوانم وزن هر ویژگی را که برابر با 1 است محاسبه کنم. به خاطر داشته باشید که من ریاضیدان یا آماردان نیستم. با تشکر | چگونه معیارها را بر اساس پاسخ نظرسنجی رتبه بندی کنیم؟ |
110455 | فرض کنید باید «قدرت» دستهای از اشیا را بر اساس تعدادی فاکتور رتبهبندی کنم، تا آنجا که میتوانم بگویم، به نظر میرسد افراد معمولاً دو راه این کار را انجام میدهند: (الف) محاسبه امتیازهای نرمال شده (یعنی فاکتور- avg(factor)/stddev(factor))، سپس نتایج نرمال شده فردی را برای هر عامل جمع آوری کنید و آن ها را رتبه بندی کنید (b) نوعی رگرسیون تک یا چند متغیره و رتبه بندی بر اساس که چگونه به این نوع چیزها نزدیک می شوید؟ | سوال تازه کار - رگرسیون در مقابل نمرات نرمال شده مرکب |
109716 | ما در حال طراحی یک نظرسنجی هستیم که در آن از دانشآموزان میخواهیم سطح موافقت خود را نشان دهند (مقیاس لیکرت 1 - کاملاً موافقم ... 5 - کاملاً مخالفم. ما تجزیه و تحلیل عاملی را روی دادهها انجام دادیم و 4 عامل را بهدست آوردیم. برای بدست آوردن نمرات ترکیبی برای هر عامل، این کاری است که ما انجام دادیم: به عنوان مثال، اگر عامل 1 از 3 مورد تشکیل شده باشد که هر کدام دارای نمرات خام 3،4 و 5 هستند، میانگین 3 امتیاز را می گیریم و سپس یک امتیاز z از میانگین برای به دست آوردن امتیازهای استاندارد شده برای تجزیه و تحلیل های بیشتر، اکنون اگر بخواهیم سازه ای را که اندازه گیری می شود به نقاط بالا و پایین تقسیم کنیم، آیا امتیازات z> 0 به طور خودکار نشان دهنده میزان بالایی از ساختار است؟ اگر 3 نقطه صفر بود، مقادیر بالاتر از 3 نشان دهنده عدم توافق است (میزان اندازه گیری کم ساختار پس آیا همان چیزی به امتیاز z نیز تبدیل می شود). امتیازهای z بالای 0 نشان دهنده معیارهای کم است | محاسبه امتیازات ترکیبی از تحلیل عاملی |
87441 | من دو طبقه بندی کننده دارم که با داده های مشابه ساخته شده اند. چگونه می توانم واگرایی این مدل ها را اندازه گیری کنم؟ من چیزی شبیه DIC پیدا کردم اما نمی دانم چگونه این را در R محاسبه کنم؟ | اندازه گیری واگرایی عملکرد دو طبقه بندی کننده؟ |
47091 | معروف است که از آنجایی که شما شواهد بیشتری دارید (مثلاً به شکل $n$ بزرگتر برای $n$ مثال i.d.)، پیشین بیزی فراموش می شود و بیشتر استنباط تحت تاثیر شواهد قرار می گیرد (یا احتمال). دیدن آن برای موارد خاص مختلف (مانند برنولی با بتا قبلی یا نمونه های دیگر) آسان است - اما آیا راهی برای دیدن آن در حالت کلی با $x_1,\ldots,x_n \sim p(x| \mu)$ و مقداری $p(\mu)$ قبلی؟ ویرایش: من حدس میزنم که نمیتوان آن را در حالت کلی برای هیچ قبلی نشان داد (مثلاً، نقطهای قبل از جرم، پسین را یک نقطه جرم نگه میدارد). اما شاید شرایط خاصی وجود دارد که تحت آن یک پیشین فراموش می شود. در اینجا نوع مسیری است که من در مورد نشان دادن چیزی شبیه به آن فکر می کنم: فرض کنید فضای پارامتر $\Theta$ است، و اجازه دهید $p(\theta)$ و $q(\theta)$ دو قبلی باشند که جای غیر - جرم احتمال صفر روی همه $\Theta$. بنابراین، دو محاسبه قبلی برای هر مقدار قبلی به: $$p(\theta | x_1,\ldots,x_n) = \frac{\prod_i p(x_i | \theta) p(\theta)}{\int_{\ theta} \prod_i p(x_i | \theta) p(\theta) d\theta}$$ و $$q(\theta | x_1،\ldots،x_n) = \frac{\prod_i p(x_i | \theta) q(\theta)}{\int_{\theta} \prod_i p(x_i | \theta) q(\theta) d\theta }$$ اگر $p$ را بر $q$ (قسمت های پسین) تقسیم کنید، دریافت می کنید: $$p(\theta | x_1,\ldots,x_n)/q(\theta | x_1,\ldots,x_n) = \frac{p(\theta)\int_{\theta} \prod_i p(x_i | \theta) q(\theta)d \theta}{q(\theta)\int_{\theta} \prod_i p(x_i | \theta) p(\theta)d \theta}$$ اکنون میخواهم عبارت بالا را بررسی کنم زیرا $n$ به $\infty$ میرود. در حالت ایدهآل، برای یک $\theta$ خاص که معنا دارد یا رفتار خوب دیگری به $1 میرسد، اما نمیتوانم بفهمم چگونه چیزی را در آنجا نشان دهم. | فراموشی قبلی در محیط بیزی؟ |
92419 | من میخواهم اهمیت نسبی مجموعهای از متغیرها را برای مدل طبقهبندی «جنگل تصادفی» در R تعیین کنم. تابع «اهمیت» متریک «MeanDecreaseGini» را برای هر پیشبینیکننده منفرد ارائه میکند - آیا به سادگی جمع کردن آن در هر پیشبینیکننده است. در یک مجموعه؟ به عنوان مثال: # فرض می کنیم df دارای متغیرهای a1، a2، b1، b2 و نتیجه rf است <- randomForest(نتیجه ~ ., data=df) اهمیت(rf) # برای تعیین اینکه آیا پیش بینی کننده های a مهم تر از هستند. bs، # آیا می توانم MeanDecreaseGini را برای a1 و a2 جمع کنم و با b1+b2 مقایسه کنم؟ | اهمیت نسبی مجموعه ای از پیش بینی کننده ها در طبقه بندی جنگل های تصادفی در R |
47090 | من در حال آموزش یک طبقه بندی کننده SVM بر اساس مجموعه اسناد معین هستم. من از استفاده از 500 سند برای آموزش شروع کردم، سپس 500 سند دیگر را برای آموزش اضافه کردم و .... به عبارت دیگر، من سه مجموعه آموزشی دارم، 500، 1000، 1500. و مجموعه آموزشی کوچکتر زیرمجموعه ای از مجموعه بزرگتر متوالی است. من مدل را در برابر همان مجموعه آزمایشی تأیید می کنم. SampleSize Precision Recall Accuracy AUC 500 79.62% 67.49% 77.65% 0.854 1000 82.49% 77.94% 82.67% 0.890 1500 81.64% 78.8% 78.0 بهترین عملکرد را دریافت کنید وقتی از مجموعه آموزشی 1000 استفاده می کنیم. به نظر می رسد 500 نمونه آموزشی اضافی برای ساخت مجموعه آموزشی 1500 در واقع به مدل آسیب می زند. چگونه می توانم این مشاهده را توضیح دهم. | افزایش حجم نمونه به عملکرد طبقه بندی کمکی نمی کند |
47541 | مدل فعلی من این است: > $$y_i = a_0 +a_1x_i + a_2x_i^2 + \epsilon_i $$ با $E[\epsilon_i] = 0، Var[\epsilon_i] = \sigma^2$. من اطلاعات زیر را دارم: > $$\begin{matrix} i & \mathrm{Response} \, y_i & \mathrm{Covariate} \, x_i \\ > 1 & -1 & -0.5 \\ 2 & -0.25 &- 0.25 \\ 3 و 1 و 0 \\ 4 و 1.2 و 0.25 \\ 5 و 2.6 > & 0.5 \end{matrix}$$ من باید یک مدل رگرسیون چند جملهای متعامد به همان ترتیب مدل فعلیام پیشنهاد کنم. بنابراین فکر کردم که اگر اجازه بدهم $\zeta_1$ عبارتهای خطی و $\zeta_2$ عبارتهای درجه دوم باشند، آنگاه مدلی میخواهم که $\sum \zeta_1 = \sum \zeta_2 = 0$ باشد. بنابراین من دو شکل کلی $\zeta$ را می خواهم. بنابراین اجازه دهید: $$\zeta_1 = a + bx_i$$ $$\zeta_2 = a + bx_i + cx_i^2$$ حالا میخواهم برای $a,b,c$ حل کنم. اما من در مورد چگونگی حل آنها گیر کرده ام. من نمی توانم از اینجا فقط از معادلات همزمان معمولی استفاده کنم زیرا همه چیز باطل می شود و همه چیز برای من برابر با $ 0 است. چه کار کنم؟ | ساخت مدل رگرسیون چند جمله ای متعامد |
47094 | من و دو دوست در حال انجام یک بازی هستیم که ترکیبی از مهارت و شانس است. (همانطور که اکثر بازی ها هستند). ما فرض می کنیم که اگر بازی تماماً شانس بود و/یا همه ما سطح مهارت یکسانی داشتیم، در نهایت درصد برد همه ما به 33% نزدیک می شد. بنابراین به چه اندازه نمونه نیاز داریم تا نشان دهیم یکی از ما در بازی بهتر بوده است؟ یعنی اگر ما 50 بازی انجام میدادیم، چه درصدی از بازیها (یا چه فاصلهای از 33%) برای نشان دادن مهارت در مقابل شانس (شاید به احتمال 95٪ یا 99٪) نیاز داشت. اگر 100 بازی یا 200 بازی انجام می دادیم چه؟ من فرض میکنم که با افزایش حجم نمونه، به درصد اختلاف کمتری از 33 درصد نیاز داریم. | شانس یا مهارت در بازی 3 نفره |
109714 | آیا الگوریتم خاصی برای تشخیص دست خط آنلاین وجود دارد؟ الگوریتم باید دستخط غیر شکسته و شکسته را تشخیص دهد. من می دانم که قبلاً یک پست مشابه در stackoverflow.com وجود دارد، اما 5 سال پیش پست شده بود و من پاسخی پیدا نکردم که نیازم را برآورده کند. من فرض میکنم در طی این پنج سال، الگوریتمهای پیشرفتهای برای تشخیص دستخط آنلاین میتوانستند توسعه داده شوند. هر گونه کمکی بسیار قدردانی خواهد شد. | الگوریتم تشخیص آنلاین دست خط |
85968 | من سعی میکنم یک تابع توزیع را با مشاهدات تجربی که دارای ویژگیهای زیر هستند، برازش دهم: 1. میانگین غیر صفر 2. واریانس غیر واحدی 3. دنبالههای سنگین 4. نامتقارن در مورد حالتی که در نظر دارم انجام این کار را با برازش یک غیر توزیع t-تعمیم یافته مرکزی، اما من در تلاش برای یافتن ادبیات آنلاین در مورد تخمین 4 پارامتر هستم (یعنی، درجه آزادی، مکان، مقیاس، پارامتر عدم تقارن) از داده های تجربی. آیا برآوردگرهای شکل بسته (MLE، روش لحظه ها، یا هر چیز دیگری!) وجود دارند؟ یا شاید توزیع بهتری برای این کار وجود داشته باشد، جایی که چنین برآوردگرهایی وجود دارد؟ من به یک توزیع لجستیک 4 پارامتری نگاه کرده ام - به نظر می رسد که این کار را نیز انجام می دهد، اما من با مشکلات مشابهی در یافتن برآوردگرهایی که برای این توزیع نیاز دارم مواجه هستم. با تشکر فراوان | برازش توزیع t غیر مرکزی با تغییر مکان و مقیاس |
112170 | برای یک پروژه باید مقادیری از صورت حساب هزینه گرمایش سالانه مشتریان استخراج کنم. مشتری از صورتحساب عکس می گیرد و برنامه باید مقادیر دوره گرمایش صورتحساب، نوع منبع انرژی (گاز، سوخت و غیره) و مقدار انرژی مصرف شده را استخراج کند. من دانش کمی از یادگیری ماشین دارم (یک سخنرانی در دانشگاه). این کار آسانی نیست، اینطور است؟ آیا می توان با نرم افزار منبع باز (عمدتاً پایتون حدس می زنم) این کار را انجام داد؟ | موقعیت ها/ارزش ها را از صورتحساب هزینه های حرارتی دریافت کنید |
87443 | من مقادیری دارم که به طور معمول توزیع نمی شوند زیرا بیشتر (132) از (140) مقادیر 0 یا 1 هستند. تعداد کمی وجود دارد که <10، یکی حدود 80 و یکی حدود 650 هستند. آیا استفاده از نمودار Q-Q معمولی معتبر است. برای شناسایی نقاط پرت؟ | استفاده از نمودار Q-Q نرمال برای تشخیص نقاط پرت در مقادیر غیرعادی توزیع شده |
83233 | من میخواهم در مورد چگونگی تفسیر تخمینهای پارامتر با یک متغیر وابسته پیوسته (مصرف غذای سالم) و یک پیشبینیکننده 6 دستهای (درآمد، از 1 = کمترین درآمد تا 6 = بالاترین باند درآمد در GLM) راهنمایی کنم. خروجی من به شرح زیر است: متغیر وابسته برآورد پارامتر: سالم $$\begin{array}{c|cccccc}&B&Std. خطا&t&Sig.&کران پایین&کران بالایی\\\hline Intercept& 7.578&772&9.813&.000&6.059&9.097\\ [income=1]&-1.633 & 0.826&-1.977&.029&-. [income=2]&-1.310 & .801&-1.635&.103&-2.886&.266\\ [income=3]&-.468 & .831& -.563&.574&-2.102&1.166\\ [درآمد= 4]&.664&.927 & 0.716&.474&-1.159&2.486\\ [income=5]&-.906 & 0.980& -.924&.356&-2.834&1.022\\ [income=6]&0^\rm a\end{array} $$\rm a$ این پارامتر بر روی صفر تنظیم شده است، زیرا اگر من درآمد را در a نمودار کنم مدل رگرسیون خطی بهعنوان پیوسته، من به این نتیجه رسیدم که درست است: ضریب غیر استاندارد = 0.000. برای مدل اول (GLM)، تنها نتیجه قابل توجهی که به دست میآورم درآمد = 1 است که کمترین درآمد است و شیب B 1.633- است. من مطمئن نیستم که چگونه آن را تفسیر کنم. اگر من به مدل دوم نگاه کنم (اما مطمئن نیستم که آیا درست است که پیشبینیکننده طبقهبندی را در رگرسیون خطی ترسیم کنیم)، این نشان میدهد که هر چه درآمد بیشتر باشد، افراد غذای سالمتری میخورند. متشکرم! | تفسیر تخمین پارامترها هنگام پیشبینیکنندههای چند طبقهای |
34932 | پس از تلاش برای تولید یک مدل ترکیبی خطی، من با مقدار زیادی ناهمگونی مواجه شدم. lme1 <- lme(Average.payoff ~ Game + Type + Others.Type + Game:Type + Game:Others.Type + Type:Others.Type, random=~1|موضوعات, روش = REML, data=Subjectsm1) عبارت پاسخ Average.payoff پیوسته است، در حالی که همه متغیرهای توضیحی باینری هستند. هنگامی که به اعتبارسنجی نگاه می کنم، به وضوح می توانم ببینم که گسترش باقیمانده ها با مقادیر برازش بزرگتر کاهش می یابد. بنابراین، تصمیم گرفتم به استفاده از استدلال وزن نگاه کنم. من به مدل زیر رسیدم که به نظر می رسد بهترین گزینه است (AIC و loglik). vf1 <- varComb(varIdent(form=~1|Others.Type)، varIdent(form=~1|بازی)، varIdent(form=~1|نوع)، varIdent(form=~1|مرد)) lme1 <- lme(Average.payoff ~ Game + Type + Others.Type + Game:Type + Game:Others.Type + Type:Others.Type, random=~1|Subjects, method=ML, weights=vf1, data=Subjectsm1) 1. آیا می توانم استفاده از تابع varIdent را در کنار اثرات تصادفی توجیه کنم؟ 2. آیا می توانم ترکیب توابع متغیر را توجیه کنم تا واریانس همه متغیرهای توضیحی محاسبه شود؟ 3. اگر یک متغیر توضیحی اثر ثابت را به دلیل ناچیز بودن حذف کنم، آیا همان متغیر از ساختار واریانس حذف می شود؟ 4. اگر من تناسب بهتری داشته باشم (با استفاده از «AIC» و «loglik») بدون درج افکت های تصادفی با مدل سازی مجدد با «gls()»، آیا می توانم استفاده از مدل را بدون افکت های تصادفی توجیه کنم؟ این آزمایش شامل آزمودنیهای 20 دلاری بود، برای هر موضوع من دو نمونه دارم، یکی که «Others.Type=0» و دیگری «Others.Type=1» بود. | استفاده صحیح از آرگومان وزن ها در مدل مختلط خطی [lme()]؟ |
76506 | من یک سوال در مورد راه اندازی شبیه سازی دارم. فرض کنید دو گروه وجود دارد (Z = 0 و Z = 1). نتیجه برای Z = 0 و Z = 1 توسط معادلات زیر ایجاد می شود: $Y_0 = \alpha_0 + \beta_{01}*{x_1} + \beta_{02}*{x_2} + \epsilon_{0}$ $ Y_1 = \alpha_1 + \beta_{11}*{x_1} + \beta_{12}*{x_2} + \epsilon_{1}$، که در آن $x_1$ و $\epsilon$ استاندارد معمولی $N(0,1)$ و $x_2$ برنولی با $\pi = 0.5$ توزیع شده است. مقادیر واقعی ($\alpha_0$, $\beta_{01}$, $\beta_{02}$) = (0, 1, 2) و ($\alpha_0$, $\beta_{01}$, $ \beta_{02}$) = (1، 2، 3). چگونه می توانم ارزش واقعی میانگین اثر درمان را بر اساس تنظیم بالا بدانم (ATT $ = E(Y_1 - Y_0 \mid Z =1)$)؟ پیشاپیش با تشکر فراوان | تنظیم شبیه سازی برای میانگین اثر درمان روی تیمار شده (ATT) |
87448 | من سناریوی زیر را دارم: اجازه دهید $X_i$ نشان دهنده یک رویداد باشد. حالا من احتمالات محاسبه شده زیر را دارم. $P(X_1 \cap X_2 \cap \cdots \cap X_9 | X_{10})$$P(X_1 \cap X_2 \cap \cdots \cap X_{8} \cap X_{10} | X_{9}) $ $\vdots$ $P(X_2 \cap \cdots \cap X_{9} \cap X_{10} | X_{1})$ در کلمات، عبارات بالا نشان دهنده احتمال (مشترک) رویدادهای باقی مانده با توجه به اینکه یک رویداد خاص رخ داده است. برای محاسبه این احتمالات، من توزیع احتمال زیربنایی را میدانم که کل سیستم را توصیف میکند، به عنوان مثال، $p(x_1، x_2، \cdots. x_{10})$، بنابراین برای مثال، محاسبه احتمال $P(X_1 \cap X_2) \cap \cdots \cap X_9 | $\frac{P(X_1 \cap \cdots \cap X_{10})}{P(X_{10})}$ که در آن مخرج و صورت هر دو را میتوان با ادغام بر روی مناطق خاصی از تابع چگالی احتمال $p محاسبه کرد. (x_1، x_2، \cdots. x_{10})$. سوال من این است که من می خواهم یک مقدار خلاصه پیدا کنم که احتمال متوسط این سیستم را توصیف کند، به عنوان مثال. بگویید $P(X_1 \cap X_2 \cap \cdots \cap X_9 | X_{10})= 0.4$, $P(X_1 \cap X_2 \cap \cdots \cap X_{8} \cap X_{10} | X_ {9})= 0.3$ و غیره، چگونه می توانم این مقادیر 0.4$، 0.3$، و غیره را ترکیب کنم یک مقدار که احتمال متوسط این سیستم را توصیف می کند؟ روش اولیه من فقط گرفتن میانگین حسابی هر مقدار است، اما این از نظر ریاضی نادرست است زیرا احتمالات شرطی قابل جمع نیستند (به جز زمانی که با یک رویداد شرطی شوند). بنابراین آیا معیار/تکنیک دیگری وجود دارد که بتوانم از آنها برای ترکیب این احتمالات منفرد در مقدار یک استفاده کنم؟ یعنی نوعی آمار خلاصه که میانگین احتمال را توصیف می کند؟ | آمار خلاصه برای احتمالات شرطی «متوسط». |
103043 | من آزمایشی با دو عامل هر کدام با دو سطح، 5 تکرار در هر ترکیب و یک متغیر پاسخ اجرا کردم. داده های من غیر عادی و هتروسداستیک هستند. تحولات کمکی نکرد. من یک ANOVA جایگشت (`aovp - بسته lmperm - R`) را اجرا کردم، اما مطمئن نیستم که این راه درستی است و نمیدانم در مورد یک آزمون تعقیبی چه کنم، زیرا تعامل قابل توجهی دارم. دادههای من به این شکل است: F1 F2 BIOMASS A C 0.66 A C 0.31 A C 0.88 A C 0.55 A C 0.81 A D 0.39 A D 0.21 A D 0.17 A D 0.15 A D 0.18 B C 0.005 B C 0.005 B C0 0.02 B D 0.16 B D 0.04 B D 0.21 B D 0.15 B D 0.06 | چگونه با داده های هتروسداستیک غیرعادی از یک آزمایش فاکتوریل برخورد کنیم؟ |
111475 | من یک متخصص آمار نیستم، بنابراین امیدوارم کسی در اینجا بتواند به من کمک کند. من یک دسته جفت کلید-مقدار مرتبط با یک محدوده زمانی خاص دارم. چیزی شبیه به این: <time>|<کلید>|<مقدار> 0 |1 |34534 0 |2 |23434 0 |3 |4606 1 |1 |945954 1 |6 |459459 1 |8 |34 10 مورد از وجود خواهد داشت میلیون ها جفت کلید-مقدار در مقادیر مختلف زمانی (24 مقدار منحصر به فرد). من باید بتوانم مجموع مقادیر 10 برتر را در تمام مقادیر زمانی که بر اساس مقدار کلید گروه بندی شده اند محاسبه کنم. من فکر نمی کنم که بتوانم این کار را به طور موثر انجام دهم مگر اینکه مشکل را تقسیم کنم. بنابراین، تئوری من این است که می توانم محاسبه را بر روی هر مقدار زمانی تقسیم کنم. در مثال بالا، دو کار به من می دهد: Job1 <time>|<key>|<value> 0 |1 |34534 0 |2 |23434 0 |3 |4606 Job2 <time>|<key>|<value > 1 |1 |945954 1 |6 |459459 1 |8 |34 حالا تصور کنید که من میلیون ها جفت کلید-مقدار برای هر زمان ارزش من محاسبه می کنم که 1000 مجموع برتر را بر اساس مقدار به صورت نزولی مرتب می کنم. سپس تمام مجموع 1000 شغل برتر را با هم جمع میکنم تا «10 کار برتر» محدوده تمام وقت را محاسبه کنم. من از 1000 به عنوان مثال در اینجا استفاده می کنم، اما چه مقدار دقیق تری وجود دارد که تضمین کند 10 برتر من درست است؟ من حتی کاملاً مطمئن نیستم که با این کار از کجا شروع کنم. Vinbot | محاسبه یک X بالا کلی در چندین گروه |
34939 | من سعی می کنم ساختار شبکه بیزی را از یک مجموعه داده بسیار بزرگ یاد بگیرم، و بسته R که برای یادگیری استفاده کردم، به دلیل محدودیت های محاسباتی، تنها می تواند بخش بسیار کوچکی از مجموعه داده ها (~10٪) را در یک زمان مدیریت کند. استراتژی اعتبارسنجی متقاطع k-fold متداول از زیر مجموعه های k-1 برای آموزش و 1 زیر مجموعه برای آزمایش استفاده می کند. میخوام بدونم میتونم فقط از یک زیرمجموعه تصادفی برای آموزش و از زیر مجموعه تصادفی دیگه برای تست استفاده کنم؟ آیا راه حل بهتری وجود دارد؟ | استراتژی اعتبار سنجی متقاطع k برابر برای مجموعه داده های بزرگ در یادگیری آماری |
83234 | من دو سری اطلاعات در مورد (مثلا) تعداد ماشین ها در دو جاده در طول 1 مایل دارم. من 4 نتیجه را جمع آوری کرده ام: تعداد اتومبیل هایی که از یک تقاطع در 1، 10 و 60 دقیقه عبور می کنند و همچنین بیشترین تعداد اتومبیل ها در منطقه در یک ساعت گذشته. من می خواهم حداکثر مجموع تعداد ماشین های هر دو جاده را در یک ساعت برای یک ساعت معین مدل کنم. افزودن یک مثال برای وضوح (طبق نظرات): اگر (در مدت 20 دقیقه، هر دقیقه نمونه برداری شود)، مشاهدات من «2،4،7،4،8» و «5،4،3،2،1» است. ، حداکثر در هر دو جاده 10 است (7 + 3)، نه 13 (5 + 8)، زیرا حداکثرهای خاص صف در زمان های مختلف اتفاق افتاده است. | برآورد/پیشبینی حداکثر فرآیند جمعآوری برای مدلسازی تعداد خودروهای موجود در جاده؟ |
30699 | من مقادیر p را برای همبستگی ها با استفاده از bootstrapping محاسبه کرده ام. من از همان مقدار p-value بدون در نظر گرفتن تعداد محاسبات جفتی استفاده کرده ام. به طور شهودی، به نظرم می رسد که هر چه همبستگی های بیشتری انجام دهم، احتمال بیشتری برای به دست آوردن یک همبستگی کاذب به دلیل شانس تصادفی دارم. **آیا استفاده از بوت استرپینگ نحوه برخورد شما با مشکلات خطاهای نوع I را هنگام آزمایش همبستگی های متعدد تغییر می دهد؟** | آیا استفاده از bootstrapping نحوه برخورد شما با مشکلات خطاهای نوع I را هنگام آزمایش همبستگی های متعدد تغییر می دهد؟ |
103040 | قبل از طراحی/اجرای آزمایش چه پارامترهایی را باید **از قبل مشخص کرد**؟ (به عنوان مثال، آزمون t دو نمونه، یک طرفه) درک من این است که: 1. فرضیه صفر 2. **حداکثر** سطح اهمیت 3. **حداقل** توان 4. **حداقل** اندازه اثر آیا انتخاب **حداکثر/حداقل** در خطوط بالا صحیح است؟ آیا درست است که بگوییم برای تخمین حجم نمونه **الزامی** باید همه موارد فوق را ایجاد کنیم؟ یا آیا پارامترهای رایگان دیگری وجود دارد که فرد باید ابتدا آن را ایجاد کند؟ | طراحی آزمایش های فرکانس A/B |
85960 | این احتمالاً باید آسان باشد، اما من هنوز نمیدانم چگونه آن را ثابت کنم. با توجه به این است که $y=X_1\beta_1 + X_2 \beta_2 + \epsilon$. به این صورت است که $X=\begin{pmatrix} X_1 & X_2 \end{pmatrix}$. علاوه بر این، داده می شود که $X_2'X_2=cX_1'X_1$. اکنون با استفاده از فرمول $\operatorname{Var}(X'X)^{-1}=\sigma^2 V$، جایی که $V=(1/(1+c))(X_1'X_1)^{- نشان دهید 1} دلار. کاری که من تاکنون انجام دادهام: $X'X=\begin{pmatrix} X_1' \\ X_2'\end{pmatrix} \begin{pmatrix} X_1 & X_2\end{pmatrix}=\begin{pmatrix} X_1'X_1 و X_1'X_2 \\ X_2'X_1 & cX_1'X_1\end{pmatrix}$. با این حال، من فکر می کنم معکوس کردن این ماتریس دشوار است. هر کمکی قابل تقدیر است. | ثابت کنید که واریانس $b$ به صورت زیر است |
34930 | من مجموعه بزرگی از داده ها برای 37 واحد بالینی مختلف (همه انکولوژی) در 37 بیمارستان مربوطه آنها دارم. دو متغیر پیامد خاص وجود دارد که باید آنها را تجزیه و تحلیل کنم: اول، مصرف دارو برای انواع و کلاسهای دارویی خاص (داروهای جمعآوری شده) که به صورت نرخ بیان میشوند - DDD (دوزهای روزانه تعریف شده) در هر 100 روز بیمار. برای این مجموعه ارقام مصرف دارو برای بیماران فردی وجود دارد. سوال 1: کدام رویکرد رگرسیون را باید در پیش بگیرم؟ از آنچه می توانم جمع آوری کنم می توانم از مدل رگرسیون پواسون استفاده کنم. اگر در نتیجه پراکندگی بیش از حد وجود داشته باشد، می توانم به یک مدل دوجمله ای منفی متوسل شوم. دوم: من دادههای مقاومت آنتیبیوتیکی دارم که به صورت نسبت در محدوده 0 تا 1 بیان میشود. این دادهها بهعنوان دادههای فردی بیمار در دسترس نیستند، اما در هر یک از 37 بیمارستان جمعآوری شدهاند. سوال 2: باز هم کدام رویکرد؟ از آنچه خوانده ام می توانم از مدل رگرسیون لجستیک استفاده کنم. یک آماردان دیگر به من توصیه کرده است که ابتدا از یک مدل لاجیت استفاده کنم و سپس از یک مدل پروبیت استفاده کنم و خوب بودن تناسب را برای هر مدل مقایسه کنم. آیا این یک رویکرد معقول به نظر می رسد؟ آیا متن خاصی وجود دارد که بتوانید من را به آن راهنمایی کنید تا مهارت های اولیه مدل سازی رگرسیون خود را ارتقا دهم. من از R برای تجزیه و تحلیل استفاده خواهم کرد. پیشاپیش ممنون | مشاوره در مورد مدل سازی رگرسیون |
85966 | من از sklearn پایتون برای طبقهبندی چند کلاسه (SVC) استفاده میکنم وقتی از روش پیشبینی استفاده میکنم، با مجموعه دادهام نمرات بسیار بالایی میگیرم، با این حال، من میخواهم منحنیهای ROC را برای هر یک از کلاسهایم ترسیم کنم. یعنی من می خواهم برای هر یک از کلاس ها مشکل را به یک مشکل in_class/out_class کاهش دهم. برای آن من به روش predict_proba SVC متوسل شدم. با این حال، من هیچ ارتباطی بین احتمالات داده شده و پیش بینی ها پیدا نمی کنم. به عنوان مثال، برای یک مسئله طبقه بندی 5 کلاس، ممکن است یک پیش بینی از کلاس 1 دریافت کنم، اما یک بردار احتمال را دریافت کنم - [0.1، 0.2، 0.5، 0.3، 0.0]. کلاس 1 بالاترین احتمال را نداشت. آیا کسی میداند که SVM چگونه از تابع تصمیم خود برای پیشبینی استفاده میکند، یا چگونه predict_proba روی یک مسئله چند کلاسه کار میکند؟ با تشکر | استفاده از predict_proba با SVC چند کلاسه sklearn |
52857 | من یک سری زمان برای دما دارم و سعی می کنم آن را به فرآیند فصلی + روند + تصادفی تجزیه کنم تا ببینم چه مدلی برای فرآیند تصادفی مناسب است. با این حال، من فقط برای 333 روز داده دارم و فرض میکنم دادههای من باید شامل یک پدیده دورهای باشد که دوره آن یک سال یا 365 روز است. چگونه می توانم روند و مؤلفه فصلی را حذف کنم در حالی که داده ای برای کل دوره فرضی ندارم؟ آیا راهی برای پیاده سازی متد در R وجود دارد؟ این مجموعه http://www.wikiupload.com/XD5FHJFC7S857MG EDIT است: طرح این داده توسط @Penguin_Knight  | جزء فصلی برای سریالی که فقط یک سال و نیم است |
103046 | من سعی می کنم داده های بیولوژیکی را تجزیه و تحلیل کنم تا ببینم که آیا تعداد رویدادها در یک بازه زمانی معین بر اساس فرکانس کلی بیشتر یا کمتر از حد انتظار است. چگونه می توان به این موضوع برخورد کرد؟ نمونه ای از اینکه چگونه این را چارچوب بندی کنم: از 100 میلی ثانیه، 16/44 رویداد در 15 میلی ثانیه رخ می دهد و 28/44 رویداد در 85 میلی ثانیه باقی مانده رخ می دهد. آیا بر اساس فرکانس کلی، رویدادهای بیشتری در فاصله 15 میلیثانیه از حد انتظار رخ میدهند؟ و من حدس میزنم که فرضیه صفر این است که توزیع تصادفی 44 رویداد در 100 میلیثانیه وجود دارد. | تجزیه و تحلیل آماری رویدادها در یک بازه زمانی معین |
47092 | فرض کنید من مجموعه ای از اطلاعات دارم، > > id t s x H0 h0 H0i Hi Di Eu > Elu > 1 2 1 53 0.01067033 0.01067033 0.01371871 0.01371871 2 115 >0397. 0 60 0.02148908 0.01081875 0.02856059 0.04227930 1 1.019138 > 0.009121439 > 3 5 0 45 0.0434062124 501. 0.09605354 2 1.038006 > 0.027655283 > 4 5 0 50 0.04344224 0.02195316 0.05506429 0.15111783 286 > 0356.056 0 52 0.05472922 0.01128698 0.07003181 0.22114964 2 1.035420 > 0.025161271 > 6 7 1 51 0.077632298787080. 0.32002062 2 1.033386 > 0.023194494 > اگر بخواهم برآورد $\beta$ را از این مورد پیدا کنم، > $$ Q(\beta)=\sum_{i=1}^{G}\sum_{j=1}^{ n_{i}}[\delta_{ij}\{\ln > h_{o}(t_{ij})+\beta'x_{ij}+E(\log > U_{i})\}-H_{o}(t_{ij})e^{\beta'x_{ ij}}E(U_{i})] $$ که در آن، $t_{ij}$ > $j^\mathrm{th}$ نقطه زمانی فرد $i\mathrm{th}$ است، $\delta_{ij}$ > وضعیت است، $x_{ij}$ بردار متغیرهای کمکی است. بگذارید $\beta$ اولیه 0.02 باشد. چگونه می توانیم تخمین $\beta$ را با استفاده از کد R پیدا کنیم؟ | تخمین پارامتر $\beta$ |
87445 | من ضریب تصادفی تحلیل پواسون را در R برازش داده ام. نتایج زیر را به دست آورده ام: برازش مدل مختلط خطی تعمیم یافته با حداکثر احتمال ['glmerMod'] خانواده: poisson (log ) فرمول: فرکانس ~ 1 + سی سی + Ageveh + ساخت + (1 |. AREA) داده ها: x انحراف AIC BIC logLik 1359.1477 1389.7370 -672.5739 1345.1477 اثرات تصادفی: نام گروه ها Variance Std.Dev. AREA (Intercept) 1.323 1.15 تعداد obs: 584، گروهها: AREA، 8 جلوههای ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (برق) -0.12902 0.44432 -0.290 0.7715 ccL 0.05656 0.12371 0.457 0.6475 agevehO 0.02136 0.0927 0.0926 -0.45454 0.20632 -2.203 0.0276 * make3 -0.31799 0.21422 -1.484 0.1377 ## make4 -0.29708 0.14469 -2.053 0.0401 * Sign. کدها: 0 ' ** _' 0.001 '** ' 0.01 '_' 0.05 '.' 0.1 ' ' 1 همبستگی اثرات ثابت: (Intr) ccL agevhO make2 ccL 0.052 agevehO -0.179 -0.232 -0.232 0.001 make3 -0.156 0.022 -0.078 0.366 make4 -0.300 -0.235 0.167 0.544 0.522 با این حال من قادر به تفسیر نتایج نیستم. | نحوه تفسیر نتایج حاصل از تحلیل دادههای پواسون با ضریب تصادفی |
83232 | من در حال ساخت یک مدل پیش بینی بر اساس مدل SVM با هسته RBF هستم. نمونههای آموزشی ویژگیهای بهدستآمده از مناطق ژنومی (موسوم به مکانهای اتصال) را نشان میدهند که توسط پروتئینها هدف قرار میگیرند (تنظیم میشوند). این مدل یاد میگیرد که بین مناطقی که توسط پروتئینها هدف قرار میگیرند و مناطقی که نیستند، تمایز قائل شود. (داده های مثبت و منفی ایجاد کردم). سوال من این است که دادههای مثبت حاوی نمونههای آموزشی اضافی هستند (یعنی مکانهای اتصال یکسان در مکانهای مختلف ژنوم)، بنابراین، آیا نمونههای آموزشی اضافی را نگه دارم (برای اینکه مدل در مورد الگوی خاصی از منطقه هدف بیشتر بداند) یا باید فقط نمونه های آموزشی منحصر به فرد را نگه دارید؟ به عنوان مثال: من در نمونه های آموزشی 10000 نمونه 10000 منطقه هدف مختلف (محل اتصال) پروتئین ها را دارم. اگر بی نظیر را بگیرم حدود 7000 نمونه خواهد بود. (زیرا سایت های اتصال ممکن است در مکان های مختلف یکسان باشند) | نمونه های آموزشی اضافی |
74806 | ما برنامهای داریم که در آن سعی میکنیم کل ریسک (مثلاً ضربه زدن به ترافیک) یک سفر در اتومبیلی را که در آن احتمال تابعی از زمان و یک سری الگوریتم است، کمیت کنیم:  چگونه میتوانیم ریسک «کل» سفر را با توجه به مدت زمانی که خودرو در معرض خطر بالاتری قرار میگیرد، کمیت کنیم؟ دل من می گوید که این یک موضوع یکپارچه است، اما آمار من حداقل قوی نیست و فکر می کنم ممکن است چیزی واضح را از دست بدهم. محور y احتمال وقوع یک رویداد و محور x زمان سپری شده، بر حسب دقیقه است. منطقه خاکستری بی ربط است. | احتمال کل هر رویداد |
77152 | فرض کنید $X1,..,X4$ از pdf $f(x|\theta)=\frac{1}{\theta}$ ,برای $0<x<\theta$ iid باشد. توزیع قبلی $\pi(\theta)=\frac{2}{\theta^3}$ است، برای $\theta>1$ باید به دست بیاورم: a) توزیع پسین $\theta$ با توجه به $Y$ ، که در آن $Y = max(X1,...,X4)$. ب) تخمین نقطه ای $\theta$ بر اساس میانه های خلفی. **کار من** a) شروع با pdf $Y$, $f_{X(4)}(y)=\frac{4y^3}{\theta^4}$ ; با استفاده از فرمول pdf $X_{(n)}$ محاسبه مشترک pdf $f(y,\theta)$ $f(y,\theta)=\frac{8y^3}{\theta^7}$ پسین توزیع $f(\theta|y) \propto \frac{1}{\theta^7}$$f(\theta|y)=\frac{6}{\theta^7} \sim pareto(1,6)$ [با عادی سازی] لطفاً به من اطلاع دهید که آیا رویکرد من برای پسین درست است یا خیر. همچنین، برای بخش (ب)، آیا باید MLE را برای توزیع پسین بدست آورد. از بازخورد و نکات شما سپاسگزارم. | توزیع خلفی |
43738 | فرمول P(W) در این شبکه بیزی چیست؟  **PS 1:** آیا این فرمول به من P(W) می دهد یا خیر: P(Cloudy) × P( آبپاش|ابری) × P(باران|ابری) × P(علف مرطوب | آبپاش، باران) **PS 2:** چگونه می توانیم فرمول P(R|S) ? | منابع مالی شبکه بیزی |
73981 | آیا ویژگی منحصر به فرد $\mathrm{Gamma}(k=e، \text{ scale})$ یا یک توزیع دوجمله ای منفی با $r=e$ وجود دارد؟ در اینجا، $e$ شماره اویلر است، $e \حدود 2.71828$. دلیلی که می پرسم این است که یکی از متغیرهای شبیه سازی کامپیوتری من می تواند با $\mathrm{Gamma}(k=e, \text{ scale})$ یا $\mathrm{NB}(r=e) برازش شود. ,\ p)$ بسیار قوی. این باعث میشود فکر کنم که آیا چیز خاصی در مورد این فرآیند وجود دارد و این مقدار خاص پارامتر شکل ممکن است به آن اشاره کند. | آیا چیز خاصی در مورد توزیع گاما با پارامتر شکل k=e وجود دارد؟ |
77155 | من لیست سری های زمانی را دارم. من این سری ها را با فرمول $$y=ax^2\exp(b*x)$$ تطبیق می دهم. لازم به ذکر است که پارامتر $b$ در فرمول باید منفی باشد زیرا این نشان دهنده رفتار سری های زمانی است. یک نمودار مثال برای خروجی رگرسیون برازش با استفاده از `nls()` در R این است:  در ابتدا با من روبرو شدم با مشکل انتخاب مقادیر شروع برای $a$ و $b$. من چنین مقادیری را انتخاب کردم تا مقدار برازش شده در حداکثر برای $y$ یکسان باشد. اما با چند سری زمانی با مشکل بعدی مواجه شدم. بیایید این سری زمانی را در نظر بگیریم:  هنگام اعمال روش من، `nls()` به من مقدار مثبت $b$ داد که برای من رضایت بخش نبود، اگرچه مقادیر برازش بسیار مطابقت داشتند. با این حال، وقتی سعی کردم مرزهایی را در تابع «nls()» مانند «بالا(a=10,b=-0.0001)» معرفی کنم، متوجه شدم که مهم نیست چه مقدار b$ را قرار می دهم، مقدار حاصل از $ b$ به هیچ مقدار پایداری همگرا نمی شود و منحنی برازش شده بسیار ناسازگار است. از نظر عددی، پارامترها با چیزی که انتظار داشتم پیدا کنم مطابقت داشتند، اما مقادیر برازش شده کالیبره نشده بودند. آیا کسی می تواند پیشنهاد دهد که چگونه می توانم با چنین سری های زمانی بدون تغییر فرمول کلی برخورد کنم؟ با تشکر | برازش الگوریتم NLS |
26702 | من چند سوال برای فاصله های پیش بینی و تحمل دارم. بیایید ابتدا در مورد تعریف فواصل تحمل توافق کنیم: به ما یک سطح اطمینان داده می شود، مثلاً 90٪، درصد جمعیت برای گرفتن، مثلا 99٪، و حجم نمونه، مثلا 20. توزیع احتمال مشخص است، مثلاً نرمال. برای راحتی حال، با توجه به سه عدد فوق (90%، 99% و 20) و این واقعیت که توزیع اساسی نرمال است، میتوانیم عدد تلرانس $k$ را محاسبه کنیم. با توجه به یک نمونه $(x_1,x_2,\ldots,x_{20})$ با میانگین $\bar{x}$ و انحراف استاندارد $s$، فاصله تلورانس $\bar{x}\pm ks$ است. اگر این فاصله تحمل 99٪ از جمعیت را بگیرد، آنگاه نمونه $(x_1,x_2,\ldots,x_{20})$ را _موفق__ می نامند و لازمه این است که 90٪ نمونه ها _موفق_ باشند. نظر: 90% احتمال موفقیت یک نمونه پیشینی است. با توجه به موفقیت آمیز بودن نمونه، 99 درصد احتمال مشروط این است که مشاهده آینده در بازه تحمل باشد. سؤالات من: آیا می توانیم فواصل پیش بینی را به عنوان بازه های تحمل ببینیم؟ با نگاه کردن به وب، پاسخ های متناقضی در این مورد دریافت کردم، ناگفته نماند که هیچ کس واقعاً فواصل پیش بینی را با دقت تعریف نکرده است. بنابراین، اگر تعریف دقیقی از فاصله پیشبینی (یا مرجع) دارید، ممنون میشوم. چیزی که من فهمیدم این است که برای مثال یک بازه پیشبینی 99 درصدی، 99 درصد از تمام مقادیر آینده را برای _all_ نمونهها ثبت نمیکند. این همان فاصله تحملی است که 99٪ از جمعیت را با احتمال 100٪ جذب می کند. در تعاریفی که برای فاصله پیشبینی 90 درصد پیدا کردم، 90 درصد احتمال _پیشینی_ است که به یک نمونه داده میشود، مثلاً $(x_1, x_2,\ldots, x_{20})$ (اندازه ثابت است) **و** a مشاهده منفرد آینده $y$، که $y$ در بازه پیش بینی خواهد بود. بنابراین، به نظر میرسد که هم نمونه و هم مقدار آینده هر دو به طور همزمان داده میشوند، بر خلاف بازه تلورانس که نمونه داده میشود و با احتمال معینی یک _موفق_ است و به شرطی که نمونه باشد. a _success_، مقدار آتی داده می شود و با احتمال معینی در بازه تلورانس قرار می گیرد. من مطمئن نیستم که آیا تعریف فوق از فاصله پیش بینی درست است یا نه، اما به نظر می رسد خلاف واقع باشد (حداقل). هیچ کمکی؟ | پیش بینی و فواصل تحمل |
39319 | من روی چند وب سایت کتابخانه کار می کنم و می خواهیم بدانیم کاربران چه کسانی هستند تا بتوانیم درباره نحوه طراحی سایت تصمیم بگیریم و تلاش ها را متمرکز کنیم. اینها طبقات کاربرانی هستند که به آنها علاقه مندیم: لطفاً پاسخی را انتخاب کنید که به بهترین وجه خود را توصیف کند: * k12-معلم-کتابدار * k12-دانشجو *دانشجوی کالج *دانشجوی فارغ التحصیل *دانشگاه-پژوهشگر * نسب شناس-پژوهشگر * بایگانی /librarian * other [کاربر میتواند مشخص کند یا خالی بگذارد] ما میخواهیم نسبت کاربرانمان را بدانیم که مناسب هستند در هر دسته، و ما می خواهیم تا حدی درک کنیم که اعداد ما چقدر دقیق هستند. ما همچنین می خواهیم بدانیم که آیا این نسبت ها در زمان های مختلف سال تغییر می کنند یا خیر. اولین سوال من این است که آیا این مشکلی است که می توانم از آمار بیزی استفاده کنم؟ ما یک نظرسنجی پاپ آپ انجام دادیم که حدود 6 ماه پیش به مدت دو هفته در هر صفحه از هر دو وب سایت ما بود. از یک کوکی فلش برای مشخص کردن زمان انجام نظرسنجی استفاده می کرد تا کاربران فقط یک بار آن را دریافت کنند. این به google analytics وارد شد تا بتوانیم درصد استفاده از سایتها را از هر نوع کاربر ببینیم. با این حال، وبسایتهای ما در آزمایشگاههای رایانه کتابخانهای بسیار استفاده میشوند، جایی که آنها با فلش روی یک سیستم فایل فقط خواندنی راهاندازی میشوند که در نهایت با نمایش نظرسنجی در هر صفحه انجام میشود، زیرا ما واقعاً نمیتوانیم در شی مشترک فلش بنویسیم. آیا می توانم از داده های نظرسنجی پاپ آپ تفنگ ساچمه ای به عنوان پیشین استفاده کنم؟ و سپس نظرسنجی پاپ آپ را برای یک نفر از هر 1000 بازدیدکننده منحصر به فرد هر سایت اجرا کنید؟ من 6 تا 8 نتیجه نظرسنجی جدید در روز دارم که میخواهم از آنها برای بهروزرسانی مداوم مدل بیزی از کاربرانمان استفاده کنم. مسئله این است که من 20 سال است که کلاس آمار نداشته ام و بعد از آن کلاس آمار کلاسیک بود. من در مورد متغیرهای تصادفی گسسته در گوگل جستجو کرده ام و http://www.greenteapress.com/thinkbayes/ را خوانده ام، اما واقعاً نمی دانم در مورد چه چیزی صحبت می کنم. آیا من با این ایده در مسیر درستی هستم (اگر چنین است، هیچ اشارهای برای ادامه کار وجود دارد؟ من در یک کتابخانه کار میکنم تا بتوانم هر مرجعی را که میتوانید به آن اشاره کنید، جستجو کنم) یا این به نظر میرسد که به نظر میرسد غوغا/بیهوده است؟ * * * به روز رسانی: در اینجا داده های نظرسنجی که ما در دسامبر 2011 انجام دادیم، وب سایت A: 65 k-12 معلم یا کتابدار 71 k-12 دانش آموز 532 دانشجوی کالج یا فارغ التحصیل (ما می خواهیم این را در آینده تقسیم کنیم) 307 هیئت علمی یا دانشگاهی محقق 369 بایگان یا کتابدار 234 نسب شناس یا محقق خانواده 584 دیگر وب سایت B: 133 k-12 معلم یا کتابدار 280 k-12 دانش آموز 445 دانشجوی کالج یا فارغ التحصیل 82 استاد یا محقق دانشگاهی 55 بایگان یا کتابدار 68 نسب شناس یا محقق خانواده 220 دیگر | نظرسنجی کاربران بیزی با فاصله زمانی معتبر |
4075 | من دو جمعیت دارم، یکی با N (بدون مشاهدات)=38704 و دیگری با N=1313662. این مجموعه داده ها دارای 25 متغیر هستند که همگی پیوسته هستند. من میانگین هر یک را در هر مجموعه داده گرفتم و آمار آزمون را با استفاده از فرمول (t = میانگین تفاوت / خطای std) محاسبه کردم. مشکل درجه آزادی است. با فرمول df=N1+N2-2 آزادی بیشتری نسبت به جدول خواهیم داشت. پیشنهادی در این مورد دارید؟ چگونه آمار t را در اینجا بررسی کنیم. من میدانم که آزمون t برای کنترل نمونهها استفاده میشود، اما اگر آن را روی نمونههای بزرگ اعمال کنیم چه میشود. | چگونه تست t را با نمونه های عظیم انجام دهیم؟ |
87447 | بنابراین یک روز پس از یک شام خوشمزه پر از موز، یک ایده به ذهن شما خطور می کند (شما شخص A هستید) - اگر خوردن موز بتواند سرطان را درمان کند چه؟ از آنجایی که در قلب یک دانشمند هستید، یک مطالعه دوسوکور انجام می دهید و داده های شما به شما نشان می دهد که موز با احتمال حداقل 99.99٪ سرطان را درمان می کند. وای! - شما فکر می کنید، - من در اینجا به چیز مهمی هستم!. وسایلتان را جمع می کنید و با عجله به سمت سازمان مرکزی تحقیقات سرطان در کشورتان می روید. با ورود به ساختمان فریاد می زنید: مردم!، من درمان سرطان را پیدا کردم!. آنها شما را به سمت رئیس سازمان (شخص ب) هدایت می کنند. شما دادههای خود را به او نشان میدهید، و او میپذیرد که نتیجهگیری شما بر اساس دادههای شما درست است. پسر می گوید: اما، می بینید، - امسال ما حداقل 100000 نفر مانند شما به ما مراجعه کردند و یافته های خود را در مورد درمان سرطان با انواع میوه ها گزارش دادند. و ما انتظار داریم حداقل برخی از آنها این کار را داشته باشند. داده هایی که نشان می دهد آنها سرطان را با احتمال 99.99٪ کاملاً تصادفی درمان می کنند، بنابراین من متقاعد نشده ام، و شما باید تحقیقات بیشتری انجام دهید. پس چی؟ - شما می گویید، - من همه آن آزمایش ها را انجام ندادم، فقط یک آزمایش انجام دادم، و به من نشان داد که موز سرطان را با احتمال 99.99٪ درمان می کند. بنابراین من مطمئن هستم که موز سرطان را با احتمال 99.99٪ درمان می کند. در مطالعات دیگر از میوه های مختلف استفاده شده است و هیچ کدام از آنها از موز استفاده نکرده اند، بنابراین آنها به این موضوع بی ربط هستند. فرض کنید هر دو شخص A و B کاملاً منطقی هستند و کاملاً به یکدیگر اعتماد دارند. عموماً فرض بر این است که دو عامل عقلایی که دانش یکسانی دارند باید به نتایج یکسانی برسند. در این مورد، هر چند به نظر من چیزی وجود ندارد که شخص B بتواند به شخص A بگوید که شخص A را وادار به پذیرش موقعیت شخص B کند. من فکر میکنم اتفاقی که خواهد افتاد این است که شخص A قبول کند که شخص B باید واقعاً این موقعیت را داشته باشد که مشخص نیست موز سرطان را درمان میکند یا خیر. و شخص B می پذیرد که شخص A با این باور که موز سرطان را با احتمال 99.99 درصد درمان می کند موجه است. بنابراین به نظر من این یک تناقض به نظر می رسد: از یک طرف فاعل های عقلایی که اطلاعات یکسانی به آنها داده می شود باید به یک نتیجه برسند، و از طرف دیگر ما اینجا داریم که فاعل های عقلایی اطلاعات یکسانی دارند اما به نتایج متفاوتی می رسند. آیا راهکاری برای این موضوع می بینید؟ | یک تناقض ظاهری با عوامل منطقی که با توجه به داده های یکسان به یک نتیجه نمی رسند |
24194 | فرض کنید من می خواهم بدانم که آیا درصد برد یک تیم بیسبال در فصل قبل یا انتظار فیثاغورثی آن تیم از فصل قبل، پیش بینی بهتری برای درصد برد فصل بعد است. (من درصدها را می گیرم زیرا تعداد بازی های انجام شده در هر فصل در گذشته تغییر کرده است، بنابراین آسان تر به نظر می رسد). برای هر یک از این متغیرهای مستقل، دلیل خوبی برای مشکوک بودن رابطه خطی آنها با متغیر وابسته وجود دارد، بنابراین به نظر می رسد رگرسیون خطی کارساز باشد. متغیر وابسته همیشه در بازه [0،1] قرار دارد، بنابراین رگرسیون لجستیک نیز به نظر می رسد که کار کند. اما متغیر وابسته دقیقاً یک احتمال نیست (خب، فکر میکنم این احتمال است که تیم یک تیم حریف ناشناخته را شکست دهد)، و همچنین هرگز در واقع خیلی نزدیک به 0 یا 1 نیست (تقریباً بدون استثنا بین 0.3 و .7). بنابراین، با در نظر گرفتن همه اینها، کدام روش طبیعی تر برای استفاده است، رگرسیون خطی یا رگرسیون لجستیک؟ آیا هر دو رویکرد معتبری هستند؟ | درصد برنده - رگرسیون لجستیک یا رگرسیون خطی؟ |
88321 | چگونه می توانم اندازه نمونه را برای طراحی ANOVA اندازه گیری های مکرر محاسبه کنم، با توجه به توان، اهمیت و اندازه اثر مورد نیاز (2 گروه، من تفاوت میانگینی را که می خواهم بتوانم انحراف استاندارد را بدست بیاورم و تقریبی می دانم) می دانم؟ | چگونه می توان اندازه نمونه را برای طرح آنووا اندازه گیری مکرر دو گروهی با توجه به اندازه قدرت، آلفا و اثر انتخاب کرد؟ |
86316 | ما در حال نظارت بر کیفیت هوا هستیم: اساساً غلظت. ما سریهای زمانی را جمعآوری میکنیم و به صورت دورهای آنالایزرها را کالیبره میکنیم تا فرآیند را کنترل کنیم. با دانستن مشخصات یا ارزیابی تجربی آن، برای هر تحلیلگر، مقداری آستانه پایین در محدوده دینامیکی (وسعت اندازهگیری) داریم که در آن دادهها به دلیل تنوع روش، نقص و محدودیتها بیمعنی میشوند. غلظت ها مقادیر مثبت واقعی فیزیکی هستند. بنابراین تمرکز واقعی نمی تواند منفی باشد: هر توزیعی که داشته باشد، باید مثبت باشد. آنالایزر واقعی هستند و هنگام اندازه گیری غلظت بسیار کم، گاهی اوقات می تواند به دلیل تغییرپذیری فرآیند، غلظت منفی یا صفر تولید کند (فرض می کنیم هیچ سوگیری در روش وجود ندارد). در شیمی تجزیه، سؤال حد تشخیص اغلب مطرح می شود. کوتاه کردن بخشی از سری دادهها به زیر آستانه «خودسرانه» (مدلسازیشده یا ارزیابی تجربی) یک روش معمول است. البته این داده های سوگیری را کوتاه می کند، که منجر به انتظارات بالاتر می شود. اما استفاده از سوگیری داده های بی معنی نیز. می دانیم که برخورد با DL راه حل کاملی نیست، این یک تکنیک فیلترینگ با مزایا و معایب است. سوال من این است: وقتی (1) null یک مرز سخت است که نمی توان از آن عبور کرد (توزیع غلظت واقعی مثبت است). (2) تغییرپذیری فرآیند نزدیک به مرز پایینی محدوده دینامیکی ابزار را نمی توان فرض کرد: متقارن یا مستقل از غلظت، آیا معقول است که یک حد تشخیص منفی یا صفر برای کوتاه کردن داده هایمان تعیین کنیم؟ اگر چنین است، چه فرضیه ای باید وجود داشته باشد؟ | آیا حد تشخیص منفی برای غلظت ها سازگار است |
39314 | من CFA را انجام میدهم تا با استفاده از روش ساخت پنهان اندازهگیری نشده، سوگیری روش رایج را آزمایش کنم. میانگین واریانس مشترکی که من از فاکتور مشترک دریافت می کنم حدود 31 درصد است که زیاد است (همانطور که باید کمتر از 25 درصد باشد). من تفاوت در مقادیر p بارهای صفت (بین مدل CFA با ULC و بدون ULC) را بررسی کردم و مقادیر p فقط برای یک مقیاس ناچیز می شوند. برای کنترل آماری اثر واریانس روش رایج در این مورد چه کاری می توانم انجام دهم؟ من در حال انجام تحلیل اعتدال هستم و 6 متغیر دارم | چگونه سوگیری روش رایج را کنترل کنیم؟ |
73980 | من یکپارچه سازی را بر اساس انگل/گرنجر و یوهانسن پیدا کرده ام. با این حال، علیت گرنجر برای هر دو متغیر رد می شود. چگونه ممکن است؟ بر اساس تئوری، اگر x و y I(1) و هم انباشته باشند، x علّی گرنجر به y و/یا y گرنجر علی به x است. با این حال، علیرغم رابطه هم انباشتگی آنها، علیت گرنجر در مورد دو متغیره من رد شده است. آیا به درستی متوجه شدم که باید حداقل یک جریان علیت گرنجر در یک سیستم یکپارچه دو متغیره وجود داشته باشد؟ از پاسخ شما متشکرم! با اعمال یک VECM، نتایج زیر را دریافت میکنم: تنها 0.022460- قابل توجه است... تخمینهای تصحیح خطای برداری تاریخ: 13/10/28 زمان: 23:58 مشاهدات شامل: 1113 پس از تنظیمات خطاهای استاندارد در ( ) و t- آمار در [ ] معادله همجمعی: CointEq1 CAD(-1) 1.000000 NATGAS(-1) 0.067366 (0.02646) [ 2.54615] C -0.077093 تصحیح خطا: D(CAD) D(NATGAS) CointEq1 -0.022460 -0.0060601 (0.006051) [-4.37213] [-0.47714] D(CAD(-1)) -0.054710 0.029241 (0.02998) (0.08073) [-1.82508] [ 0.36220] D(CAD(-2) 03138650. (0.02996) (0.08070) [ 1.18998] [ 1.26200] D(NATGAS(-1)) -0.004642 -0.077700 (0.01120) (0.03016) [-0.41457) [-0.41457] (NATGAS) 5 0.004712 0.056858 (0.01120) (0.03016) [ 0.42067] [ 1.88491] C 0.000176 -0.000850 (0.00019) (0.00019) (0.00051] (0.00051) [351-351] 0.022437 0.011948 | همجمعی اما گرنجر-علیت یافت نشد |
88323 | این یک سوال بعدی است که چگونه می توانم آزمایش کنم که دو توزیع غیر عادی متفاوت است؟ من 13 توزیع دارم، . برای سوال قبلی، من باید 1. تست Kruskal-Wallis را با 13 نمونه انجام دهم عملاً 0. در ابتدا، این درست به نظر نمی رسید، برای مثال، توزیع های A و B بسیار شبیه به هم هستند (سوال فرعی: آیا باید از «جایگزین = «بزرگتر» در R استفاده کنم؟ من می خواهم تقریباً استدلال کنم که D است. بزرگتر از A.) اکنون، بر اساس یک سوال دیگر، من معتقدم که این به دلیل این واقعیت است که اندازه های نمونه من بر اساس همان سوال، به نظر می رسد که باید اندازه اثر را محاسبه کنم از این دستورالعملها پیروی کردم، برای مثال، 0.0005 چگونه میتوانم این مقادیر را تفسیر کنم، حتی وقتی که A و D را با هم مقایسه میکنم. نظر whuber، من می خواهم بیان کنم که D > L > K > J > ... > [A,B,C]. به عبارت دیگر، آنهایی که در D هستند به طور کلی بزرگتر از L هستند. در مورد A,B,C باید بگویم که تفاوت معنی داری وجود ندارد. اما باز هم، من می خواهم بر اساس آمار و نه فقط مشاهده بصری استدلال کنم. | اگر دو توزیع غیر نرمال با هم تفاوت داشته باشند، پس از آزمایش چه می کنید؟ |
49270 | من دو سوال در مورد استفاده از جنگل تصادفی (مخصوصا randomForest در R) برای انتساب مقدار گمشده (در فضای پیش بینی) دارم. 1) الگوریتم انتساب چگونه کار می کند - به طور خاص چگونه و چرا برچسب کلاس برای انتساب مورد نیاز است؟ آیا ماتریس مجاورتی که برای وزن دادن به مقدار متوسط برای القای مقدار گمشده به کار می رود، به طور جداگانه توسط کلاس تعریف می شود؟ 2) اگر برچسب کلاس برای منتسب کردن مقادیر از دست رفته مورد نیاز است - چگونه می توان از آن برای نسبت دادن مقادیر گمشده برای داده های جدیدی که می خواهید پیش بینی کنید استفاده کرد؟ | انتساب با جنگل های تصادفی |
73989 | نمودار زیر داده های عنوان GPS را نشان می دهد (در هر ثانیه نمونه برداری می شود) و من سعی می کنم بهترین راه را برای تشخیص چرخش (راست / چپ) در داده ها پیدا کنم. پیشنهادات برای الگوریتم ها/روش ها را برای آن قدردانی می کنید (شاید تشخیص مرحله)؟  در حالی که پیچها معمولاً منجر به تغییر شدید در مقدار مسیر میشوند، مسیر ممکن است به دلیل انحنای جاده نیز به تدریج تغییر کند که نباید تغییر کند. شناسایی شد. | چگونه تغییرات مرحله ای را در داده های سری زمانی GPS تشخیص دهیم؟ |
77150 | من به چندین جریان داده زنده نگاه می کنم که به صورت روزانه آنها را پردازش می کنم و می خواهم در زمان واقعی نظارت کنم. روشی که من در ابتدا این کار را انجام دادم این بود که یک حد بالایی دلخواه برای هر یک از جریانها را معرفی کردم. نظارت به زمان سپری شده بین موارد استریم متوالی نگاه میکرد و اگر از آستانه خود فراتر رفت، در مورد دادههای احتمالاً از دست رفته در آن جریان هشدار میداد. مشکل این رویکرد این است که جریانها در برخی از نقاط روز بسیار فعال هستند و در نقاط دیگر نسبتاً ساکت هستند، بنابراین یک محدودیت کدگذاری سخت بهطور غیرضروری بالا میرود تا از هشدارهای اشتباه در طول دورههای آرام جلوگیری شود. روش دومی که من آن را دوباره کار کردم، معرفی آستانه های نرخ داده سطلی برای هر جریان داده بود. بنابراین، برای مثال، چیزی شبیه به: استریم A آستانه 4 صبح، جریان A آستانه 7 صبح، استریم یک آستانه 5 بعدازظهر... و آستانه استفاده شده در طول روز به زمان بستگی دارد. این معقول تر است، اما مشکلی که اکنون دارم این است که زمان های مناسب برای هر جریان را به روشی بهتر از انتخاب خودسرانه آنها برای هر جریان داده ارائه می کنم. برای یک جریان معین، من تصور می کنم که از داده ها عبور کنم و سطل های معقول همراه با آستانه آنها تولید کنم (در حال حاضر از دو برابر حداکثر زمان بین آیتم ها استفاده می کنم زیرا توزیع آنها تقریباً عادی نیست، بنابراین من به نحوه انجام آنها توجه نکرده ام. یک زمان آستانه دریافت کنید که با احتمال کم خاصی مطابقت دارد) اما من نمیخواهم برای این کار از کجا شروع کنم؟ و آیا این مشابه یا مشابه با یک مشکل مطالعه شده با راه حل هایی است که ممکن است بخواهم استفاده کنم؟ | الگوریتمها/روشهایی برای تشخیص تغییرات رژیم در نرخ داده |
73987 | من سعی می کنم تجزیه و تحلیل MNL را مانند این مقاله یا این مقاله بازسازی کنم. در اکسل من یک برگه با ستون انتخابی من دارم که شامل سهم بازار در هر برنامه سفر است. از طرف دیگر، تعداد مسافران در آن برنامه سفر را نیز دارم که میتوان بهعنوان متغیر انتخابی استفاده کرد. سپس، من چندین متغیر دارم که کاربرد برنامه سفر داده شده را توصیف می کنند که شبیه به آنچه در مقالات بالا به عنوان متغیرهای مستقل من هستند. مشکلی که من دارم این است که به جای اینکه ضرایب متغیرهای مستقل خود را برای کل مجموعه داده مانند نشان داده شده در صفحه 22 مقاله اول یا صفحه 18 مقاله دوم نشان دهم، متغیرها را برای هر متغیر انتخابی دریافت می کنم. یک لیست بزرگ در حال حاضر من سعی می کنم از بسته mlogit در R استفاده کنم. من همچنین XLSstats را با چالش های مشابه امتحان کرده ام. به نظر می رسد Accord.NET خروجی مورد علاقه من را تولید می کند، اما به نظر می رسد که نوعی رگرسیون لجستیک دوجمله ای انجام می دهد و نه MNL. **نمونه داده ساده** متغیر پاسخ: پیشبینیکننده سهم بازار 1: مبدا/مقصد/ حامل (نه در مدل استفاده نمیشود) پیشبینیکننده 2: آیا نوستاپ است؟ (متغیر باینری) پیشبینیکننده 3: NumberOfSeats * * * 50% DEN/JFK/AA 1 5000 20% DEN/JFK/UA 0 3000 30% DEN/JFK/DL 0 8000 25% DFWLAX/F9 0 10000 75% DFW/LAX/WN 1 25000 **خروجی دلخواه** آیا Nonstop است؟ 2.30 تعداد | تجمیع یا ادغام ضرایب مدل لجستیک چند جمله ای |
19456 | این احتمالاً یک سؤال احمقانه است، اما اینجا پیش میآید: بنابراین میخواهیم انتظار زیر را تقریب بزنیم: $$\mathbb{E}[h(x)] = \int h(x)\pi(x) dx$$ Where $ h(x)$ یک تابع دلخواه و $\pi(x)$ یک توزیع است، همچنین برای سادگی، فرض می کنیم که در واقع ثابت نرمال کننده برای $\pi(x)$ را می دانیم. البته ما می خواهیم از توزیع بهینه پیشنهاد نمونه برداری کنیم: $$g(x) = \frac{|h(x)|\pi(x)}{Z}$$، اما البته این یک از فرمی که میتوانیم نمونهبرداری کنیم و حتی نمیتوانیم وزنهای اهمیت را محاسبه کنیم، زیرا باید بدانیم $Z$: $$ w(x) = \frac{Z \ \pi(x)}{|h(x)|\ pi(x)}$$ اما، اگر فرض کنیم $g(x)$ را می توان از آن نمونه برداری کرد، آیا می توانیم از تخمینگر نمونه برداری اهمیت نسبت استفاده کنیم؟: $$ \frac{\int w(x)h(x)g(x) dx}{\int w(x)g (x)dx}$$ برای واضح بودن، تخمینگر را میتوان با اجازه دادن $\{x^{(i)}\}_{i=1}^N$ مجموعهای از نمونههای توزیع با چگالی نیز نوشت. $g(x)$ (به طور جادویی). اجازه میدهیم $$w(x^{(i)}) = \frac{1}{|h(x^{(i)})|}$$ تخمینگر نهایی را بسازد: $$ \mathbb{E}[h (x)] \approx \frac{\sum_{i=1}^N w(x^{(i)})h(x^{(i)})}{\sum_{i=1}^N w(x^{(i)})} $$ بنابراین، آیا این درست است که برآوردگر فوق مجانبی بی طرفانه (سازگار) است؟ یا چیزی را از دست داده ام؟ اگر واقعاً بیطرفانه است، آیا میتوان از آن در ارتباط با رویکردهای مونت کارلو برای نمونهبرداری از $g(x)$ استفاده کرد، زیرا میتوان از آنها (در تئوری) برای نمونهبرداری از هر توزیع شناخته شده تا یک ثابت نرمالکننده استفاده کرد. ویرایش: یک اشتباه تایپی برطرف شد، همچنین، من توانستم ثابت کنم که این یکنواخت است، بنابراین سوال جدید من این است: آیا این ایده خوبی است؟ آیا مقاله ای برای تحلیل این موضوع وجود دارد؟ آیا نام استاندارد دارد؟ | نمونه گیری اهمیت بهینه با برآوردگر نسبت |
7408 | در اینجا یک سوال اساسی واقعی وجود دارد. من سعی می کنم با استفاده از Verzani's Using R for Introductory Statistics کمی آمار را به خودم آموزش دهم. در سوال 5.13 می پرسد: یک نمونه 100 نفری از جمعیت 600000 نفری انتخاب شده است. اگر مشخص شود که 40 درصد جامعه دارای یک ویژگی خاص هستند، احتمال اینکه 35 نفر یا کمتر از نمونه دارای آن ویژگی باشند چقدر است. حالا، حدس میزنم شما باید استدلال کنید که جمعیت آنقدر زیاد است که فرض کنیم آزمایشهای مستقل برنولی به اندازه کافی نزدیک باشد. سپس، شما پاسخ خود را به این صورت دریافت می کنید: > pbinom(35,100,0.4) [1] 0.1794694 سوال من این است. چگونه می خواهید به چنین سؤالی بدون فرض استقلال پاسخ دهید، مثلاً اگر جمعیت کمتر بود؟ مطمئنم بعد از خواندن بیشتر مشخص خواهد شد. فقط سعی می کنم مطمئن شوم چیزی را از دست ندهم. با عرض پوزش برای سوال سطح مقدماتی. با تشکر | نمونه گیری از جمعیت ثابت |
21327 | من مجموعه ای از داده ها را دارم که در آن فرد فاقد معلولیت، ناتوانی خفیف یا ناتوانی شدید است. من می خواهم مدل ناتوانی های خفیف و شدید را مشخص کنم. من سه لاجیت را با استفاده از همان مجموعه متغیرهای مستقل (X) تخمین زدم. در مدل اول، متغیر وابسته Y1 = 1 اگر ناتوانی دارند (خفیف یا شدید) و 0 در غیر این صورت، سپس دو مدل دیگر را تخمین زدم. اولی دارای متغیر وابسته Y2=1 در صورت داشتن ناتوانی خفیف یا 0 در غیر این صورت است. و سپس یک logit را با Y3=1 در صورت ناتوانی شدید و 0 در غیر این صورت تخمین زدم. (به عبارت دیگر Y1=Y2+Y3) چگونه می توانم از نتایج برای آزمایش اینکه آیا با تخمین دو مدل به طور جداگانه چیزی به دست می آید یا بهتر است مدل اول را تخمین بزنم، از نتایج استفاده کنم تا ضرایب را برای مدل های 1 و 1 محدود کنیم. 2 همینطور بودن | تخمین یک لاجیت در مقابل دو لاجیت با استفاده از 2 متغیر وابسته (یعنی محدود کردن دو لاجیت برای داشتن ضرایب یکسان |
39316 | من مجموعه ای از 10 آیتم با وزن 0-1 دارم. یک نفر می تواند به هر یک از این 10 مورد با امتیاز 0-100 امتیاز دهد، اما مثلاً فقط 500 امتیاز برای تخصیص بین این 10 مورد به او داده می شود. متوسط یک نفر می تواند به هر آیتم 50 امتیاز دهد و شخص دیگری می تواند به 5 مورد برتر با بالاترین وزن با تمام 100 امتیاز دهد. وزنها به گونهای است که تفاوت در مجموع امتیازهای دریافتی از طریق رتبهبندی همه آیتمها با 50 و تنها 5 مورد برتر دارای بالاترین وزن با 100 امتیاز و 5 مورد باقیمانده با 0، با توجه به اینکه اختلاف وزنها (همه بین 0-1) زیاد نیست. با توجه به اینکه یک فرد می تواند به طور تصادفی به همه آیتم ها با 50 امتیاز دهد و همچنان یک امتیاز کلی بسیار نزدیک به بالاترین امتیاز ممکن بدست آمده از رتبه بندی 5 آیتم وزن دار برتر با همه 100 امتیاز دریافت کند، مشکل ساز است. آیا روشها/روشها/الگوریتمهای جایگزین موجود برای حل چنین مشکلی وجود دارد تا فردی که به همه موارد 50 امتیاز میدهد امتیازی بسیار دور از حداکثر امتیاز ممکن کسب کند؟ | سوال با جمع ثابت |
4072 | من میخواهم در مورد اینکه آیا افراد در مجموعه دادههای من از استانداردهای قانونی برای تعهد فراتر میروند، که تا حد زیادی با خطر تخمینی تکرار جرم تعیین میشود، ادعا کنم. من یک مدل لاجیت را تخمین زده ام که تکرار جرم را پیش بینی می کند. در اینجا کد نمونه ای نوشته شده است که سعی دارد مشخص کند چند درصد از افراد با اطمینان 75 درصد، تکرار جرم را حداقل 75 درصد پیش بینی کرده اند: 1 if 1/(1 + exp(ln((1-sr1)/sr1) - 0.67448975*stdsr1)) > 0.75 .sum sr1C1R1 if sr1!=. & sexrecS!=. من بعداً 0.67448975 را با 1.281551566 جایگزین کردم تا استاندارد قانونی بالاتری برای اثبات منعکس کند، اما کد تعداد بازدیدهای بیشتری را ایجاد می کند، نه کمتر، بنابراین می دانم که کار اشتباهی انجام داده ام. | چگونه می توان فواصل اطمینان را در پیش بینی های ایجاد شده توسط لاجیت در Stata محاسبه کرد؟ |
33435 | آیا بیزیها تا به حال استدلال میکنند که رویکرد آنها رویکرد مکررگرایی را تعمیم میدهد، زیرا میتوان از پیشینهای غیر اطلاعاتی استفاده کرد و بنابراین، میتوان یک ساختار مدل متداول معمولی را بازیابی کرد؟ آیا کسی می تواند مرا به جایی معرفی کند که بتوانم در مورد این استدلال مطالعه کنم، اگر واقعاً استفاده شده است؟ ویرایش: این سوال ممکن است دقیقاً به شکلی نباشد که من قصد داشتم آن را بیان کنم. سوال این است: آیا اشاره ای به بحث در مورد مواردی وجود دارد که در آن رویکرد بیزی و رویکرد مکرر با هم تداخل دارند/تقاطع می یابند/از طریق استفاده از یک پیشین خاص چیزی مشترک دارند؟ یک مثال می تواند استفاده از قبلی نامناسب $p(\theta) = 1$ باشد، اما من تقریباً مطمئن هستم که این فقط نوک کوه یخ است. | آیا بیزی ها تا به حال استدلال می کنند که مواردی وجود دارد که در آن رویکرد آنها با رویکرد مکرر گرایی تعمیم یا همپوشانی دارد؟ |
86312 | من چند متغیر عینی و ذهنی دارم. هدف من ایجاد یک شاخص آماری است که متغیرها و روابط متقابل متغیرها را به طور دقیق تعریف کند. به عنوان مثال، فرض کنید که من در حال ایجاد یک شاخص معنویت هستم که شامل متغیرهای جمعیت شناختی و همچنین متغیرهای ذهنی مانند ادراکات مذهبی و غیره است. با توجه به روابط بین همه متغیرها، چگونه می توانم یک مقدار شاخص ایجاد کنم؟ پیشاپیش ممنون | ایجاد شاخص با متغیرهای عینی و ذهنی |
88320 | من یک مجموعه داده پانل (کشور و سال) دارم که میخواهم تجزیه و تحلیل خوشهای را براساس کشور انجام دهم. مجموعه داده های من حدود 20 متغیر دارد. در اینجا خلاصه ای برای داده های پانل من آمده است: «متغیر پانل: متغیر زمانی کشور (به شدت متعادل): سال، 2010 تا 2013.» اجرای تجزیه و تحلیل خوشه ای kmeans فقط بر روی داده های 2013 بسیار ساده است. اما چگونه تحلیل را با توجه به همه مشاهدات در دوره 2010-2013 انجام می دهید؟ آیا خوشه بندی k-means رویکرد مناسبی است؟ این چیزی است که من فقط برای سال 2013 در Stata اجرا کردم: `خوشه kmeans var1 var2 var3 var4 var5 var6 if year==2013, k(4) name(test1)` با تشکر! | تجزیه و تحلیل خوشه ای بر روی داده های تابلویی |
77156 | یک شرکت معروف تولید خودرو 3 مدل مختلف خودرو را در 5 رنگ و 3 سی سی احتمالی (1900 سی سی، 2000 سی سی و 2200 سی سی) تولید می کند. فرض کنید هر ترکیبی از مدل، رنگ و سی سی احتمال یکسانی برای انتخاب مشتری دارد: * اگر در یک هفته 6 خودرو فروخته شود، احتمال اینکه حداقل دو خودرو با هم برابر باشند چقدر است (رنگ، سی سی و مدل یکسان) پاسخ من: مجموع ترکیبات ممکن 45^6 است، به جای یافتن حداقل دو ماشین، 1 را پیدا می کنم-(احتمال به دست آوردن ماشین های برابر صفر + احتمال به دست آوردن یک ماشین مساوی) : P(0 اتومبیل مساوی دریافت کنید) = 44^6 P(1 اتومبیل مساوی دریافت کنید) 44^5 بنابراین پاسخ این است: $1-(44^6+44^5/45^6) = 1-0.893 = 0.107$ آیا من است پاسخ درست است؟ با تشکر | احتمال به دست آوردن اتومبیل های برابر |
100536 | من تأثیر ADHD را بر وزن غیرطبیعی بدن در یک نمونه ملی بسیار بزرگ از کودکان بررسی کردم. در رگرسیون چند جمله ای خود، چندین اختلال خاص را کنترل کردم که در مطالعات قبلی نشان داده شده است که هم با ADHD و هم با وزن بدن مرتبط است. یکی از این آشفتگی ها، داروی ADHD بود. اگرچه به طور قابل توجهی با کمبود وزن (و نه چاقی؛ هر دو نسبت به وزن نرمال) مرتبط بود، نتایجی که من دریافت کردم زمانی که تجزیه و تحلیلهایم را مجدداً پس از حذف کودکانی که هم از داروهای ADHD و هم داروهای «دیگر» استفاده میکردند، متفاوت بود. زمانی که از نظر آماری مصرف دارو را کنترل میکردم، داروهای ADHD شانس کموزنی را افزایش میدهند و داروهای «سایر» شانس کموزنی را کاهش میدهند (هیچکدام بر چاقی تأثیری نداشتند)، و رابطه بین ADHD و کمبود وزن در مدل معنیدار بود. با این حال، وقتی بچهها را از این داروها حذف کردم، ارتباط کموزنی و ADHD غیر قابل توجه شد (برای کسانی که سایههای خاکستری را میپسندند، خیلی، حتی «در حاشیه»). آیا هنگام تلاش برای کنترل سایر متغیرها در رگرسیون چند جمله ای مشکلات خاصی وجود دارد که ممکن است منجر به این وضعیت شده باشد؟ واضح است که این مدل استفاده از دارو را «کنترل میکند»، زیرا هر دو نوع دارو به طور قابل توجهی با نتیجه مرتبط بودند (احتمال کمبود وزن در مقابل وزن طبیعی)، اما به نظر میرسد که به طور کامل تأثیر استفاده از دارو در ارتباط بین ADHD و وزن غیر طبیعی | مشکل با کنترل مخدوش در تجزیه و تحلیل رگرسیون چند جمله ای. نتایج متفاوت هنگام برداشتن کودکان از داروها |
77154 | برای ساخت دو مدل رگرسیون خطی، (var وابسته: B، vars مستقل: A1، A2، A3) باید نقطه برش A1 را تنظیم کنم. (A1 بالا و A2 پایین) من می خواهم مدل*s* (مدلی برای A1 بالا و دیگری برای A2 کم) با کمترین مجموع باقیمانده مربع*s* را انتخاب کنم به طور خلاصه، چگونه می توانم نقطه برش بهینه برای به دست آوردن بهترین مدل های رگرسیون خطی برای هر گروه؟ مقاله ای که می خواهم تکرار کنم در زیر آمده است، این توضیحات همه است. A dep Var است و B ind var است. دو مدل رگرسیون خطی را در نظر گرفتیم، یکی برای افراد زیر یک سطح معین از A و دیگری برای افراد بالاتر از آن سطح. برای تعیین برش های خاص، ما دو مدل رگرسیون خطی شرح داده شده در بالا را برازش کردیم و مجموع مجذورهای باقیمانده را محاسبه کردیم (= مشاهده شده B - تخمینی B) از دو مدل برای هر سطح A. مدل هایی با کمترین مجموع مربعات باقی مانده بهترین مدل های ما بودند، و سطح مربوط به A به عنوان مقادیر قطع بهینه تعریف شد. آدرس مقاله این است: http://link.springer.com/article/10.1007/s00223-012-9669-3 | چگونه می توانم برش بهینه را با استفاده از مدل های رگرسیون خطی تخمین بزنم |
73983 | در یک سخنرانی اخیر به من گفته شد که برای اینکه تخمین حداکثر درستنمایی معتبر باشد، احتمال ورود به سیستم باید به منهای بینهایت برود زیرا پارامتر به مرز فضای پارامتر میرود. اما من نمی فهمم چرا این ضروری است. فرض کنید احتمال ثبت به نوعی مجانب می رود. سپس پارامتری که احتمال را به حداکثر می رساند همچنان تخمین حداکثر درستنمایی است، درست است؟ | چرا وقتی پارامتر به مرز فضای پارامتر نزدیک میشود، احتمال ورود باید به منهای بینهایت برود؟ |
50244 | این یک سوال اساسی است. به من یک رگرسیون لجستیک باینری داده شده است. مدل دارای شرایط قابل توجهی است، اما خوب بودن آزمون های برازش نشان می دهد که مدل لاجیت مناسب نیست. نویسنده این مطالعه نشان میدهد که خوب بودن دادههای برازش، رابطه بین متغیر وابسته و پیشبینیکنندهها را باطل نمیکند، تنها توانایی مدل برای پیشبینی دقیق نتایج را نشان میدهد. بحث این است که از آنجایی که ما فقط به تأیید یک رابطه علاقه مند بودیم و نه بزرگی، نتیجه قطعی است. من به این شک دارم. آیا بهتر نیست بگوییم که عدم تناسب لزوماً روابط را باطل نمی کند؟ با یک تابع پیوند متفاوت، آیا شمارش مشاهده شده و مورد انتظار نمی تواند به اندازه کافی تغییر کند تا برخی از عبارت های ناچیز به معنی یا برعکس منتقل شوند؟ | تفسیر نتایج یک رگرسیون لجستیک باینری |
43733 | مستندات R برای هرکدام از آنها روشن نمی شود. تنها چیزی که می توانم از این پیوند دریافت کنم این است که استفاده از هر یک باید خوب باشد. چیزی که من متوجه نمی شوم این است که چرا آنها برابر نیستند. واقعیت: تابع رگرسیون گام به گام در R، «step()» از «extractAIC()» استفاده می کند. جالب توجه است که اجرای یک مدل «lm()» و یک مدل «glm()» «null» (فقط رهگیری) روی مجموعه داده «mtcars» R نتایج متفاوتی برای «AIC» و «extractAIC()» به دست می دهد. > null.glm = glm(mtcars$mpg~1) > null.lm = lm(mtcars$mpg~1) > AIC(null.glm) [1] 208.7555 > AIC(null.lm) [1] 208.7555 > extractAIC (null.glm) [1] 1.0000 208.7555 > extractAIC(null.lm) [1] 1.0000 115.9434 عجیب است، با توجه به اینکه هر دو مدل بالا یکسان هستند، و «AIC()» نتایج یکسانی را برای هر دو به دست میدهد. آیا کسی می تواند موضوع را روشن کند؟ | تفاوت AIC() و extractAIC() در R چیست؟ |
77151 | من مجموعه داده ای از حدود 1000 عضو دارم و مدل سازی 100 متغیر چند متغیره است که عمدتاً از روش های پارتیشن استفاده می کند و همچنین برخی از آزمایشات شبکه عصبی را با اعتبار سنجی سه طرفه با استفاده از 60-20-20 و 70-15-15 آزمایش کرده ام. این: استفاده از اعتبارسنجی 3 طرفه و اجرای یک مدل تولید شده با استفاده از یک مجموعه اعتبار سنجی خاص و سپس با مجموعه 60-20-20 متفاوت نتایج کاملاً متفاوتی تولید می کند، گاهی اوقات متغیرهای پیش بینی کننده کمک کننده به طور قابل توجهی تغییر می کنند و همچنین r^2 برای بخش آزمایشی می تواند بین 0-0.5 متغیر باشد، این به من می گوید که من ورودی های داده کافی در این مجموعه داده ندارم توجه داشته باشید که قرار دادن همه پیش بینی کننده های 100 در نتایج فقط در نتایج است. 10 یا بیشتر در هر مدلی با اهمیت است که معمولاً بالاترین آن حتی بین مجموعههای اعتبارسنجی مختلف (اما نه همیشه در ترتیبات مشارکتی مشابه) نقش دارد. در نقطه ای که اگر برخی از متغیرهای خطی را حذف کنم، می توانم به طور قابل قبولی از روش بر خلاف k-fold استفاده کنم، [k-fold همیشه بیش از حد تقسیم می شود که نیاز به هرس دستی دارد]. آیا من واقعاً در این زمینه هستم که بتوانم از 3 راه استفاده کنم یا خیر؟ | اعتبار سنجی 3 راه - نتایج مدل بین ستون های اعتبار سنجی بسیار متفاوت است |
19459 | سوالی از یک تازه کار آمار و StackExchange newb، یک انسان شناس با سابقه علوم کامپیوتر. من به دنبال یک معیار آماری مناسب برای همگامی در شرایط زیر هستم: من یک فیلم پانوراما از چند نفر دارم که روی صندلیهای اطراف دوربین نشستهاند و به مدت یک ساعت با هم گفتگو میکنند. من ویدیو را بر اساس افراد تقسیم کردم و دادههای سری زمانی را برای هر فرد ایجاد کردم و میزان حرکت، اشاره و غیره را در طول زمان اندازهگیری کردم (یعنی تعداد پیکسلهای متفاوت بین فریمهای ویدیویی متوالی). بنابراین من نموداری دارم که نشان میدهد یک فرد در هر لحظه بیش از یک ساعت چقدر ساکن یا متحرک است (با استفاده از میانگین متحرک برای صاف کردن همه چیز). من میخواهم «همگامی» گروه را در هر لحظه اندازهگیری کنم، یعنی سریهای زمانی دیگری تولید کنم که نشان دهد حرکات آنها در هر لحظه چقدر «همگام» است. چه نوع معیار آماری برای این کار مناسب است؟ ساده تر / شهودی بهتر. برخی از مفروضات: * اگر فقط یک نفر در حال حرکت است، همزمانی باید نزدیک به صفر باشد. * اگر همه در حال حرکت هستند، همگامی باید نزدیک به حداکثر باشد. توجه داشته باشید که این مورد عمدتاً برای بازرسی و تجزیه و تحلیل _بصری استفاده میشود، تا قسمتهایی از ویدیو را که افراد در آنها همگام هستند برجسته شود. -دانیل | اندازه گیری همگامی با همبستگی سری های زمانی |
39317 | من در حال تولید مدل هستم و هر مدل یک نمونه تصادفی از کل جامعه مدل است. توصیه میشود که 30000 مدل تولید کنم و 5 تا 10 خوشه برتر را برای رسیدن به حالت اصلی انتخاب کنم. من می خواهم عدد 30000 را کمتر تنظیم کنم اما همچنان در محدوده احتمالی ساختار بومی باقی بمانم. اگر $\Pr(\text{Native}\mid 30000)=1$; $\Pr(\text{Native}\mid X)$ چیست؟ من در مورد آمار بیزی مطالعه کردم، اما همه قطعات را ندارم تا قضیه بیز را برای این مسئله کنار هم بگذارم. من همچنین در مورد رویکرد مکرر گرا خوانده ام اما قبلاً از آن استفاده نکرده ام. «تحلیل خوشهای یا خوشهبندی وظیفه تخصیص مجموعهای از اشیاء به گروهها (به نام خوشهها) است، به طوری که اشیاء در یک خوشه شباهت بیشتری به یکدیگر داشته باشند تا در خوشههای دیگر». | نمونه تصادفی حجم زیر نمونه جامعه |
26705 | من پروژهای را اجرا میکنم که تعداد استنادها را در میان مجموعههای داده در سال مقایسه میکند، و سپس میخواهم تغییرات کلی در فرکانس ذکر منبع معین را ترسیم کنم. در اینجا دو مجموعه داده نمونه وجود دارد: 1999 - منبع A {0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 1، 23، 70، 0، 0، 0، 0، 0، 0، 0 , 32, 0, 0, 0, 25, 0, 3, 13, 0, 1, 0, 0، 0، 0، 11، 0، 0، 0، 0، 0، 0، 0، 0، 8، 0، 0، 6، 0، 0، 0، 1، 0، 22، 0، 0، 0، 0، 0، 1، 0، 0، 0، 0، 2، 0، 2، 0، 21، 6، 10، 0، 0، 0، 0، 0، 0، 0، 0، 2، 0، 0، 0، 0} 2000 - منبع A {0، 0، 0، 0، 0، 4، 400، 82، 0 , 0, 2, 0, 0, 0, 2, 6, 0, 0, 12, 24, 0، 0، 0، 0، 0، 0، 4، 4، 0، 0، 0، 0، 142، 0، 0، 0، 0، 2، 0، 0، 0، 2، 2، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 0، 22، 0، 0، 0، 0، 0، 10، 0، 4، 0، 0، 0} در این مورد، زمانی که من تفاوت بین سال های 1999 و 2000 را در یک نمودار خطی ساده رسم می کنم، 2000 به لطف این نمودار بسیار بزرگتر به نظر می رسد. نقاط داده ای که دارای 400، 142 هستند. آیا راه خوبی برای تجسم این نوع داده ها وجود دارد که به نقاط پرت وفادار بماند، اما همچنان روند کلی را نشان دهد. این در حال انجام است (در صورت وجود)؟ پیشاپیش ممنون | تجسم شمارش هایی که دارای برخی نقاط پرت هستند |
19455 | برخی از کاربردهای HMM در زمینه بازاریابی - به ویژه CRM و بازاریابی هدفمند چیست؟ به عنوان مثال، آیا عمدتاً برای پیش بینی یک نتیجه با یک توالی است؟ مثلاً اگر بازدیدکنندگان وب سایت از {صفحه 2، صفحه 54، صفحه 23} بازدید کنند، احتمال اینکه $<next>$ از صفحه 22 بازدید کنند چقدر است؟ یا در آن جلسه به صفحه 22 مراجعه کنید؟ آیا HMM یک تکنیک مستقل است یا معمولاً با چیزهای دیگر همراه است؟ | استفاده از مدل پنهان مارکوف در CRM |
43730 | من یک جستجوی تصادفی در فضای فرضیه $$\{(c,h)| انجام داده ام c \ در U[1,256]; h\in U[1,100];c \in \mathrm{Z} \text{ و } h \in \mathrm{Z}\}$$ که پارامترهای یک شبکه عصبی استاندارد چندلایه پرسپترون (MLP) را تعریف میکند. در هر مرحله از جستجوی تصادفی، دو پارامتر $c$ و $h$ ترسیم می کنم. $c$ تعداد ویژگی های ورودی و $h$ تعداد گره های لایه پنهان را مشخص می کند. $c$ و $h$ اعداد صحیحی هستند که از توزیع یکنواختی که در بالا تعریف شده است گرفته شده اند. من یک شبکه عصبی تعریف شده توسط $(c,h)$ را آموزش میدهم و یک نرخ طبقهبندی اشتباه و میانگین نرخ مربع خطا را برای هر مدل محاسبه میکنم. این کار با اعتبارسنجی متقاطع 10$ برابر برای تخمین خطای واقعی برای هر $(c,h)$ انجام می شود. بنابراین من یک نرخ متوسط طبقهبندی اشتباه و یک میانگین نرخ خطای مربعی در مجموعههای قطار و مجموعههای سمت چپ برای هر جفت پارامتر دارم. سوال این است که چگونه بهترین جفت $(c,h)$ را انتخاب کنم و آیا روشی که در اینجا استفاده می کنم کافی است؟ همانطور که من امیدوار بودم هیچ نکته ای کاملاً واضح در نتایج وجود ندارد. نتایج بر روی فضای فرضیه در داده های آموزشی به این صورت است: ! پایان نامه ، و در اینجا به این سوال مربوط می شود | جستجوی تصادفی برای تعداد بهینه ویژگی های ورودی و تعداد بهینه لایه های پنهان برای یک MLP؟ |
86734 | من در رشته آمار کارشناسی ارشد هستم و به من توصیه می شود هندسه دیفرانسیل را یاد بگیرم. خوشحال تر می شوم که در مورد کاربردهای آماری هندسه دیفرانسیل بشنوم زیرا این کار باعث ایجاد انگیزه در من می شود. آیا کسی کاربردهای هندسه دیفرانسیل در آمار را می داند، لطفا؟ متشکرم! | آیا هندسه دیفرانسیل ربطی به آمار دارد؟ |
39318 | اثبات اینکه اگر $p(\theta)$ مزدوج قبل از برخی احتمالات باشد، بسیار آسان است: $$q(\theta') \propto p(\theta)I(\theta \in A)$ $ که $A$ زیرمجموعه ای از فضای پارامتر است و $I(r)$ 1 است اگر $r$ درست باشد و 0 در غیر این صورت -- نیز مزدوج قبلی است. اساساً، اگر یک مزدوج را قبل بگیریم و دوباره آن را به زیرمجموعه ای از فضای پارامتر عادی کنیم، باز هم یک خانواده قبلی مزدوج دریافت می کنیم. آیا در جایی به این موضوع اشاره شده است که بتوانم به آن مراجعه کنم؟ | رسمی کردن مجدد یک مزدوج قبلی؟ |
38866 | من آزمایشی به نام پروتکل اکتساب شرطی سازی ترس دارم. ما موشها را در معرض صداهای سفید بعدی قرار میدهیم و به دنبال آن شوکهای الکتریکی کوتاهی از طریق زمین ایجاد میشود. هدف ما این است که به آنها اجازه دهیم صدا را با شوک مرتبط کنند. ما درجه یادگیری را با اندازه گیری انجماد ماوس در حین نمایش صدا ارزیابی می کنیم. برای انجام مقایسه بین مراحل بعدی آزمایش ها از میانگین انجماد هر موش در هر مرحله استفاده می کنیم. این نمودار نتیجه است:  سپس ما مجموعه دیگری از موش ها را داریم که در آنها هیچ شوکی صدا را دنبال نمی کند (گروه کنترل) این نتایج است:  مقادیر درصد انجماد در طول مدت فاز هستند. سوالات من این است: 1. از کدام آزمون برای مقایسه میانگین انجماد بین هر مرحله استفاده کنم تا ارزیابی کنم که آیا تفاوت قابل توجهی دارد؟ من از ANOVA با آزمون مقایسه چندگانه بونفرونی استفاده کردم. 2. از نظر گرافیکی سطح انجماد به وضوح در حال افزایش است، آیا مهم است که در مورد اهمیت تفاوت بین سطوح انجماد سؤال شود؟ 3. چگونه می توان به طور رسمی انجماد در گروه در معرض و کنترل را مقایسه کرد تا نشان داد که تفاوت معنی داری دارد؟ 4. مقداری تولید کنید که نشان دهنده انجماد یک موش باشد تا آن را با بیان پروتئین های خاص مرتبط کند. از چه چیزی استفاده کنیم؟ انجماد کامل بیش از نمایش کلی صدا؟ انجماد متوسط؟ | تجزیه و تحلیل بقا با مشاهدات مکرر واحدهای آزمایشی و کنترل در دورههایی با اندازه و روند متفاوت در طول دورهها |
79057 | من منحنی های یادگیری را در زیر با استفاده از مربی های RF مختلف ترسیم کرده ام. مجموعه آموزشی بسیار کوچک و با امکانات کمی است (این مجموعه داده محبوب تایتانیک است). در مرحله پیش پردازش، من فقط مجموعه ای از vars ساختگی را از ویژگی های فاکتور اصلی خود ایجاد کردم. سپس از AUROC برای انتخاب بهترین مقدار برای mtry استفاده کردم. اما در مورد بهترین تفسیر این منحنی های یادگیری مطمئن نیستم.  سمت چپ خطای طبقه بندی اشتباه را برای اندازه های مختلف مجموعه آموزشی نشان می دهد. دقت مجموعه تمرینی کاهش مییابد در حالی که اندازه مجموعه تمرینی افزایش مییابد، چیزی که واقعاً انتظار داشتم. به همین دلیل، من انتظار خطای تست کمتری را در حین افزایش اندازه مجموعه آموزشی دارم، که همان چیزی است که من دریافت کردم (کمتر یا بیشتر). نمودار سمت راست خطای طبقه بندی اشتباه را هنگام تغییر پارامتر 'mtry' نشان می دهد. در اینجا، من یک چیز واقعا غیر منتظره دریافت کردم. من مدل را با استفاده از CV روی mtry=4 تنظیم کردم. در حالی که من انتظار کاهش نرخ طبقه بندی اشتباه در مجموعه آموزشی را داشتم در حالی که mtry را افزایش می دادم (احتمالاً به دلیل تطبیق بیش از حد)، من انتظار داشتم مقدار بسیار پایین (اگر نه یک حداقل جهانی) در mtry=4 باشد. حتی عجیب تر، در مجموعه آزمایشی: به نظر می رسد نسبتاً ثابت است/به آرامی کاهش می یابد، با یک سنبله (نویز؟) در mtry=4! این واقعا یک نتیجه غیرمنتظره است! چه چیزی باعث می شود که من این روندها را مشاهده کنم؟ | تأثیر mtry و اندازه مجموعه آموزشی در جنگل تصادفی |
112247 | من سعی می کنم از تابع Match() از بسته Matching در R برای تجزیه و تحلیل امتیاز تمایل استفاده کنم. نتیجه مورد علاقه من یک متغیر باینری است (0/1). درمان من نیز یک متغیر باینری است (0/1). علاوه بر این، من تعدادی متغیر دیگر دارم که میخواهم آنها را در این تحلیل کنترل کنم. ابتدا، من یک رگرسیون لجستیک را برای تعریف نمره تمایل برای درمان برازش میدهم: glm1 = glm (درمان ~ متغیر1 + متغیر2 + متغیر3 + ...، داده = مجموعه داده، خانواده = بیونومیال) سپس از تابع Match برای میانگین اثر درمان را بر روی تیمار تخمین بزنید: rr1 = Match (Y = نتیجه، Tr = درمان، X = glm1$ fitted) در نهایت، من برای یک خلاصه تماس گرفتم: summary(rr1) سوال من این است که چگونه خروجی را تفسیر کنم. من دریافتم: تخمین... -0.349، AI SE... 0.124، T-stat... -2.827، p.val... 0.005 این به چه معناست؟ به طور خاص، برآورد چیست؟ مستندات میگوید «تعداد متوسط تأثیر علیت برآورد شده» است. اما واحدها چیست؟ آیا می توانم این را به این معنا تفسیر کنم که درمان نتیجه را تا 35 درصد نسبی کاهش داد؟ یا با 0.35 مطلق؟ یا باید قدرت بگیرم؟ هر گونه کمک در تفسیر بسیار قدردانی خواهد شد! | نحوه تفسیر خروجی تابع Match() در R (برای تطبیق امتیاز تمایل) |
17468 | در ادامه پست من در اینجا، من سه همبستگی آماری معنادار بین متغیرهای A و B برای سه گروه سنی دارم. آنها عبارتند از: * گروه 1 (کمتر از 18 سال) r1 = 0.74 p <.001 n = 99 * گروه 2 (18 تا 65 سال) r2 = 0.78 p <.001 n = 96 * گروه 3 (بیش از 65 سال) r3 = 0.75 p <.001 n = 97 توجه: من تصحیح Šidák را بر روی آستانه آلفا 0.05. با این حال، من بیشتر به مقایسه ضرایب همبستگی علاقه مند هستم و از ماشین حساب در اینجا برای انجام تجزیه و تحلیل استفاده کرده ام که مقدار $p$-مقدار 0.794 را می دهد. این از نظر آماری در آستانه آلفای جدید 0.0006 معنیدار نیست (بنابراین H_0$ پشتیبانی میشود، یعنی تفاوتی بین گروهها وجود ندارد، اگرچه یک رابطه معنیدار بین A و B برای هر گروه وجود دارد). ** سوال 1: چگونه می توانم این یافته های مهم و غیر قابل توجه را در یک جدول گزارش کنم؟** ستون هایی با برچسب (به این ترتیب): * گروه * r * r مربع * مقدار p * اندازه نمونه ** سوال 2 : آیا باید فاصله اطمینان را هم لحاظ کنم. این چگونه به اطلاعاتی که قبلا ارائه شده است اضافه می کند، به خصوص زمانی که من مقدار p را یادداشت می کنم؟** یکی از مشارکت کنندگان در زیر پیشنهاد می کند که ممکن است راه دیگری برای رسیدگی به مشکل بالا وجود داشته باشد (که فقط می توانم تصور کنم بهتر است/ روشی قوی نسبت به روش پیرسون که من از آن استفاده کرده ام. **سوال 3: آیا تحلیل جایگزینی وجود دارد که بتوانم برای مشکل بالا انجام دهم (با توجه به این که من روی روابط و برابری روابط بین جمعیتی تمرکز می کنم. ویژگی ها)؟** (فکر می کنم تا به حال واقعاً فهمیده ام که همبستگی علیت نیست؛ من علاقه ای به علیت ندارم!) برخی از بینش ها در مورد اینکه چرا این سؤال ها را می پرسم، به ویژه Q3، در پاسخ به سؤال دیگری در اینجا است. | چگونه می توان همبستگی بین دو متغیر را در چندین گروه در یک جدول گزارش کرد؟ |
74802 | من میخواهم یک لاجیت استاندارد (دادههای پانل) را تخمین بزنم: $\text{logit}(P(y_{i,t}=1))= \alpha + \beta_1 x^1_{i,t} + \beta_2 x ^2_{i,t} +\epsilon_{i,t}$. مشکلی که من با آن روبرو هستم این است که $x^2$ _yearly_ است، در حالی که $y$ و $x^1$ _ماهانه_ هستند. تجمیع $x^1$ به سطح سالانه یک گزینه نیست. بنابراین من ساده لوحانه 12 مشاهده برای هر $x^2$ ایجاد کردم تا بتوانم آن را ماهانه کنم و بتوانم آن را با هر $y$ و $x^1$ مطابقت دهم. با این حال متوجه شدم که این ممکن است مشکلاتی ایجاد کند: 1. ممکن است همبستگی سریالی ایجاد کند. 2. به طور مصنوعی تعداد مشاهدات را افزایش می دهد و در نتیجه SE ضریب $x^2$ را کاهش می دهد. 3. SE سایر ضرایب تحت تأثیر قرار نمی گیرد. 4. همه ضرایب بدون تعصب باقی می مانند. **اولین سوال** من این است: آیا این _تشخیص_ مشکلات احتمالی درست است؟ آیا مشکلات دیگری وجود دارد که به آنها فکر نکردم؟ **سوال دوم** من این است که آیا راه حلی برای مشکلات ذکر شده در بالا، استفاده از خطاهای استاندارد قوی، خوشه بندی مشاهدات بر حسب سال است؟ پیشاپیش ممنونم | داده های پنل: IV با فرکانس های مختلف |
86318 | من یک ماتریس نیمه کوچک از **ویژگی های باینری** به ابعاد 250k x 100 دارم. هر سطر یک کاربر است و ستون ها برچسب باینری برخی از رفتارهای کاربر هستند، به عنوان مثال. لیک_گربه ها. کاربر 1 2 3 4 5 ... ------------------------- A 1 0 1 0 1 B 0 1 0 1 0 C 1 0 0 1 0 من می خواهم کاربران را در 5-10 خوشه قرار دهم و بارگیری ها را تجزیه و تحلیل کنم تا ببینم آیا می توانم گروه هایی از رفتار کاربر را تفسیر کنم. به نظر می رسد چند رویکرد برای برازش خوشه ها بر روی داده های باینری وجود دارد - فکر می کنیم بهترین استراتژی برای این داده ها چیست؟ * PCA * ساخت یک ماتریس _Jaccard Similarity_، برازش یک خوشه سلسله مراتبی و سپس استفاده از گره های بالا. * K-medias * K-medoids * Proximus؟ * اگنس تا کنون با استفاده از خوشه بندی سلسله مراتبی موفقیت هایی داشته ام اما واقعا مطمئن نیستم که بهترین راه باشد. tags = read.csv(~/tags.csv) d = dist(برچسب ها، روش = دودویی) hc = hclust(d، روش = ward) plot(hc) cluster.means = aggregate(tags,by=list(cutree(hc, k = 6))، mean)  | خوشه بندی یک ماتریس باینری |
112241 | **خلاصه:** آیا هیچ نظریه آماری برای حمایت از استفاده از توزیع $t$ (با درجات آزادی بر اساس انحراف باقیمانده) برای آزمایش ضرایب رگرسیون لجستیک، به جای توزیع نرمال استاندارد وجود دارد؟ * * * مدتی پیش متوجه شدم که هنگام برازش یک مدل رگرسیون لجستیک در SAS PROC GLIMMIX، تحت تنظیمات پیشفرض، ضرایب رگرسیون لجستیک با استفاده از توزیع $t$ به جای توزیع عادی استاندارد آزمایش میشوند.$^1$ یعنی ، GLIMMIX ستونی را با نسبت $\hat{\beta}_1/\sqrt{\text{var}(\hat{\beta}_1)}$ گزارش میکند. (که در ادامه این سوال $z$ می نامم)، اما همچنین یک ستون درجات آزادی و همچنین یک $p$-value بر اساس فرض توزیع $t$ برای $z$ با درجه گزارش می کند. آزادی بر اساس انحراف باقیمانده -- یعنی درجات آزادی = تعداد کل مشاهدات منهای تعداد پارامترها. در انتهای این سوال، من مقداری کد و خروجی در R و SAS برای نمایش و مقایسه ارائه میدهم.$^2$ این باعث سردرگمی من شد، زیرا فکر میکردم برای مدلهای خطی تعمیمیافته مانند رگرسیون لجستیک، هیچ نظریه آماری برای پشتیبانی از در این مورد از توزیع $t$ استفاده کنید. در عوض، من فکر میکردم آنچه در مورد این مورد میدانیم این بود که *$z$ تقریبا به طور معمول توزیع شده است. * این تقریب ممکن است برای اندازههای نمونه کوچک ضعیف باشد. * با این وجود نمی توان فرض کرد که $z$ دارای یک توزیع $t$ است که ما می توانیم در مورد رگرسیون معمولی فرض کنیم. اکنون، در سطح شهودی، به نظر من معقول است که اگر $z$ تقریباً به طور معمول توزیع شود، ممکن است در واقع توزیعی داشته باشد که اساساً $t$-مانند باشد، حتی اگر دقیقاً $t$ نباشد. . بنابراین استفاده از توزیع $t$ در اینجا احمقانه به نظر نمی رسد. اما چیزی که میخواهم بدانم این است که: 1. آیا در واقع تئوری آماری وجود دارد که نشان دهد $z$ واقعاً از توزیع $t$ در مورد رگرسیون لجستیک و/یا سایر مدلهای خطی تعمیم یافته پیروی میکند؟ 2. اگر چنین نظریه ای وجود نداشته باشد، آیا حداقل مقالاتی وجود دارد که نشان می دهد فرض توزیع $t$ به این روش به همان اندازه، یا شاید حتی بهتر از فرض توزیع نرمال کار می کند؟ به طور کلی تر، آیا پشتیبانی واقعی برای کاری که GLIMMIX در اینجا انجام می دهد وجود دارد، به جز شهودی که احتمالا اساساً معقول است؟ کد R: خلاصه (glm(y ~ x، داده=dat، خانواده=دوجمله ای)) خروجی R: فراخوانی: glm(فرمول = y ~ x، خانواده = دوجمله ای، داده = dat) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر - 1.352 -1.243 1.025 1.068 1.156 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (برق) 0.22800 0.06725 3.390 0.000698 *** x -0.17966 0.10841 -1.657 0.097462 . --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 1235.6 در 899 درجه آزادی انحراف باقیمانده: 1232. 898 درجه آزادی AIC: 1236.9 تعداد تکرارهای امتیاز دهی فیشر: 4 کد SAS: proc glimmix data=logitDat; مدل y(رویداد='1') = x / dist= راه حل دو جمله ای; اجرا؛ خروجی SAS (ویرایش/مخفف): The GLIMMIX Procedure Fit Statistics -2 Log Likelihood 1232.87 AIC (کوچکتر بهتر) 1236.87 AICC (کوچکتر بهتر) 1236.88 BIC (کوچکتر بهتر است) 1246.47QIC بهتر است (1246.47QIC بهتر) (کوچکتر بهتر است) 1240.54 Pearson Chi-Square 900.08 Pearson Chi-Square / DF 1.00 تخمین پارامترها برآورد اثر استاندارد خطای DF t مقدار Pr > |t| Intercept 0.2280 0.06725 898 3.39 0.0007 x -0.1797 0.1084 898 -1.66 0.0978 $^1$ در واقع من برای اولین بار متوجه این موضوع در مورد _mixed-effects_ شدم که با مدل های رگرسیون لجستیک GLIX و PROMMLI بعداً GLI IX و PROMMLI IX را نیز کشف کرد. رگرسیون لجستیک وانیل. $^2$من متوجه هستم که در مثال زیر، با 900 مشاهده، تمایز در اینجا احتمالاً هیچ تفاوتی عملی ایجاد نمی کند. واقعا منظور من این نیست. این فقط داده هایی است که من به سرعت تهیه کردم و 900 را انتخاب کردم زیرا عدد زیبایی است. با این حال من کمی در مورد تفاوت های عملی با اندازه نمونه های کوچک تعجب می کنم، به عنوان مثال. $n$ < 30. | آزمایش ضرایب رگرسیون لجستیک با استفاده از $t$ و درجات انحراف باقیمانده آزادی |
17463 | من می ترسم یک مشکل آماری ساده است که مرا گیج کرده است. من دو متغیر تصادفی، X و Y دارم که به طور مستقل به طور معمول توزیع شده اند: X ~ N(0، sigmaX) Y ~ N(0، sigmaY). من مجموع این دو متغیر، Z = X+Y را مشاهده میکنم و میخواهم با توجه به مجموع، یک انتظار شرطی روی X ایجاد کنم. یکی از همکاران گفت، آه، بله، مشکل استخراج سیگنال کلاسیک. راه حل این است: E[X|X+Y] = (X + Y) * sigmaX / (sigmaX + sigmaY) این درست به نظر می رسید، بنابراین از او تشکر کردم و فهمیدم که من آن را در خانه انجام می دهم. به نظر می رسد که من اینجا کمی زنگ زده هستم. من می توانم استدلال شفاهی ارائه کنم که چرا این درست است اما نمی توانم ریاضیات را یادداشت کنم. دلیل ریاضی این موضوع چیست؟ با تشکر از همه! | مشکل استخراج سیگنال: انتظار مشروط یک آیتم در مجموع RVهای عادی مستقل |
111315 | من در حال خواندن مقاله ای در مورد مدل های مارکوف هستم و سعی می کنم نحوه محاسبه احتمالات $\alpha$-pass را بیابم. به من یک ماتریس $N\times N$ $A$ داده شده است که احتمال انتقال از یک حالت به حالت دیگر را دارد. یک ماتریس $N \times M$ $B$، که با مشاهده $M$، احتمالات یک حالت را دارد. در مدل من $N=2$ و $M=3$ دارم، یک توالی حالت اولیه $\pi = (\pi_{x_0},\pi_{x_1})$ دارم، همچنین مجموعه ای از مشاهدات $O= دارم. (O_0،O_1،O_2،O_3)$. اجازه دهید $X=(x_0,x_1,x_2,x_3)$ یک دنباله حالت باشد. من می دانم که $P(O,X|\lambda)=b_{x_0}(O_0)b_{x_1}(O_1)b_{x_2}(O_2)b_{x_3}(O_3)$ $P(X|\lambda)=\pi_{x_0}a_{x_0,x_1}a_{x_1,x_2}a_{x_2,x_3}$ همچنین می دانم که: $P(O,X|\lambda) = \pi_{x_0}b_{x_0}(O_0)a_{x_0,x_1}b_{x_1}(O_1)a_{x_1,x_2}b_{x_2}(O_2)a_{x_2,x_3}b_{x_3}(O_3 )$ من به احتمال علاقه مند هستم: $\alpha_t(i) = P(O_0,O_1,O_2,O_3,x_t=q_i|\lambda)$، که $t=0,1,2,3$ و $i=0,1$، $q_i$ یک حالت است. من این را دارم: $\alpha_0(i) = \pi_i b_i(O_0)$ برای $i=0,1$ سوال من این است که چگونه $\alpha_1(i)، \alpha_2(i)، \alpha_3(i) را محاسبه کنم )$؟ | احتمالات در مدل مارکوف |
19986 | من با یک شرط ضروری در توزیع احتمال پیوسته که بیش از $[0, \infty]$ تعریف شده است برخورد کردهام و نمیدانم که آیا نامی دارد یا خیر. برای توزیع با CDF $F$ و pdf $f$ من نیاز دارم که مقدار: $$\phi(x) \equiv \frac{f(x)}{F(x)+xf(x)}$$ باشد یکنواخت غیر افزایشی. با قرار دادن شرط به شکل دیگری (با گرفتن مشتقات)، لازم است که برای همه $x \in [0,\infty]$ به گونهای که $f'(x) > 0$: $$f(x) \geq \ sqrt{\frac{F(x) f'(x)}{2}}$$ به نظر میرسد این یک ویژگی معمولی است، بنابراین آیا نامی دارد؟ این به یک وضعیت نرخ خطر یکنواخت مربوط است، اما متمایز از آن است. | نامی برای این شرط توزیعی؟ |
19457 | من داده هایی در مورد تعدادی از مطالعات دارم که میزان پاسخگویی به درمان های مختلف یک اختلال را مقایسه می کنند. شش درمان مختلف وجود دارد و برخی مطالعات فقط یک درمان را آزمایش می کنند. برای هر درمان در هر مطالعه، من میزان پاسخ و حجم نمونه (به علاوه برخی متغیرهای دیگر) را دارم. به طور معمول، اگر فقط دو درمان وجود داشته باشد و هر مطالعه این دو را مقایسه کند، ممکن است از چیزی شبیه $$D_i=\beta_0+\beta_1\cdot SS_i+u_i+\epsilon_i$$ استفاده کنم که در آن $D_i$ تفاوت بین logits نرخ پاسخ در مطالعه $i$، $\epsilon_i$ خطای نمونه گیری مربوطه، $SS_i$ حجم نمونه مطالعه است. $i$ و $u_i$ عبارت خطای باقیمانده است. آیا امکان آنالیز معقول داده های من به روشی مشابه وجود دارد؟ آیا کلمات کلیدی / مراجعی وجود دارد که باید از آنها آگاه باشم؟ به عنوان مثال، من می خواهم از چیزی مانند $${\rm logit}(RR_{ij})=\beta_0+\beta_1\cdot SS_{ij}+\beta_2\cdot T_j+u_i+\epsilon_{ij}$$ استفاده کنم در جایی که $i$ مطالعه و $j$ درمان است (1 تا 6)، $T_j$ یک متغیر شاخص برای درمان است (به طور متناوب، میتوان آن را به یک اثر تصادفی دوم)، و $u_i$ و $\epsilon_{ij}$ مانند بالا هستند. | متاآنالیز چند سطحی با چندین درمان |
46760 | من می خواهم نکاتی را دریافت کنم، زیرا در حال حاضر در بخش رگرسیون خود گیر کرده ام. من از رگرسیون لجستیک باینری استفاده می کنم. هدف مقایسه پاسخ های دو گروه جداگانه است. من یک MV دارم (متغیر تعدیل کننده، 1-یک گروه، 0-گروه دیگر). IV من (متغیرهای مستقل 11 هستند و همه آنها در مقیاس لیکرت 7 درجه ای اندازه گیری شدند). DV من (متغیر وابسته یا نتیجه انتخابی از 2 دسته است). اولین مشکلی که با آن روبرو هستم: من از روش تقسیم میانه برای به دست آوردن DV خود برای هر پاسخ دهنده استفاده کردم، زیرا DV خود را ندارم، که باید برای اجرای رگرسیون آن را بدست بیاورم. دوم، من سعی کردم 2 رگرسیون مجزا را برای دو گروه اجرا کنم، اگرچه ضرایب من ضعیف بود. من سعی کردم یک مدل واحد با تعاملات اجرا کنم. محاسبه عبارت محصول برای هر IV (IV1mean_centered* MVmean_centered) و غیره برای تمام IV که دارم. در حین اجرای یک رگرسیون، تمام IV ها در مقابل MV خود را وارد کردم و همچنین شرایط محصول را با MV_centered محاسبه کردم (همچنین بدون میانگین وسط و فقط با MV امتحان شده است). مسئله من اینه که ضرایب من حتی نسبت به مدلهای مجزا هم کمتر معنی دارن!!! آیا کسی پیشنهادی برای حل این مشکل دارد؟ شاید من در مورد تعاملات در رگرسیون لجستیک اشتباه کرده ام؟ کمک!!!! | با تعاملات در تجزیه و تحلیل رگرسیون لجستیک گیر کرده است |
111314 | > فرض کنید اسناد دارای برچسب $L$، و اسناد بدون برچسب $U$، که در آن همه اسناد > از کلاس $k$ از توزیع چندجمله ای یا Naive Bayes > با پارامتر $\theta_k$ تولید شده اند، و مجموعاً وجود دارد $K$ > کلاس ها. بگذارید هر نقطه $x_n$ یک بردار بعدی $D$ باشد. > > الف) حداکثر تخمینگر احتمال برای $\theta_k$ فقط با استفاده از دادههای برچسبگذاریشده چیست؟ > > ب) میانگین مربعات خطای این برآوردگر چقدر است؟ > > ج) میتوانیم یک تخمینگر برای $\theta_1، \ldots، \theta_K$ بسازیم که با به حداکثر رساندن احتمال دادههای مشاهدهشده، از دادههای غیربرچسبدار و همچنین برچسبدار استفاده میکند. تابع log-likelihood را در این مورد بنویسید. > > د) تحت چه شرایطی MLE در مورد (الف) به پارامتر > واقعی همگرا می شود؟ آیا اگر از داده های بدون برچسب به عنوان > در (c) نیز استفاده کنیم، می توان این شرایط را کاهش داد؟ من مطمئن نیستم که چگونه هر یک از اینها را حل کنم. برای بخش (الف)، آیا این احتمال $$ l(\theta_{k,d}) = \prod_{n=1}^N p(y_n)^{I(y_n = k)} \left[ \prod_ {d=1}^D p(x_n^d | y_n = k) \right]^{I(y_n = k)} $$ که باید با توجه به $\theta_{k,d}$؟ اگر چنین است، آیا برآوردگر $$ \theta_{k,d} = \frac{N_k}{N} $$ است که در آن $N_k$ تعداد نقاط داده با برچسب $y_n = k$ است؟ آیا کسی می تواند این را تأیید کند؟ و آیا می توانید در مورد نحوه حل قسمت های باقی مانده به من پیشنهاد دهید؟ با تشکر | مشکل طبقه بندی اسناد |
19985 | از من خواسته شده است که توزیع مجموعه ای از داده ها را تجزیه و تحلیل کنم، اساساً یک ستون منفرد از نمونه های تصادفی یک پارامتر فیزیکی که نمی تواند منفی باشد. انحراف استانداردی که من معمولاً محاسبه میکنم فرض میکند که دادهها به طور معمول توزیع شدهاند، که در این مورد نمیتواند درست باشد. از آنجایی که من عادت دارم از من خواسته شود انحراف استاندارد و میانگین یک مجموعه داده را به عنوان اندازه گیری خطاها ارائه دهم، می خواهم بدانم آیا پارامتری وجود دارد که به راحتی محاسبه شود برای توزیع مناسب تر که همان هدف را برآورده کند؟ اگر این سوال بد مطرح شده است عذرخواهی می کنم. من از نظر تحصیلی آمارگیر نیستم. با تشکر فراوان، Loruschorus | انحراف استاندارد داده های غیر منفی |
80251 | فکر میکنم این یک سؤال کاملاً اساسی است، اما یافتن پاسخ یا برخورد مناسب با آن در وب برایم دشوار است. برای یک مجموعه داده باینری (دوجمله ای) با برخی از پارامترهای ناشناخته p (احتمال سر یا موفقیت یا چیزی مشاهده شده)، دقت p تخمین زده شده چگونه به تعداد آزمایش ها بستگی دارد؟ من چندین روش برای محاسبه فواصل اطمینان حول p تخمین زده شده خوانده ام، اما به نظر می رسد همه اینها به فرض تعداد زیادی آزمایش و توزیع نرمال بستگی دارد. من به خصوص در اینجا با تعداد کمی آزمایش علاقه مند هستم. برای هر راه حل یا اشاره ای متشکرم. | برای تخمین فرکانس خوب (دوجمله ای) چند عدد محاسبه می شود؟ |
104677 | من یک سوال دارم که در مورد پاسخ آن مطمئن نیستم: > یک مدل خطی دارای ویژگی های زیر است: > > *یک متغیر وابسته ($y$) > > *یک متغیر پیوسته ($x_l$)، شامل یک عبارت درجه دوم ( $x_1^2$) > > *یک متغیر پیش بینی کننده طبقه بندی ($d$ با 3 سطح) و یک تعامل > عبارت ($d \times x_1$) > > چند پارامتر، از جمله رهگیری، با این > مدل مرتبط هستند؟ بنابراین به این فکر کردم: $y=\beta_0 + \beta_1 x_1 + \beta_2 x_1^2 + \beta_3 d$ + $\beta_4dx_1$ فکر کردم برای این مدل به 5 پارامتر نیاز دارم، اما به من گفته شد که پاسخ 7 خواهد بود. بنابراین حدس میزنم تعامل را اشتباه انجام دادم. بنابراین به نظر من باید هر سطح از d را با یک تعامل واحد با x1 مدل کنم. اما چگونه این را بنویسم و چرا به آن نیاز دارم؟ | چند پارامتر در این مدل خطی خاص با اندرکنش؟ |
45235 | 1. از روش _شبیه سازی مونت کارلو روبینشتاین_ من تعجب کردم که چرا $g$ برای تسلط بر $Hf$ لازم است؟ 2. از ویکیپدیا > ایده اصلی نمونهگیری اهمیت این است که احتمال $P$ را تغییر دهید تا تخمین $E[X;P]$ آسانتر شود. یک متغیر تصادفی $L\geq > 0$ انتخاب کنید به طوری که $E[L;P]=1$ و $P$-تقریباً در همه جا $L(\omega)\neq 0$ باشد. > متغیر $L$ احتمال دیگری را تعریف میکند $P^{(L)}=L\، P$ که برآورده میکند > $$ \mathbf{E}[X;P] = \mathbf{E}\left[\frac{ x} {l} ؛ p^{(l)} \ درست]. $$ شرایط چگالی ابزاری $L$ $L\geq 0$ است به طوری که $E[L;P]=1$ و $P$-تقریباً در همه جا $L(\omega)\neq 0$ است. فکر میکنم میتوانم آنها را درک کنم، زیرا آنها معادل این هستند که بگوییم $L$ چگالی $P^{(L)}$ wrt $P$ است و مخرج در $\frac{X}{L}$ برابر است با صفر فقط روی زیرمجموعهای از احتمال، صفر را اندازهگیری کنید تا بر انتظار/ادغام تأثیری نگذارد. با توجه به اینکه به نظر می رسد این دو منبع پاسخ های متفاوتی می دهند، نمی دانم چه شرایطی باید برای تراکم ابزاری در نظر گرفته شود؟ با تشکر و احترام! | الزامات چگالی ابزاری در نمونه برداری اهمیت چیست؟ |
19981 | من سعی داشتم به همکارم کمک کنم تا منحنی توزیع را برای برخی از داده های تجربی تطبیق دهد. با این حال، از آنجایی که این اولین تجربه من در تقریب توزیع تجربی با توزیع نظری است، موفق نشده ام. میانگین ارزش Y$ 0.32688 است. $\sigma^2_Y$ 0.076191 است. این یک هیستوگرام است:  و یک cdf تجربی:  1024 نمونه در داده ها وجود دارد. بدیهی است که توزیع نامتقارن است. شبیه $\chi^2$ نیست زیرا $\hat{\mu}_Y >> 2\hat{\sigma}_Y^2$ سعی کردم آن را با توزیع بتا تقریب کنم (مختلف $\alpha، \beta را انتخاب کردم پارامترهای $) همراه با نرمال کردن Y با مقداری واقعی در $ [0.5; 3] دلار فایده ای نداشت، آمار کای دو پیرسون همیشه، می دانید، مانند 300، 700 یا حتی بیشتر بود. من سعی کردم Y را مربع کنم و هیستوگرام $Y^2$ به این صورت است:  سعی کردم این را با توزیع نمایی تقریبی کنم (و عادی کردن Y با یک عدد واقعی) - اما P-value همیشه مانند صفر بود. خود دادهها را میتوانید در اینجا پیدا کنید: https://docs.google.com/spreadsheet/ccc?key=0AqeuZRXRoMfRdF9UQzFEZVdOTmh0ZzNSaFRhRndHWmc آیا کسی ایدهای درباره توزیع این دادهها دارد؟ | چه نوع توزیعی است؟ |
45234 | من جمعیتی از فروش دارم که ممکن است برنده یا باخته شود. من میزان برنده شدن آنها را از روی داده های تاریخی می دانم. در این مورد 30 درصد آنها از نظر تاریخی برنده می شوند. برای اینکه بفهمم چقدر از این فروش ها درآمد خواهم داشت، باید آنها را وزن کنم. من فقط می توانم تمام ارزش های فروش را جمع کنم و سپس 30٪ از آن عدد را بگیرم، اما تفاوت زیادی در ارزش فروش تک وجود دارد. > توصیف (Dataset$V1) var n میانگین sd میانه برش خورده mad min max range shaw 1 1 2314 185090.7 1129744 32000 52077.27 kurtt 37065 1000 3.5e+07 06 349 se. 478.5 23485.42 > sum(Dataset$V1)*.3 [1] 128489970 بنابراین من به این نتیجه رسیدم که اگر 30 درصد از آنها را برنده شوید، بیایید نمونه برداری از جمعیت را با نرخ برد 30 درصد امتحان کنیم. من کد زیر را اجرا کردم #مقدار درصدی را که میخواهید استفاده کنید را در اینجا قرار دهید P <- 0.30 X <- round(nrow(Dataset)*P) boot <- data.frame( boot = replicate(10000, sum(sample(Dataset$V1, size=X))) write.csv(boot, file=ThePath, row.names=FALSE) من جایگزینی به عنوان False دارم زیرا یک فروش واحد را نمی توان بیش از یک بار برنده شد. من می دانم که فقط اولین فروش با نرخ 30٪ انتخاب می شود و بقیه به دلیل عدم تعویض با نرخ کمی پایین تر انتخاب می شوند. بنابراین به طور تصادفی 30٪ از داده ها را می گیرد و سپس آنها را جمع می کند زیرا من فقط به کل مقدار مورد انتظار اهمیت می دهم. من این کار را 10000 بار انجام می دهم، سپس آن را به یک هیستوگرام تبدیل کردم تا توزیع را ببینم. سپس آن را تنظیم کنید تا محاسبه کند که هر بن دارای چه درصدی از 10000 اجرا است. سپس حدود 8000 یا 80 درصد از مقادیر را در سطل های متوالی جستجو کنید. آیا می توانم بگویم که 80٪ مواقع در یک شبیه سازی 10000 انتظار می رود ارزش کل فروش در محدوده X و X باشد؟ یا باید از یک محاسبه فاصله اطمینان بوت استرپ معمولی استفاده کنم؟ آیا این واقعیت که داده های اصلی منحرف هستند مشکلاتی ایجاد می کند و در برخی از مجموعه داده ها وقتی این کد را اجرا می کنم، داده های Bootstrapped تقریباً دووجهی می شوند، آیا این نیز منجر به مشکلاتی می شود؟ | نمونه گیری مجدد یا شبیه سازی پایه و فواصل اطمینان |
46764 | آیا حتی پس از ضرب آن در 100 می توان یک درصد را 0.172% بگوییم؟ دلیلش این است که در محاسباتم به صورت زیر عمل کردم. (4.3601/2329.475495)x100 پاسخ فوق را به من می دهد. آیا این درست است یا من در اشتباه هستم؟ | آیا حتی پس از ضرب آن در 100 می توان یک درصد را 0.172% بگوییم؟ |
19983 | من طرح آزمایشی زیر را دارم: نمونه برداری در سه سایت تصادفی انجام می شود (سایت فاکتور کدگذاری شده است: Site1، Site2، Site3). در داخل هر سایت، نمونه برداری در یک کرت خشک و در یک کرت مرطوب انجام می شود (هیدرولوژی فاکتور با کد: خشک/مرطوب) در هر یک از پلات قبلی، نمونه برداری در دو عمق (D1، D2) در سه تکرار انجام می شود. در مجموع n = 36 نمونه = 3 سایت * 2 هیدرولوژی * 2 عمق * 3 تکرار وجود دارد. من از تابع lme در R (بسته lnme) به صورت زیر استفاده می کنم: Site<-as.factor(rep(c(Site1, Site2, Site3),each=12)) Hydrology<-as.factor( rep(rep(c(خشک، تر)، هر = 6)، 3)) عمق<-as.factor(rep(c(D1,D2),each=3),6)) متغیر<-rnorm(36) mydata<-data.frame(Site,Hydrology,Depth, متغیر) mod1<-lme(Variable~ Hydrology*Depth, data=mydata, random=~1|سایت/هیدرولوژی/عمق) میخواهم تأثیر هیدرولوژی و عمق را بر روی متغیر وابسته بدون نمایش دادههای هر سایت تجسم کنم: interaction.HD<-interaction(mydata$Hydrology,mydata$Depth)called_mean< -tapply(mydata$Variable,interaction.HD,mean) mean_V=as.table(matrix(calculated_mean,nrow=2)) rownames(mean_V)=c(Wet,Dry) colnames(mean_V)=c(D1،D2) کتابخانه (gplots) نمودار =barplot2(mean_V، کنار = TRUE) legend(center,c(Dry,Wet),pch=22,pt.bg = c(قرمز،زرد)) هر نوار روی نمودار نشان دهنده میانگین 9 مقدار (3 تکرار) است. در هر سایت برای هر ترکیبی از هیدرولوژی و عمق). من می خواهم نوارهای خطا را روی هر میانگین ترسیم کنم. سوال من این است: صحیح ترین روش محاسبه آن چیست؟ من فکر می کنم که محاسبه انحراف استاندارد یا خطای استاندارد روی 9 مقدار استفاده شده برای محاسبه هر میانگین نادرست است. فکر می کنم محاسبه SD یا SE روی 3 مقدار (هر مقدار مربوط به میانگین هر سایت برای هر ترکیب هیدرولوژی و عمق) صحیح تر باشد. هر گونه راهنمایی در مورد این سوال بسیار قدردانی خواهد شد. آیا فکر می کنید استفاده از روش توضیح داده شده در Cousineau (2005) که در آن تغییرپذیری بین موضوع قبل از محاسبه نوارهای خطا حذف می شود، صحیح است؟ پیوند به مرجع: http://www.tqmp.org/Content/vol01-1/p042/p042.pdf | محاسبه نوارهای خطا در طرح تقسیمبندی |
46767 | من یک شبکه عصبی را برای پیشبینی قیمت خودروهای دست دوم اجرا میکنم، حجم نمونه 800 است. با استفاده از اعتبارسنجی متقاطع 10 برابری (10 بار) و 1/3 بازدارنده (10 بار)، R^2$ برای آموزش حدود 0.60 است و برای اعتبارسنجی حدود 0.68 برای هر 20 اجرا است. کوچکترین تفاوت در 20 اجرا، آموزش $R^2$ = 0.64 و اعتبارسنجی $R^2$ = 0.68 است، بنابراین آموزش R^2$ همیشه کمتر از اعتبارسنجی $R^2$ است. من بسیار عادت دارم که آموزش R^2$ را بزرگتر از اعتبارسنجی $R^2$ ببینم، که به معنای بیش از حد برازش است. در گذشته زمانی که من آموزش $R^2$ کمتر از اعتبارسنجی $R^2$ دیده بودم، این یک پدیده گذرا بود که با اجرای مجدد مدل ناپدید شد. این اولین باری است که اعتبار سنجی $R^2$ را بطور سیستماتیک بزرگتر از آموزش $R^2$ می بینم. من نمی دانم این به چه معنی است. هر فکری؟ | خطای اعتبارسنجی کمتر از خطای آموزشی - پیامدها؟ |
48609 | چگونه می توان دقت کلی را با توجه به دقت محاسبه شده برای هر کلاس محاسبه کرد؟ آیا این فقط میانگین بیش از دقت کلاس است؟ وقتی من از Weka استفاده میکنم، دقت جهانی بهعنوان میانگین محاسبه نمیشود، بلکه بهعنوان یک «میانگین وزنی» محاسبه میشود و نمیدانم بعداً چگونه محاسبه میشود (با چه وزنی؟). مثال زیر نتایجی را که با Weka می گیریم ببینید، لطفاً می توانید به من بگویید چگونه Weighted Avg. آیا در این نتیجه (خط آخر) محاسبه می شود؟ نمونههای بهدرستی طبقهبندیشده 608 93.5385 % موارد طبقهبندی نادرست 42 6.4615 درصد تعداد کل نمونهها 650 === دقت تفصیلی براساس کلاس === TP Rate FP Rate Precision Recall F-Measure ROC Area.809. 0.889 0.8 0.995 APP05179028 0.991 0.032 0.866 0.991 0.924 0.999 APP05179007 0.633 0.005 0.864 0.864 0.63010.6301 0 0 0 0 00 0 0 0 0 0 ? APP05179018 0.6 0 1 0.6 0.75 0.988 APP05179027 0 0 0 0 0 ? APP05179023 1 0.002 0.75 1 0.857 1 APP05179025 0.8 0 1 0.8 0.889 0.991 APP05179016 0 0 0 0 0 0 ? APP05179021 0.889 0 1 0.889 0.941 1 APP05179029 0.918 0 1 0.918 0.957 1 APP05179020 0 0 0 0 0 0.9158 0.9179020 APP0 0.963 1 0.981 0.999 APP05179015 0.846 0 1 0.846 0.917 0.998 APP05179008 0.992 0.002 0.992 0.920 0.920 0.992 0.992 0.997 0.9901 0.002 0.973 0.947 0.96 1 APP05179013 1 0 1 1 1 1 APP05179026 0.857 0 1 0.857 0.923 1 APP05179019 0.714 0.714 0.714 0.526 0.952 APP05179017 0.969 0 1 0.969 0.984 1 APP05179030 1 0 1 1 1 1 APP05179024 0.935 0.008 0.390.390. میانگین** a b c d e f g h i j k l m n o p q r s t u v w x 8 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | a = APP05179028 0 110 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | b = APP05179007 0 9 19 0 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | c = APP05179012 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 1 0 0 0 0 0 0 | d = APP05179014 0 3 0 0 103 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | e = APP05179010 0 1 0 0 0 22 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | f = APP05179009 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | g = APP05179018 3 0 0 0 0 0 0 6 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | h = APP05179027 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | i = APP05179023 0 0 0 0 0 0 0 0 0 3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | j = APP05179025 0 1 0 0 0 0 0 0 0 0 4 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | k = APP05179016 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | l = APP05179021 0 0 0 0 0 0 0 0 0 0 0 0 32 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 4 0 0 | m = APP05179029 0 1 0 0 0 1 0 0 0 0 0 0 0 45 0 0 0 0 0 0 0 2 0 0 0 | n = APP05179020 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 | o = APP05179022 0 0 0 0 0 0 0 0 | میانگین وزنی دقت (یا یادآوری) همه کلاس ها؟ |
101372 | من به نوعی گیج شدهام که واقعاً باید با مقادیر نوسانات پیشبینیشدهای که از طریق مدل ARCH/GARCH به دست آوردهام، انجام دهم، به غیر از احساس خوشحالی از اینکه میدانم نوسانات چه زمانی افزایش یا کاهش مییابد. آیا راهی وجود دارد که بتوانم مقادیر نوسانات پیشبینیشده را از طریق یک مدل GARCH/ARCH در یک مدل پیشبینی برای سریهای زمانی واقعی خود وارد کنم یا آنچه میگویم اشتباه است؟ من از R به عنوان ابزار اصلی خود استفاده می کنم. | چگونه می توانم از نتایج GARCH برای بهبود پیش بینی استفاده کنم؟ |
13376 | من می خواهم شبیه سازی را اجرا کنم که در آن مجموع 20 متغیر تصادفی 1000 بار تولید شده و در یک هیستوگرام رسم شود. من اعداد تصادفی را با استفاده از runif(20,0,1) تولید می کنم و سپس با استفاده از تابع sum این اعداد تصادفی را جمع می کنم، اما می خواستم بدانم آیا روش ساده تری برای انجام این 1000 وجود دارد و سپس برای نوشتن یک حلقه for. | چگونه شبیه سازی را در R از مجموع 20 متغیر تصادفی اجرا و رسم کنیم؟ |
38868 | من دو رگرسیون برای انجام دارم - یکی با DV متریک (3- تا 3)، دیگری با DV مرتب شده (0،1،2،3). نه توزیع نرمال و نه همسانی داده شده است. من دو سوال دارم: 1. برخی منابع می گویند که رگرسیون قوی هم از عدم توزیع نرمال و هم عدم توزیع نرمال مراقبت می کند، در حالی که برخی دیگر فقط از توزیع نرمال می گویند. حقیقت چیست؟ 2. آیا راه هایی برای استفاده از رگرسیون های قوی با داده های مرتب شده وجود دارد، یا این فقط برای DV های متریک امکان پذیر است؟ من SPSS، R و MPLUS را در دسترس دارم. | رگرسیون قوی: با داده های مرتب شده امکان پذیر است؟ |
80259 | فرض کنید من مجموعه داده ای دارم که حاوی تاریخ هایی است که اندازه گیری ها روی گروهی از افراد انجام شده است. بنابراین، شناسه های منحصر به فرد افراد، نتایج اندازه گیری و تاریخ اندازه گیری در دسترس هستند. حال فرض کنید که من نسخه دیگری از همان مجموعه داده از منبعی متفاوت دارم و تفاوت هایی بین دو مجموعه داده وجود دارد. آیا آزمون آماری وجود دارد که بتوان از آن استفاده کرد تا تفاوت بین دو مجموعه داده از نظر آماری معنادار باشد؟ | تست تفاوت در دو مجموعه داده |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.