_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
18982
[پیشاپیش از طولانی شدن این سوال پوزش می طلبم. اما به نظر اجتناب‌ناپذیر است.] من سعی می‌کنم با استفاده از روش‌های بیزی، طبقه‌بندی باینری را انجام دهم، و در تشخیص اینکه چه روش‌هایی برای انجام این کار نیاز دارم، مشکل دارم. خط پایین - من به نوعی قانون تصمیم نیاز دارم. من به طور آزمایشی روی نسخه ای از فاکتور بیز که در زیر توضیح داده شده است، تصمیم گرفتم، اما برای پیشنهادات دیگر آماده هستم. من اطلاعات کمی در مورد آمار بیزی یا تئوری تصمیم دارم، و این پروژه تا حدی به تمرینی برای یادگیری برخی از نظریه های بیزی تبدیل شده است. تحصیلات آماری رسمی من ماهیت نسبتاً فراوانی داشته است. من همچنین کمی در مورد یادگیری ماشینی می دانم، اما به نظر می رسد که اینجا مرتبط نیست. در اینجا شرحی از پس زمینه است. داده‌ها مجموعه‌ای از دنباله‌ای از حروف با طول مساوی هستند، مثلاً $n$. حروف از برخی از حروف الفبای با حروف $r$ هستند. کاربرد خاص برای توالی‌های DNA است، یعنی رشته‌هایی که از چهار حرف A، C، G، T تشکیل شده‌اند. بنابراین در اینجا، $r=4$ است. هدف استفاده از عناصر چنین مجموعه‌ای از توالی‌های DNA (موسوم به موتیف) برای پیش‌بینی اینکه کدام توالی‌های دیگر متعلق به خانواده هستند، است. یادداشت شخصی/تاریخی: این کار از چند سال پیش به عنوان پروژه ای در نقوش یابی آغاز شد و رها شد. اخیرا دوباره آن را برداشتم. تا آنجا که من می توانم بگویم، رویکردی که در اینجا به آن اشاره شد، خارج از جریان اصلی یافتن نقوش است، زیرا موتیف یابی بیشتر به یافتن خانواده های نقوش جدید می پردازد، نه گسترش خانواده های موجود. این رویکرد می‌تواند برای یافتن اعضای جدید خانواده‌های موجود مورد استفاده قرار گیرد، اما نمی‌دانم چگونه می‌توان از آن برای یافتن خانواده‌های موتیف جدید استفاده کرد. اجازه دهید $\mathbf{X}=(X_1،\dots، X_n)$ یک بردار تصادفی باشد. ما این دنباله ها را به عنوان مجموعه ای از i.i.d مدل می کنیم. بردارهای تصادفی، $\\{\mathbf{X^{(i)}}=(X_1^{(i)}،\dots، X_n^{(i)})$، $i\in \mathcal{I} \\}$، جایی که $\mathbf{X^{(i)}}\sim\mathbf{X}$ $\forall i\in \mathcal{I}$. ما یک خانواده از توزیع‌های احتمال را برای X تعریف می‌کنیم. ابتدا سعی می‌کنیم عضوی از این خانواده را پیدا کنیم که برای داده‌ها مناسب‌تر است، و سپس از آن برای پیش‌بینی استفاده کنیم. فرض ما این است که $\mathbf{X}$ را می توان به زیرمجموعه های مجزا تقسیم کرد، به طوری که متغیرهای هر زیر مجموعه به یکدیگر وابسته هستند و زیر مجموعه ها متقابل مستقل هستند. برای تعریف توزیع احتمال مشترک در یکی از این زیر مجموعه ها کافی است. اجازه دهید $\mathbf{S}=(X_{j_1},\dots, X_{j_t})$ یک بردار فرعی از $\mathbf{X}$ برای زیر مجموعه $\\{j_1,\dots, j_t\ باشد. \} \در \\{1،2\dots، n\\}$. بنابراین، $\mathbf{S}$ مقادیر ممکن $k=r^t$ را می گیرد. سپس توزیع احتمال مشترک به عنوان یک توزیع احتمال طبقه‌ای روی $\mathbf{S}$ تعریف می‌شود. \begin{align}\label{prob} P(S=(s_{1}, s_{2}, \dots, s_{t})) = p_{s_{1}s_{2}\dots s_{t }} \end{align} بنابراین توزیع $\mathbf{S}$ با احتمالات $k$ تعریف می‌شود. توجه داشته باشید که متغیرهای تصادفی $\\{X_{j_1}،\dots، X_{j_t}\\}$ برای مقادیر کلی این احتمالات مستقل نیستند. اجازه دهید توجه خود را به دنباله زیر مجموعه‌های $\\{\mathbf{X^{(i)}}، i\in \mathcal{I}\\}$، مربوط به $\mathbf{S}$ محدود کنیم، که ما آن را $\mathbf{Y} = \\{\mathbf{S}^{(i)}، i\in \mathcal{I}\\}$ می نامیم. توجه داشته باشید که این یک دنباله از i.i.d است. متغیرهای طبقه بندی سپس احتمال $\mathbf{Y}$ \begin{align*} است P(\mathbf{Y}|\mathbf{p}, \mathcal{M}) = \prod_{i=1}^k p_i^ {f_i} \end{align*} که در آن $(f_1، \dots، f_k)$ فرکانس‌های $(s_{1} هستند، s_{2}، \dots، s_{t})$ در معادله~\ref{prob} برای برخی از ترتیب‌های ثابت، و $\mathcal{M}$ مدل انتخابی است، یعنی تقسیم $\mathbf{X} $ به زیر مجموعه ها. قبلی غیر اطلاعاتی مربوطه برای $\mathbf{p}$ \begin{align*} \pi(\mathbf{p}) = (k-1) است! I(\textstyle\sum_i p_i = 1) \end{align*} این یک مورد خاص از توزیع دیریکله است \begin{align*} \pi(\mathbf{p}) = \frac{\Gamma(\sum_i{ \alpha_i})}{\prod_i\Gamma(\alpha_i)} \prod_{i\in\mathcal{I}} p_i^{\alpha_i -1} I ( \textstyle\sum_i p_i = 1 ) \end{align*} با $\alpha_i=1$ $\forall i$. اکنون، با جستجوی مدلی که $P(\mathbf{Y}|\mathcal{M})$ را به حداکثر می‌رساند، می‌توان از انتخاب مدل بیزی برای انتخاب یک مدل مناسب استفاده کرد. فرض کنید یک نامزد مناسب برای این مدل پیدا کرده‌ایم، یعنی $\mathcal{M}_1$. مدل نامرتبط مربوطه را $\mathcal{M}_0$ فراخوانی کنید. ایده این است که سعی کنیم بین $\mathcal{H}_1=\mathcal{M}_1$ و $\mathcal{H}_0=\mathcal{M}_0$ تمایز قائل شویم تا سعی کنیم از این مدل برای پیش‌بینی استفاده کنیم. برای آزمایش این، از اعتبارسنجی متقاطع k-fold استفاده می کنیم. ما یک مجموعه داده از دنباله های مرتبط (موتیف) را به قسمت های مساوی $K$ تقسیم می کنیم. ما از K-1$ از این قطعات به عنوان مجموعه آموزشی و قسمت باقیمانده به عنوان مجموعه آزمایشی استفاده می کنیم. سپس یک قانون تصمیم را برای هر عنصر در مجموعه آزمایش اعمال می‌کنیم تا مشخص کنیم که آیا عنصر برای $\mathcal{M}_1$ یا $\mathcal{M}_0$ مناسب‌تر است. رویکرد واضح استفاده از عامل بیز است، یعنی \begin{align}\label{bayesfact} K = \frac{P(D|\mathcal{M}_1)} {P(D|\mathcal{M}_0) } = \frac{\int P(D|\تتا، \mathcal{M}_1)P(\theta|\mathcal{M}_1)\، d\theta} {\int P(D|\theta, \mathcal{M}_0)P(\theta|\mathcal{M}_0)\, d\theta} \end{align} که در آن $D$ یک عنصر منفرد در تی
طبقه بندی باینری موتیف های توالی DNA
18987
من باید مدل خطی بسازم که برای آن باید نمونه برداری گیبس را در شبیه سازی های MCMC انجام دهم. مدل مورد نیاز برای برازش یک مدل مختلط خطی است. لطفاً یک بسته R قوی برای این کار به من پیشنهاد دهید.
یک بسته R قوی برای انجام نمونه برداری MCMC و Gibbs
14209
من 110 متغیر و 200 نقطه داده دارم. از این 110 متغیر، یکی متغیر گروهی است (مثلاً چشم قهوه ای، چشم آبی). من می خواهم از تحلیل تفکیک برای طبقه بندی گروه ها بر اساس 119 متغیر باقی مانده استفاده کنم. از آنجایی که متغیرها بزرگ هستند، برای به دست آوردن یک نتیجه معنادار باید تعداد متغیرها را کاهش دهم. بنابراین، 3 گزینه برای من وجود دارد: 1) تجزیه و تحلیل متمایز گام به گام: من نمی خواهم از این روش استفاده کنم زیرا نسبت به آن تعصب دارم. 2) روش درخت طبقه بندی: این روش ایده ای در مورد اینکه کدام متغیرها بر رنگ چشم تأثیر می گذارند به دست می دهد. از آنجایی که مجموعه داده کوچک است، من از استفاده از این روش بیم دارم. 3) روش مؤلفه اصلی: من می توانم از این روش استفاده کنم. اما ترجیح می دهم متغیرهای اصلی را حفظ کنم. سوال من این است که آیا کسی می تواند لطفاً روش دیگری را برای انتخاب متغیرها برای تجزیه و تحلیل متمایز به من پیشنهاد دهد.
انتخاب متغیرها برای تجزیه و تحلیل متمایز
85496
من در درک حداکثر حداقل در بهینه سازی مشکل دارم. من می‌دانم که حداکثر کردن تابع هدف یا کمینه کردن آن به چه معناست، من واقعاً نمی‌فهمم که همزمان داشتن تابع هدف مانند حداکثر دقیقه به چه معناست. مثالی را در زیر قرار دادم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/kFL9C.png) کسی می تواند آن را برای من توضیح دهد؟
درک شهودی حداکثر دقیقه در بهینه سازی
85729
من سعی می کنم بفهمم که چگونه به درستی نرخ کشف نادرست را هنگام مقایسه چند آزمون فرضیه اعمال کنم. اگرچه من در اینجا از کد R استفاده می کنم، اما شک من در مورد رویه است، نه برنامه نویسی. من یک مدل اسباب‌بازی در R ساختم که از 10000 فرضیه (مثلاً بیان ژن) ساخته شده بود که در دو جمعیت 5 نمونه ساخته شده بود: set.seed (620) x = ماتریس (rnorm (10000*5)، nrow = 10000) y = ماتریس (rnorm( 10000*5)،nrow=10000) با این مجموعه داده های «x» و «y» می دانم که همه فرضیه صفر درست است من اکنون مقادیر p را ارزیابی می‌کنم: p = sapply(1:10000، تابع(i) t.test(x[i,],y[i,])$p.val) همانطور که انتظار می‌رود تعداد p-مقدارهای زیر 0.05 (یا هر عدد دیگری) 453 است، یعنی حدود 5٪ مثبت کاذب همانطور که انتظار می رود. سپس مقادیر p را با استفاده از تنظیم نرخ کشف نادرست تنظیم می‌کنم و مقادیر q را تخمین می‌زنم: q = p.adjust(x, method = fdr) حالا اگر درست متوجه شده باشم، فرضیه‌ای را انتخاب می‌کنم که مقدار q برابر با 0.05 است. باید 5 درصد اکتشافات نادرست (تعداد مثبت کاذب تقسیم بر تعداد اکتشافات) را بدست آورد. تعداد فرضیه با q < 0.05 0 است. من فکر می کنم که ممکن است به این دلیل باشد که، از آنجایی که تمام فرضیه های صفر درست هستند، مهم نیست که من چگونه q را انتخاب کنم، اکتشافات نادرست همیشه 100٪ در بین اکتشافات خواهند بود (من نیز به همین شکل است. برای خودم توضیح دهم که اکثر مقادیر q نزدیک به 1 هستند). سپس صد ردیف آخر y را با اعداد نمونه برداری شده با توزیع نرمال با میانگین 3 جایگزین کردم و p و مقادیر q را تخمین زدم: y[9901:10000] = rnorm(500، میانگین = 3) p = sapply (1:10000، تابع(i) t.test(x[i,],y[i,])$p.val) q = p.adjust(p, method = fdr) پس از این اصلاحات، تعداد p-value های < 0.05 به 544 افزایش می یابد و 98 مورد از 100 فرضیه ای که باید رد شوند شناسایی می شوند. با این حال، تعداد فرضیه‌هایی که مقادیر q کمتر از 0.05 دارند به‌طور شگفت‌انگیزی کم است: فقط 9. همه آنها فرضیه‌هایی هستند که باید رد شوند، بنابراین به نظر من نرخ کشف نادرست به جای 0.05 روی 0 نگه داشته شده است. برای مثال، اگر فرضیه با مقدار q = 0.5 را بپذیرم، در نهایت فرضیه 95 را می پذیرم. از این 95، 67 مورد کشفیات واقعی و 28 مورد کشفیات دروغین است. بنابراین FDR 28/95 = 0.3 است و آنطور که من انتظار دارم 0.5 نیست. چیزی هست که من درست متوجه نشده باشم؟ چرا نتیجه ای که من به دست می آورم با نتیجه ای که از نظر تئوری انتظار دارم بسیار متفاوت است؟
به درک نحوه اعمال صحیح تنظیم نرخ کشف نادرست کمک کنید
83893
اگر من 5000 نفر جمعیت داشته باشم، آمار نشان می دهد که باید حدود 350+ نمونه برداری کنم تا فاصله اطمینان 95٪ با حاشیه خطای 5٪ به دست آید. پس چرا من می بینم که گاهی اوقات می توانیم تا 30 را نیز از دست بدهیم؟! به نظر می رسد بسیار پایین تر از آنچه که همه این جدول ها و ماشین حساب ها نشان می دهند.
چرا 30 به عنوان حجم نمونه تبلیغ می شود در حالی که جداول چیز دیگری می گوید؟
41093
$X\sim N(52,6)$, $Y\sim (40,8)$. انحراف معیار $Z=X+Y$ چقدر است؟ من در نظر دارم رابطه خطی را به ماتریس تبدیل کنم $$Z=\begin{pmatrix} 1&1\\\ \end{pmatrix}\begin{pmatrix} X\\\ Y \end{pmatrix}$$ و اعمال کنم $$\Sigma_{z}=A \Sigma^{-1} A'$$ با این حال، قدم بعدی را نمی‌دانم. چگونه $\Sigma$ را محاسبه کنیم؟ متشکرم
انحراف استاندارد مجموع دو متغیر تصادفی با توزیع نرمال
44117
من یک آزمایش با 28 موضوع انجام داده ام. همه آزمایش ها را در 3 شرایط مختلف (A، B و C) انجام دادند. بنابراین من یک جدول مانند این دارم: نه. A B C 1 3 6 4 2 6 2 6 ... حالا فقط می خواهم یک تست RM-ANOVA یا یک تست فریدمن یا یک تست Quade انجام دهم. مشکل این نیست. من می خواهم از G*Power برای تعیین مقدار آلفای لازم برای تشخیص e استفاده کنم. g. یک اثر متوسط. من نمی دانم چگونه از G*Power در این مورد استفاده کنم. در اینجا یک اسکرین شات از نحوه انجام آن برای آزمون t آمده است: ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/6mWCJ.png) اکنون می خواهم همین کار را برای بیش از 2 انجام دهم. شرایط آیا کسی می تواند راهنمایی کند که چگونه این کار را انجام دهیم؟ این هم یک اسکرین شات از احتمالات: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/GmjhZ.png) **ویرایش:** سرچ کردم ظاهرا اسمش _یک طرفه است اندازه گیری های مکرر ANOVA_. بنابراین چگونه می توانم با G*Power به _One-way Repeed Measure ANOVA_ برای تعیین مقدار آلفای مورد نیاز (اندازه اثر داده شده و غیره) انجام دهم؟
ANOVA اندازه گیری های مکرر یک طرفه با G*Power
18988
من بارها ادعاهایی را دیدم که باید جامع باشند (نمونه های این گونه کتاب ها همیشه به گونه ای تنظیم شده است که واقعاً چنین بوده است)، از طرف دیگر نیز بارها کتاب هایی را دیدم که بیان می کردند باید انحصاری باشند ( برای مثال $\mathrm{H}_{0}$ به عنوان $\mu_1=\mu_2$ و $\mathrm{H}_{1}$ به عنوان $\mu_1>\mu_2$) بدون روشن شدن موضوع جامع فقط قبل از تایپ این سوال، در صفحه ویکی‌پدیا جمله قوی‌تری پیدا کردم \-- جایگزین نیازی به نفی منطقی فرضیه صفر نیست. آیا کسی باتجربه تر می تواند توضیح دهد که کدام درست است، و من سپاسگزار خواهم بود که دلایل (تاریخی؟) چنین تفاوتی را روشن کند (کتاب ها توسط آماردانان نوشته شده اند، یعنی دانشمندان، نه فیلسوفان). پیشاپیش از شما متشکرم.
آیا فرضیه های صفر و جایگزین باید جامع باشد یا خیر؟
71150
من دو مدل رگرسیون دارم و می خواهم یک ضریب بتا در مدل 1 را از model2 کم کنم. بدیهی است که من فقط می توانم این کار را روی یک ماشین حساب انجام دهم، اما آیا کسی تستی را می شناسد که بتوانم از آن در R استفاده کنم تا تفاوت را برای من آزمایش کند و فواصل اطمینان یا خطاهای استاندارد را به من بازگرداند. من سعی کردم یک t.test را اجرا کنم: t.test(betamod1,betamod2) و این خطا را دریافت کردم مشاهدات 'x' کافی نیست. همچنین سعی کردم یک z-score را با استفاده از z = (betamod1-betamod2) / sqrt( محاسبه کنم stanerrbetamod1^2 + stanerrbetamod2^2) پیشاپیش از شما متشکرم
تفریق ضرایب بتا دو مدل
25671
من اصلاً در آمار حرفه ای نیستم، بنابراین امیدوارم سوال خیلی ساده نباشد! من دو گروه بیمار دارم. یک گروه سیگاری و دسته دوم غیر سیگاری هستند. می خواهم سطح برخی از هورمون ها را در دو گروه مقایسه کنم تا ببینم آیا آنها تحت تأثیر سیگار هستند یا خیر. در بسیاری از مقالات، محققانی را یافتم که از آزمون من ویتنی استفاده می‌کنند تا ببینند آیا میانگین‌ها در بین دو گروه تفاوت معناداری دارند یا خیر. اما با خواندن پیرامون t-test، دیگر مطمئن نیستم که از کدام تست استفاده کنم... تست t-paired؟ آزمون t غیر جفت شده با همبستگی ولش؟ مان- ویتنی؟ یک دم، دو دم؟ کسی می تواند به من توضیح دهد که این وضعیت از کدام تست استفاده کنم و چرا؟ (به شکلی قابل درک برای مردم عادی؟) با تشکر فراوان!!!! **اطلاعات بیشتر:** دو گروه N = 102 (سیگاری ها) و 194 (غیر سیگاری) هستند، و من قرمز می کنم که برای N> 30 آزمون t غیر جفت و من ویتنی باید مشابه باشند، اما با استفاده از سه آزمون سه مقدار مختلف p دریافت کرد: * آزمون t غیر جفت شده: p = 0.0245 * آزمون t غیر جفت شده با تصحیح ولچ: p = 0.0318 * Mann-Whithney: p = 0.0620 همانطور که می بینید مقادیر p بسیار متفاوت است و با Mann-Whitney اهمیت حتی از بین می رود (>0.05)! **به روز رسانی 2:** همچنین همبستگی بین تعداد سیگار روزانه و سطح هورمون نتایج عجیبی به دست می دهد: تست اسپیرمن r = 0.1786 و p = 0.0725 را می دهد، در حالی که پیرسون r = 0.2472 و p = 0.0123 را می دهد. پس باز هم با یک تست پارامتریک نتیجه معنی دار است در حالی که با یک ناپارامتریک نه!!! من فکر می کنم که در این مورد ناپارامتریک درست تر است، زیرا ما نمی توانیم مطمئن باشیم که تعداد سیگار درست است، به خصوص که این یک مطالعه گذشته نگر است.
مقایسه میزان دود و هورمون در دو گروه از افراد. کدام آزمون؟
41095
من باید یک تجزیه و تحلیل داده ها را در R انجام دهم. داده های من شامل 2 جمعیت حیوانی است که 2 نوع ژنوم متفاوت دارند. بچه ها همیشه دوقلو به دنیا می آیند. وزن مادران و وزن ترکیبی بچه ها را هم بعد از 14 روز می دانم. من می خواهم مدلی بسازم که تغییر وزن دوقلوها را بعد از 14 روز توضیح دهد. داده ها: جمعیت 1 و 2 ژنوم 1 و 2 دوقلوها هر دو نر، هر دو ماده، یک ماده و یک نر وزن دوقلوها پس از 14 روز من قصد انجام آنکووا را دارم، اما آیا تجزیه و تحلیل بهتری وجود دارد که باید استفاده کنم؟ همه پیشنهادات استقبال می شود. با تشکر فراوان برای کمک.
انتخاب بهترین تحلیل
83898
من یک مجموعه داده پانل نامتعادل دارم که مجموعه ای از حدود 10 متغیر را پوشش می دهد که من به عنوان کنترل در یک رگرسیون به آنها بسیار علاقه مند هستم. با این حال، تنها تعداد کمی از این متغیرها در همه امواج موجود هستند: بیشتر آنها فقط برای چند موج پایین تا دو در دسترس هستند که فقط برای 5 موج در دسترس هستند. به‌علاوه، این متغیرها دارای نرخ‌های مفقودی بالایی هستند. اگر من فقط یک نمونه ایجاد کنم که در آن همه متغیرها در دسترس باشند، سهم زیادی از مشاهدات و سال ها را از دست می دهم. بنابراین من نمونه را به چند نمونه فرعی تقسیم کردم که هر کدام بسته به در دسترس بودن این متغیرها، یعنی نمونه 1 - نمونه بسیار کوچک اما همه متغیرها برای همه obs موجود هستند نمونه 2 - جایی در بین نمونه 3 - همه امواج و مشاهدات، اما برای بسیاری از افراد مشاهدات روی متغیرهای جالب در دسترس نیست. بنابراین اکنون از آزمون t برای بررسی اینکه آیا میانگین متغیر وابسته و برخی دیگر از متغیرهای کلیدی بی‌تأثیر در بین این نمونه‌ها متفاوت است یا خیر استفاده شد. متأسفانه در بیشتر موارد این کار را می کنند. من در مرحله اول آزمون t را انجام دادم تا ثابت کنم که مثلاً متغیر وابسته بین نمونه ها تفاوت معنی داری ندارد. من مطمئن نیستم که با اطلاعات چه کنم، که آنها متفاوت هستند. آیا کاری هست که بتوانم انجام دهم؟
اگر نمونه ها قابل مقایسه نیستند چه باید کرد؟
87389
من سه متغیر دارم (اندازه نمونه در زیر ذکر شده است)، و می‌خواهم داده‌ها را با استفاده از مدل‌های رگرسیون که توسط جاد و کنی (1981) توصیه شده است، تجزیه و تحلیل کنم تا ببینم آیا $cc$ رابطه بین $spdm$ و $cty$ را واسطه می‌کند (I' m با استفاده از اختصارات، نام متغیرها را در زیر ببینید). من یک مشکل اندازه نمونه نابرابر دارم و نمی دانم چگونه با آن برخورد کنم. من چند کتاب خوانده‌ام و مقالات زیادی را مرور کرده‌ام، اما هیچ‌کدام نمونه‌هایی با اندازه‌های نابرابر را ذکر یا تحلیل نکرده‌اند. **من می خواهم 3 مدل را اجرا کنم که 2 مدل با نمونه های نامساوی هستند:** مدل 1: $spdm = \beta \cdot cty + e$ model 2: $cty = \beta_1 \cdot cc + \beta_2 \cdot spdm + e$ (که در آن $e$ خطا است) **سوالات من:** * چگونه می توانم داده های خود را در رگرسیون تجزیه و تحلیل کنم؟ آیا می توان نمونه هایی با اندازه نابرابر را تجزیه و تحلیل کرد؟ * در جایی از وب خواندم که می توانید یک نمونه تصادفی از نمونه بزرگ بکشید تا آن را با نمونه های دیگر برابر کنید. آیا می توانم این کار را انجام دهم؟ _لطفا منبع هر کتاب یا مقاله ای را ارائه دهید._ **اندازه ها و متغیرهای نمونه:** * a = 100 ($spdm =$ مشارکت ناظر در تصمیم گیری) * b = 100 ($cc =$ جو خلاقانه) * c = 500 ($cty =$ خلاقیت)
نحوه تجزیه و تحلیل نمونه های نابرابر در رگرسیون خطی و چندگانه
14203
من ابرهای 2 نقطه ای دارم (نقاط سه بعدی). من به صورت بصری می توانم بگویم که گسترش در یک ابر بسیار بزرگتر از دیگری است، و من همچنین بیضی های خطای آنها را ترسیم کرده ام. اکنون، من به دنبال یک آزمایش آماری هستم که ثابت کند گسترش در یک ابر بزرگتر است. بنابراین سوال من این است که اگر من از آزمون آماری مانند Levene/Brown-Forsyth/Box-M برای آزمایش اینکه آیا واریانس دو جمعیت برابر نیستند استفاده کنم، آیا به این معنی است که من از نظر آماری نشان داده ام که واریانس (یا گسترش) یا ابرها متفاوت هستند؟
چگونه نشان دهیم که واریانس 2 مجموعه از نقاط سه بعدی متفاوت است؟
41635
من چیزی را از یک دوره آمار سال ها پیش به یاد دارم که ممکن است اکنون مفید باشد. من می‌خواهم بین بیمارانی که علائم را در سراسر تخته نشان می‌دهند، در مقابل بیمارانی که به طور مشابه امتیازهای مجموع بالایی دارند، اما به دلیل چند علامت بسیار بالا، تمایز قائل شوم. علائم دارای مقیاسی از 0 تا 3 هستند. روش زیر را به خاطر می آورم (تصور کنید برای هر بیمار 3 علامت داریم): 1. درصد هر علامت را نسبت به مجموع نمره علائم آن شخص محاسبه کنید، بنابراین s1/sum، s2/ مجموع، s3/sum. بیایید این 3 مقدار را p-value بنامیم. 2. لاگ طبیعی از این 3 مقدار بسازید. بیایید این مقادیر p(ln) را بنامیم. (اگر مقدار اصلی 0 است، نتیجه آن باید 0 باشد، یا مقیاس را تغییر دهید که دیگر 0 وجود ندارد) 3. محاسبه کنید: -2*p*p(ln) برای هر علامت. 4. این موارد را در تمام علائم خلاصه کنید. با استفاده از این روش، اگر همه علائم به یک اندازه بالا باشند (مهم نیست که همه آنها 1 یا هر 3 باشند)، مقادیر یکسانی را دریافت می کنم، این همان چیزی است که من می خواهم. با این حال، واریانس در مقدار بین شرکت‌کنندگان با الگوهای پاسخ‌دهی بسیار مساوی، و تنها تعداد کمی از علائم بسیار بالا، بسیار کم است، که می‌تواند به دلیل مقیاس کوچک علائم 0-3 باشد (تفاوت‌ها با استفاده از مقادیر بالاتر بزرگ‌تر می‌شوند). من مطمئن نیستم که نام آنتروپی یا فرمول را به اشتباه به خاطر دارم یا خیر، و از کمک ممنونم. آیا می توانم تفاوت ها را تفک کنم، به عنوان مثال. استفاده از 1 10 100 1000 به جای 0 1 2 3 به عنوان مقادیر نشانه؟
آنتروپی (افراد در همه موارد به همان اندازه بالا هستند در مقابل فقط در چند مورد بالا)
87385
هنگامی که یک توپ سیاه کشیده می شود، در مجموعه جایگزین نمی شود، بلکه توپ های سفید جایگزین می شوند. من به این فکر کرده ام، با نمادهای: * $b$, $w$ تعداد اولیه توپ های سیاه و سفید * $x_i = (b - i)/(b + w - i)$ احتمال ترسیم یک سیاه توپ $Pb(n)$ بعد از n تساوی: $$\eqalign{Pb(0) &= x_0\\\ Pb(1) &= (1-x_0)x_0 + x_0x_1\\\ Pb(2) &= (1-x_0)^2x_0 + x_0x_1(1-x_0)+ x_0x_1(1-x_1) + x_0x_1x_2 \\\ Pb(n) &= \sum\limits_{k=0 }^{n-1} (\prod\limits_{i=0}^k x_i \prod\limits_{i<=k}^{n-k\ Terms} 1-x_i) }$$ این مجموع با n نامحدود به نظر می‌رسد، حتی اگر برخی از عبارت‌ها پوچ باشند زیرا $x_{i \ge b}=0$ به جز $ b=1$: $Pb(n) = (1-x_0)^nx_0 $ برای $b=2$: $Pb(n)= x_0(1-x_1)^n + x_0x_1\sum\limits_{i+j=n-1} (1-x_0)^i(1-x_1)^j$ آیا راه حل شناخته شده ای برای این مشکل وجود دارد؟
احتمال رسم یک توپ سیاه در مجموعه ای از توپ های سیاه و سفید با شرایط جایگزینی مختلط
14205
به عنوان مثال، الگوریتم جنگل تصادفی به ویژه در معرض تنظیم بیش از حد نیست زیرا دارای 1 فراپارامتر، mtry است و mtry معمولاً تأثیر زیادی در نتیجه الگوریتم ندارد. از سوی دیگر، تصور می‌کنم الگوریتم knn مستعد تنظیم بیش از حد است، زیرا فراپارامتر تعداد همسایگان طیف گسترده‌ای از مقادیر ممکن را دارد و تأثیر زیادی بر نتیجه الگوریتم دارد.
چه تکنیک های یادگیری ماشینی به ویژه در معرض تنظیم بیش از حد فراپارامترهای خود هستند؟
83891
با توجه به مجموعه ای از بردارهای ویژگی $X=\\{\vec{x}_1,..,\vec{x}_n\\}$، داده های حقیقت زمین دودویی $Y=\\{y_1,..,y_n\ \}$ و پیش‌بینی پیوسته $\bar{Y} = \\{\bar{y}_1,..,\bar{y}_n\\}\در [0,1]$، می‌خواهم مقداری را انجام دهم تجزیه و تحلیل رگرسیون برای تخمین تابع $f(\vec{x}_p) \approx e_p$ که در آن $e_p = abs(y_p - \bar{y_p})$. در عمل می‌خواهم بتوانم اطمینان یک طبقه‌بندی را بر اساس برخی ویژگی‌های خارجی که به خود طبقه‌بندی‌کننده تعلق ندارند (که به عنوان یک جعبه سیاه در نظر گرفته می‌شود) پیش‌بینی کنم. یک مثال می تواند این باشد: من یک طبقه بندی دارم که پیش بینی می کند ماهی آزاد است یا کپور. با توجه به مجموعه‌ای از ویژگی‌ها مانند وزن، اندازه، رنگ چشم و غیره، می‌خواهم معیاری پیدا کنم که به من بگوید طبقه‌بندی‌کننده بر اساس آن ویژگی‌ها چقدر قابل اعتماد است. به عنوان مثال ممکن است بفهمم که طبقه بندی کننده برای ماهی های کوچکتر از 30 سانتی متر قابل اعتماد نیست. من در این زمینه متخصص نیستم و به دنبال بهترین راه برای ادامه کار هستم.
تخمین اطمینان یک پیش بینی
87381
برای یک رگرسیون پواسون، می‌توانیم نوردهی $\epsilon_i$ را در مشاهده $Y_i$ به صورت $Y_i \sim Poisson(\epsilon_i*\lambda)$ مدل‌سازی کنیم. به عنوان مثال، در یک رگرسیون پواسون، اگر مشاهده کنیم: $y = \begin{bmatrix} 2 & 3 & 4 & 5 \end{bmatrix}$ با قرار گرفتن در معرض $\epsilon = \begin{bmatrix} 2 & 1 & 1 & 1 \end{bmatrix}$ و متغیر کمکی $x = \begin{bmatrix} 2.1 & 3.1 & 4.3 و 5.2 \end{bmatrix}$ ما یک رگرسیون با همان ضرایب خواهیم داشت که اگر مشاهده کرده‌ایم: $y = \begin{bmatrix} 1 & 1 & 3 & 4 & 5 \end{bmatrix}$ با قرار گرفتن در معرض $\epsilon = \begin{bmatrix} 1 & 1 & 1 & 1 & 1 \end{bmatrix}$ And متغیر کمکی $x = \begin{bmatrix} 2.1 & 2.1 & 3.1 & 4.3 & 5.2 \end{bmatrix}$ زیرا پواسون را می توان به صورت (متناسب با) $\lambda^{(\sum Y)} e^{ نوشت (\sum \epsilon)}$، بنابراین تا زمانی که مجموع مجموع y و نوردهی را ثابت نگه داریم مهم نیست و این، اگر اشتباه می‌کنم، مرا تصحیح کنید، توتولوژی خاصیت برابری میانگین پواسون و واریانس است. این برای یک دوجمله ای منفی دنبال نمی شود زیرا واریانس آن با میانگین آن متفاوت است. در اینجا یک مثال در R آورده شده است تا نشان دهد که این برای پواسون دنبال می‌شود، اما برای دوجمله‌ای منفی اینطور نیست: نیاز (MASS) #این 3 ضرایب یکسان دارند: glm(c(روز[1]*2، روز[-1] ) ~ جنسیت/(سن + Eth * Lrn) + افست (log(c(2,rep(1,nrow(quine)-1)))) داده = کوین، خانواده=پواسون()) glm(روزها ~ جنسیت/(سن + Eth * Lrn)، داده = کوین، وزن=c(2، تکرار(1،nrow(کوین)-1))، خانواده=پواسون ()) glm(روزها ~ جنسیت/(سن + Eth * Lrn)، داده = rbind(quine[1،]، quine)، خانواده=poisson()) glm.nb(c(روز[1]*2، روز[-1]) ~ جنسیت/(سن + Eth * Lrn) + offset(log(c(2، تکرار(1، ردیف(کوین)-1)) ))، داده = کوین) #بالا ضرایب متفاوتی از دو مورد زیر تولید می کند: glm.nb(روزها ~ جنسیت/(سن + Eth * Lrn)، داده = کوین، وزن=c(2، تکرار(1، ردیف(کوین)-1))) glm.nb(روزها ~ جنسیت/(سن + Eth * Lrn)، داده = rbind(کوین[1،]، کین)) بنابراین، آیا همچنان می‌توانیم از نوردهی روی آن به روشی مشابه استفاده کنیم: $Y_i \sim منفی\\_binomial(\epsilon_i*\mu, \phi)$ (پارامتری با استفاده از میانگین و پراکندگی بیش از حد)؟ در مورد توزیع‌های دیگر، آیا این ایده نوردهی می‌تواند مثلاً برای یک دوجمله‌ای اعمال شود؟ چگونه؟ آیا ما موظف هستیم که آن را با استفاده از میانگین پارامتری کنیم؟
قرار گرفتن در معرض رگرسیون دو جمله ای منفی و سایر توزیع ها
87386
وقتی واحدهای نمونه گیری اولیه یکسان اما پاسخ دهندگان متفاوت در دو موج بررسی طولی دارم، چه آزمونی را برای اندازه گیری تغییر در نسبت ها و میانگین ها باید اعمال کنم؟ آیا باید از آزمون مک نمار برای نسبت و آزمون t نمونه های وابسته برای میانگین استفاده کنم یا کدام آزمون را برای مطالعه تفاوت بین دو موج؟ چگونه می توانم این کار را در STATA انجام دهم؟
آزمایش اندازه گیری تغییر زمانی که واحدهای نمونه اولیه مشابه اما پاسخ دهندگان متفاوت در دو موج بررسی طولی دارید.
87382
من سعی می کنم با استفاده از proc logistics در SAS تبدیل فروش را پیش بینی کنم. در حال حاضر من حدود 3 ماه داده دارم و به مرور زمان به بیش از یک سال افزایش می یابد. شهود من این است که جدیدترین داده‌ها پیش‌بینی‌کننده بهتر رویداد هستند، و از این رو می‌خواهم داده‌ها را با استفاده از روش وزن‌دهی نمایی وزن کنم. برای این من دو سوال دارم: 1. چگونه ثابت فروپاشی بهینه را برای وزن دهی نمایی انتخاب کنم؟ آیا راهی علمی برای انجام آن به جای آزمون و خطا وجود دارد؟ 2. با بزرگتر شدن داده های من، آیا راهی برای اطمینان از تغییر وزن نمایی یا بهینه ماندن آن وجود دارد؟ این نیز ممکن است باعث بیش از حد برازش شود. من سعی کردم این را در انجمن جستجو کنم اما توضیحی در این زمینه پیدا نکردم. هر کمکی بسیار قدردانی خواهد شد. با تشکر
چگونه ثابت واپاشی نمایی را برای وزن دهی در لجستیک پروک انتخاب کنیم؟
79789
از من خواسته شده است که سعی کنم سوال تحقیق خود را به صورت روش شناختی در یک طرح آزمایشی عملیاتی کنم، اما از آنجایی که این اولین تجربه من در انجام این کار است، مطمئن نیستم و به دنبال کمکی هستم. ما به سیستم‌های شهرت (مانند eBay) نگاه می‌کنیم که در آن ارائه پاداش‌ها و/یا تحریم‌ها می‌تواند بازارها را تثبیت کند و تجارت را حتی در غیاب یک چارچوب قانونی کارآمد تسهیل کند. ما به طور خاص علاقه مند به تجزیه و تحلیل اثر علی دو متغیر X و Y بر روی نوع اطلاعات ارائه شده توسط سوژه ها هستیم و فرض می کنیم، برای مثال، یک اثر متقابل بین X و Y با احتمال کمتر تحریم مرتبط است. بنابراین من به استفاده از یک طراحی 2x2 فکر می کنم و سوال من این است که چگونه متغیر نتیجه خود را تعریف کنیم. یک نکته این است که به آزمودنی‌ها اجازه دهیم شرکای تجاری خود را در مقیاسی از 2- تا 2+ رتبه‌بندی کنند که در نتیجه می‌توانند تحریم‌هایی را بر حسب امتیاز منفی یا پاداش‌هایی از نظر امتیاز مثبت (یعنی -2، -1، 0، +1) ارائه کنند. ، +2). آیا با وجود اینکه ما علاقه مند به تجزیه و تحلیل اثرات X و Y بر تحریم ها (رتبه های منفی -2، -1) به طور جداگانه از اثرات آنها بر پاداش (رتبه های مثبت -1، -2) هستیم، می توان آن را به این شکل تعریف کرد؟ و اگر چنین است، چگونه می توانیم با رتبه های 0 مقابله کنیم؟ من از هر گونه کمک یا پیشنهادی بسیار سپاسگزار خواهم بود. با تشکر، KML
متغیر نتیجه در طراحی آزمایشی
83767
من رگرسیون چندگانه را روی زیرمجموعه ای از مجموعه داده NLYS79 انجام می دهم، یعنی زیرمجموعه ای حاوی 540 پاسخ دهنده. و به اهمیت رقابت بر درآمد علاقه مند هستم. متغیرهای من در اینجا عبارتند از: سالهای تحصیل، ASVABC (معیار هوش)، قومیت سیاهپوست، قومیت سفیدپوست، زن، مدت تصدی، ساعات کار در هفته و متاهل*مرد. $$\log(\text{درآمد}) = \alpha +\beta_1\text{ASVABC}+\beta_2\text{ethblack}+ \beta_3\text{ethwhite}+\beta_4\text{female} \\\\ +\beta_5\text{Schooling}+\beta_6 \text{tenure}+\beta_7\text{hours}+\beta_8\text{married*male}$$ برای همه این متغیرها، ما منبعی داریم که حاوی اطلاعاتی در مورد نحوه تأثیر آن بر دستمزد است. حال سوال من این است: همه متغیرهای من به جز ethblack/ethwhite قابل توجه هستند (|t-statistic| > 2) آیا می توانم از داده هایم چیزی نتیجه بگیرم؟ چگونه بفهمم که معادله رگرسیون من مشکلی دارد؟ در اصل نتیجه من چیزی است که می خواهم: که اکنون دارم، اما کل چیز «حذف متغیر» در حال حاضر من را متحیر کرده است. من می‌دانم که در مجموعه داده‌های من مشکلاتی وجود دارد، برای مثال من توزیع عادلانه نژادهای سیاه، سفید و اسپانیایی به ترتیب 63، 599، 34 را ندارم.
آیا باید یک متغیر به رگرسیون خود اضافه کنم؟
41639
> ما یک توزیع نمایی داریم > $$f(x)=\frac{e^\frac{-x}{\theta}}{\theta}$$ > > به ما گفته شده که $n=3$ و داده ها به صورت $x_1=1، x_2=2.5، > x_3=5.5$ > > داده می شود.) فاصله اطمینان تقریبی 95% را بر اساس مجانبی > نرمال بودن تعیین کنید. $\overline{x}$ > > b.) فاصله اطمینان تقریبی 95% را براساس توزیع مجانبی > انحراف $D(\theta)$ تعیین کنید. راه حل لازم نیست > دقیق باشد. به تابع g توجه کنید که به صورت $$g(\theta)= > \frac{3}{\theta}+\ln\theta -\ln3-1$$ تعریف شده است: سؤالات من: a.) من باید میانگین نمونه، و سپس چیزی $z_{ \frac{\alpha}{2} }\frac{\sigma}{\sqrt n}$ را جمع کنم؟ با $z_{0.025}=1.96؟$ چه مقداری برای $\sigma$ استفاده کنم؟ ب) انحراف $D(\theta)$ به چه معناست؟ این سوال یک نمودار اضافه کرد، در محور x من تتا را از 0 تا 14 می بینم و در محور y می بینم (یک احتمال؟) از 0.0 تا 1.0 آیا این ربطی به تابع توان آزمون دارد؟ من باید در مورد نیمن-پیرسون، آزمون های نسبت احتمال، تابع توان یک آزمون اطلاعات داشته باشم.
فاصله اطمینان برآوردگر برای توزیع نمایی
87655
آیا کسی می داند که چگونه می توان واریانس برآوردگر نوسانات بن ژو (قضیه 1) را در داده های فرکانس بالا و نوسانات در نرخ های ارز خارجی (1996) استخراج کرد؟ لینک PDF پیوست شد هر گونه کمکی بسیار قدردانی خواهد شد.
اشتقاق برآوردگر نوسانات ژو (1996).
87657
من باید تجزیه و تحلیل کنم که آیا یک شبکه (که به عنوان یک نمودار نشان داده می شود) اتصال خود را در طول زمان حفظ می کند یا خیر. داده هایی که من از شبیه سازی به دست آورده ام در اینجا آورده شده است، جایی که L1 به راس نمودار اشاره می کند و ستون value نشان دهنده درجه هر گره است. علاوه بر این، این داده از این مرحله از محاسبه در R به دست می آید: m <- melt(x,id=time) ترسیم ggplot(m,aes(x=time,y=value)) +stat_summary(fun. داده = mean_sdl، geom = صاف)+stat_summary(fun.data = mean_sdl، geom = نوار خطا) در این تصویر زیر آورده شده است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/M8axH.png) با دیدن اینکه نتیجه خطاهای زیادی داشت و من نتوانستم محل اتصال را بررسی کنم ثابت ماند یا خیر، من سعی کرده ام برای درجه هر گره acf آن را در طول زمان ارزیابی کنم (به عنوان یک سری زمانی) و از این رو نتیجه زیر را با همان دستور ترسیم به دست آورده ام: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/HnaZ1.png) این کمکی به کاهش خطا نکرد. من می‌پرسم آیا تکنیکی برای دریافت خطاهای کمتر وجود دارد و با استفاده از آن مشخص می‌شود که آیا شبکه در طول زمان همان اتصال را حفظ می‌کند یا خیر. آیا تجزیه و تحلیل فرکانس بر روی تعداد گره های با درجه یکسان در طول زمان می تواند مفید باشد و خطاهای من را کاهش دهد؟ پیشاپیش ممنون
R - اتصال به شبکه در طول زمان
83899
من می خواهم بدانم چگونه عملکرد مدل های خود را تعیین می کنید؟ یعنی اگر شما یک مدل لاجیت چندجمله ای یا پروبیت را برای انتخاب گسسته نامرتب مناسب کنید. برای ارزیابی اینکه آیا مدل خوبی دارید از چه چیزی استفاده می کنید؟ لطفاً هر مطلب مرجعی را که بتوانم در مورد این موضوع بیشتر مطالعه کنم به من ارائه دهید. وب سایت ها، مقالات یا مراجع کتاب در این زمینه کمک بزرگی خواهند بود. یه جورایی گیر کردم! من R، SAS، Stata، SPSS و Minitab را در دسترس دارم.
چگونه یک تناسب مدل Logit و Probit چند جمله ای را تأیید کنیم؟
83763
من یک فرمول برای محاسبه فاصله زوجی بین نمونه‌ها با توجه به SNP‌هایشان در مقاله زیر پیدا کردم: Siu, Jin and Xiong, Manifold Learning for Human Population Structure Studies, PLoS One (2012) 7(1), p. 13. فرمول $d = 1-\frac{1}{2k}\sum_{j=1}^k (\frac{1}{P_{A_j}}IBS_{A_j}+\frac{1}{ P_{a_j}}IBS_{a_j}+\frac{1}{P_{N_j}}IBS_{N_j})$ کجا $IBS_{A_j}، IBS_{a_j}، IBS_{N_j}$ به ترتیب تعداد کپی‌های آلل $A_j,a_j$ و آلل گمشده $N_j$ در $j$-th SNP مشترک توسط جفت افراد باشد. و $P_{A_j},P_{a_j},P_{N_j}$ فرکانس‌های آلل های $A_j,a_j,$ و $N_j$ به ترتیب و $k$ تعداد SNP ها است. برای سادگی، فرض می کنیم که هیچ مقدار گم نشده ای وجود ندارد و $k=1$. مواردی مانند AA-AA، Aa-Aa، aa-aa، AA-Aa، Aa-aa، AA-aa خواهیم داشت. فاصله برای سه مورد اول باید $0 باشد. بیایید از فرمول برای محاسبه حالت Aa-Aa استفاده کنیم: باید $IBS_A=1,IBS_a=1,P_A=\frac{1}{2},P_a=\frac{1}{2}$ و سپس مقدار فرمول به من فاصله منفی می دهد. چگونه ممکن است؟ طبق درک من، $d$ می تواند برابر با $0,\frac{2}{3},1$ باشد. ما $\frac{2}{3}$ داریم زیرا وزن دار است؟ آیا فرمول دیگری برای محاسبه فاصله زوجی با توجه به SNP های نمونه وجود دارد؟
درک فاصله ژنتیکی وزن دار با فرکانس آلل
83760
فرض کنید مقادیر $N$ را از یک مجموعه محدود می‌گیرید، مثلاً $[0، 1]$ بدون از دست دادن کلیت. اگر حق با من باشد، مقادیر متمرکز $X-m$ در محدوده $[{1\over N}-1، 1-{1\over N}]$ باقی می‌مانند (با در نظر گرفتن نامتعادل‌ترین موارد 0/1). و انحراف معیار در محدوده $[0,{1 \over 2}]$ (حتی $N$) یا $[0,{1\over 2}\sqrt{1-{1\over N^2}}] $ (افراد $N$) (با در نظر گرفتن متعادل ترین موارد 0/1). اما محدوده مقادیر متمرکز-کاهش شده ${X-m\over s}$ چقدر است؟ چگونه می توانم به این موضوع رسیدگی کنم؟
محدوده یک نمونه متمرکز و کاهش یافته که از یک دامنه محدود گرفته شده است
87388
من سعی می کنم یک مدل مخلوط حاوی گاما و توزیع نمایی را برازش کنم: شکل کلی با استفاده از pdf ها به این صورت است: p * gammapdf + (1-p) * نمایی pdf. پی دی اف های Gamma و Exponential به ترتیب به شرح زیر است: ![Gamma PDF](http://i.stack.imgur.com/iVv1O.png) ![Exponential PDF](http://i.stack.imgur .com/WBIZL.png) در matlab مخلوط این دو را به صورت زیر کدنویسی کرده ام: (p * ((1/(gamma(k) * تتا^k)) * (x(i)^(k-1)) * (exp(-x(i)/تتا)))) + ((1-p) * (1/لامبدا) * exp(- x(i)/lambda)) که در آن p احتمال گاما و 1-p احتمال نمایی است، گاما فراخوانی داخلی matlab به تابع گاما، k پارامتر شکل است. تتا پارامتر مقیاس گاما و لامبدا نرخ نمایی. x بردار حاوی تمام داده ها است و i x را نمایه می کند (من از یک حلقه for برای ارزیابی هر نقطه داده با مدل استفاده می کنم، می توانم آن را برداریم، اما سرعت در واقع بسیار خوب است، همه چیز در نظر گرفته می شود). با این حال، داده‌های پیش‌بینی‌شده به چیزی نزدیک به آنچه که انتظار می‌رود نیست. شهود من این است که مشکلی در نحوه کدگذاری بخش گاما از توزیع مخلوط وجود دارد. با بررسی این موضوع، آیا کسی پیشنهادی برای بهبود این موضوع دارد؟ علاوه بر این، اگر وقت دارید، توزیع مخلوط دومی که من سعی می کنم به صورت دستی برازش کنم، مخلوطی از توزیع های نمایی و گاوسی معکوس است. در زیر pdf مربوط به گاوس معکوس است![Inverse Gaussian](http://i.stack.imgur.com/gdbwr.png) و کد این مدل مخلوط: (p * ((lambda/(2*pi*) (x(i)^3)))^0.5 * (exp((-lambda*((x(i) - mu)^2))/(2*(mu^2)*x(i)))))) + ((1-p) * (1/lambda_exp) * exp(-x(i)/lambda_exp)) در جایی که p مانند بالا است، به جز اینکه p مربوط به گاوسی معکوس است، لامبدا میانگین گاوسی معکوس، mu انحراف معیار، و lambda_exp نرخ است. نمایی و دوباره x مانند بالا است. من از تخمین حداکثر درستنمایی استفاده می‌کنم، جایی که لاگ طبیعی هر مقدار را می‌گیرم و سپس آن مقادیر را جمع می‌کنم تا یک مقدار log-relihood (LL) بدست بیاورم که سپس در تابع کمینه‌سازی بازپخت شبیه‌سازی شده (SA) در متلب تغذیه می‌شود تا بهترین پارامتر را پیدا کنم. ارزش ها توجه داشته باشید که از آنجایی که SA به حداقل می رسد، من یک علامت منفی در جلوی مقدار LL قرار می دهم که عملاً باعث می شود SA به حداکثر برسد. من تک تک اجزای مخلوط‌هایم را شکستم و تأیید کرده‌ام که با استفاده از این فرآیند، مقادیر پارامتر یکسانی را هنگام برازش توزیع واحد به‌عنوان توابع داخلی در matlab دریافت می‌کنم. اکنون فکر می‌کنم مسئله در این است که چگونه مقادیر پیش‌بینی‌شده را دریافت کنم و سپس آنها را رسم کنم. تاکتیک من در اینجا این بود که همان معادلات را از بالا بگیرم و مقادیر پارامترها و داده ها را برای بدست آوردن مقادیر پیش بینی شده تغذیه کنیم. این به هر حال و بدیهی است که pdf داده ها را به من می دهد و نه مقادیر واقعی پیش بینی شده را. سوال من این است که با توجه به اینکه من ترکیبی از دو pdf توزیع دارم، چگونه می توانم مقادیر واقعی پیش بینی شده را از آنها دریافت کنم تا بتوانم آنها را در مقابل یکدیگر ترسیم کنم؟ با تشکر.
نصب دستی توزیع مخلوط در متلب
5490
فرض کنید یک میدان حسگر با ابعاد M*M داریم. برای اعمال هر تکنیک فشرده سازی داده، ابتدا می خواهم بدانم حد فشرده سازی یا حداقل آنتروپی کل میدان حسگر چقدر است. چگونه می توانم حداقل آنتروپی یا حد فشرده سازی را برای میدان حسگر محاسبه کنم؟ یا در واقع من می خواهم حد فشرده سازی نظری را داشته باشم. بیایید مشکل را برای یک تصویر قرار دهیم. می خواهم بدانم آیا روش های ریاضی برای محاسبه حد فشرده سازی نظری وجود دارد یا خیر. لطفاً به من اطلاع دهید یا هر گونه مطالعه برای فرمول بندی مشکل را پیشنهاد دهید. با تشکر
چگونه حد تراکم نظری را محاسبه کنیم؟
47675
من از انتساب تصادفی عرشه داغ بر روی مجموعه داده اندازه گیری های مکرر استفاده می کنم. من وسوسه می شوم از قوانین روبین برای ادغام نتایج انتساب چندگانه، به ویژه برای ضرایب رگرسیون استفاده کنم. به طور شهودی به نظر می رسد می توان از میانگین تخمین های ضرایب استفاده کرد، اما من واقعاً هیچ بینشی در مورد ادغام خطاهای استاندارد ندارم و هیچ ادبیاتی در این مورد ندیده ام (به نظر می رسد کتاب لیتل و روبین در این مورد ساکت است، مگر اینکه من چیزی را از دست داده‌ام) چگونه می‌توانم تخمین‌های ضریب رگرسیون و خطاهای استاندارد آن‌ها را هنگام اجرای انتساب تصادفی عرشه داغ جمع کنم؟ توصیه های عمل گرایانه، توجیه نظری و/یا ارجاعات به ادبیات بسیار مورد استقبال قرار خواهند گرفت. **ویرایش**: برای روشن شدن، منظورم از انقلاب عرشه داغ تصادفی این است: > انتساب عرشه داغ شامل جایگزینی مقادیر از دست رفته یک یا چند > متغیر برای یک غیر پاسخگو (به نام گیرنده) با مقادیر مشاهده شده > از یک پاسخ دهنده (اهداکننده) که با توجه به ویژگی های مشاهده شده توسط هر دو مورد شبیه به غیر پاسخگو است. در برخی از نسخه‌ها، اهداکننده به‌طور تصادفی از میان مجموعه‌ای از اهداکنندگان بالقوه انتخاب می‌شود که ما آن را جمع اهداکننده می‌نامیم. ما این روش ها را روش های عرشه داغ تصادفی می نامیم http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3130338/
ادغام نتایج انتساب تصادفی عرشه داغ
41637
من سعی می کنم یک مدل ترکیبی چند متغیره (یعنی پاسخ چندگانه) را در «R» جا بدهم. جدا از بسته‌های «ASReml-r» و «SabreR» ​​(که نیاز به نرم‌افزار خارجی دارند)، به نظر می‌رسد این کار فقط در «MCMCglmm» امکان‌پذیر است. در مقاله ای که با بسته «MCMCglmm» (صفحه 6) همراه است، جارود هادفیلد فرآیند برازش چنین مدلی را توصیف می کند، مانند تغییر شکل متغیرهای پاسخ چندگانه در یک متغیر با فرمت طولانی و سپس سرکوب رهگیری کلی. درک من این است که سرکوب رهگیری تفسیر ضریب را برای هر سطح از متغیر پاسخ تغییر می دهد تا میانگین آن سطح باشد. با توجه به موارد فوق، آیا می توان یک مدل ترکیبی چند متغیره را با استفاده از «lme4» برازش داد؟ به عنوان مثال: data(mtcars) library(reshape2) mtcars <- melt(mtcars,meter.vars = c(drat، mpg، hp)) library(lme4) m1 <- lmer(مقدار ~ -1 + متغیر: دنده + متغیر: کربوهیدرات + (1 | ضریب (کربوهیدرات))، داده = mtcars) خلاصه (m1) # مناسب مدل ترکیبی خطی توسط REML # فرمول: مقدار ~ -1 + متغیر: چرخ دنده + متغیر: کربوهیدرات + (1 | فاکتور(کربوهیدرات)) # داده: mtcars # AIC BIC logLik انحراف REMLdev # 913 933.5 -448.5 920.2 897 # اثرات تصادفی: # نام گروه Variance Std.Dev. # factor(carb) (Intercept) 509.89 22.581 # Residual 796.21 28.217 # تعداد obs: 96، گروه: factor(carb)، 6 # # اثرات ثابت: # Estimate Std. خطای t مقدار # variabledrat:gear -7.6411 4.4054 -1.734 # variablempg:gear -1.2401 4.4054 -0.281 # variablehp:gear 0.7485 4.4054 0.170 # variabledrat: gear 0.170 # variablempg:gear -1.2401 variablempg:carb 3.3779 4.7333 0.714 # variablehp:carb 43.6594 4.7333 9.224 چگونه می توان ضرایب را در این مدل تفسیر کرد؟ آیا این روش برای مدل های مختلط خطی تعمیم یافته نیز جواب می دهد؟
چگونه ضرایب یک مدل ترکیبی چند متغیره را در lme4 بدون قطع کلی تفسیر کنیم؟
41638
من توزیع زیر را دارم که برای $0 < x < \theta$ تعریف شده است، در غیر این صورت مقدار آن $0$ است. $$f_\theta(x)= \frac{2x}{\theta^2} $$ MLE $\theta$ را که امتحان کردم پیدا کنید: $$\prod_{i=1}^n \frac{2}{ \theta^2}x_i =\left(\frac{2}{\theta^2}\right)^n \prod_{i=1}^n x_i $$ گرفتن لگاریتم طبیعی به ما می‌دهد: $$ n \ln{\frac{2}{\theta^2}} + \sum\ln({x_i})=2n \ln\left({\frac{\sqrt2}{\theta}}\راست) + \sum\ln({x_i})$$ گرفتن مشتق با توجه به $\theta$: $$ \frac{2n\theta}{\sqrt{2}}=0$$ بعد این سؤال من سؤالات دیگری در مورد این MLE دریافت می کنم (بی طرفی، سازگاری، کفایت و غیره)، بنابراین من این احساس را دارم که این برآوردگر باید یک مقدار «متن» باشد... چه خبر است؟ :-)
سوال ساده حداکثر احتمال
115090
ما یک رگرسیون لجستیک اثرات مختلط را با استفاده از نحو زیر اجرا کرده ایم. # fit model fm0 <- glmer(GoalEncoding ~ 1 + Group + (1|Subject) + (1|Item), exp0, family = binomial(link=logit)) # خلاصه خروجی مدل(fm0) موضوع و مورد عبارتند از اثرات تصادفی ما یک نتیجه عجیب دریافت می کنیم که ضریب و انحراف استاندارد برای عبارت موضوع هر دو صفر است. برازش مدل مختلط خطی تعمیم یافته بر اساس حداکثر احتمال (تقریبا لاپلاس) [glmerMod] خانواده: دو جمله ای ( logit ) فرمول: GoalEncoding ~ 1 + گروه + (1 | موضوع) + (1 | مورد) داده: exp0 AIC BIC logLik انحراف df.resid 449.8 465.3 -220.9 441.8 356 باقیمانده مقیاس شده: حداقل 1Q Median 3Q Max -2.115 -0.785 -0.376 0.805 2.663 اثرات تصادفی: نام گروه ها Variance Std.Dev. موضوع (Intercept) 0.000 0.000 Item (Intercept) 0.801 0.895 تعداد obs: 360، گروه ها: موضوع، 30; آیتم، 12 جلوه های ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -0.0275 0.2843 -0.1 0.92 GroupGeMo.EnMo 1.2060 0.2411 5.0 5.7e-07 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) GroupGM.EnM -0.002 این نباید اتفاق بیفتد زیرا بدیهی است که بین موضوعات مختلف تفاوت وجود دارد. وقتی همان تحلیل را در stata xtmelogit target group_num || اجرا می کنیم _all:R.subject || _all:R.item توجه: متغیرهای فاکتور مشخص شده است. گزینه laplace فرض شده پالایش مقادیر شروع: تکرار 0: احتمال ورود به سیستم = -260.60631 تکرار 1: احتمال ورود به سیستم = -252.13724 تکرار 2: احتمال ورود به سیستم = -249.87663 - انجام بهینه سازی مبتنی بر گرادیان: -244 بهینه سازی مبتنی بر گرادیان: Iteration39870 1: احتمال ثبت = -246.38421 تکرار 2: احتمال ثبت = -245.2231 تکرار 3: احتمال ثبت = -240.28537 تکرار 4: احتمال ثبت = -238.67047 تکرار 5: log38 احتمال =5: log38: log38 =5 - -238.65942 رگرسیون لجستیک با اثرات مختلط تعداد obs = 450 متغیر گروه: _همه تعداد گروه ها = 1 Obs در هر گروه: حداقل = 450 میانگین = 450.0 حداکثر = 450 امتیاز ادغام = 1 Wald chi2(1) = 22.65 Hood = 22.65 -223 Log. Prob > chi2 = 0.0000 ------------------------------------------------- ----------------------------- گل | Coef. Std. اشتباه z P>|z| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ گروه_تعداد | 1.186594 .249484 4.76 0.000 .6976147 1.675574 _cons | -3.419815.8008212 -4.27 0.000 -4.989396 -1.850234 ------------------------------------------------ ---------------------------- ------------------------------------------------ ---------------------------- پارامترهای اثرات تصادفی | برآورد Std. اشتباه [95% Conf. فاصله] ----------------------------------------------- ------------------------------ _همه: هویت | sd(R.subject) | 7.18e-07 .3783434 0 . -------------------------------------------------- ---------------------------- _همه: هویت | sd(R.trial) | 2.462568 .6226966 1.500201 4.042286 -------------------------------------------- ---------------------------------- تست LR در مقابل رگرسیون لجستیک: chi2(2) = 126.75 Prob > chi2 = 0.0000 نکته: تست LR محافظه کارانه است و فقط برای مرجع ارائه شده است. توجه: محاسبات ورود به سیستم بر اساس تقریب لاپلاسی است. نتایج مطابق انتظار با ضریب غیر صفر / s.e است. برای مدت موضوع در ابتدا فکر می‌کردیم که این ممکن است با کدگذاری عبارت Subject مرتبط باشد، اما تغییر آن از رشته به عدد صحیح هیچ تفاوتی ایجاد نکرد. بدیهی است که تحلیل به درستی کار نمی کند، اما ما نمی توانیم منبع مشکلات را مشخص کنیم. (توجه داشته باشید که شخص دیگری در این انجمن مشکل مشابهی را تجربه کرده است، اما این موضوع لینک به سوال بی پاسخ باقی مانده است) هر نظری بسیار قدردانی می شود!
با استفاده از گلمر، چرا اثر تصادفی من صفر است؟
86210
من مقاله ای از تام مینکا را می خوانم و سعی می کنم مراحل انجام به روز رسانی های الگوریتم انتشار انتظارات را دنبال کنم. من در راه اندازی اولیه توزیع پسین مشکل دارم. بنابراین، اولین قدم شامل نوشتن توزیع مشترک شما به عنوان محصول عوامل است. در مورد من، می‌توانم کارهای زیر را انجام دهم: $$ P(\theta, D) = g(\theta) \prod_i f_i(\theta) $$ که در آن $g(\theta)$ یک نرمال چند متغیره با میانگین مشخص است. ($\mu)$ و یک ماتریس کوواریانس ($\Sigma$). هر یک از فاکتورهای $f_i$ را می توان به صورت توزیع نرمال با میانگین ($m$) و انحراف معیار ($\sigma$) نوشت. اکنون، مقاله (اینجا) به عنوان اولین مرحله می گوید، پسین تقریبی را به صورت زیر محاسبه کنید: $$ q(\theta) = \frac{g(\theta) \prod_i f_i(\theta)}{\int g(\theta ) \prod_i f_i(\theta) d\theta} $$ حالا، من واقعاً گیج هستم که چگونه می توانم این عملیات را انجام دهم! بنابراین، من می‌توانم $g(\theta)$ و هر یک از $f_i(\theta)$ را با مقادیر اولیه مقداردهی اولیه کنم، اما چگونه $q(\theta)$ را به شکل درست محاسبه کنم. به طور خاص، اگر فرض کنم $q(\theta)$ به شکل یک گاوسی چند متغیره خواهد بود. چگونه میانگین و کوواریانس آن را از این عبارت محاسبه کنم؟ من در حال جستجوی آنلاین بوده‌ام و به نظر می‌رسد که برخی از هویت‌های گاوسی وجود دارد که می‌توان از آنها استفاده کرد، اما هیچ یک از مقالات در واقع مشخص نمی‌کنند که کدام یک از آنها استفاده شود.
چگونه این توزیع را مقداردهی اولیه کنیم
21122
من در یک کلاس یادگیری آماری شرکت می کنم و باید حسابم را کامل کنم. من قبلاً چندین سال پیش حساب دیفرانسیل و انتگرال و احتمال را گرفتم، اما حافظه بدی دارم. آیا کتابهای خوب یا منابع عمومی وجود دارد که حساب دیفرانسیل و انتگرال را با احتمال و شیب آماری مرور کند؟ من متوجه شدم که بیشتر کتاب های حساب دیفرانسیل و انتگرال مثال هایی را در زمینه فیزیک ارائه می دهند. به طور کلی، من به دنبال کتابی مانند Refresher حساب دیفرانسیل و انتگرال هستم، به جز اینکه بیشتر به سمت احتمالات و آمار هدف گذاری شده است.
منابع حساب دیفرانسیل و انتگرال با شیب احتمال و آمار؟
89582
من این سه مدل رگرسیون لجستیک ترتیبی را ساخته ام: model1 <- polr(as.factor(carb) ~ mpg، Hess = T، mtcars) model2 <- polr(as.factor(carb)~ hp، Hess = T، mtcars) model3 <- polr(as.factor(carb) ~ drat، Hess = T، mtcars) برای فهمیدن اگر مدل‌ها با داده‌ها تناسب خوبی داشته باشند، من نسبت تغییرات توضیح داده شده را محاسبه کردم: model_null <- polr(as.factor(carb) ~ 1, Hess = T, mtcars) 1-(model1$deviance/model_null$ انحراف) 0.1512784 1-(model2$deviance/model_null$deviance) 0.2520109 1-(model3$deviance/model_null$deviance) 0.003453936 سوالات: 1. چرا خلاصه انحراف تهی نمی دهد؟ 2. آیا نسبت تغییرات توضیح داده شده را به درستی محاسبه کرده ام؟ 3. آیا من درست می گویم که «model1» و «model3» تغییرات کمی در «کربوهیدرات» را توضیح می دهند، اما «model2» 25 درصد از تغییرات را در «کربوهیدرات» توضیح می دهد؟
تغییرات در مدل های رگرسیون لجستیک ترتیبی توضیح داده شده است
41633
تنظیم اولیه: مدل رگرسیون: $y = \text{constant} +\beta_1x_1+\beta_2x_2+\beta_3x_3+\beta_4x_4+\alpha C+\epsilon$ که در آن C بردار متغیرهای کنترل است. من به $\beta$ علاقه دارم و انتظار دارم $\beta_1$ و $\beta_2$ منفی باشد. با این حال، مشکل چند خطی در مدل وجود دارد، ضریب همبستگی با، corr($x_1$,$x_2)=0.9345$، corr($x_1$,$x_3)=0.1765$، corr($x_2$، x_3) = 0.3019 دلار. بنابراین $x_1$ و $x_2$ بسیار همبستگی دارند، و آنها باید تقریباً همان اطلاعات را ارائه دهند. من سه رگرسیون را اجرا می کنم: 1. متغیر $x_1$ را حذف کنید. 2. متغیر $x_2$ را حذف کنید. 3. مدل اصلی با $x_1$ و $x_2$. نتایج: برای رگرسیون 1 و 2 به ترتیب علامت مورد انتظار $\beta_2$ و $\beta_1$ را با بزرگی مشابه ارائه می‌کند. و $\beta_2$ و $\beta_1$ در سطح 10% در هر دو مدل پس از انجام تصحیح HAC در خطای استاندارد قابل توجه هستند. $\beta_3$ مثبت است اما در هر دو مدل معنی دار نیست. اما برای 3، $\beta_1$ علامت مورد انتظار را دارد، اما علامت $\beta_2$ مثبت است با قدر دو برابر بیشتر از $\beta_1$ در مقدار مطلق. و $\beta_1$ و $\beta_2$ ناچیز هستند. علاوه بر این، مقدار $\beta_3$ در مقایسه با رگرسیون 1 و 2 تقریباً به نصف کاهش می یابد. سوال من این است: چرا در 3، علامت $\beta_2$ مثبت می شود و بسیار بیشتر از $\beta_1$ در مقدار مطلق می شود؟ آیا دلیلی آماری وجود دارد که $\beta_2$ بتواند علامت را برگرداند و بزرگی زیادی داشته باشد؟ یا به این دلیل است که مدل 1 و 2 با مشکل متغیر حذف شده مواجه می شوند که $\beta_3$ باد شده به شرط $x_2$ تأثیر مثبتی بر y دارد؟ اما در مدل رگرسیونی 1 و 2، هر دو $\beta_2$ و $\beta_1$ باید به جای منفی مثبت باشند، زیرا اثر کل $x_1$ و $x_2$ در مدل رگرسیونی 3 مثبت است.
هنگام اضافه کردن یک متغیر دیگر در رگرسیون و با بزرگی بسیار بیشتر، علامت چرخش می‌کند
8292
من با استفاده از توابعی که قرار است در کتابخانه های lmtest و زبان R (که اخیراً از cran.r-project بارگیری شده است) باشند، مشکل عجیبی دارم، یعنی lrtest() و pvals.fnc() - با این حال، آنها در دسترس نیستند. من ورژن R رو به 2.12.2 ارتقا دادم ولی مشکل حل نشد. library(lmtest) lrtest() برمی گرداند: خطا: تابع lrtest پیدا نشد. تی
هیچ تابع lrtest() در lmtest موجود نیست
83764
قبل از شروع، باید اشاره کنم که مدرک کارشناسی خود را دنبال می کنم، و از این رو دانش کمی/پایه ای در مورد یادگیری ماشین و آمار دارم. من قصد داشتم برنامه ای بسازم که بر اساس چند متغیر، یک آیتم خاص را 5 امتیاز می گیرد. > **مثال:** > > **برخی مواد غذایی** (بر اساس رتبه بندی متغیرهای آن - از 5 امتیاز میانگین می گیرد) > > متغیرها: (هر متغیر با یک امتیاز 5 امتیازی رتبه بندی می شود) : > > ارائه، طعم، ارزش برای پول، و غیره. این همه ورودی کاربر است. من در جستجوی یک سیستم/الگوریتم رتبه‌بندی هستم که به من کمک کند تا هر متغیری را در زیر هر مورد در نظر بگیرم. **تحقیق** * سیستم بیزی. **مشکل**: متغیرهای متعدد را برای رتبه بندی در نظر نمی گیرد. * الگوریتم غم و اندوه خوب. **مشکل**: در سناریوی من در اینجا متوجه نشدم که چگونه اجرا می شود. **سوال:** 1. آیا سیستم بیزی راه درستی است؟ اگر بله، چگونه متغیرهای متعدد را در نظر بگیرم؟ 2. پی دی اف (لینک خارجی) الگوریتم Good Grief، بیانیه دقیق مشکل من را دارد، اما پیاده سازی را متوجه نمی شوم. اگر راه درستی است، آیا می توانید پیاده سازی را در شبه کدهای ساده (یا فرمول های ریاضی) تجزیه کنید؟ 3. آیا روش بهتر/ساده تری برای رتبه بندی وجود دارد، لطفا در پاسخ ها توضیح دهید. P.S. باز هم می‌گویم، من دقیقاً یک نابغه ریاضی نیستم، بنابراین بهتر است پاسخ‌ها مفصل باشند و به ابتدایی‌ترین فرمول تقسیم شوند. کد شبه ترجیح داده می شود. متشکرم.
رتبه بندی چند متغیره
71159
مشکل در دست این است که توزیع قبلی که من از کارشناسان دریافت کرده ام (داده های بازیابی وام) از 0 تا 100 درصد است. بنابراین توزیع بتا در نظر گرفته شد. همانطور که داده های واقعی نشان می دهد که بازیابی وام می تواند بیش از 100٪ به دلیل کارمزد و هزینه های بهره باشد. بنابراین تابع احتمال از توزیع بتا پیروی نمی کند صرفاً به این دلیل که مقادیر ممکن است بیشتر از 100٪ باشند. تلاش برای استفاده از روش قبلی مزدوج برای ترکیب توزیع ها برای رسیدن به توزیع پسین. ابتدا فکر کردم روش قبلی مزدوج بتا کافی خواهد بود. تغییر مقیاس تابع احتمال به 0٪ - 100٪ صحیح به نظر نمی رسد. چه کار کنم. لطفا کمک کنید
مسئله تحلیل بیزی
47678
برای مقایسه دو مدل بیزی برای داده های مشابه، مقادیر برازش مدل اول را در مقابل مقادیر برازش مدل دوم رسم کردم. طرح نشان دهنده شباهت کامل است. با تکیه بر این طرح گفتم که این دو مدل تفاوت معنی داری ندارند. با این حال، تفاوت بین مقادیر معیار اطلاعات انحراف (DIC) هر مدل 85 است که فکر می کنم نشان می دهد که بین این دو مدل تفاوت معنی داری وجود دارد. بنابراین، طرح و DIC، به نظر من، در تضاد هستند. بقیه چه فکری می کنند؟
مقایسه دو مدل بیزی
87650
هنگام اجرای یک مدل رهگیری تصادفی (با استفاده از تابع _lmer_ در بسته _lme4_ در R) با یک ناسازگاری مواجه شدم (آنچه فکر می کنم این است). کاری که من انجام می دهم این است: ابتدا یک مدل را با مجموعه ای از متغیرهای کمکی اجرا می کنم. سپس همان مدل را با مقیاس مجدد (تبدیل خطی) یکی از رگرسیورها اجرا می کنم. طبق اطلاعات من، این باید **فقط ضریب** متغیری که به صورت خطی تبدیل شده است را تغییر دهد. و در واقع، این همان چیزی است که وقتی من این آزمایش را با یک مدل رگرسیون خطی ساده و با یک مدل لجستیک اجرا می کنم، اتفاق می افتد. این کد رفتار عادی را تکرار می کند: # ایجاد سه متغیر مستقل تصادفی x1 <- rnorm(20) x2 <- rnorm(20) x3 <- as.factor(sample(0:2, 20, replace = TRUE)) # ضرایب تصادفی آنها coef1 <- runif(1, -1, 1) coef2 <- runif(1, -1, 1) # یک متغیر وابسته پیوسته و یک دو جمله ای ایجاد کنید y1 <- coef1 * x1 + coef2 * x2 + runif(20) y2 <- y1 y2[which(y1 > quantile(y1, 0.5))] <- 1 y2[ which(y1 <= quantile(y1, 0.5))] <- 0 # در نهایت، یک تبدیل خطی از x1 x1.trans <- x1*3 بنابراین، اجازه دهید یک مدل OLS را اجرا کنیم: lm <- lm(y1 ~ x1 + x2 + x3) خلاصه (lm) مدل OLS # با یک متغیر تبدیل خطی lm.bis <- lm (y1 ~ x1.trans + x2 + x3) خلاصه (lm.bis) ضرایب _x1_ و _x1.trans_ هستند متفاوت است، **اما مربع R دو مدل یکسان است** : summary(lm)$r.sq == summary(lm.bis)$r.sq با یک مدل لجستیک یکسان است: logm <- glm (y2 ~ x1 + x2، خانواده = binomial) خلاصه (logm) logm.bis <- glm(y2 ~ x1.trans + x2، family=binomial) summary(logm.bis) حتی در این مورد **احتمال log- احتمال دو مدل یکسان است** : logLik(logm) == logLik(logm.bis) تا اینجا خیلی خوب است . با این حال، زمانی که من همین کار را با یک مدل سلسله مراتبی انجام می‌دهم، ** احتمال ورود به سیستم (و در نتیجه AIC و BIC) دو مدل متفاوت است**، اگرچه ضریب متغیر تبدیل شده با مقدار z یکسان باقی می‌ماند و بقیه ضرایب هم همینطور # مدل چند سطحی mm <- lmer(y1 ~ x1 + x2 + (1 | x3)) خلاصه (mm) mm.bis <- lmer(y1 ~ x1.trans + x2 + (1 | x3)) خلاصه (mm.bis) ) logLik(mm) == logLik(mm.bis) ### FALSE! ### چرا؟ همچنین معیار REML در همگرایی به وضوح متفاوت است. من این نتیجه را نمی فهمم این احتمالاً به دلیل دانش متوسط ​​من از ریاضی مدل های سلسله مراتبی است. من بسیار خوشحال خواهم شد اگر برخی از شما به من نشان دهید که چه حقه ای در اینجا وجود دارد. از آنجایی که ما از AIC و BIC برای مقایسه مدل‌ها استفاده می‌کنیم، من از این واقعیت متحیر هستم که یک تبدیل ساده که نباید چیزی را تغییر دهد، یک مدل را بهتر (یا بدتر) می‌کند.
چرا زمانی که یک متغیر به صورت خطی در یک مدل سلسله مراتبی تبدیل می شود، log-relihood تغییر می کند؟
83892
من سعی می کنم مدل خطر متناسب کاکس را با داده های خود تطبیق دهم. فکر می‌کنم فرمول درست است، اما در درک خروجی مشکل دارم. من سعی کردم اسناد را بررسی کنم و درک آن برایم سخت است. هر گونه کمکی بسیار قدردانی خواهد شد، از شما متشکرم! فرمول: coxfit1 <- coxph(Surv(روزها، وضعیت)~GENE1، data=dataset1) خلاصه (coxfit1) جایی که روزها روزها هستند تا زمانی که یک رویداد رخ دهد (یا آخرین پیگیری شناخته شده در صورت عدم وجود رویداد)، وضعیت یک رویداد (عود)، GENE1 داده‌های بیان یک ژن است که در حال آزمایش آن هستم که آیا تأثیری بر عود دارد. خروجی: فراخوانی: coxph(فرمول = Surv(روزها، وضعیت) ~ GENE1، داده = مجموعه داده 1) n= 34، تعداد رویدادها = 22 coef exp(coef) se(coef) z Pr(>|z|) GENE1 0.6370 1.8908 0.2362 2.697 0.00699 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 exp(coef) exp(-coef) low 0.95 upper 0.95 GENE1 1.891 0.5289 1.19 3.0061=se . = 0.068) Rsquare= 0.166 (حداکثر ممکن= 0.98) آزمون نسبت درستنمایی= 6.17 در 1 df، p=0.01298 آزمون والد = 7.27 در 1 df، p=0.006993 امتیاز (logrank) آزمون = 7.81 آزمون = 7.81 در 1 df، این 1 df = 0.8 است. یکی که هست به وضوح قابل توجه است، اما قسمت های مختلف این خروجی به چه معناست؟ نسبت خطر کجاست؟؟؟ و کدام یک از این اطلاعات برای گزارش مناسب است؟
درک خروجی coxph در R
87653
در رویکرد کاملاً بیزی، توزیع پیش‌بینی به این صورت است: $$ P(Y|X) = \int P(\theta | X) P(Y | \theta) d\theta $$ هنگامی که محاسبه انتگرال دشوار است، ما ممکن است به رویکرد حداکثر احتمال متوسل شود و توزیع پیش بینی را به صورت زیر تقریب بزند: $$ P(Y|X) \approx P( \hat \theta_{ML} |. X) P(Y | \hat \theta_{ML}) $$ که در آن $ \theta_{ML} $ MLE پارامتر $\theta$ است. وقتی به این نگاه می کنید، رویکرد ML شبیه یک تقریب وحشتناک بد به نظر می رسد. چرا در عمل چندان بد کار نمی کند؟
یک سوال دیگر بیزی در مقابل حداکثر احتمال.
47674
من با مجموعه داده ای از مشاهدات مکرر (x4) روی 100 موضوع کار می کنم. نتیجه صفر است و به نظر می‌رسد که داده‌ها به خوبی توسط یک مدل دوجمله‌ای منفی با اثرات مختلط با رهگیری‌های تصادفی برای افراد مدل‌سازی می‌شوند. با این حال، تقریباً 20٪ از متغیر نتیجه وجود ندارد، بنابراین من در حال بررسی روش‌های انتساب هستم که می‌تواند با این موضوع مقابله کند. 2 متغیر کمکی در مدل تجزیه و تحلیل و 6 متغیر کمکی دیگر وجود دارد که می‌توان از آنها برای انتساب استفاده کرد - که همه آن‌ها دارای سطوح فقدان بسیار پایینی هستند. من بسته موش را در R امتحان کردم که از جلوه های تصادفی پشتیبانی می کند، اما از توزیع دوجمله ای منفی پشتیبانی نمی کند. تنها روشی که تا به حال مفید یافته ام، انتساب تصادفی هات دک است که در R (با بسته «StatMatch») و Stata (با بسته «هت دک») امتحان کرده ام که هر دو به نظر نتایج معقولی دارند. آیا بسته/سیستم دیگری وجود دارد که بتوان از آن برای نسبت دادن مقادیر برای این نوع مدل استفاده کرد؟ من با R و Stata تجربه دارم و SAS هم در دسترسم هست (البته هیچ تجربه ای باهاش ​​ندارم)
انتساب برای یک مدل اثرات مختلط دو جمله ای منفی با تورم صفر
87651
وظیفه من شناسایی پارامترها (میانگین، انحراف استاندارد، ارتفاع) قله های گاوسی در داده های هیستوگرام داده شده با کمترین CV تا حد ممکن است. تعداد پیک ها و میانگین های تقریبی مشخص است (توسط کاربر اشاره شده است). رویکرد استاندارد از رگرسیون برای برازش مخلوط گاوسی با داده ها استفاده می کند. نتایج در زیر فهرست شده است: ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Ejy4H.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/QQJBj .png) من سعی کردم از الگوریتم EM به روش زیر استفاده کنم: * در ابتدا به ارتفاع قله ها اهمیتی نمی دادم (از مقادیر نرمال شده استفاده می کردم) و جستجوی تنها برای ابزارها و انحرافات استاندارد با استفاده از EM. * دوم، من میانگین ها و انحرافات استاندارد یافت شده توسط EM را ثابت کردم و از رگرسیون برای یافتن ارتفاع هر گاوسی استفاده کردم. * من نتایج زیر را دریافت کردم: ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/oqK6u.png) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ 1DAEi.png) می خواهم بپرسم: * اگر رویکرد من از نظر تئوری درست است. * اگر آن نتایج از رویکرد دوم می تواند (از نظر حسی) معتبر باشد. به جز آخرین قله، علت، که نکات کمی داشت. نتیجه مجذور کای منطقاً برای راه حل دوم بد است. با این حال، داده‌ها می‌توانند حاوی مقادیر پرت باشند. من بسیار خوشحال خواهم شد اگر آن مقادیر CV درست باشد، اما مطمئن نیستم اگر کار اشتباهی انجام نداده باشم. **به روز رسانی:** سعی می کنم به طور خلاصه توضیح دهم که چرا اینقدر شگفت زده شده ام... این داده های اندازه گیری شده از سیتومتر جمع آوری شده اند و با تعداد ذرات (سلول بیولوژیکی) (محور y) در هر شدت فلورسانس (محور x) مطابقت دارند. این شدت با اندازه سلول های بیولوژیکی مرتبط است و هدف اندازه گیری اندازه سلول هر نوع گیاه مورد بررسی است (یک پیک مربوط به یک نوع گیاه است). انتظار می رود که همه سلول های یک گیاه دارای اندازه یکسانی نباشند، اما می دانیم که این اندازه ها (یک گیاه) به طور معمول توزیع شده اند. در طول فرآیند اندازه‌گیری، بسیاری از سیگنال‌های پرت و نادرست جمع‌آوری می‌شوند و با داده‌های اصلی مخلوط می‌شوند (می‌دانیم که CV واقعی باید بسیار کمتر باشد)، بنابراین می‌خواهیم تا حد امکان به کمترین CV برسیم تا از اندازه نوع سلول مطمئن شویم. نرم افزارهای سیتومتری که ما آزمایش کردیم از روشی استفاده می کنند که ابتدا توضیح دادم (رگرسیون حداقل مربعات غیر خطی). من EM را امتحان کردم، رزومه های کم دریافت کردم، با این حال تفاوت زیادی بین مدل و داده هایم دریافت کردم (در تصویر یا ChiSqr قابل مشاهده است). حالا می‌پرسم، اگر چیزی را از دست نداده‌ام، زیرا اگر رویکرد من درست بود، احتمالاً نرم‌افزارهای سیتومتری رایج از آن استفاده می‌کردند.
نتایج خیلی خوب از EM برای مخلوط گاوسی
47671
دو مشکل را در نظر بگیرید: 1. اندرو 35 ساله است و احتمال اینکه او 10 سال دیگر زنده باشد 0.72 است. الن 35 ساله است، برای او 0.92. با فرض اینکه اینها مستقل باشند، احتمال اینکه هر دو تا 10 سال دیگر زنده باشند چقدر است؟ پاسخ: 0.66، روش: از قانون ضرب استفاده کنید. 0.72*.92 = 0.66 2. فرض کنید خیابان شما دارای دو چراغ راهنمایی است. احتمال اینکه نور اول قرمز باشد 40/0 و نور دوم 30/0 است. احتمال قرمز بودن همزمان آنها 0.10 است. احتمال اینکه هیچ کدام از نور قرمز نباشند چقدر است؟ پاسخ: 0.40، روش: 0.1 را از 0.4 و 0.3 تفریق کنید، و سپس همه 3 را از 1.0 = 0.4 کم کنید **چرا قانون ضرب برای #2 کار نمی کند؟** به عبارت دیگر، چرا می توان. t من 0.40 و .30 را ضرب کنم تا 0.12 به دست آید؟ و سپس علاوه بر این، اگر 0.12 این شانس است که هر دو به طور همزمان قرمز شوند، آیا نباید (1-.12)=.88 شانسی باشد که هیچ کدام روشن نباشد؟
تفاوت بین استفاده از قانون ضرب یا استفاده از تفریق نمودار ون برای احتمال چیست؟
15552
من واقعاً قدردان کمک با استفاده از Stata برای انجام یک رگرسیون لجستیکی گام به گام به جلو هستم. من 37 متغیر طبقه بندی قابل قبول بیولوژیکی و از نظر آماری معنی دار دارم که با پیامد بیماری مرتبط هستند. من باید به یک مدل چند متغیره نهایی دست پیدا کنم. من اولین متغیر (مهمترین/قابل قبول ترین) را با خروجی OR مربوطه اضافه کرده ام. xi:نتیجه لجستیک i.variable1. xi: کنترل موردی لجستیک i.breed_groupall i.breed_group~l _Ibreed_gro_0-7 (به طور طبیعی کدگذاری شده است؛ _Ibreed_gro_0 حذف شده است) رگرسیون لجستیک تعداد obs = 995 LR chi2(6) = 83.87 Prob > chi2 -6020. شبه R2 = 0.0903 ---------------------------------------------- -------------------------------- شاهد موردی | Odds Ratio Std. اشتباه z P>|z| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ _Ibreed_gr~2 | 1.757143 .6861797 1.44 0.149 .817345 3.777537 _Ibreed_gr~3 | 1.952381 .8811439 1.48 0.138 .8061249 4.728537 _Ibreed_gr~4 | 1.464286 .530121 1.05 0.292 .7202148 2.977074 _Ibreed_gr~5 | 6.192708 1.779109 6.35 0.000 3.526453 10.87485 _Ibreed_gr~6 | 3.880357 1.103611 4.77 0.000 2.222193 6.775816 _Ibreed_gr~7 | .636646 .2555236 -1.13 0.261 .2899083 1.398091 ------------------------------------------------ ------------------------------ به دنبال چه چیزی هستم تا ببینم آیا اضافه کردن متغیر دوم که انتخاب می کنم به این معنی است که هر دو متغیر باید در آن بمانند ، وقتی، برای مثال من تایپ می کنم؛ xi:نتیجه لجستیک i.variable1 i.variable2. xi:مورد کنترل لجستیک i.breed_groupall i.height_category i.breed_group~l _Ibreed_gro_0-7 (به طور طبیعی کدگذاری شده؛ _Ibreed_gro_0 حذف شده است) i.height_cate~y _Iheight_ca_0-4 (طبیعی کدگذاری شده؛ _Iheight_ca_0-4 (طبیعی کدگذاری شده) LR chi2(10) = 132.25 Prob > chi2 = 0.0000 احتمال ورود = -396.05629 شبه R2 = 0.1431 ------------------------------------------------ ---------------------------- شاهد موردی | Odds Ratio Std. اشتباه z P>|z| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ _Ibreed_gr~2 | 1.002262 .4145417 0.01 0.996 .4455736 2.254465 _Ibreed_gr~3 | 1.185087 .557553 0.36 0.718 .4712828 2.980017 _Ibreed_gr~4 | 1.774162 .6616502 1.54 0.124 .8541793 3.685001 _Ibreed_gr~5 | 1.452416 .541494 1.00 0.317 .6994292 3.01605 _Ibreed_gr~6 | 1.256098 .4377793 0.65 0.513 .6343958 2.487064 _Ibreed_gr~7 | .4238999 .1777699 -2.05 0.041 .1863361 .9643388 _Iheight_c~1 | 2.780857 .918967 3.09 0.002 1.455088 5.314572 _Iheight_c~2 | 5.402833 2.246817 4.06 0.000 2.391342 12.20679 _Iheight_c~3 | 13.50715 5.989787 5.87 0.000 5.663642 32.21303 _Iheight_c~4 | 16.85605 8.674745 5.49 0.000 6.147467 46.21846 ------------------------------------------------ ------------------------------ چگونه می دانم می خواهم یکی را حفظ کنم ، یا هر دو متغیر ، یا آن یکی ، یا هر دوی آنها برای من فایده ای ندارند؟ برای مثال، اگر بخواهم هر دوی اینها را نگه دارم و متغیر سوم را اضافه کنم، از کجا بدانم کدام است؟ . xi: کنترل موردی لجستیک i.height_category i.breed_groupall i.combinedweight i.height_cate~y _Iheight_ca_0-4 (به طور طبیعی کدگذاری شده؛ _Iheight_ca_0 حذف شده است) i.breed_group~l _Ibreed_gro_0-7 (طبیعی کدگذاری شده است. _Icombinedw_0-5 (به طور طبیعی کدگذاری شده؛ _Icombinedw_0 حذف شده است) رگرسیون لجستیک تعداد obs = 891 LR chi2(14) = 123.58 Prob > chi2 = 0.0000 احتمال ورود = -346.82021 = 01 شبه. ------------------------------------------------ ---------------------------- شاهد موردی | Odds Ratio Std. اشتباه z P>|z| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ _Iheight_c~1 | 3.397418 1.235922 3.36 0.001 1.665316 6.931087 _Iheight_c~2 | 6.321891 3.119652 3.74 0.000 2.403289 16.62983 _Iheight_c~3 | 14.36312 7.797083
ارزیابی اثر افزودن متغیر با استفاده از رگرسیون لجستیک گام به گام با استفاده از Stata؟
88988
فرض کنید رگرسیون زیر را داریم، با Sun=0 برای خورشید جزئی و خورشید=1 برای خورشید کامل: ارتفاع گیاه = a0 + a1*باکتری + a2*خورشید + a3*باکتری*خورشید و در اینجا خروجی نمونه از R است: ! [خروجی R](http://i.stack.imgur.com/JIPvU.jpg) طبق این پست، برای گیاهان با آفتاب کامل (خورشید=1)، اثرات باکتری عبارت است از: -0.08346 + 0.03368 = -0.04978، به این معنی که برای دو گیاه با آفتاب کامل، گیاه با یک واحد باکتری بیشتر 0.04978 سانتی متر کوتاهتر خواهد بود. بنابراین سوال من این است که **آیا این تفاوت معنادار است؟** از آنجایی که با ترکیب ضرایب باکتری و باکتری*خورشید نتیجه فوق را به دست می آوریم، اما مانند خروجی، ضریب اول دارای p-value = 0.00214 است. ضریب دیگر برای عبارت تعامل دارای p-value = 0.34887 است. بنابراین وقتی این ضرایب را جمع می کنیم، اهمیت آن را چگونه باید تفسیر کنیم؟
تفسیر اهمیت زمانی که ضرایب رگرسیون ترکیب می شوند
8299
در حالی که سعی می‌کردم MDL و پیچیدگی تصادفی را بفهمم، این سوال قبلی را پیدا کردم: اندازه‌گیری‌های پیچیدگی مدل، که در آن یاروسلاو بولاتوف پیچیدگی مدل را این‌گونه تعریف می‌کند: «چقدر سخت است که از داده‌های محدود یاد بگیریم». برای من روشن نیست که طول حداقل توضیحات (MDL) چگونه این را اندازه می گیرد. چیزی که من به دنبال آن هستم نوعی نابرابری احتمال (مشابه با کران بالای VC) است که طول کد یک مدل را با بدترین رفتار آن در برازش داده های تولید شده توسط خودش مرتبط می کند. اگر چنین نتیجه ملموسی را نتوان در ادبیات یافت، حتی یک مثال تجربی روشنگر خواهد بود.
رابطه بین MDL و مشکل یادگیری از داده ها
89585
من مجموعه ای از رشته ها به ابعاد 10000 دلار دارم. من می خواهم رشته های مشابه را در یک گروه با هم گروه کنم، خوشه بندی را انجام دهم. به عنوان متریک رشته، من از «فاصله Levenshtein» استفاده می کنم. * * * به سادگی، با «فاصله Levenshtein» من فقط فاصله بین رشته‌های $2$ را محاسبه می‌کنم و سپس با استفاده از یک آستانه، الگوریتم خوشه‌بندی تصمیم می‌گیرد که آیا آنها می‌توانند گروه‌بندی شوند یا نه. این کافی نیست. من به دنبال یک معیار ویژه برای بررسی رابطه بین رشته ها هستم. * * * **به عنوان مثال:** **در** و **ورودی** اگر فقط فاصله لونشتاین را محاسبه کنم، با هم گروه بندی نمی شوند، در واقع هیچ اشتراکی بین این کلمات 2 دلاری وجود ندارد. اما از نظر منطقی آنها به هم متصل هستند و می توانند با هم گروه بندی شوند، زیرا **در** و **ورودی** اساساً یکسان هستند. * * * * آیا تا به حال به چنین مشکلی برخورد کرده اید؟ * آیا شبیه معیار **شباهت معنایی** است؟
خوشه بندی رشته ها: معیار شباهت
73904
من علاقه مند به اجرای آزمون های فرضیه برای انواعی از اعضای خانواده نمایی با پشتیبانی مداوم، برای مقادیر مختلف پارامتر/ها، برای نمونه ای از n i.i.d متغیرهای تصادفی (توزیع شده بر اساس یک عضو خاص و پارامترسازی نمایی هستم. خانواده). به طور کلی به نظر می رسد آمار کافی (حداقل برای یک پارامتر) مجموع متغیرهای نمونه باشد. من می دانم که حداقل از نظر تئوری می توان از پیچیدگی n برابر به دست آورد، اما به طور کلی، به نظر نمی رسد شکل خوبی برای توزیع این مجموع وجود داشته باشد، که من برای محاسبه مقادیر p نیاز داشته باشم. بنابراین من نمی‌دانم چه توزیع‌هایی برای مجموع متغیرهای n i.d توزیع‌های شناخته شده دارند و آیا مرجع خوبی برای انجام آزمایش فرضیه با خانواده نمایی وجود دارد؟ من می دانم که: * مجموع نماهای iid توزیع می شوند ارلنگ * مجموع نرمال های iid نرمال توزیع می شوند * مجموع iid گاما گاما توزیع می شوند (اما در مورد حاصل ضرب گاما که آمار کافی برای پارامتر شکل است؟) بتا، پارتو، ورود به سیستم نرمال، و غیره؟ آیا سختی این موضوع دلیلی است که هیچ کس دیگر آزمون فرضیه را انجام نمی دهد؟
آزمون فرضیه با خانواده نمایی
44804
ده شرکت‌کننده یک کار را با استفاده از دو روش A و B انجام داده‌اند. پنج شرکت‌کننده اول کار را ابتدا با استفاده از روش A و سپس B انجام دادند. بقیه شرکت‌کنندگان همان کار را ابتدا با استفاده از روش B و سپس A انجام دادند. موارد زیر زمان‌های تکمیل (دقیقه) را نشان می‌دهد. ) از هر روش و ترتیب استفاده از روش ها برای هر شرکت کننده. زمان تکمیل کار با استفاده از (در دقیقه): روش شناسه شرکت‌کننده A روش B روش استفاده شده A قبل از روش B 1 17 9 درست 2 8 5 درست 3 18 8 درست 4 19 19 درست 5 37 11 درست 6 19 18 غلط 7 9 8 غلط 8 12 11 غلط 9 16 18 غلط 10 13 10 نادرست 1. آیا می توان یک استدلال آماری معتبر در مورد تفاوت زمان های تکمیل دو روش A و B ارائه کرد؟ 2. آیا تعداد شرکت کنندگان به اندازه ای زیاد است که بتوان یک مقایسه آماری معتبر بین زمان تکمیل دو روش انجام داد؟ 3. برای مقایسه زمان اتمام دو روش A و B از چه آزمون های آماری می توان استفاده کرد؟ 4. آیا تفاوت زمان های تکمیل دو روش A و B از نظر آماری معنی دار است؟
نحوه مقایسه زمان های تکمیل کار در یک مطالعه متقاطع
82389
اگر بخواهیم بین دو مدل رگرسیونی یکی را انتخاب کنیم، یکی دارای ضریب همبستگی 0.95 و دیگری دارای ضریب همبستگی 0.75 است. اگر ما به بهینه‌سازی عملکرد پیش‌بینی‌کننده علاقه‌مندیم، آیا همیشه اینطور است که مدل اول بر دیگری ترجیح داده شود؟
عملکرد مدل های رگرسیون
8290
من داده‌هایی در این قالب دارم: واژه‌ها، منبع، نتیجه آفت‌شناسی گومل، ارزان، 0 هم‌آفرین، ارزان، 1 مهمات جعل هویت غیرمنقرض، ارزان، 1 کلومنا، گران، 1 دهان مار انیو، گران، 0 زغال اخته پس‌پرور، ارزان، 0 رافال بازار , ارزان, 0 ... http://bit.ly/h2ynoG چگونه باید تعیین کنم که آیا عبارات در ستون می توان مقدار Result را توضیح داد؟ اگر بخواهم تعیین کنم کدام کلمات در عبارت با نتایج موفقیت آمیز همبستگی دارند، چه؟ همچنین، چگونه باید تعیین کنم که داده‌ای که در آن منبع ارزان است، نماینده همه داده‌ها است؟ با تشکر
چگونه باید رابطه بین یک متغیر حاوی متن و یک متغیر دو جمله ای را اندازه گیری کنم؟
15550
در electronics.stackexchange ما یک سوال در مورد ساخت یک مولد اعداد تصادفی واقعی داشتیم. از آنجایی که این روش بر نویز متکی است که قطعی نیست، به نظر می رسد تنها راه برای آزمایش کیفیت RNG تجربی باشد. من که یک آمارگیر نیستم، پیشنهاد کردم یک توالی بیت طولانی را برای طبیعی بودن آزمایش کنم، اما نمی دانم چه نتیجه ای قابل قبول است و چه چیزی غیر قابل قبول است. به عنوان مثال، شمارش تک بیت‌ها، من حدس می‌زنم که برای توزیع 499500/500500 یک امتیاز مثبت داریم، اما چه زمانی این نسبت بیش از حد منحرف است که قابل قبول نیست؟ برای دنباله های 2 بیتی و طولانی تر هم همینطور. البته، اگر تست نرمال بودن یک ایده بد است، مایلم آن را بشنوم، از جمله جایگزین های بهتر. **ویرایش** چند بار به Diehard اشاره شد، اما مطمئن نیستم که این پاسخ سوال من باشد. تست نرمال بودن باید توزیع نرمال را با تقریب منحنی زنگی بهتر برای توالی های طولانی تر ارائه دهد. به نظر می رسد دیهارد آزمایش هایی نیز دارد که باید به توزیع های نرمال یا نمایی منجر شوند. اما سوال من باقی می ماند: چگونه نتایج را قضاوت کنم؟ فقط با نگاه کردن به منحنی و تشخیص منحنی زنگ در آن؟ برای بازگشت به اولین مثالم، توزیع 499500/500500 قطعاً خوب است، و توزیع 950000/50000 قطعاً یک نه است، بنابراین جابجایی کجا اتفاق می‌افتد؟
چگونه می توانم کیفیت RNG را آزمایش کنم؟
8291
Stata اجازه می دهد تا خطاهای استاندارد خوشه ای را در مدل هایی با اثرات ثابت تخمین بزند اما در مدل ها اثرات تصادفی را برآورد نمی کند؟ چرا این است؟ منظور من از خطاهای استاندارد خوشه‌بندی شده، خوشه‌بندی است که توسط دستور خوشه‌ای stata انجام می‌شود (و همانطور که در برتراند، دوفلو و مولایناتان از آن حمایت می‌شود). منظور من از جلوه‌های ثابت و اثرات تصادفی، متغیّر کردن است. من شیب متفاوت را در نظر نگرفته ام.
خطاهای استاندارد خوشه ای و مدل های چند سطحی
88981
من سه متغیر (A, T, C) با n=1083 دارم. همبستگی های پیرسون به شرح زیر است: A*T=.170 (p<.01) A*C=.370 (p<.01) T*C = -.103 (p<.01) همبستگی جزئی بین A و T کنترل برای C = 0.225 (p<.01) من می خواهم بدانم که آیا افزایش در A*T (r= 0.170) به طور قابل توجهی با r جزئی (.225) متفاوت است. چگونه می توانم این را تست کنم؟
چگونه می توانم آزمایش کنم که آیا یک همبستگی دو متغیره به طور قابل توجهی با یک همبستگی جزئی متفاوت است؟
30803
من سعی خواهم کرد تا حد امکان داده های خود را توضیح دهم. بنابراین ما 13 نهنگ مختلف را با برچسبی که زمان، عمق، سرعت، زاویه فرود و صعود 25 نمونه را در هر ثانیه ثبت می کند، برچسب گذاری کردیم. رفتار طبیعی غواصی این حیوانات یک شیرجه عمیق از یک ساعت تا 1200 متر است و به دنبال آن یک سری 3-7 شیرجه کم عمق 20 دقیقه تا 300 متر است. از آنجایی که برچسب همیشه در هر حیوان یکسان نمی ماند، داده های من نامتعادل است و برخی از رکوردهای برچسب دارای یک شیرجه عمیق و 6 شیرجه کم عمق هستند در حالی که رکوردهای دیگر دارای 7 شیرجه عمیق و 26 شیرجه کم عمق هستند. من هر شیرجه را به واحدهای 30 ثانیه تقسیم کردم. برای هر واحد داده‌های بعدی را دارم: تعداد نهنگ، تعداد شیرجه، تعداد کل ضربه‌های تصادف در واحد تحلیل 30 ثانیه‌ای، میانگین خطای زاویه در طول واحد 30 ثانیه، سرعت شنا، نوع شیرجه (صعود یا فرود) ) جهت شیرجه (اگر فرود یا صعود باشد) و زمان از شروع شیرجه و در نهایت پاسخ متغیر من که وجود یا عدم وجود یک نوع فلوک است. سکته مغزی به نام سکته مغزی نوع B. من فکر می کنم باید بین هر 30 ثانیه واحد تجزیه و تحلیل وجود داشته باشد و باید آن را در مدل خود لحاظ کنم، اما نمی دانم چگونه! من علاقه مندم بدانم چه چیزی بر وجود یا عدم وجود ضربه نوع B (که یک متغیر دو جمله ای با 0 و 1 است) تأثیر می گذارد، بنابراین تصمیم گرفتم از glmm دو جمله ای با عدد نهنگ به عنوان یک اثر تصادفی استفاده کنم. من همچنین شماره شیرجه در نهنگ را به عنوان یک اثر تصادفی درج کردم. در اینجا مدل است. glmm114<-lmer (StrokeB~ Time * Depth+SINP+flukes*Depth+speed+(1|whale_number)+(0+dive_number|whale_number),data=Luciadeepas, family = binomial) این مدل نهایی من پس از برداشتن غیر است متغیرهای معنادار، مشکل این است که به دلیل تعامل، یک مشکل ظاهر می شود و می گوید false پیام هشدار همگرایی (8) من در اینترنت نگاه کردم و می گوید یک مشکل رایج است و برخی می گویند که هیچ تغییری در خروجی ایجاد نمی کند در حالی که دیگران می گویند که هر متغیر باید بر 100 تقسیم شود. اما وقتی این کار را انجام می دهم پس متغیرهایی که معنی دار می شوند معنی ندارد.
پیام هشدار همگرایی نادرست در lmer
82386
من از مقدار خطای میانگین مربع یکی از پارامترهای تجزیه و تحلیل استفاده کرده ام. همچنین متوجه شدم که هر بار که طرحی را اجرا می کنم مقدار خطای میانگین مربع متفاوتی دریافت می کنم. دلیل آن را نمی توانم شناسایی کنم. چه پارامترهای دیگری برای تجزیه و تحلیل استفاده می شود؟
چه نوع یا آنالیز نتیجه ای را می توان برای تجزیه و تحلیل ویژگی های دستگاه بولتزمن محدود انجام داد؟
26897
نادانی من را ببخشید، اما من واقعاً به کمک نیاز دارم تا بفهمم چگونه یک مجموعه داده را تجزیه و تحلیل کنم. اساساً آزمایش در بین 8 بلوک، با دو تیمار ('a' و 'b') و یک کنترل در هر بلوک تکرار می‌شود. متأسفانه (طراحی من نیست) آزمایش کاملاً فاکتوریل نیست (هیچ درمان a*b وجود ندارد). آزمایش به مدت یک سال اجرا شد و ما هر سه ماه یک بار نمونه برداری کردیم (غنای گونه). من علاقه مند به آزمایش تأثیرات درمانی قابل توجه، تأثیرات فصلی و تداخلات فصل*درمان هستم. سؤالات من در اینجاست: 1. آیا لازم است دو تجزیه و تحلیل جداگانه برای درمان «a» و «b» انجام دهم، زیرا آزمایش به طور کامل فاکتوریل نبود؟ 2. من کاملاً مطمئن نیستم که چگونه این فرمول را کدنویسی کنم (من از 'aov' در R استفاده می کنم). بهترین حدس من چیزی شبیه به این است: aov(غنای~درمان_A + فصل + بلوک + (فصل*درمان_A) و سپس همان برای درمان b. اما نمی‌دانم که آیا این درست است یا نه، زیرا همان نمودارها 4 برابر اندازه‌گیری می‌شوند (یک بار). همانطور که می بینید، هر گونه توصیه ای قابل قدردانی است: من حتی اصطلاحات مناسب را در اینجا نمی دانم.
توصیه هایی در مورد فرمول برای اندازه گیری های فاکتوریل، مسدود شده (احتمالاً) مکرر آنووا در R
44806
برای برآوردگر Theil-Sen من از دو روش اصلی برای به دست آوردن فواصل اطمینان آگاه هستم: * مستندات بسته R zyp از موارد زیر استفاده می کند: > فاصله اطمینان در شیب با استفاده از روش تعریف شده در > (Sen, 1968) محاسبه می شود. فاصله اطمینان در رهگیری با > گرفتن انحراف استاندارد وقفه ها (sd.i)، آمار z برای > سطح اطمینان داده شده (z) و میانگین (m) محاسبه می شود. سطح اطمینان > سپس: c(m - z * sd.i، m + z * sd.i) * Wilcox (2009) پیشنهاد می کند از bootstrapping استفاده شود که فرضیات کمی دارد اما می تواند از نظر محاسباتی پرهزینه باشد. آیا کسی می تواند: 1. پیوندی ارائه دهد که در آن روش استفاده شده توسط R توضیح داده شود؟ 2. به من بگویید با استفاده از روش R چه فرضی ایجاد می شود؟ 3. پیوند به تحقیقات کمی در مورد پیامدها/حساسیت به داده هایی که مفروضات را نقض می کنند؟ البته من به همان اندازه خوشحال خواهم شد اگر کسی به جای ارائه لینک مستقیماً به سؤالات من پاسخ دهد.
مراجع برای روش های محاسبه فاصله اطمینان برای برآوردگر Theil-Sen
82383
من وظیفه استخراج رابطه دارم. مجموعه ای از روابط از پیش تعریف شده در پیکره وجود دارد. من باید طبقه‌بندی کننده را آموزش دهم تا نوع رابطه یا عدم وجود رابطه بین هر جفت اسم را تشخیص دهد. من استفاده از پیاده سازی چند کلاسه SVM را انتخاب کردم. مشکل این بود که من تعداد مثال های مختلفی برای روابط مختلف دارم، مثلا برای رابطه نوع 1 1000 مثال در حاشیه نویسی استاندارد طلایی دارم، اما برای رابطه نوع 2 فقط 50 مثال. نتیجه طبقه بندی در نوع 1 نتیجه بسیار خوب و در مجموعه اعتبار سنجی نوع 2 بسیار بد بود. راه حل این بود که از نمونه های مشابه از نوع 2 چندین بار در مجموعه قطار من استفاده کنم، به طوری که تعداد کلی نمونه های نوع 1 به تعداد نمونه های نوع 2 نزدیک باشد. در مجموعه آزمایشی نتیجه بسیار خوبی می دهد. سوال این است که چگونه این را توضیح دهیم، چرا واقعا کار می کند. از نظر من غیر شهودی به نظر می رسد، من انتظار نداشتم که استفاده از چند بار مثال ها بتواند کمک کند.
بهبود در موارد تکراری
47676
فرض کنید از یک مدل زمان شکست تسریع شده استفاده کرده اید تا متوجه شوید که انتقال سوژه ها از حالت A به حالت B به طور معمول با پارامترهای $\mu$ = X و $\sigma $ = Y توزیع شده است. اکنون باید از این مدل استفاده شود. در یک مدل معادلات دیفرانسیل به عنوان سرعتی که آزمودنی ها با آن از حالت A به حالت B حرکت می کنند. با این حال، فقط استفاده از $\mu$ به عنوان میانگین احتمال انتقال از A به B منجر به یک نمایی می شود. زمان انتظار توزیع شده، نه زمانی که به طور معمول توزیع شده است. من می دانم که شما می توانید از یک سری توزیع های نمایی مستقل متوالی برای به دست آوردن یک زمان انتظار کلی توزیع شده گاما استفاده کنید. به عنوان مثال، اگر 2 روز طول بکشد تا از A به B حرکت کند، چهار توزیع نمایی با فاصله مساوی منجر به زمان انتظار توزیع شده گامای کلی با $\kappa$ = 4 و $\theta$ = 2 می شود. سوال این است که آیا وجود دارد توزیع گامایی که پارامترهای شکل و مقیاس آن تقریباً یک log-normal است؟ من می دانم که اگر از توزیع های نمایی زیادی برای $\kappa$ بالا استفاده کرده باشم، قضیه حد مرکزی به توزیع گاما اجازه می دهد تا یک log-normal را تقریب بزند، اما مطمئن نیستم که آیا راهی برای به دست آوردن زمان انتظار log-normal از آن وجود دارد یا خیر. . اساساً، آیا مقداری $\kappa$ و مقداری $\theta$ وجود دارد که چیزی شبیه به log-normal با $\mu$ = X و $\sigma$ = Y را به دست می‌دهد؟
به دست آوردن زمان انتظار log-normal از طریق توزیع های متوالی نمایی یا گاما - آیا ممکن است؟
110162
مجموعه داده های زیر **train** را در نظر بگیرید: z a 1 1 0 2 0 1 1 3 0 1 1 2 1 1 0 3 0 1 1 3 با متغیر نتیجه باینری **z** و متغیر پیش بینی **a**. کد زیر را نیز در نظر بگیرید: library(caret) set.seed(825) fitControl <- trainControl(method= cv, number=2, classProbs=TRUE) svmfit1 <- train(z~a, data=train, method= svmLinear، trControl = fitControl) مدل `svmfit1` دقیقاً چیست؟ از همه داده ها برای تناسب با مدل استفاده نمی کند. هر بار، ما 2 نقطه داده را حذف می کنیم. بنابراین ما 5 مدل SVM دریافت می کنیم. اما کدام یک svmfit1 است؟ آیا R فقط «svmfit1» را انتخاب می کند تا مدلی با بالاترین دقت از بین پنج مدل باشد؟
اعتبار سنجی متقابل و R
8297
من به دنبال یک سایت خودآموز در وب هستم که به من اجازه دهد درک خود را از برخی مفاهیم و عملیات اولیه احتمالات و آمار تأیید کنم. آنچه من می خواهم سایتی با داده ها و مشکلات (همراه با راه حل ها) است که بتوانم از آن برای تمرین مهارت های خود استفاده کنم (مانند روش های رگرسیون/تحلیل، آزمون های t زوجی، محاسبه و تفسیر فواصل اطمینان و غیره). من کتاب‌هایی مانند این را دیده‌ام، اما داده‌ها برای وارد کردن به R یا Excel در دسترس نیستند. حتماً باید چنین سایتی در اینترنت وجود داشته باشد که بر اساس موضوعات برای مطالعه مرتب شده باشد، اما به نوعی نتوانستم آن را پیدا کنم. همچنین، اگر کسی کتاب کار خوبی را می شناسد که همراه با داده ها (روی سی دی یا از طریق وب) باشد، من نیز به آن علاقه مند می شوم. Re tools، من از R و Excel استفاده خواهم کرد - بنابراین اشاره گرها نیز عالی خواهند بود. با تشکر
به دنبال آمار و مشکلات عملی احتمالی با داده ها و راه حل ها
73907
در یک نیروگاه هسته ای دقت زیادی برای اندازه گیری سلامت کارکنان انجام می شود. این تعداد بازدیدهایی است که هر یک از 10 کارمند در طول یک سال تقویمی به پزشک مراجعه می کنند. 3،6،5،7،4،2،3،5،1،4 با فرض اینکه تعداد بازدیدهای انجام شده توسط کارمند دارای توزیع سم است، این فرضیه را آزمایش کنید که میانگین سالانه هر کارمند بیشتر از 3 است. من از روش گرافیکی است و من مطمئن نیستم که کدام p[X=x] را باید در نظر بگیرم. X: تعداد مراجعات هر کارمند به پزشک. H0:lambda=3 H1:lambda>3 X یک Poisson(3) را دنبال می کند، پس احتمال اینکه باید بررسی کنم چقدر است؟ کاری که من انجام دادم این بود که میانگین داده های نمونه 4.73636 است. بنابراین p[X>=4] را محاسبه کرد و بررسی کرد که آیا در منطقه بحرانی است یا خیر. آیا این احتمال صحیح محاسبه است؟ در توزیع پواسون مقدار مورد انتظار به صورت x*p[X=x] محاسبه می‌شود، درست است؟ نه به صورت (سیگما x*f(x))/(سیگما x)
آزمون فرضیه با استفاده از توزیع پواسون
82380
آیا کسی تفاوت بین اصل احتمال ضعیف و اصل احتمال قوی را می داند؟
اصل احتمال: تفاوت بین نسخه ضعیف و قوی
82382
من در حال تلاش برای یافتن این هستم که آیا راهی برای دریافت داده های واقعی از چندین نسخه پر سر و صدا وجود دارد یا خیر، اما داده های واقعی یک ویژگی عجیب و غریب دارند. **بیانیه مشکل** ماتریس $F=[f_1, f_2, ... , f_n]$ را در نظر بگیرید که در آن $f_i$ '1984 بعدی' است. اکنون هر $f_i$ را می توان به صورت $f_i=H^i+n_i$ بیان کرد. در اینجا $H^i$ داده واقعی (ناشناخته) و $n_i$ نویز تعبیه شده است. ویژگی عجیب این است که هر $H^i$ همبستگی بالایی با یکدیگر دارد (به عبارت دیگر، همه $H^i$ مشابه یکدیگر هستند). من می‌خواهم یک فیلتر یا بردار بسازم که وقتی در $f_i$ ضرب شود، $H^i$ یا تقریبی $H^i$ به من بدهد، یعنی نویز باید کاهش یابد. **افکار من** می‌دانم که باید برخی مفروضات اضافی را روی نوع نویز قرار دهیم، مانند گاوسی و غیره. در مورد من، فکر نمی‌کنم نویز من گاوسی باشد. هر بردار ویژگی $f_i$ اساساً یک پچ تصویر را نشان می دهد. بنابراین، نویز می‌تواند تصادفی باشد، اما من آماده هستم تا نویز را به‌عنوان گاوسی مدل‌سازی کنم و ببینم چه اتفاقی می‌افتد. من فکر می کنم رویکرد یادگیری ماشینی بهتر کار خواهد کرد. من دو فکر داشتم: 1. یک بردار را یاد بگیرید که وقتی با داده ضرب می شود، $||w^Tf_i-w^Tf_{i+1}||$ باید به گونه ای کمینه شود که (مثلاً) $||w ||\le1$. 2. یک زیرمجموعه از $f_i$ اضافه کنید تا با جمع کردن $n_i$ های مختلف، به Gaussian (؟) نزدیک شود و من فرض می کنم روش هایی برای بازیابی داده ها در زمانی که نویز گاوسی است وجود دارد. من برای هر ایده دیگری آماده هستم تا زمانی که به نتیجه مطلوب برسم. در صورت لزوم می توانید برچسب ها را ویرایش کنید.
بازیابی اطلاعات واقعی از چندین نسخه نویزدار
48914
من روی یک برنامه تحلیلگر کد کار می کنم. این در اصل یک نرم افزار است که کد برنامه های دیگر را تجزیه و تفسیر می کند و با معیارها، یافته ها، آمارهای مختلف می آید و در نهایت هشدارهای عملکرد و پیشنهادات مهندسی مجدد را ترسیم می کند. هنوز در مراحل اولیه است و کاری که من در حال حاضر انجام می‌دهم تجزیه فایل‌های کد منبع برای اعلان متغیر، تخصیص و ارجاعات است. آن بخش به خوبی کار می کند، من می توانم تمام رخدادهای متغیر، موقعیت آنها را به طور دقیق استخراج کنم و آنها را در یکی از سه دسته ذکر شده شناسایی کنم. گام بعدی من شناسایی و اندازه‌گیری خوشه‌بندی هر متغیر در کد با هدف شناسایی مناطق عملکردی متمایز است که می‌توانند به بلوک برنامه‌ای متمایز خود (یعنی یک تابع اما نه لزوما) تفکیک شوند. بنابراین این یک نوع تلاش ساده برای یادگیری ماشینی است. داده ای که در اختیار من است شامل طول فایل و درخت سلسله مراتبی متغیرها، شماره خطوطی است که در آن رخ می دهند و تعداد دفعاتی که در هر خط رخ می دهند. به عنوان مثال FOO->5 = 1 FOO->17 = 2 FOO->32 = 1 BAR->6 = 1 BAR->55 = 1 و غیره به این معنی که FOO در خطوط 5 و 32 یک بار، 17 دو بار در خط رخ می دهد. 2 (مثالی از پرچم قرمز برای بوی کد)، «BAR» یک بار روی 6 و 55 هر کدام و غیره. کاری که من می خواهم انجام دهم اندازه گیری پراکندگی هر متغیر است. اما در کل فایل این واقعیت که باید با کل فایل اندازه‌گیری شود همان چیزی است که باعث شد فکر کنم «انحراف استاندارد» ساده انجام نمی‌دهد، زیرا فقط پراکندگی توزیع‌ها را در خود اندازه‌گیری می‌کند، یعنی پارامتر دیگری درگیر است. بنابراین، اگر طول فایل کد منبع مثلاً 500 خط باشد، و نیم دوجین متغیر در بلوک کد 125-200 پراکنده باشد، که هر متغیر به ندرت یا اصلاً خارج از آن محدوده ظاهر شود، می‌خواهم معیار من آن را بگیرد و شناسایی کند. بلوک کد 125-200 به عنوان یک کاندید خوب برای جداسازی به واحد خود است. برعکس، اگر متغیری به طور یکنواخت در کل فایل پراکنده باشد و به نوعی در همه جا حاضر باشد، می‌خواهم آن را تشخیص داده و آن را به عنوان یک متغیر جهانی تعیین کنم. سوال من این است: آیا فرمول/اندازه آماری استانداردی وجود دارد که نشان دهنده میزان پراکندگی توزیع رخدادها در یک منطقه باشد (در این مورد متغیرها در یک فایل)، چیزی شبیه به انحراف استاندارد ارزش افزوده؟
اندازه گیری پراکندگی توکن ها در یک فایل متنی
82384
من باید آزمایش کنم که کدام عوامل بر آسیب بازی در زمین ها تأثیر می گذارد. من مناطق دارای آسیب و مناطق بدون آسیب را ترسیم کردم. همیشه نمی‌توان 100% از یک میدان را ترسیم کرد، بنابراین مناطقی نیز وجود دارند که مطمئن نیستند. از آنجایی که آسیب واحد عینی نیست زیرا نمی توان تعیین کرد که کجا پایان می یابد و بعدی شروع می شود، من یک شبکه روی منطقه قرار دادم و برای هر سلول به طور مستقل فاصله تا ساختارهای مختلف (جنگل، جاده ها و غیره) را محاسبه کردم. داده های به دست آمده به این شکل هستند: | آسیب | شناسه | dist_forest | dist_maiz | dist_roads |... |0 | 51| 30| 20| 70|... |0 | 51| 20| 10| 60|... |0 | 52| 60| 10| 80|... |0 | 52| 40| 70| 10|... |0 | 52| 20| 60| 50|... |1 | 53| 10| 10| 50|... |1 | 53| 05| 20| 30|... |1 | 54| 20| 30| 20|... |1 | 54| 30| 20| 90|... |1 | 54| 40| 10| 10|... (من حدود 100 چند ضلعی مجزا دارم که با تفکیک متر مربع به 100000 خط منتهی می شود) می خواستم از یک رگرسیون لجستیک باینری با اثرات تصادفی استفاده کنم. برای حل مشکل داده های غیر مستقل، شناسه چندضلعی های آسیب را به عنوان یک عامل تصادفی اضافه کردم. مدل به دست آمده به این صورت بود: glm <- glm(dage ~ dist_forest + dist_maiz + dist_roads + (1|cat), family=binomial(logit),data=data) مشکل اکنون این است که همه پارامترهای من بسیار مهم هستند . قبلاً اینجا پرسیدم و پیشنهاد شد از مدل خاصی برای داده های مکانی استفاده شود. > اگر داده ها (به طور قابل ملاحظه ای) از نظر مکانی وابسته هستند، آزمون های اهمیت استاندارد به هیچ وجه اعمال نمی شوند! آیا کسی پیشنهادی برای ادامه کار دارد؟
نحوه تجزیه و تحلیل داده های مکانی در جایی که متغیر وابسته باینری است
82381
من داشتم تئوری اولیه PAC را بررسی می کردم و نمی توانم بفهمم چرا تقسیم شکاف بین فرضیه و کلاس C که می خواهیم یاد بگیریم چیست. پیوند: > اگر $x$ در ناحیه بین $h$ و $c$ باشد، یک فرد $x$ به اشتباه توسط مفهوم آموخته شده $h$ طبقه بندی می شود. این ناحیه را به 4 نوار > در بالا، پایین و دو طرف $h$ تقسیم می کنیم. ما اجازه می دهیم این نوارها، > بدبینانه، در گوشه ها همپوشانی داشته باشند. در شکل 1، نوار بالا > را به صورت $t'$ نشان می دهیم. اگر هر یک از این نوارها حداکثر مساحت epsilon/4 داشته باشد، یعنی در نوار $t$ ناحیه $\frac {\epsilon}{4}$ > موجود باشد، آنگاه خطای > فرضیه ما $h$ خواهد بود. محدود شده توسط اپسیلون چرا $(1-ε)^m$ را به جای $4(1-(\frac{ε}{4}))^m$ انجام ندهید پیشاپیش متشکرم!
چرا تقسیم فرضیه PAC 'شکاف'
48910
فرض کنید که ما یک محیط مارکوین داریم که در هر مرحله زمانی یک رویداد $A$ با احتمال $p^*$ و در غیر این صورت یک رویداد $B$ تولید می کند. حالا فرض کنید شما یک عامل بیزی هستید که می خواهید $p^*$ را از مشاهداتی که تاکنون انجام داده اید یاد بگیرد. اگر اجازه دهیم کلاس فرضیه ما $\\{H_x\\}_{0 \leq x \leq 1}$ باشد و پیشین اولیه ما توزیع یکنواخت باشد ($f_0(x) = 1$)، پس طبق قانون بیز ما در هر مرحله زمانی به‌روزرسانی می‌کنیم: $$ f_{t+1} = \begin{cases} \frac{x f_t(x)}{\int_0^1 x f_t(x) dx} و \text{اگر A} \\\ \frac{(1 - x) f_t(x)}{\int_0^1 (1 - x) f_t(x) dx} و \text{اگر B} را دیدیم end{cases} $$ بهترین تخمین (در زمان $t$) $p_t$ برای $p^*$، میانگین $f_t$ خواهد بود. من می توانم نشان دهم که ردیابی $p_t$ به شمارش کاهش می یابد، به این معنا که اگر در زمان $t$ شما $a$ بسیاری از $A$ و $b = t - a$ بسیاری از $B$ رویدادها را مشاهده کردید، $$p_t = \frac{a + 1}{(a + 1) + (b + 1)}$$ این یک نتیجه اساسی به نظر می رسد که در یک دوره آمار مقدماتی (که متأسفانه ندارم) می دیدم. **به این چه می گویند؟** اگر یک عامل از رویه بالا برای تخمین $p^*$ استفاده می کرد، چه نوع استنتاج، رگرسیون یا تخمینی انجام می داد؟ علاوه بر این، برای اینکه پاسخ فقط یک خطی نباشد. **چند جایگزین وجود دارد؟** به طور خاص، چه نوع فرضیاتی باید داشته باشم تا $p_t = \frac{a}{a + b}$ داشته باشم؟ یعنی چگونه می توانم تعصب یکنواختی ناشی از انتخاب قبلی را از بین ببرم؟
نام (و جایگزین) این تخمین نقطه بیزی چیست؟
110166
من می‌خواهم رگرسیون لجستیک را با برخی از متغیرهای توضیحی طبقه‌بندی‌شده با دسته‌های بیشتر از فقط باینری 0/1 انجام دهم. آیا این امکان پذیر است و چرا؟ من تمایل دارم فکر کنم که این به دلیل شهود هندسی نتیجه اشتباهی را به همراه خواهد داشت، با این حال اکثر نظرات آنلاین می گویند که متغیرهای توضیحی می توانند گسسته/مقوله باشند (اگرچه من هیچ اشاره ای به دسته های بیشتری نمی بینم). برای 0/1 این خوب است زیرا فاصله بین 0 و 1 آسان است. اگر من حتی 3 دسته 0/1/2 داشته باشم، معلوم نیست که 1-0 همان 2-1 باشد. یک فکری که داشتم این بود که برای متغیرهای توضیحی یک نوع کار در مقابل همه انجام دهم. بنابراین اگر من یک پارامتر داشتم که روی 3 دسته A/B/C می تواند آن را به 3 پارامتر جداگانه تبدیل کنم: A: 0/1 B: 0/1 C: 0/1 که در آن 0 متعلق به کلاس حرف نیست و 1 است. متعلق به کلاس حروف زمینه: متغیر وابسته من باید باینری باشد. من واقعاً می خواستم از رگرسیون لجستیک به دلیل تفسیر احتمال استفاده کنم. اگر بتوانید روش دیگری را توصیه کنید که بتواند تخمین احتمال (به جای صرف طبقه بندی) را که متغیرهای توضیحی طبقه بندی شده را در بر می گیرد، خروجی دهد، این نیز مفید خواهد بود.
رگرسیون لجستیک و متغیرهای توضیحی طبقه‌ای
88677
من 2 تابع f(t) و g(t) دارم. من می خواهم تابع s(t) را پیدا کنم که خطا را به حداقل می رساند |f(s(t))-g(t)|^2 آیا می توان s(t) را با استفاده از شبکه عصبی تخمین زد؟ من تازه وارد این رشته هستم، لطفاً سعی کنید شفاف باشید. با تشکر من از pybrain استفاده می کنم، بنابراین راه حل مربوط به pybrain عالی خواهد بود
آیا حل این مشکل با شبکه عصبی امکان پذیر است؟
19328
آیا تابعی وجود دارد که ماتریس کوواریانس وزنی نمایی را در R محاسبه کند؟ به یاد می‌آورم که چند وقت پیش عملکردی را دیدم... من نمی‌توانم چیزی را در صفحات R Search یا Task View روشن کنم.
چگونه یک تابع ماتریس کوواریانس وزنی نمایی را در R محاسبه کنیم؟
110165
من داده‌ای از { Erne /Soho} برای زمان بر حسب واحد(ساعت) روی محور x و شدت در واحد (1/s.sr.cm2.Mev/n) در محور y داده‌های طولانی از 1500 نقطه تا 2500 دارم. نقاط و منحنی ها شبیه منحنی گاوسی هستند در مورد آن به کمک شما نیاز دارم: 1. برازش، چند مقدار و چند جمله ای را ترسیم کنید و پیدا کنید. 2. پیدا کنید شیب (زاویه) برای نقاط صعود از نقطه ای که شروع به افزایش می کند تا اوج منحنی 3. مرحله 2 را برای نقاط از اوج تا پایان فروپاشی تکرار کنید داده ها عبارتند از: x(زمان بر حسب ساعت) y(شدت) X y 0.041667 0.000171 0.125 0.000161 0.208333 0.000101 0.291667 0.000139 0.375 0.0000565 0.458333 0.000124 0.541667 0.0000669 0.625 0.0000009083 0.791667 0.000164 0.875 0.000137 0.958333 0.0000885 1.041667 0.000162 1.125 0.000141 1.2083033320. 0.000104 1.375 0.000067 1.458333 0.0000658 1.541667 0.000135 1.625 0.0000691 1.708333 0.000070656 0.000149. 2.458333 0.0000706 2.541667 0.000136 2.625 0.000102 2.708333 0.000143 2.791667 0.0000921 2.802338708 0.000106 3.041667 0.0000803 3.125 0.000117 3.208333 0.000161 3.291667 0.000183 3.375 0.0000458303 3.541667 0.000138 3.625 0.000101 3.708333 0.000126 3.791667 0.0000352 3.875 0.0000344 3.958304 3.958304 3.958306 0.000102 4.125 0.000149 4.208333 0.000147 4.291667 0.0000222 4.375 0.000034 4.458333 0.0000540929 4.625 0.00008 4.708333 0.000101 4.791667 0.000145 4.875 0.0000794 4.958333 0.000102 5.04160167 0.000145 5.208333 0.000711 5.291667 0.000892 5.375 0.001269 5.458333 0.001324 5.541667 0.001479 5.6025 5.6025 5.6025 0.6025 0.6025 . 6.291667 0.003532 6.375 0.003844 6.458333 0.003582 6.541667 0.004157 6.625 0.004822 6.708357961560. 0.006492 6.875 0.00688 6.958333 0.007222 7.041667 0.007582 7.125 0.007961 7.208333 0.007937 7.007937 7.007937 7.207 0.007804 7.458333 0.007741 7.541667 0.007369 7.625 0.006984 7.708333 0.00662 7.791667 0.0087367 0.0087367 7.958333 0.006447 8.041667 0.006536 8.125 0.006673 8.208333 0.006869 8.291667 0.007084 8.303758 8.30375 090. 0.007546 8.541667 0.007243 8.625 0.006907 8.708333 0.006596 8.791667 0.00631 8.875 0.00638308.0063838. 9.041667 0.006509 9.125 0.006592 9.208333 0.006545 9.291667 0.006488 9.375 0.006433 9.458353341610. 0.006437 9.625 0.006511 9.708333 0.006594 9.791667 0.006685 9.875 0.006784 9.958333 0.0068041 10.0068016 1006. 0.007113 10.20833 0.007222 10.29167 0.007335 10.375 0.007453 10.45833 0.007577 10.54167 0.007335 10.70833 0.00802 10.79167 0.008178 10.875 0.008258 10.95833 0.008332 11.04167 0.008407 11.10125 11.10840. 0.008638 11.29167 0.008805 11.375 0.008976 11.45833 0.009151 11.54167 0.008961 11.625 0.0087083083111 11.79167 0.008333 11.875 0.008155 11.95833 0.007988 12.04167 0.007829 12.125 0.00768 12.2020274160. 0.007242 12.375 0.007034 12.45833 0.006835 12.54167 0.006705 12.625 0.006584 12.70833 0.00646830 0.0064616 12.875 0.006259 12.95833 0.006173 13.04167 0.006093 13.125 0.006017 13.20833 0.005997 13.291353570. 0.005975 13.45833 0.005969 13.54167 0.005572 13.625 0.005167 13.70833 0.0048 13.79167 0.0048464641 13.95833 0.004521 14.04167 0.004583 14.125 0.004694 14.20833 0.00436 14.29167 0.004653 14.3043447470. 0.0044 14.54167 0.004331 14.625 0.004178 14.70833 0.004028 14.79167 0.004093 14.875 0.003858 1394 15.04167 0.003895 15.125 0.003843 15.20833 0.003795 15.29167 0.004257 15.375 0.00382 15.450373746. 0.003662 15.625 0.003628
شیب داده های نویز غیر خطی
110167
من با داده‌های ابزاری کار می‌کنم که انتظار می‌رود پیشینی داده‌های توزیع شده گاوسی (به طور معمول) تولید کند: \begin{equation} G = A\exp\left(-\dfrac{(x - \mu)^2}{ \sigma} \right) \end{equation} داده‌ها معمولاً پراکنده هستند و تنها حدود 2-3 اندازه‌گیری هر $G$ را نشان می‌دهد. در این سوال، من روی یک $G$ متمرکز هستم، اما در واقعیت، ما اغلب سیگنال‌های آنالیتی داریم که باعث همپوشانی $G$ می‌شوند که سپس به طور همزمان مطابق با شرح زیر نصب می‌شوند. برای تطبیق $G$ با اندازه‌گیری‌هایمان، $\mu$ و $\sigma$ را پیشینی با استفاده از سیگنال‌های مرجع کالیبره می‌کنیم، سپس از این کالیبراسیون‌ها برای محدود کردن همه پارامترها به جز $A$ استفاده می‌کنیم. بنابراین تناسب به \begin{equation} G = AG_0 \end{equation} کاهش می‌یابد که سپس با حداقل‌سازی حداقل مربعات برای تعیین $A$ برازش می‌شود. **سوال اصلی من این است: عدم قطعیت ($\sigma_A$) در $A$ برازش شده چیست؟** * * * رویکرد اولیه من تخمین $\sigma_A$ به عنوان RMSE تناسب بود. اما از آنجایی که RMSE اساساً انحراف استاندارد باقیمانده ها است، به نظر می رسد بیش از حد برآورد شود: من فاصله اطمینان پارامتر برازش را می خواهم. آیا می توانم با خیال راحت از معادله کتاب درسی زیر برای فاصله اطمینان یک شیب رگرسیون خطی در این زمینه استفاده کنم؟ ($x_i$ متغیرهای پیش بینی هستند، $\bar{x}$ میانگین متغیرهای پیش بینی، $e_i$ باقیمانده های مناسب هستند، و 2 درجه آزادی توسط 1 متغیر برازش مصرف شده است و این واقعیت که مجموع باقیمانده به صفر) \begin{equation} \sigma_A = \dfrac{s_e}{\Sigma _i (x_i - \bar{x})^2 } = \dfrac{\frac{1}{n- 2}\Sigma_i e_i^2}{\Sigma _i (x_i - \bar{x})^2 } \end{معادله } من فکر می کنم بله: تمام کاری که انجام داده ام این است که $x$ خود را قبل از برازش یک پارامتر خطی تبدیل کنم. من همچنین به نه فکر می کنم زیرا از معنای $x_i - \bar{x}$ در این معادله مطمئن نیستم -- آیا مختص رگرسیون خطی است؟ * * * برای تجسم کردن، داده‌های من تقریباً به اندازه این داده‌های شبیه‌سازی شده بد هستند (اما اغلب سیگنال یک یا دو نقطه داده بیشتر را دریافت می‌کند): ![A Gaussian fit only to 2 data](http://i. stack.imgur.com/edBWL.png) توجه: من می دانم که تجزیه و تحلیل بیزی روش بهتری برای انتقال اطلاعات در مورد $\mu$ و $\sigma$ به تناسب من است، اما من در این مورد نیستم. آزادی برای تغییر نرم افزار تجزیه و تحلیل در حال حاضر. من باید خودم را به برآورد $\sigma_A$ محدود کنم. ویرایش: نکته دیگری که ممکن است برخی راه‌حل‌ها را حذف کند: من هزاران اندازه‌گیری را به صورت انبوه و بدون مقدار واقعی مشخص تجزیه و تحلیل می‌کنم.
فاصله اطمینان برای تناسب محدود با داده‌های گاوسی
82387
وقتی در R کار می‌کنید، چگونه می‌توانم یک ANOVA ترکیبی با عوامل متعدد بین و درون موضوعی را به‌گونه‌ای مشخص کنم که در تجزیه و تحلیل بعدی، متغیر کمکی اضافه شود؟ همچنین، در حالت ایده‌آل، من می‌خواهم از نوع 3 SS استفاده کنم، زیرا من به آن عادت دارم. من در ابتدا تجزیه و تحلیل خود را (بدون متغیر کمکی) با استفاده از ezANOVA انجام دادم و یک تعامل سه طرفه پیش بینی شده از دو عامل بین آزمودنی ها (پیش تمرین و آموزش، پایین) و یک عامل درون آزمودنی (بخش، زیر) را یافتم. یک توضیح احتمالی این است که دو عامل b-s بر کمیت دیگری (مطالعه، زیر) تأثیر می‌گذارند که به نوبه خود باعث برهمکنش فوق می‌شود. امیدوارم این توضیح درست نباشد، اما برای حذف آن، می‌خواهم کمیت دیگر (مطالعه) را به عنوان متغیر کمکی به مدل خود اضافه کنم و ببینم که آیا تعامل 3 طرفه اصلی هنوز قابل توجه است یا خیر. آیا این رویکرد قابل قبولی است؟ با فرض اینکه بله، مشکل من این است که نمی توانم راه خوبی برای اضافه کردن متغیر کمکی پیدا کنم. (الف) می توان آن را با استفاده از between_covariates در ezANOVA اضافه کرد، اما هشداری وجود دارد که این تابع در حال توسعه است، و نتایج عجیب به نظر می رسند، بنابراین من بدون تأیید دیگر به آنها اعتماد ندارم. (ب) با استفاده از aov، من نمی‌توانستم دقیقاً نتایج ezANOVA را _بدون_ متغیر کمکی تکرار کنم، و همچنین نمی‌توانستم بفهمم چگونه یک متغیر کمکی اضافه کنم. (C) با استفاده از lm، نتوانستم بفهمم که چگونه اقدامات مکرر را به کار ببرم. (د) با استفاده از lme از nlme، من یک مدل کار با اندازه گیری های مکرر (در زیر نشان داده شده است) دریافت کردم، اما نتایج _بدون_ متغیر کمکی با نتایج ezANOVA متفاوت بود، بنابراین فکر نمی کنم مدلی معادل باشد. من می‌خواهم مدلی معادل مدل اصلی ایجاد کنم و سپس ببینم که آیا اثر من با اضافه شدن متغیر کمکی قابل توجه باقی می‌ماند یا خیر. چگونه می توانم این کار را انجام دهم؟ کد قابل تکرار: # این داده از یک آزمایش طراحی شده برای بررسی اثرات انواع مختلف آموزش بر یادگیری بدست می آید. آموزش بین آزمودنی ها با استفاده از ترکیب فاکتوریل پیش تمرین (3 سطح) و آموزش (2 سطح) دستکاری می شود. یادگیری به عنوان تغییر در عملکرد از یک پیش آزمون، قبل از پیش تمرین و آموزش، به یک پس آزمون، پس از اجرا ارزیابی می شود. دقت تست dv من است و بخش تست (قبل از پست) به عنوان یک فاکتور درون موضوعی در نظر گرفته می شود. من همچنین یک فاکتور درون موضوعی اضافی به نام نوع مشکل دارم که برای طبقه بندی انواع مختلف مسائل در پیش آزمون و پس آزمون استفاده می شود. برخی از انواع مسائل مشکلات بیشتری نسبت به سایرین دارند، اما تعداد مسائل یک نوع معین برای پیش آزمون و پس آزمون یکسان است. # داده های نمونه: nsubj = 215; nsec = 2; nprob = 6 D = data.frame( subjid = rep( 1:nsubj, every=nsec*nprob ), pretrain = rep( نمونه (c('a','b','c'), nsubj, replace=TRUE ), every=nsec*nprob ), training = rep( نمونه (c('j','k'), nsubj, replace=TRUE ) every=nsec*nprob)، مطالعه = rep ( نمونه ( 1:6، nsubj، جایگزین = TRUE )، هر = nsec*nprob )، بخش = rep( rep( c( 'pretest', 'posttest'), every= nprob ), nsubj ), probtype = rep( c( 'v', 'w', 'x', 'y', 'z', 'z') nsec*nsubj ), accuracy = sample( c( 0.0, 0.5, 1.0 ), nsubj * nsec * nprob, replace=TRUE ) ) # Model: library(ez ) options(contrasts=c(contr.sum,contr .poly) ) ezANOVA(data=D، wid=.(subjid)، dv=.(دقت)، inside=.(section,probtype), between=.(pretrain,training), type=3 ) # نسخه nlme: library(nlme ) fit = lme( دقت ~ بخش*probtype*pretrain*training, random=~1|subjid , method='REML', data=D ) anova.lme( fit, type='marginal' ) # نتایج مشابه اما نه مقادیر F و p یکسان با مدل اصلی است. df های مخرج کاملاً متفاوت هستند.
نحوه تعیین ANOVA مختلط با اندازه گیری های مکرر چندگانه و متغیرهای کمکی در R
7564
به عنوان اولین پست من می‌خواهم بدانم آیا پیاده‌سازی SOM (ترجیحاً R) موجود است که ورودی فازی را می‌پذیرد. یعنی من داده‌هایی دارم که در آن برخی از ویژگی‌های اسمی بین تعدادی دسته پخش شده‌اند. به عنوان مثال: ویژگی 1 دارای 5 دسته است و یک مشاهده ممکن است مقادیر (که در واقع احتمالات هستند) [0، 0.5، 0.25، 0.25، 0] باشد. ممنون، فیگارو
نقشه های خودسازماندهی: ورودی فازی؟
110168
من توزیع بتا پرت ارتفاع دیوارها را با حداقل 0.4 متر و حداکثر 1 متر دارم. من همچنین می دانم که در امتداد هر دیواری یا توزیع نرمال دهانه ها (آنها بیشتر در وسط دیوار هستند) یا یکنواخت دارم. اکنون، من می خواهم بدانم که احتمال وجود یک دهانه در هر ارتفاعی از هر دیوار ممکن (cdf) چقدر است. من فکر کردم دو سی دی اف را ضرب کنم (در هر یک و بگوییم یکنواخت تعریف شده بین 0 و 1) اما بدیهی است که وقتی ارتفاع دهانه بزرگتر از ارتفاع دیوار است که غیرممکن است، احتمالات غیر صفر به من می دهد. به نظر نمی رسد کانولوشن گزینه ای باشد زیرا دامنه توزیع بازشوها بسته به ارتفاع دیوار (یعنی توزیع پرت) متفاوت خواهد بود. چگونه باید این را حل کنم؟ **به روز رسانی:** من متوجه می شوم که آنچه می خواهم انجام دهم محاسبه احتمال ارتفاع باز شدن مشروط به ارتفاع دیوار است. من فکر می کنم پاسخ در فرمول شرطی برای توزیع های پیوسته نهفته است: $$ f_Y(y|X=x) = f(x,y)/f_X(x). $$ با Y ارتفاع باز و X ارتفاع دیوار است. اگرچه مشکل این است که من فقط توزیع احتمال ارتفاع دیوار را می دانم بنابراین دو توزیع ناشناخته دارم...
محاسبه توزیع احتمال مشروط / مشترک
44800
من در حال بررسی تأثیر یک متغیر گروهی (با پنج سطح) به همراه سایر پیش بینی کننده ها بر رشد پیشرفت با استفاده از مدل مخلوط SPSS هستم. آمار توصیفی الگوی ثابتی را در موفقیت این پنج گروه در تمامی موج های گردآوری داده ها نشان داد. یعنی میانگین امتیاز گروه C > گروه E > گروه B > گروه D > گروه A. با این حال، نتایج تجزیه و تحلیل من نشان داد که برآورد گروه C در زمان قطع (که در آخرین نقطه زمانی تنظیم شده بود) به طور قابل توجهی بود. پایین تر از گروه E و حتی پایین تر از گروه B. آیا این امکان وجود دارد؟ من می توانم بفهمم که تفاوت بین گروه C و E به دلیل سایر پیش بینی ها در مدل ناچیز می شود. با این حال، آیا ممکن است افزودن سایر پیش بینی کننده ها جایگاه نسبی گروه ها را در مدل تغییر دهد؟ من چندین بار تجزیه و تحلیل را دوباره بررسی و دوباره انجام دادم تا مطمئن شوم که نتیجه عجیب ناشی از اشتباهات من در رمزگذاری مجدد متغیرها یا نسبت دادن مقادیر از دست رفته نیست. آیا باید نگران این نتایج باشم؟ یا می توانم بگویم که نتیجه معقول بود زیرا پیش بینی های دیگری که به مدل اضافه کردم ممکن است تفاوت گروه را توضیح دهند؟ هر نظر یا توصیه ای قابل تقدیر است. ممنون!!!
نتایج عجیب از تجزیه و تحلیل چند سطحی
48911
من سعی می کنم مفهوم اساسی فرآیندهای تصادفی را درک کنم. قبلاً فهمیدم که یک فرآیند تصادفی زمان پیوسته با X(¥,t) تعریف می شود که در آن ¥ هر عنصر در فضای نمونه و t شاخص زمان است. با این تعریف، می‌توانیم فرآیند تصادفی را به‌عنوان مجموعه‌ای از تحقق‌های نمونه ببینیم (توابع زمانی که برای هر نتیجه در فضای نمونه تعریف شده‌اند) یا به‌عنوان مجموعه‌ای از متغیرهای تصادفی (هر کدام برای یک زمان خاص t تعریف شده‌اند). به نظر من، مقدار تابع زمان (تحقق نمونه) X(¥1,t) منعکس کننده مقدار متغیر احتمال انتخاب نتیجه 1¥ در فضای نمونه است، آیا این درست است؟ برای مثال، پسر B را در فضای نمونه داریم که نتیجه 1¥ را نشان می دهد. اگر این نتیجه 1¥ در زمان t=0 برابر است با 30%. هر چه زمان می گذرد، فضاهای نمونه شلوغ تر می شود و در زمان t=5، احتمالاً انتخاب پسر B برابر با 20٪ است. آیا می توانم فکر کنم که تابع زمان X(¥1,t) برابر 0,3 برای t=0 و 0,2 برای t=5 باشد؟ آیا X(¥1,0)=0,3 و X(¥1,5)=0,2 است؟ پیشاپیش ممنون
تعریف کلی فرآیندهای تصادفی
29669
در R، من یک ماتریس $N \times K$ $P$ دارم که در آن ردیف $i$'امین $P$ مربوط به توزیعی در $\\{1، ...، K\\}$ است. در اصل، من باید از هر ردیف به طور موثر نمونه برداری کنم. یک پیاده سازی ساده این است: X = rep(0, N); for(i در 1:N){ X[i] = نمونه (1:K، 1، prob = P[i، ]); } این خیلی کند است. در اصل من می‌توانم این را به C منتقل کنم، اما مطمئن هستم که باید راهی برای انجام این کار وجود داشته باشد. من چیزی به روح کد زیر می خواهم (که کار نمی کند): X = نمونه (1:K، N، جایگزین = TRUE، prob = P) **ویرایش:** برای انگیزه، N = 10000 دلار بگیرید $ و K $ = 100 $. من ماتریس های $P_1، ...، P_{5000}$ دارم که همه آنها $N \times K$ هستند و باید از هر یک از آنها یک بردار نمونه برداری کنم.
چگونه از $\{1، 2، ...، K\}$ برای $n$ متغیرهای تصادفی، هر کدام با توابع جرم متفاوت، در R نمونه برداری کنیم؟
88678
من با قیمت برق سر و کار دارم و آنها 3 فصل دارند: * قیمت ها در طول روز از یک الگوی پیروی می کنند. * قیمت ها در آخر هفته نسبت به هفته پایین تر است. * در تابستان قیمت ها با زمستان متفاوت است. این سه اثر نیز با هم تعامل دارند، یعنی در تابستان الگوی روزانه متفاوت از زمستان است. در پایان سؤال، «فصول» خلاصه می‌شود، با جلوه‌های روزانه نمایش داده شده برای هر ماه، خطوط کامل روزهای هفته، خطوط نقطه چین آخر هفته هستند. حال بهترین راه برای غیر فصلی کردن این داده ها چیست؟ من می توانم به چند گزینه فکر کنم: * اثرات شناخته شده را با dummies محاسبه کنید و این را از داده های اصلی کم کنید. (این کاری است که من انجام داده ام، نمودار خلاصه نیز در پایین پیوست شده است. به رنگ آبی اثر فصلی است.) * با تفاوت ها کار کنید، مثلاً 24 ساعت تفاوت را در نظر بگیرید تا از اثرات روزانه خلاص شوید. اما آیا می توانید این کار را انجام دهید تا به عنوان مثال ابتدا اثر هفتگی و سپس اثر روزانه را از بین ببرید؟ * با یک مولفه میانگین متحرک کار کنید که 24 ساعت حتی 7 روز به عقب برمی گردد. چه گزینه ای را پیشنهاد می کنید؟ پیشاپیش متشکریم، و برای کسانی که به این موضوع علاقه مند هستند، این ویدئویی است که یک اثر فصلی خاص استفاده از برق را توضیح می دهد http://www.youtube.com/watch?v=WCAzalhldg8. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/wZ85Z.jpg) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Fsulm.jpg)
چگونه این داده ها را غیر فصلی می کنید؟
107428
می دانیم که یک ماتریس تصادفی $m \times m$ $\boldsymbol{A} = \boldsymbol{H} \boldsymbol{H}^H$ یک ماتریس (مرکزی) واقعی/مختلط Wishart با $n$ درجه آزادی و ماتریس کوواریانس $\boldsymbol{\Sigma}$$(\boldsymbol{A} \sim \mathcal{W}_m (n, \boldsymbol{\Sigma}))$، اگر ستون‌های ماتریس $m \times n$ $\boldsymbol{H}$ صفر باشند، میانگین بردارهای گاوسی مستقل واقعی/مختلط با ماتریس کوواریانس $\boldsymbol{\Sigma}$. اگر ستون‌های ماتریس $\boldsymbol{H}$ صفر باشند، میانگین بردارهای گاوسی واقعی/مختلط مستقل با ماتریس کوواریانس متفاوت، یعنی ستون $i$-th $\boldsymbol{H}$ دارای ماتریس کوواریانس $\boldsymbol است. \Sigma}_i$ ($i=1، \cdots، n$)، ماتریسی است $\boldsymbol{A}$ یک ماتریس Wishart، و توزیع آن چیست؟ با تشکر
آیا این ماتریس Wishart است؟
29663
ما در حال طراحی یک کارآزمایی برای آزمایش سه مداخله رفتاری (آنها را A، B، و C) برای یک وضعیت سلامتی آزمایش می کنیم. درمان A یک مداخله ثابت است و B و C به عنوان افزودنی برای A در نظر گرفته می شوند. ما می خواهیم تضادهای زیر را آزمایش کنیم: 1. نتایج بسته های شامل درمان A در مقابل عدم درمان. 2. نتایج افزودن B، C، یا B+C به A. از آنجا که ما سعی نمی کنیم اثرات B یا C را در غیاب A تخمین بزنیم، به یک طرح فاکتوریل کسری رسیدیم که 5 سلول زیر را اجرا می کند: سلول: تهویه مطبوع شامل؟ -------------------------- 1 + + + شامل 2 + + - شامل 3 + - + شامل 4 + - - شامل 5 - + + شامل نمی شود 6 - + - شامل نمی شود 7 - - + شامل نمی شود 8 - - - شامل **چند شرکت کننده باید در سلول شماره 8 داشته باشیم؟** (سلول بدون درمان) معمولاً طرح های فاکتوریل تعداد یکسانی دارند شرکت کنندگان در هر کدام سلول، اما آنها همچنین دارای تعداد مساوی سلول با هر درمان در مقابل عدم وجود است. از آنجایی که ما فقط یک سلول بدون درمان A داریم، آیا این سلول باید 4 برابر سایر سلول ها باشد؟ حتی اگر در تنظیم اندازه سلول‌های نابرابر راحت باشیم، آیا باید سلول «بدون درمان» به‌طور قابل ملاحظه‌ای بزرگ‌تر از سلول‌های دیگر باشد؟
اندازه سلول برای طرح فاکتوریل کسری که برخی از اثرات اصلی را نادیده می گیرد
88670
من این سوال را در بحث کمک JAGS پست کردم، می‌دانستم که آیا می‌توانم در اینجا کمکی دریافت کنم: می‌خواهم یک مدل بقا را با استفاده از داده‌های زیر متناسب کنم (دو ستون اول نقاط زمانی هستند، NA نشان‌دهنده سانسور است، ستون سوم تعداد نمونه‌ها است. ). آیا راهی برای وزن کردن احتمال بر اساس حجم نمونه وجود دارد؟ در غیر این صورت، می‌توانم هر نقطه زمانی را برای اندازه نمونه معین تکرار کنم، اما این احتمالاً منجر به بزرگ‌تر شدن نمونه کلی می‌شود. a1=ماتریس(c(0.01، 1، 463، 1، 2، 369، 9، 10، 116، 10، 11، 163، 11، 12، 149، 12، 13، 230، 12.5، 10، 10، 1، 1. NA، 146349، 10.5، NA، 118098، 9.5، NA، 41633، 8.5، NA، 30308، 7.5، NA، 25934، 6.5، NA، 29427، 2.5، NA، 7، 319، 319. 0.5، NA، 43300)،ncol=3،byrow=T)
اشکالات با حجم نمونه بسیار بزرگ
19321
هر دو متغیر (وابسته و مستقل) اثرات خودهمبستگی را نشان می دهند. داده‌ها سری زمانی و ثابت هستند وقتی که من رگرسیون را اجرا می‌کنم به نظر می‌رسد که باقیمانده‌های رگرسیون همبستگی ندارند. آمار دوربین واتسون من بیشتر از مقدار بحرانی بالایی است، بنابراین شواهدی وجود دارد که عبارات خطا همبستگی مثبتی ندارند. همچنین هنگامی که من ACF را برای خطاها ترسیم می کنم، به نظر می رسد که هیچ ارتباطی وجود ندارد و آمار Ljung-Box کوچکتر از مقدار بحرانی است. آیا می توانم به خروجی رگرسیون خود اعتماد کنم، آیا آمار t قابل اعتماد است؟
آیا می توانم به رگرسیون اعتماد کنم اگر متغیرها همبستگی خودکار داشته باشند؟
19322
این در ادامه سوال قبلی است. در اینجا: مدل شبکه عصبی برای پیش‌بینی نتیجه درمان و ممکن است به جنبه متفاوتی از این سؤال اشاره شود: کاربرد تکنیک‌های یادگیری ماشین در مطالعات بالینی نمونه کوچک با تشکر از Zach که ارسال مجدد را پیشنهاد کرد. من در حال حاضر در مورد CART، randomForest، شبکه های عصبی و یادگیری ماشین به طور کلی مطالب نسبتاً جدی مطالعه کرده ام، در مورد WEKA و بسته های R یاد گرفته ام، سخنرانی های مهندسی استانفورد را دیده و دنبال کرده ام http://www.ml-class.org/ دوره/کلاس/فهرست، من 3 فصل در Hastie هستم. با توجه به نوع داده هایی که به طور مرتب در تحقیقات بالینی گرا می بینیم - بارهای پارامترهای بالینی + بارهای پارامترهای بیوشیمیایی + داده های آزمایش قلم و کاغذ +/- داده های تصویربرداری عصبی با اعداد کوچک، من این احساس را دارم که چیزی را از دست داده ام. من مرتباً در مورد تکنیک های ML که در ادبیات تحقیق به کار می روند مطالعه نمی کنم. سوال من این است: آیا من به چیزی مشکوک چسبیده‌ام و به همین دلیل توسط پزشکان و متخصصان آمار زیستی که به خوبی از آن آگاه هستند با سوء ظن موجه تلقی شده‌ام، یا اینکه این تکنیک‌ها واقعاً در خارج از «تحلیل‌های تجاری» نادیده گرفته شده‌اند یا از آن می‌ترسند؟ چه چیزی آن را جایگاه نگه می دارد؟
چرا استفاده نادر از تکنیک های یادگیری ماشین در زیست پزشکی ترجمه ای؟
7562
من به‌تازگی مجموعه داده‌های ANES (مطالعات ملی انتخابات آمریکا) را در سال 2008 به دست آوردم و می‌خواهم تجزیه و تحلیل ساده‌ای را در R انجام دهم. با این حال، قبلاً هرگز با این مجموعه داده‌ها کار نکرده‌ام و با آن برخورد کرده‌ام. یک مسئله این نظرسنجی از نمونه برداری بیش از حد استفاده می کند و دارای یک متغیر برای وزن های پس از طبقه بندی است. من فقط مبهم ترین تصور را از معنای آن داشتم، بنابراین صفحه ویکی پدیا را در آن خواندم، که از نظر مفهومی آن را درک می کنم. متأسفانه، من نمی‌دانم چگونه R را طوری دستکاری کنم که وقتی تجزیه و تحلیل خود را انجام می‌دهم، وزن‌های پس از طبقه‌بندی منعکس شود. اگرچه از نظر مفهومی، ایده نمونه برداری بیش از حد من را گیج نمی کند، مستندات زیر برای بسته بررسی R برای من کاملاً نامفهوم است. من آنچه را که تاکنون پیدا کرده‌ام نشان می‌دهم و واقعاً ممنون می‌شوم توضیحی در مورد آنچه در این روش‌ها روی می‌دهد، یا اگر کسی راه ساده‌تری برای اعمال وزن پس از طبقه‌بندی به چارچوب داده‌ای از متغیرها می‌داند، من هم دوست دارم اینجا باشم. بنابراین، من بسته نظرسنجی را از CRAN پیدا کردم، و کتابچه راهنمای آن را دارم، و پس از بررسی آن، به نظر می رسد که امیدوارکننده ترین روش این است: postStratify (طراحی، طبقات، جمعیت، جزئی = نادرست، ...) با این حال، وقتی به مستندات مربوط به آنچه که برای هر یک از این استدلال ها باید ارائه شود نگاه می کنم، کاملاً گم می شوم. آنها به شرح زیر هستند: طراحی یک طرح نظرسنجی با اقشار وزن تکراری یک فرمول یا چارچوب داده از متغیرهای پس از طبقه بندی جمعیت یک جدول، xtabs یا data.frame با فرکانس جمعیت جزئی در صورت صحت، نادیده گرفتن اقشار جمعیتی که در نمونه وجود ندارند هیچ یک از اینها برای من بسیار منطقی است، اما من تقریباً مطمئن هستم که آرگومان طراحی قرار است از کلاسی باشد که در این بسته نیز تعریف شده است: اگر متوجه شدید ، در اینجا تعداد زیادی آرگومان اختیاری وجود دارد که به نظر می رسد همه آنها انواع مشابهی را انجام می دهند (حداقل برای من، پس از خواندن اسناد...). من اساساً از این که چرا این در R اینقدر پیچیده است ناراحت هستم. آیا من چیزها را اشتباه می فهمم؟ آیا راه ساده تری برای این کار وجود دارد؟ هر گونه کمکی قدردانی خواهد شد.
وزن های ساده پس از طبقه بندی در R
88676
من می خواهم تابع $f: \mathbb{R}^n \rightarrow \mathbb{R}$ را از داده های $(x_i, y_i)$ یاد بگیرم که $y_i = f(x_i) + \epsilon_i$. $\epsilon_i$ را می توان به عنوان نویز مشاهده مشاهده کرد. با این حال، همیشه کوچکتر یا برابر با 0 است ($\epsilon_i \leq 0$)، یعنی مشاهدات همیشه یک کران پایین تر در مقدار تابع واقعی هستند. آیا رویکردهای رگرسیونی به ویژه برای این تنظیم مناسب است؟ آیا لازم است فرضیات خاصی در مورد توزیع $\epsilon_i$ ایجاد شود؟
رگرسیون با نویز یک جهته.
69831
چگونه می توان فواصل اطمینان تخمین های متقاطع را محاسبه کرد؟ برای مقاله اپیدمیولوژیک از گربه استفاده می کنیم. و ادامه NRI، IDI و تفاوت در شاخص C برای مقایسه دو مدل کاکس. بازبین پیشنهاد کرد که فقط تخمین‌های دارای اعتبار متقاطع **و بازه‌های اطمینان 95% آن‌ها را نشان دهد. ایده‌های من شامل گرفتن چندک مناسب از نمونه‌های مجدد CV، محاسبه SE آن نمونه‌های مجدد و ساخت فواصل Wald، یا راه‌اندازی CI میانگین یا میانه نمونه‌های مجدد است. اما به نوعی همه اینها ساختگی به نظر می رسند.
فواصل اطمینان برای آمارهای تایید شده متقابل
13894
من داده های سرعت سه بعدی را در یک رودخانه جمع آوری کردم. سری های زمانی ثبت شده مولفه های سرعت $(u,v,w)$ شامل قسمت آشفته و متوسط ​​است. تنش برشی رینولدز را می توان از $$u=u'+U$$ $$\langle u'w' \rangle=\text{cov}( u'_{t}, w'_{t} )$$ تخمین زد و برای استخراج نوسان سرعت $$\langle u' \rangle=\sqrt{\text{var}( u'_{t})}$$ $$\langle w' \rangle=\sqrt{\text{var}( w'_{t})}$$ که در آن $\langle\rangle$ میانگین را در بازه زمانی $t$ نشان می‌دهد. **سوال من این است که چرا $\langle u ' \rangle\langle w' \rangle$ برابر نیست با $\langle u' w' \rangle$** مثال: $\langle u'w' \rangle=$ { 55.0336, 24.3896, 22.4693, 21.9123, 31.9418, 34.791, 30.9995، -1.12979، -2.76629، -5.60678، -7.23715، -11.1097، -24.4944، -31.5994، -49.414، -92.9571، -97.23715، -97.23715، -95.1094 - -110.685} $\langle u' \rangle^2=$ {691.168، 438.195، 402.749، 332.111، 470.982، 565.431، 454.04، 192.981، 192.981، 86، 94. 81.9545، 128.034، 198.726، 297.308، 508.916، 910.229، 922.968، 983.665، 1311.84، 1011.1} $^langle w' \ $4. 28.1408، 43.3248، 32.9785، 32.092، 40.1115، 28.038، 13.3292، 6.74369، 7.3284، 6.98387، 11.5179، 11.5179، 11.5178، 39.9626, 60.4201, 74.1318, 80.8566, 89.0198, 78.8576}
رابطه کوواریانس و واریانس
73901
من اخیراً آزمایشی را با مشاهده مورچه ها انجام دادم. به مدت پنج روز مقدار غذایی که آنها خوردند اندازه گرفتم، 25 مورچه در گروه میوه ها و 25 مورچه در گروه سبزیجات. هر مورچه در ظرف مخصوص خود جدا نگه داشته شد. فرضیه من این بود که مورچه (3 میلی گرم وزن بدن) می تواند 20 برابر بیشتر از وزن خود غذا بخورد. من با ربط دادن آن به مقدار وزنه ای که می توانند بلند کنند به این فرض رسیدم. میانگین برای میوه ها 357 میلی گرم و میانگین برای سبزیجات 358 میلی گرم بود. به خاطر داشته باشید که من تمام وزن از دست رفته از غذا را در اثر از دست دادن آب در حال تبخیر در نظر نگرفتم. من فقط حدس زدم که همه آن را مورچه ها خورده اند. برای نتایج من مقدار t-0.0981- را دریافت می کنم. df=223 ; خطای استاندارد تفاوت=0.015 ; p-value 0.9220. بنابراین از آنجایی که این اولین آزمایش من در مورد آزمون t است. من نمی دانم چگونه نتایج را تفسیر و ارائه کنم. میشه لطفا یکی توضیح بده منظورشون چیه؟
چگونه نتایج آزمون t را تفسیر کنیم؟
64808
من سعی می کنم نحوه محاسبه مولفه های Variance و Bias خطای کل را بفهمم (به عنوان مثال http://scott.fortmann-roe.com/docs/BiasVariance.html). فرض کنید من مجموعه داده ای از 1000 مشاهدات را در دسترس دارم. ابتدا مجموعه داده را به مجموعه آموزش و آزمایش (90-10) تقسیم کردم و کل خطای آموزش و آزمایش را به صورت زیر محاسبه می کنم: lm1 = lm (Y ~ X1، داده = داده [1:900،]) lm2 = lm ( Y ~ X1 + X2، داده = داده[1:900،]) train_error1 = sqrt(mean(residuals(lm1)^2)) train_error2 = sqrt(mean(residuals(lm2)^2)) pred_error1 = mean((predict(lm1, data = data[901:1000,]) - داده[901: 1000،]$Y)^2) pred_error2 = mean((predict(lm2, data = data[901:1000,]) - data[901:1000,]$Y)^2) برای تخمین مولفه‌های واریانس و بایاس مدل‌های فوق، آیا باید مجموعه داده اولیه 1000 مشاهده را به K تقسیم کنم. مجموعه های کوچکتر و سپس برای هر یک از این مجموعه های کوچکتر محاسبات فوق را انجام دهید؟ اگر بله، فرمول محاسبه این دو جزء چیست؟
نحوه محاسبه مولفه های بایاس واریانس مدل های خطی با استفاده از R
96297
من نقاط داده زیر را دارم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/d0GTF.jpg) خط آبی نازک میانگین کل برای هر سطح X (سنین) است، هر چه ضخیم تر باشد. خط آبی یک تناسب Loess با R است. اکنون من دو سوال در مورد این تابع Loess دارم: * تعداد نقاط داده در هر سطح X در مرزهای X بسیار کم است. آیا Loess این را در نظر می گیرد. حساب؟ یا به عبارتی می توانم به دسته های X با توجه به تعداد نقاط داده وزن بدهم؟ * در نمودار، می توانید ببینید که خط چین چندک 5 درصد است. چگونه از میان این چندک ها تناسب ایجاد می کنید؟ آیا راهی وجود دارد که بتوانم تمام نقاط داده را در نظر بگیرم؟ و اگر نه، حتی داده های کمتری در مرز X وجود خواهد داشت، بنابراین می ترسم سوال 1 حتی مهم تر باشد. متشکرم به روز رسانی: ظاهراً یک بسته R برای این کار وجود دارد که quantreg است. با این حال، من در یافتن پارامترهای بهینه برای رگرسیون غیر پارامتری مشکل دارم، به تصویر زیر مراجعه کنید. آیا کسی ایده بهتری برای مدل کردن این دارد؟ نمودار سبز در وسط میانگین با LOESS کلاسیک است، منحنی های دیگر 95، 75، 25 و 5 درصد هستند که با بسته مدل سازی شده اند. بازم ممنون ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/4omBg.jpg)
لس از طریق چندک