_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
113090
این احساس می‌کند که باید آسان باشد، اما من نمی‌توانم به آن فکر کنم - از هر راهنمایی سپاسگزارم. من در حال ساختن یک تابع هستم و قبل از انجام هر کار سختی به آن نیاز دارم تا بررسی کنم که نام ستون‌های فهرست شده در مجموعه داده نمونه‌ها نیز در مجموعه داده شبکه‌ها وجود داشته باشد (تابع یکی بر روی دیگری نگاشت می‌شود) . all(names(samples[expvar]) %in% names(grids)) این کار را انجام می دهد: کد درون all() می پرسد که آیا همه نام های موجود در لیست (expvar) ستون ها در samples نیز نام هایی در شبکه ها. خروجی برای طول = 3 expvar صحیح، TRUE TRUE TRUE خواهد بود. 'all' می پرسد که آیا همه درست هستند، بنابراین خروجی در اینجا TRUE است. من می‌خواهم یک دستور IF در امتداد خطوط زیر ایجاد کنم: if(all(names(samples[expvar]) %in% names(grids)) = FALSE) {stop(همه نام‌های ستون expvar به عنوان نام ستون‌ها در شبکه‌ها یافت نشدند )} چیز دیگری لازم نیست، فقط ادامه خواهد داشت. مشکل این است که '= FALSE' زائد است زیرا all() یک عبارت منطقی قابل ارزیابی است... آیا تابع carry on وجود دارد، به عنوان مثال. if(all(etc)) CARRYON else {stop(warning)} ? یا آیا کسی می تواند راهی بیاندیشد که بتوانم این را بازسازی کنم تا کار کند؟ پیشاپیش متشکرم
(R) عبارت IF: توقف و هشدار اگر FALSE ادامه یابد
99988
من تعجب می کردم که CI های بوت استرپ (و BCa به زبان barticular) چگونه روی داده های توزیع شده معمولی کار می کنند. به نظر می رسد که کار زیادی برای بررسی عملکرد آنها در انواع مختلف توزیع ها انجام شده است، اما نتوانستیم چیزی را روی داده های توزیع شده معمولی پیدا کنیم. از آنجایی که مطالعه در ابتدا امری بدیهی به نظر می رسد، فکر می کنم مقالات خیلی قدیمی هستند. من برخی شبیه‌سازی‌های مونت کارلو را با استفاده از بسته بوت R انجام دادم و متوجه شدم که CIهای بوت استرپ با CIهای دقیق مطابقت دارند، اگرچه برای نمونه‌های کوچک (N<20) آنها کمی آزاد هستند (CIهای کوچکتر). برای نمونه های به اندازه کافی بزرگ، آنها اساسا یکسان هستند. این باعث می‌شود به این فکر کنم که آیا دلیل خوبی برای عدم استفاده از bootstrapping وجود دارد یا خیر. با توجه به دشواری ارزیابی نرمال بودن یک توزیع، و مشکلات فراوانی که در پشت این موضوع وجود دارد، منطقی به نظر می رسد که بدون توجه به توزیع، CI های بوت استرپ را گزارش نکنیم. من انگیزه استفاده نکردن از تست‌های ناپارامتریک را به‌طور سیستماتیک درک می‌کنم، زیرا آنها قدرت کمتری دارند، اما شبیه‌سازی‌های من به من می‌گویند که این مورد برای Bootstrap CI‌ها صادق نیست. آنها حتی کوچکتر هستند. سوال مشابهی که من را آزار می دهد این است که چرا همیشه از میانه به عنوان معیار گرایش مرکزی استفاده نکنیم. مردم اغلب استفاده از آن را برای توصیف داده‌های غیرعادی توصیه می‌کنند، اما از آنجایی که میانه با میانگین داده‌های توزیع شده عادی یکسان است، چرا تمایز قائل شویم؟ بسیار سودمند به نظر می رسد اگر بتوانیم از روش های تصمیم گیری در مورد نرمال بودن یا نبودن توزیع خلاص شویم. من بسیار کنجکاو هستم که نظر شما در مورد این موضوعات و اینکه آیا قبلاً در مورد آنها صحبت شده است یا خیر. مراجع بسیار قدردانی می شود. با تشکر پیر
چرا همیشه از بوت استرپ CI استفاده نمی کنید؟
57409
من در مورد فرمول صحیح توزیع t استاندارد شده Student تعجب می کنم. در بسته rugarch در صفحه 15 به صورت زیر آمده است: > با جایگزینی $\frac{(\nu-2)}{\nu}$ به 49، ما استاندارد شده > توزیع دانشجویی را بدست می آوریم: $$ > f\left(\frac{x-\mu}{\sigma}\right)=\frac{1}{\sigma}f(z)=\frac{1}{\sigma}\frac{\Gamma\left (\frac{\nu+1}{2}\right)}{\ sqrt{(\nu-2)\pi}\Gamma\left(\frac{\nu}{2}\right)}\left(1+\frac{z^2}{(\nu-2)}\ راست)^{-\left(\frac{\nu+1}{2}\right)} > $$ در حالی که از یک کتاب (Carol Alexander Risk Analysis, Quantiative Methods in Finance, Vol. 1 page 99) من فرمول زیر را دارم: > Setting $\mu=0$ and $\beta\nu=\nu-2 $ در (I.3.55) با توجه به چگالی برای > _استاندارد توزیع Student t_، i.i. توزیع _t_ Student > با آزمایش صفر و واریانس واحد. این که تابع چگالی $$ > است f_\nu(x)=((\nu-2)\pi)^{-1/2}\Gamma\left(\frac{\nu}{2}\right)^{-1}\Gamma\left (\frac{\nu+1}{2}\right)\left(1+\frac{x^2}{\nu-2}\right)^{-\left(\frac{\nu+1} {2}\right)} > $$ حالا نمی دونم کدومشون درسته؟ چرا $\frac{1}{\sigma}$ اضافی در فرمول اول وجود دارد؟
فرمول صحیح برای توزیع t-استاندارد دانشجویی
55809
فرض کنید ما یک سری زمانی با روند قطعی داریم. نمی‌دانم آیا مدل زیر به‌خوبی به‌عنوان یک مدل واقعیت افزوده مشخص شده است: $y_{t} = b_{0} + b_{1}t + b_{2}y_{t-1} + \epsilon_{t} \ \ \ \ \ \ $ به طور خاص، من علاقه مندم بدانم آیا درست است که یک مدت زمان و اصطلاحات رگرسیون خودکار را در یک مدل قرار دهیم یا خیر. اگر اینطور نیست، بهترین راه برای تعیین مدل چیست؟
مدل خودرگرسیون با ترم روند زمانی. از نظر آماری معتبر است؟
99985
من سوال زیر را به عنوان یک سوال تستی برای امتحان خود دریافت کرده ام و به سادگی نمی توانم پاسخ را بفهمم. نمودار پراکندگی داده های پیش بینی شده بر روی دو جزء اصلی در زیر نشان داده شده است. ما می خواهیم بررسی کنیم که آیا ساختار گروهی در مجموعه داده وجود دارد یا خیر. برای این کار، الگوریتم k-means را با k = 2 با استفاده از اندازه گیری فاصله اقلیدسی اجرا کرده ایم. نتیجه الگوریتم k-means می تواند بین اجراها بسته به شرایط اولیه تصادفی متفاوت باشد. چندین بار الگوریتم را اجرا کردیم و نتایج خوشه بندی متفاوتی به دست آوردیم. تنها سه مورد از چهار خوشه‌بندی نشان‌داده شده را می‌توان با اجرای الگوریتم k-means روی داده‌ها به‌دست آورد. کدام یک را نمی توان با k-means به دست آورد؟ (هیچ چیز خاصی در مورد داده ها وجود ندارد) ![4 خوشه بندی احتمالی داده ها](http://i.stack.imgur.com/R9bIc.png) پاسخ صحیح D است. هر کدام از شما می توانید توضیح دهید که چرا؟
خوشه هایی که می توانند توسط K-means ایجاد شوند
104725
**زمینه** من اخیراً روی تخمین حداکثر درستنمایی (MLE) کمی کار کرده ام، برای مواردی که داده ها به طور معمول توزیع می شوند و همچنین برای مواردی که داده ها توزیع پواسون هستند. برای این دو مورد، احتمال $L$ به صورت زیر داده می شود: $$ L\left ( \mathbf{a} \right ) = \prod_{i} \mathrm{P}\left (c_{i};m_{\ mathbf{a}}\left ( x_{i} \right ) \right ) $$ به دنبال نماد و مراحل اولین مرجع زیر، $\mathrm{P}\left ( c_{i};m_{\mathbf{a}}\left ( x_{i} \right ) \right )$ احتمالی است که یک اندازه گیری $c_{i}$ می دهد اگر مقدار واقعی توسط مدل $ داده شود. m_{\mathbf{a}}\left ( x_{i} \right )$، که $\mathbf{a}$ مجموعه پارامترهای مدل است. برای دو توزیع مختلف، مرجع به دست می‌دهد: $$ L_{G}\left ( \mathbf{a} \right ) = \prod_{i} \frac{1}{\sqrt{2\pi \sigma_{i} ^{2}}} \mathrm{e}^{-\frac{\left ( c_{i}-m_{\mathbf{a}}\left ( x_{i} \right ) \right )^{2}}{2\sigma_{i} ^{2}}} $$ برای داده‌های توزیع‌شده گاوسی، و $$ L_{P}\left ( \mathbf{a} \right ) = \prod_{i} \frac{\left [m_{\mathbf{a}}\left ( x_{i} \right )\right ]^{c_{i}}}{c_{i}!}\mathrm{e}^{-m_{\mathbf{a}}\left ( x_{i} \right )} $$ برای داده‌های توزیع‌شده توسط پواسون . من خوشحالم که مراحل بعدی را برای انجام آزمایش نسبت احتمال انجام می دهم. مراحل شامل محاسبه لاگ منفی احتمال، سپس یافتن نسبتی بر اساس به حداکثر رساندن $L$ برای یک مدل معین با توجه به حداکثر جهانی احتمال $L$، یعنی $$ است. \frac{\mathrm{max}_{\mathbf{a}}\;L(\mathbf{c}|m_{\mathbf{a}})}{\mathrm{max}\;L(\mathbf{c }|\mathbf{m})} $$ **ویرایش** این سوال مرتبط است: توزیع $Z = X + Y$ که در آن $X$ پواسون توزیع شده چیست و $Y$ به طور معمول توزیع می شود؟ **سوال** من با MLE برای داده های Gaussian و Poisson راحت هستم. سناریویی که من به آن علاقه دارم برای داده های پواسون-گاوسی مختلط است. یک مثال ممکن است فوتون‌هایی باشد که به آشکارساز می‌رسند، که نویز پواسون را نشان می‌دهد، و سیگنال‌های آشکارساز متعاقباً توسط نویز گاوسی خراب می‌شوند (مثلاً نویز حرارتی در الکترونیک). سپس مدل نویز ترکیبی از نویز پواسون و گاوسی است. کاری که می‌خواهم انجام دهم این است که آزمایش کنم که آیا یک مدل پواسون، گاوسی یا ترکیبی برای پارامترهای مختلف مناسب‌تر است (الزاماً نمی‌دانم که آیا داده‌های پواسون را می‌توان با یک گاوسی تقریب زد یا نه، از این رو این سؤال پیش می‌آید - این همان چیزی است که من». من سعی می کنم تست کنم!). تابع درستنمایی مناسب $L$ چه خواهد بود؟ آیا این فقط مجموع احتمالات پواسون و گاوسی است؟ اگر چنین است، من معتقدم که احتمال ورود به سیستم کمی مشکل خواهد بود؟ من مطمئنم که من با این مشکل چیزی را از دست داده ام، فقط نتوانستم از دو موردی که در بالا توضیح داده شد جهش کنم (باید اضافه کنم که مدت زیادی است که آمار را با عمق جدی انجام نمی دهم) . هر گونه کمک بسیار قدردانی! **منابع** برای این مشکل، مقاله _مقایسه تخمین حداکثر درستنمایی و آمار کای اسکوئر به کار رفته در آزمایش های شمارش_ نوشته T. Hauschild و M. Jentschel (2001) را دنبال کرده ام. پیوند و DOI: 10.1016/S0168-9002(00)00756-7
برآورد حداکثر احتمال برای داده های پواسون و گاوسی مخلوط
113096
من در حال بررسی چگونگی مدل‌سازی یک مجموعه داده با استفاده از توزیع‌های نرمال با میانگین و واریانس به عنوان توابع خطی متغیرهای مستقل هستم. چیزی شبیه $\mathcal{N} \sim \left (f(x)، g(x)\right)$. من یک نمونه تصادفی مانند این تولید می کنم: def draw(x): return norm(5 * x + 2, 3 *x + 4).rvs(1)[0] بنابراین می خواهم 5، 2 و 4 را به عنوان پارامترها بازیابی کنم. برای توزیع من من نمونه خود را تولید می کنم: smp = np.zeros((100,2)) برای i در محدوده(0, len(smp)): smp[i][0] = i smp[i][1] = draw(i ) تابع درستنمایی این است: def lh(p): p_loc_b0 = p[0] p_loc_b1 = p[1] p_scl_b0 = p[2] p_scl_b1 = p[3] l = 1 برای i در محدوده (0، len(smp)): x = smp[i][0] y = smp[i][1] l = l * هنجار(p_loc_b0 + p_loc_b1 * x , p_scl_b0 + p_scl_b1 * x).pdf(y) return -l بنابراین پارامترهای توابع خطی مورد استفاده در مدل در p آورده شده است. بردار 4 متغیر. با استفاده از scipy.optimize، می‌توانم پارامترهای MLE را با استفاده از «xtol» بسیار کم حل کنم، و از قبل راه‌حل را به عنوان نقطه شروع ارائه کنم: fmin(lh, x0=[2,5,3,4], xtol=1e- 35) که به خوبی کار نمی کند: هشدار: از حداکثر تعداد ارزیابی عملکرد فراتر رفته است. آرایه ([ 3.27491346، 4.69237042، 5.70317719، 3.30395462]) افزایش «xtol» به مقادیر بالاتر فایده ای ندارد. بنابراین من سعی می کنم از یک راه حل شروع به دور از راه حل واقعی استفاده کنم: >>> fmin(lh, x0=[1,1,1,1], xtol=1e-8) بهینه سازی با موفقیت پایان یافت. مقدار تابع فعلی: -0.000000 تکرار: 24 ارزیابی عملکرد: 143 آرایه ([ 1., 1., 1., 1.]) که باعث می شود فکر کنم: PDF تا حد زیادی حول میانگین جمع شده اند و فقط چند شیب بسیار پایین دارند. انحراف استاندارد به دور از میانگین، که برای روش های عددی باید خیلی خوب نباشد. بنابراین چگونه می توان این نوع تخمین عددی را در توابعی انجام داد که گرادیان بسیار نزدیک به صفر از راه حل فاصله دارد؟
تخمین عددی MLE در پایتون - توزیع نرمال و گرادیان نزدیک به صفر از میانگین فاصله دارد.
57404
برای مشخص بودن، فرض کنید که من سعی می کنم میانگین یک جامعه را با استفاده از یک نمونه تصادفی به اندازه $N$ برآورد کنم. بسیاری از کتاب‌های ابتدایی تشکیل یک فاصله اطمینان برای میانگین جامعه را با استفاده از قضیه حد مرکزی برای استدلال اینکه میانگین نمونه تقریباً به طور معمول توزیع شده است، بحث می‌کنند. با این حال، قضیه حد مرکزی، قضیه ای است در مورد حد $N \ تا \infty$. اما اگر $N$ واقعاً بزرگ بود، عرض فاصله اطمینان واقعاً کوچک بود و فقط یک تخمین نقطه ای به اندازه کافی خوب بود. بنابراین به نظر می رسد که ما به طور ضمنی فرض می کنیم که محدوده ای از $N$ وجود دارد که CLT برای آن فرض بدی نیست اما برای آن $N$ آنقدر بزرگ نیست که فاصله اطمینان را عملاً به یک نقطه کاهش دهد. سوال من این است: آیا مبنایی برای این فرض ضمنی وجود دارد؟ آیا راهی برای قضاوت در مورد این محدوده از $N$ مفید برای یک برنامه خاص وجود دارد؟
فواصل اطمینان بر اساس CLT: آیا تا به حال مفید است؟
104722
من یک رگرسیون حداقل مربعات جریمه شده (PLS) را محاسبه می کنم. دو متغیر تأثیر به یک متغیر پنهان متصل می شوند. این متغیر نهفته تأثیر (ضریب بتا) 0.6 بر پاسخ (یا متغیر پنهان پاسخ) دارد. هر دو متغیر تأثیر (بارگذاری خارجی) با 0.6 و 0.8 به متغیر پنهان همبستگی دارند. آیا کسی می داند که چگونه می توان ضریب بتا را برای هر متغیر تأثیر و نه فقط متغیر پنهان متصل به متغیرهای تأثیر، محاسبه کرد؟ من از ترکیبی از ابزار برنامه نویسی smartPLS و R. EDIT استفاده می کنم: http://stackoverflow.com/questions/24446300/sempls-package- backcalculating-influence
محاسبه تأثیر برای PLS با بارهای بیرونی و ضریب بتا متغیر پنهان
22491
من در گرفتن گرادیان احتمال ورود به سیستم یک توزیع پواسون چند متغیره مشکل دارم. راه‌اندازی آن به این صورت است: 1. مجموعه‌ای محدود از بردارهای بابعد محدود $T$ با عناصر $\mathbf{t}$ 2. توابع $d$ $\left\\{f_1,f_2,\dotsc,f_d\ راست\\}$ با پشتیبانی فشرده. 3. پارامتر پواسون چند متغیره با $\lambda_{\mathbf{t}}\left(\boldsymbol{\theta}\right) = \sum_{k=1}^{d}\theta_k f_k\left داده می‌شود. (\mathbf{t}\right)$. 4. نمونه ای از این توزیع به این شکل است: $y_\mathbf{t}\sim\textrm{Poisson}\left(\exp\left(\lambda_{\mathbf{t}}\left(\boldsymbol{\theta }\right)\right)\right)$ 5. تابع درستنمایی چند متغیره پواسون: $$L\left(\boldsymbol\theta\right)=\prod_{\mathbf{t}\in T}\frac{\exp\left(-\lambda_{\mathbf{t}}\left(\boldsymbol{\theta}\right)\right)\left(\lambda_{\mathbf{t}}\left( \boldsymbol{\theta}\right)\right)^{y_\mathbf{t}}}{y_\mathbf{t}!}$$ من اینجا هستم: \begin{align*} l\left(\boldsymbol\theta\right)&=\sum_{\mathbf{t}\in T}\log\frac{\exp\left(-\lambda_{\mathbf{t}}\left(\boldsymbol{\theta}\right)\right)\left(\la mbda_{\mathbf{t}}\left(\boldsymbol\theta\right)\right)^{y_{\mathbf{t}}}}{y_{\mathbf{t}}!}\\\ &\ldots\textrm{ کمی جبر بعداً }\\\\\ &=\sum_{\mathbf{t}\in T}\left(-\lambda_\mathbf{t}\left(\boldsymbol\theta \ راست) + y_\mathbf{t}\log\left(\lambda_\mathbf{t}\left(\boldsymbol\theta\right)\right)\right)-\log\left(y_\mathbf{t}!\راست) \end{align*} قدم بعدی در مورد مشتقات چیست؟ من مطمئن نیستم که چگونه مشتقات را با توجه به $\boldsymbol\theta$ بگیرم (یعنی نوع حاصل از $\frac{\mathrm{d}}{\mathrm{d}\,\boldsymbol\theta} چیست؟ \left(-\lambda_\mathbf{t}\left(\boldsymbol\theta\right)\right)$ آیا یک ماتریس است بردار و غیره). اگر پاسخ‌های مردم تا حد امکان کمتر در مورد مسئله ارائه شود، خوشحال می‌شوم، من دوست دارم خودم بتوانم معادله را به پایان برسانم. من فقط به یک فشار کوچک در جهت درست نیاز دارم. بسیار قدردانی می شود!
لاگ احتمال توزیع پواسون چند متغیره
24897
یک مدل حاشیه ای برای همبستگی در هر خوشه حساب می کند. یک _مدل شرطی_ همبستگی درون هر خوشه را در نظر می گیرد. سوالات من این است: 1. آیا یک مدل حاشیه ای اثرات اصلی را در یک جمعیت مدل می کند در حالی که یک مدل شرطی اثرات اصلی را در یک خوشه و در یک جمعیت مدل می کند؟ 2. تفسیر ضرایب یک مدل حاشیه ای اساساً همان «مدل منظم» است. اما در مورد ضرایب یک مدل شرطی چطور؟
تفاوت بین مدل های حاشیه ای و شرطی
26386
بگویید من یک درمان دودویی، X دارم، و به تأثیر آن (درمان میانگین محلی) بر متغیر نتیجه باینری، Y علاقه مند هستم. ابزار (دودویی) T را پیدا کردم که مستقیماً بر X تأثیر می گذارد اما بر Y تأثیر نمی گذارد. چگونه این را تخمین بزنم. ? من می‌دانم که مدل‌های خطی مانند TSLS ممکن است ایده‌آل نباشند، اما به نظر می‌رسد «اقتصاد سنجی عمدتاً بی‌ضرر» آنگریست و پیشکه نشان می‌دهد که تخمین‌های اثر از چیزی مانند یک پروبیت دو متغیره مشابه خواهد بود و شاید ارزش این مشکل را نداشته باشد. بنابراین من می‌پرسم: آیا باید چیزی غیر از TSLS را در اینجا اجرا کنم؟ و اگر چنین است، آیا بسته R برای آن وجود دارد؟ خیلی ممنون.
متغیرهای ابزاری با ابزار دوگانه، متغیر و نتیجه؟ آیا می توانم از TSLS استفاده کنم؟
3931
بنابراین امروز در کلاس از من پرسیده شد که چرا هنگام محاسبه sd، مجموع مربع خطا را به جای $n$ به $(n-1)$ تقسیم می کنید. گفتم نمی‌خواهم در کلاس به آن پاسخ دهم (چون نمی‌خواستم سراغ برآوردگرهای بی‌طرف بروم)، اما بعداً تعجب کردم - **آیا توضیح بصری برای این وجود دارد؟!
توضیح شهودی برای تقسیم در (n-1) هنگام محاسبه sd؟
55801
من با یک تابع توزیع تجمعی مشترک با ویژگی های حاشیه ای مواجه شده ام. اگر چه من پاسخ را دارم، اما پاسخ من واقعاً با آن مطابقت ندارد و به نظر نمی رسد دلیل آن را بفهمم. IMG: http://i.stack.imgur.com/0fwuN.jpg درک من در زیر آمده است، که به نظر می رسد در تضاد با پاسخ قاطعانه است. IMG: http://i.stack.imgur.com/QG7Fn.jpg لطفاً از هر راهنمایی قدردانی کنید. PS: نمی توانم تصویر را پست کنم زیرا هنوز امتیاز کافی برای تکرار ندارم. :(( هنوز معادلات و نحو مناسب را یاد می گیریم.
توابع توزیع تجمعی مشترک (با ویژگی های حاشیه ای)
57402
من رگرسیون متناسب کاکس را انجام می دهم. من ابتدا رگرسیون کاکس را تنها با یک متغیر «var» انجام دادم. ضریب آن 0.8752721 تقریباً همان چیزی بود که من انتظار داشتم و در شرایط من به راحتی قابل تفسیر است. اما وقتی چند متغیر دیگر را اضافه کردم، ضریب «var» در مدل منفی شد (-0.894304). من فرآیند گام به گام را انجام داده ام. ضریب منفی اشتباه به نظر می رسد و تفسیر آن در مشکل من سخت است. من کجا اشتباه می کنم؟ با تشکر
ضریب یک متغیر در رگرسیون کاکس با انجام رگرسیون چند متغیره منفی می شود
84113
برای مشکلی که روی آن کار می کنم به کمک کمی نیاز دارم. بنابراین وضعیت اینجاست، یک فروشنده می تواند یک سیب را به قیمت 1.00 دلار تولید کند و من باید قیمت بهینه فروش سیب و سود مورد انتظار برای هر خریدار را پیدا کنم اگر توزیع ارزش سیب EXP (1) باشد. بنابراین من فقط به تاییدی در مورد کاری که انجام می دهم نیاز دارم. چیزی که من دارم این است: > سود مورد انتظار = $(v-1)\cdot (1-F(v))$ > > قیمت بهینه = مشتق از سود مورد انتظار w.r.t. به $v$ برابر با > صفر تنظیم کنید، سپس برای $v$ حل کنید، امیدوارم این کار منطقی باشد. همانطور که گفتم فقط می‌خواهم مطمئن شوم که این کار را به درستی انجام می‌دهم وگرنه باید برای بار سوم فصل را بخوانم.
مشکل سریع با به حداکثر رساندن سود با استفاده از توزیع های مختلف
84119
در ویکی‌پدیا، روش گشتاورها فقط از ممان‌های معمولی استفاده می‌کند: > یکی با استخراج معادلاتی شروع می‌کند که گشتاورهای جمعیت را مرتبط می‌کند > (یعنی مقادیر مورد انتظار توانهای متغیر تصادفی در نظر گرفته شده) به پارامترهای مورد علاقه چه می‌شود اگر روش moments از انواع دیگری از لحظات استفاده می کند، مانند لحظات مرکزی یا لحظه های استاندارد؟ اگر استفاده نمی شوند یا ترجیح داده نمی شوند، چرا؟ با تشکر
انواع لحظه های مورد استفاده در روش لحظه ها؟
3698
من در تلاش برای درک یک تحلیل منتشر شده هستم. این داده های مورد علاقه است: D1>0 D1<0 D2>0 7 2 9 D2<0 9 15 24 مجموع 16 17 33 نویسنده اشاره می کند که 17/33 51.5٪ است و می گوید: > ما حدود 50٪ از D1 منفی است، و این همان چیزی است که ما در اینجا مشاهده می کنیم (z=.08، p=n.s)». اکنون فرض می‌کنم که مقایسه z 17/33 در مقابل 16.5/33 (شانس؟) است و آمار به کار رفته نسبت z برای معنی‌داری تفاوت بین دو نسبت است. با این حال محاسبه خودم برای این به صورت z=.123 است. آیا کسی می تواند در مورد اختلاف کمک کند؟ به روز رسانی: نویسنده پاسخ داده و اعتراف کرده است که z منتشر شده یک خطا است. او پاسخ تصحیح شده را z=0.17 می دهد. من هنوز مطمئن نیستم که او چگونه این کار را انجام داده است: > ما تفاوت بین دو نسبت را در نظر نمی گیریم، زیرا آنها > مستقل نیستند 16/33 = 17/33 -1. ما علاقه مندیم که آیا نسبت D1<0 به طور قابل توجهی از مقدار مورد انتظار 0.5 منحرف شده است یا خیر. نزدیکترین چیزی که می توانم بدست بیاورم تابع R prop.test است. آیا این به طور مستقیم قابل مقایسه است؟ prop.test(c(17, 16.5), c(33, 33)) آزمون 2 نمونه برای برابری نسبت ها با داده های تصحیح پیوستگی: c(17, 16.5) از c(33, 33) X-squared = 0 ، df = 1، p-value = 1 فرضیه جایگزین: فاصله اطمینان 95 درصدی دو طرفه: -0.2411995 0.2715025 برآورد نمونه: prop 1 prop 2 0.5151515 0.5000000
درک داده های منتشر شده: نسبت z برای نسبت ها
58800
من دو متغیر تصادفی مستقل با توزیع نرمال X و Y دارم و باید تقسیم Z آن را محاسبه کنم. تا آنجا که من متوجه شدم میانگین Z $\mu_Z = \frac{\mu_X}{\mu_Y}$ است، اما من انجام نمی دهم نمی دانم چگونه انحراف استاندارد $\sigma_Z$ را محاسبه کنم. آیا $\sigma_Z = \frac{\sigma_X}{\sigma_Y}$ است؟
میانگین و انحراف استاندارد تقسیم دو متغیر تصادفی چیست؟
22499
من دو مجموعه اندازه گیری دارم که عدم قطعیت آنها کمیت شده است: $x_1..x_n$ و $y_1..y_n$. برای هر $x_i$ و $y_i$، من نه تنها یک تخمین نقطه ای دارم، بلکه یک فاصله زمانی نیز دارم که عدم قطعیت من را در دقت اندازه گیری بیان می کند. اکنون، من می خواهم یک همبستگی بین $x$ و $y$ را محاسبه کنم. آیا راه معقولی برای در نظر گرفتن فواصل وجود دارد؟
همبستگی تحت عدم قطعیت
3640
**مشکل:** من توزیع ها را برای استفاده به عنوان پیشین و داده در یک متاآنالیز بیزی پارامتر می کنم. داده‌ها در ادبیات به‌عنوان آمار خلاصه ارائه می‌شوند، تقریباً به طور انحصاری فرض می‌شود که به طور معمول توزیع می‌شوند (اگرچه هیچ یک از متغیرها نمی‌توانند کمتر از 0 باشند، برخی نسبت هستند، برخی جرم هستند و غیره). من به دو مورد برخورد کردم که هیچ راه حلی برای آنها ندارم. گاهی اوقات پارامتر مورد نظر معکوس داده یا نسبت دو متغیر است. **مثال:** 1. نسبت دو متغیر معمولی توزیع شده: * داده ها: میانگین و sd برای درصد نیتروژن و درصد کربن * پارامتر: نسبت کربن به نیتروژن. 2. معکوس یک متغیر با توزیع نرمال: * داده: جرم/مساحت * پارامتر: مساحت/جرم رویکرد فعلی من استفاده از شبیه سازی است: به عنوان مثال. برای مجموعه ای از داده های درصد کربن و نیتروژن با میانگین: xbar.n،c، واریانس: se.n،c، و اندازه نمونه: n.n، n.c: set.seed(1) per.c <- rnorm(100000، xbar .c، se.c*n.c) # درصد C در هر n <- rnorm(100000، xbar.n، se.n*n.n) # درصد N I می خواهید ratio.cn = perc.c/perc.n # پارامتر نسبت بهره.cn <- perc.c / perc.n سپس بهترین توزیع ها را با محدوده $0 \rightarrow \infty$ برای کتابخانه قبلی من انتخاب کنید (MASS) ) dist.fig <- list() for(dist.i در c('gamma', 'lognormal', 'weibull')) { dist.fit[[dist.i]] <- fitdist(ratio.cn, dist.i) } **سوال:** آیا این یک رویکرد معتبر است؟ آیا رویکردهای دیگر / بهتری وجود دارد؟ پیشاپیش متشکرم **به روز رسانی:** توزیع کوشی که به عنوان نسبت دو نرمال با $\mu=0$ تعریف می شود، کاربرد محدودی دارد زیرا من می خواهم واریانس را تخمین بزنم. شاید بتوانم واریانس یک شبیه سازی n را از کوشی محاسبه کنم؟ من تقریب های شکل بسته زیر را پیدا کردم اما آزمایش نکردم تا ببینم نتایج یکسانی دارند یا نه... Hayya et al, 1975 $$\hat{\mu}_{y:x} = \mu_y/mu_x + \sigma^2_x * \mu_y / \mu_x^3 + cov(x,y) * \sigma^2_x * \sigma^2_y / \mu_x^2$$ $$\hat{\sigma}^2_{y:x} = \sigma^2_x\times\mu_y / mu_x^4 + \sigma^2_y / mu_x^2 - 2 * cov(x, y) * \sigma^2_x * \sigma^2_y / mu_x^3$$ هییا، جی و آرمسترانگ، دی و گرسیس، ن.، 1975. یادداشتی در مورد نسبت دو متغیر با توزیع نرمال. علم مدیریت 21: 1338--1341
چگونه نسبت دو متغیر معمولی توزیع شده یا معکوس یک متغیر را پارامتر کنیم؟
113092
شانس پسین حاصل ضرب ضریب بیز و شانس قبلی است: $\frac{p(M_1|data)}{p(M_2|data)}=\frac{p(data|M_1)}{p(data|M_2 )}\times\frac{p(M_1)}{p(M_2)}$. من تحت تاثیر این تصور بودم که احتمالات مدل قبلی را می توان به عنوان هر چیزی توسط تحلیلگر مشخص کرد، اما بعد از آن قسمتی از یک مقاله روانشناسی، میونگ و پیت (1997، ص 84) را خواندم که بیان می کند، > p(M1) نشان دهنده احتمال اینکه مدل M1 یک توصیف واقعی از > رویدادهای مورد مطالعه قبل از جمع آوری داده ها باشد. برای مشکلات دنیای واقعی، > این احتمال ممکن است وجود نداشته باشد، یا حتی اگر وجود داشته باشد، معلوم نباشد. ما فرض می کنیم > مقدمات مدل برابر. یعنی p(M1)/p(M2). این فرض اغلب توسط > محققان در انتخاب مدل بیزی ساخته می شود و یک > اجتناب ناپذیر > ساده سازی مسئله ای است که هنوز راه حل رضایت بخشی برای آن وجود ندارد. یک مفهوم این فرض این است که انتخاب مدل فقط بر اساس عامل بیز است. تصمیم برای نادیده گرفتن اولویت های مدل، استفاده از رویکرد بیزی را تضعیف نمی کند. به نظر می رسد که آنها بیان می کنند که مشخص کردن احتمالات قبلی مساوی ضروری است (یعنی غیر قابل اجتناب)، اما به نظر می رسد این برخلاف چیزهای دیگری است که من خوانده ام و ساختار معادله بالا. بنابراین آیا باید شانس قبلی روی 1 تنظیم شود؟ میونگ، آی جی، و پیت، ام. ا. (1997). استفاده از تیغ اوکام در مدل سازی شناخت: رویکرد بیزی _بولتن و نقد روانشناسی_، _4_، ص. 79-95.
در آزمون فرضیه بیزی، آیا احتمالات مدل قبلی باید برابر باشند؟
113099
وقتی دوره روش را گذراندم، به من گفتند که از ساختن فرضیه جهت دار اجتناب کنم. دلیلش را می فهمم. اما اکنون اغلب فرضیه هایی مانند این را می بینم: ما فرض کردیم که زمان واکنش به دلیل درمان کاهش می یابد. به ندرت می توان مقالات تحقیقاتی را خواند که فرضیه های غیر جهت دار دارند (حداقل در خوانش های محدود من). اگر محقق یک فرضیه جهت دار بسازد، من فرض می کنم که نیاز به اجرای یک آزمون یک طرفه دارد. با توجه به آنچه من به یاد دارم، اگر نتایج در جهت مخالف باشد - یعنی زمان واکنش افزایش می یابد - محقق ما نتوانسته است که عدد صفر را رد کند. اگر به جای آن از ANOVA استفاده شود چه؟ آیا این جهت گیری فرضیه را نفی می کند؟ از درک من، ANOVA یک تست غیر جهت دار است. در یک یادداشت مرتبط، آیا بیان مجدد این فرضیه به این صورت که ما فرض کردیم که زمان واکنش **ممکن است** به دلیل درمان کاهش یابد آن را غیر جهت دار می کند؟ آیا محققان فرضیه خود را پس از این واقعیت «تغییر» می‌دهند تا آن را غیر جهت‌دار کنند، زیرا نتیجه معکوس یافته‌اند؟ به نظر من غیر اخلاقی است
فرضیه های تحقیق جهت دار در مقابل آزمون فرضیه جهت دار
22494
در حال حاضر این بحث وجود دارد که آیا امتیاز EQ-5D که دارای مشکل **سقف** و توزیع **دو وجهی** است را می توان در مدل رگرسیون خطی استفاده کرد یا خیر. ### پیش زمینه امتیاز **بسیار** ساده است و اغلب برای ارزیابی کیفیت زندگی مرتبط با سلامت بیمار استفاده می شود و از پنج سوال تشکیل شده است که هر کدام دارای 3 پاسخ ممکن است (یک پاسخ جدیدتر با 5 پاسخ وجود دارد اما کمتر مورد استفاده قرار می گیرد). این امتیاز معمولاً در ثبت ملی به عنوان معیار پیامد گزارش شده توسط بیمار (PROM) استفاده می شود و بسیار راحت است زیرا پاسخ به سؤالات آسان است و بنابراین کامل بودن آن خوب است. ### امتیاز پیوسته امتیاز با استفاده از «تعرفه» ایجاد می‌شود که در آن ترکیب‌های منحصربه‌فرد از 5 متغیر به یک متغیر پیوسته مانند اما با محدودیت‌های ذکر شده در بالا تبدیل می‌شوند. من مطمئن نیستم که آنها چگونه در مورد امتیاز تعرفه تصمیم می گیرند، اما ترکیب های مختلف پاسخ ها در یک مقدار منحصر به فرد ترکیب می شوند، به عنوان مثال اگر در هر پنج دسته به _best health_ پاسخ داده باشید، کد 11111 را دریافت می کنید که حداکثر 1000 را می دهد. اگر در 2 سوال اول بهترین و در 3 سوال آخر بدترین پاسخ را داده اید، کد 11333 را دارید و امتیاز 0.066- را دریافت می کنید. امتیاز بر اساس کشور تنظیم شده است و در تعرفه سوئدی من بین 0.594- تا 1.000 متغیر است. ### محاسبه پارتی در اکثر مطالعات ارتوپدی ما یک امتیاز قبل از عمل و یک نمره بعد از عمل داریم. با مقایسه این دو مدل همانطور که _طبقه بندی پارتی تغییر سلامت_ نشان می دهد چهار پیامد ممکن را به دست می آوریم. بدون تغییر، بدتر، بهبود یافته، یا تغییر مختلط. مختلط به این معنی که یک دسته بهبود یافت در حالی که دسته دیگر بدتر شد. همانطور که می‌دانم، نتیجه پارتی با استفاده از یک مدل لجستیک چندجمله‌ای به بهترین شکل تحلیل می‌شود. ## سوالات من * هنگام داشتن مجموعه داده های بزرگ بیش از 10000 بیمار، آیا مهم است که امتیاز به طور معمول توزیع نشده باشد و آیا روش پارتی برای تجزیه و تحلیل امتیاز بهتر است؟ * نمرات مانند این امروزه بسیار استفاده می شود - محدودیت ها چیست؟ # به روز رسانی پس از در نظر گرفتن همه این استدلال های عاقلانه و بحث بیشتر در مورد آنها با آمارگیرمان، ورودی جالبی به دست آوردم: 1. در نمونه بزرگ، تا زمانی که نمونه به شدت انحراف نداشته باشد، قضیه حد مرکزی آغاز می شود. یک نقص (به عنوان امتیاز EQ-5D) ممکن است انتظار توزیع نرمال درست نباشد، زیرا دو وجهی به دلیل یک زیر گروه نیست بلکه به دلیل یک ویژگی امتیاز است (من فکر می کنم این روشی متفاوت برای قرار دادن آنچه @whuber نوشته است: ... باقیمانده ها دقیقاً آن توزیع خطا را منعکس می کنند. با استفاده از رگرسیون ترتیبی و کنار گذاشتن گروه مختلط می‌توانیم نتایج حاصل از رگرسیون خطی را تأیید کنیم - یعنی نشان دهیم که پیش‌بینی‌کننده‌ها هنگام استفاده مشابه رفتار می‌کنند. ناپارامتریک
آیا استفاده از نمره پرسشنامه (EQ-5D EuroQol) با توزیع دووجهی به عنوان نتیجه در رگرسیون خطی یک مشکل است؟
64932
من روی پروژه ای کار می کنم که متغیر مستقل اصلی باینری است. سپس این متغیر را با متغیرهای پیوسته مختلف تعامل می کنیم. متغیر باینری تا حد زیادی مهم ترین متغیر در مدل است (آمار t ~20) و متغیر همیشه مثبت است. اکنون، وقتی یک اصطلاح تعاملی بین این متغیر باینری بسیار مهم و یک متغیر پیوسته معرفی می‌کنم، این تعامل تقریباً همیشه مثبت و معنادار است. من می ترسم که var باینری بسیار مهم نتایج من را هدایت کند. آیا این یک نگرانی معتبر خواهد بود؟ شاید شما پیشنهاداتی برای رفع این مشکل داشته باشید.
باینری IV مثبت بسیار مهم: تعامل همیشه مثبت نیز هست
24894
آیا کسی راه ساخت یک طبقه بندی کننده بیزی در R را برای دو توزیع گاوسی دو متغیره می داند که میانگین و واریانس آنها مشخص است؟ دو کلاس هم احتمال و متغیرها مستقل از یکدیگر هستند. هر گونه کمک عمیقا قدردانی می شود.
ساخت یک طبقه بندی کننده بیزی در R
3526
روش Marascuilo همانطور که در اینجا توضیح داده شد به نظر می‌رسد آزمونی است که به مسئله مقایسه‌های چندگانه برای نسبت‌ها می‌پردازد، زمانی که می‌خواهید آزمایش کنید که کدام نسبت‌های خاص با یکدیگر متفاوت هستند پس از رد تهی در یک آزمون مجذور کای کلی. با این حال من زیاد با این تست آشنا نیستم. بنابراین، سوالات من: 1. هنگام استفاده از این تست باید نگران چه نکات ظریفی (در صورت وجود) باشم؟ 2. من حداقل دو رویکرد دیگر را برای پرداختن به همین موضوع می شناسم (به زیر مراجعه کنید). کدام آزمون رویکرد «بهتر» است؟
آیا کسی از روش Marascuilo برای مقایسه چند نسبت استفاده کرده است؟
24899
من در حال انجام یک پروژه پایان نامه هستم که تفاوت ها در نگرش نسبت به دانشجویان ترنس را ارزیابی می کند. تنها دستکاری این بود که شرکت کنندگان وینیت آن را خوانده بودند. متغیرهای من به شرح زیر هستند: DV1: امتیاز اولین برداشت (مداوم) DV2: امتیاز فاصله اجتماعی (مستمر) IV: توصیف شخصیت تصویری: تراجنسی، متقابل، یا کنترل. من همچنین چندین پیش بینی بالقوه دارم. دو مورد از آنها که فکر نمی کنم اطلاعات کافی برای گزارش در مورد آنها داشته باشم (گرایش جنسی و دینداری). بقیه جنسیت، سطح تماس (4 دسته) و اسناد تصادفی (2 دسته) هستند. از آنجا که من در درجه اول به تفاوت های بین گروه ها علاقه مند هستم، احساس می کنم که باید یک ANOVA انجام دهم. با این حال، من نمی‌توانم هیچ راه مستقیمی برای ترکیب سایر پیش‌بینی‌کننده‌هایم در چنین تحلیلی ببینم. متناوبا، می‌توانم یک رگرسیون چندگانه سلسله مراتبی را اجرا کنم تا ابتدا به تأثیر گروه و سپس سایر پیش‌بینی‌کننده‌ها (به ترتیب اهمیت نظری) نگاه کنم. با این حال همه پیش‌بینی‌کننده‌های من متغیرهای طبقه‌بندی هستند و من واقعاً مطمئن نیستم که چگونه کد ساختگی را برای انجام این کار به درستی انجام دهم. از هر کمکی قدردانی می کنیم!
چگونه بین ANOVA و رگرسیون یکی را انتخاب کنیم؟
64936
من در حال حاضر در حال نوشتن بخش نتایج پایان نامه ام هستم و در آمار بسیار بد هستم. متغیرهای من عبارتند از * متغیر وابسته: زمان پاسخ (با دو سطح) * عامل: متغیر دستکاری (در معرض یک صفحه یا صفحه دیگر). * متغیر کمکی: مقیاس 7 امتیازی. هنگام بررسی مفروضات، برهمکنشی بین متغیر کمکی و عامل/مستقل پیدا کردم که منجر به نقض همگنی شیب ها شد. معلم من گفت که من باید از متغیر دستکاری به عنوان یک متغیر طبقه بندی و از متغیر کمکی به عنوان متغیر پیوسته در تحلیل رگرسیون چند متغیره در مدل خطی عمومی (GLM؛ فاکتوریل کامل) استفاده کنم. او به سایر دانش‌آموزانم یک نحو داد اما مرا فراموش کرد. آیا کسی هست که بداند من بتواند متغیر کمکی را به عنوان یک متغیر پیوسته دریافت کند و چگونه GLM را انجام دهم (بنابراین نه ANOVA)؟
متغیرهای پیوسته و طبقه بندی شده در SPSS GLM
58530
بنابراین، هنگام انجام نظرسنجی، از توزیع دوجمله ای برای گرفتن داده ها استفاده می کنیم (در صورتی که فقط دو گزینه وجود داشته باشد.). سوال من این است، بگذارید بگوییم که بر اساس نظرسنجی که از اوباما حمایت کرد، درصد تخمینی 47 درصد بود. سپس می‌توانیم $p = 0.47$ را تنظیم کنیم و با توجه به تعداد نمونه‌ها، $n$، خطای استاندارد را محاسبه کنیم. اما خطای استاندارد واقعی این نخواهد بود. بنابراین، آیا استفاده از خطای استاندارد تخمینی فوراً مشکلی ندارد؟
خطای استاندارد، حاشیه خطا، نظرسنجی و توزیع دو جمله ای
41159
> **تکراری احتمالی:** > خطای استاندارد چگونه کار می کند؟ برآورد میانگین واریانس نمونه چیست و چگونه آن را بدست می آورید؟ آیا برداشت من از موارد زیر صحیح است؟ $var(Y)=\frac{1}{N} \sum (X_i-\mu_Y)^2$ واریانس جمعیت، چقدر افراد از میانگین متفاوت هستند. $var(\hat Y)=\frac{1}{n-1}\sum(x_i-\bar y)^2$ واریانس نمونه، چقدر افراد نمونه با میانگین نمونه تفاوت دارند. $var(\bar y)=\frac{var(Y)}{n}$ نمونه واریانس میانگین، چه مقدار میانگین نمونه می تواند از میانگین واقعی متفاوت باشد. $var(\hat{\bar y})=$ برآورد میانگین واریانس نمونه $Y={X_1...X_N}$ جمعیتی با N فرد است $y={x_1...x_n}$ نمونه ای از جامعه با n مشاهده $\mu$ میانگین $\bar y=\sum x_i/n$ میانگین نمونه است.
برآورد میانگین واریانس نمونه چیست؟
104721
من در حال تخمین مدلی برای مسئولیت اجتماعی شرکت هستم (مهم نیست). من متغیر علاقه خود را در سطح اطمینان 5% معنی دار یافته ام. نمونه من $N=84$، مقطع است. برای این کار از تخمین OLS استفاده کردم. بعد شک کردم که آیا باید مدل را با برآوردگرهای قوی (یعنی HAC، HC1، ...) تخمین می زدم و این کار را انجام دادم. معلوم شد که این پارامتر در حال حاضر فقط ضعیف است (یعنی نه در 5٪، بلکه در 10٪). سؤالات من این است: 1. با چنین نمونه کوچکی $N=84$، آیا استفاده از برآوردگرهای قوی مناسب است؟ 2. آیا می‌توانم به روش دیگری برای ناهمسانی آزمایش کنم تا بتوانم به تخمین غیرقوی خود تکیه کنم؟
رگرسیون OLS - برآوردهای قوی برای واریانس پارامتر
102891
من از آزمون همجمعی یوهانسن برای بررسی هم انباشتگی در میان تعداد زیادی سری زمانی استفاده می کنم. من متوجه شده ام که در حالی که بردارهای ویژه در نمونه عالی به نظر می رسند، روابط هم انباشته اغلب از نمونه خارج نمی شوند. با این حال، اگر من به صورت دستی بردارهای ویژه را با تنظیم وزن های کوچکتر روی صفر تنظیم کنم، عملکرد OOS بسیار بهتر است. آیا روشی قوی تر یا اصولی تر برای انجام این منظم سازی وجود دارد؟
آیا راهی برای نظم بخشیدن به آزمون همگرایی یوهانسن وجود دارد؟
70655
بگویید من یک مدل بسیار ساده دارم \begin{align} &C_t = C_{t-1} + z_t\\\ &X_t = C_t + v_t \end{align} همه چیز یک بعدی است، $z_t$ و $v_t$ هستند نویزهای ناهمبسته و سفید و X_t$ مقدار مشاهده شده است. من یک توالی داده شبیه سازی شده با پارامترهای از پیش تعریف شده برای واریانس ایجاد می کنم، سپس از فیلتر کالمن با همان پارامتر برای انجام فیلتر استفاده می کنم. سپس خروجی $C_t$ را بررسی می‌کنم، چیزی شبیه به راه رفتن تصادفی نیست، $dC_t = C_t - C_{t-1}$ به‌صورت سریالی همبستگی دارند. اینجا دلم برای چی تنگ شده؟ یا بهتر است بگوییم، آیا دنباله فیلتر شده لزوماً فرض مدل را برآورده می کند؟ کد متلب زیر خطای الگوریتم 2 را پیاده سازی می کند. vobjs = 3; N = 10000; x = randn(1,N)*sqrt(خطا); n = randn(1,N)*sqrt(vobjs); obs = cumsum(x) + n; %plot(obs) filtered = صفر(اندازه(x)); فیلتر شده(1) = 0; s0 = خطا; برای i = 2 : N Kgain = (s0+error)/(s0+vobjs+verrror); filtered(i) = (1-Kgain)*filtered(i-1) + Kgain*(obs(i)); s0 = (1-Kgain)*(s0+error); end var(diff(filtered(1000:end))) var(filtered(1000:end) - obs(1000:end)) % دنباله فیلتر شده با 0 همبستگی خودکار است. autocorr(filtered(1000:end) - obs(1000:end)) کد اکنون ثابت شده است. هیچ همبستگی خودکار وجود ندارد در مورد واریانس چطور؟ واریانس ها به ترتیب 2.0226 و 1.3694 هستند.
کالمن فیلترینگ سردرگمی
32001
تفاوت آمار و آمار ریاضی چیست؟ من این را خوانده ام: > آمار مطالعه جمع آوری، سازماندهی، تجزیه و تحلیل و > تفسیر داده ها است. به تمام جنبه های این امر می پردازد، از جمله برنامه ریزی جمع آوری داده ها از نظر طراحی نظرسنجی ها و > آزمایش ها. و این: > آمار ریاضی مطالعه آمار از دیدگاه > ریاضی با استفاده از نظریه احتمالات و نیز شاخه های دیگر > ریاضیات مانند جبر خطی و تجزیه و تحلیل است. بنابراین چه تفاوتی بین آنها وجود خواهد داشت؟ من می توانم درک کنم که فرآیندهای جمع آوری ممکن است ریاضی نباشد، اما حدس می زنم که سازماندهی، تجزیه و تحلیل و تفسیر هستند، آیا چیزی را از دست داده ام؟
تفاوت آمار ریاضی و آمار چیست؟
24892
آیا تاخیر معنی داری در آزمون علیت وجود دارد؟ [پست متقاطع به R-Sig-Finance] سلام به همه، من یک سوال در مورد آزمون علیت گرنجر دارم. من به طور فشرده و گسترده در اینترنت جستجو کرده ام و هم از تابع grangertest در بسته lmtest و هم از تابع علت در بسته vars استفاده کرده ام. اگر ببینیم که x باعث y می شود، آیا راهی برای به دست آوردن تاخیرهای قابل توجه x وجود دارد که به پیش بینی y کمک می کند؟ با تشکر
آیا تاخیر معنی داری در آزمون علیت وجود دارد؟
64938
شاید این سوال ساده لوحانه باشد، اما: اگر رگرسیون خطی ارتباط نزدیکی با ضریب همبستگی پیرسون دارد، آیا تکنیک های رگرسیون نزدیک به ضرایب همبستگی کندال و اسپیرمن وجود دارد؟
اگر رگرسیون خطی با همبستگی پیرسون مرتبط باشد، آیا تکنیک‌های رگرسیونی مرتبط با همبستگی کندال و اسپیرمن وجود دارد؟
112689
من یک شبیه‌سازی رایانه‌ای دارم که از آن نمونه‌ای از مقادیر کمیت میکروسکوپی $X$، یعنی $\\{ x_1,\ldots,x_N \\}$ دریافت می‌کنم. من علاقه مند به تخمین مقدار مورد انتظار $X$، یعنی $E[ X]\approx\frac{1}{N}\sum x_i$، و واریانس مرتبط با این **تخمین** هستم. اکنون، آیا به درستی متوجه شدم که: 1. تخمین واریانس $X$، $Var[X]\approx\frac{1}{N}\sum (x_i-\bar{x})^2$ ، آیا چیزی نیست که من به دنبال آن هستم (که در این نماد $Var[E[X]]$ خواهد بود)؟ 2. من باید از برخی تکنیک های آماری مانند بوت استرپ استفاده کنم؟
خطای استاندارد برای مقدار مورد انتظار
104729
من می دانم که اگر از متغیرهای تصادفی $K$ $(X_1، X_2، \dots، X_K)$ از توزیع گاما با استفاده از پارامترهای شکل $(\alpha_1، \alpha_2، \dots \alpha_K)$ و پارامتر مقیاس $\theta نمونه برداری کنید. = 1$ به طوری که $X_i \sim \Gamma(\alpha_i,\theta) = \Gamma(\alpha_i,1)$ سپس $\left(\frac{X_1}{\sum_{i = 1}^K X_i}, \frac{X_2}{\sum_{i = 1}^K X_i}، \dots، \frac{X_K}{\sum_{i = 1}^K X_i}\right) \sim \textrm{Dir}(\alpha_1، \alpha_2، \dots، \alpha_K)$ که $\textrm{Dir}(\alpha_1، \alpha_2، \dots، \alpha_K)$ توزیع دیریکله با پارامتر غلظت $(\alpha_1، \alpha_2، \dots، \alpha_K)$. سوال من این است که آیا این نتیجه برای هر پارامتر مقیاس $\theta > 0$ برقرار است؟ شواهدی که خوانده‌ام (مانند http://mayagupta.org/publications/FrigyikKapilaGuptaIntroToDirichlet.pdf)، که از فرمول تغییر متغیرها استفاده می‌کنند، ظاهراً $\theta = 1$ را تنظیم می‌کنند.
نمونه دیریکله با نرمال کردن گاما RVs
106380
من می دانم که در انتساب چندگانه، یک رگرسیون برای هر مجموعه داده منتسب اجرا می کند. ضرایب رگرسیون نهایی میانگین ضرایب به دست آمده از مجموعه داده های منتسب است. آیا می توانید همین کار را با ماشین های بردار پشتیبانی انجام دهید؟ یعنی آیا می توانید یک مدل ماشین بردار پشتیبان را بر روی هر یک از مجموعه داده های منتسب اجرا کنید و سپس یک نتیجه متوسط نهایی را بدست آورید؟
داده های از دست رفته و SVM
57407
> در اصل، همه مدل ها اشتباه هستند، اما برخی از آنها مفید هستند. > > \--- باکس، جورج ای. پی. نورمن آر.دریپر (1987). مدل سازی تجربی > و سطوح پاسخ، ص. 424، وایلی. شابک 0471810339 منظور از عبارت فوق دقیقا چیست؟
معنی همه مدل ها اشتباه هستند، اما برخی مفید هستند چیست؟
70650
من با شرط زیر برای استقلال آماری آشنا هستم که در آن $x$ و $y$ دو متغیر (تصادفی) متفاوت هستند: \begin{equation} E(xy)=E(x)\times E(y) \end{equation } اکنون، به مقاله ای برخوردم (ضمیمه B، p.1311) که در آن ذکر شده است که اگر $h$ و $^{\partial h}/_{\partial z}$ مستقل باشند، آن را دنبال کنید. برقرار است: \begin{equation} E\left(h \cdot \frac{\partial h}{\partial z}\right)=E(h)\times E\left(\frac{\partial h}{\partial z}\right) \end{equation} می‌خواهم بدانم: اگر $h$ یک متغیر وابسته و پیوسته باشد، به چه معناست - مانند مخارج سیگار (در دلار) - و $z$ یک متغیر مستقل پیوسته است - مثلاً درآمد به دلار - در مدل رگرسیونی. توجه داشته باشید که $^{\جزئی h}/_{\جزئی z}$ مشتق جزئی $h$ با توجه به $z$ است که برابر با $dh/h$ (درصد تغییر در $h$) است.
معنای «استقلال» در مدل رگرسیونی
70658
من در استفاده از جنگل های تصادفی در متلب مشکل دارم. من ویژگی هایی با اندازه 2000 و حدود 4000 نقطه داده دارم. من در حال تلاش برای یادگیری نحوه محاسبه جنگل های تصادفی در متلب با استفاده از کتابخانه Random Forest هستم. با این حال، حدس می‌زنم استفاده از این روش خیلی کند است. من تعداد درختان را 500 و 'mtry' را 720 قرار داده ام و این روند در حال افزایش است. آیا طبیعی است که این مدت طولانی شود؟ به طور معمول چقدر طول می کشد؟
استفاده از جنگل تصادفی در متلب
102895
$X$ دارای MGF $m_{x}(t)=e^{2t}$ برای هر $t \in \mathbb{R}$ است. توزیع X$ چگونه است؟ مربی من اینطوری در موردش صحبت کرد: $m_{x}(t)=E(e^{xt})=Ee^{2t}+e^{2t}$ اینجا من واقعا گیج شدم، چگونه $E(e ^{xt})$ تبدیل به آنچه در سمت راست معادله است؟ نمی‌دانم که آیا آن را اشتباه کپی کرده‌ام... اما آیا کسی می‌تواند توضیح دهد که او در اینجا قصد داشت به چه چیزی برسد؟ بنابراین $P(X=2)=1$ همچنین، با این فرض که $X$ یک متغیر پیوسته است، درست است؟ چگونه می توانم از روی مشکل بفهمم که $X$ پیوسته است نه گسسته؟
با توجه به تابع تولید لحظه ای X$، توزیع X$ را پیدا کنید
3520
من می بینم که مفهوم «مبادله پذیری» در زمینه های مختلف استفاده می شود (مثلاً مدل های بیزی) اما من هرگز این اصطلاح را به خوبی درک نکرده ام. 1. این مفهوم به چه معناست؟ 2. در چه شرایطی به این مفهوم استناد می شود و چرا؟
آیا کسی می تواند مفهوم مبادله پذیری را توضیح دهد؟
106385
من سعی می‌کنم داده‌های درآمد را تجزیه و تحلیل کنم و به دلیل شرایطی فراتر از درجه دستمزدم، در زمان سررسید گزارش‌های مالی، جهش‌های زیادی در داده‌ها وجود دارد و بلافاصله پس از آن مقادیر پایین متناظر با آن‌ها همراه است. آیا الگوریتم یا روش ترجیحی برای جبران این و به دست آوردن داده های معنادارتر وجود دارد؟ به نظر می رسد که یک میانگین متحرک ساده برای این کار نامناسب باشد، با توجه به اینکه می دانم ناپیوستگی هایی در لبه های زمانی وجود دارد. آیا استراتژی هموارسازی بهتری وجود دارد؟
صاف کردن داده های کثیف؟
104727
من روی یک مشکل طبقه بندی پروتئین کار می کنم و از هسته ویرایش فاصله تعریف شده در libSVM استفاده می کنم. اکنون، برای مثال، اجرای هسته طیف بسیار دشوار است، اما می‌خواهم هسته دیگری را آزمایش کنم و ترجیحاً ترکیبی بین فاصله ویرایش و کرنل دیگر را نیز آزمایش کنم. آیا چند پیاده سازی c++ از هسته رشته وجود دارد؟ من می دانم که جعبه ابزار Shogun وجود دارد و شاید با استفاده از هسته از پیش محاسبه شده بتوانم این کار را انجام دهم، اما اگر امکان پذیر باشد، می خواهم یک تابع هسته رشته را مستقیماً در svm.cpp کپی کنم!
هسته های رشته ای برای LIBSVM
37785
من از یک پیشینه SPSS آمده‌ام و سعی می‌کنم به دلیل انعطاف‌پذیری برتر و توانایی‌های دستکاری داده‌ها به «R» بروم. با این حال، من نگرانی هایی دارم که آیا lm() واقعاً از همبستگی های جزئی استفاده می کند. من اساساً سعی می کنم یک رگرسیون خطی را اجرا کنم، با استفاده از چیزی شبیه به تنظیمات enter در SPSS، که اساساً یک متغیر مدل را در یک زمان می سازد و تغییر $R^2$ را با هر متغیر اضافی گزارش می کند. این به شما امکان می دهد تعیین کنید که هر متغیر چقدر قدرت پیش بینی به مدل اضافه می کند. با این حال، وقتی همان تحلیل را در «R» اجرا می‌کنم، هیچ اطلاعاتی در مورد $R^2$ ارائه‌شده توسط متغیرهای جداگانه دریافت نمی‌کنم، و حتی مطمئن نیستم که از همبستگی‌های جزئی برای محاسبه مقادیر p استفاده می‌کند. گزارش دادن کد من به شرح زیر است: خلاصه (m1 <- lm(totalprop ~ cos(زاویه) + تراز + رنگ + زاویه* تراز، مجموعه داده)) سؤالات من: 1. آیا R از همبستگی های جزئی برای تعیین مقادیر p گزارش شده از `lm() استفاده می کند. `؟ 2. چگونه می توانم با هر متغیر اضافی، گزارش «R» را در $R^2$ تغییر دهم. 3. چگونه می توانم «R» را در محاسبه تکه تکه مدل مانند SPSS عمل کنم؟ آیا این کار بدون اجرای چندین تکرار تابع lm() امکان پذیر است؟ اگر نه، چگونه می توان اثرات متغیرهای کمکی در R را کنترل کرد؟
آیا lm() از همبستگی جزئی - تغییر مربع R استفاده می کند؟
106389
من مجموعه داده ای دارم که شامل 50 سال مشاهده شده است که برای آنها مقدار تاریخ و جریان ورودی بین رودخانه و مخزن را دارم. داده ها به صورت زیر قالب بندی شده اند: ورودی روز 123 4356.0 من 50 سال داده مشاهده شده دارم که شامل مقادیر روزانه برای هر روز است. داده‌های رسم‌شده به صورت زیر است: ![Plot of Inflow مقادیر برای هر روز از سال 2005](http://i.stack.imgur.com/DYCQH.png) فعلاً با نادیده گرفتن تکه‌های کوچک سبز رنگ، به دنبال آن هستم. برای روشی برای شبیه‌سازی قسمت سبز منحنی (که دوره رواناب بهار را نشان می‌دهد) تا بتوانم یک سری مدل‌سازی با فنر شبیه‌سازی شده انجام دهم. ورودی ها امیدوارم کسی بتواند مرا به سمت یک روش استاندارد برای برخورد با این نوع مشکل راهنمایی کند. تنوع گسترده ای بین سال ها در مجموعه داده ها وجود دارد (سال های خشکسالی تغییر بسیار کمی را بین بخش های آبی و سبز سال نشان می دهد). چه روش هایی برای نزدیک شدن به تولید داده هایی مانند این وجود دارد؟ اگر اطلاعات دیگری وجود دارد که می توانم ارائه کنم به من اطلاع دهید. من با این نوع مشکل کاملاً تازه کار هستم، بنابراین مطمئن نیستم چه چیزی مفیدتر است.
چند روش برای تولید داده های سری زمانی شبیه سازی شده برای استفاده در مدل سازی چیست؟
26038
من سعی می‌کنم درصد بالایی را برای صدک 0.99 برای نمونه‌هایی که از توزیع نرمال گرفته شده است، با حجم نمونه 500 محاسبه کنم. ترسیم 500 مقدار؟
چگونه می توانم نقاط برش را از یک توزیع نرمال محاسبه کنم؟
71523
من یک مجموعه داده دارم. از من خواسته شده است که مدل رگرسیون خطی را بنویسم. همچنین از من خواسته شده است که خط رگرسیون حداقل مربعات را محاسبه کنم. چه فرقی داره؟؟ [[ویرایش]]
تفاوت بین مدل / خط؟
106386
من یک سوال در مورد استفاده از رگرسیون لجستیک/log-خطی در مقابل آمار آزمون احتمالی، مانند chi-square دارم. آیا کسی می‌تواند به من توضیح دهد که چرا استفاده از آمار آزمون بر مدل‌سازی رگرسیون لجستیک (یا لاگ خطی) ترجیح داده می‌شود؟
چرا از آماره کای اسکوئر (یا دیگر) بر مدل رگرسیون برای جداول احتمالی 2×2 استفاده کنیم؟
91750
همانطور که در بسیاری از کتاب های درسی بیان شده است، خطای استاندارد شیب در رگرسیون خطی با یک متغیر $\sqrt{\frac{s^2}{SSX}}$ یا مقداری بازنویسی است، ${s^2}$ واریانس خطا است. و ${SSX}$ مجموع مربعات ${x}$ است. آیا کسی می تواند با اثبات صریح کمک کند؟
فرمول خطای استاندارد شیب در رگرسیون خطی چگونه به دست می آید؟
84111
من الگوریتم تشخیص تغییر - نسبت احتمال را دیده‌ام، اما می‌ترسم سوالم اساسی‌تر باشد. من یک دنباله $(x_j)_{j=1..N}$ از مشاهدات تصادفی دارم. می دانم، این مشاهدات همه از یک متغیر تصادفی نیستند، اما متغیر تصادفی چندین بار تغییر می کند. یعنی یک $m$ با $1 < m < N$ و یک تابع یکنواخت $f:\\{1..N\\}\to\\{1..m\\}$ وجود دارد به طوری که $x_j$ نمونه برداری می شود از توزیع گسسته $(X_{f(j)})$. همه $X_k، k=1..m$ دارای محدوده یکسانی هستند و فقط در توزیع آنها متفاوت است. هدف من شناسایی جهش ها در $f$ تا حد امکان دقیق و متعاقبا بدست آوردن تخمین های تجربی برای توزیع ناشناخته $X_k$ است. برای اینکه کارها عملاً پیچیده تر شوند، به نظر می رسد توزیع های $X_k$ تقریباً مشابه هستند. برای ساختن یک نمونه، اگر X_k$ تاس بارگذاری شده باشد، احتمالات بیشتر شبیه تغییر از $(0.17، 0.16، 0.18، 0.18، 0.16، 0.15)$ به (مثلاً) $(0.16، 0.16، 0.16) است. ، 0.16، 0.18، 0.18) دلار. تعداد رول‌ها ممکن است بین دو پرش به ارزش حدوداً 1000 دلار باشد. من ممکن است بتوانم تخمین های تقریبی (با عرض چند 100 نمایه نمونه) برای جهش های $f$ را از یک منبع اطلاعاتی دیگر بدست بیاورم، اما ترجیح می دهم به آن تکیه نکنم. تا اینجا ما متوجه شده‌ایم که این جهش‌های $f$ به صورت دستی آموزش حدس زدن و سپس انجام تست‌های G بین $X'_k، X'_{k+1}$ مختلف تجربی برای تأیید یک تغییر قابل‌توجه است. من مایلم در مورد روش هایی بیاموزم که در صورت امکان می توانند به این مشکل حمله کنند.
تشخیص تغییر برای مبتدیان
41462
> **تکراری احتمالی:** > خطای استاندارد چگونه کار می کند؟ فرض کنید من یک برآوردگر بی طرف دارم که میانگین نمونه برای تخمین $\theta$ است. چه زمانی می‌توانید بگویید که $$VAR[\overline{X}] = \frac{\sigma^2}{n} $$؟ اگر بله، اگر نه: ​​چه زمانی این درست است؟
سوال بسیار آسان: واریانس نمونه
106388
من در حال نوشتن مقاله ای هستم که شامل بحث در مورد برآوردگر MMSE توزیع پیش بینی پسین است. از آنجایی که من اغلب از این اصطلاح استفاده می‌کنم، به این فکر می‌کنم که به این تخمین‌گر به‌عنوان پیش‌بینی اشاره کنم، با این حال، فکر می‌کنم که پیش‌بینی به جای تخمین‌گر به معنای تخمین است: برای تفاوت بین این دو، ویکی‌پدیا می‌گوید: در آمار، یک تخمین‌گر قاعده ای برای محاسبه تخمین یک کمیت معین بر اساس داده های مشاهده شده است: بنابراین قانون و نتیجه آن (تخمین) متمایز می شود. از سوی دیگر، من استفاده از کلمه پیش بینی را در نظر گرفتم، با این حال، به نظر می رسد این کلمه به متغیری اشاره می کند که برای کمک به پیش بینی متغیر دیگری استفاده می شود، نه یک تابع تخمین. آیا پیشنهادی در مورد استفاده از کدام عبارت (پیش‌بینی/پیش‌بینی) برای نشان دادن چنین برآوردگرهایی معقول‌تر است؟
تعاریف پیش بینی در مقابل پیش بینی کننده
33547
من اخیراً در حال بررسی عملکردهای داخلی خطای استاندارد بودم و متوجه شدم که نمی توانم بفهمم چگونه کار می کند. درک من از خطای استاندارد این است که انحراف معیار توزیع میانگین نمونه است. سؤالات من این است: • از کجا بفهمیم که خطای استاندارد انحراف معیار نمونه است وقتی که معمولاً فقط یک نمونه را می گیریم؟ • چرا معادله محاسبه خطای استاندارد معادله انحراف استاندارد را برای یک نمونه منفرد منعکس نمی کند؟
خطای استاندارد چگونه کار می کند؟
70656
اجرای شبکه های عصبی چندلایه یکی از بسته های تجاری شامل توابع هزینه زیر است: مربع خطا، آنتروپی متقاطع، حداکثر احتمال و همگرایی پرسپترون. در حالی که 2 مورد اول به خوبی در ادبیات مورد بحث قرار گرفته اند، دو مورد آخر چندان واضح نیستند. حداکثر چقدر احتمال تعریف شده است و تابع هزینه همگرایی پرسپترون چیست؟
شبکه های عصبی: توابع هزینه
3695
هنگام ترسیم یک باکس پلات با پایتون matplotblib، خطوط نیمه رسم میانه توزیع هستند. آیا امکانی وجود دارد که به جای آن خط در حد متوسط ​​باشد. یا آن را در کنار آن به سبکی دیگر ترسیم کنیم. همچنین، چون معمول است که خط میانه باشد، آیا واقعاً اگر آن را میانگین قرار دهم خوانندگان من را سردرگم می کند (البته یک یادداشت اضافه می کنم که خط وسط چیست)؟
نمایش میانگین به جای میانه در باکس پلات
14651
من با داده‌های دنباله‌ای کار می‌کنم که فهرست‌های بلندی از تماس‌های win-api بدافزار هستند. من سعی می کنم مشکل شناسایی رفتار بدافزار را در یکی از یافتن الگوهای متوالی مطرح کنم. من هر فراخوانی api را به عنوان یک مجموعه آیتم واحد در نظر می‌گیرم. تعداد آیتم های مختلف ممکن (تماس های api) بسیار زیاد است. اکنون، وقتی الگوریتم SPADE را اعمال می کنم (همچنین نگاه کنید به زکی، SPADE: یک الگوریتم کارآمد برای استخراج توالی های مکرر، یادگیری ماشین، 42، 31-60، 2001) با مشکلات حافظه مواجه می شوم. آیا راه جایگزین بهتری برای یافتن الگوهای متوالی در میان توالی‌های بزرگ واژگان بالا وجود دارد؟
شناسایی الگوهای متوالی
26034
من یک مجموعه داده با 3 متغیر پیوسته و 3 متغیر طبقه بندی دارم. من می دانم که باید متغیرهای ساختگی را برای متغیرهای طبقه ای ایجاد کنم، اما نمی دانم که آیا انجام این کار برای هر 3 متغیر طبقه بندی در این مورد ضروری است؟
رگرسیون چندگانه با متغیرهای طبقه بندی شده
71521
من به دنبال روشی برای تخمین یک فرآیند غیرقابل مشاهده در تنظیمات زیر هستم: در برخی از لحظات زمان (که کنترل نمی‌کنم) مشاهده می‌کنم که ارزش فرآیند بالاتر (یا کمتر) مقداری است. (که در کنترل من هم نیست). هدف من این است که با فرض ثابت بودن فرآیند غیرقابل مشاهده، تخمینی از ارزش فعلی آن بدست آوریم. خیلی ممنون
برآوردهای یک طرفه
38638
من سعی می کنم راهی برای پیش بینی اینکه کاربر چگونه به یک سند خاص رتبه بندی می کند و همچنین توضیحی در مورد اینکه چرا اسناد خاص به روش خاصی رتبه بندی می شوند پیدا کنم. یک کاربر توسط: * موضوعات مورد علاقه; * طول متوسط ​​اسنادی که کاربر خوانده است. * توزیع زمان هایی از روز که کاربر اسناد را می خواند. * مکان؛ * سن با این اطلاعات می‌خواهم: 1. پیش‌بینی کنم که کاربر چقدر سندی را دوست دارد (بر اساس موضوعات سند، طول، زمان روز و غیره) 2. توضیحاتی مانند: اسناد با این طول معمولاً در این زمان خوانده می‌شوند. ; یا اسناد مربوط به این موضوعات معمولاً در این مکان ها خوانده می شوند. امیدوارم این سوال خیلی گسترده نباشد. من فقط به نکاتی برای شروع نیاز دارم.
پیش بینی و توضیح امتیاز کاربران بر اساس معیارهای متعدد
106383
من در مورد تفسیر مناسب مقادیر p برگشت داده شده توسط آزمون دو نمونه ای کولموگروف-اسمیرنوف (ks.test) در R سردرگم هستم. در اسلاید 23 این ارائه در مورد آزمون های دو نمونه ای ناپارامتریک، نویسنده بیان می کند که وقتی تجزیه و تحلیل نتایج ks.test: ks.test (مرد، زن) داده های آزمون کولموگروف-اسمیرنوف دو نمونه: مرد و زن D = 0.8333، p-value = 0.02597، p-value > برای تست 2 دنباله باید در 2 ضرب شود. بنابراین، P = 0.05194 آیا این درست است؟ اگر از p = 0.02597 اصلی استفاده کنیم، فرضیه مشابه بودن توزیع ها را رد می کنیم، زیرا p <0.05 درست است؟ در حالی که اگر آن را در 2 ضرب کنیم، p نشان می دهد که هیچ تفاوتی بین توزیع ها وجود ندارد، زیرا p > 0.05؟ چه چیزی را از دست داده ام؟
آزمون کولموگروف-اسمیرنوف دو نمونه ای در سردرگمی R p-value
71526
من سعی می کنم عضویت در کلاس (طبقه بندی) را پیش بینی کنم و یک پایگاه داده از 40 هزار مشاهدات (افراد) با 94 ویژگی داشته باشم. من همچنین از هزار نفر از پایگاه داده درخواست کرده ام که نظرسنجی گسترده تری را پر کنند و 400 ویژگی دیگر برای آنها داشته باشند. من نمی خواهم وقت همه را در پایگاه داده با پر کردن کل نظرسنجی تلف کنم. من مایلم برای هر فرد بررسی کنم که چه سوالاتی می تواند تخمین معقولی از عضویت در کلاس به من بدهد. اساساً من می‌خواهم برای هر شخصی یک درخت تصمیم بسازم که در آن گره‌های درخت تصمیم سؤالاتی هستند که باید بپرسند. از آنجایی که مقادیر برای صفات 94 از فردی به فرد دیگر متفاوت خواهد بود، انتظار دارم درخت تصمیم هر کس متفاوت باشد، اما از آنجایی که برخی از سوالات بسیار بیشتر پیش بینی کننده کلاس هستند، انتظار دارم بیشتر درختان مشابه باشند. هر گونه کمک یا اشاره قدردانی!
گنجاندن داده های جدید در طبقه بندی
84118
میانگین‌گیری مدل بیزی از عوامل بیز تقریبی استفاده می‌کند. برخی از محققان از AIC برای مدل های وزن استفاده می کنند. آیا توجیهی برای استفاده از مثلاً امتیاز بریر، انحراف مطلق میانه، یا سایر نمرات از این دست که از پیش‌بینی‌های خارج از نمونه محاسبه می‌شوند، برای ساختن وزن برای میانگین‌گیری مدل به جای معیارهای اطلاعاتی مختلف وجود دارد؟ من مدتی قبل هنگام میانگین گیری نتایج مدل های پیش بینی محبوب انتخابات با این موضوع بازی کردم.
آیا استفاده از امتیازهای اعتبار سنجی متقاطع به عنوان میانگین وزن مدل توجیهی دارد؟
70652
یک مدل حالت هنر برای توزیع گل های زده شده در یک مسابقه فوتبال، مدل دیکسون و رابینسون (1998) یک مدل فرآیند تولد برای مسابقات فوتبال انجمن است که دو پدیده کلیدی را نشان می دهد: 1) گل های بیشتری به ثمر می رسد. در پایان مسابقات نسبت به شروع (فرضی است که به دلیل خستگی متحمل شده توسط هر دو تیم است) 2) نرخ امتیاز به خط امتیاز فعلی برای یک دلایل بی‌شماری مانند از خود راضی شدن تیم‌هایی که برتری دارند یا تیم‌هایی که ترجیح می‌دهند با تساوی به جای خطر باخت با رفتن به پیروزی، بازی کنند. فرآیندهای پواسون اجازه دهید $t$ نشان‌دهنده زمان سپری شده در یک مسابقه باشد، نرمال شده بین $0$ و $1$، بردار $x$-length $\vec{t_H}$ نشان‌دهنده زمان‌هایی است که تیم میزبان گل زد و $y. بردار $-length $\vec{t_A}$ نشان‌دهنده زمان‌هایی است که تیم میهمان گل زده است. پس احتمال تطابق $$ L(\vec{t_H},\vec{t_A}) = \exp\left(-\int_0^1 \lambda(t) dt\right)\frac{\prod_{i است =1}^{x} \lambda({t_{H}}_i)}{x!}exp\left(-\int_0^1 \mu(t) dt\right) \frac{\prod_{j=1}^{y} \mu({t_{A}}_j)}{y!} $$ که در آن $\lambda(t)$ نرخ امتیاز برای تیم میزبان در زمان $t$ وابسته به ترکیبی از عوامل همگن زمانی (مانند توانایی حمله تیم میزبان در مقابل توانایی دفاع تیم میهمان، برتری خانگی) و عوامل ناهمگن زمانی (مثلاً خط امتیاز در زمان) $t$). به طور مشابه برای $\mu(t)$. این دو فرآیند وابسته هستند زیرا وقتی یک تیم امتیاز می‌گیرد، خط امتیاز تغییر می‌کند و نرخ امتیازدهی خود به خط امتیاز بستگی دارد. احتمال را می توان به راحتی با انجام ادغام در توان به صورت عددی ارزیابی کرد. از این رو محاسبه پارامترهای مدل (توانایی های تیم، مزیت خانه، اثر زمان، پارامترهای خط امتیاز و غیره) از طریق حداکثر احتمال ساده است. از نظر پیش‌بینی، مقادیر واضح علاقه عبارتند از: * $P(x > y)$: تیم میزبان برنده می‌شود * $P(x <y)$: تیم مهمان برنده می‌شود * $P(x = y)$: مساوی * احتمال از خطوط امتیازی خاص، به عنوان مثال. $P(x=1,y=0)$ * احتمال کل گل‌ها در مسابقه، به عنوان مثال. $P((x+y) < 2.5)$ برای محاسبه این مقادیر (تقریبا) با توجه به مجموعه‌ای از پارامترهای مدل، می‌توانیم از روش‌های مونت کارلو برای تولید مطابق با این فرآیندها و سپس محاسبه فراوانی هر امتیاز نهایی استفاده کنیم. شبیه‌سازی از فرآیندها، با ایجاد اهداف از یک فرآیند پواسون همگن، همراه با نمونه‌گیری رد و سپس توزیع آن‌ها به تیم میزبان یا خارج از خانه، نسبتاً ساده است. بدیهی است که اشکال این رویکرد، بار محاسباتی شبیه‌سازی مونت کارلو است. سعی کنید همزمان با برگزاری مسابقات، پیش‌بینی‌هایی را در زمان واقعی انجام دهید، که ممکن است تعداد زیادی از آنها به طور همزمان اتفاق بیفتد، و به سرعت باعث نگرانی می‌شود. بنابراین، سؤال من این است که آیا رویکردهای جایگزینی وجود دارد که بتوانیم در نظر بگیریم که متحمل هزینه محاسباتی بالا نباشد (حتی اگر آنها به تقریبی متکی باشند که دقت را قربانی سهولت محاسبه کند)؟ * * * _برای وضوح، من به دنبال پیشنهادات (اصلی) در مورد نحوه اجرای کارآمد شبیه سازی مونت کارلو نیستم که قبلاً در C چند رشته ای نوشته ام، از اعداد شبه تصادفی استفاده می کند که از قبل با استفاده از unrolling و اکسپلویت ها تولید شده اند. نازک شدن تکه ای برای دستیابی به نرخ پذیرش بسیار بالا. اگر فکر می‌کنید هنوز زمینه‌ای برای افزایش عملکرد چشمگیر وجود دارد، مطمئناً من کاملاً گوش هستم، اما واقعاً به دنبال رویکردی اساساً متفاوت هستم!_
آیا جایگزینی برای شبیه سازی برای تعیین توزیع تعداد رویدادها از دو فرآیند غیرهمگن پواسون وابسته وجود دارد؟
37784
من با پکیج R و rpart تازه کار هستم. وقتی درخت را با استفاده از rpart رسم می کنم: > temp_control <- rpart.control(xval=10, minbucket=2, minsplit=4, cp=0.0001) > dfit <- rpart(Target~., data = temp_data, method = 'class ', control=temp_control) > printcp(dfit) سپس : CP nsplit rel error xerror xstd را دریافت می کنم یک 0.041861 4 0.00098353 41 0.90534 1.1102 0.042133 5 0.00086059 48 0.89845 1.1274 0.042433 6 0.008 0.0008 1.1515 0.042849 7 0.00034423 75 0.87952 1.1635 0.043055 8 0.00028686 80 0.87780 1.1687 0.0431089 0.0431402 0.87263 1.1807 0.043346 چرا xerror با رشد درخت افزایش می یابد؟ آیا نیاز به تنظیم بیشتر پارامترها دارم؟ همچنین، من تعجب می کنم که چگونه خطای گره ریشه محاسبه می شود. آیا فقط مربوط به مجموعه داده خاصی است؟ آیا با تنظیمات پارامترها ارتباطی دارد؟ در واقع، من روش anova را امتحان کردم اگرچه متغیر پاسخ من مقوله ای است (Y/N). من فقط آنها را به 0/1 تغییر دادم و anova را اجرا کردم، سپس می توانم دریافت کنم: CP nsplit rel error xerror xstd 1 3.1473e-02 0 1.00000 1.00025 0.037408 2 1.1506e-02 1 0.96978.015 3 5.6396e-03 2 0.95702 0.96528 0.035172 4 4.6137e-03 3 0.95138 0.96970 0.035029 5 4.4412e-037746.03 0.035019 6 4.3751e-03 7 0.93310 0.97006 0.034915 7 4.1352e-03 10 0.91997 0.97109 0.034912 0.034912 8 3.031-3.03 0.97316 0.034847 9 3.0148e-03 14 0.90513 0.96819 0.034671 10 2.5334e-03 15 0.90211 0.96872 0.96872 0.0346720.031-0.96872 0.0346 0.89958 0.96959 0.034753 12 2.2342e-03 17 0.89730 0.97437 0.034829 13 1.8732e-03 18 0.89507 0.89507 0.081 1.8401e-03 19 0.89319 0.99511 0.035199 کسی در این مورد نظری دارد؟
آیا با استفاده از rpart می توان xerror را در درخت افزایش داد؟
75060
سلام من در درک این مشکل دارم: مثال: در یک دسته 52 کارتی، 5 کارت انتخاب می شود. احتمال اینکه هر 5 کارت دارای مقادیر اسمی متفاوتی باشند چقدر است؟ تعداد کل نتایج = 52 C 5 تعداد کل ترکیبات ارزش اسمی = 13 C 5 تعداد کل احتمالات کت و شلوار، با جایگزینی = 4^5 اکنون من 52 C 5، تعداد کل احتمالات را دریافت می کنم، و من 13 C را دریافت می کنم. 5 تعداد کارت های صورت در عرشه، بنابراین: P( 5 تفاوت مقادیر صوری) = (13 C 5)(4^5)/(52 C 5) چرا؟ دقیقاً 4^5 آنجا چه می کند؟ کمک کنید.
احتمال درک 52 ج 5
102892
وضعیت من: * حجم نمونه کوچک: 116 * متغیر نتیجه باینری * لیست طولانی متغیرهای توضیحی: 44 * متغیرهای توضیحی از بالای ذهن من نیامدند. انتخاب آنها بر اساس ادبیات بود. آزمون آماری انتخاب شده: رگرسیون لجستیک من باید متغیرهایی را بیابم که به بهترین وجه تغییرات را در متغیر نتیجه توضیح می دهند (من علاقه ای به پیش بینی ندارم). مشکل: این سوال در ادامه 2 سوال ذکر شده در زیر است. از آنها دریافتم که انجام رگرسیون گام به گام خودکار جنبه های منفی خود را دارد. به هر حال، به نظر می رسد که حجم نمونه من برای آن خیلی کوچک باشد. به نظر می رسد که نمونه من نیز برای وارد کردن همه متغیرها به طور همزمان بسیار کوچک است (با استفاده از روش SPSS 'Enter'). این مسئله من را حل‌نشده رها می‌کند: چگونه می‌توانم زیرمجموعه‌ای از متغیرها را از لیست طولانی اصلی خود انتخاب کنم تا تحلیل رگرسیون لجستیک چند متغیره را انجام دهم؟ به روز رسانی 1: من یک آمارگیر نیستم، بنابراین اگر بتوان اصطلاحات تخصصی را به حداقل رساند، قدردانی می کنم. من با SPSS کار می کنم و با بسته های دیگر آشنا نیستم، بنابراین گزینه هایی که می توانند با آن نرم افزار اجرا شوند بسیار ترجیح داده می شوند. UPDATE2: به نظر می رسد که SPSS از LASSO برای رگرسیون لجستیک پشتیبانی نمی کند. بنابراین به دنبال یکی از پیشنهادات شما، من اکنون با R در حال مبارزه هستم. من اصول اولیه را گذرانده ام و توانستم یک روال رگرسیون لجستیک تک متغیره را با استفاده از کد glm با موفقیت اجرا کنم. اما همانطور که glmnet را با همان مجموعه داده امتحان کردم، یک پیام خطا دریافت می کنم. چطور میتونستم درستش کنم؟ در زیر کدی که من استفاده کردم و به دنبال آن پیغام خطا آمده است: data1 <- read.table(C:\\\data1.csv,header=TRUE,sep=;,na.string=99:9999) y <- data1[,1] x <- data1[,2:45] glmnet(x,y,family=binomial,alpha=1) **در lognet(x, is.sparse, ix, jx, y, weights, offset, alpha, nobs, : (list) را نمی توان مجبور به تایپ «double» کرد** UPDATE3: من پیام خطای دیگری دریافت کردم که اکنون مربوط به مقادیر از دست رفته است آیا می توان از رگرسیون خطی تک متغیره برای شناسایی متغیرهای مفید برای یک رگرسیون لجستیکی بعدی استفاده کرد؟ انتخاب مدل خودکار
چگونه می توان زیرمجموعه ای از متغیرها را از لیست طولانی اصلی خود برای انجام تحلیل رگرسیون لجستیک انتخاب کرد؟
83469
من مشکلی دارم که ماه هاست بارها و بارها برای یافتن روش تجزیه و تحلیل آماری مناسب آن را مرور کرده ام. من در حال برنامه ریزی برای اجرای آنالیز در R هستم، بنابراین هرگونه ذکر بسته های مناسب نیز قدردانی می شود. من از هر توصیه ای که هر کسی می تواند ارائه دهد قدردانی می کنم. در اینجا یک قیاس با داده های من است. در نظر بگیرید که من 5 کالج دارم. فرضیه من این است که یک کالج خاص مدارک بیشتری نسبت به کالج های دیگر اعطا کرده است. بنابراین می‌خواهم آزمایش کنم که آیا تعداد مدرک‌های اعطا شده توسط کالج‌های مختلف تفاوت قابل توجهی دارد یا خیر. داده های من شامل 3 مجموعه داده به شرح زیر است: 1) تعداد کل مدارک تحصیلی توسط دانشجویان از هر کالج، از زمان افتتاح هر کالج مربوطه. این یک نمونه تصادفی نیست، بلکه شمارش واقعی است. همه کالج ها تاریخ افتتاحیه متفاوتی دارند، بنابراین از نظر سنی متفاوت هستند. من سن هر کالج را دارم اگر مشخص شود که مرتبط است. این داده‌ها شامل درجه‌های دوم، سوم و چهارم است که دانش‌آموزان در شمارش کسب کرده‌اند. بنابراین داده ها شامل دو ستون (نام کالج و تعداد مدارک اعطا شده) و 5 ردیف (یکی برای هر کالج) است. 2) تعداد مدرک تحصیلی به ازای هر دانش آموز در هر مدرسه. من لیستی از حدود 5000 دانش آموز در کل مجموعه داده ها و تعداد مدارک تحصیلی هر دانش آموز در هر مدرسه را دارم. برخی از دانش آموزان در بیش از یکی از مدارس تحصیل کردند و بسیاری از آنها از بیش از یک مدرسه مدرک گرفتند. هر مدرکی که تاکنون توسط این پنج کالج اعطا شده است در این مجموعه داده نیز نشان داده شده است. این مجموعه داده شامل دانشجویانی نمی شود که در این پنج کالج شرکت کرده اند، اما هرگز مدرکی کسب نکرده اند. این مجموعه داده دارای شش ستون (یکی برای شناسه دانشجو و پنج ستون برای نام کالج) و حدود 5000 ردیف (یک ردیف برای هر دانشجو) است. مجموع هر ستون کالج برابر با مقادیر موجود در اولین مجموعه داده است. 3) تعداد کل دانش آموزانی که در هر مدرسه در طول دوره 30 ساله تحصیل می کنند، از جمله آنهایی که مدرکی کسب نکرده اند. البته تعداد کل دانش آموزان در هر مدرسه متفاوت است. بنابراین پنج ردیف (یکی برای هر کالج) و دو ستون (نام کالج و کل دانشجویانی که در تاریخچه کالج شرکت کردند). بنابراین من داده های شمارشی با حجم نمونه نابرابر دارم. پیش‌بینی‌کننده طبقه‌بندی من باید کالج باشد، زیرا به این موضوع علاقه دارم. من انواع مختلفی از مدل های رگرسیون را در نظر گرفته ام، اما مطمئن نیستم که آیا این مدل ها مناسب ترین باشند. برای یک مدل رگرسیون، حدس می‌زنم پاسخ من به سادگی تعداد درجات تحصیلی هر مدرسه باشد. یا شاید نسبت مدارک تحصیلی با توجه به کل دانش آموزان در هر مدرسه. آیا این برای تصحیح حجم نمونه نابرابر کافی است؟ آیا فکری در مورد اینکه کدام مدل رگرسیون مناسب‌تر است؟ دوجمله ای کار نمی کند، زیرا باید دانش آموزان با بیش از یک مدرک را در نظر بگیرم، بنابراین پاسخ دو جمله ای نیست. من مطمئن نیستم که چه نوع توزیعی باید در نظر گرفته شود، زیرا انتخاب یکی برای آزمایش به نظر من بسیار دلخواه است. آیا نوعی از جدول احتیاطی مناسب تر است؟ پیشاپیش از هر پیشنهادی که می توانید ارائه دهید متشکریم.
روش تجزیه و تحلیل برای داده های شمارش با حجم نمونه نابرابر و پیش بینی های طبقه بندی؟
65470
آیا راهی برای انجام رگرسیون فرآیند گاوسی بر روی خروجی چند بعدی (احتمالاً همبسته) با استفاده از GPML وجود دارد؟ در اسکریپت دمو فقط توانستم یک نمونه 1 بعدی پیدا کنم. یک سوال مشابه در CV که به موارد ورودی چند بعدی می پردازد. * * * کتابشان را مرور کردم تا ببینم چیزی پیدا می کنم یا نه. در فصل نهم این کتاب (بخش 9.1) به این مورد از خروجی های متعدد اشاره کرده اند. آنها چند راه برای مقابله با این موضوع ذکر کرده اند، یکی - با استفاده از فرآیند نویز همبسته و دو - Cokriging (همبستگی قبلی). من هنوز نمی دانم چگونه می توانم هر یک از این ایده ها را در چارچوب GPML بگنجانم. * * * همچنین، آیا کتابخانه / چارچوب GP دیگری وجود دارد که از خروجی چند بعدی پشتیبانی کند؟
فرآیندهای گاوسی: نحوه استفاده از GPML برای خروجی چند بعدی
38639
من می خواهم برخی از داده های اندازه گیری های مکرر را با استفاده از یک متغیر ساختگی برای هر واحد اندازه گیری تجزیه و تحلیل کنم. این یک رویکرد برای مقابله با این واقعیت است که داده ها i.i.D نیستند. وقتی اندازه‌گیری‌های مکرر وجود دارد (علاوه بر ANOVA اندازه‌گیری‌های تکراری کلاسیک، ANOVA چند متغیره و مدل‌سازی مختلط، به Keselman & Algina، 2001 مراجعه کنید)، اما من مرجعی را برای آن گم کرده‌ام. بنابراین سوال من این است: * ** مرجعی برای کدگذاری موضوعات به عنوان یک اثر ثابت در تجزیه و تحلیل اندازه گیری های مکرر چیست؟** Keselman, H. J., Algina, J., & Kowalchuk, R. K. (2001). تجزیه و تحلیل طرح های اندازه گیری های مکرر: یک بررسی مجله بریتانیایی روانشناسی ریاضی و آماری، 54 (1)، 1-20. doi:10.1348/000711001159357
مرجع رگرسیون متغیر ساختگی برای اندازه گیری های مکرر
102769
من در تعدادی از جاها نقل قول کرده ام که انحراف معیار برای شرط 1 عددی روی چرخ رولت 38 عددی (0، 00، 1، 2، ..، 36) **5.76** است. به نظر نمی رسد منبع واحدی پیدا کنم که نشان دهد چگونه این محاسبه انجام شده است. من یک دانش آموز هستم، این برای درک بیشتر یک مشکل تکلیف است، بنابراین لطفاً فرض کنید من بی اطلاع هستم و تا حد امکان جزئیات را ارائه دهید.
چگونه انحراف معیار رولت را محاسبه می کنید؟
38632
من در حال آزمایش نوع جدیدی از دارو در برابر یک داروی قدیمی در جمعیت بسیار محدود هستم. همه آزمودنی ها ابتدا داروی قدیمی تر و بی اثر را دریافت خواهند کرد. آنها فقط در صورتی داروی جدید را دریافت می کنند که داروی قدیمی بی اثر باشد. اطلاعات من تاکنون: هیچ یک از 4 مورد آزمایش با داروی قدیمی درمان نشدند، بنابراین به همه داروی جدید داده شد. هر 4 آزمودنی با داروی جدید درمان شدند. تنها دو نتیجه وجود دارد: درمان یا بدون درمان. حدس می‌زنم نمی‌توانم از آزمون دقیق فیشر برای این مطالعه استفاده کنم، زیرا داده‌ها جفت شده‌اند. کدام آزمون(های) را می توانم برای این نوع آزمایش استفاده کنم؟
از کدام نوع آزمون آماری دقیق استفاده کنم؟
68458
من روی شبکه بیزی کار می کنم و باید طیف وسیعی از آزمون آماری را برای تست استقلال و استقلال شرطی بین 2 متغیر با یک مجموعه شرطی بالقوه با اندازه مهم پیدا کنم. داده های من ترکیبی از نرمال (نه رایج ترین)، غیر عادی (متداول ترین)، پیوسته (متداول ترین)، گسسته، با وابستگی ها خطی نیستند. تا کنون از تست Z-fisher استفاده می‌کردم، زیرا یک پیاده‌سازی خوب در جعبه ابزار «bnt» برای متلب پیدا کردم (من در توسعه آنقدر خوب نیستم) اما خطی بودن و نرمال بودن را فرض می‌کند که فرضیات بسیار سنگینی هستند. من دو یا سه مورد از معیارهای استقلال هیلبرت اشمیت را پیدا کردم، اما، متأسفانه، عملکرد بسیار ضعیفی دارند. توصیه ای دارید؟ اشاره گر؟ من می خواهم یک نوع سوپر کلاس تست طراحی کنم که بسته به ماهیت پارامترها به یک تست خاص دسترسی داشته باشد (تست پیوسته مستقل از شرطی گسسته روی یک متغیر پیوسته هنوز برای من کمی نامشخص است).
تست استقلال
30406
من سعی می کنم تعیین کنم که آیا احتمالات ساده برای مشکل من کار می کنند یا اینکه بهتر است از روش های پیچیده تری مانند رگرسیون لجستیک استفاده کنم (و در مورد آنها یاد بگیرم). متغیر پاسخ در این مشکل یک پاسخ باینری است (0، 1). من تعدادی متغیر پیش بینی دارم که همگی دسته بندی و نامرتب هستند. من سعی می کنم تعیین کنم که کدام ترکیب از متغیرهای پیش بینی بیشترین نسبت 1 را به دست می دهد. آیا به رگرسیون لجستیک نیاز دارم؟ محاسبه تناسبات در مجموعه نمونه من برای هر ترکیبی از پیش‌بینی‌کننده‌های طبقه‌بندی، چه مزیتی دارد؟
چگونه می توان قدرت پیش بینی مجموعه ای از پیش بینی کننده های دسته بندی یک نتیجه باینری را ارزیابی کرد؟ محاسبه احتمالات یا رگرسیون لجستیک؟
70654
من می خواهم سؤالی ارائه کنم که به نظر می رسد قضیه ای را که می دانم پیش بینی می کند. بنابراین حدس می‌زنم چیزی را از دست داده‌ام و خوشحال می‌شوم بفهمم چه چیزی را از دست داده‌ام. این سیستم است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/lvYXg.png) سیگنال‌های $ {X}_{1}، {X}_{2} $ مستقل هستند فرآیند نویز گاوسی سفید فیلترهای $ {H}_{1}(f)، {H}_{2}(f) $ یکسان هستند، یعنی $ {H}_{1}(f) = {H}_{2} $ . فاز، $ \theta \sim U[0, 2\pi] $ و مستقل از هر پارامتر یا سیگنال دیگری. سؤالات 1 هستند. آیا $ {Y}_{1}(t)، \ {Y}_{2}(t) $ فرآیندهای گاوسی هستند؟ 2. آیا $ r(t) $ فرآیند گاوسی است؟ پاسخ ها، طبق یک کتاب، $ {Y}_{1}، \ {Y}_{2} $ فرآیندهای گاوسی نیستند و $ r(t) $ یک فرآیند گاوسی است. با این حال، $ {Y}_{1}، \ {Y}_{2} $ آشکارا مستقل هستند (ویرایش: آنها وابسته هستند، پاسخ ها و نظرات را در زیر ببینید) و طبق قضیه کرامر: http://en.wikipedia.org /wiki/Normal_distribution#Infinite_Divisibility_and_Cram.C3.A9r.27s_قضیه اگر مجموع دو R.V مستقل. گاوسی است پس هر یک از آنها باید گاوسی باشند. با این حال برای من کاملاً واضح است که Y1 / Y2 گوسی نیستند. من شبیه سازی متلب زیر را نوشتم: numRealizations = 1e4; numSamples = 1e3; h1Coef = ones(10, 1) / 10; h2Coef = h1Coef; هارمونیک فرکانس = 10; %<! [Hz] timeVector = [0:(numSamples - 1)]; randomPhaseVec = 2 * pi * rand(numRealizations, 1); % نویز سفید Ergodic است % هر ردیف یک تحقق است (بردار در طول زمان) x1SignalMatrix = randn(numRealizations, numSamples); x2SignalMatrix = randn(numRealizations, numSamples); % فیلتر کردن در امتداد ستون ها z1SignalMatrix = filter(h1Coef, 1, x1SignalMatrix, [], 2); z2SignalMatrix = فیلتر(h2Coef, 1, x2SignalMatrix, [], 2); y1SignalMatrix = z1SignalMatrix .* cos(bsxfun(@plus, (2 * pi * harmonicFreq * timeVector), randomPhaseVec)); y2SignalMatrix = z2SignalMatrix .* sin(bsxfun(@plus, (2 * pi * harmonicFreq * timeVector), randomPhaseVec)); rSignalMatrix = y1SignalMatrix + y2SignalMatrix; timeIndex = randi([1, numSamples], [1, 1]); realizationIndex = randi([1, numRealizations], [1, 1]); شکل hist(x1SignalMatrix(:, timeIndex), 500); شکل normplot(x1SignalMatrix(:، timeIndex)); شکل hist(z1SignalMatrix(:, timeIndex), 500); شکل normplot(z1SignalMatrix(:، timeIndex)); شکل hist(y1SignalMatrix(:, timeIndex), 500); شکل normplot(y1SignalMatrix(:، timeIndex)); شکل hist(y1SignalMatrix(realizationIndex, :), 500); شکل normplot(y1SignalMatrix(RealizationIndex, :)); شکل hist(rSignalMatrix(:, timeIndex), 500); شکل normplot(rSignalMatrix(:، timeIndex)); شکل hist(rSignalMatrix(realizationIndex, :), 500); شکل normplot(rSignalMatrix(RealizationIndex, :)); این توزیع Y1 بر روی Ensemble است: ![The Distribution of Y1 over the Ensemble](http://i.stack.imgur.com/HQx70.png) که به وضوح آنطور که من انتظار داشتم گوسی نیست. این توزیع Y2 در طول زمان است (One Realization): ![The Distribution of Y2 over Time - 1 Realization](http://i.stack.imgur.com/OiWdr.png) اکنون، نتایج برای $ r (t) $: The Distribution of the Ensemble: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/FB4BP.png) توزیع 1 تحقق: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/HWZK8.png) خوب، برای Y1، می توانم ببینم که چرا گروه مانند هر نمونه t گاوسی نمی شود در ضریب متفاوتی ضرب می‌شود، بنابراین هر کدام از آنها، اگرچه گاوسی هستند، از توزیع متفاوتی می‌آیند. من حتی یک دلیل نوشتم که چرا با ویژگی های توزیع گاوسی مطابقت ندارد (لحظه چهارم) - http://imgur.com/l017RrR. با این حال نمی توانم بفهمم که $ r(t) $ چگونه گاوسی است. چه چیزی را از دست داده ام؟ متشکرم
خروجی یک سیستم با فرآیند گاوسی سفید به عنوان ورودی
38631
من در حال ارزیابی یک مدل فیزیکی هستم و می‌خواهم بدانم کدام یک از روش‌ها را باید در اینجا استفاده کنم (بین RMSE و ضریب تعیین R2) مشکل به شرح زیر است: من تابعی دارم که پیش‌بینی‌هایی را برای مقدار ورودی x، $ ارائه می‌کند. \overline{y_x}= f(x)$. من همچنین مشاهده واقعی آن مقدار را دارم که $y_x$ می نامم. سوال من این است که مزایا و معایب RMSE یا $R^2$ چیست. من دیده ام که از هر دوی آنها در مقالات برای مشکلی که روی آن کار می کنم استفاده می شود.
RMSE در مقابل ضریب تعیین
106213
تغییر میانگین روشی برای مکان یابی ماکزیمم تابع چگالی با توجه به داده های گسسته نمونه برداری شده از آن تابع است. برای تشخیص حالت های این چگالی مفید است. این یک روش تکراری است. برای اینکه این الگوریتم کار کند چقدر باید مجموع هسته ها دقیق باشد؟ به عنوان مثال - اگر در دم عملکرد ضعیفی داشته باشد و در حالت بهتر باشد اشکالی ندارد؟
مجموع تابع هسته چقدر باید دقیق باشد تا بتوانیم آن را در الگوریتم تغییر میانگین (ممکن است برای تقسیم بندی تصویر باشد) استفاده کنیم؟
65477
من یک برنامه نویس هستم و متاسفانه آماردان خوبی نیستم. من سعی می کنم یک معادله خطی ('y=mx+b') را برای نمایش خط روند روی یک نمودار اعمال کنم. در اینجا نمونه ای از آنچه من می توانم تولید کنم آمده است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qKX8C.png) جایی که محور Y درصدی نسبت به هدف است (نه به واحد پول، اما در درصد)، و محور X تاریخ است (در این تصویر به طور محتاطانه نشان داده شده است). من نمودار را بهینه‌سازی کرده‌ام تا خط روند را به‌عنوان یک پسوند از روز گذشته (امروز) نشان دهد و به‌طور بصری 2 خط را در 1 ترکیب کند (در مقابل 2 خط که با هم اجرا می‌شوند). با توجه به آنچه من درک می کنم، می توانیم یک خط روند را با استفاده از دو یا چند نقطه داده محاسبه کنیم. و اینجاست که سوال من مطرح می شود. من از کل مجموعه داده فعلی (2 تا 24 ژوئیه) برای محاسبه خط روند خود استفاده می کنم. بنابراین در تصویر، این تمام نقاط داده روی خط آبی خواهد بود. به عنوان مثال، اولین نقطه (7/2/13) به عنوان {1,0.28} نمایش داده می شود. دوم به عنوان {2,0.01}؛ و غیره **آیا معادله خط روند را با استفاده از آن مجموعه داده به درستی اعمال می کنم؟** به عنوان بخش اضافی برای این سوال: آیا باید از شکل دیگری از معادله خط روند استفاده کنم، مانند چند جمله ای؟ و در نهایت، آیا می توان معادله خطی من را با استفاده از دو نقطه داده از زمان مشابه در سال گذشته به دست آورد؟ برای مثال، پیش‌بینی 26-27 ژوئیه با استفاده از داده‌های تاریخی همان تاریخ‌ها از سال قبل حل می‌شود.
چگونه یک معادله خط روند خطی را به درستی اعمال کنیم
14656
من یک دانشجوی دکتری علوم اجتماعی هستم که سعی می کنم یک آزمون آماری را برای ارائه کنفرانس کوچکی که روی آن کار می کنم پیدا کنم. با این حال، متوجه شدم که نمی دانم چگونه مدل مورد نظرم را اجرا کنم. پیشینه ای در مورد سوال من: **DV:** تغییر در وزن فرد (متغیر پیوسته) **IV:** کدام میوه برای صبحانه خورده است (متغیر طبقه بندی با چهار دسته: گواوا، تمشک، گلابی و توت فرنگی) * *روش آماری:** رگرسیون ساده OLS طبق تئوری من، خوردن گواوا باید در مقایسه با میوه دیگر، بیشترین تأثیر را بر وزن فرد داشته باشد، سپس تمشک، گلابی، و توت فرنگی کمترین تاثیر را بر وزن افراد دارد. برای آزمایش نظریه ام، برنامه اولیه من اجرای یک رگرسیون OLS ساده با 3 متغیر باینری بود (یکی برای هر میوه، با توت فرنگی که خط پایه است). با این حال، من تازه متوجه شدم که این مدل فقط به من می گوید که آیا هر میوه تأثیر بیشتری نسبت به توت فرنگی دارد، اما به من نمی گوید که تأثیر گواوا از تمشک بیشتر است یا اینکه تمشک تأثیر بیشتری از گلابی دارد. آیا روش ساده ای در رگرسیون OLS (در STATA) وجود دارد که به من امکان می دهد آزمایش کنم که آیا گواوا بیشترین تأثیر را دارد، تمشک دومین تأثیر را دارد، گلابی سومین اثر بزرگ و توت فرنگی کمترین تاثیر را داشت؟ با تشکر FYI: نه مقاله من واقعاً در مورد میوه و کاهش وزن نیست. این متغیرها برای اهداف این سوال ساخته شده اند.
چگونه می توانم اثرات نسبی را بین مقادیر یک IV دسته بندی مقایسه کنم؟
112057
من در تئوری مدل ترکیبی غیرخطی تازه کار هستم و دیده ام که شما نمی توانید مقادیر مورد انتظار متغیر پاسخ خود را با وارد کردن پارامترهای تخمین زده شده در معادله مدل خود تعیین کنید، زیرا مدل در مولفه های تصادفی غیرخطی است. چرا اینطور است؟ تئوری پشت آن چیست؟ و وقتی می‌خواهم پارامترها را به مدل برگردانم، چه کاری باید انجام دهم؟ به عنوان مثال، فرض کنید من منحنی رشد برودی را دارم: Wit = A - (A-Wo)e^-kti که در آن، W وزن فرد i در زمان t، A، Wo و k پارامترها هستند. هنگامی که یک تجزیه و تحلیل nlme را اجرا می کنم (به عنوان مثال با nlme/lme4 در R)، چه چیزی را باید در نظر بگیرم تا پارامترهای تخمین زده شده را دوباره در مدل قرار دهم تا بتوانم مقادیر پیش بینی شده Wit را دریافت کنم؟ با تشکر فراوان.
مقادیر مورد انتظار با پارامترهای مدل برآورد شده از تجزیه و تحلیل nlme تعیین می شود
102764
من مشغول بازی در R بودم و در مورد رابطه بین توزیع‌های احتمال، مقادیر مورد انتظار و توابع توزیع تجمعی آن‌ها بسیار گیج شدم. بگویید ما به مقدار مورد انتظار توزیع گاما علاقه مندیم. در اینجا یک راه هک برای محاسبه آن در R آمده است: کتابخانه (pracma) m=2 s=1 grid = seq(0,50,.01) y = dgamma(grid, m, s) (expected = trapz(grid, grid*y)) [1] 2 به طور شهودی، مقدار مورد انتظار توزیع چیزی شبیه به «مرکز جرم» آن است: نقطه‌ای که نیمی از وزن توزیع یک طرف است و نیمی در طرف دیگر. اگر این استدلال درست باشد (من با خودم فکر کردم)، پس این نقطه باید با نقطه ای که تابع توزیع تجمعی برابر با 50/0 است یکسان باشد. چرا؟ خوب، چون در مقدار X که در آن CDF 0.5 است، یک متغیر تصادفی 50٪ تغییر کمتر از X و 50٪ احتمال بزرگتر بودن از X دارد - یعنی X نقطه ای است که نیمی از وزن توزیع در هر دو طرف قرار دارد. _(ویرایش: اگر بخواهم به طور دقیق مشخص کنم که تصور اشتباهم کجا رخ داده است، می‌گویم اینجا بود. همانطور که پاسخ‌های زیر به من یادآوری کرده‌اند، مرکز جرم فقط مربوط به نسبت وزن نیست.)_ تصمیم گرفتم این تصور را دنبال کنم: (نیمه راه = qgamma(.5، m، s)) [1] 1.678347 نه، قوز من اشتباه بود. به نظر می رسد که تفاوت عددی بیش از حد سیستماتیک است که نتیجه استفاده از ادغام عددی نباشد (به نظر می رسد در هر توزیع نامتقارن اتفاق می افتد، به درجات مختلف، خودتان سعی کنید). چگونه به این موضوع اشتباه فکر می کنم؟
فرض کنید f(x) مقداری PDF باشد و F(x) CDF آن باشد. آیا F(x)=.5 نباید مقدار مورد انتظار f(x) را به ما بدهد؟
71525
آیا روش آسانی برای محاسبه حجم نمونه مورد نیاز برای آزمون t زوجی با اندازه اثر 2 انحراف استاندارد وجود دارد؟ در خط کار من، ما اغلب از اندازه اثر 2SD از میانگین برای محاسبه توان و اندازه نمونه با آزمون‌های t مستقل استفاده می‌کنیم، اما مطمئن نیستم که چگونه آن را با آزمون t زوجی تطبیق دهم. من حتی مطمئن نیستم که اندازه اثر تایپ شده برای یک آزمون t وابسته منطقی است یا خیر. با تشکر از کمک.
اندازه و توان اثر بحرانی برای آزمون t زوجی
70653
من در حال حاضر روی پروژه ای کار می کنم که به رفتار شراکت جنسی افراد می پردازد. داده‌های گم شده‌ای وجود دارد - که من با استفاده از موش‌ها آن‌ها را در R نسبت می‌دهم. انتساب ها بدون مشکل از بین می روند. مشکل زمانی شروع می‌شود که باید اطمینان حاصل کنم که چند مقدار غیرممکن بعد از انتساب وجود ندارد. به طور خاص، در برخوردهای جنسی همجنس، مردان نمی توانند پاسخ مثبتی به متغیر «وقوع آمیزش واژینال» داشته باشند. به چند دلیل، تحلیل‌های پروژه از ابتدا بر اساس جنسیت تقسیم می‌شوند. بنابراین در اینجا من فقط با مردان سروکار دارم (همانطور که در چارچوب داده های شروع قبلاً بر اساس جنسیت زیر مجموعه ای قرار گرفته است که هیچ مقدار گمشده ای برای آن وجود ندارد). پس از انتساب، این عدم امکان تشریحی در چند جا خود را نشان می دهد. فکر من این بود که به سادگی مقادیر را ویرایش کنم زیرا تعداد بسیار کمی وجود دارد (یک زوج در 5 مجموعه داده منتسب با چندین هزار مورد). من شی mids را به یک قاب داده تبدیل می کنم، مقادیر را به صورت دستی ویرایش می کنم و سپس با استفاده از as.mids سعی می کنم دوباره به یک شی mids تبدیل کنم. در این مرحله من این پیام را دریافت می کنم: خطا در ini$imp[[i]] : زیرنویس خارج از محدوده چارچوب داده اصلی که در این مرحله با آن سروکار دارم (داده که فقط از پاسخ دهندگان مرد تشکیل شده است) شامل متغیرهای زیر است ( به علاوه بسیاری دیگر که به اینجا مربوط نیستند) - شناسه پاسخگو، سن، نژاد، samesexENC، mutualmast، oralsex، vaginalsex، analsex، لذت بردن از پس از استفاده mice() برای انجام انتساب، شی mids dataIMP است. در آن مرحله با استفاده از «complete()» تبدیل به یک قاب داده را انجام می دهم. سپس برای شناسایی ردیف‌های مشکل‌ساز زیر مجموعه می‌روم و «vaginalsex» را به «نه» اصلاح می‌کنم. # تبدیل به یک قاب داده به منظور انجام ویرایش EDITاین <- full(dataIMP,action=long,include=TRUE) # # زیر مجموعه برای شناسایی samesexENC که شامل vaginalsex q <- زیر مجموعه (EDITthis, vaginalsex==بله ) q <- subset(q, samesexENC==بله) # # سلول های فریم را مستقیماً # ویرایش کنید تا در واژینال با نه برابر شوند. (که ستون 29 است) EDITthis[5955, 29]=خیر EDITthis[19656, 29]=نه در این مرحله همه ما روشن هستیم. چیزهای بسیار ساده حتی برای تسلط سطح مبتدی من به R. سپس می‌خواهم دوباره به «mids» تبدیل کنم و آنالیزها را انجام دهم، بنابراین از «as.mids()» استفاده می‌کنم \- # تبدیل به mids object dataFINAL <- as.mids(EDITthis) اینجاست که تمام استیم من- پیش از روز تجزیه و تحلیل داده ها دیروز با پیام خطای ذکر شده متوقف شد. من ابتدا مستقیماً به مستندات موش ها رفتم. با نگاه کردن به آرگومان‌های «as.mids()» به نظر نمی‌رسد مشکلی وجود داشته باشد. پیش‌فرض‌های «.id» و «.imp» با ستون‌های درست در «EDITthis» مطابقت دارد. من به مستندات مربوط به complete() نیز برگشتم و هیچ مشکلی در آنجا پیدا نکردم. در نهایت با «as.mids» تماس گرفتم تا کد پشت تابع را به چشم بیاورم. فکر می‌کنم می‌دانم آنجا چه خبر است، اما هیچ چیز مرا در مورد مشکلات احتمالی در کدم آگاه نکرد. در نهایت، به عنوان یک اقدام ایمنی، من بسته را مجدداً با هم نصب کردم، کل فرآیند را از ابتدا پشت سر گذاشتم و نتایج دقیقاً یکسان بود - تا جایی که می‌خواهم «EDITthis» را تغییر دهم، همه چیز خوب است. قاب داده به یک شی «mids». احتمالاً یک کاما یا نقل قول در جایی است، اما من نمی توانم آن را بیان کنم. پیشاپیش متشکرم
تبدیل قاب داده R به شی mids با as.mids برمی‌گرداند - خطا ini$imp[[i]] : زیرنویس خارج از محدوده
87139
خوب، من این مقادیر را دارم: $\mathrm{Mean}=5.77$; $95\%\mathrm{CL}=5.30-6.11$ چگونه می توانم یک توزیع نرمال را با استفاده از این پارامترها شبیه سازی کنم؟ من انحراف معیار ندارم. چگونه می توانم مقادیر تصادفی (مثلاً 1000 عدد از آنها) را به دست بیاورم که با این پارامترها مطابقت دارند؟ (مانند استفاده از تابع rnorm هنگام داشتن انحرافات استاندارد به جز $95\%CLs$)
چگونه می توانم توزیع نرمال را از میانگین و حدود اطمینان 95% شبیه سازی کنم؟
89608
من یک مدل دارم که برای آن از هر نفر 10 مشاهده جمع آوری کردم، در کل 25 نفر، سپس 250 مشاهده. خب، این بخشی از خلاصه مدل من است، > summary(m) فراخوانی: lm(فرمول = fmla، داده = mydata) باقیمانده ها: Min 1Q Median 3Q Max -9.3311 -3.8480 -0.3134 3.3273 13.4413 5.24 خطای استاندارد باقیمانده: 216 درجه آزادی چندگانه R-squared: 0.7702، R-squared تعدیل شده: 0.7351 F-آمار: 21.94 در 33 و 216 DF، p-value: < 2.2e-16 با نگاه کردن به این نتایج ممکن است به نظر برسد که مدل بسیار قابل توجه است، اما وقتی من نمودار را ترسیم می کنم Residuals vs Fitted من این طرح را دریافت می کنم، ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/JyyIc.png) که به من نشان می دهد که یک الگو در طرح وجود دارد. به نظر من این حدود 10 مشاهده برای هر فرد است. آیا کسی می تواند به من در تجزیه و تحلیل این طرح کمک کند؟
تجزیه و تحلیل باقیمانده ها در مقابل برازش
27815
**مشکل:** > اگر رویداد $A$ با احتمال $p$ اتفاق بیفتد، احتمال $P[K=1]$> چقدر است که بعد از دو آزمایش مستقل، $A$ دقیقا یک بار اتفاق بیفتد؟ آیا پاسخ این است: * $P[K=1] = p(1-p)$، زیرا به $A$ نیاز داریم تا اتفاق بیفتد و سپس به $A$ _not_ نیاز داریم، یا * $P[K=1] = 2p(1-p) = p(1-p) + (1-p)p$، زیرا دو مورد $A\overline{A}$ و $\overline{A}A$ وجود دارد که برای آنها $A$ اتفاق می افتد دقیقا یک بار؟
احتمال وقوع یک رویداد دقیقاً یک بار پس از دو آزمایش مستقل چقدر است؟
89604
من در حال نوشتن پایان نامه کارشناسی ارشد اقتصاد سیاسی در رابطه با تأثیرات بحران یورو بر افزایش جدایی طلبی در اسپانیا (مثلاً استقلال کاتالان) هستم. ایده این است که نشان داده شود که بحران به عنوان یک شوک بیرونی عمل کرده و باعث افزایش ناگهانی جدایی طلبی شده است. آیا رگرسیون ناپیوستگی روش صحیحی برای اثبات این موضوع است و اگر چنین است، لطفاً چگونه کار می کند؟ متغیرهایی که من در نظر داشتم استفاده کنم زمان در مقابل جدایی طلبی، بیکاری در مقابل جدایی طلبی، رشد تولید ناخالص داخلی در مقابل جدایی طلبی و غیره است. آیا می توان این کار را در SPSS انجام داد؟ توجه داشته باشید: من با آمار زیاد تجربه ندارم.
رگرسیون ناپیوستگی
30405
من می خواهم دقت هر مسیر را در درخت تصمیم در Matlab بدانم. من می‌توانم یک درخت تصمیم در Matlab بسازم: ctree = ClassificationTree.fit(X,Y) که در آن «X» ماتریسی از نمونه‌ها است (ردیف‌ها مشاهدات هستند، ستون‌ها متغیر هستند)، و «Y» متغیر پاسخ است. در اینجا یک مثال از یک درخت خروجی ساده آورده شده است: ![مثال ساده](https://lh5.googleusercontent.com/-Dij9WpLXnAc/T9jlc1rli7I/AAAAAAAALjg/Lb6Kq_90UVs/s800/simple_tree.png سه مسیر متفاوت دارد، درخت فوق دارای سه مسیر متفاوت است. : 1. (x1 < 0.5) => کلاس 0 2. (x1 >= 0.5) و (x2 < 0.5) => کلاس 0 3. (x1 >= 0.5) و (x2 >= 0.5) => کلاس 1 اکنون می خواهم دقت/اطمینان هر مسیر را بدست آورید. آیا راهی برای انجام آن وجود دارد؟ برای مثال، من می‌خواهم بدانم چند نمونه به عنوان «0» طبقه‌بندی شده‌اند **در مسیر اول** و در واقع کلاس 0 هستند (من می‌توانم همان مجموعه آموزشی «X»، «Y» را برای آن ارائه کنم. از تابع 'resubLoss' استفاده کنید: resuberror = resubLoss(ctree) من با ارسال مجدد همان مجموعه آموزشی، دقت کلی را دریافت خواهم کرد. من گیج شده ام که چرا نتوانستم چیزی را که به دنبالش هستم پیدا کنم، به نظر می رسد که بسیار مفید/مهم است.
دقت هر مسیر در درخت تصمیم در Matlab
38635
برای مجموعه ای معین از داده ها، پراکندگی اغلب به عنوان انحراف استاندارد یا به عنوان IQR (محدوده بین چارکی) محاسبه می شود. در حالی که یک انحراف استاندارد نرمال شده است (نمرات z و غیره) و بنابراین می توان از آن برای مقایسه گسترش از دو جمعیت مختلف استفاده کرد، این مورد در مورد IQR نیست زیرا نمونه های دو جمعیت مختلف می توانند مقادیر دو را داشته باشند. مقیاس های کاملا متفاوت، به عنوان مثال پاپ A: 100، 67، 89، 75، 120، ... پاپ B: 19، 22، 43، 8، 12، ... آنچه من در پی آن هستم یک معیار قوی (غیر پارامتریک) است که می توانم از آن استفاده کنم. برای مقایسه تنوع در جمعیت های مختلف انتخاب 1: «IQR / Median» \-- این به قیاس ضریب تغییرات است، یعنی $ \frac{\sigma}{\mu}$. انتخاب 2: محدوده / IQR سوال: کدام معیار معنادارتر برای مقایسه تنوع بین جمعیت است؟ و اگر انتخاب 1 است، آیا انتخاب 2 برای هر چیزی مفید است / معنی دار است یا اساساً معیاری ناقص است؟
نسبت دامنه به IQR در مقابل ضریب تغییرات -- کدام معیار قوی تر است؟
112050
جنگل‌های تصادفی از نظر تئوری با این فرض تأمین می‌شوند که داده‌ها i.i.d هستند. تحقق از یک بردار تصادفی چند متغیره $(X_1، \ldots، X_p، Y)$. آیا استفاده از جنگل‌های تصادفی (برای پیش‌بینی و انتخاب ویژگی بر اساس اهمیت متغیر) زمانی که متغیرهای پیش‌بین i.i.d نیستند، منطقی است؟ از یک بردار چند متغیره $(X_1، \ldots، X_p)$ ? به عنوان مثال وقتی در برخی از متغیرهای کمکی روند وجود دارد یا زمانی که متغیرهای کمکی در طول آزمایش کنترل می شوند (یک طرح ثابت)؟ بدیهی است که در نظر گرفتن اهمیت متغیر به عنوان تخمینی از اهمیت متغیر جمعیت در چنین شرایطی منطقی نیست. اما آیا می توانیم در نظر بگیریم که با این وجود، اهمیت متغیرها مرتبط هستند؟
با در نظر گرفتن غیر i.i.d. متغیرهای کمکی در جنگل های تصادفی
40779
من سعی می کنم یک مدل خطی را روی برخی از داده ها فقط با یک پیش بینی (مثلا (x,y)) برازش دهم. داده ها به گونه ای است که برای مقادیر کوچک x، مقادیر y به یک خط مستقیم تناسب محکمی می دهند، اما با افزایش مقادیر x، مقادیر y فرارتر می شوند. در اینجا نمونه ای از چنین داده هایی (کد R) y = c(3.2،3.4،3.5،3.8،4.2،5.5،4.5،6.8،7.4،5.9) x = seq(1،10،1) کنجکاو هستم که می دانم که آیا تغییر قدرتی وجود دارد (شاید باکس کوکس؟) که به من امکان می دهد برای داده ها تناسب بهتری نسبت به انجام یک برازش خطی به شکل زیر داشته باشم. fit = lm(y ~ x) با تشکر
جعبه کاکس برای رگرسیون تبدیل می شود
108589
من می خواهم در طراحی درون موضوعی، پراکندگی دو شرط را با هم مقایسه کنم. در ابتدا به این فکر کردم که انحراف معیار را بر حسب فرد و شرایط محاسبه کنم و یک تست $t$ جفتی را بر روی این مقادیر برای مقایسه شرایط محاسبه کنم. با این حال، من در مورد اعتبار این روش مطمئن نیستم، بنابراین می‌خواهم بدانم که در سطح فردی چه معیاری را انجام می‌دهید، و کدام آزمون را در سطح گروهی روی آن اجرا می‌کنید.
معادل آزمون t$-تست زوجی برای پراکندگی
89602
می دانم که سوال من برای این سایت کاملاً ساده است اما به هر حال می پرسم. من نمی دانم که آیا هر چه گروه کوچکتر باشد، نتایج درصد غیرقابل اعتمادتر می شود (من به نمونه ای از گروه اشاره نمی کنم بلکه کل گروه را زیر سوال می برم). اگر بله، آیا راهی برای تعیین آن وجود دارد؟ به عنوان مثال، 5 درصد از 30 نفری که تماس فروش مستقیم دریافت کرده اند، تلفن را قطع می کنند. آیا این بدان معناست که انتظار می رود 5 درصد از 8 نفری که تماس گرفته اند، تلفن را قطع کنند؟ یا اینکه هر چه عدد کوچکتر باشد که سوال اصلی من است، درصد غیر قابل اعتماد است؟ امیدوارم این موضوع به اندازه کافی واضح بوده باشد. خیلی ممنون
آیا می توان درصدی را با یک گروه کوچک به طور قابل اعتماد تخمین زد؟
83464
من از جاوا استفاده می کنم و تعدادی عکس PNG دارم. من میخواهم روی عکسهایم کپشن بگذارم. با این حال من می خواهم که: اگر یک تصویر روشن است، می خواهم یک متن سیاه روی تصویر قرار دهم و اگر تصویری تیره است، می خواهم یک متن سفید روی آن قرار دهم. چگونه می توانم روشن یا تاریک بودن تصویر را تشخیص دهم. این باید یک الگوریتم سریع باشد و سرعت کمی مهمتر از دقت است.
تشخیص تصویر روشن است یا تاریک؟
113322
من متوجه شده‌ام که اگر بین متغیرهای پنهانی که در مدل نیستند برهمکنش‌هایی وجود داشته باشد، تخمین‌های واریانس در مقایسه با قدرت پیش‌بینی خود مدل به شدت افزایش می‌یابد، و من سعی می‌کنم دلیل این امر را بفهمم. در اینجا یک مثال توضیحی آورده شده است: library(lme4) library(lmerTest) x1 <- sample(c(0,1),1000,replace=T) x2 <- sample(c(0,1),1000,replace=T) y <- x1*x2 + rnorm(1000,sd=0.1) اکنون lmer را اجرا می کنم > lmer(y~0+(1|x1)) مدل مختلط خطی متناسب با حداکثر احتمال ['merModLmerTest'] فرمول: y ~ 0 + (1 | x1) AIC BIC logLik انحراف df.resid 825.2395 835.0550 835.0550 -4889.599. : نام گروه ها Std.Dev. x1 (تقاطع) 0.3731 باقیمانده 0.3626 تعداد obs: 1000، گروه ها: x1، 2 بدون ضرایب اثر ثابت بنابراین مدل می گوید که x1 تقریباً 50٪ از مولفه های واریانس را توضیح می دهد > my_model <- lmer(y~0+(1|x1) )) > var_expl <- as.data.frame(VarCorr(my_model)) > var_expl <- (var_expl[var_expl$grp == 'x1',4])/(var_expl[var_expl$grp == 'x1',4]+sum(var_expl[ var_expl$grp != 'x1',4])) > var_expl [1] 0.5143418 با این حال، مدل ساخته شده با استفاده از x1 تنها 35% واریانس خطی دارد که در واقعیت توضیح داده شده است > cor(predict(my_model,as.data.frame(x1)),y)^2 [1] 0.3464968 بنابراین اگر بخواهم این را به این صورت تفسیر کنم یک آزمایش، می‌توانم بگویم که یک مخدوش مخفی x2 وجود دارد که مستقیماً بر نتایج x1 تأثیر می‌گذارد... اما من می‌دانم که x1 و x2 همبستگی ندارند. باز هم، تلاش برای تفسیر عملی این - یک عامل پنهان وجود دارد که اگر آزمایش را انجام دهم، اما به آن توجه نکرده باشم، به طور تصادفی اتفاق می افتد. (توجه داشته باشید، افزودن یک افکت اصلی به x1 و یک عبارت تعامل نتایج بسیار قابل مقایسه ای به دست می دهد) آیا این بدان معناست که تفسیر ضرایب واریانس در یک مورد با مخدوش های پنهان اصلاً در مورد قدرت پیش بینی x1 در این مورد به عنوان یک متغیر؟ می‌خواهم بدانم آیا راهی برای تصحیح چنین عوامل پنهانی وجود دارد و چه زمانی خوب است که مؤلفه‌های واریانس را به‌عنوان درصد واریانس توضیح داده شده تفسیر کنیم (با فرض اینکه فقط یک متغیر برای بررسی دارم، اما عوامل مخدوش‌کننده بالقوه که ممکن است نتوانم). به صراحت بدانیم)
مدل‌های اثر مختلط: چرا مولفه‌های واریانس با قدرت پیش‌بینی در حضور برهمکنش‌های پنهان ناسازگار هستند؟
30404
من دو متغیر وابسته ترتیبی دارم که هر کدام سه سطح پاسخ دارند. اگر یک متغیر وابسته دارید، می‌توانید از یک مدل لاجیت یا پروبیت مرتب برای چنین داده‌هایی استفاده کنید. من مقالاتی در مورد رگرسیون مرتب چند متغیره دیده‌ام و نمی‌دانم که آیا توابع از پیش بسته‌بندی‌شده‌ای در هر یک از محیط‌های نرم‌افزار آمار معمول برای انجام این کار وجود دارد. من به R و Stata مسلط هستم. متشکرم.
لاجیت یا پروبیت سفارشی چند متغیره
89600
من جمعیتی از موجودات مرتبط با دسته های مختلف دارم، مثلاً آبی 50000 قرمز 300 سبز 80 زرد 10 صورتی 6 نارنجی 3 سفید 2 توزیع با تعداد دقیق مشخص است. بسیار همگن است، یعنی اگر ${p_1,...,p_k}$ نشان دهنده احتمالات برای هر دسته باشد، آنگاه $max_i(p_i)\geq0.95$. اکنون می‌خواهم اندازه نمونه را انتخاب کنم، به‌گونه‌ای که تعداد مورد انتظار دسته‌های $N_k$ موجود در نمونه $n_k$ باشد، یعنی تعداد مورد انتظار دسته‌هایی که تعداد آنها بزرگتر از صفر است $n_k$ باشد. چگونه با توجه به یک بردار تعداد همانطور که در بالا نشان داده شده است و $n_k$، اندازه نمونه را انتخاب کنم؟
چگونه می توانم از یک توزیع چندجمله ای با تعداد مورد انتظار ثابت از دسته های باقی مانده نمونه برداری کنم؟