_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
90327
من افراد $N$ را دارم که هر کدام برای $T$ روز مشاهده شده اند. برای هر فرد من برخی از داده های جمعیت شناختی اولیه دارم. هر $n$ فردی، در طول زمان مشاهده شده $T_n$ ممکن است رویداد $E$ را تجربه کند که به عنوان مدت زمان E در هر یک از روزهای مشاهده شده ثبت می شود. به عنوان مثال برای یک $n$ فرد معین، من $D_1n,D_2n,D_3n$ دارم که برای کل زمان مشاهده شده معتبر هستند، به اضافه بردار مدت زمان رویدادهای $E$ در هر روز مشاهده شده به شرح زیر: مدت زمان رویداد روز (دقیقه ) 1 0 2 10 3 50 ... هیچ فرض توزیعی را نمی توان برای مدت زمان $E$ در نظر گرفت، چه در سطح بیمار و چه در سطح جمعیت مدل پیش‌بینی مدت زمان رویداد را می‌توان برای هر فرد و به طور کلی برای جمعیت ایجاد کرد. برای تمام زمان‌های گذشته و آینده معتبر هستند)، با چه اطمینانی می‌توانیم پیش‌بینی کنیم که هر فرد در روزهای X آینده چه چیزی را تجربه خواهد کرد تاکنون تحقیق کرده‌ام که این مسئله بیشتر مربوط به اقتصاد سنجی است. با تشکر فراوان.
کدام روش برای پیش بینی سری های زمانی مدت زمان رویداد
52453
من روی سیستمی کار می کنم که بتواند کانتور دست را تشخیص دهد. بنابراین من 270 نمونه در مجموعه داده خود دارم: 7 کلاس کانتور دست، 8 بردار ویژگی از هر نمونه. در ابتدا، من از Weka برای تعیین بهترین طبقه‌بندی کننده برای مجموعه داده من استفاده کردم. و من طبقه بندی رگرسیون لجستیک را پیدا کردم. اما، مشکل این است که من نمی دانم طبقه بندی کننده رگرسیون لجستیک چگونه کار می کند؟ یا عقیده (ایده) اصلی طبقه بندی کننده رگرسیون لجستیک چیست؟ خیلی وقته تو گوگل سرچ میکنم ولی هنوز جوابشو پیدا نکردم. این چیزی است که من دریافتم که باید مفید باشد: 1 1992-JSTOR-Cessie-Logistic_Regression [2] [فصل 4 رگرسیون لجستیک به عنوان یک طبقه‌بندی]1 پیشاپیش متشکرم!
چگونه طبقه بندی کننده رگرسیون لجستیک مجموعه داده را مدل سازی می کند؟
99325
من در حال کار بر روی یک متاآنالیز میانگین یک متغیر منفرد هستم (با استفاده از میانگین حسابی به عنوان اندازه اثر، به جای رابطه بین دو متغیر). نگرشی که من ارزیابی می کنم با ده ها معیار مختلف سنجیده شده است که مقیاس های رتبه بندی متفاوتی دارند. من از معادله زیر برای تبدیل امتیازها بین دو معیار مختلف استفاده می‌کنم تا آنها را روی یک متریک قرار دهیم: $$X_2 = \frac{(X_1 - \min_1)(\max_2 - \min_2)}{\max_1 - \min_1} +\min_2$$ جایی که $X_2$ = امتیاز در معیار دوم. $X_1$ = امتیاز در اولین معیاری که می خواهم تغییر دهم. $\min_1$ و $\max_1$ = کمترین و بالاترین امتیاز ممکن در معیار 1. و $\min_2$ و $\max_2$ = کمترین و بالاترین امتیاز ممکن در معیار 2. (Card, N., _Applied Meta-Analysis for Social Science Research_, 2011, pg. 148). فرض کنید هر دو معیاری که می‌خواهم مقایسه کنم، ساختار یکسانی را ارزیابی می‌کنند. می‌دانم که اگر این دو معیار مقیاس رتبه‌بندی یکسانی داشته باشند، می‌توانم از آن استفاده کنم (۱ تا ۵، کاملاً موافقم کاملاً مخالفم). سوالات من این است: 1. در مورد دو معیار که تعداد گزینه های پاسخ یکسانی دارند، اما عبارت اندکی متفاوت هستند، چطور؟ به عنوان مثال، هر دو مقیاس 5 امتیازی هستند، اما اندازه 1 عبارت است از: > 1 = کاملاً مخالف، 2 = مخالف، 3 = خنثی، 4 = موافق، 5 = کاملا > موافق، در حالی که اندازه 2 این است: > 1 = کاملاً مخالف، 2 = تا یک نقطه مخالفم، 3 = خنثی، 4 = موافق > تا یک نقطه، > 5 = کاملاً موافقم چقدر مهم است که آنها دقیقاً عبارت یکسانی داشته باشند؟ (من تمایل دارم که فکر کنم اینها تقریباً یکسان هستند و می توانند با هم ترکیب شوند). 2. در مورد اقدامات با تعداد پاسخ های مختلف چطور؟ به عنوان مثال: اندازه 1 مانند مثال بالا است، اما اندازه 2 دارای یک مقیاس رتبه بندی 1-7 است که تنها با لنگرهای نقطه پایانی کاملاً مخالفم/کاملاً موافقم، اندازه گیری 3 دارای یک مقیاس رتبه بندی 1-6 است: > 1 = کاملاً مخالف، 2 = نسبتاً مخالف، 3 = کمی مخالف، 4 = > کمی موافق، 5 = نسبتاً موافق، 6 = کاملاً موافقم و اندازه 4 دارای یک مقیاس رتبه بندی 1 تا 7 از: > 1 = کاملاً موافق، 2 = موافق، 3 = کمی موافق، 4 = خنثی، 5 = کمی > مخالف، 6 = مخالف، 7 = کاملاً مخالف تبدیل مقیاس های 5 و 7 امتیازی کمتر مشکل به نظر می رسد. از تبدیل بین 5 و 6، زیرا نقطه میانی خنثی را از دست می دهید. با این حال، من از هر گونه توصیه ای در این مورد استقبال می کنم، زیرا روش های من را در حال حرکت رو به جلو آگاه می کند. متشکرم!
تغییر نمرات بین مقیاس های مختلف رتبه بندی - اهمیت گزینه های پاسخ
64638
من سعی می کنم تعداد شرکت هایی را که با استفاده از داده های تابلویی وارد بازارهای خاصی می شوند، تخمین بزنم. برای انجام این کار، من یک رگرسیون پروبیت مرتب در «Stata» با استفاده از بسته «gllamm» اجرا کردم. تعداد شرکت‌ها از 0 به 5 می‌رود. دستور به شرح زیر است (که در آن «id» = یک بازار ثابت است): «gllamm NCompanies مستقل_متغیرها، i(id) link(oprobit)». نقاط برش یک متغیر نهفته و تأثیری که هر متغیر مستقل بر متغیر پنهان دارد. تا اینجا که برای من خوب بود، وقتی سعی کردم اثرات حاشیه ای را با استفاده از دستورات 'mfx' یا 'margins' تخمین بزنم، با مشکل مواجه شدم. وقتی «mfx, dydx» را تایپ می‌کنم، دقیقاً همان نتایجی را می‌گیرم که با «gllamm» (؟!) منهای نقاط برش نشان داده می‌شود. بنابراین، نمی‌دانم که «gllamm» قبلاً تأثیرات حاشیه‌ای را نشان می‌داد یا تأثیر را روی متغیر پنهان نشان می‌داد... اگر «mfx, eydx» را تایپ کنم، نتیجه با «mfx» قبلی متفاوت است. - بنابراین، من تمایل دارم بر این باورم که این یک اشکال در دستور mfx نبود، بلکه gllamm قبلاً اثرات حاشیه ای را ایجاد می کرد. برای بررسی این موضوع، من دستور «حاشیه‌ها» را امتحان کردم: «حاشیه‌ها، atmeans استمرار»، این پاسخ کاملاً متفاوت از موارد قبلی است - و دستور «حاشیه‌ها، atmeans dydx(مغیرهای_مستقل) مداوم» همگرا نمی‌شود. آیا کسی پاسخ سوالات زیر را می داند؟ 1. آیا گلام در مورد فوق اثرات حاشیه ای را ارائه می دهد؟ 2. اگر بخواهم اثرات حاشیه ای هر متغیر مستقل را محاسبه کنم (همه پیوسته هستند) آیا از دستور حاشیه به روش اشتباه استفاده می کنم؟ اگر چنین است، در عوض چه کاری باید انجام دهم؟
دریافت افکت های حاشیه ای پس از رگرسیون oprobit پانل در Stata (با استفاده از بسته gllamm)
54851
بیایید بگوییم که پیچیدگی اگر فردی در مقیاس ترتیبی به صورت : 1 = ساده 2 = متوسط ​​3 = پیچیده 4 = بسیار پیچیده رتبه بندی شود، چگونه می توانم میانگین پیچیدگی را با گرفتن از 100 پاسخ دهنده نشان دهم؟ با تشکر
متوسط ​​در پیچیدگی
63010
من می خواهم ضرایب دو رگرسیون خطی را مقایسه کنم: $$ \begin{array}{c} y_{ij} &=& \beta_0 + \beta_1 X_{j} + u_{ij} \\\ y_{j} &=& \alpha_0 + \alpha_1 X_{j} + u_{j} \\\ y_{j} &=& \frac{1}{N_j} \sum_{i=1} ^ {N_j} y_{ij} \end{آرایه} $$ به طوری که معادله دوم فقط با استفاده از میانگین گروه $j$ به جای مشاهدات فردی $y_{ij}$ متفاوت است متغیر وابسته آیا راه آسانی برای نشان دادن اینکه $\hat{\beta}_1 = \hat{\alpha}_1$ وجود دارد، جایی که کلاه نشان دهنده تخمین OLS است؟
معادل سازی ضریب شیب در یک رگرسیون با استفاده از داده های فردی و کل
99497
من باید یک مقدار را اندازه گیری کنم. برای انجام این کار، من فقط نمونه هایی با مقدار مشخص و یک ابزار اندازه گیری دارم که می تواند بگوید نمونه بزرگتر یا کوچکتر از مقدار مورد نظر است. وقتی اندازه‌گیری کامل شد، دو مجموعه دارم: یکی حاوی مقادیر کوچک‌تر و دیگری حاوی مقادیر بزرگ‌تر. برای مثال، با مجموعه‌های [-5,-3,-5,-1,-2,-3] و [1,4,3,2,5,3] می‌توانم فرض کنم که مقدار احتمال بالایی دارد بین -1 و 1 باشد. اما با دو مجموعه [-5,2,-3,1,-2,-6,-4] و [7,3,-1,2] کمتر مشخص است. از کدام ابزارها می توانم برای یافتن محدوده یا مقدار و درجه اطمینان آن استفاده کنم؟ با تشکر از شما ویرایش: از آنجایی که سوال من به خوبی فرمول بندی نشده بود، در اینجا نحوه جمع آوری داده ها آمده است: صدای مرجع با فرکانس ناشناخته وجود دارد. سپس به افراد صداهایی از فرکانس های دیگر داده می شود و آنها باید بگویند که آیا صدا بیشتر است یا کمتر. بنابراین دو مجموعه. با داده‌های جمع‌آوری‌شده، باید فرکانس ناشناخته را پیدا کنم و اینکه چقدر می‌توانم به نتیجه اعتماد کنم.
ارزش بین مجموعه بزرگتر و کوچکتر
12373
بنابراین سوال من این است که سایت های پرسش و پاسخ خوبی را در مورد یادگیری ماشین، NLP یا داده کاوی توصیه کنید. من فکر می کنم بچه های اینجا ممکن است اغلب به این سایت های مرتبط بروند.
سایت‌های پرسش و پاسخ برای یادگیری ماشین و NLP
91914
اگر $\mu$ یک اندازه گیری احتمال است، $$\left\| f \right\|_{\infty} = \lim_{p \rightarrow \infty} \left\| f \right\|_{p}$$ جایی که $\چپ\| f \right\|_{p} = \left( \int f^p d\mu\right) ^{1/p}$ and $\left\| f \right\|_{\infty}$ برتری اساسی $f$ نسبت به $\mu$ است. آیا کسی آنقدر مهربان است که راه هایی برای اثبات این موضوع پیشنهاد کند؟
چگونه حد هنجارهای $L_p$ را محاسبه کنیم؟
54854
بنابراین اساساً من از فایل wine.dta استفاده می کنم و طیفی از متغیرهای ساختگی برای 6 منطقه دارم. من 1 منطقه را حذف کردم (پسرفت روی 5 متغیر ساختگی) اما به دلایلی _Stata_ می گوید هنوز مشکل هم خطی وجود دارد و فقط 4 ضریب را می دهد... چرا هنوز یک مشکل همخطی وجود دارد در حالی که من قبلاً یکی را برداشته ام. از متغیرهای ساختگی برای جلوگیری از تله متغیر ساختگی.
دام متغیر ساختگی در Stata
63012
من از ICA با ارزش پیچیده برای استخراج منابع داده های حسگر با ارزش پیچیده استفاده می کنم. یکی از سه ابهام برای ICA پیچیده، ابهام فاز است، یعنی چرخش فاز $\exp(i\theta_k)$ از منابع $s_k$ (علاوه بر ابهامات جایگشت و مقیاس بندی، مانند ICA واقعی). با این حال، مدل ICA خطی مختلط $\bf{z}=A\cdot \bf{s}$ از شکل کلی شروع می‌شود که هر سه کمیت $\bf{z},A,\bf{s}$ پیچیده هستند، بنابراین شایستگی این فرض برای $\bf{s}$ از من دوری می‌کند. آیا معنایی وجود دارد که بتوان به فازهای $s_k$ داد یا اینکه $|s_k|$ همه چیزی است که می توان گزارش داد؟
اهمیت یک فاز منبع در یک ICA پیچیده
79697
آیا می توانم از یک مقایسه متعارف با داده های غیر پارامتری استفاده کنم؟ در مورد استفاده از آزمون تعقیبی با داده های غیر پارامتریک من چطور؟ من تعداد اشیاء درون یک هسته را می شمارم و بر اساس موقعیت من، داده ها باید از توزیع پواسون پیروی کنند. این فرض با آزمون نرمال بودن تایید می شود.
استفاده از مقایسه متعامد برای داده های غیر پارامتری
64399
مشکلی که من در اینجا با آن برخورد می کنم این است: مجموعه ای از 4 نقطه در دو بعدی وجود دارد، و من باید یک منحنی صاف را در فضای دوبعدی ترسیم کنم که از این نقاط عبور کند. آیا بسته ای در R برای انجام این کار وجود دارد؟
رسم منحنی های دو بعدی صاف با اسپلاین دو بعدی در R
12378
من آخرین کد GPML Matlab کد GPML Matlab را دانلود کرده ام و مستندات را خوانده ام و دمو رگرسیون را بدون هیچ مشکلی اجرا کرده ام. با این حال، من در درک نحوه اعمال آن در یک مشکل رگرسیونی که با آن مواجه هستم مشکل دارم. مسئله رگرسیون به صورت زیر تعریف می شود: * * * اجازه دهید $\mathbf{x}_i \in \mathbb{R}^{20}$ یک بردار ورودی باشد و $\mathbf{y}_i \in \mathbb{R} ^{25}$ هدف مربوطه آن باشد. مجموعه ورودی‌های $M$ در یک ماتریس $\mathbf{X} = [\mathbf{x}_1, \dots, \mathbf{x}_M]^\top$ مرتب شده‌اند و اهداف مربوطه آنها در یک ماتریس ذخیره می‌شوند. $\mathbf{Y} = [\mathbf{y}_1 - \mathbf{\bar{y}}، \dots, \mathbf{y}_M-\mathbf{\bar{y}}]^\top$، با $\mathbf{\bar{y}}$ که میانگین مقدار هدف در $\mathbf{Y}$ است. من می خواهم یک مدل GPR $\mathcal{G} = \lbrace \mathbf{X}, \mathbf{Y}, \theta \rbrace$ را با استفاده از تابع نمایی مربعی آموزش دهم: $k(\mathbf{x}_i, \ mathbf{x}_j) = \alpha^2 \text{exp} \left( - \frac{1}{2\beta^2}(\mathbf{x}_i - \mathbf{x}_j)^2\right) + \gamma^2\delta_{ij}$، جایی که $\delta_{ij }$ برابر $1$ است اگر $i = j$ و $0$ در غیر این صورت. فراپارامترها $\theta = (\alpha، \beta، \gamma)$ هستند که $\gamma$ سطح نویز فرضی در داده‌های آموزشی است و $\beta$ مقیاس طول است. برای آموزش مدل، باید احتمال حاشیه ای ورود به سیستم منفی را با توجه به فراپارامترها به حداقل برسانم: $-\text{log}\, p(\mathbf{Y} \mid \mathbf{X}, \theta) = \frac {1}{2} \text{tr}(\mathbf{Y}^\top\mathbf{K}^{-1}\mathbf{Y}) + \frac{1}{2}\text{log}\mid\mathbf{K}\mid + \,c,$ که در آن c یک ثابت است و ماتریس $\mathbf{K}$ تابعی از فراپارامترها است ( معادله k(xi,xj) = ...) را ببینید. * * * بر اساس نسخه آزمایشی ارائه شده در وب سایت GPML، تلاش من برای پیاده سازی این با استفاده از کد GPML Matlab در زیر آمده است. covfunc = @covSEiso; likfunc = @likGauss; sn = 0.1; hyp.lik = log(sn); hyp2.cov = [0;0]; hyp2.lik = log(0.1); hyp2 = به حداقل رساندن(hyp2، @gp، -100، @infExact، []، covfunc، likfunc، X1، Y1(:، n)); exp(hyp2.lik) nlml2 = gp(hyp2، @infExact، []، covfunc، likfunc، X1، Y1(:، n)); [m s2] = gp(hyp2، @infExact، []، covfunc، likfunc، X1، Y1(:، n)، X2); Y2r(:، n) = m; X1 شامل ورودی های آموزشی است X2 حاوی ورودی های آزمون است Y1 شامل اهداف آموزشی است Y2r تخمین های حاصل از اعمال مدل n شاخصی است که برای رگرسیون هر عنصر در بردار خروجی استفاده می شود با توجه به مشکل، آیا این روش صحیح آموزش و اعمال است. مدل GPR؟ اگر نه، چه چیزی را باید تغییر دهم؟
چگونه از کد GPML Matlab برای یک مشکل واقعی (غیر نمایشی) به درستی استفاده کنیم؟
46294
**ویرایش: جزئیات بیشتری به دنبال نظرات @kjetil اضافه شد ** من مشکل زیر را دارم: * من یک جریان از رویدادهای نوع A را نظارت می کنم - آن رویدادها را می توان آنی در نظر گرفت. * من همچنین جریان های اضافی از رویدادها را از انواع B1، B2،... Bn نظارت می کنم - این رویدادها یک بازه زمانی مرتبط با آنها دارند. * من می خواهم تعیین کنم که آیا فرکانس رویدادهای نوع A در طول هر نوع خاص B به طور قابل توجهی افزایش می یابد (به عبارت دیگر، می خواهم دقیقاً تعیین کنم که کدام نوع B در فواصل زمانی رویدادهای خود تأثیر مثبت قابل توجهی دارند) * بسیاری از موارد مشابه نوع رویداد می تواند به طور همزمان رخ دهد * این اثر احتمالاً در تعداد رویدادهای همزمان از نوع B خاص خطی است * احتمالاً بسیاری از انواع B وجود دارند که روی رویدادهای A تأثیر نمی گذارند * انواع B از رویدادها لزوماً تنها چیزی نیستند که بر روی رویدادهای نوع A تأثیر می گذارند * همه رویدادها احتمالاً دارای توزیع پیچیده ای هستند که بسته به روز / ساعت / هفته / ماه / رویدادهای قبلی تغییر می کند - نه یک پواسون ساده * من _مداوم_ همه جریان ها را زیر نظر دارم - می خواهم کشف کنید که چه زمانی یک نوع B شروع به تأثیرگذاری بر فرکانس رویداد A می کند و من همچنین می خواهم بدانم که آیا در نقطه ای در آینده تأثیر آن متوقف شده است (و این باید به طور نامحدود ادامه یابد) به عنوان مثال: * رویدادهای نوع A قطع برق هستند * رویدادهای نوع B1 مربوط به باز و بسته شدن تهویه مطبوع است. * رویدادهای نوع B2 مربوط به باز و بسته شدن تلویزیون است. آیا ایده ای دارید که چگونه باید با این مشکل برخورد کنم؟ (مرجع کلی خوب هستند) با تشکر!
چگونه می توانم تأثیراتی را که برخی رویدادها بر فراوانی رویدادهای دیگر در طول زمان می گذارند اندازه گیری کنم؟
9201
من یک اسکریپت نوشتم که داده ها را با استفاده از wilcox.test آزمایش می کند، اما زمانی که نتایج را دریافت کردم، همه مقادیر p برابر با 1 بودند. در برخی از وب سایت ها خواندم که می توانید قبل از آزمایش داده ها از jitter استفاده کنید (برای جلوگیری از پیوندها). همانطور که گفتند) من این کار را کردم و اکنون نتیجه قابل قبولی دارم. آیا این کار اشتباه است؟ test<- function(column,datacol){ library(ggplot2) t=read.table(data.txt, stringsAsFactors=FALSE) uni=unique(c(t$V9)) for (xp in uni) { for( yp in uni) { testx <- subset(t, V9==xp) testy <- subset(t, V9==yp) zz <- wilcox.test(testx[[datacol]],jitter(testy[[datacol]])) p.value <- zz$p.value } } } * * * این خروجی `dput(head(t ))` structure(list(V1 = c(0.268912, 0.314681, 0.347078, 0.286945، 0.39562، 0.282182)، V2 = c(0.158921، 0.210526، 0.262024، 0.322006، 0.133417، 0.283025، 0.283025، 0.283025، 0.283025، 6، 283025، V3 = 0.132547، 0.147361، 0.09174، 0.169093)، V4 = c(0.358085، 0.307898، 0.258352، 0.243688، 0.379268، 0.379224، 0.22-24، 0.2=c. 0.010895، 0.14655، 0.08152، 0.02116، 0.030083)، V6 = c(0.096408، -0.091896، -0.331229، -0.4426603، -0.4426603، -0.08 - 0.429, 0.08 - c(1.680946، 1.649559، 1.534401، 1.130529، 3.441356، 1.211815)، V8 = c(NC_000834، NC_000844، NC_000_00444، NC_000_045، NC_000_045، NC_000_045 NC_000860)، V9 = c(Chordata، Arthropoda، Chordata، Chordata، Arthropoda، Chordata)، V10 = c(???:???، Diplostraca ، ???:???، Rheiformes، Diptera، Salmoniformes)، V11 = c(???:???، Branchiopoda، Mammalia، Aves، Insecta، Actinopterygii))، .Names = c(V1، V2، V3، V4، V5، V6، V7، V8 , V9، V10، V11)، row.names = c(NA, 6L)، class = data.frame) داده ها بسیار بزرگ هستند، و این همان موضوعی است که من شروع کردم و آنها به من گفتند ممکن است انجام این کار اشتباه باشد **توجه** این سوال از tex.SE می آید: تولید خروجی PDFcontain R در جدول لاتکس
آیا لرزش قبل از انجام تست ویلکاکسون اشکال دارد؟
62941
می خواهم سوال قبلی ام را بازنویسی کنم. من ANOVA را برای 4 کلاستر اجرا می کنم تا بفهمم آیا تفاوتی بین این خوشه ها از نظر دلایل سفر وجود دارد. بعد از اینکه تست Levene را بررسی کردم، یکی از متغیرهای من دارای p-value کمتر از 0.05 بود، اما آن متغیر F(3324) = 6.35، p=0.000 برای ANOVA دارد. الان 2 تا سوال دارم : 1. وقتی تست لوین رد میشه ولی از طرفی تست ANOVA هم رد میشه یعنی تفاوت آماری داره آیا میشه این تحلیل ANOVA رو قبول کرد؟ 2. وقتی برای همه متغیرها از ANOVA استفاده می کنیم و برای همه آنها آزمون لون رد نمی شود، با توجه به این که تست لون یک متغیر رد می شود، آیا می توانیم فقط برای آن متغیر مشکل ساز از آزمون کروسکال والیس استفاده کنیم. یا نه؟ به عبارت دیگر، آیا این درست است که من فقط از آزمون Kruskal-Wallis برای یک متغیر استفاده می کنم؟
مشکل آزمون ANOVA و Levene (2)
46832
می‌خواهم کسی بتواند تفاوت بین دو ماتریس کوواریانس را توضیح دهد. فرض کنید ${\bf K}_X$ و ${\bf K}_Y$ دو ماتریس کوواریانس از بردارهای تصادفی واقعی هستند. تفاوت بین ${\bf K}_X+{\bf K}_Y$ و ${\bf K}_{X+Y}$ چیست؟
تفاوت بین مجموع دو ماتریس کوواریانس و ماتریس کوواریانس مجموع دو متغیر چیست؟
62946
من باید 2 تست اختلاف میانگین برای نتایج بدست آمده توسط 2 الگوریتم یادگیری انجام دهم. **تست 1** 1. من 2 الگوریتم دارم 2. یک مجموعه داده (با N مثال) می گیرم 3. هر دو الگوریتم را 10 بار اجرا می کنم 4. هر بار، هر الگوریتم روی مجموعه ای 9/10*N آموزش داده می شود. نمونه‌ها و با مجموعه‌ای از N/10 نمونه آزمایش شده است (یعنی اعتبارسنجی متقاطع 10 برابری انجام شده است)، و نتیجه XX٪ است. مقدار نمونه های طبقه بندی شده صحیح در چنین مجموعه آزمایشی. در اینجا من از آزمون t استفاده می کنم. من می دانم که آزمون t فرضیات نرمال بودن را ایجاد می کند. من از آن استفاده می کنم زیرا مجموعه داده ها بسیار بزرگ است (N> 100)، بنابراین می توانم توزیع نرمال داده ها را فرض کنم (و اگر داده ها به طور معمول توزیع شوند، میانگین های یک الگوریتم منفرد به طور معمول توزیع شده اند، و بنابراین تفاوت میانگین ها از دو الگوریتم به طور معمول توزیع شده است). یا باید فقط N/10 را به عنوان حجم نمونه در نظر بگیرم که میانگین ها از آن گرفته شده است؟ **تست 2** 1. من دو الگوریتم دارم 2. من 10 نمونه از یک مسئله بهینه سازی ترکیبی را می گیرم (مسئله فروشنده دوره گرد) 3. هر الگوریتم را روی 10 نمونه اجرا می کنم. 4. برای هر اجرا، نتیجه را یادداشت می کنم. مقدار (که در فاصله ای از مقدار بهینه برای آن مثال است) چگونه می توانم آزمایشی بر روی تفاوت میانگین ها انجام دهم؟ کدام وسیله را می توانم در نظر بگیرم؟ کدام داده ها را باید از نظر نرمال بودن بررسی کنم؟
تفاوت میانگین ها -- آزمایش دو الگوریتم
17264
من می‌خواهم تست KSS را اجرا کنم (KAPETANIOS, G. – SHIN, Y. – SNELL, A. 2003: Testing for UnitRoot in the Nonlinear STAR Framework) اما نمی‌دانم چگونه داده‌های تحقیر شده و داده‌های کاهش یافته را بدست بیاورم. آیا می توانید فرآیند STATA را برای من توضیح دهید؟
چگونه داده های کاهش یافته و داده های تحقیر شده را در Stata بدست آوریم؟
9208
می خواستم بدانم که آمار و تئوری تصمیم چگونه به هم مرتبط هستند؟ به نظر من تمام مشکلات/وظایف آماری را می توان در تئوری تصمیم فرمول بندی کرد. همچنین مشکلات در تئوری تصمیم را می توان به صورت مسائل آماری/احتمالی یا به روش قطعی فرموله کرد. بنابراین آیا آمار فقط بخشی از مسائل مورد مطالعه در نظریه تصمیم گیری است؟ یا فقط دو نظریه هستند که همپوشانی دارند و هیچ کدام به طور کامل در درون دیگری قرار نمی گیرند؟ اما باید اعتراف کنم که من تصویر کلی سیستماتیکی از موضوعاتی که نظریه آمار و تئوری تصمیم به ترتیب پوشش می‌دهند، ندارم و می‌خواهم برخی از دیدگاه‌های شما را در اینجا بیان کنم. با تشکر و احترام!
چه رابطه ای بین نظریه آمار و نظریه تصمیم وجود دارد؟
10289
در محل کار ما در مورد این موضوع بحث می کردیم زیرا رئیس من هرگز در مورد عادی سازی چیزی نشنیده بود. در جبر خطی، به نظر می رسد نرمالیزاسیون به تقسیم یک بردار بر طول آن اشاره دارد. و در آمار، به نظر می رسد استانداردسازی به تفریق میانگین و تقسیم بر SD آن اشاره دارد. اما به نظر می رسد آنها با سایر احتمالات نیز قابل تعویض هستند. هنگام ایجاد نوعی نمره جهانی، که 2 معیار مختلف را تشکیل می دهد، که دارای ابزارهای مختلف و SD های متفاوتی هستند، آیا عادی سازی، استانداردسازی یا چیز دیگری را انجام می دهید؟ یک نفر به من گفت که فقط باید هر متریک را در نظر گرفت و آنها را بر SD آنها به صورت جداگانه تقسیم کرد. سپس این دو را جمع کنید. و این منجر به یک امتیاز جهانی می شود که می تواند برای قضاوت در مورد هر دو معیار استفاده شود. به عنوان مثال، فرض کنید تعداد افرادی که با مترو به محل کار خود می روند (در نیویورک) و تعداد افرادی که با ماشین به محل کار خود می روند (در نیویورک) را دارید. قطار ---> x ماشین ---> y اگر می‌خواهید یک امتیاز جهانی برای گزارش سریع نوسانات ترافیک ایجاد کنید، نمی‌توانید فقط میانگین (x) و میانگین (y) را اضافه کنید زیرا افراد بسیار بیشتری خواهند بود که سوار قطار 8 میلیون نفر در نیویورک زندگی می کنند، به اضافه گردشگران. این یعنی میلیون‌ها نفر که هر روز سوار قطار می‌شوند در مقابل صدها هزار نفر در ماشین‌ها. بنابراین باید آنها را به مقیاسی مشابه تبدیل کرد تا با هم مقایسه شوند. اگر mean(x) = 8,000,000 و mean (y) = 800,000 آیا x & y را نرمال می کنید و سپس جمع می کنید؟ آیا x و y و سپس جمع را استاندارد می کنید؟ یا هر کدام را بر SD مربوطه تقسیم می کنید و سپس مجموع می کنید؟ برای اینکه به عددی برسیم که وقتی نوسان می کند، کل نوسانات ترافیک را نشان می دهد. هر مقاله یا فصلی از کتاب برای مرجع بسیار قدردانی می شود. با تشکر همچنین در اینجا یک مثال دیگر از آنچه من سعی در انجام آن دارم. تصور کنید که رئیس دانشگاه هستید و در حال بحث در مورد شرایط پذیرش هستید. شما ممکن است دانش آموزانی را بخواهید که حداقل معدل معدل و نمره آزمون مشخصی داشته باشند. خوب است اگر هر دو در یک مقیاس باشند، زیرا می‌توانید این دو را با هم جمع کنید و بگویید: هر کسی که حداقل 7.0 داشته باشد می‌تواند پذیرش شود. به این ترتیب، اگر یک دانش آموز آینده نگر معدل 4.0 داشته باشد، می تواند نمره آزمون 3.0 را پایین بیاورد و همچنان پذیرفته شود. برعکس، اگر فردی معدل 3.0 داشته باشد، باز هم می تواند با نمره آزمون 4.0 پذیرش شود. اما اینطور نیست. ACT در یک مقیاس 36 امتیازی است و اکثر معدل ها روی 4.0 هستند (بعضی از آنها 4.3 هستند، بله آزاردهنده). از آنجایی که من نمی توانم فقط یک ACT و GPA را برای دریافت نوعی نمره جهانی اضافه کنم، چگونه می توانم آنها را تغییر دهم تا بتوان آنها را اضافه کرد و در نتیجه یک نمره پذیرش جهانی ایجاد کرد. و سپس به‌عنوان رئیس، می‌توانم به‌طور خودکار هر کسی را که نمره‌ای بالاتر از یک آستانه مشخص داشته باشد، بپذیرم. یا حتی به طور خودکار همه افرادی را که امتیازشان در بالای 95 درصد است بپذیرد... این جور چیزها. آیا این عادی سازی خواهد بود؟ استاندارد سازی؟ یا فقط تقسیم هر کدام بر SD آنها و سپس جمع کردن؟
تفاوت بین Normalization و Standardization چیست؟
86389
من به دنبال این هستم که یک توزیع SNEP را به برخی از داده‌ها تطبیق دهم، اما مطمئن نیستم که چگونه این کار را انجام دهم - آیا کسی می‌تواند برای تخمین پارامترها و غیره مشتقاتی به من بدهد؟
برازش توزیع SNEP و برآورد پارامتر
46836
من مجموعه ای از عناصر $X$ را دارم که می توانم با توجه به ویژگی های $n$ توصیف کنم. بنابراین: $$x_i: \\{c_{i1}، c_{i2}، \ldots، c_{in}\\} \mid x_i \in X $$ که $c_{ij}$ ارزیابی (عددی) است برای عنصر $i$ با توجه به ویژگی های $j$. بنابراین عناصر من را می توان به عنوان نقاط در فضای بعد $n$ مشاهده کرد. با توجه به خوانش‌های من، الگوریتم‌هایی مانند «طبقه‌بند بیز» وجود دارد که می‌تواند پاسخ «بله» یا «خیر» را برای هر عنصری از مجموعه‌ام به من ارائه دهد، مشروط بر اینکه از «مجموعه آموزشی» متشکل از تعدادی استفاده کرده باشم. عناصر مجموعه من و نتیجه مورد انتظار الگوریتم. بر اساس آن داده‌ها، الگوریتم باید بتواند هر عنصر دیگری را بگیرد، نه بخشی از مجموعه آموزشی، و بر اساس آنچه که به لطف مجموعه آموزشی آموخته است، پاسخ بله یا خیر ارائه دهد. اگر تصوری از آنچه انتظار دارید (مجموعه تمرینی) داشته باشید، اما از قوانین خاصی که منجر به آن نتیجه می شود مطمئن نیستید، عالی است. کاری که من می‌خواهم با داده‌هایم انجام دهم این نیست که پاسخی از نوع «بله» یا «خیر» دریافت کنم، اما می‌خواهم رتبه‌بندی را در عناصر معرفی کنم. برخی از آنها بهتر از دیگران هستند. درست مانند فیلتر Bayes، من یک ایده کلی از آنچه که انتظار دارم، دارم. بنابراین می‌توانم یک «رتبه‌بندی آموزشی» ایجاد کنم که از زیرمجموعه‌ای از عناصرم گرفته شده و به MLA تغذیه می‌کنم. بر اساس آن آموزش، می تواند کل مجموعه من را رتبه بندی کند. برای انجام این کار، من دو رویکرد را می بینم: 1. به هر عنصر امتیازی توسط MLA داده می شود، سپس عناصر را بر اساس امتیاز رتبه بندی می کنند. 2. MLA می تواند دو عنصر $x_i$ و $x_j$ را بگیرد و تعیین کند که کدام یک بهتر است (مقایسه های زوجی). از مرتب سازی سریع با استفاده از آن عملیات مقایسه استفاده کنید. توجه: بر اساس یک امتیاز، پیاده سازی تابع زوجی بی اهمیت است، و بر اساس یک تابع زوجی، ایجاد یک امتیاز بی اهمیت است، بنابراین اینها فقط دو رویکرد برای رسیدن به نتایج یکسان هستند. آیا نمونه‌هایی از MLA وجود دارد که بتواند یک تابع امتیازدهی یا یک تابع مقایسه زوجی ارائه دهد؟ ویرایش: به منظور افزودن زمینه بیشتر: در حال حاضر آیتم‌های من بر اساس الگوریتمی رتبه‌بندی می‌شوند که با انجام محاسبات روی $c_{ij}$، برای هر مورد یک امتیاز (عدد واقعی) ایجاد می‌کند. در حالی که رتبه‌بندی ایجاد شده کاملاً صحیح است، اغلب مجبور می‌شوم الگوریتم را تغییر دهم تا به نحوی آن را تغییر دهم، زیرا می‌توانم برخی از موارد را به وضوح ببینم که مطابق با آنچه انتظار داشتم رتبه‌بندی نشده‌اند. بنابراین در حال حاضر فرآیند طراحی من به این صورت است: 1. ایده ای از رتبه بندی کامل داشته باشید. 2. سعی کنید (به صورت دستی) الگوریتمی استخراج کنید که موارد را مانند آن رتبه بندی کند. 3. نتایج را مشاهده کنید. 4. الگوریتم را تطبیق دهید بنابراین به این فکر کردم. MLA از آنجایی که نقطه شروع فرآیند من چیزی است که می تواند به عنوان داده آموزشی استفاده شود. من احتمالاً با گرفتن رتبه فعلی شروع می کنم، اقلام را بر اساس نیازهایم عوض می کنم و آن را تغذیه می کنم.
الگوریتم یادگیری ماشین برای رتبه بندی
54853
من مدتی است که در مورد این موضوع تحقیق می کنم و به دنبال نظرات یا نظراتی بودم. آیا شرایطی وجود دارد که تحلیل مسیر (شکلی از SEM) مناسب‌تر از یک SEM کامل باشد؟ به طور خاص، اگر معیارهای مورد استفاده استاندارد شده و اغلب بسیار طولانی است که یک مدل اندازه گیری را بسیار پیچیده می کند و متعاقباً افزایش پارامترهایی که باید تخمین زده شود، تقاضای بیشتری را برای اندازه نمونه ایجاد می کند، من از خود می پرسیدم که آیا استفاده از تحلیل مسیر به عنوان یک مصالحه قابل توجیه است؟ تمرکز بر روابط بین متغیرهای نهفته است که من درک می کنم که در تحلیل مسیر مشاهده می شود. مدل‌های اندازه‌گیری این واقعیت را توضیح می‌دهند که اندازه‌گیری هرگز کامل نخواهد بود، اما بسیاری از تست‌ها در SPSS، همبستگی و آزمون‌های تفاوت انجام می‌شوند، من فرض می‌کنم بر این اساس است. که هیچ خطایی در اندازه گیری وجود ندارد؟ من در این مورد احساسات متفاوتی دارم و ادبیات به همان اندازه در هم آمیخته است. بسیاری از مقالات می‌گویند که از SEM استفاده می‌کنند، اما در مورد مشخصات مدل‌های اندازه‌گیری بحث نمی‌کنند و من را به این فکر می‌اندازد که آیا آنها به جای آن از تحلیل مسیر استفاده می‌کنند. دوره‌ای که اخیراً در آن بوده‌ام نشان می‌دهد که این قابل قبول است، اما مجدداً از وجود محدودیت‌هایی قدردانی می‌کنم و می‌خواهم با دیگرانی که از این تکنیک‌ها استفاده کرده‌اند ارتباط برقرار کنم. امیدوارم این منطقی باشد. فکر می‌کنم می‌خواهم مطمئن شوم که همه راه‌ها را در نظر گرفته‌ام و در تصمیم‌هایم اطمینان دارم.
تحلیل مسیر یا SEM کامل؟
21572
من می خواهم طرح توصیف شده در کتاب ElemStatLearn عناصر یادگیری آماری: داده کاوی، استنتاج و پیش بینی. ویرایش دوم توسط ترور هستی و رابرت تیبشیرانی و جروم فریدمن را ایجاد کنم. طرح این است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/oY7hr.png) من تعجب می کنم که چگونه می توانم این نمودار دقیق را در R تولید کنم، به خصوص به گرافیک شبکه و محاسبه توجه کنید برای نشان دادن مرز
چگونه مرز تصمیم یک طبقه‌بندی‌کننده k نزدیک‌ترین همسایه را از عناصر یادگیری آماری رسم کنیم؟
52455
من مقدار منفی برای پارامتر شکل با استفاده از «gev.fit» در بسته «ismev» R دریافت کردم. نشان دهنده چیست؟ آیا به این معنی است که به جای توزیع ارزش افراطی تعمیم یافته (GEV) به توزیع دیگری تعلق دارد؟ در اینجا خروجی «gev.fit» است: $conv [1] 0 $nllh [1] 12.96933 $mle [1] 13.796261 1.847000 -1.084086 $se [1] 0.001307101 NaN NaN8-8 مقدار آن 8. خیلی منفی است که اینطور نیست تقریبی صفر
مقدار منفی در پارامتر شکل gev.fit
46292
این آزمایش را تصور کنید: فرض کنید من دو دسته دوقلو دارم. برای جفت دوقلو اول یکی را به عنوان کنترل نگه می دارم و به دوقلو دوم داروی الف را می دهم. برای جفت دوقلو دوم یکی را به عنوان شاهد نگه می دارم و داروی دوقلوی دوم را می دهم. حالا می خواهم نشان می دهد که اثربخشی داروی A بر کنترل بیشتر از اثر داروی B بر کنترل است. در هر مورد، من پاسخی را در هر دوقلو مانند دمای بدن اندازه می‌گیرم. هدف من ثابت کردن این است که داروی A دمای بدن را بیشتر از داروی B در مقایسه با گروه کنترل کاهش می دهد، برای مثال یک مقدار p منفرد که آزمایش را خلاصه می کند. من کل آزمایش را سه بار تکرار کردم. بنابراین، برای داروی A، من سه جفت اعداد دارم، که هر یک بین یک جفت دوقلو مقایسه می‌کنند، یکی دارو داده شده و دیگری به عنوان شاهد باقی مانده است. و همین طور برای داروی B. چگونه می توانم آزمایشی مانند این را تجزیه و تحلیل کنم؟ (به دلایل فنی زیادی که مربوط به برنامه‌ام است، باید با جفت‌های همسان کار کنم؛ و واقعاً روی انسان‌ها آزمایش نمی‌کنم.)
مقایسه اثربخشی درمان‌های مختلف بر کنترل از طریق جفت‌های همسان
62940
با توجه به اطلاعات کمی که من می دانم، الگوریتم EM می تواند برای یافتن حداکثر احتمال استفاده شود، وقتی که مشتقات جزئی را با توجه به پارامترهای احتمال، صفر می کنیم، مجموعه ای از معادلات را ارائه می دهد که نمی توان آنها را به صورت تحلیلی حل کرد. اما آیا الگوریتم EM به جای استفاده از تکنیک های عددی برای یافتن حداکثر احتمال با توجه به محدودیت مجموعه معادلات ذکر شده مورد نیاز است؟
چرا از الگوریتم حداکثرسازی انتظارات استفاده می شود؟
9203
من توزیع X$ دارم. با بازی کردن با نمونه های تصادفی از $X$، من تعیین کردم که $Var(X^i) > Var(X)$ که $i > 1$ است. با این حال، به نظر نمی‌رسد فرمولی برای واریانس مورد انتظار $X^i$ یا اینکه چرا باید از $Var(X)$ بیشتر باشد، پیدا نمی‌کنم. با فاصله گرفتن از توزیع های عادی، آیا باید تعمیم داد که پارامتر مقیاس هر $X^i$ بزرگتر از $X$ خواهد بود؟
تنوع محصول توزیع با خودش
94912
من داده هایی از یک کارآزمایی تصادفی خوشه ای دارم، یعنی هر آزمودنی در همان خوشه درمان یکسانی را دریافت کرده است. آیا تست مجذور کای و آزمون تی نیاز به تنظیماتی دارند؟ به‌طور دقیق‌تر، برای مقایسه فراوانی در جداول احتمالی و مقایسه میانگین‌ها برای متغیرهای کمی، باید کدام تحلیل را در Spss انجام دهم؟
از spss برای تجزیه و تحلیل داده های تصادفی خوشه ای استفاده کنید
62949
من یک رگرسیون لجستیک با یک نتیجه باینری (شروع و شروع نکردن) انجام می دهم. ترکیبی از پیش بینی کننده های من همگی متغیرهای پیوسته یا دوگانه هستند. با استفاده از رویکرد Box-Tidwell، یکی از پیش بینی کننده های پیوسته من به طور بالقوه فرض خطی بودن logit را نقض می کند. هیچ نشانه ای از آمارهای خوب بودن تناسب مبنی بر مشکل ساز بودن تناسب وجود ندارد. من متعاقباً دوباره مدل رگرسیون را اجرا کردم و متغیر پیوسته اصلی را با: اولاً تبدیل ریشه مربع و دوم نسخه دوگانه متغیر جایگزین کردم. در بررسی خروجی، به نظر می رسد که تناسب اندکی بهبود می یابد، اما باقیمانده ها مشکل ساز می شوند. تخمین پارامترها، خطاهای استاندارد و $\exp(\beta)$ نسبتا مشابه باقی می مانند. تفسیر داده ها از نظر فرضیه من، در 3 مدل تغییر نمی کند. بنابراین، از نظر سودمندی نتایج و حس تفسیر داده‌ها، گزارش مدل رگرسیون با استفاده از متغیر پیوسته اصلی مناسب به نظر می‌رسد. من در تعجب هستم: 1. چه زمانی رگرسیون لجستیک در برابر نقض احتمالی خطی بودن فرض لاجیت قوی است؟ 2. با توجه به مثال بالا، آیا گنجاندن متغیر پیوسته اصلی در مدل قابل قبول به نظر می رسد؟ 3. آیا هیچ مرجع یا راهنمایی وجود دارد که توصیه کند در مواقعی که پذیرفتن اینکه مدل در برابر نقض بالقوه خطی بودن لاجیت قوی است، توصیه کند؟
بررسی استحکام رگرسیون لجستیک در برابر نقض خطی بودن لاجیت
81177
من در مورد فیلترهای ذرات یاد می‌گیرم، و بیشتر نمایشگاه‌ها با نمونه‌برداری اهمیت شروع می‌شوند، بنابراین اکنون در مورد نمونه‌برداری اهمیت یاد می‌گیرم. مطمئن نیستم که یک پاراگراف را در این مقاله به درستی تفسیر می‌کنم: آرولامپالام، ماسکل، گوردون و کلاپ (2002)، آموزش فیلترهای ذرات برای ردیابی بیزی آنلاین غیرخطی/غیر گاوسی (PDF)، صفحه 178، ستون سمت چپ، نزدیک وسط: > بنابراین ما یک تقریب وزنی گسسته به عقب واقعی داریم، > $p(\mathbf x_{0:k}|\mathbf z_{1:k})$. وزن‌ها با استفاده از اصل > نمونه‌برداری مهم [3]، [12] انتخاب می‌شوند. این اصل بر موارد زیر استوار است. فرض کنید $p(x)\propto\pi(x)$ چگالی احتمالی است که از آن کشیدن نمونه دشوار است اما $\pi(x)$ را می توان برای آن ارزیابی کرد [و همچنین $p(x) $ تا تناسب]. علاوه بر این، اجازه دهید $x^i\sim > q(x),i=1,\ldots,N_s$ نمونه هایی باشند که به راحتی از یک پیشنهاد تولید می شوند > $q(\cdot)$ به نام _importance density_. سپس، یک تقریب وزنی برای > چگالی $p(\cdot)$ توسط > $$p(x)\approx\sum_{i=1}^{N_s}w^i\delta(x-x^i)$ داده می‌شود. $ where > $$w^i\propto\frac{\pi(x^i)}{q(x^i)}$$ وزن نرمال شده ذره $i$th > است. من این را به معنای زیر در نظر می‌گیرم: * $p(x)$ یک چگالی احتمال است، یعنی $\int p=1$، که می‌خواهیم آن را تقریبی کنیم. متأسفانه، نمونه برداری از $p(x)$ دشوار است. علاوه بر این، ارزیابی $p(x)$ برای $x$ معین دشوار است. * $\pi(x)$ چگالی است که متناسب با $p(x)$ است، به این معنی که مقداری $M>0$ ثابت وجود دارد به طوری که $\pi(x)=Mp(x)$ برای همه $xها $. ما $\pi(x)$ را چگالی احتمال نمی نامیم زیرا $M=\int \pi$ لزوما برابر با $1$ نیست و در واقع محاسبه $M$ ممکن است دشوار باشد. اما این اتفاق می افتد که محاسبه $\pi(x)$ برای یک $x$ ساده تر از محاسبه $p(x)$ است. با این حال، نمونه برداری از $\pi(x)$ دشوار است، که مشابه نمونه برداری از $p(x)$ است. * $q(x)$ چگالی دیگری است، که باید در هر جایی که $\pi(x)$ غیر صفر است، غیر صفر باشد، اما در غیر این صورت نیازی نیست که خیلی شبیه به $\pi(x)$ باشد. چگالی $q(x)$ لزوماً چگالی احتمال نیست، بنابراین $\int q$ لزوماً $1$ (؟) نیست، اگرچه به نظر می رسد برای آنچه در ادامه می آید مهم نیست. نمونه برداری از $q(x)$ باید آسان باشد، _and_ ارزیابی $q(x)$ برای یک $x$ معین باید آسان باشد. من هنوز از زبان و همچنین در کروشه مربع در منبع آویزان هستم. ممکن است این فقط یک مسئله عبارت باشد، اما من نمی دانم که آنها می خواهند چه چیزی را منتقل کنند، و امیدوارم چیزی را از دست ندهم. مشکل دیگر این است که یکی از مراجع آنها Doucet، Godsill و Andrieu (2000)، درباره روش‌های نمونه‌برداری متوالی مونت کارلو برای فیلتر کردن بیزی (PDF) است، که در عوض از حرف $\pi$ برای نشان دادن تابع اهمیت استفاده می‌کند. و هیچ چگالی کمکی متناسب با توزیع هدف $p$ معرفی نمی کند. 1. تا اینجا درست میگم؟ 2. آیا دلیل ظریفی وجود دارد که چرا این دو مقاله از $\pi$ برای نمایش چیزهای مختلف استفاده می کنند؟ یا این فقط یک تصادف بدشانسی است؟
$\pi(x)$ معمولاً در نمونه گیری اهمیت به چه معناست؟
62944
من داده هایی دارم مانند A 2 A 4 A 76 B 8 B 13 .. .... اساساً، گسترش A، B و غیره چقدر است. نمودار مناسبی برای تجسم چنین اطلاعاتی در R چیست؟
نمودار مناسب برای تجسم گسترش داده ها
46835
من برخی از داده های بزرگ حاوی اطلاعات قیمت گذاری رویداد با 45 روز نقل قول زمان پیش از رویداد دارم. بنابراین، ساختار آن به این صورت است: -45 100.00 -44 120.00 ... -1 110.00 ما هر روز از سال رویدادهایی داریم و داده های سال به سال داریم. من نسبتاً مبتدی در مدل‌های پیش‌بینی هستم، بنابراین این یک سؤال اساسی است: آیا می‌توان از این داده‌ها برای انجام پیش‌بینی استفاده کرد؟ برای این کار از چه مدلی استفاده کنیم؟
پیش‌بینی داده‌های قیمت‌گذاری با زمان سررسید؟
46833
با توجه به مجموعه ای از متغیرهای کمکی و خانواده توزیع، چگونه می توانم مدل هایی را با توابع پیوند متفاوت مقایسه کنم؟ من فکر می کنم پاسخ صحیح در اینجا AIC/BIC است، اما من 100٪ مطمئن نیستم. آیا مدل های تو در تو در صورت داشتن لینک متفاوت امکان پذیر است؟
مشکل در مقایسه مدل‌های GLM که عملکرد پیوند متفاوتی دارند
54856
همانطور که می بینید، من بیش از 500 گروه داده دارم. چگونه می توانم std.coef را در رگرسیون چند خطی برای هر گروه دریافت کنم؟ تا به حال، من فقط می‌دانم چگونه با استفاده از «lm.beta» یک گروه را بدست بیاورم. به عنوان مثال: library(QuantPsyc) p <- read.csv('Data1.csv') model1 <- lm(YCOORD110 ~ TEMMIN + TEMVAR) lm.beta(model1) برای گروه ها، چندین کد مانند «by»، «apply» می توان استفاده کرد، اما به نظر بسیار پیچیده تر از کنترل من است. برای پاسخ های شما بسیار سپاسگزارم ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/VdwVd.png)
ضریب رگرسیون استاندارد شده ($\beta$) در رگرسیون چند خطی توسط گروه ها؟
69202
آیا می توان یک آزمون UMP برای فرضیه های یک طرفه در $ \theta $ برای مورد i.i.d شناسایی کرد؟ نمونه $ (X_1، ...، X_n) $ از متغیرهای تصادفی $ X_i \sim f_\theta (.) $ به طوری که پارامتر $ \theta $ در پشتیبانی از $ f_\theta (.) $ ظاهر شود؟ آیا این به قضیه کارلین-روبین اشاره دارد؟ من به دلیل پارامتری که در پشتیبانی ظاهر می شود کمی گیج شده ام. با تشکر
آزمون UMP برای فرضیه های یک طرفه
69208
پس از ایجاد یک شی جنگل تصادفی با استفاده از randomForest با حدود 500 متغیر کاندید، از importance(object) برای نمایش _IncNodePurity_ برای هر یک از متغیرهای کاندید در رابطه با نتیجه باینری مورد علاقه (پرداخت/بدون پرداخت) استفاده کردم. من می‌دانم که _IncNodePurity_ کاهش کل ناخالصی‌های گره است که با شاخص جینی از تقسیم بر روی متغیر اندازه‌گیری می‌شود و میانگین آن روی همه درختان است. چیزی که من نمی‌دانم این است که پس از استفاده از «جنگل تصادفی» برای انتخاب ویژگی در رابطه با مدل‌های رگرسیون لجستیک باینری، بریدگی برای متغیرهای کاندید حفظ شود. برای مثال، کوچکترین _IncNodePurity_ در بین 498 متغیر من 0.03 است، در حالی که بزرگترین _IncNodePurity_ 96.68 است. به طور خلاصه، من یک سوال اصلی دارم: آیا قطعی برای _IncNodePurity_ وجود دارد؟ اگر بله، آن چیست؟ اگر نه، چگونه قطع را تعیین می کنید؟ اگر مدلی با تنها 10 متغیر پیش بینی کننده می خواهید، به سادگی 10 متغیر کاندید را با بزرگترین _IncNodePurity_ انتخاب می کنید؟ هر گونه فکر یا مرجع بسیار قدردانی می شود. با تشکر
جنگل تصادفی: IncNodePurity و انتخاب ویژگی برای رگرسیون لجستیک باینری
63015
آیا آمار مجذور کای پیرسون تعمیم یافته به عنوان یک $R^2$ شبه در نظر گرفته می شود؟ من فکر می کنم بله، زیرا یک $R^2$ کاذب تعمیم شکل $R^2$ است، و آمار مجذور کای پیرسون تعمیم یافته دارای فرمی با باقیمانده های $R^2$ در اعداد آن است. اما مطمئن نیستم. با تشکر
آیا آمار مجذور کای پیرسون تعمیم یافته یک $R^2$ شبه است؟
100057
من یک مدل مختلط خطی دارم، با خطای اندازه گیری ضربی فقط روی متغیر کمکی ثابت (یعنی فرض می شود قسمت تصادفی بدون خطا اندازه گیری می شود). چگونه می توانم ضرایب را به بهترین نحو تخمین بزنم؟ از نظر ریاضی، با استفاده از نماد استاندارد، $Y=Z\beta+Ub+\epsilon$ $X=Z\delta$ $\beta$ اثر ثابت است، $b$ اثر تصادفی است. $Z$ یک رگرسیون بدون خطا مشاهده نشده است. $X$ نسخه مشاهده شده با خطای ضربی است. من کاملاً مطمئن نیستم که توزیع «استاندارد» برای $\delta$ چه خواهد بود، اما خوشحالم که فرض می‌کنم هر توزیع «استاندارد» باشد. یعنی به معنای «0» (به معنای ضربی ....) و همسانی. چگونه $\beta$ را تخمین بزنم؟
تخمین پارامتر LMM با خطای اندازه گیری ضربی در متغیر کمکی ثابت - چگونه؟
103443
من یک قاب داده با این ساختار دارم: 'data.frame': 39 obs. از 3 متغیر: $ موضوع : فاکتور w/ 13 سطح Acido Folico،..: 1 2 3 4 5 6 7 8 9 10 ... $ متغیر: فاکتور w/ 3 سطح Both،Preconception،. .: 1 1 1 1 1 1 1 1 1 1 ... ارزش دلار : int 14 1 36 17 5 9 19 9 19 25 ... و با توجه به اینکه مشاهدات در موضوعات گروه بندی شده اند، می خواهم متغیر مقدار ~ را آزمایش کنم. بنابراین فکر کردم از یک ANOVA اندازه گیری مکرر استفاده کنم، که در آن متغیر به عنوان یک اندازه گیری تکرار شونده در هر موضوع در نظر گرفته می شود. تماس aov (مقدار ~ متغیر + خطا (موضوع/متغیر)) است. سوال من این است: اگر بخواهم همین کار را با lme انجام دهم چگونه باید افکت تصادفی را مدل کنم؟ ~ 1 | موضوع/متغیر یا ~ متغیر | موضوع anova یک F قابل توجه برای lme برمی گرداند، نسخه اول یک اثر غیر قابل توجه می دهد، در حالی که نسخه دوم قابل توجه است. بنابراین من فکر می کنم که آنووا بیشتر شبیه دومی است. درست متوجه شدم؟ با تشکر
معادل یک ANOVA مکرر با استفاده از مدل اثر ترکیبی با lme چیست؟
10285
### زمینه من آزمایشی با طرح «3×2» با سه سطح فاکتور درون آزمودنی ها (اندازه گیری های مکرر) و دو سطح برای فاکتورهای بین آزمودنی ها انجام دادم. من علاقه مند به بررسی تغییرات از پایه و اثر متقابل هستم. ### سوال * چگونه می توانم اندازه نمونه مورد نیاز را برای طرح «3×2» محاسبه کنم تا به قدرت آماری کافی دست یابیم؟
اندازه نمونه مورد نیاز برای ANOVA طراحی مختلط برای دستیابی به توان آماری کافی
2906
نسیم طالب، از شهرت (یا بدنامی) قو سیاه، این مفهوم را به تفصیل توضیح داده و آنچه را «نقشه ای از حدود آمار» می نامد توسعه داده است. استدلال اصلی او این است که یک نوع مشکل تصمیم گیری وجود دارد که در آن استفاده از هر مدل آماری مضر است. اینها مشکلات تصمیم گیری هستند که در آن عواقب تصمیم گیری اشتباه می تواند بسیار زیاد باشد و پی دی اف زیربنایی به سختی شناخته شود. یک مثال می تواند کوتاه کردن گزینه سهام باشد. این نوع عملیات می تواند به ضرر بی حد و حصر (حداقل در تئوری) منجر شود. و احتمال چنین ضرری ناشناخته است. بسیاری از مردم در واقع این احتمال را مدل می‌کنند، اما طالب استدلال می‌کند که بازارهای مالی به اندازه کافی قدیمی نیستند که به فرد اجازه دهند در مورد هر مدلی مطمئن باشند. فقط به این دلیل که هر قوی که تا به حال دیده اید سفید است، به این معنی نیست که قوهای سیاه غیرممکن یا حتی بعید هستند. بنابراین این سوال مطرح می‌شود: آیا در جامعه آمار درباره استدلال‌های آقای طالب اتفاق نظر وجود دارد؟ شاید این باید ویکی انجمن باشد. من نمی دانم.
برداشت جامعه از ربع چهارم چیست؟
68439
من داده‌های اولیه‌ای دارم که به این صورت است: کلیک‌های بازدیدهای گروهی A 2029 186 B ​​2340 171 C 2780 176 و من سعی می‌کنم تعیین کنم که آیا یکی از نرخ‌های کلیک («کلیک‌ها / بازدیدها») از نظر آماری بهتر از بقیه کلیک‌ها است یا خیر. . من سعی کردم از آزمون Chi Squared استفاده کنم تا مشخص کنم که این گروه ها در واقع متفاوت هستند، اما سپس در مورد چگونگی تعیین بهترین گیر کردم. با نگاه کردن به اعداد می توانم متوجه شوم که A بهترین کلیک است، اما آیا آزمایشی وجود دارد که این را کاملاً نشان دهد؟
روشی برای یافتن نرخ کلیک از نظر آماری معنادار در چندین گروه بدون کنترل
21578
من وضعیت زیر را دارم که در آن از 6 کارشناس خواسته می شود تا با رتبه بندی یک بطری شراب از 1 تا 5 ستاره، نظر بدهند. بعلاوه، ما به نوعی معیاری برای میزان اطلاع رسانی هر رتبه داریم (به عنوان معیاری در نظر بگیرید که متخصصی که رتبه می دهد چقدر قابل اعتماد است)، و بیایید این معیار را امتیاز اطلاعاتی یک متخصص بنامیم. می خواهیم این 6 مورد را جمع آوری کنیم. نظرات را در یک معیار واحد از کیفیت شراب، پس معقول ترین روش برای انجام آن چیست؟ فکر اولیه من این بود که نمرات اطلاع‌رسانی را در بین متخصصان عادی کنم تا به 1 برسد، و فقط محصولات را بین امتیاز اطلاعات و رتبه‌بندی مربوط به همه کارشناسان جمع کنم. با این حال، این رویکرد از این واقعیت رنج می‌برد که رتبه‌بندی با ارزش بالا با امتیاز پایین ممکن است در طول تجمیع، بر رتبه‌بندی با ارزش پایین با امتیاز بالا غلبه کند.
نظرات را به یک اندازه جمع کنید
44471
آیا هیچ راه استانداردی برای قرار دادن مقدم بر توزیع های متوسط ​​$0 وجود دارد؟ من به این موضوع از منظر مدل سازی قوی توزیع خطا در یک رگرسیون علاقه مند هستم. بنابراین برای مثال من چند متغیر کمکی $X$ دارم و می‌خواهم $E[Y] = \mu(X | \beta)$ را مشخص کنم که $\mu(\cdot | \beta)$ یک شکل از پیش تعیین شده و $Y باشد. $ مقادیر را در $\mathbb R$ می گیرد. یک راه حل ساده این است که توزیع خطا را با رهگیری اشتباه گرفته و از مخلوط فرآیند دیریکله استفاده کنید، به عنوان مثال، بنویسید $Y_i = \mu(X | \beta) + \eta_i$ که در آن $$ \eta_i \sim f(\cdot | \ تتا)، \\\ \theta \sim F، \\\ F \sim DP(\گاما H). $$ سپس می توانم $\epsilon_i = \eta_i - E(\eta_i | F)$ را بنویسم و ​​$\alpha = E(\eta_i | F)$ را قرار دهم تا $Y_i = \alpha + \mu(X_i | \beta ) + \epsilon_i$. اشکال اینجاست که _من نمی‌خواهم توزیع خطا مستقل از X$_ باشد. من چند ایده در مورد چگونگی رفع این مشکل داشتم، اما آنها به نظر دور از ذهن هستند و امیدوارم کسی در اینجا راه حل اصلی را بداند.
پیشین های بیزی ناپارامتری در توزیع های میانگین $0$؟
48191
بسته های آماری چگونه توان را محاسبه می کنند؟ برای مثال، فرض کنید ما یک نمونه مشاهدات X$ از 100$ داریم. ما فرض می کنیم که آنها از یک جمعیت معمولی توزیع شده (iid) هستند. آزمون فرضیه ما $H_{0} است: \mu = 6$ در مقابل $H_a: \mu \neq 6$. فرض کنید فرضیه صفر رد شده است. چگونه یک بسته نرم افزاری احتمال رد صحیح فرضیه صفر را محاسبه می کند؟ آیا لازم نیست بارها و بارها آزمون فرضیه های مشابهی را روی نمونه های مختلف انجام دهد؟ یا اینکه فقط با انجام آزمون فرضیه روی یک نمونه می توان توان را محاسبه کرد؟
بسته های آماری چگونه توان را محاسبه می کنند
68436
داشتم این مقاله مربوط به توری کشسان را می خواندم. آنها می گویند که از توری الاستیک استفاده می کنند زیرا اگر فقط از کمند استفاده کنیم، از بین پیش بینی کننده هایی که همبستگی بالایی دارند فقط یک پیش بینی کننده انتخاب می شود. اما آیا این چیزی نیست که ما می خواهیم؟ منظورم این است که ما را از دردسر چند خطی نجات می دهد، نه. هر گونه پیشنهاد / توضیح؟
سردرگمی مربوط به توری کشسان
104759
داده هایی که من سعی در تجزیه و تحلیل آنها دارم، تخمین های درجه دوم از یک برازش درجه دوم به یک منحنی است. بیشتر داده ها بین -.15 و 0.15 متفاوت است. با این حال، من دارای مقادیر پرت در هر دو جهت تا مواردی مانند -23.00 هستم. تجزیه و تحلیل و حذف پرت به عنوان روش مقابله اولیه ناکافی تلقی شده است. بنابراین، من باید داده ها را تبدیل کنم. من می‌خواستم از یک تبدیل گزارش استفاده کنم، اما افزودن یک ثابت به داده‌ها به نظر کلی می‌رسد (برای پوشش دادن تمام نقاط پرت شدید باید یک ثابت بزرگ باشد). هر گونه پیشنهادی در مورد اینکه چه نوع تحولاتی ممکن است در اینجا کار کند؟ من در پایان به داده های توزیع شده عادی نیاز دارم تا بتوانم ANOVA را اجرا کنم.
تبدیل داده ها با مقادیر منفی بزرگ و مثبت بزرگ
78694
من انتخاب کمند را با استفاده از `lars::lars()` انجام دادم، سپس این طرح را دریافت کردم. من نمی دانم چگونه آن را تفسیر کنم: ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/RYUCw.png) کسی می تواند توضیح مختصری ارائه دهد؟ چرا «ضرایب استاندارد شده» را در برابر «|بتا|/max|بتا|» ترسیم می کند؟
چگونه طرح انتخاب کمند را تفسیر کنیم
69204
مثال خیالی است، اما باید برای هدف این سوال خوب کار کند: من یک رگرسیون خطی ساده (یا یک همبستگی، با 1 IV و 1 DV) را برای 2 متغیر انجام می‌دهم، به عنوان مثال تعداد مراحل در راه پله در مقابل رضایت گزارش شده دستیابی به برتری توسط شرکت کنندگان فرض کنید من 4 پله مختلف را در نظر می‌گیرم: 3 پله. 5 مرحله؛ 10 مرحله؛ و 50 پله ارتفاع. نکته این است که این یک مقیاس مقوله ای نیست، بلکه یک مقیاس نسبت است (مشکلات دیگر این نمونه از راه پله ها، مانند توزیع دور از حالت عادی و غیره را نادیده بگیرید). حال، فرض کنید من 10 شرکت کننده دارم که هر کدام به ترتیب تصادفی از این پله ها بالا می روند و رضایت خود را به تعداد 1 تا 7 گزارش می دهند. 2 راه برای تجزیه و تحلیل این داده ها وجود دارد. یکی از آنها میانگین گرفتن پاسخ ها برای هر راه پله است. بنابراین بگوییم که نتایج را دریافت می کنیم: 3 مرحله: 1.6 5 مرحله: 2.3 10 مرحله: 3.4 50 مرحله: 6.1 نمودار پراکندگی ما بسیار ساده خواهد بود: ![شرح تصویر را اینجا وارد کنید](http://i.stack. imgur.com/3C6qH.png) اما شاید میانگین‌گیری نتایج غیرضروری باشد و تنوع داده‌ها را از بین ببرد؟ می‌توانیم نمرات خام را همان‌طور که بودند رها کنیم و سپس آن‌ها را به شکل زیر رسم کنیم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bk1Z2.png) نحوه برخورد ما بر روی r شخص نیز تأثیر می‌گذارد ( یا Spearman's rho چون توزیع غیرعادی شماره پله داشتیم). بدیهی است که درجات آزادی (و بنابراین مقادیر p) نیز تغییر می کند. آیا پاسخ قطعی یک و همیشه واقعی برای اینکه چگونه این کار باید انجام شود وجود دارد؟
همبستگی دو متغیر در سطوح مختلف
17488
من جمعیتی دارم که روزی یک بار مقدار آن را اندازه می‌گیرم. سپس تغییری ایجاد کردم و به اندازه گیری همان مقدار از همان جمعیت ادامه دادم. از چه آزمونی می توانم برای اثبات اینکه تغییر من بر میانگین آن مقدار تأثیر نمی گذارد استفاده کنم؟ من مطمئن نیستم که تفاوت نرمال بین دو آزمون معنی که می دانم اعمال شود یا خیر زیرا می خواهم ثابت کنم که میانگین ها تفاوتی ندارند، نه اینکه تفاوت را پیدا کنم. من فکر می کنم این با یک آزمون t استاندارد متفاوت است.
تست برای اثبات دو معنی تفاوتی ندارند
81170
من از SPSS برای انجام تجزیه و تحلیل خوشه ای دو مرحله ای استفاده می کنم. SPSS اهمیت پیش بینی کننده هر متغیر مورد استفاده در تحلیل را نشان می دهد. اغلب اوقات، یک متغیر باینری مانند جنسیت (ببخشید، من فقط آن را ساده نگه می‌دارم!) مهم‌ترین متغیر برای تشکیل خوشه‌ها خواهد بود، حتی اگر شما نمی‌خواهید باشد. آیا راهی برای وزن متغیرها وجود دارد تا شاید بتوانم نقش جنسیت را در تجزیه و تحلیل کم رنگ کنم، اما حذف نکنم؟ از کمک شما متشکرم!
وزن دهی متغیرها در تحلیل خوشه ای دو مرحله ای
2909
من به توزیع حداکثر کاهش یک پیاده روی تصادفی علاقه مند هستم: اجازه دهید $X_0 = 0، X_{i+1} = X_i + Y_{i+1}$ جایی که $Y_i \sim \mathcal{N}(\mu ، 1) دلار. حداکثر کاهش پس از $n$ دوره $\max_{0 \le i \le j \le n} (X_i - X_j)$ است. مقاله ای از Magdon-Ismail _et. al._ توزیع حداکثر کاهش حرکت براونی را با رانش می دهد. این عبارت شامل یک مجموع بی نهایت است که شامل برخی از اصطلاحات است که فقط به طور ضمنی تعریف شده اند. من در نوشتن یک پیاده سازی که همگرا می شود مشکل دارم. آیا کسی از عبارت جایگزین CDF یا پیاده سازی مرجع در کد مطلع است؟
محاسبه توزیع تجمعی حداکثر کاهش پیاده روی تصادفی با رانش
49821
آنچه من دارم: 1. یک مدل خطی $y=a_0+a_1x$ با تخمین پارامترهای داده شده، 2. تعداد مقادیر استفاده شده برای برازش مدل، 3. مقدار R² پیرسون. من باید خطاهای پیش بینی را تخمین بزنم. من راهی برای محاسبه آن نمی بینم، اما آیا راهی وجود دارد که حداقل یک تخمین تقریبی بدست آوریم؟
تخمین خطای پیش‌بینی از R-square
58710
من قصد دارم یک الگوریتم انتخاب ویژگی را پیاده سازی کنم و قصد دارم از F-score به دلیل سادگی آن استفاده کنم. مشکل این است که، امتیاز F برای طبقه بندی باینری استفاده می شود. **چگونه می توان آن را برای طبقه بندی چند کلاسه گسترش داد؟** ایده من استفاده از روش یک در مقابل همه است. یعنی، اگر کلاس‌های «k» داشته باشم، برای هر یک از این‌ها امتیاز «k» ایجاد می‌کنم (با در نظر گرفتن تنها یک ویژگی در هر زمان و محاسبه امتیاز F در برابر بقیه) و سپس فقط میانگین را می‌گیرم. **آیا این رویکرد خوبی خواهد بود؟**
ویژگی های انتخاب با استفاده از امتیاز F برای طبقه بندی چند کلاسه
13395
من یک پلتفرم نرم افزاری ایجاد کردم که در آن حدود 110 شرکت کننده می توانند در هر زمان که بخواهند در طول 12 هفته مشارکت داشته باشند (شبیه ویکی را در نظر بگیرید). سپس این شرکت‌کنندگان به‌طور تصادفی برای استفاده از یکی از دو پلتفرم مشابه تقسیم شدند. یک تفاوت کلیدی بین دو پلتفرم اجرا شد که من فرض کردم که باعث نرخ مشارکت متفاوت می شود. این بدان معناست که من اطلاعات مشارکت در طول 12 هفته (تا هفته دوم) برای 2 گروه 50 نفری دارم. نرخ مشارکت بسیار متغیر است - برخی افراد به مدت 4 هفته در یک زمان شرکت نمی کنند و سپس در پایان به شدت شرکت می کنند. دیگران در ابتدا شرکت می کنند و سپس دیگر هرگز. آزمون‌های t نمونه‌های مستقل تفاوت‌های بین شرایط را از نظر تعداد کل دفعات شرکت‌کننده نشان می‌دهند. اما فکر نمی کنم این آموزنده ترین باشد. من می‌خواهم بتوانم یک آزمون آماری انجام دهم تا نشان دهم تفاوتی که من اجرا کردم منجر به افزایش نرخ مشارکت در طول زمان شد. برخی از بخش‌های مشکل: 1. از آنجایی که این یک پلت فرم نرم‌افزاری مشترک است، موارد موجود در هر شرایط از نظر فنی مستقل نیستند. کاربران در هر شرایط می‌توانستند با یکدیگر مشارکت کنند، اگرچه معمولاً این کار را نمی‌کردند (کمتر از 10 رویداد از 6000 رویداد مشارکت شامل کار با شخص دیگری بود). به همین دلیل، من فکر می کنم که آنها شبه مستقل هستند، اما فکر می کنم این یک بحث نظری است و آماری نیست (اگرچه مطمئن نیستم). 2. کاربران همچنین به کار بر روی پروژه های تکراری در سراسر شرایط و دو برابر شدن در شرایط اختصاص داده شدند. به عنوان مثال، یک پروژه A، پروژه B، پروژه C در هر دو پلت فرم وجود داشت و 2 کاربر در هر پلت فرم به هر پروژه اختصاص داده شدند (در مجموع 4 نفر در پروژه A کار می کردند، 2 نفر در شرایط آزمایشی و 2 نفر در کنترل ). دو نفر در هر شرایط پلت فرم هنوز به طور مستقل کار می کردند، مگر در مواردی که بلافاصله در بالا توضیح داده شد (قسمت دشوار 1). 3. مشارکت درون موضوعی قطعاً مستقل نیست و این قطعاً یک مشکل آماری است. هر بار که یک رویداد مشارکت رخ می دهد، کاربر روی یک پروژه کار می کند (دوباره، آن را مانند یک ویکی در نظر بگیرید). بنابراین وقتی کاربر زودتر شرکت می‌کند، به این معنی است که ویرایش‌های بعدی او روی همان محصول است. مواردی که من در نظر گرفته ام: 1. آزمون کای اسکوئر استقلال که تعداد شرکت ها را در هفته بررسی می کند (12 شرط) با شرط (2 شرط). اما چون هفته ها مستقل نیستند، مطمئنم که این یک استراتژی تحلیلی نامناسب است. 2. ANOVA با اندازه گیری های مکرر که متغیر هفته درون موضوعی را با شرط بین موضوع بررسی می کند. اما داده ها بسیار غیر عادی هستند (داده های شمارش به شدت دارای انحراف مثبت هستند). 3. یک مدل خطی سلسله مراتبی که نرخ مشارکت هفتگی درون موضوعی را بررسی می‌کند، تو در تو درون افراد، با متغیر شرط در سطح فرد. اما همان مشکل غیر عادی در اینجا رخ می دهد (هنوز داده های شمارش است). آیا رویکرد دیگری وجود دارد که باید در اینجا اتخاذ کنم؟ آیا من چیزی را از دست داده ام که این موضوع را بهتر مدیریت کند؟ با تشکر از همه. ویرایش: من ورود به سیستم دارم، اما فکر نمی‌کردم که معنی‌دار باشد - اینها رویدادهای مشارکت معنادارتری هستند. در اینجا نموداری از رویدادهای مشارکت هفتگی تجمعی بر اساس گروه است، که ممکن است به روشن شدن آنچه در مورد آن صحبت می کنم کمک کند. این معنی‌دارترین معیاری است که می‌توانم به آن برسم. توجه داشته باشید که در این نمودار، افراد ممکن است چندین بار نشان داده شوند (اگر سه کاربر 30 بار، دو بار و یک بار در هفته 1 شرکت کنند، هفته 1 به 33 افزایش می یابد). ![رویدادهای مشارکت تجمعی](http://i.stack.imgur.com/wpRUV.png)
بهترین راه برای مقایسه داده های استفاده از نرم افزار در طول زمان در شرایط مستقل؟
48198
اگر داده های چند متغیره از 3 متغیر پاسخ و 2 عامل (f1 و f2) داشته باشید. من می توانم یک مدل خطی را به روش های مختلف برای این داده ها مشخص کنم، اما نمی دانم تفاوت بین مدل ها چیست. در اینجا نموداری از داده ها وجود دارد: سه متغیر (ستون) و دو عامل (ردیف ها و محور x). ggplot(df، aes(x = f1، y = y، fill = f1)) + geom_boxplot() + facet_grid(f2~var، scales = free_x) ![توضیح تصویر را در اینجا وارد کنید](http://i. stack.imgur.com/1WZ1w.jpg) من می توانم یک مدل خطی مانند این (1) اجرا کنم: mod <- lm(y ~ (var-1):f1 + (var-1) + f2، داده = df) خلاصه (mod) فراخوانی: lm(فرمول = y ~ (var - 1):f1 + (var - 1) + f2، داده = df) باقیمانده ها: Min 1Q Median 3Q Max -1.45565 -0.44102 0.02875 0.40296 2.20795 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) var1 -0.88371 0.16522 -5.349 2.79e-07 *** var2 -0.30943 0.16522 -1.873 0.0628. var5 -1.37800 0.16522 -8.340 2.31e-14 *** f22 -0.09669 0.12714 -0.760 0.4480 f23 0.04514 0.12043 0.385 0.385 0.701 var1014 0.18176 4.652 6.54e-06 *** var2:f12 1.76148 0.18176 9.691 < 2e-16 *** var5:f12 1.11851 0.18176 6.154 5.16 5.16 ---e کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.6692 در 172 درجه آزادی چندگانه R-squared: 0.6491، R-squared تنظیم شده: 0.63 آمار: 39.77 در 8 و 172 DF، p-value: < 2.2e-16 همچنین می‌توانم برای هر متغیر یک lm جداگانه اجرا کنم (2). من از روش های چند متغیره آگاه هستم، با این حال به پاسخ این سه متغیر به طور جداگانه علاقه مند هستم. **سوالات:** * تفاوت بین هر دو رویکرد (همچنین برای تفسیر) چیست؟ * هنگام اجرای 3 lm جداگانه باید این را به نوعی در نظر بگیرم؟ (تست چندگانه؟) اگر چنین است، از چه طریقی باید این کار را انجام دهم؟ * متوجه شدم که خطای مدل اول برای هر متغیر یکسان است، ممکن است این نشان دهنده مشکل باشد؟ من مدل اول را اینگونه تفسیر می کنم: * var خط پایه من است * f1 روی همه متغیرها تأثیر دارد (افزایش نسبت به خط مبنا)، * با این حال f1 تفاوتی ندارد. * آیا این تفسیر مناسبی از خروجی lm() است؟ از افکار شما متشکرم! df <- ساختار(list(var = ساختار(c(3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L ، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L)، .Label = c(1، 2، 5)، کلاس = ضریب)، f1 = ساختار( c(2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر)، . c(1، 2)، class = factor)، f2 = ساختار(c(1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 2L, 2L, 2L, 2L, 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر،
lm() - مشخصات مدل
58713
من باید مشتقات جزئی را برای همه N پارامتری که $\theta_{N}$ یک تابع چگالی احتمال (PDF) $\mathcal{f}$ نشان می‌دهند، تخمین بزنم. این PDF $\mathcal{f}$ راه‌حل شکل بسته ندارد و در عوض با یک تابع مشخصه $\phi$ و یک FFT $\mathcal{F}^{-1}$ بیان می‌شود. $\mathcal{f}(x) = \mathcal{F}^{-1} [\phi(x)]$ آیا می توان $\frac {\partial \mathcal{f}} {\theta_{N را تخمین زد }}$ برای هر N؟
بخش هایی از PDF بدون راه حل فرم بسته
58718
فایننشال ریویو می خواست میزان مخارج سالانه دولت را با استفاده از درآمد مالیاتی و سطح بدهی سراسری تخمین بزند. از داده های 1958-2008 (شامل) استفاده شد. همه متغیرها با میلیاردها دلار اندازه گیری شدند. مشخص شد که میانگین مربعات خطای رگرسیون 15 و مجموع مجذورات 12200 است. بنابراین، چند درصد از تغییرات مخارج سالانه دولت با معادله رگرسیون توضیح داده می شود؟ پاسخ صحیح خود را تا دو رقم اعشار بدهید. دیدگاه من: میانگین مربعات خطا (MSE) = 15 مجموع مجذورات (SST) = 12200 سوال این است که مجذور R را می پرسد، بنابراین $R^2 = SSR / SST$، اما تا کنون ما فقط $SST$ دریافت کرده ایم. چگونه $SSR$ را از $MSE$ در این مورد استخراج کنیم؟ کمک قابل تقدیر است.
ANOVA تعیین درصد تغییرات
49826
من روی برخی تکنیک‌های خوشه‌بندی کار می‌کنم، جایی که برای یک خوشه معین از بردارهای بعد d، یک توزیع نرمال چند متغیره را فرض می‌کنم و بردار میانگین d بعدی و ماتریس کوواریانس نمونه را محاسبه می‌کنم. سپس هنگام تلاش برای تصمیم گیری در مورد اینکه آیا یک بردار جدید، نادیده و d بعدی متعلق به این خوشه است، فاصله آن را از طریق این اندازه گیری بررسی می کنم: $$\left(X_i-\hat{\mu}_X\right)'\hat{\sigma}_X^{-1}\left(X_i-\hat{\mu}_X\right)>B_{0.95} \left(\frac{p}{2},\frac{-p}{2}\right)$$ که باید معکوس ماتریس کوواریانس را محاسبه کنم $\hat{\sigma}_X$. اما با توجه به برخی از نمونه ها نمی توانم تضمین کنم که ماتریس کوواریانس معکوس خواهد بود، در صورتی که اینطور نیست باید چه کار کنم؟ با تشکر
وقتی ماتریس کوواریانس نمونه معکوس نیست چه باید کرد؟
2904
من در حال تلاش برای تخمین مدلی به شکل زیر هستم: W = alphaH * H + alphaM * M + alphaL * L + X * بتا که در آن H، M، L شاخص هایی برای یک متغیر انتخاب گسسته هستند، و بتا است. چیزی شبیه 35 بعدی از آنجا که معتقدیم داده/مدل ما دارای مشکلات درون زایی است، مدل را به W = alphaH * H' + alphaM * M' + alphaL * L' + X * beta H = Z * betaH M = Z * betaM L = Z گسترش داده ایم. * betaL H' = 1(H = max(H,M,L) ) M' = 1(M = max(H,M,L)) L' = 1(L = max(H,M,L) ) که در آن Z ابزار هستند و betaH، betaM، betaL پارامترهایی هستند که باید تخمین زده شوند. این خروجی با یک مدل انتخاب مبتنی بر سودمندی نهفته مطابقت دارد. ما توانسته‌ایم مدل مرحله دوم را در Stata با استفاده از فرمان «mvprobit» تخمین بزنیم (تخمین «H، M، L»، که به معنای «H، M، L» است، اما نمی‌توانیم بفهمیم که چگونه برای تخمین کل مدل در یک لحظه. برای حل این مشکل، کدی را در متلب نوشتیم تا مدل را با استفاده از حداکثر احتمال شبیه‌سازی شده تخمین بزنیم، اما متلب در حداقل‌های محلی خفه می‌شود (حداکثر در این مشکل، اما MATLAB فقط منفی را به حداقل می‌رساند...)، که تعداد زیادی از آن‌ها وجود دارد. . ما سعی کرده‌ایم با شروع از چند ده شرط اولیه که هیچکدام معمولاً به پاسخ «درست» همگرا نمی‌شوند، این موضوع را حل کنیم. من این را با اطمینان تقریباً می گویم زیرا ما کد را به صورت تکه ای آزمایش می کنیم و تأیید می کنیم (در داده های آزمایشی تصادفی) که اگر بهینه سازی نزدیک به مقادیر درست (در آزمایش) شروع شود، به مقادیر معقول همگرا می شود، در غیر این صورت به هیچ کجا نزدیک نمی شود. (اگرچه نتیجه حاصل از احتمال کلی بسیار کمتر است). آیا هیچ ترفندی وجود دارد - MATLAB، Stata یا موارد دیگر - برای حل این مشکل؟ آیا این یک مشکل ذاتی شبیه سازی در مقابل تحلیل فرم بسته است؟ با تشکر از کمک شما.
چگونه می‌توانم در برآورد حداکثر احتمال شبیه‌سازی شده «توده‌ای» کار کنم؟
112982
یک رگرسیون OLS بین دو متغیر را در نظر بگیرید. آیا نتیجه ای وجود دارد که اندازه باقیمانده ها را (که شاید با مجموع مربع ها اندازه گیری می شود) به ضریب همبستگی پیرسون دو متغیر مرتبط کند؟ به طور غیررسمی، من انتظار دارم که متغیرهای با همبستگی تنگاتنگ باقیمانده‌های کلی کوچک و متغیرهایی با همبستگی ضعیف برای تولید باقیمانده‌های بزرگ تولید کنند.
آیا نتیجه ای وجود دارد که رابطه ای بین اندازه باقیمانده ها و ضریب همبستگی را نشان دهد؟
79124
من سعی می‌کنم مدلی را برای متاآنالیز که روی آن کار می‌کنم، با داده‌هایم تطبیق دهم. پاسخ باینری است (0 یا 1)، و من می خواهم یک توزیع دوجمله ای را با تابع پیوند logit مشخص کنم. 2-3 (بسته به مدل) متغیرهای توضیحی همه طبقه بندی می شوند. «metafor» «rma.glmm» را ارائه می‌کند، اما به نظر نمی‌رسد زمانی که از قبل یک ستون متغیر پاسخ دارید، این مورد از حالت استفاده پشتیبانی نمی‌کند، اما در عوض تعدادی از موارد را پشتیبانی می‌کند که با این مورد مطابقت ندارند (مثلاً 2 x 2 جدول احتمالی و غیره). برای مدل وزنه هم دارم. وزن ها بر اساس حجم نمونه است. شش ردیف اول داده ها به این شکل هستند: پاسخ وزن نوع سوژه 1 c غیر زنده 12.0 0 2 c زمانی 18.0 1 3 p زمانی 40.0 0 4 p زمانی 4.0 0 5 متر فضایی 105.5 1 6 c زمانی 70.0` متغیر پاسخ، وزن وزن است و موضوع و نوع دو متغیر تعدیل کننده طبقه بندی هستند. آیا «metafor» واقعاً مورد استفاده من یا هر بسته R دیگر (مثلاً «meta») را پشتیبانی می کند؟
متاآنالیز با متغیر پاسخ باینری
79120
من می‌خواهم مدل چندجمله‌ای ترکیبی اندازه‌گیری‌های مکرر را با استفاده از R انجام دهم. برای دقیق‌تر می‌خواهم تحلیل MaxDiff را مشابه روش SawTooth Hierarchical Bayes انجام دهم. من می خواهم از مدل های ترکیبی استفاده کنم زیرا با روش های بیزی (hb و mcmc) آشنا نیستم. من صفحه وب (اینجا) را با مثالها (بخش: _Tricked Random Parameters Logit Model_) پیدا کردم، اما مشکلی در استخراج ضرایب وجود دارد. من می‌خواهم پارامترهای هر متغیر را برای هر پاسخ‌دهنده دریافت کنم، اما با استفاده از بسته «mlogit» فقط می‌توانم تخمین‌هایی از میانگین و واریانس توزیع ضرایب را دریافت کنم. من نمی دانم که آیا بسته R وجود دارد که بتوانم تخمینی از پارامترها را برای هر پاسخ دهنده دریافت کنم؟ من از هر گونه کمک یا راهنمایی در مورد نحوه استفاده از روش های bayesian و mcmc برای رسیدن به هدف خود سپاسگزار خواهم بود.
مدل چندجمله ای مخلوط با اندازه گیری های مکرر در ضرایب عصاره R
17480
من چند مدل رگرسیون کاکس ایجاد کرده‌ام و می‌خواهم ببینم این مدل‌ها چقدر خوب عمل می‌کنند و فکر کردم شاید یک منحنی ROC یا یک آماره c می‌تواند شبیه به استفاده از این مقاله مفید باشد: J. N. Armitage och J. H. van der Meulen. شناسایی بیماری های همراه در بیماران جراحی با استفاده از داده های اداری با کالج سلطنتی جراحان Charlson Score، مجله جراحی بریتانیا، جلد. 97، شماره 5، ss. 772-781، Maj 2010. آرمیتاژ از رگرسیون لجستیک استفاده کرد، اما نمی‌دانم که آیا می‌توان از یک مدل از بسته بقا استفاده کرد، survivalROC اشاره‌ای به این امکان دارد، اما من نمی‌توانم بفهمم که چگونه می‌توان آن را به کار برد. رگرسیون کاکس منظم ممنون می شوم اگر کسی به من نشان دهد که چگونه می توانم یک تحلیل ROC در این مثال انجام دهم: داده های کتابخانه(بقا)(کهنه سرباز) پیوست(کهنه سرباز) بقا <- Surv(زمان، وضعیت) مناسب <- coxph(surv ~ trt + سن + قبلی، داده=جانباز) خلاصه (مناسب) در صورت امکان از خروجی c-statics خام و یک نمودار خوب سپاسگزارم. ## به روز رسانی بسیار متشکرم برای پاسخ. @Dwin: من فقط می خواهم مطمئن شوم که قبل از انتخاب پاسخ شما، آن را درست متوجه شده ام. محاسبه همانطور که من آن را بر اساس پیشنهاد DWin درک می کنم: کتابخانه (بقا) کتابخانه (rms) داده (کهنه سرباز) fit.cph <- cph(surv ~ trt + سن + قبل، داده = کهنه سرباز، x=TRUE، y=TRUE، surv=TRUE) # خلاصه شکست می خورد!؟ #summary(fit.cph) # Dxy v <- validate(fit.cph, dxy=TRUE, B=100) # آیا این مقدار صحیح است؟ Dxy = v[rownames(v)==Dxy, colnames(v)==index.corrected] # آمار c با توجه به Dxy=2(c-0.5) Dxy/2+0.5 I'm با عملکرد اعتبارسنجی و بوت استرپینگ آشنا نیستم اما پس از بررسی پروفسور. پاسخ فرانک هارل در اینجا در R-help من متوجه شدم که احتمالاً این راهی برای دریافت Dxy است. کمک برای اعتبار سنجی بیان می کند: > ... همبستگی رتبه Dxy Somers باید در هر نمونه مجدد محاسبه شود (این مقدار > کمی بیشتر از آمار مبتنی بر احتمال طول می کشد). مقادیر مربوط به ردیف Dxy برابر با 2 * (C - 0.5) است که در آن C، C-index یا > احتمال تطابق است. من حدس می زنم که من بیشتر با ستون ها گیج شده ام. من متوجه شدم که مقدار تصحیح شده همان مقداری است که باید استفاده کنم، اما من واقعاً خروجی اعتبارسنجی را درک نکرده ام: index.orig آموزش تست خوش بینی index.corrected n Dxy -0.0137 -0.0715 -0.0071 -0.0644 0.0507 100 R2 0.00790.0079 0.0242 -0.0162 100 Slope 1.0000 1.0000 0.2939 0.7061 0.2939 100 ... در سوال R-help متوجه شدم که اگر لایه های مشخصی داشته باشم در cph باید surv=TRUE داشته باشم، اما هدفم چیست. پارامتر u=60 در تابع اعتبارسنجی است. اگر بتوانید به من کمک کنید تا اینها را بفهمم و بررسی کنم که هیچ اشتباهی مرتکب نشده ام، ممنون می شوم.
نحوه انجام آنالیز ROC در R با مدل کاکس
91442
من جدول 2x2 زیر را دارم نه بله 9690 5 LOW 26354 39 HIGH می خواهم 1. نسبت ها و فواصل اطمینان دقیق آنها را در دو میله رسم کنم. تست جانبی 1. من از تابع binconf، بسته Hmisc در R برای محاسبه فواصل دقیق استفاده کردم. **binconf(5,9690+5,alpha=0.05)** تخمین نقطه نسبت: 0.0005157298 CI.LOWER BOUND: 0.0002203084 CI. UPPER BOUND: 0.001206817 **263,54*5=39,263alpha(30+4) نقطه تخمین نسبت: 0.001477665. fisher.test(rbind(c(9690,5),c(26354,39))) _p-value = 0.01716 --> signific_ چگونه ممکن است که اگر فواصل اطمینان به شدت با هم همپوشانی داشته باشند، p-value همچنان قابل توجه است . پیشاپیش از هرگونه کمکی متشکرم ارادتمند شما، Martin Rijlaarsdam @whuber: ممنون که به من این پاسخ را راهنمایی کردید. من این تاپیک را دیده‌ام اما فکر می‌کردم که آیا چنین عدم تطابق بزرگی بین CI و اهمیت آزمون قابل انتظار است و آیا پاسخ برای نسبت‌ها نیز صادق است. با تشکر بهترین آرزوها، مارتین
آزمون دقیق نسبت: فواصل اطمینان در مقابل مقدار p
13394
فرض کنید عملکرد کار $y$ با عدد آزمایشی $x$ ($x = 1, 2, …, 10$) افزایش می‌یابد، به طوری که یک اثر تمرینی وجود دارد. فرض کنید اثر تمرین خطی است. آزمودنی ها یک وقفه طولانی دارند و سپس مشاهده دیگری از $y$ (برای $x = 11$) ارائه می دهند. دلیلی دارم که باور کنم آزمودنی‌ها در این وقفه در تکلیف بهتر می‌شوند، فراتر از آن چیزی که در اثر تمرین خطی انتظار می‌رود. بنابراین، می‌خواهم آزمایش کنم که آیا میانگین عملکرد در آزمایش یازدهم با یک مدل خطی متناسب با 10 آزمایش اول پیش‌بینی می‌شود یا خیر. روش صحیح برای آزمون این فرضیه چیست؟ من تصور می کنم چیزی شبیه به 1 خواهد بود. مدل رگرسیونی y را روی x برای x = 1,2,…,10 قرار دهید. 2. میانگین شرطی داده شده $x = 11$ را بر اساس مدل محاسبه کنید و آن را $Y_m$ صدا کنید. 3. میانگین نمونه $y$ را برای $x = 11$ محاسبه کنید و آن را $Y_s$ صدا کنید. 4. تفاوت بین دو کمیت بالا را آزمایش کنید. اما چگونه خطای استاندارد تفاوت را محاسبه کنم؟ یا فقط باید فواصل اطمینان را برای $Y_m$ و $Y_s$ محاسبه کنم و ببینم که آیا آنها همپوشانی دارند یا خیر؟ \-- به‌روزرسانی: آیا می‌توانم یک رگرسیون خطی را برای همه آزمایش‌ها قرار دهم، x = 1,2,...,11$، یک متغیر ساختگی را برای آزمایش یازدهم وارد کنم، و اهمیت عبارت متغیر ساختگی را آزمایش کنم؟
چگونه می توانم آزمایش کنم که آیا میانگین برون یابی برای یک مدل رگرسیون با میانگین مشاهده شده متفاوت است؟
13028
من می خواهم موضوع را به صورت مفهومی درک کنم نه از طریق معادلات
از کجا می توانم مرجع قابل دسترسی به خودرگرسیون برداری را پیدا کنم؟
20199
آیا کسی کتاب نسبتاً جدید و خوب در مورد خوشه بندی داده پیشنهادی دارد؟ به طور خاص، من به دنبال خوشه بندی افزایشی هستم.
کتاب‌هایی درباره خوشه‌بندی افزایشی داده‌ها
13022
من سعی می کنم آزمایشی را که انجام دادم تجزیه و تحلیل کنم. من 9 اندازه گیری ~~آزمون~~ را در دو تنظیمات مختلف (A و B) اجرا کردم. من انتظار دارم که توزیع عادی باشد. من فرضیه های زیر را داشتم: * $H_0:\; \mu_A = \mu_B$ * $H_1:\; \mu_A \neq \mu_B$ من نتایج زیر را برای اندازه گیری هایم دریافت کردم * A: n=9، میانگین = 1.66، sd = 1.12 * B: n=9، میانگین = 2.48، sd = 1.16 می خواهم بدانم آیا این تفاوت قابل توجه است (مثلاً در 95٪)، اما من کمی گیر کردم - فقط زمانی یاد گرفتم که چگونه این کار را انجام دهم که $\mu_A$ را بدانم یا $\sigma_A$ (یا به دلیل حجم نمونه تخمین بسیار خوبی از آن دارم)، اما من فقط یک نمونه انحراف استاندارد برای A دارم.
چگونه تصمیم بگیریم که آیا تفاوت بین دو شرط قابل توجه است؟
48192
من یک مدل مخلوط رشد را با استفاده از بسته lcmm نصب می‌کنم: library(lcmm) latent.growth.data <- read.csv(https://github.com/aronlindberg/latent_growth_classes/blob/master/LGC_data.csv) hlme(monthly_end_with, subject='repo_name', mix=~x, ng=3, idiag=TRUE, data=latent.growth.data) وقتی این کد را اجرا می کنم با خطای زیر مواجه می شوم: خطا در hlme(monthly_end_with, subject = repo_name, mix = ~x, ng = 3, : object monthly_end_with پیدا نشد.
برازش مدل مخلوط رشد با استفاده از lcmm (بسته R) - مواجهه با مشکلات
112989
من سعی می کنم از مجموعه ای از نقاط (سری های زمانی) میانگین بسازم با توجه به اینکه نقاط اخیر وزن بیشتری دارند. من قبلاً با فرمول میانگین متحرک نمایی امتحان کردم و از میانگین های دیگر مطلع هستم. با این حال، من می خواهم انواع دیگری از فرمول ها را امتحان کنم. هر ایده ای؟
میانگین وزنی یک سری زمانی
13023
من در حال آزمایش دو تنظیمات مختلف (مثلا A و B) برای یک ماشین هستم. از آرگومان های فیزیکی، من می دانم که $\mu_B >= \mu_A$. اگر واقعاً $\mu_B < \mu_A$ باشد، یک مشکل اساسی در مدل من وجود دارد. بنابراین سه گزینه وجود دارد: * $H_0: \mu_B = \mu_A$ (تنظیمات تفاوتی ایجاد نمی‌کند) * $H_1: \mu_B > \mu_A$ (تنظیم کردن بر اساس مدل تفاوت ایجاد می‌کند) * $H_2: \ mu_B < \mu_A$ (مدل اشتباه) من هرگز نمی بینم که با مواد به این شکل رفتار شود - آیا من برخی از اصول طراحی آزمایشی را به این شکل زیر پا می گذارم؟ چگونه نتایج آزمایش را تجزیه و تحلیل کنم؟ ویرایش: من می بینم که این مربوط به پاسخ در توجیه آزمون فرضیه یک طرفه است، اما همچنان می خواهم بدانم چگونه داده های حاصل را تجزیه و تحلیل کنم.
زمانی که $\mu_A < \mu_B$ با $\mu_A > \mu_B$ متفاوت است، فرضیه ها را فرموله کنید.
13026
من سعی می‌کنم آزمون Kolmogorov-Smirnov را برای تناسب با یک مجموعه داده اعمال کنم. من مجموعه بزرگی از مقادیر دارم، و می‌خواهم بدانم آیا با توزیع پواسون با $\lambda$ داده شده مطابقت دارد یا خیر. همانطور که من از جاوا برای تولید مجموعه داده استفاده می کنم، یک کلاس جاوا پیدا کردم که قرار است آنچه را که من می خواهم محاسبه کند - به نام jsc.goodnessfit.KolmogorovTest. سه روش وجود دارد، «approxUpperTailProb(int n,double D)»، «exactUpperTailProb(int n،double D)» و «getSP()». آیا به درستی متوجه شدم که «approxUpperTailProb()» احتمال تقریبی مطابقت داده‌های من با توزیع داده شده را محاسبه می‌کند؟ همچنین، مقدار 'n' اندازه مجموعه نمونه است، اما 'D' چیست؟ این به عنوان آمار کولموگروف-اسمیرنوف، نباید $< 0$ یا $> 1$ باشد. تا آنجا که من متوجه شدم، حداکثر فاصله هر نقطه از مجموعه داده من تا نقطه مربوطه در توزیعی است که با آن مقایسه می کنم. با این حال، همانطور که من در حال مقایسه با توزیع عمومی پواسون هستم، نمی دانم چگونه D را محاسبه کنم. در نهایت، «getSP()» چیست؟ مستندات بیان می کند که مقدار احتمال اهمیت را برمی گرداند. این به چه معناست؟ هر گونه کمک در این مورد بسیار قدردانی خواهد شد!
توضیح تست کولموگروف-اسمیرنوف با برنامه های کاربردی در جاوا
11885
در بازی با ورق Pitch چگونه می توانم محاسبه کنم که حریفان من 12 کارت از 52 کارت را دارند اگر دارای Ace، King یا Queen of a suit باشند؟ من حدس می‌زنم فقط 22% احتمال دارد که آس در دست آنها باشد، اما نمی‌دانم چگونه دو کارت دیگر را اضافه کنم. من می‌خواهم جک من کارت بالا باشد، یا شریکم آن را داشته باشد، ما برای ماه‌ها دو برابر می‌پردازیم و می‌خواهم بدانم که آیا باید فقط با جک برای high، با 3 کارت در مقابل من، ماه را انجام دهم.
شانس بالا در زمین بازی با ورق
103447
من یک پایگاه داده رسید یک فروشگاه مواد غذایی دارم. من می خواهم طبقات مشتریان مشابه را بر اساس رسید آنها پیدا کنم و افراد را پس از خرید در یکی از این کلاس ها طبقه بندی کنم. اجازه دهید فرض کنیم که نحوه انجام خوشه بندی و طبقه بندی در این مورد خاص مهم نیست. اجازه دهید فرض کنیم که ما هیچ دانش تخصصی برای برچسب گذاری داده های یافت شده توسط خوشه بندی نداریم. و آخرین فرض کنید که خوشه بندی یک کار طولانی در حال اجرا است، به دلیل حجم داده، بنابراین اغلب انجام نمی شود. بنابراین من یک تجزیه و تحلیل خوشه ای روی داده ها انجام می دهم. نتیجه تعدادی از خوشه های «بدون برچسب» (به معنای نام واقعی اما قابل تشخیص هستند) اما با ویژگی های مشابه است. من یک طبقه‌بندی کننده با عناصر هر خوشه و برچسب‌های کلاس مرتبط با آنها آموزش می‌دهم. این طبقه‌بندی‌کننده بعداً می‌توانم برای طبقه‌بندی افرادی که به عنوان مثال استفاده می‌کنند، استفاده کنم. تازه خریدش را به یکی از کلاس ها تمام کرده است. آیا فکر می کنید که این رویکرد منطقی است یا وجود دارد؟ هنگام ترکیب خوشه‌بندی و طبقه‌بندی نادیده می‌گیرم؟
خوشه بندی و طبقه بندی را ترکیب کنید
86122
من می‌خواهم میانگین دقت متوسط ​​(MAP) را از میانگین دقت (AP) برای همه کاربران و در فواصل هر 5 دقیقه در روز محاسبه کنم. چگونه می توانم MAP را از AP ​​برای هر دو این بعد [کاربر، فاصله زمانی] محاسبه کنم. یعنی من یک AP برای هر کاربر، در هر 5 دقیقه دریافت می کنم. من می خواهم MAP برای کل روز به طور میانگین در همه کاربران. آیا MMAP (به دلیل عدم وجود کلمه بهتر) وجود دارد؟ آیا حتی منطقی است که من میانگین را بیش از میانگین محاسبه می کنم؟
میانگین دقت متوسط ​​(MAP) در دو بعد
79129
بنابراین یک تفاوت کاملاً مشخص بین خطر نسبی و خطر مطلق برای مطالعات کوهورت مرسوم وجود دارد، و برای بسیاری از سؤالات، احتمالاً خطر مطلق مناسب‌تر است. آیا روش مشابهی برای اندازه‌گیری تفاوت مطلق برای مدل‌های زمان شکست شتاب‌دار وجود دارد؟ من گمان می‌کنم وجود ندارد، زیرا این مدل‌ها زمان‌های بقای متناسبی را فرض می‌کنند، بنابراین اندازه‌گیری نسبی ثابت خواهد بود، اما اندازه مطلق در طول زمان تغییر می‌کند، اما من می‌خواستم قبل از اینکه این خط استدلال را کنار بگذارم مطمئن شوم. آیا می توان آن را در یک نقطه زمانی ثابت انجام داد، مثلاً میانه - و آیا فکر می کنید این کار ارزشی دارد؟
تفاوت مطلق در مقابل تفاوت نسبی در زمان بقا - آیا این امکان پذیر است؟
58719
من سعی می‌کنم توزیع نامحدود جانسون را به مجموعه‌ای از داده‌های مالی با پیچیدگی و چولگی و همچنین مقادیر پرت تناسب دهم. من استفاده از برآوردگرهای حداکثر احتمال (MLE) را شروع کردم، اما یک عدد پرت تأثیر زیادی بر پارامترهای تخمین زده شده دارد. لطفاً می‌توانید به روش قوی‌تری برای تخمین پارامترها اشاره کنید، روشی که در آن مقادیر پرت تأثیر زیادی ندارند. من یک تخمینگر کمی برای پارامترهای توزیع پیدا کردم. آیا این روش از MLE قوی تر است؟
اتصالات توزیع قوی؟
11888
چرا برای کمند تا این حد موفق است، اگرچه برای اکثر مشکلات دیگر رویکردهای استاندارد شبه نیوتنی ترجیح داده می شود؟ من به نوعی این ایده هندسی مبهم را دارم که ممکن است به شکل توپ L_1$ مربوط باشد، اما واقعاً نتوانسته ام آن را رسمی کنم.
اثربخشی صعود مختصات
49528
فرض کنید مجموعه آموزشی $(x_{i}، y_{i})$ برای $i = 1، \dots، m$ داریم. همچنین فرض کنید ما نوعی الگوریتم یادگیری نظارت شده را روی مجموعه آموزشی اجرا می کنیم. فرضیه ها به صورت $h_{\theta}(x) = \theta_0+\theta_{1}x_{1} + \cdots +\theta_{m}x_{m}$ نشان داده می‌شوند. ما باید پارامترهای $\mathbf{\theta}$ را پیدا کنیم که فاصله بین $y_i$ و $h_{\theta}(x)$ را به حداقل می رساند. اجازه دهید $$J(\theta) = \frac{1}{2} \sum_{i=1}^{m} (y_{i}-h_{\theta}(x_i))^{2}$$ سپس ما می خواهیم $\theta$ را پیدا کنیم که $J(\theta)$ را به حداقل می رساند. در گرادیان نزول، هر پارامتر را مقداردهی اولیه می کنیم و به روز رسانی زیر را انجام می دهیم: $$\theta_j := \theta_j-\alpha \frac{\partial}{\partial \theta_{j}} J(\theta)$$ > **سوال .** تفاوت کلیدی بین نزول گرادیان دسته ای و نزول گرادیان تصادفی چیست؟ هر دو از قانون به روز رسانی بالا استفاده می کنند. اما آیا یکی بهتر از دیگری است؟
نزول گرادیان دسته ای در مقابل نزول گرادیان تصادفی
83159
هنگام استفاده از نمودار Q-Q، چرا توزیع تجربی $F_n(x) = \frac {\\#\\{y \in S \mid y \le x\\}} n$ را انتخاب می کنیم، $S$ نمونه است، برای مقایسه با عادی؟ اجازه دهید $S$ نمونه ما از اندازه $n$ باشد. سپس توزیع تجربی $F_n$ را همانطور که در بالا تعریف شد تشکیل می دهیم. سپس از نمودار Q-Q برای مقایسه $F_n$ با $N(0,1)$ استفاده می کنیم تا ببینیم آیا ممکن است یک رابطه خطی وجود داشته باشد. 1. چرا $F_n$ را به عنوان توزیع تجربی برای نمونه خود انتخاب می کنیم؟ 2. اگر $F_n$ را به عنوان توزیع تجربی انتخاب نکنیم، آیا می‌توانیم نتایج دیگری به دست آوریم؟ 3. برای شکننده $p \in (0,1)$، نقطه میانی $x$ بازه مربوط به $p$ را انتخاب می کنیم. چرا نقطه میانی را انتخاب می کنیم؟
نمودار Q-Q - چرا توزیع تجربی $F_n(x) = \frac {\#\{y \in S \mid y \le x\}} n$ را انتخاب می کنیم، $S$ نمونه است، برای مقایسه با نرمال؟
11887
من از یک انسان (اهداکننده) خون جمع‌آوری می‌کنم، لکوسیت‌ها را جدا می‌کنم و به ازای هر پنج چاه 2\times10^6$ از آنها می‌گذارم: * چاه 1: $2\times10^6$ Lk (لکوسیت) * چاه 2: $2\times10^ 6$Lk * well 3: $2\times10^6$Lk * well 4: $2\times10^6$Lk * خوب 5: $2\times10^6$ Lk (Lk از ترکیبی از مجموعه های مختلف سلول تشکیل شده است و یکی از آنها لنفوسیت ها (Lph) هستند). سپس سلول ها را در شرایط مختلف انکوبه کردم (با مواد زیر در غلظت یکسان (البته به استثنای چاه شماره 1)): * چاه 1: سالین (به عنوان کنترل صفر عمل می کند) * چاه 2: ماده A ( یک ترکیب بومی است) * چاه 3: ماده B (آنالوگ اصلاح شده شیمیایی A است) * چاه 4: ماده C (آنالوگ اصلاح شده شیمیایی A است) * چاه 5: ماده D (است یک آنالوگ اصلاح شده شیمیایی از الف) سپس لکوسیت ها را به مدت 24 ساعت انکوبه می کنم. سپس FACS را اجرا می‌کنم و درصد لنفوسیت‌هایی را دریافت می‌کنم که گیرنده (CD69) مورد علاقه (Lph') را بیان می‌کنند (که در آن درصدها نسبت Lph به کل Lph است). سپس آزمایش را 7 بار تکرار کردم: یعنی کلاً از 8 اهداکننده مختلف خون جمع‌آوری کردم (بنابراین n $ = 8 $). با این آزمایش می خواهم بدانم: آیا ساختار یک مولکول بر درصد / نسبت لنفوسیت های _فعال شده (Lph') (یعنی مولکول CD69 دارای Lph) تأثیر می گذارد؟ داده‌های مثال من (_در درصد، %_) عبارتند از: ** DonorID cntrl مادهA مادهB مادهC مادهD** 20 5.1 12.42 10.10 9.58 8.54 21 4.07 9.96 14.12 10.79 12.29 12.24 230.41. 15.96 9.37 25 0.60 3.24 8.94 0.61 3.62 26 1.72 13.96 2.48 3.44 3.12 27 0.53 3.36 1.40 4.00 2.308 0.81 3.77 3.31 31 0.15 4.05 1.45 2.44 1.47 32 0.58 1.92 2.47 2.33 4.92 33 1.02 6.03 4.40 4.80 1.47 32 0.58 1.92 2.47 2.33 4.92 33 1.02 6.03 4.40 4.80 * 3.88MARY* _ANOVA_ زیرا بیش از 2 گروه مورد آزمایش قرار می گیرند. * _RM_ به عنوان واحد آماری / تجربی (Lph) برای هر مورد تحت شرایط مختلف است. * _یک طرفه_ یک عامل _ثابت (داخل موضوع) / متغیر مستقل_ (شرایط) با 5 سطح وجود دارد. اگر در پرتو مدل‌های ترکیبی خطی اشتباه نکنم، DonorID ممکن است به عنوان یک عامل _تصادفی_ اضافی (اهداکننده) تفسیر شود. * * * _با تشکر فراوان از پاسخ ها!_
این چه طرح آزمایشی است؟
79126
این ممکن است مانند یک سوال گنگ / مبهم به نظر برسد. وقتی خطی از شیب $\frac{\sigma_y}{\sigma_x}$ ترسیم می کنید، چرا این خط محور اصلی بیضی نمودار پراکندگی است؟ آیا این خاصیت بیضی است؟ من ارتباطی بین انحرافات استاندارد فردی و تقارن نمی بینم.
چرا نمودار پراکندگی همیشه در اطراف خط SD متقارن است؟
17482
فرض کنید A، B، C و D چهار متغیر تصادفی باشند به طوری که A و B مستقل و C و D وابسته باشند. معلوم نیست A و C مستقل هستند یا B و D مستقل هستند. بگذارید E و F نشان دهنده محصولات E = AC و F = BD باشند. آیا E و F لزوماً مستقل هستند؟ اگر نه، می گوییم علم را اضافه می کنیم که A و C مستقل هستند و B و D مستقل هستند. آیا E و F لزوماً مستقل هستند؟
آیا محصولات متغیرهای تصادفی وابسته و مستقل مستقل هستند؟
58717
من یک مدل اثرات ثابت دو طرفه را تخمین می زنم که از داده های تابلویی برای 40 کشور در حال توسعه در یک دوره زمانی 16 ساله استفاده می کند. من از یک رگرسیون حداقل مربعات معمولی استفاده می کنم که شامل زمان-دوم و کشور-دوم می شود (فرمان 'xi: reg' در Stata) آیا باید از خطاهای استاندارد قوی استفاده کنم؟ چرا یا چرا نه؟
مدل جلوه های ثابت و خطاهای استاندارد قوی
62051
من با داده های شمارش حجم ترافیک سر و کار دارم. هنگامی که من با استفاده از آزمون مجذور کای تعیین کردم، پواسون برای داده ها مناسب است، اما شاخص پراکندگی کمی بیش از حد پراکنده شده است. چگونه با این موضوع برخورد کنیم؟ آیا این امکان وجود دارد که داده ها با پواسون مناسب باشند اما همچنان بیش از حد پراکنده باشند؟ اگر چنین است، به چه معناست؟ شاخص پراکندگی به 1.15 می رسد (در حالت ایده آل باید برای پواسون 1 باشد) همچنین، من داده هایی برای فواصل 360 - هر 30 ثانیه دارم (من داده ها را برای 3 ساعت از همان مکان، در همان زمان جمع آوری کردم).
داده های مناسب پواسون بیش از حد پراکنده شده است
20226
کجا می توانم مقایسه واریانس (یا اثر طراحی) روش های مختلف نمونه برداری را پیدا کنم؟ جامعه مشابه، حجم نمونه یکسان: می‌خواهم بدانم که کدام یک واریانس کمتری نسبت به دیگری دارد. در نمونه گیری تصادفی ساده، نمونه گیری سیستماتیک، نمونه گیری طبقه ای، نمونه گیری خوشه ای و غیره.
اثرات طراحی (یا واریانس) روش های نمونه گیری؟
20225
همانطور که در یک وبلاگ محترم گفته شد، شاید برای تماس زود باشد، اما [...] به نظر می رسد شبکه های عصبی در حال بازگشت هستند. برخی از شبکه هایی که در حال حاضر توسعه یافته اند Autoencoder و Convolution Networks هستند. از کجا می توان برخی آموزش ها/مقاله ها را در مورد این موضوعات پیدا کرد؟
آموزش شبکه های کانولوشن و رمزگذارهای خودکار
31657
تصویر زیر مربوط به این مقاله در _علم روانشناسی_ است. یکی از همکاران به دو چیز غیرعادی در مورد آن اشاره کرد: 1. طبق عنوان، نوارهای خطا 2.04 ± خطاهای استاندارد، فاصله اطمینان 95٪ را نشان می دهد. من فقط 1.96 ± SE را دیده ام که برای 95% CI استفاده شده است، و نمی توانم چیزی در مورد استفاده از 2.04 SE برای هر هدفی پیدا کنم. **آیا 2.04 SE معنای پذیرفته شده ای دارد**؟ 2. متن بیان می‌کند که مقایسه‌های دوتایی برنامه‌ریزی‌شده تفاوت‌های قابل‌توجهی را برای میانگین بزرگی مبهوت در خطا در مقایسه با آزمایش‌های قابل پیش‌بینی صحیح (t(30)=2.51، p<.01) و خطا در مقابل آزمایش‌های غیرقابل پیش‌بینی صحیح (t (30) = 2.61 پیدا کرد. ، P<0.01) (آزمون omnibus F نیز در p<0.05 معنی دار بود). با این حال، نمودار نشان می دهد که میله های خطا برای هر سه شرایط به طور قابل توجهی همپوشانی دارند. **اگر بازه های SE 2.04 ± همپوشانی دارند، چگونه مقادیر می توانند در p <.05 به طور قابل توجهی متفاوت باشند؟ ![نمودار نواری که نوارهای خطای 2.04 SE را نشان می‌دهد](http://i.stack.imgur.com/xr0yu.png)
منظور از خطاهای استاندارد 2.04؟ وقتی فواصل اطمینان به طور گسترده با هم همپوشانی دارند، به طور قابل توجهی متفاوت است؟
79125
اگر کسی بتواند بررسی کند که آیا روش من درست است یا خیر، بسیار خوب است. سوال به طور خلاصه این خواهد بود که اگر محاسبه خطا راه درستی باشد. فرض کنید من داده های زیر را دارم. داده = c(23.7،25.47،25.16،23.08،24.86،27.89،25.9،25.08،25.08،24.16،20.89) علاوه بر این، می خواهم بررسی کنم که آیا داده های من از توزیع نرمال پیروی می کنند (به عنوان مثال). می‌دانم که آزمایش‌هایی وجود دارد و غیره، اما روی ساختن qqplot با خطوط اطمینان تمرکز خواهم کرد. من می دانم که یک روش در پکیج ماشین وجود دارد، اما می خواهم ساختمان این خطوط را بفهمم. بنابراین من صدک ها را برای داده های نمونه خود و همچنین برای توزیع نظری خود محاسبه می کنم (با تخمینی mu = 24.6609 و sigma = 1.6828. بنابراین به این دو بردار حاوی صدک ها می رسم. صدک واقعی = c(23.08،23.7،24.16،24.86،25.08،25.08،25.16،25.47،25.90) ​​صدک تئو = c(22.50،23.24،23.78،24.23،24.62،25.09) icon می‌خواهم فاصله اطمینان «آلفا=0.05» را برای صدک‌های نظری محاسبه کنم. داده)» و «z=مقدار توزیع نرمال برای p» داده شده، بنابراین برای به دست آوردن فاصله اطمینان برای صدک دوم، موارد زیر را انجام می دهم. error = (qnorm(20+alpha/2,mu,sigma)-qnorm(20-alpha/2,mu,sigma))*sigma/sqrt(n) مقادیر را وارد کنید: error = (qnorm(0.225,24.6609,1.6828 )-qnorm(0.175,24.6609,1.6828)) * 1.6828/sqrt(11) error = 0.152985 siguriInterval (برای صدک دوم) = [23.24+0.152985، 23.24-0.152985] Interval اعتماد (برای صدک دوم) = [23.0870، در نهایت، مقدار کمتر از 23.0870] c(...,23.0870,.....)centileTheoUpper = c(...,23.3929,.....) برای بقیه یکسان است.... پس نظر شما چیست، آیا می توانم با آن بروم؟ نتیجه به این شکل است: ![QQPlot](http://i.imgur.com/OrqwpBv.png) بنابراین همانطور که می بینید من فاصله اطمینان برای هر نقطه را محاسبه کردم. بر خلاف راه حل ارائه شده توسط بسته qualityTools. همچنین یک خط از ربع 1 و 3 عبور می کند (من خط abline(0,1) را رسم می کنم). استفاده از این خط چه معنایی دارد؟ من به شما پیشنهاد می کنم راه را در ابزارهای کیفی ترجیح دهید، اما چگونه می توان این فاصله اطمینان را که برای هر امتیاز محاسبه نمی شود، بدست آورد؟ ![QQPlot](http://i.imgur.com/lCUFyZM.jpg) پس چه راهی را ترجیح می دهید؟ این سوال در ابتدا در SO زیر (http://stackoverflow.com/questions/20481117/calculating- اعتماد- intervall-for-quantiles-first-by-hand-than-in-r) پست شده بود. به توصیه یک کاربر، سعی می کنم پاسخ سوالم را در اینجا دریافت کنم.
محاسبه فاصله اطمینان برای چندک ها ابتدا با دست (نسبت به R)
91741
من چندین رگرسیون خطی زوجی را روی مجموعه‌ای از متغیرها انجام می‌دهم. برای مثال «x» به عنوان متغیر وابسته در مقابل «y»، «y» به عنوان متغیر وابسته در مقابل «x»، «x» به عنوان متغیر وابسته در مقابل «z»، و غیره. اگر می‌خواهم یک خطای خانوادگی را انتخاب کنم. رویه تصحیح نرخ، کدام یک از این رگرسیون ها مستقل محسوب می شوند؟ واضح است که «y=m*x+b» مستقل از «x=m*y+b» نیست، حتی اگر OLS بهینه‌سازی متفاوتی را انجام دهد. آیا این درست است؟ آیا «y=m*x+b» مستقل از «y=m*z+b» است؟
چه زمانی رگرسیون خطی چندگانه مستقل هستند؟
82121
تفاوت بین $ \lim_{n \to \infty} \ \mathrm{E}_{\theta}(T_n(X)) = \theta$ و $ T_n(X) \xrightarrow{p} \theta \ چیست؟ $ برای $\ n \xrightarrow{} \infty$ ? (بی طرفی در مقابل سازگاری) * * * بالا... به نظر می رسد این سوال از قبل وجود داشته است:-( سوال متقاطع مشابه آیا این سوال را حذف کنم؟
سازگاری در مقابل بی طرفی
97144
من مجموعه‌ای از کارگران ترک‌مانند مکانیکی دارم که به ازای هر کار 0.25 دلار دستمزد دریافت کرده‌اند تا وظایف را از مجموعه‌ای محدود، اما بسیار بزرگ انجام دهند، و اطلاعاتی در مورد تعداد کارها و دقت/سرعت آنها دارم. آنها را برای سال گذشته تکمیل کردم. در 1 آوریل، قیمت پرداختی به کارگران برای هر کار را به 0.15 دلار کاهش دادم. من اکنون اطلاعات یک ماهه در مورد حجم کارهای تکمیل شده، دقت تکمیل و زمان تکمیل دارم. می‌خواهم آزمایش کنم که آیا کاهش قیمت پرداخت شده برای هر کار تأثیری بر حجم تکمیل کار، دقت و زمان داشته است یا خیر. غریزه من در اینجا این است که از آزمون رتبه بندی علامت دار Wilcoxon برای مقایسه میانگین داده های ماهانه 12 ماه قبل از افت قیمت و ماه داده هایی که بعد از افت قیمت دارم استفاده کنم. 1. آیا این تست مناسبی برای استفاده است؟ به طور خاص، من فکر می‌کردم که آزمون رتبه‌بندی علامت‌دار Wilcoxon در اینجا کاربرد ویژه‌ای دارد، زیرا من نتایج را روی یک نمونه مقایسه می‌کنم و به این دلیل که ماهیت ناپارامتریک آزمون به من اجازه می‌دهد که در واقع هیچ فرضی نداشته باشم، برخلاف آزمون T Student. 2. آیا منطقی است که میانگین داده های ماهانه 12 ماه قبل از افت را با ماه داده های بعد از افت مقایسه کنم؟ 3. آیا هنگام تلاش برای تشخیص اینکه آیا کاهش قیمت تغییری در نتایج داشته است، رویکرد بهتری وجود دارد؟
آزمایش تفاوت در میانگین ها پس از یک تغییر تجربی
20194
یک مدل رگرسیون خطی چندگانه با ویژگی‌های $F$ و نمونه‌های $N$ را فرض کنید. برای هر ویژگی، یک خطای استاندارد روی ضریب $\beta$ و مقدار P-T Student قابل محاسبه است. P-value صفر بودن ضریب $\beta$ را در مقابل ضریب $\beta$ غیر صفر آزمایش می کند. اگر من بخواهم یک خطای استاندارد ثابت در ضرایب $\beta$ و یک توان ثابت در آزمون های T Student را حفظ کنم، مقیاس $N$ مورد نیاز با افزایش $F$، از نظر نماد big-O چگونه است؟ به طور مشابه، اگر هر دو $N$ و $F$ را دوبرابر کنم، برای خطاهای استاندارد و قدرت آماری من چه اتفاقی می‌افتد؟
مقیاس اندازه نمونه مورد نیاز با تعداد ویژگی ها در رگرسیون خطی چندگانه چگونه است؟
31036
من واقعاً متعجبم که به نظر می رسد هیچ کس قبلاً این سؤال را نپرسیده است ... هنگام بحث در مورد برآوردگرها، دو اصطلاح غالباً استفاده می شود سازگار و بی طرفانه. سوال من ساده است: تفاوت چیست؟ تعاریف فنی دقیق این عبارات نسبتاً پیچیده است، و به سختی می توان احساسی شهودی برای معنای آنها به دست آورد. من می توانم یک برآوردگر خوب و یک برآوردگر بد را تصور کنم. اما من با دیدن اینکه چگونه هر برآوردگر می تواند یک شرط را برآورده کند و شرط دیگر را برآورده نمی کند، مشکل دارم.
تفاوت بین یک برآوردگر ثابت و یک برآوردگر بی طرف چیست؟
20227
می‌خواهم بفهمم که چرا در مدل OLS، RSS (مجموع باقی‌مانده مربع‌ها) خی مربع برابر n-p توزیع می‌شود (p تعداد پارامترهای مدل، n تعداد مشاهدات). من از پرسیدن چنین سؤال اساسی پوزش می خواهم، اما به نظر می رسد که نمی توانم پاسخ را به صورت آنلاین (یا در کتاب های درسی کاربردی تر خود) پیدا کنم.
چرا RSS خی مربع برابر n-p توزیع شده است؟
79695
من در مورد آزمایش فرضیه با نسبت شانس تعجب کردم. من می دانم که در این وضعیت فرضیه صفر $OR = 1$ است. با این حال، از چه انحراف معیار و آماری باید استفاده کرد؟ به دلایلی، من نمی توانم شرح کاملی از روش در آن مورد پیدا کنم. شاید به این دلیل است که مردم از تست دقیق فیشر استفاده می کنند. با خواندن ویکی‌پدیا، بخشی برای استنتاج آماری وجود دارد، اما در عوض از لگاریتم نسبت شانس استفاده می‌کنند.
آزمون فرضیه با نسبت شانس