_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
90327 | من افراد $N$ را دارم که هر کدام برای $T$ روز مشاهده شده اند. برای هر فرد من برخی از داده های جمعیت شناختی اولیه دارم. هر $n$ فردی، در طول زمان مشاهده شده $T_n$ ممکن است رویداد $E$ را تجربه کند که به عنوان مدت زمان E در هر یک از روزهای مشاهده شده ثبت می شود. به عنوان مثال برای یک $n$ فرد معین، من $D_1n,D_2n,D_3n$ دارم که برای کل زمان مشاهده شده معتبر هستند، به اضافه بردار مدت زمان رویدادهای $E$ در هر روز مشاهده شده به شرح زیر: مدت زمان رویداد روز (دقیقه ) 1 0 2 10 3 50 ... هیچ فرض توزیعی را نمی توان برای مدت زمان $E$ در نظر گرفت، چه در سطح بیمار و چه در سطح جمعیت مدل پیشبینی مدت زمان رویداد را میتوان برای هر فرد و به طور کلی برای جمعیت ایجاد کرد. برای تمام زمانهای گذشته و آینده معتبر هستند)، با چه اطمینانی میتوانیم پیشبینی کنیم که هر فرد در روزهای X آینده چه چیزی را تجربه خواهد کرد تاکنون تحقیق کردهام که این مسئله بیشتر مربوط به اقتصاد سنجی است. با تشکر فراوان. | کدام روش برای پیش بینی سری های زمانی مدت زمان رویداد |
52453 | من روی سیستمی کار می کنم که بتواند کانتور دست را تشخیص دهد. بنابراین من 270 نمونه در مجموعه داده خود دارم: 7 کلاس کانتور دست، 8 بردار ویژگی از هر نمونه. در ابتدا، من از Weka برای تعیین بهترین طبقهبندی کننده برای مجموعه داده من استفاده کردم. و من طبقه بندی رگرسیون لجستیک را پیدا کردم. اما، مشکل این است که من نمی دانم طبقه بندی کننده رگرسیون لجستیک چگونه کار می کند؟ یا عقیده (ایده) اصلی طبقه بندی کننده رگرسیون لجستیک چیست؟ خیلی وقته تو گوگل سرچ میکنم ولی هنوز جوابشو پیدا نکردم. این چیزی است که من دریافتم که باید مفید باشد: 1 1992-JSTOR-Cessie-Logistic_Regression [2] [فصل 4 رگرسیون لجستیک به عنوان یک طبقهبندی]1 پیشاپیش متشکرم! | چگونه طبقه بندی کننده رگرسیون لجستیک مجموعه داده را مدل سازی می کند؟ |
99325 | من در حال کار بر روی یک متاآنالیز میانگین یک متغیر منفرد هستم (با استفاده از میانگین حسابی به عنوان اندازه اثر، به جای رابطه بین دو متغیر). نگرشی که من ارزیابی می کنم با ده ها معیار مختلف سنجیده شده است که مقیاس های رتبه بندی متفاوتی دارند. من از معادله زیر برای تبدیل امتیازها بین دو معیار مختلف استفاده میکنم تا آنها را روی یک متریک قرار دهیم: $$X_2 = \frac{(X_1 - \min_1)(\max_2 - \min_2)}{\max_1 - \min_1} +\min_2$$ جایی که $X_2$ = امتیاز در معیار دوم. $X_1$ = امتیاز در اولین معیاری که می خواهم تغییر دهم. $\min_1$ و $\max_1$ = کمترین و بالاترین امتیاز ممکن در معیار 1. و $\min_2$ و $\max_2$ = کمترین و بالاترین امتیاز ممکن در معیار 2. (Card, N., _Applied Meta-Analysis for Social Science Research_, 2011, pg. 148). فرض کنید هر دو معیاری که میخواهم مقایسه کنم، ساختار یکسانی را ارزیابی میکنند. میدانم که اگر این دو معیار مقیاس رتبهبندی یکسانی داشته باشند، میتوانم از آن استفاده کنم (۱ تا ۵، کاملاً موافقم کاملاً مخالفم). سوالات من این است: 1. در مورد دو معیار که تعداد گزینه های پاسخ یکسانی دارند، اما عبارت اندکی متفاوت هستند، چطور؟ به عنوان مثال، هر دو مقیاس 5 امتیازی هستند، اما اندازه 1 عبارت است از: > 1 = کاملاً مخالف، 2 = مخالف، 3 = خنثی، 4 = موافق، 5 = کاملا > موافق، در حالی که اندازه 2 این است: > 1 = کاملاً مخالف، 2 = تا یک نقطه مخالفم، 3 = خنثی، 4 = موافق > تا یک نقطه، > 5 = کاملاً موافقم چقدر مهم است که آنها دقیقاً عبارت یکسانی داشته باشند؟ (من تمایل دارم که فکر کنم اینها تقریباً یکسان هستند و می توانند با هم ترکیب شوند). 2. در مورد اقدامات با تعداد پاسخ های مختلف چطور؟ به عنوان مثال: اندازه 1 مانند مثال بالا است، اما اندازه 2 دارای یک مقیاس رتبه بندی 1-7 است که تنها با لنگرهای نقطه پایانی کاملاً مخالفم/کاملاً موافقم، اندازه گیری 3 دارای یک مقیاس رتبه بندی 1-6 است: > 1 = کاملاً مخالف، 2 = نسبتاً مخالف، 3 = کمی مخالف، 4 = > کمی موافق، 5 = نسبتاً موافق، 6 = کاملاً موافقم و اندازه 4 دارای یک مقیاس رتبه بندی 1 تا 7 از: > 1 = کاملاً موافق، 2 = موافق، 3 = کمی موافق، 4 = خنثی، 5 = کمی > مخالف، 6 = مخالف، 7 = کاملاً مخالف تبدیل مقیاس های 5 و 7 امتیازی کمتر مشکل به نظر می رسد. از تبدیل بین 5 و 6، زیرا نقطه میانی خنثی را از دست می دهید. با این حال، من از هر گونه توصیه ای در این مورد استقبال می کنم، زیرا روش های من را در حال حرکت رو به جلو آگاه می کند. متشکرم! | تغییر نمرات بین مقیاس های مختلف رتبه بندی - اهمیت گزینه های پاسخ |
64638 | من سعی می کنم تعداد شرکت هایی را که با استفاده از داده های تابلویی وارد بازارهای خاصی می شوند، تخمین بزنم. برای انجام این کار، من یک رگرسیون پروبیت مرتب در «Stata» با استفاده از بسته «gllamm» اجرا کردم. تعداد شرکتها از 0 به 5 میرود. دستور به شرح زیر است (که در آن «id» = یک بازار ثابت است): «gllamm NCompanies مستقل_متغیرها، i(id) link(oprobit)». نقاط برش یک متغیر نهفته و تأثیری که هر متغیر مستقل بر متغیر پنهان دارد. تا اینجا که برای من خوب بود، وقتی سعی کردم اثرات حاشیه ای را با استفاده از دستورات 'mfx' یا 'margins' تخمین بزنم، با مشکل مواجه شدم. وقتی «mfx, dydx» را تایپ میکنم، دقیقاً همان نتایجی را میگیرم که با «gllamm» (؟!) منهای نقاط برش نشان داده میشود. بنابراین، نمیدانم که «gllamm» قبلاً تأثیرات حاشیهای را نشان میداد یا تأثیر را روی متغیر پنهان نشان میداد... اگر «mfx, eydx» را تایپ کنم، نتیجه با «mfx» قبلی متفاوت است. - بنابراین، من تمایل دارم بر این باورم که این یک اشکال در دستور mfx نبود، بلکه gllamm قبلاً اثرات حاشیه ای را ایجاد می کرد. برای بررسی این موضوع، من دستور «حاشیهها» را امتحان کردم: «حاشیهها، atmeans استمرار»، این پاسخ کاملاً متفاوت از موارد قبلی است - و دستور «حاشیهها، atmeans dydx(مغیرهای_مستقل) مداوم» همگرا نمیشود. آیا کسی پاسخ سوالات زیر را می داند؟ 1. آیا گلام در مورد فوق اثرات حاشیه ای را ارائه می دهد؟ 2. اگر بخواهم اثرات حاشیه ای هر متغیر مستقل را محاسبه کنم (همه پیوسته هستند) آیا از دستور حاشیه به روش اشتباه استفاده می کنم؟ اگر چنین است، در عوض چه کاری باید انجام دهم؟ | دریافت افکت های حاشیه ای پس از رگرسیون oprobit پانل در Stata (با استفاده از بسته gllamm) |
54851 | بیایید بگوییم که پیچیدگی اگر فردی در مقیاس ترتیبی به صورت : 1 = ساده 2 = متوسط 3 = پیچیده 4 = بسیار پیچیده رتبه بندی شود، چگونه می توانم میانگین پیچیدگی را با گرفتن از 100 پاسخ دهنده نشان دهم؟ با تشکر | متوسط در پیچیدگی |
63010 | من می خواهم ضرایب دو رگرسیون خطی را مقایسه کنم: $$ \begin{array}{c} y_{ij} &=& \beta_0 + \beta_1 X_{j} + u_{ij} \\\ y_{j} &=& \alpha_0 + \alpha_1 X_{j} + u_{j} \\\ y_{j} &=& \frac{1}{N_j} \sum_{i=1} ^ {N_j} y_{ij} \end{آرایه} $$ به طوری که معادله دوم فقط با استفاده از میانگین گروه $j$ به جای مشاهدات فردی $y_{ij}$ متفاوت است متغیر وابسته آیا راه آسانی برای نشان دادن اینکه $\hat{\beta}_1 = \hat{\alpha}_1$ وجود دارد، جایی که کلاه نشان دهنده تخمین OLS است؟ | معادل سازی ضریب شیب در یک رگرسیون با استفاده از داده های فردی و کل |
99497 | من باید یک مقدار را اندازه گیری کنم. برای انجام این کار، من فقط نمونه هایی با مقدار مشخص و یک ابزار اندازه گیری دارم که می تواند بگوید نمونه بزرگتر یا کوچکتر از مقدار مورد نظر است. وقتی اندازهگیری کامل شد، دو مجموعه دارم: یکی حاوی مقادیر کوچکتر و دیگری حاوی مقادیر بزرگتر. برای مثال، با مجموعههای [-5,-3,-5,-1,-2,-3] و [1,4,3,2,5,3] میتوانم فرض کنم که مقدار احتمال بالایی دارد بین -1 و 1 باشد. اما با دو مجموعه [-5,2,-3,1,-2,-6,-4] و [7,3,-1,2] کمتر مشخص است. از کدام ابزارها می توانم برای یافتن محدوده یا مقدار و درجه اطمینان آن استفاده کنم؟ با تشکر از شما ویرایش: از آنجایی که سوال من به خوبی فرمول بندی نشده بود، در اینجا نحوه جمع آوری داده ها آمده است: صدای مرجع با فرکانس ناشناخته وجود دارد. سپس به افراد صداهایی از فرکانس های دیگر داده می شود و آنها باید بگویند که آیا صدا بیشتر است یا کمتر. بنابراین دو مجموعه. با دادههای جمعآوریشده، باید فرکانس ناشناخته را پیدا کنم و اینکه چقدر میتوانم به نتیجه اعتماد کنم. | ارزش بین مجموعه بزرگتر و کوچکتر |
12373 | بنابراین سوال من این است که سایت های پرسش و پاسخ خوبی را در مورد یادگیری ماشین، NLP یا داده کاوی توصیه کنید. من فکر می کنم بچه های اینجا ممکن است اغلب به این سایت های مرتبط بروند. | سایتهای پرسش و پاسخ برای یادگیری ماشین و NLP |
91914 | اگر $\mu$ یک اندازه گیری احتمال است، $$\left\| f \right\|_{\infty} = \lim_{p \rightarrow \infty} \left\| f \right\|_{p}$$ جایی که $\چپ\| f \right\|_{p} = \left( \int f^p d\mu\right) ^{1/p}$ and $\left\| f \right\|_{\infty}$ برتری اساسی $f$ نسبت به $\mu$ است. آیا کسی آنقدر مهربان است که راه هایی برای اثبات این موضوع پیشنهاد کند؟ | چگونه حد هنجارهای $L_p$ را محاسبه کنیم؟ |
54854 | بنابراین اساساً من از فایل wine.dta استفاده می کنم و طیفی از متغیرهای ساختگی برای 6 منطقه دارم. من 1 منطقه را حذف کردم (پسرفت روی 5 متغیر ساختگی) اما به دلایلی _Stata_ می گوید هنوز مشکل هم خطی وجود دارد و فقط 4 ضریب را می دهد... چرا هنوز یک مشکل همخطی وجود دارد در حالی که من قبلاً یکی را برداشته ام. از متغیرهای ساختگی برای جلوگیری از تله متغیر ساختگی. | دام متغیر ساختگی در Stata |
63012 | من از ICA با ارزش پیچیده برای استخراج منابع داده های حسگر با ارزش پیچیده استفاده می کنم. یکی از سه ابهام برای ICA پیچیده، ابهام فاز است، یعنی چرخش فاز $\exp(i\theta_k)$ از منابع $s_k$ (علاوه بر ابهامات جایگشت و مقیاس بندی، مانند ICA واقعی). با این حال، مدل ICA خطی مختلط $\bf{z}=A\cdot \bf{s}$ از شکل کلی شروع میشود که هر سه کمیت $\bf{z},A,\bf{s}$ پیچیده هستند، بنابراین شایستگی این فرض برای $\bf{s}$ از من دوری میکند. آیا معنایی وجود دارد که بتوان به فازهای $s_k$ داد یا اینکه $|s_k|$ همه چیزی است که می توان گزارش داد؟ | اهمیت یک فاز منبع در یک ICA پیچیده |
79697 | آیا می توانم از یک مقایسه متعارف با داده های غیر پارامتری استفاده کنم؟ در مورد استفاده از آزمون تعقیبی با داده های غیر پارامتریک من چطور؟ من تعداد اشیاء درون یک هسته را می شمارم و بر اساس موقعیت من، داده ها باید از توزیع پواسون پیروی کنند. این فرض با آزمون نرمال بودن تایید می شود. | استفاده از مقایسه متعامد برای داده های غیر پارامتری |
64399 | مشکلی که من در اینجا با آن برخورد می کنم این است: مجموعه ای از 4 نقطه در دو بعدی وجود دارد، و من باید یک منحنی صاف را در فضای دوبعدی ترسیم کنم که از این نقاط عبور کند. آیا بسته ای در R برای انجام این کار وجود دارد؟ | رسم منحنی های دو بعدی صاف با اسپلاین دو بعدی در R |
12378 | من آخرین کد GPML Matlab کد GPML Matlab را دانلود کرده ام و مستندات را خوانده ام و دمو رگرسیون را بدون هیچ مشکلی اجرا کرده ام. با این حال، من در درک نحوه اعمال آن در یک مشکل رگرسیونی که با آن مواجه هستم مشکل دارم. مسئله رگرسیون به صورت زیر تعریف می شود: * * * اجازه دهید $\mathbf{x}_i \in \mathbb{R}^{20}$ یک بردار ورودی باشد و $\mathbf{y}_i \in \mathbb{R} ^{25}$ هدف مربوطه آن باشد. مجموعه ورودیهای $M$ در یک ماتریس $\mathbf{X} = [\mathbf{x}_1, \dots, \mathbf{x}_M]^\top$ مرتب شدهاند و اهداف مربوطه آنها در یک ماتریس ذخیره میشوند. $\mathbf{Y} = [\mathbf{y}_1 - \mathbf{\bar{y}}، \dots, \mathbf{y}_M-\mathbf{\bar{y}}]^\top$، با $\mathbf{\bar{y}}$ که میانگین مقدار هدف در $\mathbf{Y}$ است. من می خواهم یک مدل GPR $\mathcal{G} = \lbrace \mathbf{X}, \mathbf{Y}, \theta \rbrace$ را با استفاده از تابع نمایی مربعی آموزش دهم: $k(\mathbf{x}_i, \ mathbf{x}_j) = \alpha^2 \text{exp} \left( - \frac{1}{2\beta^2}(\mathbf{x}_i - \mathbf{x}_j)^2\right) + \gamma^2\delta_{ij}$، جایی که $\delta_{ij }$ برابر $1$ است اگر $i = j$ و $0$ در غیر این صورت. فراپارامترها $\theta = (\alpha، \beta، \gamma)$ هستند که $\gamma$ سطح نویز فرضی در دادههای آموزشی است و $\beta$ مقیاس طول است. برای آموزش مدل، باید احتمال حاشیه ای ورود به سیستم منفی را با توجه به فراپارامترها به حداقل برسانم: $-\text{log}\, p(\mathbf{Y} \mid \mathbf{X}, \theta) = \frac {1}{2} \text{tr}(\mathbf{Y}^\top\mathbf{K}^{-1}\mathbf{Y}) + \frac{1}{2}\text{log}\mid\mathbf{K}\mid + \,c,$ که در آن c یک ثابت است و ماتریس $\mathbf{K}$ تابعی از فراپارامترها است ( معادله k(xi,xj) = ...) را ببینید. * * * بر اساس نسخه آزمایشی ارائه شده در وب سایت GPML، تلاش من برای پیاده سازی این با استفاده از کد GPML Matlab در زیر آمده است. covfunc = @covSEiso; likfunc = @likGauss; sn = 0.1; hyp.lik = log(sn); hyp2.cov = [0;0]; hyp2.lik = log(0.1); hyp2 = به حداقل رساندن(hyp2، @gp، -100، @infExact، []، covfunc، likfunc، X1، Y1(:، n)); exp(hyp2.lik) nlml2 = gp(hyp2، @infExact، []، covfunc، likfunc، X1، Y1(:، n)); [m s2] = gp(hyp2، @infExact، []، covfunc، likfunc، X1، Y1(:، n)، X2); Y2r(:، n) = m; X1 شامل ورودی های آموزشی است X2 حاوی ورودی های آزمون است Y1 شامل اهداف آموزشی است Y2r تخمین های حاصل از اعمال مدل n شاخصی است که برای رگرسیون هر عنصر در بردار خروجی استفاده می شود با توجه به مشکل، آیا این روش صحیح آموزش و اعمال است. مدل GPR؟ اگر نه، چه چیزی را باید تغییر دهم؟ | چگونه از کد GPML Matlab برای یک مشکل واقعی (غیر نمایشی) به درستی استفاده کنیم؟ |
46294 | **ویرایش: جزئیات بیشتری به دنبال نظرات @kjetil اضافه شد ** من مشکل زیر را دارم: * من یک جریان از رویدادهای نوع A را نظارت می کنم - آن رویدادها را می توان آنی در نظر گرفت. * من همچنین جریان های اضافی از رویدادها را از انواع B1، B2،... Bn نظارت می کنم - این رویدادها یک بازه زمانی مرتبط با آنها دارند. * من می خواهم تعیین کنم که آیا فرکانس رویدادهای نوع A در طول هر نوع خاص B به طور قابل توجهی افزایش می یابد (به عبارت دیگر، می خواهم دقیقاً تعیین کنم که کدام نوع B در فواصل زمانی رویدادهای خود تأثیر مثبت قابل توجهی دارند) * بسیاری از موارد مشابه نوع رویداد می تواند به طور همزمان رخ دهد * این اثر احتمالاً در تعداد رویدادهای همزمان از نوع B خاص خطی است * احتمالاً بسیاری از انواع B وجود دارند که روی رویدادهای A تأثیر نمی گذارند * انواع B از رویدادها لزوماً تنها چیزی نیستند که بر روی رویدادهای نوع A تأثیر می گذارند * همه رویدادها احتمالاً دارای توزیع پیچیده ای هستند که بسته به روز / ساعت / هفته / ماه / رویدادهای قبلی تغییر می کند - نه یک پواسون ساده * من _مداوم_ همه جریان ها را زیر نظر دارم - می خواهم کشف کنید که چه زمانی یک نوع B شروع به تأثیرگذاری بر فرکانس رویداد A می کند و من همچنین می خواهم بدانم که آیا در نقطه ای در آینده تأثیر آن متوقف شده است (و این باید به طور نامحدود ادامه یابد) به عنوان مثال: * رویدادهای نوع A قطع برق هستند * رویدادهای نوع B1 مربوط به باز و بسته شدن تهویه مطبوع است. * رویدادهای نوع B2 مربوط به باز و بسته شدن تلویزیون است. آیا ایده ای دارید که چگونه باید با این مشکل برخورد کنم؟ (مرجع کلی خوب هستند) با تشکر! | چگونه می توانم تأثیراتی را که برخی رویدادها بر فراوانی رویدادهای دیگر در طول زمان می گذارند اندازه گیری کنم؟ |
9201 | من یک اسکریپت نوشتم که داده ها را با استفاده از wilcox.test آزمایش می کند، اما زمانی که نتایج را دریافت کردم، همه مقادیر p برابر با 1 بودند. در برخی از وب سایت ها خواندم که می توانید قبل از آزمایش داده ها از jitter استفاده کنید (برای جلوگیری از پیوندها). همانطور که گفتند) من این کار را کردم و اکنون نتیجه قابل قبولی دارم. آیا این کار اشتباه است؟ test<- function(column,datacol){ library(ggplot2) t=read.table(data.txt, stringsAsFactors=FALSE) uni=unique(c(t$V9)) for (xp in uni) { for( yp in uni) { testx <- subset(t, V9==xp) testy <- subset(t, V9==yp) zz <- wilcox.test(testx[[datacol]],jitter(testy[[datacol]])) p.value <- zz$p.value } } } * * * این خروجی `dput(head(t ))` structure(list(V1 = c(0.268912, 0.314681, 0.347078, 0.286945، 0.39562، 0.282182)، V2 = c(0.158921، 0.210526، 0.262024، 0.322006، 0.133417، 0.283025، 0.283025، 0.283025، 0.283025، 6، 283025، V3 = 0.132547، 0.147361، 0.09174، 0.169093)، V4 = c(0.358085، 0.307898، 0.258352، 0.243688، 0.379268، 0.379224، 0.22-24، 0.2=c. 0.010895، 0.14655، 0.08152، 0.02116، 0.030083)، V6 = c(0.096408، -0.091896، -0.331229، -0.4426603، -0.4426603، -0.08 - 0.429, 0.08 - c(1.680946، 1.649559، 1.534401، 1.130529، 3.441356، 1.211815)، V8 = c(NC_000834، NC_000844، NC_000_00444، NC_000_045، NC_000_045، NC_000_045 NC_000860)، V9 = c(Chordata، Arthropoda، Chordata، Chordata، Arthropoda، Chordata)، V10 = c(???:???، Diplostraca ، ???:???، Rheiformes، Diptera، Salmoniformes)، V11 = c(???:???، Branchiopoda، Mammalia، Aves، Insecta، Actinopterygii))، .Names = c(V1، V2، V3، V4، V5، V6، V7، V8 , V9، V10، V11)، row.names = c(NA, 6L)، class = data.frame) داده ها بسیار بزرگ هستند، و این همان موضوعی است که من شروع کردم و آنها به من گفتند ممکن است انجام این کار اشتباه باشد **توجه** این سوال از tex.SE می آید: تولید خروجی PDFcontain R در جدول لاتکس | آیا لرزش قبل از انجام تست ویلکاکسون اشکال دارد؟ |
62941 | می خواهم سوال قبلی ام را بازنویسی کنم. من ANOVA را برای 4 کلاستر اجرا می کنم تا بفهمم آیا تفاوتی بین این خوشه ها از نظر دلایل سفر وجود دارد. بعد از اینکه تست Levene را بررسی کردم، یکی از متغیرهای من دارای p-value کمتر از 0.05 بود، اما آن متغیر F(3324) = 6.35، p=0.000 برای ANOVA دارد. الان 2 تا سوال دارم : 1. وقتی تست لوین رد میشه ولی از طرفی تست ANOVA هم رد میشه یعنی تفاوت آماری داره آیا میشه این تحلیل ANOVA رو قبول کرد؟ 2. وقتی برای همه متغیرها از ANOVA استفاده می کنیم و برای همه آنها آزمون لون رد نمی شود، با توجه به این که تست لون یک متغیر رد می شود، آیا می توانیم فقط برای آن متغیر مشکل ساز از آزمون کروسکال والیس استفاده کنیم. یا نه؟ به عبارت دیگر، آیا این درست است که من فقط از آزمون Kruskal-Wallis برای یک متغیر استفاده می کنم؟ | مشکل آزمون ANOVA و Levene (2) |
46832 | میخواهم کسی بتواند تفاوت بین دو ماتریس کوواریانس را توضیح دهد. فرض کنید ${\bf K}_X$ و ${\bf K}_Y$ دو ماتریس کوواریانس از بردارهای تصادفی واقعی هستند. تفاوت بین ${\bf K}_X+{\bf K}_Y$ و ${\bf K}_{X+Y}$ چیست؟ | تفاوت بین مجموع دو ماتریس کوواریانس و ماتریس کوواریانس مجموع دو متغیر چیست؟ |
62946 | من باید 2 تست اختلاف میانگین برای نتایج بدست آمده توسط 2 الگوریتم یادگیری انجام دهم. **تست 1** 1. من 2 الگوریتم دارم 2. یک مجموعه داده (با N مثال) می گیرم 3. هر دو الگوریتم را 10 بار اجرا می کنم 4. هر بار، هر الگوریتم روی مجموعه ای 9/10*N آموزش داده می شود. نمونهها و با مجموعهای از N/10 نمونه آزمایش شده است (یعنی اعتبارسنجی متقاطع 10 برابری انجام شده است)، و نتیجه XX٪ است. مقدار نمونه های طبقه بندی شده صحیح در چنین مجموعه آزمایشی. در اینجا من از آزمون t استفاده می کنم. من می دانم که آزمون t فرضیات نرمال بودن را ایجاد می کند. من از آن استفاده می کنم زیرا مجموعه داده ها بسیار بزرگ است (N> 100)، بنابراین می توانم توزیع نرمال داده ها را فرض کنم (و اگر داده ها به طور معمول توزیع شوند، میانگین های یک الگوریتم منفرد به طور معمول توزیع شده اند، و بنابراین تفاوت میانگین ها از دو الگوریتم به طور معمول توزیع شده است). یا باید فقط N/10 را به عنوان حجم نمونه در نظر بگیرم که میانگین ها از آن گرفته شده است؟ **تست 2** 1. من دو الگوریتم دارم 2. من 10 نمونه از یک مسئله بهینه سازی ترکیبی را می گیرم (مسئله فروشنده دوره گرد) 3. هر الگوریتم را روی 10 نمونه اجرا می کنم. 4. برای هر اجرا، نتیجه را یادداشت می کنم. مقدار (که در فاصله ای از مقدار بهینه برای آن مثال است) چگونه می توانم آزمایشی بر روی تفاوت میانگین ها انجام دهم؟ کدام وسیله را می توانم در نظر بگیرم؟ کدام داده ها را باید از نظر نرمال بودن بررسی کنم؟ | تفاوت میانگین ها -- آزمایش دو الگوریتم |
17264 | من میخواهم تست KSS را اجرا کنم (KAPETANIOS, G. – SHIN, Y. – SNELL, A. 2003: Testing for UnitRoot in the Nonlinear STAR Framework) اما نمیدانم چگونه دادههای تحقیر شده و دادههای کاهش یافته را بدست بیاورم. آیا می توانید فرآیند STATA را برای من توضیح دهید؟ | چگونه داده های کاهش یافته و داده های تحقیر شده را در Stata بدست آوریم؟ |
9208 | می خواستم بدانم که آمار و تئوری تصمیم چگونه به هم مرتبط هستند؟ به نظر من تمام مشکلات/وظایف آماری را می توان در تئوری تصمیم فرمول بندی کرد. همچنین مشکلات در تئوری تصمیم را می توان به صورت مسائل آماری/احتمالی یا به روش قطعی فرموله کرد. بنابراین آیا آمار فقط بخشی از مسائل مورد مطالعه در نظریه تصمیم گیری است؟ یا فقط دو نظریه هستند که همپوشانی دارند و هیچ کدام به طور کامل در درون دیگری قرار نمی گیرند؟ اما باید اعتراف کنم که من تصویر کلی سیستماتیکی از موضوعاتی که نظریه آمار و تئوری تصمیم به ترتیب پوشش میدهند، ندارم و میخواهم برخی از دیدگاههای شما را در اینجا بیان کنم. با تشکر و احترام! | چه رابطه ای بین نظریه آمار و نظریه تصمیم وجود دارد؟ |
10289 | در محل کار ما در مورد این موضوع بحث می کردیم زیرا رئیس من هرگز در مورد عادی سازی چیزی نشنیده بود. در جبر خطی، به نظر می رسد نرمالیزاسیون به تقسیم یک بردار بر طول آن اشاره دارد. و در آمار، به نظر می رسد استانداردسازی به تفریق میانگین و تقسیم بر SD آن اشاره دارد. اما به نظر می رسد آنها با سایر احتمالات نیز قابل تعویض هستند. هنگام ایجاد نوعی نمره جهانی، که 2 معیار مختلف را تشکیل می دهد، که دارای ابزارهای مختلف و SD های متفاوتی هستند، آیا عادی سازی، استانداردسازی یا چیز دیگری را انجام می دهید؟ یک نفر به من گفت که فقط باید هر متریک را در نظر گرفت و آنها را بر SD آنها به صورت جداگانه تقسیم کرد. سپس این دو را جمع کنید. و این منجر به یک امتیاز جهانی می شود که می تواند برای قضاوت در مورد هر دو معیار استفاده شود. به عنوان مثال، فرض کنید تعداد افرادی که با مترو به محل کار خود می روند (در نیویورک) و تعداد افرادی که با ماشین به محل کار خود می روند (در نیویورک) را دارید. قطار ---> x ماشین ---> y اگر میخواهید یک امتیاز جهانی برای گزارش سریع نوسانات ترافیک ایجاد کنید، نمیتوانید فقط میانگین (x) و میانگین (y) را اضافه کنید زیرا افراد بسیار بیشتری خواهند بود که سوار قطار 8 میلیون نفر در نیویورک زندگی می کنند، به اضافه گردشگران. این یعنی میلیونها نفر که هر روز سوار قطار میشوند در مقابل صدها هزار نفر در ماشینها. بنابراین باید آنها را به مقیاسی مشابه تبدیل کرد تا با هم مقایسه شوند. اگر mean(x) = 8,000,000 و mean (y) = 800,000 آیا x & y را نرمال می کنید و سپس جمع می کنید؟ آیا x و y و سپس جمع را استاندارد می کنید؟ یا هر کدام را بر SD مربوطه تقسیم می کنید و سپس مجموع می کنید؟ برای اینکه به عددی برسیم که وقتی نوسان می کند، کل نوسانات ترافیک را نشان می دهد. هر مقاله یا فصلی از کتاب برای مرجع بسیار قدردانی می شود. با تشکر همچنین در اینجا یک مثال دیگر از آنچه من سعی در انجام آن دارم. تصور کنید که رئیس دانشگاه هستید و در حال بحث در مورد شرایط پذیرش هستید. شما ممکن است دانش آموزانی را بخواهید که حداقل معدل معدل و نمره آزمون مشخصی داشته باشند. خوب است اگر هر دو در یک مقیاس باشند، زیرا میتوانید این دو را با هم جمع کنید و بگویید: هر کسی که حداقل 7.0 داشته باشد میتواند پذیرش شود. به این ترتیب، اگر یک دانش آموز آینده نگر معدل 4.0 داشته باشد، می تواند نمره آزمون 3.0 را پایین بیاورد و همچنان پذیرفته شود. برعکس، اگر فردی معدل 3.0 داشته باشد، باز هم می تواند با نمره آزمون 4.0 پذیرش شود. اما اینطور نیست. ACT در یک مقیاس 36 امتیازی است و اکثر معدل ها روی 4.0 هستند (بعضی از آنها 4.3 هستند، بله آزاردهنده). از آنجایی که من نمی توانم فقط یک ACT و GPA را برای دریافت نوعی نمره جهانی اضافه کنم، چگونه می توانم آنها را تغییر دهم تا بتوان آنها را اضافه کرد و در نتیجه یک نمره پذیرش جهانی ایجاد کرد. و سپس بهعنوان رئیس، میتوانم بهطور خودکار هر کسی را که نمرهای بالاتر از یک آستانه مشخص داشته باشد، بپذیرم. یا حتی به طور خودکار همه افرادی را که امتیازشان در بالای 95 درصد است بپذیرد... این جور چیزها. آیا این عادی سازی خواهد بود؟ استاندارد سازی؟ یا فقط تقسیم هر کدام بر SD آنها و سپس جمع کردن؟ | تفاوت بین Normalization و Standardization چیست؟ |
86389 | من به دنبال این هستم که یک توزیع SNEP را به برخی از دادهها تطبیق دهم، اما مطمئن نیستم که چگونه این کار را انجام دهم - آیا کسی میتواند برای تخمین پارامترها و غیره مشتقاتی به من بدهد؟ | برازش توزیع SNEP و برآورد پارامتر |
46836 | من مجموعه ای از عناصر $X$ را دارم که می توانم با توجه به ویژگی های $n$ توصیف کنم. بنابراین: $$x_i: \\{c_{i1}، c_{i2}، \ldots، c_{in}\\} \mid x_i \in X $$ که $c_{ij}$ ارزیابی (عددی) است برای عنصر $i$ با توجه به ویژگی های $j$. بنابراین عناصر من را می توان به عنوان نقاط در فضای بعد $n$ مشاهده کرد. با توجه به خوانشهای من، الگوریتمهایی مانند «طبقهبند بیز» وجود دارد که میتواند پاسخ «بله» یا «خیر» را برای هر عنصری از مجموعهام به من ارائه دهد، مشروط بر اینکه از «مجموعه آموزشی» متشکل از تعدادی استفاده کرده باشم. عناصر مجموعه من و نتیجه مورد انتظار الگوریتم. بر اساس آن دادهها، الگوریتم باید بتواند هر عنصر دیگری را بگیرد، نه بخشی از مجموعه آموزشی، و بر اساس آنچه که به لطف مجموعه آموزشی آموخته است، پاسخ بله یا خیر ارائه دهد. اگر تصوری از آنچه انتظار دارید (مجموعه تمرینی) داشته باشید، اما از قوانین خاصی که منجر به آن نتیجه می شود مطمئن نیستید، عالی است. کاری که من میخواهم با دادههایم انجام دهم این نیست که پاسخی از نوع «بله» یا «خیر» دریافت کنم، اما میخواهم رتبهبندی را در عناصر معرفی کنم. برخی از آنها بهتر از دیگران هستند. درست مانند فیلتر Bayes، من یک ایده کلی از آنچه که انتظار دارم، دارم. بنابراین میتوانم یک «رتبهبندی آموزشی» ایجاد کنم که از زیرمجموعهای از عناصرم گرفته شده و به MLA تغذیه میکنم. بر اساس آن آموزش، می تواند کل مجموعه من را رتبه بندی کند. برای انجام این کار، من دو رویکرد را می بینم: 1. به هر عنصر امتیازی توسط MLA داده می شود، سپس عناصر را بر اساس امتیاز رتبه بندی می کنند. 2. MLA می تواند دو عنصر $x_i$ و $x_j$ را بگیرد و تعیین کند که کدام یک بهتر است (مقایسه های زوجی). از مرتب سازی سریع با استفاده از آن عملیات مقایسه استفاده کنید. توجه: بر اساس یک امتیاز، پیاده سازی تابع زوجی بی اهمیت است، و بر اساس یک تابع زوجی، ایجاد یک امتیاز بی اهمیت است، بنابراین اینها فقط دو رویکرد برای رسیدن به نتایج یکسان هستند. آیا نمونههایی از MLA وجود دارد که بتواند یک تابع امتیازدهی یا یک تابع مقایسه زوجی ارائه دهد؟ ویرایش: به منظور افزودن زمینه بیشتر: در حال حاضر آیتمهای من بر اساس الگوریتمی رتبهبندی میشوند که با انجام محاسبات روی $c_{ij}$، برای هر مورد یک امتیاز (عدد واقعی) ایجاد میکند. در حالی که رتبهبندی ایجاد شده کاملاً صحیح است، اغلب مجبور میشوم الگوریتم را تغییر دهم تا به نحوی آن را تغییر دهم، زیرا میتوانم برخی از موارد را به وضوح ببینم که مطابق با آنچه انتظار داشتم رتبهبندی نشدهاند. بنابراین در حال حاضر فرآیند طراحی من به این صورت است: 1. ایده ای از رتبه بندی کامل داشته باشید. 2. سعی کنید (به صورت دستی) الگوریتمی استخراج کنید که موارد را مانند آن رتبه بندی کند. 3. نتایج را مشاهده کنید. 4. الگوریتم را تطبیق دهید بنابراین به این فکر کردم. MLA از آنجایی که نقطه شروع فرآیند من چیزی است که می تواند به عنوان داده آموزشی استفاده شود. من احتمالاً با گرفتن رتبه فعلی شروع می کنم، اقلام را بر اساس نیازهایم عوض می کنم و آن را تغذیه می کنم. | الگوریتم یادگیری ماشین برای رتبه بندی |
54853 | من مدتی است که در مورد این موضوع تحقیق می کنم و به دنبال نظرات یا نظراتی بودم. آیا شرایطی وجود دارد که تحلیل مسیر (شکلی از SEM) مناسبتر از یک SEM کامل باشد؟ به طور خاص، اگر معیارهای مورد استفاده استاندارد شده و اغلب بسیار طولانی است که یک مدل اندازه گیری را بسیار پیچیده می کند و متعاقباً افزایش پارامترهایی که باید تخمین زده شود، تقاضای بیشتری را برای اندازه نمونه ایجاد می کند، من از خود می پرسیدم که آیا استفاده از تحلیل مسیر به عنوان یک مصالحه قابل توجیه است؟ تمرکز بر روابط بین متغیرهای نهفته است که من درک می کنم که در تحلیل مسیر مشاهده می شود. مدلهای اندازهگیری این واقعیت را توضیح میدهند که اندازهگیری هرگز کامل نخواهد بود، اما بسیاری از تستها در SPSS، همبستگی و آزمونهای تفاوت انجام میشوند، من فرض میکنم بر این اساس است. که هیچ خطایی در اندازه گیری وجود ندارد؟ من در این مورد احساسات متفاوتی دارم و ادبیات به همان اندازه در هم آمیخته است. بسیاری از مقالات میگویند که از SEM استفاده میکنند، اما در مورد مشخصات مدلهای اندازهگیری بحث نمیکنند و من را به این فکر میاندازد که آیا آنها به جای آن از تحلیل مسیر استفاده میکنند. دورهای که اخیراً در آن بودهام نشان میدهد که این قابل قبول است، اما مجدداً از وجود محدودیتهایی قدردانی میکنم و میخواهم با دیگرانی که از این تکنیکها استفاده کردهاند ارتباط برقرار کنم. امیدوارم این منطقی باشد. فکر میکنم میخواهم مطمئن شوم که همه راهها را در نظر گرفتهام و در تصمیمهایم اطمینان دارم. | تحلیل مسیر یا SEM کامل؟ |
21572 | من می خواهم طرح توصیف شده در کتاب ElemStatLearn عناصر یادگیری آماری: داده کاوی، استنتاج و پیش بینی. ویرایش دوم توسط ترور هستی و رابرت تیبشیرانی و جروم فریدمن را ایجاد کنم. طرح این است:  من تعجب می کنم که چگونه می توانم این نمودار دقیق را در R تولید کنم، به خصوص به گرافیک شبکه و محاسبه توجه کنید برای نشان دادن مرز | چگونه مرز تصمیم یک طبقهبندیکننده k نزدیکترین همسایه را از عناصر یادگیری آماری رسم کنیم؟ |
52455 | من مقدار منفی برای پارامتر شکل با استفاده از «gev.fit» در بسته «ismev» R دریافت کردم. نشان دهنده چیست؟ آیا به این معنی است که به جای توزیع ارزش افراطی تعمیم یافته (GEV) به توزیع دیگری تعلق دارد؟ در اینجا خروجی «gev.fit» است: $conv [1] 0 $nllh [1] 12.96933 $mle [1] 13.796261 1.847000 -1.084086 $se [1] 0.001307101 NaN NaN8-8 مقدار آن 8. خیلی منفی است که اینطور نیست تقریبی صفر | مقدار منفی در پارامتر شکل gev.fit |
46292 | این آزمایش را تصور کنید: فرض کنید من دو دسته دوقلو دارم. برای جفت دوقلو اول یکی را به عنوان کنترل نگه می دارم و به دوقلو دوم داروی الف را می دهم. برای جفت دوقلو دوم یکی را به عنوان شاهد نگه می دارم و داروی دوقلوی دوم را می دهم. حالا می خواهم نشان می دهد که اثربخشی داروی A بر کنترل بیشتر از اثر داروی B بر کنترل است. در هر مورد، من پاسخی را در هر دوقلو مانند دمای بدن اندازه میگیرم. هدف من ثابت کردن این است که داروی A دمای بدن را بیشتر از داروی B در مقایسه با گروه کنترل کاهش می دهد، برای مثال یک مقدار p منفرد که آزمایش را خلاصه می کند. من کل آزمایش را سه بار تکرار کردم. بنابراین، برای داروی A، من سه جفت اعداد دارم، که هر یک بین یک جفت دوقلو مقایسه میکنند، یکی دارو داده شده و دیگری به عنوان شاهد باقی مانده است. و همین طور برای داروی B. چگونه می توانم آزمایشی مانند این را تجزیه و تحلیل کنم؟ (به دلایل فنی زیادی که مربوط به برنامهام است، باید با جفتهای همسان کار کنم؛ و واقعاً روی انسانها آزمایش نمیکنم.) | مقایسه اثربخشی درمانهای مختلف بر کنترل از طریق جفتهای همسان |
62940 | با توجه به اطلاعات کمی که من می دانم، الگوریتم EM می تواند برای یافتن حداکثر احتمال استفاده شود، وقتی که مشتقات جزئی را با توجه به پارامترهای احتمال، صفر می کنیم، مجموعه ای از معادلات را ارائه می دهد که نمی توان آنها را به صورت تحلیلی حل کرد. اما آیا الگوریتم EM به جای استفاده از تکنیک های عددی برای یافتن حداکثر احتمال با توجه به محدودیت مجموعه معادلات ذکر شده مورد نیاز است؟ | چرا از الگوریتم حداکثرسازی انتظارات استفاده می شود؟ |
9203 | من توزیع X$ دارم. با بازی کردن با نمونه های تصادفی از $X$، من تعیین کردم که $Var(X^i) > Var(X)$ که $i > 1$ است. با این حال، به نظر نمیرسد فرمولی برای واریانس مورد انتظار $X^i$ یا اینکه چرا باید از $Var(X)$ بیشتر باشد، پیدا نمیکنم. با فاصله گرفتن از توزیع های عادی، آیا باید تعمیم داد که پارامتر مقیاس هر $X^i$ بزرگتر از $X$ خواهد بود؟ | تنوع محصول توزیع با خودش |
94912 | من داده هایی از یک کارآزمایی تصادفی خوشه ای دارم، یعنی هر آزمودنی در همان خوشه درمان یکسانی را دریافت کرده است. آیا تست مجذور کای و آزمون تی نیاز به تنظیماتی دارند؟ بهطور دقیقتر، برای مقایسه فراوانی در جداول احتمالی و مقایسه میانگینها برای متغیرهای کمی، باید کدام تحلیل را در Spss انجام دهم؟ | از spss برای تجزیه و تحلیل داده های تصادفی خوشه ای استفاده کنید |
62949 | من یک رگرسیون لجستیک با یک نتیجه باینری (شروع و شروع نکردن) انجام می دهم. ترکیبی از پیش بینی کننده های من همگی متغیرهای پیوسته یا دوگانه هستند. با استفاده از رویکرد Box-Tidwell، یکی از پیش بینی کننده های پیوسته من به طور بالقوه فرض خطی بودن logit را نقض می کند. هیچ نشانه ای از آمارهای خوب بودن تناسب مبنی بر مشکل ساز بودن تناسب وجود ندارد. من متعاقباً دوباره مدل رگرسیون را اجرا کردم و متغیر پیوسته اصلی را با: اولاً تبدیل ریشه مربع و دوم نسخه دوگانه متغیر جایگزین کردم. در بررسی خروجی، به نظر می رسد که تناسب اندکی بهبود می یابد، اما باقیمانده ها مشکل ساز می شوند. تخمین پارامترها، خطاهای استاندارد و $\exp(\beta)$ نسبتا مشابه باقی می مانند. تفسیر داده ها از نظر فرضیه من، در 3 مدل تغییر نمی کند. بنابراین، از نظر سودمندی نتایج و حس تفسیر دادهها، گزارش مدل رگرسیون با استفاده از متغیر پیوسته اصلی مناسب به نظر میرسد. من در تعجب هستم: 1. چه زمانی رگرسیون لجستیک در برابر نقض احتمالی خطی بودن فرض لاجیت قوی است؟ 2. با توجه به مثال بالا، آیا گنجاندن متغیر پیوسته اصلی در مدل قابل قبول به نظر می رسد؟ 3. آیا هیچ مرجع یا راهنمایی وجود دارد که توصیه کند در مواقعی که پذیرفتن اینکه مدل در برابر نقض بالقوه خطی بودن لاجیت قوی است، توصیه کند؟ | بررسی استحکام رگرسیون لجستیک در برابر نقض خطی بودن لاجیت |
81177 | من در مورد فیلترهای ذرات یاد میگیرم، و بیشتر نمایشگاهها با نمونهبرداری اهمیت شروع میشوند، بنابراین اکنون در مورد نمونهبرداری اهمیت یاد میگیرم. مطمئن نیستم که یک پاراگراف را در این مقاله به درستی تفسیر میکنم: آرولامپالام، ماسکل، گوردون و کلاپ (2002)، آموزش فیلترهای ذرات برای ردیابی بیزی آنلاین غیرخطی/غیر گاوسی (PDF)، صفحه 178، ستون سمت چپ، نزدیک وسط: > بنابراین ما یک تقریب وزنی گسسته به عقب واقعی داریم، > $p(\mathbf x_{0:k}|\mathbf z_{1:k})$. وزنها با استفاده از اصل > نمونهبرداری مهم [3]، [12] انتخاب میشوند. این اصل بر موارد زیر استوار است. فرض کنید $p(x)\propto\pi(x)$ چگالی احتمالی است که از آن کشیدن نمونه دشوار است اما $\pi(x)$ را می توان برای آن ارزیابی کرد [و همچنین $p(x) $ تا تناسب]. علاوه بر این، اجازه دهید $x^i\sim > q(x),i=1,\ldots,N_s$ نمونه هایی باشند که به راحتی از یک پیشنهاد تولید می شوند > $q(\cdot)$ به نام _importance density_. سپس، یک تقریب وزنی برای > چگالی $p(\cdot)$ توسط > $$p(x)\approx\sum_{i=1}^{N_s}w^i\delta(x-x^i)$ داده میشود. $ where > $$w^i\propto\frac{\pi(x^i)}{q(x^i)}$$ وزن نرمال شده ذره $i$th > است. من این را به معنای زیر در نظر میگیرم: * $p(x)$ یک چگالی احتمال است، یعنی $\int p=1$، که میخواهیم آن را تقریبی کنیم. متأسفانه، نمونه برداری از $p(x)$ دشوار است. علاوه بر این، ارزیابی $p(x)$ برای $x$ معین دشوار است. * $\pi(x)$ چگالی است که متناسب با $p(x)$ است، به این معنی که مقداری $M>0$ ثابت وجود دارد به طوری که $\pi(x)=Mp(x)$ برای همه $xها $. ما $\pi(x)$ را چگالی احتمال نمی نامیم زیرا $M=\int \pi$ لزوما برابر با $1$ نیست و در واقع محاسبه $M$ ممکن است دشوار باشد. اما این اتفاق می افتد که محاسبه $\pi(x)$ برای یک $x$ ساده تر از محاسبه $p(x)$ است. با این حال، نمونه برداری از $\pi(x)$ دشوار است، که مشابه نمونه برداری از $p(x)$ است. * $q(x)$ چگالی دیگری است، که باید در هر جایی که $\pi(x)$ غیر صفر است، غیر صفر باشد، اما در غیر این صورت نیازی نیست که خیلی شبیه به $\pi(x)$ باشد. چگالی $q(x)$ لزوماً چگالی احتمال نیست، بنابراین $\int q$ لزوماً $1$ (؟) نیست، اگرچه به نظر می رسد برای آنچه در ادامه می آید مهم نیست. نمونه برداری از $q(x)$ باید آسان باشد، _and_ ارزیابی $q(x)$ برای یک $x$ معین باید آسان باشد. من هنوز از زبان و همچنین در کروشه مربع در منبع آویزان هستم. ممکن است این فقط یک مسئله عبارت باشد، اما من نمی دانم که آنها می خواهند چه چیزی را منتقل کنند، و امیدوارم چیزی را از دست ندهم. مشکل دیگر این است که یکی از مراجع آنها Doucet، Godsill و Andrieu (2000)، درباره روشهای نمونهبرداری متوالی مونت کارلو برای فیلتر کردن بیزی (PDF) است، که در عوض از حرف $\pi$ برای نشان دادن تابع اهمیت استفاده میکند. و هیچ چگالی کمکی متناسب با توزیع هدف $p$ معرفی نمی کند. 1. تا اینجا درست میگم؟ 2. آیا دلیل ظریفی وجود دارد که چرا این دو مقاله از $\pi$ برای نمایش چیزهای مختلف استفاده می کنند؟ یا این فقط یک تصادف بدشانسی است؟ | $\pi(x)$ معمولاً در نمونه گیری اهمیت به چه معناست؟ |
62944 | من داده هایی دارم مانند A 2 A 4 A 76 B 8 B 13 .. .... اساساً، گسترش A، B و غیره چقدر است. نمودار مناسبی برای تجسم چنین اطلاعاتی در R چیست؟ | نمودار مناسب برای تجسم گسترش داده ها |
46835 | من برخی از داده های بزرگ حاوی اطلاعات قیمت گذاری رویداد با 45 روز نقل قول زمان پیش از رویداد دارم. بنابراین، ساختار آن به این صورت است: -45 100.00 -44 120.00 ... -1 110.00 ما هر روز از سال رویدادهایی داریم و داده های سال به سال داریم. من نسبتاً مبتدی در مدلهای پیشبینی هستم، بنابراین این یک سؤال اساسی است: آیا میتوان از این دادهها برای انجام پیشبینی استفاده کرد؟ برای این کار از چه مدلی استفاده کنیم؟ | پیشبینی دادههای قیمتگذاری با زمان سررسید؟ |
46833 | با توجه به مجموعه ای از متغیرهای کمکی و خانواده توزیع، چگونه می توانم مدل هایی را با توابع پیوند متفاوت مقایسه کنم؟ من فکر می کنم پاسخ صحیح در اینجا AIC/BIC است، اما من 100٪ مطمئن نیستم. آیا مدل های تو در تو در صورت داشتن لینک متفاوت امکان پذیر است؟ | مشکل در مقایسه مدلهای GLM که عملکرد پیوند متفاوتی دارند |
54856 | همانطور که می بینید، من بیش از 500 گروه داده دارم. چگونه می توانم std.coef را در رگرسیون چند خطی برای هر گروه دریافت کنم؟ تا به حال، من فقط میدانم چگونه با استفاده از «lm.beta» یک گروه را بدست بیاورم. به عنوان مثال: library(QuantPsyc) p <- read.csv('Data1.csv') model1 <- lm(YCOORD110 ~ TEMMIN + TEMVAR) lm.beta(model1) برای گروه ها، چندین کد مانند «by»، «apply» می توان استفاده کرد، اما به نظر بسیار پیچیده تر از کنترل من است. برای پاسخ های شما بسیار سپاسگزارم  | ضریب رگرسیون استاندارد شده ($\beta$) در رگرسیون چند خطی توسط گروه ها؟ |
69202 | آیا می توان یک آزمون UMP برای فرضیه های یک طرفه در $ \theta $ برای مورد i.i.d شناسایی کرد؟ نمونه $ (X_1، ...، X_n) $ از متغیرهای تصادفی $ X_i \sim f_\theta (.) $ به طوری که پارامتر $ \theta $ در پشتیبانی از $ f_\theta (.) $ ظاهر شود؟ آیا این به قضیه کارلین-روبین اشاره دارد؟ من به دلیل پارامتری که در پشتیبانی ظاهر می شود کمی گیج شده ام. با تشکر | آزمون UMP برای فرضیه های یک طرفه |
69208 | پس از ایجاد یک شی جنگل تصادفی با استفاده از randomForest با حدود 500 متغیر کاندید، از importance(object) برای نمایش _IncNodePurity_ برای هر یک از متغیرهای کاندید در رابطه با نتیجه باینری مورد علاقه (پرداخت/بدون پرداخت) استفاده کردم. من میدانم که _IncNodePurity_ کاهش کل ناخالصیهای گره است که با شاخص جینی از تقسیم بر روی متغیر اندازهگیری میشود و میانگین آن روی همه درختان است. چیزی که من نمیدانم این است که پس از استفاده از «جنگل تصادفی» برای انتخاب ویژگی در رابطه با مدلهای رگرسیون لجستیک باینری، بریدگی برای متغیرهای کاندید حفظ شود. برای مثال، کوچکترین _IncNodePurity_ در بین 498 متغیر من 0.03 است، در حالی که بزرگترین _IncNodePurity_ 96.68 است. به طور خلاصه، من یک سوال اصلی دارم: آیا قطعی برای _IncNodePurity_ وجود دارد؟ اگر بله، آن چیست؟ اگر نه، چگونه قطع را تعیین می کنید؟ اگر مدلی با تنها 10 متغیر پیش بینی کننده می خواهید، به سادگی 10 متغیر کاندید را با بزرگترین _IncNodePurity_ انتخاب می کنید؟ هر گونه فکر یا مرجع بسیار قدردانی می شود. با تشکر | جنگل تصادفی: IncNodePurity و انتخاب ویژگی برای رگرسیون لجستیک باینری |
63015 | آیا آمار مجذور کای پیرسون تعمیم یافته به عنوان یک $R^2$ شبه در نظر گرفته می شود؟ من فکر می کنم بله، زیرا یک $R^2$ کاذب تعمیم شکل $R^2$ است، و آمار مجذور کای پیرسون تعمیم یافته دارای فرمی با باقیمانده های $R^2$ در اعداد آن است. اما مطمئن نیستم. با تشکر | آیا آمار مجذور کای پیرسون تعمیم یافته یک $R^2$ شبه است؟ |
100057 | من یک مدل مختلط خطی دارم، با خطای اندازه گیری ضربی فقط روی متغیر کمکی ثابت (یعنی فرض می شود قسمت تصادفی بدون خطا اندازه گیری می شود). چگونه می توانم ضرایب را به بهترین نحو تخمین بزنم؟ از نظر ریاضی، با استفاده از نماد استاندارد، $Y=Z\beta+Ub+\epsilon$ $X=Z\delta$ $\beta$ اثر ثابت است، $b$ اثر تصادفی است. $Z$ یک رگرسیون بدون خطا مشاهده نشده است. $X$ نسخه مشاهده شده با خطای ضربی است. من کاملاً مطمئن نیستم که توزیع «استاندارد» برای $\delta$ چه خواهد بود، اما خوشحالم که فرض میکنم هر توزیع «استاندارد» باشد. یعنی به معنای «0» (به معنای ضربی ....) و همسانی. چگونه $\beta$ را تخمین بزنم؟ | تخمین پارامتر LMM با خطای اندازه گیری ضربی در متغیر کمکی ثابت - چگونه؟ |
103443 | من یک قاب داده با این ساختار دارم: 'data.frame': 39 obs. از 3 متغیر: $ موضوع : فاکتور w/ 13 سطح Acido Folico،..: 1 2 3 4 5 6 7 8 9 10 ... $ متغیر: فاکتور w/ 3 سطح Both،Preconception،. .: 1 1 1 1 1 1 1 1 1 1 ... ارزش دلار : int 14 1 36 17 5 9 19 9 19 25 ... و با توجه به اینکه مشاهدات در موضوعات گروه بندی شده اند، می خواهم متغیر مقدار ~ را آزمایش کنم. بنابراین فکر کردم از یک ANOVA اندازه گیری مکرر استفاده کنم، که در آن متغیر به عنوان یک اندازه گیری تکرار شونده در هر موضوع در نظر گرفته می شود. تماس aov (مقدار ~ متغیر + خطا (موضوع/متغیر)) است. سوال من این است: اگر بخواهم همین کار را با lme انجام دهم چگونه باید افکت تصادفی را مدل کنم؟ ~ 1 | موضوع/متغیر یا ~ متغیر | موضوع anova یک F قابل توجه برای lme برمی گرداند، نسخه اول یک اثر غیر قابل توجه می دهد، در حالی که نسخه دوم قابل توجه است. بنابراین من فکر می کنم که آنووا بیشتر شبیه دومی است. درست متوجه شدم؟ با تشکر | معادل یک ANOVA مکرر با استفاده از مدل اثر ترکیبی با lme چیست؟ |
10285 | ### زمینه من آزمایشی با طرح «3×2» با سه سطح فاکتور درون آزمودنی ها (اندازه گیری های مکرر) و دو سطح برای فاکتورهای بین آزمودنی ها انجام دادم. من علاقه مند به بررسی تغییرات از پایه و اثر متقابل هستم. ### سوال * چگونه می توانم اندازه نمونه مورد نیاز را برای طرح «3×2» محاسبه کنم تا به قدرت آماری کافی دست یابیم؟ | اندازه نمونه مورد نیاز برای ANOVA طراحی مختلط برای دستیابی به توان آماری کافی |
2906 | نسیم طالب، از شهرت (یا بدنامی) قو سیاه، این مفهوم را به تفصیل توضیح داده و آنچه را «نقشه ای از حدود آمار» می نامد توسعه داده است. استدلال اصلی او این است که یک نوع مشکل تصمیم گیری وجود دارد که در آن استفاده از هر مدل آماری مضر است. اینها مشکلات تصمیم گیری هستند که در آن عواقب تصمیم گیری اشتباه می تواند بسیار زیاد باشد و پی دی اف زیربنایی به سختی شناخته شود. یک مثال می تواند کوتاه کردن گزینه سهام باشد. این نوع عملیات می تواند به ضرر بی حد و حصر (حداقل در تئوری) منجر شود. و احتمال چنین ضرری ناشناخته است. بسیاری از مردم در واقع این احتمال را مدل میکنند، اما طالب استدلال میکند که بازارهای مالی به اندازه کافی قدیمی نیستند که به فرد اجازه دهند در مورد هر مدلی مطمئن باشند. فقط به این دلیل که هر قوی که تا به حال دیده اید سفید است، به این معنی نیست که قوهای سیاه غیرممکن یا حتی بعید هستند. بنابراین این سوال مطرح میشود: آیا در جامعه آمار درباره استدلالهای آقای طالب اتفاق نظر وجود دارد؟ شاید این باید ویکی انجمن باشد. من نمی دانم. | برداشت جامعه از ربع چهارم چیست؟ |
68439 | من دادههای اولیهای دارم که به این صورت است: کلیکهای بازدیدهای گروهی A 2029 186 B 2340 171 C 2780 176 و من سعی میکنم تعیین کنم که آیا یکی از نرخهای کلیک («کلیکها / بازدیدها») از نظر آماری بهتر از بقیه کلیکها است یا خیر. . من سعی کردم از آزمون Chi Squared استفاده کنم تا مشخص کنم که این گروه ها در واقع متفاوت هستند، اما سپس در مورد چگونگی تعیین بهترین گیر کردم. با نگاه کردن به اعداد می توانم متوجه شوم که A بهترین کلیک است، اما آیا آزمایشی وجود دارد که این را کاملاً نشان دهد؟ | روشی برای یافتن نرخ کلیک از نظر آماری معنادار در چندین گروه بدون کنترل |
21578 | من وضعیت زیر را دارم که در آن از 6 کارشناس خواسته می شود تا با رتبه بندی یک بطری شراب از 1 تا 5 ستاره، نظر بدهند. بعلاوه، ما به نوعی معیاری برای میزان اطلاع رسانی هر رتبه داریم (به عنوان معیاری در نظر بگیرید که متخصصی که رتبه می دهد چقدر قابل اعتماد است)، و بیایید این معیار را امتیاز اطلاعاتی یک متخصص بنامیم. می خواهیم این 6 مورد را جمع آوری کنیم. نظرات را در یک معیار واحد از کیفیت شراب، پس معقول ترین روش برای انجام آن چیست؟ فکر اولیه من این بود که نمرات اطلاعرسانی را در بین متخصصان عادی کنم تا به 1 برسد، و فقط محصولات را بین امتیاز اطلاعات و رتبهبندی مربوط به همه کارشناسان جمع کنم. با این حال، این رویکرد از این واقعیت رنج میبرد که رتبهبندی با ارزش بالا با امتیاز پایین ممکن است در طول تجمیع، بر رتبهبندی با ارزش پایین با امتیاز بالا غلبه کند. | نظرات را به یک اندازه جمع کنید |
44471 | آیا هیچ راه استانداردی برای قرار دادن مقدم بر توزیع های متوسط $0 وجود دارد؟ من به این موضوع از منظر مدل سازی قوی توزیع خطا در یک رگرسیون علاقه مند هستم. بنابراین برای مثال من چند متغیر کمکی $X$ دارم و میخواهم $E[Y] = \mu(X | \beta)$ را مشخص کنم که $\mu(\cdot | \beta)$ یک شکل از پیش تعیین شده و $Y باشد. $ مقادیر را در $\mathbb R$ می گیرد. یک راه حل ساده این است که توزیع خطا را با رهگیری اشتباه گرفته و از مخلوط فرآیند دیریکله استفاده کنید، به عنوان مثال، بنویسید $Y_i = \mu(X | \beta) + \eta_i$ که در آن $$ \eta_i \sim f(\cdot | \ تتا)، \\\ \theta \sim F، \\\ F \sim DP(\گاما H). $$ سپس می توانم $\epsilon_i = \eta_i - E(\eta_i | F)$ را بنویسم و $\alpha = E(\eta_i | F)$ را قرار دهم تا $Y_i = \alpha + \mu(X_i | \beta ) + \epsilon_i$. اشکال اینجاست که _من نمیخواهم توزیع خطا مستقل از X$_ باشد. من چند ایده در مورد چگونگی رفع این مشکل داشتم، اما آنها به نظر دور از ذهن هستند و امیدوارم کسی در اینجا راه حل اصلی را بداند. | پیشین های بیزی ناپارامتری در توزیع های میانگین $0$؟ |
48191 | بسته های آماری چگونه توان را محاسبه می کنند؟ برای مثال، فرض کنید ما یک نمونه مشاهدات X$ از 100$ داریم. ما فرض می کنیم که آنها از یک جمعیت معمولی توزیع شده (iid) هستند. آزمون فرضیه ما $H_{0} است: \mu = 6$ در مقابل $H_a: \mu \neq 6$. فرض کنید فرضیه صفر رد شده است. چگونه یک بسته نرم افزاری احتمال رد صحیح فرضیه صفر را محاسبه می کند؟ آیا لازم نیست بارها و بارها آزمون فرضیه های مشابهی را روی نمونه های مختلف انجام دهد؟ یا اینکه فقط با انجام آزمون فرضیه روی یک نمونه می توان توان را محاسبه کرد؟ | بسته های آماری چگونه توان را محاسبه می کنند |
68436 | داشتم این مقاله مربوط به توری کشسان را می خواندم. آنها می گویند که از توری الاستیک استفاده می کنند زیرا اگر فقط از کمند استفاده کنیم، از بین پیش بینی کننده هایی که همبستگی بالایی دارند فقط یک پیش بینی کننده انتخاب می شود. اما آیا این چیزی نیست که ما می خواهیم؟ منظورم این است که ما را از دردسر چند خطی نجات می دهد، نه. هر گونه پیشنهاد / توضیح؟ | سردرگمی مربوط به توری کشسان |
104759 | داده هایی که من سعی در تجزیه و تحلیل آنها دارم، تخمین های درجه دوم از یک برازش درجه دوم به یک منحنی است. بیشتر داده ها بین -.15 و 0.15 متفاوت است. با این حال، من دارای مقادیر پرت در هر دو جهت تا مواردی مانند -23.00 هستم. تجزیه و تحلیل و حذف پرت به عنوان روش مقابله اولیه ناکافی تلقی شده است. بنابراین، من باید داده ها را تبدیل کنم. من میخواستم از یک تبدیل گزارش استفاده کنم، اما افزودن یک ثابت به دادهها به نظر کلی میرسد (برای پوشش دادن تمام نقاط پرت شدید باید یک ثابت بزرگ باشد). هر گونه پیشنهادی در مورد اینکه چه نوع تحولاتی ممکن است در اینجا کار کند؟ من در پایان به داده های توزیع شده عادی نیاز دارم تا بتوانم ANOVA را اجرا کنم. | تبدیل داده ها با مقادیر منفی بزرگ و مثبت بزرگ |
78694 | من انتخاب کمند را با استفاده از `lars::lars()` انجام دادم، سپس این طرح را دریافت کردم. من نمی دانم چگونه آن را تفسیر کنم:  کسی می تواند توضیح مختصری ارائه دهد؟ چرا «ضرایب استاندارد شده» را در برابر «|بتا|/max|بتا|» ترسیم می کند؟ | چگونه طرح انتخاب کمند را تفسیر کنیم |
69204 | مثال خیالی است، اما باید برای هدف این سوال خوب کار کند: من یک رگرسیون خطی ساده (یا یک همبستگی، با 1 IV و 1 DV) را برای 2 متغیر انجام میدهم، به عنوان مثال تعداد مراحل در راه پله در مقابل رضایت گزارش شده دستیابی به برتری توسط شرکت کنندگان فرض کنید من 4 پله مختلف را در نظر میگیرم: 3 پله. 5 مرحله؛ 10 مرحله؛ و 50 پله ارتفاع. نکته این است که این یک مقیاس مقوله ای نیست، بلکه یک مقیاس نسبت است (مشکلات دیگر این نمونه از راه پله ها، مانند توزیع دور از حالت عادی و غیره را نادیده بگیرید). حال، فرض کنید من 10 شرکت کننده دارم که هر کدام به ترتیب تصادفی از این پله ها بالا می روند و رضایت خود را به تعداد 1 تا 7 گزارش می دهند. 2 راه برای تجزیه و تحلیل این داده ها وجود دارد. یکی از آنها میانگین گرفتن پاسخ ها برای هر راه پله است. بنابراین بگوییم که نتایج را دریافت می کنیم: 3 مرحله: 1.6 5 مرحله: 2.3 10 مرحله: 3.4 50 مرحله: 6.1 نمودار پراکندگی ما بسیار ساده خواهد بود:  اما شاید میانگینگیری نتایج غیرضروری باشد و تنوع دادهها را از بین ببرد؟ میتوانیم نمرات خام را همانطور که بودند رها کنیم و سپس آنها را به شکل زیر رسم کنیم:  نحوه برخورد ما بر روی r شخص نیز تأثیر میگذارد ( یا Spearman's rho چون توزیع غیرعادی شماره پله داشتیم). بدیهی است که درجات آزادی (و بنابراین مقادیر p) نیز تغییر می کند. آیا پاسخ قطعی یک و همیشه واقعی برای اینکه چگونه این کار باید انجام شود وجود دارد؟ | همبستگی دو متغیر در سطوح مختلف |
17488 | من جمعیتی دارم که روزی یک بار مقدار آن را اندازه میگیرم. سپس تغییری ایجاد کردم و به اندازه گیری همان مقدار از همان جمعیت ادامه دادم. از چه آزمونی می توانم برای اثبات اینکه تغییر من بر میانگین آن مقدار تأثیر نمی گذارد استفاده کنم؟ من مطمئن نیستم که تفاوت نرمال بین دو آزمون معنی که می دانم اعمال شود یا خیر زیرا می خواهم ثابت کنم که میانگین ها تفاوتی ندارند، نه اینکه تفاوت را پیدا کنم. من فکر می کنم این با یک آزمون t استاندارد متفاوت است. | تست برای اثبات دو معنی تفاوتی ندارند |
81170 | من از SPSS برای انجام تجزیه و تحلیل خوشه ای دو مرحله ای استفاده می کنم. SPSS اهمیت پیش بینی کننده هر متغیر مورد استفاده در تحلیل را نشان می دهد. اغلب اوقات، یک متغیر باینری مانند جنسیت (ببخشید، من فقط آن را ساده نگه میدارم!) مهمترین متغیر برای تشکیل خوشهها خواهد بود، حتی اگر شما نمیخواهید باشد. آیا راهی برای وزن متغیرها وجود دارد تا شاید بتوانم نقش جنسیت را در تجزیه و تحلیل کم رنگ کنم، اما حذف نکنم؟ از کمک شما متشکرم! | وزن دهی متغیرها در تحلیل خوشه ای دو مرحله ای |
2909 | من به توزیع حداکثر کاهش یک پیاده روی تصادفی علاقه مند هستم: اجازه دهید $X_0 = 0، X_{i+1} = X_i + Y_{i+1}$ جایی که $Y_i \sim \mathcal{N}(\mu ، 1) دلار. حداکثر کاهش پس از $n$ دوره $\max_{0 \le i \le j \le n} (X_i - X_j)$ است. مقاله ای از Magdon-Ismail _et. al._ توزیع حداکثر کاهش حرکت براونی را با رانش می دهد. این عبارت شامل یک مجموع بی نهایت است که شامل برخی از اصطلاحات است که فقط به طور ضمنی تعریف شده اند. من در نوشتن یک پیاده سازی که همگرا می شود مشکل دارم. آیا کسی از عبارت جایگزین CDF یا پیاده سازی مرجع در کد مطلع است؟ | محاسبه توزیع تجمعی حداکثر کاهش پیاده روی تصادفی با رانش |
49821 | آنچه من دارم: 1. یک مدل خطی $y=a_0+a_1x$ با تخمین پارامترهای داده شده، 2. تعداد مقادیر استفاده شده برای برازش مدل، 3. مقدار R² پیرسون. من باید خطاهای پیش بینی را تخمین بزنم. من راهی برای محاسبه آن نمی بینم، اما آیا راهی وجود دارد که حداقل یک تخمین تقریبی بدست آوریم؟ | تخمین خطای پیشبینی از R-square |
58710 | من قصد دارم یک الگوریتم انتخاب ویژگی را پیاده سازی کنم و قصد دارم از F-score به دلیل سادگی آن استفاده کنم. مشکل این است که، امتیاز F برای طبقه بندی باینری استفاده می شود. **چگونه می توان آن را برای طبقه بندی چند کلاسه گسترش داد؟** ایده من استفاده از روش یک در مقابل همه است. یعنی، اگر کلاسهای «k» داشته باشم، برای هر یک از اینها امتیاز «k» ایجاد میکنم (با در نظر گرفتن تنها یک ویژگی در هر زمان و محاسبه امتیاز F در برابر بقیه) و سپس فقط میانگین را میگیرم. **آیا این رویکرد خوبی خواهد بود؟** | ویژگی های انتخاب با استفاده از امتیاز F برای طبقه بندی چند کلاسه |
13395 | من یک پلتفرم نرم افزاری ایجاد کردم که در آن حدود 110 شرکت کننده می توانند در هر زمان که بخواهند در طول 12 هفته مشارکت داشته باشند (شبیه ویکی را در نظر بگیرید). سپس این شرکتکنندگان بهطور تصادفی برای استفاده از یکی از دو پلتفرم مشابه تقسیم شدند. یک تفاوت کلیدی بین دو پلتفرم اجرا شد که من فرض کردم که باعث نرخ مشارکت متفاوت می شود. این بدان معناست که من اطلاعات مشارکت در طول 12 هفته (تا هفته دوم) برای 2 گروه 50 نفری دارم. نرخ مشارکت بسیار متغیر است - برخی افراد به مدت 4 هفته در یک زمان شرکت نمی کنند و سپس در پایان به شدت شرکت می کنند. دیگران در ابتدا شرکت می کنند و سپس دیگر هرگز. آزمونهای t نمونههای مستقل تفاوتهای بین شرایط را از نظر تعداد کل دفعات شرکتکننده نشان میدهند. اما فکر نمی کنم این آموزنده ترین باشد. من میخواهم بتوانم یک آزمون آماری انجام دهم تا نشان دهم تفاوتی که من اجرا کردم منجر به افزایش نرخ مشارکت در طول زمان شد. برخی از بخشهای مشکل: 1. از آنجایی که این یک پلت فرم نرمافزاری مشترک است، موارد موجود در هر شرایط از نظر فنی مستقل نیستند. کاربران در هر شرایط میتوانستند با یکدیگر مشارکت کنند، اگرچه معمولاً این کار را نمیکردند (کمتر از 10 رویداد از 6000 رویداد مشارکت شامل کار با شخص دیگری بود). به همین دلیل، من فکر می کنم که آنها شبه مستقل هستند، اما فکر می کنم این یک بحث نظری است و آماری نیست (اگرچه مطمئن نیستم). 2. کاربران همچنین به کار بر روی پروژه های تکراری در سراسر شرایط و دو برابر شدن در شرایط اختصاص داده شدند. به عنوان مثال، یک پروژه A، پروژه B، پروژه C در هر دو پلت فرم وجود داشت و 2 کاربر در هر پلت فرم به هر پروژه اختصاص داده شدند (در مجموع 4 نفر در پروژه A کار می کردند، 2 نفر در شرایط آزمایشی و 2 نفر در کنترل ). دو نفر در هر شرایط پلت فرم هنوز به طور مستقل کار می کردند، مگر در مواردی که بلافاصله در بالا توضیح داده شد (قسمت دشوار 1). 3. مشارکت درون موضوعی قطعاً مستقل نیست و این قطعاً یک مشکل آماری است. هر بار که یک رویداد مشارکت رخ می دهد، کاربر روی یک پروژه کار می کند (دوباره، آن را مانند یک ویکی در نظر بگیرید). بنابراین وقتی کاربر زودتر شرکت میکند، به این معنی است که ویرایشهای بعدی او روی همان محصول است. مواردی که من در نظر گرفته ام: 1. آزمون کای اسکوئر استقلال که تعداد شرکت ها را در هفته بررسی می کند (12 شرط) با شرط (2 شرط). اما چون هفته ها مستقل نیستند، مطمئنم که این یک استراتژی تحلیلی نامناسب است. 2. ANOVA با اندازه گیری های مکرر که متغیر هفته درون موضوعی را با شرط بین موضوع بررسی می کند. اما داده ها بسیار غیر عادی هستند (داده های شمارش به شدت دارای انحراف مثبت هستند). 3. یک مدل خطی سلسله مراتبی که نرخ مشارکت هفتگی درون موضوعی را بررسی میکند، تو در تو درون افراد، با متغیر شرط در سطح فرد. اما همان مشکل غیر عادی در اینجا رخ می دهد (هنوز داده های شمارش است). آیا رویکرد دیگری وجود دارد که باید در اینجا اتخاذ کنم؟ آیا من چیزی را از دست داده ام که این موضوع را بهتر مدیریت کند؟ با تشکر از همه. ویرایش: من ورود به سیستم دارم، اما فکر نمیکردم که معنیدار باشد - اینها رویدادهای مشارکت معنادارتری هستند. در اینجا نموداری از رویدادهای مشارکت هفتگی تجمعی بر اساس گروه است، که ممکن است به روشن شدن آنچه در مورد آن صحبت می کنم کمک کند. این معنیدارترین معیاری است که میتوانم به آن برسم. توجه داشته باشید که در این نمودار، افراد ممکن است چندین بار نشان داده شوند (اگر سه کاربر 30 بار، دو بار و یک بار در هفته 1 شرکت کنند، هفته 1 به 33 افزایش می یابد).  | بهترین راه برای مقایسه داده های استفاده از نرم افزار در طول زمان در شرایط مستقل؟ |
48198 | اگر داده های چند متغیره از 3 متغیر پاسخ و 2 عامل (f1 و f2) داشته باشید. من می توانم یک مدل خطی را به روش های مختلف برای این داده ها مشخص کنم، اما نمی دانم تفاوت بین مدل ها چیست. در اینجا نموداری از داده ها وجود دارد: سه متغیر (ستون) و دو عامل (ردیف ها و محور x). ggplot(df، aes(x = f1، y = y، fill = f1)) + geom_boxplot() + facet_grid(f2~var، scales = free_x)  من می توانم یک مدل خطی مانند این (1) اجرا کنم: mod <- lm(y ~ (var-1):f1 + (var-1) + f2، داده = df) خلاصه (mod) فراخوانی: lm(فرمول = y ~ (var - 1):f1 + (var - 1) + f2، داده = df) باقیمانده ها: Min 1Q Median 3Q Max -1.45565 -0.44102 0.02875 0.40296 2.20795 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) var1 -0.88371 0.16522 -5.349 2.79e-07 *** var2 -0.30943 0.16522 -1.873 0.0628. var5 -1.37800 0.16522 -8.340 2.31e-14 *** f22 -0.09669 0.12714 -0.760 0.4480 f23 0.04514 0.12043 0.385 0.385 0.701 var1014 0.18176 4.652 6.54e-06 *** var2:f12 1.76148 0.18176 9.691 < 2e-16 *** var5:f12 1.11851 0.18176 6.154 5.16 5.16 ---e کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.6692 در 172 درجه آزادی چندگانه R-squared: 0.6491، R-squared تنظیم شده: 0.63 آمار: 39.77 در 8 و 172 DF، p-value: < 2.2e-16 همچنین میتوانم برای هر متغیر یک lm جداگانه اجرا کنم (2). من از روش های چند متغیره آگاه هستم، با این حال به پاسخ این سه متغیر به طور جداگانه علاقه مند هستم. **سوالات:** * تفاوت بین هر دو رویکرد (همچنین برای تفسیر) چیست؟ * هنگام اجرای 3 lm جداگانه باید این را به نوعی در نظر بگیرم؟ (تست چندگانه؟) اگر چنین است، از چه طریقی باید این کار را انجام دهم؟ * متوجه شدم که خطای مدل اول برای هر متغیر یکسان است، ممکن است این نشان دهنده مشکل باشد؟ من مدل اول را اینگونه تفسیر می کنم: * var خط پایه من است * f1 روی همه متغیرها تأثیر دارد (افزایش نسبت به خط مبنا)، * با این حال f1 تفاوتی ندارد. * آیا این تفسیر مناسبی از خروجی lm() است؟ از افکار شما متشکرم! df <- ساختار(list(var = ساختار(c(3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L, 3L ، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، ۳ لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L)، .Label = c(1، 2، 5)، کلاس = ضریب)، f1 = ساختار( c(2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر)، . c(1، 2)، class = factor)، f2 = ساختار(c(1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 2L, 2L, 2L, 2L, 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، | lm() - مشخصات مدل |
58713 | من باید مشتقات جزئی را برای همه N پارامتری که $\theta_{N}$ یک تابع چگالی احتمال (PDF) $\mathcal{f}$ نشان میدهند، تخمین بزنم. این PDF $\mathcal{f}$ راهحل شکل بسته ندارد و در عوض با یک تابع مشخصه $\phi$ و یک FFT $\mathcal{F}^{-1}$ بیان میشود. $\mathcal{f}(x) = \mathcal{F}^{-1} [\phi(x)]$ آیا می توان $\frac {\partial \mathcal{f}} {\theta_{N را تخمین زد }}$ برای هر N؟ | بخش هایی از PDF بدون راه حل فرم بسته |
58718 | فایننشال ریویو می خواست میزان مخارج سالانه دولت را با استفاده از درآمد مالیاتی و سطح بدهی سراسری تخمین بزند. از داده های 1958-2008 (شامل) استفاده شد. همه متغیرها با میلیاردها دلار اندازه گیری شدند. مشخص شد که میانگین مربعات خطای رگرسیون 15 و مجموع مجذورات 12200 است. بنابراین، چند درصد از تغییرات مخارج سالانه دولت با معادله رگرسیون توضیح داده می شود؟ پاسخ صحیح خود را تا دو رقم اعشار بدهید. دیدگاه من: میانگین مربعات خطا (MSE) = 15 مجموع مجذورات (SST) = 12200 سوال این است که مجذور R را می پرسد، بنابراین $R^2 = SSR / SST$، اما تا کنون ما فقط $SST$ دریافت کرده ایم. چگونه $SSR$ را از $MSE$ در این مورد استخراج کنیم؟ کمک قابل تقدیر است. | ANOVA تعیین درصد تغییرات |
49826 | من روی برخی تکنیکهای خوشهبندی کار میکنم، جایی که برای یک خوشه معین از بردارهای بعد d، یک توزیع نرمال چند متغیره را فرض میکنم و بردار میانگین d بعدی و ماتریس کوواریانس نمونه را محاسبه میکنم. سپس هنگام تلاش برای تصمیم گیری در مورد اینکه آیا یک بردار جدید، نادیده و d بعدی متعلق به این خوشه است، فاصله آن را از طریق این اندازه گیری بررسی می کنم: $$\left(X_i-\hat{\mu}_X\right)'\hat{\sigma}_X^{-1}\left(X_i-\hat{\mu}_X\right)>B_{0.95} \left(\frac{p}{2},\frac{-p}{2}\right)$$ که باید معکوس ماتریس کوواریانس را محاسبه کنم $\hat{\sigma}_X$. اما با توجه به برخی از نمونه ها نمی توانم تضمین کنم که ماتریس کوواریانس معکوس خواهد بود، در صورتی که اینطور نیست باید چه کار کنم؟ با تشکر | وقتی ماتریس کوواریانس نمونه معکوس نیست چه باید کرد؟ |
2904 | من در حال تلاش برای تخمین مدلی به شکل زیر هستم: W = alphaH * H + alphaM * M + alphaL * L + X * بتا که در آن H، M، L شاخص هایی برای یک متغیر انتخاب گسسته هستند، و بتا است. چیزی شبیه 35 بعدی از آنجا که معتقدیم داده/مدل ما دارای مشکلات درون زایی است، مدل را به W = alphaH * H' + alphaM * M' + alphaL * L' + X * beta H = Z * betaH M = Z * betaM L = Z گسترش داده ایم. * betaL H' = 1(H = max(H,M,L) ) M' = 1(M = max(H,M,L)) L' = 1(L = max(H,M,L) ) که در آن Z ابزار هستند و betaH، betaM، betaL پارامترهایی هستند که باید تخمین زده شوند. این خروجی با یک مدل انتخاب مبتنی بر سودمندی نهفته مطابقت دارد. ما توانستهایم مدل مرحله دوم را در Stata با استفاده از فرمان «mvprobit» تخمین بزنیم (تخمین «H، M، L»، که به معنای «H، M، L» است، اما نمیتوانیم بفهمیم که چگونه برای تخمین کل مدل در یک لحظه. برای حل این مشکل، کدی را در متلب نوشتیم تا مدل را با استفاده از حداکثر احتمال شبیهسازی شده تخمین بزنیم، اما متلب در حداقلهای محلی خفه میشود (حداکثر در این مشکل، اما MATLAB فقط منفی را به حداقل میرساند...)، که تعداد زیادی از آنها وجود دارد. . ما سعی کردهایم با شروع از چند ده شرط اولیه که هیچکدام معمولاً به پاسخ «درست» همگرا نمیشوند، این موضوع را حل کنیم. من این را با اطمینان تقریباً می گویم زیرا ما کد را به صورت تکه ای آزمایش می کنیم و تأیید می کنیم (در داده های آزمایشی تصادفی) که اگر بهینه سازی نزدیک به مقادیر درست (در آزمایش) شروع شود، به مقادیر معقول همگرا می شود، در غیر این صورت به هیچ کجا نزدیک نمی شود. (اگرچه نتیجه حاصل از احتمال کلی بسیار کمتر است). آیا هیچ ترفندی وجود دارد - MATLAB، Stata یا موارد دیگر - برای حل این مشکل؟ آیا این یک مشکل ذاتی شبیه سازی در مقابل تحلیل فرم بسته است؟ با تشکر از کمک شما. | چگونه میتوانم در برآورد حداکثر احتمال شبیهسازی شده «تودهای» کار کنم؟ |
112982 | یک رگرسیون OLS بین دو متغیر را در نظر بگیرید. آیا نتیجه ای وجود دارد که اندازه باقیمانده ها را (که شاید با مجموع مربع ها اندازه گیری می شود) به ضریب همبستگی پیرسون دو متغیر مرتبط کند؟ به طور غیررسمی، من انتظار دارم که متغیرهای با همبستگی تنگاتنگ باقیماندههای کلی کوچک و متغیرهایی با همبستگی ضعیف برای تولید باقیماندههای بزرگ تولید کنند. | آیا نتیجه ای وجود دارد که رابطه ای بین اندازه باقیمانده ها و ضریب همبستگی را نشان دهد؟ |
79124 | من سعی میکنم مدلی را برای متاآنالیز که روی آن کار میکنم، با دادههایم تطبیق دهم. پاسخ باینری است (0 یا 1)، و من می خواهم یک توزیع دوجمله ای را با تابع پیوند logit مشخص کنم. 2-3 (بسته به مدل) متغیرهای توضیحی همه طبقه بندی می شوند. «metafor» «rma.glmm» را ارائه میکند، اما به نظر نمیرسد زمانی که از قبل یک ستون متغیر پاسخ دارید، این مورد از حالت استفاده پشتیبانی نمیکند، اما در عوض تعدادی از موارد را پشتیبانی میکند که با این مورد مطابقت ندارند (مثلاً 2 x 2 جدول احتمالی و غیره). برای مدل وزنه هم دارم. وزن ها بر اساس حجم نمونه است. شش ردیف اول داده ها به این شکل هستند: پاسخ وزن نوع سوژه 1 c غیر زنده 12.0 0 2 c زمانی 18.0 1 3 p زمانی 40.0 0 4 p زمانی 4.0 0 5 متر فضایی 105.5 1 6 c زمانی 70.0` متغیر پاسخ، وزن وزن است و موضوع و نوع دو متغیر تعدیل کننده طبقه بندی هستند. آیا «metafor» واقعاً مورد استفاده من یا هر بسته R دیگر (مثلاً «meta») را پشتیبانی می کند؟ | متاآنالیز با متغیر پاسخ باینری |
79120 | من میخواهم مدل چندجملهای ترکیبی اندازهگیریهای مکرر را با استفاده از R انجام دهم. برای دقیقتر میخواهم تحلیل MaxDiff را مشابه روش SawTooth Hierarchical Bayes انجام دهم. من می خواهم از مدل های ترکیبی استفاده کنم زیرا با روش های بیزی (hb و mcmc) آشنا نیستم. من صفحه وب (اینجا) را با مثالها (بخش: _Tricked Random Parameters Logit Model_) پیدا کردم، اما مشکلی در استخراج ضرایب وجود دارد. من میخواهم پارامترهای هر متغیر را برای هر پاسخدهنده دریافت کنم، اما با استفاده از بسته «mlogit» فقط میتوانم تخمینهایی از میانگین و واریانس توزیع ضرایب را دریافت کنم. من نمی دانم که آیا بسته R وجود دارد که بتوانم تخمینی از پارامترها را برای هر پاسخ دهنده دریافت کنم؟ من از هر گونه کمک یا راهنمایی در مورد نحوه استفاده از روش های bayesian و mcmc برای رسیدن به هدف خود سپاسگزار خواهم بود. | مدل چندجمله ای مخلوط با اندازه گیری های مکرر در ضرایب عصاره R |
17480 | من چند مدل رگرسیون کاکس ایجاد کردهام و میخواهم ببینم این مدلها چقدر خوب عمل میکنند و فکر کردم شاید یک منحنی ROC یا یک آماره c میتواند شبیه به استفاده از این مقاله مفید باشد: J. N. Armitage och J. H. van der Meulen. شناسایی بیماری های همراه در بیماران جراحی با استفاده از داده های اداری با کالج سلطنتی جراحان Charlson Score، مجله جراحی بریتانیا، جلد. 97، شماره 5، ss. 772-781، Maj 2010. آرمیتاژ از رگرسیون لجستیک استفاده کرد، اما نمیدانم که آیا میتوان از یک مدل از بسته بقا استفاده کرد، survivalROC اشارهای به این امکان دارد، اما من نمیتوانم بفهمم که چگونه میتوان آن را به کار برد. رگرسیون کاکس منظم ممنون می شوم اگر کسی به من نشان دهد که چگونه می توانم یک تحلیل ROC در این مثال انجام دهم: داده های کتابخانه(بقا)(کهنه سرباز) پیوست(کهنه سرباز) بقا <- Surv(زمان، وضعیت) مناسب <- coxph(surv ~ trt + سن + قبلی، داده=جانباز) خلاصه (مناسب) در صورت امکان از خروجی c-statics خام و یک نمودار خوب سپاسگزارم. ## به روز رسانی بسیار متشکرم برای پاسخ. @Dwin: من فقط می خواهم مطمئن شوم که قبل از انتخاب پاسخ شما، آن را درست متوجه شده ام. محاسبه همانطور که من آن را بر اساس پیشنهاد DWin درک می کنم: کتابخانه (بقا) کتابخانه (rms) داده (کهنه سرباز) fit.cph <- cph(surv ~ trt + سن + قبل، داده = کهنه سرباز، x=TRUE، y=TRUE، surv=TRUE) # خلاصه شکست می خورد!؟ #summary(fit.cph) # Dxy v <- validate(fit.cph, dxy=TRUE, B=100) # آیا این مقدار صحیح است؟ Dxy = v[rownames(v)==Dxy, colnames(v)==index.corrected] # آمار c با توجه به Dxy=2(c-0.5) Dxy/2+0.5 I'm با عملکرد اعتبارسنجی و بوت استرپینگ آشنا نیستم اما پس از بررسی پروفسور. پاسخ فرانک هارل در اینجا در R-help من متوجه شدم که احتمالاً این راهی برای دریافت Dxy است. کمک برای اعتبار سنجی بیان می کند: > ... همبستگی رتبه Dxy Somers باید در هر نمونه مجدد محاسبه شود (این مقدار > کمی بیشتر از آمار مبتنی بر احتمال طول می کشد). مقادیر مربوط به ردیف Dxy برابر با 2 * (C - 0.5) است که در آن C، C-index یا > احتمال تطابق است. من حدس می زنم که من بیشتر با ستون ها گیج شده ام. من متوجه شدم که مقدار تصحیح شده همان مقداری است که باید استفاده کنم، اما من واقعاً خروجی اعتبارسنجی را درک نکرده ام: index.orig آموزش تست خوش بینی index.corrected n Dxy -0.0137 -0.0715 -0.0071 -0.0644 0.0507 100 R2 0.00790.0079 0.0242 -0.0162 100 Slope 1.0000 1.0000 0.2939 0.7061 0.2939 100 ... در سوال R-help متوجه شدم که اگر لایه های مشخصی داشته باشم در cph باید surv=TRUE داشته باشم، اما هدفم چیست. پارامتر u=60 در تابع اعتبارسنجی است. اگر بتوانید به من کمک کنید تا اینها را بفهمم و بررسی کنم که هیچ اشتباهی مرتکب نشده ام، ممنون می شوم. | نحوه انجام آنالیز ROC در R با مدل کاکس |
91442 | من جدول 2x2 زیر را دارم نه بله 9690 5 LOW 26354 39 HIGH می خواهم 1. نسبت ها و فواصل اطمینان دقیق آنها را در دو میله رسم کنم. تست جانبی 1. من از تابع binconf، بسته Hmisc در R برای محاسبه فواصل دقیق استفاده کردم. **binconf(5,9690+5,alpha=0.05)** تخمین نقطه نسبت: 0.0005157298 CI.LOWER BOUND: 0.0002203084 CI. UPPER BOUND: 0.001206817 **263,54*5=39,263alpha(30+4) نقطه تخمین نسبت: 0.001477665. fisher.test(rbind(c(9690,5),c(26354,39))) _p-value = 0.01716 --> signific_ چگونه ممکن است که اگر فواصل اطمینان به شدت با هم همپوشانی داشته باشند، p-value همچنان قابل توجه است . پیشاپیش از هرگونه کمکی متشکرم ارادتمند شما، Martin Rijlaarsdam @whuber: ممنون که به من این پاسخ را راهنمایی کردید. من این تاپیک را دیدهام اما فکر میکردم که آیا چنین عدم تطابق بزرگی بین CI و اهمیت آزمون قابل انتظار است و آیا پاسخ برای نسبتها نیز صادق است. با تشکر بهترین آرزوها، مارتین | آزمون دقیق نسبت: فواصل اطمینان در مقابل مقدار p |
13394 | فرض کنید عملکرد کار $y$ با عدد آزمایشی $x$ ($x = 1, 2, …, 10$) افزایش مییابد، به طوری که یک اثر تمرینی وجود دارد. فرض کنید اثر تمرین خطی است. آزمودنی ها یک وقفه طولانی دارند و سپس مشاهده دیگری از $y$ (برای $x = 11$) ارائه می دهند. دلیلی دارم که باور کنم آزمودنیها در این وقفه در تکلیف بهتر میشوند، فراتر از آن چیزی که در اثر تمرین خطی انتظار میرود. بنابراین، میخواهم آزمایش کنم که آیا میانگین عملکرد در آزمایش یازدهم با یک مدل خطی متناسب با 10 آزمایش اول پیشبینی میشود یا خیر. روش صحیح برای آزمون این فرضیه چیست؟ من تصور می کنم چیزی شبیه به 1 خواهد بود. مدل رگرسیونی y را روی x برای x = 1,2,…,10 قرار دهید. 2. میانگین شرطی داده شده $x = 11$ را بر اساس مدل محاسبه کنید و آن را $Y_m$ صدا کنید. 3. میانگین نمونه $y$ را برای $x = 11$ محاسبه کنید و آن را $Y_s$ صدا کنید. 4. تفاوت بین دو کمیت بالا را آزمایش کنید. اما چگونه خطای استاندارد تفاوت را محاسبه کنم؟ یا فقط باید فواصل اطمینان را برای $Y_m$ و $Y_s$ محاسبه کنم و ببینم که آیا آنها همپوشانی دارند یا خیر؟ \-- بهروزرسانی: آیا میتوانم یک رگرسیون خطی را برای همه آزمایشها قرار دهم، x = 1,2,...,11$، یک متغیر ساختگی را برای آزمایش یازدهم وارد کنم، و اهمیت عبارت متغیر ساختگی را آزمایش کنم؟ | چگونه می توانم آزمایش کنم که آیا میانگین برون یابی برای یک مدل رگرسیون با میانگین مشاهده شده متفاوت است؟ |
13028 | من می خواهم موضوع را به صورت مفهومی درک کنم نه از طریق معادلات | از کجا می توانم مرجع قابل دسترسی به خودرگرسیون برداری را پیدا کنم؟ |
20199 | آیا کسی کتاب نسبتاً جدید و خوب در مورد خوشه بندی داده پیشنهادی دارد؟ به طور خاص، من به دنبال خوشه بندی افزایشی هستم. | کتابهایی درباره خوشهبندی افزایشی دادهها |
13022 | من سعی می کنم آزمایشی را که انجام دادم تجزیه و تحلیل کنم. من 9 اندازه گیری ~~آزمون~~ را در دو تنظیمات مختلف (A و B) اجرا کردم. من انتظار دارم که توزیع عادی باشد. من فرضیه های زیر را داشتم: * $H_0:\; \mu_A = \mu_B$ * $H_1:\; \mu_A \neq \mu_B$ من نتایج زیر را برای اندازه گیری هایم دریافت کردم * A: n=9، میانگین = 1.66، sd = 1.12 * B: n=9، میانگین = 2.48، sd = 1.16 می خواهم بدانم آیا این تفاوت قابل توجه است (مثلاً در 95٪)، اما من کمی گیر کردم - فقط زمانی یاد گرفتم که چگونه این کار را انجام دهم که $\mu_A$ را بدانم یا $\sigma_A$ (یا به دلیل حجم نمونه تخمین بسیار خوبی از آن دارم)، اما من فقط یک نمونه انحراف استاندارد برای A دارم. | چگونه تصمیم بگیریم که آیا تفاوت بین دو شرط قابل توجه است؟ |
48192 | من یک مدل مخلوط رشد را با استفاده از بسته lcmm نصب میکنم: library(lcmm) latent.growth.data <- read.csv(https://github.com/aronlindberg/latent_growth_classes/blob/master/LGC_data.csv) hlme(monthly_end_with, subject='repo_name', mix=~x, ng=3, idiag=TRUE, data=latent.growth.data) وقتی این کد را اجرا می کنم با خطای زیر مواجه می شوم: خطا در hlme(monthly_end_with, subject = repo_name, mix = ~x, ng = 3, : object monthly_end_with پیدا نشد. | برازش مدل مخلوط رشد با استفاده از lcmm (بسته R) - مواجهه با مشکلات |
112989 | من سعی می کنم از مجموعه ای از نقاط (سری های زمانی) میانگین بسازم با توجه به اینکه نقاط اخیر وزن بیشتری دارند. من قبلاً با فرمول میانگین متحرک نمایی امتحان کردم و از میانگین های دیگر مطلع هستم. با این حال، من می خواهم انواع دیگری از فرمول ها را امتحان کنم. هر ایده ای؟ | میانگین وزنی یک سری زمانی |
13023 | من در حال آزمایش دو تنظیمات مختلف (مثلا A و B) برای یک ماشین هستم. از آرگومان های فیزیکی، من می دانم که $\mu_B >= \mu_A$. اگر واقعاً $\mu_B < \mu_A$ باشد، یک مشکل اساسی در مدل من وجود دارد. بنابراین سه گزینه وجود دارد: * $H_0: \mu_B = \mu_A$ (تنظیمات تفاوتی ایجاد نمیکند) * $H_1: \mu_B > \mu_A$ (تنظیم کردن بر اساس مدل تفاوت ایجاد میکند) * $H_2: \ mu_B < \mu_A$ (مدل اشتباه) من هرگز نمی بینم که با مواد به این شکل رفتار شود - آیا من برخی از اصول طراحی آزمایشی را به این شکل زیر پا می گذارم؟ چگونه نتایج آزمایش را تجزیه و تحلیل کنم؟ ویرایش: من می بینم که این مربوط به پاسخ در توجیه آزمون فرضیه یک طرفه است، اما همچنان می خواهم بدانم چگونه داده های حاصل را تجزیه و تحلیل کنم. | زمانی که $\mu_A < \mu_B$ با $\mu_A > \mu_B$ متفاوت است، فرضیه ها را فرموله کنید. |
13026 | من سعی میکنم آزمون Kolmogorov-Smirnov را برای تناسب با یک مجموعه داده اعمال کنم. من مجموعه بزرگی از مقادیر دارم، و میخواهم بدانم آیا با توزیع پواسون با $\lambda$ داده شده مطابقت دارد یا خیر. همانطور که من از جاوا برای تولید مجموعه داده استفاده می کنم، یک کلاس جاوا پیدا کردم که قرار است آنچه را که من می خواهم محاسبه کند - به نام jsc.goodnessfit.KolmogorovTest. سه روش وجود دارد، «approxUpperTailProb(int n,double D)»، «exactUpperTailProb(int n،double D)» و «getSP()». آیا به درستی متوجه شدم که «approxUpperTailProb()» احتمال تقریبی مطابقت دادههای من با توزیع داده شده را محاسبه میکند؟ همچنین، مقدار 'n' اندازه مجموعه نمونه است، اما 'D' چیست؟ این به عنوان آمار کولموگروف-اسمیرنوف، نباید $< 0$ یا $> 1$ باشد. تا آنجا که من متوجه شدم، حداکثر فاصله هر نقطه از مجموعه داده من تا نقطه مربوطه در توزیعی است که با آن مقایسه می کنم. با این حال، همانطور که من در حال مقایسه با توزیع عمومی پواسون هستم، نمی دانم چگونه D را محاسبه کنم. در نهایت، «getSP()» چیست؟ مستندات بیان می کند که مقدار احتمال اهمیت را برمی گرداند. این به چه معناست؟ هر گونه کمک در این مورد بسیار قدردانی خواهد شد! | توضیح تست کولموگروف-اسمیرنوف با برنامه های کاربردی در جاوا |
11885 | در بازی با ورق Pitch چگونه می توانم محاسبه کنم که حریفان من 12 کارت از 52 کارت را دارند اگر دارای Ace، King یا Queen of a suit باشند؟ من حدس میزنم فقط 22% احتمال دارد که آس در دست آنها باشد، اما نمیدانم چگونه دو کارت دیگر را اضافه کنم. من میخواهم جک من کارت بالا باشد، یا شریکم آن را داشته باشد، ما برای ماهها دو برابر میپردازیم و میخواهم بدانم که آیا باید فقط با جک برای high، با 3 کارت در مقابل من، ماه را انجام دهم. | شانس بالا در زمین بازی با ورق |
103447 | من یک پایگاه داده رسید یک فروشگاه مواد غذایی دارم. من می خواهم طبقات مشتریان مشابه را بر اساس رسید آنها پیدا کنم و افراد را پس از خرید در یکی از این کلاس ها طبقه بندی کنم. اجازه دهید فرض کنیم که نحوه انجام خوشه بندی و طبقه بندی در این مورد خاص مهم نیست. اجازه دهید فرض کنیم که ما هیچ دانش تخصصی برای برچسب گذاری داده های یافت شده توسط خوشه بندی نداریم. و آخرین فرض کنید که خوشه بندی یک کار طولانی در حال اجرا است، به دلیل حجم داده، بنابراین اغلب انجام نمی شود. بنابراین من یک تجزیه و تحلیل خوشه ای روی داده ها انجام می دهم. نتیجه تعدادی از خوشه های «بدون برچسب» (به معنای نام واقعی اما قابل تشخیص هستند) اما با ویژگی های مشابه است. من یک طبقهبندی کننده با عناصر هر خوشه و برچسبهای کلاس مرتبط با آنها آموزش میدهم. این طبقهبندیکننده بعداً میتوانم برای طبقهبندی افرادی که به عنوان مثال استفاده میکنند، استفاده کنم. تازه خریدش را به یکی از کلاس ها تمام کرده است. آیا فکر می کنید که این رویکرد منطقی است یا وجود دارد؟ هنگام ترکیب خوشهبندی و طبقهبندی نادیده میگیرم؟ | خوشه بندی و طبقه بندی را ترکیب کنید |
86122 | من میخواهم میانگین دقت متوسط (MAP) را از میانگین دقت (AP) برای همه کاربران و در فواصل هر 5 دقیقه در روز محاسبه کنم. چگونه می توانم MAP را از AP برای هر دو این بعد [کاربر، فاصله زمانی] محاسبه کنم. یعنی من یک AP برای هر کاربر، در هر 5 دقیقه دریافت می کنم. من می خواهم MAP برای کل روز به طور میانگین در همه کاربران. آیا MMAP (به دلیل عدم وجود کلمه بهتر) وجود دارد؟ آیا حتی منطقی است که من میانگین را بیش از میانگین محاسبه می کنم؟ | میانگین دقت متوسط (MAP) در دو بعد |
79129 | بنابراین یک تفاوت کاملاً مشخص بین خطر نسبی و خطر مطلق برای مطالعات کوهورت مرسوم وجود دارد، و برای بسیاری از سؤالات، احتمالاً خطر مطلق مناسبتر است. آیا روش مشابهی برای اندازهگیری تفاوت مطلق برای مدلهای زمان شکست شتابدار وجود دارد؟ من گمان میکنم وجود ندارد، زیرا این مدلها زمانهای بقای متناسبی را فرض میکنند، بنابراین اندازهگیری نسبی ثابت خواهد بود، اما اندازه مطلق در طول زمان تغییر میکند، اما من میخواستم قبل از اینکه این خط استدلال را کنار بگذارم مطمئن شوم. آیا می توان آن را در یک نقطه زمانی ثابت انجام داد، مثلاً میانه - و آیا فکر می کنید این کار ارزشی دارد؟ | تفاوت مطلق در مقابل تفاوت نسبی در زمان بقا - آیا این امکان پذیر است؟ |
58719 | من سعی میکنم توزیع نامحدود جانسون را به مجموعهای از دادههای مالی با پیچیدگی و چولگی و همچنین مقادیر پرت تناسب دهم. من استفاده از برآوردگرهای حداکثر احتمال (MLE) را شروع کردم، اما یک عدد پرت تأثیر زیادی بر پارامترهای تخمین زده شده دارد. لطفاً میتوانید به روش قویتری برای تخمین پارامترها اشاره کنید، روشی که در آن مقادیر پرت تأثیر زیادی ندارند. من یک تخمینگر کمی برای پارامترهای توزیع پیدا کردم. آیا این روش از MLE قوی تر است؟ | اتصالات توزیع قوی؟ |
11888 | چرا برای کمند تا این حد موفق است، اگرچه برای اکثر مشکلات دیگر رویکردهای استاندارد شبه نیوتنی ترجیح داده می شود؟ من به نوعی این ایده هندسی مبهم را دارم که ممکن است به شکل توپ L_1$ مربوط باشد، اما واقعاً نتوانسته ام آن را رسمی کنم. | اثربخشی صعود مختصات |
49528 | فرض کنید مجموعه آموزشی $(x_{i}، y_{i})$ برای $i = 1، \dots، m$ داریم. همچنین فرض کنید ما نوعی الگوریتم یادگیری نظارت شده را روی مجموعه آموزشی اجرا می کنیم. فرضیه ها به صورت $h_{\theta}(x) = \theta_0+\theta_{1}x_{1} + \cdots +\theta_{m}x_{m}$ نشان داده میشوند. ما باید پارامترهای $\mathbf{\theta}$ را پیدا کنیم که فاصله بین $y_i$ و $h_{\theta}(x)$ را به حداقل می رساند. اجازه دهید $$J(\theta) = \frac{1}{2} \sum_{i=1}^{m} (y_{i}-h_{\theta}(x_i))^{2}$$ سپس ما می خواهیم $\theta$ را پیدا کنیم که $J(\theta)$ را به حداقل می رساند. در گرادیان نزول، هر پارامتر را مقداردهی اولیه می کنیم و به روز رسانی زیر را انجام می دهیم: $$\theta_j := \theta_j-\alpha \frac{\partial}{\partial \theta_{j}} J(\theta)$$ > **سوال .** تفاوت کلیدی بین نزول گرادیان دسته ای و نزول گرادیان تصادفی چیست؟ هر دو از قانون به روز رسانی بالا استفاده می کنند. اما آیا یکی بهتر از دیگری است؟ | نزول گرادیان دسته ای در مقابل نزول گرادیان تصادفی |
83159 | هنگام استفاده از نمودار Q-Q، چرا توزیع تجربی $F_n(x) = \frac {\\#\\{y \in S \mid y \le x\\}} n$ را انتخاب می کنیم، $S$ نمونه است، برای مقایسه با عادی؟ اجازه دهید $S$ نمونه ما از اندازه $n$ باشد. سپس توزیع تجربی $F_n$ را همانطور که در بالا تعریف شد تشکیل می دهیم. سپس از نمودار Q-Q برای مقایسه $F_n$ با $N(0,1)$ استفاده می کنیم تا ببینیم آیا ممکن است یک رابطه خطی وجود داشته باشد. 1. چرا $F_n$ را به عنوان توزیع تجربی برای نمونه خود انتخاب می کنیم؟ 2. اگر $F_n$ را به عنوان توزیع تجربی انتخاب نکنیم، آیا میتوانیم نتایج دیگری به دست آوریم؟ 3. برای شکننده $p \in (0,1)$، نقطه میانی $x$ بازه مربوط به $p$ را انتخاب می کنیم. چرا نقطه میانی را انتخاب می کنیم؟ | نمودار Q-Q - چرا توزیع تجربی $F_n(x) = \frac {\#\{y \in S \mid y \le x\}} n$ را انتخاب می کنیم، $S$ نمونه است، برای مقایسه با نرمال؟ |
11887 | من از یک انسان (اهداکننده) خون جمعآوری میکنم، لکوسیتها را جدا میکنم و به ازای هر پنج چاه 2\times10^6$ از آنها میگذارم: * چاه 1: $2\times10^6$ Lk (لکوسیت) * چاه 2: $2\times10^ 6$Lk * well 3: $2\times10^6$Lk * well 4: $2\times10^6$Lk * خوب 5: $2\times10^6$ Lk (Lk از ترکیبی از مجموعه های مختلف سلول تشکیل شده است و یکی از آنها لنفوسیت ها (Lph) هستند). سپس سلول ها را در شرایط مختلف انکوبه کردم (با مواد زیر در غلظت یکسان (البته به استثنای چاه شماره 1)): * چاه 1: سالین (به عنوان کنترل صفر عمل می کند) * چاه 2: ماده A ( یک ترکیب بومی است) * چاه 3: ماده B (آنالوگ اصلاح شده شیمیایی A است) * چاه 4: ماده C (آنالوگ اصلاح شده شیمیایی A است) * چاه 5: ماده D (است یک آنالوگ اصلاح شده شیمیایی از الف) سپس لکوسیت ها را به مدت 24 ساعت انکوبه می کنم. سپس FACS را اجرا میکنم و درصد لنفوسیتهایی را دریافت میکنم که گیرنده (CD69) مورد علاقه (Lph') را بیان میکنند (که در آن درصدها نسبت Lph به کل Lph است). سپس آزمایش را 7 بار تکرار کردم: یعنی کلاً از 8 اهداکننده مختلف خون جمعآوری کردم (بنابراین n $ = 8 $). با این آزمایش می خواهم بدانم: آیا ساختار یک مولکول بر درصد / نسبت لنفوسیت های _فعال شده (Lph') (یعنی مولکول CD69 دارای Lph) تأثیر می گذارد؟ دادههای مثال من (_در درصد، %_) عبارتند از: ** DonorID cntrl مادهA مادهB مادهC مادهD** 20 5.1 12.42 10.10 9.58 8.54 21 4.07 9.96 14.12 10.79 12.29 12.24 230.41. 15.96 9.37 25 0.60 3.24 8.94 0.61 3.62 26 1.72 13.96 2.48 3.44 3.12 27 0.53 3.36 1.40 4.00 2.308 0.81 3.77 3.31 31 0.15 4.05 1.45 2.44 1.47 32 0.58 1.92 2.47 2.33 4.92 33 1.02 6.03 4.40 4.80 1.47 32 0.58 1.92 2.47 2.33 4.92 33 1.02 6.03 4.40 4.80 * 3.88MARY* _ANOVA_ زیرا بیش از 2 گروه مورد آزمایش قرار می گیرند. * _RM_ به عنوان واحد آماری / تجربی (Lph) برای هر مورد تحت شرایط مختلف است. * _یک طرفه_ یک عامل _ثابت (داخل موضوع) / متغیر مستقل_ (شرایط) با 5 سطح وجود دارد. اگر در پرتو مدلهای ترکیبی خطی اشتباه نکنم، DonorID ممکن است به عنوان یک عامل _تصادفی_ اضافی (اهداکننده) تفسیر شود. * * * _با تشکر فراوان از پاسخ ها!_ | این چه طرح آزمایشی است؟ |
79126 | این ممکن است مانند یک سوال گنگ / مبهم به نظر برسد. وقتی خطی از شیب $\frac{\sigma_y}{\sigma_x}$ ترسیم می کنید، چرا این خط محور اصلی بیضی نمودار پراکندگی است؟ آیا این خاصیت بیضی است؟ من ارتباطی بین انحرافات استاندارد فردی و تقارن نمی بینم. | چرا نمودار پراکندگی همیشه در اطراف خط SD متقارن است؟ |
17482 | فرض کنید A، B، C و D چهار متغیر تصادفی باشند به طوری که A و B مستقل و C و D وابسته باشند. معلوم نیست A و C مستقل هستند یا B و D مستقل هستند. بگذارید E و F نشان دهنده محصولات E = AC و F = BD باشند. آیا E و F لزوماً مستقل هستند؟ اگر نه، می گوییم علم را اضافه می کنیم که A و C مستقل هستند و B و D مستقل هستند. آیا E و F لزوماً مستقل هستند؟ | آیا محصولات متغیرهای تصادفی وابسته و مستقل مستقل هستند؟ |
58717 | من یک مدل اثرات ثابت دو طرفه را تخمین می زنم که از داده های تابلویی برای 40 کشور در حال توسعه در یک دوره زمانی 16 ساله استفاده می کند. من از یک رگرسیون حداقل مربعات معمولی استفاده می کنم که شامل زمان-دوم و کشور-دوم می شود (فرمان 'xi: reg' در Stata) آیا باید از خطاهای استاندارد قوی استفاده کنم؟ چرا یا چرا نه؟ | مدل جلوه های ثابت و خطاهای استاندارد قوی |
62051 | من با داده های شمارش حجم ترافیک سر و کار دارم. هنگامی که من با استفاده از آزمون مجذور کای تعیین کردم، پواسون برای داده ها مناسب است، اما شاخص پراکندگی کمی بیش از حد پراکنده شده است. چگونه با این موضوع برخورد کنیم؟ آیا این امکان وجود دارد که داده ها با پواسون مناسب باشند اما همچنان بیش از حد پراکنده باشند؟ اگر چنین است، به چه معناست؟ شاخص پراکندگی به 1.15 می رسد (در حالت ایده آل باید برای پواسون 1 باشد) همچنین، من داده هایی برای فواصل 360 - هر 30 ثانیه دارم (من داده ها را برای 3 ساعت از همان مکان، در همان زمان جمع آوری کردم). | داده های مناسب پواسون بیش از حد پراکنده شده است |
20226 | کجا می توانم مقایسه واریانس (یا اثر طراحی) روش های مختلف نمونه برداری را پیدا کنم؟ جامعه مشابه، حجم نمونه یکسان: میخواهم بدانم که کدام یک واریانس کمتری نسبت به دیگری دارد. در نمونه گیری تصادفی ساده، نمونه گیری سیستماتیک، نمونه گیری طبقه ای، نمونه گیری خوشه ای و غیره. | اثرات طراحی (یا واریانس) روش های نمونه گیری؟ |
20225 | همانطور که در یک وبلاگ محترم گفته شد، شاید برای تماس زود باشد، اما [...] به نظر می رسد شبکه های عصبی در حال بازگشت هستند. برخی از شبکه هایی که در حال حاضر توسعه یافته اند Autoencoder و Convolution Networks هستند. از کجا می توان برخی آموزش ها/مقاله ها را در مورد این موضوعات پیدا کرد؟ | آموزش شبکه های کانولوشن و رمزگذارهای خودکار |
31657 | تصویر زیر مربوط به این مقاله در _علم روانشناسی_ است. یکی از همکاران به دو چیز غیرعادی در مورد آن اشاره کرد: 1. طبق عنوان، نوارهای خطا 2.04 ± خطاهای استاندارد، فاصله اطمینان 95٪ را نشان می دهد. من فقط 1.96 ± SE را دیده ام که برای 95% CI استفاده شده است، و نمی توانم چیزی در مورد استفاده از 2.04 SE برای هر هدفی پیدا کنم. **آیا 2.04 SE معنای پذیرفته شده ای دارد**؟ 2. متن بیان میکند که مقایسههای دوتایی برنامهریزیشده تفاوتهای قابلتوجهی را برای میانگین بزرگی مبهوت در خطا در مقایسه با آزمایشهای قابل پیشبینی صحیح (t(30)=2.51، p<.01) و خطا در مقابل آزمایشهای غیرقابل پیشبینی صحیح (t (30) = 2.61 پیدا کرد. ، P<0.01) (آزمون omnibus F نیز در p<0.05 معنی دار بود). با این حال، نمودار نشان می دهد که میله های خطا برای هر سه شرایط به طور قابل توجهی همپوشانی دارند. **اگر بازه های SE 2.04 ± همپوشانی دارند، چگونه مقادیر می توانند در p <.05 به طور قابل توجهی متفاوت باشند؟  | منظور از خطاهای استاندارد 2.04؟ وقتی فواصل اطمینان به طور گسترده با هم همپوشانی دارند، به طور قابل توجهی متفاوت است؟ |
79125 | اگر کسی بتواند بررسی کند که آیا روش من درست است یا خیر، بسیار خوب است. سوال به طور خلاصه این خواهد بود که اگر محاسبه خطا راه درستی باشد. فرض کنید من داده های زیر را دارم. داده = c(23.7،25.47،25.16،23.08،24.86،27.89،25.9،25.08،25.08،24.16،20.89) علاوه بر این، می خواهم بررسی کنم که آیا داده های من از توزیع نرمال پیروی می کنند (به عنوان مثال). میدانم که آزمایشهایی وجود دارد و غیره، اما روی ساختن qqplot با خطوط اطمینان تمرکز خواهم کرد. من می دانم که یک روش در پکیج ماشین وجود دارد، اما می خواهم ساختمان این خطوط را بفهمم. بنابراین من صدک ها را برای داده های نمونه خود و همچنین برای توزیع نظری خود محاسبه می کنم (با تخمینی mu = 24.6609 و sigma = 1.6828. بنابراین به این دو بردار حاوی صدک ها می رسم. صدک واقعی = c(23.08،23.7،24.16،24.86،25.08،25.08،25.16،25.47،25.90) صدک تئو = c(22.50،23.24،23.78،24.23،24.62،25.09) icon میخواهم فاصله اطمینان «آلفا=0.05» را برای صدکهای نظری محاسبه کنم. داده)» و «z=مقدار توزیع نرمال برای p» داده شده، بنابراین برای به دست آوردن فاصله اطمینان برای صدک دوم، موارد زیر را انجام می دهم. error = (qnorm(20+alpha/2,mu,sigma)-qnorm(20-alpha/2,mu,sigma))*sigma/sqrt(n) مقادیر را وارد کنید: error = (qnorm(0.225,24.6609,1.6828 )-qnorm(0.175,24.6609,1.6828)) * 1.6828/sqrt(11) error = 0.152985 siguriInterval (برای صدک دوم) = [23.24+0.152985، 23.24-0.152985] Interval اعتماد (برای صدک دوم) = [23.0870، در نهایت، مقدار کمتر از 23.0870] c(...,23.0870,.....)centileTheoUpper = c(...,23.3929,.....) برای بقیه یکسان است.... پس نظر شما چیست، آیا می توانم با آن بروم؟ نتیجه به این شکل است:  بنابراین همانطور که می بینید من فاصله اطمینان برای هر نقطه را محاسبه کردم. بر خلاف راه حل ارائه شده توسط بسته qualityTools. همچنین یک خط از ربع 1 و 3 عبور می کند (من خط abline(0,1) را رسم می کنم). استفاده از این خط چه معنایی دارد؟ من به شما پیشنهاد می کنم راه را در ابزارهای کیفی ترجیح دهید، اما چگونه می توان این فاصله اطمینان را که برای هر امتیاز محاسبه نمی شود، بدست آورد؟  پس چه راهی را ترجیح می دهید؟ این سوال در ابتدا در SO زیر (http://stackoverflow.com/questions/20481117/calculating- اعتماد- intervall-for-quantiles-first-by-hand-than-in-r) پست شده بود. به توصیه یک کاربر، سعی می کنم پاسخ سوالم را در اینجا دریافت کنم. | محاسبه فاصله اطمینان برای چندک ها ابتدا با دست (نسبت به R) |
91741 | من چندین رگرسیون خطی زوجی را روی مجموعهای از متغیرها انجام میدهم. برای مثال «x» به عنوان متغیر وابسته در مقابل «y»، «y» به عنوان متغیر وابسته در مقابل «x»، «x» به عنوان متغیر وابسته در مقابل «z»، و غیره. اگر میخواهم یک خطای خانوادگی را انتخاب کنم. رویه تصحیح نرخ، کدام یک از این رگرسیون ها مستقل محسوب می شوند؟ واضح است که «y=m*x+b» مستقل از «x=m*y+b» نیست، حتی اگر OLS بهینهسازی متفاوتی را انجام دهد. آیا این درست است؟ آیا «y=m*x+b» مستقل از «y=m*z+b» است؟ | چه زمانی رگرسیون خطی چندگانه مستقل هستند؟ |
82121 | تفاوت بین $ \lim_{n \to \infty} \ \mathrm{E}_{\theta}(T_n(X)) = \theta$ و $ T_n(X) \xrightarrow{p} \theta \ چیست؟ $ برای $\ n \xrightarrow{} \infty$ ? (بی طرفی در مقابل سازگاری) * * * بالا... به نظر می رسد این سوال از قبل وجود داشته است:-( سوال متقاطع مشابه آیا این سوال را حذف کنم؟ | سازگاری در مقابل بی طرفی |
97144 | من مجموعهای از کارگران ترکمانند مکانیکی دارم که به ازای هر کار 0.25 دلار دستمزد دریافت کردهاند تا وظایف را از مجموعهای محدود، اما بسیار بزرگ انجام دهند، و اطلاعاتی در مورد تعداد کارها و دقت/سرعت آنها دارم. آنها را برای سال گذشته تکمیل کردم. در 1 آوریل، قیمت پرداختی به کارگران برای هر کار را به 0.15 دلار کاهش دادم. من اکنون اطلاعات یک ماهه در مورد حجم کارهای تکمیل شده، دقت تکمیل و زمان تکمیل دارم. میخواهم آزمایش کنم که آیا کاهش قیمت پرداخت شده برای هر کار تأثیری بر حجم تکمیل کار، دقت و زمان داشته است یا خیر. غریزه من در اینجا این است که از آزمون رتبه بندی علامت دار Wilcoxon برای مقایسه میانگین داده های ماهانه 12 ماه قبل از افت قیمت و ماه داده هایی که بعد از افت قیمت دارم استفاده کنم. 1. آیا این تست مناسبی برای استفاده است؟ به طور خاص، من فکر میکردم که آزمون رتبهبندی علامتدار Wilcoxon در اینجا کاربرد ویژهای دارد، زیرا من نتایج را روی یک نمونه مقایسه میکنم و به این دلیل که ماهیت ناپارامتریک آزمون به من اجازه میدهد که در واقع هیچ فرضی نداشته باشم، برخلاف آزمون T Student. 2. آیا منطقی است که میانگین داده های ماهانه 12 ماه قبل از افت را با ماه داده های بعد از افت مقایسه کنم؟ 3. آیا هنگام تلاش برای تشخیص اینکه آیا کاهش قیمت تغییری در نتایج داشته است، رویکرد بهتری وجود دارد؟ | آزمایش تفاوت در میانگین ها پس از یک تغییر تجربی |
20194 | یک مدل رگرسیون خطی چندگانه با ویژگیهای $F$ و نمونههای $N$ را فرض کنید. برای هر ویژگی، یک خطای استاندارد روی ضریب $\beta$ و مقدار P-T Student قابل محاسبه است. P-value صفر بودن ضریب $\beta$ را در مقابل ضریب $\beta$ غیر صفر آزمایش می کند. اگر من بخواهم یک خطای استاندارد ثابت در ضرایب $\beta$ و یک توان ثابت در آزمون های T Student را حفظ کنم، مقیاس $N$ مورد نیاز با افزایش $F$، از نظر نماد big-O چگونه است؟ به طور مشابه، اگر هر دو $N$ و $F$ را دوبرابر کنم، برای خطاهای استاندارد و قدرت آماری من چه اتفاقی میافتد؟ | مقیاس اندازه نمونه مورد نیاز با تعداد ویژگی ها در رگرسیون خطی چندگانه چگونه است؟ |
31036 | من واقعاً متعجبم که به نظر می رسد هیچ کس قبلاً این سؤال را نپرسیده است ... هنگام بحث در مورد برآوردگرها، دو اصطلاح غالباً استفاده می شود سازگار و بی طرفانه. سوال من ساده است: تفاوت چیست؟ تعاریف فنی دقیق این عبارات نسبتاً پیچیده است، و به سختی می توان احساسی شهودی برای معنای آنها به دست آورد. من می توانم یک برآوردگر خوب و یک برآوردگر بد را تصور کنم. اما من با دیدن اینکه چگونه هر برآوردگر می تواند یک شرط را برآورده کند و شرط دیگر را برآورده نمی کند، مشکل دارم. | تفاوت بین یک برآوردگر ثابت و یک برآوردگر بی طرف چیست؟ |
20227 | میخواهم بفهمم که چرا در مدل OLS، RSS (مجموع باقیمانده مربعها) خی مربع برابر n-p توزیع میشود (p تعداد پارامترهای مدل، n تعداد مشاهدات). من از پرسیدن چنین سؤال اساسی پوزش می خواهم، اما به نظر می رسد که نمی توانم پاسخ را به صورت آنلاین (یا در کتاب های درسی کاربردی تر خود) پیدا کنم. | چرا RSS خی مربع برابر n-p توزیع شده است؟ |
79695 | من در مورد آزمایش فرضیه با نسبت شانس تعجب کردم. من می دانم که در این وضعیت فرضیه صفر $OR = 1$ است. با این حال، از چه انحراف معیار و آماری باید استفاده کرد؟ به دلایلی، من نمی توانم شرح کاملی از روش در آن مورد پیدا کنم. شاید به این دلیل است که مردم از تست دقیق فیشر استفاده می کنند. با خواندن ویکیپدیا، بخشی برای استنتاج آماری وجود دارد، اما در عوض از لگاریتم نسبت شانس استفاده میکنند. | آزمون فرضیه با نسبت شانس |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.