_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
23648 | این سوال ادامه سوال قبلی من است. فرض کنید من یک فرآیند حرکت براونی دارم که به صورت زیر تعریف شده است: در زمان $i=1$ متغیر تصادفی $X_1\sim\mathbf{N}(\mu,\sigma^2)$، و برای هر متغیر تصادفی بعدی $ X_i$ و $X_j$ به طوری که $i<j$، $X_j- X_i\sim\mathcal{N}(0,(j-i)\sigma^2)$. من $n$ مشاهدات پر سر و صدا $\\{Y_i\\}_{i=1}^n$ از $\\{X_i\\}_{i=1}^n$، جایی که $Y_i\sim\mathcal {N}(X_i،N_0)$. من می خواهم $\\{\hat{X}_i\\}_{i=1}^n$ را طوری بسازم که خطای مربع $\sum_{i=1}^n(X_i-\hat{X} _i)^2$ به حداقل می رسد. برخلاف سوال قبلی من، علیت در اینجا یک محدودیت نیست (من به همه مشاهدات $n$ دسترسی دارم و به تکامل فرآیند تصادفی حرکت براونی در کل پنجره مشاهده علاقه مند هستم.) نمی دانم بدست آوردن عبارات فرم بسته برای $\\{\hat{X}_i\\}_{i=1}^n$ از $\\{Y_i\\}_{i=1}^n$ و همچنین مربع خطای $\sum_{i=1}^n(X_i-\hat{X}_i)^2$ با توجه به $\sigma ^2$، $N_0$، و $n$. توجه داشته باشید که این مشکل به راحتی به دامنه پیوسته قابل تبدیل است که همانطور که به من گفته شد با استفاده از فیلتر وینر راه حل هایی را می پذیرد. از آنجایی که مشکل من (تبدیل به آن دامنه) به یک فیلتر غیر علت نیاز دارد، فیلتر وینر بسیار ساده به نظر می رسد. با این حال، استفاده از فیلتر وینر مستلزم این است که سیگنال ثابت باشد و در مورد من، حرکت براونی ساکن نیست، زیرا می توان به راحتی محاسبه کرد: $$\begin{array}{rcl}E[X_iX_j]&=&\int \int x_i x_j p(x_i)p(x_j|x_i)dx_jdx_i\\\ &=&\int\int x_i x_j \phi(x_i;\mu,i\sigma^2)\phi(x_j;x_i,(j-i)\sigma^2)dx_jdx_i\\\ &=&\int x_i^2\phi(x_i;\mu,i \sigma^2)dx_i\\\ &=&i\sigma^2 \end{array}$$ نشان میدهد که همبستگی خودکار در واقع به $i$ برخلاف $j-i$ (که در آن $\phi(x;\mu,\sigma^2)=\frac{1}{\sqrt{2\pi\sigma^2}}e^{-\frac {(x-\mu)^2}{2\sigma^2}}$ pdf توزیع گاوسی است. کسی میدونه از اینجا کجا برم؟ آیا عباراتی به شکل بسته برای $\\{\hat{X}_i\\}_{i=1}^n$ از $\\{Y_i\\}_{i=1}^n$ و همچنین وجود دارد خطای مربع $\sum_{i=1}^n(X_i-\hat{X}_i)^2$ $\sigma^2$، $N_0$، و $n$ داده شده است؟ به نظر من این مشکلی است که قبلاً کسی به آن فکر کرده است. متأسفانه، من در فیلتر کردن/پردازش سیگنال مهارت کافی ندارم -- شاید نسخه ای از فیلتر وینر وجود داشته باشد که بتواند کار کند. من از هر راهنمایی برای کشف این موضوع قدردانی می کنم. **ویرایش**: این ممکن است با استفاده از اولین اصولی که فیلتر وینر از آن مشتق شده است، حل شود، یعنی از طریق اصل متعامد و استفاده از عملگر انتظار به عنوان محصول نقطه. من می ترسم که این ممکن است من را در یک معادله انتگرال ناخوشایند گیر بیاندازد، که نیاز به استفاده از تبدیل ها دارد (که برای شروع خیلی با آن آشنا نیستم) اما صبح آن را امتحان خواهم کرد. | تخمین فرآیند حرکت براونی 1 بعدی با استفاده از مشاهدات پر سر و صدا |
74955 | من چندین پست را در مورد آزمایش چندین مدل روی یک مجموعه داده خوانده ام که می تواند منجر به مشکلاتی در کنترل خطاهای نوع 1 شود. این پستها عمدتاً به دادهکاوی در مجموعههای داده بزرگ مربوط میشوند: چگونه میتوان نتیجهگیری معتبر از کلان دادهها گرفت و اطمینان حاصل کرد که دادههای آزمایشی بر آموزش تأثیر نمیگذارد، با این حال، میدانم که این کار اغلب انجام میشود. در واقع، در کار قدیمیام، کار من این بود که بهترین مدل (logit) را با یک مجموعه داده پیدا کنم. برای اینکه تصمیم بگیرید که آیا یک مدل پیش بینی است یا نه، باید در برابر داده های آزمایش اعتبار سنجی کنید. اگر عملکرد ضعیف باشد، از صفر شروع میکنید و یک مدل جدید ایجاد میکنید. در پایان ممکن است ده ها بار مجموعه داده آزمایشی را بررسی کرده باشید. اخیراً از من پرسیده شد که آیا نمونهبرداری مجدد چندگانه از مجموعه داده میتواند راهحلی باشد. می خواستم بگویم نه، اما در واقع نمی دانم _ چرا_ این بد است. برای ارائه یک مثال خاص: فرض کنید من به دنبال بهترین رگرسیون خطی با توجه به مجموعه داده ای از 1000 مشاهده هستم. من داده ها را به مجموعه های آموزشی و آزمایشی تقسیم کردم. من مدلی را فرموله می کنم که در نمونه آزمایشی رضایت بخش نیست. بنابراین، من 1000 مشاهده را در نمونههای آموزشی/آزمایشی جدید توزیع میکنم و سعی میکنم مدل جدیدی پیدا کنم. هر مدل بر روی نمونه آموزشی/آزمایشی خاص خود آموزش داده و مورد آزمایش قرار خواهد گرفت، که همگی از 1000 مشاهدات اصلی بدست می آیند. **سوال من: چرا این نادرست است؟ مشکلاتی که با این متدولوژی ایجاد می شود چیست؟** | آزمایش نمونهگیری مجدد چندگانه / مجموعه داده قطار هنگام انتخاب مدلهای جدید؟ |
89846 | هدف من مقایسه انحرافات دو مدل، یک پروبیت مرتب و یک پروبیت چند جمله ای، با استفاده از آزمون نسبت درستنمایی (بدیهی است با استفاده از داده های یکسان) است. با این حال، من به طور سیستماتیک انحراف بالاتری را برای پیچیده ترین مدل، یعنی پروبیت چند جمله ای به دست می آورم. من این نتیجه را نمی فهمم من برای انجام تجزیه و تحلیل از Matlab استفاده می کنم، اما همانطور که سعی می کنم اشتباهات احتمالی را در کد پیدا کنم، از نظر آماری نیز می خواهم بدانم که آیا چنین نتیجه ای در صورت امکان وجود دارد و اگر چنین است، چرا؟ | آیا مدل پیچیده تر لزوماً انحراف کمتری دارد؟ |
110882 | من یک روش رگرسیون دارم که آن را با موفقیت برای ده ها هزار شیء به خوبی مشاهده شده به کار برده ام. من به دنبال تخمین میزان عملکرد آن بر روی اجسام ضعیف هستم. من 50 شی با ارزش $R^2$ بیش از $0.999$ را انتخاب کردم که هر کدام حداقل 100 بار مشاهده شده اند و اکنون سعی می کنم تعداد کمی از نقاط را از هر یک از آنها نمونه برداری کنم و روش را اجرا کنم تا ببینم چگونه است. من می خواهم توزیع $R^2$ را به عنوان تابعی از حجم نمونه بدانم. برای هر شی، برای هر اندازه نمونه N=10..50 یا بیشتر، من 100 نمونه تصادفی با اندازه N را میگیرم، روش را روی نمونه آموزش میدهم و سپس روی نقاط خارج شده آزمایش میکنم و R^$ را محاسبه میکنم. امتیاز 2 دلار از آن. نتیجه این است که من یک جدول حاوی 50 شیء، 40 اندازه نمونه در هر شی، و 100 $ R^2$ امتیاز به ازای هر اندازه نمونه در هر شی دارم، به عنوان مثال: SampleSize_10 Object_1 R2_1 SampleSize_10 Object_1 R2_2 ... (از R2_3 تا R2_9_9 صرفنظر کنید) SampleS Object_1 R2_100 SampleSize_10 Object_2 R2_1 ... (پرش از Object_2 R2_2 از طریق Object_50 R2_99) SampleSize_10 Object_50 R2_100 SampleSize_11 Object_1 R2_1 ... (پرش SampleSize_11 Object_1 R2_2 از طریق SampleSize_50 Object_90_50) R2_100 سوال من این است: چگونه باید این اطلاعات را جمع آوری کنم؟ من فکر می کردم که برای هر اندازه نمونه، برای هر شی می توانم میانگین تمام امتیازات $R^2$ را برای آن شی در آن اندازه نمونه بگیرم، و سپس میانگین همه میانگین ها را از همه اشیا بگیرم. در آن حجم نمونه اما از آنجایی که $R^2$ از پایین نامحدود است، به این فکر میکردم که شاید باید از میانگین به جای میانگین برای کنترل نقاط پرت شدید استفاده کنم، اگرچه میترسم که ممکن است غیر صادقانه باشد. همچنین چگونه می توانم فواصل اطمینان حول عدد حاصل را بدست بیاورم؟ من فکر میکنم توزیع به دلیل CLT طبیعی است، بنابراین احتمالاً میتوانم فواصل اطمینان از STD را دریافت کنم، اما فکر میکنم این چیزی است که احتمالاً باید بررسی کنم؟ | یافتن کمترین نمونه مورد نیاز برای روش رگرسیون |
1215 | تجزیه و تحلیل آماری رشته من نیست، پس اگر این سوال بسیار احمقانه است، مرا ببخشید. من یک لیست از اقلام فروخته شده بر اساس اندازه دارم. کفش در این مورد سایز تعداد 35 2 36 1 37 4 38 4 39 32 40 17 41 23 42 57 43 95 44 90 45 98 46 33 47 16 48 4 کل: 476 به صاحبش بگو چقدر از سایز خرید دارم . مشکل این است که نمی توانم به او بگویم. \- برای هر سایز 36 باید 95 کفش سایز 43 بخرید... روش معمول خرید منحنی سایز کامل و خرید اضافات برای پرفروش ترین سایزها است. این حدود یک سال داده است. چگونه باید این اطلاعات را به روشی آسان ارائه کنم؟ آنچه می خواهم ارائه کنم یک قانون کلی است. چیزی مانند برای هر منحنی اندازه، باید x کفش اضافی با سایز x بخرید. ایده این است که بعداً این رویکرد را برای سایر اقلام لباس اعمال کنیم. | تجزیه و تحلیل فروش (چه چیزی بخریم) |
92141 | هنگام تلاش برای تجزیه و تحلیل توزیع برازش داده ها، تفاوت بین نمودارهای احتمال، نمودارهای PP و نمودارهای QQ چیست؟ | PP-plots در مقابل QQ-plots |
23640 | من در این تبادل یک روش اکتشافی برای تخمین گاما برای هسته rbf در SVMها خواندم. میخواستم بدونم کسی میتونه با جزئیات بیشتر برام توضیح بده؟ من معتقدم که شما 1000 (یا تعداد زیادی) جفت نقطه داده را از مجموعه داده انتخاب می کنید، سپس هنجار تفاوت هر جفت را محاسبه می کنید. ظاهراً معکوس چندک های 0.1، 0.9 و میانه نامزدهای خوبی برای گامای مناسب برای هسته rbf هستند. با تشکر | هسته SVM rbf - روش اکتشافی برای تخمین گاما |
35100 | من یک فارغ التحصیل پزشکی هستم که سعی می کنم داده های بزرگ را تجزیه و تحلیل کنم و مقاله ای در مورد آن بنویسم. آیا کسی می تواند توضیح دهد که چه چیزی را باید در مقاله در مورد مدل رگرسیون کاکس وارد کنم. HJP | چه چیزی را گزارش کنیم و چگونه تجزیه و تحلیل بقای رگرسیون کاکس را در یک مقاله تحقیقاتی گزارش کنیم |
89847 | من مدل های زیادی را یاد گرفته ام و مقادیر p را برای خطاهای اعتبارسنجی متقاطع محاسبه کردم. من می خواهم مدل های قابل توجهی را بر اساس نرخ کشف نادرست (FDR) انتخاب کنم. چگونه می توانم FDR را از توزیع p-value تخمین بزنم؟ | چگونه نرخ کشف نادرست را از توزیع p-value تخمین بزنیم؟ |
55479 | من به اطلاعاتی در مورد موارد زیر نیاز دارم - آیا توزیع نوع III Pearson همانطور که در بسته lmomco (CRAN R) ارائه شده است با سه پارامتر Pearson 5 Distribution یکی است؟ اگر نه، چگونه پارامترهای سه پارامتر توزیع پیرسون 5 را تخمین بزنم؟ با احترام کاترین | توزیع سه پارامتری پیرسون 5 |
95085 | من سعی میکنم یک مدل پیشبینی برای یک متغیر وابسته زاویهای (در $[0,2\pi])$ با استفاده از چندین اندازهگیری مستقل – همچنین متغیرهای زاویهای، روی $[0,2\pi]$ – به عنوان پیشبینیکننده توسعه دهم. هر پیش بینی به طور معنی داری اما نه بسیار قوی با متغیر وابسته است. چگونه می توانم پیش بینی کننده ها را برای تعیین یک مدل پیش بینی برای متغیر وابسته که به نوعی بهینه است ترکیب کنم؟ و چگونه می توانم قوی ترین پیش بینی کننده (های) را به دقت شناسایی کنم؟ برای متغیرهای فضای اقلیدسی، من از رگرسیون چندگانه (یا مشابه) و تجزیه و تحلیل مؤلفههای اصلی استفاده میکنم. اما تناوب همه متغیرها با این رویکردها، به عنوان مثال، 0.02 باید به شدت با 6.26 همبستگی داشته باشد، اما نه با 3.14. روشهای معمول چگونه به آمارهای جهتی/دایره ای تعمیم داده می شوند؟ هر گونه بینش یا استناد به منابع مفید مفید خواهد بود. (من قبلاً از متن های N. Fisher و Mardia & Jupp آگاه هستم، اما دسترسی آسانی به آنها ندارم.) | رگرسیون چندگانه در آمار جهتی / دایره ای؟ |
57853 | پیدا کردن این ممکن است سخت باشد، اما من دوست دارم یک مثال مدل خود رگرسیون با توضیح خوب را بخوانم که: * از حداقل ریاضیات استفاده می کند * بحث را فراتر از ساخت یک مدل به استفاده از آن مدل برای پیش بینی موارد خاص گسترش می دهد * از گرافیک نیز استفاده می کند. به عنوان نتایج عددی برای مشخص کردن تناسب بین مقادیر پیشبینیشده و واقعی در حالت ایدهآل، میخواهم نحوه اعمال مدل AR را با یک مثال ساده بدانم. مانند - آرایهای از سرعت خودرو در طول زمان: [(23،1)، (28،2)، (19، 3)، (25، 4)، (30، 5)] که در آن عدد اول سرعت است. و عدد دوم زمان است - چگونه می توانم AR را برای این مجموعه داده اعمال کنم و نقطه داده بعدی را پیش بینی کنم؟ اگر نمی توانید مثالی ارائه دهید - آیا می توانید به ادبیاتی اشاره کنید که در آن بتوانم آن را پیدا کنم؟ | به یک مثال مدل خودکار رگرسیون واضح و ساده نیاز دارید |
95086 | من و همکارانم در تلاشیم تا فواید یک برنامه مداخله را بر روی تعداد بازدیدهای بخش اورژانس (ED) به ازای هر بیمار در طول دوره های قبل از مداخله و پس از مداخله (سال 1 و سال 2) به بهترین نحو تعیین کنیم. ما با مجموعه داده مراقبت های بهداشتی کار می کنیم، اما در اصل سوال من می تواند در تعدادی از زمینه ها اعمال شود. به سادگی ایجاد یک متغیر که درصد تغییر در بازدیدهای سالانه ED را از سال 1 تا سال 2 اندازه گیری می کند، تفاوت مطلق در دو نرخ ED را نادیده می گیرد. به عنوان مثال، کاهش 100 بازدید ED در طول سال 1 به 50 بازدید در طول سال 2، و کاهش 2 بازدید ED به 1، هر دو به عنوان کاهش 50٪ کد گذاری می شوند. در همین حال، اندازهگیری تغییر مطلق در ویزیتهای ED، بزرگی تغییر را نشان میدهد، اما تغییر را نسبت به بازدیدهای پایه # ED بیمار در سال 1 نادیده میگیرد. کاهش 1 ویزیت ED از 100 به 99، یا 2 به 1، هر دو به صورت کدگذاری میشوند. -1. ما می خواهیم هم درصد تغییر و هم تفاوت مطلق را در یک کمیت واحد اندازه گیری کنیم تا اثربخشی مداخله را اندازه گیری کنیم. درک این یک سوال تا حدودی ذهنی است - آیا توصیه هایی وجود دارد که چگونه متغیر پاسخ را به بهترین نحو بسازیم (که با رگرسیون چند متغیره مدل می شود)؟ با تشکر | چگونه می توان اثر قبل و بعد از مداخله را با درصد گرفتن متریک واحد و بزرگی مطلق تغییر اندازه گیری کرد؟ |
95089 | من در حال کار بر روی یک پروژه تجسم داده ها برای ترم هستم و تصمیم گرفته ام با مجموعه ای از داده های انجمن بحث و گفتگو بر روی بحث بر سر مسائل سیاسی کار کنم (در اینجا موجود است). من تعداد فرکانسهای مختلف یونیگرامها، بیگرامها و سهگرامها را تجسم میکنم، اما در مورد استفاده از معیارهای مختلف برای تجسم مانند TF-IDF و اطلاعات متقابل نیز کنجکاو بودم. یکی از ایدههای من برای تجسم این بود که n-گرمها را در یک نمودار پراکنده ترسیم کنم که نمرات TF-IDF آنها را در مقابل نمرات اطلاعات متقابل آنها نشان دهد (اطلاعات متقابل MI بین یک n-گرم و موضوع بحث در بدنه است، مثلاً سقط جنین. ). فکر من این بود که هر یک از این معیارها را به عنوان یک محور داشته باشم و هر نقطه داده یک n-گرم را در نمودار نشان دهد. سؤالات من این است که (الف) آیا اصلاً این اطلاعات آموزنده است، یا از نظر آماری کاملاً نادرست یا اضافی است که n-gram برای این دو معیار به این روش ترسیم شود، و (ب) اگر چیزی شبیه به این یک تصویرسازی مناسب را ایجاد کند، اطلاعات متقابل است. بهترین متریک همبستگی برای استفاده برای یکی از محورها؟ آیا چیز دیگری مانند Chi-square مناسب تر است؟ با تشکر | تجسم اطلاعات متقابل در برابر TF-IDF برای داده های مجموعه متنی |
95080 | به من گفته شده که مدل من از نظر آماری درست نیست، اما مطمئن نیستم که باید چه کار کنم. چیزی که من دارم اساساً 2 **گونه** : A و B است. برای هر گونه، 3 **تکرار** دارم: 1، 2، و 3 (=6 جمعیت در مجموع). من از یک **درمان** با 3 سطح برای هر جمعیت استفاده می کنم (با افراد مختلف برای سطوح مختلف درمان استفاده می شود). و من در حال آزمایش تاثیر **گونه**، **درمان** و **تعامل** آنها بر روی متغیر پاسخ هستم. بنابراین، من باید جمعیتهای تکثیر شدهام را درون «گونهها» لانه کنم، زیرا به اثر «گونه» علاقهمندم. ** مدلی که من نوشتم این بود: ** مدل <- lmer(متغیر پاسخ ~ درمان*گونه + (1|جمعیت)، داده=داده) با 'جمعیت' ترکیبی بین 'گونه' و 'تکرار' است، و بنابراین هر گونه دارای 3 سطح متمایز جمعیت (A1، A2، A3 و B1، B2، B3) است. **بنابراین این باید معادل:** مدل <- lmer(متغیر پاسخ ~ درمان*گونه + (1|گونه:تکرار)، داده=داده) بنابراین فکر کردم **تودرتو** به این شکل خوب است. اما من این شکایت را دریافت کردم که، چون من یک طرح اسپلیت اسپلات دارم، باید تعامل درمان*تکرار(گونه) را در مدل لحاظ کنم تا جمعیت ها به عنوان واحد تکثیر مناسب در نظر گرفته شوند. آیا چیزی را گم کرده ام یا مدل من قبلاً با این مشخصات lmer درست است؟ از آنجایی که من قبلاً در یک گونه تودرتو تکرار کرده ام، فکر کردم که مراقبت شده است. با تشکر | مشخصات یک مدل مخلوط با تودرتو با lmer |
89844 | من سعی می کنم الگوریتمی بسازم که به طور تصادفی یک آرایه را بر اساس امتیاز وزنی برای هر آیتم مرتب کند. در ساده ترین نسخه الگوریتم، آرایه خروجی را می توان به صورت تکراری ساخت، جایی که آیتم بعدی اضافه شده به طور تصادفی با توجه به توزیع وزن آیتم های باقی مانده انتخاب می شود. برای توضیح با یک مثال، اگر موارد و وزن هایی مانند این داشته باشیم: (کد PHP است اما واقعاً مهم نیست) $items = array('a' => 5, 'b' => 4, 'c' => 1)؛ $output = وزن_تصادفی_مرتب ($items); سپس در \$output، 'a' باید اول با احتمال 0.5، 'b' باید اول با احتمال 0.4 و 'c' باید اول با احتمال 0.1 باشد. توزیع کلی $output باید به صورت زیر باشد: * P('a', 'b', 'c') = (5/10)*(4/5) * P('a', 'c', 'b' ) = (5/10)*(1/5) * P('b', 'a', 'c') = (4/10)*(5/6) * P('b', 'c' ، 'a') = (4/10)*(1/6) * P('c', 'a', 'b') = (1/10)*(5/9) * P('c', 'b', ' a') = (1/10)*(4/9) اجرای این الگوریتم با الگوریتم تکراری که در بالا توضیح دادم آسان است. با این حال، من در واقع میخواهم آن را به روش دیگری پیادهسازی کنم، و اینجا جایی است که بخش آماری سؤال من وارد میشود. میخواهم آن را با برهم زدن هر وزن با یک تابع تصادفی، و سپس انجام یک مرتبسازی معکوس ساده از آشفتهشده، پیادهسازی کنم. امتیازات بنابراین اساساً، سؤال من این است که چه نوع تابع تصادفی f(n) به من اجازه می دهد تا انجام دهم: $items = array('a' => f(5)، 'b' => f(4)، 'c' => f(1)); $output = arsort($items) و اجازه دهید \$output توزیع احتمال مشابه الگوریتم اصلی را داشته باشد؟ | مرتبسازی تصادفی آرایهای از امتیازات وزنی |
59681 | من خواندهام که کنترل FDR نسبت به کنترل FWER سختگیرانهتر است، مانند در ویکیپدیا: > رویههای کنترل FDR در مقایسه با رویههای نرخ خطای خانوادگی (FWER) کنترل کمتری بر کشف نادرست اعمال میکنند (مانند اصلاح > Bonferroni). این قدرت را به قیمت افزایش > نرخ خطاهای نوع I افزایش می دهد، به عنوان مثال، رد فرضیه صفر عدم تأثیر زمانی که > باید پذیرفته شود. اما من تعجب کردم که چگونه از نظر ریاضی درست است؟ آیا رابطه ای بین FDR و FWER وجود دارد؟ با تشکر و احترام! | چرا کنترل FDR کمتر از کنترل FWER است؟ |
8405 | من داده های پیوسته $A$ و داده های طبقه بندی $O$ دارم. من به تعداد $A$ در سطل ها توسط گروه $O$ نیاز دارم. من در R کار میکنم. میدانم چگونه دادهها را باین کنم (با استفاده از «cut2») و چگونه میتوانم تعداد $O$ (با استفاده از «تجمیع» یا «by» یا «describe» یا «summaryBy» را دریافت کنم. من همچنین میتوانم با اجرای یکی از این توابع با زیرمجموعه (bin) از دادهها، آنچه را که نیاز دارم به دست بیاورم، اما آیا راهی برای انجام خودکار این کار در یک دستور وجود دارد؟ **به روز رسانی:** خروجی مورد نظر من فقط آمار توصیفی اولیه است (شمارش در این مورد، اما همچنین میانگین و/یا میانه برای مثال): سن (A).............. ..نتیجه (O) ........................بله....نه 18-27 ........... ........10....12 28-37 ....................2....11 38-47 .... ................9.....7 به عنوان مثال: توسط(زیرمجموعه(X, X$Age>47)$Age، زیرمجموعه (X، X$Age>47)$Outcome، طول) تعداد نقاط داده را برای سنین > 47 سال به من میدهد که در آن «نتیجه» درست و جایی که «O» نادرست است. من می خواهم این کار را برای همه bin ها به طور خودکار انجام دهم، بدون اینکه نیازی به اجرای دستورات جداگانه با شرایط طولانی > و < برای هر bin. | تعداد داده های صحافی شده بر اساس گروه |
111757 | سؤالی که می خواهم بپرسم احتمالاً پاسخی مستقیم دارد، فقط نمی دانم چگونه سؤالم را به گونه ای تنظیم کنم که عادی باشد. من مجموعهای از معادلات خطی دارم که میخواهم روی آنها رگرسیون انجام دهم. معادله اصلی همیشه شبیه سیستم معادلات خطی ماتریس استاندارد خواهد بود: $Ax = b$ که در آن A یک ماتریس 3x3، x 3x1 و b 3x1 است. با این حال، من می توانم داده ها را جمع آوری کنم تا 6 معادله از این شکل بسازم و A باید برای هر یک یکسان باشد. $Ax_1 = b_1 \\\ Ax_2 = b_2 \\\ Ax_3 = b_3 \\\ Ax_4 = b_4 \\\ Ax_5 = b_5 \\\ Ax_6 = b_6$ لطفا توجه داشته باشید که $x_1$، $x_2$، $b_1$، $b_2$ و غیره **مقادیر واحد نیستند، اما بردارهای 3x1 هستند. بنابراین برای یک ماتریس معین A، من می توانم 6 مجموعه از x های ad b را تولید کنم. از آنجایی که من در حال جمعآوری اطلاعات از سنسورهایی هستم که نویز دارند، نمیخواهم فقط $Ax_1 = b_1$ را حل کنم و دادههایی را که میتوانم از 5 سیستم دیگر دریافت کنم دور بریزم. آیا راهی برای انجام یک رگرسیون خطی نه بر روی یک سیستم معادلات خطی، بلکه در یک سیستم از یک سیستم معادلات خطی وجود دارد؟ | رگرسیون برای حل سیستم یک سیستم معادلات خطی؟ |
95081 | من با تنظیمات زیر مشکل دارم. من انجام تجزیه و تحلیل داده های بیزی: آموزش با R و BUGS را خوانده ام و به نظر می رسد رویکرد بیزی روش خوبی است، اما کاملاً مطمئن نیستم که چگونه آن را مدل کنم. من تقریباً 20 رویداد دارم که می خواهم آنها را تجزیه و تحلیل کنم. هر رویداد باید مشابه باشد، و من می توانم همان تحلیل را برای هر یک اعمال کنم. من فرض می کنم که رویدادها مستقل هستند (ممکن است اینطور نباشند، اما من نگران این نیستم). برای هر رویداد، من تابعی از سه پارامتر دارم: آستانه، s و t. Threshold یک متغیر پیوسته بین 0 تا 0.5 است و من حدس می زنم که مقادیر مفید آن حدود 0.1 باشد. s یک عدد صحیح بین 15 و 2 است و t یک عدد صحیح بین s و 1 است. من می توانم تابع را روی تمام مقادیر s و t و نمونه ای از مقادیر آستانه اجرا کنم، احتمالاً 0.05، 0.06، ...، .2 (یا هر چیز دیگری، این قابل انعطاف است). تابع یک امتیاز خام به من می دهد، جایی که بالاتر بهتر است، و مقادیر منفی، خوب، منفی هستند. آنها نشان دهنده یک ضرر واقعی هستند. عادی سازی امتیاز خام به مقداری بین 1 و -1 به اندازه کافی ساده خواهد بود. آنچه من می خواهم بدانم این است که بهترین مقادیر برای پارامترها (یا از نظر فنی توزیع پارامترها) که پس از بررسی همه رویدادها به بهترین (ish) امتیاز (ها) منجر می شود، چیست. کاری که من فکر می کنم انجام دهم این است: آستانه مدل به عنوان یک متغیر نرمال مانند - با استفاده از توزیع نرمال، یا بتا، یا گاما. من به توزیع بتا یا گاما تمایل دارم، زیرا مدلسازی عدم قطعیت بالای من در مورد قبلی نسبتاً آسان است، و من انتظار ندارم که توزیع کاملاً زنگشکل یا حتی متقارن باشد. به طور مشابه، مدلهای s و t بهعنوان توزیعهای نرمالمانند (دوباره، به دلایل مشابه به سمت بتا یا گاما متمایل میشوند). حتی اگر مقادیر اعداد صحیح هستند، اگر میانگین توزیع پسین مثلاً 8.6 باشد، در پایان کار مشکلی نیست - من می توانم با آن کار کنم. اگر توزیعهایی وجود داشت که مقادیر گسسته را مدیریت میکرد، جالب بود، اما باز هم لازم نیست. میدانم که توزیع دوجملهای گسسته است، اما اگر درک من درست باشد، بیشتر در مورد مدلسازی نتایج باینری است، بنابراین در این نمونه خاص از آن دور میشوم. سوال من این است که چگونه می توانم از امتیاز استفاده کنم، چه به صورت خام (حدس می زنم که مفید نباشد) یا به صورت عادی (امیدوارم مفید باشد)؟ به نظر می رسد مهم ترین اطلاعات است، اما من نمی دانم چگونه آن را ترکیب کنم. من در تلاش برای ساخت یک مدل رگرسیون نیستم. من بیشتر به دنبال نتایج بهینه هستم. و من نمی خواهم یک رگرسیون لجستیک انجام دهم. باز هم، این یک پیشبینی نیست، بلکه به این دلیل که یک بله یا خیر ساده نیست - بهترین نمره یا نه - میخواهم پارامترهایی را وزن کنم که نمره نرمالشده مثلاً 0.98 را تقریباً به اندازه مواردی که 1 تولید میکنند، وزن کنم. وقتی این کار را بدون تحلیل بیزی انجام میدادم، فکر میکنم کاری که انجام میدهم چیزی شبیه به این است که برای هر نقطه داده، برای هر پارامتر، مقداری برابر با امتیاز نرمال شده برای آن نقطه داده اضافه کنم. سپس، در پایان، مثلاً به 3 یا 5 مقدار بالا برای هر پارامتر نگاه کنید و سعی کنید بر اساس آن تصمیم بگیرید. اما من می خواهم بدانم چگونه می توان این را به روش بیزی مدل کرد. هر گونه توصیه قدردانی می شود، و پیشاپیش متشکرم! | یافتن مقادیر پارامتر بهینه با استفاده از مدل بیزی |
27736 | یکی از مواردی که اقتصاد سنجی را منحصر به فرد می کند، استفاده از روش تعمیم یافته لحظه ها است. چه نوع مشکلاتی GMM را مناسب تر از سایر تکنیک های تخمین می کند؟ استفاده از GMM از نظر کارایی یا کاهش تعصب یا تخمین پارامترهای خاصتر چه چیزی برای شما میخرد؟ برعکس، با استفاده از GMM بیش از MLE و غیره چه چیزی را از دست می دهید؟ | چه زمانی باید استفاده از GMM را در نظر گرفت؟ |
27732 | فرض کنید یک معادله دارید: $$y = b_0 + b_1X_1 +b_2X_2$$ چگونه این فرضیه را آزمایش می کنید که $\frac{b1}{b2} = q$؟ | چگونه فرضیه را بر روی کسری از دو ضریب آزمایش کنیم؟ |
9814 | من دادههای خوبی در مورد دادههای آزمایشهای چند محیطی (MET) برای ارزیابی ژنوتیپ دریافت کردم و میخواهم از برخی تکنیکهای جدید توسعهیافته همانطور که در اسمیت و همکاران بحث شده است استفاده کنم. al 2005 اسمیت و. al 2005. من به طور خاص به **ساختار تحلیل عاملی (FA)** علاقه مند هستم. نویسندگان کدهای ذکر شده برای این روش ها در صورت درخواست در دسترس خواهند بود. > اکنون چندین بسته آماری وجود دارد (از جمله ASReml، GENSTAT، > بسته های زبان S و SAS؛ Littel و همکاران 1996) که امکان تخمین REML طیفی از مدل های ترکیبی را فراهم می کند. نویسندگان حاضر بستههای > ASReml و GENSTAT و توابع samm (از طریق محیطهای زبان S) را مناسبترین برای تجزیه و تحلیل دادههای MET، هم از نظر کلیت مدلهایی که میتوان برازش کرد و هم به راحتی می توان پیش بینی ها و استنتاج در مورد اثرات واریته را انجام داد. تمام مدلهای موجود در مقاله فعلی به راحتی با استفاده از این نرمافزار برازش و خلاصه میشوند (کد در صورت درخواست از نویسندگان در دسترس است). حتی پس از درخواست های متعدد از نویسندگان، من پاسخی از نویسندگان نشنیده ام. من نمیخواهم کسی این مدلها را امتحان کرده باشد و به اندازه کافی مهربان باشد که نمونههای کار شده را به اشتراک بگذارد، عالی است. من مشتاقانه منتظر پاسخ مثبت هستم. اسمیت و همکاران (2001b) از نسخه مدل ترکیبی زیر از مدلهای ضربی ${\small \begin{eqnarray*} (\boldsymbol{I}_{e}\otimes\boldsymbol{I}_{g})\boldsymbol{\eta} استفاده کرد. _{به عنوان مثال\times1} & = & (\boldsymbol{1}_{e}\otimes\boldsymbol{1}_{g})\mu+(\boldsymbol{I}_{e}\otimes\boldsymbol{1}_{g})\boldsymbol{E }_{e\times1}+(\boldsymbol{1}_{e}\ otimes\boldsymbol{I}_{g})\boldsymbol{G}_{g\times1}+\underbrace{(\boldsymbol{I}_{e}\otimes\boldsymbol{I}_{g})(\ علامت پررنگ{GE})_{به عنوان مثال\times1}}\\\ & = & (\boldsymbol{1}_{e}\otimes\boldsymbol{1}_{g})\mu+(\boldsymbol{I}_{e}\otimes\boldsymbol{1}_{g})\b oldsymbol{E}_{e\times1}+(\boldsymbol{1}_{e}\otimes\boldsymbol{I}_{g})\boldsymbol{G}_{g\times1}\\\ & & +\underbrace{(\boldsymbol{\Lambda}_{E_{e\times k}}\otimes\boldsymbol{I}_{g})\:\boldsymbol{f}_{G_{kg\times1}}+(\boldsymbol{I}_{e}\otimes\boldsymbol{I}_ {g})\delta_{eg\times1}}\end{eqnarray*} }{\tiny }$ where $\boldsymbol{\Lambda}_{E_{e\times k}}$ ماتریسی از بارگذاریهای محیط است، $f_{G_{kg\times1}}$ بردار مرتبط امتیازات ژنوتیپ و _k_ تعداد مؤلفهها است. (اصطلاح ضربی) موجود در مدل. نویسندگان فرض کردند که محیطها ثابت هستند و $\boldsymbol{G}_{g\times1}$، $\boldsymbol{f}_{G_{kg\times1}}$، و $\delta_{eg\times1}$ افکتهای تصادفی با $\small \left(\begin{array}{l} \boldsymbol{G}_{g\times1}\\\ هستند \boldsymbol{f}_{G_{kg\times1}}\\\ \boldsymbol{\delta}_{eg\times1}\end{array}\right)\sim\mathcal{N}\left(\begin{ آرایه}{ccc} \left[\begin{array}{c} \boldsymbol{0}\\\ \boldsymbol{0}\\\ \boldsymbol{0}\end{array}\right] & , & \left[\begin{array}{ccc} \sigma_{g}^{2}\,\boldsymbol{I}_{g} & \boldsymbol {0} & \boldsymbol{0}\\\ \boldsymbol{0} & \boldsymbol{I}_{k}\otimes\boldsymbol{I}_{g} & \boldsymbol{0}\\\ \boldsymbol{0} & \boldsymbol{0} & \boldsymbol{\Psi}_{e}\otimes\boldsymbol{I}_{g}\end{آرایه}\right] \end{array}\right)$ $\small E((\boldsymbol{I}_{e}\otimes\boldsymbol{I}_{g})\boldsymbol{\eta}_{eg\times1})=(\boldsymbol{1}_{e}\o times\boldsymbol{1}_{g})\mu+(\boldsymbol{I}_{e}\otimes\boldsymbol{1}_{g})\boldsymbol{E}_{e\times1}$ ${\small \begin{eqnarray*} \mathrm{var}((\boldsymbol{I}_{e}\otimes\boldsymbol{I}_{g})\boldsymbol{\eta}_{eg\times1} ) & = & \sigma_{g}^{2}\,(\boldsymbol{J}_{e}\otimes\boldsymbol{I}_{g})+(\boldsymbol{\Lambda}_{E_{e\times k}}\otimes\boldsymbol{I}_{g})(\boldsymbol{I}_{k}\otimes\boldsymbol{I}_{g})(\boldsymbol{\Lambda}_{E_{e\ بارها k}}\otimes\boldsymbol{I}_{g})^{T}+\boldsymbol{\Psi}_{e}\otimes\boldsymbol{I}_{g}\\\ & = & \sigma_{g}^{2}\,(\boldsymbol{J}_{e}\otimes\boldsymbol{I}_{g})+(\boldsymbol{\Lambda}_{E_{e\times k} }\boldsymbol{\Lambda}_{E_{e\times k}}^{T}\otimes\boldsymbol{I}_{g})+\boldsymbol{\Psi}_{e}\otimes\boldsymbol{I}_{g}\\\ & = & \sigma_{g}^{2}\,(\boldsymbol{J}_{e}\otimes\boldsymbol{I}_{g})+(\boldsymbol{\Lambda}_{E_{e\times k} }\boldsymbol{\Lambda}_{E_{e\times k}}^{T}+\boldsymbol{\Psi}_{e})\otimes\boldsymbol{I}_{g}\\\ & = & (\underbrace{\sigma_{g}^{2}\ ,\boldsymbol{J}_{e}+\boldsymbol{\Lambda}_{E_{e\times k}}\boldsymbol{\Lambda}_{E_{e\times k}}^{T}}+\boldsymbol{\Psi}_{e})\otimes\boldsymbol{I}_{g}\\\ & = & (\underbrace{\boldsymbol{\Lambda}_{E}^{*}\boldsymbol{\Lambda}_{E}^{*T}}+\boldsymbol{\Psi}_{e})\otimes\boldsymbol {I}_{g}\end{eqnarray*} }$ که $\boldsymbol{\Psi}_{e}$ یک قطر $e\times است ماتریس e$ با عناصری که معمولا به عنوان واریانس های خاص شناخته می شوند. با تشکر | مدل های ترکیبی ضربی برای تجزیه و تحلیل داده های تنوع به محیط |
27734 | آیا هنگام ساخت یک مدل خودرگرسیون برداری، نظریه ای وجود دارد که من را در انتخاب تعداد متغیرهایی که باید لحاظ کنم راهنمایی کند؟ به عنوان مثال، من حدود 3000 نقطه داده دارم و میخواهم تصوری از تعداد تاخیر متغیرهای توضیحی به ues داشته باشم. | خودرگرسیون برداری - تعداد متغیرهای مورد استفاده |
97817 | در پترسون و تامپسون 1971، $L$ احتمال ورود به سیستم $y$ $$ L = const - \frac{1}{2}log |H| - \frac{1}{2}n log (\sigma^2) - \frac{1}{2\sigma^2} (y - X\alpha)'H^{-1}(y-Xa) $ $ آنها تبدیل $Sy$ و $Qy$ را با احتمالات log- درستنمایی مربوطه $L'$ و $L''$ در نظر می گیرند و مفروضات: 1. $S$ دارای رتبه $n-t$ و $Q$ است. از رتبه $t$ 2 است. $Sy$ و $Qy$ از نظر آماری مستقل هستند از این مفروضات نتیجه می شود که $L=L' + L''$. آیا کسی می تواند مدرک رسمی بدهد؟ البته 2. قسمت افزودنی سمت چپ را توضیح می دهد، اما برابری برای من مشخص نیست. با تشکر | مفروضات REML |
59358 | من در رابطه با استفاده از مدل جلوههای مختلط خطی با استفاده از بسته lme4 با مشکل مواجه شدهام و نمیدانم که آیا میتوانم از شما کمک بگیرم. این مدل من در یک تنظیم چند متغیره است که $Y_{ik}$ مقدار بیان ژن برای نوع بافتی $k$ است و $G$ ژنوتیپ با $G_i \in \ چپ (0,1,2\راست) )$ برای $i$ فردی. \begin{معادله*} Y_{ik} = \beta_{0} + \beta_{k} + \beta_{1}G_{i} + b_{i} + b_{k}G_{i} + \epsilon_{ ik} \end{معادله*} که در آن $\beta_{0}$، $\beta_{k}$ و $\beta_{1}$ اثرات ثابت هستند و \begin{معادله*} b_{i} \sim N\left(0,\tau^2\right) \qquad b_{k} \sim N\left(0,\Psi^2\right) \qquad \epsilon_{ik} \sim N \left(0, \delta^2\right) \end{equation*} اثرات تصادفی هستند. من مولفه واریانس $\Psi^2$ را آزمایش می کنم، یک تست 3 df در مورد من، زیرا من 4 نوع بافت را شبیه سازی می کنم: \begin{equation*} H_0 : \Psi^2 = 0 \qquad H_A : \Psi^ 2 > 0 \end{equation*} به عبارت دیگر، آیا تفاوتهای بیان ژن خاص بافت تحت تأثیر ژنوتیپها/SNP ها وجود دارد؟ من شبیهسازیهای تهی $\left(\Psi^2 = 0 \right)$ را تحت شرایط فوقالذکر ایجاد میکنم و کد من اینجاست: require(lme4) nobs = 150; k = 4; ngene = 1; maf = 0.3; sdB = 4; sdW = 2 آلفا = 0.05 Geno = rbinom(nobs,2,maf) IND = as.factor(rep(1:nobs,each=k)); بافت = as.factor(rep(1:k,nobs)); data = data.frame(IND,Tissue) data$Geno = Geno[data$IND] beta0 = 8; beta1 = 5; betak = c(1,1,1); بتا = c(beta0, beta1, betak) cMat = model.matrix(~ Geno + Tissue,data) معنی = cMat %*% beta bi = rnorm(nobs, mean = 0, sd = sdB) sdBt = NULL if(! is.null(sdBt)){ bk = c(0,rnorm(k-1, mean = 0, sd = sdBt)) bkG = Geno %*% bk Y = t(apply(means, 1, function(m) rnorm(1, mean=m, sd=sdW))) + rep(bi,each=4) + as.numeric(unlist(split(bkG,1:NROW(bkG)))) }else{ Y = t(apply(means, 1, تابع(m) rnorm(1, mean=m, sd=sdW))) + rep(bi,each=4) } data = data.frame(IND=IND, Gene = round(as. بردار (Y)، 3)، بافت = بافت، Geno = rep(Geno، هر=4)) Fit = lmer(Gene ~ Geno + Tissue + (1|IND) + (0+Geno|بافت)،REML=T،داده) Fit0 = lmer(Gene ~ Geno + Tissue + (1|IND)،REML=T،داده) lrt = anova(Fit,Fit0) ) lrt[2,7] < alpha I 1000 شبیهسازی تهی را اجرا کردم که هر بار یک SNP و یک ژن را تحت نمونههای مختلف تولید میکردند. اندازه هایی با 1000 که حداکثر حجم نمونه است و میزان خطای نوع I را بررسی کرد که متاسفانه هرگز به 0.05 نزدیک نمی شود. آیا کد مشکلی دارد -- w.r.t. چگونه مجموعه داده ها را تولید می کنم و مدل جلوه های ترکیبی را اجرا می کنم؟ من واقعا از هر کمکی قدردانی می کنم. با تشکر **ویرایش:** کدم را کمی تغییر دادم و شبیه سازی های تهی را اجرا کردم تا تخمین های محافظه کارانه ای از خطای نوع I (بین 0.02 و 0.03) بدست آوریم. در اینجا دلیلی وجود دارد که -- پارامتر واقعی در مرز فضای پارامتر یک تجربه یادگیری باورنکردنی بوده است! | مدل مختلط خطی چند متغیره در R |
78422 | میخواهم بدانم آیا مطالعهای وجود دارد که اثرات مدلسازی دادهها با استفاده از توزیع احتمال اشتباه را نشان دهد. هرگونه ارجاع به مقالات یا کتاب هایی که آن را توضیح دهند (احتمالاً برای مخاطبان تازه کار/متوسط) خوب است. | آیا مطالعه سیستماتیکی در مورد تأثیرات انتخاب توزیع اشتباه برای داده های مدل وجود دارد؟ |
97813 | من یک مشکل طبقه بندی باینری برای نسبت ها و متغیرهای مالی دارم. وقتی از «newff» استفاده میکنم (با «trainlm» و «mse» و آستانه 0.5 برای خروجی) دقت طبقهبندی بالایی دارم (5 برابر اعتبار متقاطع – نزدیک به 89-92%) اما وقتی از «patternnet» استفاده میکنم (` trainscg` با «crossentropy») دقت من 10 درصد کمتر از «newff» است. (من دادهها را قبل از درج در شبکه عادی کردم - «mapminmax» یا «mapstd») وقتی از این مدلها برای دادههای نمونه استفاده میکنم (برای مدلهای ایجاد شده در سال جاری که براساس مجموعه دادههای یک سال قبل طراحی شدهاند) طبقهبندی بهتری دارم. دقت در الگو با حساسیت و ویژگی بهتر. به عنوان مثال من این نتایج را در مشکل خود دارم: # Newff: دقت: 92.8٪ حساسیت: 94.08٪ ویژگی: 91.62٪ نتایج نمونه خارج: دقت: 60٪ حساسیت: 48٪ و ویژگی: 65.57٪ # الگو: دقت: 73.31٪ حساسیت : 69.85% ویژگی: 76.77% نتایج نمونه خروجی: دقت: 70% حساسیت: 62.79% و ویژگی: 73.77% چرا ما این تفاوت ها را بین newff و patternent داریم. از کدام مدل استفاده کنم؟ با تشکر | مقایسه عملکرد patternnet و newff برای طبقه بندی باینری در MATLAB R2014a |
23647 | آیا عملکرد rpart هنگام استفاده از روش anova به داده های عادی نیاز دارد؟ من اینطور فرض می کنم، اما دوست ندارم فرض کنم. من نگاه کردهام و جایی نگفته است که باید باشد، اما این روش باعث میشود فکر کنم اینطور است. ممنون اسکات | r: آیا rpart به مجموعه داده های نرمال شده برای متغیر ورودی نیاز دارد؟ |
97811 | من برای ارزیابی مدل رگرسیون خطی از اعتبارسنجی متقاطع ترک یک خارج استفاده می کنم. در تجزیه و تحلیل بعدی، من برای هر مشاهده به سه مقدار خاص نیاز دارم: مقدار مشاهده شده، مقدار پیش بینی شده، خطای استاندارد پیش بینی. مقادیر خطای استاندارد پیشبینی را میتوان از آرگومان تنظیم تابع «predict.lm» «se.fit = TRUE» بازیابی کرد. کد زیر (اقتباس شده از اینجا) می تواند برای انجام کارهایی که در حال حاضر به آن نیاز دارم استفاده شود: library(faraway) gala[1:3, ] c1 <- c(1:30) gala2 <- cbind(gala, c1) gala2[1 :3، ] obs <- numeric(30) pred <- numeric(30) se <- numeric(30) for (i در 1:30) { model1 <- lm(گونهها ~ اندمیک + مساحت + ارتفاع، زیر مجموعه = (c1 != i)، داده = gala2) specpr <- پیشبینی (model1, gala2[i, ], se.fit = TRUE) obs[i] <- gala2[i, 1] pred[i] <- specpr$fit se[i] <- specpr$se.fit } res <- data.frame(obs, pred, se) head(res) obs pred se 1 58 70.185063 5.524249 2 31 72.942732 6.509655 3 3 -8.303608 7.0551608 7.0525163 7.0525063 7.055163 4 5 2 -15.953141 7.403062 6 18 27.274440 6.220029 من در اسناد برخی از بسته هایی که عملکردهایی را برای اعتبارسنجی متقاطع ارائه می دهند جستجو کردم، اما هیچ موردی را پیدا نکردم که خطاهای استاندارد پیش بینی را ذخیره کند. آیا بسته ای وجود دارد که قبلاً چنین عملکردی را ارائه دهد؟ | خطای استاندارد پیشبینی اعتبار متقابل |
97812 | من علاقه مند به کمی کردن اهمیت متغیر برای یک رگرسیون ترکیبی لجستیک دو جمله ای هستم. مدل من دارای 5 افکت ثابت و 3 افکت تصادفی (2 افکت تو در تو) است. من در حال انجام انتخاب مدل و استنتاج چند مدل از طریق بسته «MuMIN» در R هستم. در ابتدا قصد داشتم از وزنهای Akaike برای محاسبه اهمیت متغیر با استفاده از بسته «MuMIN» استفاده کنم، اما سپس به Murray & Connor 2009 (متن کامل اینجا) برخورد کردم. نشان می دهد که محاسبه اثر مستقل از طریق پارتیشن بندی سلسله مراتبی برای مدل های شبیه سازی شده آنها بسیار بهتر عمل می کند. با این حال، مدلهای شبیهسازیشده آنها حاوی جلوههای تصادفی نیستند، و بسته «hier.part» که میتواند آنالیز را انجام دهد، گزینهای برای گنجاندن اثرات تصادفی ندارد. سوال من این است: آیا باید در محاسبه اثرات مستقل با استفاده از پارتیشن بندی سلسله مراتبی، اثرات تصادفی در نظر گرفته شود؟ | کمی کردن اهمیت متغیر برای GLMM با استفاده از پارتیشن بندی سلسله مراتبی (در R) |
78424 | من در حال تلاش برای توسعه معادلات برای انتشار برگشتی برای شبکه کانولوشن هستم. فرض کنید من یک شبکه با یک شبکه کانولوشنال (بدون ادغام) بدون عملکرد فعالسازی دارم. تابع فعالسازی لایه $f = x*k$ است که $x$ ماتریس ورودی و $k$ هسته کانولوشن من است. اگر $f$ را با $k$ بدست بیاورم: $\frac{df}{dk} = x * \frac{dk}{dk}$ اگر $k$ یک بردار به اندازه $N{\times}1$ باشد، پس $\frac{dk}{dk}$ یک ماتریس واحد $N{\times}N$ است. این مشتق از نظر اندازه با آنچه من انتظار دارم مطابقت ندارد و نمی توانم آن را بیشتر منتشر کنم. فکر می کنم دارم کار اشتباهی انجام می دهم... ممنون. | پس انتشار برای شبکه کانولوشن |
78839 | برای برخی از تست ها در R، یک حد پایین تر در محاسبات p-value 2.22e-16 وجود دارد. من مطمئن نیستم که چرا این عدد است، اگر دلیل خوبی برای آن وجود دارد یا اینکه فقط دلخواه است. بسیاری از بستههای آماری دیگر فقط به 0.0001 میروند، بنابراین این میزان دقت بسیار بالاتری است. اما من مقالات زیادی را ندیده ام که p < 2.22e-16 یا p = 2.22e-16 را گزارش کرده باشند. آیا گزارش این مقدار محاسبه شده یک روش معمول/بهترین روش است یا گزارش چیز دیگری معمول تر است؟ (مانند p <0.000000000000001) | مقادیر p کوچک چگونه باید گزارش شوند؟ (و چرا R حداقل روی 2.22e-16 قرار می دهد؟) |
8401 | من روی یک پروژه تحقیقاتی کار می کنم که مربوط به بهینه سازی است و اخیراً ایده ای برای استفاده از MCMC در این تنظیمات داشتم. متأسفانه، من با روش های MCMC نسبتاً تازه کار هستم، بنابراین چندین سؤال داشتم. من با توضیح مشکل و سپس پرسیدن سوالاتم شروع می کنم. مشکل ما به تخمین مقدار مورد انتظار یک تابع هزینه $c(\omega)$ خلاصه می شود که $\omega = (\omega_1,\omega_2,...\omega_h)$ یک متغیر تصادفی $h$-بعدی با یک چگالی $f(\omega)$. در مورد ما، نسخه فرم بسته $c(\omega)$ وجود ندارد. این بدان معناست که ما باید از روش های مونت کارلو برای تقریب مقدار مورد انتظار استفاده کنیم. متأسفانه، مشخص شد که تخمینهای $E[c(\omega)]$ که با استفاده از روشهای MC یا QMC ایجاد میشوند، واریانس بسیار زیادی دارند که در یک محیط عملی مفید هستند. یک ایده که ما مجبور بودیم از توزیع نمونه برداری اهمیت برای تولید نقاط نمونه استفاده کنیم که تخمین واریانس پایین $E[c(\omega)]$ را ایجاد کند. در مورد ما، توزیع نمونهبرداری اهمیت ایدهآل، $g(\omega)$، باید تقریباً متناسب با $c(\omega)f(\omega)$ باشد. با دیدن اینکه چگونه $g(\omega)$ تا حد ثابت شناخته می شود، نمی دانم که آیا می توانم از MCMC همراه با توزیع پیشنهادی $c(\omega)f(\omega)$ برای تولید نمونه هایی از $g(\omega) استفاده کنم. ) دلار. سوالات من در اینجا این است: * آیا می توان از MCMC در این تنظیمات استفاده کرد؟ اگر چنین است، چه روش MCMC مناسب خواهد بود؟ من در متلب کار می کنم، بنابراین به هر چیزی که قبلاً متلب پیاده سازی شده باشد ترجیح می دهم. * آیا تکنیکی وجود دارد که بتوانم برای سرعت بخشیدن به دوره سوختگی MCMC استفاده کنم. و چگونه می توانم بگویم که توزیع ثابت رسیده است؟ در این مورد، محاسبه $c(\omega)$ برای $\omega$ معین، در واقع کمی زمان می برد. | استفاده از MCMC برای ارزیابی مقدار مورد انتظار یک تابع با ابعاد بالا |
55477 | من روی اندازه گیری تغییرپذیری داده های ژئوتکنیکی کار می کنم. من می بینم که در ادبیات ذکر شده است که داده های غیر ثابت ابتدا باید به داده های ثابت تبدیل شوند (مثلاً با حذف روند)، به طوری که تجزیه و تحلیل آماری بیشتری بر روی داده های ثابت رونده شده انجام شود. همچنین ذکر شده است که اکثر ابزارهای آماری فرض را بر ثابت بودن داده ها می گذارند، به همین دلیل است که داده های غیر ایستا را ثابت نگه می دارند. سوال من این است که دقیقاً کجای این فرض ثابت بودن مورد نیاز است، به عنوان مثال، اگر دادههای من ثابت نیستند و من همچنان از تجزیه و تحلیل آماری استفاده میکنم، کدام نتیجه اشتباه خواهد بود؟ به عنوان مثال من ضریب همبستگی داده ها را پیدا می کنم. اگر به استفاده از داده های غیر ثابت ادامه دهم آیا مقدار اشتباهی دریافت می کنم؟ چرا؟ | نیاز به ثابت بودن چرا؟ |
35109 | من سعی می کنم یک محدودیت احتمال مشترک از یک اتحادیه از توابع نمایی همبسته / نامرتبط را مدل کنم. به طور رسمی، فرض کنید که متغیرهای تصادفی $A_i \sim exp(\theta_i)، \forall i \in {1…n}$ داریم. نرخ هر توزیع نمایی خودش یک متغیر تصادفی است (فرض کنید یک توزیع کلی، G داریم) بنابراین $\theta_i \sim G_i(.)$. هدف بدست آوردن یک عبارت بسته برای محدودیت شانس زیر است: $Prob( \bigcup_{i=1}^{i=m}(A_i > s_i )) \leq \epsilon$, $\forall s_i$ ثابتهای 1 اگر فرض کنیم که متغیرهای تصادفی $A_i$ مستقل هستند، محدودیت مشترک تبدیل به :$\sum_{i=1}^{i=m} میشود. Prob(A_i \geq s_i) \leq \epsilon $. در آن صورت هر $ Prob(A_i \geq s_i)$ را می توان به عنوان مخلوطی از توزیع نمایی مدل کرد. اگر $G_i(.)$ یک توزیع احتمال گسسته باشد، در آن صورت میتوانیم به راحتی یک عبارت بسته برای محدودیت بدست آوریم. (آیا این درست است؟) 2. اگر متغیرهای $\theta_i$ همبستگی داشته باشند، من در مورد آنچه ممکن است گیر کرده ام. اگر وابستگی را مدل نکنم و استقلال را در آن حالت فرض نکنم، حدس میزنم که میتوانم یک حد بالایی در محدودیت مشترک داشته باشم. همچنین، میخواستم بدانم که آیا فرض وابستگی خطی بین $\theta_i$ منطقی است یا خیر. از این رو می توانم $\theta_i = a_i*\lambda + b_i$ را با ضرایب خطی مختلف $a_i$ و $b_i$ و $\lambda$ یک متغیر تصادفی معمولی قرار دهم. من دوباره گیج شدم که آیا این منطقی است یا نه. من هرگز از کوپولا استفاده نکردهام، اما حدس میزنم میتوانند در این مورد مفید باشند (هر نظری قابل احترام است) از نظرات شما سپاسگزارم. | توزیع مشترک متغیرهای نمایی وابسته |
59355 | من برنامه ای توسعه می دهم که در آن دائماً نمونه هایی از نبض قلب دریافت می کنم. من یک بازه t ثانیه تعریف کردم. در هر t ثانیه من n نمونه دارم. در هر بازه، من می خواهم تمایل آن n نمونه را محاسبه کنم. به عنوان مثال، فرض کنید من n = 5 دارم و نمونه هایی با مقادیر {70، 88، 95، 103، 115} دارم. میخواهم تشخیص دهم که در نبض قلبم رشد کرده است، و میخواهم اندازهگیری برای سرعت رشد/کاهش/تقریباً بدون تغییر داشته باشم. من به دو روش برای حل این مشکل فکر کردم. 1. من تقریب خطی را برای n نمونه با استفاده از رگرسیون خطی با اعمال حداقل مربعات پیاده سازی شده توسط معادلات عادی محاسبه می کنم. (من هر نمونه را به عنوان بردار دو مختصات با مختصات x به عنوان زمان و مختصات y به عنوان نبض قلب در نظر میگیرم). من از معادلات نرمال یک تابع خطی به شکل y = mx+b دریافت می کنم و معیار من برای گرایش، شیب است، یعنی مقدار m. 2. روش دوم محاسبه همبستگی (همبستگی پیرسون) بین بردار x و بردار y زمانی است که x زمان و y نبض قلب است. می پرسم به نظر شما کدام رویکرد برای مشکل من (تعیین تمایل نبض های قلب) بهتر است. یا الگوریتم بهتری برای حل این مشکل دارید؟ | گرایش مجموعه ای از نمونه ها را محاسبه کنید |
111751 | لطفاً کسی می تواند هدف نسبت شانس و نحوه تفسیر آن را توضیح دهد (یعنی منشاء استفاده از آنها برای من مورد توجه اصلی است)؟ چرا مردم به سادگی از تفاوت بین دو نسبت به جای نسبت شانس استفاده نمی کنند؟ مراجعه به کتاب ریاضی مناسب عالی خواهد بود. | نسبت شانس: هدف و تفسیر |
50531 | من یک مشکل فعلی دارم که در آن یک تابع واقعی خطای پیوسته از n-متغیرها دارم که از نظر محاسباتی گران است و (احتمالاً) دارای حداقل های محلی متعدد (بهینه) است. من می خواهم سطح خطا را به نحوی صاف کنم و تعداد حداقل های محلی را با کمترین تغییر شکل ممکن (ممکن است با یک پارامتر کنترل شود) به سطح کاهش دهم تا حداقل های جهانی و ویژگی های اصلی سطح حفظ شود. پس از آن می توانم gradient decent یا شبیه سازی شده یا الگوریتم های دیگر را روی آن اعمال کنم تا الگوریتم بهتری داشته باشم. آیا کسی می تواند اشاره کند که صاف کردن را از کجا شروع کنم تا بتوانم برای رسیدن به آنچه می خواهم تلاش کنم؟ توجه داشته باشید که من به اندازه کافی در تکنیکها و آمار بهینهسازی دانش ندارم، اما به من اشاره کنید که منابع/نشاندهندههایی را که میتوانم برای ورود به آن مطالعه کنم، راهنمایی کنید. | تابع هدف صاف |
92140 | من در ابتدا این را به عنوان پاسخ در جای دیگری پست کردم، اما در نگاهی به گذشته، بیشتر شبیه به یک سوال به نظر می رسد: محدوده اندازه نمونه که برای آن میانه باید به میانگین به عنوان معیار گرایش مرکزی ترجیح داده شود چیست؟ و چرا؟ من کد R دارم که فعالیت نورون را بر اساس مدلی که در این لینک ها توضیح داده شده شبیه سازی می کند: http://www.izhikevich.org/publications/spikes.htm http://www.izhikevich.org/publications/spikes.pdf من می دانم چگونه برای شبیه سازی یکی اما عدم تناسب پارامترها با داده های موجود. این الگو را که با کد زیر ایجاد شده است، در نظر بگیرید. هر نورون می تواند پارامترهای مختلف a، b، c، d، k1، k2، k3 داشته باشد و همچنین پارامتر I (جریان ورودی) می تواند در طول زمان تغییر کند یا برای هر نورون ثابت باشد. مدل در pdf بالا توضیح داده شده است. کسی میدونه چطوری این مدل رو با استفاده از R تطبیق بدم؟ کاری که من میخواهم بتوانم انجام دهم این است که مجموعهای از پارامترها را با دادههای شلیک واقعی (که در طول زمان ولتاژ میشود، همان چیزی که شبیهسازی میشود) تنظیم کند.  **کد R برای شبیه سازی نورون:** a=.1; b=.2; c=-65; d=2 k1=.04; k2=5; k3=140 I=4 Ntime=1000 v<-matrix(nrow=Ntime) u<-matrix(nrow=Ntime) v[1]=-65 u[1]=0 for(i در 1:Ntime){ # نورون آتش اگر ولتاژ>30 if(v[i]>=30){ v[i]<-c u[i]<-u[i]+d } #محاسبه تغییر ولتاژ dv= k1*v[i]^2 + k2*v[i] + k3 - u[i] + I du= a*(b*v[i] -u[i]) #بهروزرسانی ولتاژ v[i+1]<-v[i]+dv u[i+1]<-u[i]+du } plot(v, type=l, xlab=Time (ms), ylab = ولتاژ) | چگونه این مدل شلیک نورون را با R تطبیق دهیم؟ |
111755 | من روی یک مدل پیشبینی در اکسل کار کردهام که از یک سری زمانی کوچک (150 نقطه داده) ماهانه برونیابی میشود. من آن را به یک سری تغییر درصد سال/سال تبدیل کردهام تا آن را ثابت کنم، آن را با آدمکهای ماهانه غیرفصلی کردهام و برای همبستگی سریال (همبستگی خطای دو دورهای دارد). با این حال، پس از ترسیم نمودارهای باقیمانده به این صورت...  ... خیلی واضح است که غیرفصلی وجود دارد. ، تناوب نیمه منظم که هنوز باید حذف شود. روش توصیه شده برای مدلسازی این نوع خطا (امیدواریم روشی که به R نیاز ندارد) چیست؟ ویرایش: PACF برای دو تاخیر اول (1) -0.481 و (2) -0.2786 بود. مقادیر PACF برای تاخیرهای بیشتر از معنی دار نبود. | تناوب غیر فصلی در باقیمانده های سری زمانی |
95157 | من موفق شدم برای هر شیء مورد علاقه در تصویر برچسب بزنم و مجموعه ای از پیکسل ها را دریافت کنم. اکنون من به دنبال خوشه بندی هستم و مطمئن نیستم که چه ویژگی هایی ارزش استفاده از آنها را دارند. من در حال حاضر دو مورد را در ذهن دارم $x_1 $= ناحیه اشیاء $x_2 $= میانگین شدت پیکسل در مقیاس خاکستری اکنون مطمئن نیستم که برای اینکه خوشه بندی بهتر کار کند باید ویژگی های بیشتری دریافت کنم. من به این فکر می کردم که شاید ویژگی 3 نسبتی از ویژگی 1 و 2 باشد یا هیستوگرام هر شی را دریافت کنم و پارامتری برای توصیف هیستوگرام پیدا کنم. من می توانم از هر یک از این ویژگی های reigionprops نیز استفاده کنم، اما مطمئن نیستم که نیمی از آنها چقدر مفید هستند. | چه نوع ویژگی هایی ارزش گرفتن از اشیاء روی تصاویر را دارند؟ |
37481 | این یک مشکل کمی عجیب است که اخیراً با آن برخورد کردم. با فرض جمعیتی به اندازه $N$ به دنبال توزیع دوجمله ای با $p$ مجهول، چند نمونه مختلف باید از جامعه گرفته شود تا بگوییم که $P[p<\phi]>\alpha$، با فرض اینکه همه نمونه ها به نوبت گرفته شده اند. شکست خورده؟ رویکرد من این بود که بگویم احتمال $p=x$ با توجه به $n$ شکست $$ P[p=x|n] \propto (1-x)^n $$ است. P[p=x|n]\ dx=1$ $$ را میدهد P[p=x|n] = (n+1)(1-x)^n $$ احتمال اینکه $p<\phi$ این باشد آسان برای محاسبه به عنوان $$ P[p<\phi|n] = \int_0^\phi (n+1)(1-x)^n\ dx = 1 - (1 - \phi)^{n + 1} $$ و در نهایت نابرابری را حل کنید $P[p<\phi|n]>\alpha$ $$ 1 - (1 - \phi)^{n+1} > \alpha \ \Rightarrow\ n > \frac{\ln 1 - \alpha}{\ln 1 - \phi} - 1 $$ حالا اولین سوال من در این مورد این است که آیا روش من درست است یا خیر. ثانیا، آیا روشی بصری برای توضیح/درک معادلات بالا وجود دارد؟ در بالا من آن را فقط به صورت ریاضی حل کردم، اما من واقعاً بیشتر به چرایی علاقه دارم تا چگونه. به عنوان مثال، $1-(1-\phi)^{n+1}$ در بالا، با توجه به $n$ شکست، برای من مانند این احتمال میخواند که نمونه بعدی که گرفته میشود _نه_ شکست است. اما من هیچ ارتباطی بین آن و سمت چپ $P[p<\phi|n]$ نمی بینم. | احتمال اینکه احتمال توزیع دوجمله ای کمتر از مقدار معینی باشد |
57850 | من به این مقاله برخوردم که از تشخیص ناهنجاری پیوند برای پیشبینی موضوعات پرطرفدار استفاده میکند، و آن را بسیار جذاب یافتم: مقاله _کشف موضوعات در حال ظهور در جریانهای اجتماعی از طریق تشخیص ناهنجاری پیوندها_ است. من دوست دارم آن را در یک مجموعه داده متفاوت تکرار کنم، اما به اندازه کافی با روش ها آشنا نیستم تا بدانم چگونه از آنها استفاده کنم. فرض کنید من یک سری عکس فوری از شبکه گره ها در یک دوره شش ماهه دارم. گره ها دارای یک توزیع درجه بلند هستند که اکثر آنها فقط چند اتصال دارند، اما برخی از آنها تعداد زیادی اتصال دارند. گره های جدید در این بازه زمانی ظاهر می شوند. چگونه میتوانم محاسبات حداکثر احتمال نرمالشده را بهطور متوالی که در مقاله استفاده میشود برای شناسایی پیوندهای غیرعادی که فکر میکنم ممکن است پیشروی یک انفجار باشند، پیادهسازی کنم؟ آیا روش های دیگری وجود دارد که مناسب تر باشد؟ هم نظری و هم عملی می پرسم. اگر کسی بتواند راهی برای پیاده سازی این در پایتون یا R به من نشان دهد، بسیار مفید خواهد بود. هر کسی؟ من می دانم که شما افراد باهوش در آنجا افکار اولیه ای برای پاسخ دارید، | تشخیص ناهنجاری پیوند در شبکه موقت |
112571 | من پارامترهای داده های بقا را با سانسور که از توزیع Weibull شبیه سازی شده است، تخمین می زنم. میانگین زمان تا رویداد با انتخاب ترکیب پارامترهای شکل و مقیاس به صورت زیر برابر 10 تنظیم شد: (خطر ثابت، شکل=1 مقیاس=10) و (خطر کاهش، مقیاس=0.6 مقیاس=6646). زمانهای سانسور از توزیع نمایی شبیهسازی شدند. برای دستیابی به نرخ سانسور هدف (76/0)، میانگین توزیع نمایی متفاوتی تعیین شد. برای خطر ثابت، میانگین نمایی 3.1 و برای کاهش خطر 1 تنظیم شد. میانگین زمان زمانی محاسبه شد که پارامترها در R توسط «survreg()» به دست آمد: میانگین مقیاس weibull* گاما (1+1/شکل). پس از 1000 شبیه سازی، فرض بر این بود که میانگین زمان برای خطر ثابت فاصله چندانی با کاهش خطر ندارد، زیرا نرخ سانسور آنها یکسان است (0.76). با این حال، من را شگفت زده می کند که میانگین زمان برای خطر ثابت 10.9 است و زمانی که برای کاهش خطر 15.1 است. بنابراین میپرسم که آیا خطر ثابت، تخمینهای mle را مغرضانهتر از خطر کاهشی میکند؟ کد R در زیر آمده است: library(survival) n<-100 # تعداد بیماران foltime<-12 # زمان تقویمی که مطالعه شبیه سازی ها پایان می یابد<-1000 mean_time_simulation<-numeric() censored_portion<-numeric() mean_time_complete<-numeric( ) shape_input<- 0.6 #or shape=1,scale=10 scale_input<-6.646 #or shape=1,scale=10 mean_time <- scale_input * گاما(1+1/shape_input) mean_time_sensored <- 1 for(counter in 1:simulations){ te<-rweibull(n,shape_input,scale_input) # بار بیمار Weibull tc<-rexp(n، نرخ = 1/میانگین_زمان_سانسور شده ) # زمان سانسور بیماران t0<-runif(n,0,3) #زمان مطالعه شروع t_پایان<-t0+te # زمان تقویم مرگ بیمار t_تقویم_سانسور شده<-t0+tc # زمان تقویم زمانی که بیمار آن را سانسور کرد<- c(1*(t_end<t_calendar_censored)*(t_end<foltime)) # 0 = سانسور شده، 1 #زمان مرده1<-(pmin(t_calendar_censored, rep(foltime,n))-t0)* (t_end>pmin(t_calendar_sensored,rep(foltime,n))) + te*(t_end<=pmin( t_calendar_censored,rep(foltime,n))) censored_proportion[counter] <- (n - sum(it)) / n # نسبت بیماران سانسور شده model_complete<-survreg(Surv(time1,it)~1,dist=weibull) lambda_complete<-exp(summary(model_complete)$table[1 ]) gamma_complete<-1/exp(summary(model_complete)$table[2]) mean_time_complete[counter]<-lambda_complete*gamma(1+1/gamma_complete) #mean survival time bias_mean_time_complete<- mean(mean_time_complete) - mean_time } mean(mean_time_complete) | چرا این برآوردهای MLE مغرضانه هستند؟ |
66444 | اعتبار یک روش استنتاج چیست؟ روش استنتاج می تواند تخمینگر نقطه ای، فاصله اطمینان یا یک قانون تست باشد. من اعتبار را در تجزیه و تحلیل داده های طولی دیگل و همکاران دیدم:  با تشکر! | اعتبار یک روش استنتاج چیست؟ |
57859 | موارد زیر یک پیشینه کلی برای مشکل تجزیه و تحلیل داده های من است: * من با داده های شمارشی کار می کنم که غیر عادی هستند. * داده ها در 2 دوره زمانی جمع آوری شد. * من علاقه مند به مقایسه تعداد گونه ها بین تیمارها هستم. * 4 درمان وجود دارد. دادهها در ابتدا با استفاده از آزمون مجموع رتبهای Kruskal-Wallis (یک همتای ANOVA غیر پارامتریک) مورد تجزیه و تحلیل قرار گرفتند. یکی از داوران دستنوشته من استفاده از توزیع پواسون را پیشنهاد کرد. چگونه می توانم ANOVA اندازه گیری های مکرر را با توزیع پواسون در R انجام دهم؟ | ANOVA اقدامات مکرر پواسون |
111754 | من پست مربوط به حذف رهگیری که $R^2$ را افزایش می دهد را خوانده ام (اینجا). پاسخی به آن پست میگوید: > در اصل، این بدان معناست که پیشبینیکننده ما بهتر است خود یک میانگین جبران قوی داشته باشد و این میانگین افست باید بر تغییرات پیشبینیکننده > غالب باشد. سوال من این است: یک پیش بینی به معنای جبران چیست؟ تو اینترنت سرچ کردم چیزی پیدا نکردم :( | افست پیش بینی کننده در رگرسیون خطی چیست؟ |
111759 | سوال من از خواندن تخمین توزیع دیریکله مینکا ناشی می شود، که بدون اثبات در زمینه استخراج تخمینگر حداکثر احتمال برای توزیع دیریکله بر اساس مشاهدات بردارهای تصادفی، موارد زیر را بیان می کند: > مثل همیشه با خانواده نمایی، زمانی که گرادیان صفر است، آمار کافی > مورد انتظار برابر با آمار کافی > مشاهده شده است. من تخمین حداکثر احتمال را در خانواده نمایی ارائه شده به این شکل ندیده ام و همچنین هیچ توضیح مناسبی در جستجوی خود پیدا نکرده ام. آیا کسی می تواند بینشی در مورد رابطه بین آمارهای مشاهده شده و مورد انتظار کافی ارائه دهد و شاید به درک تخمین حداکثر احتمال به عنوان به حداقل رساندن تفاوت آنها کمک کند؟ | خانواده نمایی: مشاهده شده در مقابل آمار کافی مورد انتظار |
35104 | بابت اطلاعات ناکافی در نسخه قبلی این سوال عذرخواهی می کنم. بنابراین، من بقای بیمار را در یک مطالعه گذشته نگر بین دو گروه مختلف با استفاده از SPSS مقایسه می کنم. اکنون تفاوت با KM قابل توجه است، بنابراین من سعی کردم چندین متغیر کمکی را برای اثر مخدوش کننده در یک مدل کاکس تنظیم کنم. من با قرار دادن گروه اصلی در بلوک 1 و متغیرهای مشترک در بلوک 2، یک آزمایش والد معکوس انجام دادم. موارد با مقادیر گمشده 28189 حذف شد 47.7% موارد با زمان منفی 0 0.0% موارد سانسور شده قبل از اولین رویداد در یک لایه آزمون های همه جانبه مدل ضرایب مرحله -2 LL کلی (امتیاز) تغییر از مرحله قبلی تغییر از بلوک قبلی Chi-square df Sig. Chi-square df Sig. Chi-square df Sig. 1a 113504.047 1998.887 23.000 2006.433 22.000 2006.433 22.000 2b 113504.119 1998.833 21.000.000.833.21.000. 20.000 3c 113504.185 1998.423 19.000.066 2.968 2006.295 18.000 4d 113504.302 1998.059 .059 17.10. 2006.177 16.000 5e 113506.039 1996.799 15 .000 1.737 2 .420 2004.441 14 .000 6f 113507.146 17081.146.1704. 0.293 2003.333 13.000 7g 113516.047 1978.462 7 .000 8.900 7 .260 1994.433 6 .000 8h 113518.5201.7201.7201. 1 .116 1991.960 5.000 aStep 8 TX_MONTHJ 0.011 0.026 0.183 1 0.669 1.011 0.961 1.063 AGE 0.043 0.001 0.001 0.043 0.001 0.041 1401. 1.047 AGE_GROUP 0.701 0.119 34.677 1 0 2.015 1.596 2.544 AGE_DON 0.006 0.001 56.755 1 0 1.006 1.007 1.007 NRR19 AL0. 0.041 9.873 1 0.002 1.138 1.05 1.233 من این را اینگونه تعبیر می کنم که هیچ تفاوتی مشاهده نشده است، اما در مورد اینکه چه چیزی را گزارش کنم سردرگم هستم. آیا می توانید بررسی کنید که آیا این آزمایش با نسبت احتمال آنقدر زیاد خوب به نظر می رسد؟ | مدل رگرسیون کاکس: سوال در مورد مقبولیت، معنا و گزارش |
35107 | برای کلاس شیمی، باید آماری را روی مجموعه ای از داده ها انجام دهم. یکی از کارهایی که باید انجام دهم این است که از طریق قانون 4 بعدی، موارد پرت را حذف کنم. متاسفانه استاد من هم غایب است، بنابراین نمی توانم به این سوال پاسخ دهم. قانون 4 بعدی در برگه آمار من به این صورت است: 1. میانگین و انحراف معیار را محاسبه کنید. 2. با جمع و تفریق **دو واحد انحراف استاندارد** به/از میانگین، طیفی از نتایج قابل قبول را ایجاد کنید. 3. محاسبه میانگین جدید و انحراف معیار پس از حذف نتایجی که خارج از محدوده هستند. 4. انحراف استاندارد جدید را در چهار ضرب کنید و تفاوت بین هر یک از نتایج اصلی (بدون استثنا) و میانگین جدید را محاسبه کنید. 5. اگر تفاوت محاسبه شده بیشتر از 4 * انحراف معیار (محاسبه شده در مرحله 4) باشد، برای حذف آزمایش معتبر است. و نقاط داده من عبارتند از: 1.1، 4.5، 9.4، 9.7، 9.9، 10.2، 22.2. (برای این پست گرد شده اند) میانگین: 9.6، انحراف معیار: 5.3 آیا درست است که بگوییم محدوده قابل قبول 1- تا 20.2 است؟ بنابراین من فقط می توانم آخرین نقطه داده را حذف کنم و نه دو مورد اول را؟ آیا اگر اندازه گیری ها را از میکرومتر به نانومتر تغییر دهم، نتایج متفاوت خواهد بود؟ | معنی واحد انحراف استاندارد در آزمون برای معناداری آماری (پایه) |
9817 | من سعی می کنم از تخمین حداکثر احتمال برای یادگیری ساختار یک DAG، G استفاده کنم. چگونه تعداد پارامترهای آزاد G برای مقایسه پیچیدگی مدل های گرافیکی مختلف محاسبه می شود؟ آیا بر اساس یکی از موارد زیر است یا چیز دیگری؟ * تعداد یال ها در نمودار * حداکثر تعداد یال های ممکن در نمودار * حداکثر تعداد والدین (فرزندان) | تعداد پارامترهای آزاد برای یک گراف غیر چرخه ای جهت دار چقدر است؟ |
55473 | من دانشجوی کارشناسی روانشناسی هستم که در حال اتمام پایان نامه ام هستم، اما چند روز پیش، در حالی که خروجی SPSS خود را مرور می کردم، متوجه شدم که آزمون Levene من قابل توجه است، اما داده های من به طور معمول توزیع می شوند. آیا راهی وجود دارد که بتوانم آن را توجیه کنم که انجام یک ANOVA دو طرفه بین موضوعات مشکلی ندارد؟ | آیا می توانم انجام یک آنوای دو طرفه را که در آن داده ها به طور معمول توزیع می شوند اما واریانس های ناهمگن دارند، توجیه کنم؟ |
111753 | من در حال انجام یک سنجش _in vitro_ هستم که در آن سلول ها با ترکیب های مختلف از دو ترکیب مختلف درمان می شوند و فعالیت سلول ها پس از درمان اندازه گیری می شود. 3 غلظت از ترکیب A و 4 سطح از ترکیب B وجود دارد (یک غلظت برای هر ترکیب 0، به عنوان یک شاهد)، و همه جایگشت استفاده می شود. سلولها در میکروپلیتها قرار گرفتهاند و در تئوری باید تعداد مساوی سلول در هر چاهک وجود داشته باشد. چهار چاه هر کدام از 12 ترکیب ترکیب مختلف را دریافت می کنند. برای در نظر گرفتن ناهماهنگی های آماده سازی (یعنی تعداد نابرابر سلول ها بین چاهک ها) قبل از درمان، همان روش اندازه گیری فعالیت قبل از درمان انجام می شود، زیرا فعالیت متناسب با تعداد سلول است. سوالی که می خواهم به آن پاسخ دهم این است: چگونه این ترکیبات فعالیت سلولی را افزایش (یا کاهش) می دهند؟ اندازهگیری پیش آزمون تفاوتهایی را در میانگین فعالیت بین گروهها پیدا کرد (چاهکها از طریق طرح صفحه قبل از اضافه کردن سلولها به گروهها اختصاص داده شدند). من میخواهم این تفاوت را قبل از درمان توضیح دهم تا اثرات درمان با تغییرات خوب به چاه محو نشود. من خوانده ام که ANCOVA روش خوبی برای مقابله با این موضوع است. من نمی دانم که آیا سایر روش های عادی سازی کار می کنند؟ من تعیین حداکثر سطح فعالیت همه گروه ها را قبل از درمان، تقسیم میانگین قبل از درمان هر گروه بر آن حداکثر برای ایجاد یک ضریب نرمال سازی، و سپس تقسیم اندازه گیری های پس از آزمون بر ضریب نرمال سازی در نظر گرفتم. آیا این نامناسب است و راه خوبی برای انجام وظیفه من چیست؟ | عادی سازی مناسب داده های پس آزمون به شرایط پیش آزمون |
35106 | این یک سؤال مصاحبه است، من کاملاً مطمئن نیستم که چگونه آن را حل کنم. سوال به این صورت بیان میشود: فرض کنید میخواهید نوع خاصی از خودرو را خریداری کنید، اما چیزی در مورد خودرو نمیدانید (نمیتوانید کیفیت اصلی یا ارزش واقعی آن را پیدا کنید). اما فروشندگان در مورد اتومبیل ها می دانند و دقیقاً می دانند که یک اتومبیل چقدر ارزش دارد (ارزش واقعی). اکنون لیستی از قیمت هایی که نمایندگی های مختلف خرید کرده اند به شما داده می شود، اما لیست نشان نمی دهد که کدام فروشنده چه خودرویی را خریده است. قیمت عادی توزیع شده است. فرض کنید تعداد نامحدودی فروشنده وجود دارد و قیمتی که دلالان خریداری کرده اند به عنوان ارزش واقعی خودرو در نظر گرفته می شود. اگر می توانید برای هر فروشنده فقط یک بار پیشنهاد بدهید و آن فروشنده پیشنهاد شما را می پذیرد یا رد می کند. فروشنده فقط در صورتی پیشنهاد شما را می پذیرد که پیشنهاد شما بالاتر از قیمت خرید آنها باشد. سوال این است که چگونه می توان پیشنهاد داد یا چه قیمتی را پیشنهاد داد تا ضرر را به حداقل برسانید (قیمتی که پیشنهاد می کنید منهای ارزش واقعی). فرض کنید فقط باید یک ماشین بخرید تا بتوانید هر چند بار که می خواهید پیشنهاد بدهید تا پیشنهاد شما پذیرفته شود. (مصاحبه کننده میانگین و انحراف معیار را ذکر کرد، اما من هنوز نتوانستم بفهمم.) | یافتن راه هایی برای پیشنهاد قیمت اقلامی که دارای قیمت توزیع شده معمولی هستند |
55475 | من یک مجموعه داده با 10000 نمونه در آن و 100 یا بیشتر ویژگی دارم. من یک مجموعه آموزشی و مجموعه تست ایجاد کرده ام و سعی می کنم یک مقدار عددی را پیش بینی کنم. من از rpart برای تعیین مهمترین ویژگی با ایجاد تنها دو گره در مجموعه آموزشی استفاده کرده ام. من آن را برداشته و روی مجموعه آزمایشی اعمال میکنم: 1) ریشه 3288 159847905.80 34.59281022 2) FeatureOne< 0.455 1946 87599096.20 19.00446043 * 3) FeatureOne 30.425> 71090239.25 57.19707899 * بنابراین می توانم ببینم که تنها استفاده از یک FeatureOne مدل را به میزان قابل توجهی بهبود می بخشد. گام های بعدی من استفاده از مدل های مختلف برای بهبود این نتیجه است. من فکر میکنم که از نظر تئوری، الگوریتمهای آموزشی که متغیرهای بیشتری را در نظر میگیرند، باید بتوانند نتیجه اصلی و اصلی را که تنها به یک متغیر نگاه میکنند، بهبود بخشند. من FeatureOne و همچنین بسیاری از ویژگیهای دیگر را که میدانم پیشبینیکننده هستند (البته کمی کمتر از FeatureOne) درج میکنم. مشکلی که من می بینم این است که چندین الگوریتم مدل سازی را امتحان کرده ام و اکثر آنها از نتیجه اصلی rpart که در ابتدا دیدم عملکرد ضعیفی دارند. در واقع، اکثر آنها بسیار بسیار بدتر از نگاه کردن به مجموعه داده [dataset$FeatureOne>=0.455،] از نتیجه اصلی rpart هستند. در اینجا یک نتیجه با استفاده از یک ماشین بردار پشتیبانی از کتابخانه e1071 با استفاده از دستور svm آمده است: 1) ریشه 3243 156686211.90 32.84847980 2) predFromSvm< -76.292973 1738 79286211.4. predFromSvm>=-76.292973 1505 76628786.36 49.42645847 * rmse = 245.51 cor = 0.1068 در اینجا یک نتیجه با استفاده از randomForest آمده است: 1) ریشه 3243 1112845848 predFromRf< 42.16955833 1631 71891832.78 17.54488657 * 3) predFromRf>=42.16955833 1612 84025916.57 48.327 = 2054 0.039 این نتیجه با استفاده از glm است: 1) root 3243 156686211.90 32.84847980 2) predFromGlm< 32.33149937 1826 79956524.01 15.165 15.165 predFromGlm>=32.33149937 1417 75422994.20 55.63504587 * rmse = 292.29 cor = 0.0490 چرا این الگوریتمها بدتر از نگاه کردن به سادهترین متغیر rpart به عنوان دستور است؟ من فکر می کنم این الگوریتم ها به طور قابل توجهی بهتر از این هستند زیرا آنها به متغیرهای زیادی از جمله FeatureOne بسیار پیش بینی کننده نگاه می کنند. آیا پیشنهادی در مورد آنچه در مرحله بعد امتحان کنم یا روش هایی که ممکن است الگوریتم ها را اشتباه استفاده کنم، دارید؟ | مدلهای مختلف نتیجه rpart اساسی را بهبود نمیبخشند |
52976 | آیا هنگام محاسبه ماتریس کوواریانس یک نمونه، آیا تضمین می شود که یک ماتریس متقارن و مثبت-معین بدست آید؟ در حال حاضر مشکل من یک نمونه 4600 بردار مشاهده و 24 بعد دارد. | آیا یک ماتریس کوواریانس نمونه همیشه متقارن و مثبت است؟ |
55472 | من روی نرمافزاری کار میکنم که باید **مکانهای دنیای واقعی** (مثلا دوربینهای سرعت) را از چندین گزارش مبتنی بر GPS** تعیین کند. یک کاربر هنگام گزارش یک مکان رانندگی می کند، بنابراین گزارش ها بسیار نادرست هستند. برای حل آن مشکل، باید گزارشهای مربوط به همان مکان را خوشهبندی کنم و میانگین را محاسبه کنم. سوال من در مورد **چگونگی خوشه بندی آن گزارش ها** است. من در مورد الگوریتمهای حداکثر انتظار و خوشهبندی k-means مطالعه کردم، اما همانطور که فهمیدم باید تعداد مکانهای واقعی را از قبل تعیین کنم. آیا الگوریتم دیگری وجود دارد که به تعداد دقیق مکانهای واقعی نیاز ندارد، اما در عوض از برخی شرایط لبه (مثلاً حداقل فاصله) استفاده میکند؟ یک گزارش حاوی _طول جغرافیایی، _طول جغرافیایی_و_دقت_ (بر حسب متر) است. هیچ نام یا چیز دیگری وجود ندارد که بتوان از آن برای شناسایی موارد تکراری استفاده کرد. یکی دیگر از موانع می تواند این باشد که رایج باشد، اینکه فقط یک گزارش برای یک مکان واقعی وجود دارد. این امر تشخیص داده های پرت را از داده های خوب دشوار می کند. | تعداد ناشناخته ای از مکان های دنیای واقعی را از گزارش های مبتنی بر GPS تعیین کنید |
95083 | من یک مجموعه داده با N ~ 5000 دارم و حدود 1/2 آن در حداقل یک متغیر مهم وجود ندارد. روش اصلی تحلیلی خطرات متناسب کاکس خواهد بود. من قصد دارم از انتساب چندگانه استفاده کنم. من همچنین به یک قطار و مجموعه آزمایشی تقسیم خواهم شد. آیا باید داده ها را تقسیم کنم و سپس جداگانه impute کنم یا impute و سپس split کنم؟ اگر مهم باشد، از «PROC MI» در «SAS» استفاده خواهم کرد. | انتساب قبل یا بعد از تقسیم به قطار و آزمایش؟ |
52978 | توزیع نرمال MLE شروع ${x_1,...,x_n}$ نمونه تصادفی از $\sim\mathcal{N}(\mu,\sigma^2)$ است این خانواده از توزیع ها دارای دو پارامتر است: $\theta = (\mu, \sigma)$، بنابراین ما احتمال را روی هر دو پارامتر به طور همزمان با استفاده از لگاریتم درستنمایی حداکثر می کنیم. من این را می دانم. اما اگر ${x_1,...,x_n}$ یک نمونه تصادفی از توزیع نرمال $\sim\mathcal{N}(\mu, \sigma_i^2)$ باشد چه؟ این بدان معنی است که واریانس همسانی نیست. MLE $(\mu, \sigma_i^2) $ چیست؟ | اگر واریانس هتروسکدااستیک باشد، MLE چیست؟ |
50537 | من در حال خواندن مقاله ای هستم که نویسنده چندین متغیر را به دلیل همبستگی زیاد با متغیرهای دیگر قبل از انجام PCA کنار می گذارد. تعداد کل متغیرها حدود 20 است. آیا این مزیتی دارد؟ به نظر من سربار است زیرا PCA باید به طور خودکار این کار را انجام دهد. | آیا قبل از انجام PCA باید متغیرهای بسیار همبسته را حذف کرد؟ |
60845 | من 150 ملک دارم که ممکن است در یک جمعیت 10000 نفری وجود داشته باشد. افراد ممکن است هیچ کدام، یک یا چند مورد از این خواص را نداشته باشند. ویژگی ها متقابلاً منحصر به فرد نیستند و فرکانس های متفاوتی در جمعیت دارند. من می خواهم در اینجا به دو سوال پاسخ دهم: 1. آیا مجموعه های خاصی از این ویژگی ها با هم مرتبط هستند، یعنی آیا آنها بیشتر از آنچه که به طور تصادفی انتظار می رود با هم در یک شخص رخ می دهند؟ این روش نه تنها باید به صورت جفتی همزمانی دو ویژگی را تجزیه و تحلیل کند، بلکه باید مجموعهای از ویژگیها را که با هم رخ میدهند شناسایی کند. در حالت ایدهآل، میخواهم اندازهگیری احتمالی مانند مقدار p برای مجموعه مشخصی از ویژگیها داشته باشم که احتمال مشاهده این ترکیب از ویژگیها را تصادفی به من میگوید. 2. با توجه به نمونه ای به عنوان مثال. 50 نفر از 10000 نفر میخواهم بدانم آیا همزمانی ویژگیهای مشاهدهشده در نمونه تفاوت معنیداری با نمونه تصادفی افراد جامعه دارد یا خیر. چگونه می توانم به بهترین وجه به این موضوع از نظر آماری / ریاضی رسیدگی کنم؟ آیا ابزاری وجود دارد که بتوانید برای محاسبه پیشنهاد دهید؟ | همزمانی اموال در یک جمعیت |
8407 | من می خواهم قیمت سهام آخرین معامله را از فاینانس یاهو به R وارد کنم. هدف کار با داده های (تقریبا) زمان واقعی است. آیا راه حل هایی وجود دارد؟ پیشاپیش از هر نظر مفیدی متشکرم. | واردات قیمت سهام از Yahoo Finance به R؟ |
60844 | من مجموعه ای از منحنی های کارایی دارم، یعنی اعدادی بین 0 و 1 به عنوان تابعی از یک متغیر فیزیکی. هر نقطه کارایی در منحنی دارای یک فاصله اطمینان Clopper Pearson 1-sigma است. اکنون باید اینها را ترکیب کنم تا بازدهی کل را به عنوان تابعی از متغیر مذکور بدست آوریم. یعنی من تمام نقاط بازده مربوطه را با هم ضرب می کنم تا eff_total برای نقطه i eff_1*eff_2*...*eff_n و غیره باشد. | ترکیب فواصل اطمینان |
92366 | من در حال بررسی تنوع در میزان بازدید گرده افشان (تعداد بازدید در هر گل آذین) با درمان و طبقه بندی زمانی به عنوان عوامل ثابت هستم. بلوک یک عامل تصادفی است. پیرو زور و همکاران (2009)، من از تعداد بازدیدها به عنوان متغیر پاسخ با $\log$ (تعداد گل آذین) به عنوان متغیر افست در تجزیه و تحلیل استفاده کردم. یک مدل پواسون بیش از حد پراکنده شده بود، و بنابراین من یک مدل دوجمله ای منفی را در `lme4` انتخاب کردم، به شرح زیر: `model1 = glmer.nb(بازدید ~ treat + timecat + offset(log(infl)) + (1|block)) من به طور خاص به تفاوت در نرخ ویزیت بین درمان ها علاقه مند هستم. بنابراین، من یک آزمایش تعقیبی انجام دادم: `OPexp1 = glht(model1,mcp(treat = Tukey)); plot(cld(OPexp1))` وقتی این نتایج را رسم می کنم، تعداد بازدیدها را در محور $y$ دریافت می کنم. اما آنچه من می خواهم نرخ بازدید (بازدید در هر گل آذین) است. آیا در آزمون تعقیبی تعداد گل آذین در نظر گرفته شده است؟ یا چگونه مشخص کنم که آزمون تعقیبی با استفاده از نرخ بازدید انجام شود؟ من فکر کردم که اجرای مدل بالا مشابه تجزیه و تحلیل نرخ بازدید است، بنابراین آیا تفاوت های Tukey بین درمان ها برای تعداد بازدیدها نیز برای نرخ بازدید یکسان است؟ من فرض میکنم آنچه اتفاق میافتد این است که مقادیر برازش در حال حاضر به صورت $μ × V$ بیان میشوند (که در آن $μ =$ نرخ بازدید و $V =$ تعداد گلآذینها)، اما چگونه میتوانم مشخص کنم که آنها باید به صورت $μ$ بیان شوند. (بازدید در هر گل آذین) فقط؟ در ص. 240، زور و همکاران. (2009) اشاره می کند که این امکان پذیر است، اما من نتوانستم نمونه ای پیدا کنم. من کاملاً با R جدید هستم، و این اولین پست من در اینجا است، زیرا در یافتن پاسخ در جای دیگری موفق نبوده ام، بنابراین هر توصیه یا ضربه ای در جهت درست بسیار قدردانی می شود. با احترام | تجزیه و تحلیل نرخ ها و آزمون تعقیبی با متغیر افست با استفاده از glmer.nb |
66447 | دسته های K وجود دارد. فرض کنید x یک متغیر تصادفی گسسته باشد که مقادیر $1,2...,K$ را دارد. با توجه به دادههای $\textbf{X}= \\{x_1، x_2، ...، x_N\\}$، و فرض کنید $\textbf{p}$ یک احتمال بردار است که در آن، $p(x= k) = p_k $. به طور معمول، موارد زیر را می بینیم: 1. فرض کنید $N_k = \sum_i I(x_i = k)$، یعنی تعداد دفعاتی را که نتیجه k در n کارآزمایی رخ می دهد، بشمارید. و مجموعه تعداد $N_k$ را به عنوان توزیع چند جمله ای مدل می کنیم. $$p(N_1...N_k | \textbf{p}) = \frac{N!}{N_1!...N_K!} \prod^K_{k=1} {p_k}^{N_k}$$ این چیزی است که ما به طور معمول می بینیم. با این حال، من با چیز جالبی در وب مواجه شدم و سوال من این است: آیا موارد زیر می توانند یک توزیع چند جمله ای باشند؟ و چرا؟ اگر $\textbf{X}$ را به عنوان توزیع چندجمله ای مدل کنیم چه می شود. $$p(\textbf{X} | \textbf{p}) = \prod^{K}_{k=1} {p_k}^{N_k}$$ آیا هنوز یک pmf معتبر برای توزیع چند جملهای است؟ در ابتدا، من فکر کردم غیرممکن است زیرا فاقد جایگشت است، که ثابت نرمال کننده است که مجموع pmf را به 1 تبدیل می کند. اما مقاله تحقیقاتی نشان می دهد که هر دوی اینها توزیع چند جمله ای هستند، اگرچه آنها چیزهای مختلفی را مدل می کنند. | درک توزیع چند جمله ای |
92947 | فرض کنید یک مدل رگرسیون خطی $Y_{it} = \beta_0 + \beta_1 X_{it} + \epsilon_{it}$ داریم، بارها در ادبیات فرض میشود که $\epsilon_{it} \sim N(0، \sigma^2).$ این مفروضات منطقی به نظر می رسد اگر مجموعه داده های بزرگی به دلیل قضیه حد مرکزی داشته باشیم. سوال من این است که در شرایط خاصی احساس می کنم که عبارت خطا که به طور معمول توزیع می شود، فرض اشتباهی است. فرض کنید $Y_{it}$ یک متغیر محدود است، مانند سن یک فرد، یا نمره امتحان یک دانش آموز. سپس اگر $\epsilon_{it} \sim N(0,\sigma^2)$ در این شرایط که $Y_{it}$ محدود است، آیا ممکن نیست که عبارت خطا به گونهای باشد که $Y_{ را مجبور کند. it}$ خارج از محدوده خود؟ به عنوان مثال فرض کنید $Y_{it}$ نشان دهنده سن افراد است، اگر عبارت خطا به طور معمول توزیع شود، آنگاه ممکن است یک رویداد تصادفی رخ دهد، بنابراین ممکن است فردی مثلاً 1000 سال زندگی کند؟ از این رو، وقتی متغیر وابسته ما در سمت چپ معادله خطی محدود است، چگونه این مشکل را با عبارت خطا برطرف کنیم. میتوانیم توزیع محدود دیگری را برای عبارت خطا انتخاب کنیم، مانند توزیع یکنواخت بر روی مرزهای $Y_{it}$. با این حال، این امر واقع بینانه نخواهد بود زیرا به این معنی است که همه رویدادها در عبارت خطا به یک اندازه احتمال وقوع دارند. من علاقه مند هستم که در اینجا مردم در مورد این مشکل فکر کنند. ویرایش: از خواندن تمام پاسخ ها و نظرات عالی در زیر، این چیزی است که باید بگویم. آیا تحمیل یک توزیع دامنه محدود بر روی $\epsilon_{it} عملی است؟$ به عنوان مثال چگالی مثلث روی یک دامنه خاص که $Y_{it}$ در آن است. آیا این نوع توزیع که دارای یک دامنه محدود است و شبیه توزیع نرمال آیا معایبی دارد؟ | سوال در مورد عبارت خطا در یک رگرسیون خطی ساده |
60842 | من می خواهم تأثیر دو عامل را بر روی پارامتری که در چندین منطقه اندازه گیری می کنم، مطالعه کنم. من یک تست ANOVA دو طرفه را برای هر منطقه انجام می دهم (حدود یک دوجین) و در تعجبم که چگونه می توانم برای جلوگیری از افزایش خطای نوع I مقابله کنم. من به انجام یک تصحیح FDR روی مقادیر p که با تست های ANOVA می گیرم فکر می کنم. من برای هر آزمون 3 مقدار p دریافت می کنم (یکی برای هر عامل و سومی برای تعامل بین عوامل)، بنابراین در مجموع تقریباً 36 p-value. نمیدانم چگونه میتوان آزمایشهای متعدد را بهطور مناسب تصحیح کرد، بهویژه اینکه آیا باید مقادیر p را همه با هم یا جداگانه برای هر عامل و برای تعامل تصحیح کنم. متشکرم | تصحیح برای تست آنووا دو طرفه چندگانه |
9813 | داده هایی را که در آن هر مشاهده ایجاد شده است به صورت زیر در نظر بگیرید. * از مقداری توزیع، Z_1،...،Z_m$$ می کشیم. (احتمالاً آنها مستقل هستند یا به روش ساده دیگری مرتبط هستند.) * در مرحله بعد، بر اساس $Z_1،...،Z_m$، دنباله ای را انتخاب می کنیم $0=I_0 <I_1 < ... <I_N=m$ بنابراین که، برای هر $k$، (i) $I_k-I_{k-1}$ خیلی کوچک نیست و (ii) واریانس نمونه در $Z_{I_{k-1}+1}،...،Z_{I_k}$ کوچک است. (من عمداً در اینجا تا حدودی مبهم هستم - من آماده هستم تا فرضیات مختلف را در این راستا بکنم.) * متغیرهای مشاهده شده $X_1,...,X_N$ را به صورت $X_k=$ میانگین $Z_{I_{k ایجاد می کنیم. -1}+1}،...،Z_{I_k}$. برای مثال، دنباله پنهان $Z=(0.1، 0.3، 0.2، 1.3، 1.2، 0.1)$ ممکن است به دنباله مشاهده شده $X=(0.2، 1.25، 0.1)$ [یا شاید به $X=(0.2، 0.86) دلار به دلیل (i) بالا]. آیا کسی در اینجا میداند که آیا این نوع تنظیمات قبلاً مورد مطالعه قرار گرفته است یا خیر، و اگر چنین است، چه کلمات کلیدی برای جستجو یا مقالات/کتابهایی برای بررسی وجود دارد؟ پیشاپیش برای هر پاسخی متشکرم! اضافه شده در 21 فروردین: انگیزه به شرح زیر است. هر دنباله $Z$ را به عنوان داده های SNP از یک بیمار واحد در نظر بگیرید. به منظور ناشناس کردن داده ها برای انتشار عمومی، می توان رویه ای مانند آنچه در بالا توضیح دادم انجام داد. بر اساس دادههای ناشناس $X$، من میخواهم بقا را پیشبینی کنم و/یا SNPهای مرتبط با بقا را شناسایی کنم. توجه داشته باشید که $I$، $N$ و $X$ همگی توابع $Z$ هستند، بنابراین برای هر بیمار متفاوت خواهند بود. همچنین توجه داشته باشید که $I$ها مشاهده میشوند، یعنی من میدانم که کدام Z_j$ برای تولید هر X_k$ بهطور میانگین محاسبه شدهاند. | میانگین زیر مجموعه های تصادفی متغیرها |
50536 | من در حال بررسی یک مدل رگرسیون سری زمانی هستم که از گزارش تغییرات سال به سال در فروش به عنوان متغیر وابسته و گزارش تغییرات سال به سال در یک شاخص اقتصادی دیگر به عنوان متغیر مستقل استفاده میکند. مدل رگرسیون R-squared 0.60 را تولید کرد. وقتی در مورد R-squared پایین ابراز نگرانی کردم، به من گفتند که با توجه به استفاده از تفاوت های log به جای سطوح، این یک R-squared بسیار خوب است و من واقعاً نمی توانم آن را با یک R-squared حاصل از استفاده از سطوح مقایسه کنم. من فکر می کردم که مربع R نشان دهنده خوبی تناسب است. پس چرا یک رگرسیون با 0.60 R-Squared بر اساس تفاوت بهتر از یک رگرسیون با R-squared 0.85 بر اساس سطوح است. با تشکر از ورودی شما. | چرا R-Squared کمتر در مدل رگرسیون تفاوت می تواند بهتر از R-squared بالاتر در مدل رگرسیون سطوح باشد؟ |
66441 | من 3 سال کامل + 4 هفته داده سری زمانی هفتگی دارم که یکی از آنها سال کبیسه است. برای محاسبه فرکانس آن باید (365x2+366)/(3*7) را انجام دهم؟ با تشکر | فرکانس در تابع Tbats در R |
22514 | من می خواهم پاسخ های بد را در داده هایی که از فروشندگان خود دریافت می کنیم شناسایی کنم. برای ارزیابی کیفیت داده ها، چه آزمون های آماری را می توانم برای شناسایی پاسخ دهندگان بد اعمال کنم؟ من تجزیه و تحلیل متمایز را برای شناسایی درصد شباهت پاسخ ها در میان نظرسنجی های تکمیل شده توسط یک مصاحبه کننده خاص انجام دادم. چگونه می توانم یافته های خود را بیشتر تأیید کنم؟ (اضافه شده از نظرات) منظور من از پاسخ های بد این است: مصاحبه کنندگانی که شباهت بسیار زیادی در پاسخ هایی که در نظرسنجی جمع آوری می کنند دارند. آنها ممکن است برای یک سوال خاص برای همه پاسخ دهندگان علامت 4 را بزنند (Flat Liners یا Speeders) فرض کنید یک مصاحبه کننده 10 نظرسنجی انجام داده است و من متوجه شباهت در پاسخ های این پرسشنامه ها برای هر سوال شده ام. آیا آزمون آماری وجود دارد که یافتههای من را تأیید کند که مصاحبهگر احتمالاً خودش پاسخها را پر کرده است یا همان پاسخ را برای هر سؤال علامت زده است؟ چگونه می توانیم یک داده خاص را با استفاده از آزمون های آماری بررسی کنیم؟ امیدوارم سوالم را روشن کرده باشم | تست های آماری برای انجام بررسی کیفیت داده ها |
65363 | من سه آزمایش تشخیصی دارم. هر آزمایش نشان می دهد که یک فرد را به عنوان 0 = بیمار یا 1 = غیر بیمار طبقه بندی می کند. من فرض می کنم این تست ها مستقل نیستند. **چگونه می توان چندین تست تشخیصی باینری را به بهترین وجه ادغام کرد تا یک تشخیص کلی را تشکیل دهد؟** | چگونه می توان چندین تست تشخیصی باینری را برای تشکیل یک تشخیص کلی به بهترین وجه ادغام کرد؟ |
34356 | من باید اعداد تصادفی را از یک توزیع log-cauchy رسم کنم که چگالی دارد: $$f(x;\mu,\sigma)=\frac{1}{x\pi\sigma\left[1+\left(\frac {ln(x)-\mu}{\sigma}\right)^2\right]}.$$ آیا کسی میتواند به من کمک کند یا کتاب/مقالهای را به من نشان دهد که میتواند به من نشان دهد چگونه؟ | تولید اعداد تصادفی Log-Cauchy |
26467 | M. Jordan و M. Wainwright در کتاب درسی خود، مدلهای گرافیکی، خانوادههای نمایی و استنتاج متغیر، ارتباط بین خانوادههای نمایی و میدانهای تصادفی مارکوف (مدلهای گرافیکی بدون جهت) را مورد بحث قرار میدهند. من در تلاش برای درک بهتر رابطه بین آنها با سؤالات زیر هستم: * آیا همه MRF ها از خانواده های نمایی هستند؟ * آیا همه اعضای خانواده های نمایی می توانند به عنوان MRF نمایندگی شوند؟ * اگر خانواده های نمایی $\neq$ MRF ها، ** چه نمونه های خوبی از توزیع های یک نوع وجود دارد که در نوع دیگر گنجانده نشده است**؟ از آنچه در کتاب درسی خود (فصل 3) می فهمم، جردن و واینرایت استدلال بعدی را ارائه می کنند: * * * 1. فرض کنید که یک متغیر تصادفی اسکالر X داریم که از توزیع $p$ پیروی می کند، و $n$ i.i.d را رسم کنید. مشاهدات $X^1، \ldots X^n$، و ما می خواهیم $p$ را شناسایی کنیم. 2. ما انتظارات تجربی برخی از توابع را محاسبه میکنیم $\phi_\alpha%$ $\hat{\mu}_\alpha= \frac{1}{n}\sum^n_{i=1}\phi_\alpha( X^i)، $ برای همه $\alpha \in \mathcal{I}$ که در آن هر $\alpha$ در مجموعهای $\mathcal{I}$ یک تابع را نمایه میکند. $\phi_\alpha: \mathcal{X} \rightarrow R$ 3. سپس اگر دو مجموعه کمیت زیر را مجبور به سازگاری کنیم، یعنی مطابقت داشته باشند (برای شناسایی $p$): * انتظارات $E_p[(\ phi_\alpha(X)]=\int_\mathcal{X}\phi_\alpha(x)p(x)\nu(dx)$ از آمار کافی $\phi$ از توزیع $p$ * انتظارات تحت توزیع تجربی ما **مسئله نامشخص** را دریافت می کنیم، به این معنا که توزیع های $p$ زیادی وجود دارد که با مشاهدات مطابقت دارند، بنابراین ما به یک اصل برای انتخاب از بین آنها نیاز داریم (برای شناسایی $p$ اگر از اصل حداکثر آنتروپی برای حذف این نامعین استفاده کنیم، می توانیم یک $p$ واحد بدست آوریم). $\DeclareMathOperator*{\argmax}{arg\,max} p^* = \argmax_{p\in{\mathcal{P}}} \,H(p)$ مشروط به $E_p[(\phi_\alpha( X)] = \hat{\mu}_\alpha$ برای همه $\alpha \in \mathcal{I}$ جایی که این $p^*$ شکل می گیرد $p_\theta(x) \propto $ exp${\sum_{\alpha \in \mathcal{I}}\theta_\alpha \phi_\alpha(x)},$ where $\theta \in R^d$ پارامتری از توزیع به شکل خانواده نمایی را نشان می دهد. به عبارت دیگر، اگر 1. انتظارات توزیعها را با انتظارات تحت توزیع تجربی مطابقت دهیم. . * * * با این حال، این بیشتر شبیه استدلالی برای معرفی خانواده های نمایی است، و (تا جایی که من می توانم درک کنم) رابطه بین MRF ها و exp را توصیف نمی کند. خانواده ها آیا من چیزی را از دست داده ام؟ | مارکوف چه زمانی فیلدهای تصادفی $\neq$ را خانواده های نمایی می کند؟ |
92948 | من یک پرسشنامه با سوالاتی دارم که به پاسخ بله یا خیر (1 یا 0 ورودی) از شرکت کنندگان نیاز دارد. از مجموعه پاسخها، میخواهم از میانگین، $\mu$، برآورد شده از دادهها برای احتمال (نسبت) پاسخهای بله استفاده کنم. من می خواهم یک فاصله اطمینان در مورد این میانگین وجود داشته باشد. من می خواهم به درخواست پاسخ از شرکت کنندگان جدید تا درصدی ادامه دهم، به عنوان مثال. 95٪، اطمینان از اینکه میانگین در این فاصله اطمینان قرار دارد. من فرض می کنم که توزیع اساسی نرمال نیست زیرا دامنه $[0,1]$ است. چند روش ممکن برای اندازهگیری اینکه آیا فاصله اطمینان میانگین از دادهها کمتر از مقدار معین انتخاب شده است، چیست؟ | چگونه می توان اندازه گیری کرد که آیا پاسخ های بله/خیر (آزمایش های برنولی) در مورد میانگین تخمینی خود برای یک کران خطای مشخص همگرا شده اند؟ |
105721 | آیا میانگین یا حالت برای جایگزینی داده های از دست رفته برای مقیاس ترتیبی بهتر است؟ من فکر میکنم حالت بهتر است زیرا پاسخدهنده باید بین مقادیر صحیح (1، 2 و غیره) یکی را انتخاب کند، اما من تعجب میکنم که انتساب حالت با ترجیح دادن مقداری که اغلب ظاهر میشود سوگیری ایجاد نمیکند. متشکرم | میانگین در مقابل انتساب برای داده های از دست رفته در مورد مقیاس ترتیبی |
59457 | من از یک ANOVA دو طرفه برای تجزیه و تحلیل دادههای جمعآوریشده در یک طرح بلوک کامل تصادفی استفاده کردم: Y~Treatment+Block، که در آن بلوکها واحدهای فضایی را نشان میداد در حالی که درمان تأثیر قابلتوجهی بر Y داشت، اثرات بلوک ناچیز بود. آیا این به سادگی به این معنی است که همه بلوک ها نسبت به متغیر پاسخ یکسان بودند؟ اگر اینطور است، آیا ایده خوبی است که از ANCOVA استفاده کنید تا ببینید پارامترهای جمع آوری شده برای توصیف واحدهای فضایی چگونه بر Y تأثیر می گذارند؟ ممنون از پاسخ های شما! | اثر بلوک ناچیز در طراحی بلوک دو طرفه |
55476 | اکثر ماتریس های سردرگمی که من دیده ام شامل تعداد نمونه ها در هر سلول است. آیا خواندن یک ماتریس سردرگمی با درصد نمونههای موجود در هر سلول آسانتر نیست؟ آیا این رویکرد اشتباه است یا با قوانین نانوشته ای در رابطه با ماتریس های سردرگمی مخالف است؟ چنین ماتریس سردرگمی به این شکل خواهد بود، که در آن هر یک از 10 برچسب کلاس 10 درصد از مجموعه داده را تشکیل می دهد و کل 100 درصد است. 9.06 درصد از مجموعه داده متعلق به کلاس 1 بود و به کلاس 1 اختصاص داشت. بنابراین 90.60 درصد از نمونه های کلاس 1 به درستی طبقه بندی می شوند.  | ماتریس های سردرگمی با درصد به جای تعداد نمونه ها؟ |
52977 | اگر فرضیه صفر داشته باشیم و آن را تحت آزمون نقطه عطف قرار دهیم، رتبه، اجرا می شود. اگر مقدار p در برخی موارد کمتر از 0.05 باشد و در موارد دیگر نه، آیا می گوییم که فرضیه را رد می کنیم؟ یعنی در مورد فرضیه WN چه می توانیم بگوییم اگر سری ما در برخی از آزمون ها موفق شود اما در برخی دیگر شکست بخورد؟ | در مورد تست های WN، IID |
93017 | بر اساس این سند: برای استفاده صحیح از تحلیل مسیر، کرلینگر و فدازور (1973) بیان می کنند که چهار فرض زیر باید برآورده شود: (الف) روابط بین متغیرها خطی، افزایشی و علی (روابط منحنی و ضربی) است. (ب) باقیمانده ها (که بعداً معرفی خواهند شد) همبستگی ندارند جریان علی وجود دارد و (د) متغیرها در مقیاس فاصله ای اندازه گیری می شوند. دلیل این نیاز به مقیاس فاصله ای چیست؟ | چرا تحلیل مسیر نیاز به اندازه گیری متغیرها در مقیاس فاصله ای دارد؟ |
46929 | > **تکراری احتمالی:** > از کجا می توان یک مجموعه متن بزرگ پیدا کرد؟ میدانم که شخصی سؤال مشابهی را در اینجا مطرح کرده است، اما نمیدانم آیا کسی از مجموعه متنی بزرگی میشناسد که برای استفاده تحقیقاتی در دسترس باشد. تعداد اسناد موجود در آن خیلی مهم نیست - بلکه، من به دنبال چیزی هستم که در سطح TB-/PB باشد که بتوانم از آن برای آزمایش مقیاس پذیری برخی از الگوریتم ها استفاده کنم. من در مورد استفاده از اطلاعات ویکیپدیا انگلیسی استفاده کردم، اما فکر میکنم تنها حدود 25 گیگابایت است. فکر دیگر من استفاده از پایگاه داده ای از پیام های توییتر بود، اما، اگر درست به خاطر داشته باشم، این پیام ها به صورت رایگان در دسترس نیستند. آیا کسی توصیه ای دارد؟ | مجموعه متنی عظیم |
96069 | من دو مجموعه داده دارم، $x$ و $y$، با توزیع پواسونی. من می خواهم بررسی کنم که آیا رابطه بین $x$ و $y$ یک تناسب $y = ax + b$ است، بنابراین از برخی الگوریتم ها برای انجام خطاهای همبسته دو متغیره و پراکندگی ذاتی (BCES) استفاده کردم. اولین بار است که از آن استفاده می کنم. این الگوریتمها مقادیر پارامترها، خطاهای آنها و یک ماتریس کوواریانس $2\times2$ را برمیگردانند. من سعی می کنم تعداد زیادی اعداد و تعاریف را بخوانم، اغلب مبهم و/یا متناقض، و به هر حال قابل درک نیستند. هدف من این است که بفهمم تناسب چقدر خوب است، یعنی اگر خط با نقاط داده مطابقت داشته باشد. چیزی شبیه به $\chi^2$ خوب بودن. چرا الگوریتمها ماتریس کوواریانس را برمیگردانند (بهجای مقدار مناسب)؟ آیا می توان یکی را از دیگری استنباط کرد؟ | ارزش برازش از رگرسیون فاصله متعامد |
52979 | وقتی با داده های سری زمانی خود کار می کنم، باید واپاشی ها را به متغیرهای خاصی اضافه کنم. یعنی زمانی که متغیر متشکل از یک سری تکانه است، باید این تأثیرات را طولانی تر کنم تا ماهیت اصلی واقعی اثر را بهتر به تصویر بکشم. همچنین میخواهم انواع مختلف طولهای فروپاشی (تعداد مشاهدات قبل از قطع) و انواع (مانند خطی و نمایی) را آزمایش کنم. علاوه بر این، زمانی که تکانه ها در طول واپاشی یکدیگر قرار دارند، کد باید بتواند با جمع کردن واپاشی کنار بیاید. ضربه زمان داده آزمایشی 1 0 2 100 3 0 4 0 5 0 6 0 7 0 8 200 9 100 10 0 11 0 12 0 13 0 14 0 15 0 16 0 17 0 18 020 19 | افزودن واپاشی به سری های زمانی در R |
92365 | آیا کسی می تواند رابطه بین خطای پوشش و خطاهای نوع یک را در آزمایش مقایسه چندگانه برای من توضیح دهد، اگر واقعاً یکی وجود دارد؟ آیا خطای پوشش زمانی رخ می دهد که مقدار واقعی مقایسه در واقع در پارامترهای فاصله اطمینان نباشد؟ علاوه بر این، آیا این تأثیری بر احتمال خطای نوع I/II برای آن مقایسه دارد؟ با تشکر | Confidence Interval Coverage-error و نوع I خطا |
93018 | آیا کسی در مورد تجزیه و تحلیل قابلیت اطمینان تکرار می داند؟ من در حال انجام تحقیقی هستم که مشابه مطالعه زیر است (اندازه گیری قابلیت اطمینان بین و درون موضوعی): http://link.springer.com/article/10.1007/PL00009575 ممکن است بدانم چگونه می توانم داده ها را با استفاده از تکرار تجزیه و تحلیل کنم قابلیت اطمینان با استفاده از SPSS؟ من با همبستگی درون کلاسی (ICC) مواجه شده ام اما مطمئن نیستم که آیا این تحلیل آماری صحیح است یا خیر. من یک سوال در مورد ICC در اینجا پست کرده ام: قابلیت اطمینان بین و درون (همبستگی درون طبقاتی) متشکرم. اضافه شده: من می خواهم پایایی بین و درون موضوعی را در تهیه سه نمونه مختلف (یعنی خفیف، متوسط و شدید) اندازه گیری کنم. از هر آزمودنی خواسته می شود 9 نمونه (یعنی 3 نمونه برای ضخامت خفیف، 3 نمونه برای ضخامت متوسط و 3 نمونه برای ضخامت بسیار زیاد) آماده کند. دادههایی که به دست میآورم این است:  چگونه باید دادهها را تجزیه و تحلیل کنم تا قابلیت اطمینان بین و درون موضوعی را شناسایی کنم. مطالعه قبلی از تجزیه و تحلیل قابلیت اطمینان تکرار استفاده می کرد، اما من نمی توانم اطلاعاتی در مورد آن پیدا کنم. | تجزیه و تحلیل قابلیت اطمینان تکرار |
66446 | هدف و نحوه استفاده از آرگومان xreg هنگام برازش مدل ARIMA در R چیست؟ سوال من به نحوه کارکرد آرگومان xreg هنگام برازش یک مدل ARIMA (هدف xreg که در پست بالا توضیح داده شده است) مربوط می شود. library(forecast) fity <- auto.arima(y, xreg=x) در کد بالا، آیا مدل ARIMA با استفاده از مقادیر گذشته $y$ به عنوان پیش بینی کننده و همچنین مقادیر گذشته $x$ مناسب است؟ به عنوان مثال، آیا فرض میشود که مقادیر $y$ گذشته همانطور که در صورت اجرای یک مدلسازی ARIMA بدون متغیر توضیحی $x$ استفاده میشود، استفاده میشود؟ یا اگر از $\text{xreg} = x$ استفاده میکنم و میخواهم از سری $y$ به عنوان پیشبینیکننده استفاده شود، آیا باید $y$ را به ماتریس xreg اضافه کنم تا این اتفاق بیفتد؟ با تشکر | هنگام استفاده از آرگومان exreg در auto.arima در R، آیا سری اصلی همچنان به عنوان پیش بینی کننده استفاده می شود؟ |
34357 | بیشتر نمونه هایی که در مورد یادگیری Q دیده ام، در یک دنیای قطعی انجام می شوند. به عنوان مثال، در دنیای شبکه سنتی، عامل در نهایت میتواند با کاوش و بهرهبرداری از محیط با تابع پاداش بدون دانستن تابع احتمال انتقال، جستجوی مسیر را انجام دهد. $$Q(s,a) = Q(s,a) + a*[ پاداش + تخفیف * حداکثر Q(s',a') - Q(s,a)] $$ حال فرض کنید شبکه یک محیط تصادفی است ، یک عامل می تواند با احتمال 1/3 به بالا/چپ/راست حرکت کند. چگونه می توانم یادگیری Q را برنامه ریزی کنم، آیا به این معنی است که در محاسبه $Max Q(s',a')$، $$Max Q(s',a') = Max [ P(up)*Q(s' ,بالا) , P(چپ) *Q(s',پایین) , P(راست) * Q(s, راست)]?$$ | یادگیری Q در یک محیط تصادفی |
92942 | من سعی می کنم یک ANCOVA را در SPSS با 3 متغیر اجرا کنم: جنسیت، نمره 1، نمره 2. می خواهم این احتمال را که جنسیت بر نمرات تأثیر دارد کنترل کنم تا فقط رابطه بین نمره 1 و نمره 2 را جدا کنم. با این حال، من نمی توانم جنسیت را به عنوان یک متغیر در SPSS وارد کنم، زیرا طبق تعریف، متغیرهای کمکی باید اسکالر باشند. بنابراین، چگونه می توانم ANCOVA خود را اجرا کنم و مطمئن شوم که جنسیت بر 2 متغیر دیگر من تأثیر نمی گذارد؟ | ANCOVA: متغیر کمکی ترتیبی در SPSS |
33304 | اگر دو متغیر تصادفی مستقل دارید که معمولاً توزیع میشوند (الزاماً به طور مشترک توزیع نمیشوند)، در این صورت _sum آنها نیز معمولاً توزیع میشود، که به عنوان مثال. به این معنی که کشیدگی بیش از حد آن $0$ است. از سوی دیگر در صورت مخلوطی از توزیعهای نرمال یک بعدی، توزیع مخلوط میتواند ممانهای مرتبه بالاتر غیر پیش پاافتاده مانند چولگی و کشیدگی (دمهای چربی) و چندوجهی را حتی در غیاب چنین ویژگیهایی در اجزاء نمایش دهد. خودشان (همچنین برای مثالی آسان به این ویدیو مراجعه کنید). این به این معنی است که نتیجه _نیازی نیست که به طور عادی توزیع شود. **سوال من** چگونه می توانید این دو نتیجه را با هم تطبیق دهید و ارتباط آنها چیست؟ | ارتباط بین مجموع متغیرهای تصادفی با توزیع نرمال و مخلوطی از توزیعهای نرمال |
108807 | در این مورد چیزهای زیادی برای گفتن و خواندن وجود دارد، اما من پاسخ روشنی برای این سوال پیدا نکردم: گفته میشود که آمار بیزی فرضیههای مبهم با پیشینهای ضعیف را با حمایت بیشتر از فرضیه صفر، «جریمه» میکند. بگویید نظریه ای که من علاقه مند به اثبات آن هستم در واقع پیش بینی می کند که صفر درست است. من می توانستم تقلب کنم و مدل خود را با یک پیشین ضعیف تنظیم کنم. این ناعادلانه شواهد تجربی من را به سمت تهی سوگیری خواهد کرد. چگونه می توان از این امر جلوگیری کرد؟ با تشکر ویرایش: متوجه شدم که در واقع به پارادوکس لیندلی اشاره میکنم، جایی که تا آنجا که من میفهمم) یک تهی دقیق و یک پیشین غیر اطلاعاتی ممکن است به سمت تهی سوگیری کند، در حالی که آمارهای مکرر، پوچ را رد میکنند. http://www.laeuferpaar.de/Papers/LindleyPSA.pdf | آمار بیزی: ترفندی برای پذیرش پوچ؟ |
114708 | تخمینگر تفاوتهای معمولی (به عنوان اثرات ثابت) با مدلی به شکل $$ y_{it} = \alpha_i + \delta T_{it} + X_{it}'\beta + \epsilon_{it} $ مطابقت دارد. $ که در آن $T$ نوعی درمان است که در زمان $t$ برای $i$ اتفاق می افتد. ضریب $\delta$ از جهش بین دورههای زمانی که T از صفر به یک میرود، مشخص میشود، و اساساً از مواردی که در آن دوره درمان نشدهاند، پس از کنترل غیرقابلمشاهدههایی که از نظر زمانی تغییر نمیکنند، به عنوان خلاف واقع استفاده میکنند. به طور معمول مجموعه داده (پانل) با همه افراد درمان نشده شروع می شود و با باقی ماندن برخی درمان نشده در حالی که دیگران تحت درمان قرار می گیرند به پایان می رسد. از طرف دیگر، اگر همه (در نهایت) تحت درمان قرار گیرند، همچنان میتوانید دادههای پس از درمان را برای بهبود دقت آماری اضافه کنید - $\delta$ هنوز از دورههای زمانی شناسایی میشود که برخی تحت درمان قرار گرفتند و برخی دیگر درمان نشدند. سوال من: آیا مناسب بودن مدلی که یک گروه شروع به درمان می کند، گروه دیگر بدون درمان شروع می کند و سپس گروه درمان نشده درمان می شود، مشروع است؟ این اساساً تصویر آینهای از وضعیتی است که در آن یک گروه درمان نشد و گروهی تحت درمان قرار گرفتند -- ما هنوز در برخی دورههای زمانی ناهمگونی داریم. از نظر ریاضی یکسان به نظر می رسد -- به نظر می رسد انگیزه های مؤلفه های خطای استاندارد هنوز هم اعمال می شود. آیا من چیزی را از دست داده ام؟ | تفاوت در تفاوت ها بدون پیش درمانی؟ |
104357 | من ابرهای نقطه ای زیادی با اندازه کوچک (مثلاً <200 امتیاز) به صورت دو بعدی دارم. برخی از آنها همسانگرد هستند و می توان آنها را به عنوان یک نقطه مدل کرد. برخی دیگر دراز و منحنی هستند به طوری که می توانند به طور منطقی با راس سهمی متناسب شوند. به نظر می رسد پراکندگی برای همه ابرها به یک ترتیب است و می تواند کسری از نقاط پرت (مثلاً 10٪) وجود داشته باشد. در اینجا چهار نمونه، با اندازه کوچکتر وجود دارد. پایین سمت راست یک مورد همسانگرد است.     من سعی می کنم ابرهای دایره ای شکل را از ابرهای سهمی تشخیص دهم. من احتمالاً می توانم از ضریب رگرسیون استفاده کنم، اما به دنبال گزینه های جایگزین هستم، با دو هدف: 1) هزینه محاسباتی پایین (زیرا آزمایش باید صد هزار بار تکرار شود)، و 2) تا آنجا که ممکن است در مورد طبقه بندی موز در مقابل گیلاس برای ابرهای کوچک یا برای پراکندگی بزرگتر، یعنی تشخیص مواردی مانند 3 و 4. این روش می تواند به دانش پراکندگی نیاز داشته باشد، اما بهتر است اگر نه | آزمایش یک ابر نقطه دو بعدی برای شکل موز |
65361 | این کاری است که من در R انجام داده ام: > quantile<-rq(log(response)~ gender+ سن+I(سن^2)+gender* سن+gender*I(سن^2)،data=Modified, + tau =0.9) > خلاصه (چندک) فراخوانی: rq(فرمول = گزارش (پاسخ) ~ جنسیت + سن + I(سن^2) + جنسیت * سن + جنسیت * I(سن^2)، tau = 0.9، داده = اصلاح شده) tau: [1] 0.9 ضرایب: Value Std. خطای t مقدار Pr(>|t|) (برق) 3.50682 0.04854 72.24571 0.00000 جنسیتMale 0.05580 0.05556 1.00419 0.31534 سن -0.02111670 -0.0211670 0.02383 I(سن^2) 0.00102 0.00066 1.56271 0.11819 جنس مذکر:سن -0.02109 0.01426 -1.47927 0.13913 جنس مذکر: I(0.09^2070.090. 2.89264 0.00384 بنابراین اکنون از خلاصه، می توانیم مقادیر تخمین زده شده برای هر متغیر را بدست آوریم، با این حال ما هیچ اطلاعاتی در مورد توزیع خطاها نداریم، بنابراین چگونه می توانم از این مدل خاص شبیه سازی کنم. دلیل اصلی اینکه چرا میخواهم این کار را انجام دهم این است که میخواهم آزمایش کنم آیا نتایج حاصل از رگرسیون چندک در حداکثر دامنه داده قابل اعتماد است یا خیر. | شبیه سازی رگرسیون چندکی |
66449 | این ممکن است یک سوال بسیار اساسی یا بسیار دشوار باشد، مطمئن نیستم. اگر دو متغیر تصادفی کاملاً همبسته باشند به چه معناست؟ اگر دو متغیر تصادفی کاملاً وابسته باشند (به هر معنی که باشد) به چه معناست؟ هنگامی که دو متغیر تصادفی مستقل هستند، pdf مشترک می تواند به pdf های حاشیه ای تبدیل شود. اما اگر آنها کاملاً همبسته باشند، چه می گوید؟ آیا به این معنی است که آنها از توزیع هایی با اشکال عملکردی یکسان اما با واریانس های مختلف می آیند؟ وابستگی کامل به چه معناست؟ توزیع شرطی به تابع دلتای دیراک سقوط می کند؟ با تشکر | متغیرهای تصادفی همبسته/وابسته |
93016 | این یک سوال تئوری است تا از مشکل در تلاش برای انجام آزمایش های تجربی نجات پیدا کند و بخشی از یک شرط بندی است، بنابراین امیدوارم که درست گفته باشم... بگویید کلاس های M در داده ها وجود دارد، اما شما می خواهید فقط بین آن ها طبقه بندی کنید. زیر مجموعه های این کلاس ها: M1 و M2 (M1+M2 = M). به عنوان مثال همه M1 انواع مختلفی از کلاهبرداری هستند و همه M2 انواع مختلفی از کاربران واقعی هستند. توجه داشته باشید که نوع کلاهبرداری/کاربر اطلاعات مزاحم است و فقط برچسب تقلب/واقعی مهم است. یک رویکرد استفاده از یک طبقهبندی کننده چند کلاسه و سپس دیدن کلاس تخمینی در M1 یا M2 است. یک جایگزین می تواند استفاده از یک طبقه بندی کننده باینری باشد، بدون توجه به چندین برچسب و فقط با استفاده از برچسب = 1 برای M1 و برچسب = 2 برای M2. کدام دسته بندی در حالت کلی بهتر عمل می کند؟ اگر پاسخ به توزیع داده ها بستگی دارد، لطفا توضیح دهید. با تشکر، حنان p.s. شهود من می گوید که باینری بهتر کار خواهد کرد: فضای فرضیه کوچکتر است، بنابراین خطای تعمیم نیز کوچکتر است. | آیا یک طبقهبندیکننده چند کلاسه مزاحم میتواند بهتر از طبقهبندیکننده باینری عمل کند؟ |
105941 | من باید نرخ تبدیل یک صفحه فرود را ردیابی کنم. میخواهم قبل از اینکه مطمئن شوم محاسبه نرخ تبدیل دقیقی دارم، بفهمم چند کلیک باید انجام دهم. من ابتدا متوجه شدم که فاصله اطمینان را با استفاده از فرمول مناسب برای یک نسبت محاسبه می کنم و تعداد کلیک های لازم برای ایجاد فاصله به اندازه کافی را پیدا می کنم. با این حال، طبق این پیوند، قبل از اینکه بتوانید توزیع نرمال را فرض کنید، به حداقل 1000 کلیک نیاز دارید. متأسفانه من نمی توانم آنقدر کلیک برای همه صفحات فرود خود داشته باشم. (من از صفحات فرود به عنوان موازی برای کاری که واقعاً انجام میدهم استفاده میکنم - در واقع من صدها تبلیغ CPA را برای نرخ تبدیل آنها آزمایش میکنم که مانع از انجام هر هزار کلیک میشود. این جزئیات مشکل را تغییر نمیدهد. با این حال، بنابراین می توان آن را نادیده گرفت). سپس ایده متفاوتی داشتم - دادههای کلیک/تبدیل را که تاکنون برای صفحات فرود قبلی در اختیار داشتم با استفاده از اندازههای پنجره مختلف، مانند پنجرهای با 10 کلیک، 50 کلیک، 100 کلیک، 200 کلیک بررسی میکنم. و غیره. برای هر اندازه پنجره، هر کلیک را به ترتیب مرور میکنم و نرخ تبدیل را با استفاده از x کلیکهای بعدی محاسبه میکنم، از کلیکی که در حال بررسی آن هستم. سپس واریانس نرخ تبدیلی که پیدا کردم را محاسبه می کنم. سپس یک اندازه پنجره پیدا میکنم که حداقل واریانس مورد نظر را در اکثر صفحات فرود به من میدهد و سپس از آن به عنوان تعداد کلیکهایی که برای آزمایشهای بعدی آزمایش میکنم استفاده میکنم. آیا این رویکرد منطقی به نظر می رسد / آیا کسی در مورد چیزی مشابه شنیده است؟ احتمالاً مهمتر از آن، راه عادی برای دستیابی به این هدف چیست؟ با تشکر | تعداد کلیک های مناسب برای تست نرخ تبدیل |
52971 | من این سوال تکلیف را دارم که 100٪ مطمئن نیستم چگونه با آن مقابله کنم. من یک بردار تصادفی با تابع توزیع مشترک F(x,y) دارم و از من خواسته می شود تابع توزیع حاشیه ای را پیدا کنم. من فکر می کنم باید به $fx(x,y)$ برسم، اما مطمئن نیستم که چگونه این کار را انجام دهم. فکر من این است که باید F(x,y) را با x و y متمایز کنم تا f(x,y) را بدست بیاورم و سپس روی y ادغام کنم، اما این چگالی حاشیه ای را برای من به دست می آورد. هر گونه اشاره گر بسیار قدردانی می شود ویرایش - با تشکر گلن. من به شناسه کاربری مناسب خود تغییر کرده ام. اینجا دیر شده، فردا دوباره سر می زنم. EDIT2 - برای روشن شدن، اولین q در تکالیف با $F(x,y)$ شروع می شود و احتمال _احتمال_ حاشیه ای را می خواهد. دومی با $f(x,y)$ شروع میشود و چگالی حاشیهای را میخواهد، بنابراین من فرض میکنم که در وهله اول، آنها بعد از یک pdf و در حالت دوم، یک cdf هستند. برای رد سوء ظن استفاده از اصطلاحات گاه به گاه. | چگونه از توزیع مشترک F(x,y) به f(x,y) برسیم تا توزیع حاشیه ای X را محاسبه کنیم؟ |
112575 | آیا روش بارون و کنی برای میانجیگری اکنون منسوخ شده است؟ این به این دلیل است که من نظری از منتقد دریافت کردم که از من میخواست به Rucker, D.D., Preacher, K.J., Tormala, Z.L. مراجعه کنم. و پتی، R.E. (2011). تحلیل میانجیگری در روانشناسی اجتماعی: شیوه های فعلی و توصیه های جدید | آیا روش بارون و کنی برای میانجیگری اکنون منسوخ شده است؟ |
60841 | اگر من یک مجموعه داده را به صدک تقسیم کنم، به طوری که بدانم مقادیر _n_ وجود دارد، و 10٪ از این مقادیر زیر _x1_، 20٪ زیر _x2_ و غیره هستند، چگونه می توانم پاسخ سوال زیر را تخمین بزنم: چگونه بسیاری از مقادیر زیر _x_ قرار می گیرند، برای _x_ دلخواه؟ یا به طور دقیق تر: چند مقدار بین _x_ و _y_ است؟ توجه داشته باشید که فواصل بین صدک ها یکنواخت نیستند. اگر در مسیر اشتباهی هستم، و اگر کمک کند، مشکل واقعی اینجاست: * * * من مجموعه ای از داده ها برای درآمد ناخالص سالانه انگلستان در هر شغل دارم که به صدک تقسیم شده است: 10 20 25 30 40 50 60 70 75 80 90 91 92 93 94 95 96 97 98 99 می خواهم محاسبه کنم مالیات بر درآمد ناخالص برای هر مجموعه خودسرانه ای از باندهای مالیاتی، به عنوان مثال، اگر نرخ مالیات بر درآمد 0% در اولین 10 هزار پوند، 10 درصد در 10 تا 20 هزار پوند، 15 درصد در 20 هزار پوند باشد، خزانه داری در یک سال چقدر درآمد دریافت می کند. - 30 هزار پوند، 25 درصد از 30 هزار پوند + | تخمین تعداد نقاط داده در محدوده خاص از داده های صدک |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.