_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
21515 | سناریوی زیر را در نظر بگیرید. من آزمایشی با 200 آزمایش انجام دادم که هر کدام محرک متفاوتی داشتند. هر آزمودنی دقیقاً 200 آزمایش انجام داد. آزمودنی با یک عدد در جایی بین 5 تا 50 پاسخ می دهد. پاسخ صحیح نیز بین 5 تا 50 متغیر است. برای هر آزمودنی که آزمایش را انجام داد، من یک مقدار واحد، V$$، برای آن شخص محاسبه می کنم. این مقدار $V$ از محاسباتی استفاده می کند که از پاسخ مورد انتظار و پاسخ مشاهده شده برای هر آزمایش استفاده می کند. این تمام کاری است که آزمایش انجام می دهد. این به من امکان می دهد که $V$ را برای یک موضوع پیدا کنم. از من خواسته شد که آلفای کرونباخ را برای این آزمایش خاص پیدا کنم. چگونه آن را انجام دهم؟ من فرمول را در ویکی پدیا می بینم، اما مخرج آن $K-1$ و در مورد من، $K=1$ است، پس چگونه آلفای کرونباخ را پیدا کنم؟ آیا باید یک مقدار آلفای کرونباخ را برای آزمایش به عنوان یک کل پیدا کنم یا هر موضوع یک مقدار آلفا دریافت می کند؟ من نتوانستم منابع آنلاین خوبی برای یادگیری در مورد مقدار آلفای کرونباخ پیدا کنم، بنابراین اگر کسی پیشنهاد خوبی دارد، دوست دارم پیوندهایی به مکان هایی که می توانم این مطالب را یاد بگیرم را ببینم. با تشکر من از R استفاده خواهم کرد و یک فایل CSV دارم که در آن ستون 1 موضوع، ستون 2 پاسخ مورد انتظار و ستون 3 پاسخ موضوع است. 200 ردیف وجود دارد. | چگونه می توان آلفای کرونباخ را تنها با یک اندازه گیری در هر موضوع محاسبه کرد؟ |
112374 | من می خواهم رشد 38 شرکت کننده را بررسی کنم. من 2 نمره در هر 3 مرحله مجزا از آموزش دارم - خط پایه، حین آموزش و بعد از آموزش. با بیان مجدد، من 2 نمره پایه، 2 نمره آموزش و 2 نمره پست برای هر شرکت کننده دارم. همه شرکت کنندگان در یک گروه هستند. * چگونه رشد را آزمایش کنم؟ * ANOVA اندازه گیری های مکرر یک طرفه، یا ANOVA اندازه گیری های مکرر دو طرفه؟ * آیا باید این را به عنوان 6 امتیاز متوالی در نظر بگیرم (مثلاً زمان 1-6) و به فاکتور زمان نگاه کنم یا باید به یک مرحله دستورالعمل به تعامل زمانی نگاه کنم. آیا این اصلا منطقی است؟ | چگونه می توان اثر زمان را در یک طرح اندازه گیری های مکرر متعادل با 2 اندازه گیری در ابتدا، در طول آموزش و بعد از آموزش مدل کرد؟ |
12313 | آیا کسی معنی اثرات جزئی متوسط را می داند؟ دقیقاً چیست و چگونه می توانم آنها را محاسبه کنم؟ در اینجا یک مرجع است که ممکن است کمک کند. | اثرات جزئی متوسط چیست؟ |
92224 | من با مجموعههای آموزشی بسیار نامتعادل کار میکنم و میخواهم احتمال داشتن دقت طبقهبندیکننده مشخص را بهطور تصادفی اندازهگیری کنم تا اهمیت آماری دقتهای بهدستآمده را اندازهگیری کنم. من می خواهم این احتمال را با در نظر گرفتن فرکانس های مثبت و منفی خروجی های مورد نظر مجموعه قطار و خروجی های به دست آمده در هنگام طبقه بندی بردارهای ورودی مجموعه آموزشی اندازه گیری کنم. به طوری که من دو دنباله باینری دارم. دنباله سفارشی استاندارد طلایی تشکیل شده از $d_P = 30$ یک ها و $d_N = 70$ صفر، (مجموعه آموزشی خروجی های مورد نظر) خروجی طبقه بندی کننده یک دنباله دقیقاً $o_P = 40$ یک ها و $o_N = 60 می دهد. صفر دلار من میخواهم سادهترین روش تحلیلی را برای اندازهگیری احتمال به دست آوردن بازدیدهای $H$ در هنگام ایجاد تصادفی یک دنباله جدید با $o_P$ یکها و $o_N$ بدانم. اگر می خواهید بررسی کنید، من این راه حل های احتمال مولد را با جایگشت تصادفی اندازه گیری کرده ام و مقادیر زیر را برای $d_P=30\ d_N=70\ o_P=40\ o_N=60$ دریافت می کنم: P(Hits=54)=0.17596 P(Hits=55)=0.00000 P(Hits=56)=0.15870 P(Hits=57)=0.00000 P(Hits=58)=0.11881 P(Hits=59)=0.00000 P(Hits=60)=0.07294 P(Hits=61)=0.00000 P(Hits=0.638)=7. P(Hits=63)=0.00000 P(Hits=64)=0.01554 P(Hits=65)=0.00000 P(Hits=66)=0.00550 P(Hits=67)=0.00000 P(Hits=605)=0. P(Hits=69)=0.00000 P(Hits=70)=0.00034 ... * * * من این تقریب را مشخص کرده ام، ... کد را در matlab dP=30 می نویسم. dN=70; oP=40; oN=60; N=dP+dN; pTP=(oP*dP)/(N^2); pTN=(oN*dN)/(N^2); pFP=(oP*dN)/(N^2); pFN=(oN*dP)/(N^2); pHit=pTP+pTN; pACC=[]; برای acc=1:100 pb=0; برای TP=0:min([dP,oP]) TN=acc-TP; FP=oP-TP; FN=dP-TP; if (((FN+TP)==dP) & ((FP+TN)==dN)) pp=(pTP^TP)*(pTN^TN)*(pFP^FP)*(pFN^FN); ترکیبات=((nchoosek(dP,TP)*nchoosek(dN,TN))); pb=pb+(pp*ترکیبات); انتهای انتهایی pACC=[pACC;pb]; پایان pACC=pACC/sum(pACC); آیا ساده ترین راه حل وجود دارد؟ | ارزیابی اهمیت دقت طبقهبندی کننده در مجموعههای قطار نامتعادل |
80524 | فرض کنید احتمال بروز بیماری را مدل می کنیم. وقتی احتمال پیشبینیشده بیماری یا خطر مطلق یک فرد از یک آستانه خاص بیشتر باشد، اقدامات پیشگیرانه را شروع میکنیم. بنابراین، کالیبراسیون مدل در نزدیکی آستانه بسیار مهم است، و برای پیشبینیهای دور از آستانه، ما زیاد به دقت اهمیت نمیدهیم. آیا مدلی وجود دارد که بتوان آن را برای پیش بینی دقیق تر در محدوده احتمال از پیش تعریف شده تنظیم کرد؟ من دادههای زمان تا رویداد را دارم و از مدل کاکس استفاده میکنم، اگرچه میدانم که برای پیشبینی خیلی مناسب نیست. | تنظیم یک مدل برای عملکرد پیش بینی در یک محدوده احتمال باریک |
45763 | من آماری دارم که مقادیری را به دسته های محصولات اختصاص می دهد. این آمار دو وجهی قوی را نشان می دهد (نمودار را ببینید). برای تجزیه و تحلیل، من سعی می کنم مقداری از آن آمار را به هر محصول اختصاص دهم (ویرایش: انجام یک تحلیل رگرسیونی که در آن محصولات مشاهدات هستند). زمانی که محصولات فقط در یک دسته قرار می گیرند، این امر ساده است. اما زمانی که محصولات به بیش از یک دسته اختصاص داده می شوند دشوار می شود. از آنجایی که آمار دووجهی است، گرفتن میانگین مقادیر برای همه دسته های یک محصول بی معنی است. من کنجکاو هستم که آیا راهی برای به دست آوردن این نوع آمار خلاصه وجود دارد؟  سوال من دارای دو بخش مرتبط است: الف) یک جستجوی سریع به من این ایده را داد که چند راه برای ارزیابی چندوجهی وجود دارد (اشمن D ، شاخص دو وجهی، ضریب دو وجهی)، اما راه ساده ای برای خلاصه کردن تعدادی از مقادیر استخراج شده از توزیع دووجهی وجود ندارد. اما کنجکاو هستم که آیا چیزی را از دست داده ام؟ برای موضوع مورد بحث، فکر میکنم رویکردی را که در b توضیح داده شده است، اتخاذ خواهم کرد، اما برای آینده، خوشحال خواهم شد بدانم در چنین موردی برای خلاصه کردن آن نوع دادهها چه کاری میتوان انجام داد؟ ب) رویکردی که در حال حاضر در نظر دارم اتخاذ کنم این است که آمار خود را به سه عدد طبقه بندی تبدیل کنم: یکی برای مقادیر نزدیک به صفر، یکی برای مقادیر حدود 10 و در نهایت یکی برای مقادیر حدود 5. سپس برای هر محصول، من تعداد دفعاتی را که دستههایی که به آن تعلق دارد در هر محدوده فهرست میشوند، میشمارم. این برای من از نظر تئوری منطقی است، اما میپرسم آیا دام آماری وجود دارد که من از دست میدهم؟ (به نظر می رسد این رویکرد (بسیار) با رویکردی که در اینجا اتخاذ شده است، مرتبط است که به تقسیم توزیع در دو جمعیت می پردازد). | ایجاد خلاصه ای برای مقادیر استخراج شده از توزیع دووجهی |
45761 | من یک مشکل طبقه بندی باینری دارم، که در آن هر نقطه داده سری های زمانی چند کانالی است، که می تواند به عنوان یک ماتریس $T \times F$، که $T$ طول سری زمانی است، و $F$ به عنوان نشان داده شود. شماره کانال ها $T$ ثابت نیست - هر نقطه داده طول متفاوتی دارد. برای طبقه بندی، باید از هر نقطه داده، یک بردار مشخصه با اندازه ثابت استخراج کنم. علاوه بر این، من گمان میکنم که اطلاعات تا حدی بهعنوان رویدادهای کوتاه در دادهها جاسازی شدهاند، بنابراین تبدیلهای فوریه چندان مفید نیستند. من سعی کردم ماتریس کوواریانس $T\times F$ را محاسبه کنم تا یک ماتریس F\times F$ بدست بیاورم، قسمت بالا/پایین (شامل مورب اصلی) را بگیرم و آن را صاف کنم. پس از آن، من از PCA برای کاهش ابعاد استفاده کردم. می ترسم با استفاده از این تبدیل اطلاعات مهم زیادی را از دست بدهم. عمدتاً به این دلیل که SVM چیزی نزدیک به سطح شانس به من می دهد. من فکر نمیکنم که روشهایی مانند تکمیل ماتریس کمک کند، شاید روشهای کششی مفیدتر باشند. | سری های زمانی با طول های مختلف: استخراج ویژگی و طبقه بندی |
100026 | من میدانم که نرمالسازی دادهها به ما امکان میدهد دادهها را گرفته و در مقیاس [۰،۱] قرار دهیم. در حال حاضر من در حال کار بر روی یک کتاب یادگیری ماشین هستم و نویسنده در مورد عادی سازی داده ها با ترجیح به اعداد کوچکتر یا بزرگتر صحبت می کند. آیا به طور کلی فرمولی برای عادی سازی داده ها مانند این وجود دارد؟ به عنوان مثال، اگر بخواهم مقادیر کوچکتر به 1 نزدیکتر باشند تا مقادیر بزرگتر، آیا یک فرمول کلی برای انجام این کار وجود دارد؟ | نرمال سازی داده ها با ترجیح به اندازه عدد |
109386 | من در حال خواندن این مقاله در مورد فاکتورسازی ماتریس هستم. در مقاله آنها پیشنهاد می کنند که از این فاکتورسازی برای ماتریس مجاورت (یا شباهت) $G$ با استفاده از فرمول زیر استفاده شود: $G = U \Lambda U^T$ که در آن $U \in R^{n \times k}$، $\Lambda \in R^{k \times k}$. آنها می گویند که وقتی نمودار بدون جهت باشد، می توانیم $\Lambda$ را حذف کنیم و آن را به این صورت داشته باشیم $G = U U^T$. من می توانم شهود پشت آن فرمول را درک کنم. با این حال نویسندگان گفتند که اگر نمودار جهتدار باشد، از این فرمول $G = U \Lambda U^T$ استفاده کردند. اصلا توضیح ندادند که چرا باید از $\Lambda$ برای نمودارهای جهت دار استفاده کنیم! آنها فقط گفتند ما یک مقاله را برای آن فرمولاسیون دنبال می کنیم. من رفتم مقاله لینک شده برای فرمولاسیون رو خوندم ولی یه توضیح **خیلی ضعیف** هم داره! یا احتمالاً یک توضیح غیرقابل قبول. * آیا کسی می داند که چرا وقتی یک نمودار جهت دار داریم باید از فاکتورسازی دیگر استفاده کنیم؟ * وقتی افراد برای فاکتورسازی ماتریسی فرمولی ارائه می کنند، آیا نیاز به ارائه توضیحی برای آن دارند؟ زیرا می توان یک فرمول فاکتورسازی فانتزی درست کرد و فقط گفت هی ببین کار می کند!. همانطور که تاکنون از مقالات فاکتورسازی ماتریسی دیدم، هیچ زمینه محکم خوبی برای فرمولاسیون وجود ندارد. آیا من اشتباه می کنم؟ | شهود پشت فرمول های فاکتورسازی ماتریس؟ |
46233 | من یک لاپلاس مشروط دارم: $$ \pi(\boldsymbol{\beta}|\sigma^2) = \prod\limits_{j=1}^{p}\frac{\lambda}{2\sqrt{\ sigma^2}}e^{-\lambda|\beta_j|/\sqrt{\sigma^2}} $$ و قبل از آن حاشیه ای $\sigma^2$, $\pi(\sigma^2)$. من می خواهم این لاپلاس را قبل از نمایش سلسله مراتبی یک مدل تجزیه کنم. من می دانم که روابط زیر ضروری خواهد بود: \begin{equation} f(x|z)=\int_{Y}f(x|y)f(y|z)dy \end{equation} and $$ \ frac{a}{2}e^{-a|z|} = \int_0^\infty \frac{1}{\sqrt{2\pi s}}e^{-z^2/(2s)}\frac{a^2}{2}e^{-a^2s/2} ds، \ \ \ \ \ \\ a>0\. $$ با این حال، من با برخی از جزئیات مشکل دارم. طبق مقاله Casella, Park (2008) من باید این را دریافت کنم، این \begin{align*} \boldsymbol{\beta} | \sigma^2، \tau_1^2، \dots، \tau_p^2 و\sim N_p(\mathbf{0}_p، \sigma^2\mathbf{D}_{\boldsymbol{\tau}})، \ \\ \mathbf{D}_{\boldsymbol{\tau}} &= \text{diag}(\tau_1^2، \dots، \tau_p^2)، \\\ \sigma^2، \tau_1^2، \dots، \tau_p^2 &\sim \pi(\sigma^2) d\sigma^2 \prod\limits_{j=1}^{p}\frac{\lambda^2}{2}e^{-\lambda^2\tau_j^2/2}d\tau_j^2 \end{align*} نشان دهنده لاپلاس مشروط قبل است، با این حال من هنوز با چیزی کمی متفاوت به پایان می رسم. آیا کسی می تواند به من بگوید چگونه می توانم به آنجا برسم (مثلاً با گفتن، وصل کردن $z = \beta_j$ و غیره)؟ از کمک شما متشکرم! | تجزیه لاپلاس قبل برای نمایش سلسله مراتبی یک مدل |
12319 | زمینه: من در حال تجزیه و تحلیل دادهها با مدلهای مختلط (lmer در lme4) از آزمایشی هستم که دارای RTs و نرخ خطا به عنوان متغیرهای وابسته بود. این یک طرح با اندازه گیری های مکرر با تقریباً 300 اندازه گیری برای هر یک از 190 سوژه انسانی است. اثرات ثابت 1 دستکاری آزمایشی بین آزمودنی ها (دوگانه)، 2 دستکاری آزمایشی درون آزمودنی ها (هر دو دوگانه) و 1 متغیر موضوعی (مستمر، متمرکز) است. اثرات تصادفی نامرتبط من شرکت کنندگان و 2 ویژگی محرک است. برای مدلهای مختلط، من دستکاریهای آزمایشی را بهعنوان کنتراست -.5/+.5 کدگذاری کردهام تا پارامترها تخمینهایی از اثرات آزمایشی باشند و فاصله باید میانگین کل باشد. میانگین کل تولید شده توسط مدل RT (740 میلیثانیه) با میانگینی که در صورت میانگین کل آزمایشهای فردی (730 میلیثانیه) به دست میآورم مطابقت ندارد. چرا این اتفاق می افتد؟ یک سوال مرتبط: GLMM (توزیع دوجملهای، تابع پیوند لجستیک) برای نرخهای خطا، یک تخمین پارامتر با یک امتیاز Z مرتبط ایجاد میکند که مقدار مطلق آن بیش از 2 است، اما وقتی به میانگین نگاه میکنم (به همان روشی که در بالا تعیین شد) برای بررسی این تفاوت، آنها کوچک و تقریباً یکسان هستند (0.01353835 در مقابل 0.01354846). مقادیری که می توانم ارائه کنم که از تخمین پارامتر قابل اعتماد پشتیبانی می کند چیست؟ من احساس میکنم که اختلاف بین میانگین محاسبهشده من و تخمینهای مدل به عوامل تصادفی مربوط میشود (شاید گروهبندی بر اساس آزمودنیها)، اما دقیقاً مطمئن نیستم که چیست. اگر بخواهم آمار توصیفی را به همراه جدول تخمین مدل های ترکیبی نمایش دهم، چگونه باید این آمار توصیفی را تعیین کرد؟ هر گونه اشاره به مراجع، مثال ها و غیره بسیار قابل قدردانی خواهد بود. اگر همه اینها فقط یک گوز مغزی از طرف من است، لطفاً به من نیز اطلاع دهید. ویرایش: احتمالاً ذکر این نکته نیز مهم است که میزان آزمایشها و انواع آزمایشهای ارائهشده برای هر فرد یکسان نیست. دستکاری بین آزمودنی ها نسبت انواع کارآزمایی های مختلف ارائه شده را تغییر می دهد و برای RT ها فقط کارآزمایی های صحیح آنالیز شد. با این حال، خطاهای بسیار کمی وجود داشت. | توضیحات مناسبی که باید برای مدل های مختلط من بررسی شود چیست؟ |
95726 | من از spss استفاده می کنم و به یک طرح همزمان معیار و اعتبار نگاه می کنم. من مجبور شدم رتبه بندی عملکرد دو گروه را به نمرات z تبدیل کنم زیرا تفاوت هایی در نحوه رتبه بندی آنها در یک آزمون وجود داشت. من این نمرات را با یک آزمون شخصیتی مرتبط کردم. رتبهبندی عملکرد و آزمون شخصیت = 0.285* \--> معنیدار در 0.028 n=59. اکنون باید تعیین کنم که آیا این از نظر آماری معنیدار است یا خیر. برای اینکه ببینیم آیا این فرضیه را تایید می کند که تست شخصیت عملکرد شغلی را پیش بینی می کند یا خیر. من یک آزمون t انجام دادم و استادم به من گفت که استفاده از آزمون t به من نمی گوید که آیا همبستگی معنی دار است یا خیر. من احساس بی قراری می کنم و مطمئن نیستم چه کار کنم. | آزمون معناداری همبستگی با نمرات z استاندارد شده |
10228 | من یک ماتریس M از مقادیر شناور دارم، چگونه M را به صورت خطی به هم بزنم؟ | چگونه داده های ماتریس را در R به هم بزنیم؟ |
45765 | من مجموعه ای از داده ها را دارم که باید با استفاده از موارد زیر مدل کنم: $$Y_i \sim N(\mu_i,\theta\mu^{2}_{i}) \quad \text{and}\quad \log \mu_i = \beta^{T}X_{i}$$ ($\theta\mu_i^2$ _واریانس_$Y_i$ است). من باید پارامترهای مدل $\beta$ و $\theta$ را تخمین بزنم. من مطمئن نیستم که چگونه در مورد آن اقدام کنم. پیشنهاد شد که سعی کنید $\theta$ را با استفاده از MLE مشترک ادغام کنید، اما یک بار دیگر مطمئن نیستم که چگونه این کار را انجام دهم. من همچنین سعی میکنم این مدل را در R پیادهسازی کنم، اما از آنجایی که با مدلهای R و خطی جدید هستم، کاملاً مطمئن نبودم که چگونه این کار را انجام دهم. من امتحان کردم: glm (روزها ~ .، خانواده = گاوسی (لینک = ورود)، داده = کوین، شروع = c (log(mean(quine$Days))، 0,0,0,0,0,0) ) اما مطمئن نیستم که آیا این مدل مناسبی برای استفاده است یا خیر. آیا باید به دنبال «nls» یا «gls» باشم؟ هر گونه پیشنهادی قدردانی خواهد شد. ویرایش: بنابراین اگر کمی بیشتر به این موضوع فکر کنید، آیا این معادل یک سم وزنی با وزن $\frac{1}{\theta\mu}$ خواهد بود. بنابراین در R ممکن است به صورت زیر پیادهسازی شود: «glm(روزها ~.، خانواده=پواسون، داده=کوین، وزنها = 1/(تتا*پیشبینی(model1،type=گلابی))) که در آن model1 یک وزن غیر وزنی است سم من هنوز نمی دانم چگونه تتا را تخمین بزنم. | تخمین پارامتر برای یک مدل تعریف شده توسط $Y_i \sim N(\mu_i,\theta\mu^{2}_{i})$ |
53432 | من 3 متغیر طبقه بندی دارم (CVa، CVb، CVc) که همه 0 یا 1 هستند. دو متغیر پیوسته (IV1، IV2) مطالعه مشاهده ای من را مخدوش می کنند. رگرسیون چندگانه lm (DV ~ CVa + CVb + CVc + CVa: CVb + CVa: CVc + IV1 + IV2) اهمیت زیادی را برای CVa Estimate Std نشان میدهد. خطای t مقدار Pr(>|t|) (فاصله) -1.414684 1.498886 -0.944 0.35233 CVa1 -0.841076 0.256946 -3.273 0.00255 ** CVb1 -0.413 -0.413 -0.00255 0.01990 * CVc1 -0.328669 0.183652 -1.790 0.08298. IV1 -0.011768 0.006519 -1.805 0.08049. IV2 0.487658 0.211015 2.311 0.02743 * CVa1:CVb1 0.321766 0.238869 1.347 0.18743 CVa1:CVc1 0.7412590 0.7412590 0.7412590 0.00744 ** من فکر کردم که ANCOVA (بین فاکتور CVa) نیز باید معنیدار باشد، اما خلاصه (aov(DV ~ CVa + CVb + CVc + CVa: CVb + CVa: CVc + IV1 + IV2)) هیچ معنیداری برای CVa نشان نمیدهد Df Sum Sq میانگین مربع F مقدار Pr(>F) CVa 1 0.368 0.3681 3.093 0.08817 . CVb 1 0.427 0.4275 3.593 0.06709. CVc 1 0.015 0.0148 0.125 0.72629 IV1 1 0.585 0.5849 4.916 0.03384 * IV2 1 0.693 0.6935 5.828 0.010 C 0.1262 1.061 0.31069 CVa:CVc 1 0.972 0.9716 8.166 0.00744 ** باقیمانده ها 32 3.807 0.1190 آیا من به جای ANCOVA ANOVA انجام می دهم؟ اگر بله، چگونه می توانم IV1، IV2 را کنترل کنم تا آن مقدار F را که معمولاً در مقالات گزارش می کنند، دریافت کنم؟ در هر صورت، «lsmeans(m2، دو به دو ~ CVa * CVb)» گزارش می دهد که اثر اصلی CVa زمانی قابل توجه است که برای IV1، IV2 $`CVa:CVb تفاوت های زوجی کنترل شود` تخمین SE df t. - 1, 0 0.47043119 0.1725208 32 2.72681 0.04807 | آیا ANCOVA می تواند با رگرسیون چندگانه مخالف باشد؟ |
78236 | من میخواهم یک مدل رشد را برای مدلسازی مسیرهای رشد افراد $j$ در چندین نقطه زمانی $t$ با استفاده از یک مدل استاندارد مختلط/سطح (همچنین به عنوان مدل ضریب تصادفی شناخته میشود) تخمین بزنم: $Y_{tj} = \beta_ {0_j} + \beta_{1_j}A_{tj} + \beta_{2_j}X_{tj} + \beta_{3_j}Z_{tj} + e_{tj}$$$$\beta_{0_j} = \beta_0 + u_{0_j}$$ $$\beta_{1_j} = \beta_1 + u_{1_j}$$ $$\beta_{2_j} = \beta_2 + u_{2_j}$$ $$\beta_{3_j} = \beta_3 + u_{3_j}$$ $A_{tj}$ یک تابع رشد خطی (یعنی نقطه زمانی مشاهده: $1،2،3، ...، t$). $X_{tj}$ یک متغیر کمکی برونزا است. $Z_{tj}$ یک متغیر درون زا است. بیایید بیشتر فرض کنیم که من دلایلی برای این باور دارم که یکی از متغیرهای مستقل در سطح 1، $Z_{ij}$، درونزا است. من نمی دانم که آیا می توانم از یک رویکرد متغیر ابزاری (با استفاده از تاخیر متغیر درون زا به عنوان ابزار) برای مقابله با درون زایی $Z_{ij}$ استفاده کنم یا خیر. با این حال، من هیچ مرجع یا نمونه ای پیدا نکردم. آیا این به طور کلی امکان پذیر است، و چگونه می توانم کد R استاندارد را برای مدل های ترکیبی برای انجام این کار تغییر دهم؟ در حال حاضر من از تابع فراخوانی `lmer(Y ~ X + Z + (1 + X + Z | ID)، data=data) استفاده می کنم. Gelman/Hill (2006)، فصل 23.4 (http://www.stat.columbia.edu/~gelman/arm/chap23.pdf) نشان می دهد که چگونه می توان این کار را با استفاده از رویکرد بیزی انجام داد. من علاقه مند به ارجاعات و کد R هستم که یک رویکرد مکرر را برای کنترل درون زایی با استفاده از متغیرهای ابزاری (یعنی تأخیر متغیرهای درون زا به عنوان ابزار) در یک مدل چند سطحی پیاده سازی کند. | متغیرهای ابزاری و مدل های ترکیبی/چندسطحی |
86399 | من در حال مطالعه مدل نسبتاً کلاسیک انتخاب برای تخمین حق بیمه دستمزد اتحادیه هستم، با دو معادله حقوق و یک معادله دو مرحله ای انتخاب $\ln(w_{1it}) = X^{'}_{it} \beta_1 + \epsilon_{1it}$\ln(w_{0it}) = X^{'}_{it} \beta_0 + \epsilon_{0it}$ $union^*_{it} = \gamma X^{'}_{it} + \epsilon_{2it} $union_{it} = \mathbb{I}(union^*_{it}>0)$ من دو سوال متفاوت دارم: 1) وقتی آن را به عنوان یک تخمین مقطعی در Stata پیادهسازی میکنم (با دستور «heckman»)، چه با روش دو مرحلهای Heckman یا با MLE آن را تخمین بزنم، نتایج بسیار متفاوتی دارم. آیا این طبیعی است؟ در چه صورت دلایل نظری چیست؟ 2) همانطور که در معادلات من ذکر شد، من داده پانل دارم. آیا روش هکمن همچنان در مورد آن صدق می کند؟ یا برآورد درونی درون زایی را حذف می کند و همه آن را حل می کند؟ میتوانم بگویم هنوز هم صدق میکند، اما ادبیات مرتبطی پیدا نکردم و دورههای من فقط دادههای مقطعی را پوشش میدهند. | مدل انتخاب نمونه: MLE در مقابل تخمین دو مرحله ای و داده های پانل |
10224 | من آزمایشهایی را اجرا میکنم که زمانی را که الگوریتم من برای حل مجموعهای از نمونههای مسئله در یک معیار خاص صرف میکند، ثبت میکند. هر مسئله یک مشکل مرتبط در محدوده [1, n] دارد. در حالت ایدهآل، اینها باید به طور مساوی در سراسر طیف دشواری توزیع شوند، اما اینطور نیست: نمونه مشکلی که من دارم به سمت انتهای آسانتر طیف منحرف شده است. برای توضیح این موضوع، من مشکلات را بر اساس سختی گروه بندی کرده ام، به عنوان مثال. [1-10]، [11-20]، ...، [n-9، n]. هر بازه معمولاً شامل حداقل 10 مسئله است (معمولاً بیشتر؛ 50+ غیر معمول نیست) و من میانگین زمان لازم را برای حل همه مسائل در هر بازه میگیرم. این به من تصویر واضح تری از نحوه عملکرد الگوریتم من در مسائل آسان و سخت با این هشدار می دهد که داده ها تا حدودی برای انتهای سخت تر طیف کمتر قابل اعتماد هستند. سوال اول: آیا این مشکلی ندارد یا مواردی وجود دارد که من حساب نکرده ام؟ بعد: برای مقاصد مقایسه ای، باید عملکرد هر معیار را به صورت یک عدد خلاصه کنم. من از گرفتن میانگین در همه مشکلات بیزارم زیرا این رقم به دلیل مشکلات بسیار آسان منحرف شده است. که من را به ... سوال دوم: آیا می توانم به جای آن میانگین تمام میانگین های بازه ای را بگیرم؟ | در نظر گرفتن میانگین یک مجموعه داده با توزیع اریب |
10223 | آیا کسی روشی برای انجام انتخاب مدل در Weka از طریق اعتبارسنجی متقابل برای مشکلات رگرسیون می داند؟ تا آنجا که من می توانم بگویم، اعتبار سنجی متقاطع در Weka فقط برای ارزیابی عملکرد طبقه بندی کننده اجرا می شود. حدس میزنم فراخوانی Weka API از جاوا ممکن است مشکل را حل کند، اما آیا یک رویکرد مبتنی بر رابط کاربری گرافیکی وجود دارد؟ | انتخاب مدل در Weka از طریق اعتبارسنجی متقابل برای مشکلات رگرسیون |
68493 | من به سختی می توانم چیزی را بفهمم. فرض کنید من 36 ماه داده (36 مشاهده) در مورد رفتار مصرف کننده در یک وب سایت دارم. من مدلی ساختم که $y$ را روی تعدادی از پیش بینی کننده ها رگرسیون می کرد و ضرایب مورد نظر را بدست می آوردم. با این حال، من علاقه مندم که بدانم مدل من چقدر در پیش بینی متغیر پاسخ در ماه $x$ عمل کرده است. با توجه به مدل من و مجموعه آموزشی که روی آن اجرا شد، میخواهم بتوانم تعیین کنم که چقدر در پیشبینی متغیر پاسخ در یک ماه معین (مثلاً آوریل یا مارس) انجام شده است. من آمار سنتی را در مورد خوبی تناسب کلی مدل دارم، اما واقعاً میخواهم بفهمم که مدل من چقدر دادهها را برای ماه $x$ پیشبینی میکند. آیا این منطقی است؟ چگونه می توانم آن اطلاعات را به دست بیاورم؟ چگونه این کار را در R انجام دهم؟ در مورد پیش بینی ماه های آینده چطور؟ سه ماه آینده؟ من یک «glm» در R (پواسون) اجرا می کنم. | تعیین دقت پیشبینی در R برای یک GLM |
12310 | من سعی کردم قبل از انجام برازش توزیع، آزمایش کنم که آیا باید مجموعه داده را عادی کنم یا خیر. > a1 <- rgev(2000، loc= 0.449، scale=0.7423، shape=0) > a1_scale <- scale(a1) > fgev(a1, shape=0) فراخوانی: fgev(x = a1، shape = 0) انحراف : 5159.472 برآورد مقیاس محلی 0.4619 0.7495 استاندارد خطاها در مقیاس محلی 0.01764 0.01307 همگرایی اطلاعات بهینه سازی: ارزیابی عملکرد موفقیت آمیز: 24 ارزیابی گرادیان: 5 > fgev(a1_scale، shape=0) فراخوانی: fgev(x = a1_scale، shape = 0) انحراف: 2374 - 5288. 0.7740 خطاهای استاندارد loc scale 0.01822 0.01350 بهینه سازی اطلاعات همگرایی: موفقیت آمیز ارزیابی عملکرد: 24 ارزیابی گرادیان: 5 برای بررسی تطابق بین این دو نتیجه، مدل b را از پارامترهای به دست آمده در بالا ایجاد می کنم و Qq-plot را انجام می دهم. > b1 <- rgev(2000، loc=0.4619، scale=0.7495، shape=0) > b1_scale <- rgev(2000، loc=-0.4476، مقیاس=0.7440، shape=0) > qqplot(b1، b1_scale) > abline (0،1) این چیزی است که من پیدا کردم:  آیا به این معنی است که من هرگز نباید قبل از انجام برازش توزیع، مجموعه داده را عادی کنم؟ | آیا قبل از برازش توزیع Gumbel باید مجموعه داده را نرمال کنیم؟ |
54785 | آیا کسی نمونه برنامه ای را دارد که الگوریتم مونت کارلو متوالی را شبیه سازی کند؟ در هر نرم افزاری من سعی می کنم چنین برنامه ای بنویسم اما دائماً سؤالات و مشکلاتی وجود دارد که نمی توانم آنها را حل کنم. با احترام | برنامه ای برای الگوریتم مونت کارلو متوالی |
78582 | من این کتاب مدل سازی و استدلال با مشکلات شبکه های بیزی را دنبال می کنم و در این گیر کرده ام: 3.2 دوباره توزیع مشترک Pr را از تمرین 3.1 در نظر بگیرید. (الف) Pr(A=true یا B=true) چیست؟ (ب) توزیع را با شرطی کردن رویداد A = true ∨ B = true به روز کنید، یعنی توزیع شرطی را بسازید Pr(.|A = درست ∨ B = درست (ج) Pr(A=true) چیست Pr(B =true) = true به صورت شرطی مستقل از C = true با توجه به رویداد A=true ∨ B =true ` اکنون من چیزهایی دارم، مانند: Pr(E)=Pr(w1)+...=0.1 Pr(B)=Pr( w1)+...=0.2 Pr(A)=Pr(w1)+...=0.2442 a)Pr(A=T یا B=T) = Pr(A)+Pr(B)-Pr(A and B)=0.2442+0.2-(0.0190+0.1620)=0.2632 ب)Pr(w1)= 0.0190/0.2632=0.072188، Pr(w2)=0.22=0.2 0.003799، Pr(w3)=0.0560/0.2632=0.2127، Pr(w4)=0، Pr(w5)=0.1620/0.2632=0.6155، Pr(w6)=0.0180/0.2632=0.068389=0.068389، 0.068389=0.068389، P. Pr(w8)=0 c)Pr(A=T|A=T یا B=T)=Pr(A=T و (A=T یا B=T))/Pr(A=T یا B=T) =(0.0190+0.001)/0.2632=0.6876، Pr(B=T|A=T یا B=T)=Pr(B=T و (A=T یا B=T))/Pr(A=T op B=T)=(0.0190+0.001)/0.2632=0.07598 د) این را نمی دانم پس کسی می تواند کمک کند؟ مطمئن نیستم که c) درست باشد، زیرا این اولین بار است که (.|A یا B) را می بینم. با تشکر | من یک سوال در مورد P شرطی با چندین رویداد دارم |
78586 | من این سوال را دارم: مطالعه ای که توسط هویت همکاران انجام شد نشان داد که 79 درصد از شرکت ها برنامه ریزی انعطاف پذیری را به کارمندان ارائه می دهند. فرض کنید محققی معتقد است که در شرکت های حسابداری این رقم کمتر است. محقق به طور تصادفی 415 شرکت حسابداری را انتخاب می کند و از طریق مصاحبه مشخص می کند که 303 شرکت از این شرکت ها دارای برنامه ریزی انعطاف پذیر هستند. مقدار آماره را برای آزمون این فرضیه محاسبه کنید. تنظیم فرضیه صفر >= 0.79 فرضیه جایگزین <.79 N = 415 x-bar =. آن را ندارم کمک؟ | آزمون فرضیه بدون خطای استاندارد؟ |
63349 | ما با مجموعه ای از 4000 مجله شروع کردیم. این مجلات دارای ویژگی های خاصی هستند یا ندارند. سپس یک بردار بین هر مجله A و هر مجله B ایجاد کردیم. این بردار به من 4000^2 یا 16 میلیون بردار می دهد. برای هر بردار یک z-score محاسبه کرده ام. امتیازهای z بین 40- تا 60 متغیر است، اما بیشتر آنها بین 1- و 1 هستند. هدف من گرفتن این امتیازات z و پیش بینی رابطه واقعی بین هر مجله A و B است. 1. چه آزمونی باید انجام شود. من برای انجام این کار استفاده کنم؟ (ما به یک درخت رگرسیون فکر می کردیم.) 2. و بسته به پاسخ شماره 1، تا چه اندازه باید از داده ها نمونه برداری کنم؟ آیا منطقی تر است که: الف. مثلاً 25 بالاترین و کمترین امتیاز z را در هر مجله بگیرید، یا b. یک نمونه تصادفی بگیرید. پاسخ به شماره 1 یا 2 قدردانی خواهد شد. | چگونه از z-score های موجود برای پیش بینی z-score های واقعی در یک مجموعه داده بزرگ (16 میلیون برداری) استفاده کنیم؟ |
62695 | آیا کسی می تواند از نوشتن فرمول با استفاده از متغیرهای کمکی در فرمول رگرسیون خطی استفاده کند؟ من به بازخورد نیاز دارم تا ببینم آیا در مسیر درستی هستم یا خیر. بسیار قدردانی می شود! مواد اولیه من در اینجا آمده است: * متغیر وابسته = % تغییر در ثبت نام مدارس منشور * متغیر مستقل = نمره شاخص عدم تشابه به صورت درصد نمایش داده می شود * متغیر کمکی = % ثبت نام در مدرسه خصوصی * متغیر کمکی = نوع مدرسه (کد شده با شماره) * متغیر کمکی = سال * متغیر کمکی = % ثبت نام ویژه ویرایش * متغیر کمکی = % ثبت نام ELL * متغیر کمکی = % دانش آموزان غیرسفید پوست | به نوشتن متغیرهای کمکی در فرمول رگرسیون کمک کنید |
21517 | فرض کنید یک معادله رگرسیون خطی ساده تخمین زده شده به صورت $$E[y| \textbf{x}] = \hat{\beta}_{0}+ \hat{\beta}_{1}\textbf{x}$$ سپس تفسیر شیب به صورت زیر است: برای افزایش واحد در $\textbf{x}$، $E[y| \textbf{x}]$ با $\hat{\beta}_{1}$ افزایش مییابد. آیا می توان از همین معادله برای پیش بینی $y$ از مقدار $\textbf{x}$ استفاده کرد؟ | پیش بینی در مقابل ارتباط با رگرسیون خطی |
68494 | من هنگام آموزش یک شبکه عصبی با 100 خروجی و 6000 نمونه با 500 ویژگی مشکل حافظه دارم. چه کار کنم. من نمی خواهم برای هر خروجی یک شبکه عصبی جداگانه یاد بگیرم. خروجی ها بسیار همبسته هستند، بنابراین من می خواهم یک پیش بینی چند هدف انجام دهم. پیشنهادات؟ این کاری است که من انجام دادم net = newfit(train_data', targets', 100); net.performFcn = 'mae'; net.layers{2}.transferFcn = 'logsig'; net.layers{1}.transferFcn = 'tansig'; net = train(net, train_data', targets'); | مسائل مربوط به آموزش شبکه های عصبی با خروجی های متعدد |
10220 | این ممکن است مانند یک سوال مبهم به نظر برسد، اما من نمیتوانم هیچ منبع/نمونهای «خوب» در مورد آن پیدا کنم. سوال اساسی این است: اکثر متغیرها، بسته به مشکل، انواع خاصی از توزیع ها را دنبال می کنند. معمولی/گاوسی _ممکن است نه_ مناسب ترین مورد برای ثبت انواع خاصی از پدیده ها باشد. اگرچه من با توزیعهای مختلف از دیدگاه ریاضی کاملاً آشنا هستم، اما نمیتوانم برخی از آنها را به صورت مفهومی درک کنم، به عنوان مثال: توزیع یکنواخت زمانی است که وقوع آن رویداد در طول زمان به یک اندازه محتمل باشد، زمانی که وقوع «مایل به مرکزیت» باشد، عادی است. در اطراف میانگین بیشتر اوقات (مانند تعداد نقص در نمونه ها یا قد شهروندان در یک کشور و غیره) به طور مشابه برای مثلثی - من این را می فهمم _ آسان ones_ به اصطلاح. هنگام استفاده از شبیه سازی مونتکارلو معمولاً با چه نوع توزیع هایی مواجه شده اید؟ مثالها همراه با منطق انتخاب آن توزیع مفید خواهند بود. اساساً به دنبال یک مرجع / اشاره گر هستم که به من کمک کند آن را به عنوان یک لیست برای مرجع و درک تنظیم کنم. من یک توضیح غیر ریاضی را ترجیح می دهم زیرا برای بحث با سهامداران غیر ریاضی که شبیه سازی های مونت کارلو به آنها نشان داده می شود استفاده می شود * <نام توزیع> : <مناسب ترین کاربرد> من درباره قانون قدرت شنیده ام اما واقعاً نمی دانم / نمی دانم که چیست و چگونه می توان از آن استفاده کرد. | مناسب ترین توزیع ها برای مدل سازی شبیه سازی مونت کارلو |
95727 | من در حال پیشبینی فضایی احتمالات دوجملهای (با استفاده از دادههای متناسب؛ «cbind» در R) در یک حوزه فضایی هستم. من از توابع «get.models» به دنبال «model.avg» در بسته R «MuMIN» استفاده میکنم تا ضرایب میانگین مدلهای با دلتا AIC کمتر از 2 را به دست بیاورم. و میانگین ضرایب. اکنون میخواهم از تابع «cv.glm» اعتبار سنجی متقاطع (یا هر روش مشابه) از بسته R «بوت» استفاده کنم تا دقت پیشبینی اعتبار متقاطع این مدل متوسط را به دست بیاورم. با این حال، هنگام انجام «cv.glm (دادهها، مدل.avg خروجی)» هشدار زیر را دریافت میکنم: خطا در eval(expr، envir، enclos): تابع model.avg.default پیدا نشد. اگر کسی بتواند در مورد نحوه دستیابی به اعتبار سنجی متقاطع در مدل های متوسط از بسته MuMIN پیشنهاداتی ارائه دهد بسیار سپاسگزارم. متشکرم. | اعتبارسنجی متقاطع GLM های دوجمله ای متوسط (model.avg از بسته MuMIn) |
12314 | من دو اندازه گیری مجزا و ناهمگن از یک شی دارم. من می خواهم با استفاده از هر دو مجموعه اندازه گیری، در مورد وضعیت جسم پیش بینی کنم. چه روش هایی می توانند اندازه گیری ها را در چارچوب رگرسیون به منظور بهبود استنتاج ترکیب کنند؟ **ویرایش** منظور من از ناهمگن این است که اندازه گیری ها ناهمگون و نامتناسب هستند. دو دستگاه مختلف برای مشاهده جسم مورد استفاده قرار گرفت که جنبه های مختلف حالت آن را اندازه گیری می کرد. در رابطه با استنتاج بهبودیافته، میخواهم وضعیت شی را با استفاده از دو اندازهگیری با استفاده از رگرسیون پیشبینی کنم. در حالت ایده آل، استفاده از هر دو اندازه گیری باید به پیش بینی دقیق تری نسبت به استفاده از هر یک از اندازه گیری ها به طور جداگانه منجر شود. چگونه باید پیش بینی های حالت بر اساس اندازه گیری ها باشد؟ در حال حاضر من در حال یادگیری یک نقشه برداری از فضای ورودی اندازه گیری به فضای خروجی با استفاده از رگرسیون پشته هستم. | ترکیب اندازه گیری های ناهمگن برای بهبود استنتاج |
21510 | راه مناسبی برای آزمایش اینکه آیا دو رگرسیون لجستیک به طور قابل توجهی با یکدیگر متفاوت هستند چیست؟ اساساً، من دو رگرسیون لجستیک مشابه دارم که از دو مجموعه داده متفاوت ساخته شده است، و یکی از دو مجموعه داده ترکیب شده است. من میخواهم با استفاده از رگرسیون حاصل از ترکیب مجموعههای داده، بتوانم تحلیلهای بیشتری را روی کل مجموعه داده انجام دهم، اما ابتدا باید مطمئن شوم که این رابطه تفاوت معناداری با هیچ یک از دو رگرسیون اصلی ندارد. همچنین میخواهم بدانم که آیا دو رگرسیون اصلی جداگانه با یکدیگر متفاوت هستند یا خیر. آیا راه ساده ای برای این کار وجود دارد؟ ممنون!! | مقایسه رگرسیون های لجستیک |
112474 | من چندین سری زمانی دارم که هر یک مشاهدات یک پدیده هستند، به عنوان مثال: > مشاهده 1: 10، 25، 36، 72، 80، .... > > مشاهده 2: 32، 46، 78، 90، 100، .... > > مشاهده 3: 12، 27، 34، 75، 36، ... > > .... > > مشاهده 100: 7، 33، 45، 56، 32، ... هر یک از اندازه گیری های من در هر مشاهده در دوره های زمانی معادل گرفته می شود. من میتوانم از روشهای مختلفی برای تناسب منحنیها با سریهای زمانی خود و پیشبینی عملکرد برای هر سری استفاده کنم. با این حال، چگونه می توانم این منحنی ها را ترکیب کنم تا یک مدل قابل تعمیم ایجاد کنم که همه 100 مشاهدات را در نظر بگیرد؟ | چگونه می توانم چندین مدل سری زمانی را برای ایجاد یک مدل پیش بینی قابل تعمیم ترکیب کنم؟ |
12316 | اگر در یک سری زمانی که دارای 40 چهارم (ده سیکل یا ده سال) داده است مقادیر گم شده ای داشته باشم، بهترین روش SAS برای منتسب کردن مقادیر از دست رفته چیست؟ قسمت 2: من سری 390 دارم (هر کدام 40 چهارم) که از الگوهای مشابهی پیروی می کنند -- اکثر آنها نقاط داده گم شده دارند (هر کدام 2-3)، چگونه می توانم از سری 390 دیگر برای کمک به منتسب کردن مقادیر از دست رفته در هر سری استفاده کنم؟ از چه روش SAS برای آن استفاده کنم؟ در پایان من یک مجموعه کامل از 15600 نقطه داده می خواهم. | وارد کردن مقادیر گمشده در سری های زمانی با استفاده از SAS |
62691 | از ویکی پدیا > مدل خطی عمومی (GLM) یک مدل خطی آماری است. ممکن است به صورت 1 $$ \mathbf{Y} = \mathbf{X}\mathbf{B} + \mathbf{U} نوشته شود، $$ که در آن $Y$ > یک ماتریس با مجموعهای از اندازهگیریهای چند متغیره است، $X$ ماتریسی است که > ممکن است یک ماتریس طراحی باشد، $B$ ماتریسی حاوی پارامترهایی است که معمولاً > تخمین زده می شود و $U$ ماتریسی است حاوی خطا یا نویز خطاهای > معمولاً از یک توزیع نرمال چند متغیره پیروی می کنند. سپس میگوید: اگر خطاها از توزیع نرمال چند متغیره پیروی نمیکنند، ممکن است از مدلهای خطی تعمیمیافته برای کاهش مفروضات مربوط به $Y$ و $U$ استفاده شود. من تعجب کردم که چگونه مدل های خطی تعمیم یافته فرضیات مربوط به $Y$ و $U$ را در مدل های خطی عمومی کاهش می دهند؟ توجه داشته باشید که من می توانم رابطه دیگر آنها را در جهت مخالف درک کنم: > مدل خطی کلی را می توان به عنوان موردی از مدل خطی تعمیم یافته > با پیوند هویت مشاهده کرد. اما من شک دارم که این به سوال من کمک کند. | چگونه مدل خطی تعمیم یافته مدل خطی عمومی را تعمیم می دهد؟ |
78583 | آیا می توانید یک همبستگی خطی با چند نمونه و درصد انجام دهید؟ به عنوان مثال (بد)، 10 شهر مختلف در مورد نظرات آنها در مورد قانونی کردن ماری جوانا و ایدئولوژی سیاسی آنها مورد نظرسنجی قرار گرفتند. هر نمونه با نسبت x به نفع قانونی شدن ظرف، و y = نسبت که به عنوان لیبرال شناسایی می شود، نمودار می شود. با تشکر | همبستگی بین نسبت های متعدد |
115128 | با استفاده از داده دمای متوسط (Y1)، سعی کردم دستور R زیر را همانطور که در _Time Series Analysis With Applications in R_ توسط Jonathan D. Cryer & Kung-Sik Chan استفاده شده است، تکرار کنم، اما همچنان یک پیام خطا دریافت می کنم. دستور R: AICM=NULL for(d در 1:4){ predator.tar = tar(y=log(predator.eq)، p1=4، p2=4، d=d، a=.1، b=. 9) AICM = rbind(AICM، c(d،predator.tar$AIC، signif(predator.tar$thd، 4)، predator.tar$p1، predator.tar$p2 ) } colnames(AICM) = c('d', 'nominal AIC', 'r', 'p1', 'p2') rownames(AICM) = NULL AICM توجه: به شکل 15.11 در پیام خطای متنی: خطا در tar(Y1.eq، p1 = 4، p2 = 4، d = d، a = 0.1، b = 0.9) : آرگومان های استفاده نشده (p1 = 4، p2 = 4، d = d، a = 0.1، b = 0.9) چه کاری می توانم انجام دهم، لطفا؟ | شکل 15.11 AIC اسمی مدلهای TAR متناسب با سری Log(predator) برای 1 ≤ d ≤ 4 |
62696 | من 2 گروه داده برای مقایسه با استفاده از آزمون t دارم، هر دو با حجم نمونه n=5. بررسی اینکه آیا فرض نرمال بودن آزمون برقرار است یا خیر دشوار است زیرا اندازه نمونه بسیار کوچک است. من خوانده ام که یک آزمون t در این مورد به غیر عادی بودن قوی است زیرا اندازه نمونه برابر است. با این حال، اگر داده ها بسیار غیرعادی بودند، ممکن است دیگر قوی نباشند. یک جایگزین می تواند انجام تست من ویتنی U باشد، اما این تست قدرت کمتری نسبت به آزمون t دارد (البته من مطمئن نیستم که چقدر کمتر). من در واقع همیشه با موقعیتهای مشابهی مواجه میشوم و میدانم که ممکن است پاسخ قطعی وجود نداشته باشد، اما فقط کنجکاو هستم که دیگران در جامعه چگونه به این نوع مشکل برخورد میکنند. من معمولاً فقط با تست t می روم و به دیگران می گویم که همین کار را انجام دهند زیرا آنها با این تست بیشتر از تست MW آشنا هستند. | T Student در مقابل Mann-Whitney U برای نمونه های کوچک مساوی |
68498 | من با مفاهیم R و داده کاوی نسبتاً تازه کار هستم و سعی می کنم پکیج rpart را در R درک کنم. در مورد نقش اولویت ها و ضررها در ایجاد درخت تصمیم گیری کمی سردرگم هستم. من به شرح مختصر بسته _مقدمه ای بر پارتیشن بندی بازگشتی_ (pdf) اشاره می کنم و از هر توضیحی در مورد این موضوع سپاسگزارم. برای دقیق تر بودن، منظور از احتمالات قبلی هر طبقه چیست (به عنوان مثال، صفحه 4)؟ آیا این بدان معناست که درخت قبلاً ساخته شده است و اکنون سعی می کنیم خطر یا ضرر را کاهش دهیم؟ | پیشینیان و ضرر در R |
105983 | من با تنظیمات مقایسه های متعدد گیج شده ام. من یک $p$-values با مقادیر زیادی دارم (به دلیل نمرات زیاد در پیش زمینه 0) از یک آزمون دقیق فیشر. من مقداری $p$-value دریافت میکنم که بدون اصلاح چندین آزمایش مهم هستند. $p$-value از 1000$p$-مقادیر حداقل تشکیل شده است. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.0000013 0.2552000 0.6069000 0.5634000 0.8672000 0.9900000 و 3000 $p$-values از 1. $p$-values در https://dl.dropboxvalusercon/2.dropboxvalusercon/1. اگر همه $p$-values=1 را حذف کنم و چندین تصحیح آزمایش انجام دهم. انتظار داشتم با افزودن این $p$-values=1; از آنجایی که توزیع $p$-value در حال جابجایی به چپ است، $q$-value افزایش خواهد یافت. با این حال، توابع **pvalue** بسته R برای همه مقادیر _p____ -value=1 می دهند. من نمی توانم این رفتار را درک کنم. FDR فرض می کند که توزیع _p_-value یکنواخت است که در موارد من نیست. من چه اشتباهی می کنم؟ | FDR (تصحیح تست چندگانه) با توزیع p-value اریب |
105982 | من یک HMM را به سری های زمانی برازش می کنم، برای هر مجموعه داده از نتایج BIC برای انتخاب تعداد بهینه حالت ها استفاده می کنم. در آن، عدد BIC کمترین است و در نتیجه نشان دادن این مدل با آن تعداد حالت، مجموعه داده را به بهترین شکل توصیف می کند. آیا این روش صحیح است؟ برای مجموعههای سریهای زمانی من (حدود 500 سری زمانی)، معمولاً 2 حالت بهترین است - که بسیار مطلوب است زیرا میتوانم آن دو را به راحتی توضیح دهم. حدود 20% BIC نشان می دهد که 3 بهترین است و تعداد انگشت شماری 4 می باشد. تعداد انگشت شماری دیگر از طریق baum-welch کالیبره نمی شوند، اما این یک مشکل دیگر است. | تعیین حالات در HMM با BIC |
115129 | من متغیرهای وابسته مختلف را با استفاده از مجموعه ای از پیش بینی کننده های یکسان برای همه متغیرهای وابسته مانند y1=beta0+beta1.X1+beta2.X2+ ..... y2=beta0+beta1.X1+beta2.X2+ . که سناریوی تست چندگانه باشد؟ اگر چنین است، چگونه می توان آن را تنظیم کرد؟ | تست چندگانه |
50206 | در حالی که داشتم تجزیه و تحلیل پایان نامه خود را می نوشتم، هنگام بررسی مجدد آزمون خود برای نرمال بودن، متوجه شدم که مقدار p برای اکثر متغیرهای پیوسته 000/0 است که کمتر از 05/0 است و این فرضیه صفر را رد می کند که به این معنی است. به درک من داده های من به طور معمول توزیع نمی شود. من قبلاً تحلیل عاملی را با «روش استخراج: تجزیه و تحلیل مؤلفه اصلی» و «روش چرخشی: Oblimin» با «نرمالسازی قیصر» تکمیل کردهام. همه 88 متغیر پیوسته به 17 عامل کاهش یافت. پایایی بررسی شد و همه آیتمها آلفا 8/0 و بالاتر بودند و سپس رگرسیون چندگانه (استاندارد) برای تجزیه و تحلیل اثربخشی کلی در برابر 17 متغیر پیشبینیکننده (عامل) انجام شد. سپس من یک آزمون t را اجرا کردم تا ببینم چگونه دو گروه از متخصصان به اثربخشی کلی پاسخ دادند و P-value در این آزمون بیش از 0.05 بود. به طور ناگهانی در حال حاضر وحشت می کنم که آیا من آن را به درستی از نظر متغیرهای پیوسته انجام داده ام، زیرا همه دارای p-value 0.000 هستند؟ آیا تحلیل نهایی من معتبر است؟ | آیا می توان از داده های غیر عادی برای تحلیل عاملی و رگرسیون چندگانه استفاده کرد؟ اگر چنین است چه روشی برای توجیه آن وجود دارد؟ |
100020 | من یک مجموعه داده بسیار بزرگ دارم و حدود 5٪ مقادیر تصادفی از دست رفته است. این متغیرها با یکدیگر همبستگی دارند. مجموعه داده R مثال زیر فقط یک نمونه اسباب بازی با داده های همبسته ساختگی است. set.seed(123) # ماتریس متغیر X xmat <- ماتریس(نمونه(-1:1، 2000000، جایگزین = TRUE)، ncol = 10000) colnames(xmat) <- چسباندن (M، 1:10000, sep = ) rownames(xmat) <- paste(sample, 1:200, sep = ) #متغیرهای M همبستگی دارند N <- 2000000*0.05 # 5% مقادیر تصادفی گمشده inds <- round ( runif(N, 1, length(xmat)) ) xmat[inds] <- NA > xmat[1:10 ,1:10] M1 M2 M3 M4 M5 M6 M7 M8 M9 M10 نمونه1 -1 -1 1 NA 0 -1 1 -1 0 -1 نمونه2 1 1 -1 1 0 0 1 -1 -1 1 نمونه3 0 0 1 -1 -1 -1 0 -1 -1 -1 نمونه4 1 0 0 -1 -1 1 1 0 1 1 نمونه 5 NA 0 0 -1 -1 1 0 NA 1 NA نمونه6 -1 1 0 1 1 0 1 1 -1 -1 نمونه7 NA 0 1 -1 0 1 -1 0 1 نمونه NA8 1 -1 -1 1 0 -1 -1 1 -1 0 نمونه9 0 -1 0 -1 1 -1 1 NA 0 1 نمونه 10 0 -1 1 0 1 0 0 1 NA 0 آیا (بهترین) راه برای نسبت دادن مقادیر گمشده در این شرایط وجود دارد؟ آیا الگوریتم جنگل تصادفی مفید است؟ هر راه حل کاری در R بسیار قدردانی می شود. **ویرایش ها:** (1) مقادیر از دست رفته به طور تصادفی بین متغیرها و نمونه ها توزیع می شوند. از آنجایی که **تعداد متغیرها** **بسیار بزرگ** است (در اینجا در مثال - 10000)، در حالی که **تعداد نمونهها** در اینجا در مثال ساختگی فوق کوچک است و حدود 200 است. بنابراین وقتی به هر نمونه ای از همه متغیرها (10000) نگاه می کنیم، احتمال زیادی وجود دارد که وجود داشته باشد. مقدار زیادی در برخی از متغیرها وجود ندارد - به دلیل تعداد زیاد متغیرها. بنابراین فقط حذف نمونه گزینه ای نیست. (2) متغیر را می توان هم به صورت کمی یا هم به صورت کیفی (دودویی) در فرآیند انتساب در نظر گرفت. تنها قضاوت این است که چقدر خوب می توانیم آن را پیش بینی کنیم (دقت). بنابراین پیشبینیهایی مانند 0.98 به جای 1 ممکن است به جای 0 در مقابل 1 یا -1 در مقابل 1 قابل قبول باشند. شاید لازم باشد بین زمان محاسبه و دقت معاوضه کنم. (3) موضوعی که من فکر می کنم چگونه بیش از حد برازش می تواند بر نتایج تأثیر بگذارد زیرا تعداد متغیرها در مقایسه با تعداد نمونه ها زیاد است. (4) از آنجایی که مقدار کل مقادیر از دست رفته حدود 5٪ است و تصادفی است (در هیچ متغیر یا نمونه ای متمرکز نشده است به عنوان احتیاط برای حذف متغیرها یا نمونه هایی که مقادیر گمشده بسیار بالایی دارند) (5) کامل کردن داده ها برای تجزیه و تحلیل هدف اول است و دقت در درجه دوم است. بنابراین به دقت خیلی حساس نیست. | چگونه می توان مقادیر را در تعداد بسیار زیادی از نقاط داده انجام داد؟ |
49848 | من فعالیت های بازار کار را تجزیه و تحلیل می کنم. من JD: مدت زمان کار (زمان بین شروع و پایان کار) و PD: مدت زمان حرفه ای (زمان سپری شده در یک حرفه خاص) را اندازه گیری می کنم. نمونه من مبتنی بر اپیزود است (نه بر اساس فردی)، که برای «PD» مهم است: من «PD» را به عنوان دو قسمت شغلی بعدی در یک حرفه اندازهگیری میکنم. بنابراین «PD» بنا به تعریف بزرگتر یا مساوی «JD» است. علاوه بر این، من نقاط داده بیشتری برای «JD» دارم (هر استخدامی یک نقطه داده میدهد) تا «PD» (برای هر کارمند، دو شغل بعدی در همان حرفه در یک نقطه داده ادغام میشوند). من به _تفاوت_ بین «JD» و «PD» علاقه مند هستم و می خواهم این تفاوت را برای چندین گروه مقایسه کنم. آزمایش JD و PD به طور جداگانه مطلوب نیست. فرض کنید گروه «A» یک «JD» کوتاه و یک «PD» کمی بلندتر دارد. گروه «B» میتواند یک «JD» طولانی داشته باشد اما یک «PD» که فقط کمی طولانیتر از «JD» «B» است. برای بررسی تفاوت بین «JD» و «PD» چه آزمایشی میتوان انجام داد؟ آیا منطقی است که تفاوت در نسبت های «JD» به «PD» را در گروه ها آزمایش کنیم؟ Non-sequitor: «rho» در آزمون «survdiff» «R» چه می کند و چگونه باید «rho» را انتخاب کنم؟ [ویرایش] رویکرد من هنوز مشخص نیست. دقیقاً کاری که انجام میدهم این است: من از پایگاه دادهای استفاده میکنم که شناسه افراد («ID»)، دادههای شروع یک شغل («BEGIN»)، تاریخ پایان یک شغل («END») و نوع شغل («TYPE») را ذخیره میکند. * برای جمعآوری «JD» «BEGIN» و «END» را میگیرم و با استفاده از «TYPE» گروههای مختلفی میسازم. * برای دریافت «PD» کارهای زیر را انجام میدهم: برای هر «ID» اگر 2 استخدام بعدی («e1»، «e2») «TYPE» یکسان داشته باشند، آنها را در یک قسمت ادغام میکنم (با «BEGIN(e1)» و END(e2)). این مرحله را تکرار میکنم تا زمانی که دیگر ادغام امکانپذیر نباشد (مثلاً اگر 3 کار بعدی («e1»، «e2»، «e3») از همان «TYPE» وجود داشته باشد، یک قسمت را به پایان میرسانم (با «BEGIN(e1 )» و «END(e3)») در نهایت، چیزی که من سعی می کنم بفهمم این است که آیا تفاوت بین «JD» و «PD» از یک الگوی مشابه برای انواع مختلف پیروی می کند یا خیر. | چندین نقطه پایانی در تجزیه و تحلیل بقا مشاغل فردی |
21519 | کدام الگوریتم های یادگیری به طرز شرم آور موازی هستند؟ من آن را با مثال واضح از مستندات foreach شروع می کنم: rf <- foreach(ntree = rep(250, 4)، .combine = ترکیب، .packages = randomForest) %dopar% randomForest(x, y, ntree = ntree) چه چیز دیگری در بیرون وجود دارد که بتوان به راحتی با «foreach» موازی کرد؟ | الگوریتم های یادگیری ماشینی موازی شرم آور |
112472 | من علاقه مند به ایجاد مدلی برای ریتم شبانه روزی سطوح هورمون از طریق تجزیه و تحلیل کوسینور هستم. من تازه شروع به بررسی تجزیه و تحلیل cosinor کردم، بنابراین چند سوال دارم. دادهها در حال حاضر در حال جمعآوری هستند، اما من سعی میکنم قبل از رسیدن دادههای واقعی، درک بهتری از روش داشته باشم. داده ها باید به این شکل باشد: من در مجموع 12 موضوع دارم. سطح هورمون هر آزمودنی هر 30 دقیقه به مدت 6 روز اندازه گیری شد. در روزهای 1-3 آزمودنی ها داروی A و در روزهای 4-6 داروی B تجویز شدند. یک چرخه 24 ساعته انتظار می رود و بنابراین من علاقه مند به ایجاد مدلی برای یک ریتم شبانه روزی 24 ساعته برای هر یک از دو دارو هستم. این به این معنی است که من برای هر یک از دو دارو، سیکل های متعددی دارم - هر نفر 24 ساعته. پس از خواندن دو بررسی زیر (فرناندز و همکاران، 2009؛ کورنلیسن 2014) در مورد cosinor به نظر می رسد که من می خواهم تجزیه و تحلیل cosinor میانگین جمعیت را انجام دهم. با فرض برآورده شدن مفروضات لازم و در ساده ترین حالت یک همزن تک جزیی، من در تعجب هستم که چگونه می توانم پیش بروم و تجزیه و تحلیل را انجام دهم. درک من این است که ابتدا باید یک همزینور تک جزیی را برای هر موضوع محاسبه کنم و سپس میانگین تخمین پارامترها را برای بدست آوردن میانگین جمعیت برآورد کنم. برای داروی A بگویید، آیا می توانم به سادگی سه روز اول داده ها را برای هر موضوع ترکیب کنم تا همزینورهای تک جزیی را محاسبه کنم؟ وقتی آن 12 cosinors تک جزیی را داشتم، می توانم آنها را به طور متوسط میانگین کنم تا میانگین جمعیت را برآورد کنم؟ آیا باید این واقعیت را در نظر بگیرم که برای هر موضوعی، مثلاً در محاسبه تخمینهای واریانس، چرخههای تکراری دارم؟ | تحلیل کوزینور با چرخه های مکرر |
105989 | من در حال توسعه یک مدل خطی از بازده در برابر زمان هستم (33 سال داده بازده) که در آن سال 1975،1976 .... 2007 است. می خواهم بدانم آیا تغییر در بازده در طول زمان خطی بوده است یا خیر؟ بنابراین من یک مدل خطی از بازده نسبت به سال برازش کردم: mdl<-lm(yld ~ year,data=data) در مدل دوم من، سال به توان 2 افزایش یافت. mdl2<-lm(yld ~ year + I(year^2 ),data=data) anova(mdl,mdl2) مدل 2 پیشرفت قابل توجهی نسبت به مدل خطی می دهد، بنابراین من شواهد انحنای داده ها را می پذیرم. سوال من این است: آیا این تحلیل درست است؟ منظورم این است که آیا واقعاً می توانم «سال» را برای توسعه مدل دومم مربع کنم؟ این طرح است بسیار متشکرم | آیا می توان زمان را برای ایجاد یک مدل منحنی خطی از عملکرد محصول در مقابل زمان مجذور کرد؟ |
78588 | من چند بردار دارم (هر بردار نشان دهنده یک دانش آموز، هر مختصات، یک سوال) است که می خواهم آنها را با هم مقایسه کنم تا بگویم شبیه هستند یا نه. من از فاصله کسینوس استفاده می کنم. من می خواهم با در نظر گرفتن عدم احتمال/احتمال هر موقعیت بردار آن را بهتر کنم. مثلاً وقتی دو دانشآموز در یک موقعیت «1» دارند و 90 درصد جمعیت -1 دارند، این شواهد بیشتری برای شباهت آنها نسبت به حالتی است که هر دو -1 داشته باشند. (ما بردارها را فقط آن دو مقدار را در هر موقعیت در نظر می گیریم) تا کنون دو ایده دارم 1) با توجه به احتمال نمونه p از a 1 در این موقعیت، 1s را در این موقعیت با 1-p و -1s را با - جایگزین کنید. ص این ویژگی خوبی دارد که اگر آنها بر روی 1 توافق کنند، شباهت (1-p)^2 به دست می آورند (عددی که با کاهش p رشد می کند). برای جنبه منفی هم همینطور. اما ... من مطمئن نیستم که چگونه این امکان را برای عدم توافق آنها در مورد ارزش توضیح می دهد ... منظورم این است که آنها -p(1-p) از عدم تشابه دریافت می کنند، اما من نمی دانم چه چیزی باید دریافت کنند ( همچنین، به نظر میرسد این ایده روی مجموعه داده من کار نمیکند، به این معنا که نتایج را بدتر میکند) 2) فقط به یک موقعیت وزن p(1-p) بدهید. این به شباهت برای توافق بر روی 1 برابر با -1 پاداش می دهد. منطق این است که موقعیت با p=0.5 بیشترین تمایز را دارد این به طرف غیر محتمل بیشتر از طرف احتمالی پاداش نمی دهد (اما عجیب به نظر می رسد نتایج را بهبود می بخشد) بنابراین ... الف) به نظر می رسد 1 می تواند بهتر بین طرفین تمایز قائل شود. همخوانی ها، اما من کاملاً مطمئن نیستم که با ناهماهنگی ها چه می کند. هر ایده ای؟ ب) چه معیاری را پیشنهاد می کنید که احتمالات را محاسبه می کند؟ ج) چه چیزی را باید بخوانم تا پیشینه لازم برای فکر کردن در این مورد را بدست بیاورم؟ | اندازه گیری فاصله که احتمالات را محاسبه می کند |
115122 | بیایید بگوییم که من در حال ایجاد مطالعه ای هستم که به درمان متاستاز در بیماران مبتلا به سرطان روده بزرگ آمریکایی آفریقایی تبار پرداخته است. آیا گروه کنترل یا گروه مقایسه من بیماران مبتلا به سرطان کولون قفقازی با متاستاز هستند؟ من در مورد نحوه ایجاد گروه های کنترل در این زمینه کمی سردرگم هستم. | چگونه یک گروه کنترل / مقایسه انتخاب کنیم؟ |
58774 | در مسئله خوشه بندی خود با معیار تشابه سفارشی کار می کنم و به دنبال هر پیاده سازی الگوریتم هایی با فاصله نامتقارن یا ماتریس شباهت هستم. من فقط به مواردی علاقه مند هستم که می توانند ماتریس شباهت/فاصله سفارشی را به عنوان ورودی یا تابع اندازه گیری شباهت سفارشی ارائه دهند. زبان پیاده سازی تا زمانی که کار می کند واقعاً مهم نیست. (R می تواند بهترین باشد، پایتون، C++، C، جاوا، روبی) به چه روش هایی علاقه خاصی پیدا می کنم. 1. خوشه بندی/گروه بندی Taylor-Butina برای تشابه نامتقارن. در اینجا کاربرد آن است. برخی از پیادهسازیهای R، اگرچه مطمئن نیستیم که با ماتریس نامتقارن قابل استفاده هستند یا خیر. 2. خوشه بندی سلسله مراتبی ترجان با مولفه های قوی. نباید اشتباه گرفته شود الگوریتم اجزای به شدت متصل. 3. خوشه بندی طیفی با استفاده از ماتریس میل سفارشی. من به ویژه به اجرای این یکی در R علاقه مند هستم. برخی از الگوریتم های پیاده سازی شده در _Mesa Suite Version 2.0 Grouping Module_ را پیدا کردم. با این حال من هیچ آزمایشی یا دانلودی از این برنامه پیدا نکردم. ویرایش: تابع فاصله نابرابری مثلث را برآورده می کند. فکر میکنم این پست برای همه افراد شیمیفورماتیک که از R استفاده میکنند جالب باشد. | پیاده سازی خوشه بندی با ماتریس فاصله / شباهت نامتقارن |
62693 | در مدل پیشبینی ترکیبی با استفاده از ARIMA و شبکههای عصبی (پرسپترون چند لایه)، سریهای زمانی ابتدا در ARIMA برای پردازش خطی پردازش میشوند. شما مقادیر پیش بینی و همچنین مقادیر آماری را به عنوان باقیمانده، اندازه گیری خطاهای مختلف دریافت می کنید. سوال من این است: از چه آیتم هایی برای تغذیه شبکه های عصبی استفاده می کنید زیرا حداقل به دو آیتم برای لایه ورودی نیاز دارید: ورودی و خروجی مطلوب؟ | چه دادههای ARIMA برای پیشبینی به شبکههای عصبی در مدل ترکیبی داده میشود؟ |
50201 | من 12 موضوع منحصر به فرد دارم و در مجموع تقریباً 1700 مشاهده داشته ام. من یک متغیر پاسخ ترتیبی (دارای 4 سطح) و 3 متغیر کمکی طبقه بندی دارم (هر کدام به ترتیب سطوح مختلف 3، 5، 2 و 4 دارند). مقادیر پاسخ و متغیرهای کمکی برای هر موضوع منحصر به فردی در حال تغییر هستند. بهترین راه برای ارائه فرکانس این مجموعه داده چیست؟ | جدول فرکانس برای اندازه گیری های مکرر |
54781 | من یک مخلوط گاوسی را با داده های مالی خود تطبیق دادم. مقادیر عبارتند از: $\pi= 0.3$ $\mu_1= -0.01$ $\mu_2= 0.01$ $\sigma_1=0.01$ $\sigma_2=0.03$ میتوان دید که هر دو توزیع تک میانگین تقریباً صفر دارند. در حالی که یکی دارای نوسان زیاد و دیگری نوسان کم است. توزیع نرمال 1، سبز با پیک بالا دارای پارامترهای $\mu_1$ و $\sigma_1$ است و با احتمال 0.39 رخ می دهد (این عدد pi از خروجی normalmixEM است). توزیع نرمال 2 با پیک کوچکتر و نوسانات بیشتر دارای پارامترهای $\mu_2$ و $\sigma_2$ و احتمال $1-0.39$ است. من تولید چگالی مخلوط را به صورت زیر تصور می کنم: توزیعی داریم که کاملاً محتمل است ($\pi=1-0.39)$ و دارای $\mu_2$. است، اگر چگالی مخلوط انجام شود، یک ثانیه اضافه می کنیم. توزیع که کمی به سمت چپ جابه جا شده است (این مورد با احتمال 0.39 رخ می دهد و میانگین منفی دارد). از آنجایی که توزیعی که اضافه می کنیم کمی بیشتر به سمت چپ است، من انتظار دارم که چگالی مخلوط دارای یک انحراف منفی باشد، زیرا دم سمت چپ مخلوط حاصل سنگین تر خواهد بود؟ من این را کنترل می کنم، که یک انحراف مثبت '0.7' به دست می دهد. حالا سوال من این است: چرا؟ من انتظار یک انحراف منفی را دارم، زیرا فکر میکردم چگالی مخلوط دم چپ چاقتری خواهد داشت، زیرا با میانگین مثبت توزیع احتمالی را اضافه میکنیم که کمی به چپ تغییر کرده است؟ | چولگی مخلوط مناسب درست نیست؟ |
105980 | اگر من دو توزیع پیوسته $f(x)$ و $g(x)$ داشته باشم، چندین روش ریاضی برای ترکیب $f$ و $g$ برای بدست آوردن توزیع های جدید وجود دارد. کدام یک با کدام تفسیر آماری مطابقت دارد؟ به عنوان مثال، اگر $f$ و $g$ را در $fg$ ضرب کنم، آیا $fg$ معنای آماری دارد؟ در مورد $f/g$، $f \circ g$ و $f \star g$ (کانولوشن) چطور؟ همچنین، آیا می توانیم همین کار را با توزیع های گسسته انجام دهیم؟ | نحوه ترکیب توزیع ها |
105987 | به نظر می رسد که رویکردهای یادگیری تبعیض آمیز بسیار بیشتری نسبت به روش های مولد وجود دارد. آیا مدل های تبعیض آمیز بیشتر در ادبیات مطالعه شده اند تا مولد؟ با تشکر | آیا یادگیری تبعیض آمیز بیشتر از یادگیری مولد مورد مطالعه قرار گرفته است؟ |
112476 | از هر الگوریتم نمونه گیری عمومی، می توان یک الگوریتم بهینه سازی را استخراج کرد. در واقع، برای به حداکثر رساندن یک تابع دلخواه $f: \textbf{x} \rightarrow f(\textbf{x})$، کشیدن نمونهها از $g \sim e^{f/T}$ کافی است. برای $T$ به اندازه کافی کوچک، این نمونه ها نزدیک به حداکثر جهانی (یا حداکثر محلی در عمل) تابع $f$ خواهند بود. منظور من از «نمونهگیری» کشیدن یک نمونه شبه تصادفی از توزیعی است که تابع log-relihood شناخته شده تا یک ثابت داده شده است. برای مثال، نمونهبرداری MCMC، نمونهبرداری گیبس، نمونهبرداری پرتو، و غیره. منظور من از بهینهسازی تلاش برای یافتن پارامترهایی است که مقدار یک تابع معین را به حداکثر میرسانند. * * * آیا برعکس آن ممکن است؟ با توجه به یک اکتشافی برای یافتن حداکثر یک تابع یا یک عبارت ترکیبی، آیا میتوانیم یک روش نمونهگیری کارآمد استخراج کنیم؟ برای مثال به نظر می رسد HMC از اطلاعات گرادیان استفاده می کند. آیا میتوانیم یک روش نمونهبرداری بسازیم که از یک تقریب BFGS مانند هسین استفاده کند؟ (ویرایش: ظاهرا بله: http://papers.nips.cc/paper/4464-quasi-newton-methods-for-markov-chain-monte-carlo.pdf) ما می توانیم از MCTS در مسائل ترکیبی استفاده کنیم، آیا می توانیم آن را ترجمه کنیم به یک روش نمونه گیری؟ زمینه: یک مشکل در نمونه گیری اغلب این است که بیشتر جرم توزیع احتمال در یک منطقه بسیار کوچک قرار دارد. تکنیک های جالبی برای یافتن چنین مناطقی وجود دارد، اما آنها مستقیماً به روش های نمونه گیری بی طرفانه ترجمه نمی شوند. | آیا تکنیک های بهینه سازی به تکنیک های نمونه گیری نگاشت می شوند؟ |
58777 | بنابراین، من یک سوال برای یک پیشنهاد دارم و تقریباً مطمئن هستم که پاسخ نادرستی از مرد آمار محلی ما دریافت می کنم. برای ثبت، این دادههای آرشیوی است، بنابراین من نمیتوانم موارد را تغییر دهم (که به خوبی انجام نشده است): یک مجموعه از موارد به بررسی مناسب بودن رفتار دو نوع متخصص (مثلاً پزشکان و پرستاران) است و ما داشتن شرکت کنندگان در ارزیابی مناسب بودن 6 رفتار مختلف. میخواهم پاسخهای شرکتکنندگان را در تمام ۶ رفتار و بهویژه، تفاوتهای بین اینکه چگونه شرکتکنندگان ممکن است احساس کنند رفتارهای خاص با برخی حرفهها سازگار است، مقایسه کنم... آیا ایدهای دارید که کدام روشها میتوانند در اینجا مفیدتر باشند؟ آقای آمار ما یک ANOVA با طراحی ترکیبی را پیشنهاد کرد، اما حدس میزنم در درک نحوه تنظیم آن کمی مشکل دارم. شاید بتوانم فقط از توضیح برای مدل طرح ترکیبی استفاده کنم... | کدام ANOVA مناسب تر است؟ |
66335 | من رگرسیون خطی چندگانه را در R با lm محاسبه میکنم (var ~ VAR1+VAR2+VAR3+VAR4) آیا میدانید چگونه تغییر مربع R را برای هر متغیر «VAR1»، «VAR2»، «VAR3» محاسبه کنید؟ متشکرم | رگرسیون خطی چندگانه تغییر مربع R |
50209 | من اطلاعاتی در مورد کاربرانی از مناطق مختلف دارم که از دایرکتوری های مختلف وب سایت بازدید می کنند. با جمعآوری آن دادهها، ماتریس فراوانی همزمان (برای مناطق و فهرستها) را دریافت میکنم. اکنون می خواهم دو حالت را تشخیص دهم: 1. کاربران به طور مستقل از مناطق خود از دایرکتوری ها بازدید می کنند. 2. بین مناطق و دایرکتوری ها یک نقشه دوطرفه وجود دارد و کاربر از یک منطقه فقط از یک دایرکتوری خاص بازدید می کند (مگر اینکه اشتباه کند) احتمال وجود دارد. تخمین فرضیه اول آسان به نظر می رسد، اما من در تخمین احتمال فرضیه دوم مشکل دارم. به عبارت دیگر، من میخواهم درجه قطر ماتریس همزمانی را که در آن برخی از سطرها و ستونها وجود ندارد (صفر)، بقیه ردیفها/ستونها درهم ریخته شده و نویز اضافه شده است را اندازهگیری کنم. احتمال فرضیه دوم را چگونه تخمین می زنید اگر فرض کنیم که مقداری خطای ثابت وجود دارد (احتمال رفتن بازدیدکننده از منطقه ای به دایرکتوری اشتباه)؟ | برآورد احتمال استقلال دو متغیر گسسته با استفاده از ماتریس شمارش همزمان |
24357 | آیا فرآیند ARMA گاوسی می تواند نوآوری های غیر گاوسی داشته باشد؟ (به عنوان مثال، آیا یک فرآیند ARMA وجود دارد که گوسی باشد، اما نوآوری های مربوطه گاوسی نیستند)؟ | فرآیند ARMA گاوسی با نوآوری های غیر گاوسی |
58772 | در آزمایش فرض رگرسیون موازی در رگرسیون لجستیک ترتیبی، چندین رویکرد وجود دارد. من هم از رویکرد گرافیکی (همانطور که در کتاب هارل توضیح داده شده است) و هم از رویکردی که با استفاده از بسته ترتیبی در R استفاده شده است، استفاده کردهام. با این حال میخواهم آزمون برانت (از Stata) را هم برای متغیرهای فردی و هم برای مدل کل من به اطراف نگاه کردم اما نمی توانم آن را در R پیاده سازی کنم. **آیا تست برانت در R پیاده سازی شده است؟** | آزمون برانت در R |
79180 | من با مجموعه داده ای کار می کنم که حاوی اطلاعاتی در مورد مصرف سیب است. مجموعه داده شامل مقدار سیب مصرف شده بر حسب گرم در روز است. مشکل این است که نقاط داده به 3 دسته تقسیم می شوند: \- یک عدد واقعی (مثلاً 54 گرم در روز، افراد با وزن مصرف آنها) \- یک عدد گسسته (تعداد سیب در روز) که به g/ تبدیل می شود. در روز با استفاده از وزن متوسط یک سیب (+/- 100 گرم) \- 0، افرادی که هیچ سیبی مصرف نمی کنند هیستوگرام داده ها به این صورت است:  هر گونه راهنمایی در مورد تبدیل این داده ها به چیزی قابل تجزیه و یا برازش یک توزیع بسیار قدردانی می شود. من می خواهم از این داده ها برای انجام یک تحلیل ریسک استفاده کنم. برای این کار باید توزیعی را به مقادیر برازش کنیم و سپس از این توزیع نمونه برداری کنیم. توزیعهای کلاسیک موجود در نرمافزاری که من استفاده میکنم (@Risk) به وضوح عملکرد وحشتناکی را ارائه میکند (که با معیارهای AIC/BIC اندازهگیری میشود) | برازش یک مجموعه داده گسسته شبه. |
79184 | من کارهای رگرسیون مختلفی را بر اساس مدلهایی به شکل $y=m(x)+\epsilon$ انجام میدهم که $y$ دادههای با ارزش برداری است، $m(x)$ خروجی یک مدل کامپیوتری و $\epsilon است. \sim N(0,V)$ یک عبارت خطای توزیع شده چند نرمال است. من فرض میکنم که خطاها همبستگی ندارند، بنابراین $V$ یک ماتریس مورب است که میتوان آن را es $V=\sigma^2 C$ نوشت. برای کار تخمین $x$، من فقط به واریانس های خطای نسبی $C$ (یا هر نسخه مقیاس شده) نیاز دارم. سپس تخمینی برای $\sigma^2$ برای بازیابی فواصل اطمینان پارامتر محاسبه میکنم. من اخیراً یک آزمایش کوچک در مورد ماتریس واریانس خطا $V$ انجام دادم. 1. من چیزی در مورد واریانس نسبی فرض می کنم، ماتریس $C$ را پر می کنم و بعد از رگرسیون 2 $\sigma^2$ را تخمین می زنم. من ماتریس $V$ را از نمونه کوچکی از اندازه گیری های چندگانه تخمین می زنم مشکلات من: پس از رگرسیون 2 تخمین $\sigma^2$ باید در حدود 1 باشد، اما بسیار بزرگتر است. آیا باید از این تخمین برای بازیابی فواصل اطمینان پارامتر استفاده کنم، یعنی از $V'=\sigma^2 V$ استفاده کنم (بازهها بزرگتر میشوند) یا فقط آن را به عنوان نشانهای برای «خوب بودن تناسب» در نظر بگیرم؟ احتمال 1. بزرگتر است (اگر از V$ تخمین زده شده استفاده کنم) از 2.، اگرچه 2. باید به حقیقت نزدیکتر باشد. چگونه با این موضوع برخورد کنیم؟ با احترام سباستین | برآورد واریانس باقیمانده در رگرسیون |
105985 | داده هایی که ما درون یابی می کنیم به طور یکنواخت در حال افزایش است (به عنوان مثال، قرائت کیلومتر شمار خودرو). ما دو نوع نقطه داریم که میخواهیم راهحل را درونیابی کنیم. سطح محلول باید از نقاط بحرانی عبور کند. راه حل لازم نیست از نقاط غیر بحرانی عبور کند، بلکه باید به حداقل رساندن فاصله با آنها باشد. تصویر پیوست را ببینید. از درک من، گزینههای رگرسیون محلی مانند LOESS میتوانند یک راهحل درونیابی هموار ایجاد کنند، اما نمیتوان آنها را مجبور به عبور از نقاط خاصی کرد. یک اسپلاین درون یابی مجبور است از همه نقاط عبور کند، اما سعی نمی کند پارامترهای گره خود را برای کاهش فاصله تا نقاط غیر بحرانی بهینه کند. آیا هیچ بسته ای در R به نوع راه حل مورد نظر دست می یابد؟ >  متشکرم. | نحوه درون یابی (اسپلاین، LOESS و غیره) با ترکیبی از نقاط بحرانی و غیر بحرانی |
63078 | در این مقاله، نویسندگان یک الگوریتم امتیازدهی برای مکانهای اتصال فاکتور رونویسی بالقوه، بر اساس ماتریس احتمال خاص موقعیت (PSPM) برای آن فاکتور رونویسی خاص ارائه میکنند. محل اتصال 20 نوکلئوتید طول دارد، بنابراین ایده این است که یک توالی DNA طولانیتر را در 20 تکه نوکلئوتیدی اسکن کنیم، یعنی محل امتیاز 1 (نوکلئوتیدها 1-20)، سپس مکان 2 (نوکلئوتیدهای 2-21)، و غیره. هر سایت توسط: $$ \sum_{i=1}^{20} \ln داده می شود \left[\frac{f_{i,b}}{g} + 0.01\right] $$ که $i$ نشاندهنده موقعیت در دنباله الزامآوری اجماع است و $f_{i,b}$ احتمال نوکلئوتید که اتفاقاً در توالی DNA طولانی واقع در موقعیت $i$ در محل اتصال قرار دارد، و $g$ فرکانس پسزمینه آن نوکلئوتید است (نویسندگان فرض میکنند که چنین است. 0.25، یعنی احتمال مساوی هر نوکلئوتید). **برای نشان دادن:** بگویید PSPM شما با ردیف 1 شروع می شود که $[0.2 $0.3$$0.5$$0]$ است. این بدان معناست که در موقعیت 1 در محل اتصال بالقوه (ردیف 1)، احتمال 20٪ داشتن A (آدنین)، 30٪ احتمال داشتن C (سیتوزین)، 50٪ احتمال داشتن G وجود دارد. گوانین) و احتمال 0% داشتن T (تیمین). اگر اتفاقاً دنبالهای را بهثمر میرسانید که دارای C در موقعیت اول است، اولین جمله جمع، $ \ln \left(\frac{f_{1,b}}{g} + 0.01\right) $، $ \ln \left(\frac{0.3}{g} + 0.01\right) $ خواهد بود. این روش به هیچ وجه برای طول دنباله ای که اسکن می کنید محاسبه نمی شود. بنابراین، توالیهای طولانیتر، سایتهایی با امتیاز بالاتر خواهند داشت، و من میخواهم بتوانم سایتها را بین دنبالههایی با طولهای مختلف مقایسه کنم. چگونه می توانم این الگوریتم را برای طول دنباله تصحیح کنم؟ | تصحیح یک الگوریتم امتیازدهی DNA برای طول توالی اسکن شده (محل اتصال اجماع) |
113975 | من از R استفاده می کنم. پس از دریافت خطایی مبنی بر ارائه مقادیر شروع برای یک glm (خانواده پواسون)، نگاهی به داده های خود انداختم و متوجه شدم که مقدار زیادی صفر دارم. بنابراین، من zeroinfl را از pscl امتحان کردم. من خطای تکین محاسباتی را دریافت کردم، بنابراین dist=negbin را امتحان کردم. همان خطا. من به داده های خود از طریق (bytype، جدول (رویدادها، نوع)) و with (bytype، جدول (رویدادها، نسل)) نگاه کردم. به نظر می رسد اطلاعات من خراب است. اما من نمی دانم چگونه با آن برخورد کنم. فکر میکنم باید بخشی از آن را حذف کنم، اما تلاشهای آسان (گروهی با بیشترین صفرها) جواب نداد. اول، مدل اصلی من: رویدادها ~ نسل*نوع + افست(log(جمعیت)) دوم، خلاصه داده ها: بر اساس نسل: رویدادها خانواده کشی. داد و بیداد مزاحمان خرابکاری مدرسه وسایل نقلیه محل کار 0 49 88 59 103 91 111 94 1 40 101 11 1 17 2 18 4 11 0 10 1 2 3 4 0 5 0 1 0 0 4 2 0 1 0 0 0 0 بر اساس نوع رویداد: رویدادها Missionary Lost GI Silent Boomers X 0 139 103 110 103 106 34 1 2414217 13 17 6 3 1 1 0 1 3 4 4 0 0 0 1 1 1 به دلیل محدودیت های طول پست، کل داده های من جا نمی گیرند. امیدوارم این کافی باشد. نمی دانم در این مورد مهم است یا نه. | مشکل مدل باد شده صفر: سیستم از نظر محاسباتی منفرد است |
50207 | برای تمام عمر من نمی توانم راهی برای حل این سوال پیدا کنم. هر گونه کمکی قدردانی خواهد شد! از تجربه گذشته، یک استاد میداند که نمره آزمون دانشآموزانی که در امتحان نهایی شرکت میکنند، یک متغیر تصادفی با میانگین 65 است. علاوه بر این، فرض کنید استاد میداند که واریانس نمره آزمون یک دانشآموز برابر با 30 است. چند دانشآموز باید این کار را انجام دهند. امتحان را انجام دهید تا مطمئن شوید، با احتمال حداقل 0.8، میانگین کلاس در 5 از 65 باشد؟ | احتمال میانگین داده شده و واریانس |
58778 | من یک مدل فیزیکی غیرخطی دارم که سعی می کنم عدم قطعیت پارامترها را با استفاده از مونت کارلو تعیین کنم. بهجای توصیف جزئیات ناچیز، از یک سری شکلها استفاده میکنم:    اولین تصویر داده های تجربی است. دومی بهترین شبیه سازی تناسب است. از نظر چشم، به نظر می رسد که آنها کاملاً مطابقت دارند. اما این تصور با یک نگاه به باقیمانده ها (نشان داده شده در تصویر سوم) از بین می رود. آنها به وضوح همبستگی دارند، و بزرگی آنها از نویز سفید واقعی که وجود دارد، کوتوله می کند. این منجر به $\chi^2_\text{red}$، با 60 درجه آزادی (64 bin، 3 پارامتر مدل)، 86.5 میشود. به نظر می رسد مسئله در اینجا این است که داده های تجربی با سیگنال بالایی به نویز به دست آمده اند که ویژگی های مدل فیزیکی کامل که معمولاً در نسخه سه پارامتری ساده شده مدلی که من استفاده می کنم نادیده گرفته می شوند، اکنون سوگیری سیستماتیک را معرفی می کنند. علاوه بر این، عدم قطعیت هایی که توسط روال مونت کارلو تعیین شده اند، به طرز خنده داری جزئی هستند. به عبارت دیگر، * S/N بالا --> عدم قطعیت های پایین گزارش شده است. CI در مورد پارامترهای بهترین تناسب با مقادیر واقعی آنها همپوشانی ندارند. * S/N پایین --> عدم قطعیت های بالا گزارش شده است. CI با مقدار واقعی همپوشانی دارد، حتی اگر بهترین مقدار مناسب گزارش شده در واقع از مقدار واقعی دورتر باشد تا در مورد S/N بالا! از قضا، سناریوی دوم ارجح به نظر می رسد! در نگاهی به گذشته، همه اینها باید آشکار می شد: باقیمانده های مرتبط نشان دهنده شکست مدل هستند. این مانند تلاش برای گزارش عدم قطعیت در شیب خطی است که از طریق داده ها مطابق با قانون قدرت هستید! با این وجود، مدل فعلی من همه چیزهای مهم تصویر بزرگ را به تصویر می کشد. بنابراین آیا هنوز امیدی در تعیین عدم قطعیت های واقعی برای پارامترهای من وجود دارد؟ من به اضافه کردن نویز سفید به طیف فکر میکنم و تناسب را دوباره انجام میدهم تا بهترین تناسب یک $\chi^2_\text{red}$ در حدود 1 یا 2 ایجاد کند، اما بهنظر میرسد که بسیار انحرافی است، با وجود عدم دقت. . | آیا می توان عدم قطعیت پارامترها را در صورت همبستگی باقیمانده ها نجات داد؟ |
79188 | من یک آماردان نیستم، بنابراین ممنون می شوم که با ساده ترین کلمات ممکن پاسخ بدهم. من خواندهام که به نوعی، وقتی میانگین مربعات خطا را به حداقل میرسانیم، احتمال را به حداکثر میرسانیم. اگر نویز در سیستم را به عنوان نویز گاوسی افزودنی خالص در نظر بگیریم، به نظر میرسد که این امر منطقیتر خواهد بود (یعنی $y = f + ae$، که $a$ انحراف استاندارد نویز است، $e\sim N(0,1 )$ و $f$ خروجی پیش بینی شده است). با این حال، وقتی نویز در سیستم با خروجی پیشبینیشده متناسب است (یعنی $y = f + bfe$) من فکر میکردم که خطای نسبی $RE= \mid\frac{y_{obs}-y_{pred}}{ y_{obs}}\mid$ منطقی تر است. بنابراین، سؤالات من این است: 1. آیا درست است که بگوییم با به حداقل رساندن خطای نسبی، احتمال را در سیستمی با نویز متناسب به حداکثر می رسانیم؟ 2. اگر من ترکیبی از نویز افزودنی و تناسبی داشته باشم ($y = f + (a+bf)e$) آیا باز هم درست است که بگویم به حداقل رساندن خطای نسبی احتمال را به حداکثر می رساند؟ اگر خطای نسبی نباشد، تابع هزینه در این مورد چه خواهد بود؟ | به حداقل رساندن خطای نسبی (یا میانگین مربعات خطا) و به حداکثر رساندن احتمال |
77320 | _مجموعه داده های مکرر 3 موردی قبل از اجرای الگوریتم:_ {1، 2، 3}، {1، 2، 4}، {1، 2، 5}، {1، 2، 6}، {1، 3، 4 }، {1، 3، 5}، {1، 3، 6}، {2، 3، 4}، {2، 3، 6}، {2، 3، 5}، {3، 4، 5}، {3، 4،6}، {4، 5، 6}. با فرض اینکه تنها شش مورد در مجموعه داده وجود دارد. **لیست تمام مجموعههای 4 موردی کاندید بهدستآمده با روش تولید نامزد در الگوریتم Apriori چیست؟ پس از استفاده از Apriori دریافت می کنم: $${\\{1,2}\\}, {\\{1,3}\\}, {\\{1,2,5}\\}, {\\{ 2،3،6}\\}$$ | هرس نامزد Apriori |
79187 | من با یک سری زمانی چند متغیره کار می کنم و از مدل VAR (خودرگرسیون برداری) برای پیش بینی استفاده می کنم. سوال من این است که ایستایی در یک چارچوب چند متغیره واقعاً به چه معناست. 1) من می دانم که اگر در تنظیم VAR، اگر تعیین کننده معکوس ماتریس |I-A| دارای مقادیر ویژه کمتر از 1 در مدول باشد، سیستم کلی VAR پایدار/ایستا است، اما آیا این بدان معناست که می توانم بدون ایجاد مزاحمت در مورد تفاوت غیر ساکن، ادامه دهم. مولفه موجود در سری زمانی چند متغیره 2) اگر یکی از سری های مؤلفه ایستا نباشد و بقیه ساکن باشند چگونه باید اقدام کرد؟ 3) اگر بیش از یک مولفه سری زمانی ثابت نیستند اما هم ادغام نشده اند چگونه باید اقدام کرد؟ مهمتر از همه، روشهای دیگری برای مقابله با سریهای زمانی چند متغیره وجود دارد. من همچنین در حال بررسی روشهای یادگیری ماشین هستم. | ایستایی در سری های زمانی چند متغیره |
24353 | دو آزمایش را تصور کنید: 1) گروهی متشکل از $n=100$ افراد تحت شرایط $A$ قرار دارند و آزمایشاتی را انجام می دهند. در بین این افراد، $y=5$ افراد در آزمون موفق می شوند. 2) گروهی از افراد $m=1000$ تحت شرایط $\Delta$ قرار دارند و آزمایشی را با دو مسئله ممکن انجام می دهند: اولی ممکن این است که یک فرد تحت شرایط فوق $A$ قرار گیرد، دومین مشکل احتمالی دیگری است. شرط $B$ (بدیهی است $B = \neg A$). در بین این افراد، $x=2$ افراد تحت شرایط $A$ قرار می گیرند. اکنون فردی را تحت شرایط $\Delta$ در نظر بگیرید که آزمایش 2) را انجام می دهد و سپس آزمایش 1) را در صورتی که تحت شرایط $A$ قرار می گیرد. ما به احتمال موفقیت این فرد در آزمون دوم علاقه مندیم. البته این احتمال به طور طبیعی با $x/m \times y/n$ تخمین زده میشود. اما چگونه می توان عدم قطعیت در مورد این برآورد را ارزیابی کرد؟ من یک راه حل بیزی ارزشمند در ذهن دارم: استفاده از یک توزیع قبلی (احتمالاً غیر اطلاعاتی) در اولین احتمال موفقیت $\theta_1$ و دیگری (احتمالاً غیر اطلاعاتی) توزیع قبلی روی احتمال دوم موفقیت $\theta_2$ سپس $(x، m)$ توزیع پسینی را برای $\theta_1$ و $(y,n)$ توزیع پسینی را در $\theta_2$، و در نهایت یک توزیع پسین بر اساس احتمال بهره $\theta_1\theta_2$ دریافت میکنیم (با فرض توزیعهای پسین مستقل $\theta_1$ و $\theta_2$). آیا راه حل دیگری را می دانید/تصور می کنید؟ ویرایش: شاید راهحل فراوانگرای زیر ارزشمند باشد: تخمین واریانس مجانبی $\hat\theta_1$ و واریانس مجانبی $\hat\theta_2$ سپس یک واریانس مجانبی $\hat\theta_1 \hat\theta_2$ بدست میآوریم. ضرب دو واریانس اما، در واقع، مشکل واقعی من کمی پیچیده تر است: آزمایش سومی وجود دارد و من علاقه مند به تخمین احتمال دو موضوع ممکن در آخرین مرحله هستم. EDIT2: هنگام نوشتن «ویرایش» قبلی خسته بودم. بهطور صحیحتر، من روش دلتا را برای استخراج رفتار مجانبی $\hat\theta_1 \hat\theta_2 - \theta_1\theta_2$ و سپس یک فاصله اطمینان مجانبی در نظر داشتم. | دو آزمایش دو جمله ای متوالی توسط دو گروه مختلف از افراد انجام شد |
77322 | توابعی در R وجود دارد (به عنوان مثال، PP.test و adf.test) که دارای فرضیه صفر واحد ریشه در فرآیند هستند ($H_0$: یک ریشه واحد وجود دارد). آیا این فرضیه صفر به این معنی است که «فرایند تفاوت ثابت است»؟ اگر بله، ترتیب تفاوت مورد نیاز برای ثابت کردن آن چیست؟ خوب، برای یک فرآیند $AR(1)$، بله، یک ریشه واحد به این معنی است که فرآیند درجه اول ثابت است. برای یک فرآیند $AR(p)$ چطور؟ | معنای واقعی فرضیه صفر در آزمون ریشه واحد برای یک فرآیند AR(p) چیست؟ |
58775 | برای یک سری مشاهدات $(\vec{x}_i، y_i)، i = 1 \cdots N$ از مدل خطی $Y = \beta^T X + \epsilon$، برآورد حداقل مربعات $\beta$ است. : $\hat{\beta} = (\mathbf{X}^T \mathbf{X})^{-1}(\mathbf{X}^T\mathbf{Y})$. مقادیر متناسب را می توان به صورت $\hat{y}_i = \hat{\beta}^Tx_i$ بدست آورد. با این حال من دوست دارم $\hat{y}_i$ مستقل از $i$th مشاهده باشد. یعنی من می خواهم $\hat{y}_i = \hat{\beta}_{(-i)}^T x_i$، جایی که $\hat{\beta}_{(-i)}$ محاسبه می شود فقط با استفاده از مشاهدات $1,2 \cdots i-1, i+1 \cdots N-1, N$. انجام N فیت جداگانه از نظر محاسباتی غیرممکن است، و من گمان میکنم میانبری وجود دارد: $\hat{\beta}$ و $\hat{\beta}_{(-i)}$ بسیار شبیه به هم هستند. هر ایده ای؟ و آیا کسی راهی در R برای به دست آوردن چنین $\hat{y}$های نگهدارنده ای می شناسد؟ | رگرسیون خطی نگه دارید: میانبر؟ |
66330 | الگوریتم های استنتاج احتمالی کمتر شناخته شده اما قدرتمند کدامند؟ بیشتر مراجع در مورد مدلهای گرافیکی احتمالی، روشهای استنتاج رایج مانند حذف متغیر و درخت اتصال را توصیف میکنند. اما من فکر می کنم که تعداد زیادی الگوریتم استنتاج احتمالی مهم دیگر وجود دارد. هر چند وقت یکبار به مقاله ای برخورد می کنم که روشی را توصیف می کند که قبلاً در مورد آن چیزی نشنیده بودم، برای مثال الگوریتم مرزی فاکتوری برای استنتاج تقریبی در DBN ها را در نظر بگیرید. P.S. لطفاً سعی کنید در صورت امکان، یک الگوریتم در هر پاسخ، با توضیح مختصر یا نکاتی به مقالات مرتبط اضافه کنید. | الگوریتم های استنتاج احتمالی کمتر شناخته شده اما قدرتمند |
79182 | چگونه می توانم ضریب رگرسیون خطرات را در متاآنالیز ترکیب کنم؟ من می خواهم یک رگرسیون کامل از ترکیب رگرسیون خطر با متغیرهای کمکی مختلف داشته باشم. منظورم این است که برخی از آنها در مقایسه با بقیه متغیرهای کمکی اضافی دارند. | چگونه ضرایب رگرسیون کامل را ترکیب کنیم؟ |
77323 | من در حال حاضر در حال انجام آزمایشی برای بخشی از دروس خود به عنوان دانشجوی کارشناسی روانشناسی هستم. من آزمایشی درباره طرحواره های طبیعت گرایانه موجود در درون فرد طراحی کرده ام. من از روابط دوگانه اساسی مانند دانش آموز/معلم و فرزند/والد به عنوان نمونه هایی از طرحواره های طبیعی استفاده می کنم. شرکت کنندگان در این آزمایش ابتدا یک پرسشنامه جمعیت شناختی را پر می کنند که در آن اطلاعاتی در مورد وضعیت فعلی به عنوان والدین/فرزند یا دانش آموز/معلم جمع آوری می شود. سپس شرکتکنندگان یک قطعه کوتاه را میخوانند و بعداً از آنها خواسته میشود تا آنجایی که میتوانند از آن قطعه به خاطر بیاورند. عناصر متن بر اساس طرحواره ای که روی آنها اعمال می شود کدگذاری شده اند. هیچ دستکاری مستقیمی وجود ندارد، بنابراین مطالعه از نظر فنی نیمه تجربی در نظر گرفته می شود. متغیر وابسته ای که اندازه گیری می شود تعداد اطلاعات مربوط به طرحواره و اطلاعات نامرتبط فراخوانی شده است. فرضیه این است که طرح واره طبیعی موجود در فرد باعث می شود که شرکت کننده مفاهیم بیشتری را از متن کد شده برای آن طرحواره به یاد بیاورد. به عنوان مثال، شرکتکنندهای که خود را به عنوان دانشآموز در پرسشنامه جمعیتشناختی معرفی میکند، اطلاعات مربوط به یک دانشآموز را بیشتر از هر اطلاعات طرحوارهای نامرتبط به خاطر میآورد. سوال من در مورد نوع تحلیلی است که پس از جمع آوری نتایج خود باید از آن استفاده کنم. من قصد دارم از برنامه آماری SPSS استفاده کنم و فرکانس های فراخوانی مربوط به طرحواره و فراخوانی نامرتبط طرحواره را برای هر شرکت کننده وارد کنم. آیا از یک طرح متغیر درون موضوعی استفاده کنم؟ چه نوع تحلیل هایی را باید تکمیل کنم؟ همه کمک / مشاوره قدردانی می شود. | طراحی تحقیقات تجربی در مقطع کارشناسی |
79189 | من در حال حاضر در حال ارزیابی هستم که آیا می توان تغییر مکان را در مقایسه های ناپارامتریک فرض کرد یا نه تا بتوان رد فرضیه صفر را با عباراتی غیر از شاخص احتمالی فرموله کرد. برای انجام این کار، دادههایم را در مرکز قرار میدهم و یک تست دو نمونهای کولموگروف-اسمیرنوف را روی هر جفت اجرا میکنم. داده ها در برخی موارد نامتعادل هستند و به طور عادی توزیع نمی شوند. در حال حاضر من از این تابع (در R) استفاده می کنم: pairwise.ks.test<-function (x, g, p.adjust.method = p.adjust.methods, alternative=two.sided,centered=T,.. .) { p.adjust.method <- match.arg(p.adjust.method) DNAME <- paste(deparse(substitute(x))، and, deparse(substitute(g))) g <- factor(g) METHOD <- if (مرکز) تست KS به صورت زوجی روی داده های متمرکز other Paiwise KS test compare.levels <- function(i, j) { xi < - x[as.integer(g) == i] xj <- x[as.integer(g) == j] ks.test(xi, xj, alternative=alternative, ...)$p.value } compare.levels.centered<-function(i,j) { xi <- x[as.integer(g) == i]-mean(x[as.integer (g) == i],na.rm=T) xj <- x[as.integer(g) == j]-mean(x[as.integer(g) == j],na.rm=T) ks.test(xi, xj, alternative=alternative, ...)$p.value } if(centered) PVAL <- pairwise.table(compare.levels.centered, level(g )، p.adjust.method) other PVAL <- pairwise.table(compare.levels, level(g)، p.adjust.method) و <- list(method = METHOD, data.name = DNAME, p.value = PVAL, p.adjust.method = p.adjust.method) class(ans) <- pairwise.htest ans } و در حال حاضر آن را اعمال می کنم در لیست مجموعه داده های من بدون اصلاح p-value: lapply(datalist,function(x)pairwise.ks.test(x$value,x$trt,p.adjust.method=none,alternative=two.sided,centered=T,exact=F)) من مجموعه دارای پیوندهایی است و بنابراین نمی توان یک مقدار p دقیق را محاسبه کرد (از این رو exact = F). از آنجایی که من فقط میخواهم یک تغییر مکان احتمالی را برای هر مقایسه زوجی ارزیابی کنم تا بتوانم رد H_0$ را از نظر میانهها یا میانگینها در آزمونهای مجموع رتبهبندی زوجی Wilcoxon تصحیح شده با Holm فرموله کنم، آیا باید یک (هولم؟) را نیز اعمال کنم. تصحیح p-value برای ارزیابی جابجایی های مکان متعدد؟ | آیا یک تصحیح مقدار p برای ارزیابی جابجاییهای مکان زوجی روی دادههای متمرکز ضروری است؟ |
58771 | من مقالاتی را خواندم که تئوری مجموعه های خشن نیز به عنوان الگوریتم داده کاوی در نظر گرفته می شود. با این حال، من تا کنون هیچ نمونه ای پیدا نکرده ام که این نظریه ممکن است در حل مسائل داده کاوی مفید باشد. من همچنین تعجب می کنم که هیچ بسته R برای دستکاری مجموعه های خشن وجود ندارد. ممکن است چند مثال یا موقعیتی به من بدهید که مجموعه های خشن مناسب ترین تکنیک برای تحلیل هستند؟ پیشاپیش از شما متشکرم. | چگونه می توان مجموعه های خشن را در داده کاوی اعمال کرد؟ |
77324 | من داده هایی دارم که می خواهم توزیع حاشیه ای آنها را تخمین بزنم. من هیچ ایده واقعی ندارم که چه توزیع پارامتری مناسب است، بنابراین برنامه ریزی برای برازش چگالی ناپارامتریک (احتمالا هسته) بر روی داده ها بود. با این حال، دو عارضه وجود دارد 1) داده ها آستانه سختی در 0 2 دارند) داده ها عمدتاً در اطراف صفر جمع شده اند - احتمالاً منصفانه است که بگوییم ترکیبی از دو توزیع است که یکی تقریباً یک دلتا در 0 است و دیگری یک توزیع کاملاً مثبت با دم بلند است. من روشهایی را برای مقابله با 1 میشناسم، اما روشهای سادهای که من استفاده کردهام (هستههای بازتابی) به نتایج رضایتبخشی نزدیک به صفر منجر میشود. من واقعاً نمی دانم در مورد 2 چه کار کنم). وضعیت هنر برای این نوع مشکلات چگونه است؟ شاید یک بسته R که چیزی را اجرا می کند که بتوانم آن را امتحان کنم؟ _خوشحالم که مثالی از داده ها می زنم، اما مطمئن نیستم بهترین راه برای این کار چیست. به من اطلاع دهید و میتوانم سؤال را ویرایش کنم._ EDIT: من ایده logspline را امتحان کردم - با و بدون حذف صفرها (در واقع همه مقادیر بسیار نزدیک به صفر، <0.05) را حذف کردم. برای علاقه، نتیجه بدون حذف صفرها این است:  و با حذف صفرها:  به نظر می رسد که با حذف صفرها، توزیع نمایی ممکن است به خوبی مناسب باشد. | وضعیت هنر: تخمین چگالی غیر پارامتری با مرز و داده های نزدیک به صفر |
92221 | در یک تحلیل مدل ترکیبی (lme4 + lmerTest برای R)، میخواهم اثر 3 پیشبینیکننده را تحلیل کنم، مثلاً «A»، «B» و «C». از آنجایی که یک مدل ترکیبی است، دو اثر تصادفی «Ran1» و «Ran2» وجود دارد. من ابتدا یک مدل رهگیری تصادفی با «Ran1» و «Ran2» ساختم، اما بدون شرایط ثابت: mod.0 <- lmer (نتیجه ~ 1 + (1|Ran1) + (1|Ran2)، داده = mydata) نتیجه (قسمت ثابت) موارد زیر است: اثرات ثابت: برآورد Std. خطای df t مقدار Pr(>|t|) (Intercept) 2.92381 0.07787 35.28000 37.55 <2e-16 *** من یک مدل جلوه ترکیبی تصادفی ساختم تا «Ran1» و «Ran2» را در نظر بگیرم: mod.1 <- lmer (نتیجه ~ A + B + C + (1|Ran1) + (1|Ran2)، داده = mydata) نتیجه (قسمت ثابت) به شرح زیر است: اثرات ثابت: برآورد Std. خطای df t مقدار Pr(>|t|) (تقاطع) 3.255e+00 8.476e-02 5.000e+01 38.400 < 2e-16 *** A -1.482e-01 2.639e-02 5.651e-04 -651e-04 1.95e-08 *** ب 3.495e-01 2.462e-02 5.971e+04 14.195 < 2e-16 *** C -2.083e-01 1.873e-02 3.942e+04 -11.124 < 2e-16 *** برای محاسبه $ با روش زیر R^2$ برای مدل ها: r2.mer <- function(m) {lmfit <- lm(model.response(model.frame(m)) ~ fitted(m)) summary(lmfit)$r.squared} `mod.0` دارای $R^2=$ 0.6187513 و «mod.1» 0.6251295 $R^2=$ دارد. می بینیم که با اضافه کردن شرایط ثابت، مدل $R^2$ تغییر زیادی نمی کند. من همچنین از یک روش محاسبه دقیق $R^2$ برای مقایسه این دو مدل و برای مقایسه $R^2$ حاشیه ای و شرطی استفاده می کنم (https://github.com/jslefche/rsquared.glmer). با اجرای دستور زیر: rsquared.glmm(list(mod.0, mod.1,)) نتیجه به شرح زیر است: Class Family Link Marginal Conditional AIC 1 merModLmerTest هویت گاوسی 0.00000000 0.5814522 300654.6 Lmersian هویت 2est ModLmer 0.00555211 0.5691487 129177.1 نتیجه مطابق با قبلی است، یعنی برای mod.1، واریانس ها در شرایط ثابت فقط 0.00555 از کل واریانس را تشکیل می دهند (R^2 $ حاشیه) $. همانطور که در ابتدا گفتم، من علاقه مندم که اثر A، B، C را تجزیه و تحلیل کنم. همانطور که می بینید، اثرات قابل توجه هستند، اگرچه اندازه اثر (مقادیر بتا) به دلیل تعداد زیاد مشاهدات کوچک است. در این مورد، آیا منطقی است که گزارش کنیم که «A» و «C» دارای اثرات منفی هستند (بتا = 0.14- و 0.21-)، B اثر مثبت (بتا = 0.345)، حتی مقادیر $R^2$ از این شرایط ثابت واقعا کوچک هستند؟ آیا تفسیر بهتری از نتایج دارید؟ | آیا ارزش گزارش کردن $R^2$ با جلوه ثابت کوچک ($R^2$ حاشیه)، مدل بزرگ $R^2$ ($R^2$ مشروط) را دارد؟ |
77328 | فرض کنید من یک فرآیند پواسون را با نرخ $\boldsymbol{\lambda}$ مشاهده میکنم. من می خواهم $\boldsymbol{\lambda}$ را به این صورت مدل کنم: $\boldsymbol{\lambda} = \boldsymbol{\pi}_1\boldsymbol{\lambda}_1 + \boldsymbol{\pi}_2\boldsymbol{\lambda }_2$ که $\boldsymbol{\pi}_k = \text{exp}(\boldsymbol{1}\beta_{1k} + \boldsymbol{a}_1\beta_{2k})$ برای $k=1,2$ $\boldsymbol{\lambda}_k = \text{ exp}(\boldsymbol{1}\gamma_{1k} + \boldsymbol{b}_1\gamma_{2k})$ برای $k=1,2$ و $\boldsymbol{a}_1 \ne \boldsymbol{b}_1$. **سوال من این است:** چرا پارامترهای این مدل قابل شناسایی نیستند؟ من _شناسایی-مسئله- را از تخمین مسایل معادله همزمان می شناسم که به عنوان مثال، هر معادله حاوی تمام اطلاعات قابل دستیابی است. برای بیان مشکل باید معادله $\boldsymbol{\lambda}$ خود را بازنویسی کنم تا بتوانم نشان دهم که پارامترهای من در پارامتر دیگری جمع میشوند، درست است؟ مانند: $\boldsymbol{\lambda} = \text{exp}(\boldsymbol{1}\beta_{11} + \boldsymbol{a}_1\beta_{21})\text{exp}(\boldsymbol{1} \gamma_{11} + \boldsymbol{b}_1\gamma_{21}) + \text{exp}(\boldsymbol{1}\beta_{12} + \boldsymbol{a}_1\beta_{22})\text{exp}(\boldsymbol{1}\gamma_{12} + \boldsymbol{b }_1\gamma_{22})$$\boldsymbol{\lambda} = \text{exp}(\boldsymbol{1}\underbrace{(\beta_{11} + \gamma_{11})}_{\theta_{11}} + \boldsymbol{a}_1\beta_{21} + \ علامت پررنگ{b}_1\gamma_{21}) + \text{exp}(\boldsymbol{1}\underbrace{(\beta_{12} + \gamma_{12})}_{\theta_{12}} + \boldsymbol{a}_1\beta_{22} + \ علامت پررنگ{b}_1\gamma_{22})$\boldsymbol{\lambda} = \text{exp}(\boldsymbol{1}\theta_{11} + \boldsymbol{a}_1\beta_{21} + \boldsymbol{b}_1\gamma_{21}) + \text{exp}(\boldsymbol {1}\theta_{12} + \boldsymbol{a}_1\beta_{22} + \boldsymbol{b}_1\gamma_{22})$ بنابراین، برای شناسایی این پارامترها، در واقع باید $\beta_{1k}$ یا $\gamma_{1k}$ را اصلاح کنم؟ | سوال در مورد شناسایی برای این پارامترسازی |
72666 | من با متاآنالیز تازه کار هستم و نحوه درک اصطلاحات این است که در واقع دو روش برای انجام متاآنالیز وجود دارد. بیایید 5 مطالعه بالینی با اثرات ثابت را در نظر بگیریم. اثرات ثابت از نظر درمان پزشکی یکسان و همچنین جزئیات دموگرافیک شرکت کنندگان. یکی از راه های تجزیه و تحلیل این داده ها این است که همه 5 مطالعه را با هم جمع کنیم تا یک مطالعه بسیار بزرگ برای افزایش قدرت تشخیص اثر درمان پزشکی به دست آوریم. دیگری تلاش برای شناسایی اثر در هر تجزیه و تحلیل به طور جداگانه و سپس تعیین میانگین اثر در بین مطالعات است. همانطور که فهمیدم متاآنالیز، هر دو تکنیک معقولی به نظر می رسند. با این حال، آیا کسی می تواند به من نکات مثبت و منفی هر دو تکنیک را بگوید؟ چه زمانی باید از کدام روش استفاده کنم؟ من فرض میکنم نتایج به هر حال تقریباً مشابه هستند یا این تصور اشتباه است؟ | متا آنالیز: ادغام نمونه ها یا تعیین اندازه اثر متوسط |
72663 | من دو متغیر دارم و باید آزمایش کنم که آیا آنها رابطه خطی دارند تا بتوانم پاسخ را پیش بینی کنم. لطفا در مورد نحوه رسیدگی به این مشکل کمک کنید. این داده است: وظیفه نشان می دهد که بین آجرهای استفاده شده و زباله های تولید شده رابطه خطی وجود دارد. آزمایشی 1 2 3 4 5 6 7 8 شماره آجر (x) 1400 1800 2100 2400 2700 3000 3500 3800 اتلاف، % (y) 10.31 12.26 13.32 15.2015.20 15.26 19.04 | تست خطی بودن |
72669 | یک فرآیند اتورگرسیو مرتبه اول، $X_0،\dots،X_n$، از طریق توزیع های شرطی زیر ارائه می شود: $X_i | X_{i-1},\dots,X_0 \sim \mathcal{N}(\alpha X_{i-1},1)$, برای $i = 1,2,\dots,n$ و $X_0 \sim \mathcal{N}(0,1)$. من می دانم که تابع log-likelihood $\ell{(\alpha)}$ به این شکل است: $\ell(\alpha) = - \frac{1}{2} \sum (x_i - \alpha x_{i -1})^2 + c$. اما من نمی دانم چگونه این را نشان دهم. من برای $\hat{\alpha}_{ML}$ راه حل زیر را پیدا کردم: $\hat{\alpha}_{ML} = \frac{s}{t}, \mathrm{where} \; s = \sum x_1 x_{i-1} \mathrm{and} \; t = \sum (x_{i-1})^2$. آیا این درست است؟ سپس باید نشان دهم که این حداکثر جهانی است. اگر مشتق دوم را بگیرم یک ثابت میگیرم. آیا این نشانه این است که من حداکثر جهانی را دریافت کردم، زیرا اولین مشتق wrt خطی به $\alpha$ است؟ درسته؟ | فرآیند رگرسیون خودکار، برآوردگر حداکثر احتمال |
77325 | برای کاهش بار روی ماشین، میخواهم از روش نمونهبرداری کم استفاده کنم. در اینجا چند واقعیت در مورد داده های من وجود دارد: 1. داده های من حدود 20 میلیون یا حتی بیشتر است. 2. نرخ رویداد حدود 0.8٪ است. با استفاده از روش نمونه برداری کم، می خواهم نرخ غیر رویدادی را کاهش داده و آن را 70:30 یا 50:50 کنم. این به من کمک می کند تا بار روی دستگاه خود را کاهش دهم. من به برآورد دقیق متغیر وابسته نیاز دارم و فقط از نظر ترتیب آن لازم نیست. بنابراین، من قطعاً میخواهم احتمالات را دوباره کالیبره کنم. حالا دو سوال: 1. استفاده از رگرسیون لجستیک فرث (همراه با بیان وزن) در این مورد کمک می کند یا خیر؟ 2. آیا کم نمونه گیری به ساخت مدل بهتر از نظر ضرایب رگرسیون دقیق تر کمک می کند؟ من فکر می کنم که تمام چیزی که باید تغییر کند رهگیری است و بقیه باید همان باشند. | آیا نمونه برداری کم به ساخت مدل بهتر کمک می کند؟ |
34452 | من باید بتوانم به طور خودکار یک مجموعه داده را به دو خوشه تقسیم کنم. دلایل اکتشافی وجود دارد که انتظار می رود داده ها دارای دو خوشه باشند که اگر یکی داده ها را رسم کند، از نظر بصری واضح است و در مواردی که من آزمایش کرده ام، این مورد بررسی شده است. من با روش otsu برای تبدیل یک تصویر در مقیاس خاکستری به یک تصویر فقط سیاه و سفید آشنا هستم و به نظر می رسد یک روش ممکن باشد. دانش من در مورد آن از پردازش تصویر ناشی می شود، و من انتظار دارم روش های آماری استاندارد بیشتری وجود داشته باشد که مدت ها قبل از آن وجود داشته است، اما من در مورد آنها اطلاعاتی ندارم. چه جایگزین هایی وجود دارد، به ویژه که ممکن است عددی را ارائه دهد که به عنوان رتبه ای از «تقسیم بندی» این دو خوشه واجد شرایط باشد و همچنین می تواند برای تعیین مواردی که خوشه ها وجود ندارند استفاده شود. **توجه** پس از بررسی الگوریتم Jenks پیشنهاد شده در پاسخ، متوجه شدم که بسته **classInt** در R ظاهراً تعدادی از این الگوریتم ها را دارد. من یادداشتی از مستندات آن را برای گسترش پاسخ در زیر ارسال می کنم. من نمی دانم که اینها در عمل چقدر خوب عمل می کنند، من آنها را فقط به دلیل تنوع امکانات و به دلیل اینکه در R بودن آنها را برای خود آسان می کند پست می کنم. استایل **fixed** اجازه می دهد تا یک شی classIntervals با شکست های داده شده مشخص شود که در آرگومان fixedBreaks تنظیم شده است. طول fixedBreak ها باید n+1 باشد. از این سبک می توان برای درج مقادیر شکست گرد استفاده کرد. سبک **sd** بر اساس تقریباً متغیرهای مرکزی و مقیاسبندی شده، شکستها را انتخاب میکند و ممکن است تعدادی کلاس متفاوت از n داشته باشد. par = بازگشتی شامل مقادیر مرکز و مقیاس است. سبک **برابر** محدوده متغیر را به n قسمت تقسیم می کند. استایل **زیبا** تعدادی وقفه را انتخاب می کند که لزوماً با n برابر نیست، اما احتمالاً خوانا هستند. آرگومان های زیبا ممکن است از طریق ... منتقل شوند. آرگومان های چندک ممکن است از طریق ... منتقل شوند. سبک **kmeans** از kmeans برای ایجاد شکست استفاده می کند. ممکن است با استفاده از set.seed متصل شود. ویژگی pars شی kmeans تولید شده را برمی گرداند. اگر kmeans از کار بیفتد، یک بردار ورودی لرزان حاوی تکرارهای rtimes var امتحان میشود - با مقادیر کمی منحصر به فرد در var، این میتواند ضروری باشد. آرگومان های kmeans ممکن است از طریق ... منتقل شوند. سبک **hclust** از hclust برای تولید شکست ها با استفاده از خوشه بندی سلسله مراتبی استفاده می کند. صفت pars شی hclust تولید شده را برمی گرداند و می توان از آن برای یافتن وقفه های دیگر با استفاده از getHclustClassIntervals استفاده کرد. آرگومانهای hclust ممکن است از طریق ... منتقل شوند. سبک **bclust** از bclust برای تولید شکستها با استفاده از خوشهبندی کیسهای استفاده میکند. ممکن است با استفاده از set.seed متصل شود. صفت pars شی bclust تولید شده را برمی گرداند و می توان از آن برای یافتن وقفه های دیگر با استفاده از getBclustClassIntervals استفاده کرد. اگر bclust شکست بخورد، یک بردار ورودی لرزان حاوی تکرارهای rtimes var امتحان میشود - با مقادیر کمی منحصر به فرد در var، این میتواند ضروری باشد. آرگومان های bclust ممکن است از طریق ... منتقل شوند. سبک **fisher** از الگوریتم پیشنهاد شده توسط W. D. Fisher (1958) استفاده می کند و توسط Slocum و همکاران مورد بحث قرار گرفته است. (2005) به عنوان الگوریتم فیشر-جنکس. به لطف Hisaji Ono اینجا اضافه شد. سبک **jenks** از کد اصلی Jenks منتقل شده است و برای سازگاری با ArcView، ArcGIS و MapInfo بررسی شده است (با برخی تفاوتهای باقیمانده). به لطف Hisaji Ono در اینجا اضافه شد. توجه داشته باشید که حس بسته شدن فاصله از سبک های دیگر معکوس است، و در این پیاده سازی باید به سمت راست بسته شود - برای وضوح از cutlabels=TRUE downstream استفاده کنید. | جایگزینی برای Otsu برای تقسیم داده ها به دو گروه |
77499 | آیا می توانید به طور مستقیم توضیح دهید که تفاوت بین اجزای واقعی و خیالی فیلتر گابور چیست؟ با تشکر | تفاوت شهودی بین اجزای واقعی و خیالی فیلتر گابور؟ |
29158 | این به وضوح فقط یک موضوع تعریف یا قرارداد است و تقریباً هیچ اهمیت عملی ندارد. اگر $\alpha$ روی مقدار سنتی آن 0.05 تنظیم شود، آیا مقدار $p$ 0.05000000000000... از نظر آماری معنادار است یا خیر؟ آیا قاعده برای تعریف اهمیت آماری معمولاً به صورت $p < \alpha$ یا $p \leq \alpha$ در نظر گرفته میشود؟ | آیا وقتی $p < \alpha$ یا $p \leq \alpha$ فرضیه صفر را رد می کنید؟ |
34453 | من در حال مطالعه برخی از داده های تجزیه و تحلیل فرآیند برای برخی از آزمایش های تجزیه و تحلیل شکست هستم، و با تعریف زیر از احتمال تجمعی تخمینی مواجه شده ام: $$F(t) = \frac{i-3/8}{N+1 /4}، $$ که در آن $i$ رتبه مورد شکست (یعنی ترتیب شکست)، و $N$ تعداد کل نمونهها است. من در فهمیدن اینکه چه کسی/چه/چرا پشت این فرمول کمی مشکل داشتم. یک جستجوی اینترنتی مرا به این صفحه رساند، جایی که به نظر می رسد به عنوان موقعیت طرح سفید از آن یاد می شود. اما مرجعی ارائه نشده است. آیا این رابطه برای کسی آشنا است، و اگر چنین است، می توانید مرجع یا پیش زمینه ای در مورد این فرمول ارائه دهید. به طور خاص، چرا این تخمین خوبی از احتمال تجمعی است، و این نتایج چگونه ممکن است تفسیر شوند. | تخمین توزیع تجمعی مرتبشده: این تابع از کجا میآید؟ |
73131 | من فهرستی از ماتریس امتیاز شباهت m x n دارم، چیزی شبیه c1 c2 c3 c4 c5 d1 0.2159824 0.3528572 0.2390016 0.3673485 0.2849448 d2 0.2849464854949. 0.3829949 0.3511353 d3 0.3281100 0.3251407 0.4328260 0.2895179 0.2814589 این نمرات شباهت بین 0-1 قرار دارند. کاری که من در اینجا سعی می کنم انجام دهم این است که این امتیازات را در یک امتیاز واحد ترکیب کنم، همچنین بین 0-1. مسئله من در اینجا این است که نمی توانم رویکرد خوبی برای ترکیب این نمرات در این نمره واحد پیدا کنم. تا الان سعی کردم میانگین حداکثر را بگیرم. مقدار، محاسبه میانگین های سطر، ستون و استفاده از max.value از آنها. مشکل این نمرات این است که ماتریس هایی که من دارم در طول ردیف و ستون بسیار متفاوت هستند و من نمی توانم این تغییرات را با استفاده از میانگین حساب کنم زیرا در پایان روز باید این ماتریس ها را بر اساس این امتیاز شباهت مرتب کنم و n را انتخاب کنم. رتبهبندیهای برتر، و از بررسی دستی این مشاهدات، متوجه شدم که max.value در یک ماتریس، شباهت بین این مشاهدات یک امتیاز واحد مناسب نیست. آیا پیشنهادی برای رویکردی برای ترکیب این نمرات دارید؟ همچنین آیا آزمون های آماری وجود دارد که بتوان روی این امتیاز ترکیبی اعمال کرد؟ من روش نمونهگیری تصادفی را امتحان کردهام، اما مراحل محاسبه نمرات شباهت برای مشاهدات زمان زیادی طول میکشد و تکرار این مراحل تا 1000 بار یا بیشتر در حال حاضر امکانپذیر نیست. متشکرم. | ترکیب نمرات شباهت |
73139 | من مجموعه داده ای دارم که از حدود 36000 ویژگی و 550 نمونه تشکیل شده است، مجموعه داده از ارتباط متنی بین افراد در برخی اتاق های گفتگو ایجاد می شود. سوال این است که وقتی میخواهم این نمونهها را طبقهبندی کنم، یک طبقهبندی کننده ساده بیز همیشه از ماشین بردار پشتیبان، هم از نظر سرعت و هم از نظر دقت، بهتر عمل میکند. اما در ادبیات همیشه اشاره می شود که SVM در کارهای طبقه بندی متن کاوی بهتر است. لطفاً کسی می تواند توضیح دهد که در چه شرایطی Naive Bayes بهتر است و در چه شرایطی SVM؟ برای اطلاعات بیشتر در مورد این سوال: من از ابزار RapidMiner استفاده می کنم، از اعتبار سنجی متقاطع 10 برابری با نمونه گیری طبقه ای استفاده می کنم. برای Naive Bayes، اصلاح Laplacian اعمال می شود و برای SVM من از یک نقطه نقطه استفاده می کنم و سایر پارامترها همه در پیش فرض های خود هستند، اما وقتی پارامترها را تغییر می دهم و دوباره امتحان می کنم، همان نتیجه را دریافت می کنم. Naive Bayes همچنان از SVM بهتر عمل می کند. | چرا Naive Bayes از ماشینهای بردار پشتیبانی بهتر عمل میکند؟ |
34459 | من ندیدم که به صراحت به آن اشاره شده باشد، اگرچه فکر می کنم درست است. آیا فرض مبادله پذیری رایج ترین فرض در مورد نمونه ها در محیط بیزی نیست؟ من به مدلی به شکل $p(x_1,\ldots,x_n,\theta) = p(\theta) \prod_{i=1}^n p(x_i \mid \theta)$ فکر میکنم که در آن $p( \theta)$ مقدم است. با قضیه deFinetti، من فکر میکنم این به این معنی است که $x_i$ قابل مبادله است. داشتن یک پیشین به این روش در محیط بیزی بسیار رایج است. از این رو نتیجه گیری من. آیا استدلال من اشکالی دارد؟ | مدل های بیزی و قابلیت مبادله |
93765 | من سعی می کنم داده ها را در این پیام (دماهای روزانه) با استفاده از تکنیک Holt–Winters در R قرار دهم، اما نمی توانم مثال فصلی را در اینجا به کار ببرم. آیا با این داده ها این امکان وجود ندارد یا من کار اشتباهی انجام می دهم؟ داده ها هر 10 دقیقه یکبار نمونه برداری می شوند، بنابراین 144 امتیاز باید مربوط به یک روز باشد. کد من این است: > time<-scan(timeseries.dat) خواندن 2160 مورد: > timets<-ts(time,frequency=144) > hwOut<-HoltWinters(timets) پیام هشدار: در HoltWinters(timets) : بهینه سازی مشکلات: خطا: ABNORMAL_TERMINATION_IN_LNSRCH کد را در اینجا وارد کنید داده ها در زیر آمده است. با تشکر از هر کمکی که می توانید ارائه دهید. 17.17 16.49 15.81 15.47 15.36 15.29 15.22 15.15 15.15 15.15 15.15 15.65 16.23 16.59 15.59 15.59 15.05 15.05 14.95 14.89 14.83 14.85 15.62 15.63 14.95 14.87 14.84 14.85 15.39 15.36 14.74 14.71 14.82 14.95 14.95 14.82 14.95 15.01 15.08 15.15 15.3 15.37 15.36 15.41 15.58 15.87 15.87 15.91 16.08 16.49 16.85 17.01 16.01 16.6516.6516. 16.9 16.97 17.04 17.11 17.1 17.2 17.42 17.49 17.55 17.62 17.69 17.76 17.83 17.9 17.96 18.02 18.02 1814.181. 18.14 18.14 18.2 18.23 18.24 18.45 18.65 18.86 18.95 18.96 18.96 19.1 19.2 19.27 19.41 19.47 19.41 19.47 19.41 196.19. 19.65 19.72 19.78 19.78 19.78 19.78 19.73 19.62 19.47 19.49 19.35 19.06 18.94 18.7 18.34 18.24 18.24 18.241. 17.42 17.21 17.07 16.94 16.8 16.73 16.63 16.49 16.65 16.68 16.59 16.45 16.38 16.39 16.33 16.63 16.1811. 15.98 15.84 15.73 15.67 15.65 15.76 16.08 16.61 16.55 15.46 15.11 15.57 16.59 16.7 16.66 16.08 16.08 16.591 15.38 15.15 14.62 14.39 14.33 14.19 14.09 14.02 13.95 13.89 13.82 14.67 14.62 13.72 13.64 13.09 13.51. 13.51 13.66 13.73 13.72 13.78 13.88 14.02 14.02 14.06 14.23 14.6 14.79 14.85 14.99 15.02 14.02 14.8911 16.31 16.39 16.59 16.49 16.67 17.11 17.29 17.39 17.46 17.53 17.6 17.67 17.9 18.04 18.11 18.11 18.2418.25 18.25 18.25 18.99 19.13 19.25 19.31 19.3 19.35 19.42 19.49 19.65 19.97 19.88 19.93 20.08 20.15 20.23 20.23 20.320.3 20.3 20.20. 20.39 20.62 20.63 20.59 20.51 20.67 20.7 20.62 20.63 20.54 20.3 20.39 20.33 20.19 20.11 20.11 20.19 20.19 20.19 20.54 19.53 19.33 19.2 19.33 19.15 18.77 18.46 18.23 18.11 18.04 17.93 17.78 17.71 17.64 17.57 17.57 17.727 17.727. 17.48 17.57 17.49 17.52 17.67 17.53 17.42 17.35 17.36 17.31 17.24 17.17 17.07 16.91 17.75 17.431 17.75 17.36 17.31 16.26 16.19 16.09 15.93 15.85 15.8 15.82 16.65 16.6 15.71 15.55 15.45 15.38 15.39 15.34 15.215 15.215 15.215. 16.1 15.71 15.22 15.01 15.05 14.98 14.94 15.05 15.78 15.91 15.49 15.56 15.64 15.71 15.78 15.78 15.94 15.916. 17.26 17.39 17.46 17.53 17.68 18 18.15 18.29 18.44 18.8 19.14 19.42 19.65 19.82 19.97 20.19 20.19 20.20206. 20.73 20.88 21.02 21.17 21.32 21.43 21.39 21.2 21.21 21.28 21.35 21.41 21.39 21.23 21.17 21.120.129 21.17 21.172 20.91 20.84 20.99 21.1 21.17 21.24 21.3 21.28 21.12 21.05 21.06 20.97 20.95 20.95 20.95 20.95 20.94 20.94 20.94 20.05 21.05 20.81 20.85 20.84 20.92 20.93 20.84 20.93 20.85 20.62 20.62 20.62 20.62 20.4 20.36 20.51 20.51 20.93 20.62 20.62 19.54 19.31 19.41 19.29 18.99 18.92 18.84 18.77 18.76 18.86 19.09 18.8 18.58 18.55 18.7 18.894 18.7 18.894 18.89.18. 19.31 19.27 19.2 19.13 18.77 | تلاش برای استفاده از Holt-Winters برای تطبیق این داده ها |
72668 | من به دنبال مدلی هستم که وزنها را در جایی که وزنها «مجموع به 1» است به جای خود پارامترها، تف میدهد. این کاری است که من انجام داده ام: من 3 مدل لاجیت را با 3 متغیر مستقل (و وابسته به y) logit(y~x+o+z) logit(y~r+q+a) logit(y~b) برازش داده ام. +n+m) من 3 مدل را برازش کردهام زیرا برازش 1 مدل با همه پارامترها برخی از آنها را ناچیز میداند (به دلیل وابستگیها-همبستگی پاسخ/وابسته متغیر). لطفا توجه داشته باشید که متغیر وابسته (توضیحی) y ~ (0،1) است. اکنون، وقتی هر مدل را برای پیشبینی با دادههای جدیدم تطبیق میدهم، میخواهم چیزی شبیه به این انجام دهم: «predict(w1*fitted(logit1)+w2*fitted(logit2)+w3*fitted(logit3))» که در آن w1 ، w2، w3 نشان دهنده وزن ها هستند. من دوباره مدل لاجیت را به صورت: logit(y~logit1+logit2+logit3) برازش کردهام و وزنها را به صورت «param1/sum(param1+param2+param3)» محاسبه کردم. به این ترتیب مدل تناسب معقولی را ارائه نکرد. (به هر حال این روش بسیار اشتباه است). روش دومی که امتحان کردم: وزنهای ممکن را از 0.05 تا 1 (23 ترکیب) نمونهبرداری کردم. وزنهای مربوطه را با 3 مدل (در نمونه نصب شده) ضرب کرد و AUC (مساحت زیر منحنی) را محاسبه کرد. با این حال AUC تقریباً برای همه وزنه ها خوب بود. نتایج کمی بالاتر در دو ترکیب وزنه ثبت شد. چه مدلی برای این رویکرد مناسب است؟ یا چگونه می توان به این مدل سازی نزدیک شد؟ | پارامترها به عنوان نوع وزن |
73130 | در حین مطالعه مدل رگرسیون خطی چند متغیره استاندارد، به موارد زیر برخوردم:  لطفاً کسی می تواند به من توضیح دهد که چرا آخرین برابری برقرار است، و چرا $Z(Z'Z)^{-1}Z'$ را نمی توان به سادگی به $I$ ساده کرد (آیا این درست نیست $Z(Z'Z)^{-1}Z'=ZZ^{-1}Z'^{-1}Z'=II=I$؟ | سوال در مورد $\epsilon' \epsilon$ در مدل رگرسیون خطی |
112089 | من به اصطلاح _خانواده نمایی_ برخورد کرده ام. توزیع های برنولی، گاوسی و بسیاری دیگر تحت این خانواده نمایی قرار می گیرند. چه وجه اشتراکی بین آنها خواهد بود؟ | منظور از اصطلاح خانواده نمایی چیست؟ چرا اینگونه نامگذاری شده است؟ |
73135 | من لیستی از فاصله (بین یک ویژگی ژنومی و نزدیکترین ژن) دارم و میخواهم بررسی کنم که آیا این فاصلهها غنی شدهاند (بنابراین اگر فاصله کمتر از فاصلههای تصادفی باشد). ایده من ایجاد موقعیت تصادفی و محاسبه فاصله بین این موقعیت های تصادفی و نزدیکترین ژن و مقایسه توزیع این فواصل تصادفی در مقایسه با فواصل واقعی بود. آیا استفاده از آزمون کولموگروف-اسمیرنوف ایده خوبی است؟ یا تجزیه و تحلیل گردش کار من خوب نیست و باید از طرح تحلیل دیگری استفاده کنم؟ ممنون از راهنمایی های شما | آزمایش برای غنی سازی فاصله |
93767 | # پیشینه ثابت های تصحیح بایاس انحراف استاندارد به این صورت محاسبه می شود: $$ SD = \left(\frac{1}{N-constant} \sum_{i=1}^N (x_i - \overline{x})^ 2\راست)^{1/2} $$ پس از مدخل ویکیپدیا در مورد انحراف معیار، مغرضانه بودن تخمین انحراف معیار جمعیت به یک نمونه بستگی دارد $constant$ به روش زیر: * $correction=0$: فقط sd را نمونه برداری کنید، به شدت بایاس شده که کوچکتر از جمعیت sd باشد. * $correction=1$: تصحیح بسل، کمتر مغرضانه اما همچنان کوچکتر. * $correction=1.5$: قاعده سرانگشتی، بهترین مقدار واحد برای یک تخمین بی طرفانه. # سوال من این را شبیه سازی کردم و متوجه شدم که $\sqrt{2}$ مقدار بهتری برای $constant$ است، به خصوص برای نمونه های کوچک (n < 10) که $1.5$ SD جمعیت را بیش از حد تخمین می زند. آیا به تازگی چیز خارق العاده ای کشف کرده ام یا چیزی را در اینجا گم کرده ام؟ # شبیهسازی برای هر یک از اندازههای نمونه $n=2,3,5,10,20,60,100,200$، 3000 نمونه با استفاده از rnorm(n, 0,15) ایجاد کردم. برای هر اندازه نمونه، من SD جمعیت را با استفاده از هر یک از ثابت های بالا تخمین زدم. نتیجه این است:  هر نمودار یک ثابت تخمین متفاوت است. خطا در عنوان mean(sd.estimations - sd.real) است. خط قرمز SD واقعی است. خط آبی SD تخمین زده شده را نشان می دهد. خطوط خاکستری عمودی تغییر در اندازه نمونه را نشان می دهند. امتیازها تخمینهای فردی SD را نشان میدهند. واضح است که $\sqrt{2}$ برتر از $1.5$ است. این برای نمونه های بزرگ نیز صادق است، حتی اگر از این نمودار مشخص نباشد. در اینجا اسکریپت R است که این طرح ها را ایجاد کرده است. # بهروزرسانی و نتیجهگیری $\sqrt{2}$ به راهحل تحلیلی درست نزدیک است اما از آن بهتر نیست. این یک اکتشافی باقی می ماند که می تواند به دلیل تنبلی یا برای کارایی محاسباتی با اندازه نمونه کوچک مورد استفاده قرار گیرد. در واقع، نزدیکترین تقریب به اندازه نمونه ای که می خواهید برای آن محاسبه کنید بستگی دارد. در اینجا چند مقدار بهینه برای اندازههای مختلف نمونه آورده شده است: * $4 < n < 10$: $\sqrt{2.15} = 1.47$ حداکثر با 0.4٪ انحراف دارد. * 10 $ < n < 50 $: $\sqrt{2.22} = 1.49 $ حداکثر با 0.04٪ انحراف دارد. * $40 < n < 300 $: $\sqrt{2.2465} = 1.4988 $ حداکثر با 0.0025٪ انحراف دارد. با افزایش حجم نمونه، ثابت به قاعده سرانگشتی 1.5 نزدیک می شود. بنابراین نتیجه این است که $\sqrt(2)$ برای اندازههای نمونه کوچک سریع و کثیف است. برای نمونه های بزرگتر، تقریب های منطقی را می توان با 1.5 انجام داد. و فقط برای روشن بودن: تصحیح بسل هنوز هم راه درستی برای بیطرف شدن هنگام تخمین واریانس است. مشاهدات بالا فقط به تخمین _انحراف معیار جمعیت_ مربوط می شود. | تخمین بی طرفانه انحراف استاندارد جمعیت: آیا sqrt(2) یک تصحیح برتر است؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.