_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
21515
سناریوی زیر را در نظر بگیرید. من آزمایشی با 200 آزمایش انجام دادم که هر کدام محرک متفاوتی داشتند. هر آزمودنی دقیقاً 200 آزمایش انجام داد. آزمودنی با یک عدد در جایی بین 5 تا 50 پاسخ می دهد. پاسخ صحیح نیز بین 5 تا 50 متغیر است. برای هر آزمودنی که آزمایش را انجام داد، من یک مقدار واحد، V$$، برای آن شخص محاسبه می کنم. این مقدار $V$ از محاسباتی استفاده می کند که از پاسخ مورد انتظار و پاسخ مشاهده شده برای هر آزمایش استفاده می کند. این تمام کاری است که آزمایش انجام می دهد. این به من امکان می دهد که $V$ را برای یک موضوع پیدا کنم. از من خواسته شد که آلفای کرونباخ را برای این آزمایش خاص پیدا کنم. چگونه آن را انجام دهم؟ من فرمول را در ویکی پدیا می بینم، اما مخرج آن $K-1$ و در مورد من، $K=1$ است، پس چگونه آلفای کرونباخ را پیدا کنم؟ آیا باید یک مقدار آلفای کرونباخ را برای آزمایش به عنوان یک کل پیدا کنم یا هر موضوع یک مقدار آلفا دریافت می کند؟ من نتوانستم منابع آنلاین خوبی برای یادگیری در مورد مقدار آلفای کرونباخ پیدا کنم، بنابراین اگر کسی پیشنهاد خوبی دارد، دوست دارم پیوندهایی به مکان هایی که می توانم این مطالب را یاد بگیرم را ببینم. با تشکر من از R استفاده خواهم کرد و یک فایل CSV دارم که در آن ستون 1 موضوع، ستون 2 پاسخ مورد انتظار و ستون 3 پاسخ موضوع است. 200 ردیف وجود دارد.
چگونه می توان آلفای کرونباخ را تنها با یک اندازه گیری در هر موضوع محاسبه کرد؟
112374
من می خواهم رشد 38 شرکت کننده را بررسی کنم. من 2 نمره در هر 3 مرحله مجزا از آموزش دارم - خط پایه، حین آموزش و بعد از آموزش. با بیان مجدد، من 2 نمره پایه، 2 نمره آموزش و 2 نمره پست برای هر شرکت کننده دارم. همه شرکت کنندگان در یک گروه هستند. * چگونه رشد را آزمایش کنم؟ * ANOVA اندازه گیری های مکرر یک طرفه، یا ANOVA اندازه گیری های مکرر دو طرفه؟ * آیا باید این را به عنوان 6 امتیاز متوالی در نظر بگیرم (مثلاً زمان 1-6) و به فاکتور زمان نگاه کنم یا باید به یک مرحله دستورالعمل به تعامل زمانی نگاه کنم. آیا این اصلا منطقی است؟
چگونه می توان اثر زمان را در یک طرح اندازه گیری های مکرر متعادل با 2 اندازه گیری در ابتدا، در طول آموزش و بعد از آموزش مدل کرد؟
12313
آیا کسی معنی اثرات جزئی متوسط ​​را می داند؟ دقیقاً چیست و چگونه می توانم آنها را محاسبه کنم؟ در اینجا یک مرجع است که ممکن است کمک کند.
اثرات جزئی متوسط ​​چیست؟
92224
من با مجموعه‌های آموزشی بسیار نامتعادل کار می‌کنم و می‌خواهم احتمال داشتن دقت طبقه‌بندی‌کننده مشخص را به‌طور تصادفی اندازه‌گیری کنم تا اهمیت آماری دقت‌های به‌دست‌آمده را اندازه‌گیری کنم. من می خواهم این احتمال را با در نظر گرفتن فرکانس های مثبت و منفی خروجی های مورد نظر مجموعه قطار و خروجی های به دست آمده در هنگام طبقه بندی بردارهای ورودی مجموعه آموزشی اندازه گیری کنم. به طوری که من دو دنباله باینری دارم. دنباله سفارشی استاندارد طلایی تشکیل شده از $d_P = 30$ یک ها و $d_N = 70$ صفر، (مجموعه آموزشی خروجی های مورد نظر) خروجی طبقه بندی کننده یک دنباله دقیقاً $o_P = 40$ یک ها و $o_N = 60 می دهد. صفر دلار من می‌خواهم ساده‌ترین روش تحلیلی را برای اندازه‌گیری احتمال به دست آوردن بازدیدهای $H$ در هنگام ایجاد تصادفی یک دنباله جدید با $o_P$ یکها و $o_N$ بدانم. اگر می خواهید بررسی کنید، من این راه حل های احتمال مولد را با جایگشت تصادفی اندازه گیری کرده ام و مقادیر زیر را برای $d_P=30\ d_N=70\ o_P=40\ o_N=60$ دریافت می کنم: P(Hits=54)=0.17596 P(Hits=55)=0.00000 P(Hits=56)=0.15870 P(Hits=57)=0.00000 P(Hits=58)=0.11881 P(Hits=59)=0.00000 P(Hits=60)=0.07294 P(Hits=61)=0.00000 P(Hits=0.638)=7. P(Hits=63)=0.00000 P(Hits=64)=0.01554 P(Hits=65)=0.00000 P(Hits=66)=0.00550 P(Hits=67)=0.00000 P(Hits=605)=0. P(Hits=69)=0.00000 P(Hits=70)=0.00034 ... * * * من این تقریب را مشخص کرده ام، ... کد را در matlab dP=30 می نویسم. dN=70; oP=40; oN=60; N=dP+dN; pTP=(oP*dP)/(N^2); pTN=(oN*dN)/(N^2); pFP=(oP*dN)/(N^2); pFN=(oN*dP)/(N^2); pHit=pTP+pTN; pACC=[]; برای acc=1:100 pb=0; برای TP=0:min([dP,oP]) TN=acc-TP; FP=oP-TP; FN=dP-TP; if (((FN+TP)==dP) & ((FP+TN)==dN)) pp=(pTP^TP)*(pTN^TN)*(pFP^FP)*(pFN^FN); ترکیبات=((nchoosek(dP,TP)*nchoosek(dN,TN))); pb=pb+(pp*ترکیبات); انتهای انتهایی pACC=[pACC;pb]; پایان pACC=pACC/sum(pACC); آیا ساده ترین راه حل وجود دارد؟
ارزیابی اهمیت دقت طبقه‌بندی کننده در مجموعه‌های قطار نامتعادل
80524
فرض کنید احتمال بروز بیماری را مدل می کنیم. وقتی احتمال پیش‌بینی‌شده بیماری یا خطر مطلق یک فرد از یک آستانه خاص بیشتر باشد، اقدامات پیشگیرانه را شروع می‌کنیم. بنابراین، کالیبراسیون مدل در نزدیکی آستانه بسیار مهم است، و برای پیش‌بینی‌های دور از آستانه، ما زیاد به دقت اهمیت نمی‌دهیم. آیا مدلی وجود دارد که بتوان آن را برای پیش بینی دقیق تر در محدوده احتمال از پیش تعریف شده تنظیم کرد؟ من داده‌های زمان تا رویداد را دارم و از مدل کاکس استفاده می‌کنم، اگرچه می‌دانم که برای پیش‌بینی خیلی مناسب نیست.
تنظیم یک مدل برای عملکرد پیش بینی در یک محدوده احتمال باریک
45763
من آماری دارم که مقادیری را به دسته های محصولات اختصاص می دهد. این آمار دو وجهی قوی را نشان می دهد (نمودار را ببینید). برای تجزیه و تحلیل، من سعی می کنم مقداری از آن آمار را به هر محصول اختصاص دهم (ویرایش: انجام یک تحلیل رگرسیونی که در آن محصولات مشاهدات هستند). زمانی که محصولات فقط در یک دسته قرار می گیرند، این امر ساده است. اما زمانی که محصولات به بیش از یک دسته اختصاص داده می شوند دشوار می شود. از آنجایی که آمار دووجهی است، گرفتن میانگین مقادیر برای همه دسته های یک محصول بی معنی است. من کنجکاو هستم که آیا راهی برای به دست آوردن این نوع آمار خلاصه وجود دارد؟ ![تراکم نمودار](http://i.stack.imgur.com/Ppq5Z.png) سوال من دارای دو بخش مرتبط است: الف) یک جستجوی سریع به من این ایده را داد که چند راه برای ارزیابی چندوجهی وجود دارد (اشمن D ، شاخص دو وجهی، ضریب دو وجهی)، اما راه ساده ای برای خلاصه کردن تعدادی از مقادیر استخراج شده از توزیع دووجهی وجود ندارد. اما کنجکاو هستم که آیا چیزی را از دست داده ام؟ برای موضوع مورد بحث، فکر می‌کنم رویکردی را که در b توضیح داده شده است، اتخاذ خواهم کرد، اما برای آینده، خوشحال خواهم شد بدانم در چنین موردی برای خلاصه کردن آن نوع داده‌ها چه کاری می‌توان انجام داد؟ ب) رویکردی که در حال حاضر در نظر دارم اتخاذ کنم این است که آمار خود را به سه عدد طبقه بندی تبدیل کنم: یکی برای مقادیر نزدیک به صفر، یکی برای مقادیر حدود 10 و در نهایت یکی برای مقادیر حدود 5. سپس برای هر محصول، من تعداد دفعاتی را که دسته‌هایی که به آن تعلق دارد در هر محدوده فهرست می‌شوند، می‌شمارم. این برای من از نظر تئوری منطقی است، اما می‌پرسم آیا دام آماری وجود دارد که من از دست می‌دهم؟ (به نظر می رسد این رویکرد (بسیار) با رویکردی که در اینجا اتخاذ شده است، مرتبط است که به تقسیم توزیع در دو جمعیت می پردازد).
ایجاد خلاصه ای برای مقادیر استخراج شده از توزیع دووجهی
45761
من یک مشکل طبقه بندی باینری دارم، که در آن هر نقطه داده سری های زمانی چند کانالی است، که می تواند به عنوان یک ماتریس $T \times F$، که $T$ طول سری زمانی است، و $F$ به عنوان نشان داده شود. شماره کانال ها $T$ ثابت نیست - هر نقطه داده طول متفاوتی دارد. برای طبقه بندی، باید از هر نقطه داده، یک بردار مشخصه با اندازه ثابت استخراج کنم. علاوه بر این، من گمان می‌کنم که اطلاعات تا حدی به‌عنوان رویدادهای کوتاه در داده‌ها جاسازی شده‌اند، بنابراین تبدیل‌های فوریه چندان مفید نیستند. من سعی کردم ماتریس کوواریانس $T\times F$ را محاسبه کنم تا یک ماتریس F\times F$ بدست بیاورم، قسمت بالا/پایین (شامل مورب اصلی) را بگیرم و آن را صاف کنم. پس از آن، من از PCA برای کاهش ابعاد استفاده کردم. می ترسم با استفاده از این تبدیل اطلاعات مهم زیادی را از دست بدهم. عمدتاً به این دلیل که SVM چیزی نزدیک به سطح شانس به من می دهد. من فکر نمی‌کنم که روش‌هایی مانند تکمیل ماتریس کمک کند، شاید روش‌های کششی مفیدتر باشند.
سری های زمانی با طول های مختلف: استخراج ویژگی و طبقه بندی
100026
من می‌دانم که نرمال‌سازی داده‌ها به ما امکان می‌دهد داده‌ها را گرفته و در مقیاس [۰،۱] قرار دهیم. در حال حاضر من در حال کار بر روی یک کتاب یادگیری ماشین هستم و نویسنده در مورد عادی سازی داده ها با ترجیح به اعداد کوچکتر یا بزرگتر صحبت می کند. آیا به طور کلی فرمولی برای عادی سازی داده ها مانند این وجود دارد؟ به عنوان مثال، اگر بخواهم مقادیر کوچکتر به 1 نزدیکتر باشند تا مقادیر بزرگتر، آیا یک فرمول کلی برای انجام این کار وجود دارد؟
نرمال سازی داده ها با ترجیح به اندازه عدد
109386
من در حال خواندن این مقاله در مورد فاکتورسازی ماتریس هستم. در مقاله آنها پیشنهاد می کنند که از این فاکتورسازی برای ماتریس مجاورت (یا شباهت) $G$ با استفاده از فرمول زیر استفاده شود: $G = U \Lambda U^T$ که در آن $U \in R^{n \times k}$، $\Lambda \in R^{k \times k}$. آنها می گویند که وقتی نمودار بدون جهت باشد، می توانیم $\Lambda$ را حذف کنیم و آن را به این صورت داشته باشیم $G = U U^T$. من می توانم شهود پشت آن فرمول را درک کنم. با این حال نویسندگان گفتند که اگر نمودار جهت‌دار باشد، از این فرمول $G = U \Lambda U^T$ استفاده کردند. اصلا توضیح ندادند که چرا باید از $\Lambda$ برای نمودارهای جهت دار استفاده کنیم! آنها فقط گفتند ما یک مقاله را برای آن فرمولاسیون دنبال می کنیم. من رفتم مقاله لینک شده برای فرمولاسیون رو خوندم ولی یه توضیح **خیلی ضعیف** هم داره! یا احتمالاً یک توضیح غیرقابل قبول. * آیا کسی می داند که چرا وقتی یک نمودار جهت دار داریم باید از فاکتورسازی دیگر استفاده کنیم؟ * وقتی افراد برای فاکتورسازی ماتریسی فرمولی ارائه می کنند، آیا نیاز به ارائه توضیحی برای آن دارند؟ زیرا می توان یک فرمول فاکتورسازی فانتزی درست کرد و فقط گفت هی ببین کار می کند!. همانطور که تاکنون از مقالات فاکتورسازی ماتریسی دیدم، هیچ زمینه محکم خوبی برای فرمولاسیون وجود ندارد. آیا من اشتباه می کنم؟
شهود پشت فرمول های فاکتورسازی ماتریس؟
46233
من یک لاپلاس مشروط دارم: $$ \pi(\boldsymbol{\beta}|\sigma^2) = \prod\limits_{j=1}^{p}\frac{\lambda}{2\sqrt{\ sigma^2}}e^{-\lambda|\beta_j|/\sqrt{\sigma^2}} $$ و قبل از آن حاشیه ای $\sigma^2$, $\pi(\sigma^2)$. من می خواهم این لاپلاس را قبل از نمایش سلسله مراتبی یک مدل تجزیه کنم. من می دانم که روابط زیر ضروری خواهد بود: \begin{equation} f(x|z)=\int_{Y}f(x|y)f(y|z)dy \end{equation} and $$ \ frac{a}{2}e^{-a|z|} = \int_0^\infty \frac{1}{\sqrt{2\pi s}}e^{-z^2/(2s)}\frac{a^2}{2}e^{-a^2s/2} ds، \ \ \ \ \ \\ a>0\. $$ با این حال، من با برخی از جزئیات مشکل دارم. طبق مقاله Casella, Park (2008) من باید این را دریافت کنم، این \begin{align*} \boldsymbol{\beta} | \sigma^2، \tau_1^2، \dots، \tau_p^2 و\sim N_p(\mathbf{0}_p، \sigma^2\mathbf{D}_{\boldsymbol{\tau}})، \ \\ \mathbf{D}_{\boldsymbol{\tau}} &= \text{diag}(\tau_1^2، \dots، \tau_p^2)، \\\ \sigma^2، \tau_1^2، \dots، \tau_p^2 &\sim \pi(\sigma^2) d\sigma^2 \prod\limits_{j=1}^{p}\frac{\lambda^2}{2}e^{-\lambda^2\tau_j^2/2}d\tau_j^2 \end{align*} نشان دهنده لاپلاس مشروط قبل است، با این حال من هنوز با چیزی کمی متفاوت به پایان می رسم. آیا کسی می تواند به من بگوید چگونه می توانم به آنجا برسم (مثلاً با گفتن، وصل کردن $z = \beta_j$ و غیره)؟ از کمک شما متشکرم!
تجزیه لاپلاس قبل برای نمایش سلسله مراتبی یک مدل
12319
زمینه: من در حال تجزیه و تحلیل داده‌ها با مدل‌های مختلط (lmer در lme4) از آزمایشی هستم که دارای RTs و نرخ خطا به عنوان متغیرهای وابسته بود. این یک طرح با اندازه گیری های مکرر با تقریباً 300 اندازه گیری برای هر یک از 190 سوژه انسانی است. اثرات ثابت 1 دستکاری آزمایشی بین آزمودنی ها (دوگانه)، 2 دستکاری آزمایشی درون آزمودنی ها (هر دو دوگانه) و 1 متغیر موضوعی (مستمر، متمرکز) است. اثرات تصادفی نامرتبط من شرکت کنندگان و 2 ویژگی محرک است. برای مدل‌های مختلط، من دستکاری‌های آزمایشی را به‌عنوان کنتراست -.5/+.5 کدگذاری کرده‌ام تا پارامترها تخمین‌هایی از اثرات آزمایشی باشند و فاصله باید میانگین کل باشد. میانگین کل تولید شده توسط مدل RT (740 میلی‌ثانیه) با میانگینی که در صورت میانگین کل آزمایش‌های فردی (730 میلی‌ثانیه) به دست می‌آورم مطابقت ندارد. چرا این اتفاق می افتد؟ یک سوال مرتبط: GLMM (توزیع دوجمله‌ای، تابع پیوند لجستیک) برای نرخ‌های خطا، یک تخمین پارامتر با یک امتیاز Z مرتبط ایجاد می‌کند که مقدار مطلق آن بیش از 2 است، اما وقتی به میانگین نگاه می‌کنم (به همان روشی که در بالا تعیین شد) برای بررسی این تفاوت، آنها کوچک و تقریباً یکسان هستند (0.01353835 در مقابل 0.01354846). مقادیری که می توانم ارائه کنم که از تخمین پارامتر قابل اعتماد پشتیبانی می کند چیست؟ من احساس می‌کنم که اختلاف بین میانگین محاسبه‌شده من و تخمین‌های مدل به عوامل تصادفی مربوط می‌شود (شاید گروه‌بندی بر اساس آزمودنی‌ها)، اما دقیقاً مطمئن نیستم که چیست. اگر بخواهم آمار توصیفی را به همراه جدول تخمین مدل های ترکیبی نمایش دهم، چگونه باید این آمار توصیفی را تعیین کرد؟ هر گونه اشاره به مراجع، مثال ها و غیره بسیار قابل قدردانی خواهد بود. اگر همه اینها فقط یک گوز مغزی از طرف من است، لطفاً به من نیز اطلاع دهید. ویرایش: احتمالاً ذکر این نکته نیز مهم است که میزان آزمایش‌ها و انواع آزمایش‌های ارائه‌شده برای هر فرد یکسان نیست. دستکاری بین آزمودنی ها نسبت انواع کارآزمایی های مختلف ارائه شده را تغییر می دهد و برای RT ها فقط کارآزمایی های صحیح آنالیز شد. با این حال، خطاهای بسیار کمی وجود داشت.
توضیحات مناسبی که باید برای مدل های مختلط من بررسی شود چیست؟
95726
من از spss استفاده می کنم و به یک طرح همزمان معیار و اعتبار نگاه می کنم. من مجبور شدم رتبه بندی عملکرد دو گروه را به نمرات z تبدیل کنم زیرا تفاوت هایی در نحوه رتبه بندی آنها در یک آزمون وجود داشت. من این نمرات را با یک آزمون شخصیتی مرتبط کردم. رتبه‌بندی عملکرد و آزمون شخصیت = 0.285* \--> معنی‌دار در 0.028 n=59. اکنون باید تعیین کنم که آیا این از نظر آماری معنی‌دار است یا خیر. برای اینکه ببینیم آیا این فرضیه را تایید می کند که تست شخصیت عملکرد شغلی را پیش بینی می کند یا خیر. من یک آزمون t انجام دادم و استادم به من گفت که استفاده از آزمون t به من نمی گوید که آیا همبستگی معنی دار است یا خیر. من احساس بی قراری می کنم و مطمئن نیستم چه کار کنم.
آزمون معناداری همبستگی با نمرات z استاندارد شده
10228
من یک ماتریس M از مقادیر شناور دارم، چگونه M را به صورت خطی به هم بزنم؟
چگونه داده های ماتریس را در R به هم بزنیم؟
45765
من مجموعه ای از داده ها را دارم که باید با استفاده از موارد زیر مدل کنم: $$Y_i \sim N(\mu_i,\theta\mu^{2}_{i}) \quad \text{and}\quad \log \mu_i = \beta^{T}X_{i}$$ ($\theta\mu_i^2$ _واریانس_$Y_i$ است). من باید پارامترهای مدل $\beta$ و $\theta$ را تخمین بزنم. من مطمئن نیستم که چگونه در مورد آن اقدام کنم. پیشنهاد شد که سعی کنید $\theta$ را با استفاده از MLE مشترک ادغام کنید، اما یک بار دیگر مطمئن نیستم که چگونه این کار را انجام دهم. من همچنین سعی می‌کنم این مدل را در R پیاده‌سازی کنم، اما از آنجایی که با مدل‌های R و خطی جدید هستم، کاملاً مطمئن نبودم که چگونه این کار را انجام دهم. من امتحان کردم: glm (روزها ~ .، خانواده = گاوسی (لینک = ورود)، داده = کوین، شروع = c (log(mean(quine$Days))، 0,0,0,0,0,0) ) اما مطمئن نیستم که آیا این مدل مناسبی برای استفاده است یا خیر. آیا باید به دنبال «nls» یا «gls» باشم؟ هر گونه پیشنهادی قدردانی خواهد شد. ویرایش: بنابراین اگر کمی بیشتر به این موضوع فکر کنید، آیا این معادل یک سم وزنی با وزن $\frac{1}{\theta\mu}$ خواهد بود. بنابراین در R ممکن است به صورت زیر پیاده‌سازی شود: «glm(روزها ~.، خانواده=پواسون، داده=کوین، وزن‌ها = 1/(تتا*پیش‌بینی(model1،type=گلابی))) که در آن model1 یک وزن غیر وزنی است سم من هنوز نمی دانم چگونه تتا را تخمین بزنم.
تخمین پارامتر برای یک مدل تعریف شده توسط $Y_i \sim N(\mu_i,\theta\mu^{2}_{i})$
53432
من 3 متغیر طبقه بندی دارم (CVa، CVb، ​​CVc) که همه 0 یا 1 هستند. دو متغیر پیوسته (IV1، IV2) مطالعه مشاهده ای من را مخدوش می کنند. رگرسیون چندگانه lm (DV ~ CVa + CVb + CVc + CVa: CVb + CVa: CVc + IV1 + IV2) اهمیت زیادی را برای CVa Estimate Std نشان می‌دهد. خطای t مقدار Pr(>|t|) (فاصله) -1.414684 1.498886 -0.944 0.35233 CVa1 -0.841076 0.256946 -3.273 0.00255 ** CVb1 -0.413 -0.413 -0.00255 0.01990 * CVc1 -0.328669 0.183652 -1.790 0.08298. IV1 -0.011768 0.006519 -1.805 0.08049. IV2 0.487658 0.211015 2.311 0.02743 * CVa1:CVb1 0.321766 0.238869 1.347 0.18743 CVa1:CVc1 0.7412590 0.7412590 0.7412590 0.00744 ** من فکر کردم که ANCOVA (بین فاکتور CVa) نیز باید معنی‌دار باشد، اما خلاصه (aov(DV ~ CVa + CVb + CVc + CVa: CVb + CVa: CVc + IV1 + IV2)) هیچ معنی‌داری برای CVa نشان نمی‌دهد Df Sum Sq میانگین مربع F مقدار Pr(>F) CVa 1 0.368 0.3681 3.093 0.08817 . CVb 1 0.427 0.4275 3.593 0.06709. CVc 1 0.015 0.0148 0.125 0.72629 IV1 1 0.585 0.5849 4.916 0.03384 * IV2 1 0.693 0.6935 5.828 0.010 C 0.1262 1.061 0.31069 CVa:CVc 1 0.972 0.9716 8.166 0.00744 ** باقیمانده ها 32 3.807 0.1190 آیا من به جای ANCOVA ANOVA انجام می دهم؟ اگر بله، چگونه می توانم IV1، IV2 را کنترل کنم تا آن مقدار F را که معمولاً در مقالات گزارش می کنند، دریافت کنم؟ در هر صورت، «lsmeans(m2، دو به دو ~ CVa * CVb)» گزارش می دهد که اثر اصلی CVa زمانی قابل توجه است که برای IV1، IV2 $`CVa:CVb تفاوت های زوجی کنترل شود` تخمین SE df t. - 1, 0 0.47043119 0.1725208 32 2.72681 0.04807
آیا ANCOVA می تواند با رگرسیون چندگانه مخالف باشد؟
78236
من می‌خواهم یک مدل رشد را برای مدل‌سازی مسیرهای رشد افراد $j$ در چندین نقطه زمانی $t$ با استفاده از یک مدل استاندارد مختلط/سطح (همچنین به عنوان مدل ضریب تصادفی شناخته می‌شود) تخمین بزنم: $Y_{tj} = \beta_ {0_j} + \beta_{1_j}A_{tj} + \beta_{2_j}X_{tj} + \beta_{3_j}Z_{tj} + e_{tj}$$$$\beta_{0_j} = \beta_0 + u_{0_j}$$ $$\beta_{1_j} = \beta_1 + u_{1_j}$$ $$\beta_{2_j} = \beta_2 + u_{2_j}$$ $$\beta_{3_j} = \beta_3 + u_{3_j}$$ $A_{tj}$ یک تابع رشد خطی (یعنی نقطه زمانی مشاهده: $1،2،3، ...، t$). $X_{tj}$ یک متغیر کمکی برونزا است. $Z_{tj}$ یک متغیر درون زا است. بیایید بیشتر فرض کنیم که من دلایلی برای این باور دارم که یکی از متغیرهای مستقل در سطح 1، $Z_{ij}$، درونزا است. من نمی دانم که آیا می توانم از یک رویکرد متغیر ابزاری (با استفاده از تاخیر متغیر درون زا به عنوان ابزار) برای مقابله با درون زایی $Z_{ij}$ استفاده کنم یا خیر. با این حال، من هیچ مرجع یا نمونه ای پیدا نکردم. آیا این به طور کلی امکان پذیر است، و چگونه می توانم کد R استاندارد را برای مدل های ترکیبی برای انجام این کار تغییر دهم؟ در حال حاضر من از تابع فراخوانی `lmer(Y ~ X + Z + (1 + X + Z | ID)، data=data) استفاده می کنم. Gelman/Hill (2006)، فصل 23.4 (http://www.stat.columbia.edu/~gelman/arm/chap23.pdf) نشان می دهد که چگونه می توان این کار را با استفاده از رویکرد بیزی انجام داد. من علاقه مند به ارجاعات و کد R هستم که یک رویکرد مکرر را برای کنترل درون زایی با استفاده از متغیرهای ابزاری (یعنی تأخیر متغیرهای درون زا به عنوان ابزار) در یک مدل چند سطحی پیاده سازی کند.
متغیرهای ابزاری و مدل های ترکیبی/چندسطحی
86399
من در حال مطالعه مدل نسبتاً کلاسیک انتخاب برای تخمین حق بیمه دستمزد اتحادیه هستم، با دو معادله حقوق و یک معادله دو مرحله ای انتخاب $\ln(w_{1it}) = X^{'}_{it} \beta_1 + \epsilon_{1it}$\ln(w_{0it}) = X^{'}_{it} \beta_0 + \epsilon_{0it}$ $union^*_{it} = \gamma X^{'}_{it} + \epsilon_{2it} $union_{it} = \mathbb{I}(union^*_{it}>0)$ من دو سوال متفاوت دارم: 1) وقتی آن را به عنوان یک تخمین مقطعی در Stata پیاده‌سازی می‌کنم (با دستور «heckman»)، چه با روش دو مرحله‌ای Heckman یا با MLE آن را تخمین بزنم، نتایج بسیار متفاوتی دارم. آیا این طبیعی است؟ در چه صورت دلایل نظری چیست؟ 2) همانطور که در معادلات من ذکر شد، من داده پانل دارم. آیا روش هکمن همچنان در مورد آن صدق می کند؟ یا برآورد درونی درون زایی را حذف می کند و همه آن را حل می کند؟ می‌توانم بگویم هنوز هم صدق می‌کند، اما ادبیات مرتبطی پیدا نکردم و دوره‌های من فقط داده‌های مقطعی را پوشش می‌دهند.
مدل انتخاب نمونه: MLE در مقابل تخمین دو مرحله ای و داده های پانل
10224
من آزمایش‌هایی را اجرا می‌کنم که زمانی را که الگوریتم من برای حل مجموعه‌ای از نمونه‌های مسئله در یک معیار خاص صرف می‌کند، ثبت می‌کند. هر مسئله یک مشکل مرتبط در محدوده [1, n] دارد. در حالت ایده‌آل، اینها باید به طور مساوی در سراسر طیف دشواری توزیع شوند، اما اینطور نیست: نمونه مشکلی که من دارم به سمت انتهای آسان‌تر طیف منحرف شده است. برای توضیح این موضوع، من مشکلات را بر اساس سختی گروه بندی کرده ام، به عنوان مثال. [1-10]، [11-20]، ...، [n-9، n]. هر بازه معمولاً شامل حداقل 10 مسئله است (معمولاً بیشتر؛ 50+ غیر معمول نیست) و من میانگین زمان لازم را برای حل همه مسائل در هر بازه می‌گیرم. این به من تصویر واضح تری از نحوه عملکرد الگوریتم من در مسائل آسان و سخت با این هشدار می دهد که داده ها تا حدودی برای انتهای سخت تر طیف کمتر قابل اعتماد هستند. سوال اول: آیا این مشکلی ندارد یا مواردی وجود دارد که من حساب نکرده ام؟ بعد: برای مقاصد مقایسه ای، باید عملکرد هر معیار را به صورت یک عدد خلاصه کنم. من از گرفتن میانگین در همه مشکلات بیزارم زیرا این رقم به دلیل مشکلات بسیار آسان منحرف شده است. که من را به ... سوال دوم: آیا می توانم به جای آن میانگین تمام میانگین های بازه ای را بگیرم؟
در نظر گرفتن میانگین یک مجموعه داده با توزیع اریب
10223
آیا کسی روشی برای انجام انتخاب مدل در Weka از طریق اعتبارسنجی متقابل برای مشکلات رگرسیون می داند؟ تا آنجا که من می توانم بگویم، اعتبار سنجی متقاطع در Weka فقط برای ارزیابی عملکرد طبقه بندی کننده اجرا می شود. حدس می‌زنم فراخوانی Weka API از جاوا ممکن است مشکل را حل کند، اما آیا یک رویکرد مبتنی بر رابط کاربری گرافیکی وجود دارد؟
انتخاب مدل در Weka از طریق اعتبارسنجی متقابل برای مشکلات رگرسیون
68493
من به سختی می توانم چیزی را بفهمم. فرض کنید من 36 ماه داده (36 مشاهده) در مورد رفتار مصرف کننده در یک وب سایت دارم. من مدلی ساختم که $y$ را روی تعدادی از پیش بینی کننده ها رگرسیون می کرد و ضرایب مورد نظر را بدست می آوردم. با این حال، من علاقه مندم که بدانم مدل من چقدر در پیش بینی متغیر پاسخ در ماه $x$ عمل کرده است. با توجه به مدل من و مجموعه آموزشی که روی آن اجرا شد، می‌خواهم بتوانم تعیین کنم که چقدر در پیش‌بینی متغیر پاسخ در یک ماه معین (مثلاً آوریل یا مارس) انجام شده است. من آمار سنتی را در مورد خوبی تناسب کلی مدل دارم، اما واقعاً می‌خواهم بفهمم که مدل من چقدر داده‌ها را برای ماه $x$ پیش‌بینی می‌کند. آیا این منطقی است؟ چگونه می توانم آن اطلاعات را به دست بیاورم؟ چگونه این کار را در R انجام دهم؟ در مورد پیش بینی ماه های آینده چطور؟ سه ماه آینده؟ من یک «glm» در R (پواسون) اجرا می کنم.
تعیین دقت پیش‌بینی در R برای یک GLM
12310
من سعی کردم قبل از انجام برازش توزیع، آزمایش کنم که آیا باید مجموعه داده را عادی کنم یا خیر. > a1 <- rgev(2000، loc= 0.449، scale=0.7423، shape=0) > a1_scale <- scale(a1) > fgev(a1, shape=0) فراخوانی: fgev(x = a1، shape = 0) انحراف : 5159.472 برآورد مقیاس محلی 0.4619 0.7495 استاندارد خطاها در مقیاس محلی 0.01764 0.01307 همگرایی اطلاعات بهینه سازی: ارزیابی عملکرد موفقیت آمیز: 24 ارزیابی گرادیان: 5 > fgev(a1_scale، shape=0) فراخوانی: fgev(x = a1_scale، shape = 0) انحراف: 2374 - 5288. 0.7740 خطاهای استاندارد loc scale 0.01822 0.01350 بهینه سازی اطلاعات همگرایی: موفقیت آمیز ارزیابی عملکرد: 24 ارزیابی گرادیان: 5 برای بررسی تطابق بین این دو نتیجه، مدل b را از پارامترهای به دست آمده در بالا ایجاد می کنم و Qq-plot را انجام می دهم. > b1 <- rgev(2000، loc=0.4619، scale=0.7495، shape=0) > b1_scale <- rgev(2000، loc=-0.4476، مقیاس=0.7440، shape=0) > qqplot(b1، b1_scale) > abline (0،1) این چیزی است که من پیدا کردم: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/Gzd7X.png) آیا به این معنی است که من هرگز نباید قبل از انجام برازش توزیع، مجموعه داده را عادی کنم؟
آیا قبل از برازش توزیع Gumbel باید مجموعه داده را نرمال کنیم؟
54785
آیا کسی نمونه برنامه ای را دارد که الگوریتم مونت کارلو متوالی را شبیه سازی کند؟ در هر نرم افزاری من سعی می کنم چنین برنامه ای بنویسم اما دائماً سؤالات و مشکلاتی وجود دارد که نمی توانم آنها را حل کنم. با احترام
برنامه ای برای الگوریتم مونت کارلو متوالی
78582
من این کتاب مدل سازی و استدلال با مشکلات شبکه های بیزی را دنبال می کنم و در این گیر کرده ام: 3.2 دوباره توزیع مشترک Pr را از تمرین 3.1 در نظر بگیرید. (الف) Pr(A=true یا B=true) چیست؟ (ب) توزیع را با شرطی کردن رویداد A = true ∨ B = true به روز کنید، یعنی توزیع شرطی را بسازید Pr(.|A = درست ∨ B = درست (ج) Pr(A=true) چیست Pr(B =true) = true به صورت شرطی مستقل از C = true با توجه به رویداد A=true ∨ B =true ![جدول 3.1](http://i.stack.imgur.com/I9UMa.png)` اکنون من چیزهایی دارم، مانند: Pr(E)=Pr(w1)+...=0.1 Pr(B)=Pr( w1)+...=0.2 Pr(A)=Pr(w1)+...=0.2442 a)Pr(A=T یا B=T) = Pr(A)+Pr(B)-Pr(A and B)=0.2442+0.2-(0.0190+0.1620)=0.2632 ب)Pr(w1)= 0.0190/0.2632=0.072188، Pr(w2)=0.22=0.2 0.003799، Pr(w3)=0.0560/0.2632=0.2127، Pr(w4)=0، Pr(w5)=0.1620/0.2632=0.6155، Pr(w6)=0.0180/0.2632=0.068389=0.068389، 0.068389=0.068389، P. Pr(w8)=0 c)Pr(A=T|A=T یا B=T)=Pr(A=T و (A=T یا B=T))/Pr(A=T یا B=T) =(0.0190+0.001)/0.2632=0.6876، Pr(B=T|A=T یا B=T)=Pr(B=T و (A=T یا B=T))/Pr(A=T op B=T)=(0.0190+0.001)/0.2632=0.07598 د) این را نمی دانم پس کسی می تواند کمک کند؟ مطمئن نیستم که c) درست باشد، زیرا این اولین بار است که (.|A یا B) را می بینم. با تشکر
من یک سوال در مورد P شرطی با چندین رویداد دارم
78586
من این سوال را دارم: مطالعه ای که توسط هویت همکاران انجام شد نشان داد که 79 درصد از شرکت ها برنامه ریزی انعطاف پذیری را به کارمندان ارائه می دهند. فرض کنید محققی معتقد است که در شرکت های حسابداری این رقم کمتر است. محقق به طور تصادفی 415 شرکت حسابداری را انتخاب می کند و از طریق مصاحبه مشخص می کند که 303 شرکت از این شرکت ها دارای برنامه ریزی انعطاف پذیر هستند. مقدار آماره را برای آزمون این فرضیه محاسبه کنید. تنظیم فرضیه صفر >= 0.79 فرضیه جایگزین <.79 N = 415 x-bar =. آن را ندارم کمک؟
آزمون فرضیه بدون خطای استاندارد؟
63349
ما با مجموعه ای از 4000 مجله شروع کردیم. این مجلات دارای ویژگی های خاصی هستند یا ندارند. سپس یک بردار بین هر مجله A و هر مجله B ایجاد کردیم. این بردار به من 4000^2 یا 16 میلیون بردار می دهد. برای هر بردار یک z-score محاسبه کرده ام. امتیازهای z بین 40- تا 60 متغیر است، اما بیشتر آنها بین 1- و 1 هستند. هدف من گرفتن این امتیازات z و پیش بینی رابطه واقعی بین هر مجله A و B است. 1. چه آزمونی باید انجام شود. من برای انجام این کار استفاده کنم؟ (ما به یک درخت رگرسیون فکر می کردیم.) 2. و بسته به پاسخ شماره 1، تا چه اندازه باید از داده ها نمونه برداری کنم؟ آیا منطقی تر است که: الف. مثلاً 25 بالاترین و کمترین امتیاز z را در هر مجله بگیرید، یا b. یک نمونه تصادفی بگیرید. پاسخ به شماره 1 یا 2 قدردانی خواهد شد.
چگونه از z-score های موجود برای پیش بینی z-score های واقعی در یک مجموعه داده بزرگ (16 میلیون برداری) استفاده کنیم؟
62695
آیا کسی می تواند از نوشتن فرمول با استفاده از متغیرهای کمکی در فرمول رگرسیون خطی استفاده کند؟ من به بازخورد نیاز دارم تا ببینم آیا در مسیر درستی هستم یا خیر. بسیار قدردانی می شود! مواد اولیه من در اینجا آمده است: * متغیر وابسته = % تغییر در ثبت نام مدارس منشور * متغیر مستقل = نمره شاخص عدم تشابه به صورت درصد نمایش داده می شود * متغیر کمکی = % ثبت نام در مدرسه خصوصی * متغیر کمکی = نوع مدرسه (کد شده با شماره) * متغیر کمکی = سال * متغیر کمکی = % ثبت نام ویژه ویرایش * متغیر کمکی = % ثبت نام ELL * متغیر کمکی = % دانش آموزان غیرسفید پوست
به نوشتن متغیرهای کمکی در فرمول رگرسیون کمک کنید
21517
فرض کنید یک معادله رگرسیون خطی ساده تخمین زده شده به صورت $$E[y| \textbf{x}] = \hat{\beta}_{0}+ \hat{\beta}_{1}\textbf{x}$$ سپس تفسیر شیب به صورت زیر است: برای افزایش واحد در $\textbf{x}$، $E[y| \textbf{x}]$ با $\hat{\beta}_{1}$ افزایش می‌یابد. آیا می توان از همین معادله برای پیش بینی $y$ از مقدار $\textbf{x}$ استفاده کرد؟
پیش بینی در مقابل ارتباط با رگرسیون خطی
68494
من هنگام آموزش یک شبکه عصبی با 100 خروجی و 6000 نمونه با 500 ویژگی مشکل حافظه دارم. چه کار کنم. من نمی خواهم برای هر خروجی یک شبکه عصبی جداگانه یاد بگیرم. خروجی ها بسیار همبسته هستند، بنابراین من می خواهم یک پیش بینی چند هدف انجام دهم. پیشنهادات؟ این کاری است که من انجام دادم net = newfit(train_data', targets', 100); net.performFcn = 'mae'; net.layers{2}.transferFcn = 'logsig'; net.layers{1}.transferFcn = 'tansig'; net = train(net, train_data', targets');
مسائل مربوط به آموزش شبکه های عصبی با خروجی های متعدد
10220
این ممکن است مانند یک سوال مبهم به نظر برسد، اما من نمی‌توانم هیچ منبع/نمونه‌ای «خوب» در مورد آن پیدا کنم. سوال اساسی این است: اکثر متغیرها، بسته به مشکل، انواع خاصی از توزیع ها را دنبال می کنند. معمولی/گاوسی _ممکن است نه_ مناسب ترین مورد برای ثبت انواع خاصی از پدیده ها باشد. اگرچه من با توزیع‌های مختلف از دیدگاه ریاضی کاملاً آشنا هستم، اما نمی‌توانم برخی از آنها را به صورت مفهومی درک کنم، به عنوان مثال: توزیع یکنواخت زمانی است که وقوع آن رویداد در طول زمان به یک اندازه محتمل باشد، زمانی که وقوع «مایل به مرکزیت» باشد، عادی است. در اطراف میانگین بیشتر اوقات (مانند تعداد نقص در نمونه ها یا قد شهروندان در یک کشور و غیره) به طور مشابه برای مثلثی - من این را می فهمم _ آسان ones_ به اصطلاح. هنگام استفاده از شبیه سازی مونتکارلو معمولاً با چه نوع توزیع هایی مواجه شده اید؟ مثالها همراه با منطق انتخاب آن توزیع مفید خواهند بود. اساساً به دنبال یک مرجع / اشاره گر هستم که به من کمک کند آن را به عنوان یک لیست برای مرجع و درک تنظیم کنم. من یک توضیح غیر ریاضی را ترجیح می دهم زیرا برای بحث با سهامداران غیر ریاضی که شبیه سازی های مونت کارلو به آنها نشان داده می شود استفاده می شود * <نام توزیع> : <مناسب ترین کاربرد> من درباره قانون قدرت شنیده ام اما واقعاً نمی دانم / نمی دانم که چیست و چگونه می توان از آن استفاده کرد.
مناسب ترین توزیع ها برای مدل سازی شبیه سازی مونت کارلو
95727
من در حال پیش‌بینی فضایی احتمالات دوجمله‌ای (با استفاده از داده‌های متناسب؛ «cbind» در R) در یک حوزه فضایی هستم. من از توابع «get.models» به دنبال «model.avg» در بسته R «MuMIN» استفاده می‌کنم تا ضرایب میانگین مدل‌های با دلتا AIC کمتر از 2 را به دست بیاورم. و میانگین ضرایب. اکنون می‌خواهم از تابع «cv.glm» اعتبار سنجی متقاطع (یا هر روش مشابه) از بسته R «بوت» استفاده کنم تا دقت پیش‌بینی اعتبار متقاطع این مدل متوسط ​​را به دست بیاورم. با این حال، هنگام انجام «cv.glm (داده‌ها، مدل.avg خروجی)» هشدار زیر را دریافت می‌کنم: خطا در eval(expr، envir، enclos): تابع model.avg.default پیدا نشد. اگر کسی بتواند در مورد نحوه دستیابی به اعتبار سنجی متقاطع در مدل های متوسط ​​از بسته MuMIN پیشنهاداتی ارائه دهد بسیار سپاسگزارم. متشکرم.
اعتبارسنجی متقاطع GLM های دوجمله ای متوسط ​​(model.avg از بسته MuMIn)
12314
من دو اندازه گیری مجزا و ناهمگن از یک شی دارم. من می خواهم با استفاده از هر دو مجموعه اندازه گیری، در مورد وضعیت جسم پیش بینی کنم. چه روش هایی می توانند اندازه گیری ها را در چارچوب رگرسیون به منظور بهبود استنتاج ترکیب کنند؟ **ویرایش** منظور من از ناهمگن این است که اندازه گیری ها ناهمگون و نامتناسب هستند. دو دستگاه مختلف برای مشاهده جسم مورد استفاده قرار گرفت که جنبه های مختلف حالت آن را اندازه گیری می کرد. در رابطه با استنتاج بهبودیافته، می‌خواهم وضعیت شی را با استفاده از دو اندازه‌گیری با استفاده از رگرسیون پیش‌بینی کنم. در حالت ایده آل، استفاده از هر دو اندازه گیری باید به پیش بینی دقیق تری نسبت به استفاده از هر یک از اندازه گیری ها به طور جداگانه منجر شود. چگونه باید پیش بینی های حالت بر اساس اندازه گیری ها باشد؟ در حال حاضر من در حال یادگیری یک نقشه برداری از فضای ورودی اندازه گیری به فضای خروجی با استفاده از رگرسیون پشته هستم.
ترکیب اندازه گیری های ناهمگن برای بهبود استنتاج
21510
راه مناسبی برای آزمایش اینکه آیا دو رگرسیون لجستیک به طور قابل توجهی با یکدیگر متفاوت هستند چیست؟ اساساً، من دو رگرسیون لجستیک مشابه دارم که از دو مجموعه داده متفاوت ساخته شده است، و یکی از دو مجموعه داده ترکیب شده است. من می‌خواهم با استفاده از رگرسیون حاصل از ترکیب مجموعه‌های داده، بتوانم تحلیل‌های بیشتری را روی کل مجموعه داده انجام دهم، اما ابتدا باید مطمئن شوم که این رابطه تفاوت معناداری با هیچ یک از دو رگرسیون اصلی ندارد. همچنین می‌خواهم بدانم که آیا دو رگرسیون اصلی جداگانه با یکدیگر متفاوت هستند یا خیر. آیا راه ساده ای برای این کار وجود دارد؟ ممنون!!
مقایسه رگرسیون های لجستیک
112474
من چندین سری زمانی دارم که هر یک مشاهدات یک پدیده هستند، به عنوان مثال: > مشاهده 1: 10، 25، 36، 72، 80، .... > > مشاهده 2: 32، 46، 78، 90، 100، .... > > مشاهده 3: 12، 27، 34، 75، 36، ... > > .... > > مشاهده 100: 7، 33، 45، 56، 32، ... هر یک از اندازه گیری های من در هر مشاهده در دوره های زمانی معادل گرفته می شود. من می‌توانم از روش‌های مختلفی برای تناسب منحنی‌ها با سری‌های زمانی خود و پیش‌بینی عملکرد برای هر سری استفاده کنم. با این حال، چگونه می توانم این منحنی ها را ترکیب کنم تا یک مدل قابل تعمیم ایجاد کنم که همه 100 مشاهدات را در نظر بگیرد؟
چگونه می توانم چندین مدل سری زمانی را برای ایجاد یک مدل پیش بینی قابل تعمیم ترکیب کنم؟
12316
اگر در یک سری زمانی که دارای 40 چهارم (ده سیکل یا ده سال) داده است مقادیر گم شده ای داشته باشم، بهترین روش SAS برای منتسب کردن مقادیر از دست رفته چیست؟ قسمت 2: من سری 390 دارم (هر کدام 40 چهارم) که از الگوهای مشابهی پیروی می کنند -- اکثر آنها نقاط داده گم شده دارند (هر کدام 2-3)، چگونه می توانم از سری 390 دیگر برای کمک به منتسب کردن مقادیر از دست رفته در هر سری استفاده کنم؟ از چه روش SAS برای آن استفاده کنم؟ در پایان من یک مجموعه کامل از 15600 نقطه داده می خواهم.
وارد کردن مقادیر گمشده در سری های زمانی با استفاده از SAS
62691
از ویکی پدیا > مدل خطی عمومی (GLM) یک مدل خطی آماری است. ممکن است به صورت 1 $$ \mathbf{Y} = \mathbf{X}\mathbf{B} + \mathbf{U} نوشته شود، $$ که در آن $Y$ > یک ماتریس با مجموعه‌ای از اندازه‌گیری‌های چند متغیره است، $X$ ماتریسی است که > ممکن است یک ماتریس طراحی باشد، $B$ ماتریسی حاوی پارامترهایی است که معمولاً > تخمین زده می شود و $U$ ماتریسی است حاوی خطا یا نویز خطاهای > معمولاً از یک توزیع نرمال چند متغیره پیروی می کنند. سپس می‌گوید: اگر خطاها از توزیع نرمال چند متغیره پیروی نمی‌کنند، ممکن است از مدل‌های خطی تعمیم‌یافته برای کاهش مفروضات مربوط به $Y$ و $U$ استفاده شود. من تعجب کردم که چگونه مدل های خطی تعمیم یافته فرضیات مربوط به $Y$ و $U$ را در مدل های خطی عمومی کاهش می دهند؟ توجه داشته باشید که من می توانم رابطه دیگر آنها را در جهت مخالف درک کنم: > مدل خطی کلی را می توان به عنوان موردی از مدل خطی تعمیم یافته > با پیوند هویت مشاهده کرد. اما من شک دارم که این به سوال من کمک کند.
چگونه مدل خطی تعمیم یافته مدل خطی عمومی را تعمیم می دهد؟
78583
آیا می توانید یک همبستگی خطی با چند نمونه و درصد انجام دهید؟ به عنوان مثال (بد)، 10 شهر مختلف در مورد نظرات آنها در مورد قانونی کردن ماری جوانا و ایدئولوژی سیاسی آنها مورد نظرسنجی قرار گرفتند. هر نمونه با نسبت x به نفع قانونی شدن ظرف، و y = نسبت که به عنوان لیبرال شناسایی می شود، نمودار می شود. با تشکر
همبستگی بین نسبت های متعدد
115128
با استفاده از داده دمای متوسط ​​(Y1)، سعی کردم دستور R زیر را همانطور که در _Time Series Analysis With Applications in R_ توسط Jonathan D. Cryer & Kung-Sik Chan استفاده شده است، تکرار کنم، اما همچنان یک پیام خطا دریافت می کنم. دستور R: AICM=NULL for(d در 1:4){ predator.tar = tar(y=log(predator.eq)، p1=4، p2=4، d=d، a=.1، b=. 9) AICM = rbind(AICM، c(d،predator.tar$AIC، signif(predator.tar$thd، 4)، predator.tar$p1، predator.tar$p2 ) } colnames(AICM) = c('d', 'nominal AIC', 'r', 'p1', 'p2') rownames(AICM) = NULL AICM توجه: به شکل 15.11 در پیام خطای متنی: خطا در tar(Y1.eq، p1 = 4، p2 = 4، d = d، a = 0.1، b = 0.9) : آرگومان های استفاده نشده (p1 = 4، p2 = 4، d = d، a = 0.1، b = 0.9) چه کاری می توانم انجام دهم، لطفا؟
شکل 15.11 AIC اسمی مدل‌های TAR متناسب با سری Log(predator) برای 1 ≤ d ≤ 4
62696
من 2 گروه داده برای مقایسه با استفاده از آزمون t دارم، هر دو با حجم نمونه n=5. بررسی اینکه آیا فرض نرمال بودن آزمون برقرار است یا خیر دشوار است زیرا اندازه نمونه بسیار کوچک است. من خوانده ام که یک آزمون t در این مورد به غیر عادی بودن قوی است زیرا اندازه نمونه برابر است. با این حال، اگر داده ها بسیار غیرعادی بودند، ممکن است دیگر قوی نباشند. یک جایگزین می تواند انجام تست من ویتنی U باشد، اما این تست قدرت کمتری نسبت به آزمون t دارد (البته من مطمئن نیستم که چقدر کمتر). من در واقع همیشه با موقعیت‌های مشابهی مواجه می‌شوم و می‌دانم که ممکن است پاسخ قطعی وجود نداشته باشد، اما فقط کنجکاو هستم که دیگران در جامعه چگونه به این نوع مشکل برخورد می‌کنند. من معمولاً فقط با تست t می روم و به دیگران می گویم که همین کار را انجام دهند زیرا آنها با این تست بیشتر از تست MW آشنا هستند.
T Student در مقابل Mann-Whitney U برای نمونه های کوچک مساوی
68498
من با مفاهیم R و داده کاوی نسبتاً تازه کار هستم و سعی می کنم پکیج rpart را در R درک کنم. در مورد نقش اولویت ها و ضررها در ایجاد درخت تصمیم گیری کمی سردرگم هستم. من به شرح مختصر بسته _مقدمه ای بر پارتیشن بندی بازگشتی_ (pdf) اشاره می کنم و از هر توضیحی در مورد این موضوع سپاسگزارم. برای دقیق تر بودن، منظور از احتمالات قبلی هر طبقه چیست (به عنوان مثال، صفحه 4)؟ آیا این بدان معناست که درخت قبلاً ساخته شده است و اکنون سعی می کنیم خطر یا ضرر را کاهش دهیم؟
پیشینیان و ضرر در R
105983
من با تنظیمات مقایسه های متعدد گیج شده ام. من یک $p$-values ​​با مقادیر زیادی دارم (به دلیل نمرات زیاد در پیش زمینه 0) از یک آزمون دقیق فیشر. من مقداری $p$-value دریافت می‌کنم که بدون اصلاح چندین آزمایش مهم هستند. $p$-value از 1000$p$-مقادیر حداقل تشکیل شده است. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.0000013 0.2552000 0.6069000 0.5634000 0.8672000 0.9900000 و 3000 $p$-values ​​از 1. $p$-values ​​در https://dl.dropboxvalusercon/2.dropboxvalusercon/1. اگر همه $p$-values=1 را حذف کنم و چندین تصحیح آزمایش انجام دهم. انتظار داشتم با افزودن این $p$-values=1; از آنجایی که توزیع $p$-value در حال جابجایی به چپ است، $q$-value افزایش خواهد یافت. با این حال، توابع **pvalue** بسته R برای همه مقادیر _p____ -value=1 می دهند. من نمی توانم این رفتار را درک کنم. FDR فرض می کند که توزیع _p_-value یکنواخت است که در موارد من نیست. من چه اشتباهی می کنم؟
FDR (تصحیح تست چندگانه) با توزیع p-value اریب
105982
من یک HMM را به سری های زمانی برازش می کنم، برای هر مجموعه داده از نتایج BIC برای انتخاب تعداد بهینه حالت ها استفاده می کنم. در آن، عدد BIC کمترین است و در نتیجه نشان دادن این مدل با آن تعداد حالت، مجموعه داده را به بهترین شکل توصیف می کند. آیا این روش صحیح است؟ برای مجموعه‌های سری‌های زمانی من (حدود 500 سری زمانی)، معمولاً 2 حالت بهترین است - که بسیار مطلوب است زیرا می‌توانم آن دو را به راحتی توضیح دهم. حدود 20% BIC نشان می دهد که 3 بهترین است و تعداد انگشت شماری 4 می باشد. تعداد انگشت شماری دیگر از طریق baum-welch کالیبره نمی شوند، اما این یک مشکل دیگر است.
تعیین حالات در HMM با BIC
115129
من متغیرهای وابسته مختلف را با استفاده از مجموعه ای از پیش بینی کننده های یکسان برای همه متغیرهای وابسته مانند y1=beta0+beta1.X1+beta2.X2+ ..... y2=beta0+beta1.X1+beta2.X2+ . که سناریوی تست چندگانه باشد؟ اگر چنین است، چگونه می توان آن را تنظیم کرد؟
تست چندگانه
50206
در حالی که داشتم تجزیه و تحلیل پایان نامه خود را می نوشتم، هنگام بررسی مجدد آزمون خود برای نرمال بودن، متوجه شدم که مقدار p برای اکثر متغیرهای پیوسته 000/0 است که کمتر از 05/0 است و این فرضیه صفر را رد می کند که به این معنی است. به درک من داده های من به طور معمول توزیع نمی شود. من قبلاً تحلیل عاملی را با «روش استخراج: تجزیه و تحلیل مؤلفه اصلی» و «روش چرخشی: Oblimin» با «نرمال‌سازی قیصر» تکمیل کرده‌ام. همه 88 متغیر پیوسته به 17 عامل کاهش یافت. پایایی بررسی شد و همه آیتم‌ها آلفا 8/0 و بالاتر بودند و سپس رگرسیون چندگانه (استاندارد) برای تجزیه و تحلیل اثربخشی کلی در برابر 17 متغیر پیش‌بینی‌کننده (عامل) انجام شد. سپس من یک آزمون t را اجرا کردم تا ببینم چگونه دو گروه از متخصصان به اثربخشی کلی پاسخ دادند و P-value در این آزمون بیش از 0.05 بود. به طور ناگهانی در حال حاضر وحشت می کنم که آیا من آن را به درستی از نظر متغیرهای پیوسته انجام داده ام، زیرا همه دارای p-value 0.000 هستند؟ آیا تحلیل نهایی من معتبر است؟
آیا می توان از داده های غیر عادی برای تحلیل عاملی و رگرسیون چندگانه استفاده کرد؟ اگر چنین است چه روشی برای توجیه آن وجود دارد؟
100020
من یک مجموعه داده بسیار بزرگ دارم و حدود 5٪ مقادیر تصادفی از دست رفته است. این متغیرها با یکدیگر همبستگی دارند. مجموعه داده R مثال زیر فقط یک نمونه اسباب بازی با داده های همبسته ساختگی است. set.seed(123) # ماتریس متغیر X xmat <- ماتریس(نمونه(-1:1، 2000000، جایگزین = TRUE)، ncol = 10000) colnames(xmat) <- چسباندن (M، 1:10000, sep = ) rownames(xmat) <- paste(sample, 1:200, sep = ) #متغیرهای M همبستگی دارند N <- 2000000*0.05 # 5% مقادیر تصادفی گمشده inds <- round ( runif(N, 1, length(xmat)) ) xmat[inds] <- NA > xmat[1:10 ,1:10] M1 M2 M3 M4 M5 M6 M7 M8 M9 M10 نمونه1 -1 -1 1 NA 0 -1 1 -1 0 -1 نمونه2 1 1 -1 1 0 0 1 -1 -1 1 نمونه3 0 0 1 -1 -1 -1 0 -1 -1 -1 نمونه4 1 0 0 -1 -1 1 1 0 1 1 نمونه 5 NA 0 0 -1 -1 1 0 NA 1 NA نمونه6 -1 1 0 1 1 0 1 1 -1 -1 نمونه7 NA 0 1 -1 0 1 -1 0 1 نمونه NA8 1 -1 -1 1 0 -1 -1 1 -1 0 نمونه9 0 -1 0 -1 1 -1 1 NA 0 1 نمونه 10 0 -1 1 0 1 0 0 1 NA 0 آیا (بهترین) راه برای نسبت دادن مقادیر گمشده در این شرایط وجود دارد؟ آیا الگوریتم جنگل تصادفی مفید است؟ هر راه حل کاری در R بسیار قدردانی می شود. **ویرایش ها:** (1) مقادیر از دست رفته به طور تصادفی بین متغیرها و نمونه ها توزیع می شوند. از آنجایی که **تعداد متغیرها** **بسیار بزرگ** است (در اینجا در مثال - 10000)، در حالی که **تعداد نمونه‌ها** در اینجا در مثال ساختگی فوق کوچک است و حدود 200 است. بنابراین وقتی به هر نمونه ای از همه متغیرها (10000) نگاه می کنیم، احتمال زیادی وجود دارد که وجود داشته باشد. مقدار زیادی در برخی از متغیرها وجود ندارد - به دلیل تعداد زیاد متغیرها. بنابراین فقط حذف نمونه گزینه ای نیست. (2) متغیر را می توان هم به صورت کمی یا هم به صورت کیفی (دودویی) در فرآیند انتساب در نظر گرفت. تنها قضاوت این است که چقدر خوب می توانیم آن را پیش بینی کنیم (دقت). بنابراین پیش‌بینی‌هایی مانند 0.98 به جای 1 ممکن است به جای 0 در مقابل 1 یا -1 در مقابل 1 قابل قبول باشند. شاید لازم باشد بین زمان محاسبه و دقت معاوضه کنم. (3) موضوعی که من فکر می کنم چگونه بیش از حد برازش می تواند بر نتایج تأثیر بگذارد زیرا تعداد متغیرها در مقایسه با تعداد نمونه ها زیاد است. (4) از آنجایی که مقدار کل مقادیر از دست رفته حدود 5٪ است و تصادفی است (در هیچ متغیر یا نمونه ای متمرکز نشده است به عنوان احتیاط برای حذف متغیرها یا نمونه هایی که مقادیر گمشده بسیار بالایی دارند) (5) کامل کردن داده ها برای تجزیه و تحلیل هدف اول است و دقت در درجه دوم است. بنابراین به دقت خیلی حساس نیست.
چگونه می توان مقادیر را در تعداد بسیار زیادی از نقاط داده انجام داد؟
49848
من فعالیت های بازار کار را تجزیه و تحلیل می کنم. من JD: مدت زمان کار (زمان بین شروع و پایان کار) و PD: مدت زمان حرفه ای (زمان سپری شده در یک حرفه خاص) را اندازه گیری می کنم. نمونه من مبتنی بر اپیزود است (نه بر اساس فردی)، که برای «PD» مهم است: من «PD» را به عنوان دو قسمت شغلی بعدی در یک حرفه اندازه‌گیری می‌کنم. بنابراین «PD» بنا به تعریف بزرگ‌تر یا مساوی «JD» است. علاوه بر این، من نقاط داده بیشتری برای «JD» دارم (هر استخدامی یک نقطه داده می‌دهد) تا «PD» (برای هر کارمند، دو شغل بعدی در همان حرفه در یک نقطه داده ادغام می‌شوند). من به _تفاوت_ بین «JD» و «PD» علاقه مند هستم و می خواهم این تفاوت را برای چندین گروه مقایسه کنم. آزمایش JD و PD به طور جداگانه مطلوب نیست. فرض کنید گروه «A» یک «JD» کوتاه و یک «PD» کمی بلندتر دارد. گروه «B» می‌تواند یک «JD» طولانی داشته باشد اما یک «PD» که فقط کمی طولانی‌تر از «JD» «B» است. برای بررسی تفاوت بین «JD» و «PD» چه آزمایشی می‌توان انجام داد؟ آیا منطقی است که تفاوت در نسبت های «JD» به «PD» را در گروه ها آزمایش کنیم؟ Non-sequitor: «rho» در آزمون «survdiff» «R» چه می کند و چگونه باید «rho» را انتخاب کنم؟ [ویرایش] رویکرد من هنوز مشخص نیست. دقیقاً کاری که انجام می‌دهم این است: من از پایگاه داده‌ای استفاده می‌کنم که شناسه افراد («ID»)، داده‌های شروع یک شغل («BEGIN»)، تاریخ پایان یک شغل («END») و نوع شغل («TYPE») را ذخیره می‌کند. * برای جمع‌آوری «JD» «BEGIN» و «END» را می‌گیرم و با استفاده از «TYPE» گروه‌های مختلفی می‌سازم. * برای دریافت «PD» کارهای زیر را انجام می‌دهم: برای هر «ID» اگر 2 استخدام بعدی («e1»، «e2») «TYPE» یکسان داشته باشند، آنها را در یک قسمت ادغام می‌کنم (با «BEGIN(e1)» و END(e2)). این مرحله را تکرار می‌کنم تا زمانی که دیگر ادغام امکان‌پذیر نباشد (مثلاً اگر 3 کار بعدی («e1»، «e2»، «e3») از همان «TYPE» وجود داشته باشد، یک قسمت را به پایان می‌رسانم (با «BEGIN(e1 )» و «END(e3)») در نهایت، چیزی که من سعی می کنم بفهمم این است که آیا تفاوت بین «JD» و «PD» از یک الگوی مشابه برای انواع مختلف پیروی می کند یا خیر.
چندین نقطه پایانی در تجزیه و تحلیل بقا مشاغل فردی
21519
کدام الگوریتم های یادگیری به طرز شرم آور موازی هستند؟ من آن را با مثال واضح از مستندات foreach شروع می کنم: rf <- foreach(ntree = rep(250, 4)، .combine = ترکیب، .packages = randomForest) %dopar% randomForest(x, y, ntree = ntree) چه چیز دیگری در بیرون وجود دارد که بتوان به راحتی با «foreach» موازی کرد؟
الگوریتم های یادگیری ماشینی موازی شرم آور
112472
من علاقه مند به ایجاد مدلی برای ریتم شبانه روزی سطوح هورمون از طریق تجزیه و تحلیل کوسینور هستم. من تازه شروع به بررسی تجزیه و تحلیل cosinor کردم، بنابراین چند سوال دارم. داده‌ها در حال حاضر در حال جمع‌آوری هستند، اما من سعی می‌کنم قبل از رسیدن داده‌های واقعی، درک بهتری از روش داشته باشم. داده ها باید به این شکل باشد: من در مجموع 12 موضوع دارم. سطح هورمون هر آزمودنی هر 30 دقیقه به مدت 6 روز اندازه گیری شد. در روزهای 1-3 آزمودنی ها داروی A و در روزهای 4-6 داروی B تجویز شدند. یک چرخه 24 ساعته انتظار می رود و بنابراین من علاقه مند به ایجاد مدلی برای یک ریتم شبانه روزی 24 ساعته برای هر یک از دو دارو هستم. این به این معنی است که من برای هر یک از دو دارو، سیکل های متعددی دارم - هر نفر 24 ساعته. پس از خواندن دو بررسی زیر (فرناندز و همکاران، 2009؛ کورنلیسن 2014) در مورد cosinor به نظر می رسد که من می خواهم تجزیه و تحلیل cosinor میانگین جمعیت را انجام دهم. با فرض برآورده شدن مفروضات لازم و در ساده ترین حالت یک همزن تک جزیی، من در تعجب هستم که چگونه می توانم پیش بروم و تجزیه و تحلیل را انجام دهم. درک من این است که ابتدا باید یک همزینور تک جزیی را برای هر موضوع محاسبه کنم و سپس میانگین تخمین پارامترها را برای بدست آوردن میانگین جمعیت برآورد کنم. برای داروی A بگویید، آیا می توانم به سادگی سه روز اول داده ها را برای هر موضوع ترکیب کنم تا همزینورهای تک جزیی را محاسبه کنم؟ وقتی آن 12 cosinors تک جزیی را داشتم، می توانم آنها را به طور متوسط ​​​​میانگین کنم تا میانگین جمعیت را برآورد کنم؟ آیا باید این واقعیت را در نظر بگیرم که برای هر موضوعی، مثلاً در محاسبه تخمین‌های واریانس، چرخه‌های تکراری دارم؟
تحلیل کوزینور با چرخه های مکرر
105989
من در حال توسعه یک مدل خطی از بازده در برابر زمان هستم (33 سال داده بازده) که در آن سال 1975،1976 .... 2007 است. می خواهم بدانم آیا تغییر در بازده در طول زمان خطی بوده است یا خیر؟ بنابراین من یک مدل خطی از بازده نسبت به سال برازش کردم: mdl<-lm(yld ~ year,data=data) در مدل دوم من، سال به توان 2 افزایش یافت. mdl2<-lm(yld ~ year + I(year^2 ),data=data) anova(mdl,mdl2) مدل 2 پیشرفت قابل توجهی نسبت به مدل خطی می دهد، بنابراین من شواهد انحنای داده ها را می پذیرم. سوال من این است: آیا این تحلیل درست است؟ منظورم این است که آیا واقعاً می توانم «سال» را برای توسعه مدل دومم مربع کنم؟ این طرح است![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/WdjmS.png) بسیار متشکرم
آیا می توان زمان را برای ایجاد یک مدل منحنی خطی از عملکرد محصول در مقابل زمان مجذور کرد؟
78588
من چند بردار دارم (هر بردار نشان دهنده یک دانش آموز، هر مختصات، یک سوال) است که می خواهم آنها را با هم مقایسه کنم تا بگویم شبیه هستند یا نه. من از فاصله کسینوس استفاده می کنم. من می خواهم با در نظر گرفتن عدم احتمال/احتمال هر موقعیت بردار آن را بهتر کنم. مثلاً وقتی دو دانش‌آموز در یک موقعیت «1» دارند و 90 درصد جمعیت -1 دارند، این شواهد بیشتری برای شباهت آنها نسبت به حالتی است که هر دو -1 داشته باشند. (ما بردارها را فقط آن دو مقدار را در هر موقعیت در نظر می گیریم) تا کنون دو ایده دارم 1) با توجه به احتمال نمونه p از a 1 در این موقعیت، 1s را در این موقعیت با 1-p و -1s را با - جایگزین کنید. ص این ویژگی خوبی دارد که اگر آنها بر روی 1 توافق کنند، شباهت (1-p)^2 به دست می آورند (عددی که با کاهش p رشد می کند). برای جنبه منفی هم همینطور. اما ... من مطمئن نیستم که چگونه این امکان را برای عدم توافق آنها در مورد ارزش توضیح می دهد ... منظورم این است که آنها -p(1-p) از عدم تشابه دریافت می کنند، اما من نمی دانم چه چیزی باید دریافت کنند ( همچنین، به نظر می‌رسد این ایده روی مجموعه داده من کار نمی‌کند، به این معنا که نتایج را بدتر می‌کند) 2) فقط به یک موقعیت وزن p(1-p) بدهید. این به شباهت برای توافق بر روی 1 برابر با -1 پاداش می دهد. منطق این است که موقعیت با p=0.5 بیشترین تمایز را دارد این به طرف غیر محتمل بیشتر از طرف احتمالی پاداش نمی دهد (اما عجیب به نظر می رسد نتایج را بهبود می بخشد) بنابراین ... الف) به نظر می رسد 1 می تواند بهتر بین طرفین تمایز قائل شود. همخوانی ها، اما من کاملاً مطمئن نیستم که با ناهماهنگی ها چه می کند. هر ایده ای؟ ب) چه معیاری را پیشنهاد می کنید که احتمالات را محاسبه می کند؟ ج) چه چیزی را باید بخوانم تا پیشینه لازم برای فکر کردن در این مورد را بدست بیاورم؟
اندازه گیری فاصله که احتمالات را محاسبه می کند
115122
بیایید بگوییم که من در حال ایجاد مطالعه ای هستم که به درمان متاستاز در بیماران مبتلا به سرطان روده بزرگ آمریکایی آفریقایی تبار پرداخته است. آیا گروه کنترل یا گروه مقایسه من بیماران مبتلا به سرطان کولون قفقازی با متاستاز هستند؟ من در مورد نحوه ایجاد گروه های کنترل در این زمینه کمی سردرگم هستم.
چگونه یک گروه کنترل / مقایسه انتخاب کنیم؟
58774
در مسئله خوشه بندی خود با معیار تشابه سفارشی کار می کنم و به دنبال هر پیاده سازی الگوریتم هایی با فاصله نامتقارن یا ماتریس شباهت هستم. من فقط به مواردی علاقه مند هستم که می توانند ماتریس شباهت/فاصله سفارشی را به عنوان ورودی یا تابع اندازه گیری شباهت سفارشی ارائه دهند. زبان پیاده سازی تا زمانی که کار می کند واقعاً مهم نیست. (R می تواند بهترین باشد، پایتون، C++، C، جاوا، روبی) به چه روش هایی علاقه خاصی پیدا می کنم. 1. خوشه بندی/گروه بندی Taylor-Butina برای تشابه نامتقارن. در اینجا کاربرد آن است. برخی از پیاده‌سازی‌های R، اگرچه مطمئن نیستیم که با ماتریس نامتقارن قابل استفاده هستند یا خیر. 2. خوشه بندی سلسله مراتبی ترجان با مولفه های قوی. نباید اشتباه گرفته شود الگوریتم اجزای به شدت متصل. 3. خوشه بندی طیفی با استفاده از ماتریس میل سفارشی. من به ویژه به اجرای این یکی در R علاقه مند هستم. برخی از الگوریتم های پیاده سازی شده در _Mesa Suite Version 2.0 Grouping Module_ را پیدا کردم. با این حال من هیچ آزمایشی یا دانلودی از این برنامه پیدا نکردم. ویرایش: تابع فاصله نابرابری مثلث را برآورده می کند. فکر می‌کنم این پست برای همه افراد شیمی‌فورماتیک که از R استفاده می‌کنند جالب باشد.
پیاده سازی خوشه بندی با ماتریس فاصله / شباهت نامتقارن
62693
در مدل پیش‌بینی ترکیبی با استفاده از ARIMA و شبکه‌های عصبی (پرسپترون چند لایه)، سری‌های زمانی ابتدا در ARIMA برای پردازش خطی پردازش می‌شوند. شما مقادیر پیش بینی و همچنین مقادیر آماری را به عنوان باقیمانده، اندازه گیری خطاهای مختلف دریافت می کنید. سوال من این است: از چه آیتم هایی برای تغذیه شبکه های عصبی استفاده می کنید زیرا حداقل به دو آیتم برای لایه ورودی نیاز دارید: ورودی و خروجی مطلوب؟
چه داده‌های ARIMA برای پیش‌بینی به شبکه‌های عصبی در مدل ترکیبی داده می‌شود؟
50201
من 12 موضوع منحصر به فرد دارم و در مجموع تقریباً 1700 مشاهده داشته ام. من یک متغیر پاسخ ترتیبی (دارای 4 سطح) و 3 متغیر کمکی طبقه بندی دارم (هر کدام به ترتیب سطوح مختلف 3، 5، 2 و 4 دارند). مقادیر پاسخ و متغیرهای کمکی برای هر موضوع منحصر به فردی در حال تغییر هستند. بهترین راه برای ارائه فرکانس این مجموعه داده چیست؟
جدول فرکانس برای اندازه گیری های مکرر
54781
من یک مخلوط گاوسی را با داده های مالی خود تطبیق دادم. مقادیر عبارتند از: $\pi= 0.3$ $\mu_1= -0.01$ $\mu_2= 0.01$ $\sigma_1=0.01$ $\sigma_2=0.03$ می‌توان دید که هر دو توزیع تک میانگین تقریباً صفر دارند. در حالی که یکی دارای نوسان زیاد و دیگری نوسان کم است. توزیع نرمال 1، سبز با پیک بالا دارای پارامترهای $\mu_1$ و $\sigma_1$ است و با احتمال 0.39 رخ می دهد (این عدد pi از خروجی normalmixEM است). توزیع نرمال 2 با پیک کوچکتر و نوسانات بیشتر دارای پارامترهای $\mu_2$ و $\sigma_2$ و احتمال $1-0.39$ است. من تولید چگالی مخلوط را به صورت زیر تصور می کنم: توزیعی داریم که کاملاً محتمل است ($\pi=1-0.39)$ و دارای $\mu_2$. است، اگر چگالی مخلوط انجام شود، یک ثانیه اضافه می کنیم. توزیع که کمی به سمت چپ جابه جا شده است (این مورد با احتمال 0.39 رخ می دهد و میانگین منفی دارد). از آنجایی که توزیعی که اضافه می کنیم کمی بیشتر به سمت چپ است، من انتظار دارم که چگالی مخلوط دارای یک انحراف منفی باشد، زیرا دم سمت چپ مخلوط حاصل سنگین تر خواهد بود؟ من این را کنترل می کنم، که یک انحراف مثبت '0.7' به دست می دهد. حالا سوال من این است: چرا؟ من انتظار یک انحراف منفی را دارم، زیرا فکر می‌کردم چگالی مخلوط دم چپ چاق‌تری خواهد داشت، زیرا با میانگین مثبت توزیع احتمالی را اضافه می‌کنیم که کمی به چپ تغییر کرده است؟
چولگی مخلوط مناسب درست نیست؟
105980
اگر من دو توزیع پیوسته $f(x)$ و $g(x)$ داشته باشم، چندین روش ریاضی برای ترکیب $f$ و $g$ برای بدست آوردن توزیع های جدید وجود دارد. کدام یک با کدام تفسیر آماری مطابقت دارد؟ به عنوان مثال، اگر $f$ و $g$ را در $fg$ ضرب کنم، آیا $fg$ معنای آماری دارد؟ در مورد $f/g$، $f \circ g$ و $f \star g$ (کانولوشن) چطور؟ همچنین، آیا می توانیم همین کار را با توزیع های گسسته انجام دهیم؟
نحوه ترکیب توزیع ها
105987
به نظر می رسد که رویکردهای یادگیری تبعیض آمیز بسیار بیشتری نسبت به روش های مولد وجود دارد. آیا مدل های تبعیض آمیز بیشتر در ادبیات مطالعه شده اند تا مولد؟ با تشکر
آیا یادگیری تبعیض آمیز بیشتر از یادگیری مولد مورد مطالعه قرار گرفته است؟
112476
از هر الگوریتم نمونه گیری عمومی، می توان یک الگوریتم بهینه سازی را استخراج کرد. در واقع، برای به حداکثر رساندن یک تابع دلخواه $f: \textbf{x} \rightarrow f(\textbf{x})$، کشیدن نمونه‌ها از $g \sim e^{f/T}$ کافی است. برای $T$ به اندازه کافی کوچک، این نمونه ها نزدیک به حداکثر جهانی (یا حداکثر محلی در عمل) تابع $f$ خواهند بود. منظور من از «نمونه‌گیری» کشیدن یک نمونه شبه تصادفی از توزیعی است که تابع log-relihood شناخته شده تا یک ثابت داده شده است. برای مثال، نمونه‌برداری MCMC، نمونه‌برداری گیبس، نمونه‌برداری پرتو، و غیره. منظور من از بهینه‌سازی تلاش برای یافتن پارامترهایی است که مقدار یک تابع معین را به حداکثر می‌رسانند. * * * آیا برعکس آن ممکن است؟ با توجه به یک اکتشافی برای یافتن حداکثر یک تابع یا یک عبارت ترکیبی، آیا می‌توانیم یک روش نمونه‌گیری کارآمد استخراج کنیم؟ برای مثال به نظر می رسد HMC از اطلاعات گرادیان استفاده می کند. آیا می‌توانیم یک روش نمونه‌برداری بسازیم که از یک تقریب BFGS مانند هسین استفاده کند؟ (ویرایش: ظاهرا بله: http://papers.nips.cc/paper/4464-quasi-newton-methods-for-markov-chain-monte-carlo.pdf) ما می توانیم از MCTS در مسائل ترکیبی استفاده کنیم، آیا می توانیم آن را ترجمه کنیم به یک روش نمونه گیری؟ زمینه: یک مشکل در نمونه گیری اغلب این است که بیشتر جرم توزیع احتمال در یک منطقه بسیار کوچک قرار دارد. تکنیک های جالبی برای یافتن چنین مناطقی وجود دارد، اما آنها مستقیماً به روش های نمونه گیری بی طرفانه ترجمه نمی شوند.
آیا تکنیک های بهینه سازی به تکنیک های نمونه گیری نگاشت می شوند؟
58777
بنابراین، من یک سوال برای یک پیشنهاد دارم و تقریباً مطمئن هستم که پاسخ نادرستی از مرد آمار محلی ما دریافت می کنم. برای ثبت، این داده‌های آرشیوی است، بنابراین من نمی‌توانم موارد را تغییر دهم (که به خوبی انجام نشده است): یک مجموعه از موارد به بررسی مناسب بودن رفتار دو نوع متخصص (مثلاً پزشکان و پرستاران) است و ما داشتن شرکت کنندگان در ارزیابی مناسب بودن 6 رفتار مختلف. می‌خواهم پاسخ‌های شرکت‌کنندگان را در تمام ۶ رفتار و به‌ویژه، تفاوت‌های بین اینکه چگونه شرکت‌کنندگان ممکن است احساس کنند رفتارهای خاص با برخی حرفه‌ها سازگار است، مقایسه کنم... آیا ایده‌ای دارید که کدام روش‌ها می‌توانند در اینجا مفیدتر باشند؟ آقای آمار ما یک ANOVA با طراحی ترکیبی را پیشنهاد کرد، اما حدس می‌زنم در درک نحوه تنظیم آن کمی مشکل دارم. شاید بتوانم فقط از توضیح برای مدل طرح ترکیبی استفاده کنم...
کدام ANOVA مناسب تر است؟
66335
من رگرسیون خطی چندگانه را در R با lm محاسبه می‌کنم (var ~ VAR1+VAR2+VAR3+VAR4) آیا می‌دانید چگونه تغییر مربع R را برای هر متغیر «VAR1»، «VAR2»، «VAR3» محاسبه کنید؟ متشکرم
رگرسیون خطی چندگانه تغییر مربع R
50209
من اطلاعاتی در مورد کاربرانی از مناطق مختلف دارم که از دایرکتوری های مختلف وب سایت بازدید می کنند. با جمع‌آوری آن داده‌ها، ماتریس فراوانی همزمان (برای مناطق و فهرست‌ها) را دریافت می‌کنم. اکنون می خواهم دو حالت را تشخیص دهم: 1. کاربران به طور مستقل از مناطق خود از دایرکتوری ها بازدید می کنند. 2. بین مناطق و دایرکتوری ها یک نقشه دوطرفه وجود دارد و کاربر از یک منطقه فقط از یک دایرکتوری خاص بازدید می کند (مگر اینکه اشتباه کند) احتمال وجود دارد. تخمین فرضیه اول آسان به نظر می رسد، اما من در تخمین احتمال فرضیه دوم مشکل دارم. به عبارت دیگر، من می‌خواهم درجه قطر ماتریس همزمانی را که در آن برخی از سطرها و ستون‌ها وجود ندارد (صفر)، بقیه ردیف‌ها/ستون‌ها درهم ریخته شده و نویز اضافه شده است را اندازه‌گیری کنم. احتمال فرضیه دوم را چگونه تخمین می زنید اگر فرض کنیم که مقداری خطای ثابت وجود دارد (احتمال رفتن بازدیدکننده از منطقه ای به دایرکتوری اشتباه)؟
برآورد احتمال استقلال دو متغیر گسسته با استفاده از ماتریس شمارش همزمان
24357
آیا فرآیند ARMA گاوسی می تواند نوآوری های غیر گاوسی داشته باشد؟ (به عنوان مثال، آیا یک فرآیند ARMA وجود دارد که گوسی باشد، اما نوآوری های مربوطه گاوسی نیستند)؟
فرآیند ARMA گاوسی با نوآوری های غیر گاوسی
58772
در آزمایش فرض رگرسیون موازی در رگرسیون لجستیک ترتیبی، چندین رویکرد وجود دارد. من هم از رویکرد گرافیکی (همانطور که در کتاب هارل توضیح داده شده است) و هم از رویکردی که با استفاده از بسته ترتیبی در R استفاده شده است، استفاده کرده‌ام. با این حال می‌خواهم آزمون برانت (از Stata) را هم برای متغیرهای فردی و هم برای مدل کل من به اطراف نگاه کردم اما نمی توانم آن را در R پیاده سازی کنم. **آیا تست برانت در R پیاده سازی شده است؟**
آزمون برانت در R
79180
من با مجموعه داده ای کار می کنم که حاوی اطلاعاتی در مورد مصرف سیب است. مجموعه داده شامل مقدار سیب مصرف شده بر حسب گرم در روز است. مشکل این است که نقاط داده به 3 دسته تقسیم می شوند: \- یک عدد واقعی (مثلاً 54 گرم در روز، افراد با وزن مصرف آنها) \- یک عدد گسسته (تعداد سیب در روز) که به g/ تبدیل می شود. در روز با استفاده از وزن متوسط ​​یک سیب (+/- 100 گرم) \- 0، افرادی که هیچ سیبی مصرف نمی کنند هیستوگرام داده ها به این صورت است: ![هیستوگرام](http://i.stack.imgur.com/0I2xf.png) هر گونه راهنمایی در مورد تبدیل این داده ها به چیزی قابل تجزیه و یا برازش یک توزیع بسیار قدردانی می شود. من می خواهم از این داده ها برای انجام یک تحلیل ریسک استفاده کنم. برای این کار باید توزیعی را به مقادیر برازش کنیم و سپس از این توزیع نمونه برداری کنیم. توزیع‌های کلاسیک موجود در نرم‌افزاری که من استفاده می‌کنم (@Risk) به وضوح عملکرد وحشتناکی را ارائه می‌کند (که با معیارهای AIC/BIC اندازه‌گیری می‌شود)
برازش یک مجموعه داده گسسته شبه.
79184
من کارهای رگرسیون مختلفی را بر اساس مدل‌هایی به شکل $y=m(x)+\epsilon$ انجام می‌دهم که $y$ داده‌های با ارزش برداری است، $m(x)$ خروجی یک مدل کامپیوتری و $\epsilon است. \sim N(0,V)$ یک عبارت خطای توزیع شده چند نرمال است. من فرض می‌کنم که خطاها همبستگی ندارند، بنابراین $V$ یک ماتریس مورب است که می‌توان آن را es $V=\sigma^2 C$ نوشت. برای کار تخمین $x$، من فقط به واریانس های خطای نسبی $C$ (یا هر نسخه مقیاس شده) نیاز دارم. سپس تخمینی برای $\sigma^2$ برای بازیابی فواصل اطمینان پارامتر محاسبه می‌کنم. من اخیراً یک آزمایش کوچک در مورد ماتریس واریانس خطا $V$ انجام دادم. 1. من چیزی در مورد واریانس نسبی فرض می کنم، ماتریس $C$ را پر می کنم و بعد از رگرسیون 2 $\sigma^2$ را تخمین می زنم. من ماتریس $V$ را از نمونه کوچکی از اندازه گیری های چندگانه تخمین می زنم مشکلات من: پس از رگرسیون 2 تخمین $\sigma^2$ باید در حدود 1 باشد، اما بسیار بزرگتر است. آیا باید از این تخمین برای بازیابی فواصل اطمینان پارامتر استفاده کنم، یعنی از $V'=\sigma^2 V$ استفاده کنم (بازه‌ها بزرگ‌تر می‌شوند) یا فقط آن را به عنوان نشانه‌ای برای «خوب بودن تناسب» در نظر بگیرم؟ احتمال 1. بزرگتر است (اگر از V$ تخمین زده شده استفاده کنم) از 2.، اگرچه 2. باید به حقیقت نزدیکتر باشد. چگونه با این موضوع برخورد کنیم؟ با احترام سباستین
برآورد واریانس باقیمانده در رگرسیون
105985
داده هایی که ما درون یابی می کنیم به طور یکنواخت در حال افزایش است (به عنوان مثال، قرائت کیلومتر شمار خودرو). ما دو نوع نقطه داریم که می‌خواهیم راه‌حل را درون‌یابی کنیم. سطح محلول باید از نقاط بحرانی عبور کند. راه حل لازم نیست از نقاط غیر بحرانی عبور کند، بلکه باید به حداقل رساندن فاصله با آنها باشد. تصویر پیوست را ببینید. از درک من، گزینه‌های رگرسیون محلی مانند LOESS می‌توانند یک راه‌حل درون‌یابی هموار ایجاد کنند، اما نمی‌توان آنها را مجبور به عبور از نقاط خاصی کرد. یک اسپلاین درون یابی مجبور است از همه نقاط عبور کند، اما سعی نمی کند پارامترهای گره خود را برای کاهش فاصله تا نقاط غیر بحرانی بهینه کند. آیا هیچ بسته ای در R به نوع راه حل مورد نظر دست می یابد؟ > ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/wlywO.jpg) متشکرم.
نحوه درون یابی (اسپلاین، LOESS و غیره) با ترکیبی از نقاط بحرانی و غیر بحرانی
63078
در این مقاله، نویسندگان یک الگوریتم امتیازدهی برای مکان‌های اتصال فاکتور رونویسی بالقوه، بر اساس ماتریس احتمال خاص موقعیت (PSPM) برای آن فاکتور رونویسی خاص ارائه می‌کنند. محل اتصال 20 نوکلئوتید طول دارد، بنابراین ایده این است که یک توالی DNA طولانی‌تر را در 20 تکه نوکلئوتیدی اسکن کنیم، یعنی محل امتیاز 1 (نوکلئوتیدها 1-20)، سپس مکان 2 (نوکلئوتیدهای 2-21)، و غیره. هر سایت توسط: $$ \sum_{i=1}^{20} \ln داده می شود \left[\frac{f_{i,b}}{g} + 0.01\right] $$ که $i$ نشان‌دهنده موقعیت در دنباله الزام‌آوری اجماع است و $f_{i,b}$ احتمال نوکلئوتید که اتفاقاً در توالی DNA طولانی واقع در موقعیت $i$ در محل اتصال قرار دارد، و $g$ فرکانس پس‌زمینه آن نوکلئوتید است (نویسندگان فرض می‌کنند که چنین است. 0.25، یعنی احتمال مساوی هر نوکلئوتید). **برای نشان دادن:** بگویید PSPM شما با ردیف 1 شروع می شود که $[0.2 $0.3$$0.5$$0]$ است. این بدان معناست که در موقعیت 1 در محل اتصال بالقوه (ردیف 1)، احتمال 20٪ داشتن A (آدنین)، 30٪ احتمال داشتن C (سیتوزین)، 50٪ احتمال داشتن G وجود دارد. گوانین) و احتمال 0% داشتن T (تیمین). اگر اتفاقاً دنباله‌ای را به‌ثمر می‌رسانید که دارای C در موقعیت اول است، اولین جمله جمع، $ \ln \left(\frac{f_{1,b}}{g} + 0.01\right) $، $ \ln \left(\frac{0.3}{g} + 0.01\right) $ خواهد بود. این روش به هیچ وجه برای طول دنباله ای که اسکن می کنید محاسبه نمی شود. بنابراین، توالی‌های طولانی‌تر، سایت‌هایی با امتیاز بالاتر خواهند داشت، و من می‌خواهم بتوانم سایت‌ها را بین دنباله‌هایی با طول‌های مختلف مقایسه کنم. چگونه می توانم این الگوریتم را برای طول دنباله تصحیح کنم؟
تصحیح یک الگوریتم امتیازدهی DNA برای طول توالی اسکن شده (محل اتصال اجماع)
113975
من از R استفاده می کنم. پس از دریافت خطایی مبنی بر ارائه مقادیر شروع برای یک glm (خانواده پواسون)، نگاهی به داده های خود انداختم و متوجه شدم که مقدار زیادی صفر دارم. بنابراین، من zeroinfl را از pscl امتحان کردم. من خطای تکین محاسباتی را دریافت کردم، بنابراین dist=negbin را امتحان کردم. همان خطا. من به داده های خود از طریق (bytype، جدول (رویدادها، نوع)) و with (bytype، جدول (رویدادها، نسل)) نگاه کردم. به نظر می رسد اطلاعات من خراب است. اما من نمی دانم چگونه با آن برخورد کنم. فکر می‌کنم باید بخشی از آن را حذف کنم، اما تلاش‌های آسان (گروهی با بیشترین صفرها) جواب نداد. اول، مدل اصلی من: رویدادها ~ نسل*نوع + افست(log(جمعیت)) دوم، خلاصه داده ها: بر اساس نسل: رویدادها خانواده کشی. داد و بیداد مزاحمان خرابکاری مدرسه وسایل نقلیه محل کار 0 49 88 59 103 91 111 94 1 40 101 11 1 17 2 18 4 11 0 10 1 2 3 4 0 5 0 1 0 0 4 2 0 1 0 0 0 0 بر اساس نوع رویداد: رویدادها Missionary Lost GI Silent Boomers X 0 139 103 110 103 106 34 1 2414217 13 17 6 ​​3 1 1 0 1 3 4 4 0 0 0 1 1 1 به دلیل محدودیت های طول پست، کل داده های من جا نمی گیرند. امیدوارم این کافی باشد. نمی دانم در این مورد مهم است یا نه.
مشکل مدل باد شده صفر: سیستم از نظر محاسباتی منفرد است
50207
برای تمام عمر من نمی توانم راهی برای حل این سوال پیدا کنم. هر گونه کمکی قدردانی خواهد شد! از تجربه گذشته، یک استاد می‌داند که نمره آزمون دانش‌آموزانی که در امتحان نهایی شرکت می‌کنند، یک متغیر تصادفی با میانگین 65 است. علاوه بر این، فرض کنید استاد می‌داند که واریانس نمره آزمون یک دانش‌آموز برابر با 30 است. چند دانش‌آموز باید این کار را انجام دهند. امتحان را انجام دهید تا مطمئن شوید، با احتمال حداقل 0.8، میانگین کلاس در 5 از 65 باشد؟
احتمال میانگین داده شده و واریانس
58778
من یک مدل فیزیکی غیرخطی دارم که سعی می کنم عدم قطعیت پارامترها را با استفاده از مونت کارلو تعیین کنم. به‌جای توصیف جزئیات ناچیز، از یک سری شکل‌ها استفاده می‌کنم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0unTV.jpg) ![توضیح تصویر را اینجا وارد کنید](http ://i.stack.imgur.com/x8Ofu.jpg) ![http://imgur.com/a/GyfSU](http://i.stack.imgur.com/ru804.jpg) اولین تصویر داده های تجربی است. دومی بهترین شبیه سازی تناسب است. از نظر چشم، به نظر می رسد که آنها کاملاً مطابقت دارند. اما این تصور با یک نگاه به باقیمانده ها (نشان داده شده در تصویر سوم) از بین می رود. آنها به وضوح همبستگی دارند، و بزرگی آنها از نویز سفید واقعی که وجود دارد، کوتوله می کند. این منجر به $\chi^2_\text{red}$، با 60 درجه آزادی (64 bin، 3 پارامتر مدل)، 86.5 می‌شود. به نظر می رسد مسئله در اینجا این است که داده های تجربی با سیگنال بالایی به نویز به دست آمده اند که ویژگی های مدل فیزیکی کامل که معمولاً در نسخه سه پارامتری ساده شده مدلی که من استفاده می کنم نادیده گرفته می شوند، اکنون سوگیری سیستماتیک را معرفی می کنند. علاوه بر این، عدم قطعیت هایی که توسط روال مونت کارلو تعیین شده اند، به طرز خنده داری جزئی هستند. به عبارت دیگر، * S/N بالا --> عدم قطعیت های پایین گزارش شده است. CI در مورد پارامترهای بهترین تناسب با مقادیر واقعی آنها همپوشانی ندارند. * S/N پایین --> عدم قطعیت های بالا گزارش شده است. CI با مقدار واقعی همپوشانی دارد، حتی اگر بهترین مقدار مناسب گزارش شده در واقع از مقدار واقعی دورتر باشد تا در مورد S/N بالا! از قضا، سناریوی دوم ارجح به نظر می رسد! در نگاهی به گذشته، همه اینها باید آشکار می شد: باقیمانده های مرتبط نشان دهنده شکست مدل هستند. این مانند تلاش برای گزارش عدم قطعیت در شیب خطی است که از طریق داده ها مطابق با قانون قدرت هستید! با این وجود، مدل فعلی من همه چیزهای مهم تصویر بزرگ را به تصویر می کشد. بنابراین آیا هنوز امیدی در تعیین عدم قطعیت های واقعی برای پارامترهای من وجود دارد؟ من به اضافه کردن نویز سفید به طیف فکر می‌کنم و تناسب را دوباره انجام می‌دهم تا بهترین تناسب یک $\chi^2_\text{red}$ در حدود 1 یا 2 ایجاد کند، اما به‌نظر می‌رسد که بسیار انحرافی است، با وجود عدم دقت. .
آیا می توان عدم قطعیت پارامترها را در صورت همبستگی باقیمانده ها نجات داد؟
79188
من یک آماردان نیستم، بنابراین ممنون می شوم که با ساده ترین کلمات ممکن پاسخ بدهم. من خوانده‌ام که به نوعی، وقتی میانگین مربعات خطا را به حداقل می‌رسانیم، احتمال را به حداکثر می‌رسانیم. اگر نویز در سیستم را به عنوان نویز گاوسی افزودنی خالص در نظر بگیریم، به نظر می‌رسد که این امر منطقی‌تر خواهد بود (یعنی $y = f + ae$، که $a$ انحراف استاندارد نویز است، $e\sim N(0,1 )$ و $f$ خروجی پیش بینی شده است). با این حال، وقتی نویز در سیستم با خروجی پیش‌بینی‌شده متناسب است (یعنی $y = f + bfe$) من فکر می‌کردم که خطای نسبی $RE= \mid\frac{y_{obs}-y_{pred}}{ y_{obs}}\mid$ منطقی تر است. بنابراین، سؤالات من این است: 1. آیا درست است که بگوییم با به حداقل رساندن خطای نسبی، احتمال را در سیستمی با نویز متناسب به حداکثر می رسانیم؟ 2. اگر من ترکیبی از نویز افزودنی و تناسبی داشته باشم ($y = f + (a+bf)e$) آیا باز هم درست است که بگویم به حداقل رساندن خطای نسبی احتمال را به حداکثر می رساند؟ اگر خطای نسبی نباشد، تابع هزینه در این مورد چه خواهد بود؟
به حداقل رساندن خطای نسبی (یا میانگین مربعات خطا) و به حداکثر رساندن احتمال
77320
_مجموعه داده های مکرر 3 موردی قبل از اجرای الگوریتم:_ {1، 2، 3}، {1، 2، 4}، {1، 2، 5}، {1، 2، 6}، {1، 3، 4 }، {1، 3، 5}، {1، 3، 6}، {2، 3، 4}، {2، 3، 6}، {2، 3، 5}، {3، 4، 5}، {3، 4،6}، {4، 5، 6}. با فرض اینکه تنها شش مورد در مجموعه داده وجود دارد. **لیست تمام مجموعه‌های 4 موردی کاندید به‌دست‌آمده با روش تولید نامزد در الگوریتم Apriori چیست؟ پس از استفاده از Apriori دریافت می کنم: $${\\{1,2}\\}, {\\{1,3}\\}, {\\{1,2,5}\\}, {\\{ 2،3،6}\\}$$
هرس نامزد Apriori
79187
من با یک سری زمانی چند متغیره کار می کنم و از مدل VAR (خودرگرسیون برداری) برای پیش بینی استفاده می کنم. سوال من این است که ایستایی در یک چارچوب چند متغیره واقعاً به چه معناست. 1) من می دانم که اگر در تنظیم VAR، اگر تعیین کننده معکوس ماتریس |I-A| دارای مقادیر ویژه کمتر از 1 در مدول باشد، سیستم کلی VAR پایدار/ایستا است، اما آیا این بدان معناست که می توانم بدون ایجاد مزاحمت در مورد تفاوت غیر ساکن، ادامه دهم. مولفه موجود در سری زمانی چند متغیره 2) اگر یکی از سری های مؤلفه ایستا نباشد و بقیه ساکن باشند چگونه باید اقدام کرد؟ 3) اگر بیش از یک مولفه سری زمانی ثابت نیستند اما هم ادغام نشده اند چگونه باید اقدام کرد؟ مهم‌تر از همه، روش‌های دیگری برای مقابله با سری‌های زمانی چند متغیره وجود دارد. من همچنین در حال بررسی روش‌های یادگیری ماشین هستم.
ایستایی در سری های زمانی چند متغیره
24353
دو آزمایش را تصور کنید: 1) گروهی متشکل از $n=100$ افراد تحت شرایط $A$ قرار دارند و آزمایشاتی را انجام می دهند. در بین این افراد، $y=5$ افراد در آزمون موفق می شوند. 2) گروهی از افراد $m=1000$ تحت شرایط $\Delta$ قرار دارند و آزمایشی را با دو مسئله ممکن انجام می دهند: اولی ممکن این است که یک فرد تحت شرایط فوق $A$ قرار گیرد، دومین مشکل احتمالی دیگری است. شرط $B$ (بدیهی است $B = \neg A$). در بین این افراد، $x=2$ افراد تحت شرایط $A$ قرار می گیرند. اکنون فردی را تحت شرایط $\Delta$ در نظر بگیرید که آزمایش 2) را انجام می دهد و سپس آزمایش 1) را در صورتی که تحت شرایط $A$ قرار می گیرد. ما به احتمال موفقیت این فرد در آزمون دوم علاقه مندیم. البته این احتمال به طور طبیعی با $x/m \times y/n$ تخمین زده می‌شود. اما چگونه می توان عدم قطعیت در مورد این برآورد را ارزیابی کرد؟ من یک راه حل بیزی ارزشمند در ذهن دارم: استفاده از یک توزیع قبلی (احتمالاً غیر اطلاعاتی) در اولین احتمال موفقیت $\theta_1$ و دیگری (احتمالاً غیر اطلاعاتی) توزیع قبلی روی احتمال دوم موفقیت $\theta_2$ سپس $(x، m)$ توزیع پسینی را برای $\theta_1$ و $(y,n)$ توزیع پسینی را در $\theta_2$، و در نهایت یک توزیع پسین بر اساس احتمال بهره $\theta_1\theta_2$ دریافت می‌کنیم (با فرض توزیع‌های پسین مستقل $\theta_1$ و $\theta_2$). آیا راه حل دیگری را می دانید/تصور می کنید؟ ویرایش: شاید راه‌حل فراوان‌گرای زیر ارزشمند باشد: تخمین واریانس مجانبی $\hat\theta_1$ و واریانس مجانبی $\hat\theta_2$ سپس یک واریانس مجانبی $\hat\theta_1 \hat\theta_2$ بدست می‌آوریم. ضرب دو واریانس اما، در واقع، مشکل واقعی من کمی پیچیده تر است: آزمایش سومی وجود دارد و من علاقه مند به تخمین احتمال دو موضوع ممکن در آخرین مرحله هستم. EDIT2: هنگام نوشتن «ویرایش» قبلی خسته بودم. به‌طور صحیح‌تر، من روش دلتا را برای استخراج رفتار مجانبی $\hat\theta_1 \hat\theta_2 - \theta_1\theta_2$ و سپس یک فاصله اطمینان مجانبی در نظر داشتم.
دو آزمایش دو جمله ای متوالی توسط دو گروه مختلف از افراد انجام شد
77322
توابعی در R وجود دارد (به عنوان مثال، PP.test و adf.test) که دارای فرضیه صفر واحد ریشه در فرآیند هستند ($H_0$: یک ریشه واحد وجود دارد). آیا این فرضیه صفر به این معنی است که «فرایند تفاوت ثابت است»؟ اگر بله، ترتیب تفاوت مورد نیاز برای ثابت کردن آن چیست؟ خوب، برای یک فرآیند $AR(1)$، بله، یک ریشه واحد به این معنی است که فرآیند درجه اول ثابت است. برای یک فرآیند $AR(p)$ چطور؟
معنای واقعی فرضیه صفر در آزمون ریشه واحد برای یک فرآیند AR(p) چیست؟
58775
برای یک سری مشاهدات $(\vec{x}_i، y_i)، i = 1 \cdots N$ از مدل خطی $Y = \beta^T X + \epsilon$، برآورد حداقل مربعات $\beta$ است. : $\hat{\beta} = (\mathbf{X}^T \mathbf{X})^{-1}(\mathbf{X}^T\mathbf{Y})$. مقادیر متناسب را می توان به صورت $\hat{y}_i = \hat{\beta}^Tx_i$ بدست آورد. با این حال من دوست دارم $\hat{y}_i$ مستقل از $i$th مشاهده باشد. یعنی من می خواهم $\hat{y}_i = \hat{\beta}_{(-i)}^T x_i$، جایی که $\hat{\beta}_{(-i)}$ محاسبه می شود فقط با استفاده از مشاهدات $1,2 \cdots i-1, i+1 \cdots N-1, N$. انجام N فیت جداگانه از نظر محاسباتی غیرممکن است، و من گمان می‌کنم میانبری وجود دارد: $\hat{\beta}$ و $\hat{\beta}_{(-i)}$ بسیار شبیه به هم هستند. هر ایده ای؟ و آیا کسی راهی در R برای به دست آوردن چنین $\hat{y}$های نگهدارنده ای می شناسد؟
رگرسیون خطی نگه دارید: میانبر؟
66330
الگوریتم های استنتاج احتمالی کمتر شناخته شده اما قدرتمند کدامند؟ بیشتر مراجع در مورد مدل‌های گرافیکی احتمالی، روش‌های استنتاج رایج مانند حذف متغیر و درخت اتصال را توصیف می‌کنند. اما من فکر می کنم که تعداد زیادی الگوریتم استنتاج احتمالی مهم دیگر وجود دارد. هر چند وقت یکبار به مقاله ای برخورد می کنم که روشی را توصیف می کند که قبلاً در مورد آن چیزی نشنیده بودم، برای مثال الگوریتم مرزی فاکتوری برای استنتاج تقریبی در DBN ها را در نظر بگیرید. P.S. لطفاً سعی کنید در صورت امکان، یک الگوریتم در هر پاسخ، با توضیح مختصر یا نکاتی به مقالات مرتبط اضافه کنید.
الگوریتم های استنتاج احتمالی کمتر شناخته شده اما قدرتمند
79182
چگونه می توانم ضریب رگرسیون خطرات را در متاآنالیز ترکیب کنم؟ من می خواهم یک رگرسیون کامل از ترکیب رگرسیون خطر با متغیرهای کمکی مختلف داشته باشم. منظورم این است که برخی از آنها در مقایسه با بقیه متغیرهای کمکی اضافی دارند.
چگونه ضرایب رگرسیون کامل را ترکیب کنیم؟
77323
من در حال حاضر در حال انجام آزمایشی برای بخشی از دروس خود به عنوان دانشجوی کارشناسی روانشناسی هستم. من آزمایشی درباره طرحواره های طبیعت گرایانه موجود در درون فرد طراحی کرده ام. من از روابط دوگانه اساسی مانند دانش آموز/معلم و فرزند/والد به عنوان نمونه هایی از طرحواره های طبیعی استفاده می کنم. شرکت کنندگان در این آزمایش ابتدا یک پرسشنامه جمعیت شناختی را پر می کنند که در آن اطلاعاتی در مورد وضعیت فعلی به عنوان والدین/فرزند یا دانش آموز/معلم جمع آوری می شود. سپس شرکت‌کنندگان یک قطعه کوتاه را می‌خوانند و بعداً از آنها خواسته می‌شود تا آنجایی که می‌توانند از آن قطعه به خاطر بیاورند. عناصر متن بر اساس طرحواره ای که روی آنها اعمال می شود کدگذاری شده اند. هیچ دستکاری مستقیمی وجود ندارد، بنابراین مطالعه از نظر فنی نیمه تجربی در نظر گرفته می شود. متغیر وابسته ای که اندازه گیری می شود تعداد اطلاعات مربوط به طرحواره و اطلاعات نامرتبط فراخوانی شده است. فرضیه این است که طرح واره طبیعی موجود در فرد باعث می شود که شرکت کننده مفاهیم بیشتری را از متن کد شده برای آن طرحواره به یاد بیاورد. به عنوان مثال، شرکت‌کننده‌ای که خود را به عنوان دانش‌آموز در پرسشنامه جمعیت‌شناختی معرفی می‌کند، اطلاعات مربوط به یک دانش‌آموز را بیشتر از هر اطلاعات طرح‌واره‌ای نامرتبط به خاطر می‌آورد. سوال من در مورد نوع تحلیلی است که پس از جمع آوری نتایج خود باید از آن استفاده کنم. من قصد دارم از برنامه آماری SPSS استفاده کنم و فرکانس های فراخوانی مربوط به طرحواره و فراخوانی نامرتبط طرحواره را برای هر شرکت کننده وارد کنم. آیا از یک طرح متغیر درون موضوعی استفاده کنم؟ چه نوع تحلیل هایی را باید تکمیل کنم؟ همه کمک / مشاوره قدردانی می شود.
طراحی تحقیقات تجربی در مقطع کارشناسی
79189
من در حال حاضر در حال ارزیابی هستم که آیا می توان تغییر مکان را در مقایسه های ناپارامتریک فرض کرد یا نه تا بتوان رد فرضیه صفر را با عباراتی غیر از شاخص احتمالی فرموله کرد. برای انجام این کار، داده‌هایم را در مرکز قرار می‌دهم و یک تست دو نمونه‌ای کولموگروف-اسمیرنوف را روی هر جفت اجرا می‌کنم. داده ها در برخی موارد نامتعادل هستند و به طور عادی توزیع نمی شوند. در حال حاضر من از این تابع (در R) استفاده می کنم: pairwise.ks.test<-function (x, g, p.adjust.method = p.adjust.methods, alternative=two.sided,centered=T,.. .) { p.adjust.method <- match.arg(p.adjust.method) DNAME <- paste(deparse(substitute(x))، and, deparse(substitute(g))) g <- factor(g) METHOD <- if (مرکز) تست KS به صورت زوجی روی داده های متمرکز other Paiwise KS test compare.levels <- function(i, j) { xi < - x[as.integer(g) == i] xj <- x[as.integer(g) == j] ks.test(xi, xj, alternative=alternative, ...)$p.value } compare.levels.centered<-function(i,j) { xi <- x[as.integer(g) == i]-mean(x[as.integer (g) == i],na.rm=T) xj <- x[as.integer(g) == j]-mean(x[as.integer(g) == j],na.rm=T) ks.test(xi, xj, alternative=alternative, ...)$p.value } if(centered) PVAL <- pairwise.table(compare.levels.centered, level(g )، p.adjust.method) other PVAL <- pairwise.table(compare.levels, level(g)، p.adjust.method) و <- list(method = METHOD, data.name = DNAME, p.value = PVAL, p.adjust.method = p.adjust.method) class(ans) <- pairwise.htest ans } و در حال حاضر آن را اعمال می کنم در لیست مجموعه داده های من بدون اصلاح p-value: lapply(datalist,function(x)pairwise.ks.test(x$value,x$trt,p.adjust.method=none,alternative=two.sided,centered=T,exact=F)) من مجموعه دارای پیوندهایی است و بنابراین نمی توان یک مقدار p دقیق را محاسبه کرد (از این رو exact = F). از آنجایی که من فقط می‌خواهم یک تغییر مکان احتمالی را برای هر مقایسه زوجی ارزیابی کنم تا بتوانم رد H_0$ را از نظر میانه‌ها یا میانگین‌ها در آزمون‌های مجموع رتبه‌بندی زوجی Wilcoxon تصحیح شده با Holm فرموله کنم، آیا باید یک (هولم؟) را نیز اعمال کنم. تصحیح p-value برای ارزیابی جابجایی های مکان متعدد؟
آیا یک تصحیح مقدار p برای ارزیابی جابجایی‌های مکان زوجی روی داده‌های متمرکز ضروری است؟
58771
من مقالاتی را خواندم که تئوری مجموعه های خشن نیز به عنوان الگوریتم داده کاوی در نظر گرفته می شود. با این حال، من تا کنون هیچ نمونه ای پیدا نکرده ام که این نظریه ممکن است در حل مسائل داده کاوی مفید باشد. من همچنین تعجب می کنم که هیچ بسته R برای دستکاری مجموعه های خشن وجود ندارد. ممکن است چند مثال یا موقعیتی به من بدهید که مجموعه های خشن مناسب ترین تکنیک برای تحلیل هستند؟ پیشاپیش از شما متشکرم.
چگونه می توان مجموعه های خشن را در داده کاوی اعمال کرد؟
77324
من داده هایی دارم که می خواهم توزیع حاشیه ای آنها را تخمین بزنم. من هیچ ایده واقعی ندارم که چه توزیع پارامتری مناسب است، بنابراین برنامه ریزی برای برازش چگالی ناپارامتریک (احتمالا هسته) بر روی داده ها بود. با این حال، دو عارضه وجود دارد 1) داده ها آستانه سختی در 0 2 دارند) داده ها عمدتاً در اطراف صفر جمع شده اند - احتمالاً منصفانه است که بگوییم ترکیبی از دو توزیع است که یکی تقریباً یک دلتا در 0 است و دیگری یک توزیع کاملاً مثبت با دم بلند است. من روش‌هایی را برای مقابله با 1 می‌شناسم، اما روش‌های ساده‌ای که من استفاده کرده‌ام (هسته‌های بازتابی) به نتایج رضایت‌بخشی نزدیک به صفر منجر می‌شود. من واقعاً نمی دانم در مورد 2 چه کار کنم). وضعیت هنر برای این نوع مشکلات چگونه است؟ شاید یک بسته R که چیزی را اجرا می کند که بتوانم آن را امتحان کنم؟ _خوشحالم که مثالی از داده ها می زنم، اما مطمئن نیستم بهترین راه برای این کار چیست. به من اطلاع دهید و می‌توانم سؤال را ویرایش کنم._ EDIT: من ایده logspline را امتحان کردم - با و بدون حذف صفرها (در واقع همه مقادیر بسیار نزدیک به صفر، <0.05) را حذف کردم. برای علاقه، نتیجه بدون حذف صفرها این است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/oUIvr.png) و با حذف صفرها: ![شرح تصویر را اینجا وارد کنید]( http://i.stack.imgur.com/mGmuo.png) به نظر می رسد که با حذف صفرها، توزیع نمایی ممکن است به خوبی مناسب باشد.
وضعیت هنر: تخمین چگالی غیر پارامتری با مرز و داده های نزدیک به صفر
92221
در یک تحلیل مدل ترکیبی (lme4 + lmerTest برای R)، می‌خواهم اثر 3 پیش‌بینی‌کننده را تحلیل کنم، مثلاً «A»، «B» و «C». از آنجایی که یک مدل ترکیبی است، دو اثر تصادفی «Ran1» و «Ran2» وجود دارد. من ابتدا یک مدل رهگیری تصادفی با «Ran1» و «Ran2» ساختم، اما بدون شرایط ثابت: mod.0 <- lmer (نتیجه ~ 1 + (1|Ran1) + (1|Ran2)، داده = mydata) نتیجه (قسمت ثابت) موارد زیر است: اثرات ثابت: برآورد Std. خطای df t مقدار Pr(>|t|) (Intercept) 2.92381 0.07787 35.28000 37.55 <2e-16 *** من یک مدل جلوه ترکیبی تصادفی ساختم تا «Ran1» و «Ran2» را در نظر بگیرم: mod.1 <- lmer (نتیجه ~ A + B + C + (1|Ran1) + (1|Ran2)، داده = mydata) نتیجه (قسمت ثابت) به شرح زیر است: اثرات ثابت: برآورد Std. خطای df t مقدار Pr(>|t|) (تقاطع) 3.255e+00 8.476e-02 5.000e+01 38.400 < 2e-16 *** A -1.482e-01 2.639e-02 5.651e-04 -651e-04 1.95e-08 *** ب 3.495e-01 2.462e-02 5.971e+04 14.195 < 2e-16 *** C -2.083e-01 1.873e-02 3.942e+04 -11.124 < 2e-16 *** برای محاسبه $ با روش زیر R^2$ برای مدل ها: r2.mer <- function(m) {lmfit <- lm(model.response(model.frame(m)) ~ fitted(m)) summary(lmfit)$r.squared} `mod.0` دارای $R^2=$ 0.6187513 و «mod.1» 0.6251295 $R^2=$ دارد. می بینیم که با اضافه کردن شرایط ثابت، مدل $R^2$ تغییر زیادی نمی کند. من همچنین از یک روش محاسبه دقیق $R^2$ برای مقایسه این دو مدل و برای مقایسه $R^2$ حاشیه ای و شرطی استفاده می کنم (https://github.com/jslefche/rsquared.glmer). با اجرای دستور زیر: rsquared.glmm(list(mod.0, mod.1,)) نتیجه به شرح زیر است: Class Family Link Marginal Conditional AIC 1 merModLmerTest هویت گاوسی 0.00000000 0.5814522 300654.6 Lmersian هویت 2est ModLmer 0.00555211 0.5691487 129177.1 نتیجه مطابق با قبلی است، یعنی برای mod.1، واریانس ها در شرایط ثابت فقط 0.00555 از کل واریانس را تشکیل می دهند (R^2 $ حاشیه) $. همانطور که در ابتدا گفتم، من علاقه مندم که اثر A، B، C را تجزیه و تحلیل کنم. همانطور که می بینید، اثرات قابل توجه هستند، اگرچه اندازه اثر (مقادیر بتا) به دلیل تعداد زیاد مشاهدات کوچک است. در این مورد، آیا منطقی است که گزارش کنیم که «A» و «C» دارای اثرات منفی هستند (بتا = 0.14- و 0.21-)، B اثر مثبت (بتا = 0.345)، حتی مقادیر $R^2$ از این شرایط ثابت واقعا کوچک هستند؟ آیا تفسیر بهتری از نتایج دارید؟
آیا ارزش گزارش کردن $R^2$ با جلوه ثابت کوچک ($R^2$ حاشیه)، مدل بزرگ $R^2$ ($R^2$ مشروط) را دارد؟
77328
فرض کنید من یک فرآیند پواسون را با نرخ $\boldsymbol{\lambda}$ مشاهده می‌کنم. من می خواهم $\boldsymbol{\lambda}$ را به این صورت مدل کنم: $\boldsymbol{\lambda} = \boldsymbol{\pi}_1\boldsymbol{\lambda}_1 + \boldsymbol{\pi}_2\boldsymbol{\lambda }_2$ که $\boldsymbol{\pi}_k = \text{exp}(\boldsymbol{1}\beta_{1k} + \boldsymbol{a}_1\beta_{2k})$ برای $k=1,2$ $\boldsymbol{\lambda}_k = \text{ exp}(\boldsymbol{1}\gamma_{1k} + \boldsymbol{b}_1\gamma_{2k})$ برای $k=1,2$ و $\boldsymbol{a}_1 \ne \boldsymbol{b}_1$. **سوال من این است:** چرا پارامترهای این مدل قابل شناسایی نیستند؟ من _شناسایی-مسئله- را از تخمین مسایل معادله همزمان می شناسم که به عنوان مثال، هر معادله حاوی تمام اطلاعات قابل دستیابی است. برای بیان مشکل باید معادله $\boldsymbol{\lambda}$ خود را بازنویسی کنم تا بتوانم نشان دهم که پارامترهای من در پارامتر دیگری جمع می‌شوند، درست است؟ مانند: $\boldsymbol{\lambda} = \text{exp}(\boldsymbol{1}\beta_{11} + \boldsymbol{a}_1\beta_{21})\text{exp}(\boldsymbol{1} \gamma_{11} + \boldsymbol{b}_1\gamma_{21}) + \text{exp}(\boldsymbol{1}\beta_{12} + \boldsymbol{a}_1\beta_{22})\text{exp}(\boldsymbol{1}\gamma_{12} + \boldsymbol{b }_1\gamma_{22})$$\boldsymbol{\lambda} = \text{exp}(\boldsymbol{1}\underbrace{(\beta_{11} + \gamma_{11})}_{\theta_{11}} + \boldsymbol{a}_1\beta_{21} + \ علامت پررنگ{b}_1\gamma_{21}) + \text{exp}(\boldsymbol{1}\underbrace{(\beta_{12} + \gamma_{12})}_{\theta_{12}} + \boldsymbol{a}_1\beta_{22} + \ علامت پررنگ{b}_1\gamma_{22})$\boldsymbol{\lambda} = \text{exp}(\boldsymbol{1}\theta_{11} + \boldsymbol{a}_1\beta_{21} + \boldsymbol{b}_1\gamma_{21}) + \text{exp}(\boldsymbol {1}\theta_{12} + \boldsymbol{a}_1\beta_{22} + \boldsymbol{b}_1\gamma_{22})$ بنابراین، برای شناسایی این پارامترها، در واقع باید $\beta_{1k}$ یا $\gamma_{1k}$ را اصلاح کنم؟
سوال در مورد شناسایی برای این پارامترسازی
72666
من با متاآنالیز تازه کار هستم و نحوه درک اصطلاحات این است که در واقع دو روش برای انجام متاآنالیز وجود دارد. بیایید 5 مطالعه بالینی با اثرات ثابت را در نظر بگیریم. اثرات ثابت از نظر درمان پزشکی یکسان و همچنین جزئیات دموگرافیک شرکت کنندگان. یکی از راه های تجزیه و تحلیل این داده ها این است که همه 5 مطالعه را با هم جمع کنیم تا یک مطالعه بسیار بزرگ برای افزایش قدرت تشخیص اثر درمان پزشکی به دست آوریم. دیگری تلاش برای شناسایی اثر در هر تجزیه و تحلیل به طور جداگانه و سپس تعیین میانگین اثر در بین مطالعات است. همانطور که فهمیدم متاآنالیز، هر دو تکنیک معقولی به نظر می رسند. با این حال، آیا کسی می تواند به من نکات مثبت و منفی هر دو تکنیک را بگوید؟ چه زمانی باید از کدام روش استفاده کنم؟ من فرض می‌کنم نتایج به هر حال تقریباً مشابه هستند یا این تصور اشتباه است؟
متا آنالیز: ادغام نمونه ها یا تعیین اندازه اثر متوسط
72663
من دو متغیر دارم و باید آزمایش کنم که آیا آنها رابطه خطی دارند تا بتوانم پاسخ را پیش بینی کنم. لطفا در مورد نحوه رسیدگی به این مشکل کمک کنید. این داده است: وظیفه نشان می دهد که بین آجرهای استفاده شده و زباله های تولید شده رابطه خطی وجود دارد. آزمایشی 1 2 3 4 5 6 7 8 شماره آجر (x) 1400 1800 2100 2400 2700 3000 3500 3800 اتلاف، % (y) 10.31 12.26 13.32 15.2015.20 15.26 19.04
تست خطی بودن
72669
یک فرآیند اتورگرسیو مرتبه اول، $X_0،\dots،X_n$، از طریق توزیع های شرطی زیر ارائه می شود: $X_i | X_{i-1},\dots,X_0 \sim \mathcal{N}(\alpha X_{i-1},1)$, برای $i = 1,2,\dots,n$ و $X_0 \sim \mathcal{N}(0,1)$. من می دانم که تابع log-likelihood $\ell{(\alpha)}$ به این شکل است: $\ell(\alpha) = - \frac{1}{2} \sum (x_i - \alpha x_{i -1})^2 + c$. اما من نمی دانم چگونه این را نشان دهم. من برای $\hat{\alpha}_{ML}$ راه حل زیر را پیدا کردم: $\hat{\alpha}_{ML} = \frac{s}{t}, \mathrm{where} \; s = \sum x_1 x_{i-1} \mathrm{and} \; t = \sum (x_{i-1})^2$. آیا این درست است؟ سپس باید نشان دهم که این حداکثر جهانی است. اگر مشتق دوم را بگیرم یک ثابت می‌گیرم. آیا این نشانه این است که من حداکثر جهانی را دریافت کردم، زیرا اولین مشتق wrt خطی به $\alpha$ است؟ درسته؟
فرآیند رگرسیون خودکار، برآوردگر حداکثر احتمال
77325
برای کاهش بار روی ماشین، می‌خواهم از روش نمونه‌برداری کم استفاده کنم. در اینجا چند واقعیت در مورد داده های من وجود دارد: 1. داده های من حدود 20 میلیون یا حتی بیشتر است. 2. نرخ رویداد حدود 0.8٪ است. با استفاده از روش نمونه برداری کم، می خواهم نرخ غیر رویدادی را کاهش داده و آن را 70:30 یا 50:50 کنم. این به من کمک می کند تا بار روی دستگاه خود را کاهش دهم. من به برآورد دقیق متغیر وابسته نیاز دارم و فقط از نظر ترتیب آن لازم نیست. بنابراین، من قطعاً می‌خواهم احتمالات را دوباره کالیبره کنم. حالا دو سوال: 1. استفاده از رگرسیون لجستیک فرث (همراه با بیان وزن) در این مورد کمک می کند یا خیر؟ 2. آیا کم نمونه گیری به ساخت مدل بهتر از نظر ضرایب رگرسیون دقیق تر کمک می کند؟ من فکر می کنم که تمام چیزی که باید تغییر کند رهگیری است و بقیه باید همان باشند.
آیا نمونه برداری کم به ساخت مدل بهتر کمک می کند؟
34452
من باید بتوانم به طور خودکار یک مجموعه داده را به دو خوشه تقسیم کنم. دلایل اکتشافی وجود دارد که انتظار می رود داده ها دارای دو خوشه باشند که اگر یکی داده ها را رسم کند، از نظر بصری واضح است و در مواردی که من آزمایش کرده ام، این مورد بررسی شده است. من با روش otsu برای تبدیل یک تصویر در مقیاس خاکستری به یک تصویر فقط سیاه و سفید آشنا هستم و به نظر می رسد یک روش ممکن باشد. دانش من در مورد آن از پردازش تصویر ناشی می شود، و من انتظار دارم روش های آماری استاندارد بیشتری وجود داشته باشد که مدت ها قبل از آن وجود داشته است، اما من در مورد آنها اطلاعاتی ندارم. چه جایگزین هایی وجود دارد، به ویژه که ممکن است عددی را ارائه دهد که به عنوان رتبه ای از «تقسیم بندی» این دو خوشه واجد شرایط باشد و همچنین می تواند برای تعیین مواردی که خوشه ها وجود ندارند استفاده شود. **توجه** پس از بررسی الگوریتم Jenks پیشنهاد شده در پاسخ، متوجه شدم که بسته **classInt** در R ظاهراً تعدادی از این الگوریتم ها را دارد. من یادداشتی از مستندات آن را برای گسترش پاسخ در زیر ارسال می کنم. من نمی دانم که اینها در عمل چقدر خوب عمل می کنند، من آنها را فقط به دلیل تنوع امکانات و به دلیل اینکه در R بودن آنها را برای خود آسان می کند پست می کنم. استایل **fixed** اجازه می دهد تا یک شی classIntervals با شکست های داده شده مشخص شود که در آرگومان fixedBreaks تنظیم شده است. طول fixedBreak ها باید n+1 باشد. از این سبک می توان برای درج مقادیر شکست گرد استفاده کرد. سبک **sd** بر اساس تقریباً متغیرهای مرکزی و مقیاس‌بندی شده، شکست‌ها را انتخاب می‌کند و ممکن است تعدادی کلاس متفاوت از n داشته باشد. par = بازگشتی شامل مقادیر مرکز و مقیاس است. سبک **برابر** محدوده متغیر را به n قسمت تقسیم می کند. استایل **زیبا** تعدادی وقفه را انتخاب می کند که لزوماً با n برابر نیست، اما احتمالاً خوانا هستند. آرگومان های زیبا ممکن است از طریق ... منتقل شوند. آرگومان های چندک ممکن است از طریق ... منتقل شوند. سبک **kmeans** از kmeans برای ایجاد شکست استفاده می کند. ممکن است با استفاده از set.seed متصل شود. ویژگی pars شی kmeans تولید شده را برمی گرداند. اگر kmeans از کار بیفتد، یک بردار ورودی لرزان حاوی تکرارهای rtimes var امتحان می‌شود - با مقادیر کمی منحصر به فرد در var، این می‌تواند ضروری باشد. آرگومان های kmeans ممکن است از طریق ... منتقل شوند. سبک **hclust** از hclust برای تولید شکست ها با استفاده از خوشه بندی سلسله مراتبی استفاده می کند. صفت pars شی hclust تولید شده را برمی گرداند و می توان از آن برای یافتن وقفه های دیگر با استفاده از getHclustClassIntervals استفاده کرد. آرگومان‌های hclust ممکن است از طریق ... منتقل شوند. سبک **bclust** از bclust برای تولید شکست‌ها با استفاده از خوشه‌بندی کیسه‌ای استفاده می‌کند. ممکن است با استفاده از set.seed متصل شود. صفت pars شی bclust تولید شده را برمی گرداند و می توان از آن برای یافتن وقفه های دیگر با استفاده از getBclustClassIntervals استفاده کرد. اگر bclust شکست بخورد، یک بردار ورودی لرزان حاوی تکرارهای rtimes var امتحان می‌شود - با مقادیر کمی منحصر به فرد در var، این می‌تواند ضروری باشد. آرگومان های bclust ممکن است از طریق ... منتقل شوند. سبک **fisher** از الگوریتم پیشنهاد شده توسط W. D. Fisher (1958) استفاده می کند و توسط Slocum و همکاران مورد بحث قرار گرفته است. (2005) به عنوان الگوریتم فیشر-جنکس. به لطف Hisaji Ono اینجا اضافه شد. سبک **jenks** از کد اصلی Jenks منتقل شده است و برای سازگاری با ArcView، ArcGIS و MapInfo بررسی شده است (با برخی تفاوت‌های باقیمانده). به لطف Hisaji Ono در اینجا اضافه شد. توجه داشته باشید که حس بسته شدن فاصله از سبک های دیگر معکوس است، و در این پیاده سازی باید به سمت راست بسته شود - برای وضوح از cutlabels=TRUE downstream استفاده کنید.
جایگزینی برای Otsu برای تقسیم داده ها به دو گروه
77499
آیا می توانید به طور مستقیم توضیح دهید که تفاوت بین اجزای واقعی و خیالی فیلتر گابور چیست؟ با تشکر
تفاوت شهودی بین اجزای واقعی و خیالی فیلتر گابور؟
29158
این به وضوح فقط یک موضوع تعریف یا قرارداد است و تقریباً هیچ اهمیت عملی ندارد. اگر $\alpha$ روی مقدار سنتی آن 0.05 تنظیم شود، آیا مقدار $p$ 0.05000000000000... از نظر آماری معنادار است یا خیر؟ آیا قاعده برای تعریف اهمیت آماری معمولاً به صورت $p < \alpha$ یا $p \leq \alpha$ در نظر گرفته می‌شود؟
آیا وقتی $p < \alpha$ یا $p \leq \alpha$ فرضیه صفر را رد می کنید؟
34453
من در حال مطالعه برخی از داده های تجزیه و تحلیل فرآیند برای برخی از آزمایش های تجزیه و تحلیل شکست هستم، و با تعریف زیر از احتمال تجمعی تخمینی مواجه شده ام: $$F(t) = \frac{i-3/8}{N+1 /4}، $$ که در آن $i$ رتبه مورد شکست (یعنی ترتیب شکست)، و $N$ تعداد کل نمونه‌ها است. من در فهمیدن اینکه چه کسی/چه/چرا پشت این فرمول کمی مشکل داشتم. یک جستجوی اینترنتی مرا به این صفحه رساند، جایی که به نظر می رسد به عنوان موقعیت طرح سفید از آن یاد می شود. اما مرجعی ارائه نشده است. آیا این رابطه برای کسی آشنا است، و اگر چنین است، می توانید مرجع یا پیش زمینه ای در مورد این فرمول ارائه دهید. به طور خاص، چرا این تخمین خوبی از احتمال تجمعی است، و این نتایج چگونه ممکن است تفسیر شوند.
تخمین توزیع تجمعی مرتب‌شده: این تابع از کجا می‌آید؟
73131
من فهرستی از ماتریس امتیاز شباهت m x n دارم، چیزی شبیه c1 c2 c3 c4 c5 d1 0.2159824 0.3528572 0.2390016 0.3673485 0.2849448 d2 0.2849464854949. 0.3829949 0.3511353 d3 0.3281100 0.3251407 0.4328260 0.2895179 0.2814589 این نمرات شباهت بین 0-1 قرار دارند. کاری که من در اینجا سعی می کنم انجام دهم این است که این امتیازات را در یک امتیاز واحد ترکیب کنم، همچنین بین 0-1. مسئله من در اینجا این است که نمی توانم رویکرد خوبی برای ترکیب این نمرات در این نمره واحد پیدا کنم. تا الان سعی کردم میانگین حداکثر را بگیرم. مقدار، محاسبه میانگین های سطر، ستون و استفاده از max.value از آنها. مشکل این نمرات این است که ماتریس هایی که من دارم در طول ردیف و ستون بسیار متفاوت هستند و من نمی توانم این تغییرات را با استفاده از میانگین حساب کنم زیرا در پایان روز باید این ماتریس ها را بر اساس این امتیاز شباهت مرتب کنم و n را انتخاب کنم. رتبه‌بندی‌های برتر، و از بررسی دستی این مشاهدات، متوجه شدم که max.value در یک ماتریس، شباهت بین این مشاهدات یک امتیاز واحد مناسب نیست. آیا پیشنهادی برای رویکردی برای ترکیب این نمرات دارید؟ همچنین آیا آزمون های آماری وجود دارد که بتوان روی این امتیاز ترکیبی اعمال کرد؟ من روش نمونه‌گیری تصادفی را امتحان کرده‌ام، اما مراحل محاسبه نمرات شباهت برای مشاهدات زمان زیادی طول می‌کشد و تکرار این مراحل تا 1000 بار یا بیشتر در حال حاضر امکان‌پذیر نیست. متشکرم.
ترکیب نمرات شباهت
73139
من مجموعه داده ای دارم که از حدود 36000 ویژگی و 550 نمونه تشکیل شده است، مجموعه داده از ارتباط متنی بین افراد در برخی اتاق های گفتگو ایجاد می شود. سوال این است که وقتی می‌خواهم این نمونه‌ها را طبقه‌بندی کنم، یک طبقه‌بندی کننده ساده بیز همیشه از ماشین بردار پشتیبان، هم از نظر سرعت و هم از نظر دقت، بهتر عمل می‌کند. اما در ادبیات همیشه اشاره می شود که SVM در کارهای طبقه بندی متن کاوی بهتر است. لطفاً کسی می تواند توضیح دهد که در چه شرایطی Naive Bayes بهتر است و در چه شرایطی SVM؟ برای اطلاعات بیشتر در مورد این سوال: من از ابزار RapidMiner استفاده می کنم، از اعتبار سنجی متقاطع 10 برابری با نمونه گیری طبقه ای استفاده می کنم. برای Naive Bayes، اصلاح Laplacian اعمال می شود و برای SVM من از یک نقطه نقطه استفاده می کنم و سایر پارامترها همه در پیش فرض های خود هستند، اما وقتی پارامترها را تغییر می دهم و دوباره امتحان می کنم، همان نتیجه را دریافت می کنم. Naive Bayes همچنان از SVM بهتر عمل می کند.
چرا Naive Bayes از ماشین‌های بردار پشتیبانی بهتر عمل می‌کند؟
34459
من ندیدم که به صراحت به آن اشاره شده باشد، اگرچه فکر می کنم درست است. آیا فرض مبادله پذیری رایج ترین فرض در مورد نمونه ها در محیط بیزی نیست؟ من به مدلی به شکل $p(x_1,\ldots,x_n,\theta) = p(\theta) \prod_{i=1}^n p(x_i \mid \theta)$ فکر می‌کنم که در آن $p( \theta)$ مقدم است. با قضیه deFinetti، من فکر می‌کنم این به این معنی است که $x_i$ قابل مبادله است. داشتن یک پیشین به این روش در محیط بیزی بسیار رایج است. از این رو نتیجه گیری من. آیا استدلال من اشکالی دارد؟
مدل های بیزی و قابلیت مبادله
93765
من سعی می کنم داده ها را در این پیام (دماهای روزانه) با استفاده از تکنیک Holt–Winters در R قرار دهم، اما نمی توانم مثال فصلی را در اینجا به کار ببرم. آیا با این داده ها این امکان وجود ندارد یا من کار اشتباهی انجام می دهم؟ داده ها هر 10 دقیقه یکبار نمونه برداری می شوند، بنابراین 144 امتیاز باید مربوط به یک روز باشد. کد من این است: > time<-scan(timeseries.dat) خواندن 2160 مورد: > timets<-ts(time,frequency=144) > hwOut<-HoltWinters(timets) پیام هشدار: در HoltWinters(timets) : بهینه سازی مشکلات: خطا: ABNORMAL_TERMINATION_IN_LNSRCH کد را در اینجا وارد کنید داده ها در زیر آمده است. با تشکر از هر کمکی که می توانید ارائه دهید. 17.17 16.49 15.81 15.47 15.36 15.29 15.22 15.15 15.15 15.15 15.15 15.65 16.23 16.59 15.59 15.59 15.05 15.05 14.95 14.89 14.83 14.85 15.62 15.63 14.95 14.87 14.84 14.85 15.39 15.36 14.74 14.71 14.82 14.95 14.95 14.82 14.95 15.01 15.08 15.15 15.3 15.37 15.36 15.41 15.58 15.87 15.87 15.91 16.08 16.49 16.85 17.01 16.01 16.6516.6516. 16.9 16.97 17.04 17.11 17.1 17.2 17.42 17.49 17.55 17.62 17.69 17.76 17.83 17.9 17.96 18.02 18.02 1814.181. 18.14 18.14 18.2 18.23 18.24 18.45 18.65 18.86 18.95 18.96 18.96 19.1 19.2 19.27 19.41 19.47 19.41 19.47 19.41 196.19. 19.65 19.72 19.78 19.78 19.78 19.78 19.73 19.62 19.47 19.49 19.35 19.06 18.94 18.7 18.34 18.24 18.24 18.241. 17.42 17.21 17.07 16.94 16.8 16.73 16.63 16.49 16.65 16.68 16.59 16.45 16.38 16.39 16.33 16.63 16.1811. 15.98 15.84 15.73 15.67 15.65 15.76 16.08 16.61 16.55 15.46 15.11 15.57 16.59 16.7 16.66 16.08 16.08 16.591 15.38 15.15 14.62 14.39 14.33 14.19 14.09 14.02 13.95 13.89 13.82 14.67 14.62 13.72 13.64 13.09 13.51. 13.51 13.66 13.73 13.72 13.78 13.88 14.02 14.02 14.06 14.23 14.6 14.79 14.85 14.99 15.02 14.02 14.8911 16.31 16.39 16.59 16.49 16.67 17.11 17.29 17.39 17.46 17.53 17.6 17.67 17.9 18.04 18.11 18.11 18.2418.25 18.25 18.25 18.99 19.13 19.25 19.31 19.3 19.35 19.42 19.49 19.65 19.97 19.88 19.93 20.08 20.15 20.23 20.23 20.320.3 20.3 20.20. 20.39 20.62 20.63 20.59 20.51 20.67 20.7 20.62 20.63 20.54 20.3 20.39 20.33 20.19 20.11 20.11 20.19 20.19 20.19 20.54 19.53 19.33 19.2 19.33 19.15 18.77 18.46 18.23 18.11 18.04 17.93 17.78 17.71 17.64 17.57 17.57 17.727 17.727. 17.48 17.57 17.49 17.52 17.67 17.53 17.42 17.35 17.36 17.31 17.24 17.17 17.07 16.91 17.75 17.431 17.75 17.36 17.31 16.26 16.19 16.09 15.93 15.85 15.8 15.82 16.65 16.6 15.71 15.55 15.45 15.38 15.39 15.34 15.215 15.215 15.215. 16.1 15.71 15.22 15.01 15.05 14.98 14.94 15.05 15.78 15.91 15.49 15.56 15.64 15.71 15.78 15.78 15.94 15.916. 17.26 17.39 17.46 17.53 17.68 18 18.15 18.29 18.44 18.8 19.14 19.42 19.65 19.82 19.97 20.19 20.19 20.20206. 20.73 20.88 21.02 21.17 21.32 21.43 21.39 21.2 21.21 21.28 21.35 21.41 21.39 21.23 21.17 21.120.129 21.17 21.172 20.91 20.84 20.99 21.1 21.17 21.24 21.3 21.28 21.12 21.05 21.06 20.97 20.95 20.95 20.95 20.95 20.94 20.94 20.94 20.05 21.05 20.81 20.85 20.84 20.92 20.93 20.84 20.93 20.85 20.62 20.62 20.62 20.62 20.4 20.36 20.51 20.51 20.93 20.62 20.62 19.54 19.31 19.41 19.29 18.99 18.92 18.84 18.77 18.76 18.86 19.09 18.8 18.58 18.55 18.7 18.894 18.7 18.894 18.89.18. 19.31 19.27 19.2 19.13 18.77
تلاش برای استفاده از Holt-Winters برای تطبیق این داده ها
72668
من به دنبال مدلی هستم که وزن‌ها را در جایی که وزن‌ها «مجموع به 1» است به جای خود پارامترها، تف می‌دهد. این کاری است که من انجام داده ام: من 3 مدل لاجیت را با 3 متغیر مستقل (و وابسته به y) logit(y~x+o+z) logit(y~r+q+a) logit(y~b) برازش داده ام. +n+m) من 3 مدل را برازش کرده‌ام زیرا برازش 1 مدل با همه پارامترها برخی از آنها را ناچیز می‌داند (به دلیل وابستگی‌ها-همبستگی پاسخ/وابسته متغیر). لطفا توجه داشته باشید که متغیر وابسته (توضیحی) y ~ (0،1) است. اکنون، وقتی هر مدل را برای پیش‌بینی با داده‌های جدیدم تطبیق می‌دهم، می‌خواهم چیزی شبیه به این انجام دهم: «predict(w1*fitted(logit1)+w2*fitted(logit2)+w3*fitted(logit3))» که در آن w1 ، w2، w3 نشان دهنده وزن ها هستند. من دوباره مدل لاجیت را به صورت: logit(y~logit1+logit2+logit3) برازش کرده‌ام و وزن‌ها را به صورت «param1/sum(param1+param2+param3)» محاسبه کردم. به این ترتیب مدل تناسب معقولی را ارائه نکرد. (به هر حال این روش بسیار اشتباه است). روش دومی که امتحان کردم: وزن‌های ممکن را از 0.05 تا 1 (23 ترکیب) نمونه‌برداری کردم. وزن‌های مربوطه را با 3 مدل (در نمونه نصب شده) ضرب کرد و AUC (مساحت زیر منحنی) را محاسبه کرد. با این حال AUC تقریباً برای همه وزنه ها خوب بود. نتایج کمی بالاتر در دو ترکیب وزنه ثبت شد. چه مدلی برای این رویکرد مناسب است؟ یا چگونه می توان به این مدل سازی نزدیک شد؟
پارامترها به عنوان نوع وزن
73130
در حین مطالعه مدل رگرسیون خطی چند متغیره استاندارد، به موارد زیر برخوردم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/rQzKp.jpg) لطفاً کسی می تواند به من توضیح دهد که چرا آخرین برابری برقرار است، و چرا $Z(Z'Z)^{-1}Z'$ را نمی توان به سادگی به $I$ ساده کرد (آیا این درست نیست $Z(Z'Z)^{-1}Z'=ZZ^{-1}Z'^{-1}Z'=II=I$؟
سوال در مورد $\epsilon' \epsilon$ در مدل رگرسیون خطی
112089
من به اصطلاح _خانواده نمایی_ برخورد کرده ام. توزیع های برنولی، گاوسی و بسیاری دیگر تحت این خانواده نمایی قرار می گیرند. چه وجه اشتراکی بین آنها خواهد بود؟
منظور از اصطلاح خانواده نمایی چیست؟ چرا اینگونه نامگذاری شده است؟
73135
من لیستی از فاصله (بین یک ویژگی ژنومی و نزدیکترین ژن) دارم و می‌خواهم بررسی کنم که آیا این فاصله‌ها غنی شده‌اند (بنابراین اگر فاصله کمتر از فاصله‌های تصادفی باشد). ایده من ایجاد موقعیت تصادفی و محاسبه فاصله بین این موقعیت های تصادفی و نزدیکترین ژن و مقایسه توزیع این فواصل تصادفی در مقایسه با فواصل واقعی بود. آیا استفاده از آزمون کولموگروف-اسمیرنوف ایده خوبی است؟ یا تجزیه و تحلیل گردش کار من خوب نیست و باید از طرح تحلیل دیگری استفاده کنم؟ ممنون از راهنمایی های شما
آزمایش برای غنی سازی فاصله
93767
# پیشینه ثابت های تصحیح بایاس انحراف استاندارد به این صورت محاسبه می شود: $$ SD = \left(\frac{1}{N-constant} \sum_{i=1}^N (x_i - \overline{x})^ 2\راست)^{1/2} $$ پس از مدخل ویکی‌پدیا در مورد انحراف معیار، مغرضانه بودن تخمین انحراف معیار جمعیت به یک نمونه بستگی دارد $constant$ به روش زیر: * $correction=0$: فقط sd را نمونه برداری کنید، به شدت بایاس شده که کوچکتر از جمعیت sd باشد. * $correction=1$: تصحیح بسل، کمتر مغرضانه اما همچنان کوچکتر. * $correction=1.5$: قاعده سرانگشتی، بهترین مقدار واحد برای یک تخمین بی طرفانه. # سوال من این را شبیه سازی کردم و متوجه شدم که $\sqrt{2}$ مقدار بهتری برای $constant$ است، به خصوص برای نمونه های کوچک (n < 10) که $1.5$ SD جمعیت را بیش از حد تخمین می زند. آیا به تازگی چیز خارق العاده ای کشف کرده ام یا چیزی را در اینجا گم کرده ام؟ # شبیه‌سازی برای هر یک از اندازه‌های نمونه $n=2,3,5,10,20,60,100,200$، 3000 نمونه با استفاده از rnorm(n, 0,15) ایجاد کردم. برای هر اندازه نمونه، من SD جمعیت را با استفاده از هر یک از ثابت های بالا تخمین زدم. نتیجه این است: ![نتایج شبیه‌سازی](http://i.stack.imgur.com/KdLOl.png) هر نمودار یک ثابت تخمین متفاوت است. خطا در عنوان mean(sd.estimations - sd.real) است. خط قرمز SD واقعی است. خط آبی SD تخمین زده شده را نشان می دهد. خطوط خاکستری عمودی تغییر در اندازه نمونه را نشان می دهند. امتیازها تخمین‌های فردی SD را نشان می‌دهند. واضح است که $\sqrt{2}$ برتر از $1.5$ است. این برای نمونه های بزرگ نیز صادق است، حتی اگر از این نمودار مشخص نباشد. در اینجا اسکریپت R است که این طرح ها را ایجاد کرده است. # به‌روزرسانی و نتیجه‌گیری $\sqrt{2}$ به راه‌حل تحلیلی درست نزدیک است اما از آن بهتر نیست. این یک اکتشافی باقی می ماند که می تواند به دلیل تنبلی یا برای کارایی محاسباتی با اندازه نمونه کوچک مورد استفاده قرار گیرد. در واقع، نزدیکترین تقریب به اندازه نمونه ای که می خواهید برای آن محاسبه کنید بستگی دارد. در اینجا چند مقدار بهینه برای اندازه‌های مختلف نمونه آورده شده است: * $4 < n < 10$: $\sqrt{2.15} = 1.47$ حداکثر با 0.4٪ انحراف دارد. * 10 $ < n < 50 $: $\sqrt{2.22} = 1.49 $ حداکثر با 0.04٪ انحراف دارد. * $40 < n < 300 $: $\sqrt{2.2465} = 1.4988 $ حداکثر با 0.0025٪ انحراف دارد. با افزایش حجم نمونه، ثابت به قاعده سرانگشتی 1.5 نزدیک می شود. بنابراین نتیجه این است که $\sqrt(2)$ برای اندازه‌های نمونه کوچک سریع و کثیف است. برای نمونه های بزرگتر، تقریب های منطقی را می توان با 1.5 انجام داد. و فقط برای روشن بودن: تصحیح بسل هنوز هم راه درستی برای بی‌طرف شدن هنگام تخمین واریانس است. مشاهدات بالا فقط به تخمین _انحراف معیار جمعیت_ مربوط می شود.
تخمین بی طرفانه انحراف استاندارد جمعیت: آیا sqrt(2) یک تصحیح برتر است؟