_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
79568
اجازه دهید به شما روشی را که تا به حال انجام نمودارهای کنترلی را انجام داده ام، به شما معرفی کنم. من یک سری نمونه $k$ با اندازه $n$ دارم. من مقدار نمونه به معنای $\bar{x}_i$ و میانگین کل $\bar{\bar{x}}$ --- میانگین نمونه به معنای (یا میانگین همه $k\times n) را محاسبه می کنم نقاط داده $). من همچنین محدوده های نمونه $w_i$ و همچنین محدوده بزرگ $\bar{w}$ را محاسبه می کنم. اکنون من از این داده‌ها برای ایجاد فاصله اطمینان تقریبی 95٪ با محدودیت‌های کنترل داخلی AKA استفاده می‌کنم: $$\bar{\bar{x}}\pm A'_{0.025}\bar{w},$$ where $ A'_{0.025}$ از جدول خوانده می‌شود و به اندازه نمونه $n$ بستگی دارد. به طور مشابه، من یک بازه اطمینان 99.8٪ با محدودیت های کنترل بیرونی AKA ایجاد می کنم: $$\bar{\bar{x}}\pm A_{0.001}'\bar{w}، $$ که باز هم $A'$ به $ بستگی دارد. n$ و از یک جدول خوانده می شود. اکنون نمودار کنترلی خود را با میانگین کل و هر دو جفت حد داخلی و خارجی تنظیم می کنم و میانگین های نمونه را رسم می کنم و بسته به جایی که نمونه به معنای دروغ است، تصمیم می گیریم. قوانینی که ما اعلام کرده ایم 1\ است. یک نمونه خارج از محدوده کنترل بیرونی و مشکل 2\ داریم. دو نمونه متوالی خارج از محدوده کنترل داخلی و ما یک مشکل داریم حالا من پاسخ سوالات دیگر را خوانده ام و می خواهم بگویم که مشکلی در فرضیات در مورد داده هایم ندارم (به بیان دقیق این یک کلاس ریاضی است). با این حال من تعدادی سوال و مشکلات در نحوه انجام کارها دارم. 1. _آیا خارج از کنترل (آماری) می فهمم؟ در غیر این صورت، تفاوتی بین خارج از کنترل آماری و خارج از کنترل کیفیت وجود دارد. _ \--- درک من این است که وقتی یک تغییر بر آمار فرآیند تأثیر می گذارد، یک فرآیند خارج از کنترل است. این تغییر به نوبه خود می‌تواند چیزی باشد که ما می‌توانیم بر آن تأثیر بگذاریم یا نه، اگرچه من نگران آن نیستم: تنها چیزی که می‌گویم این است که اگر خارج از کنترل باشد، باید متوقف شود و بررسی شود. این منجر به سوال بعدی من می شود. 2. _ما از داده های احتمالاً خارج از کنترل استفاده می کنیم تا تصمیم بگیریم چه چیزی طبیعی است_ \--- --- درک من این است که **با این فرض** که میانگین جمعیت برابر با میانگین کل است که باید آن را ببینیم. معنی نمونه در محدوده کنترل با احتمال مربوطه. با این حال، این روند می تواند خارج از کنترل باشد، همانطور که من آن را درک می کنم. این می تواند به معنای دو چیز باشد (الف) میانگین جمعیت در حال تغییر است یا (ب) میانگین جمعیت تغییر کرده است. در هر دو سناریو، داده‌های خارج از کنترل را می‌بینم که بازخورد می‌دهند و اساساً می‌گویند چه چیزی طبیعی است، هم در سناریوی (الف) که در آن محدوده $\bar{w}$ به طور بالقوه بزرگ یا بدتر است (b) جایی که میانگین کل تخمین نمی‌زند میانگین جمعیت من ترجیح می دهم که پارامترهای نمودار کنترل بر اساس داده های تاریخی یا آرزویی باشد. 3. _آیا معکوس نیست؟_ \--- مطمئناً آنچه باید اتفاق بیفتد این است که _پیشینی_ یک نمودار کنترل وجود داشته باشد و یک کارگر نمونه را انجام دهد، در زمان واقعی به یافته های نامطلوب واکنش نشان دهد و سپس روند را متوقف کند --- یا این قابلیت کنترل کیفیت/فرایند بیشتر است. 4. _در میدان؟_ \--- نمودارهای کنترلی واقعاً در میدان انجام می شوند (در سطح پایین، روند نادیده گرفته شده، طبقه بندی و غیره). افرادی که در مورد این موضوع یاد می‌گیرند در حال آموزش مهندسی عمران هستند --- اگرچه من این کار را با کلاس‌های کنترل اندازه‌گیری صنعتی نیز انجام می‌دهم (که مطمئن هستم این کار را در کلاس‌های دیگرشان فراتر از ریاضیات بیشتر می‌بینم). 5. _در سایر مراکز آموزشی؟_ \--- آیا این هنوز تدریس می شود؟ چه رویکردی معمولا اتخاذ می شود؟ باز هم قصد ندارم وارد روندها، چرخه ها و غیره شوم. 6. _آیا فقط باید کنترل کیفیت را آموزش دهم --- یا هیچ کس این کار را انجام نمی دهد؟ داده های آرزویی از کمک شما در این زمینه بسیار سپاسگزارم، از آن سپاسگزارم. از آموزش آن صرفاً با استفاده از وصل و چنگ خوشحال نیستم --- باید به روشی که ما آن را انجام می دهیم منطقی باشد و در حال حاضر اینطور نیست.
در تنظیم صحیح نمودار کنترل
9396
در مقاله > M. Avellaneda و J. H. Lee، آربیتراژ آماری در بازار سهام ایالات متحده > جولای 2008، در ضمیمه صفحه 44، من چند سوال دارم. ابتدا رگرسیون بازده سهام ($R_n^S$) را با بازده شاخص/ETF ($R_n^I$) اجرا می کند. $R_n^S = \beta_0 + \beta R_n^I + \epsilon_n, ~~~~~n=1,2,...,60$ سپس یک فرآیند کمکی $X_n$ را به عنوان مجموع باقیمانده های رگرسیون تعریف می کند. از $R_n$، و تخمین می زند که یک فرآیند برگشت متوسط ​​باشد. $X_n = \sum_{j=1}^{n} \epsilon_j ~~~~~n=1,2,...,60$ دو سوال مرتبط دارم؟ اهمیت در نظر گرفتن مجموع انباشته باقیمانده ها در مقابل در نظر گرفتن صرف باقیمانده ها به عنوان یک فرآیند برگرداندن متوسط ​​چیست؟ من یک شهود اولیه دارم اما درک خوبی ندارم. دوم، او می‌گوید که رگرسیون بازده سهام، باقیمانده‌ها را مجبور می‌کند که میانگین صفر داشته باشند. چرا این است؟ چگونه این نشان می دهد که مجموع همه باقیمانده ها، $X_{60}=0$ است؟
چرا باقیمانده انباشته از رگرسیون بر بازده سهام و شاخص به معنای بازگشت است
92562
سوال زیر است؛ ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/zuJye.jpg) و من فواصل زمانی را تعیین می کنم ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Kpkcs jpg) اگر تست بروش-گودفرد را انجام دهم، حدس می‌زنم با توجه به این فاصله، می‌توانم همبستگی مرتبه بالایی را پیدا کنم. اما من نمی دانم چگونه این آزمایش را انجام دهم. من آن را درک نمی کنم و سوال را به درستی درک نمی کنم. من تازه اقتصاد سنجی را شروع کرده ام، پس خوب نیستم. لطفا در حل سوال به من کمک کنید. ممنون از شما:)
چگونه برای خود همبستگی مرتبه بالا آزمایش می کنید؟
78699
در مدل رگرسیون در نرم افزار آماری spss می توانید توضیح دهید که متغیرهای کمکی چیست؟ اگر بخواهم مدلی مانند y = a0 + a1*x1 + ....... + an * xn را بیان کنم کدام متغیرهای کمکی هستند؟
spss متغیرهای کمکی در مدل رگرسیونی
9395
من نمی دانم اصطلاح مناسب برای سوال من چیست. سناریو به شرح زیر است. در تجزیه و تحلیل یک متغیر وابسته Y و دو متغیر مستقل X1 و X2 وجود دارد. هر سه متغیر پیوسته هستند. من X1 را به یک متغیر طبقه ای تبدیل کردم که دارای سه سطح A، B و C است. مشخص شد که Y و X2 در گروه A و B همبستگی مثبت دارند، اما در گروه C همبستگی منفی دارند. به من گفته شد که یک متغیر پیوسته را به طبقه بندی به طور کلی ایده بدی بود و من این را درک می کنم. سوال من این است که چگونه می توانم الگوی بالا را بدون تقسیم X1 به دسته ها نشان دهم؟ به من پیشنهاد شد که با رگرسیون چندگانه پیش بروم، اما هنوز نمی دانم چگونه این نوع رابطه را در سه متغیر با رگرسیون چندگانه نشان دهم. با تشکر
چگونه می توانم غیرخطی بودن را بدون دسته بندی یک پیش بینی نشان دهم؟
99764
چگونه ارزیابی کنم که کدام تابع/توزیع پارتو (یا مشابه) برای تطبیق داده های من مناسب تر است؟ من می‌خواهم بتوانم مجموعه داده‌ای را با توزیعی از چند-کوچک، چند-بزرگ مدل‌سازی کنم که بسیار شبیه به توزیع پارتو است، اما پیش‌زمینه آماری برای ارزیابی مناسب‌ترین مدل را ندارم.
کدام توزیع پارتو؟
79561
شاخص پایداری جمعیت تغییر توزیع یک متغیر را با مقایسه نمونه‌های داده در دو دوره زمانی کمیت می‌دهد. معمولاً برای اندازه گیری تغییرات در امتیازات استفاده می شود. به صورت زیر محاسبه می شود: 1) نمونه از دوره پایه گسسته شده است. معمولاً به دهک ها تقسیم می شود. 2) نمونه از دوره هدف با استفاده از فواصل مشابه در مرحله اول گسسته می شود. $PSI = \sum_{i} (A_{i} - B_{i}) \cdot ln(\frac{A_ {i}}{B_{i}})$ کجا: $A_{i}$ - سهم i-امین bin در دوره پایه. $B_{i}$ - سهم i-امین bin در دوره هدف. **سوال**: وقتی یکی از سطل های نمونه مورد نظر خالی است چه باید کرد؟
شاخص ثبات جمعیت - تقسیم بر صفر
26679
من یک مدل لاجیت چند متغیره را تخمین می زنم. من یک عبارت مربعی روی متغیر مستقل اصلی خود، IDV و IDV:IDV قرار داده ام. و البته مجموعه ای از متغیرهای کنترلی. نتایج نشان می دهد یک رابطه U شکل معکوس. IDV مثبت است، در حالی که IDV:IDV منفی است. من احتمالات را با استفاده از `-postgr3-` ترسیم کرده ام: postgr3 IDV, asis(IDV IDV*IDV) با این حال، در مورد چگونگی بدست آوردن احتمالات مقادیر مختلف IDV مطمئن نیستم. برای واضح بودن، من به دنبال چیزی شبیه به اطلاعاتی هستم که «-clarify-» می دهد، یعنی احتمالات برای صدک های مختلف IDV من، در حالی که عبارت مجذور را در نظر می گیرد. هر ایده ای؟ بسیار قدردانی خواهد شد. اگر سوالم واضح نیست به من اطلاع دهید. من اخیراً شروع به استفاده از Stata کردم.
احتمالات پیش بینی شده ترم مربع در Stata
1459
من سعی می کنم یک مدل پیش بینی رگرسیون سری زمانی برای یک متغیر نتیجه، به مبلغ دلار، از نظر سایر متغیرهای پیش بینی کننده/ ورودی و خطاهای همبسته خود بسازم. به این نوع مدل، مدل رگرسیون پویا نیز گفته می شود. من باید یاد بگیرم که چگونه توابع انتقال را برای هر پیش بینی کننده شناسایی کنم و دوست دارم از شما در مورد راه های انجام این کار بشنوم.
چگونه توابع انتقال را در مدل پیش بینی رگرسیون سری زمانی شناسایی کنیم؟
22356
این پست CrossValidated در مورد تخمین میانگین از نمونه‌های ناهموار، استفاده از مجموع ریمان (هر) را برای تخمین انتگرال یک تابع 1 بعدی نمونه‌برداری شده غیریکنواخت پیشنهاد می‌کند. برای من پسوند واضح به 2D این است: با توجه به یک نمونه ناهموار از f(x,y)، یک مثلث از نقاط نمونه خود ایجاد کنید (x_i,y_i,z_i). انتگرال را با جمع کردن حجم زیر هر مثلث تخمین بزنید. با این حال، مثلث بندی نقاط سه بعدی یک مشکل پیش پا افتاده نیست، بنابراین تصور می کنم نتایج شما ممکن است به کیفیت مثلث بندی شما بستگی داشته باشد. آیا راه بهتر/ساده تری برای ایجاد تقریب مسطح تکه تکه به یک سطح دوبعدی وجود دارد، اگر نه به طور کلی، حداقل به منظور محاسبه انتگرال؟
تخمین میانگین دو بعدی از نمونه های ناهموار
99761
آیا تا به حال متغیرها را در رگرسیون چندگانه متمرکز و استاندارد می کنید؟ به نظر می رسد که استانداردسازی به طور خودکار متغیرها را در مرکز قرار می دهد... آیا این درست است؟
آیا تا به حال متغیرها را در رگرسیون چندگانه متمرکز و استاندارد می کنید؟
71446
اجازه دهید $X_1,...,X_n$ یک نمونه تصادفی از توزیع $\mathcal{N}(\mu,1)$ باشد. تنها بزرگترین مشاهده $Y = \max(X_1,...,X_n)$ گزارش شده است. چگالی $Y$ چقدر است؟ چگونه به آنجا برسم؟
CDF بزرگترین مشاهده در توزیع نرمال
2894
من سعی می کنم میانگین یک توزیع کم و بیش گاوسی را از طریق نمونه برداری تخمین بزنم. من هیچ اطلاع قبلی در مورد میانگین یا واریانس آن ندارم. به دست آوردن هر نمونه گران است. چگونه می توانم به صورت پویا تصمیم بگیرم که به چند نمونه نیاز دارم تا سطح خاصی از اطمینان/دقت را به دست بیاورم؟ روش دیگر، چگونه می توانم بفهمم که چه زمانی می توانم نمونه برداری را متوقف کنم؟ به نظر می‌رسد تمام پاسخ‌هایی به سوالاتی از این دست که می‌توانم پیدا کنم، دانشی از واریانس دارند، اما من باید آن را نیز در طول مسیر کشف کنم. دیگران برای شرکت در نظرسنجی طراحی شده اند، و برای من (مبتدی که هستم) روشن نیست که چگونه تعمیم می یابد -- میانگین من w/in [0,1] و غیره نیست. فکر می کنم این احتمالاً یک سوال ساده با یک سوال است. پاسخ کاملاً شناخته شده است، اما Google-fu من مرا ناکام می گذارد. حتی اینکه به من بگویید چه چیزی را جستجو کنم مفید خواهد بود.
محاسبه دینامیکی تعداد نمونه های مورد نیاز برای تخمین میانگین
66204
در داده‌هایم، یک متغیر کلاس دارم که با $C$ مشخص می‌شود. این مقادیر متغیر کلاس ${0، 1}$ (دودویی) هستند. تقریباً همه مشاهدات $C$ 0 هستند (نزدیک به 100٪، دقیق تر، 97٪). من یک تست عملکرد ​​روی مدل های طبقه بندی مختلف می خواهم (ممکن است دقت باشد). چیزی که من از وقوع آن می ترسم این است که اگر من یک مدل طبقه بندی داشته باشم که همیشه هر مشاهده ای را در کلاس 0 طبقه بندی می کند، آن مدل 97٪ دقیق خواهد بود (حتی اگر هیچ متغیر دیگری را در نظر نگیرد). آیا تست های عملکرد شناخته شده ای برای مدل های طبقه بندی بر روی داده هایی که با رویدادهای بسیار نادر سروکار دارند وجود دارد؟
چگونه می توان عملکرد یک طبقه بندی کننده را زمانی که نزدیک به 100٪ از برچسب های کلاس متعلق به یک کلاس است اندازه گیری کرد؟
77256
من مجموعه ای از داده های جفتی دارم که از آنها برای محاسبه یک نسبت استفاده می کنم. این نسبت به عنوان مجموع ستون 2 بر مجموع ستون 1 محاسبه می شود (لطفاً به زیر مراجعه کنید) Col1 Col2 3744519.37 0 2739505.37 0 46378122.62 0 2887639.57 78652.804 10102 7815969.01 0 11920577.36 0 2060120.66 0 4951863.34 0 8559269.86 0 4246529.62 0 54250000 0 174752000 0 17893.34 1800832.37 0 2838034.29 0 15291266.83 0 3096538.88 0 2088767.28 0 5981199.57 0 2141878.34 0 2141878.34 0 160238.34 7736276.87 0 3356067.88 0 1819461.59 0 972348.2 0 6922365 0 3357005.59 0 14870965.09 0 2150202001 0 9250007.22 0 8900000 0 10404742.45 0 20452123.18 0 6340460.82 0 30494423.14 0 1157659.68 0 2869.684 0 2840460.82 0 10369155.12 0 4315000 0 6158880 0 20057539.59 0 1335834.38 0 2406177.51 0 905846.54 0 905846.54 0 6158880 0 20057539.59 0 1335834.38 0 2406177.51 0 905846.54 405847 تخمینی را تعیین می کند که از این فاصله اطمینان حاصل می شود. نسبت جمعیت است. من از روش انجام یک بوت استرپ در R استفاده کردم (به زیر مراجعه کنید) تکرار = 10000 PCarray = c() برای (i در 1: تکرارها){ rows=sample(1:length(data$Col1), length(data$Col1) ، جایگزین = TRUE) عدد = 0 مخرج = 0 نسبت = 0 برای (j در 1:طول(ردیف)){ شمارشگر = شمارنده + داده$Col2[ردیف[j]] مخرج = مخرج + داده$Col1[ ردیف[j]] } نسبت = شمارنده / مخرج PCarray = c(PCarray، نسبت) } تاریخ (PCarray,breaks=200) که در نهایت این نمودار را به من می دهد: ![Bootstrap](http://i.stack.imgur.com/f28Hl.png) مانند قبل، من می خواهم یک فاصله اطمینان را محاسبه کنم. آیا صرفاً انجام روش صدک برای به دست آوردن فاصله اطمینان (یعنی کران بالا، چندک 95 و کران پایین، چندک پنجم برای 90٪ CI است) درست است؟ من متوجه شدم که محرک در نتایج این است که فقط 2 مقدار غیر صفر هستند، اما آیا این یک رویکرد قابل قبول است؟ آیا ادبیاتی در این مورد وجود دارد که بیان کند فاصله اطمینان را می توان از یک توزیع غیر متقارن و چندوجهی استخراج کرد؟
استنباط در مورد فاصله اطمینان بوت استرپ که منجر به توزیع چندوجهی می شود
95653
من با تحلیلی که با R-package dlm ساخته شده مشکل دارم. من یک بردار داده متوسط ​​y دارم که در آن هر yi دارای واریانس s2i است. به عبارت دیگر، داده های من میانگین های ماهانه و خطاهای استاندارد برای میانگین است. کاری که من می خواهم انجام دهم این است که واریانس ماهانه را در تجزیه و تحلیل در نظر بگیرم. در مدل فعلی من مولفه سطح و روند و جزء فصلی وجود دارد. مدل توسط: dlmModPoly ( order=2، dV=(exp(par[1])+kk.s2)، dW=c(0,exp(par[2]))) \+ dlmModSeas (12، dW) داده می شود =c(exp(par[3]), rep(0, 12 - 2) ) ) بنابراین، چگونه می توانم واریانس های فردی را به این؟ با احترام هری
اضافه کردن واریانس فردی برای هر مشاهده در مدل DLM
67157
آیا جایگزین رایگانی برای رویه Stata mi impute intreg (Impute با استفاده از رگرسیون بازه ای) در دسترس است؟ به عنوان مثال به عنوان یک بسته R. من هنوز هیچی پیدا نکردم.
جایگزینی برای mi impute intreg
77254
من در حال انجام تحقیقاتی هستم که در آن مشارکت کارکنان بر روی تقریباً 20 شرکت‌کننده ارزیابی می‌شود. آنها یک نظرسنجی 11 سوالی در مقیاس لیکرت را تکمیل می کنند، مداخلاتی روی آنها انجام می دهند (یک کتاب بخوانید، 3 مقاله بخوانید و یک سخنرانی بخوانند)، و همان نظرسنجی 11 سوالی را تکمیل کنند. آیا آزمون t همبسته آزمون مناسبی برای انجام داده‌های قبل و بعد برای تعیین اینکه آیا افزایش آماری معنی‌داری در مشارکت کارکنان رخ داده است یا خیر؟
کدام آزمون برای مقایسه داده های قبل و بعد از مداخله مناسب است؟
22358
من یک الگوریتم ژنتیک را برای خوشه بندی c-means فازی در Matlab پیاده سازی کرده ام. عملکرد آن باید از قبل بهتر از c-means فازی کلاسیک (تابع fcm در متلب) باشد. با این حال، در تمام مجموعه داده‌های کلاسیک که من آنها را مقایسه می‌کنم، هر دو الگوریتم به مقدار یکسان تابع هدف همگرا می‌شوند. سوال من این است: آیا این فقط بدشانسی من است یا FCM معمولاً به حداقل جهانی همگرا می شود؟ آیا وقتی FCM عملکرد کمتر از حد مطلوب را نشان می دهد، مجموعه داده ای شناخته شده است؟ با تشکر
عملکرد الگوریتم خوشه بندی c-means فازی
1455
من تعداد زیادی مقاله دارم که OR را با a- 95% CI (فاصله های اطمینان) ارائه می کنند. من می خواهم از مقالات مقدار P را برای OR مشاهده شده تخمین بزنم. برای آن، من به یک فرض در مورد توزیع OR نیاز دارم. چه توزیعی را می توانم با خیال راحت فرض کنم/استفاده کنم؟
توزیع OR (نسبت شانس) چیست؟
22357
من می‌خواهم هموارسازی موجک را در مقیاس‌های مختلف در R انجام دهم. این ایده را از این شکل (پانل A) گرفتم که در آن‌ها چگالی/شدت یک سیگنال خاص را در مقیاس‌های مختلف اندازه‌گیری می‌کنند. در اینجا تصویر مختصات خطی را در امتداد یک کروموزوم در محور x نشان می دهد و محور y پهنای باند یا اندازه بن را نشان می دهد که سیگنال در آن اندازه گیری شده است. آیا استفاده از موجک در اینجا منطقی است؟ اولین شکل از دی ویت و همکاران می آید. سازمان جهانی دامنه کروماتین ژنوم مگس سرکه، ژنتیک PLoS 2008. نمودار موجک مقیاس، اما مطمئن نیستم که همان چیزی است که شکل اول را منعکس می کند. این ارقام از این وب‌سایت آمده است![این تصویر داده‌های حلقه‌های درختی را نشان می‌دهد](http://i.stack.imgur.com/Ez9OO.jpg)
هموارسازی موجک در مقیاس های مختلف
77253
من در حال کار بر روی یک مدل glm (خانواده: عادی، پیوند: هویت) با استفاده از طرح نظرسنجی پیچیده (بسته: نظرسنجی) هستم، علاقه من ارزیابی تأثیر متغیر DLA بر نمرات است. من مدل 1 را با در نظر گرفتن DLA به عنوان طبقه‌بندی (سه‌کم) اجرا کردم: model1=svyglm(امتیاز~DLA_tert+race+pir_4+age_yr+as.factor(educa),design1[age_yr>69],data=base_sex2[age_yr>69]) در اینجا نتایج برای این مدل آمده است ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (تقاطع) 90.6470 13.4223 6.753 6.49e-06 *** DLA_tert(37.1,63.1] -1.5940 1.9428 -0.820 -0.820 -0.424793 0.424793 DLA 2.2090 -1.436 0.171632 race2 -12.6004 2.4078 -5.233 0.000101 *** race3 -9.1128 2.5326 -3.598 0.002635 ** 4.234 -10. 0.000648 *** pir_42 2.7497 2.5701 1.070 0.301593 pir_43 6.8206 2.6690 2.555 0.021959 * pir_44 6.3329 3.2065 3.2067 -0.8075 0.1779 -4.539 0.000392 *** as.factor(educa)2 8.3018 2.3218 3.576 0.002760 ** as.factor(educa)3 13.5644 2.0637 2.84-8 as.factor(educa)4 15.3992 2.2397 6.876 5.27e-06 *** as.factor(educa)5 17.9402 2.7926 6.424 1.14e-05 *** من گمان می کنم که روندی در ارتباط بین امتیاز و امتیاز من وجود داشته باشد اگر ارتباط مهم نیست). من می خواهم بدانم چگونه می توان این روند و مقدار p را برای آن محاسبه کرد؟ خیلی ممنون
نحوه انجام تست روند
77258
من سعی می کنم بفهمم MCMC چگونه کار می کند. در مورد خاص من باید فرآیندهای تصادفی را انجام دهم که روی هم قرار می گیرند. من داده‌های $Y=\\{Y_1,...Y_T\\}$ را مشاهده می‌کنم و فرض می‌کنم که برخی از متغیرهای پنهان $A_t$ و $B_t$ وجود دارد به طوری که $Y_t = A_t + B_t$ برای همه $t$. اکنون $A$ توسط یک فرآیند Ornstein Uhlenbeck ایجاد می‌شود در حالی که $B$ توسط یک حرکت قهوه‌ای استاندارد تولید می‌شود. من موفق شدم یک مطالعه شبیه‌سازی MCMC را با استفاده از Random Metropolis Hastings برای هر دو فرآیند به صورت جداگانه پیاده‌سازی کنم، اما نمی‌دانم چگونه آنها را ترکیب کنم. تابع درستنمایی واحد (یا چگالی انتقال) برای فرآیند OU با $p(t,x,y) = \frac{1}{\sqrt{\pi \sigma^2(1-\exp\left[ - داده می‌شود. 2 \beta t\right])/\beta}}\exp \left[ - \frac{(y-\alpha-(x-\alpha) \exp{- \بتا t})^2}{\sigma^2 ( 1 - \exp \left[ -2 \beta t \right])/\beta} \right]$ و تابع احتمال حرکت براونی با $p( t,x,y) = \frac{1}{\sigma \sqrt{2 \pi t}} \exp \left[- \frac{1}{2 \sigma^2 t} (y-x-\mu t)^2\راست]$. آیا روشی تحلیلی برای بدست آوردن تابع درستنمایی مشترک وجود دارد یا باید آن را به نحوی عددی تخمین بزنم؟ اگر چنین است، برخی از توصیه ها واقعا قابل قدردانی خواهد بود. من همچنین چیزی در مورد قضیه کلیفورد همرسلی خواندم که ممکن است راه حلی برای مشکل من باشد. اما من نمی دانم چگونه آن را در مورد خاص خود اعمال کنم. (چگونه از مشروط ها ترسیم کنیم؟!) با تشکر!
چگونه تابع Likelihood فرآیندهای روی هم را برای MCMC پیدا کنیم؟
66200
قبل و بعد از ارائه یک پرسشنامه به کودکان خردسال داده شد. 6 سوال برای پاسخ بله یا خیر وجود داشت. من می خواهم بدانم که آیا بین پرسشنامه های گرفته شده قبل و بعد از ارائه تفاوت معنی داری وجود دارد؟ من می‌توانم هر آزمون را نمره دهم و آزمایش اندازه‌گیری‌های مکرر انجام دهم، اما سؤال‌ها لزوماً پاسخ‌های درست یا غلط ندارند، بنابراین می‌خواهم آن را به عنوان داده‌های باینری در نظر بگیرم. من همچنین می خواهم برای هر سوال تست کنم. به عنوان مثال، در مورد سوال اول، قبل از ارائه 12 پاسخ بله و بعد از ارائه 43 پاسخ بله وجود داشت.
نحوه آزمایش تغییرات در 6 سوال بله / خیر ارزیابی شده قبل و بعد از درمان
73004
من یک مدل گام را در R قرار می دهم (با استفاده از تابع gam در mgcv) تا برخی از اثرات غیرخطی در داده های خود را در نظر بگیرم. یک مثال ساده از کاری که من در R انجام می دهم این است: mod=gam(y~s(x)+s(z),data=df) با این حال، من می خواهم یک مدل واریانس کمی پیچیده تر به رگرسیون خود اضافه کنم. از $$\epsilon \sim N(0,\sigma^2),\ \sigma = f(\hat{\mu})$$ که $\hat{\mu}$ مقدار برازش مدل است. (در واقع، اگر $\epsilon \sim t_\nu$ برای مقداری $\nu$ خوب باشد، اما فعلاً به آن پایبند باشد. من موفق شدم این کار را در تابع 'gls' از 'nlme' با استفاده از 'varFunc' انجام دهم. (form=fitted(.))` از نوع رویکرد، اما نمی توانم بفهمم که آیا گزینه ای برای انجام همان کار با استفاده از gam وجود دارد یا خیر مدل، اما من نمی‌خواهم چرخ را دوباره اختراع کنم، اگر چیزی واضح را از دست دادم شکل دقیق $f$، اما اگر این کار را نمی توان به طور خودکار انجام داد، برنامه ریزی کنید تا به صورت تکراری آن را از روی باقیمانده ها تخمین بزنید.
برازش یک مدل گام با ناهمگونی ساده گاوسی/Student-t
28608
من اخیراً مقالاتی در مورد تجزیه و تحلیل احساسات می‌خوانم، که در آن بیشتر تحقیقات گزارش می‌دهند که پیشرفت‌های آنها باعث شده است تا در مقایسه با روش‌های پایه (غیر بی‌اهمیت) به افزایش 1 تا 2 درصدی یا حتی 0.5 درصدی دقت دست یابند. البته می‌دانم که چنین افزایشی (حتی اگر کم باشد، اگر از نظر آماری معنی‌دار باشد) چیز خوبی است، اما چه مزیت‌هایی از نظر کاربرد/کاربرد چنین پیشرفت کوچکی دارد؟ آیا کاربرد/کاربرد عملی وجود دارد که بتواند مستقیماً از چنین پیشرفت کوچکی بهره مند شود؟ اگر چنین برنامه ای وجود داشته باشد، چگونه می توان فهمید که حداقل دقت مورد نیاز برای آن کدام است؟ (سوال مشابهی در اینجا ارسال شده است، اما من به جای آماری، یک دیدگاه کاربردی تر می خواهم) با تشکر!
کاربرد واقعی بهبودهای دقت کوچک در طبقه‌بندی‌کننده احساسات
1458
برای من دشوار است که بفهمم واقعاً مشکل با _مقایسه های چندگانه_ چیست. با یک تشبیه ساده می گویند فردی که تصمیمات زیادی می گیرد، اشتباهات زیادی هم می کند. بنابراین احتیاط بسیار محافظه کارانه ای مانند تصحیح بونفرونی اعمال می شود تا احتمال این که این شخص اصلاً اشتباه کند، تا حد امکان کم شود. اما چرا به جای درصد تصمیمات اشتباه، به این اهمیت می‌دهیم که آیا فرد در بین تمام تصمیم‌هایی که گرفته اصلاً اشتباهی مرتکب شده است؟ اجازه دهید سعی کنم آنچه را که مرا گیج می کند با یک قیاس دیگر توضیح دهم. فرض کنید دو قاضی هستند یکی 60 ساله و دیگری 20 ساله. سپس تصحیح بونفرونی به کسی که 20 سال دارد می گوید که در تصمیم گیری برای اعدام تا حد امکان محافظه کار باشد، زیرا او سال های بیشتری به عنوان قاضی کار خواهد کرد، تصمیمات بسیار بیشتری خواهد گرفت، بنابراین باید مراقب باشد. اما کسی که 60 سال دارد احتمالاً به زودی بازنشسته می شود، تصمیمات کمتری می گیرد، بنابراین می تواند در مقایسه با دیگری بی توجه تر باشد. اما در واقع، هر دو قاضی بدون توجه به تعداد کل تصمیماتی که خواهند گرفت، باید به یک اندازه مراقب یا محافظه کار باشند. من فکر می‌کنم این قیاس کم و بیش به مشکلات واقعی که در آن تصحیح بونفرونی اعمال می‌شود، ترجمه می‌شود، که به نظر من خلاف واقع است.
چرا مقایسه چندگانه مشکل است؟
28609
چندین مقاله سنگین ریاضی وجود دارد که کمند بیزی را توصیف می کند، اما من می خواهم کد JAGS آزمایش شده و صحیحی را که بتوانم از آن استفاده کنم. آیا کسی می تواند نمونه کد BUGS / JAGS را پست کند که رگرسیون لجستیک منظم را پیاده سازی کند؟ هر طرحی (L1، L2، Elasticnet) عالی خواهد بود، اما Lasso ترجیح داده می شود. همچنین نمی دانم که آیا استراتژی های اجرای جایگزین جالبی وجود دارد یا خیر.
رگرسیون لجستیک بیزی منظم در JAGS
73005
من سعی می کنم از الگوریتم bfgs استفاده کنم تا مجموعه ای از $\\{(x,y),f(x,y)\\}$ را به تابعی به شکل فرض کنید $a\cdot cos(x) تطبیق دهم. )+b \cdot y=f(x,y)$. سعی می‌کنم نحوه استفاده از الگوریتم bfgs را با liblbfgs بفهمم، اما مثال را متوجه نشدم و مشخص نیست که نویسنده سعی کرده چه تابعی را جابجا کند.
چگونه از liblbfgs برای فیتینگ استفاده کنیم؟
114146
مشکل 50 مشاهده می دهد و سپس می خواهد بررسی کند که آیا داده ها از توزیع نرمال می آیند یا خیر. به عنوان مثال، اگر این مشاهدات شما هستند، چگونه آزمایش می کنید تا ببینید آیا آنها از یک توزیع نرمال می آیند یا خیر. -1.28 -1.22 -0.45 -0.35 0.72 -0.32 -0.80 -1.66 1.39 0.38 -1.38 -1.26 0.49 -0.14 -0.85 2.33 -0.85 -1.33 -0.49 - 0.4 -1.14 0.64 3.44 -1.67 0.85 0.41 -0.01 0.67 -1.13 -0.41 -0.49 0.36 -1.24 -0.04 -0.11 1.05 -0.01 0.04 0.04 0.05 0.04 2.82 −0.46 −0.63 −1.61 0.64 0.56 −0.11 0.13 −1.81 پروفسور چیزی در مورد تبدیل آن به توزیع یکنواخت و سپس داشتن 4 بازه 0,0.25, 0.5,0.75,1 صحبت کرد و سپس ببینید که چند مقدار بازه قرار می گیرد. من مطمئن نیستم که چگونه این کار را انجام دهم.
استفاده از چی خوبی تناسب برای آزمایش اینکه آیا داده ها از توزیع نرمال می آیند یا خیر
92383
هنگام استفاده از الگوریتم یادگیری مداوم CD برای ماشین‌های محدود Bolzmann، زنجیره نمونه‌گیری گیبس را در اولین تکرار در یک نقطه داده شروع می‌کنیم، اما برخلاف CD معمولی، در تکرارهای بعدی از زنجیره خود شروع نمی‌کنیم. در عوض از جایی شروع می کنیم که زنجیره نمونه برداری گیبس در تکرار قبلی به پایان رسید. در الگوریتم CD معمولی، هر تکرار یک دسته کوچک از نقاط داده را ارزیابی می‌کند و زنجیره‌های نمونه‌گیری گیبس را که از خود آن نقاط داده شروع می‌شود، محاسبه می‌کند. آیا در سی دی مداوم، آیا باید زنجیره های نمونه برداری گیبس را برای هر نقطه داده نگه داریم؟ یا باید یک دسته کوچک از زنجیره‌های نمونه‌گیری گیبس را نیز نگه داریم که از نقاط داده‌ای که در حال حاضر در تکرار فعلی ارزیابی نمی‌شوند شروع شده‌اند؟ به نظر من حفظ زنجیره‌های نمونه‌برداری گیبس برای هر نقطه داده بسیار دشوار خواهد بود، اما از طرف دیگر مقایسه سیگنال‌های نمونه فعلی با سیگنال‌های پس از یک زنجیره طولانی گیبس که در جریان فعلی شروع نشده است، کافی به نظر نمی‌رسد. نمونه_.
واگرایی تضاد پایدار برای RBMها
114142
تعریف توزیع _log-normal_ یک متغیر تصادفی بر اساس نرمال بودن لگاریتم آن است. من کنجکاو هستم که آیا یک اصطلاح _خاص_ برای مواردی وجود دارد، که در آن _log-transformed data_ با یک توزیع معمولی مطابقت ندارد، بلکه با توزیع _mixture_ مطابقت دارد. علاوه بر این، می‌خواهم بدانم **روش(های)** مناسب (هم بصری و هم تحلیلی) برای نشان دادن وجود یک توزیع مخلوط در داده‌های تبدیل شده با لاگ با روی هم قرار دادن نموداری از داده‌های تبدیل‌شده log با آن چیست. توزیع مؤلفه (احتمالاً با استفاده از نمودارهای چگالی هسته). با در نظر گرفتن این موضوع، من به راه حل کاربردی در «R» علاقه مند هستم، ترجیحاً از بسته «ggplot2» استفاده کنم. این سوال بر اساس تلاش های من برای اجرای نمایش فوق الذکر برای تحلیل داده های اکتشافی من است. برای توزیع _طبیعی مخلوط_، من راه حل را پیدا کرده ام (http://stackoverflow.com/a/25588144/2872891)، اما هنوز با توزیع _log-normal mix_ (http://stackoverflow.com/q) درگیر هستم /25598485/2872891). هر گونه کمک و یا مشاوره استقبال می شود!
اصطلاحات و مدیریت توزیع های مخلوط log-normal
114144
در یک تبدیل رتبه تراز شده قبل از ANOVA دو طرفه، این روش به این صورت است: * با انجام یک ANOVA استاندارد، باقیمانده ها را ذخیره کنید * برای تعیین اثرات میانگین گروهی (mij برای تعامل، ai به عنوان عامل اول، bj برای فاکتور دوم) از Aggregate استفاده کنید. اثر متقابل از باقیمانده برای تعیین برهمکنش (ran)، حذف اثرات منفرد برای تعیین اثرات اصلی (ra) اثر متقابل: ek – (αβij – αi – βj + μ) اثرات اصلی: ek – (αi + βj–2μ) * تبدیل باقیمانده ها به رتبه ها * اجرای مدل کامل بر روی این رتبه ها برای تعامل / اثرات اصلی، به ترتیب سوال من: چگونه می توان یک عامل تصادفی سوم را علاوه بر این دو عامل ثابت اضافه کرد. آی و بی جی؟ آیا آن را دقیقاً مانند سایر موارد شامل می‌شود یا باید با عوامل تصادفی متفاوت برخورد کرد؟ با تشکر
تبدیل رتبه تراز شده با عامل تصادفی
92388
شما می توانید با تعیین ساختاری در باقیمانده ها (به عنوان مثال AR(1)) یک مدل مختلط خطی با قطع و شیب تصادفی را بهبود بخشید. در SAS این امکان وجود دارد، اما امیدوارم در R نیز این امکان وجود داشته باشد. آیا کسی می داند چگونه این کار را انجام دهد؟ من از هر دو بسته lme4 و nlme استفاده می کنم. ممنون کسپر
ساختار باقیمانده در مدل های مختلط خطی با اثرات تصادفی
28605
من دو احتمال $p$ و $q$ دارم. $p>q$، و همبستگی ندارند. من $i$ را طوری محاسبه می کنم که $p^i=q$، که به راحتی به صورت $\log_p(q)$ انجام می شود. اکنون، می‌خواهم یک بازه اطمینان برای $i$ را نیز محاسبه کنم، که لزوماً تابعی از بازه‌های اطمینان $p$ و $q$ خواهد بود. اولین رویکرد من انجام p.min <- qbeta(0.025، 152، 29) p.max <- qbeta(0.975، 152، 29) q.min <- qbeta(0.025، 37، 19) q.max <- qbeta(0.975, 37, 19) ## q.max و p.min کمترین تفاوت i.min را دارند <- log(q.max, base = p.min) ## q.min و p.max بیشترین تفاوت را دارند i.max <- log(q.min, base = p.max) اما به ذهنم می رسد که فاصله اطمینان 95% برای $p$ و $q$ به طور مستقل احتمالاً یک فاصله اطمینان بیش از حد برای $i$ ایجاد می کند، زیرا فاصله اطمینان مشترک برای $p$ و $q$ باریکتر خواهد بود. بنابراین، چگونه می توانم فاصله اطمینان مشترک $p$ و $q$ را بفهمم. آنها به هم مرتبط نیستند، که باید کار را آسان تر کند. به همین سادگی است که چندک ها را در «qbeta()» محدود کنیم؟ با چه مقدار؟
فواصل اطمینان مشترک برای احتمالات
77257
ما در حال حاضر در حال تجزیه و تحلیل داده های تجربی با قالب زیر هستیم: همه شرکت کنندگان (100=n) تصمیمات تخصیص مکرر را در فواصل زمانی ثابت می گیرند: 100% در هر مرحله به دو گزینه تخصیص تقسیم می شود، بنابراین متغیر وابسته را می توان به عنوان یک نسبت در نظر گرفت. بنابراین برای هر شرکت کننده یک سری زمانی از نسبت ها به دست می آوریم. علاوه بر این، دو عامل بین موضوعی با دو سطح وجود دارد. ما می خواهیم یک مدل مناسب پیدا کنیم که در آن بتوان اثرات و تعاملات اصلی دو عامل (یا در حالت ایده آل سه عامل با در نظر گرفتن نقاط زمانی) را آزمایش کرد. خوب است که اجزای مدل‌های ARIMA را ادغام کنیم (اطلاعات به‌دست‌آمده در مقاطع مختلف زمانی این احتمال را می‌دهد که همه شرکت‌کنندگان بدون توجه به گروه، نوسانات سیستماتیک را نشان دهند). آیا کسی مدل های مناسبی را می داند که می توانند در اینجا استفاده شوند (گروه های سری های زمانی در طرح فاکتوریل با نسبت ها به عنوان متغیر وابسته)؟ یک پیچیدگی اضافی وجود دارد (می‌توانیم خود را به مشکلی که در بالا ترسیم شده محدود کنیم، اما اگر بتوانیم این بخش اضافی را ادغام کنیم جالب خواهد بود): همه گروه‌ها برای حدود 70 دوره با هم همپوشانی دارند، یک گروه از قبل 100 دوره زودتر شروع می‌کند، گروه دوم در مورد 70 دوره قبل به عبارت دیگر: گروه از دوره های 1، 30، 100 و 100 شروع می شود و به ترتیب 170، 140، 70 و 70 مشاهده جمع آوری می کنیم. آیا هر مدلی به اندازه کافی منعطف خواهد بود که اطلاعات اضافی دو گروه اول را برای ساخت مدل سری زمانی یکپارچه کند و همچنان بتواند یک آزمون فرضیه معتبر را برای دو عامل تجربی فقط برای 70 مشاهدات مشترک اجازه دهد؟
مقایسه داده های سری زمانی بین گروه های افراد
28600
بگویید من یک مجموعه داده **مشاهده** دارم ($n_i$) و می خواهم بهترین تناسب را از بین 10 مجموعه داده تولید شده توسط **مدل** وابسته به یک پارامتر واحد $a$ ($m_i(a) بدست بیاورم. )\;a=1..10$). فرض کنید من از توزیع درستنمایی پواسون استفاده می کنم: $P_i(a)=\frac{m_i(a)^{n_i}}{e^{m_i(a)}n_i!}\; ; \; a=1..10$ که در آن $m_i(a)$ مقدار **model** bin $i$ (برای مقدار معینی از پارامتر $a$) و $n_i$ مقدار **مشاهده** آن را نشان می دهد. (که همیشه ثابت می ماند) احتمال کل مجموعه داده یا _احتمال تجمعی_ (برای هر مقدار $a$) در این صورت است: $L(a)=\prod\limits^{N}_{i=1} \frac{m_i(a)^{n_i}}{e^{m_i(a)}n_i!}\; ; \; a=1..10$ که در آن $N$ تعداد کل سطل ها است. اکنون، می‌خواهم **مجموعه داده‌های مدل** را انتخاب کنم که به بهترین شکل با **مجموعه داده‌های مشاهده‌شده** من مطابقت دارد. آیا می توانم حداکثر مقدار $L(a)$ را انتخاب کنم، یعنی: _حداکثر احتمال_: $Max\\_Likelihood = max\,[ L(a)\; ; \; a=1..10]$ و بگویید که مقدار پارامتر $a$ مرتبط با آن **مجموعه داده های مدل شده** خاص، بهترین تخمین پارامتر $a$ است، با توجه به **مجموعه داده های مشاهده شده** من؟ یا باید از یک **نسبت**_ احتمال تجمعی استفاده کنم که به این صورت تعریف شده است: $LR(a)= \prod\limits^{N}_{i=1} \frac{\frac{m_i(a)^{n_i }}{e^{m_i(a)}n_i!}}{\frac{n_i^{n_i}}{e^{n_i}n_i!}} = \prod\limits^{N}_{i=1} \left(\frac{m_i(a)}{n_i}\right)^{n_i}e^{n_i-m_i(a)}\; ; \; a=1..10$ و مقدار $a$ را نگه دارید که حداکثر مقدار $LR(a)$ را می دهد، یعنی _maximum relihood **نسبت**_: $Max\\_Likelihood\\_Ratio = max\ ,[ LR(a)\; ; \; a=1..10]$ از آنجایی که مجموعه داده‌های مشاهده شده ($n_i$) برای همه مجموعه‌های داده مدل‌سازی شده یکسان باقی می‌ماند ($m_i(a);\;a=1..10$)، این را به حداکثر نمی‌رساند. مقدار $LR(a)$ همان نتیجه را به من بدهید (یعنی همان مقدار $a$) با حداکثر کردن $L(a)$؟
حداکثر کردن: احتمال در مقابل نسبت احتمال
114143
من یک مجموعه داده‌های زیست‌محیطی دارم که به موجب آن تصور می‌شود محتوای گل رسوب (٪) (یعنی متغیر توضیحی پیوسته) توزیع فضایی (یعنی حضور/غیاب) گونه‌های مختلف بی‌مهرگان درشت اعماق دهان رودخانه (یعنی متغیر پاسخ دوتایی) را توضیح می‌دهد. در زیر زیر مجموعه ای از داده ها (داده های واقعی شامل بیش از 1400 تکرار) برای یک تاکسون است، که در آن پاسخ 'Bin' و پیش بینی کننده منفرد 'Mud' و 'Estuary' یک اثر تصادفی در نظر گرفته می شود. Estuary Mud Bin FW 0.1 0 FW 0.3 0 FW 0.2 0 FW 2.1 0 POR 7.1 0 FOR 11.4 0 JRE 25.5 1 JRE 33.6 1 JRE 44.6 1 JRE 55.6 1 6 JRE 55.6 1 FW16163 1 FW 90.6 1 FW 93.6 1 در اینجا مدل GAM است که از بسته «mgcv» استفاده می‌کند (و مشروط به بیش از 1400 نقطه داده است): aa1.estuary<-gam(Bin~s(Mud,bs=ps, k =6) + s(خور، bs=re)، خانواده = دوجمله ای، گاما = 1، داده = نمونه) در اینجا مرحله اعتبارسنجی متقاطع است که از «CVgam» در بسته «gamclass» استفاده می‌کند، اما زمانی که «Estuary» به‌عنوان یک جلوه تصادفی درج شد، خطای زیر را برگرداند: aa1.val <- CVgam(formula=Bin~s(Mud, bs =ps، k=6) + s(Estuary، bs=re)، داده = نمونه، nfold = 10، debug.level = 0، printit = TRUE، روش = GCV.Cp، cvparts = NULL، گاما = 1، seed = 100) خطا در X[ind, ] : زیرنویس خارج از محدوده برای بررسی، «Estuary» حذف شد و موارد زیر را ایجاد کرد خروجی: aa1.val <- CVgam(formula=Bin~s(Mud, bs=ps, k=6) ، داده = نمونه، nfold = 10، debug.level = 0، printit = TRUE، روش = GCV.Cp، cvparts = NULL، گاما = 1، seed = 100) مقیاس GAM CV-mse-GAM 0.1491 0.1499 بنابراین من دارم دو سوال مرتبط: (1) چه چیزی باعث ایجاد خطا در هنگام گنجاندن خور می شود در مرحله اعتبارسنجی متقابل؟ و (2) آیا برآوردهای بالا از «GAMscale=0.1491» و «CV-mse-GAM =0.1499» بیش از حد به یکدیگر نزدیک به نظر می رسند که واقع بینانه باشند؟ پیشاپیش ممنون
اعتبارسنجی متقابل GAM لجستیک با استفاده از CVgam
28601
من در حال حاضر روی پایان نامه کارشناسی ارشد خود کار می کنم و برای اجرای آمار با SigmaPlot برنامه ریزی کرده ام. با این حال، پس از گذراندن مدتی با داده‌هایم، به این نتیجه رسیدم که SigmaPlot ممکن است برای مشکل من مناسب نباشد (ممکن است اشتباه کنم) بنابراین اولین تلاش‌هایم را در R شروع کردم، که دقیقاً آن را آسان‌تر نکرد. برنامه این بود که یک TWO-WAY-ANOVA ساده روی داده هایم اجرا کنم که از 3 پروتئین مختلف و 8 درمان مختلف بر روی آن ها حاصل می شود، بنابراین دو عامل من پروتئین و درمان هستند. من نرمال بودن را با استفاده از > shapiro.test(time) و > ks.test (زمان، هنجار، mean=mean(time)، sd=sqrt(var(time))) در هر دو مورد آزمایش کردم (شاید تعجب آور نباشد) من با توزیع غیرعادی پایان یافتم. که من را با اولین سوالات از کدام آزمون برای برابری واریانس ها استفاده کرد. من به > chisq.test(time) رسیدم و نتیجه این بود که در داده هایم نیز برابری واریانس ندارم. من تبدیل های مختلف داده (log، مرکز، استانداردسازی) را امتحان کردم که همه آنها مشکلات من را با واریانس ها حل نکردند. اکنون من در مورد چگونگی انجام ANOVA برای آزمایش اینکه کدام پروتئین ها و کدام درمان ها به طور قابل توجهی با یکدیگر متفاوت هستند، دچار مشکل هستم. من چیزی در مورد تست Kruskal-Walis پیدا کردم، اما فقط برای یک عامل (؟). من همچنین چیزهایی در مورد رتبه‌بندی یا تصادفی‌سازی پیدا کردم، اما هنوز نحوه اجرای آن تکنیک‌ها در R را پیدا نکرده‌ام. آیا کسی پیشنهادی دارد که باید چه کار کنم؟ ویرایش: از پاسخ‌های شما متشکرم، من کمی غرق در خواندن هستم (به نظر می‌رسد که به جای کمتر شدن بیشتر و بیشتر می‌شود)، اما البته ادامه خواهم داد. در اینجا نمونه ای از داده های من، همانطور که پیشنهاد شد (من برای فرمت بسیار متاسفم، من نتوانستم راه حل یا مکان دیگری برای قرار دادن فایل پیدا کنم. من هنوز در این مورد جدید هستم.): زمان درمان پروتئین A con 2329.0 A HY 1072.0 A CL1 4435.0 A CL2 2971.0 A CL1-HY sim 823.5 A CL2-HY sim مخلوط 491.5 A CL1+HY 2510.5 A CL2+HY مخلوط 2484.5 A con 2454.0 A HY 1180.5 A CL1 3249.7 A CL2 2106.7 A CL1-HY sim 993.0 A CL2-HY sim 993.0 A CL2-HY 5 مخلوط 1981.0 A CL2+HY 2687.5 B con 1482.0 B HY 2084.7 B CL1 1498.0 B CL2 1258.5 B CL1-HY sim 1795.7 B CL2-HY sim 1804+H23 B CL1 1416.3 B con 1339.0 B HY 2119.0 B CL1 1093.3 B CL2 1026.5 B CL1-HY sim 2315.5 B CL2-HY sim 2048.5 B CL1+HY mix 1465.0 HY 1465+H4 1614.8 C HY 1525.5 C CL1 426.3 C CL2 1192.0 C CL1-HY sim 1546.0 C CL2-HY sim 874.5 C CL1+HY مخلوط 1386.0 C CL2+HY5 مخلوط C.3519. CL1 639.7 C CL2 1306.5 C CL1-HY sim 1515.0 C CL2-HY sim 1251.0 C CL1+HY mix 1350.5 C CL2+HY mix 1230.5
چگونه ANOVA دو طرفه را روی داده ها بدون نرمال بودن و یا برابری واریانس در R اجرا کنیم؟
35659
یک قانون کلی رایج در علوم اجتماعی این است که حداقل مشاهدات 30 دلاری برای رگرسیون (بدون هیچ گونه اثرات پیچیده) داشته باشید. آیا کسی چنین قانون کلی برای GAM ها را می داند؟ آیا مشاهدات 50 دلاری برای یک مدل افزودنی ساده با دو عبارت پارامتری و دو صاف کننده کافی است؟
اندازه نمونه GAM
77252
من در زمینه متن کاوی نسبتاً تازه کار هستم و می خواهم کمی مهارت هایم را تمرین کنم. من کار زیر را در دست دارم که می خواهم روی آن کار کنم. من فهرست بزرگی از متون کوتاه (~100.000) دارم و هر متن به طور متوسط ​​3 برچسب / برچسب به آن اختصاص داده شده است. آنچه اکنون می‌خواهم آموزش یک مدل پیش‌بینی‌کننده است که با آن بتوانم برچسب‌هایی را به متون نادیده جدید اختصاص دهم. فرضیه در مورد برچسب ها این است که تمام برچسب های موجود در مجموعه داده من گنجانده شده است. من با python sklearn و نمایش اولیه ماتریس tf.idf همراه با طبقه بندی بردار پشتیبانی یک در مقابل استراحت برای هر برچسب شروع کردم، اما میانگین امتیاز f1 برای آن مدل بسیار پایین است. آیا راه های بهتری برای ایجاد یک مدل پیش بینی برای این نوع کار وجود دارد؟ همانطور که قبلاً اشاره کردم، این زمینه برای من کاملاً جدید است، بنابراین توصیه کوچکی در مورد چگونگی مقابله با این مشکل بسیار خوشایند خواهد بود (مثلاً مقداری ادبیات؟).
طبقه بندی چند برچسبی برای برچسب گذاری متن کوتاه
77785
من ایده ای در مورد تولید یک الگوریتم ژنتیک دارم. اما شامل استفاده از رابطه ای است که معتقد است می تواند به عنوان مجانب افقی تعریف شود. من تصویری پیدا کرده ام که نوع رابطه ای را که سعی خواهم کرد اعمال کنم را نشان می دهد. با این حال فهمیدن اینکه اسم آن چیست و معادله استانداردی که آن را تعریف می کند، از من فرار می کند. # واپاشی رابطه مورد علاقه ![یک گربه نه چندان شلوغ](http://i.imgur.com/wdQgUBW.gif) من علاقه مندم که فرمت استاندارد نمودار سبز چین چه خواهد بود. خیلی وقت بود که حساب دیفرانسیل و انتگرال نگرفتم. بنابراین هر گونه کمکی قدردانی خواهد شد. AEA
فرمت استاندارد معادله ای که تولید این ایزوتوپ دختر را نشان می دهد چیست؟
28602
من 'fitdistr(mydata, Gaussian) را اجرا کردم و پیام خطای زیر را دریافت کردم: خطا در optim(x = c(34.513، 25.587، 18.251، 52.836، 38.206، 42.395، 47.22 در vm مقدار اولیه، :min مقدار اولیه است. نه محدود با این حال وقتی اجرا می کنم 'fitdistr(mydata'Normal')' من موارد زیر را دریافت می کنم: mean sd 39.71581691 23.44081474 (0.02856006) (0.02019501) چگونه می توانم داده های خود را با Gamma و سایر توزیع های Sajni مطابقت دهم؟
خطای Optim - مقدار اولیه در vmmin محدود نیست
32924
فرض کنید ما مقداری داده قیمت مسکن برای 30 سال (1970-1999) داریم. این داده های سالانه است (30 نقطه داده). فرض کنید یک رویداد بزرگ $X$ در سال 1980 اتفاق افتاده است. آیا استفاده از فیلترهای میانه روش خوبی برای تشخیص نقاط پرت در سال های بعد است؟
تکنیک های فیلتر و نویز
73007
من تعداد تجمیع مرگ‌ها و برخی پیش‌بینی‌کننده‌های طبقه‌بندی را دارم، به‌عنوان مثال. دوره، مصرف مواد مخدر، و من یک Poisson GZLM را در SPSS، همچنین یک «glm» در Stata (مدل خطی تعمیم یافته) اجرا می کنم. صفرهای زیادی وجود دارد، اما نه بیش از حد، و به من پیشنهاد شده است که 0.5 را به مقادیر مشاهده شده اضافه کنم. وقتی این کار را انجام می‌دهم، رویه GENLIN در SPSS اجرا نمی‌شود، زیرا وابسته به پواسون باید مقادیر صحیح داشته باشد. با این حال، «glm» با خانواده پواسون و پیوند log در Stata اجرا می‌شود و فقط یادداشت می‌کند که وابسته دارای مقادیر غیرصحیح است. چرا Stata پواسون 'glm' را اجرا می کند اگر مقادیر وابسته فقط باید اعداد صحیح باشند؟
چرا می توان پواسون GLM را روی مقادیر غیر صحیح در Stata قرار داد؟
73009
من نسبتاً تازه وارد Stata هستم و در حال حاضر در کلاس اقتصاد سنجی سری های زمانی مقطع کارشناسی شرکت می کنم. اهمیت اقتصادی رگرسیونی که من اجرا می کنم و تلاش می کنم پیش بینی کنم، تماماً صفر است. این صرفاً یادگیری من است که چگونه از Stata تا حدودی کارآمد استفاده کنم. من یک رگرسیون تأخیر توزیع شده خودکار (ADL) تولید صنعتی («ip») را با استفاده از دو تأخیر «ip» و یک تأخیر نرخ وجوه فدرال («ffr») اجرا کرده‌ام. هدف من: پیش بینی این مدل 30 دوره در آینده. من امیدوار بودم که بتوانم یک مدل AR(2) از ffr را اجرا کنم و آن را 30 دوره پیش بینی کنم (این ساده است و من این کار را انجام داده ام) و سپس از این مقادیر برای پیش بینی دوره های 30 مدل ADL خود استفاده کنم. آیا این منطقی است و آیا کسی می تواند به من اطلاع دهد که چگونه می توانم این کار را انجام دهم یا روش دیگری را پیشنهاد کنم؟
پیش بینی مدل ADL
56638
من این سوال را در نظر می گیرم: در صورت وجود کراوات، رتبه ها چگونه محاسبه می شوند؟ در برخی از مراجع ابتدا آنها را بدون تکرار رتبه ها رتبه بندی می کنند و سپس به میانگین رتبه های آن پیوندها می پردازند و به هر یک از ردیف ها میانگین رتبه را اختصاص می دهند. می خواستم بدونم که آیا این روش به اتفاق آرا در آمار برای تعیین رتبه استفاده می شود؟ آیا راه های دیگری برای تعیین رتبه در موارد تساوی وجود دارد؟ اگر بله، چه زمانی از کدام راه استفاده کنیم؟ با تشکر و احترام!
رتبه ها در موارد تساوی چگونه محاسبه می شود؟
32925
من می‌خواهم خوشه‌بندی k-means را روی برخی از اشیایی که دارم انجام دهم، اما اشیاء با «نقاط» توصیف نمی‌شوند. با این حال، من می توانم فاصله بین هر دو شی را محاسبه کنم (این بر اساس یک تابع شباهت است). من قبلاً K-means را پیاده‌سازی کرده‌ام، اما برای من روشن نیست که چگونه خوشه‌ها را به‌روزرسانی کنم تا «مرکز» خوشه‌ها بدون نمایش نقطه باشند. این به طور معمول چگونه انجام می شود؟
چگونه می توان خوشه بندی k-means را تنها با یک تابع فاصله و نه نقاط اقلیدسی انجام داد؟
51176
آیا الگوریتم های یادگیری ماشینی مانند درختان رگرسیون تقویت شده (در بسته R (gbm)) از فرضیات آماری یکسانی پیروی می کنند که متغیرهای پیش بینی همبسته را در GLM لحاظ نمی کنند؟ یعنی اگر من دو پیش بینی کننده همبسته داشته باشم (rsq=.7) آیا باید هر دو را در مدل BRT خود لحاظ کنم؟ هر گونه ورودی یا فکری در مورد این سوال بسیار قدردانی خواهد شد. به سلامتی،
الگوریتم های یادگیری ماشین در مقابل رگرسیون خطی
56632
من قسمت زیر را از مجموعه ای از یادداشت های سخنرانی دارم که روی آن کار می کنم و می خواهم کمی بهتر آن را بفهمم. $\underline{\text{الگوریتم برای نمونه گیری رد}}$: با توجه به دو تراکم $f$, $g$، با $f(x) < M.g(x)$ برای همه $x$، و مقداری $M$ ثابت می‌توانیم یک نمونه از $f$ با 1 ایجاد کنیم. $X \sim g$ 2 را رسم کنید. $X$ را به عنوان نمونه از $f$ با احتمال $\large بپذیرید. \frac{f(X)}{M.g(X)}$ در غیر این صورت به مرحله 1 برگردید. اکنون، می‌دانم که چرا نمونه‌هایی از توزیع با چگالی $f$ تولید می‌شود، اما من واقعاً نمی‌دانم چگونه از آن استفاده کنم. الگوریتم در عمل من یک $X$ از توزیع با چگالی $g$ می‌کشم و سپس باید تصمیم بگیرم که آیا آن را حفظ کنم یا رد کنم. من شرط پذیرش آن را نمی فهمم ... آیا آن را می پذیرم اگر احتمال تعریف شده در 2. بیشتر از e.g. 0.5 یا شاید 0.7؟ آیا این احتمال به من بستگی دارد که تصمیم بگیرم؟ با تشکر از بینش و افکار شما.
روش نمونه گیری رد مونت کارلو
72068
من یک سوال مشکل طبقه بندی اسناد دارم. به هر سند در مجموعه من می توان یک برچسب اختصاص داد. در مجموعه آموزشی من میانگین حدود 3 برچسب مختلف است که به هر سند اختصاص داده شده است. چیزی که من در مجموعه آموزشی یاد گرفتم $P(\text{label}|\text{doc_word})$ برای بسیاری از جفت‌های label/doc_word است. من می خواهم $P(\text{label}|\text{word}_1,\ldots,\text{word}_n)$ را محاسبه کنم اما نمی توانم آن را به سادگی با $$P(\text{label}|\text محاسبه کنم {word}_1,\ldots,\text{word}_n)=P(\text{label}|\text{word}_1)\cdot \ldots \cdot P(\text{label}|\text{word}_n)$$ زیرا کلمات زیادی وجود دارد که $P(\text{label}|\text{word}_i)=0$ وجود دارد. علاوه بر این، اگر دو کلمه در سند وجود داشته باشد که در آن $P(\text{label}|\text{word})>0$ باشد، محصول آنها کمتر از احتمالات فردی خواهد بود و بنابراین احتمال برچسب کمتر می شود. این برای من غیر شهودی است زیرا فکر می‌کنم داشتن دو کلمه که $P(\text{label}|\text{word})>0$ باید برچسب را بیشتر کند. پس شاید فرض استقلال درست نباشد. شاید من فقط باید از این احتمالات به عنوان قوانین ارتباطی برای اختصاص برچسب ها استفاده کنم؟
سوال طبقه بندی اسناد
56634
از ویکی پدیا > محاسبه آمار آزمون $W$ $$ W = \left|\sum_{i=1}^{N_r} > [\operatorname{sgn}(x_{2,i} - x_{1,i}) \cdot R_i]\right|، $$the مطلق > مقدار مجموع رتبه‌های امضا شده. > > با افزایش $N_r$، توزیع نمونه $W$ به یک توزیع > نرمال همگرا می شود. 1. از آنجایی که $W$ همیشه غیر منفی تعریف می شود، چرا توزیع $W$ به یک توزیع نرمال که احتمال مثبت مقادیر منفی دارد همگرا می شود؟ اونوقت باید چی باشه؟ 2. > برای $N_r \ge 10$، یک z-score را می توان به صورت $z = \frac{W - 0.5}{\sigma_W}، \sigma_W = \sqrt{\frac{N_r(N_r + 1) محاسبه کرد( 2N_r + 1)}{6}}$. آیا به معنای $E(W) = 0.5$ و $\operatorname{Var}(W) = \frac{N_r(N_r + 1)(2N_r + 1)}{6}$ است؟ چرا درست است؟ با تشکر و احترام!
آیا ویکی‌پدیا در مورد توزیع تهی آمار رتبه امضا شده اشتباه می‌کند؟
35658
من می‌خواهم ظرفیت $C$ یک جدول را طوری تعیین کنم که شانس باقیمانده آن کمتر از $2^{-p}$ برای سرریز کردن $p\in[40\dots 120]$ باشد، با فرض اینکه تعداد ورودی‌ها به دنبال یک عدد باشد. قانون پواسون با انتظار معین $E\in[10^3\dots 10^{12}]$. در حالت ایده‌آل، من پایین‌ترین عدد صحیح «C» را می‌خواهم، به طوری که «1-CDF[PoissonDistribution[E],C] <2^-p» برای «p» و «E» داده شده؛ اما من با مقداری «C» کمی بالاتر از آن راضی هستم. Mathematica برای محاسبات دستی خوب است، اما من می‌خواهم «C» را از «p» و «E» در زمان کامپایل محاسبه کنم، که من را به حساب عدد صحیح 64 بیتی محدود می‌کند. به روز رسانی: در Mathematica (نسخه 7) `e = 1000; p = 40; c = Quantile[PoissonDistribution[e], 1 - 2^-p]` '1231' است و درست به نظر می رسد (با تشکر @Procrastinator). با این حال، نتیجه برای «p = 50» و «p = 60» «1250» است، که از جنبه ناامن اشتباه است (و مهم است: آزمایش من مانند $2^{25}$ بار یا بیشتر تکرار می‌شود، و من می‌خواهم به طور قابل اثباتی کمتر از $2^{-30}$ احتمال شکست کلی). من مقداری تقریب خام اما مطمئن را می‌خواهم ** فقط با استفاده از حساب عدد صحیح ۶۴ بیتی**، همانطور که در C(++) در زمان کامپایل موجود است.
تقریب ساده توزیع تجمعی پواسون در دم بلند؟
109412
من در یک پروژه سری زمانی برای دوره کارشناسی هستم. برای پروژه من سعی می کنم یک مدل ARIMA برای مجموعه داده شروع مسکن ارائه کنم. http://www.quandl.com/FRED/HOUST-Housing-Starts-Total-New-Privately-Owned- Housing-Units-Started من سعی کرده ام که p و q را تنظیم کنم تا باقیمانده هایی که نویز سفید نامرتبط دارند را به دست بیاورم. من auto.arima را برای بدست آوردن مقادیر پارامتر امتحان کردم. > fit.start=auto.arima(data) > fit.start Series: data ARIMA(2,1,3)(2,0,0)[12] ضرایب: ar1 ar2 ma1 ma2 ma3 sar1 sar2 1.2874 -0.3256 -1.6559 0.8715 -0.1725 -0.1352 -0.2074 s.e. 0.5709 0.5348 0.5665 0.7266 0.2052 0.0520 0.0517 > fit213200<-Arima(data, order=c(2,1,3), seasonal=c(2,0,0)) > tsdisplay(0,2,0,0) توضیحات[0,2,0,0/3) اینجا](http://i.stack.imgur.com/sBbjL.png) بنابراین آیا به هر حال می توان دریافت که باقی مانده ها فقط نویز سفید باشند؟
گرفتن باقیمانده ها به نویز سفید
93383
توزیع یک متغیر تصادفی معمولی توزیع شده $X^2$ با $X\sim N(0,\sigma^2/4)$ چیست. می دانم که $\chi^2(1)=Z^2$ یک آرگومان معتبر برای مربع کردن یک **توزیع نرمال استاندارد** است، اما در مورد واریانس غیر واحدی؟
مربع توزیع نرمال با واریانس خاص
73000
اخیراً، من یک مدل طبقه بندی بر اساس مجموعه داده های نامتعادل ساخته ام (نمونه مثبت اقلیت است و نمونه منفی اکثریت است) و مدل نتیجه زیر را برای مجموعه آزمون داد: > مثبت واقعی = 0 > > منفی واقعی = 139 > > مثبت کاذب = 0 > > منفی کاذب = 10. سوال من این است: برای نتیجه، آیا ضریب همبستگی متیوز (MCC ) و F-measure برای تخمین طبقه بندی کننده استفاده می شود؟ از آنجایی که مخرج های MCC و F-measure صفر هستند، بی معنی به نظر می رسد. اگر چنین است، MCC و F-measure همیشه برای تخمین طبقه‌بندی‌کننده کار نمی‌کنند و حساسیت و ویژگی و همچنین g-mean بهتر است. درست است؟ هر کمکی قابل تقدیر است.
مخرج برای ضریب همبستگی متیوز و اندازه گیری F صفر است
35651
فرض کنید من دو سری زمانی a و b دارم و مقدار بعدی و یک بازه پیش‌بینی (مثلا 80 درصد پایین و بالای هر یک از این دو) را پیش‌بینی می‌کنم. من به چیزی شبیه به آن پایان می دهم: a: [10، 20، 30] و b: [2، 7، 12] (به عنوان [lo80٪، پیش بینی، high80٪]). از آنجایی که این سری‌های زمانی مستقل هستند، من می‌بینم که می‌توانم فقط 20 + 7 را برای پیش‌بینی a + b اضافه کنم، اما در مورد فاصله پیش‌بینی چطور؟ فکر می کنم نمی توانم آنها را به [12، 27، 42] اضافه کنم، درست است؟ (ببخشید اگر سوال خیلی ساده است)
چگونه فاصله پیش بینی را از دو پیش بینی مستقل سری های زمانی محاسبه کنیم؟
51170
اجازه دهید $(X,Y)$ به طور یکنواخت روی مثلث $\\{(x,y)\in\mathbb R^2:x+y\leq1,x\geq0,y\geq0\\}$ انتخاب شود. تابع چگالی $(X,Y)$ چیست؟ توزیع های $X+Y$، $X-Y$،$XY$ را بیابید. چیزی که من امتحان کردم: $\displaystyle \frac{1}{Area\hspace{1mm} of\hspace{1mm} Triangle} =\frac{1}{\frac{1}{2}\cdot 1 \cdot 1 }=2$، بنابراین تابع چگالی مشترک $(X,Y)$ این است: $$ f_{X,Y}(x,y)= \begin{موردها} 2 & \text{در داخل مثلث} \\\ 0 & \text{elsewhere} \end{cases} $$ چگونه توزیع‌ها را پیدا کنم؟ متشکرم
توزیع های $X+Y$,$X-Y$,$XY$ برای $(X,Y)$ انتخاب شده به طور یکنواخت درون مثلث
65961
فرض کنید $\left(x_i,y_i\right)$ را مشاهده می کنید که در آن $y_i \sim \mathcal{N}\left(\mu_i,\sigma_i^2\right)$ است. چندین راه وجود دارد که $\mu_i، \sigma_i$ ممکن است با $x_i$ تغییر کند: 1. اگر کسی مشکوک بود که $\mu_i$ با $x_i$ تغییر کند، اما $\sigma_i$ مستقل از $x_i$ باشد، یکی می تواند رگرسیون خطی قدیمی ساده را انجام دهد. 2. اگر فردی مشکوک به $\sigma_i$ با $x_i$ بود، می‌توان یک تست هتروسکداستیکیته (به عنوان مثال Breusch-Pagan) انجام داد. من علاقه مند به مورد سومی هستم که ${\mu_i}/{\sigma_i}$ به صورت خطی با $x_i$ تغییر می کند، اما هیچ ارتباطی بین $\mu_i$ و $x_i$ فرض نمی شود، و هیچ همبستگی فرضی بین $\sigma_i وجود ندارد. $ و $x_i$. آیا تست استانداردی برای این مشکل وجود دارد؟
چگونه میانگین و واریانس هر دو تحت تأثیر یک متغیر را آزمایش کنیم؟
101077
من داده های بسیار بزرگ و تعداد مشاهدات کمی دارم. بنابراین تصمیم گرفتم از PCA برای کاهش ابعاد داده استفاده کنم. مثال زیر R (فقط یک مثال ساختگی - برای تمرین): xmat <- ماتریس(نمونه(-1:1، 100000، جایگزین = TRUE)، ncol = 1000) colnames(xmat) <- چسباندن (V، 1:1000, sep = ) rownames(xmat) <- paste(S, 1:100, sep = ) در این مجموعه داده مثال من 1000 متغیر و 100 مشاهدات / موضوع دارم. من PCA انجام می دهم. بیایید بگوییم. out <- princomp(xmat) خطا در princomp.default(xmat): 'princomp' فقط با واحدهای بیشتری نسبت به متغیرها قابل استفاده است Q1: آیا راهی برای کاهش ابعاد با 'p > n' وجود دارد؟ من می خواهم از تمام اطلاعات متغیرها به جای اطلاعات نماینده استفاده کنم. بدون داشتن راه حل مناسب، به هر حال از تحلیل خوشه ای متغیرها برای دسته بندی متغیرها و انتخاب تصادفی از بین خوشه ها استفاده کردم. برای ایجاد لیستی از متغیرهای نماینده سعی کردم متغیرها را خوشه بندی کنم. # متغیرهای خوشه‌ای d <- dist(t(xmat)، روش = اقلیدسی) # ماتریس فاصله متناسب <- hclust(d, method=ward) plot(fit) group = cutree(fit,40) groupd <- data.frame(var = نام ها (گروه ها)، گروه = گروه ها) آنچه من فکر می کنم این است که به طور تصادفی یک متغیر از هر گروه بالا انتخاب کنید و از آن در PCA استفاده کنید. فرض کنید من متغیر y زیر را دارم. set.seed(1234) yvar.d <- data.frame (موضوع = c(paste(S، 1:100، sep = ))، yvar = rnorm (100، 50،10)) **اینجا سوال من این است**: 1. چالش آماری استفاده از تحلیل خوشه ای چیست؟ 2. آیا می توانیم از امتیازات PCA در پیش بینی y استفاده کنیم؟ چگونه؟ فقط رگرسیون چندگانه است یا می توانیم چیزی مانند واریانس توضیح داده شده توسط هر مؤلفه در مدل را معرفی کنیم؟ **ویرایش ها:** بر اساس بحث ها (به نظرات زیر مراجعه کنید)، من از عملکردهای مختلفی برای انجام تجزیه و تحلیل رایانه شخصی استفاده می کنم. محاسبه با تجزیه مقدار منفرد ماتریس داده (مرکز و احتمالاً مقیاس‌شده) انجام می‌شود، نه با استفاده از eigen در ماتریس کوواریانس. این روش معمولاً برای دقت عددی ترجیح داده می‌شود. روش چاپ برای این اشیا نتایج را در چاپ می‌کند. یک قالب خوب و روش پلات یک طرح صحنه ای تولید می کند. - از کمک تابع. out1 <- prcomp(xmat) out1$x[1:3,1:3] PC1 PC2 PC3 S1 2.940862 -2.7379835 6.527103 S2 -1.081124 -0.5294796 -0.276591 S3 2.3025571025 -4.236289 out1$sdev screeplot(out1,npcs=30, type=lines,col=3) # 30 PCA رسم شده ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gMJys.jpg ) out1$rotation همچنین می‌آیم تا مثالی را در SO ببینم که چگونه از PCA در پیش‌بینی استفاده کنیم. تمرین من این است: ## مجموعه های آموزشی و آزمایشی ما را انجام دهید YY <- yvar.d$yvar prop <- 0.5 train = sample(1:length(YY), round(length(YY)*prop,0)) # data برای آزمایش مدل هدف testid = setdiff (1:طول (YY)، قطار) YY1 <- YY newXPCA <- data.frame(out1$x) test.data <- data.frame (y = YY1[testid],newXPCA[testid,]) test.data[1:10,1:10] train.data <- data.frame(y= YY1[train],newXPCA [train,] ) train.data[1:10,1:10] ## متناسب با کامپیوتر PCA <- prcomp(train.data[, -1]) trainwPC <- data.frame (y = train.data$y، pc$x) model1 <- lm(y ~ ., data = trainwPC) روش #predict() برای کلاس prcomp test.p <- predict(pc, newdata = test.data) pred <- predict(model1, newdata = data.frame(test.p), type = response) pred پیام هشدار: در predict.lm(model1, newdata = data.frame(test.p), type = response): پیش‌بینی از یک تناسب با رتبه ناقص ممکن است گمراه‌کننده باشد من همین الان این اسکریپت را از پیوند SO انتخاب کردم، در مورد صحت مطمئن نیستم از فیلمنامه هنوز سؤالات فنی باقی مانده است، مانند توضیح **سوال باقیمانده 2** در بالا: (1) اگر بخواهم داده ها را با نمونه برداری از 50% از داده ها به مجموعه آموزشی و آزمایشی تقسیم کنم (همانطور که در اسکریپت نشان داده شده است). آیا باید رگرسیون چندگانه را با y و «out1$x» انجام دهم؟ از چند جزء استفاده کنیم؟ آیا واریانس هر جزء در انتخاب مدل خوب نقش دارد، مانند اجتناب از برازش بیش از حد؟ چگونه؟ (2) خوشه‌بندی (با استفاده از خوشه‌های x) در مقابل تجزیه و تحلیل PCA (با زیرمجموعه مولفه‌های x در مقابل همه) چه چیزی از نظر آماری برای پیش‌بینی‌ها در موقعیت‌هایی که «p > n» دارند، مورد علاقه است؟ همانطور که به ذهن من گفتم، تجزیه و تحلیل PCA می تواند از همه اطلاعات استفاده کند، اما نمی دانم که آیا چنین اطلاعاتی مانند بیش از حد مناسب و مصرف خطا جنبه منفی دارد یا خیر. نمونه کار شده قدردانی کرد.
استفاده از نمرات رایانه شخصی یا تحلیل خوشه ای در پیش بینی ها
74782
من جفت های $(x,\ y)$ با یک همبستگی خطی قوی دارم. بنابراین من می‌خواهم تابع خطی بهترین را به منظور پیش‌بینی برای $x$های ناشناخته جا بزنم. این جفت‌ها یک تابع را نشان نمی‌دهند، یعنی مقادیر زیادی از $y$ برای برخی از $x$ وجود دارد. می‌خواهم بدانم آیا با در نظر گرفتن این مشکل به عنوان یک مشکل یادگیری ماشین، مشکلی در این مورد وجود دارد. آیا باید از یک نماینده منحصر به فرد (متوسط، حداکثر، حداقل، متداول ترین، و غیره) استفاده کنم و داده های ورودی را در یک تابع تبدیل کنم یا خوب است که با داده ها همانطور که هست کار کنیم؟
رگرسیون خطی از داده هایی که یک تابع را نشان نمی دهند
85766
چگونه کلاس یک ویژگی ناشناس را در تجزیه و تحلیل آماری شناسایی می کنید؟ (منظورم از «ویژگی ناشناس» این است که نمی دانم صفت پیوسته است یا مقوله ای). ویژگی مقدار صحیح می گیرد. می خواهم بدانم که آیا صفت پیوسته است یا مقوله ای (اسمی یا ترتیبی). چگونه می توانم آن را شناسایی کنم؟
چگونه کلاس یک ویژگی ناشناس را در تجزیه و تحلیل آماری شناسایی می کنید؟
32922
فرض کنید داده های شمارش داریم. به نظر می رسد که استفاده از یک مدل ARMA تعمیم یافته خوب باشد. در Rm این تابع است: > garma(link = c(identity، loge، reciprocal، logit، probit، > cloglog، cauchit)، earg=list()، p .ar.lag = 1، q.lag.ma = 0، coefstart = > NULL، step = 1) چرا استفاده از نوع تابع پیوند خوب است؟ هیچ گزینه سمی وجود ندارد.
مدل های GARMA برای تعداد
27202
من می خواهم چندین اندازه گیری عمق (چند متغیری -- بین 5 تا 20 بعد) را به صورت تجربی آزمایش کنم. من به دنبال چند میز تست (بخوانید توزیع) هستم. اینها باید: 1. غیر بیضوی، 2. مطلقاً پیوسته، 3. تک وجهی 4. دارای خطوط محدب (اگر ترجیح می دهید، مجموعه های سطح) 5. دارای اجزای غیر مستقل باشند. 6. پیاده سازی آسان (یعنی پیاده سازی شده در R یا کد منبع موجود به صورت آنلاین). 7. تعریف شده در ابعاد دلخواه آیا پیشنهادی دارید؟
به دنبال نمونه ای از توزیع های غیر بیضی، چند متغیره، کاملاً پیوسته با اجزای غیر مستقل
32921
من اطلاعات زیادی در مورد آمار ندارم پس ببخشید. من یک مجموعه داده دارم که دارای $N$ تعداد شرکت کنندگان و انتخاب آنها بین 1، 2، و 3 در هر نقطه معین است. من می خواهم توزیع انتخاب های بین 1، 2، و 3 را بر اساس سن و جنس شرکت کنندگان تجزیه و تحلیل کنم. چگونه می توانم تستی را برای جستجوی تعاملات قابل توجه بین این متغیرها تنظیم کنم؟ فکر کردم به یک ANOVA یک طرفه نیاز دارم اما مطمئن نیستم. متشکرم
آیا می توانم از ANOVA یک طرفه با چندین دسته بندی به عنوان متغیر پاسخ استفاده کنم؟
91148
من کار در R را با مورد زیر شروع می کنم: 35 کشور دارای امتیازات بین [0،1] در 120 بعد هستند و باید نشان دهم که تفاوت هایی در نحوه توزیع امتیازات آنها در این ابعاد وجود دارد. به عنوان مثال، اگر 5 بعد وجود داشت، (1،0.5،0،0،0) با (0،0،0،0.5،1) متفاوت است. به همین دلیل است که من تصمیم گرفتم از شباهت کسینوس (CS) به عنوان معیار استفاده کنم، زیرا من بیشتر نگران جهت هستم تا شدت نمرات آنها. از آنجایی که CS اندازه‌گیری بین بردارهای منفرد است، من در نهایت با یک ماتریس 35×35 از مقادیر مواجه می‌شوم، اما مشکل من این است که هنوز باید یک معیار/آزمون مناسب پیدا کنم تا بگویم **همه** مشابه هستند یا خیر. من مطمئن نیستم که آیا درست است که بگوییم اگر همه مقادیر در ماتریس > 0.95 باشند، همه آنها مشابه هستند. من با آمار هم زیاد خوب نیستم، اگر حرفهای بیخودی زدم ببخشید. هر توصیه ای؟ PD: من همچنین به این فکر کردم که ببینم آیا داده ها واقعاً خوشه ای هستند یا خیر، مطمئن نیستم.
شباهت کسینوس برای گروهی از بردارها
36350
من در حال حاضر سعی می کنم بهترین راه برای تجزیه و تحلیل داده های خود را پیدا کنم. شرکت کنندگان تا پنج نوبت به صورت طولی مورد آزمایش قرار گرفتند. در هر روز شرکت کنندگان از نظر وجود یا عدم وجود یک نشانگر عصبی (دوگانه) مورد ارزیابی قرار گرفتند و بر اساس یک اندازه گیری مداوم (امتیاز 0-10) مورد آزمایش قرار گرفتند. من به سادگی می خواهم مقایسه کنم که چگونه تشخیص مثبت یا منفی در هر موقعیت معین امتیاز را در اندازه گیری مداوم پیش بینی می کند. متأسفانه همانطور که مطالعه در بخش مراقبت‌های ویژه بیمارستان انجام شد، همه شرکت‌کنندگان بارها آزمایش شدند و برای نسبت‌های متفاوتی از این مشاهدات مثبت یا منفی بودند. توزیع نمرات برای هر گروه بر روی متغیر پیوسته نیز غیر نرمال بود. بنابراین، می‌خواستم بدانم آیا آزمایش اندازه‌گیری‌های مکرر ناپارامتریک وجود دارد که بتواند طرح‌های نامتعادل را مدیریت کند؟ به من گفته شده است که مدل سازی چند سطحی ممکن است یک گزینه باشد، اما من تجربه زیادی با آن ندارم. پیشاپیش برای هر کمکی متشکرم!
طراحی طولی - اقدامات مکرر، طراحی ناپارامتریک، غیر متعادل
51175
آیا نام رایجی برای تابعی وجود دارد که برش های زمانی را در یک روز با احتمال وقوع یک رویداد خاص در آن برش ترسیم می کند؟ من از توزیع احتمال استفاده می‌کردم، اما حدس می‌زنم از آنجایی که مجموع مقادیر y می‌تواند به اندازه تعداد برش‌های زمانی باشد (یعنی این رویداد در هر برش زمانی اتفاق می‌افتد) این از اصطلاحات استفاده نادرست است.
نام تابعی که برش های زمان را به احتمالات نگاشت می کند
72060
در کد زیر یک رگرسیون لجستیک روی داده های گروه بندی شده با استفاده از glm و با دست با استفاده از mle2 انجام می دهم. چرا تابع logLik در R به من یک log likelihood logLik(fit.glm)=-2.336 می دهد که متفاوت از logLik(fit.ml)=-5.514 است که من با دست دریافت می کنم؟ library(bbmle) #موفقیت در ستون اول، شکست در Y دوم <- ماتریس(c(1,2,4,3,2,0),3,2 #predictor X <- c(0,1,2) #use glm fit.glm <- glm(Y ~ X,family=binomial (link=logit)) summary(fit.glm) #use mle2 invlogit <- function(x) { exp(x) / (1+exp(x))} nloglike <- function(a,b) { L <- 0 for (i در 1:n){ L <- L + sum(y [i,1]*log(invlogit(a+b*x[i])) + y[i,2]*log(1-invlogit(a+b*x[i]))) } return(-L ) } fit.ml <- mle2(nloglike, start=list( a=-1.5, b=2), data=list( x=X, y=Y, n=length(X)), method=Nelder-Mead , skip.hessian=FALSE) summary(fit.ml) #log likelihoods logLik(fit.glm) logLik(fit.ml) y <- Y x <- X n <- طول(x) nloglike(coef(fit.glm)[1],coef(fit.glm)[2]) nloglike(coef(fit.ml)[1],coef(fit.glm)[2])
Log Likelihood برای GLM
72063
من در حال حاضر در حال مطالعه تحلیل داده های بیزی توسط گلمن و همکاران هستم. و هدف اصلی من یادگیری در مورد مدلسازی سلسله مراتبی در فصل 5 بود. من تا فصل 4 مطالعه کردم و کتاب به طرز وحشتناکی برای ذائقه یک دانش آموز ریاضی نوشته شده است، زیرا کاملاً کلی و مهندسی است. تصمیم گرفتم دیگر با این کتاب ادامه ندهم و اگر کسی بتواند مرجعی با رویکرد دقیق تری به موضوع معرفی کند بسیار سپاسگزار خواهم بود.
مرجع مدلسازی بیزی سلسله مراتبی
74251
من یک رگرسیون لجستیک رهگیری تصادفی دارم (به دلیل اندازه‌گیری‌های مکرر) و می‌خواهم برخی تشخیص‌ها را انجام دهم، به‌ویژه در مورد نقاط پرت و مشاهدات تأثیرگذار. من به باقی مانده ها نگاه کردم تا ببینم آیا مشاهداتی وجود دارد که برجسته باشد. اما من همچنین می خواهم به چیزی مانند فاصله کوک یا DFFITS نگاه کنم. Hosmer و Lemeshow (2000) می گویند که به دلیل فقدان ابزارهای تشخیصی مدل برای داده های همبسته، باید فقط یک مدل رگرسیون لجستیک منظم را با نادیده گرفتن همبستگی تنظیم کرد و از ابزارهای تشخیصی موجود برای رگرسیون لجستیک منظم استفاده کرد. آنها استدلال می کنند که این بهتر از عدم انجام هیچ تشخیصی است. کتاب مربوط به سال 2000 است و نمی‌دانم که آیا اکنون روش‌هایی برای تشخیص مدل با رگرسیون لجستیک اثرات مختلط وجود دارد؟ چه روش خوبی برای بررسی نقاط پرت خواهد بود؟ **ویرایش (5 نوامبر 2013):** به دلیل عدم پاسخگویی، می‌پرسم آیا انجام عیب‌یابی با مدل‌های مختلط به طور کلی انجام نمی‌شود یا بهتر بگوییم گام مهمی در مدل‌سازی داده‌ها نیست. بنابراین اجازه دهید سوالم را دوباره بیان کنم: وقتی یک مدل رگرسیون خوب پیدا کردید چه می کنید؟
مدل های ترکیبی خطی تعمیم یافته: تشخیص
51171
اجازه دهید $(X, Y)$ دارای توزیع نرمال با میانگین $(\mu_X، \mu_Y)$، واریانس $(\sigma_X^2، \sigma_Y^2)$ و همبستگی $\rho$ باشد. من می خواهم چگالی های حاشیه ای مربوطه را بدانم. تنها چیزی که تا به حال پیدا کردم عبارات چگالی شناخته شده برای $X\sim N(\mu_X, \sigma_X^2)$ و $Y\sim N(\mu_Y, \sigma_Y^2)$ بود، اما اینطور نیست فقط برای X $ \perp Y$؟ آیا $\rho$ نباید در عبارات ظاهر شود؟ چگونه می توانم حاشیه های هر X$ و $Y$ را محاسبه کنم؟ من فکر می کنم استفاده از این تعریف به یک انتگرال ختم می شود که نمی توان آن را به صورت تحلیلی حل کرد…
به دست آوردن توزیع های حاشیه ای از نرمال دو متغیره
61266
من علاقه مندم که چرا مشاهدات وابسته در آمار مشکل دارند. فرض کنید می خواهید بدانید که آیا تفاوتی در میانگین نمرات امتحانات بین دو مدرسه وجود دارد یا خیر. شما در هر مدرسه 50 مشاهده جمع آوری می کنید. این 50 مشاهدات از 5 کلاس درس مختلف در هر مدرسه مشتق شده اند و وابستگی درون کلاس ها وجود دارد. در این مثال، نتایج آزمون t چگونه تحت تأثیر قرار خواهند گرفت و چگونه ممکن است به نتایج نادرست منجر شوند؟
چرا وابستگی یک مشکل است؟
25513
من یک مشکل طبقه بندی باینری دارم. ورودی های من شامل یک سری زمانی از مقادیر به اضافه مقداری باینری است. برای ورودی‌های با ارزش واقعی، معمولاً از یک شبکه عصبی استفاده می‌کنم، در حالی که برای ورودی‌های با مقادیر باینری، از یک شبکه عصبی با تابع مرحله‌ای یا روش دیگری مناسب برای ورودی‌های باینری (مانند طبقه‌بندی کننده حداکثر آنتروپی) استفاده می‌کنم. انواع مخلوط می شوند چه معماری باید استفاده شود؟
مشکل طبقه بندی باینری
25511
سوال من از پاسخ عالی قبلی در یک پست دیگر ناشی می شود: قابلیت اطمینان درون و بین ارزیاب بر روی همان داده ها وای، چه پاسخ واقعا عالی! من با مشکل مشابهی روبرو هستم و نمی‌دانم که آیا کسی می‌تواند این مثال را به مجموعه داده‌ای مشابه آنچه که شما ایجاد کرده‌اید گسترش دهد **اما** با 2 اندازه‌گیری برای هر بیمار، به ازای هر رتبه‌دهنده، تا امکان محاسبه درون ارزیاب فراهم شود. قابلیت اطمینان؟ و با نمره گذاری بر اساس مقیاس 1-6 به جای پاسخ باینری؟ مجموعه داده به این صورت است: +----------------------------------------- -------------------+ | a1 a2 b1 b2 c1 c2 d1 d2 زمان بیمار | |----------------------------------------------- ------| | 3 2 1 2 1 4 2 1 1 1 | | 4 4 3 5 1 5 2 1 2 1 | | 1 2 2 5 3 5 1 3 1 2 | | 2 1 3 5 2 6 1 1 2 2 | | | +----------------------------------------------- ------------+
چگونه می توان قابلیت اطمینان درون ارزیاب را در Stata محاسبه کرد؟
74786
مجموع مجموع مربع ها به صورت زیر بیان می شود [1][2]، \begin{align} \rm{TSS} &= MSS + ESS \end{align} \begin{align} \sum_{i=1}^n (y_{i}-\overline{y})^2 &= \sum_{i=1}^n (\hat{y}_{i}-\overline{y})^2 + \sum_{i=1}^n (y_{i}-\hat{y}_{i})^2 \end{align} مجموعه‌ای از داده‌های توزیع شده نمایی (x,y) مانند زیر دارم، x y 332 7.283650 342 7.231924 356 6.949199 369 7.360927 369 7.154024 315 7.379831 334 7.278457 339 7.217902 321 7.238676 300 7.282819 330 7.255710 329 7.138676 7.292686 335 7.405174 360 7.196402 351 7.130031 357 7.218629 348 6.991577 327 7.326131 347 7.4391576 7.199726 351 7.310863 307 7.206269 349 7.125773 340 7.129408 341 7.093262 358 7.375157 306 129408 7.5341 7.133147 350 7.345347 333 7.546433 318 7.192559 321 7.142807 347 7.167319 327 7.197025 352 7.13141214 10.388952 332 7.425843 344 8.922770 367 7.209697 361 7.040914 309 7.236910 322 7.050262 321 7.209697 7.050262 321 7.040914 7.236910 7.050262 321 7.216 264 10.103215 322 7.208139 313 8.114479 374 7.072074 343 7.376195 333 7.081941 356 7.061375 3747511. 348 6.948888 299 13.043680 337 7.679382 331 7.025437 387 7.182068 349 7.174590 293 7.387724 3430351. 321 9.081374 350 8.787224 270 12.606609 283 8.027543 336 7.113309 346 7.149870 317 10.554307 3019 318 7.115282 347 7.038421 309 7.059298 344 7.025853 339 7.194532 262 12.690118 291 9.464123 3183738 317 317 194532. 348 7.195571 231 8.631216 274 7.765591 298 12.136716 221 8.449553 190 11.299447 285 7.61085830 2705 6.836608 312 9.058835 296 6.974543 332 7.381492 298 7.987658 312 7.734847 316 6.975374 227 13.570 13.570 8.783381 362 7.320523 311 6.930607 222 9.994258 299 10.843992 256 9.309050 294 9.304895 303 303 8718 1191. 206 11.550493 293 8.223747 315 ​​8.525272 289 10.906415 279 8.296662 259 9.490090 305 8.418497 28269 8.573466 320 7.391983 20 46.517206 18 46.796088 50 33.885254 10 53.022687 50 33.730700 46 346.79608 33.885254 34.076680 40 40.189545 66 27.821829 39 40.119954 39 39.077237 57 27.396287 29 46.103090 30 39.393539.394 40.455963 47 33.197760 60 39.389356 29 40.129821 40 40.059608 38 39.861015 30 46.634160 19 45.747 40.129821 33.705149 69 33.255718 69 33.722495 10 52.855150 18 46.515025 28 40.819288 28 39.971840 20 4314747.16 34.006985 49 33.528368 50 33.917452 39 39.867870 50 33.280126 40 39.621913 20 46.517206 18 46.867870 18 46.280126 53.022687 50 33.730700 46 33.914648 30 39.763380 50 34.076680 40 40.189545 66 27.821829 39 40.189 39 40.189545 39 40.189545 27.396287 29 46.103090 30 39.334099 29 40.155373 30 40.455963 47 33.197760 60 39.389356 29 40.155373 29 40.455963 39.861015 30 46.634160 19 45.749527 47 33.575315 68 33.705149 69 33.255718 69 33.722495 10 5252.8510 40.819288 28 39.971840 20 47.167931 28 41.367704 50 34.006985 49 33.528368 50 33.917452 39 39.367704 39.006985 39.621913 20 46.517206 18 46.539745 48 33.885254 10 53.022687 50 33.730700 46 33.592453 30 39.885254 30 39.730700 40.189545 64 27.515942 36 40.119954 38 39.089597 56 27.260741 28 46.103090 30 39.334099 28 40.089595 28 40.103090 28 40.103090 33.043622 60 39.389356 28 40.129821 40 40.059608 36 39.724430 30 46.645377 18 45.749527 46 347386 46 34.059608 33.031573 68 33.714705 10 52.855150 18 46.253489 28 40.595767 28 39.724741 20 47.167931 28 41.251.154 33.528368 50 33.917452 38 39.867870 50 33.280126 40 39.621913 من سعی می کنم الف) مقادیر MSS، ESS و TSS را پیدا کنم. ب) اعتبارسنجی کنید که آیا مقادیری که دریافت کردم صحیح هستند، مطابق با رویکرد TSS = MSS + ESS ## 1 [رویکرد بهترین تناسب [3]، بدون تبدیل داده‌های نمایی به داده‌های خطی] \begin{align} y_{i} = y، x_{i} = x \end{align} \begin{align} \overline{y}=23.62464471 \end{align} \begin{align} \hat{y}_{i}=Ae^{Bx_{i}}= 47.3826e^{-0.0055x_{i}} \end{align} جایی که A=exp(a) و B= ب a و b از معادله به دست می آیند
مجموع مجذورات (TSS) - رگرسیون نمایی
65963
هنگامی که یک توزیع گاوسی تک متغیره دارای واریانس شناخته شده و میانگین ناشناخته باشد، تابع پیوند متعارف آن هویت است. بنابراین مدل خطی تعمیم یافته آن تحت تابع پیوند متعارف به سادگی $E(Y|X) = X^T \beta$ است. وقتی یک توزیع گاوسی تک متغیره دارای میانگین و واریانس ناشناخته است، * تابع پیوند متعارف آن پیچیده است (به ستون Log-partition $A(\boldsymbol\eta)$ و ردیف توزیع عادی در جدول نگاه کنید) و دو پارامتر طبیعی $(\eta_1، \eta_2)$ دخیل است. مدل خطی تعمیم یافته آن چگونه به نظر می رسد؟ من آن را در گوگل پیدا نکردم و آیا اغلب از آن استفاده می شود؟ * آیا $Y= X^T \beta + \epsilon, \epsilon \sim N(0, \sigma^2)$ با پارامتر ناشناخته $(\beta, \sigma^2)$ هنوز یک مدل خطی تعمیم یافته است؟ با تشکر
مدل خطی تعمیم یافته برای توزیع نرمال با میانگین و واریانس ناشناخته چیست؟
36354
بهترین راه برای آزمایش تفاوت نسبت ها در صورتی که 0% (یا 100%) باشد چیست؟ ویرایش: من دو رتبه‌دهنده دارم که نمره 1 یا 0 می‌دهند. یکی از آنها در هر مورد 0 داده است. حالا می‌خواهم بدانم آیا نسبت‌های 1 بین این دو تفاوت چشمگیری دارد یا خیر.
تفاوت در نسبت ها اما یکی از آنها 0 است
4
من دو گروه داده دارم. هر کدام با توزیع متفاوتی از متغیرهای متعدد. من در تلاشم تا مشخص کنم که آیا توزیع این دو گروه از نظر آماری معنی دار است یا خیر. من داده‌ها را هم به صورت خام و هم به صورت صحافی می‌کنم تا بتوانم با مقوله‌های گسسته با تعداد فراوانی در هر کدام راحت‌تر برخورد کنم. از چه آزمایش‌ها/روش‌ها/روش‌هایی باید استفاده کنم تا مشخص کنم که آیا این دو گروه تفاوت قابل توجهی دارند یا نه و چگونه این کار را در SAS یا R (یا نارنجی) انجام دهم؟
ارزیابی اهمیت تفاوت ها در توزیع ها
93380
من یک تحلیل رگرسیون چندگانه از گروهی از متغیرهای طراحی را برای سیستمی که در حال تجزیه و تحلیل هستم انجام داده ام. از این رو من ضرایب رگرسیون استاندارد شده را تعیین کردم. همه متغیرها در یکی از دو گروه متغیرهای معماری و متغیرهای کنترل قرار می گیرند. من می خواهم اهمیت نسبی هر گروه از متغیرها را تعیین کنم تا بتوانم ادعا کنم که متغیرهای معماری دو برابر متغیرهای کنترل برای این سیستم اهمیت دارند. آیا قابل قبول است که ضرایب رگرسیون استاندارد شده را از تمام متغیرهای هر گروه جمع کنم و این دو عدد را با هم مقایسه کنم؟
ارزیابی اهمیت نسبی برای گروهی از متغیرهای مستقل
36352
من نیاز به انجام تجزیه و تحلیل بقا برای 4 گروه مختلف در یک مطالعه دارم. وقتی از آزمون لوگرانک استفاده می کنم، فرض صفر رد می شود. سوال من این است که چگونه می توانم بگویم دقیقا کدام جفت گروه باعث رد فرضیه صفر می شود؟ آیا آزمون بعدی خاصی وجود دارد یا باید تست لوگرانک را به صورت دستی برای جفت گروه های مختلف تکرار کنم؟ (یا راه حل دیگری در صورت امکان) از هر نوع کمکی قدردانی کنید!
تحلیل تعقیبی برای آزمون لوگرانک
23915
من باید یک رگرسیون به ظاهر نامرتبط از یک مدل غیر خطی انجام دهم. نمی توانم بفهمم چگونه این کار را در Stata انجام دهم. هر توصیه بسیار قدردانی می شود. ممنون، بن
حداقل مربعات غیر خطی SUR
23914
آیا فقط گزارش می‌دهید که آزمون معنی‌داری MANOVA قابل توجه است یا باید تخمین‌های کنتراست (SPSS 'K MATRIX') را نیز لحاظ کنید؟ در مورد دوم، چه دستورالعمل های قالب بندی توصیه می شود؟
چگونه نتایج کنتراست قابل توجهی را برای MANOVA در سبک APA گزارش می کنید؟
74254
فیلتر کالمن می تواند ماتریس های سیستمی با زمان متغیر را در خود جای دهد. معادلات اجرای فیلتر یکسان است و بهینه بودن آن را در مدل خطی گاوسی حفظ می کند. سوال من این است: آیا تکامل ماتریس های سیستم متغیر با زمان می تواند تصادفی باشد؟ در برخی از مراجع به نظر می رسد بین سطرها می خوانم که آنها باید به طور قطعی تکامل یابند. آیا به این معنی است که کل فیلتر می شکند یا به سادگی با تصادفی کردن آنها بهینه بودن را از دست می دهیم؟ برای مرجع، لطفاً به بخش 3.2 مقاله زیر نگاه کنید: http://www.ims.cuhk.edu.hk/~cis/2012.1/CIS%2012-1-05.pdf نظر مشابهی در کتاب هاروی در مورد کالمن آمده است. فیلتر کنید. با تشکر
ماتریس های سیستم متغیر با زمان در فیلتر کالمن
27206
این سوالی است که مدتی است ذهن من را درگیر کرده است. مشکل این است: من باقیمانده های یک مدل $f(t,\vec{\theta})$ را با (آنچه فکر می کنم این است) یک فرآیند AR به اضافه یک فرآیند نویز سفید از طریق MCMC با استفاده از یک احتمال گاوسی چند متغیره مدل می کنم. که در آن عناصر ماتریس کوواریانس برابر با عناصر اتوکوواریانس یک فرآیند $AR(1)$ به اضافه i.i.d را مدل می کنم. نویز سفید $\varepsilon(t)$، یعنی مدل من $$r(t)=AR(1)+\varepsilon(t),$$ که $r(t)$ باقیمانده مدل من است، $r (t)=d(t)-f(t,\vec{\theta})$، که $d(t)$ داده است. مسئله این است که من می‌خواستم یک بررسی بصری انجام دهم تا ببینم تناسب من خوب است (زیرا از طریق برخی از تجزیه و تحلیل‌های قبلی کاملاً مطمئن هستم که باقیمانده‌های من را می‌توان به طور موثر با یک $AR(1)$ به اضافه نویز سفید مدل‌سازی کرد: من فقط می‌خواهم این نتیجه را به سرعت به دیگران نشان دهید). کاری که من انجام دادم این بود که باقیمانده ها را از طریق توابع «arima» و «arma» در کتابخانه «tseries» در R تجزیه و تحلیل کردم، و دیدم که آنها در واقع باقیمانده ها را با همان ضریب نتیجه MCMC (در محدوده خطا) برازش کردند. و بدون در نظر گرفتن نویز سفید افزودنی، که به هر حال دارای واریانس کمی است). با این حال، من همچنین دیدم که تابع `arma` دارای چند نمودار زیبا است: باقیمانده تناسب AR را رسم می کند. این سوال من است: **اگر یک مدل AR ذاتاً تصادفی باشد، چگونه باقیمانده‌های یک تناسب AR را رسم می‌کنید؟** فکر می‌کنم سؤال من به این خلاصه می‌شود: **چگونه می‌توانید مدل خود را مطابق با مدل خود ایجاد کنید. تحقق خاصی از فرآیند AR (یعنی داده های شما) به منظور تفریق این تحقق از داده های شما؟** تنها راهی که می توانم به آن فکر کنم این است که تحقق های مختلف مدل $AR(1)$ را شبیه سازی کنم تا زمانی که با داده‌های شما مطابقت دارد، اما به نظر می‌رسد که عرشه را روی هم قرار داده‌اید.
R وقتی باقیمانده های یک تناسب AR را رسم می کند چه می کند؟
25514
من تابعی دارم که نتیجه یک بازی کارتی خاص را شبیه‌سازی می‌کند و مقداری را نشان می‌دهد که نتیجه بازی را نشان می‌دهد. من یک نحو مختصر برای نمونه‌برداری از بازی‌های متعدد بازی و گرفتن یک برداری حاوی نتایج می‌خواهم. این چیزی است که می‌خواهم بنویسم: نمونه (بازی با ورق (پارام‌ها)، تکرار، جایگزین=؟) که در حالت ایده‌آل برداری مانند (0، 1، 1، 1، 0، 1، 0، ...) را برمی‌گرداند. . نحو فوق در واقع یک بار بازی کارت (پارام ها) را ارزیابی می کند و آن را به عنوان پارامتر عددی برای نمونه در نظر می گیرد. آیا راهی برای جلوگیری از ایجاد بردار نتایج با دست با حلقه for و فراخوانی های متعدد تابع بازی کارت وجود دارد؟ من می‌پرسم، زیرا امکان فراخوانی () نمونه در توزیع‌های ایجاد شده توسط کاربر بسیار قدرتمند خواهد بود. با تشکر
نمونه برداری از نتیجه یک تابع در R
70574
من مطالعه‌ای را انجام داده‌ام که در آن از یک طرح اندازه‌گیری مکرر دو طرفه استفاده کردم تا بررسی کنم که آیا افراد به یک اثر درمانی اصلی پاسخ می‌دهند یا خیر. چیزی که من عمدتاً به آن علاقه دارم این است که آیا آزمودنی ها متعاقباً اثر درمان را با بازگشت به سطح کنترل جبران می کنند یا اینکه آیا تفاوت های اولیه در طول مدت درمان (زمان x تعامل درمان) باقی می ماند. عوامل من: درمان: فاکتور بین آزمودنی ها (3 سطح) زمان قرار گرفتن در معرض: اندازه گیری مکرر درون آزمودنی ها (4 سطح - مقادیر قبل از قرار گرفتن در معرض قرار نمی گیرند) درمان x تعامل زمانی: ![پاسخ در طول زمان به اثر درمان \(3 سطح\ ). مقادیر پیش آزمون \(زمان صفر\) در ANOVA گنجانده نشد](http://i.stack.imgur.com/w867m.jpg) نوارهای خطا = انحراف استاندارد نتایج ANOVA من: کروی بودن در نظر گرفته شد: p = 0.25. مقادیر تعدیل شده همان داستان را بیان می کند. هر دو اثر اصلی، درمان و زمان قابل توجه بودند. اثر درمان دارای اندازه اثر بزرگ (0.4) بود. (sensu Cohen) زمان، واقعاً به خودی خود جالب نیست، اندازه اثر کوچکی داشت (0.08) این تعامل معنی دار نبود (p = 0.3) و اندازه اثر کوچکی داشت (0.04). مشکل من: به نظر می رسد نمودار نشان می دهد که یکی از سطوح درمان با زمان قرار گرفتن در معرض تعامل است (شکل d). (یعنی همه خطوط از روز 4 تا 14 موازی نیستند) اما نتایج ANOVA نشان می دهد که تفاوت بین تیمارها ادامه دارد (خطوط موازی می مانند). من به مقایسه های زوجی در سطوح اثر اصلی نگاه کرده ام. سوال من: من وسوسه می شوم که مقایسه های پس از آن را برای مقایسه سطوح درمان در هر بازه زمانی اضافه کنم تا نشان دهم که تفاوت بین گروه ها در روز 11 ناپدید می شود. آیا این هدف از اجرای ANOVA را که به وضوح به من می گوید که باید فقط بیان کنید که یک اثر اصلی وجود دارد (یعنی گروه های درمانی در شکل d متفاوت باقی ماندند). بنابراین من واقعاً نباید به دنبال تفاوت های قابل توجه باشم. ادبیاتی که من کارم را با آن مقایسه می‌کنم از ANOVA استفاده می‌کند، اما سپس مقایسه‌های دوتایی را در همه جا انجام می‌دهد. من طرفدار اندازه افکت‌ها هستم، به جای p-value، بنابراین احساس توجیه کنید که فقط اثر اصلی درمان را برجسته کنید. نتیجه گیری اصلی من بسته به اینکه آیا من با ANOVA (یعنی بدون تعامل -> بدون بازیابی) یا مقایسه های زوجی در هر نقطه زمانی (بازیابی جزئی) می توانم بسیار متفاوت باشد. نکته جانبی: مدل‌های جلوه‌های ترکیبی در lme نتیجه مشابهی را ارائه کردند. من به ANOVA گیر دادم زیرا مخاطبانم بیشتر با آن ارتباط برقرار می کنند. با تشکر از بازخورد.
تفسیر نتایج ANOVA اندازه‌گیری‌های مکرر دو طرفه: آزمایش‌های پس‌هک بدون تعامل قابل‌توجه مجاز هستند؟
70576
آزمایشی وجود دارد که در آن نمونه های بیولوژیکی برای چندین تیمار و یک کنترل گرفته می شود. برای هر درمان، منابع کافی برای ارزیابی 5 نمونه داریم. برخی از محققان (به دلایل فنی) پیشنهاد می کنند که برای هر تیمار باید ده نمونه جمع آوری کنیم و آنها را با هم ترکیب کنیم، به طوری که پنج استخر داشته باشیم که هر کدام از دو نمونه بیولوژیکی مخلوط شده با هم تشکیل شده است. علاقه اصلی من درک اندازه اثر درمان در زمینه تنوع بیولوژیکی بین نمونه‌ها است که فکر می‌کنم اگر هر استخر به طور متوسط ​​دو نمونه بیولوژیکی داشته باشد از بین می‌رود (یا تجزیه و تحلیل پیچیده است) (همچنین دلایل دیگری برای آن وجود دارد. ادغام نشدن، بیشتر به این دلیل است که استخرها با سایر نمونه‌ها و اندازه‌گیری‌هایی که قرار نیست ادغام شوند، ناسازگار خواهند بود). اما این احتمال وجود دارد که به دلایل فنی مجبور به جمع آوری شویم. **سوالات من:** 1. آیا می توانیم واریانس بیولوژیکی زیربنایی را از واریانس استخرها تخمین بزنیم؟ من فکر می کنم که از آنجایی که ما واریانس مورد انتظار استخرها $\frac{\sigma^2}{2}$ خواهد بود (با توجه به اینکه واریانس بیولوژیکی در جمعیت $\sigma^2$ واقعی است)، آیا می توانیم تخمین واریانس را ضرب کنیم. از استخرها 2 دلار برای بدست آوردن تخمین واریانس بیولوژیکی، درست است؟ 2. طراحی آزمایشی در واقع کمی پیچیده تر است و تجزیه و تحلیل آن شامل مدل سازی گروهی و اثرات تصادفی (مدل اثر ترکیبی) خواهد بود. سوال اصلی درک اثرات درمان در بافت جمعیت (و نه استخرها) خواهد بود. آیا امکان گنجاندن ادغام در مدل وجود دارد؟ برای توضیح بیشتر در مورد سوال دوم، یک مثال خاص از یک مدل را بیان می کنم. یک طرح بلوک تصادفی شده را به صورت زیر در نظر بگیرید (امیدوارم درست انجام شود...): $Y_{ij}=\beta_0 + \beta_j\cdot T_j + \eta_i\cdot G_i + \epsilon_{ij} $ که در آن وجود دارد یک اثر ثابت درمان ($\beta_j$) و یک اثر تصادفی دسته آزمایشی ($\eta_i$) است. من آن را با استفاده از کتابخانه‌های «nlme» یا «lmer» از R، با استفاده از مدل‌های اثر ترکیبی تجزیه و تحلیل می‌کنم. اما من گیج هستم که اگر نمونه ها جمع شوند باید چه کار کنم.
ادغام نمونه ها -- چه اثراتی دارند
4892
بعد VC SVM با هسته چند جمله‌ای $k(x,x')=(1+<x,x'>_{\mathbb{R^{2}}})^{2}$ برای طبقه‌بندی باینری چقدر است در $\mathbb{R^{2}}$؟ اگر مجموعه ای از نقاط v وجود داشته باشد، برابر یا بیشتر از v خواهد بود، به طوری که هر برچسب گذاری (1- یا 1+) از نقاط داده شده، مرز جداکننده صحیحی وجود داشته باشد. اگر برای تمام مجموعه‌های نقاط v، یک برچسب‌گذاری برای نقاط وجود داشته باشد، به شدت کمتر از vff است. در این مورد، مرز جداکننده یک بخش مخروطی یا یک خط است، بنابراین هر ایده ای که بر اساس این منحنی ها به جای SVM باشد، استقبال می شود. ~~برای مثال، اجازه دهید $x=(x_{1},x_{2}) \in \mathbb{R^{2}}$. با استفاده از یک $\phi$ مشخص به $\mathbb{R^{6}}$ نگاشت شده است و یک ابر صفحه در این فضای جدید یک بخش مخروطی در فضای قبلی است. بنابراین حدس من بعد VC یک طبقه‌بندی‌کننده خطی در $\mathbb{R^{6}}$ خواهد بود که 7 است.~~ * * * در واقع **پاسخ 6** است: معادله یک ابر صفحه در $\mathbb{R^{d}}$ $$<w,x>_{\mathbb{R^{d}}}+b=0$$ است که $w \in \mathbb{R^{d}}$ و $b \in \mathbb{R}$. در اینجا، $b=1$ و $w \in \mathbb{R^{5}}$ داریم، نه $\mathbb{R^{6}}$.
بعد VC SVM با هسته چند جمله ای در $\mathbb{R^{2}}$
70575
من یک توزیع $f$ را بر روی r.v مدل کرده ام. $x \in \mathbb{R}^3$. در استنباط مجموعه ای از نقاط اندازه گیری، X$، از r.v. متغیرها نشان داده می شوند. من می خواهم توزیعی را روی این مجموعه نمونه تشکیل دهم تا بتوانم از آن نمونه برداری کنم تا نقاط احتمالی بیشتر بیشتر نشان داده شوند. ایده من این بود که $f$ را برای هر نقطه در مجموعه ارزیابی کنم و سپس آن را عادی سازی کنم تا توزیع گسسته ای روی نقاط ایجاد شود. از آنجایی که $f \تقریبا 0$ است می‌خواهم از احتمال ورود استفاده کنم. با این حال، $\log$ یک تبدیل غیرخطی است و نرمال کردن آن به معنای محاسبه: $\log \sum_i f(x_i)$ است که به دلیل این واقعیت که $f(x_i)\تقریبا 0$ است، خطاهای عددی می دهد. بنابراین بهترین کاری که می توانم انجام دهم محاسبه log sum exp است. سوال من این است: آیا راه بهتری برای انجام این کار وجود دارد؟ و آیا این یک رویکرد کاملاً اشتباه از نظر مدل‌سازی توزیع‌های احتمال است؟
در نظر گرفتن log-likelihood به عنوان توزیع احتمال و عادی سازی؟
27205
_ من در حال انجام پایان نامه هستم و مطلقاً هیچ تجربه قبلی در آمار ندارم. _ چندین مقیاس لیکرت را با تشکیل نمرات ترکیبی بر اساس 4-6 گویه ساخته ام که میزان توافق پاسخ دهندگانم را می سنجد. به طور خاص، من دو مقیاس «رفتار خرید» و «جذاب وب‌سایت» ایجاد کرده‌ام. می‌خواهم ببینم آیا «تجدیدنظر وب‌سایت» با «رفتار خرید» مرتبط است یا خیر. حالا که دارم تحلیل می کنم، گیج شده ام که آیا باید از Spearman rho استفاده کنم یا از رگرسیون چندگانه. همبستگی اسپیرمن و رگرسیون چندگانه مقادیر p متفاوتی دارند، به طوری که یکی بیان می کند که من باید فرضیه خود را رد کنم و دیگری می پذیرم. **پس در این مورد باید از rho یا رگرسیون چندگانه اسپیرمن استفاده کنم؟** آیا قاعده نظری وجود دارد که باید مثلاً از رگرسیون چندگانه استفاده کنم زیرا دارم 4-6 مورد را روی لیکرت آزمایش می کنم، اگرچه آنها را با هم گروه بندی کرده ام و قصد دارند آنها را به عنوان دو متغیر منفرد مشاهده کنند. * * * ممنون، جرومی. مقاله گلمن و استرن (2006) واقعا جالب است! از آنجایی که من غیر آمارگیر هستم و سعی می کنم پایان نامه ام بی ای ام را ادامه دهم، بسیار وسوسه می شوم که تحلیلی پیدا کنم که روش ساده ای برای تجزیه و تحلیل داده هایم و در نهایت آزمایش فرضیه هایم به من بدهد. من می دانم که این نباید راه باشد، اما آمارها دقیقاً سرگرم کننده و جالب نیستند. من با سرپرستم صحبت می کردم و او زمانی که قصد استفاده از اسپیرمن را داشتم، استفاده از رگرسیون را پیشنهاد کرد (زیرا آیتم های مقیاس لیکرت ترتیبی هستند و اگر بخواهم ترتیبی در مقابل ترتیبی را آزمایش کنم، از Spearman استفاده می کنم - طبق متن روش تحقیقم) بله، من هستم. برنامه ریزی برای آزمایش تنها دو متغیر (پیش بینی کننده؟) در یک زمان، بنابراین، Spearman می تواند از نظر فنی استفاده شود. اما این دو متغیر (هم وابسته و هم مستقل) به عنوان یک متغیر جدید از آیتم های مختلف من در مقیاس لیکرت محاسبه می شوند (آیا این منطقی است؟). من فقط نگران این هستم که اگر از تحلیل آماری اشتباه استفاده کنم، تحلیل من نادرست تلقی شود - یا این مهم نیست؟
آیا برای بررسی رابطه بین دو مقیاس لیکرت از روش اسپیرمن استفاده کنیم یا رگرسیون چندگانه؟
91144
من از LMM برای تجزیه و تحلیل داده های خود استفاده می کنم و متغیرهای من به شرح زیر است: DV: پیوسته IV: 1) رنگ (قرمز، آبی، سبز)، قد (کم، قد، متوسط)، و جنسیت (مرد، زن) سپس برای رنگ، قرمز خط پایه است و برای ارتفاع کم خط پایه است. خروجی به این صورت است: رنگ آبی (sig) رنگ سبز رنگ قد متوسط ​​نر رنگ آبی: قد بلند (sig) رنگ سبز: قد بلند رنگ آبی: قد متوسط ​​رنگ سبز: ارتفاع متوسط ​​رنگ آبی: رنگ سبز مرد: قد بلند: قد نر متوسط: آبی رنگ نر: قد بلند: سبز رنگ :قد بلند:نر colorblue:heightmedium:male (sig) colorgreen:heightmedium:male (sig) برای تعبیر آیا مناسب است که بگوییم: رنگ آبی در زمانی که قرمز=0 باشد اثر اصلی دارد و تفاوت بین آبی رنگی و رنگی کمتر (یا بیشتر بسته به این بستگی دارد) بر ضریب) در ارتفاع نسبت به ارتفاع کم. در تعامل 3 طرفه، تأثیر رنگ آبی و ارتفاعی در مردان بیشتر (یا بسته به ضریب) کمتر از ماده است. با این حال، از آنجایی که تعامل رنگ آبی: ارتفاع: نر قابل توجه است، این نشان می دهد که تأثیر رنگ به تنهایی یا رنگ و قد ناکافی است. در نتیجه، تأثیر رنگ با قد و جنس ارتباط دارد. آیا تعبیر من درست است؟
پس تفسیر تعامل 2 طرفه اگر در تعامل 3 طرفه قابل توجه باشد قابل تفسیر نیست؟
105313
من سعی در تجزیه و تحلیل داده ها برای پیش بینی تأثیر 8 پیش بینی کننده بر روی یک متغیر پاسخ دارم. من باید آن را با استفاده از R انجام دهم. 8 متغیر پیش بینی کننده (x1، x2، ...، x8) و یک متغیر پاسخ (y) وجود دارد. من می خواهم بدانم کدام پیش بینی کننده ها بیشترین تأثیر را بر متغیر پاسخ دارند. من قبلاً به مدل هایی مانند رگرسیون لاجیت و رگرسیون پروبیت نگاه کرده ام، اما همه آنها نیاز دارند که پاسخ در قالب 0/1 باشد. من نسبتاً تازه وارد R هستم. هر گونه کمکی قدردانی خواهد شد. داده‌های نمونه: x <- structure(list(S.no = 1:39, x1 = c(3.250596373, 2.450039885, 4.510736811, 2.429919206, 3.337809323, 3.337809323, 3.337809323, 1.3937, 1.4917 5.154587813، 4.245647266، 2.826065366، 2.905970969، 2.60327762، 1.707142378، 1.082110181، 1.082110181، 3.082110181، 3.082110181، 3.082110181، 3.082110181، 3.05394 1.76077728, 3.390921555, 2.717923955, 4.526982605, 3.56285367, 2.067214422, 3.4889822299, 3.4889822299, 3.4889822299, 3.51314926 4.238965876، 3.142895899، 2.594398665، 2.698489796، 3.309983984، 3.720543973، 3.67107841، 3.67107841، 3.67107841، 3.1914، 3.1915، 3.1915 دو 3.898288664, 5.143436611, 4.82215687, 9.046313251, 4.632897736, 7.179105356, 4.789607667, 4.789607667, 6.7316, 6.7316, 6.7316, 6.728 3.984776837، 6.26260718، 6.872900728، 10.19153143، 5.908181482، 6.811558747، 3.078856263، 6.5963، 6.5921 چهار 4.595705252، 4.341435526، 7.287675726، 5.305938153، 9.192668385، 7.919791579، 2.14634204، 4.2441، 4.2441, 4.2441, 4.2441. x3 = c(0.0908320519238175، 0.13266649971562، 0.258244321357115، 1.138276093، 0.0164448266821084، 0.0164448266821084، 0.0164448266821083، 0.0164448266821084، 1083، 0.0960413836822101, 0.342061911817791, 0.119450732180513, 0.0290706457259754, 0.40473820111817791, 0.40473820111242870 1.36915744, 0.0688836208234231, 1.211282801, 0.120083034038544, 0.314686886240134, 0.01560272672, 0.01560282801 . 1.824161863, 0.341704912159248, 0.0995473011086384, 0.190999270416796, 0.310999015642607, 0.499542607, 0.49685 0.180986322152118, 0.77598437447802, 0.0429616530115406, 0.346864863595271, 0.4346140854493151, 0.4346140854493151, 0.4346140854493151, 0.333510559038226، 0.0250939546773831، 0.259975278336901)، x4 = c(1.983757737، 20.50733268، 3.61443، 3.61438، 3.6238، 20.50733268، 3.614423 15.99619436، 7.489093737، 16.2062464، 9.816135606، 6.84983451، 2.912239466، 5.437503567، 35.871، 35.874 28.55887031, 24.51023709, 49.29035933, 4.492149826, 122.0338801, 3.58950992, 17.11606415, 159138, 12.888 8.181119572، 36.36132304، 6.175496541، 5.078362324، 25.86563698، 8.01586315، 6.409855682، 6.409855682، 8.0128، 8.019855682، 8.0128 3.809967237، 23.40496033، 8.041996294، 24.28479333، 2.051865304، 15.17903992، 10.56367934، 15906 = 15.5 c(7.731494033، 5.673013527، 9.645267387، 12.47397681، 8.359512774، 4.737791104، 9.552434842، 4.552434843، 4.698، 4.698، 4.698، 4.649، 4.649، 4.678 6.463094738، 13.84710176، 14.15624423، 10.31230666، 11.28808186، 6.534183339، 12.40019882، 112376، 11939، 11938، 11938، 11939، 12.400. 10.90812832, 7.321543633, 5.807470868, 9.854882389, 5.572464318, 10.28845247, 15.43592456, 15.43592456, 15.43592456, 18192455, 1816, 1816, 15.30 14.25091879, 10.75910788, 7.648387336, 9.363347563, 4.304566946, 10.30984668, 8.647368931, 8.647368931, 17.649, 18037, 18037, 18039, 18034, 1806, 17, 2013 9.3230891، 7.322386746، 11.84261719)، x6 = c(3L, 5L, 7L, 4L, 1L, 2L, 7L, 3L, 7L, 5L, 4L, 6L, 8L, 4L, 4L, 6L, 8L, 4L, 3L 0 لیتر، 0 لیتر، 6 لیتر، 3 لیتر، 7 لیتر، 2 لیتر، 4 لیتر، 7 لیتر، 3 لیتر، 0 لیتر، 1 لیتر، 9 لیتر، 4 لیتر، 2 لیتر، 6 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 4 لیتر، 4 لیتر)، x7 = c(3L، 2L، 4L ، 1 لیتر، 4 لیتر، 5 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 0 لیتر، 4 لیتر، 5 لیتر، 1 لیتر، 4 لیتر، 4 لیتر، 6 لیتر، 5 لیتر، 3 لیتر، 2 لیتر، 5 لیتر، 3 لیتر، 0 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 5 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 0 لیتر، 7L، 0L)، x8 = c(0.886405834295955، 1.055043892، 0، 1.019546273، 0، 0.363985182144308، 0.6799872315896، 0.679987315896 0.990086072391923, 0.89255222931602, 0.0010880925135689, 2.303223251, 0.68924500650167, 0.8637944 1.508676629, 0, 0, 0,633267197954753, 0, 0,352350421530178, 0,393923070064454, 0, 1,024464530178, 0, 1,024464530178 1.715032197، 0، 0.960435412665205، 0.806780641058154، 0، 1.466079364، 0.906711779133489، 1.91279، 1.91271، 1.9653 . 20.26438109, 12.95578413, 19.68995622, 31.19602354, 9.752948098, 19.01595709, 9.834666871, 9.834666871, 23.876, 23.876. 19.41198687, 17.85098018, 28.66033204, 37.11149113, 19.34762966, 19.65906474, 12.95615703, 12.95615703, 23.48, 23.74, 23.74, 23.75 8.155950489, 22.94092426, 28.25918554, 29.03745489, 13.06245528, 12.61267288, 6.605952449, 6.605952449, 16.848, 16.848, 16.16 9.73480676، 11.62296417، 23.14633388، 14.38379501، 38.58286932، 28.85006327، 4.644943375، 13.28), 13.28) .Names = c(S.no، x
تجزیه و تحلیل پیش بینی داده ها با استفاده از R
4898
اگر تصمیم بگیرید که یک طرح کنترل قبل از درمان را با یک متغیر وابسته پیوسته با استفاده از یک ANOVA مختلط تجزیه و تحلیل کنید، روش‌های مختلفی برای تعیین کمیت اثر حضور در گروه درمان وجود دارد. اثر تعامل یکی از گزینه های اصلی است. به‌طور کلی، من به‌طور خاص معیارهای نوع d کوهن را دوست دارم (یعنی ${\frac{\mu_1 - \mu_2}{\sigma}}$). من معیارهای توضیح داده شده واریانس را دوست ندارم زیرا نتایج بر اساس عوامل نامربوط مانند اندازه نمونه نسبی گروه ها متفاوت است. بنابراین، فکر می‌کردم بتوانم اثر را به صورت زیر کمیت کنم * $\Delta\mu_c = \mu_{c2} - \mu_{c1}$ * $\Delta\mu_t = \mu_{t2} - \mu_{t1}$ * بنابراین، اندازه افکت را می توان به صورت $\frac{\Delta\mu_t - \Delta\mu_c}{\sigma}$ تعریف کرد که $c$ به آن اشاره دارد. کنترل، $t$ برای درمان، و 1 و 2 برای قبل و بعد به ترتیب. $\sigma$ می‌تواند انحراف استاندارد ترکیبی در زمان 1 باشد. * آیا این رویکرد منطقی به نظر می رسد؟ * روش استاندارد برای اندازه گیری اندازه اثر برای چنین طرح هایی چیست؟
اندازه اثر برای اثر متقابل در طراحی قبل از درمان-کنترل
74250
من از R با بسته «درخت» برای ساختن درخت طبقه‌بندی برای خلاصه کردن و نمایش داده‌هایم استفاده می‌کنم. من فقط 27 رکورد و 10 متغیر دارم. من درخت را ساختم اما «xerror» رشد می‌کند: CP nsplit rel error xerror xstd 1 0.2 0 1 1.0 0.40369 2 0.0 5 0 1.4 0.45542 آیا مشکل بیش از حد برازش است؟ داده های نامتعادل؟ آیا هنوز هم می توانم از درخت برای توصیف داده ها استفاده کنم؟
درخت طبقه بندی با بسته rpart
105312
برای دو متغیر گاوسی کاملاً همبسته، اطلاعات متقابل بین آنها، و بنابراین واگرایی KL بین حاصلضرب توزیع های حاشیه ای و توزیع مشترک، بی نهایت است. من خوانده‌ام که اگر Q نسبت به P پیوسته باشد واگرایی KL همیشه محدود است، اما درک اینکه چرا و چگونه می‌توانم بدانم حداکثر واگرایی KL بین حاصلضرب حاشیه‌ها و اتصال برای هر داده‌ای چقدر است مشکل دارم. توزیع های حاشیه ای من احساس می کنم که حداکثر اطلاعات متقابل ممکن بین دو توزیع مربوط به واگرایی KL توزیع های حاشیه ای آنها است - یعنی یک متغیر توزیع شده یکنواخت نمی تواند اطلاعات متقابل نامتناهی با یک متغیر توزیع شده گاوسی داشته باشد، و این به این دلیل است که واگرایی KL بین دو دو. حاشیه ها 0 نیست. با این حال، اگر من واگرایی KL دو توزیع حاشیه ای را بدانم، آیا می توان حداکثر ممکن را محاسبه کرد. اطلاعات متقابل بین آنها؟ امیدوارم این سوال احمقانه ای نباشد، اما می دانم که باید رابطه ای وجود داشته باشد و نمی توانم به راحتی چیزی در مورد آن پیدا کنم. با تشکر
تحت چه شرایطی واگرایی/اطلاعات متقابل Kullback-Leibler بی نهایت خواهد بود؟
113264
آیا می‌توانید چند نمونه از مقالات منتشر شده را که از مدل‌های ترکیبی عمومی یا تابع glmer() با اثرات تصادفی متقاطع و بدون شیب تصادفی استفاده می‌کنند، توصیه کنید. با استفاده از تابع glmer، مدل به این صورت خواهد بود: مدل <- glmer(پاسخ ~ V1 + V2 + (1|SITE) + (1|TIME)، خانواده = دو جمله ای، داده = داده))
منابع برای اثرات تصادفی متقاطع
61263
اگر تخمین پارامترها و مقدار p آنها و ACF PACF به شما داده شود، چگونه می توانید مناسب ترین مدل را انتخاب کنید اگر بیش از یک مدل وجود دارد که پارامترها در آن مهم هستند؟
چگونه بهترین مدل سری زمانی را انتخاب می کنید؟
72067
مداخله ای با گروه کنترل و گروه آزمایش داشتم. هر دو گروه دارای پیش آزمون و پس آزمون بودند. بنابراین من از 4 نمودار برای توضیح در یک ارائه استفاده کردم. (کنترل پیش آزمون، آزمایش پیش آزمون و کنترل پس آزمون و آزمایش پس آزمون) هر نمودار پاسخ به یک سؤال مقیاس لیکرت با 5 گزینه را نشان می داد. یکی از شنوندگان از من پرسید که آیا می توانم تغییر چند دانش آموز را از یک گزینه در پیش آزمون به گزینه دیگری در پس آزمون نشان دهم. من می توانم از جداول محوری در اکسل استفاده کنم، اما در آمار خیلی خوب نیستم. آیا کسی می تواند مرا در این مورد راهنمایی کند؟
استفاده از نمودار برای به تصویر کشیدن حرکت فردی قبل و بعد از مداخله
91145
من می‌خواهم وزن و بایاس را برای مجموعه داده‌ام که دو ستون و بیش از 3000 ردیف دارد استخراج کنم. همچنین می‌خواهم با این معادله خطی رسم کنم: y = w.x + b که در آن w وزن، x نقطه داده و b بایاس است. کسی میتونه کمکم کنه لطفا؟ با احترام
چگونه وزن و بایاس را در libsvm استخراج کنیم؟