_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
71170
به عنوان عنوان چگونه می توان از آزمون مجموع کاهش مربع، SSRT یا روش های دیگر برای مقایسه دو منحنی رگرسیون غیرخطی (مثلا منحنی های رگرسیون لجستیک 4 پارامتری، منحنی های S از بسته drc) در R استفاده کرد؟ من دانشجوی زیست شناسی و مبتدی R هستم و می خواهم چیزی شبیه p-value برای توصیف دو منحنی رگرسیون غیرخطی بدست بیاورم. اگر می توانید به من بگویید که بسته R می تواند مشکل من را حل کند، من هنوز خیلی خوشحالم. با تشکر
نحوه استفاده از آزمون مجموع کاهش مربع، SSRT یا روش های دیگر برای مقایسه دو منحنی رگرسیون غیرخطی در R
70223
من دو طبقه بندی کننده دارم که سعی می کنند مجموعه داده های یکسانی را طبقه بندی کنند. به منظور بررسی کارایی طبقه‌بندی‌کننده‌ها، من قصد دارم منحنی‌ها را رسم کرده و مقدار AUC را محاسبه کنم. نگرانی این است که یکی از طبقه‌بندی‌کننده‌ها همیشه مقادیر مثبت را به عنوان امتیاز تولید می‌کند (در واقع این مقدار p است) اما طبقه‌بندی‌کننده دیگر هم مقادیر مثبت و هم ارزش منفی را به عنوان امتیاز تولید می‌کند (به‌جای تولید pvalue، روش امتیاز تولید خود را دارد). آیا هنگام ترسیم منحنی‌های roc و محاسبه AUC باید مقادیر مطلق امتیازهای دوم را بگیرم یا می‌توانم از نمرات همانطور که هستند (هم مثبت و هم منفی) استفاده کنم. وقتی مقادیر مطلق را برای طبقه‌بندی‌کننده دوم برای رسم منحنی‌ها می‌سازم، مقدار AUC کاهش می‌یابد. پیشاپیش از شما متشکرم.
محدوده امتیاز متفاوت هنگام محاسبه مساحت زیر منحنی در منحنی‌های ROC
84255
من با R و مدل ARIMA تازه کار هستم و سعی می کنم 1440 مقدار را در آینده با استفاده از یک پایه تقریباً 5000 عددی پیش بینی کنم. این اطلاعات تقریباً در هر دقیقه از گزارش ماشین (مقادیر عملکرد) استخراج می شود. قصد پیش‌بینی 1 روز آینده را دارد که مقادیر 1440 را توضیح می‌دهد (همانطور که دقیقه هستند). در اینجا نتیجه من با استفاده از دستورات زیر است: datats<-c(data); arima<-auto.arima(datats); fcast<-forecast(arima, h=1440); ![پیش‌بینی](http://i.imgur.com/N7aCqvx.png) پیش‌بینی از خط صاف سمت راست شروع می‌شود. روش پیش بینی: ARIMA(0,1,1) اطلاعات مدل: سری: datats ARIMA(0,1,1) ضرایب: ma1 -0.9373 s.e. 0.0071 sigma^2 تخمین زده شده به عنوان 86737: log likelihood=-21221.46 AIC=42446.93 AICc=42446.93 BIC=42458.93 اندازه گیری خطا: ME RMSE MAE MPE MAPE MASE مجموعه آموزشی 44446.93 0.620 196.7211 -59.85254 85.45473 0.7637028 ACF1 مجموعه آموزشی 0.01519673 مجموعه داده در اینجا: http://pastebin.com/92ssDExn آیا مسئله مقادیر گذشته خیلی کم است؟ به بسیاری از مقادیر قابل پیش بینی؟ هر گونه اطلاعات یا توصیه ای بسیار استقبال می شود، هر گونه اطلاعات دیگری که مورد نیاز باشد ارائه خواهد شد.
مشکل با نتایج عملکرد auto.arima
70224
من از روش glmer در lme4 برای ساخت یک مدل رگرسیون لجستیک با اثر مختلط استفاده می کنم، مدل به شرح زیر است: textbook.usage.glm <- glmer(textbook.usageSession ~ session.week * condition.player + (session.week|group .name),family=binomial,data=dfAN) وقتی خلاصه را اجرا می کنم summary(textbook.usage.glm) من نتایج زیر را دریافت کردم: برازش مدل ترکیبی خطی تعمیم یافته با تقریب لاپلاس فرمول: textbook.usageSession ~ session.week * condition.player + (session.week | group.name) داده ها: dfAN AIC انحراف BIC logLik 104.9 123.1 -45.45 90.9 اثرات تصادفی: گروه ها نام واریانس Std.Dev. Corr group.name (Intercept) 0.45445 0.67413 session.week 0.17793 0.42181 -0.484 تعداد obs: 99, group: group.name, 6 Fixed effect: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) 4.6851 3.4607 1.354 0.1758 session.week -1.2304 0.8017 -1.535 0.1248 condition.playerDEFAULT 4.7845 4.21326 4.21326 session.week:condition.playerDEFAULT -3.1617 1.4026 -2.254 0.0242 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) sssn.w c.deFA session.week -0.976 cnd.DEFAULT -0.787 0.76 s.:.پیش فرض 0.515 -0.506 -0.926 از آمار فوق، ما می توانیم تنها یک اهمیت را برای تعامل بین session.week و condition.player ببینیم. اما اثر اصلی (شرط بازیکن) به تنهایی اهمیتی ندارد. با این حال، اگر سه مدل افزایشی را به شرح زیر بسازیم، و anova را برای آزمایش اهمیت هر متغیر textbook.usage.glm.2 <- glmer(textbook.usageSession ~ session.week + condition.player + (session.week| group.name),family=binomial,data=dfAN) textbook.usage.glm.1 <- glmer(textbook.usageSession ~ session.week + (session.week|group.name),family=binomial,data=dfAN) textbook.usage.glm.0 <- glmer(textbook.usageSession ~ 1 + (جلسه. week|group.name),family=binomial,data=dfAN) anova(textbook.usage.glm.0,textbook.usage.glm.1,textbook.usage.glm.2,textbook.usage.glm) داده ها را دریافت می کنیم: dfAN Models: textbook.usage.glm.0: textbook.usageSession ~ 1 + (session.week | group.name) textbook.usage.glm.1: textbook.usageSession ~ session.week + (session.week | group.name) textbook.usage.glm.2: textbook.usageSession ~ session.week + condition.player + (session.week | textbook.usage.glm.2: group.name) textbook.usage.glm: textbook.usageSession ~ session.week * condition.player + (session.week | textbook.usage.glm: group.name) Df AIC BIC logLik Chisq Chi Df Pr(>Chisq) textbook.usage.glm.0 4 126.57 136.95 -59.284 textbook.usage.glm.1 5 125.413 -1537.37.1 0.07651. textbook.usage.glm.2 6 109.48 125.05 -48.738 17.9548 1 2.262e-05 *** textbook.usage.glm 7 104.91 123.07 -45.452 6.50 * --016 Sign. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 در اینجا می بینیم که با اضافه کردن شرط.بازیکن در مدل 2، علاوه بر اهمیت، اهمیت دارد. به اثر تعامل چگونه می توانم نتیجه را گزارش کنم؟ آیا متغیر condition.player قابل توجه است یا خیر؟ من نمونه های رگرسیون لجستیک زیادی را با رویکرد اول دیده ام، تفاوت بین آن و رویکرد دوم که در آن مدل ها را مقایسه می کنم چیست؟
رگرسیون لجستیک - نتایج متناقض؟
45262
برای تجزیه و تحلیل تعداد پرندگان با باد صفر، من می‌خواهم مدل‌های شمارش با باد صفر را با استفاده از بسته R pscl اعمال کنم. با این حال، با نگاهی به مثال ارائه شده در مستندات برای یکی از عملکردهای اصلی (?zeroinfl)، من شروع به شک کردم که مزیت واقعی این مدل ها چیست. با توجه به کد نمونه ای که در آنجا داده شد، مدل های پواسون استاندارد، شبه زهر و بیونومیال منفی، مدل های پویسون صفر و دوجمله ای منفی ساده و مدل های سم و دو جمله ای منفی با رگرسیون را برای جزء صفر محاسبه کردم. سپس هیستوگرام داده های مشاهده شده و برازش شده را بررسی کردم. (اینجا کد برای تکرار آن است.) data library(pscl) (bioChemists, package = pscl) ## مدل های استاندارد داده شمارش fm_pois <- glm(art ~ ., data = bioChemists, family = poisson) fm_qpois < - glm (هنر ~ .، داده = شیمیدانان زیستی، خانواده = شبه پواسون) fm_nb <- glm.nb(art ~ ., data = bioChemists) ## با تورم ساده (بدون رگرسیون برای جزء صفر) fm_zip <- zeroinfl(art ~ . | 1, data = bioChemists) fm_zinb <- zeroinfl(art ~ . | 1، داده = شیمیدانان زیستی، دیست = نگبین) ## تورم با رگرسیون fm_zip2 <- zeroinfl(art ~ fem + mar + kid5 + phd + ment | fem + mar + kid5 + phd + ment, data = bioChemists) fm_zinb2 <- zeroinfl(art ~ fem + mar + kid5 + phd + ment | fem + mar + kid5 + phd + ment، data = biochemicalists، dist = negbin) ## هیستوگرام شکسته می شود <- seq(-0.5,20.5,1) par(mfrow=c(4,2)) hist(bioChemists$art, breaks=breaks) hist(fitted(fm_pois), breaks=breaks ) hist(fitted(fm_qpois)، breaks= breaks) hist(fitted(fm_nb), breaks=breaks) hist(fitted(fm_zip)، breaks=breaks) hist(fitted(fm_zinb)، break=breaks) hist(fitted(fm_zip2)، breaks=breaks) hist(fitted(fm_zinb2)، breaks=breaks)! ![هیستوگرام داده‌های مشاهده‌شده و برازش شده](http://i.stack.imgur.com/BUYsT.png) من هیچ تفاوت اساسی بین مدل‌های مختلف نمی‌بینم (به غیر از این که داده‌های مثال خیلی به نظر نمی‌رسند برای من صفر متورم...); در واقع هیچ یک از مدل ها تخمین معقول نیمه راه را از تعداد صفرها به دست نمی دهند. آیا کسی می تواند توضیح دهد که مزیت مدل های صفر باد چیست؟ من فکر می کنم باید دلیلی برای انتخاب این به عنوان مثال برای تابع وجود داشته باشد.
مدل‌های شمارش تورم صفر در R: مزیت واقعی چیست؟
45264
یک کتاب آشپزی R http://wiki.stdout.org/rcookbook/Statistical%20analysis/ANOVA/ مثالی از استفاده از aov() برای ANOVAهای طراحی ترکیبی دارد. من آن را در اینجا کپی می کنم: داده <- read.table(header=T, con <- textConnection(' سن جنسی موضوع قبل از 1 F سال 9.5 7.1 2 M قدیمی 10.3 11.0 3 M قدیمی 7.5 5.8 4 F Old 12.4 8.8 5 M قدیمی 10.2 8.6 6 M قدیمی 11.0 8.0 7 M جوان 9.1 3.0 8 F جوان 7.9 5.2 9 F پیر 6.6 3.4 10 M جوان 7.7 4.0 11 M جوان 9.4 5.3 12 M پیر 11.6 11.3 13 M جوان 9.9 4.6 14 F جوان 4.6 14 F جوان 8.6 4.6 پیر 9.2 4.7 17 M جوان 9.8 5.1 18 F پیر 9.9 7.3 19 F جوان 13.0 9.5 20 M جوان 10.2 5.4 21 M جوان 9.0 3.7 22 F جوان 7.9 6.2 23 M جوان 7.9 6.2 21 M جوان 7.9 6.2 21 M جوان 10.7 25 میلیون جوان 8.6 2.9 26 میلیون جوان 9.4 3.2 27 میلیون جوان 9.7 4.7 28 سن جوان 9.3 4.9 29 فارنهایت جوان 10.7 9.8 30 سال سن 9.3 9.4 ')) ببندید(con) سپس آن را تغییر شکل دهید: کتابخانه 2 #(مطمئن شوید که موضوع را resha کنید یک داده عامل است$موضوع <- factor(data$subject) # تبدیل آن به فرمت طولانی data.long <- melt(data, id = c(موضوع،جنس،سن)، # این ستون ها را در اندازه یکسان نگه دارید = c(قبل از after)، # این دو ستون را در یک ستون جدید قرار دهید variable.name=time) # نام ستون جدید # جنسیت موضوع مقدار زمان سنی # 1 F قدیمی قبل از 9.5 # 2 M قدیمی قبل 10.3 #... اکنون با استفاده از یک anova مختلط تجزیه و تحلیل کنید: aov.after.age.time <- aov(value ~ age*time + Error(subject/time), data=data.long) summary(aov.after.age. زمان) اما وقتی بیش از دو متغیر پیش‌بینی‌کننده وجود دارد، مثال‌های R نشان می‌دهند که بین فاکتورهای موضوعی دوباره بعد از عبارت خطا اضافه می‌شوند: #مثلاً از R cookbook #aov.bww <- aov(y ~ b1*b2*w1 + خطا(موضوع/(w1)) + b1*b2، data=data.long) # که در مورد ما به این صورت ترجمه می شود: aov.bww <- aov(مقدار ~ جنسیت *سن*زمان + خطا(موضوع/زمان) + جنس*سن، داده=داده.طول) خلاصه (aov.bww) اما چرا b1*b2 یا در مورد ما جنسیت*سن، دو بار مشخص شده است؟ به نظر نمی‌رسد وقتی آنها را بعد از عبارت Error() حذف می‌کنیم، فرقی نمی‌کند: aov.bww2 <- aov(value ~ sex*age*time + Error(subject/time), data=data.long) summary( aov.bww2) آیا کسی می‌تواند توضیح دهد که چرا مثال‌ها آن شرایط اضافی را دارند؟ کتابچه راهنمای R فقط این مثال را دارد، که در آن بین فاکتورها دو بار مشخص نشده است: # fm <- aov(بازده ~ v + n*p*k + خطا (مزرعه/بلوک)، data=farm.data) * * * * *ویرایش:** من منابع کتاب آشپزی R را بررسی کردم و متوجه شدم که سایر وب سایت ها نیز دو بار در نمونه های طراحی ترکیبی خود عبارت ها را مشخص می کنند. اینجا را ببینید: http://www.personality-project.org/R/r.anova.html جایی که آنها مثال دارند: aov.ex5 = aov.ex5 = aov(Recall ~ (Task*Valence*Gender*Dosage) + خطا(موضوع/(وظیفه*قدرت)) + (جنس*دز)، data.example5 ) و اینجا را ببینید http://www.statmethods.net/stats/anova.html با مثال آنها: # Two Within Factors W1 W2, Two Between Factors B1 B2 fit <- aov(y ~ (W1*W2*B1*B2) + Error( موضوع/(W1*W2)) + (B1*B2)، data=mydataframe) که احتمالاً کتاب آشپزی اطلاعات خود را از آنجا دریافت کرده است.
چرا یک طرح ترکیبی با استفاده از R's aov() نیاز دارد که بین فاکتورهای موضوعی بیش از یک بار مشخص شود؟
94818
من مجموعه داده ای از 306967 ردیف و 23 ستون دارم و در حال ساخت یک مدل رگرسیونی برای پیش بینی یک عامل بر اساس 6 متغیر iid دیگر هستم. با انجام این کار، با مشکل تعداد زیاد سطوح موجود در یکی از متغیرهای iid مواجه شدم، بنابراین برای مرتب کردن آن از «combine.levels» در بسته «Hmisc» استفاده کردم. نحو فرمول عمومی combine.levels(var,minlev=0.05) است. توجه داشته باشید 0.05 مقدار پیش فرض است. من از 0.001 استفاده کردم زیرا سطح من را از 19881 به فقط 121 کاهش داد و مدل من به خوبی اجرا شد. آیا استفاده از 0.001 به عنوان مقدار برای آن توصیه می شود؟ آیا تکنیکی برای قضاوت در مورد آن و انتخاب ارزش آن وجود دارد؟
مقدار بهینه minlev در تابع combination.levels
45882
من یک سوال در مورد رگرسیون انتخاب مرتب شده در **R** دارم. من چندین متغیر جمعیتی دارم که با آنها می‌خواهم انتخاب مرتب افراد را در یک نظرسنجی در چارچوب **انتخاب مرتب** (*probit** یا **logit**، این مهم نیست) توضیح دهم. البته تخمین‌های انتخاب سفارشی استاندارد فقط تخمین پارامترهای کل را به من می‌دهد. با این حال، برای کار من، تخمین یا استخراج فرضی تخمین پارامترهای سطح فردی (بتا) برای یک متغیر مستقل خاص و هر فرد در نظرسنجی مفید خواهد بود. من با الگوریتم‌های بیز سلسله مراتبی ارائه شده توسط **bayesm** و **ChoiceModelR** آزمایش کرده‌ام. اگر اشتباه می‌کنم، مرا تصحیح کنید، اما فکر می‌کنم این تکنیک‌ها همچنین ایجاب می‌کنند که افراد چندین بار در یک نظرسنجی ظاهر شوند و با موقعیت‌های انتخاب متفاوتی مواجه شوند تا بتوان تأثیر ویژگی‌های خاص را بر انتخاب‌های افراد تخمین زد. اما داده های من هیچ ساختار پانلی ندارند. من همچنین در حال آزمایش استنتاج بیزی به عنوان مثال با تابع **MCMCoprobit** در بسته **MCMCpack** بودم، اما این تابع فقط بتاها را شبیه سازی می کند. با این حال، تا آنجا که می دانم، نمی توانم آنها را به افراد خاصی در نظرسنجی نسبت بدهم، که خوب است. من بسیار خوشحال خواهم شد اگر کسی بتواند به من اشاره کند، گاهی اوقات یک کلمه کلیدی برای جستجوی راه حل صحیح در گوگل مفید است!
تخمین پارامترهای سطح فردی از رگرسیون های انتخاب مرتب
44130
من سعی می کنم یک مدل مربع های خطی تعمیم یافته را با شکل زیر حل کنم: $\hat{Y}= X(X'\Omega^{-1}WX)^{-1}X'\Omega^{-1}WY $ $ H= X(X'\Omega^{-1}WX)^{-1}X'\Omega^{-1}W $ $ \Omega$ ماتریس کوواریانس است. $W$ یک ماتریس مورب است که وزن یک مشاهده داده شده $w_i$ را دارد و معمولا $I$ است. گهگاه یک یا چند ورودی مورب در $W$ به روز می شوند. تغییر در $W$ چگونه باید $H$ را بدون نیاز به محاسبه مجدد $H$ به طور کامل به روز کند؟ این سوال مربوط به موارد زیر است: مشتق مدل خطی. با تشکر از ورودی
مشتق $H$ با توجه به $W$ هنگام انجام مربع های خطی تعمیم یافته
84252
من اخیراً مقاله ای را خوانده ام که در آن نویسندگان 2*3$ بین ANOVA را انجام داده اند. فرضیه جایگزین با توجه به یک اثر متقابل، که به سطح معناداری $\alpha = 0.05 $ نمی رسد، فرموله شد. نویسندگان سپس بیان کردند که فرضیه صفر را می توان برای اندازه اثر $f^2 = 0.15$ پذیرفت زیرا توان کافی ($1 - \beta = 0.97$ برای $\alpha = 0.05$$) . تا آنجا که من می دانم، تحلیل _قدرت_ معمولا برای محاسبه یک احتمال مشروط انجام می شود، یعنی احتمال _به دست آوردن یک نتیجه قابل توجه ($H_1$)_ با توجه به _اندازه نمونه ($N$)_، _effect size (در این مورد $f^2$)_ و سطح _significance ($\alpha$)_ از نظر ریاضی، این باید به صورت $$Power = P(H_1 | N,f^) بیان شود 2,\alpha)$$ این گزاره که فرضیه صفر را می توان پذیرفت بیشتر شبیه به احتمال درست بودن فرضیه صفر به نظر می رسد خیلی گسترده است یا به روش دیگری می توان گفت: آیا می توان از نتایج یک تحلیل توان چیزی در مورد فرضیه صفر نتیجه گرفت؟
تفسیر نتایج تحلیل توان با توجه به فرض صفر
109467
بسیار خوب، من یک تازه کار در آمار هستم، بنابراین سعی می کنم تا حد امکان دقیق و واضح باشم. من مجموعه ای از متغیرهای پیش بینی کننده (2 متغیر پیش بینی کننده) و مجموعه ای از متغیرهای پاسخ (7 متغیر پاسخ) دارم. بنابراین من به دنبال انجام یک تحلیل همبستگی متعارف برای بررسی میزان واریانس در متغیرهای پاسخ هستم که توسط متغیرهای پیش بینی توضیح داده شده است (لطفاً به من اطلاع دهید اگر این به طور دقیق توضیح داده نشده است!). اول از همه، من در حال ارزیابی هستم که آیا هر یک از متغیرهای من باید به نحوی تبدیل/استاندارد شود. سه تا از متغیرهای پاسخ من درصد هستند، بقیه متغیرها (پاسخ و پیش بینی کننده ها) پیوسته هستند. حدس می زنم که باید داده های درصدی را تغییر دهم. با این حال، من می دانم که تبدیل آرکسین و مانند آن در حال حاضر مفید تلقی نمی شوند. اگر چنین است، بهترین راه برای مقابله با این موارد چیست؟ همچنین، داده‌های من به‌شدت غیر طبیعی به نظر می‌رسند (با استفاده از نمودارهای qq و آزمون‌های shapiro-wilk ارزیابی شده‌اند). با این حال، از آنجایی که من نمونه ای از بیش از 300 مشاهدات مستقل دارم، آیا می توانم از طریق قضیه حد مرکزی نرمال بودن را فرض کنم؟ لطفاً اگر چیزی وجود دارد که می توانم برای روشن تر کردن پاسخ به سؤالم ارائه دهم، به من اطلاع دهید.
تبدیل داده ها برای تجزیه و تحلیل همبستگی متعارف
45884
من می خواهم یک میانگین وزنی را محاسبه کنم، بیشتر برای اهداف تصویری. با این حال، من یک متغیر نتیجه دارم که Y/N است و می‌خواهم وزن‌ها را نسبت به این نتیجه بهینه کنم. چند راه اساسی برای انجام این کار چیست؟ اساساً، من می‌خواهم/امیدوارم که از داده‌های گذشته برای هدایت وزن‌ها به جای تخصیص دلخواه استفاده کنم.
بهینه سازی وزن های مورد استفاده در میانگین وزنی
44134
از من در G*Power خواسته می شود که _همبستگی بین اندازه گیری های مکرر_ را وارد کنم. من آزمایشی را با همان افراد تحت 3 شرایط (Set1، Set2 و Set3) تکرار کرده ام. من همبستگی را به این صورت محاسبه می کنم: lala=cbind( Set1.Weber, Set2.Weber, Set3.Weber ) cor(lala) و Set1.Weber Set2.Weber Set3.Weber Set1.Weber 1.0000000 0.3683676 0.3683676 0.12863et. 1.0000000 -0.0959547 Set3.Weber 0.1283023 -0.0959547 1.0000000 در نتیجه. آیا این درست است؟ در G*Power فقط **یک** پارامتر برای همبستگی وجود دارد. آیا باید از همبستگی میانگین استفاده کنم؟ در مثال: (0.37+0.13+0.10)/3 ? این یک اسکرین شات است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mUcVm.png) **ویرایش:** به عنوان پاسخی به پاسخ های بسیار خوب تاکنون، می خواهم آن را مشخص کنم سوال: * * * آیا درست می دانم که ANOVA فرض می کند که همبستگی باید در ماتریس برابر باشد و مانند مورد من (3 مقدار مختلف) نباشد؟ پس شاید فوق العاده درست نباشد اما من می توانم از میانگین به عنوان راه حل poormans استفاده کنم؟! من می توانم از (|a|+|b|+|c|)/3 یا sqrt(a²+b³+c²) استفاده کنم؟! * * *
همبستگی بین اقدامات مکرر - به توضیح نیاز دارم
80957
سوال تازه وارد اینجاست من نرخ خطا را از نتایج تست نرم افزار محاسبه می کنم. اساساً برای هر اجرای آزمایشی خاص، در این مورد، به دلیل شرایط مسابقه ذاتی در نرم افزار مورد نظر، موفق می شود یا با شکست مواجه می شود. ما تقریباً 50 هزار آزمایش کلی در هفته انجام می دهیم (برخی از آزمایش های خاص ممکن است 4000 بار در هفته اجرا شوند، حدود 200 بار، با انواع اعداد در بین)، بنابراین من شروع به کمی کردن نتایج این آزمایش ها به میزان شکست می کنم. با این حال، واضح است که پاسخ عدم موفقیت در 3 از 200 تست، مقدار قطعی کمتری نسبت به رد شدن 30 آزمون از 2000 است. بنابراین با توجه به یک سری داده های باینری، بدون خط پایه مشخص، آیا روش استانداردی با استفاده از اندازه نمونه برای ارائه مقداری خطا وجود دارد. نرخ؟ چالش دیگری که این داده‌ها دارد این است که ما در حال انجام کار باینینگ هستیم. بنابراین محاسبه نرخ شکست هر روز. به این معنی که در اوایل روز فقط چند رویداد وجود دارد. خوب است که بتوانیم تفاوت اطمینان بین نتایج موفقیت 4/4 در مقابل نتایج موفقیت 100/100 را کمیت کنیم. بخشی از تفکر من این بود که شما می‌توانید این را به صورت 1/n (n اندازه جمعیت است) تعیین کنید، زیرا هرگز نمی‌توانید پاسخ را بهتر از قطعیتی که دارید بدانید. با این حال، این فقط غرایز است که بدون پشتوانه آماری وجود دارد.
محاسبه نوعی اطمینان یا نرخ خطا برای مجموعه ای از داده های باینری
60511
من داده های هواشناسی میانگین سرعت باد 5 ساله دارم. من می‌خواهم داده‌های سرعت باد مشاهده‌شده را با توزیع Weibull در نمودار **توزیع چگالی احتمال مقایسه کنم.** در مورد روش‌های مختلف برای یافتن پارامترهای $k$ (شکل) و $c$ (مقیاس) خوانده‌ام. یک توزیع Weibull، و من متوجه شدم که روش حداکثر احتمال بهتر است، اما من گیج هستم. قدم های من چه باید باشد؟
پارامترهای توزیع Weibull $k$ و $c$ برای داده‌های سرعت باد
45885
من یک سوال در مورد رابطه بین مقدار مربع کای و df در تعیین خوبی برازش در یک مدل مشتق شده از رگرسیون لجستیک چند متغیره دارم. اگر N= 290، Chi Square = 26.57، p=0.003 در مدلی با 16 متغیر (df گزارش نشده است)، آیا می توان گفت که آیا این درست است یا این مدل نشان دهنده بیش برازش یا چند خطی بودن است؟ امیدوارم که منطقی باشد. من واقعاً از هر کمکی در درک این نتایج قدردانی می کنم.
برازش خوب مدل به دست آمده از رگرسیون لجستیک چند متغیره
5479
من در حال آموزش DLM با استفاده از پکیج R's `dlm` هستم و دو نتیجه عجیب دارم. من یک سری زمانی را با استفاده از سه عنصر ترکیبی مدل‌سازی می‌کنم: روند (`dlmModPoly`)، فصلی (`dlmModTrig`) و فصلی متحرک (`dlmModReg). اولین نتیجه عجیب با نتیجه «$f» (پیش‌بینی یک قدم جلوتر) است. به نظر می‌رسد بیشتر این پیش‌بینی یک ماه از داده‌های واقعی عقب‌تر است، که من معتقدم در نمونه‌های زیادی از پیش‌بینی یک گام جلوتر به‌صورت آنلاین و در کتاب‌ها دیده‌ام. نکته عجیب این است که فصلی متحرک به طور مشابه با تاخیر مواجه نمی شود، اما دقیقاً همان جایی که باید برخورد می کند. آیا این طبیعی است؟ اگر از «$m» نتیجه برای جمع‌آوری دستی کامپوننت استفاده کنم، همه چیز کاملاً هماهنگ است، بنابراین عجیب است، اگرچه به نوعی منطقی است: فصلی متحرک دارای داده‌های برون‌زا برای کمک به آن است در حالی که بقیه پیش‌بینی‌ها اینطور نیستند. (با این وجود، خوب است که «$f» حاصل را به سادگی «لگ» کنیم و یک تطابق خوب ببینیم.) تفاوتی که می بینم اگر درجه چندجمله ای «dlmModPoly» (از 1 به 2) را تغییر دهم، نگران کننده تر است. ) در تلاش برای به دست آوردن سطح صاف تر. این یک سنبله بزرگ در هر سه مولفه در ماه نهم ایجاد می کند. سنبله ها اساساً در کامپوزیت حذف می شوند، اما بدیهی است که هر قطعه، مثلا سطح یا فصلی بودن، در آنجا خنده دار به نظر می رسد. آیا این فقط یکی از آن چیزهایی است که اتفاق می‌افتد و من باید آماده باشم که داده‌های سال اول نتیجه را به عنوان شکستن دور بریزم؟ یا نشانه این است که چیزی اشتباه است؟ (حتی در حالت چندجمله ای درجه 1، سطح فصلی متحرک سال اول کمی نامتعادل است، اما هیچ افزایش بزرگی مانند زمانی که من از چند جمله ای درجه 2 استفاده می کنم، وجود ندارد.) اینجا کد R من است: lvl0 <- log (my.data[1) ]) slp0 <- mean (تفاوت (log (my.data))) buildPTR2 <- تابع (x) { pm <- dlmModPoly (order=1، dV=exp (x[1])، dW=exp (x[2])، m0=lvl0) tm <- dlmModTrig (s=12، dV=exp (x[1])، q =2، dW=exp (x[3:4])) rm <- dlmModReg (moving.season, dV=exp (x[1])) ptrm <- pm + tm + rm بازگشت (ptrm) } mlptr2 <- dlmMLE (log (my.data), rep (1, 6), buildPTR2) dptr2 <- buildPTR2 (mlptr2) $par) dptrf2 <- dlmFilter (log (my.data)، dptr2) tsdiag (dptrf2) buildPTR3 <- تابع (x) { pm <- dlmModPoly (order=2، dV=exp (x[1])، dW=c(0، exp (x[2]))، m0=c( lvl0، slp0)) tm <- dlmModTrig (s=12، dV=exp (x[1])، q=2، dW=exp (x[3:4])) rm <- dlmModReg (moving.season, dV=exp (x[1])) ptrm <- pm + tm + rm بازگشت (ptrm) } mlptr3 < - dlmMLE (log (my.data)، rep (1، 8)، buildPTR3) dptr3 <- buildPTR3 (mlptr3$par) dptrf3 <- dlmFilter (log (my.data)، dptr3) بر اساس سوال بعدی: داده ها خود داده های ماهانه برای 10 سال است که هر ماه میانگین هفتگی حضور در یک نمایش تئاتر است. داده ها قطعا اثرات فصلی و متحرک فصلی دارند. من می‌خواهم روند و اثرات فصلی را مدل‌سازی کنم تا به مدیریت کمی بینش بدهم و برای پیش‌بینی آماده شوم. (که مستقیماً با «dlm» امکان پذیر نیست وقتی یک مؤلفه «dlmModReg» را اضافه می کنید، اگرچه این مرحله بعدی است.) (من سعی می کنم از یک مولفه چند جمله ای order=2 استفاده کنم که معتقدم یک روند IRW ایجاد می کند، که قرار است به خوبی روان باشید.) اگر مهم است، فصلی متحرک من یک رویداد سالانه Big Bash Gala است که می‌تواند در دو ماه مختلف برگزار شود، و من آن را با 0 برای اکثر ماه‌ها و 1 نشان می‌دهم. ماه هایی که Big Bash در آن سقوط می کند.
نتایج DLM بد به نظر می رسد
84251
**توضیح وضعیت من:** من آزمایشی را در چند هفته با حجم کل نمونه _N_ = 70 اجرا خواهم کرد. در حالت ایده آل ترجیح می دهم فقط یک آزمایشگر برای جمع آوری تمام داده ها داشته باشم اما باید با هفت آزمایشگر کار کنم. . بنابراین من 70 شرکت‌کننده را به‌طور تصادفی به 7 آزمایش‌کننده اختصاص می‌دهم تا اثر آزمایش‌کننده بالقوه را کنترل کنم. **سوال من:** آیا راهی برای محاسبه شاخص قابلیت اطمینان بین آزمایشگر برای داده های من مانند شاخص قابلیت اطمینان بین ارزیاب ها وجود دارد؟ پیشاپیش از پاسخ های شما متشکرم
چگونه می توانیم قابلیت اطمینان بین آزمایشگر را برای داده های تجربی اندازه گیری کنیم؟
45880
من با آمار نسبتاً تازه کار هستم و می‌خواهم بدانم آیا آزمون آماری وجود دارد که به من می‌گوید بزرگی/مشارکت/اهمیت علل مختلف نسبت به یک اثر درک شده. به عنوان مثال، بیایید بگوییم که ما ایرادات مختلفی داریم، و این عیوب مختلف همگی در شمارش خطا نقش دارند. نقص ها علت هستند و شمارش خطا نتیجه آن علل است. هر نقص کم و بیش در تعداد کل خطاها نقش دارد. آیا ابزار آماری وجود دارد که با درجه خاصی از اطمینان، بزرگی هر نقص در شمارش خطای نهایی را محاسبه کند؟ کدام نقص بیشتر در بروز خطا نقش دارد؟ داده ها به این شکل هستند (سرصفحه و یک ردیف مثال): flaw1 flaw2 flaw3 error_count 30 20 60 8 با تشکر
آزمون آماری برای یافتن میزان تأثیر علل مختلف
44133
با توجه به مشترک PDF $h_{X,Y}(x,y)$ متغیرهای همبسته $X$ و $Y$، و با توجه به اینکه PDF مشترک تابعی از پارامتر $\lambda$ است به طوری که $|\ lambda|\le 1$، من باید برآوردگر حداکثر درستنمایی را برای پارامتر $\lambda$ پیدا کنم. PDF مشترک با $$h_{X,Y}(x,y) = f_X(x)f_Y(y) \left[1+\lambda\left(2F_X(x)-1\right)\left( داده می شود 2F_Y(y)-1\right)\right]،\quad |\lambda|\le 1 $$ فایلهای PDF حاشیه $f_X(x)$ و $f_Y(y)$ و همچنین CDFهای حاشیه ای $F_X(x)$ و $F_Y(y)$ شناخته می شوند. بنابراین چگونه می توانم تخمین حداکثر احتمال محدود را برای بدست آوردن مقدار تخمینی $\lambda$ اعمال کنم؟
برآورد حداکثر لیلکی‌هودی محدود
10162
من در یادگیری ماشینی تازه کار هستم و سعی کرده ام بفهمم چگونه شبکه عصبی را برای پیش بینی سری های زمانی اعمال کنم. من منبع مرتبط با درخواست خود را پیدا کرده ام، اما به نظر می رسد هنوز کمی گم شده ام. من فکر می کنم یک توضیح اولیه بدون جزئیات بیش از حد کمک خواهد کرد. فرض کنید برای هر ماه در چند سال مقداری قیمت دارم و می‌خواهم مقادیر قیمت جدیدی را پیش‌بینی کنم. می‌توانم فهرستی از قیمت‌های چند ماه گذشته را دریافت کنم و سپس با استفاده از K-Nearest-Neighbor سعی کنم روندهای مشابه گذشته را پیدا کنم. من می‌توانم از نرخ تغییر یا برخی ویژگی‌های دیگر روندهای گذشته برای پیش‌بینی قیمت‌های جدید استفاده کنم. اینکه چگونه می توانم شبکه عصبی را برای همین مشکل اعمال کنم، چیزی است که در تلاشم تا بفهمم.
چگونه شبکه عصبی را در پیش بینی سری های زمانی اعمال کنیم؟
72098
برای مدل نرمال چند متغیره، پیشین جفری را به شکل $p_j(\theta, \Sigma|y1,...,yn)$, $p_j(\theta|\Sigma, y_1,...,y_n)$ پیدا کنید. و $p_j(\Sigma|y_1,...,y_n)$. تلاش: من می دانم که $p_j(\theta، \Sigma|y_1،...،y_n) \propto p(\theta، \Sigma)xp(y_1،...،y_n|\theta، \Sigma)$، جایی که $p_j(\theta، \Sigma) \propto |\Sigma|^{-(p+2)/2}$ و $p(y_1,...,y_n|\theta, \Sigma) = \frac{1}{(2 \pi)^{p/2}} \frac{1}{\sqrt |\Sigma|} exp (-\frac{1}{2}(X - \theta)^T \Sigma^{-1} (X - \theta))$ این من را به این فکر می‌کند که $p_j(\theta، \Sigma|y_1,...,y_n) = |\Sigma|^{-(p+2)/2} \frac{1}{(2 \pi)^{p/2}} \frac{1} {\sqrt |\Sigma|} exp(-\frac{1}{2}(X - \theta)^T \Sigma^{-1} (X - \theta))$. من مطمئن نیستم که چگونه آن را در $p_j(\theta, \Sigma|y_1,...,y_n)$ به $p_j(\theta|\Sigma, y_1,...,y_n)$ و $p_j( تنظیم کنم \Sigma|y_1,...,y_n).$ برای آخرین سوال من، چرا $p_j(\theta, \Sigma)$ نمی تواند چگالی احتمال برای $(\تتا، \سیگما).$
یافتن جفریز قبل از توزیع نرمال چند متغیره. جبر احتمال شرطی
1601
در تجزیه و تحلیل نمرات آزمون (به عنوان مثال، در آموزش و پرورش یا روانشناسی)، تکنیک های رایج تجزیه و تحلیل اغلب فرض می کنند که داده ها به طور معمول توزیع می شوند. با این حال، شاید در اغلب موارد، نمرات تمایل به انحراف شدید از حالت عادی دارند. من با برخی از تبدیل‌های عادی‌سازی اولیه مانند: ریشه‌های مربع، لگاریتم، تبدیل‌های متقابل برای کاهش شیب مثبت، نسخه‌های بازتاب‌شده موارد بالا برای کاهش شیب منفی، مربع‌سازی برای توزیع‌های لپتوکورتی آشنا هستم. من در مورد تبدیل آرکسین و تبدیل قدرت شنیده ام، اگرچه واقعاً در مورد آنها آگاهی ندارم. بنابراین، من کنجکاو هستم که ** چه تغییرات دیگری معمولاً توسط تحلیلگران استفاده می شود؟**
چه تبدیل‌های نرمال‌کننده دیگری معمولاً فراتر از موارد رایج مانند ریشه مربع، لگ و غیره استفاده می‌شوند؟
14269
آیا می توان یک متغیر توضیحی اسمی را به عنوان یک متغیر پیوسته در یک GLM در R قرار داد (به جای اینکه به R بگوییم عاملی با سطوح مختلف است) تا ببینیم آیا این متغیر (درمان) محرک قابل توجهی برای متغیر پاسخ است که ما هستیم. قبل از اینکه به سطوح نگاه کنید به آن علاقه دارید؟ با تشکر
بررسی اینکه آیا یک متغیر اسمی در یک مدل GLM مهم است یا خیر
14260
بنابراین برای اینکه خودم را بهتر با نمونه‌برداری گیبس آشنا کنم، روی یک مدل خطی نسبتاً ساده کار کرده‌ام که به زبان Python/R نوشته شده است. اساسا، من داده های ورودی 2 بعدی (_x i_) و یک بردار خروجی اسکالر (_y i_) دارم. من به دنبال جا دادن یک بردار بتا هستم، یعنی _β T * xi = yi \+ εi_ ( _ε i_ نویز است). بنابراین تصمیم گرفتم از یک گاوسی قبل برای بتاها، به اضافه یک گامای معکوس قبل برای واریانس آنها استفاده کنم، که به من یک توزیع پسینی می دهد که گاوسی است (ممنونم!). و بنابراین من از فرمول صفحه ویکی‌پدیا در توزیع‌های مزدوج استفاده کردم تا تابع احتمالی را که برای تولید نمونه‌های تصادفی از ضرایب بتا و واریانس‌های آنها نیاز دارم، با توجه به داده‌ها (با نماد آنها، _x i_) به دست آوردم: بنابراین، به نظر می‌رسد در برای انجام نمونه برداری گیبس، من به سادگی از طریق _β 1_، _γ 1_، _β 2_، و _γ 2_ تکرار می کنم و تولید می کنم نمونه هایی از توزیع های فهرست شده در آن صفحه ویکی پدیا. سردرگمی من این است که نقاط داده من دقیقاً چیست («نمونه‌هایی» که برای محاسبه پارامترهای توزیع استفاده می‌کنم، که باید از بتای خود نمونه‌برداری کنم، یعنی i_x در صفحه ویکی‌پدیا)؟ آن طور که من آن را می بینم، می تواند یکی از دو چیز باشد. برای اهداف بحث، بیایید فعلاً _β 1_ را مورد بحث قرار دهیم. 1. اولین فکر این است که من فقط روی هر _i_ تکرار می‌کنم و نقاط داده‌ام را با استفاده از _(y i \- β2*xi,2) / xi,1_ تولید می‌کنم — اساساً تأثیر عامل دوم را کم می‌کنم و آن را تقسیم می‌کنم. باقی مانده توسط عامل اول، برای به دست آوردن تاثیر عامل اول بر متغیر پاسخ. سپس می توانم از آن جمعیت برای بدست آوردن پارامترهای توزیع خود استفاده کنم و در نهایت می توانم _β 1_ و _γ 1_ خود را نمونه برداری کنم. 2. فکر دوم این است که من فقط هر _i_ را مرور می کنم و نقاط داده خود را به صورت ( _y i / xi_) ایجاد می کنم، به این معنی که تأثیر عوامل دیگر را بر متغیر پاسخ کم نمی کنم. با همه چیز به طور مستقل رفتار می کند. تاکنون از شماره 1 استفاده کرده‌ام، اما حتی با مجموعه‌های داده‌های مصنوعی، متوجه شده‌ام که این به معنای واریانس‌های بتا عظیمی است که به نظر می‌رسد منطقی نیستند - اما، آنها بسیار نزدیک به واریانس‌های نمونه در جمعیت هایی که من تولید می کنم («نقاط داده» من برای محاسبه آن پارامترهای توزیع استفاده می کنم). من چه غلطی می کنم؟ آیا شماره 1 یا 2 راه درستی برای انجام یک مدل خطی است؟ یا من چیزی را به طور کامل از دست داده ام؟ پیشاپیش از کمک شما متشکرم! لطفاً اگر اطلاعاتی کمکی به من کرد، به من اطلاع دهید.
نمونه‌گیری گیبس برای یک مدل خطی ساده - برای تابع درستنمایی به کمک نیاز دارد
94811
من سعی می کنم با استفاده از رگرسیون خطی چندگانه در R پیش بینی کنم. با تبدیل داده های خام به جدول داده، توانسته ام بیت رگرسیون چندگانه را انجام دهم. با این حال، وقتی می‌خواهم از تابع پیش‌بینی استفاده کنم، نمی‌توانم آن را در سطوح چند متغیری، برای هر SKU ... همانطور که در زیر نشان داده شده است، انجام دهم. SKU Sales Week AP تخفیف 101451 1308 2010_19 3.48 0.1 101451 1678 2010_20 3.5 0 101451 2003 2010_21 3.5 0.1812126 0.121 5.36 0 495172 138 2012_19 5.15 0 495172 97 2012_20 4.99 0 495172 377 2012_21 3.5 0.26 586606 12606 586606 126 130 143 2012_8 6.46 0.07 586606 1098 2012_9 4.99 0.28 کدی که استفاده کرده ام کتابخانه (mlr rawdata است) کتابخانه (data.table) mlrt<- data.table(SKU=mlr$SKU,Sales=mlr$Sales,Week=mlr$Week,AP=mlr$AP,Discount=mlr$Discount) # اجرای مدل MLR, توسط SKU, نمایش چندین Intercepts و slopes, SKU عاقلانه mlrt[,list(intercept=coef(lm(Sales~AP+Discount)) [1],SLOPE1=coef(lm(Sales~AP+Discount))[2],SLOPE2=coef(lm(Sales~AP+Discount))[3],by=SKU] من نمی توانم بفهمم نحوه پیش‌بینی با استفاده از تابع «پیش‌بینی» در اینجا، برای هر «SKU» به طور جداگانه. («فروش» DV است و «AP» و «تخفیف» IDV هستند)
پیش بینی با استفاده از رگرسیون خطی چند متغیره با استفاده از R برای متغیرهای وابسته چندگانه
71177
من یک نمودار بسیار بزرگ، پراکنده، وزن دار و جهت دار دارم. ساختار به گونه‌ای است که عمدتاً از رشته‌هایی از گره‌هایی تشکیل می‌شود که با لبه‌های بسیار سنگین به هم متصل شده‌اند. این رشته ها را می توان با لبه های ضعیف یا کاملاً غیر متصل به هم متصل کرد. * آیا الگوریتمی وجود دارد که این بزرگراه ها / جریان ها / خوشه های خطی را شناسایی کرده و گره ها را با هم گروه بندی کند؟ * در غیر این صورت آیا این نوع ساختار نمودار نام خاصی دارد که به من کمک کند بیشتر در مورد آن تحقیق کنم؟
تشخیص جریان های قوی در یک نمودار جهت دار پراکنده
29902
من از یک پارامتر با توزیع ناشناخته نمونه برداری می کنم. من می خواهم 95٪ CI برای انحراف استاندارد نمونه محاسبه کنم. @cardinal یک راه حل کلی خوب برای محاسبه CI در [پاسخ] به سوال قبلی من، محاسبه اندازه نمونه مورد نیاز، دقت برآورد واریانس؟ ارائه می دهد. و @erik-p تخمینی از انحراف استاندارد واریانس نمونه ارائه می دهد. با این حال، برای محاسبه 95% CI برای واریانس نمونه، به نظر می رسد که باید توزیع واریانس نمونه را بدانم. آیا می توان چنین برآوردی را بدون دانستن توزیعی که نمونه از آن گرفته شده محاسبه کرد؟ یک سوال مرتبط این است که مرجع $Var[s^2]=\sigma^4 \left(\frac{2}{n-1} + \frac{\kappa}{n}\right)$؟
توزیع واریانس یک نمونه از یک توزیع مجهول چگونه است؟
29905
در پاسخ به سوال قبلی من، @Erik P. عبارت $$ \mathrm{Var}[s^2]=\sigma^4 \left(\frac{2}{n-1} + \frac{\ را می‌دهد. kappa}{n}\right) \>، $$ که در آن $\kappa$، کشیدگی بیش از حد توزیع است. ارجاع به مدخل ویکی‌پدیا در مورد توزیع واریانس نمونه داده شده است، اما صفحه ویکی‌پدیا می‌گوید «نیازمند استناد». سوال اصلی من این است که آیا مرجعی برای این فرمول وجود دارد؟ آیا استخراج آن «بی‌اهمیت» است و اگر چنین است، آیا می‌توان آن را در کتاب درسی یافت؟ (@Erik P. نتوانست آن را در آمار ریاضی و تجزیه و تحلیل داده ها پیدا کند و نه من در استنباط آماری توسط Casella و Berger. با وجود اینکه موضوع پوشش داده شده است. داشتن یک مرجع کتاب درسی خوب است، اما حتی مفیدتر است که یک مرجع داشته باشید. (یک سوال مرتبط این است: توزیع واریانس یک نمونه از یک توزیع مجهول چقدر است؟) **به روز رسانی**: @cardinal به معادله دیگری اشاره کرد. math.SE: $$ \mathrm{Var}(S^2)={\mu_4\over n}-{\sigma^4\,(n-3)\over n\,(n-1)} $$ جایی که $\mu_4$ چهارمین لحظه مرکزی است آیا راهی وجود دارد که معادلات را دوباره مرتب کنیم و این دو را حل کنیم یا معادله عنوان اشتباه است؟
مرجع $\mathrm{Var}[s^2]=\sigma^4 \left(\frac{2}{n-1} + \frac{\kappa}{n}\right)$؟
71172
من یک مجموعه داده دارم که در آن یک متغیر ('diff') روی 38 شرکت کننده ('sub') در دو شرایط مختلف ('cond.lag') اندازه گیری کرده ام. اکنون من علاقه مندم که آیا شیب موقعیت مورد بین این دو شرط متفاوت است یا خیر. یعنی من علاقه مندم که آیا تعاملی بین cond.lag و position وجود دارد یا نه (که من روی 0 قبل تمرکز می کنم). (lme4) options(contrasts=c('contr.sum', 'contr.poly')) # read data dat <- read.table(http://pastebin.com/raw.php?i=MmNQigRv , colClasses = c(NA, rep(factor, 2), rep(numeric, 2))) # موقعیت مرکزی dat$pos.centered <- scale(dat$position, scale = FALSE) # متناسب با مدل m1 <- lmer(diff ~ cond.lag * pos.centered + (cond.lag * pos.centered|sub), dat) print(summary(m1), corr = FALSE) ## [...] ## اثرات ثابت: ## Estimate Std. خطای t مقدار ## (Intercept) 0.0819639 0.0121378 6.753 ## cond.lag1 -0.0122033 0.0155427 -0.785 ## pos.centered 0.0031775 0.0031775 0.0031775 0.0031775 0.0006 #29 #4.4. cond.lag1:pos.centered -0.0011495 0.0011351 -1.013 اگرچه به نظر می رسد تعاملی پیدا نمی کنم (فقط اثر اصلی شیب موقعیت)، من مطمئن نیستم که آیا این مدل آنطور که می بینم منطقی است یا خیر. یک نمودار بسیار غیر معمول (من انتظار دارم دم سنگین) qq: qqnorm(resid(m1)) qqline(resid(m1)) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/QEWoj.png) **سوالات**: * آیا این مدل با وجود رفتارهای به ظاهر بد باقی مانده، منطقی است ? * برای حذف آن دم های سنگین یا به دست آوردن مدل بهتر چه کاری می توانم انجام دهم؟
چگونه با نمودار qq بسیار s شکل در یک مدل مختلط خطی (lme4 1.0.4) برخورد کنیم؟
87412
من با تفسیر تعاملات 2 و 3 طرفه در lmer مشکل دارم. DV من ارتفاع است که یک متغیر پیوسته است. همه IV ها متغیرهای دسته بندی هستند. اولین عامل حیوان است، موش یا شیر. عامل دوم جنسیت است، چه مرد و چه زن. عامل سوم رنگ است: قرمز، سفید یا زرد. من با تفسیر خروجی گیج می شوم: اثرات ثابت: Estimate Std. خطای t مقدار (Intercept) 164.6888 7.8180 21.065 rat -14.1342 8.2889 -1.705 جنسیتی -16.0883 10.0071 -1.608 رنگی 0.5776 6.21924 - 6.21924 رنگی 6.1025 -2.360 rat:sexmale 15.3645 11.8567 1.296 rat:colorred 12.5258 4.4028 2.845 rat:coloryellow 10.3136 4.3196 4.3196 2.3027male: رنگارنگ 0.384 جنسیتی:رنگی زرد 5.7643 5.1669 1.116 موش صحرایی:جنسی:رنگی -5.5144 6.2838 -0.878 موش:جنسی:رنگارنگ 0.9735 6.1690 با توجه به 2.158/2.1690. اثرات ثابت را می توان از روی مقدار t مطلق قضاوت کرد. اگر بالاتر از 2 باشد، آن فاکتور قابل توجه است. در تفسیر این خروجی، من فقط عواملی را انتخاب می کنم که مهم هستند. لطفاً بررسی کنید که آیا تفسیرهای من درست است: 1. `coloryellow` = ارتفاع سوژه ها زمانی که رنگ زرد را دوست دارند کمتر است و اگر رنگ سفید را دوست داشته باشند، بلندتر هستند. 2. `rat:colorred` = تأثیر ترجیح موش ها ترجیح رنگ قرمز را افزایش می دهد و این دو قد افراد را افزایش می دهند. 3. `rat:sexmale:coloryellow` = تأثیر ترجیح موش، نر بودن، ترجیح رنگ زرد را افزایش می دهد و افرادی که موش و زرد دوست دارند و نر هستند قد بیشتری دارند. از این تفاسیر می‌خواهم بپرسم: اگر بخواهم تأثیر «شیر:جنس‌زن:رنگی» و «رت:جنس:رنگارنگ» را نسبت به «رت:جنس‌زن:رنگی» بدانم، آیا باید بدوم. آمار جدید؟
چگونه تعامل دو طرفه و سه طرفه را در lmer تفسیر کنیم؟
29901
من یک شی چند کاناله در اینجا ایجاد کرده ام: https://github.com/aronlindberg/VOSS-Sequencing- Toolkit/blob/master/creating_multichannel_object.R با این حال، وقتی سعی می کنم از توابع مختلف برای توصیف توالی های چند کانالی استفاده کنم، من خطاهایی دریافت می کنم که می گویند آنچه من سعی می کنم پردازش کنم یک شی دنباله نیست. من شی دنباله خود را با seqdistmc() ایجاد کردم. آیا درست است که این شی را با استفاده از seqdef() به یک شی دنباله مشترک تبدیل کنیم؟ این به من اجازه می دهد تا از سایر توابع TraMineR برای توصیف دنباله های خود استفاده کنم. بهترین، آرون P.S. آیا کسی با بیش از 300 شهرت می تواند برچسب traminer را ایجاد کند؟
چگونه اشیاء توالی چند کاناله را در TraMineR توصیف کنیم؟
29907
با توجه به مقادیر محاسبه‌شده برای نمودار جعبه (min، lq، میانه، uq، max) و اندازه داده خام اصلی، می‌توان آن را با داده‌های خام ادغام کرد. داده شده: box1 = [min:1,lq:2,median:5,uq:8,max:10] size1 = 50 #size مجموعه داده که به من box1 مقادیر محاسبه شده data2 = [1,1,6,.. را داده است. .] چگونه می توانم هر دو را در یک طرح جعبه جدید ترکیب کنم. آیا این امکان پذیر است یا من به داده های خام اصلی نیاز دارم و باید قبل از محاسبه مقادیر نمودار جعبه، آن را با داده های خام جدید ادغام کنم.
boxplot: مقادیر محاسبه شده با داده های خام ترکیب شده است
47659
آیا منطقی است و روش صحیح باقیمانده کردن یک متغیر باینری چیست؟ برای یک متغیر پیوسته «y»، من به سادگی یک رگرسیون اجرا می کنم که «y» را به عنوان تابعی از «x» پیش بینی می کند و «y_hat=xb» (مقدار پیش بینی شده y از رگرسیون) را از «y» کم می کنم. آیا می توانم از همین رویه برای یک متغیر باینری «y» استفاده کنم تا «y_hat=invlogit(xb)» و متغیر باقیمانده از 1- تا 1 باشد؟
باقیمانده متغیر نتیجه باینری
14264
من به این مقاله http://www.scientificamerican.com/article.cfm?id=the- mind-reading-salmon مراجعه می کنم. آیا یک معادل p-value برای مجموعه ای از آزمون های معناداری وجود دارد، به خصوص در مواردی که برخی از آزمون ها همبستگی دارند؟ منظور من از همبستگی این است که آنها کاملاً مستقل نیستند و در نظر گرفتن آنها کاملاً مستقل اهمیت یک آزمون خوب را دست کم می گیرد.
اهمیت آماری برای آزمون های معنی داری همبسته
109469
من یک CDF دارم که با کد بدست آمده است: dist = ProbabilityDistribution[{CDF, Exp[-a Exp[-x b] - c Exp[-x d]]}, {x, 0, Infinity}, Assumptions -> {{ 0 < a < 10}، {0 < b < 1}، {0 < c < 10}، {0 < d < 1}}] res = FindDistributionParameters[data, dist, {{a, 3.8}, {b, 0.006}, {c, 0.08}, {d, 0.0002}}] می توانم فواصل اطمینان و پیش بینی را رسم کنم. اما برای CDF سفارشی به‌دست‌آمده با «ProbabilityDistribution»، این را امتحان کردم: Plot[{Func[x], bands90[x]}, {x, 0, 3000}, Filling -> {2 -> {1}}] بدون نتایج آیا کسی می‌داند چگونه می‌توان باندهای اطمینان و پیش‌بینی را در مورد CDF به‌دست‌آمده با آن تابع، و همچنین ANOVA یا جدولی را که می‌توان با «ParamterTable» نشان داد (در صورت تطبیق با «NonlinearModelFit») بدست آورد؟ همانطور که می بینم در برخی از نرم افزارها امکان به دست آوردن اطلاعات با کیفیت بیشتری برای اتصالات غیرخطی نسبت به اتصالات توزیع یا توزیع سفارشی وجود دارد، بنابراین سعی می کنم کد خود را بسازم. برای شروع به دست آوردن ماتریس واریانس-کوواریانس، کدی را که در اینجا یافت شد دنبال کردم: خطاهای استاندارد برای تخمین حداکثر احتمال در FindDistributionParameters و قسمت آخر (Sqrt[Diagonal[cov]/len]]) را حذف کردم زیرا می‌خواهم از ماتریس کوواریانس نیز استفاده نکنم. بنابراین کد من این است: کوواریانس[data, dist, paramlist, mleRule] := بلوک[{len, infmat, cov}, len = طول[داده]; (محاسبه منفی اطلاعات مورد انتظار فیشر) infmat = -D[LogLikelihood[dist, data], {paramlist, 2}]/len /. mleRule; (برای بدست آوردن کوواریانس مجانبی معکوس کنید) cov = معکوس[infmat]] به این ترتیب بخش مرکزی ماتریس کلاه، $(X^\top X)^{-1}$ را بدست آوردم. اما کسی می تواند بررسی کند که آیا من در راه درست هستم؟ اگر چنین است، من باید $X$ و $X^\top$ را بدست بیاورم، و سپس باید واریانس $s^2$ را اضافه کنم تا به راهنمای من در اینجا ادامه دهم.
باندهای پیش‌بینی میانگین و تک برای CDF غیرخطی سفارشی در Mathematica
87633
این مقاله توسط آدامز و مک کی یک الگوریتم محاسباتی کارآمد برای تخمین آنلاین نقاط تغییر در یک توالی داده ارائه می‌کند. من به دنبال مطالب مشابهی هستم که نه تنها مکان تغییرات (یا در مورد آدامز و مک کی، اندازه طول اجرا) بلکه میزان این تغییرات را نیز تخمین بزند. برای مثال، در یک فرآیند برنولی، فرض کنید می‌خواهم باورهایم را در مورد پارامتر $p$، طول $r_t$ یک اجرا در زمان $t$، _and_ توزیع بزرگی‌های تغییر احتمالی به‌روزرسانی کنم. من با برخی از مقالات مرتبط مواجه شده ام، اما آنها یا بر روی یک فرآیند تصادفی خاص تمرکز دارند یا بر تقسیم‌بندی گذشته‌نگر توالی داده‌ها تکیه می‌کنند (آنها آفلاین هستند). من به دنبال تخمین آنلاین هستم. حدس می‌زنم توسعه الگوریتم آدامز و مک‌کی برای انجام این کار خیلی سخت نباشد، اما می‌خواهم مطمئن شوم که شخص دیگری این کار را انجام نداده است. با تشکر
منابع برای تخمین بزرگی نقطه تغییر بیزی
87416
لطفا به من کمک کنید تا این نمودار را از نظر نوع همبستگی تفسیر کنم. کدام نوع شامل دو بردار در جهت های مشاهده شده در زیر است (نگاه کنید به تصویر نمودار)؟ پیشاپیش ممنون ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/DoIm7.png)
چگونه می توانم این پراکندگی را تفسیر کنم؟
29903
من یک مجموعه داده تجربی دارم که دو متغیر را به هم مرتبط می کند. در یک محدوده کوچک این رابطه خطی به نظر می رسد، اما در یک محدوده بزرگتر به وضوح یک رابطه چند جمله ای مرتبه دوم وجود دارد همانطور که در تصویر در http://imgur.com/W7f9p مشاهده می شود. من سعی می کنم معیاری از خطی بودن را برای محدوده های مختلف در نظر بگیرم. به عنوان مثال در 20 < x < 60 یا 100 < x < 120 بسیار خطی است، اما در 20 < x < 180 بسیار خطی نیست. من سعی کردم یک خط مستقیم را به داده ها برازم و داده های R^2 را محاسبه کنم (خوب بودن تناسب) اما این نشان می دهد که خط مستقیم در محدوده بزرگتر نسبت به محدوده کوچکتر برازش بهتری دارد. در حالی که این ممکن است در مورد MS Excel صادق باشد، از تصویر مشخص است که محدوده بزرگتر کمتر خطی است...اگر کنار یک تکه کاغذ را در مقابل نقاط نگه دارید. آیا راه بهتری برای اندازه گیری «خطی بودن» یک مجموعه داده وجود دارد؟
یک راه خوب برای اندازه گیری خطی یک مجموعه داده چیست؟
45889
هنگام انجام آزمایش فرضیه دقیقاً تفاوت بین منطقه رد و P-value چیست؟ این را به صورت آنلاین بخوانید: > برای یافتن یک منطقه رد، از سطح اهمیت > (α) به سمت یک مقدار آمار آزمون (آن را $z^*$) به عقب برگردانید. مقادیر آزمون > آماری که از مقدار فرضی $\mu_x$ دورتر هستند (یعنی > مقادیر $z$ که $z^*$ بین $\mu_x$ و $z$ است) منجر به رد > فرضیه صفر به نظر می رسد که مقدار p چیست؟ شاید من در مورد اینکه مقدار p دقیقا چیست گیج شده ام.
در مورد منطقه رد در مقابل P-value گیج شده‌ام.
1604
آیا کسی می تواند یک کتاب یا مرجع آنلاین در مورد نحوه ساخت اسپلاین های هموار با اعتبار متقاطع به من ارائه دهد؟ من لیسانس برنامه نویسی و لیسانس ریاضی دارم. همچنین می‌خواهم مروری بر این موضوع داشته باشم که آیا این تکنیک هموارسازی برای هموارسازی داده‌ها خوب است یا خیر و آیا معایبی وجود دارد که یک غیر آمارگیر باید از آن آگاه باشد.
ساخت خطوط هموارسازی با اعتبارسنجی متقاطع
87410
من می خواهم انتخاب مدل را با استفاده از روش گام به گام به عقب و اعتبارسنجی متقاطع انجام دهم. https://www.otexts.org/fpp/5/3 من از stepAIC در بسته MASS برای انتخاب پیش بینی کننده ها استفاده کرده ام و می خواهم ببینم آیا اعتبار متقاطع معیار بهتری است یا خیر. به عبارت دیگر، من سعی می کنم به جای AIC از اعتبارسنجی متقاطع به عنوان معیاری در روش انتخاب معکوس استفاده کنم. این روش باید با یک مدل کامل شروع شود، هر بار یک پیش‌بینی‌کننده را رها کنید، در صورت بهبود CV، متغیر را حفظ کنید و تا زمانی که هیچ بهبودی حاصل نشود ادامه یابد. من فکر می کنم که تابع «rfe» در بسته «caret» ممکن است بتواند این کار را انجام دهد. من همچنین می خواهم در صورت امکان بوت استرپینگ را انجام دهم. اگر چنین است، چگونه باید آن را مشخص کنم؟ یا آیا توابعی وجود دارد که بتواند این کار را انجام دهد؟ من سعی کردم عملکرد خودم را بنویسم، اما به نظر می رسد فراتر از توانایی من است. با تشکر فراوان.
رگرسیون گام به گام با اعتبار متقاطع در R
87634
_من داشتم به یکی از دوستان کمک می کردم که مشکلاتی برای دوره مدیریت کارآزمایی های بالینی داشته باشند، بیشترش آمار ساده بود، سوال آخر کمی مشکل تر بود. ما پاسخ را از گوگل دریافت کردیم، اما این باعث شد تا کمی فکر کنم که این سوال مربوط به بیمارانی است که به مرور زمان بدون دستیابی به دوره پیگیری لازم، از آزمایش خارج می شوند. من در مورد یک مورد ساده فکر می کردم._ یک آزمایش ساده را در نظر بگیرید که در آن دو مداخله متفاوت را با هم مقایسه می کنم. بیماران به یکی از دو مداخله به طور تصادفی، 100 در هر بازو اختصاص داده می شوند. نقطه پایانی من یک متغیر پیوسته است. اگر به هر دلیلی فقط 94 بیمار در یک بازو و 97 بیمار در بازو دیگر برای تجزیه و تحلیل مناسب هستند، آیا این فراتر از افزایش آشکار عدم قطعیت تصادفی بر تحلیل من تأثیر می گذارد؟
داده های از دست رفته چگونه بر تجزیه و تحلیل کارآزمایی های بالینی تأثیر می گذارد؟
29906
دو نمونه ${(x_i)}_{i=1}^m$ و ${(y_i)}_{i=1}^n$ را در نظر بگیرید. فرض کنید که $x_i$ تکرارهای مستقلی از یک توزیع با انتظار $\mu_X$ هستند و به طور مشابه $y_i$ تکرارهای مستقل از یک توزیع با انتظار $\mu_Y$ هستند، و همچنین فرض کنید که دو نمونه مستقل هستند. آیا می توان یک فاصله اطمینان تقویت کننده در مورد تفاوت میانگین $\mu_X-\mu_Y$ بدست آورد؟ یا راه ناپارامتریک دیگری برای بدست آوردن چنین فاصله اطمینانی وجود دارد؟ ویرایش: اوه - من به تازگی این مبحث را دیدم فاصله اطمینان برای تفاوت دو معنی با استفاده از بسته بوت در R، با این وجود من علاقه مندم که چرا روش صحیح است. این یک روش بوت استرپ کلاسیک نیست، اینطور نیست؟ در اینجا ما به طور جداگانه در هر نمونه داده نمونه می گیریم. این مانند بوت استرپ کلاسیک نیست که در صورت وجود تنها یک نمونه داده وجود دارد.
فاصله اطمینان ناپارامتریک در مورد تفاوت میانگین برای داده های جفت نشده
7549
همانطور که عنوان نشان می دهد، من به خوبی در مورد اینکه کدام رویکرد برای داده های من منطقی تر است، گیج شده ام. اجازه دهید سعی کنم به طور خلاصه مشکل را توضیح دهم. من داده‌های انتخابی باینری دارم که نشان می‌دهد آیا شخص خاصی برای یک رویداد خاص سوار قطار یا اتوبوس شده است. من پیش‌بینی‌کننده‌های سطح رویداد (مکان رویداد، مدت رویداد) و همچنین پیش‌بینی‌کننده‌های سطح فرد (سطح درآمد، سطح تحصیلات) دارم. رویدادهای متعدد، اما نامتعادل برای هر فرد وجود دارد. در اینجا قسمت کمی غیرمعمول است: من مجموعه ای از اطلاعات تاریخی با تمام مقادیر پیش بینی کننده و همچنین انتخاب مشاهده شده دارم. من می‌خواهم یک مدل رگرسیون بسازم که سپس می‌توانم روی داده‌های جدید (شامل همه چیز به جز سطح تحصیلات) اعمال کنم تا بر اساس انتخاب‌های مشاهده‌شده‌اش، تحصیلات آن فرد را تا حد ممکن استنباط کنم. افکار من در مورد چگونگی انجام این کار: 1. یک مدل رگرسیون لجستیک چندسطحی با اثر مختلط بسازید، با انتخاب حمل و نقل به عنوان متغیر وابسته، و Education_level به عنوان یکی از پیش بینی کننده ها. اکنون برای Education_level با استفاده از چیزی مانند رگرسیون لجستیک معکوس حل کنید. 2. یک رگرسیون در شمارش انجام دهید. اکنون، تحصیلات متغیر وابسته است، و ما تعداد هر زیر مجموعه از متغیرهای پیش‌بینی‌کننده را که دیده‌ایم جمع‌بندی می‌کنیم (به عنوان مثال، 5 رویداد نزدیک وجود داشت که در آن مردان ثروتمند اتوبوس سوار شدند، 3 رویداد دوردست که در آن...) 3. نوعی مدل کلاس نهفته؟ معاوضه بین این جایگزین ها چیست؟ همچنین، آیا هنوز رویکردهای دیگری ارزش بررسی دارند (مثلاً CFA)؟ (و لطفاً در صورت نیاز به ارائه جزئیات بیشتر در مورد مشکل، به من اطلاع دهید.) از وقتی که در اختیار شما گذاشتید متشکرم، ایان.
رگرسیون لجستیک معکوس در مقابل اندازه گیری های مکرر در مقابل کلاس نهفته؟
110145
استفاده از جنگل تصادفی: من جنگل تصادفی را در R اجرا کردم. این ماتریس سردرگمی و اهمیت متغیر را به من داد. برای رتبه بندی اهمیت متغیرها در مدل می توان از اهمیت متغیر استفاده کرد. سوال من این است که چگونه می توانم از جنگل تصادفی برای طبقه بندی استفاده کنم، مانند درخت تصمیم. درخت تصمیم را نیز اجرا کرده ام. به من قوانینی داد تا داده هایم را طبقه بندی کنم. آیا جنگل تصادفی می تواند طبقه بندی مشابهی ایجاد کند؟ یا هر نوع معیار طبقه بندی؟ آیا چیزی را در کد جنگل تصادفی از دست دادم؟
استفاده تصادفی از جنگل
47654
فرض کنید من می‌خواهم نمونه‌ای از بردار n بعدی $z$ با یک ماتریس همبستگی معین $Corr(z)=R$ تولید کنم. برخی از حاشیه‌های توزیع آن نرمال نیستند (اگر علاقه دارید در اینجا انگیزه پشت سوال من وجود دارد)، یعنی $z$ از توزیع نرمال چند متغیره پیروی نمی‌کند. بیایید فرض کنیم که من یک روش ناقص دارم و می‌خواهم بررسی کنم که آیا ماتریس همبستگی نمونه به ماتریس نظری نزدیک است یا خیر، یعنی می‌خواهم فرضیه صفر را آزمایش کنم $H_0:R_{sample}=R$ در مقابل $H_1:R_ {sample}\neq R$ چگونه می توانم آن را انجام دهم؟
آزمون همبستگی توزیع غیر نرمال چند متغیره
110148
من آزمایش رگرسیون لجستیک چند جمله ای را برای تعامل بین گونه های گوزن، روزهایی که تله دوربین در میدان بود و نوع واکنش انجام داده ام. مدل با بهترین مقدار AIC عبارت بود از: ضرایب: (Intercept) speciesmuntjac speciesroe speciessika روز r -0.7471023 0.6263753 -0.005967869 -0.74253017 -0.05189515 -0.05189515 sr 0.05189515 sr 0.7471020 0.7471029 -0.355611180 -0.01622306 -0.03178001 انحراف باقیمانده: 971.6464 AIC: 991.6464 اما من موارد زیر را نیز دریافت کردم (Intercept) speciesmuntjac speciesroe speciessika روز r 0.007939798 . (ر) یا به شدت واکنش (sr) بالاتر از شانس؟
تفسیر رگرسیون لجستیک چند جمله ای R
534
همه ما می دانیم که عبارت همبستگی به معنای علیت نیست که در همه دانش آموزان آمار سال اول وجود دارد. در اینجا چند مثال خوب برای نشان دادن این ایده وجود دارد. اما گاهی اوقات همبستگی _do_ دلالت بر علیت دارد. مثال زیر از این صفحه ویکی‌پدیا گرفته شده است > برای مثال، می‌توان آزمایشی را روی دوقلوهای همسان انجام داد که می‌دانستند > مرتباً نمرات یکسانی را در آزمون‌های خود می‌گیرند. یکی از دوقلوها به مدت شش ساعت برای مطالعه > و دیگری به شهربازی فرستاده می شود. اگر نمرات > امتحان آنها به طور ناگهانی به میزان زیادی از هم جدا شود، این شواهد قوی > است که نشان می دهد مطالعه (یا رفتن به شهربازی) تأثیر علّی > بر نمرات آزمون داشته است. در این مورد، همبستگی بین نمرات مطالعه و آزمون > تقریباً به طور قطع دلالت بر علیت دارد. آیا موقعیت های دیگری وجود دارد که همبستگی دلالت بر علیت دارد؟
در چه شرایطی همبستگی دلالت بر علیت دارد؟
39129
فرض کنید من سعی می کنم تأثیر رفتار پیشخدمت های بی ادب را بر تعداد دفعات مراجعه مشتریان به رستوران تخمین بزنم. برای ساده کردن، بیایید فرض کنیم که بی ادبی دوتایی، قابل مشاهده و تصادفی است. من جمعیت تمام معاملات مهرماه را در نظر می گیرم و می بینم که برخی از مشتریان چند وعده غذایی و برخی دیگر فقط یک بار خورده اند. نتیجه من تعداد وعده های غذایی در دوره نوامبر تا دسامبر خواهد بود. من می خواهم از داده های پانل خود یک مقطع در سطح مشتری بسازم زیرا روش تخمینی که استفاده می کنم با مشاهدات غیر مستقل پیچیده می شود. من سه گزینه در دسترس دارم: 1. برای هر مشتری یک تراکنش تصادفی انتخاب کنم. از پیشخدمت آن معامله برای تعیین اینکه آیا یک غذاخوری درمان شده است یا خیر استفاده کنید. 2. داده های اکتبر را با محاسبه # پیشخدمت های بی ادب/# وعده های غذایی برای هر مشتری جمع آوری کنید. در غیر این صورت، یک تراکنش تصادفی بگیرید. متأسفانه (2) از جدول خارج است زیرا ویژگی های دیگری از غذا وجود دارد که به سختی جمع آوری می شوند. روش (1) این مشکل را دارد که 2 نفر که هر دو دو بار ناهار خورده اند و نیمی از زمان معاملات بی ادبانه داشته اند ممکن است در گروه های جداگانه جمع شوند، که عجیب به نظر می رسد زیرا آنها دقیقاً سابقه مشابهی دارند. روش (3) معقول‌ترین به نظر می‌رسد، اما به من تخمینی می‌دهد که علامت اشتباه دارند و شکننده به نظر می‌رسند. من سه سوال مرتبط دارم: * آیا از منظر نمونه گیری نظری اشکالی در (3) وجود دارد؟ * آیا می توانم با استفاده از (1) منطقی باشم، زیرا به طور متوسط ​​ممکن است سوگیری انتساب نادرست از بین برود؟ * آیا می توانم مقطع خود را به روش دیگری، شاید با اضافه کردن وزنه ها، به دست بیاورم؟
نحوه نمونه برداری از تراکنش ها برای برآورد اثرات سطح مشتری
110141
من تعداد بسیار زیادی سؤال درست / غلط دارم. من می خواهم نمونه ای از این سوالات را بگیرم و از آنها برای تست یک موضوع استفاده کنم. من می‌خواهم نسبت سؤالات را از مجموعه بزرگ‌تر استنباط کنم که آزمودنی به درستی پاسخ می‌دهد، بر اساس عددی که آزمودنی به درستی در نمونه پاسخ داده است. آیا مدلسازی پاسخ‌های آزمودنی بر روی نمونه‌ای از سؤالات از مجموعه کامل به‌عنوان یک آزمایش دوجمله‌ای، با فرض اینکه سؤالات نمونه به‌طور تصادفی انتخاب شده‌اند، رویکرد معتبری است؟ اگر چنین است، چه فرضیاتی در استفاده از این مدل دارم؟ به نظر من می‌خواهم فرض کنم که پاسخ‌های آزمودنی به هر سؤال به نحوی ثابت است، به طوری که برای یک سؤال خاص، بدون توجه به اینکه چه زمانی از او پرسیده می‌شود، همان پاسخ را انتخاب کند.
مدل دوجمله ای آزمون گیرنده درست/نادرست
110144
با توجه به برخی بردارهای ثابت $\mathbf{x}_0\in\mathbb{R}^d$، می‌خواهم یک پیشینی را روی یک متغیر تصادفی $\mathbf{x}\in\mathbb{R}^d$ قرار دهم تا به $\mathbf{x}_0$ خیلی نزدیک نیست. در حال حاضر من یک پیشین کوشی را روی $\mathbf{x}$ قرار دادم که $$ است \mathrm{pdf}(\mathbf{x};\mathbf{x}_0,\mathbf{a})\propto\frac{1}{(1+\|\mathbf{x}-(\mathbf{x} _0+\mathbf{a})\|^2)^{\frac{d+1}{2}}} $$ که در آن $\mathbf{a}$ افست است پارامتر آیا گزینه های کمتر اکتشافی دیگری وجود دارد؟ متشکرم.
پیشین های اطلاعاتی ضعیف برای r.v. $\mathbf{x}$ نزدیک به $\mathbf{x}_0$ نیست؟
48734
> **تکراری احتمالی:** > در چه شرایطی همبستگی دلالت بر علیت دارد؟ > آیا کسی می تواند توضیح دهد که چگونه می تواند وابستگی و کوواریانس صفر وجود داشته باشد؟ یا ممکن است هنوز یک رابطه وجود داشته باشد؟ آیا با توجه به روشی که OLS کار می کند، ممکن است ریاضیات به این شکل عمل کند اما رابطه ای وجود دارد؟ شاید یک غیر خطی؟ هر چیزی؟ یا $R^2=0$ به این معنی است که X و Y کاملاً نامرتبط هستند؟
فرض کنید که $R^2=0$. آیا این بدان معناست که Y و X به هم مرتبط نیستند؟
47656
مطالعه برای آزمون این یکی را نمی توان جواب داد اجازه دهید $X_{1,i},X_{2,i},X_{3,i}, i=1,\ldots,n$ متغیرهای تصادفی $\mathcal{N}(0,1)$ باشند. $W_i = (X_{1,i} + X_{2,i}X_{3,i})/\sqrt{1 + X_{3,i}^2}، i = 1، \ldots، n$ را تعریف کنید و $\overline{W}_n = n^{-1}\sum_{i=1}^nW_i$، $S_n^2 = (n-1)^{-1}\sum_{i=1}^n(W_i - \overline{W}_n)^2, n \ge 2.$ توزیع $\overline{W}_n چقدر است $، $S_n^2$؟ چگونه می توانم ایده ای از بهترین روش برای استفاده در هنگام شروع چنین مشکلی داشته باشم؟
یافتن توزیع یک آمار
10020
من به یک دانشجوی پژوهشی با مشکل خاصی مشاوره می دادم و مشتاق بودم نظرات دیگران را در این سایت دریافت کنم. ### زمینه: محقق سه نوع متغیر پیش بینی داشت. هر نوع شامل تعداد متفاوتی از متغیرهای پیش بینی کننده بود. هر پیش بینی کننده یک متغیر پیوسته بود: * اجتماعی: S1، S2، S3، S4 (یعنی چهار پیش بینی کننده) * شناختی: C1، C2 (یعنی دو پیش بینی کننده) * رفتاری: B1، B2، B3 (یعنی سه پیش بینی کننده) متغیر نتیجه نیز پیوسته بود. نمونه شامل حدود 60 شرکت کننده بود. محقق می خواست در مورد اینکه کدام نوع از پیش بینی کننده ها در توضیح متغیر نتیجه اهمیت بیشتری دارند، اظهار نظر کند. این به نگرانی های نظری گسترده تر در مورد اهمیت نسبی این نوع پیش بینی ها مربوط می شد. ### سوالات * راه خوبی برای ارزیابی اهمیت نسبی یک مجموعه از پیش بینی کننده ها نسبت به مجموعه دیگر چیست؟ * استراتژی خوبی برای مقابله با این واقعیت است که در هر مجموعه تعداد مختلفی از پیش بینی کننده ها وجود دارد؟ * چه نکاتی را در تفسیر ممکن است پیشنهاد کنید؟ هر گونه ارجاع به مثال ها یا بحث در مورد تکنیک ها نیز بسیار استقبال می شود.
مقایسه اهمیت مجموعه های مختلف پیش بینی کننده ها
51906
من به دنبال نتایج نظری در مورد آسان بودن تشخیص تغییر یک دنباله تصادفی هستم. جایگشتی که من بیشتر به آن علاقه مند هستم جایی است که دنباله ای از اعداد تصادفی مرتب می شوند یا بر اساس مقادیر جای می گیرند. اعداد تصادفی از یک توزیع شناخته شده استخراج می شوند. به نظر من واضح است که تشخیص مجدد ترتیب بیش از حد باید امکان پذیر باشد. در عین حال به نظر می رسد که تشخیص تغییرات جزئی ممکن است دشوار باشد. در بین این دو، من حدس می زنم که باید برخی از نتایج نظری وجود داشته باشد.
تشخیص/تحلیل جایگشت های غیر تصادفی یک دنباله تصادفی
7546
برای R، من می دانم که بسته lme4 و عملکرد glmer تقریباً با glimmix در SAS مطابقت دارد. ساختار کوواریانس پیش فرض در زمان مناسب چیست و آیا می توان آن را تغییر داد؟ اگر چنین است چگونه؟
ساختار کوواریانس پیش فرض در گلمر چیست و آیا می توانم آن را تغییر دهم؟
8446
سرپرست من از من خواست که بفهمم کدام توزیع نشان دهنده یک موقعیت خاص است. من یک مولد VoIP دارم که تماس‌ها را به طور «یکنواخت» بین تماس‌گیرندگان توزیع می‌کند. این بدان معنی است که حجم توزیع هر تماس گیرنده تقریبا به طور یکنواخت بین حداقل و حداکثر توزیع شده است. بنابراین با اجرای آزمایشی با 10000 کاربر و حداقل مقدار برابر با 30 تماس در هفته و حداکثر مقدار برابر با 90 تماس در هفته، دریافتم که همه کاربران این محدودیت ها را رعایت نمی کنند: ما تعدادی کاربر داریم که کمتر از 30 تماس ایجاد می کنند و برخی دیگر. سایر کاربرانی که بیش از 90 تماس ایجاد می کنند. واضح است که توزیع به دست آمده یکنواخت نیست. وضعیت به این صورت است: ![](http://i.stack.imgur.com/0KX7A.png) او گفت که باید یک نوع فرآیند عددی را انجام دهم تا فرمول هایی را پیدا کنم که بتواند این توزیع را تعریف کند. در ابتدا، همانطور که قبلاً نوشتیم، ما می خواستیم توزیع یکنواخت (حداقل، حداکثر) (منطقه سبز در شکل) را به دست آوریم، اما این مورد آنطور که با آزمون مجذور کای ثابت شد، صادق نیست. علاوه بر این منحنی در شکل متقارن نیست، احتمال ایجاد تماس زیر 30 تماس در هفته و بیشتر از 90 تماس در هفته یکسان نیست (برای 90 تماس در هفته زیاد است). تنوع تعداد تماس های ایجاد شده با افزایش نرخ های تولید تماس افزایش می یابد. در واقع اجرای این توزیع چیزی نیست جز تخصیص نرخ تماس های مختلف در یک محدوده برای کاربران در دامنه که نشان دهنده اجرای چندین تابع دلتا است. با افزایش نرخ تماس، تغییرپذیری تماس های تولید شده نیز با میانگین نرخ تماس افزایش می یابد و این منجر به رفتار نامتقارن منحنی. [نقل به از مستندات Voipgenerator] کسی می‌تواند به من کمک کند؟ فکر می‌کنم اکنون نمی‌توانم از نمودار Q-Q استفاده کنم زیرا نمی‌دانم از کدام توزیع نظری باید استفاده کنم تا آن را با داده‌های تجربی خود مقایسه کنم. ببخشید اگر چند هفته پیش با مشکل مشابهی استرس داشتم، اما در ابتدا فکر می‌کردیم می‌توانیم اجرا را تغییر دهیم، اما اکنون نمی‌توانیم. از این رو باید نوع توزیعی را که به دست آوردم کشف کنم و نمی دانم چگونه می توانم این کار را انجام دهم.
این چه نوع توزیعی است؟
65191
من یک مجموعه داده آزمایشی دارم که بر روی آن تجزیه و تحلیل رگرسیون زیر را در r اجرا می‌کنم: «مطابقت <- lm(هزینه ~ شیب + YardDist + حذف + TreeVol، داده = آزمون)` من یک r-squared 0.83 دریافت می‌کنم سپس رگرسیون را تغییر می‌دهم. معادله: «مناسب <- lm(هزینه ~ شیب + YardDist + Removals+ I(TreeVol^(-0.82))، داده = تست)` من r-squared 0.9872 را دریافت می کنم. من تعجب می کنم که عبارت I(TreeVol^(-0.82)) دقیقاً به چه معناست؟ وقتی همه متغیرها را به غیر از TreeVol ثابت نگه دارم، نمودار TreeVol/Cost شبیه به رنگ قرمز است. حدس میزنم ربط داره ولی کاملا متوجه نمیشم ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/g1Ide.png)
معنی I(Var^(-1)) در r
110146
من در حال توسعه یک مدل با یک متغیر پاسخ دو جمله ای هستم. داده های من شامل نقاط GPS از حیوانات ردیابی شده است. مجموعه داده بزرگ است و شامل 15000 مشاهدات از 40 فرد است. من می خواهم یک GLMM در R ایجاد کنم که امکان گنجاندن 1) پاسخ دو جمله ای، 2) اثرات تصادفی، و 3) ساختار همبستگی مکانی یا زمانی را فراهم می کند. چه بسته ای این کار را انجام می دهد؟ چه بسته ای مدل ها را به سرعت اجرا می کند؟ در lme4 و بنابراین gamm4 به نظر می رسد هیچ راه آسانی برای اضافه کردن همبستگی وجود ندارد. به نظر نمی رسد Nlme از مدل های دوجمله ای پشتیبانی کند. نظر شما چیست؟
چگونه glmm دو جمله ای را با تصادفی و همبستگی در R مشخص کنیم؟
47658
من در حال حاضر مشغول بازی با مدل های Gaussian Mixture هستم تا بازده سهام را مدل کنم. بخشی از همه اینها استفاده از الگوریتم EM برای به دست آوردن MLE پارامترها است. من یک بسته در R (mixtools) پیدا کردم که توابع normalmixEM و mvnormalmixEM را ارائه می دهد. من آن را امتحان کرده‌ام اما خروجی mvnormalmix را نمی‌دانم (ورودی من شامل یک ماتریس 200x2 بود): چرا برای دو جزء دو بردار mu-2x1 و چرا دو ماتریس کوواریانس 2x2 دریافت می‌کنم؟ این یکی خیلی زیاد نیست؟ اگر بتوانید آن را روشن کنید یا لینکی به من بدهید که در آن خروجی حالت چند متغیره توضیح داده شده باشد (چون به طور کلی آن را کمی گیج کننده می دانم) بسیار ممنون می شوم.
الگوریتم EM برای برازش GMM در حالت چند متغیره در R
78640
من از نمودار QQ برای ارزیابی شباهت بین دو توزیع مشاهده شده استفاده می کنم. من به عددی نیاز دارم که مشخص کند نمودار چندک - چه مقدار خود را از هم جدا می کند (کلمه بهتری برای این مفهوم وجود دارد؟) از خط هویت `y=x` (IL). ضریب R^2 هیچ فایده ای ندارد زیرا نقاط را با بهترین خط مناسب مقایسه می کند، نه IL. من به این فکر می کردم که به سادگی فواصل مطلق هر چندک را با خط هویت جمع کنم تا هر چه این عدد بزرگتر باشد، بتوانم بگویم که آنها از IL جدا می شوند. آیا راه بهتر/توصیه‌شده‌ای برای این کار وجود دارد؟ من فقط به دنبال عددی هستم که بتوان از آن استفاده کرد تا در یک نگاه بگویم که چندک من چقدر از IL فاصله دارد. نمونه یکی از نمودارهای QQ من در نمودار زیر. در این مثال، من باید یک مقدار بسیار شدید (چه زیاد باشد چه کم) از هر آماری که در نهایت استفاده می‌کنم دریافت کنم (مجموعه داده‌های نمودار را می‌توانید از اینجا دانلود کنید). ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/KmFsF.png)
ارزیابی تناسب با خط هویت در نمودار Q-Q
88618
من در حال تلاش برای ساختن یک طبقه بندی کننده ساده بیز از داده های استخراج شده از مقالات علمی هستم. من می خواهم از پارامترهای توزیع متغیر گزارش شده برای تقریب یک مجموعه داده استفاده کنم که می توانم از آن برای آموزش طبقه بندی کننده Naive Bayes استفاده کنم (زیرا معمولاً دسترسی به داده های خام وجود ندارد). به عنوان مثال، یک مقاله توزیع ارتفاع برای درختان سیب و درختان پرتقال و همچنین اینکه آیا درخت در ضلع شمالی یا جنوبی باغ است را گزارش می دهد. این توزیع ها/دسته ها با توجه به نوع درخت گزارش شده اند. من همچنین می دانم که چند درصد درختان سیب و چند درصد نارنجی هستند (احتمال قبلی). با این حال، داده های خام در دسترس نیست. من سعی می‌کنم چنین اطلاعاتی را به داده‌های آموزشی برای طبقه‌بندی‌کننده Naive Bayes تبدیل کنم (در این مثال، می‌خواهم به احتمال اینکه یک درخت یک درخت سیب یا یک درخت پرتقال است، پایان دهم). آیا می توانم یک تقریبی از مجموعه داده چند متغیره را فقط از روی پارامترهای توزیع (بدون آگاهی از کوواریانس بین پارامترها یا داده های خام) بسازم؟ یا می‌توانم مستقیم‌تر P(Xi | A) را برای طبقه‌بندی کننده ساده بیز از توزیع Xi بدون بازسازی تخمینی از مجموعه داده تقریب کنم؟
چگونه می توانم پارامترهای توزیع متغیر را به داده های آموزشی برای طبقه بندی کننده Naive Bayes تبدیل کنم؟
16130
من در جستجوی مجموعه داده های موجود هستم که بتوانیم از آنها برای آزمایش چندین تکنیک datavis که در حال تحقیق هستیم استفاده کنیم. من چندین منبع مانند منابع موجود در R را می شناسم («plot(Orange)» را امتحان کنید یا اینجا را ببینید). اما من می خواهم آن را یک گام به جلو بردارم: * بهترین مجموعه داده های دنیای واقعی برای آزمایش ابزار تجسم کدام هستند؟ * از کدام مجموعه داده ها در مقالات دانشگاهی یا اسلایدهای آموزشی درباره datavis استفاده کرده اید؟ * بهترین مثال از دنیای واقعی برای نشان دادن مزایای نمودار کدام است؟
مجموعه داده ها برای مثال های تجسم داده ها، آموزش و تحقیق
51908
آیا الگوریتمی برای جستجوی سریع نزدیکترین همسایه ابعاد دایره ای وجود دارد؟ به عنوان مثال، برای یک بعد بر اساس ساعت از روز، یک درخت KD 00:01 و 23:59 را از هم دور می کند. اما متریک فاصله مناسب کمترین فاصله (2 دقیقه) را به دست می آورد. زاویه یک بعد دیگر از این قبیل است، یا فصول، یا ماه ها، یا ... من فکر می کردم که آیا یک درخت توپ ممکن است با این صورت حساب مناسب باشد؟ آیا چنین مشکلی هنوز در نابرابری مثلث مورد نیاز در آنجا جای می گیرد؟
الگوریتم نزدیکترین همسایه برای ابعاد دایره ای
115279
فرض کنید من یک چند متغیره معمولی ${\bf{Y}}|{\bf{\theta}} \sim {\bf{MVN}}(X {\bf{\beta}}، \sigma^{2}H) دارم (\phi))$ که ${\bf{Y}}$ مجموعه‌ای از مشاهدات است ${\bf{Y}} = \\{y({\bf{s}}_{1})، y({\bf{s}}_{2})،... ,y({\bf{s}}_{n} )\\}$ و $H(\phi)$ یک ماتریس کوواریانس است $H(\phi) = \rho({\bf{s}}_{i} - {\bf{s}}_{j} ;\phi)$. اکنون می‌خواهم مقدار $y_{0}$ را پیش‌بینی کنم، بنابراین طبق معمول، توزیع پیش‌بینی‌کننده پسین $$p(y_{0}|{\bf{y}}، X، x_{0}) = است. \int p(y_{0}|{\bf{y}}،{\bf{\theta}}، x_0)p({\bf{\theta}}|{\bf{y}}، X)d\theta$$ معمولاً به عنوان محصول $\text{Likelihood} \times \text{Posterior}$ توصیف می‌شود. با این حال، در این مورد، احتمال در ابتدا به عنوان یک نرمال چند متغیره بیان شد، اما من فقط می‌خواهم مقدار $y({\bf{s}})$ را در نقطه‌ای از ${\bf{s}}_{0} پیش‌بینی کنم. $، بنابراین واضح است که من نمی توانم یک نقطه را به عنوان یک نرمال چند متغیره بیان کنم. چه کار کنم؟ به عنوان جایگزین، باید بتوانم از توزیع شرطی $y_{0} | استفاده کنم \bf{Y}$ از توزیع مشترک $\left( y_{0}, {\bf{Y}} \right)$ به روش زیر: $$\left( \begin{array}{ccc} Y_{ 1} \\\ Y_{2} \end{array} \right) \sim N\left(\left( \begin{array}{ccc} \mu_{1} \\\ \mu_{2} \end{array} \right), \left( \begin{array}{ccc} \Omega_{11} & \Omega_{12} \\\ \Omega_{21} & \Omega_{22} \end{array} \right)\right)$$ مشکل اینجاست که این به نوعی با ایده استفاده از $\text{Likelihood} \times \text{Posterior}$ برای توزیع پسین پیش بینی کننده با تشکر
پیش بینی مقدار $y({\bf{s_{0}}})$ با توزیع نرمال چند متغیره
30156
آیا کسی می تواند مانند گرگ توضیح دهد، اما با جزئیات بیشتر، چگونه متغیرهای تصادفی می توانند وابسته باشند اما کوواریانس صفر داشته باشند؟ گرگ، پوستری در اینجا، با استفاده از یک دایره در اینجا مثالی ارائه می دهد. آیا کسی می‌تواند این فرآیند را با جزئیات بیشتر با استفاده از دنباله‌ای از مراحل که فرآیند را در چند مرحله نشان می‌دهد توضیح دهد؟ با تشکر همچنین اگر نمونه ای از روانشناسی می شناسید، لطفاً با مثالی مرتبط با این مفهوم توضیح دهید. لطفاً در توضیحات خود بسیار دقیق و متوالی باشید و همچنین بیان کنید که چه عواقبی ممکن است داشته باشد. متشکرم.
آیا کسی می تواند توضیح دهد که چگونه می تواند وابستگی و کوواریانس صفر وجود داشته باشد؟
110143
من مخلوطی از 3 توزیع نرمال را در داده‌های تبدیل‌شده گزارشی **Y** نصب کرده‌ام، زیرا بسته‌ای که استفاده می‌کنم نمی‌تواند ترکیبی از توزیع‌های لگ نرمال را جا دهد. **سوال من این است: چگونه می توانم pdf را از 3 توزیع عادی به pdf lognormal تبدیل کنم؟** ممنون.
pdf معمولی را به pdf lognormal تبدیل کنید
48938
من حدود 9000 مورد دارم. در هر مورد و در هر سال، مقداری از 0 تا 1 دارم که توزیع رویدادها را توضیح می دهد (برای زمینه دقیق، به سؤال دیگر من مراجعه کنید) داده های نمونه به این شکل هستند > $$ \begin{array}{c|c|c |c} \text{Case}&2002 & 2003 & 2004 & Etc\\\\\hline > \text{#1}& 0.1411 & 0.5421 & 0.6321\\\\\hline \text{#2}& 0.1121 & 0.1522 & > 0.1135\\\\\hline \text{#3}& 0.9122 & 1 & 0.1231\\\\{#hline \t 4}& 0.3331 > & 0.1353 & 0.1243\\\ \end{array} $$ و من می خواهم روند تغییر توزیع این مقادیر را در طول سال ها تجزیه و تحلیل کنم. **در نهایت، چیزی که من امیدوار هستم بفهمم این است که آیا توزیع از متمرکز (مقادیر سلولی بالا) به تقسیم شده (مقدار سلول کم) و بالعکس تغییر می کند.** اما نمی دانم با آمار محدود من از کجا شروع کنم/ دانش ریاضی هر گونه فشار در جهت درست قدردانی می شود!
تجزیه و تحلیل روند در توزیع
65192
من مجموعه ای از داده ها را دارم و آنها را در یک نمودار (در مایکروسافت اکسل) رسم کردم و سپس یک خط روند اضافه کردم. معادله ای که من بدست آوردم $y=833.71x^{-1.448}$ با $R^2=0.9511$ است. برای بدست آوردن $R^2=1$ (100% تناسب) چه کاری باید انجام دهم؟
چگونه می توانم مقدار R-squared 1 (براساس 100٪) را بدست بیاورم؟
83706
من یک جدول احتمالی 4×3 با داده های ترتیبی برای یافته های تحقیقاتی در سل دارم، الگوهای سیتولوژی و الگوهای afb را تجزیه و تحلیل کردم. الگوی سیتولوژیک $A,B,C,D$ (متغیر مستقل) و الگوی afb 1,2,3 (متغیر وابسته) و یک جدول 4x3 با تعداد موارد در سلول مربوطه قرار دهید. از کدام آزمون آماری می توانم استفاده کنم تا بفهمم آیا الگوی A با الگوی afb 1 و الگوی C/D با الگوی afb 3 مرتبط است یا خیر؟ من نمی توانم از مربع کای استفاده کنم زیرا یک سلول هیچ مورد و دو سلول کمتر از 5 مورد دارند
آمار برای یافتن ارتباط بین داده های ترتیبی
65193
تحت شرایط خاص، یک مدل ARMA ثابت است. 1. اما من تعجب کردم که چرا یک مدل ARMA می تواند (همیشه؟) برای مدل سازی یک فرآیند ثابت در سری های زمانی استفاده شود؟ * آیا هر فرآیند ثابت یک فرآیند ARMA است؟ یا، برای هر فرآیند ثابت، آیا فرآیند ARMA s.t وجود دارد. آنها یکسان هستند، یا قانون یکسانی دارند، یا به معنای دیگری یکسان هستند؟ * یا برای هر فرآیند ساکن، آیا دنباله ای از فرآیندهای ARMA وجود دارد که به نوعی با فرآیند ساکن همگرا می شود؟ 2. یا آیا یک فرآیند ثابت وجود دارد که فرآیند ARMA نیست یا نمی توان آن را به عنوان ARMA مدل کرد؟ با تشکر و احترام!
چرا از ARMA برای مدل سازی یک فرآیند ثابت استفاده می شود؟
76205
می‌خواهم بدانم آیا چیزی که می‌خواهم محاسبه کنم، احتمال حضور/غیبت دارد یا نه، و بهترین راه برای انجام آن چیست. من مجموعه ای از امتیازها دارم و هر نقطه 5 همسایه دارد. برای هر نقطه احتمال حضور و همچنین برای 5 نقطه همسایه را می دانم. NPoint1 NPoint2 NPoint3 |POINT| NPoint4 NPoint5 من می خواهم با در نظر گرفتن احتمال و فاصله هر NPoint و همچنین |POINT|، احتمال حضور وزنی را برای |POINT| محاسبه کنم. احتمال
احتمال وزنی از راه دور
19348
من سعی می کنم اطلاعاتی در مورد آزمون روند Mann-Kendall پیدا کنم. من سعی کردم در گوگل تحقیق کنم اما مرجع اصلی که پیدا کردم کتاب روش های همبستگی رتبه نوشته کندال در سال 1976 است. بدیهی است که یافتن این کتاب آسان نیست، بنابراین امیدوارم که بتوانید چند لینک برای یافتن اطلاعات عملی در مورد آن ارائه دهید.
آزمون روند من-کندال
51903
تفاوت بین تحلیل شرطی و رگرسیون لجستیک مشروط چیست؟ همچنین یافتن یک مثال آسان از معنای «شرطی» در این مورد واقعاً دشوار است ...
تحلیل شرطی در مقابل رگرسیون لجستیک مشروط
884
> **تکراری احتمالی:** > چگونه درجات آزادی را درک کنیم؟ چند ماه پیش در یک سخنرانی بودم که در آن سخنران از اصطلاح «درجات آزادی» استفاده کرد. او به طور خلاصه چیزی در امتداد آن به معنای تعداد مقادیری که برای تشکیل یک آمار استفاده می‌شود، گفت که متفاوت است. این به چه معناست؟ من به طور خاص به دنبال یک توضیح شهودی هستم.
درجات آزادی چیست؟
2214
یکی از کاربردهای ادعا شده از تخمینگرهای L، توانایی تخمین قوی پارامترهای یک متغیر تصادفی است که از یک کلاس معین گرفته شده است. یکی از معایب استفاده از توزیع‌های پایدار Levy $\alpha$ این است که تخمین پارامترها با توجه به نمونه‌ای از مشاهدات گرفته‌شده از کلاس دشوار است. آیا کاری در تخمین پارامترهای یک Levy RV با استفاده از برآوردگرهای L انجام شده است؟ یک مشکل آشکار در این واقعیت وجود دارد که PDF و CDF توزیع Levy شکل بسته ای ندارند، اما شاید بتوان با برخی حقه ها بر این مشکل غلبه کرد. هر نکته ای؟
تخمین پارامترهای RV پایدار با مجموع از طریق برآوردگرهای L
78416
ایده درجات آزادی به خوبی در ذهن من وجود دارد، اما فکر می‌کردم آیا ممکن است کسی چند مثال ساده در مورد اینکه چگونه می‌توان تعداد درجات آزادی را تعیین کرد به من ارائه دهد؟ به عنوان مثال: فرض کنید که ما یک نمونه از $n$ مشاهدات $x_1، x_2، ...، x_n$ را به دنبال توزیع داریم. آیا کسی می تواند با این نمونه مثال های مصنوعی از درجات مختلف آزادی بیاورد، بگوید: مثال هایی که درجات آزادی عبارتند از: $$\text{درجات آزادی} = n$$ $$\text{درجات آزادی} = n -1$$$$\text{درجات آزادی} = n-2$$ $$\text{درجات آزادی} = n-3$$ این به درک چگونگی تعداد واقعی درجات آزادی را تعیین می کند. متشکرم! :)
نمونه هایی از درجات آزادی
96501
من نتوانستم هیچ آموزشی در این مورد در یوتیوب یا موارد دیگر پیدا کنم. من در حال تایید یک مدل پیش بینی بالینی هستم و مجموعه ای از نتایج پیش بینی شده و نتیجه واقعی را دارم. من یک منحنی ROC ساخته ام اما می خواهم یک منحنی کالیبراسیون بین % مورد انتظار و % مشاهده شده بسازم. مراحلی که باید طی کنم چیست؟ پیشاپیش ممنون
منحنی کالیبراسیون در spss
19340
در حین مطالعه بازه اطمینان مبتنی بر بوت استرپ، یک بار عبارت زیر را خواندم: > اگر توزیع بوت استرپ به سمت راست منحرف شود، بازه اطمینان مبتنی بر بوت استرپ اصلاحی را برای جابجایی نقاط پایانی حتی > دورتر به راست انجام می دهد. این ممکن است غیر منطقی به نظر برسد، اما این اقدام صحیح است. من در تلاش برای درک منطق زیربنای بیانیه بالا هستم.
فاصله اطمینان مبتنی بر بوت استرپ
88616
من سری زمانی N دارم، فرض کنید $X_{it}، i=1..N$. با فرض اینکه آنها i.i.d هستند، می خواهم N i.i.d تصادفی تولید کنم. سری $X_{it}^*$، که مشابه سری اصلی من $X_{it}$ است. اگر من توزیع مشترک دقیق $X_{it}$ را می دانستم، از مولد اعداد تصادفی برای تولید نمونه N بعدی از آن برای هر تعداد دوره زمانی که لازم بود استفاده می کردم. اگر می‌دانستم حاشیه‌ها نرمال هستند، میانگین و واریانس این حاشیه‌ها و همچنین ماتریس کوواریانس را تخمین می‌زنم و سپس نرمال چندجمله‌ای $\mathcal{N}(\mu,\Sigma)$ را می‌سازم. توزیع مشترک من باشد مشکل این است که من نمی دانم توزیع مشترک من چیست و مطمئن نیستم که آیا همه حاشیه های من نرمال هستند (بعضی از آنها به نظر می رسد). **در این مورد چه کاری انجام می‌دهید؟** راه‌حل فعلی من این است که برخی از توزیع‌های پارامتری را به حاشیه‌ها برازش کنم، ماتریس همبستگی تاو کندال را محاسبه کنم، سپس آن را به کوپول گاوسی وصل کنم تا توزیع مشترک را بدست آوریم. به نظر می رسد خوب است، اما من می خواستم چیز دیگری را امتحان کنم. بنابراین، من به دنبال رویکردهای غیر copula هستم.
چگونه سری های اعداد تصادفی همبسته تولید کنیم؟ توزیع های تجربی غیر گاوسی
65442
من در حال انجام تجزیه و تحلیل اثرات تصادفی بر روی داده های پانل هستم، و نتوانستم پاسخی برای این سوال پیدا کنم که کدام مربع R را باید بررسی کنم: درون، بین یا تصادفی؟ من می دانم که برای جلوه های ثابت باید از درون استفاده کنم، اما برای جلوه های تصادفی چطور؟ من از Stata استفاده می کنم.
درون، بین یا کلی R-square برای اثرات تصادفی در Stata
92505
آیا می توان همبستگی منفی داشت اما خط رگرسیون با افزایش متغیر مستقل تغییر مثبت می کند؟
همبستگی و رگرسیون
2219
**سوال کلی:** با توجه به تخته دارت با شعاع واحد، احتمال اینکه یک دارت به طور تصادفی در دایره ای به شعاع 1/3 در مرکز تخته دارت فرود بیاید چقدر است؟ **پاسخ استاندارد:** دارت به گونه ای پرتاب می شود که به هر نقطه با احتمال مساوی برخورد می کند. احتمال اینکه در دایره داخلی فرود بیاید، نسبت مساحت دو دایره است که 1/9 است. **فرمولاسیون دیگر:** فرض کنید دارت مستقیماً به مرکز تخته دارت پرتاب می شود، اما باد از جهتی تصادفی می آید. برای هر جهت باد، سرعت باد، دارت را مقداری از مرکز تخته دارت به محیط آن هل می‌دهد و هر فاصله به یک اندازه محتمل است. هر بردار باد به یک اندازه محتمل است و برای هر بردار، هر فاصله به همان اندازه محتمل است. احتمال کمتر از 1/3 واحد از مرکز تخته دارت 1/3 است. تعریف تصادفی بودن برای هر فرمول متفاوت است. در پاسخ استاندارد، یک بردار تصادفی از مجموعه ${(x,y)\colon \; x^2+y^2 \leq 1}$ و احتمال این را می‌پرسیم که $x^2 + y^2 \leq \frac{1}{9}$. در فرمول دیگر، یک بردار تصادفی ${(x,y)\colon \; x^2+y^2 = 1}$ و در این بردار، فاصله $d$ به طور یکنواخت در $[0,1]$ انتخاب شده است. احتمال اینکه $d\leq\frac{1}{3}$ باشد را می‌پرسیم. من ریاضی حل این مسئله را درک می‌کنم، اما به طور شهودی نمی‌فهمم که چرا این تصورات مختلف از تصادفی دو پاسخ متفاوت می‌دهند. به نظر می رسد که هر دو ابزار معتبری برای پاسخ به سؤال کلی هستند. به طور شهودی، چرا آنها پاسخ های متفاوتی می دهند؟
دو پاسخ برای مشکل تخته دارت
10996
من می‌خواهم یک مدل مسیر چند مرحله‌ای را آزمایش کنم (به عنوان مثال، A پیش‌بینی می‌کند B، B پیش‌بینی می‌کند C، C پیش‌بینی می‌کند D) که در آن همه متغیرهای من مشاهدات فردی هستند که درون گروه‌ها تودرتو هستند. تا کنون من این کار را از طریق تجزیه و تحلیل چند سطحی منحصر به فرد در R انجام داده ام. ترجیح می دهم از تکنیکی مانند SEM استفاده کنم که به من اجازه می دهد چندین مسیر را همزمان (A -> B -> C -> D) و همچنان به درستی آزمایش کنم. کنترل 2 سطح (افراد در گروه). من می‌دانم که MPLUS می‌تواند از عهده این کار برآید. آیا بسته R وجود دارد که بتوانم از آن استفاده کنم؟
بسته R برای مدل سازی معادلات ساختاری چند سطحی؟
96507
من در حال ساخت یک مدل رگرسیون پویا در Stata هستم که اساساً به این شکل است: $$Y = a_1x_1 + a_2x_2 +... + e$$ که در آن خطای $e$ به عنوان فرآیند ARIMA مدل‌سازی می‌شود. آیا دستوری برای یافتن ترتیب بهینه ARIMA برای خطا وجود دارد؟ در R می توانیم از تابع `auto_arima` برای انجام آن استفاده کنیم. چگونه می توانم این کار را در Stata انجام دهم؟
معادل تابع auto_arima R در Stata
64821
من می‌خواهم داده‌ها را تجزیه و تحلیل کنم تا ببینم آیا سه منطقه در مقادیر خاصی با هم تفاوت دارند یا خیر. اولین مقدار با عبارت مهم است که دولت قوی است و ایمنی را تضمین می کند در مقیاس ترتیبی اندازه گیری می شود (پرسیدن اینکه آیا عبارات با شخصیت آنها مطابقت دارد یا خیر): 1 بسیار شبیه من 2 من را دوست دارم 3 تا حدودی شبیه من 4 کمی شبیه من 5 مثل من نیست 6 اصلاً شبیه من نیست. لازم نیست به عمق موضوع بپردازم، فقط یک پیشنهاد اولیه در مورد اینکه آیا ممکن است اختلافات منطقه ای وجود داشته باشد یا نه کافی است. نمایش بارپلات درصدی از پاسخ دهندگان در یک منطقه که با پاسخ خاصی پاسخ می دهند برای من خیلی قطعی نیست، بنابراین می خواهم یک آزمون معناداری انجام دهم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur .com/amOdQ.png) با این حال، به نظر نمی‌رسد که آمار مناسبی برای این موضوع پیدا کنم. آیا استفاده از Cramer's V (که در واقع برای x اسمی است) اشتباه است یا این بهترین گزینه من است؟
تفاوت های منطقه ای در مقیاس ترتیبی
43029
من یک مجموعه آموزشی با $N$ نمونه‌های $\\{I_1،...I_N\\}$ دارم، که در آن هر جفت نمونه با یک امتیاز شباهت $S(I_x,I_y)\در [0,1] همراه است. $ نشان می دهد که آیا این دو نمونه مشابه هستند یا خیر. من توابع تشابه $M$$\\{S_1,...,S_M\\}$ را توسعه داده ام، که هر کدام بر اساس بردار ویژگی متفاوتی است که من از دو نمونه در جفت $S_m(f_m(I_x) استخراج می کنم. , f_m(I_y))\در [0,1]$. توجه داشته باشید که این توابع شباهت احتمالاً به نوعی با هم مرتبط هستند. با توجه به این توابع و مجموعه آموزشی من، من می خواهم یک تابع پیش بینی شباهت یکپارچه $P$ را یاد بگیرم به طوری که $P=\arg\min_P \|P(I_x,I_j)-S(I_x,I_j)\|^2$ . بهترین راه برای دستیابی به چنین $P$ چیست؟
ترکیب معیارهای شباهت چندگانه
96502
یک حلقه باید ساخته شود تا متناسب با مدل های ARMA و/یا GARCH با ترتیب افزایشی، مثلاً GARCH(0,1)، GARCH(1,0)، GARCH(1,1)، GARCH(0,2) و غیره. زبان r، و من از بسته rugarch استفاده می کنم. در حلقه - بعد از هر مرحله برازش مدل - برخی از اطلاعات gof و غیره باید در یک ماتریس نوشته شوند. ایده این است که مروری بر امیدوار کننده ترین مدل ها داشته باشیم که سپس در مرحله بعدی به صورت جداگانه مورد تجزیه و تحلیل قرار خواهند گرفت. مشکل این است که به محض وجود مشکلات همگرایی با یک مدل خاص، حلقه متوقف می شود. هرچند می‌خواهم این حلقه با مدل بعدی ادامه پیدا کند. کد زیر فقط باید ایده را نشان دهد. در این مثال هیچ مشکل همگرایی وجود ندارد. require('rugarch') rv <- rnorm(2000) # تولید مقداری داده zahl <- 8 # تعداد مدل های مختلف GARCH g_order <- ماتریس(NA,zahl,2) # ماتریس حاوی نمای کلی تنظیمات مدل <- data.frame (ماتریس(NA,zahl,3)) # ماتریس برای ذخیره کردن نام‌های AIC و غیره (نمای کلی)<- c(_،_،AIC) # مدل ها را مشخص کنید: g_order[1,]<-c(0,1) g_order[2,]<-c(1,0) g_order[3,] <-c(1,1) g_order[4,]<-c(2,0) g_order[5,]<-c(0,2) g_order[6,]<-c(1,2) g_order[7,]<-c(2,1) g_order[8,]<-c(2,2) for(i در 1:zahl){ # i <- 1 spec <- ugarchspec( variance.model = list (model = eGARCH، garchOrder = g_order[i,]، submodel = NULL، external.regressors = NULL، variance.targeting = FALSE)، mean.model = list(armaOrder = c(0,0)، external.regressors = NULL)، توزیع.model = norm) tempgarch <- ugarchfit(spec=spec, data=rv ,solver=hybrid ) # نمایش (tempgarch) نمای کلی[i,1]<-g_order[i,1] نمای کلی[i,2]<-g_order[i,2] نمای کلی[i،3]<-infocriteria(tempgarch)[1] } نمای کلی
ساخت باتری تخمینی ARMA یا GARCH برای مدل‌های با مرتبه افزایشی (rugarch در r)
82948
من تجزیه و تحلیل بقا را با داده‌های سانسور شده انجام می‌دهم و می‌خواهم برآوردگر ناپارامتری Turnbull را برای تجزیه و تحلیل متغیرهای کمکی اعمال کنم (پیشنهاد شده توسط Turnbull (1976)). من می خواهم بدانم آیا کسی بسته آماری در R را می شناسد که تخمین منحنی بقا را بر اساس الگوریتم ترنبول تولید کند.
نحوه استفاده از برآوردگر ناپارامتری Turnbull برای داده های سانسور شده در R
34151
آیا می توان همبستگی مثبتی بین یک رگرسیون و یک پاسخ به دست آورد (`+0,43`) و پس از آن ضریب منفی در مدل رگرسیون برازش برای این رگرسیون به دست آورد؟ من در مورد تغییرات در علامت عقبگرد در بین برخی از مدل ها صحبت نمی کنم. علامت ضریب همیشه باقی می ماند. آیا متغیرهای باقی مانده از مدل برازش شده می توانند بر تغییر علامت تأثیر بگذارند؟
همبستگی مثبت و علامت ضریب رگرسیون منفی
64825
آیا انتخاب ویژگی باید فقط روی داده های آموزشی (یا همه داده ها) انجام شود؟ من برخی از بحث ها و مقالاتی مانند Guyon (2003) و Singhi and Liu (2006) را مرور کردم، اما هنوز در مورد پاسخ درست مطمئن نیستم. تنظیم آزمایش من به شرح زیر است: * مجموعه داده: 50 کنترل سالم و 50 بیمار بیماری (حدود 200 ویژگی که می تواند با پیش بینی بیماری مرتبط باشد). * وظیفه تشخیص بیماری بر اساس ویژگی های موجود است. کاری که من انجام می دهم این است که 1. کل مجموعه داده را گرفته و انتخاب ویژگی (FS) را انجام دهم. من فقط ویژگی های انتخاب شده را برای پردازش بیشتر نگه می دارم. 2. تقسیم برای آزمایش و آموزش، طبقه بندی قطار با استفاده از داده های قطار و ویژگی های انتخاب شده. سپس، طبقه‌بندی کننده را برای داده‌های آزمایشی اعمال کنید (دوباره فقط با استفاده از ویژگی‌های انتخاب شده). از اعتبار سنجی ترک یکباره استفاده می شود. 3. به دست آوردن دقت طبقه بندی 4. میانگین: تکرار 1)-3) N بار. $N=50$ (100). من موافقم که انجام FS در کل مجموعه داده می‌تواند کمی سوگیری ایجاد کند، اما نظر من این است که در طول میانگین‌گیری «میانگین» می‌شود (مرحله 4). آیا این درست است؟ (واریانس دقت $<2\%$ است) 1 Guyon, I. (2003) An Introduction to Variable and Feature Selection, The Journal of Machine Learning Research, Vol. 3، ص 1157-1182 2 Singhi, S.K. و لیو، اچ. (2006) سوگیری انتخاب زیرمجموعه ویژگی برای یادگیری طبقه بندی، مجموعه مقالات ICML '06 مجموعه مقالات بیست و سومین کنفرانس بین المللی یادگیری ماشین، صفحات 849-856
آیا انتخاب ویژگی باید فقط روی داده های آموزشی (یا همه داده ها) انجام شود؟
97672
بسته شبکه عصبی R مانند nnet اجازه تعیین متغیرهای تصادفی را نمی دهد. من یک مجموعه داده با اندازه گیری های مکرر از یک موضوع دارم که اثرات تصادفی را مانند مدل های ترکیبی خطی عمومی معرفی می کند. کدام بسته r اجازه اجرای شبکه های عصبی با اثرات تصادفی را می دهد؟ در این مورد معمولاً چگونه با متغیرهای تصادفی برخورد می کنید؟
آیا پکیج r شبکه عصبی برای مدل مختلط وجود دارد؟
64827
من با مدلی با چهار تعدیل کننده کار می کنم (یعنی تعدیل افزایشی چندگانه). اکنون، من می خواهم هر تعامل فردی را تجسم و بررسی کنم. با این حال، برنامه‌هایی مانند PROCESS (هیز) و سایر برنامه‌ها، تنها به یک یا دو ناظر به طور همزمان اجازه می‌دهند (مانند Hayes؛ مدل 2). آیا کسی می تواند توضیح دهد که آیا می توان تعاملات را هنگام کار با بیش از دو ناظر تجسم کرد؟ با تشکر
تجسم جلوه های تعدیل کننده در چندین مدل تعدیل کننده
82955
سوابق من علوم کامپیوتر است. من با روش‌های نمونه‌گیری مونت کارلو نسبتاً تازه کار هستم و اگرچه ریاضیات را می‌دانم، اما به سختی می‌توانم مثال‌های شهودی برای نمونه‌گیری مهم بیاورم. به‌طور دقیق‌تر، آیا کسی می‌تواند نمونه‌هایی از این موارد را ارائه دهد: 1. توزیع اصلی که نمی‌توان از آن نمونه‌برداری کرد اما می‌توان تخمین زد. پیشاپیش متشکرم
نمونه های شهودی از نمونه گیری اهمیت
87518
فرض کنید باید یک فاصله کلاسی 5 بگیریم. از فرم 45 شروع کنیم، کلاس های صحیح من چه خواهد بود؟ 45-50،51-56،57-62 یا 45-49،50-54،55-59
ابهام فاصله کلاس
82946
در مدل‌های پیچیده بیزی، مانند یک مدل ناپارامتری سلسله مراتبی، اغلب اوقات انجام گیبس یا سایر روش‌های نمونه‌گیری MCMC برای همگرایی غیرقابل حل است. در عوض، افراد تمایل دارند استنتاج تغییراتی انجام دهند و از حداکثر کردن انتظارات برای یافتن پارامترهای MAP تقریبی استفاده کنند. آیا دلیلی وجود دارد که مردم از الگوریتم جستجوی محلی مانند EM به جای الگوریتم جستجوی جهانی مانند CMA-ES استفاده کنند؟ به نظر می رسد که دومی به تلاش بسیار کمتری نیاز دارد زیرا شما نیازی به استخراج مراحل E و M ندارید.
اپراتورهای جستجوی جهانی برای استنتاج تقریبی MAP؟
88171
ما یک فرآیند عادی دو متغیره داریم که در آن $X \sim N(\mu_x، \sigma)، \، Y \sim N(\mu_y، \sigma)$، بدون کوواریانس. $(\mu_x، \mu_y)$ ناشناخته هستند. (برای راحتی، می‌توانیم ادعا کنیم که $\sigma = 1$، یا تخمین خوبی برای ارزش آن داریم.) ما سعی می‌کنیم فاصله بین مرکز نمونه خود و مرکز واقعی $(\mu_x, \mu_y)$ را مشخص کنیم. به عنوان تابعی از عکس های نمونه برداری شده _n_. از آنجایی که ما به مکان مرکز واقعی اهمیت نمی دهیم، فقط به فاصله خود از آن اهمیت می دهیم، اظهار می کنیم که $\mu_x = \mu_y = 0$ و به متغیر تصادفی $R(n) = \sqrt{\overline{ نگاه می کنیم. x_i}^2 + \overline{y_i}^2}$ -- فاصله بین مرکز نمونه و مرکز واقعی. **سوال:** چگونه می توانیم فاصله اطمینان _R(n)_ را مشخص کنیم؟ توجه داشته باشید که $R(n) \ge 0$ و $E[R(n)] \to 0$ به عنوان $n \to \infty$ من برآوردهای مونت کارلو از میانگین و انحراف استاندارد _R(n)_ دارم. برای _n_ کوچک. من می خواهم سطوح اطمینان و فواصل برای _R(n)_ را محاسبه کنم. به عنوان مثال، با توجه به _n_ و سطح اطمینان 90 درصد، میانگین فاصله اطمینان یک نمونه _R(n)_ در مورد جمعیت آن چقدر است؟ من معتقد نیستم که این قابل تجزیه و تحلیل CLT باشد زیرا مقادیر در 0 محدود می شوند. فکر می کنم می توانم مونت کارلو edf را داشته باشم زیرا من فقط به $n \in [2, 30]$ علاقه مند هستم و edf باید مقیاس شود. با $\sigma$ یا $\sigma^2$. اما ابتدا می‌خواهم مطمئن شوم که چیزی واضح یا یک عبارت بسته شناخته شده را از دست نمی‌دهم.
فاصله اطمینان برای فاصله از مرکز
96500
آیا این درست است که با توجه به اندازه نمونه ثابت N، می توان گفت که برخی از معیارهای اندازه اثر و اندازه گیری اهمیت آماری (مثلاً 1-p) متناسب هستند؟ به عبارت دیگر، هنگام ثابت نگه داشتن اندازه نمونه، برای رسیدن به اهمیت، باید سعی کنید اثری را ثابت کنید که به اندازه کافی بزرگ است. و آیا درست است که (به طور ساده) رابطه بین سه مفهوم (اندازه اثر، اندازه نمونه و اهمیت آماری) را با نمودار زیر خلاصه کنیم، که اساساً ضرب المثل قدیمی با حجم نمونه بزرگ، اثرات کوچک معنی دار می شوند را توصیف می کند. سوال خلاصه گراف](http://i.stack.imgur.com/as7L6.jpg)
تناسب اهمیت و اندازه اثر
16921
از ویکی پدیا، سه تفسیر از درجات آزادی یک آمار وجود دارد: > در آمار، تعداد درجات آزادی، تعداد مقادیری است که در > **محاسبه نهایی** یک آمار وجود دارد که **آزاد برای تغییر هستند. **. برآورد پارامترهای آماری می تواند بر اساس مقادیر مختلف اطلاعات یا داده ها باشد. تعداد **اطلاعات مستقل** > که در تخمین یک پارامتر قرار می گیرند، درجات آزادی > (df) نامیده می شود. به طور کلی، درجات آزادی تخمین یک پارامتر > برابر است با **تعداد امتیازهای مستقلی که در تخمین قرار می گیرند** > منهای **تعداد پارامترهایی که به عنوان مراحل میانی در > تخمین پارامتر استفاده می شوند. خود** (که در واریانس نمونه یک است، > زیرا میانگین نمونه تنها مرحله میانی است). > > از نظر ریاضی، درجات آزادی **بعد دامنه یک > بردار تصادفی**، یا اساساً **تعداد مؤلفه‌های «آزاد» است: قبل از تعیین کامل بردار، چند > مؤلفه باید شناخته شود* *. کلمات پررنگ همان چیزی است که من کاملاً نمی فهمم. در صورت امکان، برخی از فرمول های ریاضی به روشن شدن مفهوم کمک می کند. همچنین آیا این سه تفسیر با یکدیگر همخوانی دارند؟
چگونه درجات آزادی را درک کنیم؟