_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
86250 | من دو چگالی نرمال چند متغیره دارم و آنها را با ماتریس _precision_ پارامتر می کنم (یعنی ماتریس کوواریانس معکوس). یکی از آنها دارای یک ماتریس دقیق پراکنده و دیگری دارای یک فرم ماتریس دقیق ساده با عناصر غیر صفر فقط در امتداد ماتریس مورب است. بنابراین، به صورت زیر داریم: $$ A = N(\mu_1، \Sigma_1) \\\ B = N(\mu_2، \Sigma_2) $$، ماتریسهای دقیق $\Sigma$ هستند. اکنون می توانم چگالی MVN جدیدی را به عنوان حاصلضرب این دو با دقت جدید $\Sigma$ محاسبه کنم: $$ \Sigma = \Sigma_1 + \Sigma_2 $$ بنابراین، دقت ها را فقط می توان اضافه کرد. با این حال، برای محاسبه میانگین این گاوسی جدید، باید $\Sigma$ را معکوس کنم، که مشکل ساز است زیرا کاملاً پراکنده است. سوال من این است که با توجه به اینکه یکی از ماتریس ها یک ماتریس مورب است، آیا می توانم از ساده سازی/ترفندی برای محاسبه میانگین چگالی گاوسی جدید استفاده کنم. همچنین، برای محاسبه عادی سازی این چگالی جدید، به سادگی این است: $$ Z = \frac{det(\Sigma)^{\frac{1}{2}}}{2\pi^{\frac{n} {2}}} $$ که $n$ تعداد اجزای MVN است. | آیا می توانم حاصل ضرب این دو چگالی نرمال چند متغیره را به روشی ساده محاسبه کنم؟ |
17614 | آیا می توان از اصطلاحات LDA (تحلیل متمایز خطی) و GDA (تحلیل تشخیصی گاوسی) به جای یکدیگر استفاده کرد؟ آیا آنها اغلب به یک چیز اشاره می کنند؟ | اصطلاحات GDA و LDA |
35905 | سوال مرتبط من پروژه ای دارم که علیرغم اینکه می توانم برخی از مدل های پارامتریک را در LIFEREG پیاده سازی کنم، انجام آن در NLMIXED تا حدودی راحت تر است. با تأیید اینکه این تکنیک کار می کند، من سعی کردم یک استاندارد AFT بسیار باتلاقی Weibull را به شرح زیر پیاده سازی کنم: data work.data; call streaminit(123); i = 1 تا 1000; x = rand('BERN', 0.10); *10٪ در معرض; t1 = rand('Weibull', 1, 20*(exp(-0.500*x))); t2 = t1; وزن = 1; خروجی پایان؛ اجرا؛ PROC NLMIXED data=work.data fd; parms alpha=1 f0=-1 f1=0; کرانه آلفا> 0; *نرخ x; lam=exp(-(f0*alpha+f1*alpha*x)); * چگالی x; ff1=alpha*lam*t1**(alpha-1)*exp(-lam*t1**alpha); *احتمال ورود به سیستم؛ logl=log(ff1); *احتمال ثبت وزن. wlogl=logl*weight; مدل t1~ general(wlogl); ods پارامترهای iterhistory را حذف می کند. اجرا؛ ترک کردن اجرا؛ proc lifereg data=work.data; مدل (t1, t2) = x / D = WEIBUL; وزن وزن؛ اجرا؛ این به صورت شنا عمل می کند. هر دو LIFEREG و NLMIXED تخمین های مشابهی را ارائه می دهند و همه چیز در جهان درست است. آزمایش آن برای یک مدل Log-Normal AFT اما با استفاده از اصلاحات زیر به خوبی کار نمی کند: PROC NLMIXED data=work.data fd; parms sigma=1 g0=-1 g1=0; کرانه سیگما> 0; *نرخ X; mu=exp(g0+g1*x); * چگالی X; fg1 = exp(-0.5*((log(t1)-mu)/sigma)**2)/((t1*(2*CONSTANT('PI'))**0.5)*sigma); *احتمال ورود به سیستم؛ logl=log(fg1); *احتمال ثبت وزن. wlogl=logl*weight; تخمین RT NDD exp(g1); مدل x~general(wlogl); ods پارامترهای iterhistory را حذف می کند. اجرا؛ proc lifereg data=work.data; مدل (t1, t2) = x / D = Lnormal; وزن وزن;دویدن; در اینجا، در حالی که هر دو مدل مقیاس را به عنوان یک عدد (1.2676) تخمین میزنند، تخمینها برای رهگیری (g0) و x (g1) به شدت کاهش یافته است. در NLMIXED آنها به ترتیب 0.8747 و -0.1419 هستند، در حالی که در LIFEREG 2.3981 و -0.3172 هستند. هیچ ایده ای دارید که چه اتفاقی می افتد؟ | PROC NLMIXED و PROC LIFEREG برای تابع بقای Log-normal به یک پاسخ نمی رسند |
77019 | نابرابری: $$\Pr(\overline X - \mathrm{E}[\overline X] \geq t) \leq \exp \left( - \frac{2n^2t^2}{\sum_{i=1 }^n (b_i - a_i)^2} \right)$$ آیا این بند (یا هر شکل دیگری از هویفتینگ) به هر معنی محکم است؟ به عنوان مثال آیا توزیعی وجود دارد که کران آن بیش از مضرب ثابت احتمال واقعی برای هر n نباشد؟ | آیا Hoeffding به هیچ وجه محکم است؟ |
86871 | من علاقه مند به محاسبه توان برای اندازه جلوه بتا هستم، برای مثال Call: lm(فرمول = log1p(y) ~ x) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -0.5684 -0.1881 -0.0413 0.1494 1.2312 ضرایب برآورد: برآورد خطای t مقدار Pr(>|t|) (Intercept) 0.59725 0.02460 24.279 <2e-16 *** x -0.06087 0.05514 -1.104 0.27 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.2551 در 1667 درجه آزادی چندگانه R-squared: 0.0007306، تنظیم شده R-2001: آمار: 1.219 در 1 و 1667 DF، p-value: 0.2697 بنابراین، بتا (اندازه اثر) برای x در اینجا 0.06087- است. آیا می توانم قدرت تشخیص اندازه اثر جریان را با سطح معنی دار دو دنباله 0.05 در معادله زیر محاسبه کنم Z(power)=abs(beta)/se-1.96=0.06087/0.05514-1.96=-0.85 Power=pnorm(Z( قدرت)) = 0.196 بنابراین می توانم بگویم با حجم نمونه فعلی، من 20٪ قدرت برای تشخیص ارتباط معنی دار بین x دارم. و y با اندازه اثر فعلی. | R: محاسبه توان برای ضریب بتا |
13505 | من 3 یا 4 لیست (واقعاً جداول؟ اما read.csv لیست ها را به من می دهد) ایجاد می کنم که همه آنها با یک ستون Time مشابه در سمت چپ سمت چپ هستند. من باید ستون زمان را قالب بندی کنم زیرا همه آنها آن را به روش خودشان قالب بندی می کنند (بعضی از جمله تاریخ ها و غیره)، حالا می دانم که آیا باید آن را به جای HH:MM:SS.mm در # ثانیه قالب بندی کنم. من فکر کردم که قالب بندی را ذکر کنم زیرا می تواند روی سؤال تأثیر بگذارد. حالا چگونه می توانم 3 لیست را به رسم بقیه ستون های خود در امتداد ستون زمان برسانم، 3 لیست لزوماً زمان های یکسانی در ردیف ها ندارند. آنها قطعا تعداد ستون های مشابهی ندارند. برخی از ستون ها عددی هستند، برخی دیگر عددی نیستند. بنابراین این یک نوع اینفوگرافیک است که در آن نیست (من به این فکر میکردم که روی اطلاعات متن نمایش داده شود یا فقط آن را چاپ کنید)، و اگر ستون عددی باشد، یک نمودار xy (در حال حاضر) است. آیا این معنی دارد؟ در اینجا نمونه هایی از لیست آورده شده است. لیست 1 رویداد زمانی 12:00:01.00 برخی رویدادها فهرست 2 اطلاعات زمان بیشتر ستون ها 12:01:11.45 برخی اطلاعات اطلاعات بیشتر در این زمان فهرست 3 خطاهای صفحه زمان/ثانیه 12:05:37.88 120 من تازه وارد آمار هستم بنابراین من فقط تصویری مناسب از این لیست ها را می خواهید. | ترسیم n تعداد لیست در امتداد یک دامنه در R |
47224 | من یک داده نظرسنجی دارم که شامل دو نمونه از دو جمعیت (یا یک جمعیت اما در سری های زمانی متفاوت) است. بر اساس این دو نمونه، من می خواهم کل و فواصل اطمینان آن را برای هر جامعه تخمین بزنم. از آنجایی که توزیع نمونه من بسیار کج است و هر دو اندازه نمونه کوچک هستند. روش پیشنهادی این است که ابتدا log-transform را به داده های اصلی اعمال کنید و CI را در دامنه log محاسبه کنید. با این حال، از آنجایی که log-transform غیرخطی است، متوجه شدم که در دامنه اصلی sum(sample_1)>sum(sample_2)، در حالی که در log دامنه sum (log(sample_1)) از مجموع (log(sample_2)) کوچکتر است. آیا کسی می تواند به من در این شرایط کمک کند؟ آیا هنوز از داده ها در دامنه ورود استفاده می کنم؟ اگر هدف از مطالعه مقایسه کل، یا حتی بیشتر استفاده از داده ها در پیش بینی باشد، استفاده از دامنه اصلی و log نتایج متفاوتی به همراه خواهد داشت؟ با تشکر | استفاده از تبدیل log-transformation هنگام مقایسه دو جمعیت |
86872 | من در حال انجام تجزیه و تحلیل رگرسیون لجستیک (رویدادهای نادر) در R هستم و میخواهم چندین متغیر طبقهبندی شامل بیش از دو کلاس را آزمایش کنم. فهمیدم که می توانم این کار را با استفاده از factor() انجام دهم. با این حال، من مطمئن نیستم که در صورتی که برخی، اما همه دسته ها مهم نیستند، چه کاری انجام دهم. آیا می توانم (1) آنهایی را که معنی دار نیستند، با فرض ضرایب برابر 0 کنار بگذارم، یا (2) آیا باید همه آنها را در مدل لحاظ کنم، یا (3) آیا باید به نحوی مدل رگرسیون لجستیک را مجدداً تنظیم کنم؟ فقط با آدمک های مهم؟ پیشاپیش متشکرم | رگرسیون لجستیک: اگر فقط برخی از کلاسهای یک متغیر طبقهبندی معنادار به نظر برسند |
108302 | من رگرسیون خطی چندگانه را با R. mod=lm(varP ~ var1 +var2+var3+var4) اجرا می کنم: همه: lm(فرمول = varP ~ var1 + var2 + var3 + var4) باقیمانده ها: حداقل 1Q میانه 3Q Max -4.9262 -0.6985 0.0472 0.7319 4.3305 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (فاصله) 0.700823 0.084737 8.271 1.45e-15 *** var1 1.080172 0.175348 6.160 1.59e-09 *** var2 -0.070 -0.707 5.25e-13 *** var3 -9.924772 4.268235 -2.325 0.0205 * var4 -0.015104 0.001290 -11.710 < 2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 1.139 در 460 درجه آزادی، R-squared چندگانه: 0.657، R-squared تنظیم شده: 0.654 F-آمار: 220.3 در 4 و 460 DF، p-value: < 2.2e-1 مدل من 65.4 درصد از واریانس را توضیح می دهد. اما اکنون، من می خواهم اهمیت هر پیش بینی کننده را تعیین کنم. من استفاده می کردم: lm.sumSquares(mod) آیا dR-sqr برای تفسیر این اهمیت مرتبط است؟ SS dR-sqr pEta-sqr df F P-value (Intercept) 88.73054 0.0510 0.1294 1 68.4015 0.0000 var4 177.88026 0.1022 0.2132020.21296. 71.65234 0.0412 0.1072 1 55.2361 0.0000 var1 49.22579 0.0283 0.0762 1 37.9477 0.0000 var3 7.01377 0.000 0.01377 7.01377 0.000 0.0205 خطا (SSE) 596.71237 NA NA 460 NA NA مجموع (SST) 1739.76088 NA NA NA NA NA | اهمیت متغیرهای پیش بینی کننده در رگرسیون خطی چندگانه |
13509 | من سعی میکنم تصمیم بگیرم که آیا سم بادشده صفر برای دادههای من در مقابل مدل مانع پواسون مناسب است یا خیر. در خواندن پسزمینه بین این دو، من با بیانیهای برخورد کردم که میگوید یک مدل بادشده صفر سعی میکند بین صفرهای واقعی و صفرهای اضافی تمایز قائل شود. من در درک تفاوت بین این دو صفر مشکل دارم. آیا کسی می تواند توضیح دهد که این دو نوع صفر در زمینه مدل سازی صفر تورم به چه معنا هستند؟ | مدلهای بادشده صفر - «صفر واقعی» در مقابل «صفر اضافی» |
88282 | من یک ماتریس بسامد کلمه بزرگ دارم (~ 6 میلیون کلمه منحصر به فرد X ~ 4k اسناد) و سعی می کنم از تجزیه مقادیر تکین کوتاه شده (SVD) استفاده کنم تا آن را بر روی ماتریسی با ابعاد کمتر نمایش دهم. من میدانم چگونه به $[U_{k}، S_{k}، V_{k}']$ برسم، اما نمیدانم چه کار کنم. هر آموزشی که پیدا می کنم پاسخ متفاوتی به من می دهد. برای مثال، در اینجا، به من گفته می شود که فقط ردیف های $k$ اول $S_{k}$ و $V_{k}'$ را حفظ کنم و سپس $S_{k}V_{k}'$ را ضرب کنم. با این حال، در اجرای scikit-learn، آنها این کار را با ضرب $U_{k}S_{k}'$ (فرمول و کد) انجام میدهند. (فصل کتابی که آنها به عنوان منبع ذکر میکنند چیزی در این مورد نمیگوید.) در این پاسخ قبلی، آنها به جای آن $X'U_{k}$ را پیشنهاد میکنند (اگرچه در مورد PCA صحبت میکنند، بنابراین شاید این مورد در اینجا صدق نمیکند). پاسخهای دیگر کمکی نکردهاند (مثلاً در اینجا میگویند که باید SVD کوتاهشده را به ماتریس کاهشیافته اعمال کنیم - که درست به نظر نمیرسد، ما دقیقاً برای رسیدن به ماتریس کاهشیافته از SVD کوتاهشده استفاده میکنیم، نه؟). بنابراین، خط پایانی: چگونه از $[U_{k}، S_{k}، V_{k}']$ به یک ماتریس داده کاهش یافته بروم؟ کدام یک از فرمول های بالا درست است (و چرا)؟ فقط برای واضح بودن: من فقط به دنبال کاهش رتبه نیستم (که می توانم با ضرب $U_{k}S_{k}V_{k}'$ انجام دهم، اما دقیقا همان ابعادی را به من می دهد که قبلا داشتم، که این کار را نمی کند. به من کمک نکن) من می خواهم ابعاد واقعی ماتریس داده را کاهش دهم. | SVD کوتاه شده: چگونه از [Uk, Sk, Vk'] به ماتریس با ابعاد پایین بروم؟ |
17617 | من یک مدل 3 سطحی را در Bugs نصب می کنم. داده ها در قالب طولانی هستند. داده ها شامل 885 درمان در 1:3 دوره درمان در 108 بیمار (MRNs) است. model{ for(DMRN در 1:NMRN) { RMRN[DMRN] ~ dnorm(MeanMRN[DMRN], TMRN) meanMRN[DMRN] <- intercept for(DCOURSE در SMRN[DMRN]:(SMRN[DMRN+1]-1 )){ RCOURSE[DCOURSE] ~ dnorm(meanCOURSE[DCOURSE], TCOURSE) meanCourSE[DCOURSE] <- RMRN[DMRN] for(Dobservations in SCOURSE[DCOURSE]:(SCOURSE[DCOURSE+1]-1)){ totalEEG[Dobservations] ~ dpoisservations[DCOURSE] ]) log(meanobservations[Dobservations]) <- RCOURSE[DCOURSE] +inprod(betaobservations[] , Xobservations[Dobservations,]) }#observations }#COURSE }#MRN # priors intercept ~ dflat() betaobservations[1] () ~ dflat مشاهدات بتا[2] ~ dflat() betaobservations[3] ~ dflat() TMRN <- pow(SDMRN, -2) SDMRN ~ dunif(0, 100) TCOURSE <- pow(SDCOURSE, -2) SDCOURSE ~ dunif(0, 100) } # مدل من نگران هستم که متغیرهای کمکی من در مدل - یکی از آنها (سن) فقط در بالا متفاوت است سطح - در قالب طولانی تکرار می شوند و بنابراین در BUGS بیشتر شمارش می شوند و به من توزیع های پسینی دقیق و جعلی می دهند. با این حال، بدیهی است که هیچ گونه تغییری در پایین ترین سطح (در داخل بیمار) ایجاد نمی کند. bgs.toteeg<-glmmBUGS(formula = totalDuration ~ AnaDose+ AgeYrs + log.workDose, effect=c(MRN, COURSE), family=poisson, data=book, modelFile=model.bug) منبع (getInits.R) startingValues=bgs.toteeg$startingValues myResult = اشکالات (bgs.toteeg$ragged، getInits، model.file = model.bug، n.chain = 3، n.iter = 10000، n.burnin = 1000، parameters.to.save = names(getInits()) ,n.thin = 10, debug=T) AgeYrs به عنوان یک متغیر در اینجا گنجانده شده است اما بدیهی است در درمان بیمار متفاوت نیست، بلکه فقط بین بیماران متفاوت است. همه متغیرهای کمکی دیگر مقادیر متفاوتی برای هر درمان هستند. نتایج در R عبارتند از: > mysummary$scalars[, c(mean، 2.5%،97.5%)] mean 2.5% 97.5% intercept 3.36308519 3.220175000 3.473550 SDCOURSE 0.0717060.04 0.094267 SDMRN 0.31222407 0.265697500 0.357700 > signif(mysummary$betas[, c(mean،2.5%، 97.5%)]، 3) mean 2.5% H06K3050-97.50% 0.14200 AgeYrs 0.0027 0.00162 0.00407 log.workDose 0.0457 0.03170 0.06000 چگونه این مدل از تکرار کاذب اقدامات مکرر جلوگیری می کند که در این مورد، دقیقاً در بین درمان های بیمار یکسان است، اما فقط در سطح CSE بین بیماران متفاوت است. تغییرپذیری کم یا بدون، در سطح بیمار وجود خواهد داشت، تنوع بر اساس:  همچنین در اینجا همان مدل متناسب با ML در lmer: مدل ترکیبی خطی متناسب با REML فرمول: totalEEG ~ AgeYrs + MHXKG + log.workDose + (1 | MRN/COURSE) داده ها: کتاب AIC BIC logLik deviance REMLdev 7015 7048 -3500 7006 7001 اثرات تصادفی: نام گروه ها Variance Std.Dev. COURSE:MRN (Intercept) 2.7923e-11 5.2842e-06 MRN (Intercept) 1.8464e+02 1.3588e+01 Residual 2.4688e+02 1.5713e+01 1.5713e+01 تعداد obs:M1,R4:N11:M,R8:M MRN، 103 اثرات ثابت: برآورد Std. خطای t مقدار (Intercept) 31.12003 7.35545 4.231 AgeYrs 0.10522 0.05946 1.769 MHXKG 4.57064 3.71167 1.231 log.workDose 1.146 1.146 جلوههای ثابت: (Intr) AgeYrs MHXKG AgeYrs -0.504 MHXKG -0.562 0.002 log.workDos -0.671 -0.006 0.093 و در اینجا مدلی وجود دارد که تا آنجایی که من میتوانم ببینم سن فقط در سطح بیمار متفاوت است. متناسب با Stata: . xtmixed totalEEG MHXKG workDose، || MRN: AgeYrs، کوواریانس (قابل تعویض) انجام بهینه سازی EM: خطاهای استاندارد محاسبه: رگرسیون REML با اثرات مختلط تعداد obs = 817 متغیر گروه: MRN تعداد گروه ها = 103 Obs در هر گروه: حداقل = 1 میانگین = 7.9 Waldchi = 31 (2) = 10.60 ورود احتمال محدود = -3504.9961 Prob > chi2 = 0.0050 --------------------------------------- --------------------------------------- totalEEG | Coef. Std. اشتباه z P>| | آیا مدلسازی چندسطحی من همانندسازی کاذب و دقت جعلی در بالاترین سطح ایجاد می کند؟ |
83061 | بنابراین من در حال حفاری در ریاضیات همبستگیها و کوواریانسها بودهام و یکی از مقالاتم به یافتن کوواریانس با استفاده از مؤلفه مشترک، بهویژه در رابطه با مثلاً $cov(A + B، C + B)$ اشاره کرد. من می دانم که $$Cov(A + B, C + D) = cov(A, C) + cov(A, D) + cov(B, C) + cov(B, D)$$ اما به نظر می رسد که وجود دارد در این مورد سادهسازی خواهد بود، اما من نمیدانم که چگونه استفاده از مولفه مشترک وارد عمل میشود. هر اشاره ای؟ | کوواریانس با یک اصطلاح رایج |
26914 | من یک مدل رگرسیون خطی ساده را از اندازه گیری های آزمایشی خود محاسبه کردم تا بتوانم پیش بینی کنم. خواندهام که نباید پیشبینیهایی را برای نقاطی که خیلی از دادههای موجود فاصله دارند محاسبه کنید. با این حال، من نتوانستم راهنمایی پیدا کنم که به من کمک کند تا بدانم تا چه حد می توانم تعمیم دهم. به عنوان مثال، اگر من سرعت خواندن را برای یک دیسک 50 گیگابایتی محاسبه کنم، حدس میزنم نتیجه به واقعیت نزدیک باشد. در مورد اندازه دیسک 100 گیگابایتی، 500 گیگابایتی چطور؟ چگونه بفهمم که پیش بینی های من به واقعیت نزدیک است؟ جزئیات آزمایش من عبارتند از: > من در حال اندازه گیری سرعت خواندن یک نرم افزار با استفاده از اندازه های مختلف دیسک هستم. > تاکنون با افزایش اندازه دیسک از 5 گیگابایت بین آزمایشها (مجموعاً 6 اندازه) آن را با 5 تا 30 گیگابایت اندازهگیری کردهام. به نظر من نتایج من خطی هستند و خطاهای استاندارد کوچک هستند. | استفاده از مدل رگرسیون برای پیش بینی: چه زمانی متوقف شود؟ |
77018 | تعریف کوتاه تقویت: > آیا مجموعه ای از یادگیرندگان ضعیف می توانند یک یادگیرنده قوی ایجاد کنند؟ یک یادگیرنده ضعیف به عنوان طبقهبندیکنندهای تعریف میشود که فقط کمی با طبقهبندی درست مرتبط است (میتواند نمونهها را بهتر از حدس زدن تصادفی برچسبگذاری کند). تعریف کوتاه Random Forest: > Random Forests درختان طبقه بندی زیادی را رشد می دهد. برای طبقه بندی یک شی جدید > از یک بردار ورودی، بردار ورودی را در پایین هر یک از درختان جنگل > قرار دهید. هر درخت یک طبقه بندی می دهد و می گوییم درخت به آن کلاس «رای می دهد». جنگل ردهبندی را انتخاب میکند که بیشترین آرا را داشته باشد > (از بین همه درختان جنگل). یک تعریف کوتاه دیگر از جنگل تصادفی: > جنگل تصادفی یک برآوردگر متا است که تعدادی از درخت تصمیم > طبقه بندی کننده ها را بر روی نمونه های فرعی مختلف مجموعه داده قرار می دهد و از میانگین برای بهبود دقت پیش بینی و کنترل بیش از حد برازش استفاده می کند. همانطور که میدانم Random Forest یک الگوریتم تقویتکننده است که از درختها به عنوان طبقهبندیکننده ضعیف خود استفاده میکند. می دانم که از تکنیک های دیگری نیز استفاده می کند و آنها را بهبود می بخشد. کسی من را تصحیح کرد که Random Forest یک الگوریتم تقویت کننده نیست؟ آیا کسی می تواند در این مورد توضیح دهد، چرا Random Forest یک الگوریتم تقویت کننده نیست؟ | Random Forest، آیا این یک الگوریتم تقویت کننده است؟ |
19758 | آیا مقاله/کتاب درسی وجود دارد که توزیعهای احتمال را روی توابع درست مانند کتابهای درسی پایه، توزیعهای کلاسیک را برای متغیرهای اسکالر پوشش دهد؟ فرض کنید تابع تصادفی $f$ دارای یک توزیع فرآیند گاوسی با مقداری تابع میانگین $m$ و تابع کوواریانس $w$ است. من می دانم که چگونه انحرافات تصادفی (عملکردی) را از آن توزیع ایجاد کنم. به عنوان مثال، آنچه من می خواهم بدانم تابع دیگری $g$ داده می شود (که می تواند در تعداد دلخواه نقاط در همان محدوده نسبت به جایی که $f$ تعریف شده است ارزیابی شود)، احتمال اینکه $g$ یا یک تابع شدیدتر از توزیع $f$ گرفته شده است. باید راهی برای تعریف تابع توزیع تجمعی و تابع چگالی احتمال برای توابع وجود داشته باشد! | منابع در مورد توزیع های تابعی |
80156 | من سعی می کنم برخی از داده های توزیع شده دوجمله ای را در یک مدل قرار دهم. یک خطای سیستماتیک معقول مرتبط با اندازه گیری ها وجود دارد. این عدم قطعیت ناشی از دانش نظری ناقص یکی از پارامترهای فرض شده توسط مدل است. من می توانم این عدد را با 3 یا 4 روش مختلف محاسبه کنم و عدم قطعیت را مدل کنم. مدل کاملاً پیچیده است و خود تابعی از حدود 10 پارامتر آزمایش و همچنین روش محاسبه است. چیزی که من نمی دانم این است که چگونه می توان این را در عبارت تخمین حداکثر احتمال دوجمله ای ادغام کرد. بنابراین مدل من بدون سیستماتیک $$ L(\theta | x, k) = \Pi_i^N p(\theta, x_i)^{k_i}(1-p(\theta, x_i))^{(n_i- k_i است )}$$ من فرض میکنم که این نوعی عامل ضربکننده است، بنابراین در نهایت به $$ L(\theta | x, k) = \Pi_i^N میرسم p(\theta, x_i)^{k_i}(1-p(\theta, x_i))^{(n_i-k_i)}\times L(syst)$$ آیا یک روش کلی برای ایجاد یک مدل عدم قطعیت سیستماتیک وجود دارد یک MLE به حداقل رساندن/به حداکثر رساندن؟ به طور خاص تر آیا راهی برای وزن دهی سهم های مختلف به مدل خطای سیستماتیک وجود دارد؟ هر پاسخی که به سوال بالا من بدهد، من گمان میکنم که در نهایت با یک بیان حداکثر احتمال دوجملهای که توسط یک مدل خطای سیستماتیک بیزی ضرب شده است، به پایان خواهم رسید. آیا چنین رویکرد ترکیبی به هر حال نامعتبر خواهد بود؟ | ترکیب عدم قطعیت سیستماتیک در تخمین بازه |
78618 | اگر پارامتر p ~ بتا (1،1) باشد، این نشان می دهد که ما چیزی در مورد پارامتر $p$ نمی دانیم. تعمیم به حالت چند متغیره، چگونه می توان همین را در مورد یک بردار $P$ از پارامترهای احتمال $p_i$ گفت؟ | معادل دیریکله یک توزیع بتا (1،1) چیست؟ |
17616 | در ESL، بخش 9.7، یک پاراگراف وجود دارد که بیان میکند که زمان محاسبه یک تقسیم در رشد درخت طبقهبندی (یا رگرسیون) _معمولا_ مقیاس میشود مانند $p N \log N$ که $p$ تعداد پیشبینیکنندهها و $ است. N$ تعداد نمونه ها است. یک رویکرد ساده لوحانه منجر به مقیاسبندی $pN^2$ میشود، و من نتوانستهام هیچ مرجعی به ادبیاتی پیدا کنم که جزئیات بخش تقسیم الگوریتم و نحوه دستیابی به یک _typical_ $p N \log N را توضیح دهد. مقیاس بندی دلار در رویکرد ساده لوحانه، تقسیم بهینه برای یک متغیر معین، پس از ترتیب اولیه مقادیر مشاهده شده، در میان نقاط میانی $N-1$ بین مقادیر مشاهده شده جستجو می شود، و محاسبه ضرر برای هر تقسیم می تواند در زمانی انجام شود که مقیاس می شود. مانند $N$. من میتوانم (و احتمالاً) کد منبع را برای برخی از پیادهسازیهایی که میشناسم مطالعه کنم، اما یک مرجع ادبیات بهویژه با توجه به پیچیدگی زمانی، خوب خواهد بود $-$. | ادبیات در مورد الگوریتم برای تقسیم بهینه در رشد درختان طبقه بندی |
101501 | بهترین تناسب داده من توزیع گامای معکوس 3 پارامتری است (به این ترتیب متغیرهای a، b، y با هر رویداد دارای مقدار خاصی برای هر متغیر است) اما مطمئن نیستم چگونه یک معادله کلی برای این معادله ایجاد کنم... میانگین هر متغیر؟ یا روش دیگری وجود دارد؟ من یک محقق را دیده ام که از MLE استفاده کرده است، اما او به طور کامل توضیح نمی دهد که چه کاری برای ایجاد معادله تعمیم یافته انجام داده است. آیا می توان از MLE برای یافتن میانگین یک معادله با چندین متغیر و چندین مقدار برای هر متغیر استفاده کرد؟ | میانگین گیری متغیرها برای ایجاد معادله کلی |
101506 | SUR به معنای رگرسیون به ظاهر نامرتبط است و SEM به معنای مدل معادله همزمان است. چه تفاوتی بین آنها وجود دارد؟ | تفاوت بین SUR و SEM |
79004 | من در حال انجام یک تحلیل مدل ترکیبی از یک مدل با پیشبینیکننده طبقهبندی هستم (با استفاده از مدل گلمر، دوجملهای). در کمال تعجب، واریانسی که برای رهگیری به دست میآورم، وقتی سطح مرجع این پیشبینیکننده طبقهای را تغییر میدهم، تغییر نمیکند. این برخلاف درک من است که از آنجایی که وقفه برای سطح مرجع پیشبینیکننده مقولهای است، بنابراین واریانس برای قطع تصادفی باید هنگام تغییر سطح مرجع تغییر کند. من اینجا چه چیزی را از دست داده ام؟ با تشکر فراوان از کمک شما به روز رسانی: @charles با تشکر فراوان از پاسخ شما. من هنوز آن را نمی فهمم. کد زیر، که در آن دادههای مشابه آنهایی را که در حال تجزیه و تحلیل هستم شبیهسازی میکنم، ممکن است به ادامه بحث کمک کند. require(lme4) set.seed(123) # ایجاد 6 گروه از 100 مشاهده برای هر گروه <- gl(6,100) # ایجاد یک دسته پیش بینی طبقه بندی <- as.factor(round(runif(600,1,5))) # طراحی نامتعادل در هر گروه # ایجاد یک متغیر پاسخ باینری استفاده شده <- runif(600) used[1:100] <- استفاده شده[1:100]+runif(100,0.1,0.3) # برای افزایش تعداد 1ها در دسته اول، فقط برای ایجاد کمی تنوع استفاده شده[101:200] <- used[101:200]-runif (100,0.1,0.3) # برای کاهش تعداد 1ها در دسته دوم، فقط برای ایجاد کمی تغییرپذیری استفاده می شود <- round(استفاده شده) استفاده شده[used>1] <- 1; استفاده شده[استفاده شده<0] <- 0 # متناسب با دو مدل با دستههای مرجع مختلف mod.ref1 <- glmer(used~category+(1|group),family=binomial) دسته <- relevel(category,3) # تغییر دسته مرجع mod.ref3 <- glmer(used~category+(1|group),family=binomial) # مقایسه ضرایب و جلوه های تصادفی برای هر دو مدل coef(mod.ref1); ranef(mod.ref1) coef(mod.ref3); ranef(mod.ref3) و نتایج عبارتند از: coef(mod.ref1) $group (Intercept) category2 category3 category4 category5 1 0.72458362 -0.02654181 -0.2808615 0.02515119 -0.09927091959 -0.0992991959 -0.02654181 -0.2808615 0.02515119 -0.09999195 3 0.14790658 -0.02654181 -0.2808615 0.02515119 -0.0515151991 -0.02654181 -0.2808615 0.02515119 -0.09999195 5 -0.02681879 -0.02654181 -0.2808615 0.02515119 -0.05181910 -0.02654181 -0.2808615 0.02515119 -0.09999195 ranef(mod.ref1) $group (Intercept) 1 0.63660977 2 -0.66769169 3 0.035891693 0.09999195 -0.11479264 6 0.03012955 coef(mod.ref3) $group (Intercept) category1 category2 category4 category5 1 0.4436543 0.2808285 0.2543196 0.3060796 0.3060796 0.186 0.18 0.3060796 0.186 0.11479264 0.2808285 0.2543196 0.3060796 0.1809765 3 -0.1329837 0.2808285 0.2543196 0.3060796 0.1809730 0.1809730 4 - 0.1809730 4.1809730 4 -0. 0.2543196 0.3060796 0.1809765 5 -0.3076979 0.2808285 0.2543196 0.3060796 0.1809765 6 -0.1622786964820. 0.3060796 0.1809765 ranef(mod.ref3) $group (Intercept) 1 0.63656425 2 -0.66765237 3 0.05992621 4 0.05558221 5 0.05558221 5 0.63656425 واریانس وقفه های تصادفی اثرات تصادفی است: نام گروه ها Variance Std.Dev. گروه (Intercept) 0.18119 0.42567 تعداد obs: 600، گروه: گروه، 6 برای هر دو مدل. بنابراین، (1) واریانس برای وقفه های تصادفی در هر دو مدل یکسان است، (2) رهگیری های تصادفی در هر دو مدل یکسان به نظر می رسد، (3) رهگیری ها بین مدل ها متفاوت است زیرا به دسته مرجع اشاره می کنند. من نمیدانم که چگونه (2) و (3) میتوانند به طور همزمان درست باشند، و نمیدانم که آیا وقتی پیشبینیکنندههای طبقهبندی وارد بازی میشوند، معنای رهگیریهای تصادفی را اشتباه میفهمم. آیا کسی می تواند معادله زیربنایی این مدل را بیان کند؟ | تأثیر تصادفی بر رهگیری در مدلهای با پیشبینیکننده طبقهای |
11462 | من سعی می کنم با استفاده از انتخاب مدل گام به گام («جهت = هر دو») در R با استفاده از stepAIC در بسته MASS بهترین مدل را بر اساس AIC پیدا کنم. این اسکریپتی است که من استفاده کردم: stepAIC (glmer(تصمیم ~ as.factor(سن) + as.factor(Educ) + as.factor(کودک)، خانواده = دوجمله ای، داده = Rshifting)، جهت = هر دو) من این نتیجه خطا را دریافت کردم: خطا در lmerFactorList (فرمول، fr، 0L، 0L): هیچ عبارات اثرات تصادفی در فرمولی که سعی کردم مشخص نشده است «(1|شهر)» را به فرمول اضافه کنید زیرا شهر اثر تصادفی است (جایی که پاسخ دهندگان تو در تو هستند) و این اسکریپت را اجرا کنید: stepAIC (glmer(decision ~ as.factor(Age) + as.factor(Educ) + as.factor(Child) + (1|town), family=binomial, data=RSshifting), direction=both) نتیجه این است: خطا در x$terms: عملگر $ برای این کلاس S4 تعریف نشده است، امیدوارم بتوانید به من کمک کنید تا چگونه این مشکل را حل کنم. خیلی ممنون | گنجاندن اثرات تصادفی در فرمول رگرسیون لجستیک در R |
7224 | من روی یک پروژه کوچک کار می کنم که چهره کاربران توییتر را از طریق تصاویر پروفایل آنها درگیر می کند. مشکلی که من با آن روبرو شده ام این است که پس از فیلتر کردن همه تصاویر به جز عکس های پرتره واضح، درصد کمی اما قابل توجهی از کاربران توییتر از عکس جاستین بیبر به عنوان عکس نمایه خود استفاده می کنند. به منظور فیلتر کردن آنها، چگونه می توانم به صورت برنامه نویسی تشخیص دهم که آیا یک عکس مربوط به جاستین بیبر است؟ | تشخیص چهره معین در پایگاه داده تصاویر چهره |
7223 | من می خواهم این سوال را در دو بخش مطرح کنم. هر دو با یک مدل خطی تعمیم یافته سروکار دارند، اما اولی به انتخاب مدل و دیگری به منظم سازی می پردازد. **زمینه:** من از مدل های GLM (خطی، لجستیک، رگرسیون گاما) هم برای پیش بینی و هم برای توصیف استفاده می کنم. وقتی به کارهای عادی که فرد با رگرسیون انجام می دهد اشاره می کنم، منظورم عمدتاً توصیف با (i) فواصل اطمینان حول ضرایب، (2) فواصل اطمینان حول پیش بینی ها و (iii) آزمون های فرضیه مربوط به ترکیبات خطی ضرایب است. تفاوتی بین درمان A و درمان B وجود دارد؟ آیا به طور قانونی توانایی انجام این کارها را با استفاده از تئوری عادی تحت هر یک از موارد زیر از دست می دهید؟ و اگر چنین است، آیا این موارد واقعاً فقط برای مدلهایی که برای پیشبینی خالص استفاده میشوند خوب هستند؟ **I.** هنگامی که یک GLM از طریق برخی از فرآیندهای انتخاب مدل مناسب شده است (برای مشخص بودن، می گوییم این یک روش گام به گام بر اساس AIC است). **II.** وقتی یک GLM از طریق یک روش منظم سازی (مثلاً با استفاده از glmnet در R) مناسب شده است. احساس من این است که برای I. پاسخ از نظر فنی این است که شما باید از یک بوت استرپ برای کارهای عادی که با رگرسیون انجام می دهد استفاده کنید، اما هیچ کس واقعاً از آن تبعیت نمی کند. متشکرم. **افزودن:** پس از دریافت چند پاسخ و خواندن در جای دیگر، در اینجا برداشت من از این موضوع است (برای بهره مندی هر کس دیگری و همچنین دریافت تصحیح). **I.** **A) RE: Error Generalize.** به منظور تعمیم نرخ خطا در داده های جدید، زمانی که هیچ مجموعه ای از توقف وجود ندارد، اعتبار سنجی متقاطع می تواند کار کند اما شما باید این فرآیند را به طور کامل برای هر بار تکرار کنید. - استفاده از حلقه های تودرتو - بنابراین هر انتخاب ویژگی، تنظیم پارامتر و غیره باید هر بار به طور مستقل انجام شود. این ایده باید برای هر تلاش مدل سازی (از جمله روش های جریمه شده) صادق باشد. **ب) RE: آزمون فرضیه و فواصل اطمینان GLM.** هنگام استفاده از انتخاب مدل (انتخاب ویژگی، تنظیم پارامتر، انتخاب متغیر) برای یک مدل خطی تعمیم یافته و مجموعه نگهدارنده وجود دارد، آموزش مدل بر روی مجاز است. یک پارتیشن و سپس مدل را بر روی دادههای باقیمانده یا مجموعه دادههای کامل قرار دهید و از آن مدل/داده برای انجام آزمایشهای فرضیه و غیره استفاده کنید. اگر مجموعه نگهدارنده وجود نداشته باشد، یک بوت استرپ تا زمانی که فرآیند کامل برای هر نمونه بوت استرپ تکرار شود، قابل استفاده است. این امر آزمونهای فرضیهای را که میتوان انجام داد محدود میکند، زیرا ممکن است برای مثال همیشه یک متغیر انتخاب نشود. **ج) RE: پیشبینی مجموعه دادههای آینده را انجام نمیدهید، سپس یک مدل هدفمند را با هدایت تئوری و چند آزمون فرضیه تنظیم کنید و حتی تمام متغیرها را در مدل (معنادار یا غیرمعنادار) بگذارید (در امتداد خطوط هاسمر). و لمشو). این مجموعه متغیرهای کوچک نوع کلاسیک مدلسازی رگرسیون است و سپس امکان استفاده از آزمون CI و فرضیه را فراهم میکند. **ت) RE: رگرسیون جریمه شده.** توصیه ای نیست، شاید این را فقط برای پیش بینی مناسب در نظر بگیرید (یا به عنوان یک نوع انتخاب ویژگی برای اعمال آن به مجموعه داده دیگری مانند B بالا) زیرا سوگیری معرفی شده باعث ایجاد آزمون های CI و فرضیه می شود. غیرعاقلانه - حتی با بوت استرپ. | GLM پس از انتخاب مدل یا تنظیم |
33502 | من رگرسیون خطی ساده را انجام دادهام و اکنون بررسی میکنم که مدلها با فرض همگنی واریانس مطابقت دارند: • آیا به این نتیجه رسیدهام که آزمونهای Levenes که p<0.05 را نشان میدهند، نقض همگنی واریانس را نشان میدهند؟ • برخی از مدل ها شامل 2 یا 3 متغیر توضیحی هستند، اما در برخی مدل ها، تنها 1 متغیر توضیحی در آزمون لوینز 05/0p< داده است. بنابراین، آیا فقط آن متغیرهای توضیحی که p<0.05 داده اند باید اصلاح شوند؟ • آیا هنگام اصلاح نقض همگنی، دگرگونی بهترین مکان برای شروع است؟ | همگنی واریانس در رگرسیون |
79005 | یک جمعیت واقعی به اندازه N متشکل از توپ های قرمز و آبی را فرض کنید، جایی که p نشان دهنده فراوانی قرمز در جمعیت و q نشان دهنده فراوانی آبی در جمعیت است. فرض کنید که N=1000، p=0.7 و q=0.3. اگر نمونه ای از جامعه بگیرم و بسامدهای موجود در نمونه را برای استنباط نسبت واقعی جامعه مشاهده کنم، هر چه نمونه کوچکتر باشد واریانس بیشتری وجود خواهد داشت. آیا راهی برای محاسبه میزانی وجود دارد که اندازه های مختلف نمونه نسبت های واقعی را بیش از حد یا دست کم می گیرند؟ | محاسبه سوگیری نمونه گیری هنگام تخمین نسبت جمعیت |
20708 | تنظیمات این سوال به شرح زیر است. فرض کنید ما دادههای شمارش و مخرج برای شش سایت مطالعه مختلف، به تفکیک ماه برای 12 ماه داریم. همه آنها در آن زمان از یک استاندارد تشخیصی یکسان استفاده می کنند، بنابراین از نظر تئوری تعداد آنها تقریباً یکسان است. هدف از این کار این است که تخمینی از تعداد نمونههای ماهانه به ازای هر نفر زمانی که هر سایت مطالعه دریافت میکند، به دست آوریم، اگرچه ما اجازه میدهیم در صورت تغییر چشمگیر، بر اساس ماه تغییر کند. بنابراین اساساً، یک تخمین رگرسیون پواسون بسیار استاندارد از میزان وقوع-چگالی. _به جز_ دو تا از سایت ها روش تشخیصی خود را به روشی دقیق تر در اواسط دوره مطالعه تغییر می دهند. برای مثال، فرض کنید سایت 1 2 ماه بعد تغییر می کند و سایت 2 8 ماه بعد تغییر می کند. اعتقاد بر این است که روش جدید از دقت بهبود یافته ای برخوردار است، اما هیچ داده مستقیمی از سایت ها برای تولید معیارهای دقت ما وجود ندارد، ما باید ارقام منتشر شده حساسیت/ویژگی را از دو آزمایش در ادبیات حذف کنیم. من سعی می کنم راهی پیدا کنم که بعد از تغییر پروتکل، داده ها را دور بزنم. هر ایده ای؟ یک به روز رسانی: یکی از سایت های مورد بحث حدود 3٪ از کل زمان مورد مطالعه است، اما حدود 10٪ موارد، هم به دلیل آزمایش بهتر، و هم به نظر می رسد شیوع بیماری در آن زمان در سایت باشد. . بنابراین در حالی که «پرتاب آن» هنوز یک گزینه است، گزینه مورد علاقه من نیست. | چگونه برای تغییر در پروتکل تشخیصی در اواسط مطالعه تنظیم کنیم؟ |
10342 | با توجه به پانلی از کشورها در طول زمان، یک برآوردگر اثرات ثابت برای کنترل اثرات خاص کشور منطقی است. شهود من به من می گوید که اگر متغیر وابسته با تأخیرهای متغیرهای مستقل همبستگی داشته باشد، سوگیری به تخمینگر وارد می شود. با این حال، من در درک دقیق چرایی این مورد مشکل دارم. بعلاوه، آیا راه آسانی برای تشخیص اینکه سوگیری به سمت صفر است یا دور از آن وجود دارد؟ | داده های پانل: در یک مدل اثرات ثابت، آیا همبستگی خودکار سوگیری را ایجاد می کند؟ |
10343 | من کاملاً گیج شدم: از یک طرف می توانید انواع توضیحات را بخوانید که چرا باید بر n-1 تقسیم کنید تا یک برآوردگر بی طرفانه برای واریانس (ناشناخته) جمعیت (درجات آزادی، تعریف نشده برای حجم نمونه 1 و غیره) بدست آورید. ) - به عنوان مثال رجوع کنید. اینجا یا اینجا از سوی دیگر، وقتی نوبت به تخمین واریانس یک توزیع نرمال فرضی میرسد، دیگر به نظر نمیرسد که همه اینها درست باشد. در آنجا گفته می شود که برآوردگر حداکثر درستنمایی برای واریانس فقط شامل تقسیم بر n می شود - به عنوان مثال نگاه کنید. اینجا حالا کسی میتونه منو روشن کنه که چرا اینجا درسته ولی اونجا نه؟ منظورم عادی بودن چیزی است که اکثر مدل ها به آن می پردازند (به ویژه به دلیل CLT). بنابراین آیا انتخاب تقسیم بر n در عین حال بهترین انتخاب برای یافتن بهترین تخمین برای واریانس واقعی جمعیت است؟!؟ متشکرم | هنگام تخمین واریانس، چرا برآوردگرهای بی طرف بر n-1 تقسیم میکنند اما تخمینهای حداکثر احتمال بر n تقسیم میشوند؟ |
82172 | من در تلاش برای درک سوال 9-1 در صفحه 334 در Cameron & Trivedi (پیوند) هستم که در آن باید بایاس یک تخمین چگالی هسته را در $x=1$ و $n=100$ محاسبه کنم، که در آن فرض می کنیم که چگالی زیرین به طور استاندارد توزیع شده است، $N(0,1)$. هسته یکنواخت است، یعنی $$K(v)=0.5 \times 1(|v|<1)$$ داریم که $v$ به صورت $(x_i-x)/h$ و $\mathbf1$ تعریف می شود. تابع نشانگر است، که اگر آرگومان درست باشد $1$ و در غیر این صورت $0$ است. $h$ پهنای باند است که در این مثال 1.0$ داده شده است. بایاس هسته سپس به سادگی به صورت $$\text{bias} = 0.5h^2f''(x)\int v^2 K(v)dv$$ به دست میآید این در ابتدا دشوار به نظر نمیرسد. . من $h$ را می دانم، می توانم $f''(1)$ را از توزیع عادی به صورت تحلیلی محاسبه کنم. با این حال، من در یافتن $\int v^2 K(v)dv$ گیر کردم. آیا یک ترفند استاندارد، یک جدول یا هر چیزی وجود دارد که بتواند به من در محاسبه آن کمک کند؟ من می توانم این کار را به صورت عددی انجام دهم، اما معتقدم که باید بتوان آن را به صورت تحلیلی نیز انجام داد. ps این یک سوال تکلیف نیست، فقط کنجکاوی است که چگونه تخمین های چگالی هسته را بدون تکیه بر محاسبات عددی اعمال کنیم. | انتگرال یک تابع با هسته یکنواخت |
17151 | من اشیایی از دو کلاس دارم -- 11 شی در هر کلاس. جایی که هر شی 3 ویژگی دارد. با چنین مجموعه داده کوچکی، آیا آموزش و استفاده از Naïve Bayes برای طبقه بندی اشیاء جدید (موردهای آزمایشی) منطقی است؟ | آیا حداقل مجموعه داده ای برای تصمیم گیری طبقه بندی با Naïve Bayes وجود دارد؟ |
94785 | آیا راه هایی برای **_estimate_** تعصب نمونه محدود با متغیرهای ابزاری وجود دارد؟ من حدس میزنم که این مشروط به فرض ساختاری برای مسئله و همچنین شبیهسازی باشد، اما، حداقل در مقالات اقتصادسنجی کاربردی، من هرگز ندیدهام که افرادی این کار را انجام دهند. _PS: در صورت امکان، پاسخ را می توان با کد R نشان داد._ | تخمین تعصب نمونه محدود برای متغیرهای ابزاری |
32418 | من چند سوال در رابطه با تخمین ماتریس دقت با ابعاد بالا (معکوس ماتریس کوواریانس) در موردی دارم که p نزدیک به 100 و n < p باشد. بهعنوان اندازهگیری دقت تخمین، من یک «خطای مربع نسبی» را محاسبه میکنم که به روش زیر تعریف شده است: $$ RSE(\Sigma^{-1},\hat{\Sigma^{-1}}) = \frac{| |{\Sigma^{-1}-\hat{\Sigma^{-1}}}||}{||\Sigma^{-1}||} $$ کجا، $||A|| = \sum_{i,j}a_{ij}^2 $ هنجار Frobenius $A$ است. حال، سوال من این است، الف) آیا هیچ نتیجه شناخته شده ای برای کران پایینی هنجار فروبنیوس یک ماتریس دقیق وجود دارد؟ یا برای آن موضوع، هر ماتریس کلی؟ ب) روش های رایج نشان دادن دقت تخمین یک روش چیست؟ من فکر میکنم که ما میتوانیم هنجارهای مختلفی مانند هنجار طیفی و غیره را محاسبه کنیم، اما آیا روش گرافیکی برای انجام این کار وجود دارد؟ من از هر نوع کمکی قدردانی می کنم و اگر این مکان یا روش مناسبی برای پرسیدن چنین سوالاتی نیست، پیشاپیش عذرخواهی می کنم. | دقت تخمین ماتریس دقیق |
80155 | فرض کنید تنظیم رگرسیون لجستیک معمولی با متغیرهای کمکی در سطح فردی و نتایج باینری است، اما به جای مشاهده آن پیامدها، فرد فقط نسبت موفقیت را در میان گروه های شناخته شده افراد مشاهده می کند. بنابراین، نتیجه، انباشتگی از نتایج در سطح فردی است، اما متغیرهای کمکی در سطح فردی همه مشاهده میشوند. یک مدل در این چارچوب چگونه است؟ | مدلسازی نتایج باینری انباشته (نسبتها) با متغیرهای کمکی در سطح فردی |
55036 | من چندین بار در مورد محاسبه p-value در بوت استرپینگ خوانده ام. متاسفانه نتوانستم از هیچ کدام استفاده کنم. شاید بتوانید به من کمک کنید، لطفا؟ من 10000 نمونه بوت استرپ از تفاوت بین میانگین دو گروه داده به دست آوردم. من همچنین فاصله اطمینان برای تفاوت بوت استرپ-میانگین را دریافت کردم. حالا من می خواهم یک مقدار p را نیز محاسبه کنم. چگونه می توانم آن را انجام دهم؟ | محاسبه یک مقدار p برای تفاوت میانگین بوت استرپ |
14997 | من حدود 5 میلیون مشاهده از وزن بیماران در طول یک سال دارم. برخی از بیماران در طول آن سال یک اندازه گیری دارند و برخی دیگر 30-40 (یا بیشتر) اندازه گیری می کنند. من متوجه تنوع زیادی شده ام. به عنوان مثال، در یک روز یک بیمار وزن ثبت شده 120 پوند و روز بعد وزن ثبت شده 220 پوند خواهد داشت - بدیهی است که یکی از آنها نادرست است. در این مجموعه داده، مکانهایی (چندگانه) نیز داریم که وزنها را وارد میکنند، بنابراین بهتر است بدانیم کدام یک از مکانها دادههای نادرست را وارد میکنند. در نهایت، ما میخواهیم از این دادههای وزنی در مطالعات مختلف استفاده کنیم، اما ابتدا میخواهیم ایدهای در مورد اینکه این وزنهای ساختگی چند بار در این مجموعه ظاهر میشوند، داشته باشیم. پیشنهادی دارید؟ | چگونه می توان شیوع داده های به شدت نادرست را در وزن ثبت شده بدن در پرونده های پزشکی ارزیابی کرد؟ |
7225 | من از بسته R _penalized_ برای به دست آوردن تخمین های کوچک شده ضرایب برای مجموعه داده ای استفاده می کنم که در آن پیش بینی کننده های زیادی دارم و اطلاعات کمی در مورد اینکه کدام یک مهم هستند. بعد از اینکه پارامترهای تنظیم L1 و L2 را انتخاب کردم و از ضرایب خود راضی شدم، آیا روش آماری درستی برای خلاصه کردن تناسب مدل با چیزی مانند R-squared وجود دارد؟ علاوه بر این، من علاقه مندم که اهمیت کلی مدل را آزمایش کنم (یعنی R²=0، یا تمام =0 را انجام دهد). من پاسخ های مربوط به یک سوال مشابه را که در اینجا مطرح شده بود خوانده ام، اما کاملاً به سؤال من پاسخ نداد. یک آموزش عالی در مورد بسته R وجود دارد که من در اینجا از آن استفاده می کنم، و نویسنده Jelle Goeman در پایان آموزش در مورد فواصل اطمینان از مدل های رگرسیون جریمه شده یادداشت زیر را داشت: > پرسیدن خطاهای استاندارد یک سوال بسیار طبیعی است. رگرسیون > ضرایب یا سایر مقادیر تخمینی. اصولاً چنین خطاهای استاندارد > به راحتی قابل محاسبه هستند، به عنوان مثال. با استفاده از بوت استرپ > > با این حال، این بسته عمدا آنها را ارائه نمی دهد. دلیل این > این است که خطاهای استاندارد برای تخمین های شدیداً سوگیری مانند ناشی از روش های برآورد جریمه شده چندان معنی دار نیستند. جریمه > تخمین روشی است که واریانس برآوردگرها را با ارائه سوگیری اساسی کاهش می دهد. بنابراین، بایاس هر تخمینگر یکی از مؤلفههای اصلی میانگین مربعات خطای آن است، در حالی که واریانس آن ممکن است تنها بخش کوچکی از آن را به همراه داشته باشد. متأسفانه، در بیشتر کاربردهای رگرسیون جریمه شده، دستیابی به برآورد دقیق کافی از سوگیری غیرممکن است. هر محاسبات > مبتنی بر بوت استرپ فقط می تواند ارزیابی واریانس برآوردها را ارائه دهد. برآوردهای قابل اعتماد از سوگیری تنها در صورتی در دسترس هستند که برآوردهای غیر جانبدارانه قابل اعتماد در دسترس باشند، که معمولاً در شرایطی که برآوردهای جریمه شده استفاده می شود، صادق نیست. بنابراین گزارش یک خطای استاندارد یک برآورد جریمه شده تنها بخشی از داستان را بیان می کند. این می تواند تصور اشتباهی از دقت بسیار زیاد ایجاد کند، > نادقیق ناشی از سوگیری را کاملا نادیده می گیرد. مطمئناً این اشتباه است که اظهارات اطمینانی را که فقط بر اساس ارزیابی واریانس تخمینها باشد، مانند بازههای زمانی اطمینان مبتنی بر راهانداز، اشتباه است. | برآورد معنیداری R-squared و آماری از مدل رگرسیون جریمهشده |
10347 | من یک نقشه حرارتی بر اساس یک ماتریس داده های معمولی در R ساخته ام، بسته ای که استفاده می کنم pheatmap است. خوشهبندی منظم نمونههای من توسط تابع «distfun» در بسته انجام میشود. اکنون میخواهم یک ماتریس فاصله از پیش محاسبهشده (تولید شده توسط Unifrac) را به ماتریس/Heatmap که قبلاً تولید شدهام، وصل کنم. آیا این امکان پذیر است؟ | ساخت یک نقشه حرارتی با ماتریس فاصله از پیش محاسبه شده و ماتریس داده در R |
80159 | من یک بار عبارت زیر را خواندم: با توجه به معادله زیر $ Y_t= c + a Y_{t-1} + \theta_t$ 1. اگر $c\neq 0$، آنگاه نسبت t برای آزمایش $H_0 : a=1 $ به طور مجانبی طبیعی است. 2. اگر $c=0$، آنگاه نسبت t برای آزمایش به توزیع مجانبی غیر استاندارد دیگری همگرا می شود. اما من نمی دانم چگونه می توان به دو نتیجه بالا دست یافت. | توزیع مجانبی برای آزمون t با سری زمانی |
94120 | من سؤالی دارم که به نظر می رسد نسبتاً ساده است، اما در تلاش برای درک چگونگی پاسخ دادن به آن هستم. سوال کلی به شرح زیر است: مقدار مورد انتظار $S_{I}$ چیست، جایی که: $S_{I} = S$ اگر $S <3000 $$S_{I} = 3000$ اگر $S >3000$ که در آن $S$ یک توزیع مرکب است (جزئیات برای مشکل من در اینجا ضروری نیست) تلاش اولیه من به شرح زیر است: $E[S_{I}] = E[E[S_{I}|S]] = E[S * P(S\leq3000) + 3000*P(S>3000)] = E[S]*P(S\leq 3000)+3000*P(S>3000).$ اکنون از تعریف $S_{I}$، واضح است که باید $E[S_{I}]<3000$ داشته باشیم. برای این مشکل خاص $E[S] = 4000$، و از این رو روش پیشنهادی من برای حل اشتباه است. بنابراین فکر کردم که $E[S]$ من در خط بالا باید در واقع $E[S|S\leq 3000]$ باشد آیا این فرض درست است؟ اگر چنین است، آیا این درست است که $E[S|S\leq 3000] = E[S]*P(S\leq 3000)$ ?? برای هر کمکی متشکرم | انتظار متغیر بریده و تصادفی |
45334 | من در حال اجرای Linear Discriminant Analysis بر روی یک مجموعه داده و سپس انجام خوشه بندی بر روی آن هستم. من آن را به ابعاد 2،6،10 کاهش می دهم. در مقایسه معیارهایی مانند دقت و اطلاعات متقابل عادی، مقادیر در بعد 6 تقریباً به نصف کاهش می یابد. در حالی که در بعد 10 به بعد 2 نزدیک است. من نمی توانم درک کنم که چرا ممکن است دقت کاهش یابد و دوباره افزایش یابد. نکته این است که چرا ما برای 2 بعدی و 10 بعدی پاسخ بهتر و برای 6 بعدی پاسخ بدتر می بینیم. منظورم این است که از 2 بعدی به 6 بعدی می روید، دقت بدتر می شود و سپس دوباره برای 10 بعدی بالا می رود. | چگونه این خروجی را در Dimension Reduction تفسیر کنیم؟ |
6243 | هنگام محاسبه تفاوت بین میانگین ها، می توانم میانگین، واریانس، خطای استاندارد میانگین و حاشیه خطا را حل کنم، اما آیا راهی برای محاسبه مقدار اندازه نمونه جدید/ترکیب وجود دارد؟ من می پرسم زیرا از تفاوت بین میانگین ها به عنوان روشی برای کالیبره کردن میانگین استفاده می کنم و بعداً هنگام مقایسه سایر ابزارهای کالیبره شده اندازه نمونه وارد فرمول ها می شود. (http://stattrek.com/AP-Statistics-4/Difference-Means.aspx) ### به روز رسانی در مثال کد زیر، میانگین کالیبراسیون ها را از میانگین زمان برای اجرای یک آزمایش کم می کنم. کالیبراسیون یک آزمایش خالی برای محاسبه هزینه سربار معیارها است. تنها بخشی که من از دست می دهم این است که چگونه یک اندازه نمونه ترکیبی ایجاد کنم (در صورت امکان). mean -= cs.mean; واریانس += cs.variance; sd = sqrt (واریانس); moe = sd * getCriticalValue(getDegreesOfFreedom(me, cal)); rme = (moe / mean) * 100; extend(me.stats, { 'ME': moe, 'RME': rme, 'deviation': sd, 'mean': mean, 'size': ???, 'variance': variance }); | محاسبه تفاوت بین میانگین و حل یک اندازه نمونه جدید/ترکیب |
92902 | سلام: من یک مورد لیکرت دارم که میخواهم آن را تحلیل کنم. من می دانم که بیشتر مقیاس ها به آیتم های لیکرت متعدد نیاز دارند، اما این فقط یک تمرین اکتشافی از یک نظرسنجی موجود است. از کنترل من خارج است. وقتی با دستههای لیکرت (به شدت پشتیبانی - حمایت - مخالفت - مخالفت شدید) بهعنوان یک متغیر عددی (کدگذاری 0 تا 1) و رگرسیون چندگانه رفتار میکنم، برخی از پیشبینیکنندهها را در مدلهایم از نظر آماری معنادار میدانم. با این حال، وقتی سعی میکنم مقادیر پیشبینیشدهای را بر اساس پیکربندیهای مختلف متغیرهای تورفتگی خود ایجاد کنم، برخی از ترکیبهای مقادیر مقادیر پیشبینیشده بزرگتر از 1 را ایجاد میکنند که با توجه به مقیاس اصلی غیرممکن است. اتفاقاً وقتی چهار دسته را به دو (پشتیبانی - مخالفت) دوباره کد میکنم و آن را با یک رگرسیون لجستیک دوجملهای اجرا میکنم، همان پیشبینیکنندهها از نظر آماری معنیدار به نظر نمیرسند. من سه سوال دارم: در سناریوی اول، آیا معنی دار و/یا مناسب است که مقادیر پیش بینی شده را مجددا مقیاس بندی کنیم تا حداکثر مقدار پیش بینی شده 1 و حداقل 0 باشد؟ یا این مناسب نیست؟ سوال دوم، آیا کسی میتواند توضیح دهد که چرا هنگام روی آوردن به رگرسیون لجستیک، پیشبینیکنندهها از نظر آماری معنیدار نشان داده نمیشوند؟ آیا واریانس مهمی در قطب های DV (بین حمایت قوی و پشتیبانی) وجود دارد که هنگام کوبیدن آنها به دوجمله ای از بین می رود؟ سوال سوم، آیا این را فقط به صورت ترتیبی تحلیل کنم؟ خیلی ممنون از وقتی که گذاشتید. من این کار را روی R 3.0.2 انجام می دهم. سیمون | آیتم لیکرت، تحلیل رگرسیون |
70370 | من برخی از داده ها را از یک نظرسنجی جمع آوری می کنم. و اکنون می خواهم پاسخ ها را تجزیه و تحلیل کنم. سوال شامل ویژگی های مورد نیاز در یک ابزار است. این ویژگی ها را می توان از 1 تا 5 رتبه بندی کرد. جدول ویژگی ها و امتیاز آنها: F.1 F.2 F.3 F.4 F.5 F.6 5 4 5 5 5 4 4 4 5 5 3 5 5 3 4 4 2 4 5 5 5 5 5 5 4 4 4 3 4 3 2 3 5 5 4 4 3 5 5 5 4 4 5 5 5 4 4 3 2 4 5 4 3 ... با میانگین متناظر: 4 3,8888888889 4,6666666667 4,5555555556 3,8888888888889 4,5555555556 3,8888888888894 3,8888888888894 1,0540925534 0,5 0,7264831573 0,9279607271 0,7071067812 و با ضریب تغییرات: 27,95084971 27,10523708 1057110,10510 23,86184726 17,67766952 از این داده ها چه نتیجه ای می توانم بگیرم؟ منظورم این است که آیا مقدار مشخصی (آلفا) برای ضریب تغییرات خوب وجود دارد؟ بنابراین می توانم بگویم: _ ضریب تغییرات برای ویژگی 1 27.9٪ > آلفا است، بنابراین ..._ من حدود 58 مجموعه داده (پاسخ) مانند جدول ذکر شده در بالا دارم. اما نمیدانم چگونه میتوانم چیزی معنادار از آن نتیجه بگیرم. من میانگین، انحراف معیار، ضریب تغییرات و خطای استاندارد را محاسبه کردم. چه اطلاعاتی می توانم از این مقادیر بدست بیاورم؟ آیا می توانم چیزی شبیه این بگویم: _برای ویژگی 1، من ضریب تغییرات 27.9% دارم، این بدان معنی است که ... (اما/و همچنین) یک خطای استاندارد ... این یعنی ... بنابراین ..._ من به نوعی اینجا گیر کرده ام، برای یک پیشنهاد ممنون می شوم! | چه زمانی ضریب تغییرات خوب در نظر گرفته می شود |
115335 | من مجموعهای از اشیاء دارم که هر کدام را میتوان به شی دیگری در مجموعه در یک انتساب جهتدار چند به یک، مانند رأی، اختصاص داد. اشیاء را نمی توان به صورت انعکاسی به خود اختصاص داد، اما می توانند در حالت اختصاص نیافته (رای ندادن) باشند. به عنوان مثال، مجموعه {A, ...، Z} به علاوه رابطه می تواند در حالت زیر باشد: A -> E E -> C B -> C C -> B D -> Y {F, ..., Z } رای نمی دهند. این حالت در طول زمان، در مراحل گسسته، یک رای در یک زمان تغییر خواهد کرد. به عنوان مثال، در زمان `t = 0` مجموعه می تواند مانند بالا باشد. سپس در «t = 1»، «Z» به «C» رأی میدهد («Z -> C»)، و در نتیجه حالت: A -> E E -> C B -> C C -> B D -> Y Z -> C { F، ...، Y} اختصاص داده نشده است. آیا کسی می تواند روشی دقیق برای نشان دادن گرافیکی این مجموعه و تغییر وضعیت در طول زمان بیابد؟ در حالت ایده آل، باید در یک نگاه مشخص باشد * تعداد رای برای یک شی در یک زمان معین وجود دارد. * کدام اشیاء به شی داده شده دیگری رأی می دهند. با تشکر | تجسم تغییرات در روابط چند به یک (جهت دار) (رای) بین مجموعه ای از اشیا در طول زمان |
82171 | من دو مجموعه داده دارم، یک مجموعه داده حاوی مقداری در محدوده 10000-1000000 است و مجموعه داده دیگر حاوی مقدار بین 1000-10000 است. من می خواهم میانگین های متغیر را مقایسه کنم که کدام داده ها دارای تنوع بیشتری هستند. آیا باید ابتدا داده ها را استاندارد / نرمال کنم و سپس واریانس را با هم مقایسه کنم، اما استانداردسازی به من میانگین 0 و واریانس 1 می دهد. همچنین، ضریب تغییرات یا محدوده بین ربعی که بهتر است، پیشاپیش متشکرم | مقایسه تغییرپذیری دو مجموعه داده بزرگ مختلف |
68129 | علاوه بر proc varclus، randomForest، و ارزیابی چند خطی بودن در میان متغیرهای پیشبینیکننده بالقوه، من بهجای استفاده از روشهای گام به گام برای ساختن مدلهای رگرسیون لجستیک باینری از طیف گستردهای از متغیرهای پیشبینیکننده بالقوه، به دنبال روشهای دیگری برای انتخاب متغیر هستم. . من برخی از روشهای دیگر مانند اطلاعات متقابل (MI) را انجام دادهام و دو سوال در مورد استفاده از آن دارم: 1) آیا کسی از MI برای انتخاب متغیر رگرسیون لجستیک باینری استفاده کرده است؟ اگر چنین است، نظر شما در مورد کاربرد آن چیست؟ 2) آیا کسی می داند که چگونه MI را با استفاده از Base SAS یا R برای متغیرهای پیش بینی کننده بالقوه با توجه به نتیجه مورد نظر محاسبه کند؟ هر گونه کمک یا مرجعی در این زمینه بسیار قدردانی خواهد شد! با تشکر | استفاده از اطلاعات متقابل برای انتخاب متغیر رگرسیون لجستیک باینری |
114743 | من در حال انجام تجزیه و تحلیل با استفاده از یک زبانه متقاطع 4$\times$2 هستم. من به طور کلی تفاوت معنی داری پیدا کردم اما می خواهم بدانم که آیا تفاوت های قابل توجهی بین 4 گروه وجود دارد یا خیر. آیا راهی برای انجام این مقایسه های متعدد وجود دارد؟ | مقایسات چندگانه پس از تصادف با مجذور کای با استفاده از spss v. 22 |
825 | من اسکریپت های R برای خواندن مقادیر زیادی از داده های csv از فایل های مختلف و سپس انجام وظایف یادگیری ماشینی مانند svm برای طبقه بندی دارم. آیا هیچ کتابخانه ای برای استفاده از چندین هسته روی سرور برای R وجود دارد یا مناسب ترین راه برای دستیابی به آن چیست؟ | آیا پیشنهادی برای ساخت کد R با استفاده از چندین پردازنده دارید؟ |
45331 | مطالعاتی انجام شده است که نشان می دهد افراد دگرجنسگرا تا حدودی بیشتر از افراد همجنسگرا راست دست هستند. آیا لزوماً نتیجه می شود که افراد چپ دست بیشتر از افراد راست دست همجنس گرا هستند؟ من احساس میکنم این یک مفهوم ریاضی است که در حال حاضر نمیتوانم انگشتم را روی آن بگذارم و میتوان آن را با یک اثبات رسمی حل کرد. مقاله ویکیپدیا در مورد این موضوع ویرایش: فکر میکنم این ممکن است روش باشد. فرض کنید افراد فقط می توانند دگرجنس گرا (گروه $A$) یا همجنسگرا (گروه $B$) باشند و می توانند یا راست دست (گروه $R$) یا چپ دست (گروه $L$) باشند. با توجه به، $P(A,R) > P(B,R)$ $\زیرا P(A,R)+P(A,L)=1, P(B,R)+P(B,L)= 1$ دو معادله را با هم ترکیب کنید، $P(A,R)+P(A,L)=P(B,R)+P(B,L)$ جابجایی عبارات، $P(A,R)-P(B,R)=P(B,L)-P(A,L)>0$ $\بنابراین P(B,L)>P(A,L)$ بنابراین، فردی که چپ دست است بیشتر از یک راست دست (فیکس) همجنس گرا است. آیا این بر اساس فرضیات (بدیهی) ساده شده درست است؟ | ارتباط دستی با گرایش جنسی؟ |
110884 | من روی مجموعه داده با مقادیر زیادی NA با sklearn و pandas.DataFrame کار می کنم. من استراتژیهای انتساب متفاوتی را برای ستونهای مختلف نام ستونهای مبتنی بر dataFrame اجرا کردم. به عنوان مثال، پیشبینیکننده NA 'var1' من با 0 و برای 'var2' با میانگین به آن اضافه میکنم. وقتی میخواهم با استفاده از train_test_split مدل خود را اعتبارسنجی متقاطع کنم، یک nparray به من برمیگرداند که نام ستونها را ندارد. چگونه می توانم مقادیر از دست رفته را در این nparray منتسب کنم؟ P.S. من مقادیر گمشده را در مجموعه داده های اصلی قبل از تقسیم عمدی نسبت نمی دهم، بنابراین مجموعه های آزمایش و اعتبار سنجی را جداگانه نگه می دارم. | چگونه مقادیر گمشده را در آرایه numpy ایجاد شده توسط train_test_split از pandas.DataFrame نسبت دهیم؟ |
70165 | من در حال انجام چندین مقایسه با چندین هزار جایگزین مستقل هستم. وقتی بونفرونی تصحیح شد هیچکدام از نظر آماری معنی دار نیستند. با این حال، زمانی که به طور تصادفی انتظار می رود، تعداد بسیار بیشتری مهم هستند، بنابراین من این احتمال را محاسبه می کنم تا نشان دهم که اکثر آزمون های با مقدار p پایین من درست هستند. آیا کسی می تواند به من یک مقاله قابل استناد (برای یک داور) در مورد این رویکرد اشاره کند. من متوجه شدم که در ویکیپدیا بحث شده (با وجود نقلقول وجود ندارد!) | بونفرونی مقایسه های چندگانه -- آزمایش برای هر حقیقت |
14998 | من بارش ماهانه برای یک سایت در یک دوره 35 ساله دارم. من می خواهم آزمایش کنم که آیا کل بارش برای یک سال خاص برابر است با میانگین کل بارش برای بقیه دوره ثبت. علاوه بر این، من همچنین میخواهم دادهها را به فصل مرطوب [نوامبر-آوریل] و فصل خشک [مه-اکتبر] تقسیم کنم. من متوجه هستم که احتمالاً مسائلی در مورد همبستگی خودکار وجود دارد، اما من هنوز شخصاً این نوع داده ها را تجزیه و تحلیل می کنم. آیا کسی لطف می کند و من را در مسیر درست راهنمایی می کند؟ پیشاپیش ممنون ویرایش: IrishStat، داده ها در زیر است، من از R استفاده می کنم، بنابراین زیر با استفاده از dput() ایجاد شده است. میتوانستم این را بفهمم، اما مدتی طول میکشد و اگر یک بار به من نشان داده میشد، احساس اطمینان بیشتری میکردم. PPT <- ساختار(لیست(YEAR = 1965:2010، JAN = c(3.15، 4.81، 4.94، 2.49، 4.26، 4.31، 3.96، 5.06، 3، 3.58، 6.27، 1.14، 1.74، 6.27، 1.74، 6، 6 6.22، 0.94، 3.23، 6.6، 5.74، 5.08، 3.8، 6.35، 4.38، 0.87، 8.66، 15.48، 13.08، 7.52، 5.02، 5.23، 5.23، 5.02، 5.23، 5.45، 5.18، 2.95، 3.33، 4.91، 2.49، 5.75، 2.08، 2.62، 4.38، 7.02، 2.16، 6.73)، FEB = c(5.95، 9.37، 6.04، 9.37، 6.04، 2.2 6.72، 3.78، 7.09، 6.56، 3.97، 2.39، 1.87، 4.48، 7.73، 1.46، 11.59، 9.58، 11.61، 5.95، 7.03، 5.95، 7.03، 8.4، 4.6. 10.3، 2.4، 8.06، 4.29، 1.88، 2.84، 6.36، 6.52، 6.19، 0.82، 0.87، 3.56، 2.65، 7.03، 8.12، 5.2، 6.3، 8.12، 5.2، 8.8، 4.8. 5.43)، MAR = c(4.89، 2.58، 0.69، 1.98، 8.94، 7.17، 4.9، 7.12، 8.23، 6.88، 6.83، 9.95، 4.73، 5.79، 4.73، 5.79، 2.8، 19.2 9.38، 5.58، 5.06، 3.91، 5.43، 6.36، 4.32، 10.41، 4.89، 2.9، 7.31، 7.83، 10.03، 10.2، 3.75، 6.75، 6.19، 6.75 4.18، 5.2، 0.68، 4.28، 0.39، 0.54، 4.32، 14.43، 5.16)، APR = c(0.61، 2.45، 1.68، 2.25، 4.55، 1.94، 4.55، 1.94، 2.2، 2.0. 6.84، 1.96، 1.83، 4.76، 5.77، 13.53، 1.24، 2.9، 12.97، 3.19، 1.01، 3.33، 0.63، 3.71، 2.88، 2.15، 2.12، 2.47. 4.74، 6.71، 11.68، 6.32، 4.54، 0.11، 1.22، 0.3، 3.12، 3.06، 2.32، 20.5، 6.09، 3.43، 5.49، 2.05، 2.05، 2.6، 2.07، 4.6 = M. 2.86، 2.7، 9.89، 2.86، 4.53، 7.8، 2.63، 3.4، 11.11، 10.7، 2.8، 10.71، 5.5، 9.61، 11.88، 1.64، 11.88، 1.64، 11.88، 1.64، 2.64، 2.8. 12.35، 0.31، 7، 4.94، 13.75، 2.4، 5.81، 2.89، 6.04، 0.48، 7.96، 0.81، 3.15، 0.65، 0.55، 2.34، 0.55، 2.34، 2.34، 2.8. 1.86، 9.26، 7.3، 7.03)، JUN = c(15.43، 2.34، 4.33، 3.79، 4.27، 9.77، 2.82، 4.42، 6.91، 3.01، 3.51، 3.52، 2.7، 4. 3.37، 3.81، 2.51، 7.53، 6.6، 2.8، 8.08، 5.54، 15.58، 5.91، 18.52، 6.22، 5.85، 4.62، 3.38، 7.53، 3.38، 7.32، 7.8 2.23، 8.32، 4.21، 13.77، 3.4، 9.54، 10.8، 10.44، 1.33، 6.35، 3.32، 3.69، 5.04)، JUL = c(13.72، 7.9، 7.8، 6.6 1.93، 6.88، 6.56، 7.67، 5.29، 10.03، 8.03، 5.04، 23.67، 8.4، 4.06، 5.05، 11.94، 0.82، 3.9، 8، 2، 8، 8، 4. 5.84، 8.64، 5.03، 8.08، 10.94، 8.65، 6.55، 28.58، 6.17، 9.71، 3.21، 13.69، 10.76، 18.44، 4.74، 18.44، 4.74، 4.73، 1.7 5.4، 5.18، 2.18)، AUG = c(10.1، 8.51، 7.88، 3.57، 12.91، 11.84، 6.4، 4.14، 4.3، 6.75، 8.69، 2.03، 2.01، 8.69، 2.03، 2.3، 5.6. 6.28، 6.03، 6.08، 14.23، 5.78، 5.01، 12.48، 13.19، 2.17، 2، 6.74، 6.2، 7.57، 6.49، 9.61، 5.25، 9.61، 5.25، 5.29، 5.2 11.02، 5.83، 5.2، 8.28، 11.4، 7.13، 5.96، 14.14، 6.24، 10.33)، SEP = c(10.74، 3.43، 6.37، 4.19، 5.10، 5.10، 5.10 10.13، 7.6، 12.88، 6.48، 7.53، 3.97، 9.45، 5.28، 1.11، 2.31، 7.02، 0.57، 6.01، 3.07، 2.4، 14.4، 14.4، 16.12 1.44، 4.99، 1.46، 3.05، 7.72، 1.29، 24.11، 2.27، 9.53، 4.66، 14.77، 3.66، 12.63، 4.7، 5.25، 4.7، 5.25، 7.6، 6.6، 7.6، 6.6 = c(2.57، 3.84، 7، 0.38، 1.75، 7.1، 0، 2.77، 1.28، 0.56، 5.52، 6.81، 4.13، 0، 0.69، 3.77، 1.9، 3.7، 1.9، 3.8، 2.2. 5.89، 0.23، 1.97، 2.28، 2.88، 2.28، 3.85، 5.3، 5.88، 12.13، 2.93، 4.88، 1.72، 4.42، 0.39، 3.44، 0.39، 3.44، 3.43، 0.25، 3.76، 8.78، 4.14، 7.67، 1.68)، NOV = c(0.89، 4.88، 0.58، 3.83، 0.8، 2.69، 2.29، 4.64، 3.59، 4.64، 3.55، 4.64، 3.55، 8.7، 8.3 3.76، 7.55، 5.43، 0.81، 4.78، 6.84، 2.26، 2.98، 6.06، 5.07، 4.44، 7.76، 1.84، 3.8، 11.7، 1.8، 1.8، 11.7، 1.8، 2.1. 12.03، 6.27، 1.02، 7.34، 1.78، 5.69، 3.84، 11.64، 3.22، 3.7، 3.91، 3.47، 3.82، 4.73)، دسامبر = c(3.82،2، .7، 4 5.21، 5.93، 7.51، 7.07، 3.58، 3.63، 4.95، 4.76، 3.93، 1.96، 1.67، 5.88، 8.04، 5.5، 1.7، 3.29، 1.7، 3.29، 3.2، 4، 4. 2.37، 2.87، 5.28، 4.73، 2.05، 4.84، 6.14، 2.52، 5.35، 5.4، 3.49، 2.74، 4.87، 4.13، 5.58، 3.9، 3.4، 4.5. 13.52، 2.72))، .Names = c(YEAR، JAN، FEB، MAR، APR، MAY، JUN، JUL، AUG، SEP , OCT، NOV، DEC)، class = data.frame، row.names = c(NA, -46L)) | تست مناسب برای سری های زمانی |
10346 | من یک رگرسیون لجستیک با داده های رویداد مشتری با پیش بینی های متعدد اجرا می کنم. با این حال، یک متغیر بسیار مهم است، به تنهایی 60٪ از مشتریان را برای رویداد پیش بینی می کند. هنگامی که این پیش بینی کننده اصلی در مدل گنجانده می شود، سایر پیش بینی کننده ها بیش از این پیش بینی کننده اصلی، مقدار بسیار کمی به پیش بینی اضافه می کنند. این پیش بینی کننده اصلی یک متغیر پس رویداد نیست. متغیر دارای پشتیبانی کامل تجاری برای قرار گرفتن در مدل است. * با توجه به این موضوع، آیا حفظ این متغیر پیش بینی کننده اصلی در مدل هنوز مشکلی ندارد؟ * آیا این نشان می دهد که مشکلی در مدل وجود دارد؟ | آیا اگر یک پیش بینی کننده در یک مجموعه تقریباً تمام پیش بینی ها را به حساب آورد مشکل ساز است؟ |
80849 | من آماردان نیستم اما کار تحقیقاتی من شامل آمار (تجزیه و تحلیل داده ها، خواندن ادبیات و غیره) است. دوباره از نظر یکی از سوالاتم که در اینجا پست شده بود به من یادآوری شد که کلمات رایجی وجود دارد که معانی یا معانی خاصی برای کسانی که در زمینه آمار به خوبی تمرین می کنند وجود دارد. داشتن فهرستی از این گونه کلمات و ممکن است عباراتی همراه با برخی نظرات مفید باشد. | کلمات رایجی که معانی آماری خاصی دارند |
45333 | جدول زیر تعداد تصادفات ثبت شده در یک تقاطع خاص را در طول هر یک از چهار فصل سال گذشته نشان می دهد: فصل بهار تابستان پاییز زمستان شماره. از تصادفات 13 24 18 25 ما میخواهیم یک آزمون مجذور کای انجام دهیم تا مشخص کنیم که آیا تصادفات در چهار فصل به طور یکنواخت توزیع شدهاند یا خیر. ارزش آمار آزمون برای آزمون معنیداری مناسب است؟ من کاملاً مطمئن نیستم که چگونه با این یکی ادامه دهم. من فکر می کنم توزیع دوجمله ای کار نخواهد کرد، زیرا توزیع یکنواخت را می خواهد. چگونه p-hat را محاسبه کنم؟ | آزمون مجذور کای خوبی برازش |
38093 | من مرجعی را در مقاله ای یافتم که به این صورت است: طبق گفته Tabachnick & Fidell (1996)، متغیرهای مستقل با همبستگی دو متغیره بیش از 70/0 نباید در تحلیل رگرسیون چندگانه گنجانده شوند. **مشکل:** من در طراحی رگرسیون چندگانه از 3 متغیر با همبستگی >.80، VIF در حدود 0.2 - 0.3، تحمل ~ 4-5 استفاده کردم. هنگامی که من نتیجه را روی 2 پیشبینیکننده که در 80/0 همبستگی داشتند پسرفت کردم، هر دو معنادار باقی ماندند، هر کدام واریانسهای مهمی را پیشبینی کردند، و همین دو متغیر بیشترین بخش و ضرایب همبستگی نیمه جزئی را در بین هر 10 متغیر شامل (5 کنترل) دارند. **سوال:** آیا مدل من با وجود همبستگی بالا معتبر است؟ هر گونه مرجع تا حد زیادی استقبال می شود! * * * ممنون از پاسخ ها! من از Tabachnick و Fidell به عنوان راهنما استفاده نکردم، این مرجع را در مقاله ای یافتم که به همخطی بالا در میان پیش بینی ها می پردازد. بنابراین، اساسا، من موارد بسیار کمی برای تعداد پیشبینیکنندهها در مدل دارم (بسیاری از متغیرهای کنترلی طبقهبندیشده، کدگذاری شده ساختگی-سن، دوره تصدی، جنسیت، و غیره) - 13 متغیر برای 72 مورد. شاخص وضعیت ~ 29 با همه کنترل ها و ~ 23 بدون آنها (5 متغیر) است. من نمی توانم هیچ متغیری را رها کنم یا از تحلیل عاملی برای ترکیب آنها استفاده کنم زیرا از نظر تئوری آنها به تنهایی دارای حس هستند. برای دریافت اطلاعات بیشتر دیر شده است. از آنجایی که من تجزیه و تحلیل را در SPSS انجام می دهم، شاید بهتر باشد که یک نحو برای رگرسیون ریج پیدا کنم (اگرچه قبلاً این کار را انجام نداده ام و تفسیر نتایج برای من جدید است). اگر مهم باشد، زمانی که من رگرسیون گام به گام را انجام دادم، همان 2 متغیر بسیار همبسته پیشبینیکنندههای مهم نتیجه باقی ماندند. و من هنوز نمیدانم که آیا همبستگیهای جزئی که برای هر یک از این متغیرها زیاد است، به عنوان توضیحی برای اینکه چرا آنها را در مدل نگه داشتهام (در صورتی که رگرسیون پشته نمیتواند انجام شود) اهمیت دارد یا خیر. آیا می گویید تشخیص رگرسیون: شناسایی داده های تاثیرگذار و منابع همخطی / دیوید آ. بلزلی، ادوین کوه و روی ای. ولش، 1980 در درک چند خطی بودن مفید خواهد بود؟ یا ممکن است منابع دیگر مفید باشد؟ | چگونه می توان با همبستگی بالا بین پیش بینی کننده ها در رگرسیون چندگانه برخورد کرد؟ |
6245 | در یک آزمایش مزرعه ای که شامل محصولات زراعی است، تفاوت در نظر گرفتن بلوک به عنوان تصادفی یا در غیر این صورت به عنوان عامل ثابت چیست؟ تا آنجا که من فهمیدم، تصادفی به این معنی است که نتیجهگیری را میتوان به سطوح دیگری که در مطالعه گنجانده نشدهاند تعمیم داد. برعکس، عامل ثابت، تجزیه و تحلیل را تنها به یک آزمایش خاص محدود می کند. | چگونه می توانم بلوک ها را در طرح اسپلیت پلات رفتار کنم؟ |
70377 | اگر $X = \begin{pmatrix} X_{1} \\\ X_{2} \end{pmatrix}$ (با $X_{1},X_{2} \in \mathbb{R}^{n}$ ) از توزیع گاوسی $\mathcal{N}(\mu,\Sigma)$ پیروی می کند. توزیع $\Vert X_{1} \Vert^{2}$ چیست (که در آن $\Vert \cdot \Vert$ نشان دهنده هنجار اقلیدسی در $\mathbb{R}^{n}$ است). اگر $\Pi=\left( \begin{array}{c|c} I_{n} &\ 0 \\\ \hline 0 & 0 \end{array}\right)$، می دانم که $X'= \Pi X = \begin{pmatrix} X_{1} \\\ 0 \end{pmatrix} \sim \mathcal{N}(\Pi \mu, \Pi \Sigma {}^t \Pi)$ و $\Vert X_{1} \Vert^{2} = \Vert \Pi X \Vert^{2}$. من ایده زیر را داشتم: اگر $\mu' = \Pi \mu$ و $\Sigma' = \Pi \Sigma {}^t \Pi$، اجازه دهید $\Gamma {}^t \Gamma = \Sigma'$ تجزیه Cholesky $\Sigma'$ باشد. سپس، $\Gamma^{-1} X' \sim \mathcal{N}(\Gamma^{-1}\mu',I_{n})$. بنابراین، میدانم که $\Vert \Gamma^{-1} X'\Vert^{2}$ از $\chi^{2}(n,\Vert \Gamma^{-1} \mu' \Vert پیروی میکند ^{2})$ اما نمیدانم کمکی میکند یا نه. | توزیع یک هنجار اقلیدسی |
70379 | پس از استفاده از «ezANOVA» بهعنوان روش اصلی من برای مشخص کردن ANOVAهای مختلط، وقتی نوبت به اضافه کردن یک متغیر کمکی به مدل میرسد، به یک مانع برخوردم. من از یک ANCOVA استفاده می کنم تا تعیین کنم که آیا یک مسیر توسعه در داده های من وجود دارد یا خیر. یعنی، من باید بتوانم آمار F و مقادیر p را برای برهمکنش با متغیر کمکی ببینم (اگر مثال میخواهید به صفحه 466 به بعد اینجا مراجعه کنید). با استفاده از «ezANOVA»، میتوانم متغیرهای کمکی را وارد کنم، اما خروجی آماره F و مقادیر p را برای تعامل با متغیر کمکی نشان نمیدهد - اثر اصلی متغیر کمکی نیز با استفاده از این روش آزمایش نمیشود. مدل «ezANOVA» من به شرح زیر است: aov.model<-ezANOVA(data=textureView.child.outliersRemoved, dv=.(x) , wid=.(ID) , inside=.(بافت،نما)، بین=. (TNOGroup) , between_covariates=.(Age) , type=3 , return_aov=TRUE ) دیگری گزینه استفاده از «lm» یا «Anova» است، اما من نمیدانم چگونه عبارات خطا را به درستی برای هر کدام مشخص کنم و محدود هستم زیرا میخواهم از مجموع مربعهای نوع III استفاده کنم («drop1» نمیتواند در مواردی کار کنید که من سعی کردم از wrapper «aov» برای «lm» استفاده کنم، هنگام گزارش «خطا در formula.default(object, env = baseenv()): فرمول نامعتبر'`). در نهایت، من در مورد استفاده از بسته nlme برای تعیین ANCOVA به عنوان یک مدل ترکیبی شنیدهام، اما نمیدانم از کجا شروع کنم (علیرغم اینکه مدتی در مورد آن مطالعه کردم). برای ارائه یک خلاصه، من سعی می کنم یک ANCOVA ترکیبی 2 (بین TNOGroup) x 2 (در داخل، بافت) x2 (در داخل، مشاهده) را با سن به عنوان متغیر کمکی انجام دهم. من میخواهم از مجموع مربعهای نوع III استفاده کنم و آمار F و مقادیر p را برای تعامل با متغیر کمکی و همچنین برای تأثیر اصلی متغیر کمکی ببینم. هر گونه توصیه در مورد بهترین راه برای انجام این کار بسیار قدردانی خواهد شد. | بهترین راه برای تعیین ANCOVA مختلط در R؟ |
5253 | پس از خواندن یک مجموعه داده: مجموعه داده <- read.csv(forR.csv) * چگونه می توانم R را دریافت کنم تا تعداد موارد موجود را به من بدهد؟ * همچنین، آیا مقدار بازگشتی شامل موارد exclude حذف شده با «na.omit(dataset)» میشود؟ | چگونه می توانم تعداد ردیف های یک data.frame را در R بدست بیاورم؟ |
1713 | برای برخی از اندازه گیری ها، نتایج یک تجزیه و تحلیل به طور مناسب در مقیاس تبدیل شده ارائه می شود. با این حال، در بیشتر موارد، ارائه نتایج در مقیاس اصلی اندازه گیری مطلوب است (در غیر این صورت کار شما کم و بیش بی ارزش است). برای مثال، در مورد دادههای تبدیلشده با log، مشکلی در تفسیر در مقیاس اصلی ایجاد میشود، زیرا میانگین مقادیر ثبتشده، گزارش میانگین نیست. در نظر گرفتن پاد لگاریتم تخمین میانگین در مقیاس log تخمینی از میانگین در مقیاس اصلی ارائه نمی دهد. با این حال، اگر دادههای تبدیلشده گزارش دارای توزیعهای متقارن باشند، روابط زیر برقرار است (از آنجایی که گزارش ترتیب را حفظ میکند): $$\text{Mean}[\log (Y)] = \text{Median}[\log (Y) )] = \log[\text{Median} (Y)]$$ (آنتی لگاریتم میانگین مقادیر log، میانه در مقیاس اصلی اندازه گیری است). بنابراین من فقط می توانم در مورد تفاوت (یا نسبت) میانه ها در مقیاس اصلی اندازه گیری استنتاج کنم. آزمونهای t دو نمونهای و فواصل اطمینان در صورتی که جمعیتها تقریباً نرمال باشند با انحرافات استاندارد تقریباً قابل اعتماد هستند، بنابراین ممکن است وسوسه شویم که از تبدیل «Box-Cox» برای حفظ فرض نرمال بودن استفاده کنیم (من همچنین فکر میکنم که چنین است. یک تبدیل تثبیت کننده واریانس نیز). با این حال، اگر ابزارهای t را برای دادههای تبدیلشده «Box-Cox» اعمال کنیم، استنباطهایی در مورد تفاوت میانگین دادههای تبدیلشده به دست خواهیم آورد. چگونه می توانیم آنها را در مقیاس اصلی اندازه گیری تفسیر کنیم؟ (میانگین مقادیر تبدیل شده میانگین تبدیل شده نیست). به عبارت دیگر، در نظر گرفتن تبدیل معکوس تخمین میانگین، در مقیاس تبدیل شده، برآوردی از میانگین در مقیاس اصلی به دست نمی دهد. آیا می توانم فقط در مورد میانه ها در این مورد استنباط کنم؟ آیا تحولی وجود دارد که به من اجازه دهد به وسیله (در مقیاس اصلی) برگردم؟ _این سوال ابتدا به صورت نظر در اینجا ارسال شد_ | پاسخها را بر حسب واحدهای اصلی، در دادههای تبدیل شده باکس کاکس بیان کنید |
70374 | گروهی از ارزیابها (حدود 20 نفر) مجموعهای از ویدئوها را تماشا میکنند و آنها را به 4 دسته طبقهبندی میکنند. من یک کاپا فلیس را برای اندازه گیری توافق اجرا خواهم کرد. چگونه می توان اندازه نمونه را به توان 0.8 و آلفا 0.05 محاسبه کرد؟ همچنین، آیا آن حجم نمونه، تعداد ویدیوهایی است که باید ارزیابی شوند؟ | اندازه نمونه برای کاپا فلیس مورد نیاز است؟ |
34202 | من سعی می کنم تست اسپیرمن را که در نتیجه استفاده از cor.test در بسته R دریافت می کنم، درک کنم. به نظر من این صفحه به من اطلاع داد که نه تنها باید به مقادیر p و مقادیر rho از خروجی اهمیت بدهم، بلکه باید به ارتباط آن با آزمونهای t نیز اهمیت بدهم. گاهی اوقات من به عنوان نتیجه مقدار p 0 و مقدار rho 1 را دریافت می کنم و مقدار آزمون آماری نیز صفر است. من یک سوال مشابه را در اینجا دیدم، اما به نظر می رسد بیش از حد بر روی برخی از همبستگی های اسپیرمن انجام شده متمرکز شده است. از آنجایی که این واقعاً مربوط به R نیست، اما شامل درک مفهومی آمار آزمون اسپیرمن همانطور که در R ذکر شده است، من فکر کردم که این مناسب تر از سرریز پشته است. متشکرم. | Cor.test و مقادیر آزمون آماری برای همبستگی اسپیرمن، چگونه می توان آنها را معنا کرد؟ |
1719 | خب، من روز به روز مهندس هستم. اگرچه بیشتر کار من حول محور مدلینگ می چرخد، ما معمولاً کارهای اولیه ای انجام می دهیم. یک مدل پیشرفته شبیه سازی مونت کارلو است که با استفاده از تست های R2 تایید شده است. در حال حاضر، در زمینه من، تحقیقات زیادی با استفاده از تحلیل لجستیک و بیزی انجام می شود. سوال من این است که کدام دوره ها را به کسی توصیه می کنید که از سایت دوره آزاد MIT یا هر سایت دیگری بگذرد، برای کسی که اول از طریق ویدئو/صوت بهتر یاد می گیرد، و دوم خواندن؟ آنچه که من می خواهم یاد بگیرم موارد زیر است: * قادر به درک مدل ها و زمان استفاده از آنها * قادر به دریافت داده های میدانی (که یک بار تولید می شوند و قابل بازسازی نیستند) و طراحی و انجام آزمایش ها * قادر به درک نتایج، به آنها نگاه کنید، و بفهمید که آیا چیزی خاموش است، show stopper یا outliers، یا اگر همه چیز خوب و شیک است * قادر به اعتبارسنجی و کالیبره کردن مدل، به واقعی بودن نتایج به عنوان ساخته شده * قادر به پیش بینی نتایج با استفاده از تجزیه و تحلیل حساسیت مناسب * قادر به پیش بینی / وصل کردن داده های از دست رفته * قادر به نوشتن مقالات مجلات مرتبط با رشته من به طور خلاصه رشته من این است: مدل سازی تقاضای حمل و نقل برای وسایل نقلیه مسافربری، با استفاده از مدل چهار مرحلهای عمومی، یا مدلهای مبتنی بر فعالیت اقتصادی/اجتماعی اقتصادی مانند PECAS یا urbansim | مطالب آنلاین ویدیویی/صوتی برای ورود به تحلیل بیزی و رگرسیون لجستیک |
110886 | من یک سوال مهم در مورد تحلیل عاملی محور اصلی دارم: آیا می توان فاکتورها را بر اساس معیارهای MAP استخراج کرد یا این معیار فقط در هنگام استفاده از تحلیل مولفه اصلی معتبر است؟ | تحلیل عاملی - تحلیل محور اصلی و آزمون MAP |
13943 | فرض کنید، مشکل طبقه بندی/رگرسیون وجود دارد. به نظر من، گاهی اوقات تقسیم نمونه آموزشی بر اساس یک ویژگی (یا شاید با روش معقول دیگری، مثلاً تولید ویژگی و سپس تقسیم بر اساس آن.) و سپس برازش دو مدل بهتر از برازش یک مدل است. به عنوان مثال، شما طول عمر افراد دو کشور را مشخص می کنید. بسیاری از ویژگی های پزشکی، بیولوژیکی و غیره افراد وجود دارد. میتوانید یک ویژگی باینری دیگر اضافه کنید که اگر مردی از country_1 باشد، مقدار 0 و اگر از country_2 باشد، 1 میگیرد. چه می شود اگر این دیدگاه ها خیلی متفاوت باشند؟ به طور شهودی احساس میکنم که برازش مدلهای جداگانه برای دو کشور حتی میتواند کیفیت پیشبینی را بهبود بخشد، علیرغم این واقعیت که نمونه آموزش کمتری دارد. به نظر میرسد دادههایی که از یک کشور میآیند خاصتر و «خالصتر» هستند. بنابراین، در چه شرایطی تقسیم نمونه آموزشی معقول است؟ چه قانون شست یا توضیحی به زبان انگلیسی ساده می توانید راهنمایی کنید؟ | تقسیم نمونه آموزشی در مقابل عامل باینری/اسمی اضافی |
110880 | من در مورد نوع آزمایشی که می توانستم روی داده هایم انجام دهم شک دارم. من یک قاب داده از نوع زیر دارم: contig, pos, A1, A2, Ctrl_A1, Ctrl_A2, Treat_A1, Treat_A2 comp1293557_c0_seq1, 284, T, C, 38, 20, 43, 17, comp1470,2,2, 147801 27, 14, 30, 16, comp15049_c0_seq1, 209, A, G, 56, 11, 28, 26 contig = نام ژن که دارای یک واریانت است pos = موقعیت واریانت (جهش) A1 مطابقت دارد. آلل 1، A2 تا آلل 2. اعداد در جدول تعداد وقوع آلل هستند. 1 یا 2 در نمونه های شاهد یا تیمار. چیزی که من به آن علاقه دارم، این است که آیا نمونه درمان از نسبت های متفاوتی از آلل های A1 و A2 در مقایسه با شاهد استفاده می کند یا خیر. و این برای هر ردیف. من در مورد اعمال یک تست Chi-squared یا یک تست دقیق فیشر برای هر ردیف فکر کردم، اما به طور جدی شک دارم که این راه برای پاسخ به سوال من باشد. آیا بینش یا ایده ای برای حل این مشکل دارید؟ ممنون، سوفی | چگونه می توان آزمایش کرد که آیا نسبتی از آلل ها بین شرایط متفاوت است؟ |
80845 | من میخواهم دادههای آبزی پروری ماهی را با مقایسه نرخ رشد بر اساس حالت و کنترل اثرات مخزن به عنوان یک اثر مختلط تجزیه و تحلیل کنم. من از معادله $$ w = aL^b $$ استفاده خواهم کرد اما می خواهم b تابعی از حالت مبدا باشد. من می توانم این کار را با استفاده از تابع nlme در بسته nlme انجام دهم. در اینجا یک مجموعه داده اسباب بازی مشابه من است. tl <- seq(100، 300، 1/5) حالت <- c(rep(x = c(DE، TX، FL، VA، SC)، بار = طول (tl )/5)، DE) ai <- 0.000004 bi <- 3.3 lw <- NULL set.seed(1234) for(i in 1:length(tl)) { lw[i] <- log(ai) + bi * log(tl[i]) + rnorm(n = 1، 0، 0.1) } w <- exp(lw) df <- data.frame(cbind(w, tl)) df$state <- as.factor(state) df$tank <- as.factor(c(rep(1:15, طول(tl)/15)، 1:11)) این کدی است که من استفاده می کنم: nl <- nlme(w ~ a * tl ^ b، ثابت = لیست (a ~ 1، b ~ حالت)، تصادفی = b ~ 1|مخزن، داده = df، شروع = c(a = تکرار(0.0000001، بار = 1)، b = تکرار(3.1، بار = 5))) خلاصه (nl) با این حال، نمودار داده ها نشان می دهد که خطا احتمالاً در مقیاس حسابی ضربی است (تغییرپذیری در «w» (وزن) با افزایش «tl» (طول کل) افزایش می یابد): (tl، exp(lw)) مدل فعلی من با استفاده از nlme $$ w = aL^b + \epsilon \quad \epsilon \sim N(0، \sigma^2) $$ که در آن _b_ تابعی از حالت است. با این حال، من میخواهم مدل خطی log- معادل را بسازم: $$ w = aL^b\epsilon \quad \epsilon \sim N(0, \sigma^2) $$ $$ \log(w) = \log( a) + b \cdot \log(L) + \log(\epsilon) $$ اگر نمیخواستم _b_ تابعی از حالت باشد، میتوانستم از تابع «lme» استفاده کنم. در `nlme`: lm1 <- lme(log( جرم) ~ log(tl)، داده = df، تصادفی = ~ 1| مخزن) خلاصه (lm1) چگونه می توانم مدل لاگ خطی معادل مدل غیرخطی خود را بسازم به جز برای توزیع خطا؟ شیائو و همکاران 2010 این موضوع را مورد بحث قرار داد، اما برای مدلهای غیر مختلط و برای توابعی است که _a_ یا _b_ تابعی از یک عامل هستند. http://www.esajournals.org/doi/pdf/10.1890/11-0538.1 بخش پایانی سوال این است که آیا می توانم از AIC برای مقایسه دو مدل استفاده کنم یا اگر داده ها فقط باید از log-linear استفاده کنم به وضوح به دنبال آن ساختار خطا هستید؟ | تبدیل مدل ترکیبی غیرخطی به مدل مختلط لاگ خطی در R (nlme) |
14999 | اکنون در چند سوال مطرح شده است و من در مورد چیزی متعجب بودم. آیا این زمینه به طور کلی به سمت «تکرارپذیری» با تمرکز بر در دسترس بودن داده های اصلی و کد مورد نظر حرکت کرده است؟ همیشه به من آموخته بودند که هسته تکرارپذیری لزوماً، همانطور که به آن اشاره کردم، توانایی کلیک کردن بر روی Run و دریافت نتایج یکسان نیست. به نظر می رسد رویکرد داده و کد فرض را بر این می گذارد که داده ها صحیح هستند - این که نقصی در جمع آوری خود داده ها وجود ندارد (اغلب در مورد تقلب علمی نادرست است). همچنین به جای تکرارپذیری یافتهها در چندین نمونه مستقل، بر یک نمونه واحد از جامعه هدف تمرکز میکند. پس چرا به جای تکرار مطالعه از پایه، بر توانایی اجرای مجدد تحلیل تاکید می شود؟ مقاله ذکر شده در نظرات زیر در اینجا موجود است. | چگونه «تحقیق قابل تکرار» را تعریف می کنیم؟ |
14995 | آزمایش زیست شناسی سلولی زیر را در نظر بگیرید. ما در حال مقایسه تیمارهای مختلف $T$ از سلول های کشت شده هستیم. هر درمان $t$ در چندین چاه _(microtiter)_ تکرار میشود که توسط متغیر $w \in \\{1, 2, \cdots, W\\}$ نمایهسازی میشود. برای اندازهگیری پاسخ به درمان در چاه $w$، مجموعاً $F_w$ میکروگرافهای غیر همپوشانی یا _fields_ ثبت میشوند. سپس، برای هر فیلد $f$ در چاه $w$، مجموعا سلولهای $C_{wf}$ از نظر محاسباتی شناسایی میشوند که به موجب آن هر سلول $c$ (در چاه $w$، فیلد $f$) با یک نشان داده میشود. مجموعه ای از $P_{wfc}$ پیکسل. در نهایت، با هر پیکسل $p$، یک اندازه گیری $x_{wfcp}$ مرتبط است (که از شدت سیگنال های فلورسانس مختلف ثبت شده در آن پیکسل به دست می آید). > مشکل این است که تمام اندازههای پیکسلی را جمع میکنیم $x_{wfcp}$ تا یک معیار معقول $X_t$ از تأثیر درمان $t$ روی سلولها > و همچنین مقداری از گسترش X_t$. رویکرد استاندارد برای چنین مسائلی استفاده از میانگین به عنوان معیار و واریانس (یا انحراف معیار) به عنوان پراکندگی است. با این حال، در این مورد، روشهای متعدد و غیر معادلی وجود دارد که میتوان میانگین و واریانس را محاسبه کرد. در حال حاضر با تمرکز روی میانگین، در یک حد، میتوان به سادگی x_{wfcp}$ را روی همه پیکسلها جمع کرد (بدون توجه به توزیع آنها در سلولها، فیلدها و چاهها)، و این مجموع را بر تعداد کل پیکسلها تقسیم کرد. $P$ (برای درمان $t$): $$ \frac{1}{P}\sum_{w=1}^W\sum_{f=1}^{F_w}\sum_{c=1}^{C_{wf}}\sum_{p=1}^ {P_{wfc}} x_{wfcp} $$ در نقطه مقابل، میتوانیم در هر سطح میانگین بگیریم: ابتدا میانگین x_{wfc}$ از $x_{wfcp}$ برای هر سطح را محاسبه کنید. سلول، سپس میانگین $x_{wf}$ از $x_{wfc}$ را برای هر فیلد محاسبه کنید، و به همین ترتیب: $$ \frac{1}{W}\sum_{w=1}^W \left[\ فرک{1}{F_w} \sum_{f=1}^{F_w} \left[\frac{1}{C_{wf}}\sum_{c=1}^{C_{wf}} \left[\frac{1}{P_{wfc}} \sum_{p=1}^{P_{wfc}} x_{wfcp}\right]\right]\right] $$ به طور کلی، این دو عبارت برابر نباشند به علاوه چندین تنوع در این بین وجود دارد. با حساب من، 8 راه برای انجام این کار وجود دارد (از جمله دو روش بالا). من همه را با شکوه کامل در پایان این پست فهرست کرده ام. برای مثال، میتوان این را محاسبه کرد (شماره 6 در فهرست زیر): $$ \frac{1}{W}\sum_{w=1}^W \left[\frac{1}{C_w} \sum_{f =1}^{F_w} \sum_{c=1}^{C_{wf}} \left[\frac{1}{P_{wfc}} \sum_{p=1}^{P_{wfc}} x_{wfcp}\right]\right] $$ ...که در آن $C_w = \sum_f \sum_c \; 1$ تعداد کل سلول ها (در تمام فیلدهای) چاه $w$ است. (دستور العمل کدگذاری شده توسط این عبارت می گوید: مقدار متوسط $x_{wfcp}$ را برای هر سلول محاسبه کنید، یعنی $x_{wfc} = \left[\sum_p x_{wfcp}\right]/P_{wfcp}$ سپس، برای هر چاه $w$، میانگین این $x_{wfc}$ را در تمام سلولهای $C_w$ در چاه محاسبه کنید. $w$—بدون در نظر گرفتن توزیع آنها روی فیلدها—، یعنی $x_w = \left[ \sum_f \sum_c x_{wfc}\right]/C_w$ و در نهایت، میانگین x_w$ روی همه چاههای $W$، $ \left[\sum_w x_w\right]/W$.) در مواجهه با تمام این روشهای مختلف برای «استفاده از میانگینها» برای اندازهگیری تأثیر درمان $t$، سؤال فوری البته این است که کدام را انتخاب کنیم؟ یک نسخه واضح تر از این سوال این است: چگونه می توانم تعیین کنم که در چه سناریوهایی یک نوع معین مناسب/آموزنده/مفید خواهد بود؟ و به طور کلی تر: آیا در محاسبه میانگین میانگین ها (میانگین ها...) مشکلاتی وجود دارد؟ با تشکر * * * (اصلاحات خوش آمدید) $$ \small \begin{array}{lrl} 1\. \;\; \frac{1}{P}\sum_{w=1}^W\sum_{f=1}^{F_w}\sum_{c=1}^{C_{wf}}\sum_{p=1}^ {P_{wfc}} x_{wfcp} && && \\\ 2\. \;\; \frac{1}{W}\sum_{w=1}^W \left[\frac{1}{P_w} \sum_{f=1}^{F_w} \sum_{c=1}^{C_{ wf}} \sum_{p=1}^{P_{wfc}} x_{wfcp}\right] && \mathrm{where} && P_w = \sum_{f=1}^{F_w}\sum_{c=1}^{C_{wf}}\sum_{p=1}^{P_{wfc}} \; 1 \\\ 3\. \;\; \frac{1}{F}\sum_{w=1}^W \sum_{f=1}^{F_w} \left[\frac{1}{P_{wf}}\sum_{c=1}^ {C_{wf}} \sum_{p=1}^{P_{wfc}} x_{wfcp}\right] && \mathrm{where} && F = \sum_{w=1}^W \sum_{f=1}^{F_w} \; 1 \, , \, P_{wf} = \sum_{c=1}^{C_{wf}}\sum_{p=1}^{P_{wfc}} \; 1 \\\ 4\. \;\; \frac{1}{C}\sum_{w=1}^W \sum_{f=1}^{F_w} \sum_{c=1}^{C_{wf}} \left[\frac{1} {P_{wfc}} \sum_{p=1}^{P_{wfc}} x_{wfcp}\right] && \mathrm{where} && C = \sum_{w=1}^W \sum_{f=1}^{F_w} \sum_{c=1}^{C_{wf}} \; 1 \\\ 5\. \;\; \frac{1}{W}\sum_{w=1}^W \left[\frac{1}{F_w} \sum_{f=1}^{F_w} \left[\frac{1}{P_{ wf}}\sum_{c=1}^{C_{wf}}\sum_{p=1}^{P_{wfc}} x_{wfcp}\right]\right] && && \\\ 6\. \;\; \frac{1}{W}\sum_{w=1}^W \left[\frac{1}{C_w} \sum_{f=1}^{F_w} \sum_{c=1}^{C_{ wf}} \left[\frac{1}{P_{wfc}} \sum_{p=1}^{P_{wfc}} x_{wfcp} \right]\right] && \mathrm{where} && C_w = \sum_{f=1}^{F_w} \sum_{c=1}^{C_{wf}} \; 1 \\\ 7\. \;\; \frac{1}{F}\sum_{w=1}^W \sum_{f=1}^{F_w} \left[\frac{1}{C_{wf}}\sum_{c=1}^ {C_{wf}} \left[\frac{1}{P_{wfc}} \sum_{p=1}^{P_{wfc}} x_{wfcp}\right]\right] && && \\\ 8\. \;\; \frac{1}{W}\sum_{w=1}^W \left[\frac{1}{F_w} \sum_{f=1}^{F_w} \left[\frac{1}{C_{ wf}}\sum_{c=1}^{C_{wf}} \left[\frac{1}{P_{wfc}} \sum_{p=1}^{P_{wfc}} x_{wfcp}\right]\right]\right] && && \hspace{3in} \end{array} $$ | میانگین میانگین ها (از میانگین ها، میانگین ها...) |
80841 | من سعی می کنم از بسته dismo برای ایجاد یک مدل BRT با داده های فقط حضوری استفاده کنم. من به طور تصادفی از 10000 داده پس زمینه نمونه برداری کرده ام. سوال من این است: آیا باید 10 (یا 5) تکرار از مدل brt را مانند یک رویه cv معمولی روی مجموعه داده اجرا کنم؟ به عنوان مثال، برای هر تکرار، 60 درصد از داده های حضور و 60 درصد از داده های پس زمینه برای آموزش مدل و بقیه داده های حضور برای آزمون استفاده می شود. میانگین نقشه های پیش بینی نتیجه خواهد بود. با این حال، در بسته dismo، روش gbm.step قبلاً از cv برای استخراج تعداد درخت بهینه استفاده میکند، بنابراین میپرسم آیا میتوانم تمام دادههای حضور و دادههای پسزمینه را برای تولید مدل بهینه قرار دهم؟ خیلی ممنون | آیا در صورت استفاده از dismo در R لازم است 10 تکرار مدل رگرسیون تقویت شده اجرا شود؟ |
115331 | من در استفاده از R کاملا مبتدی هستم اما اخیراً کدهایی را اجرا می کنم که یکی از همکاران به من داده است تا R را به پایگاه داده مایکروسافت اکسس متصل کنم و رکوردهای خاصی را بیرون بیاورم. اما چند روز پیش کارش متوقف شد. هنگام تلاش برای اتصال به پایگاه داده (با استفاده از بسته RODBC) و وارد کردن جدول، خطا ظاهر می شود. می گوید خطا در as.POSIXlt.character(x، tz، ...). از گوگل می توانم متوجه شوم که این یعنی چیزی مانند تاریخ و غیره در قالب نادرست است. با این حال هیچ چیز در پایگاه داده تغییر نکرده است. بنابراین من کاملاً متحیر هستم که چرا ناگهان از کار افتاده است! آیا کسی ایده یا راه حل ممکنی دارد؟ متشکرم | وارد کردن جداول از دسترسی MS به R |
94909 | من دو گروه A و B را پس از جدول بندی متقاطع با موارد و شاهد مقایسه می کنم. من یک جدول به این شکل دریافت می کنم: موارد کنترل A 8 0 B 14 0 بدیهی است که به دلیل 0 ها نمی توانم نسبت شانس را انجام دهم. انجام تست دقیق فیشر به من مقدار p 0.5152 را می دهد اما فاصله اطمینان از 0.16 به Infinity می رسد. افزودن 0.5 به هر سلول، آزمایش دقیق فیشر را تغییر نمیدهد (اگرچه مطمئن نیستم که چرا نسبت ODD هنوز در R بینهایت است) و به دلیل تعداد سلولهای کوچک، در استفاده از یک تقریب نرمال مردد هستم. با این حال، به نظر می رسد سیگنال کاملاً قوی است که A و B هر دو یکسان عمل می کنند... هیچ یک از آنها مشاهده را وارد دسته مورد نمی کنند. (در اینجا A و B مواد سمی هستند). چه راه های دیگری وجود دارد که می توانم با این موضوع مقابله کنم تا به این نکته پی ببرم؟ متشکرم | دوره اقدام برای جداول 2×2 با 0 در سلول و تعداد سلول کم |
820 | من در حال ساخت یک برنامه وب برای تجارت کتاب استفاده شده هستم و یک ویژگی برای پیشنهاد کتاب های دیگر اضافه می کنم که هنگام مشاهده یک پیشنهاد جالب باشد. در حال حاضر دادههایی که من ذخیره میکنم به شرح زیر است (هر بار که شخصی از پیشنهاد بازدید میکند به روز میشوند): ISBN (کتاب پیشنهاد) SessId (شناسه منحصربهفردی که همه هنگام بازدید از وبسایت دارند) NumberOfVisit (تعداد دفعاتی که شخص مشاهده کرده است) پیشنهادی از آن کتاب) من همچنین به برخی از داده های به روز رسانی کاربر دسترسی دارم که کتاب را بر اساس موضوع و دوره طبقه بندی می کند. لزوماً به روز و دقیق نیست، اما با این وجود داده است. چه رویکردی برای فهرست کردن جذابترین کتابها برای یک کتاب وجود دارد؟ | چگونه می توانم مورد را بر اساس ارتباط پیوند دهم؟ |
11120 | من 5 سری بازده کل ارز در بازارهای نوظهور دارم که بازده آتی تک دوره ای (1 ساله) را پیش بینی می کنم. من میخواهم با استفاده از واریانسها و کوواریانسهای تاریخی (1) و بازده مورد انتظار پیشبینی خودم، یک نمونه کار بهینه واریانس میانگین مارکوویتز از سری 5 بسازم. آیا R راه/کتابخانه ای (آسان) برای این کار دارد؟ علاوه بر این، چگونه می توانم محاسبه کنم (1) آیا یک تابع داخلی وجود دارد؟ برای بهره، ارزهای من USDTRY، USDZAR، USDRUB، USDHUF و USDPLN هستند. | بهینه سازی میانگین واریانس نمونه کارها مارکویتز در R |
94901 | من دو نمونه $ X_1،\cdots،X_n $ و $Y_1، \cdots، Y_n $ دارم، و میخواهم آنها را دوباره مرتب کنم تا مقدار همبستگی رتبهای از پیش تعیین شده مانند تاو کندال داشته باشند. من می دانم که راه های زیادی برای تولید دو نمونه با ضریب همبستگی پیرسون خاص وجود دارد، اما نمی دانم که آیا راهی برای انجام این کار در مورد تاو کندال وجود دارد یا خیر. | دو دنباله ایجاد کنید که یک همبستگی رتبه از پیش تعیین شده دارند |
114744 | من می توانم از راهنمایی هایی در مورد ارائه برخی داده ها استفاده کنم. این نمودار اول یک مقایسه مورد-شاهدی برای سیتوکین IL-10 است. من به صورت دستی محور y را طوری تنظیم کرده ام که 99 درصد از داده ها را شامل شود.  دلیل اینکه من این را به صورت دستی تنظیم می کنم این است که گروه مورد دارای یک نقطه پرت شدید است.  همکاران من در انجام حذف موارد پرت از مجموعه داده ما مردد هستند. من با آن مشکلی ندارم، اما آنها ترجیح می دهند نه. این راه حل واضح است اما اگر قرار است تمام دادهها را حفظ کنم و این موارد پرت را حذف نکنم، چگونه میتوانم این باکس پلات را بهطور بهینه ارائه کنم؟ محور شکاف؟ آیا استفاده از نمودار اول و توجه به اینکه برای گنجاندن تمام داده ها ساخته شده است قابل قبول است؟ (این گزینه برای من غیر صادقانه به نظر می رسد). هر توصیه ای عالی خواهد بود. | چگونه نمودار جعبه را با یک نقطه پرت شدید ارائه کنیم؟ |
94902 | من در حال ساخت یک مدل هستم و فکر می کنم که موقعیت جغرافیایی احتمالاً در پیش بینی متغیر هدف من بسیار خوب است. من کد پستی هر یک از کاربرانم را دارم. در مورد بهترین راه برای گنجاندن کد پستی به عنوان یک ویژگی پیش بینی کننده در مدل خود کاملاً مطمئن نیستم. اگرچه کد پستی یک عدد است، اما اگر عدد بالا یا پایین برود معنایی ندارد. میتوانم همه 30000 کد پستی را باینریزه کنم و سپس آنها را بهعنوان ویژگی یا ستونهای جدید اضافه کنم (مثلاً {user_1: {61822: 1، 62118: 0، 62444: 0، و غیره}}. با این حال، به نظر میرسد که این یک تن اضافه کند. از ویژگی های مدل من نظری در مورد بهترین راه برای رسیدگی به این وضعیت دارید. | چگونه می توان جغرافیا یا کد پستی را در مدل یادگیری ماشینی یا سیستم توصیه کننده نشان داد؟ |
11127 | من 2 متغیر وابسته (DVs) دارم که امتیاز هر کدام ممکن است تحت تأثیر مجموعه 7 متغیر مستقل (IVs) باشد. DV ها پیوسته هستند، در حالی که مجموعه IV ها از ترکیبی از متغیرهای کدگذاری شده پیوسته و باینری تشکیل شده است. (در کد زیر متغیرهای پیوسته با حروف بزرگ و متغیرهای باینری با حروف کوچک نوشته شدهاند.) هدف از این مطالعه کشف چگونگی تأثیر این DVها توسط متغیرهای IV است. من مدل رگرسیون چند متغیره (MMR) زیر را پیشنهاد کردم: my.model <- lm(cbind(A, B) ~ c + d + e + f + g + H + I) برای تفسیر نتایج دو عبارت را صدا می زنم: 1 «خلاصه(manova(my.model))» 2. «Manova(my.model)» خروجی های هر دو تماس در زیر جایگذاری شده اند و به طور قابل توجهی متفاوت هستند. لطفاً کسی توضیح دهد که کدام عبارت از بین این دو باید انتخاب شود تا نتایج MMR به درستی خلاصه شود و چرا؟ هر پیشنهادی بسیار قدردانی خواهد شد. خروجی با استفاده از عبارت `summary(manova(my.model)): > summary(manova(my.model)) Df Pillai تقریباً F num Df den Df Pr(>F) c 1 0.105295 5.8255 2 99 0.004057 ** 08513 d 1 . 4.6061 2 99 0.012225 * e 1 0.007886 0.3935 2 99 0.675773 f 1 0.036121 1.8550 2 99 0.161854 g 1 0.002103 0.10949 0.109402 H 0.228766 14.6828 2 99 2.605e-06 *** I 1 0.011752 0.5887 2 99 0.556999 Residuals 100 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خروجی با استفاده از عبارت «Manova(my.model)»: > library(car) > Manova(my.model) نوع II آزمون های MANOVA: آمار آزمایش Pillai Df آزمون آمار تقریباً F num Df den Df Pr(>F) c 1 0.030928 1.5798 2 99 0.21117 d 1 0.079422 4.2706 2 99 0.01663 * e 1 0.003067 0.1523 2 99 0.85893 f 1 0.029812 1.5210 2 99 0.223155 g 0.223155 0.003067 0.80668 H 1 0.229303 14.7276 2 99 2.516e-06 *** I 1 0.011752 0.5887 2 99 0.55700 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 1 | رگرسیون چند متغیره در R |
14332 | من با ادغام محتوای چند فایل با هم یک قاب کلان داده می سازم. این فایل ها طرح بندی ستون های مشابهی دارند. c = read.delim('bigfile1.txt') c1 = read.delim('bigfile2.txt') c2 = read.delim('bigfile3.txt') ctmp1 = ادغام (c, c1, all=TRUE) ctmp2 = merge(ctmp1, c2, all=TRUE) آیا کد بالا کارآمد است؟ آیا به جای آن باید از همان نام متغیر استفاده مجدد کنم، به عنوان مثال. tmp = ادغام (c, c1, all=TRUE) tmp = ادغام (tmp, c2, all=TRUE) | روشی کارآمد برای ادغام چند فریم داده در R |
70375 | من با تجزیه و تحلیل نتایج نظرسنجی خود در SPSS مشکل دارم و واقعاً امیدوارم که بتوانید کمک کنید. من کاردرمانگران را پیرامون جنبههای عملکردشان در سطح ملی بررسی کردم و سابقه نمونه من از موارد زیر تشکیل شد: باند 5 - 8 باند 6 - 25 باند 7 - 35 باند 8 - 6 این توزیع در سطح ملی در NHS مقایسه میشود. به: باند 5- 24% (3214) باند 6- 45% (6130) باند 7- 25% (3336) باند 8 -6% (838) بنابراین، چگونه می توانم این را به SPSS ترجمه کنم تا اطمینان حاصل کنم که پاسخ های من با توجه به ارشدیت وزن شده اند و اطمینان حاصل کنم که یافته های من قابل تعمیم هستند؟ من در حال حاضر در حال تجزیه و تحلیل دادههای طبقهبندی خود از طریق آزمونهای مجذور کای هستم. از هر کمکی که می توانید ارائه دهید بسیار متشکرم - من از طریق شبکه تراول کردم و به نظر نمی رسد هیچ توصیه مستقیمی ارائه دهد! امی | چگونه آمار جمعیت را در SPSS وزن کنم؟ |
5250 | من سعی می کنم برخی از داده ها را با استفاده از یک مدل اثر ترکیبی تجزیه و تحلیل کنم. داده هایی که من جمع آوری کردم نشان دهنده وزن برخی از حیوانات جوان با ژنوتیپ های مختلف در طول زمان است. من از روش پیشنهادی در اینجا استفاده می کنم: http://blog.gribblelab.org/2009/03/09/repeated-measures-anova-using-r/ به طور خاص از راه حل شماره 2 استفاده می کنم بنابراین چیزی شبیه به نیاز دارم( nlme) مدل <- lme(وزن ~ زمان * ژنوتیپ، تصادفی = ~1|حیوان/زمان، داده=وزن) av <- anova(مدل) اکنون، من می خواهم چند مقایسه داشته باشم. با استفاده از multcomp می توانم این کار را انجام دهم: require(multcomp) comp.geno <- glht(model, linfct=mcp(Genotype=Tukey)) print(summary(comp.geno)) و البته می توانم این کار را انجام دهم مشابه با زمان من دو سوال دارم: 1. چگونه از mcp برای مشاهده تعامل بین زمان و ژنوتیپ استفاده کنم؟ 2. وقتی «glht» را اجرا میکنم این اخطار را دریافت میکنم: «تعاملهای متغیری پیدا شد -- کنتراست پیشفرض ممکن است نامناسب باشد» به چه معناست؟ آیا می توانم با خیال راحت آن را نادیده بگیرم؟ یا برای جلوگیری از آن چه باید بکنم؟ **ویرایش:** من این پی دی اف را پیدا کردم که می گوید: > چون تعیین پارامترهای مورد علاقه > به طور خودکار غیرممکن است، mcp() در multicomp به طور پیش فرض > مقایسه هایی را فقط برای افکت های اصلی ایجاد می کند، ** نادیده گرفته می شود متغیرهای کمکی و > تعاملات**. از نسخه 1.1-2، میتوان با استفاده از آرگومانهای interaction_average = TRUE > و covariate_average = TRUE، میانگین بیش از > عبارتهای تعامل و متغیرهای کمکی را به ترتیب تعیین کرد، در حالی که نسخههای قدیمیتر از 1.0-0 > بهطور خودکار در شرایط تعامل میانگین میشوند. **ما به کاربران پیشنهاد می کنیم > با این حال، مجموعه ای از کنتراست های مورد نظر خود را به صورت دستی بنویسند.** > هر زمان که در مورد اندازه گیری کنتراست های پیش فرض شک دارید، باید این کار را انجام دهید، که معمولاً در مدل هایی با تعامل مرتبه بالاتر > شرایط. ما به Hsu (1996)، فصل 7، و سرل (1971)، فصل 7.3، > برای بحث ها و مثال های بیشتر در مورد این موضوع مراجعه می کنیم. من به آن کتاب ها دسترسی ندارم، اما شاید کسی اینجا دسترسی داشته باشد؟ | مقایسههای چندگانه در یک مدل جلوههای ترکیبی |
6247 | من یک مشکل دارم. من در حال ایجاد یک بارپلات گسترده (50x گروه بندی شده در 4 ستون) هستم و آن را به ps چاپ می کنم. با این حال این شکل با ps چاپ شده مطابقت ندارد - محور x از یک صفحه خارج می شود. اگر فقط بتوانم حاشیه چپ بزرگ را از یاکسیس حذف کنم، مناسب است. اما من نمی دانم چگونه عکس را به چپ حرکت دهم و حاشیه را کاهش دهم. من مدتی را صرف پرسیدن از دایی گوگل کردم اما چیزی پیدا نکردم. کسی میتونه کمکم کنه؟ این اسکریپت R من است: mx <- matrix( c(5,3,8,9,5,3,8,9),nr=4) postscript(file=<fileName>.ps); barplot(mx، beside=T، col=grey.colors(4)، cex.axis = 1.4، cex.names=1.2، xlim=c(1،60)، عرض=0.264، xaxs = r، yaxs = r) legend(بالا، c(A1، A2، B1، B2)، pch=15، cex=1.1، col=gray.colors(4)، bty=n) | پست اسکریپت در R: نحوه حذف یک حاشیه چپ بزرگ (روی محور y) |
94903 | من دو سوال در مورد یک آزمایش مزرعه کشاورزی دارم که در دو سال متوالی در دو سایت انجام شد. تقریباً همه چیز در همه آزمایشها یکسان بود (نوع محصول، تراکم کاشت...). داده ها اجازه می دهد که تمام داده ها را می توان در یک مدل پیوسته تجزیه و تحلیل کرد. چون دو تا سوال هست دو تاپیک باز کردم و لینک سوال دیگه رو اینجا قرار دادم آزمایشی با دو سایت دو ساله - ساخت مدل lme و ساده سازی (Q2) سایت 1 سال 1: 4 تکرار سایت 1 سال 2: 5 تکرار سایت 2، سال 1: 6 تکرار سایت 2، سال 2: 6 تکرار من از یک مدل ترکیبی برای تجزیه و تحلیل داده ها استفاده می کنم ('lme' بسته 'nlme' در R - همچنین برای lmer باز خواهد بود)، بلوک مدلسازی (تکرارها) به عنوان یک عامل تصادفی، تو در تو **سایت * سال**. به نظر می رسد که مدل به خوبی اجرا می شود (جزئیات در مورد مشکلات مدل سازی در سؤال دیگر). آیا مشکلی ناشی از عدم تکرار وجود دارد یا این تحلیل معتبر است؟ | آزمایشی با دو سایت دو ساله - بلوک های اعداد مختلف - مشکل؟ (Q1) |
104311 | اجازه دهید $Z_1,Z_2 $ i.i.d. معمولی استاندارد $$ X(t) = \begin{cases} 0, & \text{if } t<Z_1, t<Z_2\\\ 1, & \text{if } Z_1\le t <Z_2 \text{ یا } Z_2\le t <Z_1 \\\ 2, & \text{if } t\ge Z_1, t\ge Z_2 \end{cases} $$ ## درخواست $E[X(t)X(t')]$ ## رویکرد $E[X(t)X(t')] = P(X(t)X(t')=1)+2 P( X(t)X(t')=2)+ 4 P(X(t)X(t')=4)$ من $P(X(t)X(t')=1)$ را به صورت زیر کار می کنم : $P(X(t)X(t')=1)=2 P(Z_1<t<Z_2,Z_1<t'<Z_2)$ (x2 زیرا تعویض Z1,Z2 احتمال یکسانی را می دهد) اگر $t'>t $P(Z_1<t<Z_2,Z_1<t'<Z_2)= 2*P(Z_1<t'<Z_2 |Z_1<t<Z_2)P(Z_1<t<Z_2)$=2P(t'<Z_2)P(Z_1<t<Z_2)$=2(1-\Phi(t')) * \Phi (t)(1-\Phi(t))$ این را می توان به $P(X(t)X(t')=1)=2 تعمیم داد (1-\Phi(\max(t,t'))\Phi(\min(t,t'))(1-\Phi(\min(t,t'))$ با این حال، طبق راه حل های من این اشتباه است ## پاسخ صحیح $P(X(t)X(t')=1)=2 (1-\Phi(\max(t,t'))\Phi(\min(t,t') )$ ## سوال من من چه غلطی می کنم؟ | همبستگی متقابل فرآیند تصادفی |
94900 | من در درک اینکه چرا محاسبه خطای استاندارد میانگین مشکل دارم: $$ \widehat{SE} = \frac{\widehat{SD}}{\sqrt{n}} $$ یک تخمین SE متفاوت از SE به من می دهد. تخمین یک ضریب از GLM گاوسی (تابع پیوند هویت) در R. آیا کسی می تواند توضیح دهد که چرا برآوردگرهای حداکثر احتمال خطای استاندارد ضرایب مدل متفاوت هستند. از فرمول ساده برای خطای استاندارد میانگین؟ کدی که برای بازی کردن با آن استفاده میکنم این است: set.seed(55) # دادههای معمولی توزیع شده x <- c(rep('Treatment1', 20), rep('Treatment2', 20)) y <- c(rnorm(n=20، mean=5، sd=5)، rnorm(n=20، mean=8، sd=5)) dat1 <- data.frame(X=x, Y=y) dat1 # محاسبه خلاصه آمار کتابخانه (روان) sum1 <- describeBy(x=dat1, group=dat1$X) # اجرا glm با باقیمانده های معمولی توزیع شده m1 <- glm(y~x, family='gaussian', data=dat1) summary(m1) # ایجاد جدول خلاصه جدول1 <- data.frame(ID=c('Mean', 'Coefficient', 'SE', 'Coefficient_SE', 'Upper 95% CI (mean)', 'Upper 95% CI (Coefficient)', 'Lower 95% CI ( میانگین)'، '95% CI (ضریب) پایین تر')، درمان1=c( # میانگین sum1$Treatment1$mean[2]، # ضریب m1$ضریب[1]، # SE sum1$Treatment1$se[2]، # خلاصه ضریب SE(m1)$ضرایب[1,2]، # 95% CI بالا ( میانگین) sum1$Treatment1$mean[2] + 1.96*sum1$Treatment1$se[2]، # ضریب CI (ضریب) 95% بالای m1[1] +1.96*خلاصه(m1)$ضرایب[1،2]، # 95% CI (میانگین) مجموع 1$ Treatment1$mean[2] - 1.96*sum1$Treatment1$se[2]، # پایینتر 95% CI (ضریب) m1$ضرایب[1]-1.96*خلاصه(m1)$ضریب[1,2]، Treatment2=c( # میانگین مجموع1$Treatment2$mean[2]، # ضریب m1$ضریب[ 2] + m1$ضریب[1]، # SE sum1$Treatment2$se[2]، # خلاصه ضریب SE(m1)$ضرایب[2,2]، # 95% CI (میانگین) sum1$Treatment2$mean[2] + 1.96*sum1$Treatment2$se[2]، # 95% CI (ضریب) بالا m1$ضرایب[2] + m1$ضرایب[1] + 1.96*خلاصه(m1)$ضرایب[2،2]، # کمتر 95% CI (میانگین) مجموع1$Treatment2$mean[2] - 1.96*sum1$Treatment2$se[2]، # کمتر 95% CI (ضریب) m1$ضرایب[2] + m1$ضرایب[1] - 1.96*خلاصه(m1)$ضرایب[2،2])) | خطای استاندارد میانگین در مقابل خطای استاندارد ضریب در glm گاوسی |
18148 | فرض کنید دو گروه $A$ و $B$ دارید و می خواهید نسبت شانس برخی از نتایج را پیدا کنید. چگونه این نسبت شانس را نشان می دهید؟ آیا فقط $OR(\text{A} \ \text{and} \ B)$ است؟ | اصطلاحات نسبت شانس |
14333 | فرض کنید من یک مجموعه داده دارم که در آن میخواهم خطر نسبی نتیجه X را بر اساس سطح درمان باینری Y، با استفاده از PROC GENMOD برای برازش مدل رگرسیون لجستیک، تخمین بزنم. میتوانم از دستور BAYES استفاده کنم تا SAS 9.2 توزیعهای قبلی خوب و مبتنی بر MCMC را برای دادههای من تولید کند. سوال من این است که اگر بخواهم _از_ آن توزیع پسین را نمونه برداری کنم، چه؟ به عنوان مثال، اگر من یک OR و بازه 95٪ معتبر آن را برای اثر Y تخمین بزنم و متعاقباً بخواهم از آن تخمین در تحلیل دیگری استفاده کنم. اگر بخواهم یک تحلیل حساسیت بر اساس احتمال خطا در تخمین خود از اثر Y انجام دهم، منطقی است که فقط شبیه سازی مونت کارلو را بر اساس توزیع Y اجرا کنم. اما در این مورد، به جای اینکه واقعاً یک شبیه سازی باشد. تولید اعداد تصادفی ساده است، من باید از آن قبلی استفاده کنم. آیا بهترین راه برای انجام این کار با استفاده از گزینه OUTPOST برای به دست آوردن مجموعه داده های نمونه های پسین تولید شده و سپس نمونه برداری تصادفی از آن مجموعه داده جدید است؟ یا مکانیزم هوشمندانهتر دیگری وجود دارد که من نمیبینم؟ | نمونه برداری از یک توزیع پسین در SAS |
13944 | من باید تست نسبت واریانس را روی دو بردار در R انجام دهم. من تابع داخلی را پیدا کردم: **var.test** اما نمی دانم چگونه نتایج آن را تفسیر کنم (p-value). اگر این دو بردار واریانس ثابت داشته باشند، باید منتظر چه نتیجه ای باشم؟ فکر میکنم میتوانم از آن برای درک اینکه آیا این نسبت به معنای بازگشت است یا نه، استفاده کنم، درست است؟ متشکرم | چگونه نتایج آزمون نسبت واریانس را تفسیر کنیم؟ |
17978 | من سعی می کنم از اصول اولیه نحوه انجام این کار را بیابم. صفحه ویکیپدیا در رگرسیون خطی به من آنقدر میدهد که بتوانم آن را با عملیات ماتریسی از طریق مبدا حل کنم، اما من نمیتوانم ادبیات زیادی در مورد پیادهسازی الگوریتمی برای ضرایب بازگشتی برازش OLS، آماره t و مقدار r^2$ پیدا کنم. مناسب آیا کسی می تواند مرا به مرجع خوب راهنمایی کند؟ با تشکر | رگرسیون OLS از اصول اولیه |
17971 | من روی یک متغیر وابسته باینری پروبیت انجام می دهم. متغیر وابسته باینری نتایج 227 موفقیت و 1704 شکست را مشاهده کرده است. اگر پیشبینی را بعد از پروبیت اجرا کنم، احتمالاتی را دریافت میکنم که برای هر مجموعه از مشاهدات منطقی هستند، اما میخواهم بتوانم ضرایب بتا را که از تجزیه و تحلیل مستقیم پروبیت به دست میآورم، معنا کنم. در لاجیت هم همین اتفاق می افتد. | چرا تجزیه و تحلیل پروبیت من به اعدادی خارج از 0 و 1 منجر می شود؟ |
94908 | از یک نمونه بزرگ از سه برابر $(X, Y, U)$ من باید یک تابع $(x, y, u) \mapsto f(x, y, u)$ را تخمین بزنم، به طوری که برای هر $x، y ثابت $، تابع $u \mapsto f(x, y, u)$ یک تابع چگالی است. یعنی تابع چگالی حاشیه ای $U$، با توجه به $X = x$ و $Y=y$. آیا روش استانداردی برای انجام این کار وجود دارد؟ فکر اولیه من این بود که کاری در امتداد خطوط 1 انجام دهم) برای مجموعه ای از نقاط در شبکه $(x, y)$، تخمین بزنید (مثلاً با برخی تکنیک های استاندارد چگالی هسته) $u \mapsto \widehat{f}_ {x, y}(u)$ بر اساس نقاط داده $(\tilde{x}, \tilde{y}, \tilde{u})$ که در آن $\tilde{x}، \tilde{y}$ در محلهای مناسب قرار دارد که حدود $(x, y)$ و $\tilde{u}$ آزادانه متفاوت است. 2) بین این نقاط را به صورت دوخطی درون یابی کنید تا $f$ بدست آورید. آیا این یک رویکرد معقول است؟ | رگرسیون خانواده توابع چگالی حاشیه ای |
17970 | من مجموعه ای از متغیرهای رفتاری بسیار غیرعادی دارم که برای هر حیوان در یک آزمایش مشخص اندازه گیری شده است. من میخواهم نمرهها را به ۲ یا ۳ کاهش دهم تا آزمایش فرد با استفاده از PCA مشخص شود. من در ادبیات می بینم که دیگران به کتاب های آمار چند متغیره برای توجیه استفاده از داده های غیر عادی برای این نوع استفاده از PCA مراجعه کرده اند. اندازهگیریها در مقیاسهای بسیار متفاوتی از واحدها هستند (مثلاً یکی که تا 30 اجرا میشود، بقیه در دهها هزار). اگر من از [R] prcomp با مرکزیت و مقیاسگذاری روی دادههای خام غیرعادی خود استفاده کنم، بارگیریهای رایانهای که بهدست میآیند منطق بیولوژیکی دارند. اما آیا میتوان دادههای غیرعادی را به این شکل متمرکز و مقیاسبندی کرد؟ | آیا استاندارد کردن دادههای غیرعادی که وارد PCA میشوند معتبر است؟ |
111018 | در تحلیل همبستگی متعارف که در آن حداکثر {a'COV(X,Y)b / sqrt[a'COV(X,X)a * b'COV(Y,Y)b]} که در آن U = a'X و V = ابزارهای استاندارد برای حل تجزیه و تحلیل همبستگی متعارف (MATLAB، R، و غیره) راه حل هایی را ارائه می دهند (به اندازه حداقل رتبه هر دو متغیر) که در آن CORR(U1,U2) = CORR(V1,V2) = CORR(U1,V2) = CORR(U2,V1) = 0 برای همه Ur، Uk، Vr، Vk که r با k متفاوت است. همبستگی ها گذرا نیستند، بنابراین برای من بسیار محدود کننده به نظر می رسد. برای مثال میخواهم فقط Vها در بین یکدیگر متعامد باشند و Us لزوماً متعامد نباشند. آیا این محدودیت های سخت برای استفاده از تکنیک های تجزیه ویژه که این ابزارها استفاده می کنند، ضروری هستند یا فقط وجود دارند. اگر نه چگونه می توانم این مشکل بهینه سازی را حل کنم؟ با تشکر | درک تحلیل همبستگی متعارف |
8729 | من سعی می کنم درک بهتری از خوشه بندی kmeans به دست بیاورم و هنوز در مورد هم خطی و مقیاس داده ها نامشخص هستم. برای کشف هم خطی، من یک نمودار از هر پنج متغیری که در نظر دارم در شکل زیر نشان داده شده است، همراه با یک محاسبه همبستگی ایجاد کردم.  من با تعداد بیشتری از پارامترها شروع کردم، و هر کدام را که همبستگی بالاتر از 0.6 داشتند را حذف کردم (فرضی که من انجام دادم). پنج موردی که من انتخاب می کنم در این نمودار نشان داده شده است. سپس، قبل از اعمال تابع Kmeans()، تاریخ را با استفاده از تابع «R» «scale(x)» مقیاس کردم. با این حال، مطمئن نیستم که «مرکز = درست» و «مقیاس = درست» نیز باید گنجانده شوند، زیرا تفاوتهای این استدلالها را درک نمیکنم. (توضیح «مقیاس()» به صورت «مقیاس (x، مرکز = TRUE، مقیاس = TRUE)» ارائه می شود). آیا فرآیندی که من توصیف می کنم روش مناسبی برای شناسایی خوشه ها است؟ | خطی بودن و مقیاس بندی هنگام استفاده از k-means |
17972 | من یک فرآیند طبقه بندی دارم که با استفاده از ترک یک خروجی آزمایش می کنم. دقیقاً چگونه انحراف معیار نتیجه را محاسبه کنم؟ اگر آن را به طور معمول محاسبه کنم، یک انحراف بسیار بزرگ دریافت می کنم که منطقی است زیرا هر آزمایش 100٪ یا 0٪ است. کنوانسیون پذیرفته شده در این مورد چیست؟ با تشکر | انحراف استاندارد خطا از کنار گذاشتن یک |
11123 | من از R برای اجرای GLM ها با پیوند logit برای مقایسه اندازه های کلاچ (مجموعه داده های دوجمله ای) و داده های متناسب در چندین سال استفاده کرده ام. اکنون باید 2 گروه از سال ها (سال های خوب و سال های ضعیف) را بین 2 سایت برای داده های مشابه مقایسه کنم. من علاقه ای به تعامل بین نوع سال (خوب یا ضعیف) و سایت ندارم، اما واقعاً علاقه مندم که بین سایت های خوب و خوب و ضعیف در مقابل ضعیف مقایسه کنم. اگر دادههای من پیوسته بود، از یک ANOVA دو طرفه استفاده میکردم که با آزمونهای t برای هر مقایسه، با استفاده از روش Holm–Bonferroni برای این مقایسههای چندگانه (2) دنبال میشد. با این حال، من کاملاً مطمئن نیستم که چگونه می توان به این مقایسه ها با داده های دوجمله ای نزدیک شد. برای شروع، من اندازه های کلاچ را در نظر می گیرم (اطلاعات متناسب در مرحله بعدی خواهد آمد). من فکر می کنم که این کد (زیر) شبیه ANOVA دو طرفه برای داده های دوجمله ای است؟ model<-glm(clutchsize~Site+Year_type، دوجمله ای) سپس، از آنجایی که در اینجا نتیجه قابل توجهی گرفتم، می توانم به جلو بروم و مقایسه مستقیمی بین سال های خوب و ضعیف به طور مستقل از یکدیگر انجام دهم (با استفاده از Holm–Bonferroni روش). اما چگونه می توانم این مقایسه ها را انجام دهم؟ آیا می توانم از مدل glm برای آن نیز استفاده کنم، مانند این: model<-glm(clsz_gd~Site_gd،دوجمله ای) که در آن clsz_gd دو جمله ای است و Site_gd عاملی با تنها 2 سطح است؟ من حدس می زنم که نمی توانم از آزمون t استفاده کنم! آیا این راه نزدیک شدن به این داده ها است؟ با تشکر | GLM برای مقایسه 2 جمعیت با داده های دوجمله ای؟ |
94905 | من دو سوال در مورد یک آزمایش مزرعه کشاورزی دارم که در دو سال متوالی در دو سایت انجام شد. تقریباً همه چیز در همه آزمایش ها یکسان بود (تنوع، فاصله، تراکم کاشت ...). داده ها اجازه می دهد که تمام داده ها را می توان در یک مدل پیوسته تجزیه و تحلیل کرد. سوال دیگری در مورد تحلیل کارآزمایی وجود دارد. سوال دیگر این است: آزمایشی با دو سایت، دو سال - بلوک های اعداد مختلف - مشکل؟ (Q1) عوامل در منطقه مدل من. سایت (2 سایت) سال (2 سال) بلوک (4-6، به سوال دیگر مراجعه کنید) درمان (6 درمان) اگر داده های اسباب بازی مورد نیاز باشد از من ارائه خواهم کرد... سایت باید به عنوان یک عامل ثابت در نظر گرفته شود. مشخص است که دوره پوشش گیاهی در سایت 2 طولانی تر است و به طور کلی عملکرد بالاتری حاصل می شود. سال باید - در ابتدا - یک عامل تصادفی باشد. از آنجایی که مدل سازی عوامل تصادفی با کمتر از 4-6 سطح ظاهراً منطقی نیست، تصمیم گرفتم آن را به عنوان یک عامل ثابت در نظر بگیرم. از آنجایی که بلوکها در داخل آزمایشها (و درمانها در داخل بلوکها) تودرتو هستند، من یک متغیر تعاملی data$trial <- with(data, interaction(Year, Site)) ایجاد میکنم سپس مدل را به این صورت تنظیم میکنم: object.lme0 <- lme(dm ~ (سایت + سال) * درمان، تصادفی = ~ 1 | آزمایشی / بلوک، داده) > anova(object.lme0) numDF denDF F-value p-value (Intercept) 1 90 4270 <.0001 Site 1 1 185 0.0467 Year 1 1 0 0.9444 treat 5 90 1 0.5235 Site:treat 5 90 2 Year: 0.120 0.120 انتخاب مدل مناسب؟ آیا این یک رویکرد معقول برای انجام تجزیه و تحلیل در تمام سایتها و سالها است یا باید آزمایشها را جداگانه بررسی کرد یا باید هر دو را (جدا برای هر سایت و سال (= آزمایشی) و تحلیل پیوسته (مانند بالا)) انجام دهم؟ علاوه بر این: من در مورد ساده سازی مدل سردرگم هستم. طرح آزمایشی من مدل فوق را دیکته می کند و برخی از آماردانان در اینجا به من گفتند که ساده کردن مدل یک عمل آماری بد است. در مورد سال:درمورد تعامل در مدل بالا چطور؟ آیا می توان / باید آن را بیرون انداخت؟ | آزمایشی با دو سایت، دو سال - ساخت مدل lme و ساده سازی (Q2) |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.