_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
96156
اگر من تجزیه و تحلیل رگرسیون انجام می دهم و در داده های خود می خواهم از چندین متغیر طبقه بندی استفاده کنم (به عنوان مثال منطقه، سطح تحصیلات و حزب سیاسی که به آنها رای می دهند)، آیا رویکرد متغیر ساختگی بهترین راه حل است؟ یک مشکل ساده که توسط Wooldridge مطرح شده است (در مورد دستمزد و ساختگی برای متاهل و ساختگی برای جنسیت) این است که باید تعاملی وجود داشته باشد زیرا حق بیمه ازدواج برای مردان و زنان ثابت نیست. بنابراین فکر می‌کردم که باید با متغیرهای ساختگی خود نیز تعامل داشته باشم، که باعث ایجاد تعداد زیادی از اصطلاحات ساختگی (از دست دادن درجات آزادی و غیره) می‌شود. اگر من 3 دسته داشته باشم و هر کدام 6 گزینه داشته باشند، 6*6*6 آدمک تعاملی وجود خواهد داشت؟ هر توصیه ای؟
متغیرهای ساختگی بسیار زیاد است
52005
قانون Freedman-Diaconis می گوید که اندازه bin بهینه یک هیستوگرام $$ \text{Bin Size} = 2 \cdot \text{IQR}(x) n^{-1/3}$$ است که در آن $x$ است. داده و $n$ تعداد مشاهدات در داده است. آیا با استفاده از این قانون می توانیم شکل توزیع را استنباط کنیم؟ من می دانم که بسته به عرض مخزن، هیستوگرام ها می توانند گمراه کننده باشند. اما آیا با استفاده از عرض سطل بالا می توان این مشکل را برطرف کرد؟
قانون فریدمن-دیاکونیس
114678
آیا کسی می تواند به ما بگوید که چگونه برازش مدل خطی تعمیم یافته خود را با توزیع پواسون ارزیابی کنیم؟ ما واقعا نمی توانیم بگوییم که آیا مدل مناسب است یا نه. آیا برای پاسخ به این سوال از انحراف استفاده می کنید؟ اگر چنین است، در مثال زیر به ما چه می گوید؟ برازش مدل مختلط خطی تعمیم یافته با حداکثر احتمال (تقریبا لاپلاس) [glmerMod] خانواده: poisson (log ) فرمول: vok ~ factor(koen) + (1 | group) + factor(obs) + rid + aggr + offset(log(min )) داده: داده AIC BIC logLik انحراف df.resid 156.1 172.8 -70.0 140.1 52 باقیمانده مقیاس شده: Min 1Q Median 3Q Max -1.5286 -0.6338 -0.3348 0.5913 4.8183 اثرات تصادفی: نام گروه ها Variance Std.Dev. گروه (Intercept) 0 0 تعداد obs: 60، گروه: گروه، 60 اثرات ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -5.40345 0.37230 -14.514 < 2e-16 *** factor(koen)1 1.13549 0.38823 2.925 0.00345 ** factor(obs)2 17190.85 0.8 0.10544 ضریب(obs)3 0.55973 0.24933 2.245 0.02477 * ضریب(obs)4 -1.24449 0.55967 -2.224 0.02617 * رید 0.100939-0.01 0.100939-0.01 *** aggr 0.05890 0.02868 2.053 0.04003 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) fct()1 fct()2 fct()3 fct()4 rid ضریب (kn) 1 -0.705 ضریب (bs)2 -0.275 -0.107 ضریب (bs)3 -0.342 -0.065 0.302 factor(bs)4 -0.206 0.005 0.157 0.355 rid -0.106 -0.343 0.304 0.304 0.248 aggr -0.106 -0.106 -0.130 -0.1130 -0.130 -0.106 -0.130 -0.130 -0.106
چگونه تناسب مدل GLM خود را ارزیابی کنیم؟
82532
من یک لینک لاجیت، مدل GLM با 7 متغیر توضیحی ساختم. چگونه ضرایب و CI را تفسیر کنم؟ > خلاصه (w1.glm) تماس: glm (فرمول = DV ~ x1 + x2 + x3 + x4 + x5 + x6 + x7، خانواده = دوجمله ای (logit)، داده = myData) انحراف باقیمانده: حداقل 1Q میانه 3Q Max -6.6379 -1.3183 -0.0639 1.3031 9.5950 ضرایب: Estimate Std. خطای z مقدار Pr(>|z|) (برق) -9.445065 0.326242 -28.951 < 2e-16 *** fgp 19.579405 0.575186 34.040 < 2e-16 *** ftp 0.714 0.20 0.492 trbg 0.080704 0.004006 20.144 < 2e-16 *** astg -0.035330 0.005031 -7.023 2.17e-12 *** stlg 0.119580 *** stlg 0.11958-10. blkg 0.087662 0.008508 10.303 < 2e-16 *** tovg -0.240836 0.005490 -43.868 < 2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دو جمله ای 1) انحراف صفر: 6773.3 در 833 درجه آزادی انحراف باقیمانده: 3308. 826 درجه آزادی AIC: 7276.5 تعداد تکرارهای امتیازدهی فیشر: 4 > (exp(cbind(OR=coef(winp.glm)، confint(winp.glm))))) در انتظار انجام پروفایل... OR 2.5 % 97.5 % (Intercept) 7.907884e -05 4.169786e-05 1.498016e-04 x1 3.185866e+08 1.033026e+08 9.847440e+08 x2 1.230135e+00 6.812482e-01 2.220951e+00 x3 1.0847440e+08 x2 1.092601e+00 x4 9.652867e-01 9.558130e-01 9.748488e-01 x5 1.126997e+00 1.108799e+00 1.145511e+009061.145511e+0096 1.073572e+00 1.109981e+00 x7 7.859708e-01 7.775485e-01 7.944634e-01
Logit-link تفسیر خلاصه GLM
102842
من به طور کامل در این انجمن و جاهای دیگر جستجو کرده ام و به مطالب بسیار خوبی برخوردم. با این حال، من در نهایت هنوز گیج هستم. در اینجا یک مثال اساسی و ملموس از آنچه می خواهم انجام دهم، رویکرد من برای انجام این کار، و سؤالات من است. من یک مجموعه داده به اندازه 1000 x 51 دارم. 1000 مشاهده، هر کدام با 50 ویژگی عددی و 1 متغیر پاسخ باینری که با 0 یا 1 مشخص شده اند. 0 نشان دهنده پاسخ نه زود هنگام و 1 نشان دهنده پاسخ زود است. من می‌خواهم یک مدل رگرسیون لجستیک LASSO ایجاد کنم تا روی یک مجموعه آزمایشی که شامل متغیرهای پاسخ نمی‌شود، پیش‌بینی کنم که آیا هر مشاهدات آزمایشی منجر به طبقه‌بندی 0 یا 1 می‌شود. رویکرد من از مراحل زیر استفاده می‌کند: 1. تقسیم‌بندی داده های آموزشی به k = 5، که هر یک شامل 200 مشاهده است. بیایید هر فولد را data_1، data_2، data_3، data_4، data_5 برچسب گذاری کنیم. برای k = 1، train_set_k ما از data_1، data_2، data_3 و data_4 تشکیل شده است و شامل 800 مشاهده است. test_set_k ما از data_5 تشکیل شده است و شامل 200 مشاهده است. برای k = 2، train_set_k ما از data_1، data_2، data_3 و data_5 تشکیل شده است. test_set_k ما از data_4 تشکیل شده است. و غیره 2. برای k = 1 تا 5، train_set_k را به k_i = 5 برابر تقسیم کنید، که هر یک شامل 800/5 = 160 مشاهده است. اعتبار متقاطع روی این k_i = 5 برابر کنید تا تنظیمات بهینه برای لامبداهایپرپارامتر برای مدل رگرسیون لجستیک LASSO ما پیدا شود. لامبدا باید یک عدد ممیز شناور بین 0 و 1 باشد. **سوال شماره 1**: من در مورد اینکه تأیید متقاطع برای یافتن تنظیمات بهینه برای فراپارامتر لامبدا در واقع _ مستلزم چه چیزی است مشخص نیست. در R، من از کد زیر استفاده می کنم: model.one.early <- cv.glmnet(x.early، y.early، family = binomial، nfolds=5، type.measure=auc) .. که در آن nfolds = 5 مربوط به k_i = 5 بالا است. به عبارت دیگر، هر یک از nfolds = 5 folds شامل 160 مشاهده خواهد بود. از این کد، من می‌توانم مقادیری را برای: lambda.min خارج کنم - مقدار lambda که حداقل میانگین خطای اعتبار متقاطع را می‌دهد، که فرض می‌کنم به معنای حداکثر میانگین اعتبار متقاطع AUC را می‌دهد. من type.measure = auc را در بالا مشخص کردم. lambda.1se - بزرگترین مقدار lambda به طوری که خطا در 1 خطای استاندارد از حداقل باشد. ** سوال شماره 2: ** خط کد بالا در واقع چه کاری انجام می دهد؟_ _ چگونه مقادیر لامبدا را محاسبه می کند. .min و lambda.1se **سوال شماره 3:** کدام مقدار از lambda.min یا lambda.1se را می خواهم حفظ کنم؟ یک مدل رگرسیون لجستیک LASSO را با استفاده از پارامترهایپرپارامتر lambda.min (یا lambda.1se) همانطور که در بالا به دست آمد، با استفاده از یک قطعه کد مانند این پیش بینی کنید .preds <- data.frame(predict(model.one.early, newx=as.matrix(test.early.df) type=response, s=lambda.min)) 4. یک AUC را برای این پیش بینی ها محاسبه کنید. مقادیر و لیستی از 5 مقدار AUC متناظر با در نظر گرفتن یک _میانگین_ از این مقادیر k = 5 AUC، می‌توانیم یک تخمین به دست آوریم. عملکرد تعمیم برای روش ما برای تولید مدل ما. (-Dikran Marsupial، پیوند داده شده در اینجا) 6. _این جایی است که من گیج شدم._ بعد چه کار کنم؟ باز هم، من می‌خواهم پیش‌بینی‌هایی را روی یک مجموعه آزمایشی جداگانه و بدون برچسب انجام دهم. با توجه به آنچه خوانده ام، در نهایت باید مدل رگرسیون لجستیک LASSO خود را با _همه_ داده های آموزشی موجود، با استفاده از کدهایی مانند این تطبیق دهم: final_model <- glmnet(x=train_data_ALL, y=data_responses, family=binomial) **سوال #4:** آیا این درست است؟ آیا من واقعاً یک مدل را روی همه داده های آموزشی خود جای می دهم؟ سپس، من به سادگی از این مدل برای پیش‌بینی در مجموعه آزمایشی خود استفاده می‌کنم، با استفاده از کدی مانند این: finals_preds <- predict(final_model, newx=test_data_ALL, type=response, lambda=?) در _nested cross-validation_ employed در مراحل 1 تا 5، فهرستی از 5 مقدار لامبدا و 5 مقدار AUC متناظر به دست آوردم. **سوال شماره 5:** کدام مقدار لامبدا را انتخاب کنم؟ آیا مقدار لامبدا را انتخاب کنم که بالاترین AUC را دارد؟ آیا من مقدار k = 5 لامبدا را _میانگین_ می کنم و سپس این میانگین را به خط کد بالا برای **لامبدا = ?.** وصل می کنم. * مدل رگرسیون لجستیک LASSO، با **یک** مقدار منحصر به فرد برای هر هایپرپارامتر ... درست است؟ **سوال شماره 7:** اگر پاسخ سوال شماره 5 مثبت است، چگونه تخمینی برای مقدار AUC که این مدل تولید می کند بدست آوریم؟ آیا این تخمین معادل _میانگین_ k = 5 مقادیر AUC بدست آمده در مرحله 5 است؟
بعد از اعتبارسنجی متقابل تودرتو چه باید کرد؟
106350
من می خواهم میانگین همبستگی دو گروه نمونه مختلف را مقایسه کنم: من دو گروه از معلمان داشتم که عملکرد دانش آموزان خود را قضاوت می کردند. یک گروه از معلمان واقعی (N=10) به طور متوسط ​​25 دانش آموز را در عملکرد خود قضاوت کردند، گروهی دیگر از معلمان پیش از خدمت (N=26) به طور متوسط ​​8 دانش آموز را قضاوت کردند. برای مقایسه اینکه کدام گروه از معلمان (پیش خدمت در مقابل معلمان واقعی) دانش آموزان خود را با دقت بیشتری قضاوت می کنند، همبستگی قضاوت ها و معیار هدف (عملکرد) دانش آموز را برای هر معلم محاسبه کردم، Z فیشر را انجام دادم و میانگین را برای هر گروه (دانش آموز معلم و معلم واقعی) محاسبه کرد. اکنون نمی‌دانم آیا همبستگی معلمان پیش‌خدمت که فقط باید 8 دانش‌آموز را به طور متوسط ​​قضاوت می‌کردند، در مقایسه با همبستگی‌های معلمان واقعی که هر کدام 25 دانش‌آموز را قضاوت می‌کردند، به راحتی قابل ارزیابی بود؟ حالا اگر چنین است، از کدام روش می توانم استفاده کنم. به منظور سنجیدن همبستگی های معلمان پیش از خدمت متفاوت؟ ایده استفاده از نوعی روش اصلاحی خواهد بود. چه چیزی را پیشنهاد می کنید؟
مقایسه میانگین همبستگی ها بر اساس اندازه های مختلف همبستگی های فرعی
102847
من 3 متغیر دارم. DV $Z$ مورد علاقه من زمان واکنش است، IV $A$ و IV $B$ نمرات عملکرد در تست های روانسنجی هستند. با نگاهی به همبستگی های دو متغیره، $A$ و $B$ همبستگی منفی دارند (-.40)، $A$ و $Z$ با همبستگی حاشیه ای منفی (-.10) و $B$ و $Z$ همبستگی بسیار منفی دارند (. -.50). قرار دادن $A$ و $B$ در یک مدل رگرسیونی با معیار $Z$ منجر به دو ضریب استاندارد شده منفی در حدود -.40 می شود. به عبارت دیگر، اگر من در $A$ خوب باشم، واکنش سریعی دارم. اگر در $B$ خوب باشم، واکنش سریعی دارم. اما اگر در $A$ خوب باشم در $B$ خوب نیستم؟! آیا این منطقی است؟ کدگذاری متغیرها باید درست باشد.
تفسیر همبستگی ها
102845
در صورت وجود 5 متغیر مستقل کیفی و 1 متغیر مستقل کمی از کدام آزمون آماری برای پیش بینی استفاده کنم؟
آزمون آماری برای استفاده؟
60130
مدل آماری برای طرح _کامل تصادفی_ $y_{ij} = \mu + \tau_i + \epsilon_{ij}$ که در آن $i$ نشان دهنده درمان و $j$ نشان دهنده مشاهده است. $i=1,2,...,k\quad و \quad j=1,2,..., n_i$ $y_{ij}$ یک متغیر تصادفی باشد که نشان‌دهنده پاسخ به‌دست‌آمده در مشاهده $jth$ است. از درمان $ith $. $\mu$ میانگین کلی پاسخ $y_{ij}$ $\tau_i$ تأثیر بر پاسخ درمان $ith$ است. $\mu_i = \mu + \tau_i$ در اینجا $\mu_i$ نشان دهنده پاسخ _واقعی_ درمان $ith$ است. و $\epsilon_{ij}$ عبارت خطای تصادفی است که نشان‌دهنده منابع تغییرات مزاحم است، یعنی تغییرات ناشی از عواملی غیر از درمان‌ها. فرض $\epsilon_{ij}\sim^{iid} N(0,\sigma^2)$ با _روش برآورد حداقل مربعات_ $\mu\quad و\quad\tau_i$ را تخمین می زنیم. * چرا تخمین $\sigma^2$ نیز مهم است؟ اگر آن را برآورد نکنیم، چه تاثیری خواهد داشت؟ هر گونه کمک از جمله مرجع قدردانی خواهد شد.
اهمیت تخمین $\sigma^2$ در مدل آماری خطی
82530
در حال حاضر سعی می‌کنم توزیع شناخته شده‌ای را پیدا کنم که با مجموعه داده‌های منحرف شده مثبت من (70=n) به بهترین شکل مطابقت داشته باشد. ابتدا از بسته «fitdistrplus» R برای تخمین پارامترها برای توزیع‌های گاما، وایبول، لگنرمال و نمایی استفاده کردم (با استفاده از تخمین حداکثر احتمال، اگرچه مطمئن نیستم که آیا MLE بهترین انتخاب با 70 مشاهده است (یکی بهتر است؟)). در مرحله دوم مدلی را با کوچکترین AIC انتخاب کردم. اما مطمئناً این مدل باید یک تست خوب بودن تناسب را نیز پشت سر بگذارد. ایده اول صرفاً استفاده از آزمون Kolmogorv-Smirnov با پارامتر تخمینی بود، اما به نظر نمی رسد این ایده خوبی باشد زیرا آزمون های KS با پارامترهای تخمینی منجر به مقادیر p کم و بیش بی فایده می شوند. در طول جستجوی خود در وب، به پیشنهاد گرگ اسنووز و جدای از آن به این صفحه برخوردم که رویکرد جالب مونت کارلو را توصیف می کند (از کلاوست و همکاران). یک نمونه کد R اقتباس شده نمونه که از بسته fitdistrplus برای تخمین حداکثر احتمال برای توزیع هنجار گزارش استفاده می کند، به شرح زیر است: lognormal = function(d, limit=2500) { # MLE برای توزیع lognormal fit <- fitdist(d, lnorm، method=mle) # compute KS statistic t = ks.test(d, plnorm, meanlog = fit$estimate[meanlog], sdlog = fit$estimate[sdlog]); # محاسبه p-value count = 0; for (i in 1:limit) { syn = rlnorm(length(d), meanlog = fit$estimate[meanlog], sdlog = fit$estimate[sdlog]); fit2 <- fitdist(syn، lnorm، روش = mle) t2 = ks.test(syn، plnorm، meanlog = fit2$estimate[meanlog]، sdlog = fit2$estimate[sdlog] ) if(t2$stat >= t$stat) {count = count + 1}; } return(list(meanlog = fit$estimate[meanlog], sdlog = fit$estimate[sdlog], stat = t$stat, p = count/limit, KSp = t$p)); } آنچه من در حال حاضر از من (و شما) می‌پرسم این است که آیا این رویکرد با توجه به حجم نمونه کوچک منطقی است (یا باید از تخمین‌گرهای لحظه‌ای/... استفاده کنم یا MLE خوب است) و روش خوبی است که برازش انجام می‌شود. تست شده مناسب است؟
ارزیابی خوبی تناسب برای توزیع ها (به عنوان مثال LogNorm، گاما، ...) با پارامترهای تخمین زده شده با استفاده از آزمون های KS (و R)
25114
من از یک سیستم کامپیوتری با نمودارهای کنترل شوهارت استفاده می کنم. آیا استفاده از داده های مهر زمانی به عنوان محور x به صورت متوالی مناسب است؟ استفاده از این فرآیند به جای ترسیم نمودار در فواصل زوج در محور x، شکاف هایی در نمودار کنترل ایجاد می کند. کارخانه ما می خواهد از این استفاده کند تا ببیند چه زمانی نتایج از منظر گرافیکی در سیستم قرار می گیرند. من هیچ مرجعی پیدا نمی کنم که بگویم این مناسب است. همه مثال ها فواصل زوج را نشان می دهند. به من می گویند توطئه در برابر مهرهای زمانی مناسب نیست. لطفاً هر مرجعی را همراه با پاسخ خود ذکر کنید، با تشکر
ساختار نمودار کنترل - محور X
96159
من سعی می کنم بررسی کنم که آیا داده های من poisson هستند یا به طور معمول توزیع شده اند. توزیع نرمال درست کار می کند، اما سمی که با آن مشکل دارم. مشکل من این است که وقتی الگوی matlab را برای chi2gof به شما می‌دهد امتحان می‌کنم، مقادیر chi2stat و درجه‌هایی از آزادی را دریافت می‌کنم که هیچ معنایی ندارند. chi2stat:1.51e8 و dof: 217. این از کد Matlab استفاده می کند: bins = 0:2074; obsCounts = داده; n = sum (obsCounts); pd = fitdist(bins','Poisson','Frequency',obsCounts'); expCounts = n*pdf(pd,bins); [h,p,st] = chi2gof(bins,'Ctrs',bins,... 'Frequency',obsCounts, ... 'Expected',expCounts,... 'NParams',1) من همچنین سعی کردم یک عدد را محاسبه کنم poisson fit به داده ها با استفاده از fitdist، expCounts را از pdf دریافت می کند، اما من نمی توانم بفهمم که چگونه آن را در chi2gof قرار دهم. داده ها فقط مجموعه ای از مقادیر شدت 2075 هستند. لطفا کمک کنید. متشکرم.
تلاش برای یافتن مقادیر chi2 برای دیدن اینکه آیا یک مجموعه داده پواسونی یا گاوسی است که با استفاده از matlab توزیع شده است.
93921
آیا این درست است که به طور کلی باید هر یک از ویژگی ها را قبل از تغذیه آنها در مدل های طبقه بندی رایج مانند ماشین بردار پشتیبانی، رگرسیون لجستیک و غیره مقیاس کرد؟ در مورد مدل های رگرسیون چطور؟ با تشکر
مقیاس بندی ویژگی برای طبقه بندی و رگرسیون
60135
1. فرض کنید یک رگرسیون خطی ساده برای بررسی رابطه بین حقوق و سنوات شاغل به ترتیب Y و X انجام شده است. با توجه به مجموعه ای از نقاط داده، از کجا باید تحلیل رگرسیون را شروع کرد و چرا؟ آیا باید با محاسبه میانگین X و Y و سپس توسعه b0 و b1 شروع کنم؟ اولین قدم مطمئناً انجام این کار برای ایجاد خط است، درست است؟
گام های اول، رگرسیون خطی
80545
من در حال حل یک کار تطبیق (یعنی ادعای اینکه «حساب‌های» مختلف نمایانگر یک شی هستند) پروفایل‌های کاربران شبکه اجتماعی با نمایش آنها در پایگاه داده بنیانگذاران شرکت‌ها هستم. این کار بدیهی است احتمالاتی است، و من معتقدم که قبلاً توسط کسی بررسی شده است، اما من تقریباً نمی توانم هیچ مقاله مهمی در مورد آن پیدا کنم، نه اینکه این کار چگونه نامیده می شود. تا به حال موارد زیر را پیدا کرده ام: 1. مشکل مشابهی در یک جامعه پایگاه داده با نام پیوستن مشابه شناخته شده است، اما کاملاً اینطور نیست. 2. همچنین یک مشکل شباهت مجموعه ای وجود دارد (و من افراد را مطابقت می دهم). 3. در نهایت، تمام الگوریتم ها و معیارهای شباهت در سیستم های توصیه. بنابراین، آیا نام مشخصی برای کار وجود دارد؟
چگونه مسئله محاسبه احتمال یکسان بودن دو شیء با نمایش متفاوت نامیده می شود؟
104449
فرض کنید من مشاهدات سری زمانی دارم که با _Yi_ نشان داده شده است که در آن _i_ بین 1-5000 است. yi=β1 x1i + β2 x2i + β3 x3i + Ci; در اینجا x ورودی است. من باید مقادیر بتا را پیدا کنم. اما، من تمام β ها به جز β1 را به عنوان پارامتر قطعی و β1 را به عنوان پارامتر وابسته به زمان در نظر می‌گیرم (میانگین برگرداندن فرآیند Ornstein-Uhlenbeck). می‌خواهم پی‌دی‌اف‌های تمام بتاها و مقدار سری زمانی β1 را پیدا کنم. فرآیندی که می‌خواهم دنبال کنم استفاده از نمونه‌گر گیبس برای به‌روزرسانی فایل‌های پی‌دی‌اف و نمونه‌گر هیستینگ کلانشهر برای به‌روزرسانی زمانی β1 است. من سعی می کنم این مقاله را برای یک مدل خطی ساده به صورت متقابل انجام دهم. http://www.stat.duke.edu/~fei/samsi/Readings/06TomaReich.pdf همچنین فرض کنید که من محدوده تمام نسخه های بتا را دارم. لطفا کمکم کنید و بابت بی نظمی معذرت میخوام اگر کسی بتونه در مورد کد شبه به من کمک کنه ممنون میشم. با تشکر
چگونه می توان یک الگوریتم کلانشهر hastings را برای یافتن pdf پسین یک پارامتر وابسته به زمان پیاده سازی کرد؟
52002
چه روش‌ها/توابعی برای انتخاب تعداد نقاط شکست برای رگرسیون تقسیم‌بندی شده (در R) موجود است؟ اطلاعات/کد اسباب بازی برای مثال: set.seed(12) xx<-1:100 zz<-runif(100) yy<-2+1.5*pmax(xx-35,0)-1.5*pmax(xx-70, 0)+15*pmax(zz-.5,0)+rnorm(100,0,2) dati<-data.frame(x=xx,y=yy) plot(dati) ### # اگر بخواهم بدانم تعداد نقاط شکست 2 است، یک کد ساده راه حلی ارائه می دهد. -lm(y~x,data=dati) o<-segmented(out.lm,seg.Z=~x,psi=c(20,70) control=seg.control(display=FALSE)) slope(o) با تشکر.
انتخاب تعداد نقاط شکست برای رگرسیون تقسیم شده (در R)
52006
برای اتصال شهرهای $A$ و $B$ باید مجموعه ای از اتصالات تلفن نصب شود. City $A$ دارای تلفن های 2000 دلاری است. با فرض اینکه هر کاربر در شهر $A$ به طور متوسط ​​در طول ساعات کاری 10 دلاری $2$ به یک اتصال تلفنی به شهر $B$ نیاز دارد و این تماس ها کاملا تصادفی هستند، حداقل تعداد $M$ اتصالات تلفنی چقدر است. شهر $B$ به منظور اطمینان از اینکه بیش از $1$% از تماس های شهر $A$ به شهر $B$ خط مستقیم دریافت نمی کند؟ من قرار است یک توزیع گاوسی را فرض کنم. تنها چیزی که متوجه شدم این است که میانگین گاوسی باید 2000$\times\frac{2}{60}=6.6667$ اتصالات، بر اساس فواصل زمانی داده شده باشد. - انتظار می‌رود که $6\frac{2}{3}$ افراد در هر لحظه در بازه زمانی مشخص شده تماس بگیرند. چگونه از اینجا ادامه دهم؟ - چگونه می توانم یک واریانس به دست بیاورم تا فاصله اطمینان 99% را که برای حل مشکل ضروری است بدست آوریم. علاوه بر این، چگونه می توانم با موقعیت های غیرممکن که در هر لحظه کمتر از 0 یا بیش از 2000 تماس داشته باشم، برخورد کنم؟ آیا فقط بخش گیره‌دار را عادی‌سازی می‌کنم تا انتگرال روی آن 1 را بدهد یا آن موارد غیرممکن فنی را نادیده می‌گیرم، یا چگونه با آنها برخورد کنم؟
حداقل تعداد اتصالات تلفن برای اطمینان از تعداد کافی خطوط مستقیم
93924
من هنگام تلاش برای تعیین اندازه نمونه زمانی که نسبت کوچک است، با یک تناقض دست و پنجه نرم می کنم. اگر از فرمول دو جمله ای استفاده کنم: $n = p(1-p)z^2/ME^2$، هر چه نسبت کوچکتر باشد - اندازه نمونه کوچکتر مورد نیاز است. حداکثر اندازه نمونه در واقع در $p = 0.5$ است، با این حال، من اغلب قانون سرانگشتی را برای (تقریبا عادی به توزیع دوجمله‌ای) زیر دیده‌ام: $np > 10$ و $n(1-p) > 10$ که کار می‌کند برعکس - هرچه $p$ کوچکتر باشد، به اندازه نمونه بزرگتر نیاز دارم. کدام یک از نظر شهودی منطقی است: اگر شانس 1 در 1000 باشد، بهتر است حداقل 1000 را آزمایش کنم، به خصوص اگر این یک مسئله حیاتی باشد. به طور خلاصه، فرمول اول می گوید که $p$ کوچکتر است - اندازه نمونه کوچکتری که نیاز دارم. رویکرد دوم، برعکس، می گوید که هرچه $p$ کوچکتر باشد - به اندازه نمونه بزرگتر نیاز دارم. کدام یک درست است؟ آیا می توانم وقتی نسبت کوچک است از دو جمله ای برای تعیین اندازه نمونه استفاده کنم (که این سوال را نیز مطرح می کند که چقدر کوچک است)؟ و اگر نه - چرا؟ متشکرم
تناقض تعیین اندازه نمونه
52004
ببخشید اگر این سوال ساده لوحانه به نظر می رسد! من سه مجموعه همپوشانی دارم و می‌خواهم احتمال پیدا کردن یک تقاطع بزرگ‌تر/بزرگ‌تر برای «A تقاطع B را قطع می‌کند» (در مثال زیر، می‌خواهم احتمال پیدا کردن بیش از 135 عنصر رایج در مجموعه‌ها را پیدا کنم. الف، ب و ج). برای یک مسئله دو مجموعه ای، حدس می زنم که یک تست فیشر یا کای اسکوئر انجام دهم. این چیزی است که من تاکنون تلاش کرده‌ام: ### یک جدول احتمالی 3 طرفه آماده کنید: mytable <- array(c(135,116,385,6256, 48,97,274,9555), dim = c(2,2,2), dimnames = list( Is_C = c('بله'، 'خیر')، Is_B = c('بله'، 'خیر') Is_A = c('Yes','No'))) ## test mantelhaen.test(myrabbit, exact = TRUE, alternative = beater) آیا این تست درستی است (همراه با پارامترهای فعلی) برای تعیین آنچه می خواهم یا آیا تست مناسب تری برای این وجود دارد؟
مجموعه های همپوشانی (3) - آزمون معناداری
82531
این سوال مختص یک متن است. من در حال خواندن روش های آماری برای تجزیه و تحلیل داده های بقا لی و وانگ هستم. در ص. 70 در ویرایش چهارم (و صفحه 66 در 3) نویسندگان یک درون یابی خطی برای یافتن میانه مشاهدات بدون سانسور با استفاده از رویکرد محدودیت محصول یا Kaplan Meier نشان می دهند، اما من نمی توانم فرمول آنها را درک کنم. داده ها عبارتند از: t S(t) 6 0.7 m 0.5 (میانگین cum prob.) 8 0.4 و از این برابری برای محاسبه $m$ استفاده می کنند: $$\frac{8 - 6}{0.4 - 0.7} = \frac{8 - m}{0.4 -0.5}$$ برای حل $m = 7.3$. من تنظیم را درک نمی کنم. می‌توان این را مرتب کرد تا نسبت زمان‌های بقا (ماه‌ها) را به نسبت‌های احتمالات برابر کند، و بنابراین به نظر می‌رسد که اینها تقریبی شیب هستند، اما من دلیل این تنظیم را نمی‌فهمم. پیشنهادات قدردانی خواهد شد.
میانه‌یابی برای داده‌های بقای بدون سانسور
96152
من باید یک انتگرال را با استفاده از روش نمونه گیری اهمیت محاسبه کنم و برای معیارهای توقف شبیه سازی، یک خطای نسبی به آن داده شود. من متوجه شده ام که خطای نسبی با نسبت انحراف استاندارد با میانگین برآوردگر تعریف می شود. اما من واقعاً برای محاسبه آن مشکل دارم. تخمین انتگرال با $$I = \frac{1}{n}\sum_{i=1}^n \frac{f(x_i)}{g(x_i)}، x_i \sim g$$ داده می‌شود. من فکر می کنم انحراف معیار $$ \sigma = \left(\frac{1}{n} \sum_{i=0}^n است \left(\frac{f(x_i)}{g(x_i)}-I\right)^2 \right)^{\frac{1}{2}}$$ و میانگین $I$ است. اما این معیار توقف خوبی را ارائه نمی دهد، زیرا تمایل دارد برای مقادیر بزرگتر $n$ ثابت باشد. بنابراین فکر کردم که $\frac{\sigma}{\sqrt{n}}$، میانگین خطای استاندارد، معیار بهتری را ارائه می‌دهد. اما در مورد آن مطمئن نیستم. در اینجا مطالبی در مورد نحوه محاسبه خطای نسبی با استفاده از نمونه برداری اهمیت صحبت می شود: http://www2.math.umd.edu/~trivisa/monte-carlo.pdf من نمی دانم چه اشتباهی انجام می دهم، اگر این کار را نکنم. محاسبه صحیح انحراف معیار پیشاپیش ممنون
شبیه سازی نمونه برداری اهمیت
93928
درک من این است که اکثر انواع طبقه‌بندی‌کننده‌های رایج (مثلاً ماشین بردار پشتیبانی) می‌توانند ترکیبی از پیش‌بینی‌کننده‌های طبقه‌بندی و پیوسته را انتخاب کنند. با این حال، به نظر نمی‌رسد که این برای Naive Bayes درست باشد، زیرا باید توزیع احتمال را از قبل مشخص کنم. اگر بخواهم Naive Bayes را برای ترکیبی از پیش بینی کننده های طبقه بندی شده و پیوسته اجرا کنم، چه کاری باید انجام دهم؟ با تشکر
بیز ساده: پیش بینی کننده های مستمر و مقوله ای
82533
من یک سوال در مورد برازش منحنی برای داده ها با عدم قطعیت های مرتبط دارم. فرض کنید من 8 سطل با عدم قطعیت دارم (img زیر). خط سبز منحنی تئوری است که من سعی می‌کنم با یک پارامتر مقیاس‌گذاری آزاد که منحنی را بالا یا پایین می‌آورد، تطبیق دهم. در این مورد، من معتقدم که $\chi^{2}$ با استفاده از: $\chi^{2}=\sum_{i=1}^{N=8}\sum_{j=1}^{N محاسبه می‌شود =8}(X_{i}-U_{i})(C^{-1})_{ij}(X_{j}-U_{j})$ که در آن $X_{i}$ نقطه داده اندازه‌گیری شده است برای سطل $i$-th و U مقدار متناظر از منحنی تئوری است. در این مورد، چگونه باید ماتریس کوواریانس را تخمین بزنم؟ برخی منابع می گویند از $C_{ij}=\langle X_{i}X_{j}\rangle-\langle X_{i}\rangle \langle X_{j}\rangle$ استفاده کنید، اما مطمئن نیستم که احساس کنید که فقط یک مقدار برای $X_{i}$ و از این رو $X_{i}=\langle X_{i}\rangle$ وجود دارد. عدم قطعیت برای هر یک از نقاط از 4 آزمایش ایجاد شد. آیا باید از اینها به عنوان $X_{i}$s استفاده کنم؟ اگر چنین است، باید معادله بالا $\chi^{2}=\sum_{i=1}^{N=8}\sum_{j=1}^{N=8}(\langle X_{i} را نشان دهد \rangle- U_{i})(C^{-1})_{ij}(\langle X_{j}\rangle-U_{j})$؟ پیشاپیش از شما بسیار متشکرم![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mIYvC.png) ویرایش: این خاصیت خوشه‌بندی دانه‌های درون اجسام را اندازه‌گیری می‌کند. آزمایش‌ها از انجام اندازه‌گیری یکسان بر روی نمونه‌های مختلف انجام می‌شوند. سطل‌ها (حالت‌های K فوریه) همبستگی دارند زیرا خوشه‌بندی در مقیاس‌های ظریف‌تر (مقادیر بالاتر در محور x) به خوشه‌بندی در مقیاس‌های بزرگ‌تر (مقادیر پایین‌تر در محور x) مرتبط است. به عنوان مثال، فرض کنید یک اضافه چگالی بزرگ با بیش تراکم های کوچکتر در بالا وجود دارد. اگر عدم قطعیت در دامنه خوشه‌بندی در مقیاس بزرگ بالا باشد، آنگاه عدم قطعیت‌های بیشتری در دامنه خوشه‌بندی در مقیاس کوچک ایجاد می‌کند، همچنین به این دلیل که این تراکم‌های اضافی کوچک‌تر در بالای بیش از چگالی بزرگ‌تر تعبیه شده‌اند.
برازش یک تابع به داده با خطاهای مرتبط
57180
من از یک مدل رگرسیون دو جمله ای برای حضور/غیاب، با 20 متغیر مستقل برای آزمایش استفاده می کنم. داده ها دارای مختصات x و y هستند و من می خواهم بدانم چگونه می توانم خودهمبستگی فضایی را در نظر بگیرم. من قبلاً همبستگی بین متغیرها را مطالعه کرده‌ام و همان مدل را برای 1000 نمونه مختلف اجرا کردم (من یک مجموعه داده بزرگ دارم که به من اجازه می‌دهد این کار را انجام دهم) تا توزیع هر پارامتر را بفهمم و متغیرهایی را بررسی کنم که ممکن است مشکلاتی را در مدل من ایجاد کنند. «glm_model <- glm(PA ~ Var1 + Var2 + Var3 + Var4 + Var5، خانواده = دوجمله ای (link=logit)») با این حال معتقدم باید همبستگی خودکار فضایی را نیز در نظر بگیرم. دیدم که بسته ای وجود دارد که ممکن است به من کمک کند ('spdep')، اما مطمئن نیستم که کاملاً متوجه شوم که آیا می توانم از مدل خود استفاده کنم یا نه. سوال من این است که گزینه های من چیست؟
محاسبه خودهمبستگی فضایی با مدل رگرسیون دو جمله ای
25115
آیا هیچ مرجع یا استانداردی وجود دارد که کدگذاری رنگ مناطق یک نمودار کنترل سبک شوهارت را دیکته کند؟ ما از رنگ سبز در محدوده +/- 2 سیگما، زرد بین 2 تا 3 سیگما و قرمز فراتر از 3 سیگما استفاده می کنیم. من می شنوم که استفاده از رنگ های سبز، زرد و قرمز به دلیل ارتباط های دیگری (مثل چراغ راهنمایی) که با آن رنگ ها در جامعه داریم، خوب نیست. لطفاً به پاسخ خود اشاره کنید؟ با تشکر
استانداردهای رنگ برای نمودارهای کنترلی
25113
هنگام استفاده از مدل‌سازی موضوع (تخصیص نهفته دیریکله)، تعداد موضوعات یک پارامتر ورودی است که کاربر باید آن را مشخص کند. به نظر من باید مجموعه ای از مجموعه موضوعات نامزد را نیز ارائه دهیم که فرآیند دیریکله باید از آن نمونه برداری کند؟ آیا درک من درست است؟ در عمل، چگونه می توان این نوع مجموعه موضوع نامزد را تنظیم کرد؟
پارامترهای ورودی برای استفاده از تخصیص دیریکله نهفته
57184
من کاملاً مطمئن نیستم که آیا اینجا جای مناسبی برای چنین سؤالی است یا خیر، اما به هر حال می پرسم. با داشتن ماتریس ورودی <14x10 double> (به صورت دستی نرمال شده) و <5x10 double> ماتریس خروجی (به صورت دستی نرمال شده)، پس از یک جلسه طولانی آموزش و مقایسه عملکردها (هرچه کمتر بهتر) برای توابع مختلف، در نهایت پنج شبکه عصبی با مجموعه های زیر از توابع متلب: 1 newcf trainlm initnw mse Learngd satlin 2 newcf trainlm initnw msne Learngdm compet 3 newelm trainlm initwb mse learnhd purelin 4 newff trainlm initnw mse Learngd purelin 5 newff trainlm initnw mse Learnwh tansig بهترین نتایج عملکرد (perf) برای هر یک از آنها از xxxxE-30 تا xxxxE-30 متفاوت است. اما با این حال، پس از اجرای شبیه‌سازی آن شبکه‌ها برای هر ستون از ماتریس ورودی، نتایج خروجی مورد انتظار را تنها در 60 درصد موارد دریافت کردم، در حالی که 40 درصد دیگر کاملاً اشتباه هستند. من دقیقاً همان رابطه 60٪/40٪ بین نتایج شبیه سازی خوب و بد برای همه شبکه های بالا، با ستون های بد مختلف در هر شبکه دارم. آیا ممکن است چنین چیزی اتفاق بیفتد؟ به نظر شما چه مشکلی می تواند داشته باشد؟ شاید نتیجه زمانی که آموزش برای قضاوت در مورد خوب بودن یک شبکه عصبی کافی نیست؟ شاید من چیزی را در مفاهیم خوب متوجه نشدم؟ پیشاپیش از شما متشکرم. [ویرایش 2013/04/26] کد تقریبی من استفاده می‌کنم: inp = { 0,1300 0,0300 0,0300 0,0300 -0,0100 0,0300 0,0900 0,0100 0,0600 0,0 0,0500 -0,0400 -0,0400 -0,0400 -0,0100 0,0100 0,1400 0,0900 0,0600 -0,1700; 0,2400 0,2200 0,2200 0,2200 0,3700 0,3000 0,5300 0,3400 0,1400 -0,6700; ....... } outp={ 0,0427 -0,1071 0,0605 -0,0637 -0,0410 0,2566 -0,0551 -0,0902 -0,2483 0,1543; -0,0249 0,0192 -0,1199 -0,3748 0,3212 0,5490 -0,1655 -0,1213 -1,0236 0,4678; ....... } [out_r, out_c] = size(cell2mat(outp)); [inp_r، inp_c] = اندازه(cell2mat(inp)); %------------ برای 2 لایه: biasConnect = [1;1]; inputConnect = [1; 0]؛ layerConnect = [0 0; 1 0]; outputConnect = [0 1]; --------------یا برای 3 لایه: % biasConnect = [1;1;1]; % inputConnect = [1; 0; 0]؛ % layerConnect = [0 0 0; 1 0 0; 0 1 0]; % outputConnect = [0 0 1]; my_net = network(1, 2, biasConnect,inputConnect,layerConnect,outputConnect); %ایجاد شبکه عصبی my_net.inputs{1}.size = inp_r; % تعداد عناصر را در یک بردار ورودی تنظیم می کند my_net.outputs{1}.size = out_r; % تعداد عناصر را در یک بردار خروجی تنظیم کنید my_net = newff(inp, outp, [inp_r out_r]); % ایجاد شبکه بک انتشار فید فوروارد % یا برای 3 لایه: my_net = newff(inp, outp, [inp_r round(inp_r/2) out_r]); my_net.layers{1}.size = inp_r; % اندازه لایه اول my_net.layers{1}.transferFcn = 'purelin'; تابع انتقال % my_net.layers{1}.initFcn = 'initnw'; % ---- توابع ----------------------------------%/ my_net.divideFcn = 'divideblock'; my_net.plotFcns = {'plotperform','plottrainstate'}; my_net.initFcn ='initlay'; % Layer init function my_net.performFcn = 'mse'; % اجرای تابع my_net.trainFcn = 'trainlm'; تابع آموزشی % my_net.adaptFcn = 'learngd'; % باید از لیست باشد: Learngdm، Learngd % ---- چند پارامتر آموزشی را تنظیم کنید و شبکه را آموزش دهید my_net.trainParam.epochs = 100; my_net.trainParam.goal = 1.0000e-030; my_net.trainParam.max_fail = 3; my_net.trainParam.mu = 1.0000e-03; my_net.trainParam.mu_inc = 10; my_net.trainParam.mu_dec = 0.1000; my_net.trainParam.mu_max = 1e10; my_net.trainParam.showWindow = false; my_net.trainParam.showCommandLine = false; my_net.trainParam.show = 0; [my_net,tr] = train(my_net,inp,outp); % آموزش شبکه % ---- بعد از اینکه بهترین my_net پیدا شد، برای هر ستون شبیه سازی را انجام می دهم: Y = sim(my_net, inp{:,i}); % برای هر ستون i از ماتریس ورودی و انتظار y=outp{:,i}
عملکرد شبیه سازی عجیب شبکه عصبی متلب
82536
ممنون که به این نگاه کردید، الان حدود یک روز است که موهایم را دریده ام. من یک رگرسیون لجستیک چند متغیره در R انجام دادم و ضرایب خود را به دست آوردم. من می توانم بدون مشکل برای داده های آموزشی در R پیش بینی کنم. اما اکنون می خواهم یک مدل پیش بینی در Ruby ایجاد کنم (این نقطه اصلی انجام رگرسیون بود) و کمی مشکل دارم. اساساً معادله من این است: predicted_logit = K + v1*c1 + v2*c2 + ... vn*cn odds_ratio = e^predicted_logit/(1+e^predicted_logit) اما همیشه به نظر می رسد یا 1.0 می دهد یا 0.0! خروجی predict() در R به طور کلی چیزی خوب و نرم مانند 0.5578460 است! من متوجه هستم که همه روبی را نمی شناسند، اما من کد خود را در اینجا برای مرجع قرار می دهم: # اینها ضرایبی هستند که R از رگرسیون لجستیک من به من می دهد: intercept = 0.2700309 ضرایب = { high: 1.0136028، low: 1.0016712، germ_mean: 1. gdds: 0.9990283، اوایل_gdds: 0.9986464، mid_gdds: 1.0002979، دیر_gdds: 0 } # و این همان چیزی است که R برای یک داده پیش بینی می کند: # # نتیجه بالا کم میکروب_میانگین gdds_gdds اوایل_gdds_1 mid_gdds 28 40 119 0 91 28 0.5578460 # ... # بنابراین برای بدست آوردن p_موفقیت خودم، ابتدا هر ضریب را در دوره داده ورودی آن ضرب می کنم = {:high=>73, :low=>28, :germ_mean=>40, : gdds=>119، :early_gdds=>0، :mid_gdds=>91, :late_gdds=>28} محصولات = coefficients.map {|name,value| period[name]*value } # سپس آن‌ها را با هم اضافه می‌کنم و آن را به رهگیری اضافه می‌کنم. / (1 + Math.exp(predicted_logit)) # اما نسبت شانس به صورت 1.0، نه 0.5578460 که R پیش بینی می کند. **ویرایش** با تشکر از همه کسانی که کمک کردند! معلوم شد من exp(coef(period_logit)) را برای بدست آوردن ضرایب به جای coef(period_logit) انجام داده بودم! خوب است قبل از زدن اینتر متوجه شوید که چه چیزی تایپ می کنید.
چگونه می توان با دست از رگرسیون لجستیک پیش بینی کرد
82539
من در واقع بردار آستانه مدل تصحیح خطا را اجرا می کنم. من کدهایی را برای استفاده خود از طریق tsDyn پیدا کرده ام. در واقع من به کدهایی نیز برای ادامه فاز دوم کارم نیاز دارم که تابع پاسخ ضربه ای برای این ترکیب دو متغیره است. من مقالات زیادی را دیده ام Hansen & Seo (2002) (http://www.ssc.wisc.edu/~bhansen/papers/joe_02.pdf)، Mamatsakis et al. (2010)، Esteve et al. (2006) ... و غیره همه آنها تابع پاسخ ضربه ای را توصیف می کنند. همچنین می‌خواهم از نتیجه‌گیری پروژه من با این نوع تحلیل استفاده کنم. لطفاً کسی می تواند هر کد، روال/کدی را دریافت کند تا به من اجازه دهد کارم را بهبود بخشم؟ من سند را به صورت آنلاین دیده ام همگرایی Treshold: بررسی اجمالی و پیاده سازی توسط ماتیو استیگلر، اما آنها اصلا آن را اجرا نمی کنند. لطفا کسی می تواند من را برای اجرای این کار کمک کند؟ خیلی ممنون
بردار ترشولد مدل تصحیح خطا سؤال پاسخ تکانه تعمیم یافته
97205
من معادلات رگرسیون را برای دو دوره مجاور - 2001/2000 و 2002/2001 تخمین زده ام. من می‌دانم که مقادیر ضرایب ساختگی زمانی ($b_1$ و $b_2$) تفاوت بین دوره‌ها را تعیین می‌کنند و می‌توان آنها را زنجیره‌ای کرد. اگر بخواهم شاخص قیمت را با استفاده از 2001 به عنوان دوره پایه تخمین بزنم، باید: 1. از معادله 2002/2001 بدون مقدار b_2$ استفاده کنم. باید b2 را برای سال 2002 و b2 را برای سال 2000 جمع / تفریق کرد (مدل خطی است) 4. اکنون که من سه قیمت دارم که هر دو را تقسیم می کنم با قیمت 2001 شاخص قیمت را می دهد آیا این درست است؟
رگرسیون دوره مجاور
97203
سوال من کاملا ابتدایی است اما برای درک مفاهیم اولیه به کمک نیاز دارم. در مثال زیر از صفحه مستندات Mathworks تابع بارگذاری princomp. [pc,score,latent,tsquare] = princomp(مواد تشکیل دهنده); pc، نهفته، مقادیر زیر را دریافت می کنیم: pc = -0.0678 -0.6460 0.5673 0.5062 -0.6785 -0.0200 -0.5440 0.4933 0.0290 0.7553 0.401356 0.40306 0.40306 - 0.5. -0.4684 0.4844 نهفته = 517.7969 67.4964 12.4054 0.2372 امتیاز = 36.8218 -6.8709 -4.5909 0.3967 29.6073 29.6073 - 4.62318 - 4.62478 - 4.62318 - 4.62478 - 12.4054 -4.2049 0.9022 -1.1261 23.7147 -6.6341 1.8547 -0.3786 -0.5532 -4.4617 -6.0874 0.1424 -10.8125 -3.64358 -3.6435 -3.6430 -3.6430 - 0.6125 - 0.5530. 8.9798 -1.6063 0.0818 22.6064 10.7259 3.2365 0.3243 -9.2626 8.9854 -0.0169 -0.5437 -3.2840 -14.1542507.14.154250. 12.3861 3.4283 0.4352 -25.5849 -2.7817 -0.3867 0.4468 -26.9032 -2.9310 -2.4455 0.4116 افسانه: **مخفی ***i بردار couvar از سه exp است. یک ماتریس p-by-p است که هر ستون حاوی ضرایبی برای یک جزء اصلی است. ستون ها به ترتیب کاهش واریانس مؤلفه هستند. ** **امتیاز** امتیازات مؤلفه اصلی است. یعنی نمایش X در فضای جزء اصلی. ردیف‌های SCORE با مشاهدات، ستون‌ها به مؤلفه‌ها مطابقت دارند. **آیا کسی می تواند توضیح دهد که آیا مقادیر امتیاز به نحوی با استفاده از مقادیر pc ایجاد می شود و اگر این درست است، چه نوع محاسباتی انجام می شود؟**
سوال در مورد PCA
57725
به خوبی شناخته شده است که ریشه دوم واگرایی جنسن-شانون یک متریک واقعی است، اما در مورد جذر متقارن KL: D(P||Q)+D(Q||P) چطور؟ من دلایلی دارم که معتقدم این معیار نیز یک معیار واقعی است، اما نمی توانم هیچ مرجعی در مورد آن پیدا کنم به جز نظرات حکایتی، مانند اینکه در هنگام استفاده بیشتر شبیه یک معیار عمل می کند. به روز رسانی 1 واگرایی Kullback-Leibler: $D(P||Q) = \sum_i p_i\log(p_i/q_i)$ واگرایی جنسن-شانون: $J(P,Q) = \big(D(P||(P +Q)/2)+D(Q||(P+Q)/2)\big)/2$ واگرایی متقارن KL: $S(P,Q) = D(P||Q)+D(Q||P) = \sum_i (p_i- q_i)\log(p_i/q_i)$ ریشه دوم KL متقارن: $d_{KL} (P,Q) = \sqrt{S(P,Q)}$ آیا $d_{KL}$ یک متریک است؟ به روز رسانی 2 من فکر می کنم کران های بالا و پایین زیر برقرار است: $\sum_i (p_i-q_i)^2 \leq \sum_i (p_i-q_i)\log(p_i/q_i) \leq \sum_i \log(p_i/q_i)^ 2$ هر دو جذر کرانها متریک هستند، به نظر من، زیرا آنها مجذور فواصل اقلیدسی در فضای احتمال و فضای log-prob به ترتیب.
آیا جذر واگرایی متقارن کولبک-لایبلر یک متریک است؟
105717
به من وظیفه داده شده است که توابع را از برگه اکسل در یک برنامه asp.net برنامه ریزی کنم تا بتوان آن را از طریق یک رابط وب با همکارانم به اشتراک گذاشت. با این حال، من در یک چیز گیر کرده ام. من مجموعه ای از متغیرهای $X = \\{0.043، 0.236، 0.057، 0.016\\}$ دارم و توانستم تمام آمار توصیفی را محاسبه کنم و یک نمودار لگ نرمال و غیره ترسیم کنم، اما باید تخمین زده شده را محاسبه کنم. میانگین حسابی که من را سردرد می کند زیرا نمی توانم اطلاعات زیادی در این مورد پیدا کنم. برگه اکسل می گوید که میانگین حسابی تخمینی باید 0.085 دلار باشد. اگر کسی بتواند الگوریتم مورد نیاز برای به دست آوردن این مقدار را برای من ترسیم کند سپاسگزار خواهم بود زیرا نمی توانم بفهمم اکسل چگونه این کار را انجام می دهد. من می دانم که توزیع نرمال و لگ نرمال مناسب است و در اینجا برخی از مواردی که برای این سری محاسبه کرده ام وجود دارد که ممکن است کمک کند: میانگین: 0.088 میانه: 0.05 انحراف استاندارد: 0.1 میانگین هندسی: 0.0552 انحراف استاندارد هندسی: 3.04 W-test داده‌های تبدیل‌شده ورود به سیستم: 0.970 W-تست داده‌ها: 0.786 میانگین log(نمونه ها): -2.897 انحراف استاندارد log(نمونه ها): 1.1117 ویرایش: از همه شما برای کمک شما متشکرم، به من کمک زیادی کرد. من الگوریتم whuber را در کد سی شارپ ترجمه کرده ام در صورتی که کسی به آن نیاز داشته باشد: public double Finney(int m, double z) { int i = 0; int iMax = 0; دو برابر a = 1; دو برابر g = a; دو برابر x = 0; const double aTol = 0.0000000001; const int itermax = 1000; if (m <= -1) { بازگشت 0; } x = (z * m * m) / (m + 1); if (Math.Abs(x) < aTol) { return 1; } iMax = Int32.Parse(Math.Round((Math.Abs(Math.Round(z) + 1) + 20)).ToString()); if (iMax > itermax) { return 0; } for (i = 1; i <= iMax; i++ ) { if(Math.Abs(a) <= (aTol * Math.Abs(g))) { break; } a = (a * x) / (m + (2 * (i - 1))) / i; g = g + a; } بازگشت g; }
نحوه محاسبه میانگین حسابی تخمینی برای توزیع لگ نرمال
111686
من دو بردار دارم، در مورد من همه ایالت های ایالات متحده، و بردار دیگری، که ایالت های مرزی را نشان می دهد. حالات در بردار 1 برای هر ایالتی که هم مرز است تکرار کنید. به عنوان مثال، 3 مشاهده برای کالیفرنیا وجود دارد: کالیفرنیا-نوادا. کالیفرنیا-اورگان؛ کالیفرنیا - آریزونا برای هر ایالت، من می خواهم به طور تصادفی یکی از این دوتایی ها را انتخاب کنم و یک مجموعه داده جدید ایجاد کنم. فرض کنید مجموعه داده اصلی 300 x 2 بود. مجموعه داده جدید 50x2 خواهد بود. در اینجا یک مجموعه داده نمونه است. حالت <- نمونه (state.abb,size=300,replace=T) همسایه <- نمونه (state.abb,size=300,replace=T) data <- data.frame(state,neighbor) متشکرم!
انتخاب یک جفت به طور تصادفی از جفت های تکراری
97204
من سعی می کنم یک سیستم را با استفاده از رگرسیون پواسون برای زمان تاریخ مدل کنم، نمی خواهم از مدل های سری زمانی کلاسیک مانند ARIMA استفاده کنم، زیرا ما یک سری زمانی گسسته داریم. من می خواهم یک مطالعه موردی 3 ساله در مورد خرید یک محصول در یک منطقه انجام دهم. من فقط داده هایی از رویدادهایی دارم که اتفاق افتاده است. من می خواهم تعداد اقلامی را که خریداری کرده ام به عنوان پاسخ با ساعت، روز و ماه به عنوان پیش بینی کننده در پواسون GLM در نظر بگیرم. سوال این است: برای زمانی که محصولات خریداری نشده اند، داده ها را به تمام واحدهای زمانی گسترش دهید. اگر اینطور است، چگونه می توانم 01-01-2014 12:00 : خرید 0 مورد 01-01-2013 12:00 : خرید 10 مورد در این مورد، آیا باید تعداد اقلام را جمع آوری کنم تا تعداد کل را بدست آوریم. آیا باید همه داده ها را تولید کنم؟ یا باید فقط از اطلاعاتی که دارم برای اقلامی که خریدم استفاده کنم؟ پیش بینی کننده ها + پاسخ -+--------+------------------------------------ ----------+ ساعت روز تعداد ماه محصولات خریداری شده -+----------------------------------------------- -------+ 12:00 01 01 10 01:00 02 01 02
نحوه انتخاب پاسخ Poisson GLM
63442
من در حال انجام تجزیه و تحلیل واریانس چند متغیره برای یک مجموعه داده متشکل از m مشاهده در n بعد هستم (n>>m، یعنی n>10000 و m = 20). مشکل این است که به نظر می رسد که من برخی از متغیرها به صورت خطی وابسته هستند، زیرا پیام خطای زیر را دریافت کردم: > مجموع درون گروهی مربع ها و ماتریس محصولات متقاطع تکی است. بنابراین، بهترین راه حل برای چنین مشکلی چیست؟ (استفاده از PCA و SVD ممکن است مناسب نباشد زیرا ماتریس کوواریانس 10000x10000 خواهد بود و پردازش آن دشوار خواهد بود)؟
تحلیل واریانس چند متغیره
105716
من با مجموعه ای از داده های بیمار جراحی سروکار دارم، تاریخ جراحی، تاریخ ترخیص و تاریخ آخرین ویزیت پیگیری را دارم. من تعجب می کنم که برای محاسبه مدت زمان پیگیری، تفاوت تاریخ آخرین ویزیت پیگیری و تاریخ ترخیص را بگیرم یا آخرین تاریخ پیگیری و تاریخ عمل را؟ متشکرم
از چه تاریخی برای محاسبه طول پیگیری استفاده کنید
2446
به منظور همبستگی یا مقایسه میانگین دو متغیر وابسته. در مورد من، من باید مقادیر شیب فردی (مثلاً افراد = 30) را از شرایط مختلف (مثلاً شرایط = 4) مرتبط کنم، و هر مقدار شیب، رابطه بین متغیر وابسته را خلاصه می کند (مثلاً 4 بار در هر سطح از متغیر مستقل اندازه گیری شده است. ) و متغیر مستقل (مثلاً 5 سطح). چگونه می توان df مقایسه را تصحیح کرد تا این واقعیت را منعکس کند که هر نقطه داده (مقدار شیب) بسیاری از اندازه گیری ها را خلاصه می کند؟ توجه: من نمی‌پرسم چگونه بین مقادیر شیب رگرسیون انجام دهیم. من قبلاً رگرسیون را در طراحی درون موضوعی انجام دادم، رگرسیون فاصله اقلیدسی را به حداقل رساندم و غیره.
چگونه df را برای مقایسه بین آمار خلاصه (مثلاً مقادیر شیب) انتخاب کنیم؟
53358
ما می دانیم که اگر یک برآوردگر یک برآوردگر بی طرفانه از تتا باشد و اگر واریانس آن به 0 گرایش داشته باشد همانطور که n به بی نهایت میل می کند، یک تخمینگر ثابت برای تتا است. اما این شرط کافی است و لازم نیست. من به دنبال نمونه‌ای از تخمین‌گر هستم که سازگار باشد اما واریانس آن به 0 گرایش نداشته باشد زیرا n به بی‌نهایت تمایل دارد. پیشنهادی دارید؟
مثال متضاد برای شرایط کافی مورد نیاز برای سازگاری
97206
طراحی: من 4 موش آزمایشگاهی دارم (= `4 آزمودنی`). «عامل» من یک شرط «با 5 سطح» است (شرایط کنترل و 4 شرایط آزمایش): [gr0]، [gr1]، [gr2]، [gr3]، [gr4]. متغیر پاسخ من غلظت 5 سیتوکین (اندازه گیری شده بر حسب pg/ml) است. مسئله: وقتی نتایج من را تجزیه و تحلیل کردیم، با مشکل تنوع زیادی در بین حیوانات مواجه شدیم. به من گفتند طبیعی است. ما تجزیه و تحلیل آماری را با آزمون t غیر جفتی برای هر حیوان انجام دادیم و نمودار میله‌ای را با میانگین و SEM به عنوان یک آزمایش نماینده ارائه کردیم. اکنون فکر من این است که از تمام داده ها در تجزیه و تحلیل آزمایش های مشابه استفاده کنم. چگونه؟ با شاخص ها محاسبات شاخص های نسبی: داده های من به طور کلی در سه تکرار هستند. برخی از آنها تکراری هستند (به دلیل وجود موارد پرت). من این کار را به این صورت انجام می دهم: 1. من میانگین حسابی n-plicates را برای هر یک از سطوح/گروه هایم محاسبه می کنم. 2. سپس شاخص های نسبی را محاسبه می کنم: میانگین گروه کنترل [gr0] را 1 قرار می دهم و بقیه را به صورت [gr1]/[gr0]، [gr2]/[gr0]، [gr3]/[gr0] محاسبه می کنم. و [gr4]/[gr0]. بنابراین، من 5 شاخص برای ماوس شماره 1 دارم. 3. تمام این محاسبات را با داده‌های بقیه حیوانات تکرار می‌کنم و یک جدول 5*5 با 1 در گروه کنترل [gr0] به دست می‌آورم. 4. سپس من قصد دارم این ماتریس را در SAS PROC GLIMMIX قرار دهم... سؤالات: 1. آیا تقسیم میانگین n-plicate برای یک گروه (یعنی [gr#]/[gr0]) صحیح است یا من باید مانند [ تفریق کنم] gr#] - [gr0]؟ 2. من گمان می کنم که توزیع داده های خام اولیه Log-normal است. چه توزیعی را باید با شاخص ها انتظار داشته باشم؟ بتا؟ دو جمله ای؟ 3. SEM ها چطور؟ چگونه می توان آنها را در مورد شاخص ها محاسبه کرد؟ در مرحله شماره 3؟ در این صورت میانگین دوم (میانگین بر اساس 5 شاخص محاسبه شده از خام به معنی...) و SE آن را محاسبه می کنم. درسته؟ 4. آیا منطق بالا وجود دارد؟ متشکرم. P.S. دو سوال مشابه اما بی پاسخ اینجا و اینجا وجود داشت.
چگونه داده های موضوعات مختلف را تجزیه و تحلیل کنیم؟
112316
من یک مدل در ساختار زیر ساختم (r): model<-lm(log(target+1) ~ var1+log(var2+1), data=dat) چگونه می توانم نتایج (ضرایب) را تبدیل کنم، بنابراین آیا می توانید آن را در یک مدل پیش بینی قرار دهید؟ آیا باید model_predict<-predict(model, newdata=dat,type='response') را بنویسم؟ یا باید برای تنظیم گزارش متغیر وابسته (target) و یکی از متغیرهای مستقل var2 کار دیگری انجام دهم؟
نحوه تبدیل صحیح مدل رگرسیون خطی مبتنی بر ورود به سیستم برای یک پیش بینی
12524
آیا می توانید لطفاً مطالعه خوبی در مورد تجزیه و تحلیل آماری مربوط به کشف کلاهبرداری آنلاین و جلوگیری از سوء استفاده از حساب را توصیه کنید؟ متشکرم.
توصیه خواندن در مورد استفاده از تجزیه و تحلیل آماری در پیشگیری از کلاهبرداری آنلاین
82537
من می دانم که اگر بارها از یک مجموعه داده نمونه برداری کنید و هر بار میانگین را محاسبه کنید، این میانگین ها از توزیع نرمال پیروی می کنند (توسط CLT). بنابراین، شما می توانید یک فاصله اطمینان از میانگین مجموعه داده ها را بدون هیچ گونه فرضی در مورد توزیع احتمال مجموعه داده ها محاسبه کنید. می خواستم بدانم آیا می توانید کاری مشابه برای واریانس انجام دهید. یعنی اگر بخواهم بارها از یک مجموعه داده نمونه برداری کنم و هر بار واریانس را محاسبه کنم، آیا این واریانس ها از توزیع خاصی تبعیت می کنند (صرف نظر از اینکه توزیع احتمال اولیه مجموعه داده چقدر بوده است)؟ من می دانم که اگر مجموعه داده های اصلی نرمال باشد، واریانس ها از توزیع کای دو پیروی می کنند. اما در موردی که عادی نیست چطور؟ هر گونه بینش قدردانی خواهد شد!
آیا می توان از Resampling بوت استرپ برای محاسبه فاصله اطمینان برای واریانس یک مجموعه داده استفاده کرد؟
93925
در مدل چند عاملی بازده سهام، من چندین متغیر $X_1$, $X_2$, ... , $X_n$ را به عنوان متغیر توضیحی در نظر می‌گیرم. با این حال، قبل از گنجاندن متغیرها در مدل، می‌خواهم: * 1) مقادیر پرت را در هر متغیر با استفاده از winsorizing مقیاس‌بندی کنم * 2) متغیرهای $n$ را برای قابلیت مقایسه، با استانداردسازی، در همان مقیاس قرار دهم. آنها، یعنی تفریق میانگین و تقسیم بر انحراف معیار. سوالات من این است: * برای هر متغیر، باید _قبل___________________ یا _____________________________________________________________ فرآیند استانداردسازی را برنده کنم؟ * چگونه می توانم به بهترین وجه یک آستانه برای شناسایی نقاط پرت در هر متغیر تعیین کنم؟ هر گونه کمکی قدردانی خواهد شد. متشکرم
حذف پرت و استانداردسازی متغیرها
63448
من سعی می‌کنم یک مدل ARIMA را با یک متغیر برون‌زا با استفاده از تابع «auto.arima» با گزینه «xreg» در R تطبیق دهم. من شک دارم زیرا هیچ یک از داده های من ثابت نیستند و هر دو فصلی هستند. آیا قبل از اعمال «auto.arima» باید لاگ را اعمال کنم و سری های خود را متمایز کنم؟ چگونه می توانم با فصلی بودن در سری های زمانی اصلی و در سریال های برون زا رفتار کنم؟ چگونه نتایج تابع «auto.arima» را تفسیر کنم؟
آماده سازی داده ها و درک خروجی های auto.arima، در R.
97202
هدف من یافتن عوامل خطر برای یک بیماری است. من فکر می کنم که سوء تغذیه یک عامل خطر برای این بیماری است. من 5 متغیر دارم که تعداد وعده های غذایی خورده شده را نشان می دهد (مثلاً هر ماه در یک دوره ثابت). من متغیرها را در مدل رگرسیون لجستیک قرار دادم، اما هیچ کدام معنی دار نبودند. سوال من این است: از چه نوع تکنیک آماری می توانم برای تعیین امتیاز برای هر فردی که تغذیه او را ارزیابی می کند استفاده کنم؟ تحلیل عاملی؟ تجزیه و تحلیل مکاتبات؟ تجزیه و تحلیل تمایز؟ آیا این رویکرد می تواند به یافتن یک رابطه پنهان بین متغیر وابسته و امتیاز تغذیه به دست آمده کمک کند (مثلاً از طریق رگرسیون لجستیک) پیشاپیش از کمک شما متشکرم
تکنیک آماری برای ارزیابی تغذیه
105712
> ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/fWDwp.png) چگونه می توانم این مدل ARMA را با تاخیرهای خاص با استفاده از R مناسب کنم؟
تخمین سری زمانی بر روی تاخیرهای خاص در مدل ARMA
93922
من سعی می کنم مدلی بسازم که اهمیت هر ویژگی را در کمک به امتیاز هر پیش بینی فردی نشان دهد. به عنوان یک هک کثیف، من یک رگرسیون لجستیک را با ضرایب استاندارد شده اجرا می کنم و از مقدار متغیر ضربدر ضریب به عنوان معیار اهمیت ویژگی برای آن مشاهده استفاده می کنم. این از بسیاری جهات ناقص است، برای یکی از آنها همبستگی احتمالی بین ویژگی ها را به حساب نمی آورد. آیا کسی روشی را می شناسد که بتواند این روش را بهبود بخشد؟
محاسبه اهمیت متغیر در سطح پیش‌بینی فردی
87347
این معادله ای از مقاله یک مدل تصحیح احتمالی مبتنی بر محتوا برای بازیابی سند OCR است - رونگ جین، الکس جی. هاوپتمن، چنگ ژیانگ ژای $$P(w|M_{\text{orig}}) = \frac{ 1}{Z(M_{\text{orig}})} \frac{1}{|D_{OCR}|}\sum_{o|w\in f(o)} {{tf}(o,D_{OCR})\cdot P(r(o,w))} .$$ چگونه می توانم $Z(M_{orig})$ را محاسبه کنم تا مجموع توزیع کلمه $P(w|M_{orig})$ را به 1 نگه دارم؟ در اینجا، $P(w|M_{orig})=$ توزیع کلمه در سند اصلی، $tf(o,D_{OCR})=$ فراوانی کلمه $o$ در $D_{OCR} سند $، $r(o,w)=$ رتبه کلمه پیشنهادی توسط غلط‌گیر املا.
محاسبه ثابت نرمال سازی
63447
در صورتی که کسی بخواهد دنباله‌روی کند، من از این سؤال می‌آیم. اساساً من یک مجموعه داده $\Omega$ متشکل از $N$ اشیاء دارم که در آن هر شی دارای تعداد معینی از مقادیر اندازه گیری شده است (در این مورد دو عدد): $$\Omega = o_1[x_1، y_1]، o_2[ x_2، y_2]، ...، o_N[x_N، y_N]$$ من به راهی برای تعیین احتمال یک شی **جدید** نیاز دارم $p[x_p, y_p]$ متعلق به $\Omega$ است، بنابراین در آن سوال به من توصیه شد که چگالی احتمال $\hat{f}$ را از طریق یک تخمین‌گر چگالی هسته، که فکر می‌کنم قبلاً دارم، بدست بیاورم. از آنجایی که هدف من این است که احتمال تعلق این شی جدید ($p[x_p, y_p]$) به مجموعه داده‌های دوبعدی $\Omega$ را به دست بیاورم، به من گفته شد که pdf $\hat{f}$ را روی ادغام کنم. _مقادیر حمایتی که چگالی آن کمتر از آن چیزی است که مشاهده کردید. چگالی مشاهده شده $\hat{f}$ است که در شی جدید $p$ ارزیابی شده است، یعنی: $\hat{f}(x_p, y_p)$. بنابراین باید معادله را حل کنم: $$\iint_{x, y:\hat{f}(x, y) < \hat{f}(x_p, y_p)} \hat{f}(x,y)\ ,dx\,dy$$ PDF مجموعه داده های دوبعدی من (که از طریق ماژول stats.gaussian_kde پایتون به دست آمده است) به این صورت است: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/vbXwr.png) که در آن نقطه قرمز نشان دهنده شیء جدید $p[x_p, y_p]$ است که بر روی PDF مجموعه داده من رسم شده است. بنابراین سؤال این است: چگونه می توانم انتگرال فوق را برای حدود $x, y:\hat{f}(x, y) < \hat{f}(x_p, y_p)$ محاسبه کنم وقتی pdf به این شکل است؟ * * * ## اضافه کنید من چند آزمایش انجام دادم تا ببینم روش مونت کارلو که در یکی از نظرات ذکر کردم چقدر خوب کار می کند. این چیزی است که من دریافت کردم: ![table](http://i.stack.imgur.com/2osaN.png) مقادیر به نظر می رسد برای مناطق با چگالی کمتر که هر دو پهنای باند کم و بیش یکسان را نشان می دهند، کمی بیشتر متفاوت است. بیشترین تغییر در جدول برای نقطه (x,y)=(2.4،1.5) رخ می دهد که مقدار نمونه 2500 در مقابل 1000 سیلورمن را مقایسه می کند، که تفاوت 0.0126 یا ~1.3% را نشان می دهد. در مورد من این تا حد زیادی قابل قبول است. _**ویرایش_**: همین الان متوجه شدم که قانون اسکات در 2 بعدی مطابق با تعریفی که در اینجا داده شده معادل قانون سیلورمن است.
ادغام برآوردگر چگالی هسته در دو بعدی
112314
با توجه به سیستمی متشکل از **n** اجزای مختلف که از توزیع Weibull پیروی می کنند. ما به راحتی می توانیم پارامترهای شکل و مقیاس را برای هر جزء تخمین بزنیم. اگر اجزاء یک سیستم موازی تشکیل دهند، چگونه پارامترهای کل سیستم را تخمین می زنید؟
چگونه پارامترهای یک سیستم ~(آلفا، بتا) را در R تخمین می زنید؟
53357
همین الان دارم سرم را از تن جدا می کنم. من تمام روز را نشسته ام و سعی کردم این تکلیف را که در آمار دارم حل کنم. من 5 مشاهده دارم: `229, 211, 93, 35, 8` من 5 مشاهدات مورد انتظار دارم: `226.74, 211.39, 98.54, 30.62, 8.71` باید یک تست تناسب خوب از این اعداد انجام دهم بنابراین شروع به یافتن کردم. G: 2 * (229 * ln(229 / (226.74)) + 211 * ln(211 / (211.39)) + 93 * ln(93 / (98.54)) + 35 * ln(35 / (30.62)) + 8 * ln(8 / (8.71))) = 0.9987 یا ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/ubPkQ.png) خب حالا من دارم: مقدار کمتر = 0.9987 و df = 4 پس حالا باید pvalue خود را از طریق cdc (مقدار پایین تر، df) پیدا کنم؟ به نظر می رسد نمی توانم چیزی را درست در اینجا دریافت کنم، و نمی دانم که آیا تا به حال آن را درست انجام داده ام یا نه؟ آیا کسی ایده ای دارد که چگونه می توانم این را حل کنم؟ و اینکه چگونه آن را در R یا Maple تایپ کنم؟
تست خوب بودن برازش در آمار
53355
من می‌خواهم از رگرسیون لجستیک استفاده کنم تا ببینم چگونه متغیر پیوسته‌ای که برای نمونه‌ای از شرکت‌کنندگان اندازه‌گیری کرده‌ام (مدت زمانی که آنها به یک محصول نگاه کرده‌اند) چگونه بر یک متغیر دوگانه تأثیر می‌گذارد (خواه آنها آن را خریده باشند یا نه، Y یا N). چندین محصول وجود دارد که من علاقه مند به بررسی آنها هستم، به این معنی که من معتقدم باید LR های جداگانه ای برای هر محصول اجرا کنم. من عمدتاً علاقه مند به مقایسه تأثیر نسبی IV بر خرید هر محصول هستم. من فکر می کردم که شهودی ترین راه برای انجام این کار استفاده از Odds Ratios است. دو سوال در این مورد دارم. 1) آیا مقایسه نسبت شانس بین مدل ها مناسب است؟ 2) آیا اگر من فقط به نسبت شانس علاقه مند باشم، توانایی/عملکرد پیش بینی مدل برای تفسیر مهم خواهد بود؟ یک مدل با عملکرد ضعیف برای تفسیر نسبت شانس چه معنایی دارد؟ با تشکر از هر کمکی، بسیار قابل قدردانی است.
مقایسه مدل رگرسیون لجستیک
87341
یک بار دوستی به من گفت که حتی با نادیده گرفتن اندازه اسکوپ ها، یک اسپیندون D20 (که در آن صورت های همسایه به ترتیب شماره گذاری می شوند، برای مشاهده آسان.) شانس های متفاوتی نسبت به یک D20 معمولی ایجاد می کند که دارای چهره های همسایه متنوع تری است. آیا این حقیقت دارد؟
آیا توزیع اعداد تاس فی نفسه مهم است؟
111683
من با آمار فضایی و تماشای آموزش های زیادی تازه کار هستم، اما واقعاً نمی دانم که چرا باید یک مدل واریوگرام هنگام کریج ارائه دهید. من از بسته gstat در R استفاده می‌کنم، و این مثالی است که آنها می‌دهند: کتابخانه(sp) data(meuse) مختصات(meuse) = ~x+y data(meuse.grid) str(meuse.grid) gridded(meuse. grid) = ~x+y m <- vgm(.59, Sph, 874, 0.04) print(m) # کریجینگ معمولی: x <- krige(log(zinc)~1، meuse، meuse.grid، model = m) آیا کسی می‌تواند در چند خط توضیح دهد که چرا ابتدا باید vgm را تهیه کنید؟ و چگونه پارامترها را تنظیم می کنید؟ پیشاپیش از شما متشکرم کاسپر
چرا هنگام کریجینگ باید مدل واریوگرام ارائه دهید؟
9637
زمانی می توان از انحراف معیار (std) استفاده کرد که میانگین حسابی آمار صحیح باشد. وقتی میانگین هندسی آمار درست است، معادل std چیست؟
میانگین هندسی و انحراف معیار
112312
من یک جدول اقتضایی و یک نمودار ارتباطی در R ایجاد کرده ام و کاملاً مطمئن نیستم که چگونه آن را تفسیر کنم. جدول احتمالی من این است: بدون مجموع دندانپزشکی نه پزشکی 39 13 52 پزشکی 18 146 164 مجموع 57 159 216 و این هم نمودار ارتباط مشاهده شده من: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com /3KerN.png) من همچنین یک آمار آزمون کای دو دارم: آزمون کای دو پیرسون با داده های تصحیح تداوم یتس: t X-squared = 80.051، df = 1، p-value < 2.2e-16 می دانم که این آزمایش برای تعیین مستقل بودن داده های طبقه بندی من است. سوال من این است: 1. چگونه طرح را تفسیر کنیم؟ 2. چگونه فرضیه صفر خود را انتخاب کنم؟ آیا فرضیه صفر من دندانپزشکی مستقل از پزشکی است؟ از آنجایی که مقدار p من بسیار کوچک است، می توانم null را رد کنم؟ پیشاپیش از شما متشکرم
نحوه تعیین نمودار ارتباط در R و P-value
113951
من یک سوال کلی دارم در مورد اینکه آیا ممکن است گاهی اوقات منطقی باشد که ضرایب رگرسیون خاص را به مقادیر از پیش تعیین شده تثبیت کنیم. و اگر این در موارد خاص منطقی است، چگونه می‌توانید آن را به بهترین نحو انجام دهید؟ در مورد من، من حدود 1600 مشاهده دارم اما عمدتاً به متغیری علاقه مند هستم که حدود 600 مشاهده برای آن وجود ندارد. اگر یک رگرسیون معمولی (OLS، GLS، CLM) اجرا کنم، تمام متغیرهایی که مقادیر گم شده دارند حذف می شوند، و من نمی دانم که آیا می توان همه مشاهدات را ذخیره کرد تا ضرایب متغیرهایی را که برای آنها کامل است، تعیین کرد. اطلاعات، و سپس یک رگرسیون جداگانه برای تعیین ضرایب متغیرها با تمام مقادیر از دست رفته اجرا کنید. در فرمول های ساده به نظر می رسد: # مرحله 1 برای متغیرهای `x1,x2,x3,x4` من 1600 مشاهده دارم glm.core <- glm(y ~ x1 + x2 + x3 + x4) # ضرایب را در رگرسیون بتا <- glm.core$coef # مرحله 2 برای متغیرهای `z1` و `z2` من فقط یک 1000 مشاهده glm.main <- glm(y ~ beta[1]*x1 + beta[2]*x2 + beta[3]*x3 + beta[4]*x4 + z1 + z2) بنابراین می‌خواهم بتاها را از قبل تعیین کنم که من اطلاعات کاملی برای آنها دارم و سپس مقادیر آنها را در رگرسیون اصلی ثابت می کنم. (شاید این یک ایده کاملاً بیهوده باشد و اگر چنین است لطفاً به من بگویید) من می دانم که چنین چیزی را می توان با offset به دست آورد اما این برای متغیرهای عامل کار نمی کند و x2 و x3 فاکتورهایی هستند (x2 دارای مقادیر «دانشگاه»، «شرکت»، «دولت» و «x3» دارای مقادیر «شناخته»، «نامعلوم»، «مرتبط» است). 1. آیا جایگزینی برای حل این مشکل، کاهش متغیر پاسخ «y» با مقادیر برازش مدل «glm.core» و اجرای رگرسیون به این صورت است؟ 2. اگر این یک گزینه معقول است * چه اتفاقی برای خطاها می افتد؟ * چگونه می توان درجه آزادی را محاسبه کرد؟ * آیا این با مدل‌های لاجیت مرتب (CLM) که مقادیر برازش درصد هستند، کار می‌کند؟ آیا راه های بهتری برای مقابله با این مشکل وجود دارد؟ PS: من از نرم افزار R استفاده می کنم، فراموش کردم در ابتدا این را ذکر کنم ...
آیا تثبیت ضرایب در یک رگرسیون منطقی است و اگر دارد چگونه می توان آن را انجام داد؟
113953
من نمرات PCA (اندرسون-روبین) را به دست آورده‌ام و فکر کردم از آن‌ها در تجزیه و تحلیل خوشه‌ای استفاده کنم، اما گیج شده‌ام که چگونه بر اساس آنها تفسیر کنم یا اینکه با چه نوع متغیری باید رفتار شود (در ابتدا مقیاس لیکرت 4 درجه‌ای بود. ) و بنابراین چه روش تجزیه و تحلیل خوشه ای انتخاب شده است. آیا کسی می تواند با هر مثالی به اشتراک بگذارد؟ آیا اگر از امتیازهای PCA استفاده نکنم، اما میانگین پاسخ را برای گروه های آیتم ها در مؤلفه های به دست آمده محاسبه کنم و برای خودم متغیرهای جدیدی ایجاد کنم، تأیید می شود؟ خیلی ممنون میشم جواب بدید!!!
امتیازات PCA و تجزیه و تحلیل خوشه ای
53359
این اولین پست من در اینجا است. من در حال حاضر در حال تلاش برای محاسبه احتمال پیش‌بینی پسین برای یک توزیع با ساختار درختی، به دنبال مقاله یادگیری Tractable Bayesian شبکه‌های اعتقاد درختی توسط Marina Meila هستم. به طور خاص، من در مورد معادله (46) در مقاله می‌پرسم: $$ P(x|\mathcal{D}) = \frac{w_0(x)\left|Q(\beta Ww(x))\right| }{\left|Q(\beta W)\right|}. $$ که در آن $x$ یک متغیر تصادفی گسسته ابعادی $d$ است، در برنامه من، شما می توانید آن را با ارزش دودویی فرض کنید. $\mathcal{D}$ آمار مشاهده شده (حاشیه ای و دو متغیره) از داده ها است. $\beta$ یک ماتریس با ارزش واقعی $d$-by-$d$ است که نشان دهنده توزیع قبلی برای ساختار درخت است. $W$ ماتریس $d$-by-$d$ دیگری است که هر ورودی از $\mathcal{D}$ محاسبه می‌شود. $w(x)$ همچنین یک ماتریس $d$-by-$d$ است که از هر بعد $x$ و برهمکنش‌های دو متغیره $x$ محاسبه می‌شود. ضرب ماتریس در اینجا حاصلضرب ماتریس ورودی است. $Q$ عملگری است که یک ماتریس $d$-by-$d$ می گیرد، لاپلاسی آن را محاسبه می کند و اولین زیرماتریس $d-1$-by-$d-1$ را می گیرد. هر ورودی $W$، $\beta$، $w$ همه مثبت هستند. از نظر تئوری، کاری که $\left|Q(\beta W)\right|$ انجام می‌دهد این است که از قضیه ماتریس-درخت برای جمع کردن همه درخت‌های پوشا ممکن برای یک ماتریس مجاورت وزنی $\beta W$ استفاده می‌کند. در عمل، $W$ ممکن است محدوده بزرگی داشته باشد، حداکثر ورودی ممکن است $e^{-2300}$، حداقل ورودی ممکن است $e^{-2600}$ باشد، که به این معنی است که وزن‌های لبه در ماتریس مجاورت نزدیک هستند. به 0. هنگام محاسبه لاپلاسی برای $\beta W$، برای جمع کردن وزن های لبه، زیرا برخی از ورودی ها (به عنوان مثال $e^{-2300}$ زیاد است بزرگتر از $e^{-2600}$)، مجموع مورب (من در حال انجام محاسبات در دامنه گزارش هستم) مانند بزرگترین ورودی خواهد بود. بنابراین، هنگام تعیین توان این ورود به سیستم برای محاسبه تعیین کننده، ممکن است برخی از ورودی های بزرگ خارج از مورب وجود داشته باشد که تعیین کننده را منفی می کند، در حالی که در تئوری، تعیین کننده همیشه باید مثبت باشد. بنابراین این احتمال پسین را نمی توان از نظر عددی با ثبات محاسبه کرد. من نمی دانم که آیا کسی معادله (46) را در Meila2006 پیاده سازی کرده است و می تواند تجربه ای را به اشتراک بگذارد. در حال حاضر من دو روش را برای دور زدن این مسئله عددی امتحان کرده‌ام: 1. هر دو $\beta W$ و $\beta W w(x)$ را تغییر اندازه دهید، با این حال، از آنجایی که مشکل از تفاوت بزرگ دامنه ورود به سیستم ناشی می‌شود، این تغییر مقیاس نمی‌تواند کار نمیکنه 2. من همچنین سعی کردم تجزیه ویژه لاپلاسین $\beta W$ را انجام دهم و متوجه شدم که ممکن است مقادیر ویژه منفی بسیار کوچکی وجود داشته باشد (مانند $-e^{-142}$) که باعث منفی شدن دترمینان می شود. . سپس سعی می‌کنم از رویکرد مقاله NIPS 2001 Andrew Ng (درباره خوشه‌بندی طیفی: تحلیل و یک الگوریتم) برای انجام خوشه‌بندی طیفی روی $\beta W$ و تجزیه $\beta W$ به اجزای مختلف متصل استفاده کنم. اما الگوریتم kmeans برخی از نتایج خوشه‌ای تصادفی را بر اساس مقادیر ویژه می‌دهد. پیشاپیش از همه برای هر گونه پیشنهاد تشکر می کنم.
یادگیری بیزی توزیع درخت
41367
درک چگونگی تشخیص اینکه آیا ضرایب رگرسیونی که می‌گیرم نسبت به داده‌ها بزرگ یا کوچک هستند، مشکل دارم. من یک رگرسیون دارم که مقطعی است. برای مثال، رگرسیون log (درآمد مالیاتی سرانه + 1) در سهم شهرستان ایالات متحده که سیاه است. سهم جمعیتی که پیوسته است، از 0 تا 1 در حال اجرا است (در تئوری، در عمل، هرگز آنقدر بزرگ نیست). فرض کنید log (درآمد مالیاتی سرانه + 1) دارای میانگین 7.189 و انحراف استاندارد در 0.469 است. همچنین میانگین سهم جمعیت سیاه پوست 032/0 با انحراف معیار 048/0 است. فرض کنید من یک ضریب رگرسیون 1.733- با خطای استاندارد 0.708 دریافت می کنم، به طوری که به وضوح در سطح معمولی از نظر آماری معنی دار است. من می‌دانم که این ضریب می‌تواند اینطور تفسیر شود که شهرستانی با جمعیت 100٪ سیاهپوست انتظار می‌رود بر اساس رگرسیون، 173.3٪ درآمد مالیاتی سرانه کمتری داشته باشد. در حالی که به نظر بزرگ می رسد، می خواهم آن را با داده های مالیاتی واقعی مقایسه کنم تا اهمیت اقتصادی آن را تشخیص دهم. آیا آن را با میانگین گزارش (مالیات سرانه + 1) مقایسه کنم؟ انحراف معیار آن؟ محدوده آن؟ چیز دیگری شاید بتوانم موارد زیر را بگویم؟ فرض کنید برخی از شهرستان ها سیاه پوست ندارند. فرض کنید سیاه‌پوستان در سایر شهرستان‌ها به طور متوسط ​​11 درصد از جمعیت را تشکیل می‌دهند. فرض کنید میانگین لاگ (نرخ مالیات سرانه + 1) در شهرستان‌های سیاه‌پوست 8.29 باشد در حالی که همین عدد در گروه بدون سیاه‌پوستان 8.573 باشد. آیا می توانم بگویم که داشتن جمعیت سیاهپوست توضیح می دهد (1.733 * 0.11) / (8.57 - 8.29) = 0.19 / 0.28 = 67.8٪ از تفاوت درآمد سرانه مالیاتی بین شهرستان های متوسط ​​بدون هیچ سیاه پوست نسبت به متوسط ​​شهرستان با سیاه پوستان؟ حالت دومی که دارم پانل است. فرض کنید می خواهم موارد زیر را بگویم. تغییرات تجربی در جمعیت سیاه پوست در طول زمان (یعنی در طول دوره های زمانی) تا چه اندازه تغییر در نرخ مالیات سرانه در طول زمان را توضیح می دهد؟ آیا میانگین مالیات سرانه در دوره پایانی نسبت به دوره اول را استخراج کنم و این تفاوت را با همان تفاوت در سهم جمعیت سیاه پوست ضرب در ضریب رگرسیون مقایسه کنم؟
تفسیر ضرایب رگرسیون و اهمیت اقتصادی
63441
برنامه آمار من هر دو روش Benjamini & Hochberg (1995) و Benjamini & Yekutieli (2001) نرخ کشف کاذب (FDR) را اجرا می کند. من تمام تلاش خود را برای خواندن مقاله بعدی انجام داده ام، اما از نظر ریاضی کاملاً متراکم است و به طور منطقی مطمئن نیستم که تفاوت بین روش ها را درک کنم. من می‌توانم از کد زیربنایی در برنامه آمارم متوجه شوم که آنها واقعاً متفاوت هستند و این دومی شامل مقدار q است که در رابطه با FDR به آن اشاره کرده‌ام، اما همچنین کاملاً درک آن را ندارم. آیا دلیلی برای ترجیح روش Benjamini & Hochberg (1995) در مقابل روش Benjamini & Yekutieli (2001) وجود دارد؟ آیا آنها مفروضات متفاوتی دارند؟ تفاوت های عملی بین این رویکردها چیست؟ Benjamini, Y., and Hochberg, Y. (1995). کنترل نرخ کشف نادرست: یک رویکرد عملی و قدرتمند برای آزمایش چندگانه مجله انجمن آماری سلطنتی سری B، 57، 289-300. Benjamini, Y., and Yekutieli, D. (2001). کنترل نرخ کشف کاذب در آزمایش چندگانه تحت وابستگی Annals of Statistics 29، 1165-1188. مقاله 1999 در نظرات زیر ارجاع داده شده است: Yekutieli, D., & Benjamini, Y. (1999). نرخ کشف کاذب مبتنی بر نمونه‌گیری مجدد، روش‌های آزمایش چندگانه را برای آمار آزمون همبسته کنترل می‌کند. مجله برنامه ریزی و استنباط آماری، 82(1)، 171-196.
تفاوت های عملی بین Benjamini & Hochberg (1995) و Benjamini & Yekutieli (2001) رویه های نرخ کشف نادرست چیست؟
58982
هنگام تخمین پارامترها، می دانم که قاعده کلی این است که n/پارامترها باید 10> باشند. آیا رهگیری در یک مدل به عنوان یکی از پارامترهای تخمینی در این قاعده به حساب می آید؟ به عنوان مثال، اگر من یک n از 50 داشته باشم، آیا فقط می توانم 4 پارامتر را تخمین بزنم، زیرا رهگیری پنجمین پارامتر را تشکیل می دهد؟
آیا قطع به عنوان پارامتری برای قانون اندازه نمونه n/parameters برای رگرسیون چندگانه به حساب می آید؟
63440
بگویید من جفت $n$ داده سری زمانی دارم. برای هر جفت، اندازه‌گیری را محاسبه می‌کنم که به کسر همپوشانی هر جفت سری زمانی نگاه می‌کند، که منجر به مقادیر همپوشانی $n$ می‌شود. **ویرایش:** من همپوشانی سری زمانی را به صورت زیر تعریف می کنم. برای هر جفت سری زمانی، یک سیگنال را بر سیگنال دیگر تقسیم کنید (طول سیگنال ها یکسان است) و در نتیجه یک سیگنال جدید $d$ ایجاد می شود. سپس، با توجه به آستانه $x$، به دنبال هر لحظه در زمان بگردید که $1-x <= d <= 1+x$ را برآورده می کند. هر زمان که این شرط برآورده شد، بگویید که سیگنال ها همپوشانی دارند. متغیر $x$ یک آستانه تحمل است که به ما امکان می‌دهد قبل از اینکه سیگنال‌ها را به عنوان همپوشانی بپذیریم، میزان نزدیک شدن آنها را تغییر دهیم (اگر $d=1$، سیگنال‌ها در آن لحظه کاملاً همپوشانی دارند). آمار نهایی استفاده شده کسری از $d$ را به ما می گوید که سیگنال ها با یکدیگر همپوشانی دارند - طبق تعریف بالا - یعنی به ما می گوید که سیگنال ها در هر جفت چقدر (نسبی) با هم همپوشانی دارند. این توزیع این مقادیر است که من به آن علاقه مند هستم. می خواهم تعیین کنم که آیا توزیع مقادیر همپوشانی غیرتصادفی است، یعنی اگر جفت های سری زمانی من به نحوی تصادفی باشند، آیا توزیع این همپوشانی های تصادفی خواهد بود. متفاوت از توزیع همپوشانی های واقعی که قبلاً محاسبه کرده ام. هر گونه کمکی بسیار قدردانی خواهد شد.
آزمون فرضیه - آیا توزیع من تصادفی نیست؟
91427
من مدلی دارم که با استفاده از درخت های شرطی، تابع ctree() در بسته R party پاسخ طبقه بندی را پیش بینی می کند. من می توانم پس از آموزش مدل در مجموعه آموزشی، پاسخ های پیش بینی شده را در مجموعه داده های جدید دریافت کنم. سوال من در مورد ارتباط الگوریتم پیش بینی است. چگونه می توانم الگوریتم پیش بینی را از ctree() به گونه ای بدست بیاورم که شخص دیگری بتواند از آن برای پیش بینی پاسخ ها در یک مجموعه داده جدید استفاده کند. به عنوان مثال، در مورد رگرسیون خطی، من ضرایب را برای پیش بینی کننده ها گزارش می کنم. من مطمئن نیستم که چگونه این کار را برای درختان مشروط انجام دهم. مدل من 5 پاسخ ترتیبی و حدود 20 پیش بینی کننده ترتیبی دارد. پیشاپیش ممنون شمیل.
الگوریتم پیش بینی در تابع ctree() در بسته R party
49418
4 راه وجود دارد که کاربر می‌تواند ترجیح خود را برای یک مقاله در برنامه خبری من نشان دهد: تعداد دفعاتی که یک مقاله مشاهده شده است. برای چه مدت مقاله مشاهده شد. آیا مورد علاقه بود یا نه؛ و تعداد دفعاتی که با سایر کاربران به اشتراک گذاشته شده است. من علاقه مند به جمع آوری تمام این داده های مربوط به یک کاربر به یک آیتم خبری، و ایجاد شماره ای هستم که می تواند در یکی از الگوریتم های سیستم توصیه کننده زیادی که وجود دارد استفاده شود. من به ویژه مشتاق آزمایش روش های فاکتورسازی ماتریسی هستم. سوالات من: چگونه باید به بهترین شکل به این موضوع برخورد کنم؟ آیا مقدار حاصل باید محدود شود (به عنوان مثال [0،5])؟ اگر چنین است، برای مثال، چگونه با تعداد بازدیدهایی که می توانند ارزشی داشته باشند، برخورد کنیم؟ خیلی ممنونم!
رتبه بندی ضمنی سیستم توصیه گر به مقیاس ترتیبی
58320
تابع تولید لحظه $W$ را پیدا کنید، زمانی که $W=X+2Y+4Z$. $~X,~Y,~Z$ توزیع های نرمال مستقل $\mathcal N(1,4),~ \mathcal N(2,9) \text{ و }\mathcal N(3,16)$ هستند.
تابع تولید لحظه را پیدا کنید
45862
فرضیه: سری زمانی شکل U معکوس دارد. چگونه این را به صورت عددی تست کنیم؟ ایده من این است که اولین تفاوت متغیر را در نظر بگیرم و با استفاده از متغیر متمایز شده به عنوان متغیر درون زا و متغیر زمان به عنوان برون زا، یک مدل خطی برازش کنم. $\Delta y_t = \beta_1 + \beta_2 t_t + \epsilon_t$ اگر فرضیه درست باشد، $\beta_2$ باید به طور قابل توجهی کمتر از صفر باشد. اگر این روش را با داده های تولید شده توسط کامپیوتر امتحان کنیم، می توان دریافت که به خوبی کار می کند. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/pGbYh.png) تماس: lm(formula = dy ~ dt) باقیمانده ها: حداقل 1Q Median 3Q Max -1.219e-15 -2.520e- 16 -2.218e-17 1.827e-16 1.241e-15 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) 1.210e-01 1.118e-16 1.082e+15 <2e-16 *** dt -2.000e-03 2.245e-18 -8.910e+14 <2e- 16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 4.988e-16 در 82 درجه آزادی. 1 آماره F: 7.939e+29 در 1 و 82 DF، p-value: < 2.2e-16 با این حال، اگر مقدار کمی نویز به داده ها اضافه شود، این روش به طرز فاجعه باری از بین می رود: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/aFnBp .png) تماس: lm(فرمول = dy ~ dt) باقیمانده ها: حداقل 1Q Median 3Q Max -0.96480 -0.21802 0.00826 0.24701 0.93200 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) 0.114305 0.087548 1.306 0.195 dt -0.001922 0.001758 -1.093 0.277 خطای استاندارد باقیمانده: 0.3907 درجه آزادی چندگانه R8 0.01437، R-squared تنظیم شده: 0.002345 F-statistic: 1.195 در 1 و 82 DF، p-value: 0.2775 بنابراین، جایگزین چیست؟ # کد R را برای تولید سری و نمودارها ویرایش کنید: t <- 1:85 y <- 0.12 * t - 0.001 * t^2 + rnorm(length(t)، sd=0.25) dt <- tail(t, - 1) dy <- دم (y، -1) - سر (y، -1) نمودار (t، y، ylim=c(-0.5، 4)، pch=19، col='navy') points(dt, dy, pch=19, col='بنفش') افسانه (x=3, y=3.5, c('y','first different'), pch= 19، col=c('navy','urple')) خلاصه (lm(dy ~ dt))
تشخیص روند در سری های زمانی
108001
من سعی می کنم خروجی مدل lmer خود را به درستی تفسیر کنم و همچنین می خواهم یک تعامل موجود در مدل را بر اساس مقادیر رهگیری تجسم کنم. متغیرها و سطوح من عبارتند از 1. آموزش (Compr در مقابل Prod) 2. آشنایی (قدیمی در مقابل جدید)، 3. wavdur (عددی) 4. Listhalf (1 در مقابل 2) 5. متغیر وابسته logRT (زمان واکنش) است. . مدل و خروجی: rt.lmerA <\- lmer(logRT~ آموزش*آشنایی + آموزش*wavdur+ ListHalf+ (1|موضوع)+(1|Item), data=rt) #تعداد obs: 833، گروه ها: موضوع , 46; آیتم، 24 #اثرات ثابت: #Estimate Std. خطای t مقدار #(Intercept) 7.6810615 0.2346077 32.74 #TrainingProd -0.5033568 0.1927094 -2.61 #Familiarityold -0.2618837 -0.2618837 0.09228441 - 0.0922841 - 0.0922841 -v. 0.0003405 -5.25 #ListHalf -0.1407299 0.0320409 -4.39 #TrainingProd:Familiarityold 0.0767613 0.0664553 1.16 #TrainingProd80.700506 2.08 محاسبات رهگیری بتن من: آموزش (compr)/آشنایی (جدید): 7.68 آموزش (Prod)/آشنایی (جدید): 7.68-0.5 آموزش (compr)/آشنایی (قدیم):7.68-0.26 آموزش (Prod)/Fami قدیمی): 7.68-0.5+0.077 آیا این روش درستی برای محاسبه رهگیری است؟ بنابراین آیا می توانم نتیجه بگیرم که... * خط TrainingProd به من می گوید که Prod به RT های سریعتر از Compr منجر می شود، اما فقط در صورتی که آشنایی == جدید باشد؟ * Familiarityold به من می گوید که قدیمی منجر به RT های سریعتر از جدید می شود، اما فقط در صورتی که Training == Compr؟ * و از آنجایی که TrainingProd:Familiarityold مهم نیست، برای Training == Prod Familiarity تاثیری ندارد؟ متشکرم
تفسیر و تجسم خروجی lmer
30257
در رگرسیون حداقل مربعات، آماری مانند $R^2$ برای اندازه گیری قدرت متغیرهای توضیحی داریم. آیا زمانی که با رگرسیون بردار پشتیبان (SVR) سروکار داریم، اقدامات مشابهی وجود دارد؟ سوالی که می خواهم به آن ها پاسخ دهم این است: متغیر توضیحی $X$ چقدر به دقت نتایج کمک می کند؟
آیا در رگرسیون بردار پشتیبان (SVR) مانند حداقل مربعات، معیاری معادل قدرت توضیحی وجود دارد؟
111682
به عنوان عنوان، من در حال ارزیابی پایایی یک پرسشنامه (در واقع یک شاخص بارتل (BI)) هستم که توسط چهار ارزیاب (A,B,C,D) روی حدود 25 آزمودنی انجام شده است. من قصد دارم IRR را از نمره کلی BI و آیتم BI فردی بررسی کنم. برای آیتم BI فردی، من از آزمون t زوجی استفاده کردم تا ببینم آیا هر جفت ارزیاب از نظر آماری تفاوت معنی داری در امتیاز آیتم های فردی می دهد (مثلاً جفت A-B 2+ امتیاز با p<0.05 می دهد، که نشان می دهد A به طور مداوم 2 امتیاز بالاتر از B در این مورد دارد. مورد خاص BI). سپس از ضریب همبستگی درون کلاسی (ICC) روی هر جفت ارزیاب در هر آیتم دوباره استفاده می کنم تا ببینم چگونه دو ارزیاب با یکدیگر موافق هستند. من با مشکلی مواجه شدم که آزمون t زوجی تفاوت نمره گذاری را با p<0.05 نشان داد، در حالی که ICC نتیجه حدود 0.9 را نشان می دهد که نشان دهنده توافق عالی است. دو نتیجه به نظر من متناقض است، آیا کار اشتباهی انجام داده ام؟ من مطمئن نیستم که باید از این دو روش به طور همزمان استفاده کنم، پیشنهاد کردم از آن استفاده کنم زیرا آزمون t زوجی می تواند به من بگوید که کدام ارزیاب نمره سخاوتمندانه بیشتری نسبت به بقیه می دهد و ICC می تواند به من بگوید که آیا دو ارزیاب میزان توافق بالایی دارند.
آیا باید از آزمون t زوجی و ضریب همبستگی درون کلاسی برای بررسی پایایی interrater یک ابزار استفاده کنم؟
112318
امیدوارم بتوانم سوالم را واضح بیان کنم، در غیر این صورت خوشحال می شوم توضیح دهم. من می خواهم یک نمودار رگرسیون ساده با خط معادله چند جمله ای مرتبط با آن ارائه کنم. این داده‌ها در مدلی آزمایش شده‌اند که اثرات خطی و درجه دوم آن معنی‌دار بود. مقادیر x مقادیر فاصله ای هستند که بیش از حد پراکنده شده اند و من از تبدیل لگاریتمی طبیعی آنها در مدل استفاده کرده ام. مقادیر لاگ واقعا معنی دار نیستند. بنابراین، من مقادیر تبدیل نشده را روی یک محور log رسم کردم: plot((Total$ Rayon+.001)، Total$abs_d، xlab = Radius + 0.001 (m)، ylab = تفاوت استاندارد شده میانگین ها (d)، las = 1، log = x، xaxt=n) برچسب‌ها <- c(0.001، 0.01، 0.1، 1، 10، 100) axis(1، at=c(0.001، 0.01، 0.1، 1، 10، 100)، labels=labels) تا اینجا، خیلی خوب است. سوال اینجاست: اگر بخواهم یک خط معادله چند جمله ای به این نمودار اضافه کنم، آیا باید یک تبدیل برگشتی با مقادیر y انجام دهم؟ با نموداری که log x-values ​​را ارائه می دهد، در اینجا چگونه خط معادله را اضافه کردم: x <- seq(-7, 5, 0.1) پارامترهای #equation به دست آمده از معادله مدل <- -0.0228*x^2 + -0.1440 *x + 1.2519 خط (x، equa)
ترسیم داده ها و معادله چند جمله ای زمانی که مقادیر x تبدیل شده اند
49417
من سعی می کنم الگوریتم lowess را در جاوا دوباره پیاده سازی کنم. من صفحه متلب را خواندم که lowess را با مراحل زیر توضیح می دهد: > 1. وزن رگرسیون را برای هر نقطه داده در بازه محاسبه کنید. > 2. یک رگرسیون حداقل مربعات خطی وزن دار انجام می شود. برای lowess، > رگرسیون از یک چند جمله ای درجه یک استفاده می کند. > 3. مقدار هموار شده توسط رگرسیون وزنی در پیش بینی کننده > ارزش بهره داده می شود. > من فهرستی از نقاط داده (x,y) دارم و برای هر نقطه داده وزن همسایگان را محاسبه می‌کنم (در اینجا، آلفا = 0.01، یعنی 0.01 همسایه را برای هموارسازی در نظر می‌گیریم) با استفاده از هسته سه مکعبی (مرحله 1). من مطمئن نیستم از چه روشی برای مرحله دوم استفاده کنم. در حال حاضر من دو آرایه دارم، _kernel_ و _y_. _w_ لیست وزن ها، _d.x_ موقعیت _x_ نقطه داده، و _d.y_ موقعیت _y_ نقطه داده است. _j_ به همسایه *j*ام اشاره دارد. مقدار هموار شده باید بر روی محور _y_ محاسبه شود. هسته[j][0] = w[j]; هسته[j][1] = w[j]*d.x; y[j] = w[j]*d.y; من از خطوط زیر برای محاسبه رگرسیون استفاده می کنم: SimpleRegression reg = new SimpleRegression(); reg.addObservations(kernel,y); double rm = reg.getIntercept(); double rm0 = reg.getSlope(); 1. از کجا باید درجه (چند جمله ای درجه یک) را تعیین کنم؟ 2. آیا چیزی که من دارم درست است و rm0 مقدار هموار شده است یا باز هم باید کاری انجام دهم یا از روش دیگری برای رگرسیون استفاده کنم؟
محاسبه مقدار میانگین پایین
53354
من در مورد جایگزین هایی برای تجزیه و تحلیل مؤلفه های اصلی شنیده ام، آنها از روش های بهبود یافته ای مانند تجزیه بر مبنای غیر متعامد یا جریمه کردن مشکل بهینه سازی یافتن بالاترین مقدار ویژه باقی مانده استفاده می کنند. می بینی در مورد چی صحبت می کنم؟ آیا می توانید اطلاعات بیشتری در مورد این روش ها، مزایای آنها نسبت به PCA و اگر بسته R برای انجام سریع آنها وجود دارد به من بدهید.
جایگزین های PCA
113954
من یک داده نظرسنجی خاص مربوط به یک شغل خاص دارم. از جمعیت 90 نفری این شغل، 36 نفر در کم درآمدترین گروه قرار دارند. 19 نفر از 36 نفر می خواهند آن شغل را ترک کنند. من می‌خواهم یک آزمون z مناسب (یا هر آزمون مناسب دیگری) تدوین کنم که با آن بتوانم آزمایش کنم که آیا گروه درآمدی افراد و تمایل به ترک این شغل به هر حال مرتبط است یا خیر. لطفا کمک کنید.
فرموله کردن یک آزمون Z (یا هر آزمون مناسب دیگری) برای داده های نظرسنجی
115299
این سوال به دو بخش تقسیم می شود. من در حال حاضر یک بردار Y با 364 نقطه داده (Y) و یک متغیر برونزا (X) با 364 نقطه داده دارم. X یک پیش بینی خوب برای Y است که می خواهم آن را با اصطلاحات ARMA جفت کنم. با این حال X باید 3 ترم عقب بیفتد تا پیش بینی خوبی باشد. فرض کنید p = 3، d = 0 و q = 1 در arima(p,d,q) من باشد. راه صحیح تنظیم متغیر X در متلب چیست تا X بتواند پیش بینی کننده اصلی باشد؟ آیا می توانم سه مشاهدات اول (جدیدترین) را از X حذف کنم و سپس اندازه متغیر Y را به گونه ای کاهش دهم که Y = X - mdl.P من دیده ام که مدل ARIMAX به طول بردار X نیاز دارد که طول بردار Y + باشد. mdl.P. چرا این است؟ آیا این به دلیل نوعی وابستگی زمانی به تاخیرهای AR است؟ پارامتر 'Y0' به چه معناست؟
تطبیق ARIMAX با متغیر X عقب افتاده (Matlab)
49413
آیا توزیع های دیگری با ویژگی های مشابه با خانواده توزیع های پایدار وجود دارد؟ یعنی $\alpha$-stable، نرمال tempered stabil، کلاسیک tempered stabil و غیره که در آن توزیع می تواند ویژگی های زیر را نشان دهد: Heavy tailed، leptokurtotic، متقارن یا نامتقارن اما هنوز هم می تواند برخی از ویژگی های گاوسی را حفظ کند؟ به عنوان مثال، تنظیم $\alpha = 2$ در هر یک از توزیع های پایدار، منجر به توزیع نرمال بدون لپتوکورتوز یا خاصیت دم سنگین می شود. من خانواده توزیع هذلولی تعمیم یافته را می شناسم که از نظر ویژگی ها مشابه است و همچنین، برای چند مورد خاص که درجات آزادی بسیار زیاد است، به گاوسی واپاشی می کند.
توزیع های مشابه خانواده توزیع های پایدار
68597
من چندین متغیر ساختگی دارم که آنها را در دو عامل ترکیب می‌کنم، بنابراین FACT1 = DUM1 + DUM2 + DUM3 FACT2 = DUM4 + DUM5 از آنجایی که تعداد متفاوتی از dummies در هر عامل وجود دارد، فکر کردم بهتر است آنها را عادی کنم. آنها در همان محدوده قابل مقایسه هستند. FACT1_n = FACT1/3 FACT2_n = FACT2/2 حالا می‌خواهم مدل y = a + b1(FACT1_n) + b2(FACT2_n) را برازش کنم و مطمئن نیستم که چگونه ضرایب را تفسیر کنم. آیا این حتی راه درستی برای این کار است؟ ویرایش: باید توجه داشته باشم که نمی‌پرسم چگونه ضرایب را روی متغیرهای ساختگی تفسیر کنیم. من در مورد چگونگی تفسیر یک ضریب بر روی مجموع متغیرهای ساختگی که نرمال شده است می پرسم.
چگونه یک ضریب را روی یک مجموع نرمال شده از متغیرهای ساختگی تفسیر کنم؟
58328
آیا خطای مدل همان سوگیری در رگرسیون است؟ برای مثال، اگر من داده‌ها را با $y_i=N^{\text{th}}$ چند جمله‌ای درجه به اضافه نویز نامرتبط بسازم، و یک رگرسیون با چند جمله‌ای درجه $M^{\text{th}}$ انجام دهم، برابر است با ' نقطه شیرین، که در آن سوگیری + واریانس به حداقل می رسد، در $N=M$؟
تفاوت بین سوگیری در خطای مدل در رگرسیون چیست؟
68596
درک من این است که مجموع مجذور خطاها (SSE) به عنوان تخمین‌گر حداکثر احتمال در زمانی که خطاهای مدل به طور معمول توزیع می‌شوند، عمل می‌کند. (یعنی، اگر پارامترهای مدلی را پیدا کنید که SSE را به حداقل می‌رسانند، آنها نیز احتمال را به حداکثر می‌رسانند.) با این حال، توزیع خطای مدل من بسیار شبیه توزیع کوشی است. آیا کمینه کردن SSE همچنان منجر به تنظیم پارامتر حداکثر احتمال برای مدل من می شود؟ اگر نه، چه آماری را باید بررسی کنم؟ ببخشید اگر این هیچ منطقی نیست، یا من چیزی ساده را از دست داده ام. لطفاً به منابعی پیوند دهید که ممکن است به من در درک بهتر اصول کمک کند. با تشکر
برازش مدل زمانی که خطاها توزیع کوشی را می گیرند
49416
بنابراین من مجموعه آموزشی خود را با 70٪ از داده هایم به نام train / 30٪ تست دریافت کردم. xn , data = train) چگونه می توانم این مدل را برای تست و ارزیابی مدل اعمال کنم، از چیزی مانند نمودار لیفت یا افزایش یا ROC استفاده کنم. چیزی که من معمولاً از ماینر SAS دریافت می کنم؟ من تازه وارد R هستم.
ارزیابی مدل درخت تصمیم برای «مجموعه آموزشی» در مقابل «مجموعه آزمایشی» در R
78712
نقش قیود متعامد در تحلیل تشخیصی خطی چیست؟ اگر کسری از ردیابی ها بدون آن محدودیت به حداکثر برسد، چرا کار می کند/کار نمی کند؟ آیا همچنان صورت را به حداکثر و مخرج را کوچک نمی کند؟ آیا این محدودیت به دلایل آماری وجود دارد یا صرفاً برای اهداف بهینه سازی؟ اگر برای بهینه سازی، نقش آن چیست؟ وگرنه نقش آماری آن چیست؟
نقش قیود متعامد (X^TX=I) در تحلیل تفکیک خطی؟
49411
متغیر پاسخ من $Y$، تعداد گره ها، کمی گسسته است (فقط مقادیر مثبت)، در حالی که 2 متغیر کمکی من X1$، تعداد روزها (کمی گسسته)، و X2$، شهر (متغیر طبقه بندی با 10 سطح) هستند. . من فقط 10 مشاهده (مستقل) دارم و متغیر $Y$ قطعا گاوسی نیست، بنابراین باید هم رگرسیون پارامتریک و هم ANOVA را رد کنم. هدف مقایسه $Y$ در بین شهرهای مختلف ($X2$) با در نظر گرفتن متغیر $X1$ است. از کدام مدل یا آزمون آماری می‌توانم استفاده کنم تا تأثیر متغیرهای کمکی خود را بر متغیر پاسخ بررسی کنم و در نهایت تفاوت‌های معنادار بین شهرها را با در نظر گرفتن X1$ (تعداد روز) آزمایش کنم؟
کدام مدل / آزمون ناپارامتریک را با ترکیبی از متغیرهای کمی و طبقه‌ای استفاده کنیم؟
30256
من یک مشکل بهینه سازی با این ویژگی ها دارم: * محاسبه تابع هدف ارزان نیست. می توان آن را تا حدود 10^4 بار در بهینه سازی ارزیابی کرد. * بهینه محلی زیادی وجود دارد. * مقادیر بالا در اطراف حداکثر جمع شده اند، بنابراین مشکل به نوعی محدب است. * راه حل ها به یک هایپرباکس شناخته شده محدود می شوند. * گرادیان ناشناخته است، اما به طور شهودی، عملکرد صاف است. * این تابع حداکثر 50 متغیر است. نمودارهای زیر نمونه هایی از حالت ویژه دوبعدی هستند. Nelder-Mead در اپتیما محلی بسیار گیر می کند. در بالای سه متغیر، هیچ شانسی برای استفاده از نیروی بی رحم وجود ندارد. من الگوریتم های ژنتیک را بررسی کرده ام، اما به نظر می رسد که آنها به ارزیابی های زیادی از تابع هدف نیاز دارند. به دنبال چه نوع الگوریتمی باشم؟ ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qDM8U.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/8wLSn.png)
از کدام الگوریتم بهینه سازی برای مسائل با بسیاری از بهینه های محلی و تابع هدف گران قیمت استفاده کنیم؟
99532
من باید زوج‌های سری زمانی را با هم مقایسه کنم تا بررسی کنم که آیا آنها واقعاً با یکدیگر و از 0 (به صفر همپوشانی نداشته باشند) متفاوت هستند (مثلاً همپوشانی نداشته باشند). راه آسان این است که به سادگی آزمون t زوجی را انجام دهیم، اما در نتیجه در زمان، مقادیر مستقل نیستند، بنابراین من فرض می‌کنم که آزمون t نتایج نادرستی بدهد. میخواستم بدونم این برای سریالهای زمانی خیلی کوتاه مثل من هم صادقه؟ اگر هنوز ارزش این را دارند که سری زمانی در نظر گرفته شوند، کدام آزمون باید برای دو مورد ذکر شده در بالا استفاده شود؟ با تشکر
نحوه مقایسه سری های زمانی کوتاه (9 امتیازی).
108007
من یک دیتافریم با مشاهدات و متغیرهای زیادی دارم. برخی از آنها طبقه بندی شده (بدون ترتیب) و برخی دیگر عددی هستند. من به دنبال ارتباط بین این متغیرها هستم. من توانستم همبستگی را برای متغیرهای عددی محاسبه کنم (همبستگی اسپیرمن) اما: * من نمی دانم چگونه همبستگی بین متغیرهای طبقه بندی نشده را اندازه گیری کنم. * من نمی دانم چگونه همبستگی بین متغیرهای طبقه بندی نشده و متغیرهای عددی را اندازه گیری کنم. آیا کسی می داند چگونه می توان این کار را انجام داد؟ اگر چنین است، آیا توابع R برای اجرای این روش ها وجود دارد؟
همبستگی با متغیرهای طبقه بندی
78713
در یک جعبه 4 توپ قرمز و 7 توپ سبز وجود دارد. یک نمونه تصادفی از 5 توپ ساخته شده است. بگذارید تعداد توپ های قرمز در نمونه X$ (یک متغیر تصادفی) باشد. $E(X)$ و $\sigma(X)$ را محاسبه کنید
$E(X)$ و $\sigma(X)$ را برای یک مشکل urn ساده محاسبه کنید
83850
من به دنبال تولید متغیرهای تصادفی همبسته هستم. من یک ماتریس قطعی متقارن و مثبت دارم. بنابراین من می دانم که می توانید از تجزیه Cholesky استفاده کنید، با این حال به من می گویند که این فقط برای متغیرهای تصادفی گاوسی کار می کند؟! آیا این درست است؟ علاوه بر این، این چگونه با تجزیه Eigen مقایسه می شود. برای مثال با استفاده از تجزیه Cholesky می‌توانیم یک پارامتر تصادفی بنویسیم: $x = \bar{x} + Lz$ که در آن $L$ تجزیه Cholesky است (ماتریس مثلثی پایین/بالا) و $z$ بردار متغیرهای تصادفی است. بنابراین می توان از $z$ نمونه برداری کرد و یک پی دی اف x ساخت. اکنون می‌توانیم از تجزیه ویژه استفاده کنیم و x را به صورت زیر بنویسیم: $x = \bar{x} + U\lambda^{1\over2}z$ که در آن $\lambda$ یک ماتریس مورب از مقادیر ویژه و $U$ یک ماتریس است. متشکل از مقادیر ویژه بنابراین ما همچنین می توانیم یک pdf از این بسازیم. اما اگر این $x$ ها را برابر کنیم، متوجه می شویم که $L = U\lambda^{1\over2}$ اما این درست نیست زیرا $L$ مثلثی است و $U\lambda^{1\over2}$ نیست؟! بنابراین من واقعا، واقعا گیج هستم. بنابراین برای روشن شدن سؤالات: 1) برای تجزیه کولسکی آیا بردار z باید فقط گاوسی باشد؟ 2) چگونه مقدار ویژه با تجزیه Cholesky مقایسه می شود؟ آنها به وضوح تکنیک های فاکتورسازی متفاوت هستند. بنابراین من نمی دانم که چگونه $x$های بالا می توانند معادل باشند؟ مثل همیشه ممنون بچه ها
گیج شدن در مورد Cholesky و تجزیه ویژه
108002
من تازه وارد این کار هستم، بنابراین نمی دانم سوال درستی می پرسم یا نه، زیرا همین الان در مورد استفاده از آن خواندم اما نمی دانستم احتمال دوجمله ای تجمعی دقیقا چیست. بنابراین سوال من این است: احتمالات دوجمله ای تجمعی چیست؟ هر مثالی کمک بزرگی خواهد بود.
احتمال دوجمله ای تجمعی چیست؟
68599
من دو متغیر تصادفی گسسته با PMF دارم به شکل \begin{align*} P(X) = \begin{cases} p_0, & \mbox{if } X=0 \\\ p_1, & \mbox{if } X =1 \\\ p_2، & \mbox{if } X=2 \end{cases} \end{align*} \begin{align*} P(Y) = \begin{cases} q_0, & \mbox{if } Y=0 \\\ q_1, & \mbox{if } Y=1 \\\ q_2, & \mbox{if } Y=2 \end{cases} \ end{align*} انتظارات را می توان به راحتی محاسبه کرد، $E(X) = p_1 + 2 p_2$ , $E(Y) = q_1 + 2 q_2$ . اکنون، با فرض مستقل بودن $X$ و $Y$، یک RV سوم (شکل جمع شده) را به صورت زیر تعریف کنید: \begin{align*} Z = \begin{cases} 1, \mbox{if } X+Y>1 \ \\ 0, \mbox{وگرنه} \end{cases} \end{align*} من نمی‌دانم آیا ضرایب همبستگی $\rho_{XZ}$ و $\rho_{YZ}$ توسط پارامترهای $p_1, \; p_2، \; q_1، \; q_2$، اگر هستند، فرمول محاسبه آنها چیست. یک شبیه‌سازی در R نشان می‌دهد که هم $r_{XZ}$ و هم $r_{YZ}$ کاملاً متقارن حول میانگین 0.5 به جای 0 توزیع شده‌اند (*توجه داشته باشید اینها ضرایب همبستگی نمونه هستند**): require(foreach) snp1 = foreach(i=1:5000, .combine='cbind') %do% { sample(0:2, 1000، replace=T، prob=c(.81، 0.18، 0.01)) } snp2 = foreach(i=1:5000، .combine='cbind') %do% { نمونه (0:2، 1000، replace=T، prob=c(0.64، 0.32، 0.04)) } collsnp = (snp1 + snp2 > 1) + 0 r1c = foreach(i=1:5000, .combine='c') %do% {cor(snp1[, i], collsnp[, i]) } r2c = foreach(i=1: 5000، .combine='c') %do% { cor(snp2[, i], collsnp[, i]) } hist(r1c) hist(r2c) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/MNIEg.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur .com/M6HpN.png)
توزیع ضریب همبستگی بین دو متغیر تصادفی گسسته و شکل جمع شده آنها
108004
من سعی می کنم یک مدل چند متغیره را با استفاده از کتابخانه R MCMglmm جا بزنم. داده‌هایی که من در اختیار دارم، نمرات آزمون C.a است. 4736 دانش آموز از مدارس مختلف. برای هر دانش آموز، وضعیت اجتماعی-اقتصادی نیز اندازه گیری شد. متغیرهای من عبارتند از: Y (نمرات آزمون برای هر دانش آموز)، schoolid (مدرسه دانش آموز را مشخص می کند) و SES (وضعیت اجتماعی-اقتصادی برای هر دانش آموز). اکنون، من می‌خواهم با استفاده از کتابخانه MCMCglmm در R، مدلی را با یک برش تصادفی و شیب برازش دهم. من فرض می‌کنم که بین میانگین نمره یک مدرسه (برق) و میانگین اثر SES رابطه (همبستگی) وجود دارد. یک مدرسه (شیب تصادفی). بنابراین، وقفه تصادفی (میانگین مدرسه) و شیب تصادفی برای SES باید در مدل من اجازه داده شود که همخوانی داشته باشند. در R، من از کد زیر استفاده می کنم: library(MCMCglmm) #1. من قبلاً موارد زیر را مشخص می کنم: فهرست قبلی (R=list(V=diag(1)، nu=0.002)، G=list(G1=list(V=diag(2)، nu=0.002، alpha.mu= c(0,0)، alpha.V=1000*diag(2)))) #2. سپس مدل را اجرا می کنم. وقفه تصادفی + شیب، اجازه دهید آنها همواری کنند. m2 <- MCMCglmm (ثابت = Y ~ SES، قبلی = قبلی، تصادفی = ~ ما (1+SES): مدرسه ای، nitt = 60000، سوختن = 10000، نازک = 25، داده = mcmc_data، pr = TRUE) #خروجی دریافت کنید از مدل: summary(m2) با این حال، در خروجی مدل، من نمی توانم آن را پیدا کنم همبستگی رهگیری و شیب تصادفی من از بسته lme4() می دانم که همبستگی زمانی تخمین زده می شود که تأثیرات مجاز به تغییر باشند. بنابراین مطمئن نیستم که نحو من درست است یا خیر. من به عنوان مرجع از یادداشت های دوره MCMCglmm توسط جارود هادفیلد استفاده کردم (به یادداشت زیر جدول 3.1 در/قبل از صفحه 71 مراجعه کنید): http://cran.r-project.org/web/packages/MCMCglmm/vignettes/CourseNotes. pdf مشکل دیگری که من با آن برخورد کردم این است که نمی توانم بفهمم چگونه می توانم واریانس های باقیمانده ناهمگن را برآورد کنم. مجدداً، بر اساس یادداشت‌های دوره (به صفحه 71، 3.4 pdf مراجعه کنید)، از کد زیر برای تخمین واریانس‌های باقی‌مانده مختلف برای هر مدرسه استفاده کردم: #مدل 2: مدل مشابه با واریانس‌های باقی‌مانده ناهمگن (برای مدارس) فهرست قبلی <- (R=list(V=diag(179)، nu=0.002)، G=list(G1=list(V=diag(2)، nu=0.002، alpha.mu=c(0.0)، alpha.V=1000*diag(2)))) m3 <- MCMCglmm(ثابت = Y ~ SES، قبلی = قبلی، تصادفی = ~ ما (1+ SES):schoolid، rcov = ~ idh(schoolid): واحدها، nitt = 60000، burnin = 10000، thin = 25، داده = mcmc_data، pr = TRUE) با این حال، وقتی می‌خواهم این مدل را اجرا کنم، با خطایی مواجه می‌شوم که می‌گوید: خطا در buildZ(rmodel.terms[r]، داده = داده، formZ = FALSE، augmiss = (r == : فرمول برای ساختارهای idh R باید یک ماتریس طراحی ایجاد کند که در آن هر سطر به جز یک عنصر برابر با یک، صفر باشد. در اینجا برخی از آنها وجود دارد. کدی برای شبیه‌سازی مجموعه داده‌ای کوچک‌تر در صورتی که می‌خواهید خودتان مدل را اجرا کنید: #Simulate data schoolid <- rep(1:179، هر = 10) #School-ID: ما 179 مدرسه با هر 10 دانش‌آموز داریم. Y <- rnorm(1790، 0، 1) #نمرات آزمون برای دانش آموزان 1970. SES <- rnorm(1790, 0, 1) #نمرات SES انفرادی برای 1970 دانش‌آموز. #قاب داده را بسازید (برای استفاده از کتابخانه MCMCglmm لازم است) mcmc_data <- data.frame(Y = Y، SES = SES، schoolid = Schoolid)
کمک به برازش مدل چند سطحی با استفاده از کتابخانه MCMCglmm در R
3342
من تعدادی داده دارم که هیستوگرام ها را در R ساخته ام. اکنون می خواهم با داده ها بازی کنم، اما ابتدا می خواهم آن ها را به همان روشی که هیستوگرام انجام می دهد، خلاصه کنم. یعنی، من می‌خواهم بردار داده‌ام را بگیرم، و به همان روشی که تابع «hist» R انجام می‌دهد، شمارش کنم که در هر بازه bin چند نقطه می‌افتد. می خواستم این کار را از ابتدا انجام دهم، اما بعد فکر کردم: R قبلاً می داند چگونه این کار را انجام دهد، فقط باید بفهمم که چگونه نیمه اول تابع hist را انجام دهم و فقط آن را اجرا کنم. پس چگونه این کار را انجام دهم؟
بازآفرینی شمارش بن تابع تاریخچه R
30255
من سعی می کنم یک تابع لجستیک را به برخی از نقاط داده تطبیق دهم. هر مجموعه داده دارای 6 نقطه است که من سعی می کنم یک تابع لجستیک مجزا را در آن قرار دهم. در اینجا چند کد نمونه وجود دارد: x = c(60، 80، 100، 140، 160، 180) y = c(24.0688، 26.3774، 25.1653، 15.7559، 12.4160، 15.5849 = data.xy، قاب y) nls(y ~ SSlogis(x, 25, 110, 100), df) اما من این خطا را دریافت می کنم: خطا در nlsModel (فرمول، mf، شروع، wts): ماتریس گرادیان منفرد در تخمین پارامترهای اولیه مطمئن نیستم چگونه باید پارامترهای Asym، xmid، scal را تنظیم کنید. من سعی کردم یک فراخوانی به nls با فرمول پارامتری تابع لجستیک خودم انجام دهم اما همان خطا را دریافت می کنم. من فکر کردم تعداد نقاط داده کم است، اما سعی کردم برخی از داده ها را ترکیب کنم و همان خطا را دریافت می کنم. بنابراین سؤالات من این است: 1. آیا می توان یک لجستیک را با این چند نکته تطبیق داد؟ 2. آیا عملکرد nls راه درستی است یا باید از روش دیگری استفاده کنم؟ 3. چگونه می توانم پارامترهای اولیه Asym، xmid و scal را تنظیم کنم؟ با تشکر
تطبیق لجستیک به تعداد کمی از نقاط در R
31123
اگر کسی بگوید _این روش از ~~MLE~~ از تخمین نقطه برای پارامتری استفاده می کند که $\mathrm{P}(x|\theta)$ را به حداکثر می رساند، بنابراین مکرر است؛ و به علاوه بیزی نیست._ آیا موافق هستید؟ * **به‌روزرسانی در پس‌زمینه**: اخیراً مقاله‌ای خواندم که ادعا می‌کند مکرر است. من با ادعای آنها موافق نیستم، در بهترین حالت احساس می کنم این ادعا مبهم است. در این مقاله به صراحت به MLE (یا MAP) اشاره نشده است. آنها فقط یک تخمین نقطه ای می گیرند و به سادگی پیش می روند که گویی این تخمین نقطه ای درست است. آنها هیچ تحلیلی از توزیع نمونه گیری این برآوردگر یا هر چیزی شبیه به آن انجام نمی دهند. مدل بسیار پیچیده است و بنابراین چنین تحلیلی احتمالا امکان پذیر نیست. آنها در هیچ نقطه ای از کلمه پسین نیز استفاده نمی کنند. آنها فقط این تخمین نقطه را در ارزش اسمی در نظر می گیرند و به موضوع اصلی مورد علاقه خود - استنباط داده های گمشده- ادامه می دهند. من فکر نمی کنم در رویکرد آنها چیزی وجود داشته باشد که نشان دهد فلسفه آنها چیست. آنها ممکن است قصد داشته باشند که مکرر باشند (زیرا احساس می کنند موظف هستند که فلسفه خود را در آستین خود بپوشانند)، اما رویکرد واقعی آنها بسیار ساده / راحت / تنبل / مبهم است. اکنون تمایل دارم بگویم که این تحقیق واقعاً هیچ فلسفه ای پشت آن نیست. در عوض فکر می‌کنم نگرش آنها عملگراتر یا راحت‌تر بود: > _من داده‌ها را مشاهده کرده‌ام، $x$، و می‌خواهم برخی از داده‌های گمشده را تخمین بزنم، $z$. > یک پارامتر $\theta$ وجود دارد که رابطه بین را کنترل می‌کند. $z$ > و $x$ من واقعاً به $\theta$ اهمیت نمی‌دهم، مگر به عنوان وسیله‌ای برای رسیدن به هدف > x$ I تخمین امتیازی $\theta$ را انتخاب خواهد کرد زیرا راحت است، به ویژه $\hat{\theta}$ را انتخاب خواهم کرد که > $\mathrm{P}(x|\theta)$ را به حداکثر می‌رساند._ > ایده برآوردگر بی طرفانه به وضوح یک مفهوم فرکانسیستی است. این به این دلیل است که داده ها را شرط نمی کند و یک ویژگی خوب (بی طرفی) را توصیف می کند که برای همه مقادیر پارامتر برقرار است. در روش های بیزی، نقش داده ها و پارامترها به نوعی معکوس می شوند. به طور خاص، اکنون داده های مشاهده شده را شرط می کنیم و به استنباط در مورد مقدار پارامتر ادامه می دهیم. این نیاز به یک پیشین دارد. تا اینجا خوب است، اما **MLE** (تخمین حداکثر احتمال) در همه اینها کجا قرار می گیرد؟ من این تصور را دارم که بسیاری از مردم احساس می کنند که فرکانسیست (یا دقیق تر، بیزی نیست). اما من احساس می کنم که بیزی است زیرا شامل گرفتن داده های مشاهده شده و سپس یافتن پارامتری است که $P(data | پارامتر)$ را به حداکثر می رساند. MLE به طور ضمنی از یک پیش و شرطی یکنواخت روی داده ها استفاده می کند و $P(پارامتر | داده)$ را به حداکثر می رساند. آیا منصفانه است که بگوییم MLE هم فرکانسیست و هم بیزی به نظر می رسد؟ یا آیا هر ابزار ساده باید دقیقاً در یکی از آن دو دسته قرار گیرد؟ MLE سازگار است، اما من احساس می کنم که سازگاری را می توان به عنوان یک ایده بیزی ارائه کرد. با توجه به نمونه های بزرگ دلخواه، برآورد بر روی پاسخ صحیح همگرا می شود. عبارت برآورد برابر با مقدار واقعی خواهد بود برای همه مقادیر پارامتر صادق است. نکته جالب این است که اگر داده های مشاهده شده را شرط کنید و آن را بیزی کنید، این عبارت نیز صادق است. این نکته جالب برای MLE صدق می کند، اما نه برای یک برآوردگر بی طرف. به همین دلیل است که من احساس می‌کنم MLE «بیزی‌ترین» روش‌هایی است که می‌توان آن‌ها را به‌عنوان متداول توصیف کرد. به هر حال، بیشتر ویژگی های فرکانس (مانند بی طرفی) در همه موارد، از جمله اندازه نمونه محدود اعمال می شود. این واقعیت که ثبات فقط در سناریوی غیرممکن وجود دارد (نمونه بی نهایت در یک آزمایش) نشان می دهد که سازگاری خاصیت مفیدی نیست. با توجه به یک نمونه واقعی (یعنی متناهی)، آیا ویژگی Frequentist وجود دارد که در مورد MLE صادق باشد؟ اگر نه، MLE واقعاً فرکانسیست نیست.
اگر از تخمین نقطه‌ای استفاده کنید که $P(x | \theta)$ را به حداکثر می‌رساند، در مورد فلسفه شما چه می‌گوید؟ (متداول یا بیزی یا چیز دیگری؟)
4252
چگونه می توانم میانگین کوتاه یا بریده شده را محاسبه کنم؟ فرض کنید 10 درصد کوتاه شده است؟ من می توانم تصور کنم که اگر 10 ورودی یا بیشتر دارید چگونه این کار را انجام دهم، اما چگونه می توانم برای تعداد زیادی ورودی این کار را انجام دهم؟
چگونه می توان میانگین کوتاه یا بریده شده را محاسبه کرد؟
111764
من در یافتن اینکه چه کاری می توانم با مجموعه داده هایم انجام دهم مشکل دارم. این از یک آزمون ریدینگ فرانسوی است که 30 سوال چند گزینه ای دارد. برای هر یک از این سؤالات: 1. من مقدار تسهیلات برای موارد در آزمون را دارم که درصد پاسخ صحیح به سؤالات است. 2. من درک سختی را توسط آزمون شوندگان، در مقیاس لیکرت (واقعا آسان، آسان، متوسط، سخت، واقعا سخت) دارم. در اینجا نمونه ای از شکل ظاهری داده های من آمده است: ![نمونه ای از داده های من](http://i.stack.imgur.com/RbWxS.png) من می خواهم بدانم که آیا ارتباطی بین مقدار تسهیلات و تسهیلات درک شده از آیتم ها... به عبارت دیگر، اگر سوالات آسان به عنوان سوالات آسان تلقی شوند. من واقعا نمیدونم با داده ها چیکار کنم...نمرات مقیاس لیکرت رو تبدیل کنم؟ آیا باید برای هر مورد یک متوسط انجام دهم؟
چگونه می توانم آزمایش کنم که آیا بین نمره و مقیاس لیکرت همبستگی وجود دارد؟
78715
عملکرد مشکل SVM اولیه را به یاد بیاورید: $\|w\|^2 + C \sum_i \xi_i \to \min$. فرض کنید من 1000 شی آموزشی دارم و می‌خواهم $C$ بهینه را با اعتبارسنجی متقاطع 2 برابری پیدا کنم. در نتیجه اعتبارسنجی متقابل، من $C$ را دریافت خواهم کرد که برای مقیاس خاصی از $\sum_i \xi_i$ بهینه است. وقتی از این $C$ برای آموزش SVM در نمونه آموزشی کامل استفاده می‌کنم، به جای 500، 1000 جمع در $\sum_i \xi_i$ وجود دارد، بنابراین مقیاس این جزء جریمه متفاوت خواهد بود. سوال این است: آیا $C$ من برای نمونه با 1000 شی بهینه خواهد بود اگر روی نمونه با 500 شی آموزش داده شود؟ چرا نباید جریمه ها را مقیاس کنیم: $\|w\|^2 + \frac{C}{L} \sum_i \xi_i \به \min$، که در آن $L$ اندازه نمونه است؟
مقیاس بندی از دست دادن لولا در SVM
31129
من می خواهم یک کواریوگرام برای یک میدان خاص R ایجاد کنم که در یک منطقه جغرافیایی توزیع شده است. چه نوع بسته هایی برای محاسبه کواریوگرام موجود است. همچنین متریک فاصله، فاصله جغرافیایی است تا اقلیدسی ساده مانند سیستم مختصات R2. می خواهم بدانم اگر به جای فاصله جغرافیایی از اقلیدسی استفاده کنم چقدر روی نتیجه تأثیر می گذارد. من فکر می کنم بسته هایی که در دسترس هستند از فاصله جغرافیایی واقعی به جای اقلیدسی استفاده می کنند که مقادیر را به آنها منتقل کنم.
ایجاد واریوگرام برای داده های جغرافیایی
30251
من باید رگرسیون سلسله مراتبی را با متغیرهای ساختگی انجام دهم. همچنین باید اعتدال را با معرفی تعاملات این متغیرهای ساختگی و تعدیل کننده در مدل بررسی کنم. سوالات من این است: 1. آیا تعدادی متغیر ساختگی را در مدل معرفی می کنم که برابر با تعداد کل پیش بینی کننده ها منهای 1 باشد و متغیر غایب را به دسته مرجع تبدیل کنم؟ 2. با توجه به حضور مقوله مرجع، چگونه نتایج را تفسیر کنم؟ 3. برای فعل و انفعالات، آیا متغیرهای ساختگی (سطح طبقه بندی) را در تعدیل کننده (سطح فاصله، اندازه گیری شده در مقیاس لیکرت 1-5) ضرب کنم؟ از وقتی که گذاشتید متشکریم و از هر ایده ای استقبال می کنیم. با احترام موزی
رگرسیون سلسله مراتبی با متغیرهای ساختگی