_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
22857
فرض کنید من نمونه ای از رویدادها را دارم که توسط تعداد معینی از سوژه ها انجام شده است، و برخی (اگرچه نه بیشتر) از این سوژه ها بیش از یک رویداد را پشت سر گذاشته اند. من می‌خواهم یک مدل لاجیت را برای این داده‌ها تطبیق دهم تا بفهمم کدام ویژگی‌ها باعث می‌شوند که یک موضوع، در طول یک دوره زمانی دلخواه، در یک بازه زمانی دلخواه پس از یک رویداد قبلی، یک رویداد دیگر را تجربه کند - مثلاً سه روز. همانطور که من آن را می بینم، می توانم داده های خود را به یکی از دو روش تنظیم کنم: * تمام رویدادهایی را که هر موضوع تحت آن قرار گرفته است را در نظر بگیرم، و متغیر وابسته/شاخص را به صورت بله/خیر تعریف کنم تا آیا این موضوع رویداد دیگری در داخل داشته باشد. 3 روز از یک رویداد قبلی، در طول سال گذشته (مثلا)؟ در این حالت، هر ردیف از داده‌های مدل با هر موضوعی مطابقت دارد و مجموعه‌ای از تاریخچه رویداد آن‌ها خواهد بود. * تاریخچه رویداد هر موضوع را به جفت تقسیم کنید و متغیر وابسته را به صورت بله/خیر تعریف کنید آیا این موضوع در عرض 3 روز از این رویداد خاص رویداد دیگری داشته است؟ در این مورد، هر ردیف با هر رویداد در داده مطابقت دارد. با این حال، سه نتیجه وجود دارد: 1) آزمودنی یک رویداد دیگر در عرض 3 روز دارد. 2) آزمودنی در عرض بیش از 3 روز رویداد دیگری داشته باشد. و 3) موضوع هیچ رویداد دیگری ندارد. آیا می توانم 2) و 3) را در یک نتیجه جمع کنم یا بهتر است به جای آن از یک مدل لاجیت چند جمله ای استفاده کنم؟ من به سمت گزینه دوم متمایل هستم، اما نگران هستم که سوژه هایی که رویدادهای نسبتاً بیشتری را پشت سر می گذارند در مدل نهایی بیش از حد نشان داده شوند (اگر باید با آن برخورد کنم؟). با این حال، فکر می‌کنم از این طریق اطلاعات بیشتری به دست می‌آورم. به هر حال، با این گفته، من دوست دارم بینش هایی در مورد مزایا/معایب هر رویکرد برای تنظیم این داده های خاص برای یک مدل لاجیت بشنوم.
چگونه باید داده های خود را برای یک مدل لاجیت تنظیم کنم؟
49363
من برای خیس شدن پاهایم با یک پروژه یادگیری ماشینی درد داشتم، و یکی را پیدا کردم که باید نسبتاً ساده باشد و در واقع ارزش تجاری غیر قابل چشم پوشی برای سازمان من دارد. افراد بازاریابی باید برای معیارهای خود فعالیت ربات‌ها را از داده‌های ردیابی ما با دست حذف کنند. من می‌خواستم مقداری داده را از GA بیرون بکشم و از آنها بخواهم یک مجموعه داده بسازند (bot، not-a-bot). احتمالاً 5 تا 10 دسته (عددی) وجود دارد که باید الگوریتم را آموزش دهیم، و مجموعه داده‌ها را می‌توان به اندازه‌ای که افراد بازاریابی اشتها دارند ساخته شود. من کمی مطالعه انجام داده ام و کمی با RapidMiner/Knime/Weka بازی کرده ام. من قصد دارم همه چیز را در پایتون، با scikits-learn انجام دهم، احتمالاً در جایی که باید در R کار کنم. سوالات من: 1. آیا این یک مشکل در واقع به این راحتی نیست؟ 2. با توجه به تعداد دسته ها، مجموعه آموزشی در حدود چقدر باید باشد؟ 3. با توجه به مشکل، با چه الگوریتم هایی شروع کنم؟ 4. آیا شخص دیگری در مورد شناسایی ربات یادگیری انجام داده است؟ چگونه کار کرد؟ آیا من از درخت اشتباهی پارس می کنم؟ پیشاپیش با تشکر از جامعه
یادگیری ماشینی ساده: تشخیص ربات
22856
من به دنبال ایجاد مجموعه ای از 5 متغیر تصادفی و اعمال یک ساختار وابستگی بین آنها و بر روی یک متغیر وابسته Y هستم. من می دانم که چگونه متغیرهای تصادفی همبسته را برای نرمال چند متغیره تولید کنم، اما نه در هنگام مخلوط کردن انواع مختلف. در زیر کمی بیشتر از آنچه نیاز دارم آمده است، اما امیدوارم کسی بتواند یک راه کلی برای حل این مشکل به من بدهد... * X_1 و X_2 باید متغیرهای برنولی بسیار همبسته باشند. * X3 باید یکی از 5 مقدار طبقه‌بندی را بگیرد، آنها را A...E بنامید. * X4 باید نرمال باشد و با X1، X2 همبستگی منفی داشته باشد. * X5 باید نمرات آزمون را از 0 تا 100 تقریبی کند، بنابراین احتمالاً گاما. X5 باید با X1، X2، X4 همبستگی مثبت داشته باشد. هر یک از این متغیرها باید بر روی متغیر توزیع شده برنولی Y موفقیت/ وقوع تاثیر بگذارد. چگونه شروع کنم؟ من می خواهم همبستگی را بین مقادیر X و همچنین بین هر X و Y اعمال کنم.
چگونه داده های آزمون همبسته ای را تولید کنیم که دارای برنولی، طبقه بندی و بردار پیوسته (در R) باشد؟
3165
فرض کنید یک نمودار ایجاد کردیم، با برچسب‌ها: plot(1، xlab = متن، ylab = متن ضربدر سه) # متن خیلی کوچک در این طرح هنوز منطقه آزاد زیادی برای بزرگ‌نمایی متن وجود دارد. ما می‌توانیم این کار را با استفاده از cex.lab انجام دهیم، مانند این: par(cex.lab = 2) plot (1، xlab = متن، ylab = متن ضربدر سه) سوالات: 1. آیا راهی برای دانستن چیست؟ آیا بزرگترین cex.lab ممکن است، بدون اینکه متن از مرزها عبور کند؟ 2. آیا می توان این کار را به طور جداگانه برای هر جزء از محور انجام داد؟ (بنابراین برای داشتن یک اتصال متفاوت از cex.axis به xlab در مقابل ylab)؟
چگونه cex.axis را به طور خودکار محاسبه کنیم تا به حداکثر عرض ممکن (در R) برسد؟
22850
به نظر می رسد که WinBUGS مشکل دارد **اگر فقط تساوی صفر از یک توزیع دوجمله ای داشته باشد**: **1. case - مدل ساده** برای (i در 1:سایت ها) { N[i] ~ dpois(lambda) for (j در 1:نمونه) { y[i، j] ~ dbin(p، N[i]) } } اگر همه مقادیر `y[i,]` صفر باشند، پیغام خطای زیر ظاهر می شود: > **مقدار ترتیب دوجمله ای y[53,1] باید بزرگتر از zero** **ویرایش:** توجه داشته باشید که N[i] در داده های تولید شده در هنگام خرابی صفر نبود. **2. مورد - مدل حذف پیشرفته** برای (i در 1:سایت‌ها) { M[i] ~ dpois(lambda) برای (j در 1:نمونه) { y[i، j، 1] ~ dbin(p، M[i ]) after_removal[i، j] <- M[i] - y[i، j، 1] y[i، j، 2] ~ dbin(p، after_removal[i, j]) } } در اینجا به نظر می رسد که اگر مقدار `y[i, j, 2]` صفر باشد، پیغام خطا (همان مورد 1) ظاهر می شود! توجه داشته باشید که در این مورد، من یک راه حل پیدا کردم: من مدل را به مدل دیگری که **امیدوارم** معادل آن است، مجددا پارامتری کردم: for (i در 1:sites) { M[i] ~ dpois(lambda) for (j in 1:نمونه) { y[i، j، 1] ~ dbin(p، M[i]) obs[i، j] <- y[i، j، 1] + y[i، j، 2] obs[i، j] ~ dbin(p_komb، M[i]) } } p_komb <- p + (1 - p) * p ... به هر حال توضیح، راه حل تمیز و راه حل برای مورد 1 می خواهد: ## چرا این اتفاق می افتد؟ آیا این یک باگ WinBUGS است؟ چگونه می توان آن را نادیده گرفت؟ من WinBUGS 1.4.3 (اوت 2007) را با پچ imortality نصب کرده ام. در زیر کامل است **کد قابل تکرار برای R و بسته R2WinBUGS (با تولید داده) **: **1. case** به سایت های (vcd) نیاز دارد <- 120 # 60 mean_N <- 16 N <- rpois(sites, mean_N) p <- 0.4 نمونه <- 3 # 3 y = ماتریس (nrow = سایت ها، ncol = نمونه) برای ( i در 1:sites) { y[i،] = rbinom(نمونه، N[i]، p)} y[20,] = 0 sink(tmp_bugs/model.txt) cat( model { # احتمال برای (i در 1:sites) { N[i] ~ dpois(lambda) for (j in 1:sample) { y[i، j] ~ dbin(p، N[i]) } } # پارامتر مشتق شده Ntot <- sum(N[]) # priors p <- 1/(1+exp(-logit_p)) tau <- 1/(4 * 4) logit_p ~ dnorm(0, tau) lambda ~ dunif(0, 100) } ) sink() win. data = list(y = y، نمونه = نمونه، سایت ها = سایت ها) #win.data = list(y = y) #inits = تابع () { list(N = اعمال(y, 1, max), p = mean(apply(y, 1, mean)/apply(y, 1, max))) } inits = function () { list(N = application(y، 1، max)، logit_p = rnorm(1، 0، 4)) } params = c(N، p، Ntot، lambda) ni <- 500 nt <- 12 nb <- 200 nc <- 3 out <- اشکالات (win.data، inits، params، model.txt، nc، ni، nb، nt، bugs.directory = bugs.dir، کار می کند. فهرست = چسباندن(getwd()، /tmp_bugs/، sep = )، اشکال زدایی = TRUE ) print(out, dig = 3) par(mfrow = c(2, 2)) hist(out$sims.list$p، breaks = 100) abline(v = out$mean$p، col = قرمز، lwd = 2) abline (v = p، col = سبز، lwd = 2) #lines(quantile(out$sims.list$p, c(0.025, 0.975))، rep(sum(par(usr)[3:4]*c(0.9,0.1))، 2)، lwd = 2) خطوط (quantile(out$sims.list$p, c(0.025 , 0.975))، rep(par(usr)[3]، 2)، lwd = 4) legend(topleft، c(تخمینی، واقعی، 95% اعتبار. int.)، col = c (قرمز، سبز، سیاه)، lty = 1، box.lty = 0، cex = 0.7) #hist(mean(y) / out$sims.list$ p، شکست = 1000، xlim = c(0، 50)) hist(out$sims.list$Ntot، شکست = 100) abline(v = out$mean$Ntot، col = قرمز، lwd = 2) abline(v = مجموع(N)، col = سبز، lwd = 2) #lines(quantile(out$sims.list$Ntot، c( 0.025، 0.975))، rep(sum(par(usr)[3:4]*c(0.9,0.1))، 2)، lwd = 2) خطوط (quantile(out$sims.list$Ntot، c(0.025، 0.975))، rep(par(usr)[3]، 2)، lwd = 4) legend(topright، c( تخمین کل N، N کل واقعی، 95% اعتبار بین‌المللی.)، col = c(قرمز، سبز، سیاه)، lty = 1, box.lty = 0, cex = 0.7) **2 مورد** (یکی از «y[i, j, 2]» احتمالاً صفر خواهد بود؛ اگر نه، می توان آن را مستقیماً اختصاص داد) (vcd). ) سایت ها <- 120 # 60 mean_M <- 16 M <- rpois(sites, mean_M) p <- 0.4 #0.64 نمونه <- 2 # 3 y = rep(NA، سایت‌ها * نمونه * 2) dim(y) = c(سایت‌ها، نمونه، 2) برای (i در 1:سایت‌ها) { # obs[i،] = rbinom(نمونه، M[i] , p) برای (j در 1:نمونه) { y[i,j,1] = rbinom(1, M[i], p) y[i,j,2] = rbinom(1, M[i] - y[i,j,1], p) } } y_sample_total = اعمال (y, c(1, 2), sum) obs = y_sample_total ############## ############################# سینک (tmp_bugs/model.txt) cat( model { # احتمال برای (i در 1:سایت ها) { M[i] ~ dpois(lambda) for (j در 1:نمونه) { y[i، j، 1] ~ dbin(p، M[i ]) after_removal[i، j] <- M[i] - y[i، j، 1
خطای WinBUGS با مقادیر صفر در توزیع دو جمله ای: مقدار مرتبه دو جمله ای <expr> باید بزرگتر از صفر باشد
22852
من با استنباط بیزی بسیار جدید هستم و نمی توانم بفهمم که چه چیزی ممکن است یک مشکل ابتدایی باشد. همچنین، لطفاً من را ببخشید، اگر نشانه گذاری را خراب می کنم - این اولین تلاش من در آمار بیزی است. **تنظیم:** در زمان $i=0$ من با یک متغیر تصادفی $X_0\sim \mathcal{N}(\mu_0,\sigma^2_0)$ شروع می‌کنم. با گذشت زمان، من روند حرکت براونی را مشاهده می‌کنم به طوری که برای $j>i$، $X_j-X_i\sim \mathcal{N}(0,(j-i)D)$. از زمان 0 شروع می‌کنم، دنباله‌ای از $n$ مشاهدات $\{Y_i\}_{i=0}^{n-1}$ از $\{X_i\}_{i=0}^{n- 1}$، که در معرض نویز گاوسی هستند، به طوری که $p(y_i|x_i)=\frac{1}{\sqrt{2\pi N_0}}e^{-\frac{(y_i-x_i)^2}{2N_0}}$. نویز از مشاهده به مشاهده مستقل است. من به میانگین و واریانس (برآورنده) $X_{n-1}$ با توجه به $\{Y_i\}_{i=0}^{n-1}$ بر حسب $n$، $ علاقه مند هستم. \mu_0$، $\sigma^2_0$، $D$، و $N_0$. ** کاری که من انجام دادم:** با استفاده از قانون بیز و ویژگی های توزیع گاوسی، دریافتم که برای اولین مشاهده ($n=0$): $$p(x_0|y_0)=\frac{1 }{\sqrt{2\pi S}}e^{-\frac{(x_0-M)^2}{2S}}$$ کجا $M=\frac{y_0\sigma^2_0+\mu_0N_0}{\sigma^2_0+N_0}$ و $S=\frac{\sigma^2_0N_0}{\sigma^2_0+N_0}$. من کاملاً مطمئن نیستم که موارد بالا درست است یا خیر، اما کاملاً مطمئن هستم که درست است، زیرا به نظر می رسد میانگین مربعات خطای تخمین X_0$ با مشاهده کاهش یافته است. با این حال، من در گسترش این به $n>0$ مشکل دارم و از هر راهنمایی قدردانی می کنم. **ویرایش:** من روند حرکت براونی را اشتباه تعریف کرده ام. فکر کنم الان درسته
به روز رسانی بیزی با استفاده از $n$ مشاهدات پر سر و صدا از حرکت براونی
49367
من سعی می کنم یک پراکندگی ساده و خط روند در R انجام دهم، اما درست به نظر نمی رسد. آیا من چیزی را به طور آشکار به هم ریخته ام؟ هیچ ایده ای در مورد اینکه چرا خط با داده ها مطابقت ندارد؟ ![خط روند با داده ها مطابقت ندارد](http://i.stack.imgur.com/AISqZ.png) این کدی است که من استفاده کردم. > plot(x, y, pch=.) > model <- lm(x ~ y) > خلاصه (مدل) تماس: lm(فرمول = x ~ y) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -0.23043 -0.04340 - 0.00533 0.03761 0.47882 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 0.051154 0.001384 36.97 <2e-16 *** y 0.462881 0.003739 123.80 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقی مانده: 0.06365 در 71514 درجه آزادی. آمار: 1.533e+04 در 1 و 71514 DF، p-value: < 2.2e-16 > abline(model, col=red)
به نظر می رسد خط روند مطابق با داده ها نیست
58278
من از optim() در R برای انجام بسیاری از MLE استفاده می کنم. من از این رویکرد برای بسیاری از مشکلات استفاده کرده‌ام، اما رویکردی که در حال حاضر روی آن کار می‌کنم شامل برازش پارامترهای توزیع ارزش افراطی تعمیم‌یافته (GEV) است. سه پارامتر وجود دارد (شکل مقیاس مکان)، و من می خواهم خطاهای استاندارد را از این تناسب دریافت کنم. نمونه ای از مقاله ای که این کار را انجام می دهد کاتز و همکاران است. 2005، و در اینجا کد آنلاین مقاله است. من وابسته به این نشریه نیستم. همچنین باید به این نکته اشاره کنم که سوال GEV فقط نمونه‌ای از نوع رویکردی است که من در پیش می‌گیرم -- بیشتر تناسب‌های MLE من مدل‌های سری زمانی (وضعیت-فضا) هستند. در صورت نیاز می توانم مثال های بیشتری بزنم. 1) کدام یک از آرگومان های optim() ارتباط خاصی با اعتبار آماری استفاده از optim() Hessian برای خطاهای استاندارد کامپیوتر دارد؟ * اولین چیزی که به ذهن می رسد نوع الگوریتم است -- در R، optim() پوششی برای چندین نوع الگوریتم بهینه سازی است (برای مرجع در optim() لینک بالا را ببینید). حتی فکر نمی کنم همه آنها یک هسین برگردانند. * همچنین فکر می‌کنم پارامترهای مربوط به پارامترهای «reltol» و «abstol» می‌توانند مهم باشند، اما من کاملاً نمی‌دانم که آنها چه می‌کنند. 2) اگر بخواهم از hessian برای محاسبه S.E پارامترهای برازش شده استفاده کنم، آیا پیش پردازش داده ها (به عنوان مثال، استانداردسازی داده ها قبل از انجام MLE) وجود دارد؟ 3) به طور کلی، از چه چیزی باید مراقب باشم. من فقط نمی خواهم از این روش به اشتباه استفاده کنم. 4) آیا چیزی وجود دارد که بتوانید به آن فکر کنید که من قطعا **نباید** انجام دهم؟ با تشکر
هنگام استفاده از Hessian برای محاسبه S.E. چه چیزی را باید در نظر بگیرم؟
71800
من در حال انجام یک ANOVA مستقل دو طرفه با استفاده از نوع تغییر سازمانی (5 سطح) و سطح شغلی (7 سطح) در داخل سازمان (در SPSS) هستم. من از روش اندی فیلد پیروی کردم (_کشف آمار با استفاده از SPSS_، ویرایش سوم) و نمی توانم گزینه تست های Post-Hoc را برای مواردی که واریانس برابر در نظر گرفته نشده است، یعنی Games-Howell دریافت کنم. من فایل های راهنمای نحو را جستجو کردم و در جایی یادداشتی وجود دارد که می گوید در صورت استفاده از بیش از یک عامل، Games-Howell قابل اجرا نیست. با این حال، اندی فیلد این کار را کرد! (صفحه 434 کتاب او را ببینید). هیچ ایده ای وجود دارد که چگونه می توانم همین کار را انجام دهم؟
آزمون تعقیبی به روش ANOVA دو طرفه
3167
من باید تعدادی طرح خط را در یک سند لاتکس بگنجانم و می خواهم کیفیت بسیار بالایی داشته باشم. آیا وب سایتی وجود دارد که برخی از الگوها یا سبک های طرح پیش فرض را نشان دهد که بتوانم از آنها استفاده کنم. من خودم در طراحی این نوع سبک طرح خوب نیستم، بنابراین در حال جستجوی تنظیمات اولیه خوب برای ابزاری هستم که می خواهم استفاده کنم. در مورد ابزارها، فکر می‌کنم می‌خواهم از Tikz یا gnuplot استفاده کنم، زیرا می‌خواهم سند و نمودار متنی را در یک اجرا بسازم. اطلاعات من به هر حال در فایل های متنی ذخیره می شود.
از کجا می توانم منابع خوبی برای ساخت طرح های خط کیفیت انتشار پیدا کنم
67128
من سعی می‌کنم آزمایش‌هایی را مد نظر قرار دهم که ترکیب جمعیتی نمونه‌ها باید تا حد امکان به ترکیب «طلایی» نزدیک باشد. برای مشخص بودن، فرض کنید ترکیب «طلایی» «۱۴ درصد طبقه متوسط، ۳۵ درصد طبقه متوسط ​​رو به بالا، و ۵۱ درصد طبقه بالا» است. من یک دسته کامل از نمونه ها دارم، هر کدام با ترکیبات کمی متفاوت. به عنوان مثال: S1 = 10٪ طبقه متوسط، 41٪ طبقه متوسط ​​بالا، 49٪ طبقه بالا S2 = 33٪ طبقه متوسط، 33٪ طبقه متوسط ​​رو به بالا، 34٪ طبقه بالا من در تلاش هستم تا معیار آماری خوبی پیدا کنم. توضیح دهید که توزیع در هر نمونه چقدر به ترکیب ایده آل و طلایی نزدیک است. آیا معیار ساده ای در اینجا وجود دارد که بتوانم از آن استفاده کنم؟
اندازه گیری میزان نزدیکی یک توزیع نمونه معین به یک توزیع ایده آل
78605
من در حال پیاده سازی مدل ARIMAX برای پیش بینی قیمت سهام هستم. برای انتخاب ترتیب، از طریق $0\le p,d,q\le10$ حلقه زدم و بهترین ترتیب (1,0,10) را پیدا کردم. من کمی گیج هستم که چگونه این نتایج را تفسیر کنم. چگونه می توانم بفهمم که منطقی است یا خیر، و این در مورد داده ها چه معنایی دارد؟
پیش بینی قیمت سهام سفارش ARIMAX
9099
آنالیز دی آلل با استفاده از رویکرد گریفینگ و هیمن در اصلاح نباتات و ژنتیک بسیار رایج است. من نمی دانم که آیا کسی می تواند مثال R را در تجزیه و تحلیل دی آلل به اشتراک بگذارد. آیا کتاب مرجع خوبی وجود دارد که نمونه های کار شده را پوشش دهد؟ با تشکر مراجع: Griffing B (1956) مفهوم قابلیت ترکیب عمومی و خاص در رابطه با سیستم های عبور دی آلل. Aust J Biol Sci 9:463-493 [pdf] Hayman BI (1954) تجزیه و تحلیل واریانس جداول دی آلل. Biometrics 10:235-244 [JSTOR] Hayman BI (1954) تئوری و تجزیه و تحلیل تلاقی های دی آلل. ژنتیک 39:789-809 [pdf]
چگونه آنالیز دی آلل را در R انجام دهیم؟
37805
من یک GLMM به این شکل دارم: lmer(حالا؟ ~ فاکتور 1 + فاکتور 2 + پیوسته + فاکتور 1 * پیوسته + (1 | فاکتور 3)، خانواده = دوجمله ای) وقتی از drop1(model, test=Chi) استفاده می کنم، من نتایج متفاوتی نسبت به استفاده از «Anova(model, type=III)» از بسته خودرو یا «خلاصه(مدل)» دریافت کنید. این دو آخری جوابهای یکسانی می دهند. با استفاده از مجموعه ای از داده های ساخته شده، دریافتم که این دو روش معمولاً با هم تفاوتی ندارند. آنها برای مدل‌های خطی متعادل، مدل‌های خطی نامتعادل (که در گروه‌های مختلف n برابر نیست)، و برای مدل‌های خطی تعمیم‌یافته متعادل، پاسخ یکسانی را می‌دهند، اما برای مدل‌های مختلط خطی تعمیم‌یافته متعادل پاسخ یکسانی را نمی‌دهند. بنابراین به نظر می رسد که تنها در مواردی که عوامل تصادفی را شامل می شود، این اختلاف آشکار می شود. * چرا بین این دو روش مغایرت وجود دارد؟ * هنگام استفاده از GLMM باید از «Anova()» یا «drop1()» استفاده شود؟ * تفاوت بین این دو، حداقل برای داده های من، نسبتاً ناچیز است. اصلاً مهم است که کدام مورد استفاده شود؟
چرا Anova ( ) و drop1 ( ) پاسخ های متفاوتی برای GLMM ارائه می دهند؟
96836
آیا قهقرایی یک نسبت روی خودش اشکالی دارد؟ به عنوان مثال، آیا می‌توانیم log (نسبت پس‌انداز) را در log (درآمد) یا نسبت log (بدهی به درآمد) را در ورود (درآمد) پس‌انداز کنیم؟ اگر نه، آیا باید از تبدیل log برای بردن درآمد به RHS و رگرسیون log (پس انداز) در ورود (درآمد) استفاده کنیم؟ اگر استفاده از تبدیل گزارش راه حلی است، چگونه می توانم نتایج خود را تفسیر کنم، با توجه به اینکه نسبت پس انداز چیزی است که به آن علاقه دارم، نه پس انداز؟
رگرسیون نسبت به یک جزء از نسبت
108771
فرض کنید یک مجموعه داده حاوی اعداد $1-100$ (یعنی $\{1, \dots, 100 \}$) باشد. در اعتبار سنجی متقاطع 10 دلاری، مجموعه داده به زیر مجموعه های 10 دلاری تقسیم می شود که یکی از آنها به عنوان مجموعه داده اعتبار سنجی استفاده می شود. به عنوان مثال، یکی از این تقسیم بندی ها $S_1 = \{1, \dots, 10 \}$, $S_2 = \{11, \dots, 20 \}, \dots, S_{10} = \{91, \dots است. , 100 \}$. در اعتبارسنجی متقاطع 10 برابری عادی، هر زیر مجموعه به عنوان مجموعه داده تست استفاده می شود. در اعتبارسنجی متقاطع 10 تکراری (مثلاً)، بخشی که تکرار می‌شود این است که $S_1، \dots، S_{10}$ چگونه ساخته می‌شوند؟
CV مکرر در مقابل CV
78606
من 3 روش برای انجام تخمین پارامتر، ML، MAP و رویکرد Bayes می دانم. و برای رویکرد MAP و Bayes، باید اولویت‌ها را برای پارامترها انتخاب کنیم، درست است؟ مثلاً من این مدل $p(x|\alpha,\beta)$ را دارم که در آن $\alpha،\beta$ پارامترهای هستند، برای انجام تخمین با استفاده از MAP یا Bayes، در کتاب خواندم که ما بهتر است یک مزدوج قبل از $p(\alpha,\beta)$_ انتخاب کنید، که احتمال **مشترک** $\alpha،\beta$ است، درست است؟ من 2 سوال دارم: 1. آیا انتخاب دیگری به جز این مزدوج داریم؟ 2. آیا می‌توانیم به ترتیب برای $\alpha$ و $\beta$، مانند $p(\alpha)$ و $p(\beta)$، اولویت‌های قبلی را انتخاب کنیم، غیر از اینکه آنها را در یک مشترک کنار هم قرار دهیم؟
نحوه انتخاب پیشین در تخمین پارامتر بیزی
67124
من در حال تهیه پیش نویس یک مرور ادبیات در مورد یک موضوع بهداشت عمومی فعلی هستم که در آن داده ها مخدوش شده اند: ** مطالعات موردی تاریخی رایجی که در آموزش بهداشت عمومی/اپیدمیولوژی در مواردی که روابط یا استنباط های نامعتبر یا مغشوش عمدا یا اشتباهاً در بهداشت عمومی به کار گرفته شده اند کدامند. سیاست و قانون؟** افزایش مرگ و میر اتومبیل در دهه 1960 و متعاقب آن مطالعه مبتنی بر شواهد و تحت رهبری دولت که تعیین کرد کمربند ایمنی و در نهایت کیسه هوا باید توسط قانون الزامی شود، نمونه ای عالی از **چگونه ** سیاست بهداشت عمومی باید با استنباط ها و مدل های آماری قدرتمند هدایت شود. من بیشتر به دنبال نمونه هایی از نوع مخالف (علم بد برای سیاست گذاری عجولانه) هستم. با این حال، اگر هیچ چیز دیگری نیست، من مایلم موارد بیشتری مشابه نمونه قبلی از مطالعات قدرتمند برای موفقیت در سلامت عمومی بیاموزم. من می‌خواهم از اینها به عنوان مثال استفاده کنم تا نشان دهم که چگونه تحقیقات بهداشت عمومی آماری مبتنی بر شواهد برای ایجاد خط‌مشی مهم است.
مطالعات موردی در تحقیقات خط مشی بهداشت عمومی که در آن مطالعات یا مدل‌های غیرقابل اعتماد/آشکار/نامعتبر مورد استفاده قرار گرفته‌اند کدامند؟
91008
نمونه مرتب شده زیر را در نظر بگیرید: $x_1<x_2<\ldots<x_n$ و تابع هسته: $h(j)=\log(x_j-x_1)، j>1$. اکنون، معلوم می شود که وقتی داده ها را از بسیاری از توزیع های پیوسته می کشم، آنها را مرتب می کنم و $h(j)$ را محاسبه می کنم، نمودار $h(j)$ به عنوان تابعی از $j$ به این معنا مقعر است: $ h((j+k)/2)>(h(j)+h(k))/2$ برای $1<j<j+1<k<n$ سوال من این است: آیا این مشاهده (تعرفه از $h(j)$ به عنوان تابعی از $j$) برای همه توزیع های پیوسته صادق است؟ اگر نه، آیا کلاسی از توزیع‌ها وجود دارد که همیشه درست باشد؟ پیشاپیش متشکرم، در این مرحله، با توجه به نظرات مفید @Glen_b و @Momo، فکر می کنم باید یک مثال بزنم. این بردار مقادیر $x_j-x_1,j>1$ است (که در آن $x$ ها از یک توزیع پیوسته ترسیم می شوند، اما در اینجا به رقم سوم گرد شده اند تا جای زیادی نگیرند. .) مشکل من این است که وقتی $h(j)$ را برای این مجموعه داده ترسیم می کنم، نتیجه به وضوح و نه مقعر است (به معنایی که در بالا توضیح دادم). x=c(1.403، 1.406، 1.408، 1.416، 1.417، 1.42، 1.427، 1.441، 1.448، 1.456، 1.458، 1.465، 1.467، 1.462، 1.447، 1.462، 1.467، 1.467، 1.467 1.477، 1.479، 1.482، 1.491، 1.5، 1.504، 1.518، 1.52، 1.52، 1.53، 1.544، 1.545، 1.561، 1.575، 1.575، 1.59. 1.603، 1.605، 1.612، 1.617، 1.618، 1.618، 1.628، 1.64، 1.644، 1.646، 1.653، 1.679، 1.682، 1.669، 1.682، 1.683، 1.682 1.71، 1.711، 1.741، 1.75، 1.756، 1.773، 1.794، 1.799، 1.804، 1.808، 1.86، 1.882، 1.895، 1.9995، 1.9995، 1. 2.009، 2.063، 2.123، 2.329، 2.356، 2.405، 2.535، 2.632، 2.635، 2.725، 2.763، 2.783)
این تابع برای کدام کلاس توزیع مقعر است؟
3163
علیرغم اینکه این یک سوال مربوط به برنامه بود، از من خواسته شد که به جای stackoverflow این را اینجا ارسال کنم. آیا می توان پس از برازش یک مدل، از ماتریس واریانس کوواریانس قوی به دست آمده توسط vcovHC (از بسته ساندویچی) استفاده کرد؟ بدون پیدا کردنش گشتم..
از خطاهای استاندارد قوی در محدود استفاده کنید
91000
تقریباً در وسط صفحه 16 یادداشت‌های اندرو نگ در SVM، او دیدگاه شهودی از هسته را به عنوان اندازه‌گیری شباهت بین مشاهدات توضیح داد، اما سپس این هشدار را اضافه کرد که > چیزهایی در این شهود وجود دارد، اما توجه نکنید یادداشت‌ها واقعاً توضیح نمی‌دهند. این شهود چه اشکالی دارد آیا کسی می داند که او ممکن است به چه چیزی اشاره کند؟
این شهود که کرنل شباهت بین مشاهدات را اندازه می گیرد چه اشکالی دارد؟
58270
من مجموعه ای از نتایج اندازه گیری های مستقل برخی از کمیت های فیزیکی را دارم. به عنوان مثال در اینجا داده های تجربی واقعی در مورد ضریب شکست متانول در 25 درجه سانتیگراد منتشر شده در ادبیات علمی از سال 1960 تا 2011 ارائه می کنم: data={{1960, 1.32652}, {1961, 1.32662}, {1963, 1.3265, 1.3265 1.32750}، {1968، 1.32698}، {1968، 1.32890}، {1970، 1.32657}، {1970، 1.32660}، {1971، 1.3260}، {1971، 1.32610}، {1971، 1.32610}، {1971، 1.32610}، {32610}، {1971، 1.32610}، {0} 1.3350}، {1972، 1.32640}، {1972، 1.32661}، {1973، 1.32860}، {1975، 1.32515}، {1975، 1.32641}، {1976، 3261}، {1976، 1.32641}، {1976، 3. 1.32670}، {1980، 1.3250}، {1983، 1.32850}، {1985، 1.32653}، {1991، 1.32710}، {1995، 1.32621}، {1995، 1995، 71}، 1.32601}، {1996، 1.32645}، {1996، 1.32715}، {1998، 1.32820}، {1999، 1.32730}، {1999، 1.32780}، {2001، 1.32780}، {206، 1.32780}، {1996، 1.32715}، {1998، 1.32820} 1.32620}، {2011، 1.32667}}؛ عدد اول سال انتشار اول و دومی مقدار منتشر شده است. نویسندگان همیشه برآورد خود را برای خطای ارزش منتشر شده ارائه نمی کنند و حتی زمانی که این کار را انجام می دهند، تخمین منتشر شده اغلب دقیق نیست. به راحتی می توان فهمید که توزیع نامتقارن است (دیگر مجموعه داده هایی که من با آنها کار می کنم حتی نامتقارن تر هستند). در اینجا یک هیستوگرام چگالی با سطل های انتخاب شده توسط عقربه ها وجود دارد: bins = {1.325, 1.3259, 1.3261, 1.3263, 1.3265, 1.3266, 1.3267, 1.3269, 1.3275, 1.328; هیستوگرام[dataFirst[[All, 2]], {bins}, PDF] ![histogram](http://i.stack.imgur.com/x4lne.png) به دلیل ویژگی نامتقارن توزیع نمی توانم استفاده کنم میانگین به عنوان تخمینی برای مقدار واقعی ضریب شکست متانول. واقعیت این است که احتمال به دست آوردن مقدار کمتر از مقدار واقعی به طور کلی با احتمال به دست آوردن مقدار بالاتر برابر نیست. این بدان معنی است که میانه به طور کلی نیز نامناسب است. ممکن است فرض شود که هر اندازه گیری منفرد دارای توزیع نرمال برای خطای ابزاری اندازه گیری است. منابع دیگر خطا ناخالصی های موجود در متانول هستند. رایج ترین ناخالصی آب است که ضریب شکست را افزایش می دهد، اما نویسندگان معمولا متانول را قبل از اندازه گیری خشک می کنند. احتمالاً به همین دلیل است که چگالی برای مقادیر کم بیشتر است: سایر ناخالصی ها مانند برخی از حلال های آلی معمول (بنزن) و (احتمالاً) گازهای رقیق شده (متان، اکسید کربن، دی اکسید کربن) ضریب شکست را کاهش می دهند. از طرف دیگر الکل ها، آلدئیدها و کتون هایی که ممکن است در متانول صنعتی و برخی از حلال های آلی (CCl4) وجود داشته باشند ضریب شکست را افزایش می دهند. بنابراین حداقل دو منبع خطا وجود دارد: یکی (دستگاهی) ممکن است به طور معمول توزیع شده و حتی برای همه اندازه‌گیری‌ها برابر فرض شود و دومی (ناخالصی‌ها) احتمالاً نامتقارن است (و حتی ممکن است دو وجهی باشد) و بستگی به نحوه به‌دست‌آمدن و خالص‌سازی متانول دارد. . بهترین راه برای تخمین مقدار واقعی و باندهای اطمینان 95% آن برای کمیت اندازه گیری شده در چنین مواردی چیست؟ P.S. مراجع برای مقالات علمی مرتبط مورد قدردانی قرار خواهند گرفت. P.S.2. کد بالا برای سیستم _Mathematica_ است.
چگونه می توان مقدار واقعی و باندهای 95% را زمانی که توزیع نامتقارن است تخمین زد؟
78607
من یک متغیر وابسته دارم (در تعداد، به عنوان مثال، تعدادی تکنسین). متغیر مستقل من یک عامل گروه بندی (کنترل و درمان) است. از ادبیات، میانگین تعداد تکنسین مورد نیاز برای این روش 3 با SD برابر 1 است. من می خواهم اندازه نمونه را برای تعیین تغییرات قابل توجه کاهش 1 SD در تکنسین ها محاسبه کنم. من فکر می کنم که این داده های شمارش باید از توزیع پواسون پیروی کنند و من می توانم یک محاسبه اندازه نمونه برای رگرسیون پواسون انجام دهم. با این حال، SD من کمتر از یک فرض شده برای رگرسیون Poison است (sqrt(mean)=1.73). برای تعیین تفاوت 1 SD و اندازه نمونه از چه ابزار جایگزینی باید استفاده کنم؟ با تشکر جولیا
داده های شمارش: SD بالاتر از حد فرض شده برای رگرسیون پواسون است
91001
من مجموعه‌ای از آیتم‌های نوع لیکرت دارم که از پاسخ‌دهندگان نگرششان را درباره موضوعات مختلف می‌پرسم. به عنوان مثال، نگرش نسبت به مواد مخدر/الکل که در آن 1=کاملاً مخالف و 5=کاملاً با این جمله موافقم که «فکر می‌کنم برای فردی هم سن و سال من اشکالی ندارد که ماری جوانا بکشد». سپس 6 آیتم در این مقیاس خاص با استفاده از میانگین آیتم های گم نشده امتیازدهی می شوند. آیا مزیتی وجود دارد که ابتدا آیتم ها را مجدداً مقیاس کنید تا دامنه پاسخ ها از 0-4 به جای 1-5 برسد؟ تنها تفاوت در تفسیر مقیاس است که در آن میانگین نگرش 3.5 در مقیاس 0-4 و 4.5 در مقیاس 1-5 است. از منظر تفسیر، چه چیزی برای یک مخاطب عادی آسان‌تر است؟ یا اینکه استانداردهایی از نظر گزارش دهی وجود دارد؟
آیا تغییر مقیاس مجموعه ای از آیتم های لیکرت از 1-5 به 0-4 مزیتی دارد؟
67121
من یک مدل احتمال خطی را با ساختار سلسله مراتبی تخمین می زنم. من خطاهای استاندارد را بوت استرپ می کنم تا اهمیت ضرایب را آزمایش کنم تا تخمین پارامتری خطاهای استاندارد را دوبار بررسی کنم. در فرآیند راه‌اندازی متوجه می‌شوم که ضرایب همگی مثبت هستند (که انتظار داشتم) اما چند ضرایب مثبت شدید وجود دارد. نقاط پرت خطاهای استاندارد را بزرگ و آمار t بعدی را کوچک می کند. این گمراه کننده است زیرا یک p-value تجربی مقداری کمتر از 0.01 دارد. سوال من این است 1. بهترین راه برای بیان اینکه این ضریب از نظر آماری با صفر متفاوت است چیست؟ 2. بهترین راه برای گزارش این نتایج چیست؟ معمولاً در جدول لاتکس ضرایب به اضافه خطاهای استاندارد را گزارش می کنم.
بهترین راه برای انتقال داده های بسیار کج
67125
من می خواهم تأثیر یک IV (احساس طلبی) را بر روی DV (خیانت عمدی) بر اساس IV دیگر (جنسیت) مقایسه کنم. در واقع من واقعاً فقط می خواهم ابزارها را با هم مقایسه کنم. بنابراین می‌خواهم میانگین تأثیر حس‌جویی (متغیر پیوسته با 5 سطح) را برای مردان و زنان بر خیانت مورد نظر (یک متغیر پیوسته با 4 سطح) مقایسه کنم. چرا به نظر نمی رسد که این کار را در SPSS انجام دهم؟ آیا باید یک تحلیل اعتدال انجام دهم؟ آیا می توانم متغیرها را دوباره محاسبه کنم و در چه مواردی؟ با تشکر بسیار برای هر گونه پیشنهاد!
میانگین اثر یک پیش بینی کننده را بر اساس پیش بینی کننده دیگر مقایسه کنید
66297
1. تفاوت بین معادلات تخمین شبه احتمال و GEE چیست؟ از یک یادداشت > تابع شبه امتیاز برای داده های مستقل و بیش از حد پراکنده (پواسون یا > دو جمله ای) است، در حالی که GEE1 برای داده های همبسته است. اما به نظر من در یادداشت، معادلات آنها هر دو همبستگی بین پاسخ های مختلف را در نظر نمی گیرند. پس چگونه آنها را به درستی درک کنم؟ 2. معادلات تخمین استقلال (IEE) چه تفاوتی با دو مورد فوق دارد؟ با تشکر
تفاوت بین معادلات تخمین شبه احتمال، IEE و GEE؟
83119
برای من روشن است و در چندین سایت به خوبی توضیح داده شده است که مقادیر روی قطر ماتریس کلاه چه اطلاعاتی را برای رگرسیون خطی می دهد. ماتریس کلاه یک مدل رگرسیون لجستیک برای من کمتر واضح است. آیا با اطلاعاتی که با اعمال رگرسیون خطی از ماتریس کلاه به دست می آورید یکسان است؟ این تعریف ماتریس کلاه است که من در موضوع دیگری از CV پیدا کردم (منبع 1): $H=VX (X'V X)^-1 X' V$ با X بردار متغیرهای پیش بینی کننده و V یک ماتریس مورب است. با $\sqrt{(π(1−π))}$. به عبارت دیگر، آیا این نیز درست است که مقدار خاص ماتریس کلاه یک مشاهده نیز فقط موقعیت متغیرهای کمکی را در فضای متغیر کمکی نشان می‌دهد و ربطی به مقدار نتیجه آن مشاهده ندارد؟ این مطلب در کتاب «تحلیل طبقه‌بندی داده‌ها» آگرستی نوشته شده است: هرچه اهرم مشاهده بیشتر باشد، تأثیر بالقوه آن بر تناسب بیشتر است. همانطور که در رگرسیون معمولی، اهرم ها بین 0 و 1 > قرار می گیرند و به تعداد پارامترهای مدل جمع می شوند. برخلاف رگرسیون معمولی، مقادیر > به برازش و همچنین ماتریس مدل بستگی دارد، و نقاطی که > دارای مقادیر پیش بینی شدید هستند، نیازی به اهرم بالایی ندارند. بنابراین خارج از این تعریف، به نظر می رسد ما نمی توانیم آن را همانطور که در رگرسیون خطی معمولی استفاده می کنیم، استفاده کنیم؟ منبع 1: چگونه ماتریس کلاه را برای رگرسیون لجستیک در R محاسبه کنیم؟
اطلاعات خارج از ماتریس کلاه برای رگرسیون لجستیک
87779
چه زمانی باید هنگام انجام رگرسیون لجستیک از وزنه ها استفاده کنم؟ وزن هایی که من به آنها اشاره می کنم وزن های نمونه گیری از یک نظرسنجی هستند؟ یا باید فقط از داده های وزن نشده استفاده کنم؟
آیا وزن نمونه در رگرسیون لجستیک ضروری است؟
91004
من می‌خواهم $\log Y_t=\beta_0+\beta_1\log X_{1t}+\beta_2\log X_{2t}+e_t$ را تخمین بزنم با استفاده از تست‌های ADF، متوجه شدم که هر دو $\{\log Y_t\}$ و $\{\log X_{1t}\}$ I(1) هستند (یعنی دارای یک ریشه واحد هستند)، در حالی که $\{\log X_{2t}\}$ من (2) است. من بررسی کرده‌ام که $\{\Delta \log Y_t\}$، $\{\Delta \log X_{1t}\}$ و $\{\Delta_2\log X_{2t}\}$ همگی ثابت هستند. حالا سوال من این است که با استفاده از این تفاوت ها چه رگرسیونی را اجرا کنم تا بتوانم هنوز چیزی در مورد رابطه اصلی بالا بگویم؟ آیا می توانم به سادگی تفاوت های دوم $\{\log Y_t\}$ و $\{\log X_{1t}\}$ را بگیرم و $\Delta_2\log Y_t=\beta_1\Delta_2\log X_{1t}+\ را تخمین بزنم؟ Delta_2\beta_2\log X_{2t}+v_t$ یا گرفتن تفاوت دوم سری I(1) نوعی مشکل ایجاد می کند؟
رگرسیون زمانی که شما هر دو فرآیند I(1) و I(2) را دارید
37807
من شرایط زیر را دارم من یک طبقه‌بندی‌کننده باینری دارم که بردارهای ویژگی ورودی را به یکی از دو کلاس 'y' یا 'n' طبقه‌بندی می‌کند، همراه با احتمال قرار گرفتن آن در هر یک از کلاس‌های P_y و P_n. من می دانم که طبقه بندی کننده در 60٪ موارد درست است. چگونه احتمال واقعی بودن آن در هر یک از کلاس ها را تخمین بزنم؟ کاری که من اکنون انجام می دهم محاسبه 0.6*P_y / (0.6*P_y + 0.4*(1- P_y)) است. این یک تنظیم بیزی است، اما مطمئن نیستم که کارم را درست انجام می‌دهم یا نه. هر گونه اشاره بسیار قدردانی می شود.
اندازه گیری احتمال طبقه بندی کننده باینری؟
27515
سوابق من در اقتصاد کار / خرد کاربردی است اما در حال حاضر با داده های جمع آوری شده از یک آزمایش میدانی کار می کنم. حداقل می توان گفت مهارت های تجربی/میکرو من زنگ زده است. در داده‌هایم، افراد را مشاهده می‌کنم که یکی از گزینه‌های A، B، C، D$ را انتخاب می‌کنند. ارزش انتخاب بعد از انتخاب متوجه می شود. من می دانم که $$E(A) <= E(B) <= E(C) <= E(D)$$$$VAR(A) <= VAR(B) <= VAR(C) <= VAR (D)$$ اگر فرض کنم که $A، B، C، D$ پیوسته، مستقل و به طور معمول توزیع شده اند و افراد از بازده مورد انتظار $E(i)$ و واریانس $VAR(i)$ آگاه باشند. * آیا راهی برای تخمین پارامتر ریسک گریزی مورد انتظار (به عنوان مثال CRRA) برای گروهی از افراد وجود دارد؟ * آیا منطقی است که این تخمین‌های ریسک را از دو گروه از مردم مقایسه کنیم، مثلاً مردان و زنان یا افراد دارای تحصیلات عالی و تحصیلات پایین؟ اگر بتوانید ادبیات مرتبطی را ارائه دهید، ممنون می شوم.
برآورد پارامترهای ریسک از انتخاب های مشاهده شده
27512
یک مشکل بزرگ در انتقال نتایج محاسبات آماری به رسانه ها و عموم مردم این است که چگونه عدم قطعیت را منتقل می کنیم. مطمئناً به نظر می‌رسد که اکثر رسانه‌های جمعی یک عدد سخت و سریع را دوست دارند، اگرچه به جز در تعداد نسبتاً کمی از موارد، اعداد همیشه دارای عدم قطعیت هستند. بنابراین، چگونه می‌توانیم به‌عنوان آماردان (یا دانشمندانی که کار آماری را توصیف می‌کنند)، نتایج خود را به بهترین شکل بیان کنیم، در حالی که عدم قطعیت را در تدبیر نگه داریم و آن را برای مخاطبان معنادار کنیم؟ من متوجه هستم که این در واقع یک سؤال آماری نیست، بلکه یک سؤال روانشناسی در مورد آمار است، اما مطمئناً چیزی است که بیشتر آماردانان و دانشمندان نگران آن هستند. من تصور می‌کنم که پاسخ‌های خوب ممکن است به تحقیقات روان‌شناختی بیشتر از کتاب‌های درسی آمار اشاره کنند... * * * **ویرایش:** طبق پیشنهاد کاربر568458، یک مطالعه موردی ممکن است در اینجا مفید باشد. در صورت امکان، لطفاً پاسخ ها را برای سایر حوزه ها تعمیم دهید. مورد خاصی که من به آن علاقه دارم مثال خوبی است: _ارتباط علم آب و هوا به سیاستمداران و عموم مردم از طریق رسانه های جمعی_. به عبارت دیگر، به عنوان یک دانشمند، وظیفه شما این است که اطلاعات را به گونه ای به یک روزنامه نگار منتقل کنید که آنها در انتقال دقیق آن اطلاعات به عموم، مشکل کمی داشته باشند - یعنی حقیقت، اگرچه نه لزوماً کل حقیقت، که معمولا در یک نیش خبری نمی گنجد. برخی از مثال‌های رایج ممکن است ارتباط عدم قطعیت در تخمین درجه گرمایش در باقیمانده قرن یا افزایش احتمال وقوع یک رویداد شدید آب و هوایی خاص (یعنی در پاسخ به آیا این طوفان ناشی از تغییرات آب و هوایی بوده است. سوال را تایپ کنید).
چگونه می توان عدم اطمینان را به بهترین نحو بیان کرد؟
25851
الگوریتم بسط آلفا که در اینجا توضیح داده شده است (مدل های گرافیکی احتمالی: اصول و تکنیک های دافنه کولر، نیر فریدمن، صفحه 593: الگوریتم 13.5)، برای نمودارهایی طراحی شده است که هر رأس دارای مجموعه ای از برچسب ها است. من به یک مشکل کلی تر علاقه مند هستم که در آن هر رأس می تواند مجموعه متفاوتی از برچسب ها با کاردینالیته های متفاوت داشته باشد. آیا می توان از الگوریتم گسترش آلفا در چنین مواردی استفاده کرد؟ برای مثال، اجازه دهید نمودار 3 رأس داشته باشد. راس اول می تواند برچسب ها (a1، a2، a3) را در نظر بگیرد. راس دوم می تواند برچسب ها (b1, b2) را در نظر بگیرد و راس سوم می تواند دارای (c1, c2, c3, c4, c5) باشد. پتانسیل های گره و لبه بر این اساس تعریف می شوند. آیا گسترش آلفا هنوز هم می تواند به من در یافتن یک ترکیب برچسب بهینه (تقریبی) کمک کند؟
الگوریتم گسترش آلفا روی نمودار با رئوس دارای مجموعه‌های مختلف برچسب‌ها
66292
روشی که من برای ساختن یک جنگل تصادفی با آن آشنا هستم به شرح زیر است: (از http://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm) برای ساختن یک درخت در جنگل ما: 1 نمونه ای با اندازه N را بوت استرپ کنید که در آن N اندازه مجموعه آموزشی ما است. از این نمونه بوت استرپ به عنوان مجموعه آموزشی این درخت استفاده کنید. 2. در هر گره درخت به طور تصادفی m از ویژگی های M خود را انتخاب کنید. بهترین ویژگی‌های m را برای تقسیم کردن انتخاب کنید. (که m پارامتری از جنگل تصادفی ما است) 3. هر درخت را تا بیشترین حد ممکن رشد دهید - یعنی بدون هرس. در حالی که این الگوریتم در سطح رویه‌ای منطقی است و مطمئناً نتایج خوبی ایجاد می‌کند، من نمی‌دانم انگیزه نظری پشت مراحل 1، 2، و 3 چیست. خیلی خوب کار می کند؟ به عنوان مثال: چرا باید مرحله 1 را انجام دهیم؟ به نظر نمی رسد که ما برای هدف معمول آن یعنی کاهش واریانس راه اندازی شده ایم.
انگیزه پشت مراحل الگوریتم جنگل تصادفی
37809
یک آزمایش دو نتیجه ممکن دارد: A یا B. در 20 آزمایش، A 2 بار و B 18 بار اتفاق می افتد. از تعداد بیشتری آزمایش چه انتظاری دارم؟ با چه اطمینانی می توانم بگویم که تعداد میانگین نتیجه A 10٪ است؟
احتمال رخدادهای گسسته
81005
نوعی حراج را در نظر بگیرید که در آن مثلاً 1000 مشتری احتمالی به شما معرفی می شود. بر اساس اطلاعات مربوط به این موارد آینده - سن، جنس، نژاد، درآمد، پیشرفت تحصیلی و موارد مشابه - ممکن است برای ارائه محصول خود به بخشی از آنها، مثلاً 250، مناقصه بدهید. (هزینه مناقصه را نادیده بگیرید.) شانس خود را برای انتخاب زیرمجموعه مناسب به حداکثر برسانم، احتمالاً از مدلی از «دوست‌پذیری» محصولمان استفاده می‌کنم که با استفاده از رگرسیون لجستیک ساخته شده است. من می توانم به اندازه کافی در این قسمت قدم بزنم. با این حال، برای ایجاد مدل دوست‌داشتنی محصول، باید تحقیقاتی در بازار انجام دهم و سطح محصول را روی موضوعاتی آزمایش کنم که ممکن است از بین افراد جامعه به‌کار گرفته شود. این در واقع نسبتاً پرهزینه است. علاوه بر این، احتمالاً باید با جمعیت شناسی جمعیتی که چشم انداز از آن استخراج می شود تنظیم شود. به عنوان مثال، مثلاً یک طرح فاکتوریل ممکن است از ما بخواهد که افراد مورد آزمایش را به نسبت مساوی در سطوح عامل نژاد استخدام کنیم، در حالی که در واقعیت ما احتمالاً با تعداد بسیار کمی از بومیان آمریکایی، مثلاً، در 1000 آینده نگر مواجه خواهیم شد، و به سادگی می توانیم به عنوان یک قاعده، به هیچ وجه به آنها توجه نکنید. (غم انگیز، اما واقعی.) چنین آزمایشی چگونه باید طراحی شود؟ برای مشخص بودن، متغیرهای طراحی همه عوامل طبقه‌ای و ترتیبی هستند، کسر پیشنهاد یک پارامتر ورودی است (1/4 در مثال ذکر شده در بالا)، و همچنین حداکثر تعداد موضوعاتی که می‌توان جذب کرد. به نظر می رسد ممکن است ترکیبی از طراحی آزمایشی و نمونه گیری تصادفی مناسب باشد، اما من برای همه پیشنهادات و نکات منطقی آماده هستم. همچنین باید توجه داشته باشم که با توجه به اندازه‌های احتمالی اثر کوچک و مجموعه‌های کوچک استخدام نمونه که می‌توانیم بپردازیم، بعید است که تحقیقات بازار ضرایب رگرسیون آماری معنی‌داری را به دست آورد. و بنابراین بهینه سازی بیش از حد طرح آزمایشی احتمالاً احمقانه است و هر روش منطقی غیر دیوانه کننده کافی است.
چگونه آزمایش هایی را برای تحقیقات بازار طراحی کنیم (با یک پیچ)؟
66299
من در حال حاضر یک مدل تقویت گرادیان دارم که از بسته gbm در R استفاده می کند که مشاهدات را در پایان یک سال طبقه بندی می کند. رفتارهای روزانه برای هر مشاهده ثبت می شود (با اکثر آنها صفر). این مدل بر اساس مشاهداتی ساخته شده است که دارای داده های کامل یکساله است و عملکرد خوبی از نمونه دارد. برای اهداف توضیحی، داده‌های کامل را به این صورت فرض کنید: id day1 day2 day3 day4 day5, ..., day365 1 1 1 2 0 0, ..., 0 2 3 0 1 0 0, ..., 0 3 1 1 2 0 0، ...، 0 4 1 0 0 0 0، ...، 1 با این حال، من می خواهم احتمال را پیش بینی کنم هر کلاس برای افراد جدیدی که هنوز یک سال در چارچوب نمونه گیری نبوده اند. بنابراین، تمام روزهای گذشته از امروز NA خواهد بود. این مانع استفاده از بسیاری از الگوریتم‌ها می‌شود، اما در نظر گرفتن آنها به‌عنوان 0 به معنای داشتن اطلاعات بیشتر از آنچه در واقع دارم است. بهترین راه برای درمان داده های از دست رفته مشاهده نشده اما قابل مشاهده هنگام پیش بینی چیست؟ من مدل را به صورت روزانه مجدداً تخمین نمی زنم، بلکه از برازش مدل از مجموعه آموزشی موجود استفاده می کنم.
چگونه به پیش بینی مشاهدات جدید با داده های ناقص از مدل ساخته شده از داده های کامل نزدیک شویم
4052
آیا توان رگرسیون لجستیک و آزمون t معادل است؟ اگر چنین است، آنها باید معادل چگالی داده باشند، منظور من این است که تعداد مشاهدات زیربنایی یکسان با یک آلفای ثابت 0.05 قدرت یکسانی را به دست می دهند. دو حالت را در نظر بگیرید: 1. [آزمون t پارامتریک]: 30 رسم از یک مشاهده دو جمله ای انجام می شود و مقادیر به دست آمده میانگین می شوند. این کار 30 بار برای گروه A (که دارای دوجمله‌ای Pr 70/0 رخ می‌دهد) و 30 بار برای گروه B (که دارای دو جمله‌ای Pr 75/0 است) انجام می‌شود. این 30 میانگین در هر گروه به دست می‌دهد که خلاصه‌ای از 1800 برداشت از یک توزیع دوجمله‌ای را نشان می‌دهد. آزمون t 58df برای مقایسه میانگین ها انجام می شود. 2. [رگرسیون لجستیک]: یک رگرسیون لجستیک با یک شیب رمزگذاری شده ساختگی انجام می شود که عضویت گروه و هر یک از 1800 قرعه کشی را نشان می دهد. سوال من دو قسمت دارد: 1. با توجه به مجموعه آلفای 0.05، آیا قدرت این متدولوژی ها یکسان خواهد بود یا متفاوت؟ چرا؟ چگونه می توانم آن را ثابت کنم؟ 2. آیا پاسخ سوال 1 نسبت به حجم نمونه وارد شده به آزمون t، حجم نمونه هر گروه در آزمون t، احتمالات دو جمله ای زیربنایی یا عامل دیگری حساس است؟ اگر چنین است، چگونه می توانم (بدون شبیه سازی) بدانم که قدرت واقعاً متفاوت است و چه نوع تغییراتی چه نوع تغییراتی در قدرت ایجاد می کند؟ متناوبا، کد R کار شده را ارائه کنید که مشکل را با استفاده از شبیه سازی حل کند.
چگونه قدرت رگرسیون لجستیک و آزمون t مقایسه می شود؟
67123
من مجموعه ای از داده ها را برای شرکت ها در یک صنعت خاص دارم. مجموعه داده ها دو سال متوالی 2000 و 2001 را در بر می گیرد. فرض کنید من 100 شرکت منحصر به فرد در مجموعه داده دارم و میانگین زمان خدمات را برای هر شرکت و برای هر سال محاسبه می کنم. چگونه می توانم آزمایش کنم که آیا میانگین زمان انتظار برای شرکت x در سال 2001 کمتر از میانگین زمان انتظار برای شرکت x در سال 2000 است؟ مجموعه داده شامل تمام تراکنش های خدماتی انجام شده توسط شرکت x در سال های 2000 و 2001 است و این چیزی است که من را گیج می کند. روشی که من از آزمون فرضیه می فهمم این است که شما فرضیه صفر را با استفاده از میانگین نمونه آزمایش می کنید. با این حال، با این داده‌ها، من میانگین جمعیت را دارم، بنابراین وقتی استاد شما از شما می‌خواهد آزمایش کنید که آیا میانگین زمان خدمت در سال 2001 کمتر از میانگین زمان خدمت در سال 2000 است، با استفاده از آزمون مقایسه میانگین ساده مانند آماره t به چه معناست. ?
آزمون فرضیه برای جامعه به جای نمونه
25855
من می دانم که PCA و PLS به عنوان روش های جایگزین برای یکدیگر در نظر گرفته می شوند. اما من به نوعی ترکیب این دو در مورد تعداد زیادی پیش‌بینی‌کننده با تنوع کم فکر می‌کنم. در آن صورت، وقتی PLS 1 جزء را با پیش‌بینی‌کننده‌های اصلی اجرا می‌کنم، مدل معناداری از نظر پیش‌بینی تولید نمی‌کند. اما اگر ابتدا 10-20 جزء PCA را محاسبه کنم و PLS 1 جزء را با آن نمرات PC به عنوان پیش بینی کننده اجرا کنم، عملاً مدل از نظر قدرت پیش بینی بسیار خوب است. اما دوست دارم دلیلش را بدانم. آیا کسی می تواند توضیح دهد که چرا این بهتر از PLS 1 جزء با پیش بینی کننده های اصلی است؟
ترکیب تجزیه و تحلیل مؤلفه های اصلی و حداقل مربعات جزئی
29167
من از ماکرو Andrew F. Hayes برای SPSS (HCREG در http://www.afhayes.com/spss-sas-and-mplus-macros-and-code.html) برای انجام تحلیل های رگرسیون چندگانه با خطاهای استاندارد قوی استفاده می کنم. اطلاعاتی که در خروجی به دست می‌آورم در مقایسه با اطلاعاتی که SPSS هنگام اعمال رگرسیون چندگانه ارائه می‌دهد، محدود است. برای مثال، هیچ ضرایب استاندارد شده ای (بتا) برای پیش بینی کننده ها وجود ندارد و هیچ R-squared تنظیم شده ای وجود ندارد. آیا می توانم فرض کنم که ضرایب استاندارد شده مانند مدل بدون خطاهای استاندارد قوی باشد؟ اگر نه، آیا کسی می داند چگونه می توانم آنها را با دست محاسبه کنم؟ من همین سوال را برای R-squared تنظیم شده دارم. هر گونه کمکی بسیار قدردانی خواهد شد! پیشاپیش از شما بسیار سپاسگزارم.
خطاهای استاندارد قوی در رگرسیون چندگانه
29168
این مقادیر عبارتند از: 18.2 17.6 ------------------------------------------------ ------------------------------------------------ -------- 18.9 18.6 ------------------------------------------------ ------------------------------------------------ -------- 20 19.7 19.8 19.6 ------------------------------------------------ ------------------------------------------------ ---------- 21.4 20.6 21 ------------------------------------------------ ------------------------------------------------ -------- 21.9 22.1 22.2 22.2 21.6 ------------------------------------------------ ------------------------------------------------ -------- 23.1 22.6 23.2 23 22.9 23.2 23.2 23 22.5 22.5 ------------------------------------------------ ------------------------------------------------ -------- 23.8 24.1 23.8 23.6 24.3 23.7 24 24.2 24.4 23.8 23.5 ------------------------------------------------ ------------------------------------------------ -------- 24.7 24.9 25 25.4 25.1 25.3 25.3 25.2 25.2 24.7 24.6 24.5 24.5 ------------------------------------------------ ------------------------------------------------ -------- 25.6 26 25.6 25.6 25.6 25.7 25.6 26.3 26.3 26.2 26 25.9 26.2 26 ------------------------------------------------ ------------------------------------------------ -------- 27 27.2 27 27.2 26.7 27 26.6 27.3 26.8 26.6 26.9 27 26.5 ------------------------------------------------ ------------------------------------------------ -------- 28.2 27.7 28.1 27.9 27.6 27.7 28.1 28.2 27.5 ------------------------------------------------ ------------------------------------------------ -------- 28.6 29.1 28.7 29.1 ------------------------------------------------ ------------------------------------------------ ---------- 30.3 29.6 29.7 29.5 ------------------------------------------------ ------------------------------------------------ -------- 30.9 31 31 30.5 ------------------------------------------------ ------------------------------------------------ --------- 32.3 31.6 ------------------------------------------------ ------------------------------------------------ --------- این گروه ها هستند: 17.5 - 18.5 - 18.5 - 19.5 - 19.5 - 20.5 - 20.5 - 21.5 - 21.5 - 22.5 - 22.5 - 23.5 - 23.5 - 24.5 - 24.5 - 25.2 - 25.2 - 25.5 - 25.5 - 27.5 - 27.5 - 28.5 - 28.5 - 29.5 - 29.5 - 30.5 - 30.5 - 31.5 - 31.5 - 32.5 قراره انحراف معیار و مقدار مورد انتظار رو محاسبه کنم ... در مقایسه با داشتن فقط 15 چقدر فرق میکنه آنها را به گروه اگر من فقط 15 مقدار داشته باشم، می دانم چگونه stand.deviation و exp.value را محاسبه کنم. من از فرمول های معروف استفاده می کنم: Exp.value: ............(1/n)*Sum(xi).............. .... جایی که xi = همه 15 مقدار <br> Stand.deviation: ...(1/(n-1))*Sum(xi - u)^2...که در آن xi = تمام 15 مقدار و u = exp.value
اگر 100 مقدار به 15 گروه تقسیم شده است (توزیع نرمال) چگونه مقدار مورد انتظار و انحراف معیار را محاسبه کنم؟
66293
فرض کنید مشاهدات مکرری روی افراد داشته‌ام که با استفاده از معادله تخمین تعمیم‌یافته (GEE) آن‌ها را تحلیل کرده‌ام. روش محاسبه فاصله پیش بینی برای مشاهدات آینده مقادیر داده شده از پیش بینی کننده ها چیست؟ من از دستورالعمل ها یا مراجع قدردانی می کنم. متشکرم.
چگونه یک فاصله پیش بینی را از خروجی معادله برآورد تعمیم یافته محاسبه کنم؟
81103
من سعی می کنم مثال 2 را از مقاله کازلا و جورج توضیح نمونه گیری گیبس در R کار کنم. مثال این است: f(x | y) = y*exp(-yx) f(y | x) = x*exp (-xy) که در آن x، y روی [0،B] تعریف می‌شوند، ایده تولید توزیع f(x) است. کد من (در زیر) کار می کند، اما چیزی که من نمی فهمم نقش بازه ای است که x و y بر روی آن تعریف شده اند. در مقاله این فاصله [0، B] است. در مثال خود، نویسندگان می‌گویند که شبیه‌سازی آنها از B = 5 استفاده می‌کند، اما من نمی‌دانم کجا باید آن را در کد خود وارد کنم... X = rep(0, 500) Y = rep(0, 500) k = 15 برای (i در 1:500) { x = rep(1, k) y = rep(1, k) for (j در 2:k) { x[j] = y[j-1]*rexp(1، y[j-1]) y[j] = x[j]*rexp(1، x[j]) } X[i] = x[k] Y[i ] = y[k] } چاپ (حداکثر (X)) چاپ (حداکثر (Y)) هیست (X، شکست=40، فرکانس=F)
نمونه‌گر گیبس برای شرطی‌هایی که نمایی هستند: نمونه‌ای از کاغذ Casella & George
31255
از _Robert (انتخاب بیزی، 2001)_، پیشنهاد شده است که تخمینگر بیز مرتبط با توزیع قبلی $\pi$ و ضرر چندخطی $(k_2/(k_1+k_2))$ شکنندگی $\pi( \theta|x)$. اثبات این است که $$ E^\pi[L_{k_1,k_2}(\theta,d|x)] = k_1\int\limits_{-\infty}^{d} (d-\theta)\pi( \theta|x)d\theta + k_2\int\limits_{d}^{+\infty}(\theta-d)\pi(\theta|x)d\theta $$ سپس با استفاده از هویت $$ \int\limits_{c<y} ( y-c)f(y)dy = P(y>c) $$ من به $$ E^\pi[L_{k_1,k_2}(\theta,d|x)] = k_2P^\pi(\theta>d|x) - k_1P^\pi(\theta<d|x) $$ اما او به $$ E^\pi[L_{k_1,k_2}(\theta,d| x)] = k_1\int\limits_{-\infty}^{d} P^\pi(\theta<y|x)dy + k_2\int\limits_{d}^{+\infty} P^\pi(\theta>y|x)dy $$ و سپس مشتق را در $d$ می گیرد. من چه چیزی را از دست داده ام و چرا او این آخرین مرحله را انجام می دهد؟ با تشکر
به حداقل رساندن خطای مطلق
96831
یک نفر با زدن 10 بار سکه برای هر نفر پشت پرده سعی دارد ادعا کند که روانی وجود دارد. n=10 p=1/2 در یک آزمون یک دنباله با سطح معنی داری 0.001 ایجاد شد. 999 نفر اول حق کافی برای رد فرضیه صفر را ندارند. اما نفر 1000 همه 10 را درست می گیرد. اگر Y تعداد افرادی از 1000 نفر باشد که هر 10 ورق سکه را درست انجام می دهند، آیا توزیع y نیز دو جمله ای خواهد بود؟ احتمال اینکه یک یا چند نفر از 1000 نفر 10 ورق سکه را به درستی حدس بزنند؟
توزیع سکه و احتمال
31253
من مکان‌های زیادی را دیده‌ام که در آن‌ها مجموعه داده‌های ورودی/خروجی دارند، جایی که ابتدا یک خط رگرسیون خطی ایجاد می‌کنند، بایاس را تصحیح می‌کنند و سپس تنها از آن داده‌ها برای مدل خود استفاده می‌کنند. من متوجه نشدم این تصحیح سوگیری چیست؟
تصحیح سوگیری چیست؟
100087
من سه نوع دمای سایت دارم: سرد، متوسط ​​و گرم. این یک اثر ثابت است - من به طور خاص در حال آزمایش هستم که آیا دما بر متغیر پاسخ من تأثیر می گذارد یا خیر. من معتقدم که نوع دما بلوک من است. من برای هر نوع دما سه سایت خواهم داشت. من فکر می کنم سایت یک اثر تصادفی است. در داخل هر سایت، من یک طرح فاکتوریل خواهم داشت که در آن دو فاکتور ثابت دیگر، A و B، متقاطع می شوند. من به تعامل هر سه اثر ثابت (tempxAxB) علاقه مند هستم. از خواندن کتاب آمار من، فکر می‌کنم که این یک طرح تقسیم شده است، اما کتاب آمار من اطلاعاتی در مورد طراحی فاکتوریل (تقاطع A و B) درون بلوک‌ها ندارد. **آیا آنچه که من به تازگی توضیح دادم یک طرح طرح تقسیم شده است یا یک ANOVA سه طرفه؟** و اگر یک طرح تقسیم شده بد بو است، آیا کسی می تواند به من یک جدول ANOVA (نحوه محاسبه مجموع مربعات) با تنظیم مشابه را نشان دهد؟ در اینجا شماتیکی از تنظیمات وجود دارد: ![Set up](http://i.stack.imgur.com/E60hm.png)
اسپلیت پلات با طرح فاکتوریل در مقابل آنالیز واریانس سه طرفه
25856
همانطور که می دانید، تولید کننده های رمز عبور زیادی برای افزایش امنیت کامپیوتر وجود دارد. فرض کنید چنین رمز عبوری به من داده شده است (مثلاً یک رشته از حروف، اعداد، نمادها و غیره)، آیا راهی وجود دارد که آزمایش کنم چقدر تصادفی است؟ آیا نوعی شاخص برای این اندازه گیری وجود دارد؟ با تشکر
تصادفی بودن رمز عبور تولید شده را آزمایش کنید؟
66749
نمی‌دانم اسم این توطئه‌ها چیست و به همین دلیل به این سؤال یک عنوان احمقانه دادم. فرض کنید من یک مجموعه داده سفارشی به شرح زیر دارم 4253 4262 4270 4383 4394 4476 4635 ... هر عدد مربوط به تعداد پست هایی است که یک کاربر خاص در یک وب سایت مشارکت داده است. من به طور تجربی پدیده نابرابری مشارکت را همانطور که در اینجا تعریف شده است بررسی می کنم. برای اینکه درک آن آسان باشد، می‌خواهم طرحی تهیه کنم که به خواننده اجازه می‌دهد به سرعت عباراتی مانند 10٪ از کاربران 50٪ از داده‌ها را مشارکت می‌دهند استنباط کند. احتمالاً باید شبیه به این طرح رنگ آمیزی بسیار کثیف به نظر برسد: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ysrzN.png) من نمی دانم چگونه این طرح نامیده می شود، بنابراین من نمی دانم بدانید کجا باید جستجو کنید همچنین، اگر کسی یک پیاده سازی در `R` داشته باشد، بسیار عالی خواهد بود.
طرح تجمعی / تجمعی (یا تجسم منحنی لورنز)
25857
اساساً، من می‌خواهم به صورت دستی آنچه را که «پیش‌بینی (princomp(somedata))» تولید می‌کند محاسبه کنم. برای انجام این کار باید ماتریس ضرایب داشته باشم تا ضرایب %*% داده های جدید مقادیر پیش بینی شده هر جزء را تولید کنند. آیا کسی می تواند به من سرنخی برای بدست آوردن ضرایب بدهد؟
چگونه ضرایب را از شی prinomp در R بدست آوریم؟
31256
از آنجایی که OLS سعی می‌کند E[Y|X] را اندازه‌گیری کند، و درخت‌های رگرسیون سعی می‌کنند داده‌ها را به شاخه‌های مختلف تقسیم کنند، سپس میانگین‌های پاسخ را در شاخه‌های مختلف در نظر بگیرند، آیا منطقی است که بگوییم درخت‌های رگرسیون به شدت بر OLS در پیش‌بینی تسلط دارند؟ همچنین، از آنجایی که OLS نسبت به موارد پرت مقاوم نیست، آیا منطقی است که بگوییم درختان رگرسیون اولین الگوریتم بهتری هستند که در یک مسئله پیش‌بینی آزمایش شوند؟ برای تفسیر، قطعا برای من منطقی است که دانستن $R^2$، ضرایب رگرسیون، مقادیر p و غیره مفیدتر از دیدن ساختار درختی است.
آیا درخت رگرسیون به شدت بر OLS در پیش بینی تسلط دارد؟
74975
من سری های زمانی دارم، به عنوان مثال، تولید ناخالص داخلی و بیکاری ('unemp'), freq= 4. اگر آن را به عنوان داده های مقطعی تفسیر کنم و به جای سری های زمانی تجزیه و تحلیل مقطعی انجام دهم چطور؟ وظیفه من این است که آزمایش کنم که بیکاری چگونه بر تولید ناخالص داخلی تأثیر می گذارد. آیا انجام چنین تحلیلی مجاز است؟ آیا ضرایب در مدل «lm(gdp~unemp)» توضیح اقتصادی دارند؟
سری های زمانی به عنوان داده های مقطعی
50383
من سعی می‌کنم مدلی به شکل زیر $$ Y = (\beta X - Z)^+ + \epsilon، $$ که $Y,Z \ge 0$ و $X,Y,Z \در \mathbb{ R}$ و $(x)^+ = \max(x,0)$. توجه داشته باشید که $Y، X$ و $Z$ از یک نمونه می آیند، به خصوص $Z$ ثابت نیست. من این کار را در R به روش زیر انجام دادم: positivePart<- function(x){ x[x<0]<-0 return(x)} my.optim = nls(y~ positivePart(beta*x-z) , start = list (بتا=5) ` من نتایج خوبی می گیرم، مشکل این نیست. سوال من: آیا نام، کلاسی برای این نوع مدل وجود دارد؟ اگر چنین است، کدام تابع R کاندیدای طبیعی برای حل این مشکل است، به عنوان مثال. برای فرموله کردن مدل در R؟ متشکرم
فرمول بندی یک مدل تقریبا خطی
34574
من یک متغیر وابسته دارم که شامل چهار دسته است. من همچنین چهار متغیر مستقل پیوسته دارم. دسته سوم بزرگترین گروه نمونه را پوشش می دهد. آیا انتخاب دسته ای که بزرگترین گروه را پوشش می دهد به عنوان عامل مرجع مهم است یا می توانم دسته دیگری را انتخاب کنم که برای مقایسه منطقی باشد؟ با تشکر فراوان برای پاسخ
آیا معیاری برای انتخاب عامل مرجع در رگرسیون لجستیک چند جمله ای وجود دارد؟
96832
من سعی می کنم یک متغیر تصادفی در دنیای واقعی را مدل کنم که تقریباً به صورت گاوسی رفتار می کند، بنابراین یک تناسب توزیع عادی معقول است اما به دور از کامل است. با این حال، من فقط به دنبال آن اهمیت می دهم، یعنی فقط به پیدا کردن $x$ مانند $P(X > x) < p$ اهمیت می دهم، با $p$ در هر جایی بین 1٪ تا 5٪. من متغیر تصادفی را به صورت $X\sim\mathcal{N}(\mu, \sigma^2)$ مدل‌سازی می‌کنم، با پارامترهایی که از همه نمونه‌ها تخمین زده می‌شوند. من سعی کردم به دنبال راه‌های خاصی برای رسیدگی به این موضوع باشم و نتایج زیادی در رابطه با نظریه ارزش افراطی به دست آوردم، اما به نظر می‌رسد که بیشتر در مورد احتمالات کوچک‌تر از آنچه من اهمیت می‌دهم یا برای توزیع‌های سنگین اعمال می‌شود، که مورد من نیست. هر اشاره ای؟
مدل سازی فقط دم
72720
من سعی می کنم الگوریتم ID3 را روی یک مجموعه داده پیاده سازی کنم. با این حال، همه ویژگی ها پیوسته هستند و می توانند مقادیری بین 1-10 داشته باشند. متوجه شدم که باید فواصل سطل را برای گسسته سازی مشخص کنیم، اما نتوانستم دقیقاً بفهمم که چگونه این کار را انجام دهیم. کسی میتونه توضیح بده که چطور میشه اینکارو کرد؟ مجموعه داده ای که من استفاده می کنم داده های سرطان پستان از بیمارستان های ویسکانسین است.
چگونه می توان ویژگی های پیوسته را در حین اجرای الگوریتم ID3 گسسته کرد؟
43753
فرض کنید من یک ماتریس $m \times n$ دارم که $m$ تعداد نقاط و $n$ تعداد ابعاد است. من می خواهم پارامتر بعد هدف را ارائه دهم که فرض کنید d است. d می تواند مجموعه ای از مقادیر مانند $\{2,4,6,\ldots,n\}$ باشد. سپس با استفاده از تحلیل تفکیک خطی فیشر به مسئله نزدیک می‌شوم تا ماتریس خروجی را بر حسب $m \times d$ به من بدهد. آیا این امکان وجود دارد؟ من هنوز نمی فهمم که چگونه LDA ابعاد را از فرضاً 10000 به 1000 کاهش می دهد.
چگونه می توانید کاری کنید که تجزیه و تحلیل متمایز خطی ابعاد را به تعداد ابعادی که به دنبال آن هستید کاهش دهد؟
34570
من یک سوال در مورد بهترین روش برای مقابله با بارگذاری متقاطع بر روی عوامل پس از انجام تحلیل عاملی اکتشافی با استفاده از چرخش پرومکس دارم. فقط برای ارائه کمی اطلاعات پس زمینه، من سعی می کنم ساختار عاملی مجموعه ای از 20 سؤال را که در مورد معنویت ایجاد کردم (بر اساس PCA که 4 مؤلفه را شناسایی کرد) تعیین کنم. پس از انجام EFA با 184 شرکت‌کننده، متوجه شدم که تعداد کمی از سؤال‌ها به دو یا سه عامل تقسیم می‌شوند. من آنلاین خواندم که شما باید سوالاتی را که بارگذاری متقاطع آنها کمتر یا مساوی 2 است حذف کنید، اما من گیج شدم زیرا چرخش مورب (پرومکس) به معنای وجود همبستگی بین نیست؟ به عنوان مثال، اگر سوال 2 روی فاکتور 1 (.234)، ضریب 2 (.346) و ضریب 3 (.212) بارگذاری شود، چه کاری باید انجام دهم؟
تحلیل عاملی اکتشافی - بارگذاری های متقاطع پرومکس و عاملی
34578
من می خواهم تابع بقا را تخمین بزنم $S(t_0)=1-F(t_0)$، در یک نقطه خاص $t_0$ که در آن $F$ یک تابع توزیع تجمعی پیوسته است، بر اساس یک نمونه بدون سانسور $x_1،..، x_n$ و یک برآوردگر ناپارامتریک. تا اینجا، من دو برآوردگر $\hat S(t_0)=1-\hat F(t_0)$ را در نظر می‌گیرم، که در آن $\hat F$ (1) تخمین‌گر چگالی هسته (2) CDF تجربی است. از چه روش های دیگری می توانم استفاده کنم؟
روش های تخمین تابع بقا
40571
من یک نظرسنجی آنلاین روی دو نامزد انجام داده ام. به شرکت کنندگان هر دو نامزد نشان داده می شود و از آنها خواسته می شود که تعیین کنند کدام یک را بهتر دوست دارند. اینها برچسب‌هایی در مقیاس لیکرت من هستند: * شدیداً برای رامنی * متمایل به رامنی * خنثی * متمایل به اوباما * شدیداً برای اوباما من می خواهم آزمایش فرضیه را روی نتایج انجام دهم و ببینم کدام نامزد مطلوب تر است. روش صحیح طراحی تحلیل چیست؟ تا کنون من فقط مواردی را که قویاً برای هر یک از کاندیداها هستند مقایسه کرده ام و مقدار شمارش را به عنوان برنده گزارش کرده ام. اما من می‌خواهم سیستماتیک‌تر باشم و آزمون فرضیه‌ها را دقیق‌تر انجام دهم. توزیع آرا مانند توزیع دوجمله ای است.
مقایسه دو جسم با مقیاس دو قطبی
50381
_**وظیفه:**_ من به عنوان مثال دارم. 1 گروه کنترل و 7 گروه آزمایش که به طور متفاوتی درمان می شوند. همه گروه ها دارای یک متغیر **دوجمله ای** وابسته هستند: 1 = موفقیت، 0 = عدم موفقیت. می‌خواهم **آزمون‌های متوالی** را که کدام نسخه بهتر «عملکرد» دارد، بین گروه کنترل و گروه‌های آزمایشی انجام دهم و زمانی که یکی از گروه‌های آزمایش بهتر از گروه کنترل باشد، تست‌ها را متوقف کنم (یا ثابت شود، که فرضیه صفر درست است). **_مشکل:_** بنابراین به نظر من **دو مشکل** بوجود می آید: ** تورم خطای آلفا I** با **آزمایش متوالی** و تورم خطای آلفا I با آزمایش **فرضیه چندگانه** (در هر نقطه زمانی) ) **_تحقیقات من تاکنون:_** **روش های متوالی گروهی**، **رویکردهای هزینه آلفا** و **SPRT** را برای حل متوالی پیدا کردم. مشکل تست و من **رویکرد به روز رسانی متوالی روشهای بیزی** را در کتاب کروشکه خواندم. برای آزمون فرضیه‌های چندگانه (در هر زمان)، تکنیک‌هایی وجود دارد که نرخ کلی خطای آلفا (در هر زمان) را کنترل می‌کنند، مانند **بونفرونی**، **روش افزایشی هوخبرگ** و غیره. اما من **نیافتم چگونه روش ها را ترکیب کنم**. با این وجود، روش‌های متوالی گروهی و همچنین رویکردهای آلفا-هزینه‌ای به نظر کمی انعطاف‌ناپذیر هستند. به‌نظر می‌رسد به‌روزرسانی SPRT و Bayesian برای نیاز به داشتن تعداد نمونه کوچک، قادر به آزمایش پس از هر شرکت‌کننده و نداشتن نقطه پایانی از پیش تعریف‌شده مطالعه، مناسب‌تر است. **به روز رسانی Bayesian** (با ROPE)، تا جایی که من می دانم، ****** چیزی شبیه **نرخ خطای آلفای قابل تعریف ** ندارد (و هیچ اصلاحی برای چندین متغیر وجود ندارد؟). SPRT همچنین از چندین متغیر پشتیبانی نمی کند. لطفا اگر اشتباه می کنم اصلاح کنید. آیا پیشنهادی دارید که کجا عمیق تر بگردیم؟ با احترام به آندریاس
تست متوالی احتمالات چندگانه (متغیرهای دوجمله ای)
25850
به خوبی شناخته شده است که اعضای عمومی در درک اعداد در اندازه معین مشکل دارند. یکی از مشکلات رایج برای افرادی که با روندهای جمعیتی ارتباط برقرار می کنند، کمک به مردم برای درک نرخ از 100000 است. این یک موضوع مهم در کمک به مردم برای درک تغییر آمارهای سلامت و جرم است. برای کسانی از شما که ارتباطات آماری را برای عموم انجام می‌دهید، چه چارچوب‌های مرجع یا سایر تشابهات و کمک‌ها را در کمک به مردم در ارائه نرخ‌ها از 100000 در چشم‌انداز موفق یافته‌اید؟ یک سوال دیگر در مورد بحثی وجود دارد که به 100000 نفر اشاره می کند که یک شهر کوچک تا متوسط ​​است، و به نظر می رسد در مورد مفید بودن یا نبودن این قیاس اختلاف نظر وجود دارد. پاسخ هایی با ذکر شواهد عالی خواهد بود، تجربیات و ایده های شخصی نیز مفید هستند. _(ص. من همچنین در حال شروع یک بحث در مورد متا در مورد اینکه آیا سوالات ارتباطات آماری مانند این را در این سایت برچسب/مجاز/تشویق کنیم)
چگونه به مردم کمک کنیم ...در هر 100000 را درک کنند؟
66745
بنابراین من در حال خواندن آموزش های آنلاین مختلف بوده ام و با مثالی مشابه کاری که می خواهم انجام دهم برخورد نکرده ام. من این مثال را در نظر گرفتم زیرا در تلاش بودم که تنها با کلمات توضیح دهم. این واقعاً اساسی است اما امیدواریم مفهوم را نشان دهد: movie_eg=data.frame(score_children=c(1.1,2.5,3.9,1.5,4.3), score_adults=c(12.5,13.1,18.1,13.1,18.8) brad_hrs=c(0.1,0.2,0.3,0.1,0.6), angelina_hrs=c(0.2,0.6,0.8,0.9,0.1), cgi_budget=c(0.9,0.1,0.2,0.3,0.8), seat_cost=c(0. 0.3،0.6،0.1،0.9)) rownames(movie_eg)=c(shrek، bourne, lockstock، scream، sharknado) بنابراین در واقعیت من بیش از 400 فیلم دارم که هر کدام با 2 نتیجه پیوسته (نمره) و 4 پیش بینی کننده اندازه گیری ها (براد، انگ، بودجه، صندلی) که همچنین پیوسته هستند. این دو نمره در بین فیلم ها همبستگی متوسطی دارند. می‌خواهم ببینم آیا ارتباط قوی بین هر/همه ارزش‌های پیش‌بینی‌کننده و دو نتیجه وجود دارد - بنابراین در اینجا، چه چیزی (اگر چیزی) روی هر دو «نمرات» تأثیر می‌گذارد؟ بنابراین، من معتقدم که «متغیرهای وابسته» دو پیامد و «متغیرهای مستقل» چهار پیش‌بینی هستند. بنابراین من این کار را انجام می دهم: `summary.aov(manova(cbind(brad_hrs,angelina_hrs,cgi_budget, seat_cost)~cbind(score_children,score_adults),data=movie_eg))` و سپس می بینم که همه مقادیر P بزرگتر از 0.05 هستند، بنابراین هیچ چیز وجود ندارد تاثیر قوی روی امتیاز؟ اما seat_cost بهترین پیش بینی کننده بود (اگرچه هنوز قابل توجه نیست)؟ پاسخ صندلی_هزینه : Df Sum Sq Mean Sq F مقدار Pr(>F) cbind(score_children, score_adults) 2 0.45417 0.227085 17.583 0.05381 . Residuals 2 0.02583 0.012915 (احتمالاً قابل ذکر است که در واقعیت «نمرات» معیارهایی برای پاسخ به دارو هستند و پیش‌بینی‌ها معیارهایی از عملکردهای مختلف سلولی هستند، بنابراین واقعاً ربطی به فیلم‌ها ندارد!)
آیا MANOVA مناسب است؟
50384
من یک سوال کوتاه در مورد متغیرهای تعامل دارم: 1. در رگرسیون لاجیت با 2 متغیر دوگانه مستقل (A و B) هر دو متغیر معنی دار هستند. با گنجاندن تعامل (AxB) در رگرسیون، B ناچیز می شود. آیا همبستگی بالا (0.6) و معنی دار بین (AxB) و B دلیل این امر است؟ و در نتیجه آیا B بر متغیر وابسته تأثیر معناداری دارد یا خیر؟ 2. با گنجاندن اطلاعات جمعیتی و متغیرهای تعاملی آنها، همه متغیرهای مهم اولیه بی اهمیت می شوند (روش ورود). آیا استفاده از روش گام به گام به جلو هوشمندانه تر است؟ با انجام این کار، متغیرهای معنادار اولیه همچنان معنادار باقی می مانند. با این حال، همه متغیرهای جدید اضافه شده در مدل گنجانده نشده است. پیشاپیش از کمک شما بسیار سپاسگزارم
مشکل با متغیر تعامل برای رگرسیون لاجیت
86333
من از proc mixed برای داده های سلسله مراتبی چندسطحی استفاده می کنم. محدوده قابل قبول برای مقادیر خطای استاندارد برای جلوه های ثابت چقدر باید باشد؟
مقادیر قابل قبول برای خطای استاندارد برای جلوه های ثابت
55350
بنابراین من اغلب موقعیتی دارم که می خواهم زمان اجرا دو فرآیند رایانه را با هم مقایسه کنم. حتی زمانی که فقط زمان کاربر + سیستم اندازه گیری می شود (برخلاف زمان ساعت دیواری) یک عنصر تصادفی در زمان اندازه گیری شده وجود دارد. من می‌خواهم فرض کنم که این تصادفی به صورت پویسون توزیع می‌شود (تکلیف سوئیچ‌ها و وقفه‌های ناشی از رویدادهای تصادفی در سیستم کامپیوتری). فرضیه من این است که یک برنامه واحد با ورودی یکسان در مدت زمانی اجرا می شود که از زمان ثابتی برای اجرای دستورالعمل ها و مقداری زمان تصادفی تولید شده توسط یک یا چند فرآیند پواسون تشکیل شده است. بنابراین بیایید فعلاً ساده کنیم و فرض کنیم که یک فرآیند پواسون وجود دارد و هر بار که اتفاق می‌افتد به همان مقدار زمان می‌پردازد. ما نه لامبدا و نه t(lambda)، زمان مرتبط با آن را می دانیم. با این حال، من می توانم چندین بار همان برنامه را روی یک ورودی یکسان اجرا کنم. چگونه می توانم قسمت ثابت زمان اجرا را تخمین بزنم؟ چگونه می توانم لامبدا و t(lambda) را تخمین بزنم؟ مسئله عمیق تر این است که ... اگر من دو برنامه داشته باشم که یک کار را انجام می دهند و بخواهم احتمال اینکه یکی سریعتر از دیگری اجرا شود را تخمین بزنم چگونه این کار را انجام دهم؟ به نظر می رسد که اعمال کورکورانه توزیع نرمال می تواند مشکل ساز باشد. بخش تصادفی (به اعتقاد من) poisson است. اما قبل از اعمال توزیع پواسون، باید بخش ثابت را فاکتور بگیرم.
محاسبه احتمال یک برنامه سریعتر از برنامه دیگر است
72721
من به دنبال انجام یک رگرسیون خطی بر روی دو متغیر مستقل هستم که در نسبت‌های متفاوتی وجود دارند. به عنوان مثال تلاش برای انجام یک رگرسیون خطی بر روی $Y$ که رفتار پرداخت (نرخ بازپرداخت) مشتریان بر اساس کیفیت (مثلا ضریب جینی) امتیازات اعتباری جدید و موجود مشتری ($X_1$ و $X_2$) است، به ترتیب) برای نسبت مشتریان جدید و موجود در نمونه تنظیم شده است. مشتریان موجود به نسبت $p$ و مشتریان جدید به نسبت $1-p = q$ حضور خواهند داشت. Y$، نرخ بازپرداخت درصدی از کل مشتریانی است که بازپرداخت می کنند. می توان آن را به صورت میانگین وزنی $Y = Y_1q + Y_2p$ بیان کرد که در آن $Y_i$ نرخ بازپرداخت مشتریان جدید/موجود است. به طور کلی مشتریان جدید بیشتر، q$$، تأثیر منفی دارد. امتیازدهی بهتر (X_1$، X_2$) و مشتریان موجود بیشتر p تاثیر مثبتی دارد. راه خوبی برای مدل سازی این چیست؟ آیا چیزی شبیه به زیر راه حل خوبی برای استفاده از $p$ و $q$ به عنوان نوعی اثر متقابل است؟ $Y = X_1+X_2+\frac{X_1}{q}+X_2 p$ آیا بهتر است p و q را نیز به عنوان متغیرها در نظر بگیریم؟
رگرسیون خطی با متغیرهای مستقل با نسبت های متفاوت
105800
من سه ساختار مختلف cRNA (ساختار A، B و C) را به تخمک ها تزریق کردم و تخمک ها cRNA های مربوطه را به عنوان کانال های یونی (کانال یونی A، B و C) بیان کردند. هدف من این بود که آزمایش کنم آیا این کانال های یونی عملکرد مشابهی دارند یا خیر. سپس، من روابط غلظت-پاسخ را برای تعیین EC50 برای هر کانال یونی اندازه‌گیری کردم (محور x غلظت cAMP (μM) است، محور y I/Imax است؛ I دامنه واقعی جریان است Imax حداکثر دامنه جریان در هنگام اشباع است. cAMP من نتایج EC50 را برای کانال یونی A = 59.01 کانال یونی B = 56.17 کانال یونی C = دریافت کردم. 61.24 باید از کدام تست استفاده کنم تا بفهمم از نظر آماری متفاوت هستند یا خیر.
کدام آزمایش برای تعیین اینکه آیا EC50 در سه رابطه دوز-پاسخ من متفاوت است یا خیر؟
72724
من می خواهم یک PDF گاوسی را ارزیابی کنم که وجود ندارد زیرا تعیین کننده سیگما تقریباً 0 یا -inf است (بستگی به پارامترها دارد) و شماره شرط از مرتبه 10^20 است. من به این چگالی نیاز دارم زیرا می‌خواهم ضرایب اختلاط خلفی را در یک مسئله معکوس با مخلوط گاوسی قبلی پیدا کنم. فرمول ضرایب اختلاط خلفی به این صورت است: $\lambda_{(x|y)}^ j= \frac{\pi_j N(\mathbf{y}; \mu_{yj}، \Sigma_{yj})} {\sum_{k=1}^n\pi_k N(\mathbf{y}; \mu_{yk}، \Sigma_{yk})}$ آیا کسی راهنمایی دارد که چگونه می توانم این ضرایب/چگالی را تقریب کنم؟ من نمونه ای از (x|y) ندارم. اما من $\mu_{x|y}^i$ و $\Sigma_{x|y}^i$ را می‌دانم. شکل کامل پسین $f(x|y)=\sum \lambda_{(x|y)}^ j N_m( \mathbf{\boldsymbol \mu_{x|y}^j,\boldsymbol \Sigma_{ است. x|. y}^j})$ جایی که $\boldsymbol \mu_{x|y}^i =\boldsymbol \mu_{x}^i + \Gamma_{xy}^i (\Sigma_y^i )^{-1}(y-\mu_{y}^i)$ $\boldsymbol \Sigma_{x|y}^i =\boldsymbol \Sigma_{x} ^i + \Gamma_{xy}^i (\Sigma_y^i )^{-1}(\Gamma_{xy}^i)^T$
ارزیابی پی دی اف گاوسی در هنگام det(Sigma)-->0
74978
اگر من در حال تماشای یک سری حساب‌ها برای تراکنش‌های ورودی و خروجی هستم، می‌خواهم متوجه تراکنش‌های غیرعادی بزرگ یا تراکنش‌های هر حساب خاصی در یک روز خاص باشم. بنابراین اگر حساب A معمولاً چند صد دلار و یک روز پنج هزار دلار جابه‌جا می‌شود، این یک مقدار پرت است. اگر حساب B معمولاً چند میلیون دلار به داخل یا خارج می‌کند و یک روز 20 میلیون دلار جابه‌جا می‌شود، این یک مقدار پرت است. کاری که من می‌خواهم انجام دهم این است که معیاری را ارائه کنم که باید نقاط پرت را برجسته کند - به تعداد انحرافات استاندارد در برابر جمعیت چرخش 60 روز گذشته فکر می‌کردم، اما نمی‌دانم که آیا این درست است یا خیر. من در حال بررسی هستم که ببینم آیا توزیع گاوسی است، اما آیا راه‌های بهتری برای رسیدن به چیزی که به دنبال آن هستم وجود دارد؟ من فکر می‌کنم این مجموعه سوالات متفاوتی را نسبت به تشخیص قوی پرت در سری‌های زمانی مالی مطرح می‌کند.
تشخیص حرکات پول نقد دور از دسترس
105804
**معرفی مختصر:** من واقعاً مطمئن نیستم که چگونه متغیرهای وابسته را در مجموعه‌ای از مدل‌های خطی سلسله مراتبی که می‌خواهم اجرا کنم به درستی رفتار کنم. در مدل‌های من، واحدهای سطح 1 کودکان و واحدهای سطح 2 مدارس هستند (ما اطلاعات کلاس درس نداریم بنابراین هیچ سطح تودرتو برای این وجود ندارد). **زمینه:** پنج مجموعه مدل وجود دارد، یکی برای هر متغیر وابسته. DVها همه معیارهای رفتاری یا شناختی هستند که در سطح 1 اندازه‌گیری می‌شوند. من از نرم‌افزار HLM 7 استفاده می‌کنم، اما به همین راحتی می‌توانم از Mplus یا R استفاده کنم. هر یک از پنج DV به یک روش ارزیابی شدند. بیایید افسردگی را به عنوان یک مثال در نظر بگیریم: این ساختار حدود 6-8 مورد داشت (به عنوان سناریو به کودکان ارائه می شود) و برای هر مورد 2 گزینه پاسخ وجود داشت که می توان آنها را به عنوان گزینه های افسردگی و 2 گزینه پاسخ طبقه بندی کرد. که می تواند به عنوان نه گزینه های افسردگی طبقه بندی شود. 2 آیتم در هر مجموعه از نظر اندازه گیری به عنوان معادل در نظر گرفته می شوند - یعنی هیچ رتبه بندی ترتیبی از کمترین به افسرده ترین. شکل نهایی پیامد افسردگی (مانند 4 پیامد دیگر) نسبتی است که می‌توان آن را به عنوان نسبت موارد/سناریوهایی که کودک به‌گونه‌ای به آن پاسخ داد که نشان‌دهنده افسردگی است، تفسیر کرد. من شخصاً از اینکه ارزیابی به این شکل انجام شد متنفرم، اما اکنون نمی توانم کاری انجام دهم. **مشکل:** با این حال، ممکن است بتوانم مجوز امتیاز دادن به ارزیابی ها را به روشی متفاوت دریافت کنم، مشروط بر اینکه بتوانم به داده های سطح مورد دسترسی داشته باشم. در حال حاضر فقط به نسبت های نهایی دسترسی دارم. بدیهی است که پیش‌فرض در HLM و سایر نرم‌افزارها این است که با نتایج به‌طور معمول توزیع شوند. تنها توزیع مناسب برای بازه [0،1] که من از آن اطلاع دارم، بتا است، و من هیچ بسته R را برای پیاده سازی HLM برای متغیرهای توزیع شده بتا نمی شناسم، و همچنین فکر نمی کنم Mplus یا HLM بتوانند این کار را انجام دهند. من سعی کردم از تبدیل logit استفاده کنم تا نسبت ها را به مقیاسی برگردانم که از نظر تئوری می توانستم آن را به صورت عادی در نظر بگیرم، اما با تنها 6-8 مورد در هر DV هنوز چیزی نسبتاً گسسته دریافت می کنم. ناگفته نماند که پاسخ‌های 0 و 1، حتی زمانی که قبل از تبدیل لاجیت ابتدا به 0.0001 و 0.9999 تبدیل می‌شوند، این مقادیر شدید را به من می‌دهند که بسیار دور از سایر مقادیر تبدیل‌شده هستند. من هیستوگرام ها را پیوست کرده ام تا منظورم را نشان دهم. **سوال:** چه روش‌های مناسبی برای درمان متغیر نتیجه در بازه [0،1] وجود دارد که وقتی می‌خواهم مجموعه‌ای از مدل‌های خطی سلسله مراتبی را اجرا کنم، فقط تعداد کمی از مقادیر مشاهده‌شده را می‌گیرد؟ من واقعاً دوست دارم از نرم‌افزار HLM 7 برای این کار استفاده کنم (P.I آن را ترجیح می‌دهد)، اما اگر بهترین راه برای درمان این نوع متغیرها فقط در R قابل پیاده‌سازی باشد، من با آن گزینه نیز راحت هستم. ![توزیع افسردگی در مقیاس اصلی](http://i.stack.imgur.com/K6YT1.png) ![توزیع افسردگی پس از تبدیل logit](http://i.stack.imgur.com/R2hh9. png)
روشی مناسب برای درمان متغیرهای توزیع شده [0،1] در HLM
86190
من یک توزیع خلفی روی مجموعه‌ای از پارامترها دارم که با $\theta = \{w, \phi, \lambda\}$ نشان داده شده‌اند و پسین توزیع مشترک با توجه به داده‌های مشاهده‌شده است، یعنی $P(\theta | D)$. در حال حاضر، این پسین یک توزیع نرمال چند متغیره است (با توجه به روش تقریبی آن). حالا می‌خواهم توزیع‌های حاشیه‌ای را از این مفصل پیدا کنم. بنابراین، برای مثال، $P(\lambda)$ را می‌توان در حاشیه‌سازی بیش از $w$ و $\phi$ یافت. آیا راه آسانی برای انجام این کار برای چنین توزیع های MVN وجود دارد؟ همچنین آیا می توانم حالت این توزیع حاشیه ای را به راحتی پیدا کنم؟
به حاشیه رانده شدن از یک توزیع
66747
من یک طیف دارم. به طور خاص، داده‌های من شدت نسبی $[I_{\tilde{\nu}}]$ در مقابل اعداد موج $[\tilde{\nu}]$ است. اعداد موج به طور مساوی نمونه برداری می شوند به طوری که ${d\tilde{\nu}} = c$، که $c$ مقداری ثابت است. با این حال، من نیاز دارم که داده ها بر حسب طول موج $\lambda = \frac{1}{\tilde{\nu}}$ ارائه شوند. وقتی این تبدیل را انجام می دهم، اندازه گام طول موج $d \lambda$ با افزایش طول موج کاهش می یابد. با این حال، من نیاز دارم که اندازه گام برای کل طیف ثابت بماند. من حدس می‌زنم که این مستلزم نوعی درون‌یابی یا برازش است. چگونه می توان نمونه برداری یکنواخت از طول موج $\lambda$ را انجام داد؟
درونیابی طیف: نمونه برداری ناهموار تا نمونه برداری یکنواخت
105802
من ماتریس متغیر وابسته $Y_{i,j}$ و ماتریس ویژگی $X_{i,k}$ دارم. هدف من این است که هر عنصر بردار $[y_{i,0},...,y_{i,J}]$ را با استفاده از مشاهدات جدید از ویژگی‌ها، $[x_{i,0}، پیش‌بینی کنم. .,x_{i,K}]$، یعنی برای تخمین $Y_{i,j} = f(X_{i,k})$. در مشکل من، همه متغیرهای وابسته ارتباط نزدیکی با هم دارند و هر متغیر وابسته معین با تعداد زیادی از ویژگی‌های موجود توضیح داده می‌شود (بنابراین برای هر متغیر وابسته، ویژگی‌های اضافی زیادی وجود ندارد). علاوه بر این، تعامل بین ویژگی‌ها احتمالاً در پیش‌بینی بردار پاسخ مهم است. نمونه ای از نوع مشکلی که من با آن روبرو هستم این است که هر متغیر وابسته طول عمر مورد انتظار گونه های مختلف ماهی باشد و ویژگی ها دمای آب، دوتایی آب نمک/شیرین، باینری دریاچه/اقیانوس، باینری برای وجود ماهی ها باشد. شکارچیان خاص، و غیره. ما یک مدل سریع می خواهیم که بتواند اینها را برای پیش بینی هر عنصر بردار ترکیب کند. راه های زیادی برای مقابله با این مشکل وجود دارد. چیزی که من به آن علاقه دارم این است که چه مدل های چند متغیری وجود دارند که هم در زمان اجرا سریع هستند (برای یک برنامه زمان واقعی است) و هم می توانند تعاملات را مدیریت کنند. من همچنین به دنبال مدلی هستم که خودکار باشد. انتخاب متغیر خودکار و انتخاب تعامل خودکار. من همچنین به دنبال رویکردی هستم که در آن نسخه چند متغیره بهتر از نصب مدل‌های جداگانه برای هر $y_{.,j}$ تعمیم می‌یابد (که می‌توان با splines، glms و غیره به آن دست یافت). پاسخ واضح جنگل های چند متغیره یا شبکه های عصبی چند خروجی و غیره است. من به دنبال یک رویکرد سریع تر هستم. به عنوان مثال، مدلی که هیچ نوع معماری «عمیق» یا تکراری ندارد که از نظر محاسباتی برای داده‌های بزرگ سنگین باشد (یک مدل چند متغیره که در تبدیل ویژگی‌ها یا تعاملات ویژگی‌ها افزودنی است ایده‌آل است). یک پاسخ خوب، اسپلاین های چند متغیره است، به دنبال موارد دیگر.
برخی از مدل های چند متغیره با تعامل ویژگی ها چیست؟
55354
من باید یک رگرسیون خطی چندگانه وزنی انجام دهم. اگر بخواهم مشاهدات خاصی را متفاوت وزن کنم، آیا درست است که باید y(i) آن مشاهده و ردیف مربوطه را در X با آن وزن ضرب کنم؟
رگرسیون خطی چندگانه وزنی
86332
چند رویکرد معمولی برای مدیریت داده های ناقص در فیلتر کالمن چیست؟ من در مورد وضعیتی صحبت می کنم که در آن برخی از عناصر بردار مشاهده شده $y_t$ گم شده اند، متمایز از حالتی که کل بردار مشاهده شده $y_t$ از قلم افتاده است. راه دیگری برای تفکر در این مورد این است که بعد $p$ بردار مشاهده شده برای هر نقطه زمانی متفاوت است. برای توضیح بیشتر زمینه من، مشاهدات پارامترهای تخمین زده شده از رگرسیون لجستیکی هستند که در هر نقطه زمانی انجام می شود. در حالی که هر رگرسیون لجستیک شامل متغیرهای کمکی یکسانی است، گاهی اوقات تخمین ها به دلیل هم خطی بودن داده ها برای آن نقطه زمانی تعریف نشده است.
چگونه داده های ناقص را در فیلتر کالمن مدیریت کنیم؟
72729
من چندین توضیحات کتاب درسی را در مورد RVM خوانده‌ام و هیچ‌کدام از آنها توضیح کافی (به زبان انگلیسی ساده) در مورد چگونگی دستیابی RVM به پراکندگی ارائه نمی‌دهند. احساس می‌کنم نویسندگان پاراگراف متنی را که نقاط را به هم مرتبط می‌کند، کنار گذاشته‌اند و در عوض تصمیم گرفته‌اند آن را با مشتقات ریاضی جایگزین کنند (به‌جای تکمیل). لطفاً کسی می تواند ایده اصلی را در مورد نحوه عملکرد RVM در رابطه با یادگیری مدل های رگرسیون پراکنده توضیح دهد؟
RVM چگونه به پراکندگی می رسد؟
103735
من چند سری زمانی را با استفاده از «fitdistr» در R برازش می‌کنم. برای اینکه ببینم چگونه توزیع‌های مختلف با داده‌ها مطابقت دارند، احتمال ورود به سیستم را از تابع «fitdistr» مقایسه می‌کنم. همچنین، من هم داده های اصلی و هم داده های استاندارد شده (یعنی (x-mean)/sd) را برازش می کنم. چیزی که من در مورد آن گیج شده ام این است که داده های اصلی و استاندارد شده احتمال ثبت علائم مختلف را ایجاد می کنند. به عنوان مثال اصل: loglik m s df t 1890.340 0.007371982 0.05494671 2.697321186 cauchy 1758.588 0.006721215 0.040891592210. 1787.952 0.007758433 0.04641496 0.007758433 استاندارد شده: loglik m s df t -2108.163 -0.02705098 0.5469259 2.697758585 - 2.69775859 -0.03361670 0.4069660 -0.03361670 لجستیک -2210.552 -0.02328445 0.4619152 -0.02328445 چگونه می توانم این را تفسیر کنم؟ loglik بزرگتر بهتر است یا کوچکتر؟ متشکرم
fitdistr loglik در R
55356
من یک مدل دو مرحله ای دارم که ضرایب مدل 1 به بردار $y$ برای مدل 2 تبدیل می شود. من برای آن ضرایب خطاهای استاندارد دارم و می خواهم مشاهدات مدل 2 را با توجه به خطای استانداردی که ضریب مربوطه داشت وزن کنم. در مدل 1. من معتقدم روش صحیح برای انجام این کار وزن کردن مشاهدات 2 در 1/SE است که در آن SE خطای استاندارد ضریب مربوطه در مدل است. 1. اکنون، داده های مدل 1 در واقع توسط من به طور مصنوعی ایجاد می شود. بنابراین می دانم که ضرایب با SE $\geq X$ کاملاً بی فایده هستند (من این را با توجه به تنظیمات خود می دانم). اکنون، در مدل 2، وزن دادن به مشاهدات بی فایده $1/\text{SE}$، با $\text{SE}\geq X$، به نظر می‌رسد که وزن آنها بیش از حد باشد، زیرا وزن واقعی آنها باید 0 باشد. آیا بهترین روش برای سنجش مشاهدات در چنین موردی است؟
یافتن وزن های صحیح با توجه به خطاهای استاندارد
55357
در برخی از مشکلات واقعی مانند احراز هویت، ما فقط داده های آموزشی برای یک برچسب داریم (x احراز هویت شده است) در حالی که برچسب دیگر هیچ داده ای ندارد یا فقط ورودی های کمی دارد (x یک جعل است). چه نوع تغییراتی را باید انجام دهیم تا یک طبقه‌بندی کننده را تنظیم کنیم تا با برچسبی که برای ورودی‌های دیگر/ناشناخته هدف گذاری شده است، مقابله کنیم؟
طبقه بندی کننده باینری با داده های آموزشی فقط برای یک برچسب
105801
من با این مشکل در کنترل کیفیت و نمودارهای p گیر کرده ام. یک فرآیند مشخص وجود دارد که به طور دوره ای از هر 100 مورد نمونه برداری می کند و تعداد معیوب را شمارش می کند. در 50 نمونه آخر در مجموع 622 مورد معیوب یافتیم. من برای محدودیت های 3 سیگما در نمودار p خوب هستم و به ویژه: $$\bar{p} = \frac{622}{50*100} = 0.1244$$$$\text{UCL} = \ bar{p} + 3\sqrt{\frac{\bar{p}(1-\bar{p})}{n}} = 0.1244+ 3\sqrt{\frac{0.1244 (1-0.1244)}{100}} = 0.2234$$$$\text{LCL} = \bar{p} - 3\sqrt{\frac{\bar{p}(1 -\bar{p})}{n}} = 0.1244+ 3\sqrt{\frac{0.1244 (1-0.1244)}{100}} = 0.0254$$ که در آن $\bar{p}$ نشان‌دهنده نسبت تخمینی نقص‌های فرآیند است که برای محاسبه محدودیت‌های کنترل استفاده می‌شود. حال، با توجه به جابجایی واقعی نسبت تخمینی عیوب از $\bar{p}، چگونه می‌توانم _میانگین تعداد نمونه‌ها را قبل از اینکه نقطه‌ای خارج از محدوده‌های کنترلی قرار گیرد (که نشانه‌ای از خارج از کنترل است) پیدا کنم. $ به $p' = \bar{p} + 0.06 = 0.1844$، به عنوان مثال، به دلیل چیزی جدید است که اکنون بر روند تأثیر می گذارد؟ من فکر می‌کنم این به میانگین طول اجرا $\text{ARL}_1 = \frac{1}{1-\beta}$ مربوط می‌شود، اما در مورد مراحل منتهی به مقدار آن کاملاً مطمئن نیستم.
میانگین تعداد نمونه ها قبل از خارج شدن از کنترل در نمودار p
44891
من یک ACF را روی تابعی در R اجرا کرده‌ام و آن را برمی‌گرداند: همبستگی‌های خودکار سری «منحنی سینوسی»، با تأخیر > > 0 1 2 3 4 5 6 7 8 9 > 10 11 > 1.000 0.257 -0.712 -0.677 0.2249 0. -0.632 -0.633 0.242 > 0.731 0.246 > سوال من این است که چگونه می توانم بفهمم این تابع از کجای محور x عبور می کند یا چگونه می توان با استفاده از این مقادیر در چه تاخیری همبستگی برابر با صفر است پیش بینی کرد.
یافتن فاصله x از مجموعه ای از مقادیر
74970
من سعی می کنم بفهمم آیا می توانم به نحوی ارزیابی کنم که آیا یک مدل به طور قابل توجهی با داده های من مطابقت دارد یا خیر؟ آنها هر دو رگرسیون ترتیبی هستند و ما یک اصطلاح تعامل اضافی را در مدل دوم معرفی کرده ایم. اکنون می خواهیم بدانیم که آیا مدل بهبود یافته است یا خیر. آیا من فقط به شاخص های برازش مدل نگاه می کنم؟ چگونه بفهمم که مدل به طور قابل توجهی بهبود یافته است؟
مقایسه دو مدل رگرسیون ترتیبی
40575
من واقعا نمی دانم چه چیزی ممکن است، و می خواهم یک اشاره گر در جهت درست باشد. با تشکر فراوان. من اندازه‌گیری‌های زمان و موقعیت را دارم که می‌تواند هر چیزی باشد، از راه رفتن شخصی، وسیله نقلیه در جاده، یا در پارکینگ، یا چاپگر در دفتر. من باید زمان سفر را برای وسایل نقلیه بین دو نقطه تعیین کنم. ممکن است مسیری پر پیچ و خم را طی کنند، یا حتی روزها طول بکشد تا از A به B بروند. یا ممکن است یک عابر پیاده یا یک وسیله نقلیه خدمات اضطراری باشند. من زمان تخمینی سفر را برای یک وسیله نقلیه معمولی در مسیر اصلی می خواهم. این تشخیص زمانی است که شخصی به اندازه کافی به آشکارساز نزدیک شود که شعاع خاصی دارد. گاهی اوقات شناسایی بسیار کمی وجود دارد، که احتمالاً به این معنی است که جاده خالی است و زمان سفر خوب است، اگرچه می تواند نشان دهنده بسته بودن جاده باشد و زمان سفر وحشتناک خواهد بود. یا ممکن است تشخیص‌های زیادی وجود داشته باشد که نشان می‌دهد ترافیک حرکت نمی‌کند، و ممکن است برای خاموش کردن جاده در صف باشد، اما سایر وسایل نقلیه با سرعت عادی حرکت می‌کنند. نمودارها شبیه نویز تصادفی هستند. ویرایش: در حال حاضر من به دو روش نگاه می کنم: 1. استفاده از محدوده بین چارکی برای دور انداختن نقاط پرت 2. استفاده از فیلتر کالمن. من فکر می کنم فیلتر راه اشتباهی است زیرا من مدلی برای زمان سفر ندارم به جز لحظه به لحظه که انتظار ندارم زیاد تغییر کند.
از کجا شروع کنیم: سری های زمانی با فاصله ناهموار، با مقادیر پرت یا تصادفی زیاد
40572
من یک سری توصیفگر دارم، برخی پیوسته، برخی گسسته و یک متغیر خروجی که دوگانه است. من چندین پارامتر دارم، اما برای سادگی، بیایید بگوییم که داده های من شبیه به این هستند: جنسیت | سن | ژنوتیپ | دوز 1 | دوز 2 | نتیجه ------|-------|------------|---------|----------- |------------ M | 32 | AABB | 150 | 30 | بله F | 65 | aaBb | 110 | 30 | بله M | 42 | AaBb | 200 | 50 | نه ... من می خواهم یک مدل پیش بینی برای تعیین ترکیب بهینه دوز 1 و دوز 2 ایجاد کنم تا نتیجه دلخواه داشته باشد. بنابراین سوال من این است که اگر من یک سوژه مذکر جدید با ژنوتیپ و سن خاص داشته باشم، بهترین ترکیب دوزهایی که با بیشترین احتمال نتیجه مثبت می دهد کدام است؟ یا، برای دیدن همه چیز برعکس، با توجه به سایر پارامترها، چه شانسی برای داشتن یک نتیجه مثبت با مجموعه ای از دوزها وجود دارد؟ فکر کردم می‌توانم از R برای ایجاد یک مدل خطی با «glm» استفاده کنم و سپس از «پیش‌بینی» برای پیش‌بینی نتیجه استفاده کنم. با این حال، من هرگز قبلاً با این نوع مشکلات برخورد نکردم و در مورد نحوه استفاده از این توابع و تفسیر نتایج آنها کمی سردرگم هستم. همچنین، من مطمئن نیستم که آیا این راه درست برای مقابله با مشکل است یا خیر. برای مثال، اجازه دهید برخی داده‌های تصادفی تولید کنیم: set.seed(12345) num.obs <- 50 جنسیت <- نمونه (c(M، F)، num.obs، جایگزین=T) سن <- نمونه( 20:80، num.obs، جایگزین=T) ژنوتیپ <- نمونه (LETTERS[1:8]، num.obs، جایگزین=T) دوز. 1 <- نمونه (100:200، num.obs، جایگزین=T) دوز.2 <- نمونه (30:70، num.obs، جایگزین=T) نتیجه <- نمونه (0:1، num.obs، جایگزین=T) داده <- data.frame(جنس=جنس، سن=سن، ژنوتیپ=ژنوتیپ، دوز.1=دوز.1، دوز.2=دوز.2، نتیجه = نتیجه 135 51 0 5 M 64 E 121 57 1 6 M 50 H 179 61 1 اکنون، من یک مدل با مدل <- glm (نتیجه ~ جنسیت + سن + ژنوتیپ + دوز.1 + دوز.2، داده = داده، خانواده = دوجمله ای) ایجاد می کنم. سوال اول: بدون هیچ دانش پیشینی از تعاملات بین توصیفگرها، **چگونه فرمول صحیح را انتخاب کنم**؟ آیا باید تعاملات مختلف را امتحان کنم و ببینم کدام مدل بهترین تناسب را دارد، به عنوان مثال. به دنبال انحراف باقیمانده یا AIC هستید؟ آیا عملکردهایی برای انجام این کار برای من وجود دارد یا باید همه ترکیب ها را به صورت دستی امتحان کنم؟ خوب، فرض کنید متوجه شدم که مدل خوب است، اکنون از «پیش‌بینی» new.data <- list(sex=factor(M, level=c(M, F))، استفاده می‌کنم، age=35، ژنوتیپ=فاکتور(C، سطوح=حروف[1:8])، دوز.1=150، دوز.2=30) نتیجه <- پیش بینی (مدل، داده های جدید، se=T) کدام می دهد: $fit 1 -2.774538 $se.fit [1] 1.492594 $residual.scale [1] 1 پس... با این چه کار کنم؟ «?predict.glm» می‌گوید «$fit» پیش‌بینی است، اما بدیهی است که این یک نوع پیش‌بینی بله/خیر نیست... چیزی که در حالت ایده‌آل به آن نیاز دارم چیزی در خطوط «89٪ بله / 11٪ نه» است. **چگونه نتیجه «پیش‌بینی» را تفسیر کنم و چگونه می‌توانم نوع نتیجه‌ای را که می‌خواهم داشته باشم؟** در نهایت، **آیا توابعی برای کاوش در فضای پارامتر وجود دارد تا نموداری با نتیجه در آن دریافت کنم. فضای دوز 1 در مقابل دوز 2؟ ** ویرایش: فقط برای روشن شدن: من دلیل خاصی برای استفاده از یک مدل خطی تعمیم یافته ندارم، این فقط چیزی است که به عنوان راه حل ممکن به ذهن من رسید. اگر کسی می تواند راه های دیگری برای حل این نوع مشکلات فکر کند، من با کمال میل از پیشنهاد او استقبال می کنم!
پیش بینی یک متغیر دوگانه
6636
(از mathoverflow.net به اینجا هدایت شده است) سلام، در محل کار از من پرسیده شد که احتمال قطع شدن یک کاربر در وب سایت وجود دارد. من برخی از معیارهای زیر را دارم. کل خرابی سیستم = 500000 ثانیه در سال. مجموع ثانیه ها در سال = 31,556,926 ثانیه. بنابراین، p از سیستم پایین = 0.159 یا 1.59٪ ما همچنین می توانیم فرض کنیم که خرابی به طور مساوی برای یک دوره تقریباً 2 ساعت در هفته رخ می دهد. در حال حاضر، در اینجا بخش روی حیله و تزویر است. ما یک معیار برای تعداد کل کاربرانی که سعی در استفاده از این سرویس دارند = 16,000,000 در یک بازه زمانی مشابه داریم. با این حال، این موارد در کل زمان صرف شده برای استفاده از سرویس تقسیم می شوند. بنابراین، فرض کنید 7،000،000 کاربر داریم که بین 0 تا 30 ثانیه برای استفاده از این سرویس صرف می کنند. بنابراین برای این کاربران احتمال ضربه زدن به سیستم زمانی که در دسترس نیست چقدر است؟ (اگر این کارها را ساده کند، می توانیم میانگین کل 15 ثانیه را فرض کنیم) من نسبت شانس و عوامل خطر را جستجو کردم، اما مطمئن نیستم که چگونه احتمال وقوع رویداد را محاسبه کنم. پیشاپیش متشکرم P.S. پاسخ احتمالی در http://mathoverflow.net/questions/52816/probability-calculation-system-uptime- likelihood-of-occurence به من داده شد و از توصیه های مربوط به ارسال سؤال در مناسب ترین انجمن پیروی می کردم.
محاسبه احتمال، زمان به کارگیری سیستم، احتمال وقوع
92062
من سعی می‌کنم مجموعه‌ای از داده‌های غیرصحیح پیوسته غیرمنفی را تجزیه و تحلیل کنم (یعنی نقاط داده شمارش نمی‌شوند) که عمدتاً بین 0 و 3 هستند که توزیع آن‌ها حتی پس از تبدیل log بسیار به راست است. من فکر می کنم که یک احتمال ممکن است مدل مانعی برای مدل سازی نقاط صفر و مثبت به طور جداگانه باشد، اما آیا کسی می تواند گزینه های ممکن دیگری را پیشنهاد دهد؟ متغیرهای کمکی شامل متغیرهای پیوسته طبقه ای و غیر منفی می باشند.
انتخاب مدل برای نتیجه منحرف راست پیوسته غیرمنفی و مثبت
100357
من اخیراً با استفاده از چند متن مقدماتی مشغول مطالعه آمار هستم. مسئله من این است که این متون فقط روش های تحلیلی را ارائه می دهند که برای روابط خطی مناسب هستند: ضرایب همبستگی پیرسون r و غیره. سوال من این است که چه ابزارها، روش ها و تکنیک هایی برای تجزیه و تحلیل آمارهای غیر خطی و غیر گاوسی قابل استفاده است، با این سوال که از چه منابعی (به ویژه کتاب ها/کتاب های درسی) می توانم برای آشنایی با این روش ها استفاده کنم؟
آمار غیر خطی؟
50389
من در حال انجام یک کار رگرسیونی هستم، جایی که سعی می‌کنم گاوسی‌های چند متغیره زیربنایی را از مجموعه‌ای از بردارهای $n$، $p$-بعدی کشف کنم. به عنوان مثال، با تقسیم مجموعه به $S_i$ و $S_j$، من میانگین نمونه و ماتریس کوواریانس (${\sum}_{i,j}$) را محاسبه می‌کنم و تصمیم می‌گیرم که بهترین تقسیم بر اساس افزایش اطلاعات (تعریف شده توسط آنتروپی ($log(det({\sum}_{i,j}))$). و سپس روی زیر مجموعه‌های $S_i$ و $S_j$ بازگشت می‌کنیم. من هستم تلاش برای تعریف چند معیار توقف برای این الگوریتم، که اساساً باید این باشد که وقتی واریانس توزیع به اندازه کافی کوچک است (مطمئن نیستم چگونه این آستانه را تعریف کنیم) متوقف شود تا از تطبیق بیش از حد با داده های آموزشی جلوگیری شود. 1) چگونه می توانم اندازه گیری واریانس کلی را بدست بیاورم، آیا فقط $trace({\sum})$ است؟ 2) چگونه می توانم یک آستانه مناسب انتخاب کنم؟ با تشکر
اندازه گیری واریانس کلی از گاوسی چند متغیره
92063
من روی پروژه‌ای کار می‌کنم که از من می‌خواهد ویدیوی ورزشکاران را تماشا کنم و صافی/صافی/مواج بودن ستون فقرات آنها را هر اصطلاحی که قابل قبول است اندازه‌گیری کنم. تقسیم ستون فقرات به قطعات نیز ممکن است قابل قبول باشد اگر بهترین نتایج را ارائه دهد. در حال حاضر می توانم نقاط x و y را روی تصاویر ثابت رسم کنم. مطمئن نیستم قدم بعدی من چه خواهد بود. اقدامات ساده مانند انحنا و شعاع اگر دایره‌های کوچک درست کنم کار نمی‌کند زیرا ممکن است سوژه در تصویر نزدیک یا دور باشد و نتایج را منحرف کند. من دوست دارم خروجی نوعی نسبت باشد.
صافی / موج دار بودن خط
100350
اینجا به کمک نیاز دارم من برخی از داده ها را دارم که در آنها هر ورودی می تواند یک یا چند سطح از یک متغیر طبقه بندی را بگیرد. به عنوان مثال، من یک دسته با 3 سطح دارم: دسته ورودی 1 A, B, C 2 B 3 C, A, B چگونه باید آن را در یک فایل سازماندهی کنم تا به راحتی اجازه دهم R بین سطوح تمایز قائل شود تا تجزیه و تحلیل خود را انجام دهم. . چیزی شبیه به این: دسته بندی ها other_results را وارد می کند A 2 ~ B 3 ~ C 2 ~ من به انجام یک لیست جدا شده با کاما فکر کردم، همانطور که در مثال 1 نشان داده شده است. اما پس برای تبدیل آن رشته به دسته ها باید در R چه کاری انجام دهم؟ توضیح: مایلم از ایجاد ستون برای هر سطح اجتناب کنم. این متغیر دارای سطوح زیادی است و متغیرهای زیادی در حال حاضر وجود دارند. این باعث می شود که فایل بیهوده بزرگ شود و به راحتی توسط انسان قابل خواندن نباشد. با تشکر
برای تجزیه و تحلیل R آسان، داده ها را با سطوح مختلف یک متغیر طبقه بندی در هر ورودی سازماندهی کنید
72726
من مشکل زیر رو دارم من گروهی از کلمات دارم که همه جایگشت یکدیگر هستند. در یک مجموعه داده تصادفی از توالی های DNA می توانم توزیع تعداد دفعات کلمه را محاسبه کنم. در مجموعه داده‌های بیولوژیکی من می‌خواهم واژه‌های رخداد را با توزیع آن‌هایی که روی داده‌های تصادفی هستند مقایسه کنم. نتیجه نهایی من باید فهرستی از جایگشت هایی باشد که به طور قابل توجهی غنی شده اند. (دم توزیع داده های واقعی در مقابل توزیع داده های تصادفی کمی متفاوت خواهد بود) با توجه به توزیع تصادفی (نوع ناشناخته، اساساً یک تابع با ارزش مثبت با حداکثر حدود 1 و یک دنباله بلند در سمت راست) من می توانم مقادیر p را برای هر کلمه در گروه محاسبه کنید، اما فکر می‌کنم این ممکن است به این معنی باشد که من به یک تصحیح فرضیه چندگانه نیاز دارم، اگرچه می‌توانید بیان کنید که فرضیه‌ها به وضوح وابسته هستند. ما می توانیم این مشکل را در یک مشکل تاس قرار دهیم. فرض کنید یک قالب با N طرف داریم و آن را به تعداد T بار می چرخانیم. در ادامه سعی می‌کنیم ارزیابی کنیم که آیا برخی از طرف‌ها بسیار بیشتر از آنچه انتظار می‌رود رخ می‌دهند یا خیر. این منجر به N فرضیه می شود که در آن بررسی می کنیم که آیا وقوع سمت N بسیار بیشتر از حد انتظار است یا خیر. این فرضیه ها مستقل نیستند زیرا وقوع یک طرف بر طرف دیگر تأثیر می گذارد. در این صورت آیا می توان بیان کرد که قالب نسبت به زیر مجموعه ای از اضلاع تعصب دارد؟ اگر امکان استفاده از p-value وجود ندارد، (به دلیل تعدد هیپ کور)، آیا منطقی است که از p-value به سادگی به عنوان مکانیزم رتبه بندی استفاده کنیم؟ با تشکر فراوان برای هر گونه کمک ارائه شده!
یک آزمایش با فرضیه‌های فراوان (وابسته!) برای پیش‌بینی موتیف در توالی‌های DNA
110924
فرض کنید من در طول یک فصل برای گروهی از ورزشکاران در دوی 800 متر مشاهدات زمانی مکرر را انجام داده ام. ** من می خواهم این فرضیه را آزمایش کنم که همه زمان ها از یک توزیع نامشخص یکسان گرفته می شوند (یعنی توزیع زمان های پایان هر ورزشکار همه یکسان است). ** تعداد آزمایشات برای هر ورزشکار ممکن است تا حدودی متفاوت باشد. . من مایلم فرض کنم که ورزشکاران از طریق نوعی اثر رقابتی بر یکدیگر تأثیر نمی گذارند (باب سریعتر نمی دود زیرا بیل جلوتر است)، اما عملکرد هر ورزشکار در طول زمان با هم مرتبط است. آیا آزمون فرضیه ساده ای وجود دارد که بتواند این موضوع را مدیریت کند؟ اولین تمایل من یک آزمون K-Sample Anderson Darling یا آزمون رتبه برابری جمعیت Kruskal-Wallis بود، اما مطمئن نیستم که آیا می توان از آنها در داده های پانل استفاده کرد زیرا عملکرد هر ورزشکار در طول زمان مستقل نیست. من فقط دیده‌ام که این آزمایش‌ها برای گروه‌هایی در یک مقطع، مانند آزمایش برابری توزیع درآمد متوسط ​​در هر چهار منطقه سرشماری به طور همزمان با داده‌های سطح ایالت ایالات متحده اعمال می‌شوند. در عوض، آیا می‌توانم از اینها برای آزمایش اینکه آیا توزیع درآمد متوسط ​​هر ایالت در طول زمان شبیه توزیع‌های سایر ایالت‌ها است یا خیر استفاده کنم؟
چند نمونه تست برابری توزیع ها برای داده های تابلویی
105808
من یک RBM را با موفقیت پیاده‌سازی کرده‌ام و آن را با CD-k آموزش داده‌ام، اما اکنون مشکلاتی در انجام همین کار با Convolutional RBM دارم. محاسبه گرادیان های بایاس مرئی و پنهان آسان است: v1 - v2 برای بایاس مرئی و h1_k - h2_k برای بایاس پنهان. اما من نتوانستم ببینم چگونه گرادیان ها را برای وزن ها محاسبه کنم. وزن ها ماتریس های NH x NH هستند. در RBM آسان بود زیرا ماتریس وزن بعد NH * NV بود و با ضرب h1 * v1 - h2 * v2 می‌توانیم شیب‌ها را داشته باشیم، اما بعد در CRBM معادل نیست. قانون محاسبه گرادیان چیست؟ یا راه دیگری برای به روز رسانی وزنه ها وجود دارد؟ احتمالاً یک پیچیدگی است، اما من نمی توانم ببینم چگونه ...
چگونه می توان گرادیان وزن را برای RBM کانولوشن با CD محاسبه کرد؟
92068
من یک نمونه $x=(4، 3، 1، 2، 2، 2، 2، 5، 7، 3، 1، 2، 3، 4، 3، 2، 3، 3، 3، 4) دلار دارم اندازه $n=20$. از یک توزیع دو جمله ای با 10 آزمایش و احتمال موفقیت $p$. از من خواسته شده است که فاصله اطمینان مجانبی 95% را بر اساس احتمال ایجاد کنم. من فکر می کنم این باید مجموعه $$ C = \left\\{ p \in (0,1) باشد: \prod_{i=1}^{n} p^{x_i} (1-p)^{10- x_i}\geq \exp(-q/2) \prod_{i=1}^{n} (\overline{x}_n/10)^{x_i} (1-\overline{x}_n/10)^{10-x_i} \right\\} $$ که در آن q مقدار $0.95$ توزیع $\chi^2_1$ است. اگر گزارش‌های هر دو طرف را بگیرم، نابرابری \begin{align*} &n\overline{x}_n\log p + (n10 - n\overline{x}_n)\log(1-p) \\\ & می‌شود. \quad \quad \geq -q/2 + n\overline{x}_n\log(\overline{x}_n/10) + (n10 - n\overline{x}_n)\log(1-\overline{x}_n/10) \end{align*} اگر داده‌ها را وصل کنم، $59 می‌شود\log p + 141\log(1- p) \geq -123.2343 $$ مشکل این است که این نابرابری برای هیچ $p \in (0,1)$ برآورده نمی شود، به این معنی که مجموعه اطمینان $C$ خالی است ویرایش: جمله قبلی نادرست است. من این تابع را در مقیاسی بسیار بزرگ ترسیم می‌کردم تا متوجه شوم که برای مدت کوتاهی بالاتر از -123.2343 دلار است. فکر می کنم سوال در عنوان هنوز پابرجاست. آیا من کار اشتباهی انجام می دهم؟ ویرایش: آیا چیزی شبیه به این http://stats.stackexchange.com/a/41003/42850 در اینجا در حال انجام است؟
فاصله اطمینان مجانبی خالی؟
92067
با توجه به $T=G+A$ که $A$ و $G$ متغیرهای تصادفی مستقل هستند، می‌خواهم توزیع $G$ را با توجه به توزیع‌های تجربی (اندازه‌گیری شده) $T$ و $A$ تخمین بزنم. توجه داشته باشید: هر سه متغیر تصادفی تضمین می‌شوند که در $[0,\infty]$ محدود می‌شوند (برخلاف مورد مطالعه‌شده‌تر که در آن $A$ یک گاوس میانگین صفر است). من می‌دانم که این یک دکانولوشن است، و من دو دکانولوشن مختلف را با موفقیت کمی امتحان کرده‌ام. قبل از جداسازی، اکثر مراجع توصیه می‌کنند که چگالی‌های تجربی (در این مورد، $T$ و $A$) را با استفاده از تخمین چگالی هسته به شکل‌های نرم‌تر تبدیل کنید. من اینها را به ترتیب $P_T$ (سیاه) و $P_A$ (قرمز) می نامم. سپس من دو روش دکانولوشن را امتحان کردم. (1) محاسبه $\mathcal{F}^{-1}(\mathcal{F}(P_T)/\mathcal{F}(P_A))$ با استفاده از توابع fft و ifft matlab. (سبز) (2) محاسبه ماتریس deconvolution برای $A$ و استفاده از روش SVD کوتاه برای حل $P_G$. (آبی) ![Deconvolution](http://i.stack.imgur.com/S0mLe.jpg) تقریباً مطمئناً شکل کلی هر دو راه حل صحیح است، به جز.. (1) هر دو به طور قابل توجهی نوسان می کنند، در حالی که $P_G صحیح است. $ نمی شود، و (2) هر دو دکانولوشن اعداد منفی به من می دهند. به نظر می رسد که باید راهی برای اعمال مثبت بودن $G$ وجود داشته باشد، اما من مطمئن نیستم که چگونه. افکار؟
انحراف مجموع منجر به اعداد منفی می شود
6630
من به راهنمایی در مورد سطح مناسب ادغام برای استفاده برای آزمون تفاوت میانگین در داده های سری زمانی نیاز دارم. من نگران تکرار شبه زمانی و فداکاری هستم که به نظر می رسد در این برنامه در تنش است. این به جای یک آزمایش دستکاری به یک مطالعه قاعدگی اشاره دارد. **یک تمرین نظارتی را در نظر بگیرید**: سیستمی از حسگرها محتوای اکسیژن محلول (DO) را در بسیاری از نقاط در عرض و عمق یک حوض اندازه گیری می کند. اندازه‌گیری‌ها برای هر حسگر دو بار در روز ثبت می‌شوند، زیرا مشخص است که DO در طول روز متفاوت است. این دو مقدار برای ثبت یک مقدار روزانه به طور میانگین محاسبه می شوند. هفته ای یک بار، نتایج روزانه به صورت مکانی جمع می شوند تا به یک غلظت DO هفتگی برای کل حوض برسند. این نتایج هفتگی به صورت دوره‌ای گزارش می‌شوند، و نتایج جمع‌آوری‌شده - هفتگی میانگین می‌شوند تا غلظت DO ماهانه برای حوضچه بدست آید. نتایج ماهانه به طور میانگین برای ارائه یک مقدار سالانه محاسبه می شود. میانگین‌های سالانه برای گزارش غلظت‌های DO دهه‌ای برای حوضچه به طور میانگین محاسبه می‌شوند. هدف پاسخگویی به سوالاتی از این قبیل است: آیا غلظت DO حوضچه در سال X بیشتر، کمتر یا با غلظت سال Y برابر بود؟ آیا میانگین غلظت DO در ده سال گذشته با دهه قبل متفاوت است؟ غلظت DO در یک حوضچه به بسیاری از ورودی های بزرگ پاسخ می دهد و بنابراین به طور قابل توجهی متفاوت است. آزمون معناداری لازم است. روش استفاده از آزمون T مقایسه میانگین هاست. با توجه به اینکه مقادیر دهگانه میانگین مقادیر سالانه و مقادیر سالانه میانگین مقادیر ماهانه هستند، این امر مناسب به نظر می رسد. ** سوال اینجاست ** - می توانید میانگین ده ساله و مقادیر T آن میانگین ها را از مقادیر DO ماهانه یا از مقادیر DO سالانه محاسبه کنید. البته میانگین تغییر نمی کند، اما عرض فاصله اطمینان و T-value تغییر می کند. با توجه به مرتبه قدر بالاتر N که با استفاده از مقادیر ماهانه به دست می آید، اگر در آن مسیر بروید، CI اغلب به طور قابل توجهی سفت می شود. این می تواند نتیجه معکوس در مقایسه با استفاده از مقادیر سالانه با توجه به اهمیت آماری یک تفاوت مشاهده شده در میانگین ها، با استفاده از آزمون یکسان بر روی داده های یکسان به دست دهد. **تفسیر مناسب از این اختلاف چیست؟** اگر از نتایج ماهانه برای محاسبه آمار آزمون برای تفاوت در میانگین‌های دهه‌ای استفاده می‌کنید، آیا با تکرار شبه زمانی مخالف هستید؟ اگر از نتایج سالانه برای محاسبه آزمون های دهگانه استفاده کنید، آیا اطلاعات را قربانی می کنید و در نتیجه شبه تکرار می کنید؟
چه وضوح زمانی برای آزمون اهمیت سری زمانی؟
110928
من با مجموعه داده‌ای کار می‌کنم که شامل نرخ‌های تخریب پروتئین‌ها در یک ارگانیسم است، در مجموع حدود 3750 نرخ. به دست آوردن این نرخ ها دشوار است، بنابراین اکثر نرخ ها تنها با n=1 گزارش شده اند، با این حال یک زیر مجموعه کوچک با n=2 گزارش شده است، بنابراین انحراف استاندارد نمونه برای هر پروتئین را می توان (ضعیف) از این تخمین زد. این نرخ‌ها از جمعیت زیادی از سلول‌ها نمونه‌برداری می‌شوند، بنابراین منطقی است که بگوییم هر گونه واریانسی تجربی است و نه ناشی از واریانس بین سلول‌ها. سوال من این است: اگر همه خطاها به دلیل خطای آزمایشی باشد، و بنابراین احتمالاً از همان توزیع گرفته شده است، آیا منطقی است که سعی کنیم توزیع خطا را استنتاج کنیم و سپس آن را به پروتئین هایی که سرعت آنها فقط یک بار نمونه برداری شده است تعمیم دهیم؟ از طرف دیگر، آیا من یک ترفند را از دست داده‌ام و واقعاً باید کاری کاملاً متفاوت انجام دهم! من آموزش آماری رسمی زیادی ندارم، بنابراین در اینجا کمی ضرر دارم. پیشاپیش ممنون
آیا می توان خطاهای تجربی را از یک نمونه فرعی از یک جمعیت برون یابی کرد؟