_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
22857
|
فرض کنید من نمونه ای از رویدادها را دارم که توسط تعداد معینی از سوژه ها انجام شده است، و برخی (اگرچه نه بیشتر) از این سوژه ها بیش از یک رویداد را پشت سر گذاشته اند. من میخواهم یک مدل لاجیت را برای این دادهها تطبیق دهم تا بفهمم کدام ویژگیها باعث میشوند که یک موضوع، در طول یک دوره زمانی دلخواه، در یک بازه زمانی دلخواه پس از یک رویداد قبلی، یک رویداد دیگر را تجربه کند - مثلاً سه روز. همانطور که من آن را می بینم، می توانم داده های خود را به یکی از دو روش تنظیم کنم: * تمام رویدادهایی را که هر موضوع تحت آن قرار گرفته است را در نظر بگیرم، و متغیر وابسته/شاخص را به صورت بله/خیر تعریف کنم تا آیا این موضوع رویداد دیگری در داخل داشته باشد. 3 روز از یک رویداد قبلی، در طول سال گذشته (مثلا)؟ در این حالت، هر ردیف از دادههای مدل با هر موضوعی مطابقت دارد و مجموعهای از تاریخچه رویداد آنها خواهد بود. * تاریخچه رویداد هر موضوع را به جفت تقسیم کنید و متغیر وابسته را به صورت بله/خیر تعریف کنید آیا این موضوع در عرض 3 روز از این رویداد خاص رویداد دیگری داشته است؟ در این مورد، هر ردیف با هر رویداد در داده مطابقت دارد. با این حال، سه نتیجه وجود دارد: 1) آزمودنی یک رویداد دیگر در عرض 3 روز دارد. 2) آزمودنی در عرض بیش از 3 روز رویداد دیگری داشته باشد. و 3) موضوع هیچ رویداد دیگری ندارد. آیا می توانم 2) و 3) را در یک نتیجه جمع کنم یا بهتر است به جای آن از یک مدل لاجیت چند جمله ای استفاده کنم؟ من به سمت گزینه دوم متمایل هستم، اما نگران هستم که سوژه هایی که رویدادهای نسبتاً بیشتری را پشت سر می گذارند در مدل نهایی بیش از حد نشان داده شوند (اگر باید با آن برخورد کنم؟). با این حال، فکر میکنم از این طریق اطلاعات بیشتری به دست میآورم. به هر حال، با این گفته، من دوست دارم بینش هایی در مورد مزایا/معایب هر رویکرد برای تنظیم این داده های خاص برای یک مدل لاجیت بشنوم.
|
چگونه باید داده های خود را برای یک مدل لاجیت تنظیم کنم؟
|
49363
|
من برای خیس شدن پاهایم با یک پروژه یادگیری ماشینی درد داشتم، و یکی را پیدا کردم که باید نسبتاً ساده باشد و در واقع ارزش تجاری غیر قابل چشم پوشی برای سازمان من دارد. افراد بازاریابی باید برای معیارهای خود فعالیت رباتها را از دادههای ردیابی ما با دست حذف کنند. من میخواستم مقداری داده را از GA بیرون بکشم و از آنها بخواهم یک مجموعه داده بسازند (bot، not-a-bot). احتمالاً 5 تا 10 دسته (عددی) وجود دارد که باید الگوریتم را آموزش دهیم، و مجموعه دادهها را میتوان به اندازهای که افراد بازاریابی اشتها دارند ساخته شود. من کمی مطالعه انجام داده ام و کمی با RapidMiner/Knime/Weka بازی کرده ام. من قصد دارم همه چیز را در پایتون، با scikits-learn انجام دهم، احتمالاً در جایی که باید در R کار کنم. سوالات من: 1. آیا این یک مشکل در واقع به این راحتی نیست؟ 2. با توجه به تعداد دسته ها، مجموعه آموزشی در حدود چقدر باید باشد؟ 3. با توجه به مشکل، با چه الگوریتم هایی شروع کنم؟ 4. آیا شخص دیگری در مورد شناسایی ربات یادگیری انجام داده است؟ چگونه کار کرد؟ آیا من از درخت اشتباهی پارس می کنم؟ پیشاپیش با تشکر از جامعه
|
یادگیری ماشینی ساده: تشخیص ربات
|
22856
|
من به دنبال ایجاد مجموعه ای از 5 متغیر تصادفی و اعمال یک ساختار وابستگی بین آنها و بر روی یک متغیر وابسته Y هستم. من می دانم که چگونه متغیرهای تصادفی همبسته را برای نرمال چند متغیره تولید کنم، اما نه در هنگام مخلوط کردن انواع مختلف. در زیر کمی بیشتر از آنچه نیاز دارم آمده است، اما امیدوارم کسی بتواند یک راه کلی برای حل این مشکل به من بدهد... * X_1 و X_2 باید متغیرهای برنولی بسیار همبسته باشند. * X3 باید یکی از 5 مقدار طبقهبندی را بگیرد، آنها را A...E بنامید. * X4 باید نرمال باشد و با X1، X2 همبستگی منفی داشته باشد. * X5 باید نمرات آزمون را از 0 تا 100 تقریبی کند، بنابراین احتمالاً گاما. X5 باید با X1، X2، X4 همبستگی مثبت داشته باشد. هر یک از این متغیرها باید بر روی متغیر توزیع شده برنولی Y موفقیت/ وقوع تاثیر بگذارد. چگونه شروع کنم؟ من می خواهم همبستگی را بین مقادیر X و همچنین بین هر X و Y اعمال کنم.
|
چگونه داده های آزمون همبسته ای را تولید کنیم که دارای برنولی، طبقه بندی و بردار پیوسته (در R) باشد؟
|
3165
|
فرض کنید یک نمودار ایجاد کردیم، با برچسبها: plot(1، xlab = متن، ylab = متن ضربدر سه) # متن خیلی کوچک در این طرح هنوز منطقه آزاد زیادی برای بزرگنمایی متن وجود دارد. ما میتوانیم این کار را با استفاده از cex.lab انجام دهیم، مانند این: par(cex.lab = 2) plot (1، xlab = متن، ylab = متن ضربدر سه) سوالات: 1. آیا راهی برای دانستن چیست؟ آیا بزرگترین cex.lab ممکن است، بدون اینکه متن از مرزها عبور کند؟ 2. آیا می توان این کار را به طور جداگانه برای هر جزء از محور انجام داد؟ (بنابراین برای داشتن یک اتصال متفاوت از cex.axis به xlab در مقابل ylab)؟
|
چگونه cex.axis را به طور خودکار محاسبه کنیم تا به حداکثر عرض ممکن (در R) برسد؟
|
22850
|
به نظر می رسد که WinBUGS مشکل دارد **اگر فقط تساوی صفر از یک توزیع دوجمله ای داشته باشد**: **1. case - مدل ساده** برای (i در 1:سایت ها) { N[i] ~ dpois(lambda) for (j در 1:نمونه) { y[i، j] ~ dbin(p، N[i]) } } اگر همه مقادیر `y[i,]` صفر باشند، پیغام خطای زیر ظاهر می شود: > **مقدار ترتیب دوجمله ای y[53,1] باید بزرگتر از zero** **ویرایش:** توجه داشته باشید که N[i] در داده های تولید شده در هنگام خرابی صفر نبود. **2. مورد - مدل حذف پیشرفته** برای (i در 1:سایتها) { M[i] ~ dpois(lambda) برای (j در 1:نمونه) { y[i، j، 1] ~ dbin(p، M[i ]) after_removal[i، j] <- M[i] - y[i، j، 1] y[i، j، 2] ~ dbin(p، after_removal[i, j]) } } در اینجا به نظر می رسد که اگر مقدار `y[i, j, 2]` صفر باشد، پیغام خطا (همان مورد 1) ظاهر می شود! توجه داشته باشید که در این مورد، من یک راه حل پیدا کردم: من مدل را به مدل دیگری که **امیدوارم** معادل آن است، مجددا پارامتری کردم: for (i در 1:sites) { M[i] ~ dpois(lambda) for (j in 1:نمونه) { y[i، j، 1] ~ dbin(p، M[i]) obs[i، j] <- y[i، j، 1] + y[i، j، 2] obs[i، j] ~ dbin(p_komb، M[i]) } } p_komb <- p + (1 - p) * p ... به هر حال توضیح، راه حل تمیز و راه حل برای مورد 1 می خواهد: ## چرا این اتفاق می افتد؟ آیا این یک باگ WinBUGS است؟ چگونه می توان آن را نادیده گرفت؟ من WinBUGS 1.4.3 (اوت 2007) را با پچ imortality نصب کرده ام. در زیر کامل است **کد قابل تکرار برای R و بسته R2WinBUGS (با تولید داده) **: **1. case** به سایت های (vcd) نیاز دارد <- 120 # 60 mean_N <- 16 N <- rpois(sites, mean_N) p <- 0.4 نمونه <- 3 # 3 y = ماتریس (nrow = سایت ها، ncol = نمونه) برای ( i در 1:sites) { y[i،] = rbinom(نمونه، N[i]، p)} y[20,] = 0 sink(tmp_bugs/model.txt) cat( model { # احتمال برای (i در 1:sites) { N[i] ~ dpois(lambda) for (j in 1:sample) { y[i، j] ~ dbin(p، N[i]) } } # پارامتر مشتق شده Ntot <- sum(N[]) # priors p <- 1/(1+exp(-logit_p)) tau <- 1/(4 * 4) logit_p ~ dnorm(0, tau) lambda ~ dunif(0, 100) } ) sink() win. data = list(y = y، نمونه = نمونه، سایت ها = سایت ها) #win.data = list(y = y) #inits = تابع () { list(N = اعمال(y, 1, max), p = mean(apply(y, 1, mean)/apply(y, 1, max))) } inits = function () { list(N = application(y، 1، max)، logit_p = rnorm(1، 0، 4)) } params = c(N، p، Ntot، lambda) ni <- 500 nt <- 12 nb <- 200 nc <- 3 out <- اشکالات (win.data، inits، params، model.txt، nc، ni، nb، nt، bugs.directory = bugs.dir، کار می کند. فهرست = چسباندن(getwd()، /tmp_bugs/، sep = )، اشکال زدایی = TRUE ) print(out, dig = 3) par(mfrow = c(2, 2)) hist(out$sims.list$p، breaks = 100) abline(v = out$mean$p، col = قرمز، lwd = 2) abline (v = p، col = سبز، lwd = 2) #lines(quantile(out$sims.list$p, c(0.025, 0.975))، rep(sum(par(usr)[3:4]*c(0.9,0.1))، 2)، lwd = 2) خطوط (quantile(out$sims.list$p, c(0.025 , 0.975))، rep(par(usr)[3]، 2)، lwd = 4) legend(topleft، c(تخمینی، واقعی، 95% اعتبار. int.)، col = c (قرمز، سبز، سیاه)، lty = 1، box.lty = 0، cex = 0.7) #hist(mean(y) / out$sims.list$ p، شکست = 1000، xlim = c(0، 50)) hist(out$sims.list$Ntot، شکست = 100) abline(v = out$mean$Ntot، col = قرمز، lwd = 2) abline(v = مجموع(N)، col = سبز، lwd = 2) #lines(quantile(out$sims.list$Ntot، c( 0.025، 0.975))، rep(sum(par(usr)[3:4]*c(0.9,0.1))، 2)، lwd = 2) خطوط (quantile(out$sims.list$Ntot، c(0.025، 0.975))، rep(par(usr)[3]، 2)، lwd = 4) legend(topright، c( تخمین کل N، N کل واقعی، 95% اعتبار بینالمللی.)، col = c(قرمز، سبز، سیاه)، lty = 1, box.lty = 0, cex = 0.7) **2 مورد** (یکی از «y[i, j, 2]» احتمالاً صفر خواهد بود؛ اگر نه، می توان آن را مستقیماً اختصاص داد) (vcd). ) سایت ها <- 120 # 60 mean_M <- 16 M <- rpois(sites, mean_M) p <- 0.4 #0.64 نمونه <- 2 # 3 y = rep(NA، سایتها * نمونه * 2) dim(y) = c(سایتها، نمونه، 2) برای (i در 1:سایتها) { # obs[i،] = rbinom(نمونه، M[i] , p) برای (j در 1:نمونه) { y[i,j,1] = rbinom(1, M[i], p) y[i,j,2] = rbinom(1, M[i] - y[i,j,1], p) } } y_sample_total = اعمال (y, c(1, 2), sum) obs = y_sample_total ############## ############################# سینک (tmp_bugs/model.txt) cat( model { # احتمال برای (i در 1:سایت ها) { M[i] ~ dpois(lambda) for (j در 1:نمونه) { y[i، j، 1] ~ dbin(p، M[i ]) after_removal[i، j] <- M[i] - y[i، j، 1
|
خطای WinBUGS با مقادیر صفر در توزیع دو جمله ای: مقدار مرتبه دو جمله ای <expr> باید بزرگتر از صفر باشد
|
22852
|
من با استنباط بیزی بسیار جدید هستم و نمی توانم بفهمم که چه چیزی ممکن است یک مشکل ابتدایی باشد. همچنین، لطفاً من را ببخشید، اگر نشانه گذاری را خراب می کنم - این اولین تلاش من در آمار بیزی است. **تنظیم:** در زمان $i=0$ من با یک متغیر تصادفی $X_0\sim \mathcal{N}(\mu_0,\sigma^2_0)$ شروع میکنم. با گذشت زمان، من روند حرکت براونی را مشاهده میکنم به طوری که برای $j>i$، $X_j-X_i\sim \mathcal{N}(0,(j-i)D)$. از زمان 0 شروع میکنم، دنبالهای از $n$ مشاهدات $\{Y_i\}_{i=0}^{n-1}$ از $\{X_i\}_{i=0}^{n- 1}$، که در معرض نویز گاوسی هستند، به طوری که $p(y_i|x_i)=\frac{1}{\sqrt{2\pi N_0}}e^{-\frac{(y_i-x_i)^2}{2N_0}}$. نویز از مشاهده به مشاهده مستقل است. من به میانگین و واریانس (برآورنده) $X_{n-1}$ با توجه به $\{Y_i\}_{i=0}^{n-1}$ بر حسب $n$، $ علاقه مند هستم. \mu_0$، $\sigma^2_0$، $D$، و $N_0$. ** کاری که من انجام دادم:** با استفاده از قانون بیز و ویژگی های توزیع گاوسی، دریافتم که برای اولین مشاهده ($n=0$): $$p(x_0|y_0)=\frac{1 }{\sqrt{2\pi S}}e^{-\frac{(x_0-M)^2}{2S}}$$ کجا $M=\frac{y_0\sigma^2_0+\mu_0N_0}{\sigma^2_0+N_0}$ و $S=\frac{\sigma^2_0N_0}{\sigma^2_0+N_0}$. من کاملاً مطمئن نیستم که موارد بالا درست است یا خیر، اما کاملاً مطمئن هستم که درست است، زیرا به نظر می رسد میانگین مربعات خطای تخمین X_0$ با مشاهده کاهش یافته است. با این حال، من در گسترش این به $n>0$ مشکل دارم و از هر راهنمایی قدردانی می کنم. **ویرایش:** من روند حرکت براونی را اشتباه تعریف کرده ام. فکر کنم الان درسته
|
به روز رسانی بیزی با استفاده از $n$ مشاهدات پر سر و صدا از حرکت براونی
|
49367
|
من سعی می کنم یک پراکندگی ساده و خط روند در R انجام دهم، اما درست به نظر نمی رسد. آیا من چیزی را به طور آشکار به هم ریخته ام؟ هیچ ایده ای در مورد اینکه چرا خط با داده ها مطابقت ندارد؟  این کدی است که من استفاده کردم. > plot(x, y, pch=.) > model <- lm(x ~ y) > خلاصه (مدل) تماس: lm(فرمول = x ~ y) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -0.23043 -0.04340 - 0.00533 0.03761 0.47882 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 0.051154 0.001384 36.97 <2e-16 *** y 0.462881 0.003739 123.80 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقی مانده: 0.06365 در 71514 درجه آزادی. آمار: 1.533e+04 در 1 و 71514 DF، p-value: < 2.2e-16 > abline(model, col=red)
|
به نظر می رسد خط روند مطابق با داده ها نیست
|
58278
|
من از optim() در R برای انجام بسیاری از MLE استفاده می کنم. من از این رویکرد برای بسیاری از مشکلات استفاده کردهام، اما رویکردی که در حال حاضر روی آن کار میکنم شامل برازش پارامترهای توزیع ارزش افراطی تعمیمیافته (GEV) است. سه پارامتر وجود دارد (شکل مقیاس مکان)، و من می خواهم خطاهای استاندارد را از این تناسب دریافت کنم. نمونه ای از مقاله ای که این کار را انجام می دهد کاتز و همکاران است. 2005، و در اینجا کد آنلاین مقاله است. من وابسته به این نشریه نیستم. همچنین باید به این نکته اشاره کنم که سوال GEV فقط نمونهای از نوع رویکردی است که من در پیش میگیرم -- بیشتر تناسبهای MLE من مدلهای سری زمانی (وضعیت-فضا) هستند. در صورت نیاز می توانم مثال های بیشتری بزنم. 1) کدام یک از آرگومان های optim() ارتباط خاصی با اعتبار آماری استفاده از optim() Hessian برای خطاهای استاندارد کامپیوتر دارد؟ * اولین چیزی که به ذهن می رسد نوع الگوریتم است -- در R، optim() پوششی برای چندین نوع الگوریتم بهینه سازی است (برای مرجع در optim() لینک بالا را ببینید). حتی فکر نمی کنم همه آنها یک هسین برگردانند. * همچنین فکر میکنم پارامترهای مربوط به پارامترهای «reltol» و «abstol» میتوانند مهم باشند، اما من کاملاً نمیدانم که آنها چه میکنند. 2) اگر بخواهم از hessian برای محاسبه S.E پارامترهای برازش شده استفاده کنم، آیا پیش پردازش داده ها (به عنوان مثال، استانداردسازی داده ها قبل از انجام MLE) وجود دارد؟ 3) به طور کلی، از چه چیزی باید مراقب باشم. من فقط نمی خواهم از این روش به اشتباه استفاده کنم. 4) آیا چیزی وجود دارد که بتوانید به آن فکر کنید که من قطعا **نباید** انجام دهم؟ با تشکر
|
هنگام استفاده از Hessian برای محاسبه S.E. چه چیزی را باید در نظر بگیرم؟
|
71800
|
من در حال انجام یک ANOVA مستقل دو طرفه با استفاده از نوع تغییر سازمانی (5 سطح) و سطح شغلی (7 سطح) در داخل سازمان (در SPSS) هستم. من از روش اندی فیلد پیروی کردم (_کشف آمار با استفاده از SPSS_، ویرایش سوم) و نمی توانم گزینه تست های Post-Hoc را برای مواردی که واریانس برابر در نظر گرفته نشده است، یعنی Games-Howell دریافت کنم. من فایل های راهنمای نحو را جستجو کردم و در جایی یادداشتی وجود دارد که می گوید در صورت استفاده از بیش از یک عامل، Games-Howell قابل اجرا نیست. با این حال، اندی فیلد این کار را کرد! (صفحه 434 کتاب او را ببینید). هیچ ایده ای وجود دارد که چگونه می توانم همین کار را انجام دهم؟
|
آزمون تعقیبی به روش ANOVA دو طرفه
|
3167
|
من باید تعدادی طرح خط را در یک سند لاتکس بگنجانم و می خواهم کیفیت بسیار بالایی داشته باشم. آیا وب سایتی وجود دارد که برخی از الگوها یا سبک های طرح پیش فرض را نشان دهد که بتوانم از آنها استفاده کنم. من خودم در طراحی این نوع سبک طرح خوب نیستم، بنابراین در حال جستجوی تنظیمات اولیه خوب برای ابزاری هستم که می خواهم استفاده کنم. در مورد ابزارها، فکر میکنم میخواهم از Tikz یا gnuplot استفاده کنم، زیرا میخواهم سند و نمودار متنی را در یک اجرا بسازم. اطلاعات من به هر حال در فایل های متنی ذخیره می شود.
|
از کجا می توانم منابع خوبی برای ساخت طرح های خط کیفیت انتشار پیدا کنم
|
67128
|
من سعی میکنم آزمایشهایی را مد نظر قرار دهم که ترکیب جمعیتی نمونهها باید تا حد امکان به ترکیب «طلایی» نزدیک باشد. برای مشخص بودن، فرض کنید ترکیب «طلایی» «۱۴ درصد طبقه متوسط، ۳۵ درصد طبقه متوسط رو به بالا، و ۵۱ درصد طبقه بالا» است. من یک دسته کامل از نمونه ها دارم، هر کدام با ترکیبات کمی متفاوت. به عنوان مثال: S1 = 10٪ طبقه متوسط، 41٪ طبقه متوسط بالا، 49٪ طبقه بالا S2 = 33٪ طبقه متوسط، 33٪ طبقه متوسط رو به بالا، 34٪ طبقه بالا من در تلاش هستم تا معیار آماری خوبی پیدا کنم. توضیح دهید که توزیع در هر نمونه چقدر به ترکیب ایده آل و طلایی نزدیک است. آیا معیار ساده ای در اینجا وجود دارد که بتوانم از آن استفاده کنم؟
|
اندازه گیری میزان نزدیکی یک توزیع نمونه معین به یک توزیع ایده آل
|
78605
|
من در حال پیاده سازی مدل ARIMAX برای پیش بینی قیمت سهام هستم. برای انتخاب ترتیب، از طریق $0\le p,d,q\le10$ حلقه زدم و بهترین ترتیب (1,0,10) را پیدا کردم. من کمی گیج هستم که چگونه این نتایج را تفسیر کنم. چگونه می توانم بفهمم که منطقی است یا خیر، و این در مورد داده ها چه معنایی دارد؟
|
پیش بینی قیمت سهام سفارش ARIMAX
|
9099
|
آنالیز دی آلل با استفاده از رویکرد گریفینگ و هیمن در اصلاح نباتات و ژنتیک بسیار رایج است. من نمی دانم که آیا کسی می تواند مثال R را در تجزیه و تحلیل دی آلل به اشتراک بگذارد. آیا کتاب مرجع خوبی وجود دارد که نمونه های کار شده را پوشش دهد؟ با تشکر مراجع: Griffing B (1956) مفهوم قابلیت ترکیب عمومی و خاص در رابطه با سیستم های عبور دی آلل. Aust J Biol Sci 9:463-493 [pdf] Hayman BI (1954) تجزیه و تحلیل واریانس جداول دی آلل. Biometrics 10:235-244 [JSTOR] Hayman BI (1954) تئوری و تجزیه و تحلیل تلاقی های دی آلل. ژنتیک 39:789-809 [pdf]
|
چگونه آنالیز دی آلل را در R انجام دهیم؟
|
37805
|
من یک GLMM به این شکل دارم: lmer(حالا؟ ~ فاکتور 1 + فاکتور 2 + پیوسته + فاکتور 1 * پیوسته + (1 | فاکتور 3)، خانواده = دوجمله ای) وقتی از drop1(model, test=Chi) استفاده می کنم، من نتایج متفاوتی نسبت به استفاده از «Anova(model, type=III)» از بسته خودرو یا «خلاصه(مدل)» دریافت کنید. این دو آخری جوابهای یکسانی می دهند. با استفاده از مجموعه ای از داده های ساخته شده، دریافتم که این دو روش معمولاً با هم تفاوتی ندارند. آنها برای مدلهای خطی متعادل، مدلهای خطی نامتعادل (که در گروههای مختلف n برابر نیست)، و برای مدلهای خطی تعمیمیافته متعادل، پاسخ یکسانی را میدهند، اما برای مدلهای مختلط خطی تعمیمیافته متعادل پاسخ یکسانی را نمیدهند. بنابراین به نظر می رسد که تنها در مواردی که عوامل تصادفی را شامل می شود، این اختلاف آشکار می شود. * چرا بین این دو روش مغایرت وجود دارد؟ * هنگام استفاده از GLMM باید از «Anova()» یا «drop1()» استفاده شود؟ * تفاوت بین این دو، حداقل برای داده های من، نسبتاً ناچیز است. اصلاً مهم است که کدام مورد استفاده شود؟
|
چرا Anova ( ) و drop1 ( ) پاسخ های متفاوتی برای GLMM ارائه می دهند؟
|
96836
|
آیا قهقرایی یک نسبت روی خودش اشکالی دارد؟ به عنوان مثال، آیا میتوانیم log (نسبت پسانداز) را در log (درآمد) یا نسبت log (بدهی به درآمد) را در ورود (درآمد) پسانداز کنیم؟ اگر نه، آیا باید از تبدیل log برای بردن درآمد به RHS و رگرسیون log (پس انداز) در ورود (درآمد) استفاده کنیم؟ اگر استفاده از تبدیل گزارش راه حلی است، چگونه می توانم نتایج خود را تفسیر کنم، با توجه به اینکه نسبت پس انداز چیزی است که به آن علاقه دارم، نه پس انداز؟
|
رگرسیون نسبت به یک جزء از نسبت
|
108771
|
فرض کنید یک مجموعه داده حاوی اعداد $1-100$ (یعنی $\{1, \dots, 100 \}$) باشد. در اعتبار سنجی متقاطع 10 دلاری، مجموعه داده به زیر مجموعه های 10 دلاری تقسیم می شود که یکی از آنها به عنوان مجموعه داده اعتبار سنجی استفاده می شود. به عنوان مثال، یکی از این تقسیم بندی ها $S_1 = \{1, \dots, 10 \}$, $S_2 = \{11, \dots, 20 \}, \dots, S_{10} = \{91, \dots است. , 100 \}$. در اعتبارسنجی متقاطع 10 برابری عادی، هر زیر مجموعه به عنوان مجموعه داده تست استفاده می شود. در اعتبارسنجی متقاطع 10 تکراری (مثلاً)، بخشی که تکرار میشود این است که $S_1، \dots، S_{10}$ چگونه ساخته میشوند؟
|
CV مکرر در مقابل CV
|
78606
|
من 3 روش برای انجام تخمین پارامتر، ML، MAP و رویکرد Bayes می دانم. و برای رویکرد MAP و Bayes، باید اولویتها را برای پارامترها انتخاب کنیم، درست است؟ مثلاً من این مدل $p(x|\alpha,\beta)$ را دارم که در آن $\alpha،\beta$ پارامترهای هستند، برای انجام تخمین با استفاده از MAP یا Bayes، در کتاب خواندم که ما بهتر است یک مزدوج قبل از $p(\alpha,\beta)$_ انتخاب کنید، که احتمال **مشترک** $\alpha،\beta$ است، درست است؟ من 2 سوال دارم: 1. آیا انتخاب دیگری به جز این مزدوج داریم؟ 2. آیا میتوانیم به ترتیب برای $\alpha$ و $\beta$، مانند $p(\alpha)$ و $p(\beta)$، اولویتهای قبلی را انتخاب کنیم، غیر از اینکه آنها را در یک مشترک کنار هم قرار دهیم؟
|
نحوه انتخاب پیشین در تخمین پارامتر بیزی
|
67124
|
من در حال تهیه پیش نویس یک مرور ادبیات در مورد یک موضوع بهداشت عمومی فعلی هستم که در آن داده ها مخدوش شده اند: ** مطالعات موردی تاریخی رایجی که در آموزش بهداشت عمومی/اپیدمیولوژی در مواردی که روابط یا استنباط های نامعتبر یا مغشوش عمدا یا اشتباهاً در بهداشت عمومی به کار گرفته شده اند کدامند. سیاست و قانون؟** افزایش مرگ و میر اتومبیل در دهه 1960 و متعاقب آن مطالعه مبتنی بر شواهد و تحت رهبری دولت که تعیین کرد کمربند ایمنی و در نهایت کیسه هوا باید توسط قانون الزامی شود، نمونه ای عالی از **چگونه ** سیاست بهداشت عمومی باید با استنباط ها و مدل های آماری قدرتمند هدایت شود. من بیشتر به دنبال نمونه هایی از نوع مخالف (علم بد برای سیاست گذاری عجولانه) هستم. با این حال، اگر هیچ چیز دیگری نیست، من مایلم موارد بیشتری مشابه نمونه قبلی از مطالعات قدرتمند برای موفقیت در سلامت عمومی بیاموزم. من میخواهم از اینها به عنوان مثال استفاده کنم تا نشان دهم که چگونه تحقیقات بهداشت عمومی آماری مبتنی بر شواهد برای ایجاد خطمشی مهم است.
|
مطالعات موردی در تحقیقات خط مشی بهداشت عمومی که در آن مطالعات یا مدلهای غیرقابل اعتماد/آشکار/نامعتبر مورد استفاده قرار گرفتهاند کدامند؟
|
91008
|
نمونه مرتب شده زیر را در نظر بگیرید: $x_1<x_2<\ldots<x_n$ و تابع هسته: $h(j)=\log(x_j-x_1)، j>1$. اکنون، معلوم می شود که وقتی داده ها را از بسیاری از توزیع های پیوسته می کشم، آنها را مرتب می کنم و $h(j)$ را محاسبه می کنم، نمودار $h(j)$ به عنوان تابعی از $j$ به این معنا مقعر است: $ h((j+k)/2)>(h(j)+h(k))/2$ برای $1<j<j+1<k<n$ سوال من این است: آیا این مشاهده (تعرفه از $h(j)$ به عنوان تابعی از $j$) برای همه توزیع های پیوسته صادق است؟ اگر نه، آیا کلاسی از توزیعها وجود دارد که همیشه درست باشد؟ پیشاپیش متشکرم، در این مرحله، با توجه به نظرات مفید @Glen_b و @Momo، فکر می کنم باید یک مثال بزنم. این بردار مقادیر $x_j-x_1,j>1$ است (که در آن $x$ ها از یک توزیع پیوسته ترسیم می شوند، اما در اینجا به رقم سوم گرد شده اند تا جای زیادی نگیرند. .) مشکل من این است که وقتی $h(j)$ را برای این مجموعه داده ترسیم می کنم، نتیجه به وضوح و نه مقعر است (به معنایی که در بالا توضیح دادم). x=c(1.403، 1.406، 1.408، 1.416، 1.417، 1.42، 1.427، 1.441، 1.448، 1.456، 1.458، 1.465، 1.467، 1.462، 1.447، 1.462، 1.467، 1.467، 1.467 1.477، 1.479، 1.482، 1.491، 1.5، 1.504، 1.518، 1.52، 1.52، 1.53، 1.544، 1.545، 1.561، 1.575، 1.575، 1.59. 1.603، 1.605، 1.612، 1.617، 1.618، 1.618، 1.628، 1.64، 1.644، 1.646، 1.653، 1.679، 1.682، 1.669، 1.682، 1.683، 1.682 1.71، 1.711، 1.741، 1.75، 1.756، 1.773، 1.794، 1.799، 1.804، 1.808، 1.86، 1.882، 1.895، 1.9995، 1.9995، 1. 2.009، 2.063، 2.123، 2.329، 2.356، 2.405، 2.535، 2.632، 2.635، 2.725، 2.763، 2.783)
|
این تابع برای کدام کلاس توزیع مقعر است؟
|
3163
|
علیرغم اینکه این یک سوال مربوط به برنامه بود، از من خواسته شد که به جای stackoverflow این را اینجا ارسال کنم. آیا می توان پس از برازش یک مدل، از ماتریس واریانس کوواریانس قوی به دست آمده توسط vcovHC (از بسته ساندویچی) استفاده کرد؟ بدون پیدا کردنش گشتم..
|
از خطاهای استاندارد قوی در محدود استفاده کنید
|
91000
|
تقریباً در وسط صفحه 16 یادداشتهای اندرو نگ در SVM، او دیدگاه شهودی از هسته را به عنوان اندازهگیری شباهت بین مشاهدات توضیح داد، اما سپس این هشدار را اضافه کرد که > چیزهایی در این شهود وجود دارد، اما توجه نکنید یادداشتها واقعاً توضیح نمیدهند. این شهود چه اشکالی دارد آیا کسی می داند که او ممکن است به چه چیزی اشاره کند؟
|
این شهود که کرنل شباهت بین مشاهدات را اندازه می گیرد چه اشکالی دارد؟
|
58270
|
من مجموعه ای از نتایج اندازه گیری های مستقل برخی از کمیت های فیزیکی را دارم. به عنوان مثال در اینجا داده های تجربی واقعی در مورد ضریب شکست متانول در 25 درجه سانتیگراد منتشر شده در ادبیات علمی از سال 1960 تا 2011 ارائه می کنم: data={{1960, 1.32652}, {1961, 1.32662}, {1963, 1.3265, 1.3265 1.32750}، {1968، 1.32698}، {1968، 1.32890}، {1970، 1.32657}، {1970، 1.32660}، {1971، 1.3260}، {1971، 1.32610}، {1971، 1.32610}، {1971، 1.32610}، {32610}، {1971، 1.32610}، {0} 1.3350}، {1972، 1.32640}، {1972، 1.32661}، {1973، 1.32860}، {1975، 1.32515}، {1975، 1.32641}، {1976، 3261}، {1976، 1.32641}، {1976، 3. 1.32670}، {1980، 1.3250}، {1983، 1.32850}، {1985، 1.32653}، {1991، 1.32710}، {1995، 1.32621}، {1995، 1995، 71}، 1.32601}، {1996، 1.32645}، {1996، 1.32715}، {1998، 1.32820}، {1999، 1.32730}، {1999، 1.32780}، {2001، 1.32780}، {206، 1.32780}، {1996، 1.32715}، {1998، 1.32820} 1.32620}، {2011، 1.32667}}؛ عدد اول سال انتشار اول و دومی مقدار منتشر شده است. نویسندگان همیشه برآورد خود را برای خطای ارزش منتشر شده ارائه نمی کنند و حتی زمانی که این کار را انجام می دهند، تخمین منتشر شده اغلب دقیق نیست. به راحتی می توان فهمید که توزیع نامتقارن است (دیگر مجموعه داده هایی که من با آنها کار می کنم حتی نامتقارن تر هستند). در اینجا یک هیستوگرام چگالی با سطل های انتخاب شده توسط عقربه ها وجود دارد: bins = {1.325, 1.3259, 1.3261, 1.3263, 1.3265, 1.3266, 1.3267, 1.3269, 1.3275, 1.328; هیستوگرام[dataFirst[[All, 2]], {bins}, PDF]  به دلیل ویژگی نامتقارن توزیع نمی توانم استفاده کنم میانگین به عنوان تخمینی برای مقدار واقعی ضریب شکست متانول. واقعیت این است که احتمال به دست آوردن مقدار کمتر از مقدار واقعی به طور کلی با احتمال به دست آوردن مقدار بالاتر برابر نیست. این بدان معنی است که میانه به طور کلی نیز نامناسب است. ممکن است فرض شود که هر اندازه گیری منفرد دارای توزیع نرمال برای خطای ابزاری اندازه گیری است. منابع دیگر خطا ناخالصی های موجود در متانول هستند. رایج ترین ناخالصی آب است که ضریب شکست را افزایش می دهد، اما نویسندگان معمولا متانول را قبل از اندازه گیری خشک می کنند. احتمالاً به همین دلیل است که چگالی برای مقادیر کم بیشتر است: سایر ناخالصی ها مانند برخی از حلال های آلی معمول (بنزن) و (احتمالاً) گازهای رقیق شده (متان، اکسید کربن، دی اکسید کربن) ضریب شکست را کاهش می دهند. از طرف دیگر الکل ها، آلدئیدها و کتون هایی که ممکن است در متانول صنعتی و برخی از حلال های آلی (CCl4) وجود داشته باشند ضریب شکست را افزایش می دهند. بنابراین حداقل دو منبع خطا وجود دارد: یکی (دستگاهی) ممکن است به طور معمول توزیع شده و حتی برای همه اندازهگیریها برابر فرض شود و دومی (ناخالصیها) احتمالاً نامتقارن است (و حتی ممکن است دو وجهی باشد) و بستگی به نحوه بهدستآمدن و خالصسازی متانول دارد. . بهترین راه برای تخمین مقدار واقعی و باندهای اطمینان 95% آن برای کمیت اندازه گیری شده در چنین مواردی چیست؟ P.S. مراجع برای مقالات علمی مرتبط مورد قدردانی قرار خواهند گرفت. P.S.2. کد بالا برای سیستم _Mathematica_ است.
|
چگونه می توان مقدار واقعی و باندهای 95% را زمانی که توزیع نامتقارن است تخمین زد؟
|
78607
|
من یک متغیر وابسته دارم (در تعداد، به عنوان مثال، تعدادی تکنسین). متغیر مستقل من یک عامل گروه بندی (کنترل و درمان) است. از ادبیات، میانگین تعداد تکنسین مورد نیاز برای این روش 3 با SD برابر 1 است. من می خواهم اندازه نمونه را برای تعیین تغییرات قابل توجه کاهش 1 SD در تکنسین ها محاسبه کنم. من فکر می کنم که این داده های شمارش باید از توزیع پواسون پیروی کنند و من می توانم یک محاسبه اندازه نمونه برای رگرسیون پواسون انجام دهم. با این حال، SD من کمتر از یک فرض شده برای رگرسیون Poison است (sqrt(mean)=1.73). برای تعیین تفاوت 1 SD و اندازه نمونه از چه ابزار جایگزینی باید استفاده کنم؟ با تشکر جولیا
|
داده های شمارش: SD بالاتر از حد فرض شده برای رگرسیون پواسون است
|
91001
|
من مجموعهای از آیتمهای نوع لیکرت دارم که از پاسخدهندگان نگرششان را درباره موضوعات مختلف میپرسم. به عنوان مثال، نگرش نسبت به مواد مخدر/الکل که در آن 1=کاملاً مخالف و 5=کاملاً با این جمله موافقم که «فکر میکنم برای فردی هم سن و سال من اشکالی ندارد که ماری جوانا بکشد». سپس 6 آیتم در این مقیاس خاص با استفاده از میانگین آیتم های گم نشده امتیازدهی می شوند. آیا مزیتی وجود دارد که ابتدا آیتم ها را مجدداً مقیاس کنید تا دامنه پاسخ ها از 0-4 به جای 1-5 برسد؟ تنها تفاوت در تفسیر مقیاس است که در آن میانگین نگرش 3.5 در مقیاس 0-4 و 4.5 در مقیاس 1-5 است. از منظر تفسیر، چه چیزی برای یک مخاطب عادی آسانتر است؟ یا اینکه استانداردهایی از نظر گزارش دهی وجود دارد؟
|
آیا تغییر مقیاس مجموعه ای از آیتم های لیکرت از 1-5 به 0-4 مزیتی دارد؟
|
67121
|
من یک مدل احتمال خطی را با ساختار سلسله مراتبی تخمین می زنم. من خطاهای استاندارد را بوت استرپ می کنم تا اهمیت ضرایب را آزمایش کنم تا تخمین پارامتری خطاهای استاندارد را دوبار بررسی کنم. در فرآیند راهاندازی متوجه میشوم که ضرایب همگی مثبت هستند (که انتظار داشتم) اما چند ضرایب مثبت شدید وجود دارد. نقاط پرت خطاهای استاندارد را بزرگ و آمار t بعدی را کوچک می کند. این گمراه کننده است زیرا یک p-value تجربی مقداری کمتر از 0.01 دارد. سوال من این است 1. بهترین راه برای بیان اینکه این ضریب از نظر آماری با صفر متفاوت است چیست؟ 2. بهترین راه برای گزارش این نتایج چیست؟ معمولاً در جدول لاتکس ضرایب به اضافه خطاهای استاندارد را گزارش می کنم.
|
بهترین راه برای انتقال داده های بسیار کج
|
67125
|
من می خواهم تأثیر یک IV (احساس طلبی) را بر روی DV (خیانت عمدی) بر اساس IV دیگر (جنسیت) مقایسه کنم. در واقع من واقعاً فقط می خواهم ابزارها را با هم مقایسه کنم. بنابراین میخواهم میانگین تأثیر حسجویی (متغیر پیوسته با 5 سطح) را برای مردان و زنان بر خیانت مورد نظر (یک متغیر پیوسته با 4 سطح) مقایسه کنم. چرا به نظر نمی رسد که این کار را در SPSS انجام دهم؟ آیا باید یک تحلیل اعتدال انجام دهم؟ آیا می توانم متغیرها را دوباره محاسبه کنم و در چه مواردی؟ با تشکر بسیار برای هر گونه پیشنهاد!
|
میانگین اثر یک پیش بینی کننده را بر اساس پیش بینی کننده دیگر مقایسه کنید
|
66297
|
1. تفاوت بین معادلات تخمین شبه احتمال و GEE چیست؟ از یک یادداشت > تابع شبه امتیاز برای داده های مستقل و بیش از حد پراکنده (پواسون یا > دو جمله ای) است، در حالی که GEE1 برای داده های همبسته است. اما به نظر من در یادداشت، معادلات آنها هر دو همبستگی بین پاسخ های مختلف را در نظر نمی گیرند. پس چگونه آنها را به درستی درک کنم؟ 2. معادلات تخمین استقلال (IEE) چه تفاوتی با دو مورد فوق دارد؟ با تشکر
|
تفاوت بین معادلات تخمین شبه احتمال، IEE و GEE؟
|
83119
|
برای من روشن است و در چندین سایت به خوبی توضیح داده شده است که مقادیر روی قطر ماتریس کلاه چه اطلاعاتی را برای رگرسیون خطی می دهد. ماتریس کلاه یک مدل رگرسیون لجستیک برای من کمتر واضح است. آیا با اطلاعاتی که با اعمال رگرسیون خطی از ماتریس کلاه به دست می آورید یکسان است؟ این تعریف ماتریس کلاه است که من در موضوع دیگری از CV پیدا کردم (منبع 1): $H=VX (X'V X)^-1 X' V$ با X بردار متغیرهای پیش بینی کننده و V یک ماتریس مورب است. با $\sqrt{(π(1−π))}$. به عبارت دیگر، آیا این نیز درست است که مقدار خاص ماتریس کلاه یک مشاهده نیز فقط موقعیت متغیرهای کمکی را در فضای متغیر کمکی نشان میدهد و ربطی به مقدار نتیجه آن مشاهده ندارد؟ این مطلب در کتاب «تحلیل طبقهبندی دادهها» آگرستی نوشته شده است: هرچه اهرم مشاهده بیشتر باشد، تأثیر بالقوه آن بر تناسب بیشتر است. همانطور که در رگرسیون معمولی، اهرم ها بین 0 و 1 > قرار می گیرند و به تعداد پارامترهای مدل جمع می شوند. برخلاف رگرسیون معمولی، مقادیر > به برازش و همچنین ماتریس مدل بستگی دارد، و نقاطی که > دارای مقادیر پیش بینی شدید هستند، نیازی به اهرم بالایی ندارند. بنابراین خارج از این تعریف، به نظر می رسد ما نمی توانیم آن را همانطور که در رگرسیون خطی معمولی استفاده می کنیم، استفاده کنیم؟ منبع 1: چگونه ماتریس کلاه را برای رگرسیون لجستیک در R محاسبه کنیم؟
|
اطلاعات خارج از ماتریس کلاه برای رگرسیون لجستیک
|
87779
|
چه زمانی باید هنگام انجام رگرسیون لجستیک از وزنه ها استفاده کنم؟ وزن هایی که من به آنها اشاره می کنم وزن های نمونه گیری از یک نظرسنجی هستند؟ یا باید فقط از داده های وزن نشده استفاده کنم؟
|
آیا وزن نمونه در رگرسیون لجستیک ضروری است؟
|
91004
|
من میخواهم $\log Y_t=\beta_0+\beta_1\log X_{1t}+\beta_2\log X_{2t}+e_t$ را تخمین بزنم با استفاده از تستهای ADF، متوجه شدم که هر دو $\{\log Y_t\}$ و $\{\log X_{1t}\}$ I(1) هستند (یعنی دارای یک ریشه واحد هستند)، در حالی که $\{\log X_{2t}\}$ من (2) است. من بررسی کردهام که $\{\Delta \log Y_t\}$، $\{\Delta \log X_{1t}\}$ و $\{\Delta_2\log X_{2t}\}$ همگی ثابت هستند. حالا سوال من این است که با استفاده از این تفاوت ها چه رگرسیونی را اجرا کنم تا بتوانم هنوز چیزی در مورد رابطه اصلی بالا بگویم؟ آیا می توانم به سادگی تفاوت های دوم $\{\log Y_t\}$ و $\{\log X_{1t}\}$ را بگیرم و $\Delta_2\log Y_t=\beta_1\Delta_2\log X_{1t}+\ را تخمین بزنم؟ Delta_2\beta_2\log X_{2t}+v_t$ یا گرفتن تفاوت دوم سری I(1) نوعی مشکل ایجاد می کند؟
|
رگرسیون زمانی که شما هر دو فرآیند I(1) و I(2) را دارید
|
37807
|
من شرایط زیر را دارم من یک طبقهبندیکننده باینری دارم که بردارهای ویژگی ورودی را به یکی از دو کلاس 'y' یا 'n' طبقهبندی میکند، همراه با احتمال قرار گرفتن آن در هر یک از کلاسهای P_y و P_n. من می دانم که طبقه بندی کننده در 60٪ موارد درست است. چگونه احتمال واقعی بودن آن در هر یک از کلاس ها را تخمین بزنم؟ کاری که من اکنون انجام می دهم محاسبه 0.6*P_y / (0.6*P_y + 0.4*(1- P_y)) است. این یک تنظیم بیزی است، اما مطمئن نیستم که کارم را درست انجام میدهم یا نه. هر گونه اشاره بسیار قدردانی می شود.
|
اندازه گیری احتمال طبقه بندی کننده باینری؟
|
27515
|
سوابق من در اقتصاد کار / خرد کاربردی است اما در حال حاضر با داده های جمع آوری شده از یک آزمایش میدانی کار می کنم. حداقل می توان گفت مهارت های تجربی/میکرو من زنگ زده است. در دادههایم، افراد را مشاهده میکنم که یکی از گزینههای A، B، C، D$ را انتخاب میکنند. ارزش انتخاب بعد از انتخاب متوجه می شود. من می دانم که $$E(A) <= E(B) <= E(C) <= E(D)$$$$VAR(A) <= VAR(B) <= VAR(C) <= VAR (D)$$ اگر فرض کنم که $A، B، C، D$ پیوسته، مستقل و به طور معمول توزیع شده اند و افراد از بازده مورد انتظار $E(i)$ و واریانس $VAR(i)$ آگاه باشند. * آیا راهی برای تخمین پارامتر ریسک گریزی مورد انتظار (به عنوان مثال CRRA) برای گروهی از افراد وجود دارد؟ * آیا منطقی است که این تخمینهای ریسک را از دو گروه از مردم مقایسه کنیم، مثلاً مردان و زنان یا افراد دارای تحصیلات عالی و تحصیلات پایین؟ اگر بتوانید ادبیات مرتبطی را ارائه دهید، ممنون می شوم.
|
برآورد پارامترهای ریسک از انتخاب های مشاهده شده
|
27512
|
یک مشکل بزرگ در انتقال نتایج محاسبات آماری به رسانه ها و عموم مردم این است که چگونه عدم قطعیت را منتقل می کنیم. مطمئناً به نظر میرسد که اکثر رسانههای جمعی یک عدد سخت و سریع را دوست دارند، اگرچه به جز در تعداد نسبتاً کمی از موارد، اعداد همیشه دارای عدم قطعیت هستند. بنابراین، چگونه میتوانیم بهعنوان آماردان (یا دانشمندانی که کار آماری را توصیف میکنند)، نتایج خود را به بهترین شکل بیان کنیم، در حالی که عدم قطعیت را در تدبیر نگه داریم و آن را برای مخاطبان معنادار کنیم؟ من متوجه هستم که این در واقع یک سؤال آماری نیست، بلکه یک سؤال روانشناسی در مورد آمار است، اما مطمئناً چیزی است که بیشتر آماردانان و دانشمندان نگران آن هستند. من تصور میکنم که پاسخهای خوب ممکن است به تحقیقات روانشناختی بیشتر از کتابهای درسی آمار اشاره کنند... * * * **ویرایش:** طبق پیشنهاد کاربر568458، یک مطالعه موردی ممکن است در اینجا مفید باشد. در صورت امکان، لطفاً پاسخ ها را برای سایر حوزه ها تعمیم دهید. مورد خاصی که من به آن علاقه دارم مثال خوبی است: _ارتباط علم آب و هوا به سیاستمداران و عموم مردم از طریق رسانه های جمعی_. به عبارت دیگر، به عنوان یک دانشمند، وظیفه شما این است که اطلاعات را به گونه ای به یک روزنامه نگار منتقل کنید که آنها در انتقال دقیق آن اطلاعات به عموم، مشکل کمی داشته باشند - یعنی حقیقت، اگرچه نه لزوماً کل حقیقت، که معمولا در یک نیش خبری نمی گنجد. برخی از مثالهای رایج ممکن است ارتباط عدم قطعیت در تخمین درجه گرمایش در باقیمانده قرن یا افزایش احتمال وقوع یک رویداد شدید آب و هوایی خاص (یعنی در پاسخ به آیا این طوفان ناشی از تغییرات آب و هوایی بوده است. سوال را تایپ کنید).
|
چگونه می توان عدم اطمینان را به بهترین نحو بیان کرد؟
|
25851
|
الگوریتم بسط آلفا که در اینجا توضیح داده شده است (مدل های گرافیکی احتمالی: اصول و تکنیک های دافنه کولر، نیر فریدمن، صفحه 593: الگوریتم 13.5)، برای نمودارهایی طراحی شده است که هر رأس دارای مجموعه ای از برچسب ها است. من به یک مشکل کلی تر علاقه مند هستم که در آن هر رأس می تواند مجموعه متفاوتی از برچسب ها با کاردینالیته های متفاوت داشته باشد. آیا می توان از الگوریتم گسترش آلفا در چنین مواردی استفاده کرد؟ برای مثال، اجازه دهید نمودار 3 رأس داشته باشد. راس اول می تواند برچسب ها (a1، a2، a3) را در نظر بگیرد. راس دوم می تواند برچسب ها (b1, b2) را در نظر بگیرد و راس سوم می تواند دارای (c1, c2, c3, c4, c5) باشد. پتانسیل های گره و لبه بر این اساس تعریف می شوند. آیا گسترش آلفا هنوز هم می تواند به من در یافتن یک ترکیب برچسب بهینه (تقریبی) کمک کند؟
|
الگوریتم گسترش آلفا روی نمودار با رئوس دارای مجموعههای مختلف برچسبها
|
66292
|
روشی که من برای ساختن یک جنگل تصادفی با آن آشنا هستم به شرح زیر است: (از http://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm) برای ساختن یک درخت در جنگل ما: 1 نمونه ای با اندازه N را بوت استرپ کنید که در آن N اندازه مجموعه آموزشی ما است. از این نمونه بوت استرپ به عنوان مجموعه آموزشی این درخت استفاده کنید. 2. در هر گره درخت به طور تصادفی m از ویژگی های M خود را انتخاب کنید. بهترین ویژگیهای m را برای تقسیم کردن انتخاب کنید. (که m پارامتری از جنگل تصادفی ما است) 3. هر درخت را تا بیشترین حد ممکن رشد دهید - یعنی بدون هرس. در حالی که این الگوریتم در سطح رویهای منطقی است و مطمئناً نتایج خوبی ایجاد میکند، من نمیدانم انگیزه نظری پشت مراحل 1، 2، و 3 چیست. خیلی خوب کار می کند؟ به عنوان مثال: چرا باید مرحله 1 را انجام دهیم؟ به نظر نمی رسد که ما برای هدف معمول آن یعنی کاهش واریانس راه اندازی شده ایم.
|
انگیزه پشت مراحل الگوریتم جنگل تصادفی
|
37809
|
یک آزمایش دو نتیجه ممکن دارد: A یا B. در 20 آزمایش، A 2 بار و B 18 بار اتفاق می افتد. از تعداد بیشتری آزمایش چه انتظاری دارم؟ با چه اطمینانی می توانم بگویم که تعداد میانگین نتیجه A 10٪ است؟
|
احتمال رخدادهای گسسته
|
81005
|
نوعی حراج را در نظر بگیرید که در آن مثلاً 1000 مشتری احتمالی به شما معرفی می شود. بر اساس اطلاعات مربوط به این موارد آینده - سن، جنس، نژاد، درآمد، پیشرفت تحصیلی و موارد مشابه - ممکن است برای ارائه محصول خود به بخشی از آنها، مثلاً 250، مناقصه بدهید. (هزینه مناقصه را نادیده بگیرید.) شانس خود را برای انتخاب زیرمجموعه مناسب به حداکثر برسانم، احتمالاً از مدلی از «دوستپذیری» محصولمان استفاده میکنم که با استفاده از رگرسیون لجستیک ساخته شده است. من می توانم به اندازه کافی در این قسمت قدم بزنم. با این حال، برای ایجاد مدل دوستداشتنی محصول، باید تحقیقاتی در بازار انجام دهم و سطح محصول را روی موضوعاتی آزمایش کنم که ممکن است از بین افراد جامعه بهکار گرفته شود. این در واقع نسبتاً پرهزینه است. علاوه بر این، احتمالاً باید با جمعیت شناسی جمعیتی که چشم انداز از آن استخراج می شود تنظیم شود. به عنوان مثال، مثلاً یک طرح فاکتوریل ممکن است از ما بخواهد که افراد مورد آزمایش را به نسبت مساوی در سطوح عامل نژاد استخدام کنیم، در حالی که در واقعیت ما احتمالاً با تعداد بسیار کمی از بومیان آمریکایی، مثلاً، در 1000 آینده نگر مواجه خواهیم شد، و به سادگی می توانیم به عنوان یک قاعده، به هیچ وجه به آنها توجه نکنید. (غم انگیز، اما واقعی.) چنین آزمایشی چگونه باید طراحی شود؟ برای مشخص بودن، متغیرهای طراحی همه عوامل طبقهای و ترتیبی هستند، کسر پیشنهاد یک پارامتر ورودی است (1/4 در مثال ذکر شده در بالا)، و همچنین حداکثر تعداد موضوعاتی که میتوان جذب کرد. به نظر می رسد ممکن است ترکیبی از طراحی آزمایشی و نمونه گیری تصادفی مناسب باشد، اما من برای همه پیشنهادات و نکات منطقی آماده هستم. همچنین باید توجه داشته باشم که با توجه به اندازههای احتمالی اثر کوچک و مجموعههای کوچک استخدام نمونه که میتوانیم بپردازیم، بعید است که تحقیقات بازار ضرایب رگرسیون آماری معنیداری را به دست آورد. و بنابراین بهینه سازی بیش از حد طرح آزمایشی احتمالاً احمقانه است و هر روش منطقی غیر دیوانه کننده کافی است.
|
چگونه آزمایش هایی را برای تحقیقات بازار طراحی کنیم (با یک پیچ)؟
|
66299
|
من در حال حاضر یک مدل تقویت گرادیان دارم که از بسته gbm در R استفاده می کند که مشاهدات را در پایان یک سال طبقه بندی می کند. رفتارهای روزانه برای هر مشاهده ثبت می شود (با اکثر آنها صفر). این مدل بر اساس مشاهداتی ساخته شده است که دارای داده های کامل یکساله است و عملکرد خوبی از نمونه دارد. برای اهداف توضیحی، دادههای کامل را به این صورت فرض کنید: id day1 day2 day3 day4 day5, ..., day365 1 1 1 2 0 0, ..., 0 2 3 0 1 0 0, ..., 0 3 1 1 2 0 0، ...، 0 4 1 0 0 0 0، ...، 1 با این حال، من می خواهم احتمال را پیش بینی کنم هر کلاس برای افراد جدیدی که هنوز یک سال در چارچوب نمونه گیری نبوده اند. بنابراین، تمام روزهای گذشته از امروز NA خواهد بود. این مانع استفاده از بسیاری از الگوریتمها میشود، اما در نظر گرفتن آنها بهعنوان 0 به معنای داشتن اطلاعات بیشتر از آنچه در واقع دارم است. بهترین راه برای درمان داده های از دست رفته مشاهده نشده اما قابل مشاهده هنگام پیش بینی چیست؟ من مدل را به صورت روزانه مجدداً تخمین نمی زنم، بلکه از برازش مدل از مجموعه آموزشی موجود استفاده می کنم.
|
چگونه به پیش بینی مشاهدات جدید با داده های ناقص از مدل ساخته شده از داده های کامل نزدیک شویم
|
4052
|
آیا توان رگرسیون لجستیک و آزمون t معادل است؟ اگر چنین است، آنها باید معادل چگالی داده باشند، منظور من این است که تعداد مشاهدات زیربنایی یکسان با یک آلفای ثابت 0.05 قدرت یکسانی را به دست می دهند. دو حالت را در نظر بگیرید: 1. [آزمون t پارامتریک]: 30 رسم از یک مشاهده دو جمله ای انجام می شود و مقادیر به دست آمده میانگین می شوند. این کار 30 بار برای گروه A (که دارای دوجملهای Pr 70/0 رخ میدهد) و 30 بار برای گروه B (که دارای دو جملهای Pr 75/0 است) انجام میشود. این 30 میانگین در هر گروه به دست میدهد که خلاصهای از 1800 برداشت از یک توزیع دوجملهای را نشان میدهد. آزمون t 58df برای مقایسه میانگین ها انجام می شود. 2. [رگرسیون لجستیک]: یک رگرسیون لجستیک با یک شیب رمزگذاری شده ساختگی انجام می شود که عضویت گروه و هر یک از 1800 قرعه کشی را نشان می دهد. سوال من دو قسمت دارد: 1. با توجه به مجموعه آلفای 0.05، آیا قدرت این متدولوژی ها یکسان خواهد بود یا متفاوت؟ چرا؟ چگونه می توانم آن را ثابت کنم؟ 2. آیا پاسخ سوال 1 نسبت به حجم نمونه وارد شده به آزمون t، حجم نمونه هر گروه در آزمون t، احتمالات دو جمله ای زیربنایی یا عامل دیگری حساس است؟ اگر چنین است، چگونه می توانم (بدون شبیه سازی) بدانم که قدرت واقعاً متفاوت است و چه نوع تغییراتی چه نوع تغییراتی در قدرت ایجاد می کند؟ متناوبا، کد R کار شده را ارائه کنید که مشکل را با استفاده از شبیه سازی حل کند.
|
چگونه قدرت رگرسیون لجستیک و آزمون t مقایسه می شود؟
|
67123
|
من مجموعه ای از داده ها را برای شرکت ها در یک صنعت خاص دارم. مجموعه داده ها دو سال متوالی 2000 و 2001 را در بر می گیرد. فرض کنید من 100 شرکت منحصر به فرد در مجموعه داده دارم و میانگین زمان خدمات را برای هر شرکت و برای هر سال محاسبه می کنم. چگونه می توانم آزمایش کنم که آیا میانگین زمان انتظار برای شرکت x در سال 2001 کمتر از میانگین زمان انتظار برای شرکت x در سال 2000 است؟ مجموعه داده شامل تمام تراکنش های خدماتی انجام شده توسط شرکت x در سال های 2000 و 2001 است و این چیزی است که من را گیج می کند. روشی که من از آزمون فرضیه می فهمم این است که شما فرضیه صفر را با استفاده از میانگین نمونه آزمایش می کنید. با این حال، با این دادهها، من میانگین جمعیت را دارم، بنابراین وقتی استاد شما از شما میخواهد آزمایش کنید که آیا میانگین زمان خدمت در سال 2001 کمتر از میانگین زمان خدمت در سال 2000 است، با استفاده از آزمون مقایسه میانگین ساده مانند آماره t به چه معناست. ?
|
آزمون فرضیه برای جامعه به جای نمونه
|
25855
|
من می دانم که PCA و PLS به عنوان روش های جایگزین برای یکدیگر در نظر گرفته می شوند. اما من به نوعی ترکیب این دو در مورد تعداد زیادی پیشبینیکننده با تنوع کم فکر میکنم. در آن صورت، وقتی PLS 1 جزء را با پیشبینیکنندههای اصلی اجرا میکنم، مدل معناداری از نظر پیشبینی تولید نمیکند. اما اگر ابتدا 10-20 جزء PCA را محاسبه کنم و PLS 1 جزء را با آن نمرات PC به عنوان پیش بینی کننده اجرا کنم، عملاً مدل از نظر قدرت پیش بینی بسیار خوب است. اما دوست دارم دلیلش را بدانم. آیا کسی می تواند توضیح دهد که چرا این بهتر از PLS 1 جزء با پیش بینی کننده های اصلی است؟
|
ترکیب تجزیه و تحلیل مؤلفه های اصلی و حداقل مربعات جزئی
|
29167
|
من از ماکرو Andrew F. Hayes برای SPSS (HCREG در http://www.afhayes.com/spss-sas-and-mplus-macros-and-code.html) برای انجام تحلیل های رگرسیون چندگانه با خطاهای استاندارد قوی استفاده می کنم. اطلاعاتی که در خروجی به دست میآورم در مقایسه با اطلاعاتی که SPSS هنگام اعمال رگرسیون چندگانه ارائه میدهد، محدود است. برای مثال، هیچ ضرایب استاندارد شده ای (بتا) برای پیش بینی کننده ها وجود ندارد و هیچ R-squared تنظیم شده ای وجود ندارد. آیا می توانم فرض کنم که ضرایب استاندارد شده مانند مدل بدون خطاهای استاندارد قوی باشد؟ اگر نه، آیا کسی می داند چگونه می توانم آنها را با دست محاسبه کنم؟ من همین سوال را برای R-squared تنظیم شده دارم. هر گونه کمکی بسیار قدردانی خواهد شد! پیشاپیش از شما بسیار سپاسگزارم.
|
خطاهای استاندارد قوی در رگرسیون چندگانه
|
29168
|
این مقادیر عبارتند از: 18.2 17.6 ------------------------------------------------ ------------------------------------------------ -------- 18.9 18.6 ------------------------------------------------ ------------------------------------------------ -------- 20 19.7 19.8 19.6 ------------------------------------------------ ------------------------------------------------ ---------- 21.4 20.6 21 ------------------------------------------------ ------------------------------------------------ -------- 21.9 22.1 22.2 22.2 21.6 ------------------------------------------------ ------------------------------------------------ -------- 23.1 22.6 23.2 23 22.9 23.2 23.2 23 22.5 22.5 ------------------------------------------------ ------------------------------------------------ -------- 23.8 24.1 23.8 23.6 24.3 23.7 24 24.2 24.4 23.8 23.5 ------------------------------------------------ ------------------------------------------------ -------- 24.7 24.9 25 25.4 25.1 25.3 25.3 25.2 25.2 24.7 24.6 24.5 24.5 ------------------------------------------------ ------------------------------------------------ -------- 25.6 26 25.6 25.6 25.6 25.7 25.6 26.3 26.3 26.2 26 25.9 26.2 26 ------------------------------------------------ ------------------------------------------------ -------- 27 27.2 27 27.2 26.7 27 26.6 27.3 26.8 26.6 26.9 27 26.5 ------------------------------------------------ ------------------------------------------------ -------- 28.2 27.7 28.1 27.9 27.6 27.7 28.1 28.2 27.5 ------------------------------------------------ ------------------------------------------------ -------- 28.6 29.1 28.7 29.1 ------------------------------------------------ ------------------------------------------------ ---------- 30.3 29.6 29.7 29.5 ------------------------------------------------ ------------------------------------------------ -------- 30.9 31 31 30.5 ------------------------------------------------ ------------------------------------------------ --------- 32.3 31.6 ------------------------------------------------ ------------------------------------------------ --------- این گروه ها هستند: 17.5 - 18.5 - 18.5 - 19.5 - 19.5 - 20.5 - 20.5 - 21.5 - 21.5 - 22.5 - 22.5 - 23.5 - 23.5 - 24.5 - 24.5 - 25.2 - 25.2 - 25.5 - 25.5 - 27.5 - 27.5 - 28.5 - 28.5 - 29.5 - 29.5 - 30.5 - 30.5 - 31.5 - 31.5 - 32.5 قراره انحراف معیار و مقدار مورد انتظار رو محاسبه کنم ... در مقایسه با داشتن فقط 15 چقدر فرق میکنه آنها را به گروه اگر من فقط 15 مقدار داشته باشم، می دانم چگونه stand.deviation و exp.value را محاسبه کنم. من از فرمول های معروف استفاده می کنم: Exp.value: ............(1/n)*Sum(xi).............. .... جایی که xi = همه 15 مقدار <br> Stand.deviation: ...(1/(n-1))*Sum(xi - u)^2...که در آن xi = تمام 15 مقدار و u = exp.value
|
اگر 100 مقدار به 15 گروه تقسیم شده است (توزیع نرمال) چگونه مقدار مورد انتظار و انحراف معیار را محاسبه کنم؟
|
66293
|
فرض کنید مشاهدات مکرری روی افراد داشتهام که با استفاده از معادله تخمین تعمیمیافته (GEE) آنها را تحلیل کردهام. روش محاسبه فاصله پیش بینی برای مشاهدات آینده مقادیر داده شده از پیش بینی کننده ها چیست؟ من از دستورالعمل ها یا مراجع قدردانی می کنم. متشکرم.
|
چگونه یک فاصله پیش بینی را از خروجی معادله برآورد تعمیم یافته محاسبه کنم؟
|
81103
|
من سعی می کنم مثال 2 را از مقاله کازلا و جورج توضیح نمونه گیری گیبس در R کار کنم. مثال این است: f(x | y) = y*exp(-yx) f(y | x) = x*exp (-xy) که در آن x، y روی [0،B] تعریف میشوند، ایده تولید توزیع f(x) است. کد من (در زیر) کار می کند، اما چیزی که من نمی فهمم نقش بازه ای است که x و y بر روی آن تعریف شده اند. در مقاله این فاصله [0، B] است. در مثال خود، نویسندگان میگویند که شبیهسازی آنها از B = 5 استفاده میکند، اما من نمیدانم کجا باید آن را در کد خود وارد کنم... X = rep(0, 500) Y = rep(0, 500) k = 15 برای (i در 1:500) { x = rep(1, k) y = rep(1, k) for (j در 2:k) { x[j] = y[j-1]*rexp(1، y[j-1]) y[j] = x[j]*rexp(1، x[j]) } X[i] = x[k] Y[i ] = y[k] } چاپ (حداکثر (X)) چاپ (حداکثر (Y)) هیست (X، شکست=40، فرکانس=F)
|
نمونهگر گیبس برای شرطیهایی که نمایی هستند: نمونهای از کاغذ Casella & George
|
31255
|
از _Robert (انتخاب بیزی، 2001)_، پیشنهاد شده است که تخمینگر بیز مرتبط با توزیع قبلی $\pi$ و ضرر چندخطی $(k_2/(k_1+k_2))$ شکنندگی $\pi( \theta|x)$. اثبات این است که $$ E^\pi[L_{k_1,k_2}(\theta,d|x)] = k_1\int\limits_{-\infty}^{d} (d-\theta)\pi( \theta|x)d\theta + k_2\int\limits_{d}^{+\infty}(\theta-d)\pi(\theta|x)d\theta $$ سپس با استفاده از هویت $$ \int\limits_{c<y} ( y-c)f(y)dy = P(y>c) $$ من به $$ E^\pi[L_{k_1,k_2}(\theta,d|x)] = k_2P^\pi(\theta>d|x) - k_1P^\pi(\theta<d|x) $$ اما او به $$ E^\pi[L_{k_1,k_2}(\theta,d| x)] = k_1\int\limits_{-\infty}^{d} P^\pi(\theta<y|x)dy + k_2\int\limits_{d}^{+\infty} P^\pi(\theta>y|x)dy $$ و سپس مشتق را در $d$ می گیرد. من چه چیزی را از دست داده ام و چرا او این آخرین مرحله را انجام می دهد؟ با تشکر
|
به حداقل رساندن خطای مطلق
|
96831
|
یک نفر با زدن 10 بار سکه برای هر نفر پشت پرده سعی دارد ادعا کند که روانی وجود دارد. n=10 p=1/2 در یک آزمون یک دنباله با سطح معنی داری 0.001 ایجاد شد. 999 نفر اول حق کافی برای رد فرضیه صفر را ندارند. اما نفر 1000 همه 10 را درست می گیرد. اگر Y تعداد افرادی از 1000 نفر باشد که هر 10 ورق سکه را درست انجام می دهند، آیا توزیع y نیز دو جمله ای خواهد بود؟ احتمال اینکه یک یا چند نفر از 1000 نفر 10 ورق سکه را به درستی حدس بزنند؟
|
توزیع سکه و احتمال
|
31253
|
من مکانهای زیادی را دیدهام که در آنها مجموعه دادههای ورودی/خروجی دارند، جایی که ابتدا یک خط رگرسیون خطی ایجاد میکنند، بایاس را تصحیح میکنند و سپس تنها از آن دادهها برای مدل خود استفاده میکنند. من متوجه نشدم این تصحیح سوگیری چیست؟
|
تصحیح سوگیری چیست؟
|
100087
|
من سه نوع دمای سایت دارم: سرد، متوسط و گرم. این یک اثر ثابت است - من به طور خاص در حال آزمایش هستم که آیا دما بر متغیر پاسخ من تأثیر می گذارد یا خیر. من معتقدم که نوع دما بلوک من است. من برای هر نوع دما سه سایت خواهم داشت. من فکر می کنم سایت یک اثر تصادفی است. در داخل هر سایت، من یک طرح فاکتوریل خواهم داشت که در آن دو فاکتور ثابت دیگر، A و B، متقاطع می شوند. من به تعامل هر سه اثر ثابت (tempxAxB) علاقه مند هستم. از خواندن کتاب آمار من، فکر میکنم که این یک طرح تقسیم شده است، اما کتاب آمار من اطلاعاتی در مورد طراحی فاکتوریل (تقاطع A و B) درون بلوکها ندارد. **آیا آنچه که من به تازگی توضیح دادم یک طرح طرح تقسیم شده است یا یک ANOVA سه طرفه؟** و اگر یک طرح تقسیم شده بد بو است، آیا کسی می تواند به من یک جدول ANOVA (نحوه محاسبه مجموع مربعات) با تنظیم مشابه را نشان دهد؟ در اینجا شماتیکی از تنظیمات وجود دارد: 
|
اسپلیت پلات با طرح فاکتوریل در مقابل آنالیز واریانس سه طرفه
|
25856
|
همانطور که می دانید، تولید کننده های رمز عبور زیادی برای افزایش امنیت کامپیوتر وجود دارد. فرض کنید چنین رمز عبوری به من داده شده است (مثلاً یک رشته از حروف، اعداد، نمادها و غیره)، آیا راهی وجود دارد که آزمایش کنم چقدر تصادفی است؟ آیا نوعی شاخص برای این اندازه گیری وجود دارد؟ با تشکر
|
تصادفی بودن رمز عبور تولید شده را آزمایش کنید؟
|
66749
|
نمیدانم اسم این توطئهها چیست و به همین دلیل به این سؤال یک عنوان احمقانه دادم. فرض کنید من یک مجموعه داده سفارشی به شرح زیر دارم 4253 4262 4270 4383 4394 4476 4635 ... هر عدد مربوط به تعداد پست هایی است که یک کاربر خاص در یک وب سایت مشارکت داده است. من به طور تجربی پدیده نابرابری مشارکت را همانطور که در اینجا تعریف شده است بررسی می کنم. برای اینکه درک آن آسان باشد، میخواهم طرحی تهیه کنم که به خواننده اجازه میدهد به سرعت عباراتی مانند 10٪ از کاربران 50٪ از دادهها را مشارکت میدهند استنباط کند. احتمالاً باید شبیه به این طرح رنگ آمیزی بسیار کثیف به نظر برسد:  من نمی دانم چگونه این طرح نامیده می شود، بنابراین من نمی دانم بدانید کجا باید جستجو کنید همچنین، اگر کسی یک پیاده سازی در `R` داشته باشد، بسیار عالی خواهد بود.
|
طرح تجمعی / تجمعی (یا تجسم منحنی لورنز)
|
25857
|
اساساً، من میخواهم به صورت دستی آنچه را که «پیشبینی (princomp(somedata))» تولید میکند محاسبه کنم. برای انجام این کار باید ماتریس ضرایب داشته باشم تا ضرایب %*% داده های جدید مقادیر پیش بینی شده هر جزء را تولید کنند. آیا کسی می تواند به من سرنخی برای بدست آوردن ضرایب بدهد؟
|
چگونه ضرایب را از شی prinomp در R بدست آوریم؟
|
31256
|
از آنجایی که OLS سعی میکند E[Y|X] را اندازهگیری کند، و درختهای رگرسیون سعی میکنند دادهها را به شاخههای مختلف تقسیم کنند، سپس میانگینهای پاسخ را در شاخههای مختلف در نظر بگیرند، آیا منطقی است که بگوییم درختهای رگرسیون به شدت بر OLS در پیشبینی تسلط دارند؟ همچنین، از آنجایی که OLS نسبت به موارد پرت مقاوم نیست، آیا منطقی است که بگوییم درختان رگرسیون اولین الگوریتم بهتری هستند که در یک مسئله پیشبینی آزمایش شوند؟ برای تفسیر، قطعا برای من منطقی است که دانستن $R^2$، ضرایب رگرسیون، مقادیر p و غیره مفیدتر از دیدن ساختار درختی است.
|
آیا درخت رگرسیون به شدت بر OLS در پیش بینی تسلط دارد؟
|
74975
|
من سری های زمانی دارم، به عنوان مثال، تولید ناخالص داخلی و بیکاری ('unemp'), freq= 4. اگر آن را به عنوان داده های مقطعی تفسیر کنم و به جای سری های زمانی تجزیه و تحلیل مقطعی انجام دهم چطور؟ وظیفه من این است که آزمایش کنم که بیکاری چگونه بر تولید ناخالص داخلی تأثیر می گذارد. آیا انجام چنین تحلیلی مجاز است؟ آیا ضرایب در مدل «lm(gdp~unemp)» توضیح اقتصادی دارند؟
|
سری های زمانی به عنوان داده های مقطعی
|
50383
|
من سعی میکنم مدلی به شکل زیر $$ Y = (\beta X - Z)^+ + \epsilon، $$ که $Y,Z \ge 0$ و $X,Y,Z \در \mathbb{ R}$ و $(x)^+ = \max(x,0)$. توجه داشته باشید که $Y، X$ و $Z$ از یک نمونه می آیند، به خصوص $Z$ ثابت نیست. من این کار را در R به روش زیر انجام دادم: positivePart<- function(x){ x[x<0]<-0 return(x)} my.optim = nls(y~ positivePart(beta*x-z) , start = list (بتا=5) ` من نتایج خوبی می گیرم، مشکل این نیست. سوال من: آیا نام، کلاسی برای این نوع مدل وجود دارد؟ اگر چنین است، کدام تابع R کاندیدای طبیعی برای حل این مشکل است، به عنوان مثال. برای فرموله کردن مدل در R؟ متشکرم
|
فرمول بندی یک مدل تقریبا خطی
|
34574
|
من یک متغیر وابسته دارم که شامل چهار دسته است. من همچنین چهار متغیر مستقل پیوسته دارم. دسته سوم بزرگترین گروه نمونه را پوشش می دهد. آیا انتخاب دسته ای که بزرگترین گروه را پوشش می دهد به عنوان عامل مرجع مهم است یا می توانم دسته دیگری را انتخاب کنم که برای مقایسه منطقی باشد؟ با تشکر فراوان برای پاسخ
|
آیا معیاری برای انتخاب عامل مرجع در رگرسیون لجستیک چند جمله ای وجود دارد؟
|
96832
|
من سعی می کنم یک متغیر تصادفی در دنیای واقعی را مدل کنم که تقریباً به صورت گاوسی رفتار می کند، بنابراین یک تناسب توزیع عادی معقول است اما به دور از کامل است. با این حال، من فقط به دنبال آن اهمیت می دهم، یعنی فقط به پیدا کردن $x$ مانند $P(X > x) < p$ اهمیت می دهم، با $p$ در هر جایی بین 1٪ تا 5٪. من متغیر تصادفی را به صورت $X\sim\mathcal{N}(\mu, \sigma^2)$ مدلسازی میکنم، با پارامترهایی که از همه نمونهها تخمین زده میشوند. من سعی کردم به دنبال راههای خاصی برای رسیدگی به این موضوع باشم و نتایج زیادی در رابطه با نظریه ارزش افراطی به دست آوردم، اما به نظر میرسد که بیشتر در مورد احتمالات کوچکتر از آنچه من اهمیت میدهم یا برای توزیعهای سنگین اعمال میشود، که مورد من نیست. هر اشاره ای؟
|
مدل سازی فقط دم
|
72720
|
من سعی می کنم الگوریتم ID3 را روی یک مجموعه داده پیاده سازی کنم. با این حال، همه ویژگی ها پیوسته هستند و می توانند مقادیری بین 1-10 داشته باشند. متوجه شدم که باید فواصل سطل را برای گسسته سازی مشخص کنیم، اما نتوانستم دقیقاً بفهمم که چگونه این کار را انجام دهیم. کسی میتونه توضیح بده که چطور میشه اینکارو کرد؟ مجموعه داده ای که من استفاده می کنم داده های سرطان پستان از بیمارستان های ویسکانسین است.
|
چگونه می توان ویژگی های پیوسته را در حین اجرای الگوریتم ID3 گسسته کرد؟
|
43753
|
فرض کنید من یک ماتریس $m \times n$ دارم که $m$ تعداد نقاط و $n$ تعداد ابعاد است. من می خواهم پارامتر بعد هدف را ارائه دهم که فرض کنید d است. d می تواند مجموعه ای از مقادیر مانند $\{2,4,6,\ldots,n\}$ باشد. سپس با استفاده از تحلیل تفکیک خطی فیشر به مسئله نزدیک میشوم تا ماتریس خروجی را بر حسب $m \times d$ به من بدهد. آیا این امکان وجود دارد؟ من هنوز نمی فهمم که چگونه LDA ابعاد را از فرضاً 10000 به 1000 کاهش می دهد.
|
چگونه می توانید کاری کنید که تجزیه و تحلیل متمایز خطی ابعاد را به تعداد ابعادی که به دنبال آن هستید کاهش دهد؟
|
34570
|
من یک سوال در مورد بهترین روش برای مقابله با بارگذاری متقاطع بر روی عوامل پس از انجام تحلیل عاملی اکتشافی با استفاده از چرخش پرومکس دارم. فقط برای ارائه کمی اطلاعات پس زمینه، من سعی می کنم ساختار عاملی مجموعه ای از 20 سؤال را که در مورد معنویت ایجاد کردم (بر اساس PCA که 4 مؤلفه را شناسایی کرد) تعیین کنم. پس از انجام EFA با 184 شرکتکننده، متوجه شدم که تعداد کمی از سؤالها به دو یا سه عامل تقسیم میشوند. من آنلاین خواندم که شما باید سوالاتی را که بارگذاری متقاطع آنها کمتر یا مساوی 2 است حذف کنید، اما من گیج شدم زیرا چرخش مورب (پرومکس) به معنای وجود همبستگی بین نیست؟ به عنوان مثال، اگر سوال 2 روی فاکتور 1 (.234)، ضریب 2 (.346) و ضریب 3 (.212) بارگذاری شود، چه کاری باید انجام دهم؟
|
تحلیل عاملی اکتشافی - بارگذاری های متقاطع پرومکس و عاملی
|
34578
|
من می خواهم تابع بقا را تخمین بزنم $S(t_0)=1-F(t_0)$، در یک نقطه خاص $t_0$ که در آن $F$ یک تابع توزیع تجمعی پیوسته است، بر اساس یک نمونه بدون سانسور $x_1،..، x_n$ و یک برآوردگر ناپارامتریک. تا اینجا، من دو برآوردگر $\hat S(t_0)=1-\hat F(t_0)$ را در نظر میگیرم، که در آن $\hat F$ (1) تخمینگر چگالی هسته (2) CDF تجربی است. از چه روش های دیگری می توانم استفاده کنم؟
|
روش های تخمین تابع بقا
|
40571
|
من یک نظرسنجی آنلاین روی دو نامزد انجام داده ام. به شرکت کنندگان هر دو نامزد نشان داده می شود و از آنها خواسته می شود که تعیین کنند کدام یک را بهتر دوست دارند. اینها برچسبهایی در مقیاس لیکرت من هستند: * شدیداً برای رامنی * متمایل به رامنی * خنثی * متمایل به اوباما * شدیداً برای اوباما من می خواهم آزمایش فرضیه را روی نتایج انجام دهم و ببینم کدام نامزد مطلوب تر است. روش صحیح طراحی تحلیل چیست؟ تا کنون من فقط مواردی را که قویاً برای هر یک از کاندیداها هستند مقایسه کرده ام و مقدار شمارش را به عنوان برنده گزارش کرده ام. اما من میخواهم سیستماتیکتر باشم و آزمون فرضیهها را دقیقتر انجام دهم. توزیع آرا مانند توزیع دوجمله ای است.
|
مقایسه دو جسم با مقیاس دو قطبی
|
50381
|
_**وظیفه:**_ من به عنوان مثال دارم. 1 گروه کنترل و 7 گروه آزمایش که به طور متفاوتی درمان می شوند. همه گروه ها دارای یک متغیر **دوجمله ای** وابسته هستند: 1 = موفقیت، 0 = عدم موفقیت. میخواهم **آزمونهای متوالی** را که کدام نسخه بهتر «عملکرد» دارد، بین گروه کنترل و گروههای آزمایشی انجام دهم و زمانی که یکی از گروههای آزمایش بهتر از گروه کنترل باشد، تستها را متوقف کنم (یا ثابت شود، که فرضیه صفر درست است). **_مشکل:_** بنابراین به نظر من **دو مشکل** بوجود می آید: ** تورم خطای آلفا I** با **آزمایش متوالی** و تورم خطای آلفا I با آزمایش **فرضیه چندگانه** (در هر نقطه زمانی) ) **_تحقیقات من تاکنون:_** **روش های متوالی گروهی**، **رویکردهای هزینه آلفا** و **SPRT** را برای حل متوالی پیدا کردم. مشکل تست و من **رویکرد به روز رسانی متوالی روشهای بیزی** را در کتاب کروشکه خواندم. برای آزمون فرضیههای چندگانه (در هر زمان)، تکنیکهایی وجود دارد که نرخ کلی خطای آلفا (در هر زمان) را کنترل میکنند، مانند **بونفرونی**، **روش افزایشی هوخبرگ** و غیره. اما من **نیافتم چگونه روش ها را ترکیب کنم**. با این وجود، روشهای متوالی گروهی و همچنین رویکردهای آلفا-هزینهای به نظر کمی انعطافناپذیر هستند. بهنظر میرسد بهروزرسانی SPRT و Bayesian برای نیاز به داشتن تعداد نمونه کوچک، قادر به آزمایش پس از هر شرکتکننده و نداشتن نقطه پایانی از پیش تعریفشده مطالعه، مناسبتر است. **به روز رسانی Bayesian** (با ROPE)، تا جایی که من می دانم، ****** چیزی شبیه **نرخ خطای آلفای قابل تعریف ** ندارد (و هیچ اصلاحی برای چندین متغیر وجود ندارد؟). SPRT همچنین از چندین متغیر پشتیبانی نمی کند. لطفا اگر اشتباه می کنم اصلاح کنید. آیا پیشنهادی دارید که کجا عمیق تر بگردیم؟ با احترام به آندریاس
|
تست متوالی احتمالات چندگانه (متغیرهای دوجمله ای)
|
25850
|
به خوبی شناخته شده است که اعضای عمومی در درک اعداد در اندازه معین مشکل دارند. یکی از مشکلات رایج برای افرادی که با روندهای جمعیتی ارتباط برقرار می کنند، کمک به مردم برای درک نرخ از 100000 است. این یک موضوع مهم در کمک به مردم برای درک تغییر آمارهای سلامت و جرم است. برای کسانی از شما که ارتباطات آماری را برای عموم انجام میدهید، چه چارچوبهای مرجع یا سایر تشابهات و کمکها را در کمک به مردم در ارائه نرخها از 100000 در چشمانداز موفق یافتهاید؟ یک سوال دیگر در مورد بحثی وجود دارد که به 100000 نفر اشاره می کند که یک شهر کوچک تا متوسط است، و به نظر می رسد در مورد مفید بودن یا نبودن این قیاس اختلاف نظر وجود دارد. پاسخ هایی با ذکر شواهد عالی خواهد بود، تجربیات و ایده های شخصی نیز مفید هستند. _(ص. من همچنین در حال شروع یک بحث در مورد متا در مورد اینکه آیا سوالات ارتباطات آماری مانند این را در این سایت برچسب/مجاز/تشویق کنیم)
|
چگونه به مردم کمک کنیم ...در هر 100000 را درک کنند؟
|
66745
|
بنابراین من در حال خواندن آموزش های آنلاین مختلف بوده ام و با مثالی مشابه کاری که می خواهم انجام دهم برخورد نکرده ام. من این مثال را در نظر گرفتم زیرا در تلاش بودم که تنها با کلمات توضیح دهم. این واقعاً اساسی است اما امیدواریم مفهوم را نشان دهد: movie_eg=data.frame(score_children=c(1.1,2.5,3.9,1.5,4.3), score_adults=c(12.5,13.1,18.1,13.1,18.8) brad_hrs=c(0.1,0.2,0.3,0.1,0.6), angelina_hrs=c(0.2,0.6,0.8,0.9,0.1), cgi_budget=c(0.9,0.1,0.2,0.3,0.8), seat_cost=c(0. 0.3،0.6،0.1،0.9)) rownames(movie_eg)=c(shrek، bourne, lockstock، scream، sharknado) بنابراین در واقعیت من بیش از 400 فیلم دارم که هر کدام با 2 نتیجه پیوسته (نمره) و 4 پیش بینی کننده اندازه گیری ها (براد، انگ، بودجه، صندلی) که همچنین پیوسته هستند. این دو نمره در بین فیلم ها همبستگی متوسطی دارند. میخواهم ببینم آیا ارتباط قوی بین هر/همه ارزشهای پیشبینیکننده و دو نتیجه وجود دارد - بنابراین در اینجا، چه چیزی (اگر چیزی) روی هر دو «نمرات» تأثیر میگذارد؟ بنابراین، من معتقدم که «متغیرهای وابسته» دو پیامد و «متغیرهای مستقل» چهار پیشبینی هستند. بنابراین من این کار را انجام می دهم: `summary.aov(manova(cbind(brad_hrs,angelina_hrs,cgi_budget, seat_cost)~cbind(score_children,score_adults),data=movie_eg))` و سپس می بینم که همه مقادیر P بزرگتر از 0.05 هستند، بنابراین هیچ چیز وجود ندارد تاثیر قوی روی امتیاز؟ اما seat_cost بهترین پیش بینی کننده بود (اگرچه هنوز قابل توجه نیست)؟ پاسخ صندلی_هزینه : Df Sum Sq Mean Sq F مقدار Pr(>F) cbind(score_children, score_adults) 2 0.45417 0.227085 17.583 0.05381 . Residuals 2 0.02583 0.012915 (احتمالاً قابل ذکر است که در واقعیت «نمرات» معیارهایی برای پاسخ به دارو هستند و پیشبینیها معیارهایی از عملکردهای مختلف سلولی هستند، بنابراین واقعاً ربطی به فیلمها ندارد!)
|
آیا MANOVA مناسب است؟
|
50384
|
من یک سوال کوتاه در مورد متغیرهای تعامل دارم: 1. در رگرسیون لاجیت با 2 متغیر دوگانه مستقل (A و B) هر دو متغیر معنی دار هستند. با گنجاندن تعامل (AxB) در رگرسیون، B ناچیز می شود. آیا همبستگی بالا (0.6) و معنی دار بین (AxB) و B دلیل این امر است؟ و در نتیجه آیا B بر متغیر وابسته تأثیر معناداری دارد یا خیر؟ 2. با گنجاندن اطلاعات جمعیتی و متغیرهای تعاملی آنها، همه متغیرهای مهم اولیه بی اهمیت می شوند (روش ورود). آیا استفاده از روش گام به گام به جلو هوشمندانه تر است؟ با انجام این کار، متغیرهای معنادار اولیه همچنان معنادار باقی می مانند. با این حال، همه متغیرهای جدید اضافه شده در مدل گنجانده نشده است. پیشاپیش از کمک شما بسیار سپاسگزارم
|
مشکل با متغیر تعامل برای رگرسیون لاجیت
|
86333
|
من از proc mixed برای داده های سلسله مراتبی چندسطحی استفاده می کنم. محدوده قابل قبول برای مقادیر خطای استاندارد برای جلوه های ثابت چقدر باید باشد؟
|
مقادیر قابل قبول برای خطای استاندارد برای جلوه های ثابت
|
55350
|
بنابراین من اغلب موقعیتی دارم که می خواهم زمان اجرا دو فرآیند رایانه را با هم مقایسه کنم. حتی زمانی که فقط زمان کاربر + سیستم اندازه گیری می شود (برخلاف زمان ساعت دیواری) یک عنصر تصادفی در زمان اندازه گیری شده وجود دارد. من میخواهم فرض کنم که این تصادفی به صورت پویسون توزیع میشود (تکلیف سوئیچها و وقفههای ناشی از رویدادهای تصادفی در سیستم کامپیوتری). فرضیه من این است که یک برنامه واحد با ورودی یکسان در مدت زمانی اجرا می شود که از زمان ثابتی برای اجرای دستورالعمل ها و مقداری زمان تصادفی تولید شده توسط یک یا چند فرآیند پواسون تشکیل شده است. بنابراین بیایید فعلاً ساده کنیم و فرض کنیم که یک فرآیند پواسون وجود دارد و هر بار که اتفاق میافتد به همان مقدار زمان میپردازد. ما نه لامبدا و نه t(lambda)، زمان مرتبط با آن را می دانیم. با این حال، من می توانم چندین بار همان برنامه را روی یک ورودی یکسان اجرا کنم. چگونه می توانم قسمت ثابت زمان اجرا را تخمین بزنم؟ چگونه می توانم لامبدا و t(lambda) را تخمین بزنم؟ مسئله عمیق تر این است که ... اگر من دو برنامه داشته باشم که یک کار را انجام می دهند و بخواهم احتمال اینکه یکی سریعتر از دیگری اجرا شود را تخمین بزنم چگونه این کار را انجام دهم؟ به نظر می رسد که اعمال کورکورانه توزیع نرمال می تواند مشکل ساز باشد. بخش تصادفی (به اعتقاد من) poisson است. اما قبل از اعمال توزیع پواسون، باید بخش ثابت را فاکتور بگیرم.
|
محاسبه احتمال یک برنامه سریعتر از برنامه دیگر است
|
72721
|
من به دنبال انجام یک رگرسیون خطی بر روی دو متغیر مستقل هستم که در نسبتهای متفاوتی وجود دارند. به عنوان مثال تلاش برای انجام یک رگرسیون خطی بر روی $Y$ که رفتار پرداخت (نرخ بازپرداخت) مشتریان بر اساس کیفیت (مثلا ضریب جینی) امتیازات اعتباری جدید و موجود مشتری ($X_1$ و $X_2$) است، به ترتیب) برای نسبت مشتریان جدید و موجود در نمونه تنظیم شده است. مشتریان موجود به نسبت $p$ و مشتریان جدید به نسبت $1-p = q$ حضور خواهند داشت. Y$، نرخ بازپرداخت درصدی از کل مشتریانی است که بازپرداخت می کنند. می توان آن را به صورت میانگین وزنی $Y = Y_1q + Y_2p$ بیان کرد که در آن $Y_i$ نرخ بازپرداخت مشتریان جدید/موجود است. به طور کلی مشتریان جدید بیشتر، q$$، تأثیر منفی دارد. امتیازدهی بهتر (X_1$، X_2$) و مشتریان موجود بیشتر p تاثیر مثبتی دارد. راه خوبی برای مدل سازی این چیست؟ آیا چیزی شبیه به زیر راه حل خوبی برای استفاده از $p$ و $q$ به عنوان نوعی اثر متقابل است؟ $Y = X_1+X_2+\frac{X_1}{q}+X_2 p$ آیا بهتر است p و q را نیز به عنوان متغیرها در نظر بگیریم؟
|
رگرسیون خطی با متغیرهای مستقل با نسبت های متفاوت
|
105800
|
من سه ساختار مختلف cRNA (ساختار A، B و C) را به تخمک ها تزریق کردم و تخمک ها cRNA های مربوطه را به عنوان کانال های یونی (کانال یونی A، B و C) بیان کردند. هدف من این بود که آزمایش کنم آیا این کانال های یونی عملکرد مشابهی دارند یا خیر. سپس، من روابط غلظت-پاسخ را برای تعیین EC50 برای هر کانال یونی اندازهگیری کردم (محور x غلظت cAMP (μM) است، محور y I/Imax است؛ I دامنه واقعی جریان است Imax حداکثر دامنه جریان در هنگام اشباع است. cAMP من نتایج EC50 را برای کانال یونی A = 59.01 کانال یونی B = 56.17 کانال یونی C = دریافت کردم. 61.24 باید از کدام تست استفاده کنم تا بفهمم از نظر آماری متفاوت هستند یا خیر.
|
کدام آزمایش برای تعیین اینکه آیا EC50 در سه رابطه دوز-پاسخ من متفاوت است یا خیر؟
|
72724
|
من می خواهم یک PDF گاوسی را ارزیابی کنم که وجود ندارد زیرا تعیین کننده سیگما تقریباً 0 یا -inf است (بستگی به پارامترها دارد) و شماره شرط از مرتبه 10^20 است. من به این چگالی نیاز دارم زیرا میخواهم ضرایب اختلاط خلفی را در یک مسئله معکوس با مخلوط گاوسی قبلی پیدا کنم. فرمول ضرایب اختلاط خلفی به این صورت است: $\lambda_{(x|y)}^ j= \frac{\pi_j N(\mathbf{y}; \mu_{yj}، \Sigma_{yj})} {\sum_{k=1}^n\pi_k N(\mathbf{y}; \mu_{yk}، \Sigma_{yk})}$ آیا کسی راهنمایی دارد که چگونه می توانم این ضرایب/چگالی را تقریب کنم؟ من نمونه ای از (x|y) ندارم. اما من $\mu_{x|y}^i$ و $\Sigma_{x|y}^i$ را میدانم. شکل کامل پسین $f(x|y)=\sum \lambda_{(x|y)}^ j N_m( \mathbf{\boldsymbol \mu_{x|y}^j,\boldsymbol \Sigma_{ است. x|. y}^j})$ جایی که $\boldsymbol \mu_{x|y}^i =\boldsymbol \mu_{x}^i + \Gamma_{xy}^i (\Sigma_y^i )^{-1}(y-\mu_{y}^i)$ $\boldsymbol \Sigma_{x|y}^i =\boldsymbol \Sigma_{x} ^i + \Gamma_{xy}^i (\Sigma_y^i )^{-1}(\Gamma_{xy}^i)^T$
|
ارزیابی پی دی اف گاوسی در هنگام det(Sigma)-->0
|
74978
|
اگر من در حال تماشای یک سری حسابها برای تراکنشهای ورودی و خروجی هستم، میخواهم متوجه تراکنشهای غیرعادی بزرگ یا تراکنشهای هر حساب خاصی در یک روز خاص باشم. بنابراین اگر حساب A معمولاً چند صد دلار و یک روز پنج هزار دلار جابهجا میشود، این یک مقدار پرت است. اگر حساب B معمولاً چند میلیون دلار به داخل یا خارج میکند و یک روز 20 میلیون دلار جابهجا میشود، این یک مقدار پرت است. کاری که من میخواهم انجام دهم این است که معیاری را ارائه کنم که باید نقاط پرت را برجسته کند - به تعداد انحرافات استاندارد در برابر جمعیت چرخش 60 روز گذشته فکر میکردم، اما نمیدانم که آیا این درست است یا خیر. من در حال بررسی هستم که ببینم آیا توزیع گاوسی است، اما آیا راههای بهتری برای رسیدن به چیزی که به دنبال آن هستم وجود دارد؟ من فکر میکنم این مجموعه سوالات متفاوتی را نسبت به تشخیص قوی پرت در سریهای زمانی مالی مطرح میکند.
|
تشخیص حرکات پول نقد دور از دسترس
|
105804
|
**معرفی مختصر:** من واقعاً مطمئن نیستم که چگونه متغیرهای وابسته را در مجموعهای از مدلهای خطی سلسله مراتبی که میخواهم اجرا کنم به درستی رفتار کنم. در مدلهای من، واحدهای سطح 1 کودکان و واحدهای سطح 2 مدارس هستند (ما اطلاعات کلاس درس نداریم بنابراین هیچ سطح تودرتو برای این وجود ندارد). **زمینه:** پنج مجموعه مدل وجود دارد، یکی برای هر متغیر وابسته. DVها همه معیارهای رفتاری یا شناختی هستند که در سطح 1 اندازهگیری میشوند. من از نرمافزار HLM 7 استفاده میکنم، اما به همین راحتی میتوانم از Mplus یا R استفاده کنم. هر یک از پنج DV به یک روش ارزیابی شدند. بیایید افسردگی را به عنوان یک مثال در نظر بگیریم: این ساختار حدود 6-8 مورد داشت (به عنوان سناریو به کودکان ارائه می شود) و برای هر مورد 2 گزینه پاسخ وجود داشت که می توان آنها را به عنوان گزینه های افسردگی و 2 گزینه پاسخ طبقه بندی کرد. که می تواند به عنوان نه گزینه های افسردگی طبقه بندی شود. 2 آیتم در هر مجموعه از نظر اندازه گیری به عنوان معادل در نظر گرفته می شوند - یعنی هیچ رتبه بندی ترتیبی از کمترین به افسرده ترین. شکل نهایی پیامد افسردگی (مانند 4 پیامد دیگر) نسبتی است که میتوان آن را به عنوان نسبت موارد/سناریوهایی که کودک بهگونهای به آن پاسخ داد که نشاندهنده افسردگی است، تفسیر کرد. من شخصاً از اینکه ارزیابی به این شکل انجام شد متنفرم، اما اکنون نمی توانم کاری انجام دهم. **مشکل:** با این حال، ممکن است بتوانم مجوز امتیاز دادن به ارزیابی ها را به روشی متفاوت دریافت کنم، مشروط بر اینکه بتوانم به داده های سطح مورد دسترسی داشته باشم. در حال حاضر فقط به نسبت های نهایی دسترسی دارم. بدیهی است که پیشفرض در HLM و سایر نرمافزارها این است که با نتایج بهطور معمول توزیع شوند. تنها توزیع مناسب برای بازه [0،1] که من از آن اطلاع دارم، بتا است، و من هیچ بسته R را برای پیاده سازی HLM برای متغیرهای توزیع شده بتا نمی شناسم، و همچنین فکر نمی کنم Mplus یا HLM بتوانند این کار را انجام دهند. من سعی کردم از تبدیل logit استفاده کنم تا نسبت ها را به مقیاسی برگردانم که از نظر تئوری می توانستم آن را به صورت عادی در نظر بگیرم، اما با تنها 6-8 مورد در هر DV هنوز چیزی نسبتاً گسسته دریافت می کنم. ناگفته نماند که پاسخهای 0 و 1، حتی زمانی که قبل از تبدیل لاجیت ابتدا به 0.0001 و 0.9999 تبدیل میشوند، این مقادیر شدید را به من میدهند که بسیار دور از سایر مقادیر تبدیلشده هستند. من هیستوگرام ها را پیوست کرده ام تا منظورم را نشان دهم. **سوال:** چه روشهای مناسبی برای درمان متغیر نتیجه در بازه [0،1] وجود دارد که وقتی میخواهم مجموعهای از مدلهای خطی سلسله مراتبی را اجرا کنم، فقط تعداد کمی از مقادیر مشاهدهشده را میگیرد؟ من واقعاً دوست دارم از نرمافزار HLM 7 برای این کار استفاده کنم (P.I آن را ترجیح میدهد)، اما اگر بهترین راه برای درمان این نوع متغیرها فقط در R قابل پیادهسازی باشد، من با آن گزینه نیز راحت هستم.  
|
روشی مناسب برای درمان متغیرهای توزیع شده [0،1] در HLM
|
86190
|
من یک توزیع خلفی روی مجموعهای از پارامترها دارم که با $\theta = \{w, \phi, \lambda\}$ نشان داده شدهاند و پسین توزیع مشترک با توجه به دادههای مشاهدهشده است، یعنی $P(\theta | D)$. در حال حاضر، این پسین یک توزیع نرمال چند متغیره است (با توجه به روش تقریبی آن). حالا میخواهم توزیعهای حاشیهای را از این مفصل پیدا کنم. بنابراین، برای مثال، $P(\lambda)$ را میتوان در حاشیهسازی بیش از $w$ و $\phi$ یافت. آیا راه آسانی برای انجام این کار برای چنین توزیع های MVN وجود دارد؟ همچنین آیا می توانم حالت این توزیع حاشیه ای را به راحتی پیدا کنم؟
|
به حاشیه رانده شدن از یک توزیع
|
66747
|
من یک طیف دارم. به طور خاص، دادههای من شدت نسبی $[I_{\tilde{\nu}}]$ در مقابل اعداد موج $[\tilde{\nu}]$ است. اعداد موج به طور مساوی نمونه برداری می شوند به طوری که ${d\tilde{\nu}} = c$، که $c$ مقداری ثابت است. با این حال، من نیاز دارم که داده ها بر حسب طول موج $\lambda = \frac{1}{\tilde{\nu}}$ ارائه شوند. وقتی این تبدیل را انجام می دهم، اندازه گام طول موج $d \lambda$ با افزایش طول موج کاهش می یابد. با این حال، من نیاز دارم که اندازه گام برای کل طیف ثابت بماند. من حدس میزنم که این مستلزم نوعی درونیابی یا برازش است. چگونه می توان نمونه برداری یکنواخت از طول موج $\lambda$ را انجام داد؟
|
درونیابی طیف: نمونه برداری ناهموار تا نمونه برداری یکنواخت
|
105802
|
من ماتریس متغیر وابسته $Y_{i,j}$ و ماتریس ویژگی $X_{i,k}$ دارم. هدف من این است که هر عنصر بردار $[y_{i,0},...,y_{i,J}]$ را با استفاده از مشاهدات جدید از ویژگیها، $[x_{i,0}، پیشبینی کنم. .,x_{i,K}]$، یعنی برای تخمین $Y_{i,j} = f(X_{i,k})$. در مشکل من، همه متغیرهای وابسته ارتباط نزدیکی با هم دارند و هر متغیر وابسته معین با تعداد زیادی از ویژگیهای موجود توضیح داده میشود (بنابراین برای هر متغیر وابسته، ویژگیهای اضافی زیادی وجود ندارد). علاوه بر این، تعامل بین ویژگیها احتمالاً در پیشبینی بردار پاسخ مهم است. نمونه ای از نوع مشکلی که من با آن روبرو هستم این است که هر متغیر وابسته طول عمر مورد انتظار گونه های مختلف ماهی باشد و ویژگی ها دمای آب، دوتایی آب نمک/شیرین، باینری دریاچه/اقیانوس، باینری برای وجود ماهی ها باشد. شکارچیان خاص، و غیره. ما یک مدل سریع می خواهیم که بتواند اینها را برای پیش بینی هر عنصر بردار ترکیب کند. راه های زیادی برای مقابله با این مشکل وجود دارد. چیزی که من به آن علاقه دارم این است که چه مدل های چند متغیری وجود دارند که هم در زمان اجرا سریع هستند (برای یک برنامه زمان واقعی است) و هم می توانند تعاملات را مدیریت کنند. من همچنین به دنبال مدلی هستم که خودکار باشد. انتخاب متغیر خودکار و انتخاب تعامل خودکار. من همچنین به دنبال رویکردی هستم که در آن نسخه چند متغیره بهتر از نصب مدلهای جداگانه برای هر $y_{.,j}$ تعمیم مییابد (که میتوان با splines، glms و غیره به آن دست یافت). پاسخ واضح جنگل های چند متغیره یا شبکه های عصبی چند خروجی و غیره است. من به دنبال یک رویکرد سریع تر هستم. به عنوان مثال، مدلی که هیچ نوع معماری «عمیق» یا تکراری ندارد که از نظر محاسباتی برای دادههای بزرگ سنگین باشد (یک مدل چند متغیره که در تبدیل ویژگیها یا تعاملات ویژگیها افزودنی است ایدهآل است). یک پاسخ خوب، اسپلاین های چند متغیره است، به دنبال موارد دیگر.
|
برخی از مدل های چند متغیره با تعامل ویژگی ها چیست؟
|
55354
|
من باید یک رگرسیون خطی چندگانه وزنی انجام دهم. اگر بخواهم مشاهدات خاصی را متفاوت وزن کنم، آیا درست است که باید y(i) آن مشاهده و ردیف مربوطه را در X با آن وزن ضرب کنم؟
|
رگرسیون خطی چندگانه وزنی
|
86332
|
چند رویکرد معمولی برای مدیریت داده های ناقص در فیلتر کالمن چیست؟ من در مورد وضعیتی صحبت می کنم که در آن برخی از عناصر بردار مشاهده شده $y_t$ گم شده اند، متمایز از حالتی که کل بردار مشاهده شده $y_t$ از قلم افتاده است. راه دیگری برای تفکر در این مورد این است که بعد $p$ بردار مشاهده شده برای هر نقطه زمانی متفاوت است. برای توضیح بیشتر زمینه من، مشاهدات پارامترهای تخمین زده شده از رگرسیون لجستیکی هستند که در هر نقطه زمانی انجام می شود. در حالی که هر رگرسیون لجستیک شامل متغیرهای کمکی یکسانی است، گاهی اوقات تخمین ها به دلیل هم خطی بودن داده ها برای آن نقطه زمانی تعریف نشده است.
|
چگونه داده های ناقص را در فیلتر کالمن مدیریت کنیم؟
|
72729
|
من چندین توضیحات کتاب درسی را در مورد RVM خواندهام و هیچکدام از آنها توضیح کافی (به زبان انگلیسی ساده) در مورد چگونگی دستیابی RVM به پراکندگی ارائه نمیدهند. احساس میکنم نویسندگان پاراگراف متنی را که نقاط را به هم مرتبط میکند، کنار گذاشتهاند و در عوض تصمیم گرفتهاند آن را با مشتقات ریاضی جایگزین کنند (بهجای تکمیل). لطفاً کسی می تواند ایده اصلی را در مورد نحوه عملکرد RVM در رابطه با یادگیری مدل های رگرسیون پراکنده توضیح دهد؟
|
RVM چگونه به پراکندگی می رسد؟
|
103735
|
من چند سری زمانی را با استفاده از «fitdistr» در R برازش میکنم. برای اینکه ببینم چگونه توزیعهای مختلف با دادهها مطابقت دارند، احتمال ورود به سیستم را از تابع «fitdistr» مقایسه میکنم. همچنین، من هم داده های اصلی و هم داده های استاندارد شده (یعنی (x-mean)/sd) را برازش می کنم. چیزی که من در مورد آن گیج شده ام این است که داده های اصلی و استاندارد شده احتمال ثبت علائم مختلف را ایجاد می کنند. به عنوان مثال اصل: loglik m s df t 1890.340 0.007371982 0.05494671 2.697321186 cauchy 1758.588 0.006721215 0.040891592210. 1787.952 0.007758433 0.04641496 0.007758433 استاندارد شده: loglik m s df t -2108.163 -0.02705098 0.5469259 2.697758585 - 2.69775859 -0.03361670 0.4069660 -0.03361670 لجستیک -2210.552 -0.02328445 0.4619152 -0.02328445 چگونه می توانم این را تفسیر کنم؟ loglik بزرگتر بهتر است یا کوچکتر؟ متشکرم
|
fitdistr loglik در R
|
55356
|
من یک مدل دو مرحله ای دارم که ضرایب مدل 1 به بردار $y$ برای مدل 2 تبدیل می شود. من برای آن ضرایب خطاهای استاندارد دارم و می خواهم مشاهدات مدل 2 را با توجه به خطای استانداردی که ضریب مربوطه داشت وزن کنم. در مدل 1. من معتقدم روش صحیح برای انجام این کار وزن کردن مشاهدات 2 در 1/SE است که در آن SE خطای استاندارد ضریب مربوطه در مدل است. 1. اکنون، داده های مدل 1 در واقع توسط من به طور مصنوعی ایجاد می شود. بنابراین می دانم که ضرایب با SE $\geq X$ کاملاً بی فایده هستند (من این را با توجه به تنظیمات خود می دانم). اکنون، در مدل 2، وزن دادن به مشاهدات بی فایده $1/\text{SE}$، با $\text{SE}\geq X$، به نظر میرسد که وزن آنها بیش از حد باشد، زیرا وزن واقعی آنها باید 0 باشد. آیا بهترین روش برای سنجش مشاهدات در چنین موردی است؟
|
یافتن وزن های صحیح با توجه به خطاهای استاندارد
|
55357
|
در برخی از مشکلات واقعی مانند احراز هویت، ما فقط داده های آموزشی برای یک برچسب داریم (x احراز هویت شده است) در حالی که برچسب دیگر هیچ داده ای ندارد یا فقط ورودی های کمی دارد (x یک جعل است). چه نوع تغییراتی را باید انجام دهیم تا یک طبقهبندی کننده را تنظیم کنیم تا با برچسبی که برای ورودیهای دیگر/ناشناخته هدف گذاری شده است، مقابله کنیم؟
|
طبقه بندی کننده باینری با داده های آموزشی فقط برای یک برچسب
|
105801
|
من با این مشکل در کنترل کیفیت و نمودارهای p گیر کرده ام. یک فرآیند مشخص وجود دارد که به طور دوره ای از هر 100 مورد نمونه برداری می کند و تعداد معیوب را شمارش می کند. در 50 نمونه آخر در مجموع 622 مورد معیوب یافتیم. من برای محدودیت های 3 سیگما در نمودار p خوب هستم و به ویژه: $$\bar{p} = \frac{622}{50*100} = 0.1244$$$$\text{UCL} = \ bar{p} + 3\sqrt{\frac{\bar{p}(1-\bar{p})}{n}} = 0.1244+ 3\sqrt{\frac{0.1244 (1-0.1244)}{100}} = 0.2234$$$$\text{LCL} = \bar{p} - 3\sqrt{\frac{\bar{p}(1 -\bar{p})}{n}} = 0.1244+ 3\sqrt{\frac{0.1244 (1-0.1244)}{100}} = 0.0254$$ که در آن $\bar{p}$ نشاندهنده نسبت تخمینی نقصهای فرآیند است که برای محاسبه محدودیتهای کنترل استفاده میشود. حال، با توجه به جابجایی واقعی نسبت تخمینی عیوب از $\bar{p}، چگونه میتوانم _میانگین تعداد نمونهها را قبل از اینکه نقطهای خارج از محدودههای کنترلی قرار گیرد (که نشانهای از خارج از کنترل است) پیدا کنم. $ به $p' = \bar{p} + 0.06 = 0.1844$، به عنوان مثال، به دلیل چیزی جدید است که اکنون بر روند تأثیر می گذارد؟ من فکر میکنم این به میانگین طول اجرا $\text{ARL}_1 = \frac{1}{1-\beta}$ مربوط میشود، اما در مورد مراحل منتهی به مقدار آن کاملاً مطمئن نیستم.
|
میانگین تعداد نمونه ها قبل از خارج شدن از کنترل در نمودار p
|
44891
|
من یک ACF را روی تابعی در R اجرا کردهام و آن را برمیگرداند: همبستگیهای خودکار سری «منحنی سینوسی»، با تأخیر > > 0 1 2 3 4 5 6 7 8 9 > 10 11 > 1.000 0.257 -0.712 -0.677 0.2249 0. -0.632 -0.633 0.242 > 0.731 0.246 > سوال من این است که چگونه می توانم بفهمم این تابع از کجای محور x عبور می کند یا چگونه می توان با استفاده از این مقادیر در چه تاخیری همبستگی برابر با صفر است پیش بینی کرد.
|
یافتن فاصله x از مجموعه ای از مقادیر
|
74970
|
من سعی می کنم بفهمم آیا می توانم به نحوی ارزیابی کنم که آیا یک مدل به طور قابل توجهی با داده های من مطابقت دارد یا خیر؟ آنها هر دو رگرسیون ترتیبی هستند و ما یک اصطلاح تعامل اضافی را در مدل دوم معرفی کرده ایم. اکنون می خواهیم بدانیم که آیا مدل بهبود یافته است یا خیر. آیا من فقط به شاخص های برازش مدل نگاه می کنم؟ چگونه بفهمم که مدل به طور قابل توجهی بهبود یافته است؟
|
مقایسه دو مدل رگرسیون ترتیبی
|
40575
|
من واقعا نمی دانم چه چیزی ممکن است، و می خواهم یک اشاره گر در جهت درست باشد. با تشکر فراوان. من اندازهگیریهای زمان و موقعیت را دارم که میتواند هر چیزی باشد، از راه رفتن شخصی، وسیله نقلیه در جاده، یا در پارکینگ، یا چاپگر در دفتر. من باید زمان سفر را برای وسایل نقلیه بین دو نقطه تعیین کنم. ممکن است مسیری پر پیچ و خم را طی کنند، یا حتی روزها طول بکشد تا از A به B بروند. یا ممکن است یک عابر پیاده یا یک وسیله نقلیه خدمات اضطراری باشند. من زمان تخمینی سفر را برای یک وسیله نقلیه معمولی در مسیر اصلی می خواهم. این تشخیص زمانی است که شخصی به اندازه کافی به آشکارساز نزدیک شود که شعاع خاصی دارد. گاهی اوقات شناسایی بسیار کمی وجود دارد، که احتمالاً به این معنی است که جاده خالی است و زمان سفر خوب است، اگرچه می تواند نشان دهنده بسته بودن جاده باشد و زمان سفر وحشتناک خواهد بود. یا ممکن است تشخیصهای زیادی وجود داشته باشد که نشان میدهد ترافیک حرکت نمیکند، و ممکن است برای خاموش کردن جاده در صف باشد، اما سایر وسایل نقلیه با سرعت عادی حرکت میکنند. نمودارها شبیه نویز تصادفی هستند. ویرایش: در حال حاضر من به دو روش نگاه می کنم: 1. استفاده از محدوده بین چارکی برای دور انداختن نقاط پرت 2. استفاده از فیلتر کالمن. من فکر می کنم فیلتر راه اشتباهی است زیرا من مدلی برای زمان سفر ندارم به جز لحظه به لحظه که انتظار ندارم زیاد تغییر کند.
|
از کجا شروع کنیم: سری های زمانی با فاصله ناهموار، با مقادیر پرت یا تصادفی زیاد
|
40572
|
من یک سری توصیفگر دارم، برخی پیوسته، برخی گسسته و یک متغیر خروجی که دوگانه است. من چندین پارامتر دارم، اما برای سادگی، بیایید بگوییم که داده های من شبیه به این هستند: جنسیت | سن | ژنوتیپ | دوز 1 | دوز 2 | نتیجه ------|-------|------------|---------|----------- |------------ M | 32 | AABB | 150 | 30 | بله F | 65 | aaBb | 110 | 30 | بله M | 42 | AaBb | 200 | 50 | نه ... من می خواهم یک مدل پیش بینی برای تعیین ترکیب بهینه دوز 1 و دوز 2 ایجاد کنم تا نتیجه دلخواه داشته باشد. بنابراین سوال من این است که اگر من یک سوژه مذکر جدید با ژنوتیپ و سن خاص داشته باشم، بهترین ترکیب دوزهایی که با بیشترین احتمال نتیجه مثبت می دهد کدام است؟ یا، برای دیدن همه چیز برعکس، با توجه به سایر پارامترها، چه شانسی برای داشتن یک نتیجه مثبت با مجموعه ای از دوزها وجود دارد؟ فکر کردم میتوانم از R برای ایجاد یک مدل خطی با «glm» استفاده کنم و سپس از «پیشبینی» برای پیشبینی نتیجه استفاده کنم. با این حال، من هرگز قبلاً با این نوع مشکلات برخورد نکردم و در مورد نحوه استفاده از این توابع و تفسیر نتایج آنها کمی سردرگم هستم. همچنین، من مطمئن نیستم که آیا این راه درست برای مقابله با مشکل است یا خیر. برای مثال، اجازه دهید برخی دادههای تصادفی تولید کنیم: set.seed(12345) num.obs <- 50 جنسیت <- نمونه (c(M، F)، num.obs، جایگزین=T) سن <- نمونه( 20:80، num.obs، جایگزین=T) ژنوتیپ <- نمونه (LETTERS[1:8]، num.obs، جایگزین=T) دوز. 1 <- نمونه (100:200، num.obs، جایگزین=T) دوز.2 <- نمونه (30:70، num.obs، جایگزین=T) نتیجه <- نمونه (0:1، num.obs، جایگزین=T) داده <- data.frame(جنس=جنس، سن=سن، ژنوتیپ=ژنوتیپ، دوز.1=دوز.1، دوز.2=دوز.2، نتیجه = نتیجه 135 51 0 5 M 64 E 121 57 1 6 M 50 H 179 61 1 اکنون، من یک مدل با مدل <- glm (نتیجه ~ جنسیت + سن + ژنوتیپ + دوز.1 + دوز.2، داده = داده، خانواده = دوجمله ای) ایجاد می کنم. سوال اول: بدون هیچ دانش پیشینی از تعاملات بین توصیفگرها، **چگونه فرمول صحیح را انتخاب کنم**؟ آیا باید تعاملات مختلف را امتحان کنم و ببینم کدام مدل بهترین تناسب را دارد، به عنوان مثال. به دنبال انحراف باقیمانده یا AIC هستید؟ آیا عملکردهایی برای انجام این کار برای من وجود دارد یا باید همه ترکیب ها را به صورت دستی امتحان کنم؟ خوب، فرض کنید متوجه شدم که مدل خوب است، اکنون از «پیشبینی» new.data <- list(sex=factor(M, level=c(M, F))، استفاده میکنم، age=35، ژنوتیپ=فاکتور(C، سطوح=حروف[1:8])، دوز.1=150، دوز.2=30) نتیجه <- پیش بینی (مدل، داده های جدید، se=T) کدام می دهد: $fit 1 -2.774538 $se.fit [1] 1.492594 $residual.scale [1] 1 پس... با این چه کار کنم؟ «?predict.glm» میگوید «$fit» پیشبینی است، اما بدیهی است که این یک نوع پیشبینی بله/خیر نیست... چیزی که در حالت ایدهآل به آن نیاز دارم چیزی در خطوط «89٪ بله / 11٪ نه» است. **چگونه نتیجه «پیشبینی» را تفسیر کنم و چگونه میتوانم نوع نتیجهای را که میخواهم داشته باشم؟** در نهایت، **آیا توابعی برای کاوش در فضای پارامتر وجود دارد تا نموداری با نتیجه در آن دریافت کنم. فضای دوز 1 در مقابل دوز 2؟ ** ویرایش: فقط برای روشن شدن: من دلیل خاصی برای استفاده از یک مدل خطی تعمیم یافته ندارم، این فقط چیزی است که به عنوان راه حل ممکن به ذهن من رسید. اگر کسی می تواند راه های دیگری برای حل این نوع مشکلات فکر کند، من با کمال میل از پیشنهاد او استقبال می کنم!
|
پیش بینی یک متغیر دوگانه
|
6636
|
(از mathoverflow.net به اینجا هدایت شده است) سلام، در محل کار از من پرسیده شد که احتمال قطع شدن یک کاربر در وب سایت وجود دارد. من برخی از معیارهای زیر را دارم. کل خرابی سیستم = 500000 ثانیه در سال. مجموع ثانیه ها در سال = 31,556,926 ثانیه. بنابراین، p از سیستم پایین = 0.159 یا 1.59٪ ما همچنین می توانیم فرض کنیم که خرابی به طور مساوی برای یک دوره تقریباً 2 ساعت در هفته رخ می دهد. در حال حاضر، در اینجا بخش روی حیله و تزویر است. ما یک معیار برای تعداد کل کاربرانی که سعی در استفاده از این سرویس دارند = 16,000,000 در یک بازه زمانی مشابه داریم. با این حال، این موارد در کل زمان صرف شده برای استفاده از سرویس تقسیم می شوند. بنابراین، فرض کنید 7،000،000 کاربر داریم که بین 0 تا 30 ثانیه برای استفاده از این سرویس صرف می کنند. بنابراین برای این کاربران احتمال ضربه زدن به سیستم زمانی که در دسترس نیست چقدر است؟ (اگر این کارها را ساده کند، می توانیم میانگین کل 15 ثانیه را فرض کنیم) من نسبت شانس و عوامل خطر را جستجو کردم، اما مطمئن نیستم که چگونه احتمال وقوع رویداد را محاسبه کنم. پیشاپیش متشکرم P.S. پاسخ احتمالی در http://mathoverflow.net/questions/52816/probability-calculation-system-uptime- likelihood-of-occurence به من داده شد و از توصیه های مربوط به ارسال سؤال در مناسب ترین انجمن پیروی می کردم.
|
محاسبه احتمال، زمان به کارگیری سیستم، احتمال وقوع
|
92062
|
من سعی میکنم مجموعهای از دادههای غیرصحیح پیوسته غیرمنفی را تجزیه و تحلیل کنم (یعنی نقاط داده شمارش نمیشوند) که عمدتاً بین 0 و 3 هستند که توزیع آنها حتی پس از تبدیل log بسیار به راست است. من فکر می کنم که یک احتمال ممکن است مدل مانعی برای مدل سازی نقاط صفر و مثبت به طور جداگانه باشد، اما آیا کسی می تواند گزینه های ممکن دیگری را پیشنهاد دهد؟ متغیرهای کمکی شامل متغیرهای پیوسته طبقه ای و غیر منفی می باشند.
|
انتخاب مدل برای نتیجه منحرف راست پیوسته غیرمنفی و مثبت
|
100357
|
من اخیراً با استفاده از چند متن مقدماتی مشغول مطالعه آمار هستم. مسئله من این است که این متون فقط روش های تحلیلی را ارائه می دهند که برای روابط خطی مناسب هستند: ضرایب همبستگی پیرسون r و غیره. سوال من این است که چه ابزارها، روش ها و تکنیک هایی برای تجزیه و تحلیل آمارهای غیر خطی و غیر گاوسی قابل استفاده است، با این سوال که از چه منابعی (به ویژه کتاب ها/کتاب های درسی) می توانم برای آشنایی با این روش ها استفاده کنم؟
|
آمار غیر خطی؟
|
50389
|
من در حال انجام یک کار رگرسیونی هستم، جایی که سعی میکنم گاوسیهای چند متغیره زیربنایی را از مجموعهای از بردارهای $n$، $p$-بعدی کشف کنم. به عنوان مثال، با تقسیم مجموعه به $S_i$ و $S_j$، من میانگین نمونه و ماتریس کوواریانس (${\sum}_{i,j}$) را محاسبه میکنم و تصمیم میگیرم که بهترین تقسیم بر اساس افزایش اطلاعات (تعریف شده توسط آنتروپی ($log(det({\sum}_{i,j}))$). و سپس روی زیر مجموعههای $S_i$ و $S_j$ بازگشت میکنیم. من هستم تلاش برای تعریف چند معیار توقف برای این الگوریتم، که اساساً باید این باشد که وقتی واریانس توزیع به اندازه کافی کوچک است (مطمئن نیستم چگونه این آستانه را تعریف کنیم) متوقف شود تا از تطبیق بیش از حد با داده های آموزشی جلوگیری شود. 1) چگونه می توانم اندازه گیری واریانس کلی را بدست بیاورم، آیا فقط $trace({\sum})$ است؟ 2) چگونه می توانم یک آستانه مناسب انتخاب کنم؟ با تشکر
|
اندازه گیری واریانس کلی از گاوسی چند متغیره
|
92063
|
من روی پروژهای کار میکنم که از من میخواهد ویدیوی ورزشکاران را تماشا کنم و صافی/صافی/مواج بودن ستون فقرات آنها را هر اصطلاحی که قابل قبول است اندازهگیری کنم. تقسیم ستون فقرات به قطعات نیز ممکن است قابل قبول باشد اگر بهترین نتایج را ارائه دهد. در حال حاضر می توانم نقاط x و y را روی تصاویر ثابت رسم کنم. مطمئن نیستم قدم بعدی من چه خواهد بود. اقدامات ساده مانند انحنا و شعاع اگر دایرههای کوچک درست کنم کار نمیکند زیرا ممکن است سوژه در تصویر نزدیک یا دور باشد و نتایج را منحرف کند. من دوست دارم خروجی نوعی نسبت باشد.
|
صافی / موج دار بودن خط
|
100350
|
اینجا به کمک نیاز دارم من برخی از داده ها را دارم که در آنها هر ورودی می تواند یک یا چند سطح از یک متغیر طبقه بندی را بگیرد. به عنوان مثال، من یک دسته با 3 سطح دارم: دسته ورودی 1 A, B, C 2 B 3 C, A, B چگونه باید آن را در یک فایل سازماندهی کنم تا به راحتی اجازه دهم R بین سطوح تمایز قائل شود تا تجزیه و تحلیل خود را انجام دهم. . چیزی شبیه به این: دسته بندی ها other_results را وارد می کند A 2 ~ B 3 ~ C 2 ~ من به انجام یک لیست جدا شده با کاما فکر کردم، همانطور که در مثال 1 نشان داده شده است. اما پس برای تبدیل آن رشته به دسته ها باید در R چه کاری انجام دهم؟ توضیح: مایلم از ایجاد ستون برای هر سطح اجتناب کنم. این متغیر دارای سطوح زیادی است و متغیرهای زیادی در حال حاضر وجود دارند. این باعث می شود که فایل بیهوده بزرگ شود و به راحتی توسط انسان قابل خواندن نباشد. با تشکر
|
برای تجزیه و تحلیل R آسان، داده ها را با سطوح مختلف یک متغیر طبقه بندی در هر ورودی سازماندهی کنید
|
72726
|
من مشکل زیر رو دارم من گروهی از کلمات دارم که همه جایگشت یکدیگر هستند. در یک مجموعه داده تصادفی از توالی های DNA می توانم توزیع تعداد دفعات کلمه را محاسبه کنم. در مجموعه دادههای بیولوژیکی من میخواهم واژههای رخداد را با توزیع آنهایی که روی دادههای تصادفی هستند مقایسه کنم. نتیجه نهایی من باید فهرستی از جایگشت هایی باشد که به طور قابل توجهی غنی شده اند. (دم توزیع داده های واقعی در مقابل توزیع داده های تصادفی کمی متفاوت خواهد بود) با توجه به توزیع تصادفی (نوع ناشناخته، اساساً یک تابع با ارزش مثبت با حداکثر حدود 1 و یک دنباله بلند در سمت راست) من می توانم مقادیر p را برای هر کلمه در گروه محاسبه کنید، اما فکر میکنم این ممکن است به این معنی باشد که من به یک تصحیح فرضیه چندگانه نیاز دارم، اگرچه میتوانید بیان کنید که فرضیهها به وضوح وابسته هستند. ما می توانیم این مشکل را در یک مشکل تاس قرار دهیم. فرض کنید یک قالب با N طرف داریم و آن را به تعداد T بار می چرخانیم. در ادامه سعی میکنیم ارزیابی کنیم که آیا برخی از طرفها بسیار بیشتر از آنچه انتظار میرود رخ میدهند یا خیر. این منجر به N فرضیه می شود که در آن بررسی می کنیم که آیا وقوع سمت N بسیار بیشتر از حد انتظار است یا خیر. این فرضیه ها مستقل نیستند زیرا وقوع یک طرف بر طرف دیگر تأثیر می گذارد. در این صورت آیا می توان بیان کرد که قالب نسبت به زیر مجموعه ای از اضلاع تعصب دارد؟ اگر امکان استفاده از p-value وجود ندارد، (به دلیل تعدد هیپ کور)، آیا منطقی است که از p-value به سادگی به عنوان مکانیزم رتبه بندی استفاده کنیم؟ با تشکر فراوان برای هر گونه کمک ارائه شده!
|
یک آزمایش با فرضیههای فراوان (وابسته!) برای پیشبینی موتیف در توالیهای DNA
|
110924
|
فرض کنید من در طول یک فصل برای گروهی از ورزشکاران در دوی 800 متر مشاهدات زمانی مکرر را انجام داده ام. ** من می خواهم این فرضیه را آزمایش کنم که همه زمان ها از یک توزیع نامشخص یکسان گرفته می شوند (یعنی توزیع زمان های پایان هر ورزشکار همه یکسان است). ** تعداد آزمایشات برای هر ورزشکار ممکن است تا حدودی متفاوت باشد. . من مایلم فرض کنم که ورزشکاران از طریق نوعی اثر رقابتی بر یکدیگر تأثیر نمی گذارند (باب سریعتر نمی دود زیرا بیل جلوتر است)، اما عملکرد هر ورزشکار در طول زمان با هم مرتبط است. آیا آزمون فرضیه ساده ای وجود دارد که بتواند این موضوع را مدیریت کند؟ اولین تمایل من یک آزمون K-Sample Anderson Darling یا آزمون رتبه برابری جمعیت Kruskal-Wallis بود، اما مطمئن نیستم که آیا می توان از آنها در داده های پانل استفاده کرد زیرا عملکرد هر ورزشکار در طول زمان مستقل نیست. من فقط دیدهام که این آزمایشها برای گروههایی در یک مقطع، مانند آزمایش برابری توزیع درآمد متوسط در هر چهار منطقه سرشماری به طور همزمان با دادههای سطح ایالت ایالات متحده اعمال میشوند. در عوض، آیا میتوانم از اینها برای آزمایش اینکه آیا توزیع درآمد متوسط هر ایالت در طول زمان شبیه توزیعهای سایر ایالتها است یا خیر استفاده کنم؟
|
چند نمونه تست برابری توزیع ها برای داده های تابلویی
|
105808
|
من یک RBM را با موفقیت پیادهسازی کردهام و آن را با CD-k آموزش دادهام، اما اکنون مشکلاتی در انجام همین کار با Convolutional RBM دارم. محاسبه گرادیان های بایاس مرئی و پنهان آسان است: v1 - v2 برای بایاس مرئی و h1_k - h2_k برای بایاس پنهان. اما من نتوانستم ببینم چگونه گرادیان ها را برای وزن ها محاسبه کنم. وزن ها ماتریس های NH x NH هستند. در RBM آسان بود زیرا ماتریس وزن بعد NH * NV بود و با ضرب h1 * v1 - h2 * v2 میتوانیم شیبها را داشته باشیم، اما بعد در CRBM معادل نیست. قانون محاسبه گرادیان چیست؟ یا راه دیگری برای به روز رسانی وزنه ها وجود دارد؟ احتمالاً یک پیچیدگی است، اما من نمی توانم ببینم چگونه ...
|
چگونه می توان گرادیان وزن را برای RBM کانولوشن با CD محاسبه کرد؟
|
92068
|
من یک نمونه $x=(4، 3، 1، 2، 2، 2، 2، 5، 7، 3، 1، 2، 3، 4، 3، 2، 3، 3، 3، 4) دلار دارم اندازه $n=20$. از یک توزیع دو جمله ای با 10 آزمایش و احتمال موفقیت $p$. از من خواسته شده است که فاصله اطمینان مجانبی 95% را بر اساس احتمال ایجاد کنم. من فکر می کنم این باید مجموعه $$ C = \left\\{ p \in (0,1) باشد: \prod_{i=1}^{n} p^{x_i} (1-p)^{10- x_i}\geq \exp(-q/2) \prod_{i=1}^{n} (\overline{x}_n/10)^{x_i} (1-\overline{x}_n/10)^{10-x_i} \right\\} $$ که در آن q مقدار $0.95$ توزیع $\chi^2_1$ است. اگر گزارشهای هر دو طرف را بگیرم، نابرابری \begin{align*} &n\overline{x}_n\log p + (n10 - n\overline{x}_n)\log(1-p) \\\ & میشود. \quad \quad \geq -q/2 + n\overline{x}_n\log(\overline{x}_n/10) + (n10 - n\overline{x}_n)\log(1-\overline{x}_n/10) \end{align*} اگر دادهها را وصل کنم، $59 میشود\log p + 141\log(1- p) \geq -123.2343 $$ مشکل این است که این نابرابری برای هیچ $p \in (0,1)$ برآورده نمی شود، به این معنی که مجموعه اطمینان $C$ خالی است ویرایش: جمله قبلی نادرست است. من این تابع را در مقیاسی بسیار بزرگ ترسیم میکردم تا متوجه شوم که برای مدت کوتاهی بالاتر از -123.2343 دلار است. فکر می کنم سوال در عنوان هنوز پابرجاست. آیا من کار اشتباهی انجام می دهم؟ ویرایش: آیا چیزی شبیه به این http://stats.stackexchange.com/a/41003/42850 در اینجا در حال انجام است؟
|
فاصله اطمینان مجانبی خالی؟
|
92067
|
با توجه به $T=G+A$ که $A$ و $G$ متغیرهای تصادفی مستقل هستند، میخواهم توزیع $G$ را با توجه به توزیعهای تجربی (اندازهگیری شده) $T$ و $A$ تخمین بزنم. توجه داشته باشید: هر سه متغیر تصادفی تضمین میشوند که در $[0,\infty]$ محدود میشوند (برخلاف مورد مطالعهشدهتر که در آن $A$ یک گاوس میانگین صفر است). من میدانم که این یک دکانولوشن است، و من دو دکانولوشن مختلف را با موفقیت کمی امتحان کردهام. قبل از جداسازی، اکثر مراجع توصیه میکنند که چگالیهای تجربی (در این مورد، $T$ و $A$) را با استفاده از تخمین چگالی هسته به شکلهای نرمتر تبدیل کنید. من اینها را به ترتیب $P_T$ (سیاه) و $P_A$ (قرمز) می نامم. سپس من دو روش دکانولوشن را امتحان کردم. (1) محاسبه $\mathcal{F}^{-1}(\mathcal{F}(P_T)/\mathcal{F}(P_A))$ با استفاده از توابع fft و ifft matlab. (سبز) (2) محاسبه ماتریس deconvolution برای $A$ و استفاده از روش SVD کوتاه برای حل $P_G$. (آبی)  تقریباً مطمئناً شکل کلی هر دو راه حل صحیح است، به جز.. (1) هر دو به طور قابل توجهی نوسان می کنند، در حالی که $P_G صحیح است. $ نمی شود، و (2) هر دو دکانولوشن اعداد منفی به من می دهند. به نظر می رسد که باید راهی برای اعمال مثبت بودن $G$ وجود داشته باشد، اما من مطمئن نیستم که چگونه. افکار؟
|
انحراف مجموع منجر به اعداد منفی می شود
|
6630
|
من به راهنمایی در مورد سطح مناسب ادغام برای استفاده برای آزمون تفاوت میانگین در داده های سری زمانی نیاز دارم. من نگران تکرار شبه زمانی و فداکاری هستم که به نظر می رسد در این برنامه در تنش است. این به جای یک آزمایش دستکاری به یک مطالعه قاعدگی اشاره دارد. **یک تمرین نظارتی را در نظر بگیرید**: سیستمی از حسگرها محتوای اکسیژن محلول (DO) را در بسیاری از نقاط در عرض و عمق یک حوض اندازه گیری می کند. اندازهگیریها برای هر حسگر دو بار در روز ثبت میشوند، زیرا مشخص است که DO در طول روز متفاوت است. این دو مقدار برای ثبت یک مقدار روزانه به طور میانگین محاسبه می شوند. هفته ای یک بار، نتایج روزانه به صورت مکانی جمع می شوند تا به یک غلظت DO هفتگی برای کل حوض برسند. این نتایج هفتگی به صورت دورهای گزارش میشوند، و نتایج جمعآوریشده - هفتگی میانگین میشوند تا غلظت DO ماهانه برای حوضچه بدست آید. نتایج ماهانه به طور میانگین برای ارائه یک مقدار سالانه محاسبه می شود. میانگینهای سالانه برای گزارش غلظتهای DO دههای برای حوضچه به طور میانگین محاسبه میشوند. هدف پاسخگویی به سوالاتی از این قبیل است: آیا غلظت DO حوضچه در سال X بیشتر، کمتر یا با غلظت سال Y برابر بود؟ آیا میانگین غلظت DO در ده سال گذشته با دهه قبل متفاوت است؟ غلظت DO در یک حوضچه به بسیاری از ورودی های بزرگ پاسخ می دهد و بنابراین به طور قابل توجهی متفاوت است. آزمون معناداری لازم است. روش استفاده از آزمون T مقایسه میانگین هاست. با توجه به اینکه مقادیر دهگانه میانگین مقادیر سالانه و مقادیر سالانه میانگین مقادیر ماهانه هستند، این امر مناسب به نظر می رسد. ** سوال اینجاست ** - می توانید میانگین ده ساله و مقادیر T آن میانگین ها را از مقادیر DO ماهانه یا از مقادیر DO سالانه محاسبه کنید. البته میانگین تغییر نمی کند، اما عرض فاصله اطمینان و T-value تغییر می کند. با توجه به مرتبه قدر بالاتر N که با استفاده از مقادیر ماهانه به دست می آید، اگر در آن مسیر بروید، CI اغلب به طور قابل توجهی سفت می شود. این می تواند نتیجه معکوس در مقایسه با استفاده از مقادیر سالانه با توجه به اهمیت آماری یک تفاوت مشاهده شده در میانگین ها، با استفاده از آزمون یکسان بر روی داده های یکسان به دست دهد. **تفسیر مناسب از این اختلاف چیست؟** اگر از نتایج ماهانه برای محاسبه آمار آزمون برای تفاوت در میانگینهای دههای استفاده میکنید، آیا با تکرار شبه زمانی مخالف هستید؟ اگر از نتایج سالانه برای محاسبه آزمون های دهگانه استفاده کنید، آیا اطلاعات را قربانی می کنید و در نتیجه شبه تکرار می کنید؟
|
چه وضوح زمانی برای آزمون اهمیت سری زمانی؟
|
110928
|
من با مجموعه دادهای کار میکنم که شامل نرخهای تخریب پروتئینها در یک ارگانیسم است، در مجموع حدود 3750 نرخ. به دست آوردن این نرخ ها دشوار است، بنابراین اکثر نرخ ها تنها با n=1 گزارش شده اند، با این حال یک زیر مجموعه کوچک با n=2 گزارش شده است، بنابراین انحراف استاندارد نمونه برای هر پروتئین را می توان (ضعیف) از این تخمین زد. این نرخها از جمعیت زیادی از سلولها نمونهبرداری میشوند، بنابراین منطقی است که بگوییم هر گونه واریانسی تجربی است و نه ناشی از واریانس بین سلولها. سوال من این است: اگر همه خطاها به دلیل خطای آزمایشی باشد، و بنابراین احتمالاً از همان توزیع گرفته شده است، آیا منطقی است که سعی کنیم توزیع خطا را استنتاج کنیم و سپس آن را به پروتئین هایی که سرعت آنها فقط یک بار نمونه برداری شده است تعمیم دهیم؟ از طرف دیگر، آیا من یک ترفند را از دست دادهام و واقعاً باید کاری کاملاً متفاوت انجام دهم! من آموزش آماری رسمی زیادی ندارم، بنابراین در اینجا کمی ضرر دارم. پیشاپیش ممنون
|
آیا می توان خطاهای تجربی را از یک نمونه فرعی از یک جمعیت برون یابی کرد؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.