_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
87478
| ||
66029
|
من می خواهم همبستگی بین هزاران ژن را با استفاده از داده های بیان در بسیاری از نمونه های مختلف محاسبه کنم. برای غیر زیست شناسان، سعی می کنم توضیح دهم. اساسا، من دارای ژنهای $i=1..M$ و نمونههای $j=1..N$ و یک ماتریس $(M \times N)$ $X$، با ورودیهای $X_{ij}$ مربوط به عبارت هستند. سطوح ژن $i$ در نمونه $j$. بنابراین، همبستگیهایی که من محاسبه میکنم بین بردارهای $X_{k} = (X{_k}{_1}، X{_k}{_2}،..، X{_k}{_N})$ و $X_l = ( X{_l}{_1}، X{_l}{_2}،...، X{_l}{_N})$. مشکل من این است که گاهی اوقات همبستگی های قوی همبستگی های ضعیف تری را که هنوز از نظر بیولوژیکی مرتبط هستند پنهان می کنند. یکی از دلایلی که ممکن است این اتفاق بیفتد این است که ژن ها در ماژول های عملکردی بزرگی سازماندهی می شوند که خود بسیار همبسته (یا ضد همبستگی) هستند. به عنوان مثال، ممکن است ژنهای $X_5$ و $X{_1}{_0}$ متعلق به ماژولهای منحصر به فرد متقابل باشند و بنابراین به شدت ضد همبستگی هستند. این ضد همبستگی، همبستگیهای ضعیفتر درون ماژول را پنهان میکند که ممکن است هنگام نگاه کردن به همه نمونهها چندان مهم نباشد. مشکل این است که من همیشه نمیدانم هر ژن به چه ماژولهای عملکردی تعلق دارد. من به دنبال یک راه کلی برای تشخیص همبستگی های ضعیف تر هستم، شاید با کم کردن همبستگی های قوی در داده هایم؟ در حالت ایده آل، من می خواهم سطوح زیادی از همبستگی را پیدا کنم. این یک مشکل آماری ساده به نظر می رسد، اما من مطمئن نیستم که از کجا شروع کنم. من به تجزیه و تحلیل چند سطحی نگاه کردم، اما نمیخواهم «سطوح» را در دادههایم مشخص کنم. من بیشتر در امتداد خطوط همبستگی ویژه فکر می کنم که در آن هر گروه از همبستگی ها انواع مختلفی از تنوع را در میان داده ها توصیف می کند. اگر کسی بتواند من را در مسیر درست راهنمایی کند، واقعاً مفید خواهد بود. با تشکر
|
همبستگی های قوی که همبستگی های ضعیف را پنهان می کند؟
|
61553
|
من یک رگرسیون لجستیک رویدادهای نادر را روی یک متغیر وابسته باینری اجرا می کنم. من 538 مشاهده و فقط 10 رویداد دارم (بنابراین 528 مقدار 0 و 10 از 1)، به همین دلیل است که انتخاب کردم از رگرسیون لجستیک رویدادهای نادر استفاده کنم. وقتی رگرسیون را اجرا می کنم، یکی از متغیرهای مستقل در مدل دارای ضریب بزرگی است (حدود 25000000) و معنی دار است. محدوده متغیر مستقل 0 تا 1 است. آیا این یک مشکل است؟ کسی می تواند توضیح دهد که چرا این اتفاق می افتد؟ وقتی من همان مدل را فقط با یک رگرسیون لجستیک اجرا می کنم، این متغیر ناچیز است. من مطمئن نیستم چه اتفاقی می افتد. هر توصیه ای قدردانی خواهد شد.
|
توضیح یک ضریب بسیار بزرگ در یک رگرسیون لجستیک رویدادهای نادر
|
110380
|
این سوال احتمالاً راه حل ساده ای دارد، هنوز مسئله این است که من یک کد برای ترسیم مرگ و میر در 2 گروه مختلف نوشته ام و آن مرگ در بیماران چاق در مقابل غیر چاق است. اکنون آنها 2 گروه t1 و t2 هستند (چاق در مقابل BMI طبیعی). نمودارها با این کد به خوبی کار میکنند، من فقط میخواستم خطوط صافتر و نه چندان ناهموار به نظر برسند. من stat_smooth را امتحان کردم اما نمی توانم آن را عملی کنم. من حدس می زنم که کد طولانی تر از ضروری است. allmortality<- read.table(header=TRUE, sep=;, text = ar_year;t1_all_estimate;t2_all_estimate ar2001-2002;208.0960242;170.924898 ar2003-2004;218.171.487 ar2005-2006;205.9649097;141.4196023 ar2007-2008;212.2112923;135.2787361 ar2009-2010;205.628018;1208.45 ar2011-2012;166.5654204;146.9776943) به (ggplot2) ggplot (همه مرگ و میر، aes(x=ar_year)) + geom_point(aes(y = t2_all_estimate, size=4)) + geom_estimate =2_esall )) + geom_point(aes(y = t1_all_estimate, size=4)) + geom_line(aes(y = t1_all_estimate, group=1)) + theme_bw() + theme( legend.position=none, axis.text.x = element_text( زاویه = 45 ، hjust = 1) ، axis.text=element_text(size=12)، plot.background = element_blank() ,panel.grid.major = element_blank() ,panel.grid.minor = element_blank() ,panel.border = element_blank()) + theme( axis.line = element_line (رنگ = 'سیاه')) + ylab (مرگ) + xlab (سال) + ggtitle (نرخ مرگ و میر در بیماران چاق در مقابل بیماران غیر چاق) 
| |
61055
|
R: چگونه اعداد پرت QQplot را تفسیر کنیم؟
|
|
90021
|
مقایسه بین گروه هایی با حجم نمونه نابرابر
|
|
100245
|
من با R خیلی تازه کار هستم و در آمار زیاد تجربه ندارم. من این سوال کلی را در رابطه با استفاده از مدل های افزایشی تعمیم یافته (GAM) در مجموعه داده های انتساب چندگانه دارم. من از بسته R _mice_ برای انتساب چندگانه و _mgcv_ برای GAM استفاده کردم. اما من هیچ ایده ای ندارم که چگونه نتایج حاصل از هر مجموعه داده منتسب شده را ترکیب کنم. آیا کسی ایده خوبی در این مورد دارد؟ خیلی ممنون
|
چگونه می توان نتیجه مدل GAM را از داده های چندگانه در R خلاصه کرد
|
73194
|
من روی برنامه ای کار می کنم که شامل تخمین اعداد توسط مردم می شود. به عنوان مثال، هنگام تخمین $X$، یک نفر می گوید که $X$ حاصلضرب دو عددی است که او دارای توزیع احتمال $\mathcal N(2000,50)$ و $\exp(0.05)$ است و شخص دیگر می گوید که توزیع احتمال $\mathcal N(30000, 200)$ روی $X$ دارد. اگر مردم به یک اندازه قابل اعتماد هستند، پس ما چگونه باید باشد؟ در واقع من به کل پسین نیاز ندارم، فقط به انتظارات و تنوع آن نیاز دارم. آیا راهی برای انجام این کار برای محصولات دلخواه/مجموع توزیعها بدون استفاده از موتور ریاضی نمادین وجود دارد؟ میدانم که میتوانیم، مثلاً، انتظار حاصل ضرب متغیرهای تصادفی مستقل را با گرفتن حاصل ضرب انتظارات آنها محاسبه کنیم، اما این گونه تخمینها مستقل نیستند، درست است؟
|
چگونه برآوردهای انسانی را جمع آوری کنیم؟
|
73196
|
من به سادگی سعی می کنم با dnorm() احتمال log ارائه شده توسط تابع logLik را از یک مدل lm (در R) دوباره محاسبه کنم. برای تعداد زیاد داده (به عنوان مثال n=1000) (تقریباً عالی) کار می کند: > n <- 1000 > x <- 1:n > set.seed(1) > y <- 10 + 2*x + rnorm(n , 0, 2) > mod <- glm(y ~ x, family = gaussian) > logLik(mod) 'log Lik.' -2145.562 (df=3) > sigma <- sqrt(summary(mod)$dispersion) > sum(log(dnorm(x = y, mean = predict(mod)، sd = sigma))) [1] -2145.563 > sum(log(dnorm(x = resid(mod)، میانگین = 0، sd = سیگما))) [1] -2145.563 اما برای مجموعه داده های کوچک تفاوت های واضحی وجود دارد: > n <- 5 > x <- 1:n > set.seed(1) > y <- 10 + 2*x + rnorm(n , 0, 2) > > mod <- glm(y ~ x, family = gaussian) > logLik(mod) 'log Lik.' -8.915768 (df=3) > سیگما <- sqrt(summary(mod)$dispersion) > sum(log(dnorm(x = y، mean = predict(mod)، sd = sigma))) [1] -9.192832 > sum(log(dnorm(x = resid(mod)، میانگین = 0، sd = sigma)))) [1] -9.192832 به دلیل اثر داده کوچک، من فکر کردم که می تواند به دلیل تفاوت در تخمین واریانس باقیمانده بین lm و glm باشد، اما استفاده از lm همان نتیجه glm را ارائه می دهد: > modlm <- lm(y ~ x ) > logLik(modlm) 'log Lik.' -8.915768 (df=3) > > سیگما <- summary(modlm)$sigma > sum(log(dnorm(x = y, mean = predict(modlm), sd = sigma))) [1] -9.192832 > sum( log(dnorm(x = resid(modlm)، میانگین = 0، sd = سیگما))) [1] -9.192832 کجا اشتباه می کنم؟
|
محاسبه احتمال ورود به سیستم از یک مدل ساده R lm
|
73191
|
برای رگرسیون خطی معمولی با نویز گاوسی، تفسیر اهمیت یک متغیر آسان است. این با آزمون F جزئی مطابقت دارد. مجذور آزمون t برای متغیر دوم برابر با آماره آزمون F جزئی است و مقدار p آنها یکسان است. من کدهای R ساده را برای تأیید این موضوع نوشتم. آیا چیزی شبیه به این برای رگرسیون لجستیک وجود دارد؟ فکر کردم/امیدوار بودم که آزمون نسبت احتمال مطابقت داشته باشد، اما نه. اگر متغیر و آزمون نسبت درستنمایی (افزودن آن متغیر خاص) اثر یکسانی (غیر) معنی دار نداشته باشند، باید چه کار کنم؟ قدردان وقت و کمک شما هستم، rm(list=ls(all=TRUE)) n = 100 ; x1 = runif(n,-4,4); x2 = runif(n,6,10) y = 3*x1 + 8*x2 + rnorm(n,2,4) l1 = lm(y~x1) ; l2 = lm(y~x1+x2); a = anova(l1,l2) خلاصه (l1)$coeff Estimate Std. خطای t مقدار Pr(>|t|) (داخل) 66.093853 1.0123131 65.289929 1.385202e-82 x1 3.199212 0.4292828 7.452458 7.452458 7.452458 3.452458 3.452458 3.693ltimate-$661 Std. خطای t مقدار Pr(>|t|) (تقاطع) 2.767750 2.7871368 0.9930441 3.231592e-01 x1 2.870897 0.1707022 16.8181610 1.647 1.64 16.8181610 1.64 1.8241610 1.63 0.3428392 22.9598753 5.370614e-41 (خلاصه(l2)$coeff[3,3])^2 527.1559 > تجزیه و تحلیل جدول واریانس مدل 1: y ~ x1 مدل 2: y ~ Df S.f از RSS + x2 F Pr(>F) 1 98 9899.1 2 97 1538.4 1 8360.6 527.16 < 2.2e-16 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 > a$F ; a$Pr [1] NA 527.1559 [1] NA 5.370614e-41 > > > > rm(list=ls(all=TRUE)) > n = 100 > x1 = runif(n,-4,4) > x2 = runif(n,6,10) > > y = rbinom(n,1,1/(1+exp(-3*x1 - 2*x2 + 20))) > > l1 = glm(y~x1، خانواده = دوجمله ای) > l2 = glm(y~x1+x2، خانواده = دوجمله ای) > > a = anova(l1،l2) > > خلاصه (l1)$coeff Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -2.988069 0.812041 -3.679702 2.335068e-04 x1 2.115333 0.498431 4.243984 2.195585858e. خطای z مقدار Pr(>|z|) (Intercept) -17.215960 5.5710699 -3.090243 0.0019999276 x1 3.048657 0.8618367 0.8618367 3.537395 3.537395 0.00199275 x 0.0004 0.5976386 2.803238 0.0050592272 > > (خلاصه(l2)$coeff[3,3])^2 [1] 7.858145 > > l1$deviance - l2$deviance [1] 13.65371 ($1) p$l l2$ deviance,df=1) [1] 0.9997802 > > تجزیه و تحلیل جدول انحراف مدل 1: y ~ x1 مدل 2: y ~ x1 + x2 Resid. دی اف رزید. Dev Df Deviance 1 98 45.534 2 97 31.880 1 13.654 > a$F NULL > a$Pr NULL
|
چگونه اهمیت متغیر رگرسیون لجستیک را تفسیر کنیم؟ چیزی شبیه به آزمون F جزئی در رگرسیون لجستیک
|
25324
|
** راه اندازی: ** یکی از عناصر اساسی بازاریابی مستقیم، انتخاب لیستی از مشتریان بالقوه برای انتخاب و ارسال پیشنهاد است. صدها لیست در بازار وجود دارد که می توانید از بین آنها انتخاب کنید و هر لیست حاوی تعداد خاصی از رکوردها است که می توانید برای آنها پیشنهاد ارسال کنید. من جدولی از عملکرد تاریخی فهرست دارم. برای هر کدام، تعداد دفعاتی که یک تبلیغ برای شخصی در آن لیست ارسال شده است، به همراه تعداد پاسخ دهندگان داده می شود. بنابراین، جدول ممکن است به این شکل باشد - این یک مثال ساخته شده با تنها چند لیست در مقابل صدها لیست است، اما نرخ پاسخ بسیار کوچک (p) واقع بینانه است. lists<-data.frame(listName=c('A','B','C','D','E'),numberPromoted=c(1000,5000,25000,35000,1654),numberRespond=c (3,45,98,350,5)) lists$p<-lists$numberRespond/lists$numberPromoted من به دنبال استفاده از برنامه نویسی خطی برای تخصیص بهینه انتخاب لیست در کمپین های آینده هستم. بنابراین، با توجه به تعداد رکوردهای موجود در هر لیست در زمان کنونی و بهترین تخمین از نرخ پاسخ لیست (p)، با توجه به محدودیت ها، تعداد رکوردها را از یک لیست انتخاب کنید. **مشکل:** سوال من این است که چگونه می توان به بهترین نحو در مورد تخمین p. با توجه به این نرخهای پاسخ کوچک، میخواهم آنهایی را که اطلاعات «کافی» ندارند به یک مقدار متوسط کاهش دهم. راه ساده این است که بگوییم قبل از اینکه به p تخمین زده شده به صورت تجربی اعتماد کنیم، باید حداقل X تعداد رکورد ارتقا یافته باشد. میخواهم بدانم آیا روش دیگری وجود دارد که منطقی باشد؟ به عنوان مثال، آیا منطقی است که لیست را به عنوان یک اثر تصادفی در نظر بگیریم و برآورد را کوچک کنیم؟ من **فکر می کنم** این کد تخمین های نرخ پاسخ (p) را به نرخ متوسط برای سلول های کوچکتر کاهش می دهد. install.packages(lme4) library(lme4) install.packages(arm) library(arm) #make individual 1/0 records Lists<-data.frame( listName<-c(replicate(1000,List A ), replicate(5000List B), replicate(25000List C), replicate(35000List D)، replicate (1654، فهرست E))، نتیجه<-c(replicate(997,0), replicate(3,1), replicate(4955,0), replicate(45,1), replicate( 24902,0), replicate(98,1), replicate(34650,0), replicate(350,1), replicate(1649,0), replicate(5,1)) ) #مدل رهگیری تصادفی mod<-lmer(نتیجه~1 + (1|listName),data=Lists,family=binomial) invlogit(coef(mod)$listName [1,1]) invlogit(coef(mod)$listName[2,1]) invlogit(coef(mod)$listName[3,1]) invlogit(coef(mod)$listName[4,1]) invlogit(coef(mod)$listName[5,1]) لیست مدل شده P TRUE P A 0.004241 0.003000 B 0.008602 0.009000 C 0.003981 0.003920 D 0.009924 0.010000 E 0.003961 0.003023 #مقایسه تخمینهای مدلسازی شده خام و کوچک شده خام<-sqldf(انتخاب listName، میانگین بر اساس فهرستهای گروه meanRaw<-sqldf(انتخاب avg(نتیجه) به عنوان total_p از لیست ها) modeled<-c( invlogit(coef(mod)$listName[1,1]), invlogit(coef(mod)$listName[2,1] )، invlogit(coef(mod)$listName[3,1])، invlogit(coef(mod)$listName[4,1])، invlogit(coef(mod)$listName[5,1])) plot(x=as.numeric(raw$listName)،y=raw$raw_p، col آبی) نقاط (x=raw$listName,y=modeled, col=red) abline(h=meanRaw)
| |
73192
|
من در حال حاضر در مورد تستهای جایگشت/تصادفیسازی مطالعه میکنم و برای درک اینکه چرا دقیق هستند، مشکل دارم. به طور دقیق تر، من دو گروه از متغیرهای تصادفی را با میانگین $\mu_1$ و $\mu_2$ و واریانس $\sigma^2_1$ و $\sigma^2_2$ در نظر میگیرم که اگر $ \mu_1 = \mu_2 برابر فرض شود. $ نگه می دارد. برای آزمایش فرضیه یک طرفه $H_0: \mu_1 \leq \mu_2$ در مقابل $H_1: \mu_1 > \mu_2$، من یک آزمون جایگشت با همان آمار آزمون مانند آزمون t-test دو نمونه با واریانسهای نابرابر اعمال میکنم. حجم نمونه نابرابر اثبات و درک اینکه سطح اهمیت آزمون جایگشت برابر با $\alpha$ برای $\mu_1 = \mu_2$ است، کار مهمی نبود. با این حال، من نمی فهمم چرا سطح اهمیت کمتر از $\alpha$ برای $ \mu_1 \leq \mu_2$ است!؟ کسی میتونه راهنماییم کنه؟
|
تست جایگشت: دقت
|
110278
|
چگونه تفاوت بزرگ p.value بین این دو مدل را توضیح دهیم
|
|
22135
|
من مجموعه ای از داده ها از بررسی مشکلات سلامتی و مزاحمت ناشی از سر و صدای ترافیک در افرادی که در ساختمان های مسکونی زندگی می کنند، با سوالات پاسخ در مقیاس 5 درجه دارم. من میخواهم یک مدل چند سطحی را برای یک پاسخ معمولی (مشکل سلامت یا مزاحم نویز) انجام دهم و با دستور 'gllamm' در Stata امتحان کردم اما گزینه 'link(ologit)' مجاز نیست. کسی راه دیگه ای برای اجرایش میدونه؟ اگر در Stata نباشد، در R یا SPSS به هر حال مفید خواهد بود.
|
مدل چند سطحی با یک نتیجه ترتیبی
|
22133
|
من یک مجموعه داده برای هزاران ژن دارم. هر ژن دارای دو ویژگی است که به عنوان یک محدوده درصد نشان داده شده است (0-100). یک ویژگی (V3) دارای توزیع نرمال است اما دیگری (V2) دارای انحراف بسیار منفی است (مثلاً 99٪ مقادیر بیشتر از 99٪ هستند). من می خواهم بدانم آیا دروغگوهای V2 با ویژگی V3 ارتباطی دارند؟ من در مورد تقسیم کردن داده ها به صدک فکر کردم و آن را به عنوان دسته بندی در نظر گرفتم که به من امکان می دهد از آزمون مجذور کای استفاده کنم، اما مطمئن نیستم که آیا این بهترین روش است یا نه. من همچنین می خواهم ورودی شما را در مورد اینکه آیا می توان از یک روش عددی با این داده ها استفاده کرد؟  من در پرسیدن سوال در اینجا بسیار تازه کار هستم، بنابراین لطفاً اگر کاری برای بهبود سوال می توانم انجام دهم به من اطلاع دهید . متشکرم
|
ارزیابی رابطه بین دو ویژگی در یک مطالعه ژن
|
77433
|
متغیرهای a,b,c,d وجود دارد. متغیرهای a و b مربوط به صورتهای مالی شرکت هستند و دارای تاخیر زمانی هستند. من یک مدل معمولی را با مدل اثر ثابت آزمایش کردم و سپس با استفاده از متغیرهای عقب افتاده a و b دوباره آزمایش کردم. مربع R 0.02 افزایش یافته است اما متغیر ساختگی اثر منفی ناچیز دارد! بنابراین من این فرضیه را رد می کنم که آنها اثر تاخیر زمانی دارند، اما چگونه می توانم این را تایید کنم؟ از آنجایی که مربع R کمی افزایش یافته است، دلیلی برای نادیده گرفتن آن مدل عقب افتاده ندارم...
|
مشکل متغیرهای تاخیری من چیست؟
|
79939
|
مدل سری زمانی قطار در R و پیشبینی صرفاً بر روی دادههای خارج از نمونه
|
|
97007
|
مدل زبان چگونه به نظر می رسد؟
|
|
22136
|
به نظر من متغیرهای نسبت، فاصله، ترتیبی و اسمی به معنای زیر تودرتو هستند: * متغیر نسبت نیز فاصله، ترتیبی و اسمی است. * متغیر فاصله نیز ترتیبی و اسمی است. * یک متغیر ترتیبی نیز اسمی است آیا عبارات فوق دقیق هستند؟ اگر نه، آیا نمونه های متقابلی وجود دارد که یک یا چند مورد از عبارات فوق صادق نباشد؟
|
آیا متغیرهای نسبت، فاصله، ترتیبی و اسمی تو در تو هستند؟
|
22137
|
کسی می تواند به من بگوید کدام الگوریتم برای حل این مشکل بهتر است؟ من فکر میکنم این به دسته «تحلیل سبد بازار» یا «تحلیل قرابت» تعلق دارد، اما مطمئن نیستم. مشکل اینجاست: یک کاربر به انواع خاصی از گروه ها تعلق دارد. وقتی مشتری ما مجموعهای از کاربران را به ما میدهد که متعلق به یک گروه خاص هستند، باید به آنها بگوییم که این کاربران ممکن است به کدام گروههای دیگر علاقهمندتر و همچنین بیعلاقهتر باشند. به نظر من این شبیه به مثال تحلیل سبد بازار کلاسیک است. : 'مشتریانی که پوشک می خرند آبجو نیز می خرند'. بنابراین من به این فکر میکردم که اگر تمام وابستگیهای درون گروهها را از قبل محاسبه کنم، میتوانم به سؤال مشتری خود پاسخ دهم. نه؟ از هر گونه فکری در این مورد سپاسگزاریم؟ چه نوع الگوریتمی برای این کار مناسب تر است؟ با تشکر از کمک شما.
|
کدام الگوریتم برای این کار مناسب تر است
|
77430
|
استفاده از انجمن من می خواهم ثابت کنم که اطمینان قانون $B'->(A\B')$ نمی تواند بیشتر از اطمینان $B->(A\B)$ باشد با توجه به: * مجموعه آیتم های مکرر $A$ و زیر مجموعه ها $B$ از $A$. * $B'$ زیر مجموعه ای از $B$ است. \ عملگر مجموعه تفاوت است که گاهی اوقات به این صورت نوشته می شود: $(X-Y)$  من سوال دقیق این کتاب را پیدا کردم: داده کاوی : _مفاهیم و فنون نوشته جیاوئی هان_ به صورت آنلاین، در بخش الگوهای متداول استخراج، ارتباط، و همبستگی ها فصل 6.3 (ج) در این کتاب. هر چند چیزی در مورد چگونگی حل آن نمی گوید.
|
اثبات اعتماد به قانون
|
77435
|
 من می خواهم MLE احتمال بالا را با استفاده از تابع optim در $R$ پیدا کنم. با این حال، من نمی توانستم شرایط را درک کنم. من نتوانستم احتمال را به $R$ بنویسم. من دادههای داده شده را دارم، برخی از آنها معانی cdf هستند، اما log 2 یا 4th log چیست. خیلی خوشحال میشم اگه کسی کمکم کنه با تشکر
|
احتمال مدل پیوسته گروهی مشروط
|
82323
|
من نمی دانم چگونه پارامتر انقباض در Adaboost کار می کند. من مفهوم انقباض را به معنای نظری مربوط به حداقل مربعات معمولی درک می کنم، اما مطمئن نیستم که چگونه این پارامتر را در رابطه با Adaboost تفسیر کنم.
| |
73221
|
یادداشت های من یک تابع ضرر را به عنوان هزینه تعریف می کند که ارزش واقعی $\theta$ توسط $\hat\theta$ برآورد می شود. از چه نوع هزینه ای صحبت می کند؟ هزینه پولی؟ یا چیزی مربوط به خطا است؟
|
تابع ضرر در تئوری تصمیم چیست؟
|
82326
|
نحوه تفسیر دندروگرام تجزیه و تحلیل خوشه سلسله مراتبی
|
|
73225
|
اگر 2 متغیر مستقل $Y_1$ و $Y_2$ را به صورت زیر تعریف کنیم: \begin{align} Y_1 &= (Y_{11},Y_{12},Y_{13})^T \sim\mathcal N_3(\mu_1 ,\Sigma_{11})، \\\ Y_2 &= (Y_{21}،Y_{22})^T \sim\mathcal N_2(\mu_2،\Sigma_{22}) \end{align} where, \begin{align} \mu_1 &= (2, 2, 2)^T &\Sigma_{11} &= \left[\begin{ آرایه}{ccc} 3 &1 &0 \\\ 1 &2 &0 \\\ 0 &0 &3 \end{array}\right] \\\ \mu_2 &= (3، 4)^T &\Sigma_{22} &= \left[\begin{array}{cc} 4 &2 \\\ 2 &4 \end{array}\right] \end{align} سپس چگونه آیا می توانم توزیع مشترک $Y_{11}-Y_{13}+Y_{22}$ و $Y_{21}-Y_{12}$ را پیدا کنم؟ میدانم سؤال سادهای است، اما میتوانم متوجه شوم که آیا Y_1-Y_2$ یا چیزی از آن خواسته شده است. چطوری باید حلش کنم وقتی اینجوریه؟
|
توزیع مشترک دو توزیع نرمال چند متغیره
|
32742
|
از خواندن پستهای این سایت میدانم که تابع R «auto.arima» (در بسته «پیشبینی») وجود دارد. من همچنین می دانم که IrishStat، یکی از اعضای این سایت، جعبه خودکار بسته های تجاری را در اوایل دهه 1980 ساخت. از آنجایی که این دو بسته امروزه وجود دارند و به طور خودکار مدلهای arima را برای مجموعه دادههای داده شده انتخاب میکنند چه کار متفاوتی انجام میدهند؟ آیا آنها احتمالاً مدل های مختلفی را برای یک مجموعه داده تولید خواهند کرد؟
|
Auto.arima و autobox آیا تفاوت دارند؟
|
32743
|
از رمزگذارهای خودکار برای کاهش ابعاد و به عنوان ابزاری برای یادگیری ویژگی های بدون نظارت استفاده می شود. علاوه بر این، از رمزگذارهای خودکار برای ساخت و آموزش شبکه های عصبی چند لایه استفاده شده است. وقتی از رمزگذارهای خودکار صحبت میکنیم، یک اسپاسیت را معرفی میکنیم و میخواهم بدانم که هدف از معرفی یک اصطلاح پراکندگی برای رمزگذارهای خودکار چیست؟
|
چرا برای رمزگذارهای خودکار به پراکندگی نیاز داریم؟
|
93474
|
یک تکنیک خوب برای استفاده در داده هایی که دارای متغیرهای طبقه بندی زیادی با مقادیر زیاد هستند چیست؟ به عنوان مثال، فرض کنید در حال تلاش برای تعیین نوع افرادی هستید که احتمال بیشتری دارد دوباره از فروشگاه آنلاین شما خرید کنند و ایمیل، کشور، مرورگر دارید. هر متغیر ممکن است بیش از 10 مقدار ممکن داشته باشد (به عنوان مثال ایمیل: yahoo، gmail، hotmail؛ کشور: ایالات متحده آمریکا، کانادا، استرالیا و غیره). علاوه بر این، متغیرهای پیوسته مانند سن خریداران و مقداری که تا کنون خرج کرده اند نیز دارید. من سعی کردم از رگرسیون لاجیت استفاده کنم، اما با تعداد زیادی متغیر طبقهبندی، خیلی بزرگ و ناکارآمد میشود. یک رگرسیون چندگانه نیز مشکلات یکسانی دارد (متغیرهای ساختگی بیش از حد). به نظر می رسد درخت تصمیم بهترین کار را دارد، اما نیازمند تبدیل متغیرهای پیوسته به متغیرهای طبقه بندی است. فقط تعجب می کنم که مردم چه نوع راه حل ها / تکنیک هایی را برای موقعیت های مشابه به کار برده اند. توجه: من می توانم از R و سایر نرم افزارهای آمار استفاده کنم.
|
برخورد با داده های بزرگ و متغیرهای زیادی
|
51644
|
FDA ایالات متحده استفاده از آمار بیزی را با پیشینه های آموزنده (در زمینه های خاص) مجاز می کند: http://www.outsourcing-pharma.com/Clinical-Development/US-FDA-says-Bayesian- analysis-could-cut-device-trial -costs http://www.stat.rutgers.edu/iob/bioconf09/slides/Campbell.pdf FDA Bayesian guidance در اسلاید اهمیت شبیه سازی اسلایدهای کمپبل نوشته شده است: _بنابراین شبیه سازی کنید تا نشان دهید که خطای نوع 1 (یا برخی از آنالوگ های آن) به خوبی کنترل می شود._ اما خطای نوع 1 به خوبی کنترل نمی شود. با پیش اطلاعاتی به عنوان مثال یک مدل دوجمله ای ساده $x \sim \text{Bin}(n,\theta)$ با یک بتا قبل از $B(a,b)$ در پارامتر نسبت مجهول $\theta$ در نظر بگیرید و یک فاصله اعتبار را در نظر بگیرید. $I(x)$ برای برخی سطح اعتبار معین $100(1-\alpha)\%$. سپس تابع پوشش مکرر $\theta \mapsto \Pr(I(x) \ni \theta \mid \theta)$ نزدیک به $100 (1-\alpha)\%$ برای جفریزهای قبل از $B(a=\) است. frac12,b=\frac12)$، اما زمانی که حجم نمونه بزرگ نیست و $(a,b)$ از $(\frac12,\frac12)$ دور است، پوشش مکرر از $100(1-\alpha)\%$ فاصله زیادی دارد (احتمالاً به جز برخی مقادیر بسیار خاص $\theta$، اما به هر حال پوشش کنترل شده نیست). خطای نوع 1 آزمون های عامل بیز نیز کنترل نمی شود. بنابراین بر اساس کدام دیدگاه می توان با استنباط بیزی تحت یک پیشین آموزنده به ویژگی های فراوانی خوب دست یافت؟
|
در مورد راهنمایی FDA در مورد عمل بیزی
|
101124
|
من مدارکم را به این صورت دارم: doc1 = زیبا، خیلی خوب، خیلی بد، شما عالی هستید doc2 = خیلی بد، رستوران خوب، مکان خوبی برای بازدید، میخواهم مجموعهام را با `` جدا کنم، تا «DocumentTermMatrix» نهایی من شود. : شرایط اسناد بسیار خوب بسیار بد شما عالی هستید رستوران خوب مکان خوبی برای بازدید از doc1 tf-idf tf-idf tf-idf 0 0 doc2 0 tf-idf 0 tf-idf tf-idf من می دانم چگونه DocumentTermMatrix تک تک کلمات را محاسبه کنم، اما نمی دانم چگونه پیکره را جدا برای هر عبارت در R بسازم. اگرچه من یک راه حل در R ترجیح می دهم. اما راه حل در پایتون نیز مورد استقبال قرار می گیرد. چیزی که من امتحان کردم این است: > library(tm) > library(RWeka) > BigramTokenizer <- function(x) NGramTokenizer(x, Weka_control(min = 1, max = 3)) > options(mc.cores=1) > texts <- c(خیلی خوب، خیلی بد، تو عالی هستی، بسیار بد، رستوران خوب، مکان خوبی برای بازدید) > مجموعه <- Corpus(VectorSource(texts)) > a <- TermDocumentMatrix(corpus, control = list(tokenize = BigramTokenizer)) > as.matrix(a) در حال دریافت: Docs اصطلاحات 1 2 هستند 1 0 عالی هستند 1 0 بد 1 1 بد خوب 0 1 بد رستوران خوب 0 1 بد شما 1 0 بد شما هستید 1 0 زیبا 1 0 ....... آنچه من می خواهم ترکیبی از کلمات نیست بلکه فقط عباراتی است که در ماتریس خود نشان دادم.
|
مجموعه ای با عبارات بسازید
|
105145
|
اعتبار سنجی طبقه بندی دستی
|
|
51988
|
من می خواهم d کوهن را با فواصل اطمینان برای طرح های نمونه جفت محاسبه کنم. برخی از نویسندگان پیشنهاد می کنند که از مقدار آزمون t زوجی برای تنظیم همبستگی بین معیارها استفاده کنید (روزنتال، 1991). با این حال، دانلوپ و همکاران 1996 پیشنهاد میکنند که همبستگی بین نمونههای زوجی نباید لحاظ شود. به ویژه، اگر از چنین همبستگی استفاده شود، نتایج به آسانی با اثرات بین موضوعات قابل مقایسه نیستند. در عوض، آنها استفاده از فرمول نمونههای مستقل را توصیه میکنند: $$d= \frac{\mu_1-\mu_2}{\sigma_\textrm{pooled}}$$ ### سوال **چگونه فواصل اطمینان را برای d کوهن در یک تخمین میزنید. طراحی نمونههای زوجی که در آن d کوهن از فرمول بالا استفاده میکند؟ بسته MBESS. این تابع برای تست های نمونه مستقل طراحی شده است و اندازه دو گروه مستقل را به عنوان ورودی می گیرد. در کد زیر از «i» برای نشان دادن تعداد سوژهها استفاده میکنم (مساوی، همانطور که شرکتکنندگان در هر گروه یکسان هستند) و از اندازه افکت 0.8 به عنوان مثال استفاده میکنم. library(MBESS) x.ci <- ci.smd(smd=0.8, n.1=i,n.2=i) **آیا استفاده از چنین تابع`ci.smd` برای فواصل اطمینان برای نمونه های جفت مناسب است؟ **
| |
32741
|
من در حال ترسیم برخی از مجموعه داده های خطی در اکسل بودم، از جمله خطوط روند خطی:  می خواستم 5 رگرسیون خطی جداگانه انجام دهم. بنابراین من میتوانم «شیب» و «برق y» هر مجموعه داده «مستقل» را دریافت کنم. اما پس از آن، در یک لحظه، متوجه شدم که داده ها ممکن است یک نقطه مشترک داشته باشند:  در واقع، حتی ممکن است این باشد: خود **x-intercept**. بنابراین چیزی که اکنون به آن نیاز دارم، روشی برای اجرای چندین رگرسیون خطی همزمان است، با این فرض که همه خطوط در یک نقطه مشترک قطع می شوند. آیا چنین روش تحلیل رگرسیون خطی وجود دارد؟ اسم داره؟ آیا در اکسل وجود دارد؟ * * * بهترین کاری که تا به حال توانسته ام به دست بیاورم این است که پنج رگرسیون خطی مستقل را اجرا کنم و شیب و فاصله هر مجموعه داده را بدست آوریم: Slope (m) Intercept (b) ========= = ============ 1.15287 11484.8 0.86301 7173.5 0.43212 4306.4 0.25894 2853.6 رسم شیب در برابر y-intercept نوعی همبستگی می بینید:  اگر **_assume_* * که مجموعه دادههای من یک «فاصله x» را به اشتراک میگذارند، سپس میتوانم آن x-value را از طریق: y = پیدا کنم mx + b 0 = mx + b -b = mx x = m / -b که بهدست میآید: شیب (m) فاصله (ب) فاصله x مشترک (با فرض اینکه آنها یک است) ========= == ====================================== 1.15287 11484.8 -9961.9 0.86301 7173.5 -8312.2 0.43212 4306.4 -9965.6 0.25894 2853.6 -11020.2 که جدای از یک نقطه واقعاً نامطلوب، به خوبی همگرا می شود.
|
انجام رگرسیون های خطی چندگانه، در اکسل، که یک قطع مشترک x دارند؟
|
101121
|
برای ارزیابی تفاوت بین دو روش توالی یابی DNA (454 و MiSeq) من مخلوط های مصنوعی از باکتری های مختلف را در آزمایشگاه ساخته ام (جامعه های ساختگی). یک مثال ممکن است این باشد (اعداد درصد سلول های باکتری در نمونه های توالی یابی شده است): * سویه باکتری A: 25% * سویه باکتری B: 25% * سویه باکتری C: 25% * سویه باکتری D: 25% من نیز پیچیده تر هستم مخلوط ها (حداکثر 20 باکتری مختلف و نسبت های دیگر غیر از 1:1، برای آزمایش لگاریتمی) اگر شما دنباله این را به عنوان مثال نتایج زیر دریافت می کنید: ## 454: * A: 20% * B: 30% * C: 24% * D: 26% ## Illumina: * A: 22% * B: 28% * C : 20% * D: 30% از هر نمونه (مانند نمونه بالا) سه نسخه دارم. در صورت وجود تفاوت معنادار بین این دو روش، چه آزمون آماری را برای آزمایش پیشنهاد می کنید (من حدس می زنم تجزیه و تحلیل تفاوت در نسبت ها کار درستی باشد؟). آیا اگر من سه نمونه مختلف داشته باشم (یکی همان نمونه ای است که در بالا ذکر شد) Chi-Square کار درستی است؟ آیا حتی برخی از رویکردهای بوت استرپ ایده ای است؟ من با R آشنا هستم، بنابراین اگر بسته ای وجود دارد که می توانید پیشنهاد دهید، خوب است... * * * تصویری برای توضیح روند کار. امیدوارم این به درک بهتر مشکل من کمک کند:  من همچنین جوامع ساختگی دارم که پیچیده تر هستند (10 یا 19 سویه باکتری در نسبت های مختلف) . اما اصل یکسان است. برای فرآیند توالی یابی، شما تصمیم می گیرید که چند توالی DNA را می خواهید توالی یابی کنید! تعداد خواندهها (توالیهایی که دریافت میکنید) (فقط) به غلظت DNA مربوط نمیشود (تا زمانی که DNA کافی برای داشتن «اشباع» داشته باشید). بنابراین آنچه در پایان می توانید بین 454 و MiSeq مقایسه کنید، تا آنجایی که من متوجه شدم، نسبت ها (پس از خوشه بندی) به جای اعداد کامل هستند...
|
آزمون آماری برای ارزیابی تفاوت بین دو روش توالی یابی
|
105140
|
Gaussian Naive Bayes واقعا معادل GMM با ماتریس های کوواریانس مورب است؟
|
|
93476
|
من به دنبال کمکی برای آزمایش این هستم که آیا تفاوت های آماری بین نسبت ها زمانی که داده ها وابسته هستند وجود دارد یا خیر. منظور من از وابسته، این است که تمام دادهها از شرکتکنندگان یکسانی هستند، اگرچه من در مورد طرح آزمایشی با اندازهگیریهای مکرر صحبت نمیکنم، بلکه فقط سؤالهای متفاوت از شرکتکنندگان یکسان است. معمولاً من مستقیماً برای آزمایش مک نمار می روم. با این حال، مشکلی که من با آن روبرو هستم این است که ... اگرچه داده ها همه از یک گروه (1000 نفر) هستند، تفاوت های جزئی در تعداد افرادی که به سوالاتی که من برای محاسبه نسبت ها استفاده می کنم پاسخ می دهند وجود دارد. از همه 1000 نفر پرسیدم که آیا به طور مرتب از ویندوز (همه پاسخ مثبت دادند؛ یعنی 1000 نفر پاسخ مثبت دادند)، Mac OSX (500 نفر پاسخ مثبت دادند)، یک توزیع لینوکس (100 نفر پاسخ مثبت دادند) و انواع سیستم عامل های دیگر (10 نفر پاسخ مثبت دادند) پرسیدم. ). شرکتکنندگان میتوانند پاسخهای خود را ترکیب کنند - ممکن است از Windows، Mac OSX… یا فقط Windows… استفاده کرده باشند. یا ویندوز و لینوکس، یا هر سه، و غیره. برای هر سیستم عاملی که شخصی استفاده میکند، از آنها پرسیدم که آیا از نرمافزار خاصی در آن سیستمعاملها استفاده میکنند (مثلاً آیا از پردازشگر Word استفاده میکنند). بنابراین اگر شخصی از OSX و Windows استفاده میکرد، از او پرسیده میشد که آیا از یک واژهپرداز برای ویندوز استفاده کرده است یا نه و به طور جداگانه همان سؤال را برای OSX میپرسد. یکی دیگر از شرکتکنندگان ممکن است از ویندوز و لینوکس استفاده کند، و از او پرسیده میشود که آیا از یک واژهپرداز برای ویندوز استفاده میکند و به طور جداگانه همان سؤال را برای لینوکس میپرسد. شخص دیگری ممکن است گفته باشد که فقط از ویندوز استفاده می کند و بنابراین فقط در مورد استفاده از واژه پرداز وی در ویندوز از او سوال شده است. اینجاست که مشکل پیش می آید. اگر متوجه شوم که 85 درصد از 1000 کاربر ویندوز به طور منظم به یک پردازنده Word دسترسی دارند، چگونه می توانم این را با 65 درصد از 500 کاربر OSX که به طور منظم به یک پردازنده Word دسترسی دارند مقایسه کنم. من در مورد استفاده از تست مک نمار فکر کرده بودم، اما مطمئن نیستم که چگونه با جفتهای ناسازگار برخورد کنم - برای مثال، برای کسی که از ویندوز استفاده میکند اما از OSX استفاده نمیکند، هیچ جفت هماهنگ/ناسازگاری وجود ندارد. من در مورد استفاده از آزمون Z برای نسبتها فکر کرده بودم، اما این برای مقایسه نسبتهایی است که کاملاً مستقل هستند - من تقریباً مطمئن هستم که دادههای من این شرط را برآورده نمیکنند (اما باید اصلاح شوند). هر ایده ای؟ با تشکر از همه! امیدوارم کسی بتواند به من کمک کند! Simon :) **اضافه شدن اطلاعات اضافی همانطور که درخواست شد ** من فقط برخی از داده های خام را مسخره کردم. بنابراین این نمایش دادهای است که من برای هر شرکتکننده دارم (-1 = شرکتکنندگانی که به این سؤال پاسخ ندادند زیرا از آن سیستم عامل استفاده نمیکنند).  من به دنبال این هستم که ببینم آیا نسبت افرادی که از یک واژه پرداز در ویندوز استفاده می کنند مشابه نسبت افرادی است که از یک کلمه استفاده می کنند یا خیر. پردازنده در OSX (که در آن داده ها از همان نمونه تا حدودی هستند - تا حدودی با توجه به موضوع بالا در مورد پاسخ دادن شرکت کنندگان به سوالات مربوط به آنها به این معنی که من حکاکی های کمی متفاوت از یکسان را با هم مقایسه خواهم کرد. نمونه). بنابراین بله، من سعی می کنم نسبت افرادی که از پردازشگرهای کلمه استفاده می کنند را با توجه به سیستم عامل خود مقایسه کنم. با این حال، من سعی می کنم آن را برای مقایسه بین سیستم عامل های فردی تجزیه کنم. بنابراین در جدول خلاصه زیر ... من سعی می کنم مقایسه کنم که آیا 85٪ (ویندوز) تفاوت قابل توجهی با 65٪ (OSX) دارد یا خیر. دلیل اینکه من از Chi-square استاندارد (پیرسون) اجتناب کردهام این است که آن دادهها تا حدودی وابسته هستند - سوالات شامل شرکتکنندگان مختلف نمیشود.  آیا این موضوع را کمی واضح تر می کند؟ اگر نه پس به من اطلاع دهید و می توانم گسترش دهم :)
|
مقایسه نسبت ها از نمونه (تا حدودی) مشابه
|
32748
|
با توجه به اینکه مجموعه داده من متشکل از 384 متغیر توضیحی و 1 متغیر وابسته است، برای انجام رگرسیون خطی چندگانه در متلب کدام راه ساده تر است؟ در واقع، من باید ضرایب، باقیماندههای متناظر، و همچنین خطای تعمیم را هنگام آزمایش این مدل خطی با استفاده از مثلاً 30 مثالی که در مجموعه آموزشی نیستند، محاسبه کنم. من فکر می کنم که این تابع برای من خوب کار می کند، اما مطمئن نیستم که چگونه آن را با تعداد زیادی متغیر توضیحی کار کنم. من می دانم که باید راه کارآمدتری برای ساختن چنین مدلی وجود داشته باشد، اما این فقط یک کار مقدماتی تحقیق من است. از همه ایده ها استقبال می شود. ویرایش: فکر کنم پیداش کردم. لطفاً صحت موارد زیر را تأیید کنید؟ X = DATA(1:101,1:99); [M,N] = اندازه (X); y = DATA(1:101,100); X = [اونها(M,1) X]; b = رگرسیون (y,X); اما، در مورد باقیمانده ها و خطای تعمیم چطور؟
|
رگرسیون خطی چندگانه در متلب
|
93472
|
من دو نمونه مستقل دارم و باید مقادیر آنها را با هم مقایسه کنم تا بگویم مقادیر گروه اول بالاتر از مقادیر گروه دوم هستند یا خیر. من تست Levene را انجام دادم و واریانس ها بسیار نابرابر هستند. آیا بهتر است از نسخه SPSS آزمون t (واریانس های برابر فرض نمی شود) استفاده کنیم یا آزمون U Mann-Whitney؟ آیا مرجع رسمی (مقاله ای که می توانم به آن استناد کنم) برای نسخه آزمون t-test SPSS زمانی که واریانس های مساوی در نظر گرفته نشده اند دارید؟
|
آزمون تی واریانس نابرابر یا آزمون یو من ویتنی؟
|
101120
|
من با یک سوال روش پایه یادگیری ماشین مشکل دارم. من مفهوم استفاده نکردن از دادههای یکسان برای آموزش و ارزیابی یک طبقهبندی کننده را درک میکنم، و علاوه بر این، وقتی پارامترهایی در یک الگوریتم وجود دارد که باید بهینه شوند، باید از یک مجموعه آزمایشی مستقل سوم برای به دست آوردن ارقام عملکرد قابل گزارش نهایی استفاده کنید (مثلاً نرخ فراخوان ). با این حال، استفاده از یک مجموعه تست _single_ برای اندازهگیری عملکرد مشکلساز به نظر میرسد زیرا معیارهای عملکرد احتمالاً بسته به نحوه تقسیمبندی دادهها به آموزش (بهعلاوه اعتبارسنجی) و مجموعههای آزمایشی، بهویژه برای مجموعههای داده کوچک، متفاوت خواهد بود. بهتر است نتایج N پارتیشن مختلف را میانگین بگیرید. برای مرحله آموزش، دقیقاً به همین دلیل است که افراد معمولاً از اعتبار سنجی متقاطع k-fold استفاده می کنند، اما اگر می خواهید مرحله آزمایش نهایی را با مجموعه های آزمایشی مختلف (یعنی اعتبارسنجی متقاطع k-fold) تکرار کنید، در این صورت داده های مورد استفاده برای پارامتر را با هم ترکیب می کنید. تنظیم با داده های تست این همان چیزی است که تمام مراجع یادگیری ماشینی که دیدهام میگویند نباید انجام شود. اما چگونه می توان یک معیار عملکرد خوب به دست آورد که وابسته به پارتیشن بندی مجموعه داده نباشد؟ * * * ## ویرایش مربوط به نظر cbeleites: مطمئن نیستم که مفهوم اعتبارسنجی متقاطع تودرتو را درک کرده باشم یا نه. در اینجا یک بررسی از درک من است. لطفا اگر درست نیستم نظر بدید فرض کنید من 1200 نمونه برچسب دار دارم و می خواهم 3 مدل مختلف را با هم مقایسه کنم (به عنوان مثال یک الگوریتم درخت تصمیم با سه تنظیمات پارامتر مختلف). برای هر مدل، من دو حلقه اعتبارسنجی متقاطع دارم - یک حلقه بیرونی که آزمایش را انجام می دهد و یک حلقه داخلی که مدل را تولید می کند و همچنین آن را آزمایش می کند. برای حلقه بیرونی، اگر من 4 برابر را انتخاب کنم، ابتدا یک تقسیم 75/25 ایجاد می کنم تا یک مجموعه آموزشی/اعتباری (900 نمونه) و مجموعه آزمایشی (300 نمونه) ایجاد کنم. با سهم 75 درصد، اعتبار سنجی متقاطع k-fold را انجام می دهم (در مثال زیر، 3 برابر را انتخاب می کنم، تا شکل را ساده نگه دارم، بنابراین 300 نمونه در هر برابر وجود دارد) و میانگین عملکرد k-fold ها را محاسبه می کنم. . سپس همان مدل (یعنی تنظیمات پارامتر مشابه) را با استفاده از قسمت کامل 75% دوباره آموزش میدهم و سپس با 25% باقیمانده آزمایش میکنم. سپس این روش را سه بار با استفاده از چین های مختلف از حلقه بیرونی تکرار می کنم (شکل را ببینید). بخش آخر جایی است که من کمی مطمئن نیستم که روش صحیح چیست. آیا چهار تست را از هر مدل (یعنی چینهای حلقه بیرونی) میانگین میدهم. در واقع هدف حلقه داخلی چیست؟ یا من اصلا لانه سازی را درست انجام نمی دهم؟ 
|
روش شناسی صحیح برای تکرار تست طبقه بندی کننده برای به دست آوردن تخمین خوب از عملکرد
|
56351
|
ترکیب درمان به طور معمول و گروه های کنترل دارونما تجربی در یک متاآنالیز
|
|
93867
|
مشکل با سال به عنوان عامل GLMM
|
|
56013
|
من یک داده نظرسنجی با متغیر نتیجه طبقه بندی دارم (بله، نه، نمی دانم) که نشان دهنده پذیرش برخی موقعیت ها توسط پاسخ دهندگان است. نگرانی من این است که چگونه با پاسخهای نمیدانم برخورد کنم، واقعاً شک دارم که این مشاهدات را کنار بگذارم، زیرا: 1. مجموعه دادههای من را از حدود 14400 به حدود 13000 کاهش میدهد که قابل توجه است. 2. من شهود دارم که پاسخ DK حاوی برخی اطلاعات است و بنابراین تصادفی نیست. بنابراین سؤالات من این است: 1. یکی پیشنهاد کرد که غیرتصادفی بودن بر احتمال تخمین زده شده تأثیر می گذارد و من باید آن را بررسی کنم، اما چگونه تصادفی بودن را در Stata بررسی کنیم؟ 2. اگر حفظ پاسخ های DK مورد نظر است، انتساب چندگانه (به عنوان مثال) راهی برای مقابله با این موضوع است. آیا منبع/پیوندهایی وجود دارد که بتوانم از آن استفاده کنم تا خودم را با چیستی انتساب چندگانه و نحوه انجام آن در Stata استفاده کنم؟ 3. تقریباً تمام مقالاتی که در مورد موضوع خود می خوانم از رگرسیون لجستیک استفاده می کنند، نمی دانم چه توجیهی پشت آن است. آیا پیوند/منبعی وجود دارد که رویکردهای احتمالی مختلف را برای متغیر نتیجه غیر باینری مقایسه کند (در مورد من این متغیر نتیجه دستهبندی سه پاسخ خواهد بود) و چگونه بین آنها انتخاب کنیم؟
|
پرداختن به پاسخ های «نمی دانم» برای یک متغیر نتیجه طبقه بندی شده
|
65601
|
من به دنبال مجموعه داده های شبکه های اجتماعی برای تعیین قدرت روابط (آشنایی، دوستی، خانوادگی، حرفه ای،...) هستم.
|
مجموعه داده شبکه های اجتماعی
|
4453
|
فرض کنید من یک مجموعه $\mathcal{S}$ از $N$ موارد متمایز دارم. اکنون مجموعه $\mathcal{P}$ همه جفتهای ممکنی را که میتوانم از $S$ ترسیم کنم، در نظر بگیرید. به طور طبیعی، $|\mathcal{P}| = \binom{N}{2}$. حالا وقتی از $\mathcal{P}$ با توزیع یکنواخت $k$ (جفت) میکشم، تعداد مورد انتظار متمایز از $S$ در آن جفتهای $k$ چقدر است؟
|
چگونه می توان تعداد مورد انتظار موارد متمایز را هنگام ترسیم جفت محاسبه کرد؟
|
56358
|
 من یک glmm دو جمله ای نگ در glmmADMB انجام می دهم. افکتهای تصادفی کاملاً عادی توزیع نمیشوند (تصاویر پیوست را ببینید). چقدر باید نگران این موضوع باشم؟ اگر این تخلف بیش از حد است، آیا گزینه های دیگری برای تجزیه و تحلیل داده های طولی وجود دارد؟
| |
93865
|
$X$ و $Y$ دارای توزیع نرمال دو متغیره و دارای pdf مشترک \begin{equation*} f\left(x,y\right) =a\exp \left( \frac{-1}{2}\omega \ راست) ,\text{where }% \omega =6x^{2}+12y^{2}-16xy-8x+24 \end{معادله*} پس معنی $X$ و $Y$؟ من \begin{equation*} \frac{1}{\left( 1-\rho ^{2}\right) \sigma _{X}^{2}}=6,~\frac{1}{\ دارم left( 1-\rho ^{2}\right) \sigma _{Y}^{2}}=12~\text{and }\frac{-2\rho }{\left( 1-\rho ^{2}\right) \sigma _{X}\sigma _{Y}}=-16 \end{معادله*} تا بتوانم $\rho ،\sigma _{X}$ و $ را پیدا کنم \sigma _{Y}$ با استفاده از این معادلات. اما چگونه می توانم $\mu _{X}$ و $\mu _{Y}$ را دریافت کنم؟ این سوال در یک امتحان پرسیده شد و درخواست شد در 2 دقیقه پاسخ داده شود. آیا میانبری برای این کار وجود دارد؟
| |
4454
|
آیا ابزار مناسبی برای نوشتن/طراحی پرسشنامه قبل از ارائه به برنامه نویسان وجود دارد؟ در حال حاضر مایکروسافت ورد در حال استفاده است و ردیابی تغییرات و استاندارد نگه داشتن آن به یک سردرد تبدیل شده است. **به روز رسانی**: فکر می کنم در اینجا کمی دچار سوءتفاهم شده ام. در اینجا یک سناریو وجود دارد: مشتری با یک آمارشناس/متخصص در طراحی نظرسنجی صحبت می کند تا بتواند نظرسنجی را برای دریافت بازخورد از مشتریان خود طراحی کند. هنگامی که آن نظرسنجی طراحی شد (نه به معنای مد) آنها ممکن است آن را به یک هنرمند و برنامه نویس بدهند تا واقعاً نظرسنجی را ایجاد کند (برای وب یا هر چیز دیگری). من متعجبم که چه راههای خوبی برای انتقال طرح منطقی نظرسنجی به برنامهنویس میتواند باشد.
|
ابزار و قالب خوبی برای نمایش و انتقال محتوای طراحی یک نظرسنجی چیست؟
|
74167
|
چگونه می توانیم انتگرال انتگرال را با حد پایین 0 و حد بالایی بی نهایت در Stata محاسبه کنیم؟ من از دستور integ آگاه هستم، اما مطمئن نیستم که می توانم از آن استفاده کنم زمانی که حد بالایی بی نهایت است.
|
انتگرال در Stata زمانی که حد بالایی بی نهایت است
|
93861
|
فیلتر کالمن و باکس کاکس
|
|
56048
|
من یک آزمایش روانشناختی در مورد یک موضوع، تحت دو شرایط مختلف انجام داده ام. برای هر شرط، تعداد پاسخ های صحیح و غلط را برای هر محرک جمع آوری کرده ام (تعداد آزمایش در هر محرک = 10، تعداد محرک = 15). از دادههای جمعآوریشده من منحنی روانسنجی (منحنی پروبیت یا لاجیت) را برازش کردم و اکنون میخواهم نتایج را با هم مقایسه کنم. **موضوع 1** را در نظر بگیرید: پاسخ های او در ماتریس های زیر جمع آوری شده است **COND_1** صحیح cnt Y N 1 0 10 2 0 10 3 0 10 4 0 10 5 0 10 6 0 10 7 1 9 8 4 6 9 5 5 10 7 3 11 8 2 12 7 3 13 10 0 14 10 0 15 10 0 **COND_2** صحیح cnt Y N 1 0 10 2 2 8 3 2 8 4 3 7 5 2 8 6 4 6 7 8 2 8 10 0 9 0 19 2 0 1 12 10 0 13 10 0 14 10 0 15 10 0 COND_1.1 <- ماتریس (c(0، 2، 2، 3، 2، 4، 8، 10، 8، 10، 9، 10، 10، 10، 10، 10، 8، 8، 7، 8، 6، 2، 0، 2، 0، 1، 0، 0، 0، 0)، byrow=F، ncol=2) COND_1.2 <- ماتریس(c(0، 0، 0، 0، 0، 0، 1، 4، 5، 7، 8، 7، 10، 10، 10، 10، 10، 10، 10، 10، 10، 9، 6، 5، 3، 2، 3، 0، 0، 0)، byrow=F، ncol=2) cnt <- seq(from=0، to=1.4، by=0.1) ddprob.1.1 <- glm(COND_1 .1 ~ cnt، خانواده = دو جمله ای (پیوند = probit)) ddprob.2.1 <- glm(COND_2.1 ~ cnt, family = binomial(link = probit))  با مشاهده طرح، مطمئناً می توانید بگویید که عملکرد در شرایط 2 بهتر از عملکرد در شرایط 1 است. در واقع اگر برخی از پارامترها مانند AUC, p25, p50, p75 را محاسبه کنید (مقدار محرکی که در آن تعداد پاسخ های صحیح هر کدام 25%، 50% و 75% است) [پارامترهای آستانه]، خواهید دید که: COND_1 COND_2 AUC < AUC p25 > p25 p50 > p50 p75 > p75 * * * اکنون در نظر بگیرید * *موضوع 2** : COND_1 صحیح cnt Y N 1 0 10 2 0 10 3 0 10 4 0 10 5 3 7 6 3 7 7 4 6 8 5 5 9 9 1 10 9 1 11 10 0 12 10 0 13 10 0 14 10 0 15 10 0 COND_0 0 15 10 0 COND_0 N201 صحیح 10 4 4 6 5 2 8 6 4 7 4 6 8 7 3 9 4 6 10 7 3 11 7 3 12 10 0 13 9 1 14 10 0 15 10 0 COND_1.2 <0، ماتریس، ( 0، 0، 3، 3، 4، 5، 9، 9، 10، 10، 10، 10، 10، 10، 10، 10، 10، 7، 7، 6، 5، 1، 1، 0، 0، 0، 0، 0)، byrow=F ، ncol=2) COND_2.2 <- ماتریس (c(0, 1, 0, 4, 2, 6، 4، 7، 4، 7، 7، 10، 9، 10، 10، 10، 9، 10، 6، 8، 4، 6، 3، 6، 3، 3، 0، 1، 0، 0) , byrow=F, ncol=2) cnt <- seq(from=0, to=1.4, by=0.1) ddprob.1.1 <- glm(COND_1.2 ~ cnt، خانواده = دوجمله ای (پیوند = probit)) ddprob.2.1 <- glm(COND_2.2 ~ cnt، خانواده = دو جمله ای (پیوند = probit)) نمودار ترسیم شده منحنی ها در تصویر زیر نشان داده شده است.  می توانید بگویید چه عملکردی بهتر است؟ در شرایط 1 یا در شرایط 2؟ با برون یابی AUC، p25، p50، p75، شما دارید: COND_1 COND_2 AUC > AUC p25 > p25 p50 = p50 p75 < p75 بنابراین سؤال من این است: آیا روشی وجود دارد که بگوییم منحنی عمومی (logit، probit یا هر چیز دیگری) بالاتر است. سپس دیگری؟ آیا روشی برای مقایسه (یک عدد عملکرد) وجود دارد که تفاوت های دو منحنی را توصیف کند؟ مثال من نشان می دهد که AUC، p25، p50، p75 پارامترهای خوبی نیستند. من می خواهم یک پارامتر عددی واحد را برای هر منحنی محاسبه کنم تا یک آزمون t-paired ساده، برون یابی شده از توزیع مشاهده شده ایجاد کنم.
|
مقایسه دو منحنی logit/probit با یک پارامتر واحد
|
57005
|
اطلاعات فیشر برای مدل پواسون
|
|
57006
|
اصطلاحی که برای توصیف دو خط استفاده می شود که وقتی خطوط در شیب بیشتری هستند به یکدیگر نزدیکتر ظاهر می شوند
|
|
36247
|
من با شبکه های عصبی کاملاً تازه کار هستم اما علاقه زیادی به درک آنها دارم. با این حال شروع به کار اصلاً آسان نیست. آیا کسی می تواند یک کتاب خوب یا هر نوع منبع دیگری را معرفی کند؟ آیا حتما باید خوانده شود؟ من از هر نوع راهنمایی سپاسگزارم.
|
چگونه با شبکه های عصبی شروع کنیم
|
36249
|
کاربردها یا مزایای تکنیک های رگرسیون کاهش ابعاد (DRR) یا کاهش ابعاد نظارت شده (SDR) نسبت به تکنیک های رگرسیون سنتی (بدون هیچ گونه کاهش ابعاد) چیست؟ این دسته از تکنیک ها یک نمایش کم بعدی از مجموعه ویژگی برای مسئله رگرسیون پیدا می کنند. گاهی اوقات این فرض وجود دارد که توزیع مشترک ویژگیهای $X$ و پاسخ $Y$ روی یک منیفولد قرار دارد. یادگیری منیفولد از نمونه مشاهده شده در این زمینه برای حل مسئله رگرسیون منطقی است. اما تکنیکهای DRR، SDR هیچ فرضی از این نوع را ذکر نمیکنند که باعث میشود در شگفت باشم که چرا آنها مفید هستند. آیا آنها صرفاً رویههای کاهش پیچیدگی زمان و مکان را برای رگرسیون انجام میدهند؟ اگر این مزیت اصلی است، برخی منابع در کاهش پیچیدگی برای مجموعه دادههای با ابعاد بالا در هنگام استفاده از این تکنیکها مفید خواهد بود.
|
برنامه های کاهش ابعاد تحت نظارت
|
36241
|
من باید داده های آزمایشی را تجزیه و تحلیل کنم که در آن شرکت کنندگان دو وظیفه را انجام دادند. هر کار محتوای متفاوتی داشت و همچنین «شرایط فضایی» متفاوتی داشت. محتوا، شرایط فضا و ترتیب ارائه محتوا و شرایط بین شرکتکنندگان متعادل بود. هنگامی که شرکتکنندگان تکالیف را به پایان رساندند، به پرسشنامهای در مورد دشواری هر یک پاسخ دادند که شامل مجموعهای از 18 سؤال (برای هر کار) بود. من یک تحلیل عاملی برای 18 سوال ارجاع شده به تکلیف با شرط فضای 1 انجام دادم که نشان داد فقط یک مؤلفه وجود دارد و یک تحلیل عاملی دیگر با سؤالات مربوط به شرایط فضایی 2 که همچنین منجر به تنها یک مؤلفه شد. سوال من این است: آیا درست است که من یک ANOVA اندازه گیری های مکرر را با مقایسه دو مقیاس عامل حاصل (DV) در موضوع IV (شرایط فضا) و با ترکیب محتوا و شرایط فضا بین موضوعات IV انجام دهم؟ از کمک شما متشکرم.
|
مقیاس عاملی به عنوان یک متغیر وابسته در اندازه گیری های مکرر ANOVA
|
85368
|
اگر مجموعه دادهای که من با آن کار میکنم ابعاد متغیر مستقل زیادی داشته باشد، ممکن است لازم باشد یک زیرمجموعه مناسب از همه مکانهای ممکن در بردار ویژگی خود انتخاب کنم تا مشخص کنم که آیا قرار است از آن برای تقسیم یک گره استفاده کنم یا خیر. این برای مدیریت پیچیدگی محاسباتی کار است. من تعجب می کنم که چه نتایجی در ادبیات پیرامون این موضوع وجود دارد، یا چه دستورالعمل های عملی را باید دنبال کنم. آیا باید از تابع جرم احتمال یکنواخت برای انتخاب نقاط تصادفی استفاده کنم یا از یک رویکرد پیچیده تر؟ آیا دستورالعملی در مورد نسبت امتیازی که من انتخاب می کنم به تعداد کل امتیازهای ممکن وجود دارد و این نسبت چگونه بر تعمیم مدل تأثیر می گذارد؟
|
گسسته سازی تقسیم در تخمین تصادفی جنگل
|
85367
|
فرض کنید من یک توزیع چند جمله ای با احتمالات $p_i$، i از 1 تا k ایجاد می کنم. حالا فرض کنید من آن را با استفاده از خوبی تناسب ( مربع کای ) با احتمالاتی که می دانیم دوباره آزمایش کنم. من خواندم که وقتی اندازه نمونه، N به اندازه کافی بزرگ باشد، این به خوبی کار می کند. سوالات 1\. چه عواملی بر اندازه N باید تأثیر بگذارد تا آزمایش به خوبی کار کند؟ فرضیه ها: k یا نحوه پخش احتمالات 2\. اگر یکی از احتمالات را با مقدار کمی تغییر دهیم (مثلاً 10$^{-3}$) چه میشود. N چقدر بزرگ باید باشد تا مطمئن شویم که آزمون توزیع نادرست را رد می کند؟ نکات: 1. سوال همچنین جواب می دهد اگر به جای تولید، داده های واقعی داشته باشیم، حجم نمونه به دلیل نویز 2 باید بزرگتر باشد. این را می توان به عنوان آزمایشی در نظر گرفت که تولید بدون خطای 3\ انجام شده است. یک برنامه می تواند نمونه ای برای آزمایش همه اینها باشد
|
حسن تناسب چند جمله ای
|
87211
|
من در حال مدل سازی غلظت املاح در پایین دست از یک منبع به عنوان تابعی از فاصله و جریان هستم. این در طی نه جلسه نمونه برداری منحصر به فرد در همان جریان اندازه گیری شد. غلظت در 9 فاصله مساوی در پایین دست از منبع اندازه گیری شد. برای هر جلسه نمونهبرداری، یک جریان جریان منحصربهفرد (اندازهگیری شده در لیتر در ثانیه) وجود داشت. همچنین برای هر جلسه یک جرم منحصر به فرد برای منبع املاح وجود داشت. این منجر به سه متغیر توضیحی پیوسته میشود، یکی در جلسه (فاصله) و دو متغیر بین جلسه (زیست توده و جریان). بنابراین، این نه جلسه نمونه گیری، با 9 اندازه گیری فاصله در هر جلسه نمونه گیری می دهد. برای مدل سازی این، من از یک مدل اثرات مختلط استفاده کردم که اجازه می دهد برای هر جلسه نمونه برداری یک برش تصادفی و یک شیب تصادفی بر اساس فاصله برای هر جلسه نمونه گیری ایجاد شود، هر جلسه نمونه گیری به عنوان یک گروه در نظر گرفته می شود. کد مدل به نظر می رسد ... مدل <\- glmmadmb( غلظت ~ فاصله + زیست توده + جریان + زیست توده * جریان + فاصله * جریان + فاصله * زیست توده + (فاصله | جلسه نمونه برداری)، داده = جریان، خانواده = nbinom، zeroInflation = FALSE) مقاله حاوی این تحلیل اخیرا بررسی شده است. یکی از داوران گفت: «مشکلآمیزترین بخش دستنوشته، تحلیلهای آماری است که گیجکننده، غیرضروری پیچیده، و دارای مسائل شبهتکراری هستند... در روشی که مدلها ساخته میشوند، تکرار شبه وجود دارد که اگر اثر تصادفی باشد. جلسه است (که من معتقدم همینطور است) و تنها یک زیست توده و تنها یک اندازه گیری جریان در هر جلسه وجود دارد، فاصله تنها چیزی است که متفاوت است. ماهیت تو در تو فاصلههای مکرر (و همبسته مکانی) در جلسه در حالی که همه متغیرهای دیگر در سطح جلسه جمعآوری شدهاند، مفروضات مدل را نقض میکند و میتوانست به نتایج اشتباه منجر شود. درک من این است که اثر تصادفی روی اندازهگیریهای فاصله مکرر در هر جلسه، اساساً جلسه را به عنوان واحد نمونهگیری در نظر میگیرد و به مسئله تکرار شبه رسیدگی میکند. متغیرهای کمکی زیست توده و جریان بین گروهها سپس در یک فاصله در هر جلسه ارزیابی میشوند (در این مورد میانگین است زیرا من با z-score اینها را استاندارد کردهام). آیا در این مورد اشتباه می کنم؟ اگر نه، آیا توصیههایی در مورد اینکه چگونه میتوانم به نظرات این بازبینها پاسخ دهم وجود دارد؟
|
درون و بین متغیرهای کمکی گروهی در مدل ترکیبی
|
16428
|
### زمینه: من در حال ایجاد مقیاسی برای پایان نامه خود هستم. مشاور من مرا راهنمایی کرده است که از SPSS PCA برای تکمیل تجزیه و تحلیل خود استفاده کنم. در ابتدا مقیاس من را به 3 عامل کاهش دادیم (اصرار او) و نمونه دوم را با مقیاس 3 عاملی جمع آوری کردیم. من با بارگذاری مناسب 3 فاکتور مشکل داشتم. شرکتکنندگان بر اساس سن و جنسیت به عامل سوم پاسخ متفاوتی میدهند و بارگذاریها در 45/0 و سپس 42/0 در فاکتور دیگر قرار میگیرند. وقتی مدل دو عاملی را در نظر میگیرم (مقیاس 15 مورد در مقابل مقیاس 10 مورد)، همه بارگذاری 0.65 یا بالاتر است، و پاسخدهی بر اساس جنسیت یا سن تأثیر نمیگذارد. ### سوالات: * برای کسب اطلاعات بیشتر در مورد استفاده از SPSS PCA برای توسعه مقیاس، چه چیزی را پیشنهاد می کنید مطالعه کنم؟ * آیا باید از SEM استفاده کنم؟ * آیا تجزیه و تحلیل های اضافی وجود دارد که بتوانم در این مقیاس برای تعیین تناسب/عوامل انجام دهم؟
| |
61949
|
استفاده از نسبت سیگنال به نویز برای مقایسه برآوردگرهای رگرسیون ریج
|
|
41279
|
تصور کنید که من دو اقدام جداگانه انجام دهم و دو توزیع نرمال جداگانه $\mathcal{N}_1(m_1, s_1^2)$ و $\mathcal{N}_2(m_2, s_2^2)$ 1 دریافت کنم. چگونه می توانم یک توزیع نرمال منفرد $\mathcal{N}_3$ را پیدا کنید که نوعی میانگین از این دو منحنی نرمال است؟ 2. به عنوان یک فرمت، چگونه می توانم توزیعی را پیدا کنم که هر دو حالت عادی را نشان دهد؟ یعنی یک توزیع واحد خواهد بود و دو قله دارد و در مرکز $\frac{m_1 + m_2}{2}$؟
|
ترکیب توزیع های نرمال
|
84099
|
من وظیفه ای شبیه محاسبه باقیمانده ها به دلار برای یک فرد مشاهده شده دارم (با کد جنسیتی، کلاسی که در آن حضور دارند، سن آنها، و آنها فرضاً 50000 در سال می سازند - Dependent Var). پس از اجرای SPSS و خروجی ANOVA با مقدار رگرسیون، باقیمانده ها و مجموع (و من به مجموع مربع ها اشاره می کنم). سپس درجات آزادی و مربع میانگین وجود دارد. آیا امکان بازگشت از این مقادیر به مقدار باقیمانده برای یک مشاهده مشخص وجود دارد؟ (ریشه دوم باقیماندههای میانگین مربع) تقسیم بر (ریشه دوم رگرسیون میانگین مربع) به همان مقدار خطای استاندارد تخمین محاسبه میشود که در آن مربع R برای آن مدل 203/0 است. پس آیا درست است که بگوییم برای آن 50000 درآمدی که در بالا ذکر کردم، باقیمانده 20.3٪ یا 10،150 دلار است. مغز من در اینجا ذوب شده است - هر کمکی بسیار قدردانی می شود. برخلاف پست باب جان (یافتن مقدار باقیمانده) من بهترین فرمول خط را در این مورد ندارم.
|
پس از اجرای SPSS ANOVA باقیمانده را محاسبه کنید
|
41278
|
من قبلاً در مورد بوت استرپینگ اطلاعات خود پست کرده بودم. من اکنون در مورد کل فرآیند آزمایش/داده کاوی برای یک استراتژی و سپس آزمایش بر روی داده های بوت استرپ تعجب می کنم. آیا منطقی است که ابتدا داده های خود را بوت استرپ کنید و سپس داده ماین را برای بهترین نتیجه انجام دهید؟ این برای من اتفاق افتاد زیرا استراتژی فعلی من زمانی که آن را در برابر داده های بوت استرپ آزمایش کردم، کاهش قابل توجهی داشت. استراتژی اولیه استراتژی ای است که به صورت ماهانه بین SPY و TLT تعادل برقرار می کند. این استراتژی پس از آزمایش بر روی داده های 6 ساله (یا 72 معامله کل)، شارپ 2.06 دارد. اما وقتی آن را در برابر داده های بوت استرپ تست می کنم، نسبت شارپ به طور قابل توجهی به 1.04 کاهش می یابد. به نظر می رسد که من در نهایت به دنبال افزایش عدد 1.04 هستم، و برای انجام این کار باید شماره 1) فرآیند داده کاوی را دوباره شروع کنم تا یک استراتژی جدید تست شده را پیدا کنم و *#2) دوباره آزمایش کنم. در برابر داده های بوت استرپ بنابراین آیا می توانم از مرحله شماره 1 بگذرم؟ بدیهی است که این نیاز به قدرت محاسباتی قابل توجهی دارد. با تشکر
|
اول بوت استرپینگ، سپس داده کاوی؟
|
84098
|
تمرینی از من میخواهد نشان دهم که اگر $X_1,X_2,\ldots,X_n$ نمونهای تصادفی از توزیع پواسون با پارامتر $\theta$ باشد، توزیع شرطی X_1,X_2,\ldots, X_{n-1 است. }$، با توجه به $Y=\sum_{i=1}^n X_i$، چند جمله ای است. به طور معمول، این می توانست آسان باشد، اما متأسفانه توزیع مشترک در اینجا من را کمی پرت می کند. این جایی است که من قدردان کمک هستم. پیشاپیش از شما متشکرم.
|
توزیع شرطی متغیرهای پواسون، با توجه به $\sum X_i$
|
61948
|
هندسه اطلاعات برای رگرسیون ریج
|
|
87217
|
من با نرم افزار R (Lib e1071) کار می کنم و سعی می کنم با استفاده از رگرسیون پشتیبان بردار پیش بینی ها را بدست بیاورم. روشی که من این کار را انجام می دهم به شرح زیر است: من در حال پنجره سازی قیمت های بسته شدن خام با استفاده از N=3 بازدهی هستم: s[t-3] s[t-2] s[t-1] -> s[t] 1.2350 1.2358 1.2354 1.2360 . . . . . . . . و غیره... مقداری که می خواهم پیش بینی کنم y=s[t] است. نوع SVM رگرسیون eps و هسته شعاعی است. همچنین، من یک اعتبارسنجی متقاطع 10 برابری انجام میدهم تا بهترین پارامترها، گاما و هزینه را دریافت کنم. اما من یک مشکل دارم: پیش بینی همیشه مقدار بسیار نزدیکی از آخرین مقدار s[k-1] است، به عنوان مثال: آخرین بردار: s[t-3] s[t-2] s[t-1] - > s[t] 1.2350 1.2358 1.2354 1.2355 مقادیر پیش بینی شده مقادیر بسیار نزدیک به آخرین مقادیر خواهند بود مقدار s[t-1]. من سعی کردم تعداد بردارهای آموخته شده را افزایش دهم (10K) و بازده N را افزایش دهم (تا 7)، اما نتایج یکسان است. آیا کسی می تواند به من بگوید چرا این اتفاق می افتد و چگونه می توانم پیش بینی های واقعی داشته باشم؟
|
پیش بینی سری زمانی مالی / رگرسیون SV
|
87216
|
من کاملاً مبتدی در آمار هستم. و من می خواهم بدانم کدام روش آماری برای سناریوی زیر قابل استفاده است. من یک دسته جملات استخراج شده از یک سند متنی دارم. هر جمله دارای یک عدد صحیح خاص است، مثلاً X که از 1 تا 5 متغیر است. هر جمله همچنین دارای مقدار لگاریتمی دیگری Y است که می تواند مثبت یا منفی باشد. رابطه ای (نسبت مستقیم یا معکوس) بین X و Y وجود ندارد. من می خواهم در نگاشت هر مقدار Y به یک مقدار X خاص با استفاده از آن دسته از عبارات تصمیم بگیرم. به عنوان مثال فرض کنید 12 جمله با مقادیر X و Y به شرح زیر دارم: X | Y جمله 1 : 1 | 0.00 جمله 2 : 1 | 1.05 جمله 3 : 2 | 0.00 جمله 4 : 3 | 12.0 جمله 5 : 5 | 2.0 جمله 6 : 4 | -1.0 جمله 7 : 5 | -9.0 جمله 8 : 2 | 0.0 جمله 9 : 3 | 15.0 جمله 10 : 1 | 0.0 سپس میخواهم تصمیم بگیرم که چه محدودههایی از Y برای مقادیر 1،2،3،4،5 X مناسب است. حدس میزنم برخی از اشکال رگرسیون گزینه مناسبی در اینجا باشد. اما مطمئن نیستم که روش دقیق در اینجا قابل اجرا باشد.
|
روش آماری برای نگاشت مجموعه ای از مقادیر به دیگری
|
84094
|
من فقط چند نمونه از شبکه ASIA Bayesian با استفاده از BNToolbox ترسیم کردم. اکنون باید استقلال شرطی بین دو متغیر تصادفی دلخواه را با توجه به متغیر سوم آزمایش کنم، اما هیچ راهنمایی برای انجام آن با توجه به نمونههای موجود وجود ندارد. متوجه شدم یک تابع در BNToolbox به نام cond_indep_fisher_z وجود دارد که وظیفه مورد نظر من را انجام می دهد. اجرای آن وجود دارد. ممنون می شوم نحوه استفاده از آن را به من نشان دهید. من فقط پنج متغیر تصادفی و 1000 نمونه در دست دارم. تابع [CI, r, p] = cond_indep_fisher_z(X, Y, S, C, N, alpha) % COND_INDEP_FISHER_Z اگر X indep Y Z را با استفاده از آزمون Z فیشر داده شده است آزمایش کنید. % CI = cond_indep_fisher_z(X, Y, S, C, N، آلفا) % % C ماتریس کوواریانس (یا همبستگی) % N نمونه است اندازه % آلفا سطح معنیداری است (پیشفرض: 0.05) % % رجوع کنید به صفحه 133 T. Anderson، An Intro. to Multivariate Statistical Analysis، 1984 if nargin < 6, alpha = 0.05; پایان r = partial_corr_coef (C, X, Y, S); z = 0.5*log( (1+r)/(1-r)); z0 = 0; W = sqrt(N - طول(S) - 3)*(z-z0); % W ~ N(0,1) cutoff = norminv(1 - 0.5*alpha); % P(|W| <= cutoff) = 0.95 %cutoff = mynorminv(1 - 0.5*alpha); % P(|W| <= برش) = 0.95 اگر abs(W) <قطع CI = 1; else % فرضیه صفر را رد می کند که rho = 0 CI = 0. انتهای p = normcdf(W);
|
آیا کسی می تواند پیاده سازی و کاربرد cond_indep_fisher_z.m را در جعبه ابزار بیزی توضیح دهد؟
|
82783
|
سری های زمانی زیادی وجود دارد که مشخصا ثابت نیستند (منظورم این است که در تعریف) برخی از آنها حتی قطعی هستند، با این حال تست های ریشه وحدت مانند تست ADF/PP و غیره با خوشحالی وجود ریشه وحدت را در این فرآیندها رد می کنند. . بنابراین سوال من این است که از چه نوع روش هایی برای تعیین اینکه آیا یک فرآیند یک فرآیند واقعاً تصادفی با اطمینان معقول است یا خیر استفاده کردید؟
|
چگونه تعیین می کنید که آیا یک سری زمانی با اطمینان معقول ثابت است؟
|
84092
|
من دو تابع دارم، اولی نتیجه یک مدل خطی تعمیم یافته را برای یک سری مقادیر ('Dose') با توجه به یک سری معین از 'نتیجه' محاسبه می کند: glm.Vdose <- تابع (dvh.matrix, InputDose, outcome ) { Dose<-Vdose(dvh.matrix=dvh.matrix, Dose=InputDose) مدل <- glm(formula=نتیجه ~ دوز، خانواده=دوجمله(link=logit)) P<-summary(model)$coefficients[, Pr(>|z|)][2] بازگشت(P*1e12) } 'Vdose' تابع دیگری است که از برخی ماتریس های ورودی مقدار 'Dose' را استخراج می کند که باید برای مدل سازی استفاده شود. خروجی این تابع مقدار P مدل است. من باید مقدار پارامتر ورودی 'Dose' را تنظیم کنم تا به کمترین مقدار P-value تا حد ممکن دست یابیم و بنابراین تصمیم گرفتم تابعی ایجاد کنم که مقدار 'Dose' را پیدا کند و در نتیجه کمترین مقدار P-value را به دست آورد. توسط `glm.Vdose`. مناسب. (list(Vdose=out$par, P=out$objective*1e-12)) } اکنون میخواهم پارامترهای مختلفی را در تابع glm.Vdose نیز معرفی کنم تا بتوانیم یک رویکرد چند متغیری را در ارائه مدل بهینهسازی نهایی با توجه به مقدار پارامتر دوز دریافت کنیم. بنابراین من دو تابع را به صورت زیر تغییر دادم: glm.Vdose <- function(dvh.matrix, InputDose, formula) { D<-Vdose(dvh.matrix=dvh.matrix, Dose=InputDose) f <- update.formula(formula , ~ + D) مدل <- glm(formula=f, family=binomial(link=logit)) P<-summary(model)$ضرایب[، Pr(>|z|)][2] بازگشت(P*1e12) } fit.Vdose <- تابع(dvh.matrix، فرمول، start.Vdose=20) {فرمول <- as.formula(formula) out<-nlminb(start=start.Vdose, object=glm.Vdose, dvh.matrix=dvh.matrix, formula=formula) return(list(Vdose=out$par, P=out$objective*1e-12)) } من سعی می کنم مقدار `formula` را پاس کنم به منظور معرفی پارامترهای بیشتری برای نصب. دو تابع اول به درستی اجرا می شوند، دو تابع دوم خطایی را نشان می دهند: خطا در model.frame.default(فرمول = f، drop.unused.levels = TRUE): نوع نامعتبر (بستن) برای متغیر 'D' I don' نمی دانم چگونه می توانم این اشکال را اصلاح کنم. کسی میدونه؟
|
تغییر دینامیکی پارامتر در یک فرمول در طول بهینه سازی
|
73184
|
اگر تابع چگالی را داشته باشم چگونه می توانم یک متغیر تصادفی با اندازه n=2914 ایجاد کنم؟ بنابراین مشکل این است که من چگالی f(x) دارم (تابع به خوبی تعریف شده است) P<-function(a,e) { ( (1/6)*(1^3))-((a/2)*( 1^2)) +(((((a)^2)/2)+e)*1)} D<-function(u,mu,sigma) {dlogis(u,mu,sigma)} K<- تابع(u,a,e) {(((1/2)*(u^2))- (a*u) +(((a^2)/2)+e))} H<-function( u,mu,sigma){ plogis(u,mu,sigma, low.tail = TRUE)} Fprim<- تابع (u,a,e,mu,sigma) (1/P(a,e))*(D(u,mu,sigma))*(K(H(u,mu,sigma),a,e)) Fprim(1,a,e,mu,sigma ) df<- تابع(u) Fprim(u,a,e,mu,sigma) #### پارامتر n,a,e,mu,sigma n<-2914 mu<- -0.42155226 sigma<- 0.60665552 a<- 0.43218138 e<- 0.02149706 فکر می کنم باید معکوس کنم و برای استفاده از مونت کارلو، نمی دانم چگونه انجام دهم؟
|
ایجاد متغیر تصادفی از تابع چگالی
|
60095
|
من مدلی دارم که از آن برای پیش بینی مرگ و میر استفاده می کنم و AUC 0.799 را به من می دهد. کد R که من استفاده می کنم چیزی شبیه به این است: fit <- glm (مرگ ~ سن + جنسیت + ASA + Wndclass، داده = سپسیس، خانواده = دوجمله ای) من AUC خود را با استفاده از ROCR محاسبه می کنم: کتابخانه( ROCR) fit.pred <- predict(fit) sepsis.pred <- prediction(fit.pred, mortality[,1]) sepsis.perf <- performance(sepsis.pred، auc) فراخوانی `sepsis.perf` به من می دهد: یک شی از کلاس performance Slot x.name: [1] None Slot y.name : [1] مساحت زیر منحنی ROC اسلات alpha.name: [1] none اسلات x.values: list() اسلات y.values: [[1]] [1] 0.7990628 اسلات alpha.values: list() تا کنون به این نتیجه رسیده ام که این مدل به عنوان یک طبقه بندی خیلی بد نیست. با این حال، وقتی به ضرایب، به ویژه 95% CI، مدل رگرسیون لجستیک نگاه میکنم، نتایج عجیبی دریافت میکنم: (Intercept) 8.248484e-03 3.394696e-02 SEXfemale 9.037957e-01 1.325291EUL-407 S. 5.780619e+192 Age 1.026437e+00 1.043482e+00 ASACLAS2-Mild Disturb 1.408200e-220 3.478857e+229 ASACLAS3-Severe Disturb7-69261. 4.367441e+229 ASACLAS4-Life Threat 3.596686e-220 8.876357e+229 ASACLAS5-Moribund 8.561098e-220 2.113924e+230 ASACLASNUL20L 6.747396e+230 ASACLASهیچکدام اختصاص داده شده 1.513924e-219 3.793387e+230 WNDCLAS2-Clean/Cotaminated 9.281083e-01 1.897956e+00WNDCLAS19-219-Contaminated408-01. 1.604651e+00 WNDCLAS4-Dirty/Infected 5.114258e-01 8.718848e-01 چیزی که در اینجا مرا آزار می دهد 95% CI برای کلاس ASA است که مسخره است. با این حال، وقتی آن را از مدل خود خارج میکنم، AUC به 0.78 کاهش مییابد، و از نظر بالینی، طبقهبندی ASA (انجمن بیهوششناسان آمریکا) اغلب برای طبقهبندی بیماران در خطر مرگ و میر کم تا بالا در دوره بعد از عمل استفاده میشود. بنابراین سوال من این است که با توجه به این نتایج CI 95٪، آیا باید کلاس ASA را حذف کنم؟ اگر نه، چگونه باید کلاس ASA را با توجه به نتایج خود تفسیر کنم؟ با تشکر از کمک!
| |
64535
|
سوال اکولوژیکی من این است: روند درصد پوشش مرجانی بر اساس جزیره و عمق در سراسر ایالت هاوایی از سال 1999 تا 2012 چیست؟ من سعی می کنم این مجموعه داده سلسله مراتبی را با استفاده از R با 10 ترانسکت در هر عمق، 2 عمق در هر سایت، و سایت تو در تو در جزیره تجزیه و تحلیل کنم. ساختار داده ها: جلوه های ثابت: جزیره: هاوایی، مائوئی، مولوکای، کاهولاو، اوآهو، کائوآی. DepthCat: S = کم عمق، D = عمیق. سال سال: 0-13. پیشنهاد شد که سال ها از این عامل به عنوان متغیر کمکی استفاده کنم. اثرات تصادفی: سایت: 34 سایت در 6 جزیره با 2 عمق در هر سایت. ترانسکت: 10 ترانسکت دائمی در هر عمق. سال: 1999 – 2012 (14 سال) متغیر وابسته: PercentCover در حال حاضر، من از تابع 'lmer' در بسته 'lmerTest' استفاده می کنم و این مدلی است که من ساخته ام. fit1 <- lmer(PercentCover ~ WYear*Island*DepthCat + (1+WYear|Island/Site/DepthCat/Transect) + (1|Year)، data=Benthic) متأسفانه، دادهها نقطهای هستند (یعنی دادههای چندگانه از دست رفته است سال برای تعدادی از سایتها) بنابراین مدل «[1] کوواریانس مجانبی را برمیگرداند ماتریس A مثبت نیست!، حتی با استفاده از داده های تبدیل شده arcsin. من هنوز هم می توانم آمار خلاصه را برای به دست آوردن نتایج اجرا کنم، اما با پیام خطا احساس راحتی نمی کنم. شاید ساختار مدل را از نظر سازماندهی عوامل تو در تو درست نکرده باشم، اما تعداد مشاهدات برای هر یک از سطوح در آمار خلاصه درست به نظر می رسد. من تکرارهای مختلف و ساده تری از مدل را امتحان کردم مانند: fit1 <- lmer(PercentCover ~ WYear + Island + DepthCat + (1+WYear|Transect/Site) + (1|Year)، data=Benthic) که کار می کند، اما جواب نمی دهد اطلاعات تعامل را به من بدهید و یک AIC بزرگتر برمی گرداند که نشان می دهد مدل نیز با داده ها مطابقت ندارد. برای مقابله با تمام داده های از دست رفته، من روش دیگری را با استفاده از شیب رگرسیون درصد پوشش در طول زمان به عنوان متغیر وابسته برای هر ترکیب عمق سایت X امتحان کردم. ساختار داده ها: جلوه های ثابت: جزیره: هاوایی، مائوئی، مولوکای، کاهولاو، اوآهو، کائوآی. DepthCat: S = کم عمق، D = عمیق. اثرات تصادفی: سایت: 34 سایت در 6 جزیره با 2 عمق در هر سایت. ترانسکت: 10 ترانسکت دائمی در هر عمق. متغیر وابسته: Trend من از مدل زیر استفاده کردم، اما نتایج خلاصه حتی پس از تبدیل داده ها چندان معنی نداشت. fit1<-lmer(Trend ~ Island*DepthCat + (1| Island/Site/DepthCat/Transect)، data=Benthic) هر پیشنهادی در مورد بهبود رویکرد تحلیلی من قابل قدردانی خواهد بود.
| |
84036
|
همانطور که در پاسخ user25658 به این سوال بحث شد، وقتی کسی می خواهد $$ \beta = \mathbb{E}(x^Tx)^{-1} \mathbb{E}(x^TY) $$ اما $\mathbb را محاسبه کند {E}(x^Tx)$ معکوس نیست، $\beta$ منحصراً شناسایی نشده است. توصیف همه مقادیر ممکن $\beta$ توسط $$\beta= \mathbb{E}(x^Tx)^g\mathbb{E}(x^Ty)$$ که در آن $\mathbb{E} ارائه میشود. (x^Tx)^g$ معکوس تعمیم یافته $\mathbb{E}(x^Tx)$ است. در Hansen, Econometrics, pg 34, part 2.18 (در نسخه امروزی در وب سایت Hansen) نوشته شده است که $x^T\beta = x^T \mathbb{E}(x^Tx)^g\mathbb{E} (x^Ty) $ با این حال منحصر به فرد شناسایی می شود. این نتیجه برای من کاملاً غیر منطقی نیست. من می دانم که این ضرب ماتریس است و این واقعیت که برای هر $x$ ممکن است چندین $\beta(x)$ وجود داشته باشد، مثلا $\beta(x)_1 \neq \beta(x)_2$، اینطور نیست به معنای $x^T\beta(x)_1 \neq x^T\beta(x)_2$ است. با این وجود، من در تلاش برای اثبات این ادعا ناموفق بوده ام. آیا کسی می تواند در این مورد به من کمک کند؟
|
منحصر به فرد بودن $x'\beta$ حتی زمانی که $\mathbb{E}(x^Tx)$ معکوس نباشد
|
58230
|
لطفاً کسی توضیح دهد که چرا درجه آزادی برای یک نمونه تصادفی به جای _n_ _n-1_ است؟ من به دنبال توضیحی هستم که برای یک دانش آموز دبیرستانی به راحتی قابل درک باشد. 
|
درجات آزادی برای انحراف معیار نمونه
|
64534
|
من می خواهم آزمایش کنم که آیا میانگین بین دو نمونه مستقل متفاوت است یا خیر. هر دو نمونه بزرگ هستند، هر کدام حدود 2 میلیون مشاهده، با این حال تقریباً همه مشاهدات صفر هستند. به ویژه در هر نمونه، تنها حدود 10000 مشاهده غیرصفر هستند. این داده ها مقدار پولی را که در یک دوره زمانی معین بین دو گروه از مشتریان خرج شده است، نشان می دهد، مقدار صفر به این معنی است که مشتری هیچ خریدی انجام نداده است. اجرای آزمون t-student یا من ویتنی U هیچ تفاوت آماری معنی داری را بین میانگین ها نشان نمی دهد. من در نظر داشتم همه مشاهدات غیر صفر را کنار بگذارم و آزمایش ها را دوباره اجرا کنم، اما مطمئن نیستم که چگونه نتایج را تفسیر کنم. هر گونه بینش قدردانی خواهد شد.
| |
66015
|
من سعی می کنم بفهمم آیا تقسیم n-1 در محاسبه انحراف معیار مربوط به درجه آزادی، بی طرفی برآوردگر یا هر دو است. وقتی در مورد توزیع t، chi، f و غیره صحبت می کنیم، می فهمم که درجه آزادی چیست. من همچنین سعی کردم بفهمم درجه آزادی در رابطه با انحراف معیار چیست. من از توضیح دیگری مطلع شدم که مربوط به سوگیری تخمین $\sigma$ است. حالا من گیج شدم: چرا بر $n-1$ تقسیم می کنیم؟ آیا به دلیل درجات آزادی است (و در این مورد، واقعاً به چه معناست؟) یا به این دلیل است که ما می خواهیم یک برآوردگر بی طرف داشته باشیم؟ یا اینکه این دو توضیح به نوعی به هم مرتبط هستند؟ (آیا این طبیعی است که مفهوم DOF اینقدر لغزنده و درک آن دشوار است؟ یا این فقط من هستم؟) \--من موضوع پیشنهادی را خوانده ام و فکر می کنم فقط ظاهراً به سؤال من پاسخ داده است. OP آن موضوع در مورد درجات آزادی سؤال کرد و پاسخ در مورد برآوردگر مغرضانه صحبت کرد. من نمی فهمم آنها چگونه با یکدیگر ارتباط دارند.
|
انحراف معیار و n-1: درجات آزادی یا بی طرفانه؟
|
71268
|
برای پایان نامه خود یک روش روان درمانی برای پرداختن به شایستگی اجتماعی در کودکان پرخاشگر/ گوشه گیر توسعه دادم. من یک نمونه از 10 موضوع (نه تصادفی، اساتید بچه ها را با رفتارشان در کلاس انتخاب می کردند) به دست آوردم که هر کدام را به دو گروه 5 تایی تقسیم کردم (باز هم تصادفی نبود، نتوانستم انتخاب کنم، بچه ها از مدارس مختلف بودند. و من به هیچ وجه نمیتوانستم انتخاب تصادفی انجام دهم. یکی از گروهها آزمایشی و دیگری کنترل بود. من برای هر یک از فرزندان، والدین و معلمان پرسشنامه ای برای ارزیابی مشکلات اجتماعی قبل از اعمال روش و در پایان اعمال کرده ام. حال سوال من این است: هدف من تعمیم نتایج نیست زیرا این یک مطالعه اکتشافی است، بلکه مقایسه نتایج هر گروه در دو لحظه است. آیا مشکل نمونه برداری و حجم کم نمونه نتیجه ای را به خطر می اندازد یا می توانم آزمایشی انجام دهم؟ آیا می توان از آزمون های پارامتریک استفاده کرد؟ پیشاپیش ممنون
|
نمونه کوچک غیر تصادفی - چه نتیجهگیری میتوانم داشته باشم؟
|
18819
|
در یک برنامه متن کاوی، یک رویکرد ساده استفاده از اکتشافی $tf-idf$ برای ایجاد بردارها به عنوان نمایش های پراکنده فشرده از اسناد است. این برای تنظیمات دسته ای خوب است، جایی که کل پیکره پیشینی شناخته می شود، زیرا $idf$ به کل مجموعه نیاز دارد $$ \mathrm{idf}(t) = \log \frac{|D|}{|\ \{d: t \in d\\}|} $$ که در آن $t$ یک اصطلاح است، $d$ یک سند، $D$ مجموعه سند، و $T$ (نشان داده نشده) فرهنگ لغت است. با این حال معمولا اسناد جدید در طول زمان دریافت می شوند. یکی از گزینهها این است که تا زمانی که تعداد معینی از اسناد جدید دریافت نشدهاند، از $idf$ موجود استفاده کنید و آن را دوباره محاسبه کنید. با این حال این نسبتاً ناکارآمد به نظر می رسد. آیا کسی طرح به روز رسانی افزایشی را می شناسد که (احتمالاً تقریباً) به مقدار همگرا شود اگر همه داده ها از قبل دیده شوند؟ یا به طور متناوب آیا معیار دیگری وجود دارد که همان مفهوم را نشان می دهد اما می تواند به صورت افزایشی محاسبه شود؟ همچنین یک سوال مرتبط وجود دارد که آیا $idf$ در طول زمان معیار خوبی باقی می ماند یا خیر. از آنجایی که idf مفهوم فراوانی کلمات پیکره را در بر می گیرد، می توان تصور کرد که اسناد قدیمی در مجموعه (مثلاً، مجموعه من شامل بیش از 100 سال مقاله مجله است)، زیرا فرکانس کلمات مختلف در طول زمان تغییر می کند. در این مورد ممکن است واقعا معقول باشد که وقتی اسناد جدید وارد می شوند، اسناد قدیمی را بیرون بیاوریم، در واقع با استفاده از یک پنجره کشویی $idf$. به طور قابل تصور، میتوان تمام بردارهای $idf$ قبلی را بهعنوان بردارهای جدید ذخیره کرد، و سپس اگر بخواهیم اسنادی را از مثلاً 1920-1930 بازیابی کنیم، میتوانیم از $idf$ محاسبهشده از اسناد در آن محدوده تاریخ استفاده کنیم. آیا این رویکرد منطقی است؟ ویرایش: یک موضوع جداگانه اما مرتبط در مورد دیکشنری $T$ وجود دارد. با گذشت زمان، اصطلاحات فرهنگ لغت جدیدی وجود خواهند داشت که قبلاً ظاهر نشده بودند، بنابراین $|T|$ باید رشد کند، و از این رو طول بردار $idf$. به نظر می رسد که این مشکلی نخواهد بود، زیرا صفرها را می توان به بردارهای $idf$ قدیمی اضافه کرد.
|
IDF افزایشی (فرکانس اسناد معکوس)
|
37590
|
مقاله F-measure در ویکی پدیا می گوید: > F-measure سنتی یا F-score متعادل (امتیاز F1) هارمونیک > میانگین دقت و یادآوری است: $F_1=2\times\frac{precision \times > recall} {precision+recall}$ چرا به طور خاص از میانگین _هارمونیک_ استفاده می شود و از میانگین حسابی یا میانگین هندسی یا هر نوع دیگری استفاده نمی شود؟ از میانگین ها؟ محاسبه میانگین هارمونیک دقیقاً به چه معناست؟
|
در محاسبه F-Measure با دقت و یادآوری، چرا از میانگین هارمونیک استفاده می شود؟
|
37595
|
من با یک رگرسیون وزنی میانگین مدت اقامت (LOS) که بر حسب روز در مقابل نرخ پذیرش بستری در مجموعه داده ای متشکل از سوابق بستری از 30 بیمارستان اندازه گیری می شود، به یک همکار کمک می کنم. ما وزن را در هر نقطه داده به عنوان خطای استاندارد معکوس LOS بیمار در بیمارستان محاسبه کرده ایم. آیا روش استانداردی برای تخمین وزن خطای معکوس stnd وجود دارد که در آن خطای stnd = 0 باشد؟ در چندین بیمارستان با حجم بیمار کم، LOS برای همه بیماران در طول دوره زمانی تجزیه و تحلیل ما یکسان است، و بنابراین خطای stnd = 0، وزنی برابر با بی نهایت تولید می کند. ما میتوانیم این نقاط داده را از رگرسیون حذف کنیم (یا به طور کامل از رگرسیون وزنی اجتناب کنیم)، اما در اصل به نظر میرسد که باید یک تکنیک پذیرفتهشده برای محاسبه وزنها در موارد خاص که واریانس = 0 وجود داشته باشد. من هیچ بررسی شانسی نداشتهام کتاب های درسی آمار من * * * از راهنمایی شما متشکرم، مایکل و وبر. بیشتر مجموع مجموع خطاهای مربعات را می توان به خطای اندازه گیری در مورد من نسبت داد که من یک رگرسیون حداقل مربعات بدون وزن ساده را اجرا می کنم (RSS=44.5، ESS=168.9، TSS=213.4). بنابراین اگر بخواهم طرح وزنی خودم را بسازم ممکن است مستلزم آن باشد، در یک افراطی اگر واریانس=0 وزن = # obs در آن بیمارستان، و در نهایت، اگر واریانس=بی نهایت، وزن=0 باشد. شاید یک فرمول مفید می تواند وزن_i = N_i/(N_i^CV_i) باشد، که در آن وزن_i = وزن برای بیمارستان i، N_i = # obs برای بیمارستان i، و CV_i = ضریب تغییرات LOS مشاهده شده برای بیمارستان i؟ 
|
محاسبه وزن به عنوان 1/(خطای stnd) برای رگرسیون وزنی اگر خطای stnd = 0 باشد
|
18816
|
من در حال تجزیه و تحلیل داده های تقاضای ساعتی برای برق هستم. برای اینکه پیشبینیهایم دقیقتر شود، چگونه باید با تعطیلات ملی در دادهها رفتار کنم؟ به طور خاص، چگونه باید با آنها در R رفتار کنم؟
|
هنگام کار با داده های سری زمانی چگونه با تعطیلات رفتار کنیم؟
|
18815
|
من تازه وارد یادگیری ماشین هستم. در حال حاضر من از یک طبقهبندی کننده Naive Bayes (NB) برای طبقهبندی متون کوچک در 3 کلاس به عنوان مثبت، منفی یا خنثی با استفاده از NLTK و python استفاده میکنم. پس از انجام برخی آزمایشها، با مجموعه دادهای متشکل از 300000 نمونه (16924 مثبت 7477 منفی و 275599 خنثی) دریافتم که وقتی تعداد ویژگیها را افزایش میدهم، دقت کاهش مییابد اما دقت/یادآوری کلاسهای مثبت و منفی بالا میرود. آیا این یک رفتار عادی برای یک طبقه بندی کننده NB است؟ آیا می توانیم بگوییم که بهتر است از امکانات بیشتری استفاده کنیم؟ برخی از داده ها: ویژگی ها: 50 دقت: 0.88199 F_Measure Class Neutral 0.938299 F_Measure Class Positive 0.195742 F_Measure Class Negative 0.065596 ویژگی ها: 500 دقت: 0.82Measure Class: 0.82Measure 0.195742 0.904684 F_Measure Class Positive 0.223353 F_Measure Class Negative 0.134942 پیشاپیش متشکرم... **ویرایش 2011/11/26** من 3 استراتژی مختلف انتخاب ویژگی (MAXFREQ، FREQENT، FREQENT، Class Bayer، MAXINFOive) را آزمایش کرده ام. ابتدا دقت، و اندازههای F1 در هر کلاس آمده است:  سپس خطای قطار و خطای تست را با یک آموزش افزایشی رسم کردم. تنظیم کنید، هنگام استفاده از MAXINFOGAIN با 100 ویژگی برتر و 1000 ویژگی برتر:  بنابراین، به نظر من این است که **اگرچه بالاترین دقت با FREQENT به دست می آید، بهترین طبقه بندی کننده طبقه بندی کننده ای است که از MAXINFOGAIN استفاده می کند، آیا درست است* *؟ هنگام استفاده از 100 ویژگی برتر، سوگیری داریم (خطای تست نزدیک به خطای آموزش است) و افزودن نمونه های آموزشی بیشتر کمکی نخواهد کرد. برای بهبود این امر به ویژگی های بیشتری نیاز داریم. با 1000 ویژگی، سوگیری کاهش می یابد اما خطا افزایش می یابد... آیا این مشکلی ندارد؟ آیا باید ویژگی های بیشتری اضافه کنم؟ من واقعا نمی دانم چگونه این را تفسیر کنم ... بازم ممنون ...
|
افزایش تعداد ویژگی ها منجر به کاهش دقت، اما افزایش prec/recall می شود
|
37596
|
هنگام آزمایش همبستگی بین xy و xz، شما همچنین باید yz را در فرمول به اضافه حجم نمونه بگنجانید. خوب اگر این متغیرها مواردی هستند که در پرسشنامه ای پرسیده می شوند که فقط برخی از شرکت کنندگان در نمونه به آن پاسخ دادند، از چه حجم نمونه استفاده می کنید، بنابراین برای هر همبستگی N متفاوتی وجود دارد؟
|
آزمون اهمیت تفاوت بین همبستگی های وابسته
|
81479
|
اساساً من چندین گزینه طراحی با 22 متغیر با گزینه 0-1 دارم. برای هر طرح یک خروجی دارم که یک عدد واقعی است. بنابراین... من می خواهم راهی برای بیان تا حد امکان واضح اثر همه متغیرها در خروجی بدانم و بیان کند که هر یک از طراحی ها چقدر خوب عمل کرده اند. پیشنهادی دارید؟ توضیح: من (به طور بالقوه) 2^22 طرح احتمالی دارم درست است؟ و من نمی دانم متغیرها چگونه با هم ارتباط دارند. بنابراین برای به دست آوردن یک ایده کلی اولیه، میخواهم نتایج را به صورت گرافیکی به گونهای نمایش دهم که اطلاعات مربوط به هر طرح را به طور کلی جمعآوری کند. در حال حاضر من فقط 22 نوار را نشان می دهم که تغییرات متغیر وابسته را نشان می دهد وقتی که هر متغیر را تغییر دهید و بقیه را در یک پیکربندی اسمی ثابت نگه دارید. با این حال، این باعث میشود اطلاعاتی در مورد نقش متغیرهای متقابل در حال تغییر در این فرآیند از دست بدهم، میدانم که این سؤال بهطور عجیبی باز است، و من فقط به دنبال پیشنهادهایی بودم که افراد با تجربهتر در این زمینه ممکن است داشته باشند.
|
پیشنهادهایی در مورد نحوه تجسم برخی از داده ها
|
81478
|
ضریب روایی معیار مهمی برای توسعه آزمون به ویژه در روانشناسی و جامعه شناسی است که در آن اندازه گیری های بیش از حد غیر مستقیم داریم. شاید راه های مختلفی برای دانستن اندازه آن داشته باشیم.
|
آیا می توان از CFA (تحلیل عامل تاییدی) برای تعیین ضریب روایی استفاده کرد؟
|
7128
|
### مطالعه: من برخی از مواد سطوح را در سطح صوتی و لمسی شبیهسازی کردم و از آزمودنیها خواستم در مقیاس لیکرت 9 درجهای میزان انسجام بین دو محرک را ارزیابی کنند. برای مثال محرک هایی با فلز در سطح شنوایی و برف در سطح لمسی یا چوب در سطح شنوایی و لمسی وجود دارد. بنابراین مانند آزمایش درجه بندی عدم تشابه است. این آزمایش تنها 12 شرکتکننده داشت، بنابراین برای هر محرک 12 پاسخ دارم (بدون اندازهگیری مکرر). ### سوال: چگونه آزمایش زیر را تجزیه و تحلیل کنم؟ ### افکار اولیه: تا کنون تنها راهی که فکر می کنم استفاده کنم ANOVA است. ### به روز رسانی سلام دوباره، من از دستور cmdscale در R استفاده کردم، اما نقشه ادراکی را که دوست داشتم ببینم، دریافت نکردم. من به عنوان کمک شما! شاید مشکل این است که من اشتباه متوجه شدم که آیا میز من برای هدف تجزیه و تحلیل خوب ساخته شده است. بیایید آزمایش، اهداف و مسئلهام را خلاصه کنیم: من برخی از مواد سطوح را در سطح صوتی و لمسی شبیهسازی کردم و از آزمودنیها خواستم تا در مقیاس لیکرت 9 درجهای میزان انسجام بین دو محرک را ارزیابی کنند. برای مثال آزمایشاتی وجود دارد که در سطح شنوایی یک سطح فلزی و در سطح لمسی سطح برف، یا چوب در هر دو سطح شنوایی و لمسی شبیه سازی شده است. آزمایش فقط 12 شرکتکننده داشت، بنابراین برای هر کارآزمایی 12 پاسخ دارم (بدون اندازهگیری مکرر). در مجموع 36 کارآزمایی وجود داشت و هر کارآزمایی تنها یک بار توسط هر یک از 12 شرکتکننده ارزیابی شد. بنابراین، هر آزمودنی 36 رتبه بندی در مقیاس لیکرت 9 درجه ای ارائه کرد که برای هر کارآزمایی یک رتبه بندی انجام شد. اساساً اینها دادههای من هستند: WD MT SW GR SN DL WD 7.00 6.50 4.91 4.83 5.50 5.00 MT 7.33 6.91 2.08 3.16 4.25 3.25 SW 2.91 1.76 1.76 5.25 GR 2.91 2.66 6.25 6.41 7.25 6.75 SN 4.00 4.00 5.58 6.00 7.00 6.58 DL 3.91 3.08 5.16 6.25 6.50 6.50 SN 4.00 4.00. در هر سلول میانگین امتیاز برای هر کارآزمایی وجود دارد (به عنوان مثال، آزمایش GR-MT 2.66 است، که میانگین امتیاز داده شده توسط شرکت کنندگان به کارآزمایی است که در آن ماده شن در سطح لمسی ارائه شده است و ماده فلز سطح شنوایی ارائه شده است). اکنون میخواهم دادهها را به روشهای صحیح تجزیه و تحلیل کنم و همانطور که گفته شد MDS بهترین تجزیه و تحلیل به جای ANOVA است که فکر میکردم. اولین هدف من چاپ یک نقشه ادراکی است که در آن جفت محرک های صوتی- شنوایی (مانند WD-WD، MT-DL، و غیره) را قرار دهم و ببینم آزمایش ها چقدر از یکدیگر فاصله دارند. من از cmdscale در R استفاده کردم اما به نتیجه مطلوب نرسیدم. هر پیشنهادی؟ هدف دوم من پیدا کردن مقادیر p است که معمولاً با ANOVA دریافت می کنم. برای مثال، من میخواهم بدانم که آیا داشتن دو محرک منسجم SW-SW (که به معنای «برف» در سطح صوتی و لمسی است) تفاوتهای قابلتوجهی در ارزیابیها ایجاد میکند تا زوج SW-MT (به معنای «برف» در صوتی و فلز در سطح لمسی) باز هم می خواهم بفهمم که آیا تفاوت آماری بین همه زوج های محرک مربوط به سطوح جامد (مانند زوجهای MT-MT، MT-WD، WD-WD، MT-MT) و تمام زوجهایی که سطح جامد و سطح سنگدانهای ارائه میشوند (مانند زوجهای MT-SN، یا WD-GR و غیره). ... من می خواهم تا حد امکان از آن جدول اطلاعات کسب کنم. من واقعا از هر کسی که می تواند هر گونه پیشنهاد یا اطلاعات مفیدی ارائه دهد تشکر می کنم.
|
آزمایش رتبه بندی عدم تشابه: نحوه تجزیه و تحلیل نتایج
|
7129
|
هنگام ارائه داده ها با استفاده از درصد، آیا داشتن ارقام اعشاری، مثلاً 2 رقم اعشار به جای گرد کردن به اعداد کامل، چیز خوبی است. به عنوان مثال، به جای 23.43٪، شما به 23٪ کامل می کنید، من به این موضوع از این منظر نگاه می کنم که آیا دقت 2 رقم اعشار تفاوت زیادی ایجاد می کند زیرا ما با درصد سروکار داریم و نه ارزش داده خام.
|
آیا درصدها باید دارای اعشار باشند؟
|
37625
|
وقتی از هیستوگرام برای رسم دادههایم در Stata استفاده میکنم، تقریباً همه متغیرها حول یک مقدار جمع میشوند، _یعنی_ اینها در 0 یا 1 هستند (یک نوار بزرگ در یک یا 0). چه چیزی را نشان می دهد و چگونه باید آن را اصلاح کنم؟ من روی پانل دیتا کار می کنم.
|
آمار توصیفی برای داده های غیر عادی
|
37626
|
من سعی می کنم توزیع نام خانوادگی را به صورت بصری در ایالات متحده نشان دهم. به طور خاص، من سعی میکنم نشان دهم که توزیع به گونهای است که رایجترین نامها (مثلاً 50 مورد برتر) بسیار رایج هستند، اما پس از آن به سرعت از بین میرود. نتیجهای که امیدوارم از آن حمایت کنم این است که تمایز بین نامهای رایج و کمتر رایج در میان نامهایی که در X بالا نیستند چندان معنیدار نیست، زیرا همه آنها بخش بسیار کوچکی از جمعیت هستند. من فراوانی مشاهده شده همه نامهای خانوادگی بیش از 100 بار در سرشماری سال 2000 را دارم. ## دادههای سرشماری ایالات متحده، استخراج و میزبانی مجدد CSV ## http://www.census.gov/genealogy/www/data/2000surnames/names.zip names <- read.csv(http://samswift .org/files/app_c.csv) شهود من این بود که فهرست رتبهبندیشده را بر اساس گروههای 50 نفره جمعآوری کنم. رایجترین نامها 1-50، 51-100، ... sum50 <- tapply(names$count, (seq_along(names$count)-1) %/% 50, sum) بنابراین ما اکنون مجموع جمعیت افراد با 50 نام برتر را داریم، یک ثانیه 50 نام، و غیره. من یک طرح شبیه به این تصویر می کردم ! ضریب مرتب شده سطل ها (1-50، 51-100 ..) و محور y جمع جمعیت در آن سطل است. من فکر می کنم مهم است که عرض میله ها با متغیر y نیز مقیاس شوند تا مساحت مربع جرم جمعیت را منتقل کند. بنابراین، واقعاً سؤال دو قسمتی (اگرچه من فکر میکنم بد نیست) 1. چگونه میتوانم این نمودار را در R با دادههای ارائه شده ایجاد کنم. من به طور کلی از ggplot2 استفاده می کنم، اما به آن علاقه ندارم. من سعی کردم از geom_bar استفاده کنم و عرض را تنظیم کنم، اما نتوانستم چیزی حتی کمی کاربردی ایجاد کنم. 2. آیا فکر بهتری در مورد چگونگی تجسم ادعایی که من میکنم دارید یا کاملاً با ادعایی مخالف هستید؟
|
تجسم توزیع فرکانس binned در R
|
37624
|
من کارم را از آمار پزشکی به آمار زیست شناسی (شیلات) تبدیل می کنم. من نمی دانم که آیا تفاوت زیادی در روش یا تمرکز بین این دو زمینه وجود دارد؟ در زمینه پزشکی، ما کارآزماییهای بالینی یا مطالعات کوهورت بیماران زیادی را انجام میدهیم و سعی میکنیم با استفاده از انواع مختلف آزمونهای معناداری و رگرسیون، ارتباطهایی را پیدا کنیم. در مورد زیست شناسی، کنترل بسیار محدودی بر روش نمونه گیری وجود دارد. من احساس می کنم که تمرکز اصلی آمارگیر یافتن بهترین راه برای نمونه برداری از داده ها است. از آنجایی که من واقعاً در این زمینه تازه کار هستم، آیا کسی می تواند در مورد تمرکز اصلی، روش های رایج در آمار زیست شناسی به من ایده بدهد؟ آیا واقعا با آمار پزشکی تفاوت دارد؟ آیا کتاب خوبی برای توصیه دارید؟ با تشکر
|
بزرگترین تفاوت بین آمار پزشکی و آمار بیولوژیکی
|
37623
|
من با فرمولی که در تصویر زیر نشان داده شده است روبرو هستم که فقط آن را درک نمی کنم، تا حدی به این دلیل که در آمارها هیچ دلیلی ندارم، و تا حدی به این دلیل که حتی نماد را درک نمی کنم:  اینجا چه خبر است؟ آیا در خط اول نحوه محاسبه VaR و سپس در خط دوم نحوه محاسبه نوسانات سالانه از برخی از متغیرهای مورد استفاده در محاسبه اول نشان داده شده است؟ من حتی قسمت T فواصل زمانی 1/m سال را هم نمی فهمم. mth یک سال چیست؟ و (sigma) 1/m به چه معناست؟ آیا این نوسان برای دوره زمانی _one_ است؟ اگر چنین است، آیا نیازی نیست که مقادیر را برای تمام دوره های زمانی گسسته به نحوی جمع آوری کنیم؟ من انتظار دارم مجموع از 1 تا m را در جایی ببینم ... من کاملاً گیج شده ام و هر کمکی با سپاس فراوان دریافت خواهد شد.
|
این فرمول (برای استخراج نوسانات سالانه برای VaR) به چه معناست؟
|
52187
|
اگر رگرسیون خطی را روی داده ای اعمال کنیم که دارای متغیر وابسته BINARY(0,1) است، فرض بسیار مهم واریانس ثابت متغیر وابسته در بین متغیرهای مستقل نقض می شود. کسی میتونه توضیح بده چطوری؟
| |
590
|
در برخی از مقالات، به عنوان مثال در چگالی هندسی با پارامتر مکان نامشخص توسط کلوتز، یک توزیع هندسی، چگالی هندسی نامیده می شود. برای من، این ادعا اشتباه به نظر می رسد، با این حال کلوتز یک آماردان جدی و یک استاد در این زمینه است. سوال من این است که تا چه حد می توان یک توزیع هندسی را چگالی هندسی نامید؟
|
تا چه حد می توانیم یک توزیع هندسی را چگالی هندسی بنامیم
|
594
|
رویه E-M، برای افراد ناآشنا، کم و بیش به عنوان جادوی سیاه به نظر می رسد. تخمین پارامترهای یک HMM (به عنوان مثال) با استفاده از داده های نظارت شده. سپس دادههای بدون برچسب را رمزگشایی کنید، با استفاده از رو به عقب برای «شمارش» رویدادها به گونهای که گویی دادهها، کم و بیش برچسبگذاری شدهاند. چرا این مدل را بهتر می کند؟ من چیزی در مورد ریاضی می دانم، اما همیشه آرزو می کنم که نوعی تصویر ذهنی از آن داشته باشم.
|
E-M، آیا توضیح شهودی وجود دارد؟
|
83015
|
اگر مجموعهای از $n$ تاپل ($b_1،b_2،b_3،b_4،x،y،z$) داشته باشم، که در آن $b_1، b_2، b_3$ و $b_4$ شمارندههایی هستند که توسط $P_1، P_2، P_3 حکومت میشوند. توزیعهای پواسون $ و $P_4$ (خطا در شمارندهها $\sqrt{b_1}$ و غیره است) و $x، y$ و $z$ توسط توزیعهای با ارزش واقعی اداره میشوند. از میان آن، من زیرمجموعه ای از تاپل های $m$ را با توجه به شرایطی در $x,y$ و $z$ انتخاب می کنم، به عنوان مثال. $x > P_I$. این زیرمجموعه مقادیر خاصی $b_1'، b_2'، b_3'$ و $b_4'$ برای شمارندهها خواهد داشت. اگر به عنوان مثال من $b_1'\div b_1$ را محاسبه می کنم، خطای آن نسبت چیست؟
|
انتشار خطا در نمونه های همبسته پواسون
|
50116
|
من دو سوال دارم: 1) حداکثر و حداقل مقدار ممکن $R^{2}$ برای برازش یک خط مستقیم چیست؟ و 2) تمام موارد ممکن را فهرست کنید به طوری که $R^{2}$ به حداکثر/دقیقه دست یابد. می دانم $0\leq R^{2}\leq 1$. بنابراین max = 1 و min = 0. اما چگونه می توانم همه موارد ممکن را پیدا کنم که باعث می شود $R^{2}$ به حداکثر یا حداقل برسد؟ با تشکر
| |
50110
|
من یک مقیاس لیکرت 5 امتیازی و یک اندازه گیری زمان در اینترنت دارم به عنوان مثال. 1= کمتر از 10 دقیقه، 2=10-30 و غیره و همچنین تعداد مخاطبین SNS (1=10-30 و غیره). من می خواهم همبستگی آنها را تخمین بزنم، اما فکر نمی کنم بتوانم مستقیماً این کار را انجام دهم. من یک میانگین نمره برای پاسخ های لیکرت محاسبه کردم اما در مورد دو معیار دیگر چطور؟
| |
53274
|
ترکیبی از دو زنجیره مارکوف زمان پیوسته مستقل
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.