_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
87478
66029
من می خواهم همبستگی بین هزاران ژن را با استفاده از داده های بیان در بسیاری از نمونه های مختلف محاسبه کنم. برای غیر زیست شناسان، سعی می کنم توضیح دهم. اساسا، من دارای ژن‌های $i=1..M$ و نمونه‌های $j=1..N$ و یک ماتریس $(M \times N)$ $X$، با ورودی‌های $X_{ij}$ مربوط به عبارت هستند. سطوح ژن $i$ در نمونه $j$. بنابراین، همبستگی‌هایی که من محاسبه می‌کنم بین بردارهای $X_{k} = (X{_k}{_1}، X{_k}{_2}،..، X{_k}{_N})$ و $X_l = ( X{_l}{_1}، X{_l}{_2}،...، X{_l}{_N})$. مشکل من این است که گاهی اوقات همبستگی های قوی همبستگی های ضعیف تری را که هنوز از نظر بیولوژیکی مرتبط هستند پنهان می کنند. یکی از دلایلی که ممکن است این اتفاق بیفتد این است که ژن ها در ماژول های عملکردی بزرگی سازماندهی می شوند که خود بسیار همبسته (یا ضد همبستگی) هستند. به عنوان مثال، ممکن است ژن‌های $X_5$ و $X{_1}{_0}$ متعلق به ماژول‌های منحصر به فرد متقابل باشند و بنابراین به شدت ضد همبستگی هستند. این ضد همبستگی، همبستگی‌های ضعیف‌تر درون ماژول را پنهان می‌کند که ممکن است هنگام نگاه کردن به همه نمونه‌ها چندان مهم نباشد. مشکل این است که من همیشه نمی‌دانم هر ژن به چه ماژول‌های عملکردی تعلق دارد. من به دنبال یک راه کلی برای تشخیص همبستگی های ضعیف تر هستم، شاید با کم کردن همبستگی های قوی در داده هایم؟ در حالت ایده آل، من می خواهم سطوح زیادی از همبستگی را پیدا کنم. این یک مشکل آماری ساده به نظر می رسد، اما من مطمئن نیستم که از کجا شروع کنم. من به تجزیه و تحلیل چند سطحی نگاه کردم، اما نمی‌خواهم «سطوح» را در داده‌هایم مشخص کنم. من بیشتر در امتداد خطوط همبستگی ویژه فکر می کنم که در آن هر گروه از همبستگی ها انواع مختلفی از تنوع را در میان داده ها توصیف می کند. اگر کسی بتواند من را در مسیر درست راهنمایی کند، واقعاً مفید خواهد بود. با تشکر
همبستگی های قوی که همبستگی های ضعیف را پنهان می کند؟
61553
من یک رگرسیون لجستیک رویدادهای نادر را روی یک متغیر وابسته باینری اجرا می کنم. من 538 مشاهده و فقط 10 رویداد دارم (بنابراین 528 مقدار 0 و 10 از 1)، به همین دلیل است که انتخاب کردم از رگرسیون لجستیک رویدادهای نادر استفاده کنم. وقتی رگرسیون را اجرا می کنم، یکی از متغیرهای مستقل در مدل دارای ضریب بزرگی است (حدود 25000000) و معنی دار است. محدوده متغیر مستقل 0 تا 1 است. آیا این یک مشکل است؟ کسی می تواند توضیح دهد که چرا این اتفاق می افتد؟ وقتی من همان مدل را فقط با یک رگرسیون لجستیک اجرا می کنم، این متغیر ناچیز است. من مطمئن نیستم چه اتفاقی می افتد. هر توصیه ای قدردانی خواهد شد.
توضیح یک ضریب بسیار بزرگ در یک رگرسیون لجستیک رویدادهای نادر
110380
این سوال احتمالاً راه حل ساده ای دارد، هنوز مسئله این است که من یک کد برای ترسیم مرگ و میر در 2 گروه مختلف نوشته ام و آن مرگ در بیماران چاق در مقابل غیر چاق است. اکنون آنها 2 گروه t1 و t2 هستند (چاق در مقابل BMI طبیعی). نمودارها با این کد به خوبی کار می‌کنند، من فقط می‌خواستم خطوط صاف‌تر و نه چندان ناهموار به نظر برسند. من stat_smooth را امتحان کردم اما نمی توانم آن را عملی کنم. من حدس می زنم که کد طولانی تر از ضروری است. allmortality<- read.table(header=TRUE, sep=;, text = ar_year;t1_all_estimate;t2_all_estimate ar2001-2002;208.0960242;170.924898 ar2003-2004;218.171.487 ar2005-2006;205.9649097;141.4196023 ar2007-2008;212.2112923;135.2787361 ar2009-2010;205.628018;1208.45 ar2011-2012;166.5654204;146.9776943) به (ggplot2) ggplot (همه مرگ و میر، aes(x=ar_year)) + geom_point(aes(y = t2_all_estimate, size=4)) + geom_estimate =2_esall )) + geom_point(aes(y = t1_all_estimate, size=4)) + geom_line(aes(y = t1_all_estimate, group=1)) + theme_bw() + theme( legend.position=none, axis.text.x = element_text( زاویه = 45 ، hjust = 1) ، axis.text=element_text(size=12)، plot.background = element_blank() ,panel.grid.major = element_blank() ,panel.grid.minor = element_blank() ,panel.border = element_blank()) + theme( axis.line = element_line (رنگ = 'سیاه')) + ylab (مرگ) + xlab (سال) + ggtitle (نرخ مرگ و میر در بیماران چاق در مقابل بیماران غیر چاق) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/i895e.jpg)
61055
R: چگونه اعداد پرت QQplot را تفسیر کنیم؟
90021
مقایسه بین گروه هایی با حجم نمونه نابرابر
100245
من با R خیلی تازه کار هستم و در آمار زیاد تجربه ندارم. من این سوال کلی را در رابطه با استفاده از مدل های افزایشی تعمیم یافته (GAM) در مجموعه داده های انتساب چندگانه دارم. من از بسته R _mice_ برای انتساب چندگانه و _mgcv_ برای GAM استفاده کردم. اما من هیچ ایده ای ندارم که چگونه نتایج حاصل از هر مجموعه داده منتسب شده را ترکیب کنم. آیا کسی ایده خوبی در این مورد دارد؟ خیلی ممنون
چگونه می توان نتیجه مدل GAM را از داده های چندگانه در R خلاصه کرد
73194
من روی برنامه ای کار می کنم که شامل تخمین اعداد توسط مردم می شود. به عنوان مثال، هنگام تخمین $X$، یک نفر می گوید که $X$ حاصلضرب دو عددی است که او دارای توزیع احتمال $\mathcal N(2000,50)$ و $\exp(0.05)$ است و شخص دیگر می گوید که توزیع احتمال $\mathcal N(30000, 200)$ روی $X$ دارد. اگر مردم به یک اندازه قابل اعتماد هستند، پس ما چگونه باید باشد؟ در واقع من به کل پسین نیاز ندارم، فقط به انتظارات و تنوع آن نیاز دارم. آیا راهی برای انجام این کار برای محصولات دلخواه/مجموع توزیع‌ها بدون استفاده از موتور ریاضی نمادین وجود دارد؟ می‌دانم که می‌توانیم، مثلاً، انتظار حاصل ضرب متغیرهای تصادفی مستقل را با گرفتن حاصل ضرب انتظارات آنها محاسبه کنیم، اما این گونه تخمین‌ها مستقل نیستند، درست است؟
چگونه برآوردهای انسانی را جمع آوری کنیم؟
73196
من به سادگی سعی می کنم با dnorm() احتمال log ارائه شده توسط تابع logLik را از یک مدل lm (در R) دوباره محاسبه کنم. برای تعداد زیاد داده (به عنوان مثال n=1000) (تقریباً عالی) کار می کند: > n <- 1000 > x <- 1:n > set.seed(1) > y <- 10 + 2*x + rnorm(n , 0, 2) > mod <- glm(y ~ x, family = gaussian) > logLik(mod) 'log Lik.' -2145.562 (df=3) > sigma <- sqrt(summary(mod)$dispersion) > sum(log(dnorm(x = y, mean = predict(mod)، sd = sigma))) [1] -2145.563 > sum(log(dnorm(x = resid(mod)، میانگین = 0، sd = سیگما))) [1] -2145.563 اما برای مجموعه داده های کوچک تفاوت های واضحی وجود دارد: > n <- 5 > x <- 1:n > set.seed(1) > y <- 10 + 2*x + rnorm(n , 0, 2) > > mod <- glm(y ~ x, family = gaussian) > logLik(mod) 'log Lik.' -8.915768 (df=3) > سیگما <- sqrt(summary(mod)$dispersion) > sum(log(dnorm(x = y، mean = predict(mod)، sd = sigma))) [1] -9.192832 > sum(log(dnorm(x = resid(mod)، میانگین = 0، sd = sigma)))) [1] -9.192832 به دلیل اثر داده کوچک، من فکر کردم که می تواند به دلیل تفاوت در تخمین واریانس باقیمانده بین lm و glm باشد، اما استفاده از lm همان نتیجه glm را ارائه می دهد: > modlm <- lm(y ~ x ) > logLik(modlm) 'log Lik.' -8.915768 (df=3) > > سیگما <- summary(modlm)$sigma > sum(log(dnorm(x = y, mean = predict(modlm), sd = sigma))) [1] -9.192832 > sum( log(dnorm(x = resid(modlm)، میانگین = 0، sd = سیگما))) [1] -9.192832 کجا اشتباه می کنم؟
محاسبه احتمال ورود به سیستم از یک مدل ساده R lm
73191
برای رگرسیون خطی معمولی با نویز گاوسی، تفسیر اهمیت یک متغیر آسان است. این با آزمون F جزئی مطابقت دارد. مجذور آزمون t برای متغیر دوم برابر با آماره آزمون F جزئی است و مقدار p آنها یکسان است. من کدهای R ساده را برای تأیید این موضوع نوشتم. آیا چیزی شبیه به این برای رگرسیون لجستیک وجود دارد؟ فکر کردم/امیدوار بودم که آزمون نسبت احتمال مطابقت داشته باشد، اما نه. اگر متغیر و آزمون نسبت درستنمایی (افزودن آن متغیر خاص) اثر یکسانی (غیر) معنی دار نداشته باشند، باید چه کار کنم؟ قدردان وقت و کمک شما هستم، rm(list=ls(all=TRUE)) n ​​= 100 ; x1 = runif(n,-4,4); x2 = runif(n,6,10) y = 3*x1 + 8*x2 + rnorm(n,2,4) l1 = lm(y~x1) ; l2 = lm(y~x1+x2); a = anova(l1,l2) خلاصه (l1)$coeff Estimate Std. خطای t مقدار Pr(>|t|) (داخل) 66.093853 1.0123131 65.289929 1.385202e-82 x1 3.199212 0.4292828 7.452458 7.452458 7.452458 3.452458 3.452458 3.693ltimate-$661 Std. خطای t مقدار Pr(>|t|) (تقاطع) 2.767750 2.7871368 0.9930441 3.231592e-01 x1 2.870897 0.1707022 16.8181610 1.647 1.64 16.8181610 1.64 1.8241610 1.63 0.3428392 22.9598753 5.370614e-41 (خلاصه(l2)$coeff[3,3])^2 527.1559 > تجزیه و تحلیل جدول واریانس مدل 1: y ~ x1 مدل 2: y ~ Df S.f از RSS + x2 F Pr(>F) 1 98 9899.1 2 97 1538.4 1 8360.6 527.16 < 2.2e-16 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 > a$F ; a$Pr [1] NA 527.1559 [1] NA 5.370614e-41 > > > > rm(list=ls(all=TRUE)) > n = 100 > x1 = runif(n,-4,4) > x2 = runif(n,6,10) > > y = rbinom(n,1,1/(1+exp(-3*x1 - 2*x2 + 20))) > > l1 = glm(y~x1، خانواده = دوجمله ای) > l2 = glm(y~x1+x2، خانواده = دوجمله ای) > > a = anova(l1،l2) > > خلاصه (l1)$coeff Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -2.988069 0.812041 -3.679702 2.335068e-04 x1 2.115333 0.498431 4.243984 2.195585858e. خطای z مقدار Pr(>|z|) (Intercept) -17.215960 5.5710699 -3.090243 0.0019999276 x1 3.048657 0.8618367 0.8618367 3.537395 3.537395 0.00199275 x 0.0004 0.5976386 2.803238 0.0050592272 > > (خلاصه(l2)$coeff[3,3])^2 [1] 7.858145 > > l1$deviance - l2$deviance [1] 13.65371 ($1) p$l l2$ deviance,df=1) [1] 0.9997802 > > تجزیه و تحلیل جدول انحراف مدل 1: y ~ x1 مدل 2: y ~ x1 + x2 Resid. دی اف رزید. Dev Df Deviance 1 98 45.534 2 97 31.880 1 13.654 > a$F NULL > a$Pr NULL
چگونه اهمیت متغیر رگرسیون لجستیک را تفسیر کنیم؟ چیزی شبیه به آزمون F جزئی در رگرسیون لجستیک
25324
** راه اندازی: ** یکی از عناصر اساسی بازاریابی مستقیم، انتخاب لیستی از مشتریان بالقوه برای انتخاب و ارسال پیشنهاد است. صدها لیست در بازار وجود دارد که می توانید از بین آنها انتخاب کنید و هر لیست حاوی تعداد خاصی از رکوردها است که می توانید برای آنها پیشنهاد ارسال کنید. من جدولی از عملکرد تاریخی فهرست دارم. برای هر کدام، تعداد دفعاتی که یک تبلیغ برای شخصی در آن لیست ارسال شده است، به همراه تعداد پاسخ دهندگان داده می شود. بنابراین، جدول ممکن است به این شکل باشد - این یک مثال ساخته شده با تنها چند لیست در مقابل صدها لیست است، اما نرخ پاسخ بسیار کوچک (p) واقع بینانه است. lists<-data.frame(listName=c('A','B','C','D','E'),numberPromoted=c(1000,5000,25000,35000,1654),numberRespond=c (3,45,98,350,5)) lists$p<-lists$numberRespond/lists$numberPromoted من به دنبال استفاده از برنامه نویسی خطی برای تخصیص بهینه انتخاب لیست در کمپین های آینده هستم. بنابراین، با توجه به تعداد رکوردهای موجود در هر لیست در زمان کنونی و بهترین تخمین از نرخ پاسخ لیست (p)، با توجه به محدودیت ها، تعداد رکوردها را از یک لیست انتخاب کنید. **مشکل:** سوال من این است که چگونه می توان به بهترین نحو در مورد تخمین p. با توجه به این نرخ‌های پاسخ کوچک، می‌خواهم آن‌هایی را که اطلاعات «کافی» ندارند به یک مقدار متوسط ​​کاهش دهم. راه ساده این است که بگوییم قبل از اینکه به p تخمین زده شده به صورت تجربی اعتماد کنیم، باید حداقل X تعداد رکورد ارتقا یافته باشد. می‌خواهم بدانم آیا روش دیگری وجود دارد که منطقی باشد؟ به عنوان مثال، آیا منطقی است که لیست را به عنوان یک اثر تصادفی در نظر بگیریم و برآورد را کوچک کنیم؟ من **فکر می کنم** این کد تخمین های نرخ پاسخ (p) را به نرخ متوسط ​​برای سلول های کوچکتر کاهش می دهد. install.packages(lme4) library(lme4) install.packages(arm) library(arm) #make individual 1/0 records Lists<-data.frame( listName<-c(replicate(1000,List A ), replicate(5000List B), replicate(25000List C), replicate(35000List D)، replicate (1654، فهرست E))، نتیجه<-c(replicate(997,0), replicate(3,1), replicate(4955,0), replicate(45,1), replicate( 24902,0), replicate(98,1), replicate(34650,0), replicate(350,1), replicate(1649,0), replicate(5,1)) ) #مدل رهگیری تصادفی mod<-lmer(نتیجه~1 + (1|listName),data=Lists,family=binomial) invlogit(coef(mod)$listName [1,1]) invlogit(coef(mod)$listName[2,1]) invlogit(coef(mod)$listName[3,1]) invlogit(coef(mod)$listName[4,1]) invlogit(coef(mod)$listName[5,1]) لیست مدل شده P TRUE P A 0.004241 0.003000 B 0.008602 0.009000 C 0.003981 0.003920 D 0.009924 0.010000 E 0.003961 0.003023 #مقایسه تخمین‌های مدل‌سازی شده خام و کوچک شده خام<-sqldf(انتخاب listName، میانگین بر اساس فهرست‌های گروه meanRaw<-sqldf(انتخاب avg(نتیجه) به عنوان total_p از لیست ها) modeled<-c( invlogit(coef(mod)$listName[1,1]), invlogit(coef(mod)$listName[2,1] )، invlogit(coef(mod)$listName[3,1])، invlogit(coef(mod)$listName[4,1])، invlogit(coef(mod)$listName[5,1])) plot(x=as.numeric(raw$listName)،y=raw$raw_p، col آبی) نقاط (x=raw$listName,y=modeled, col=red) abline(h=meanRaw)
73192
من در حال حاضر در مورد تست‌های جایگشت/تصادفی‌سازی مطالعه می‌کنم و برای درک اینکه چرا دقیق هستند، مشکل دارم. به طور دقیق تر، من دو گروه از متغیرهای تصادفی را با میانگین $\mu_1$ و $\mu_2$ و واریانس $\sigma^2_1$ و $\sigma^2_2$ در نظر می‌گیرم که اگر $ \mu_1 = \mu_2 برابر فرض شود. $ نگه می دارد. برای آزمایش فرضیه یک طرفه $H_0: \mu_1 \leq \mu_2$ در مقابل $H_1: \mu_1 > \mu_2$، من یک آزمون جایگشت با همان آمار آزمون مانند آزمون t-test دو نمونه با واریانس‌های نابرابر اعمال می‌کنم. حجم نمونه نابرابر اثبات و درک اینکه سطح اهمیت آزمون جایگشت برابر با $\alpha$ برای $\mu_1 = \mu_2$ است، کار مهمی نبود. با این حال، من نمی فهمم چرا سطح اهمیت کمتر از $\alpha$ برای $ \mu_1 \leq \mu_2$ است!؟ کسی میتونه راهنماییم کنه؟
تست جایگشت: دقت
110278
چگونه تفاوت بزرگ p.value بین این دو مدل را توضیح دهیم
22135
من مجموعه ای از داده ها از بررسی مشکلات سلامتی و مزاحمت ناشی از سر و صدای ترافیک در افرادی که در ساختمان های مسکونی زندگی می کنند، با سوالات پاسخ در مقیاس 5 درجه دارم. من می‌خواهم یک مدل چند سطحی را برای یک پاسخ معمولی (مشکل سلامت یا مزاحم نویز) انجام دهم و با دستور 'gllamm' در Stata امتحان کردم اما گزینه 'link(ologit)' مجاز نیست. کسی راه دیگه ای برای اجرایش میدونه؟ اگر در Stata نباشد، در R یا SPSS به هر حال مفید خواهد بود.
مدل چند سطحی با یک نتیجه ترتیبی
22133
من یک مجموعه داده برای هزاران ژن دارم. هر ژن دارای دو ویژگی است که به عنوان یک محدوده درصد نشان داده شده است (0-100). یک ویژگی (V3) دارای توزیع نرمال است اما دیگری (V2) دارای انحراف بسیار منفی است (مثلاً 99٪ مقادیر بیشتر از 99٪ هستند). من می خواهم بدانم آیا دروغگوهای V2 با ویژگی V3 ارتباطی دارند؟ من در مورد تقسیم کردن داده ها به صدک فکر کردم و آن را به عنوان دسته بندی در نظر گرفتم که به من امکان می دهد از آزمون مجذور کای استفاده کنم، اما مطمئن نیستم که آیا این بهترین روش است یا نه. من همچنین می خواهم ورودی شما را در مورد اینکه آیا می توان از یک روش عددی با این داده ها استفاده کرد؟ ![طرح پراکندگی دو ویژگی](http://i.stack.imgur.com/NARjE.png) من در پرسیدن سوال در اینجا بسیار تازه کار هستم، بنابراین لطفاً اگر کاری برای بهبود سوال می توانم انجام دهم به من اطلاع دهید . متشکرم
ارزیابی رابطه بین دو ویژگی در یک مطالعه ژن
77433
متغیرهای a,b,c,d وجود دارد. متغیرهای a و b مربوط به صورت‌های مالی شرکت هستند و دارای تاخیر زمانی هستند. من یک مدل معمولی را با مدل اثر ثابت آزمایش کردم و سپس با استفاده از متغیرهای عقب افتاده a و b دوباره آزمایش کردم. مربع R 0.02 افزایش یافته است اما متغیر ساختگی اثر منفی ناچیز دارد! بنابراین من این فرضیه را رد می کنم که آنها اثر تاخیر زمانی دارند، اما چگونه می توانم این را تایید کنم؟ از آنجایی که مربع R کمی افزایش یافته است، دلیلی برای نادیده گرفتن آن مدل عقب افتاده ندارم...
مشکل متغیرهای تاخیری من چیست؟
79939
مدل سری زمانی قطار در R و پیش‌بینی صرفاً بر روی داده‌های خارج از نمونه
97007
مدل زبان چگونه به نظر می رسد؟
22136
به نظر من متغیرهای نسبت، فاصله، ترتیبی و اسمی به معنای زیر تودرتو هستند: * متغیر نسبت نیز فاصله، ترتیبی و اسمی است. * متغیر فاصله نیز ترتیبی و اسمی است. * یک متغیر ترتیبی نیز اسمی است آیا عبارات فوق دقیق هستند؟ اگر نه، آیا نمونه های متقابلی وجود دارد که یک یا چند مورد از عبارات فوق صادق نباشد؟
آیا متغیرهای نسبت، فاصله، ترتیبی و اسمی تو در تو هستند؟
22137
کسی می تواند به من بگوید کدام الگوریتم برای حل این مشکل بهتر است؟ من فکر می‌کنم این به دسته «تحلیل سبد بازار» یا «تحلیل قرابت» تعلق دارد، اما مطمئن نیستم. مشکل اینجاست: یک کاربر به انواع خاصی از گروه ها تعلق دارد. وقتی مشتری ما مجموعه‌ای از کاربران را به ما می‌دهد که متعلق به یک گروه خاص هستند، باید به آنها بگوییم که این کاربران ممکن است به کدام گروه‌های دیگر علاقه‌مندتر و همچنین بی‌علاقه‌تر باشند. به نظر من این شبیه به مثال تحلیل سبد بازار کلاسیک است. : 'مشتریانی که پوشک می خرند آبجو نیز می خرند'. بنابراین من به این فکر می‌کردم که اگر تمام وابستگی‌های درون گروه‌ها را از قبل محاسبه کنم، می‌توانم به سؤال مشتری خود پاسخ دهم. نه؟ از هر گونه فکری در این مورد سپاسگزاریم؟ چه نوع الگوریتمی برای این کار مناسب تر است؟ با تشکر از کمک شما.
کدام الگوریتم برای این کار مناسب تر است
77430
استفاده از انجمن من می خواهم ثابت کنم که اطمینان قانون $B'->(A\B')$ نمی تواند بیشتر از اطمینان $B->(A\B)$ باشد با توجه به: * مجموعه آیتم های مکرر $A$ و زیر مجموعه ها $B$ از $A$. * $B'$ زیر مجموعه ای از $B$ است. \ عملگر مجموعه تفاوت است که گاهی اوقات به این صورت نوشته می شود: $(X-Y)$ ![Dataset](http://i.stack.imgur.com/yB2cg.jpg) من سوال دقیق این کتاب را پیدا کردم: داده کاوی : _مفاهیم و فنون نوشته جیاوئی هان_ به صورت آنلاین، در بخش الگوهای متداول استخراج، ارتباط، و همبستگی ها فصل 6.3 (ج) در این کتاب. هر چند چیزی در مورد چگونگی حل آن نمی گوید.
اثبات اعتماد به قانون
77435
![Likelihood](http://i.stack.imgur.com/J3Lhq.jpg) من می خواهم MLE احتمال بالا را با استفاده از تابع optim در $R$ پیدا کنم. با این حال، من نمی توانستم شرایط را درک کنم. من نتوانستم احتمال را به $R$ بنویسم. من داده‌های داده شده را دارم، برخی از آنها معانی cdf هستند، اما log 2 یا 4th log چیست. خیلی خوشحال میشم اگه کسی کمکم کنه با تشکر
احتمال مدل پیوسته گروهی مشروط
82323
من نمی دانم چگونه پارامتر انقباض در Adaboost کار می کند. من مفهوم انقباض را به معنای نظری مربوط به حداقل مربعات معمولی درک می کنم، اما مطمئن نیستم که چگونه این پارامتر را در رابطه با Adaboost تفسیر کنم.
73221
یادداشت های من یک تابع ضرر را به عنوان هزینه تعریف می کند که ارزش واقعی $\theta$ توسط $\hat\theta$ برآورد می شود. از چه نوع هزینه ای صحبت می کند؟ هزینه پولی؟ یا چیزی مربوط به خطا است؟
تابع ضرر در تئوری تصمیم چیست؟
82326
نحوه تفسیر دندروگرام تجزیه و تحلیل خوشه سلسله مراتبی
73225
اگر 2 متغیر مستقل $Y_1$ و $Y_2$ را به صورت زیر تعریف کنیم: \begin{align} Y_1 &= (Y_{11},Y_{12},Y_{13})^T \sim\mathcal N_3(\mu_1 ,\Sigma_{11})، \\\ Y_2 &= (Y_{21}،Y_{22})^T \sim\mathcal N_2(\mu_2،\Sigma_{22}) \end{align} where, \begin{align} \mu_1 &= (2, 2, 2)^T &\Sigma_{11} &= \left[\begin{ آرایه}{ccc} 3 &1 &0 \\\ 1 &2 &0 \\\ 0 &0 &3 \end{array}\right] \\\ \mu_2 &= (3، 4)^T &\Sigma_{22} &= \left[\begin{array}{cc} 4 &2 \\\ 2 &4 \end{array}\right] \end{align} سپس چگونه آیا می توانم توزیع مشترک $Y_{11}-Y_{13}+Y_{22}$ و $Y_{21}-Y_{12}$ را پیدا کنم؟ می‌دانم سؤال ساده‌ای است، اما می‌توانم متوجه شوم که آیا Y_1-Y_2$ یا چیزی از آن خواسته شده است. چطوری باید حلش کنم وقتی اینجوریه؟
توزیع مشترک دو توزیع نرمال چند متغیره
32742
از خواندن پست‌های این سایت می‌دانم که تابع R «auto.arima» (در بسته «پیش‌بینی») وجود دارد. من همچنین می دانم که IrishStat، یکی از اعضای این سایت، جعبه خودکار بسته های تجاری را در اوایل دهه 1980 ساخت. از آنجایی که این دو بسته امروزه وجود دارند و به طور خودکار مدل‌های arima را برای مجموعه داده‌های داده شده انتخاب می‌کنند چه کار متفاوتی انجام می‌دهند؟ آیا آنها احتمالاً مدل های مختلفی را برای یک مجموعه داده تولید خواهند کرد؟
Auto.arima و autobox آیا تفاوت دارند؟
32743
از رمزگذارهای خودکار برای کاهش ابعاد و به عنوان ابزاری برای یادگیری ویژگی های بدون نظارت استفاده می شود. علاوه بر این، از رمزگذارهای خودکار برای ساخت و آموزش شبکه های عصبی چند لایه استفاده شده است. وقتی از رمزگذارهای خودکار صحبت می‌کنیم، یک اسپاسیت را معرفی می‌کنیم و می‌خواهم بدانم که هدف از معرفی یک اصطلاح پراکندگی برای رمزگذارهای خودکار چیست؟
چرا برای رمزگذارهای خودکار به پراکندگی نیاز داریم؟
93474
یک تکنیک خوب برای استفاده در داده هایی که دارای متغیرهای طبقه بندی زیادی با مقادیر زیاد هستند چیست؟ به عنوان مثال، فرض کنید در حال تلاش برای تعیین نوع افرادی هستید که احتمال بیشتری دارد دوباره از فروشگاه آنلاین شما خرید کنند و ایمیل، کشور، مرورگر دارید. هر متغیر ممکن است بیش از 10 مقدار ممکن داشته باشد (به عنوان مثال ایمیل: yahoo، gmail، hotmail؛ کشور: ایالات متحده آمریکا، کانادا، استرالیا و غیره). علاوه بر این، متغیرهای پیوسته مانند سن خریداران و مقداری که تا کنون خرج کرده اند نیز دارید. من سعی کردم از رگرسیون لاجیت استفاده کنم، اما با تعداد زیادی متغیر طبقه‌بندی، خیلی بزرگ و ناکارآمد می‌شود. یک رگرسیون چندگانه نیز مشکلات یکسانی دارد (متغیرهای ساختگی بیش از حد). به نظر می رسد درخت تصمیم بهترین کار را دارد، اما نیازمند تبدیل متغیرهای پیوسته به متغیرهای طبقه بندی است. فقط تعجب می کنم که مردم چه نوع راه حل ها / تکنیک هایی را برای موقعیت های مشابه به کار برده اند. توجه: من می توانم از R و سایر نرم افزارهای آمار استفاده کنم.
برخورد با داده های بزرگ و متغیرهای زیادی
51644
FDA ایالات متحده استفاده از آمار بیزی را با پیشینه های آموزنده (در زمینه های خاص) مجاز می کند: http://www.outsourcing-pharma.com/Clinical-Development/US-FDA-says-Bayesian- analysis-could-cut-device-trial -costs http://www.stat.rutgers.edu/iob/bioconf09/slides/Campbell.pdf FDA Bayesian guidance در اسلاید اهمیت شبیه سازی اسلایدهای کمپبل نوشته شده است: _بنابراین شبیه سازی کنید تا نشان دهید که خطای نوع 1 (یا برخی از آنالوگ های آن) به خوبی کنترل می شود._ اما خطای نوع 1 به خوبی کنترل نمی شود. با پیش اطلاعاتی به عنوان مثال یک مدل دوجمله ای ساده $x \sim \text{Bin}(n,\theta)$ با یک بتا قبل از $B(a,b)$ در پارامتر نسبت مجهول $\theta$ در نظر بگیرید و یک فاصله اعتبار را در نظر بگیرید. $I(x)$ برای برخی سطح اعتبار معین $100(1-\alpha)\%$. سپس تابع پوشش مکرر $\theta \mapsto \Pr(I(x) \ni \theta \mid \theta)$ نزدیک به $100 (1-\alpha)\%$ برای جفریزهای قبل از $B(a=\) است. frac12,b=\frac12)$، اما زمانی که حجم نمونه بزرگ نیست و $(a,b)$ از $(\frac12,\frac12)$ دور است، پوشش مکرر از $100(1-\alpha)\%$ فاصله زیادی دارد (احتمالاً به جز برخی مقادیر بسیار خاص $\theta$، اما به هر حال پوشش کنترل شده نیست). خطای نوع 1 آزمون های عامل بیز نیز کنترل نمی شود. بنابراین بر اساس کدام دیدگاه می توان با استنباط بیزی تحت یک پیشین آموزنده به ویژگی های فراوانی خوب دست یافت؟
در مورد راهنمایی FDA در مورد عمل بیزی
101124
من مدارکم را به این صورت دارم: doc1 = زیبا، خیلی خوب، خیلی بد، شما عالی هستید doc2 = خیلی بد، رستوران خوب، مکان خوبی برای بازدید، می‌خواهم مجموعه‌ام را با `` جدا کنم، تا «DocumentTermMatrix» نهایی من شود. : شرایط اسناد بسیار خوب بسیار بد شما عالی هستید رستوران خوب مکان خوبی برای بازدید از doc1 tf-idf tf-idf tf-idf 0 0 doc2 0 tf-idf 0 tf-idf tf-idf من می دانم چگونه DocumentTermMatrix تک تک کلمات را محاسبه کنم، اما نمی دانم چگونه پیکره را جدا برای هر عبارت در R بسازم. اگرچه من یک راه حل در R ترجیح می دهم. اما راه حل در پایتون نیز مورد استقبال قرار می گیرد. چیزی که من امتحان کردم این است: > library(tm) > library(RWeka) > BigramTokenizer <- function(x) NGramTokenizer(x, Weka_control(min = 1, max = 3)) > options(mc.cores=1) > texts <- c(خیلی خوب، خیلی بد، تو عالی هستی، بسیار بد، رستوران خوب، مکان خوبی برای بازدید) > مجموعه <- Corpus(VectorSource(texts)) > a <- TermDocumentMatrix(corpus, control = list(tokenize = BigramTokenizer)) > as.matrix(a) در حال دریافت: Docs اصطلاحات 1 2 هستند 1 0 عالی هستند 1 0 بد 1 1 بد خوب 0 1 بد رستوران خوب 0 1 بد شما 1 0 بد شما هستید 1 0 زیبا 1 0 ....... آنچه من می خواهم ترکیبی از کلمات نیست بلکه فقط عباراتی است که در ماتریس خود نشان دادم.
مجموعه ای با عبارات بسازید
105145
اعتبار سنجی طبقه بندی دستی
51988
من می خواهم d کوهن را با فواصل اطمینان برای طرح های نمونه جفت محاسبه کنم. برخی از نویسندگان پیشنهاد می کنند که از مقدار آزمون t زوجی برای تنظیم همبستگی بین معیارها استفاده کنید (روزنتال، 1991). با این حال، دانلوپ و همکاران 1996 پیشنهاد می‌کنند که همبستگی بین نمونه‌های زوجی نباید لحاظ شود. به ویژه، اگر از چنین همبستگی استفاده شود، نتایج به آسانی با اثرات بین موضوعات قابل مقایسه نیستند. در عوض، آنها استفاده از فرمول نمونه‌های مستقل را توصیه می‌کنند: $$d= \frac{\mu_1-\mu_2}{\sigma_\textrm{pooled}}$$ ### سوال **چگونه فواصل اطمینان را برای d کوهن در یک تخمین می‌زنید. طراحی نمونه‌های زوجی که در آن d کوهن از فرمول بالا استفاده می‌کند؟ بسته MBESS. این تابع برای تست های نمونه مستقل طراحی شده است و اندازه دو گروه مستقل را به عنوان ورودی می گیرد. در کد زیر از «i» برای نشان دادن تعداد سوژه‌ها استفاده می‌کنم (مساوی، همانطور که شرکت‌کنندگان در هر گروه یکسان هستند) و از اندازه افکت 0.8 به عنوان مثال استفاده می‌کنم. library(MBESS) x.ci <- ci.smd(smd=0.8, n.1=i,n.2=i) **آیا استفاده از چنین تابع`ci.smd` برای فواصل اطمینان برای نمونه های جفت مناسب است؟ **
32741
من در حال ترسیم برخی از مجموعه داده های خطی در اکسل بودم، از جمله خطوط روند خطی: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/KRRJu.png) می خواستم 5 رگرسیون خطی جداگانه انجام دهم. بنابراین من می‌توانم «شیب» و «برق y» هر مجموعه داده «مستقل» را دریافت کنم. اما پس از آن، در یک لحظه، متوجه شدم که داده ها ممکن است یک نقطه مشترک داشته باشند: ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/OH5IF.png) در واقع، حتی ممکن است این باشد: خود **x-intercept**. بنابراین چیزی که اکنون به آن نیاز دارم، روشی برای اجرای چندین رگرسیون خطی همزمان است، با این فرض که همه خطوط در یک نقطه مشترک قطع می شوند. آیا چنین روش تحلیل رگرسیون خطی وجود دارد؟ اسم داره؟ آیا در اکسل وجود دارد؟ * * * بهترین کاری که تا به حال توانسته ام به دست بیاورم این است که پنج رگرسیون خطی مستقل را اجرا کنم و شیب و فاصله هر مجموعه داده را بدست آوریم: Slope (m) Intercept (b) ========= = ============ 1.15287 11484.8 0.86301 7173.5 0.43212 4306.4 0.25894 2853.6 رسم شیب در برابر y-intercept نوعی همبستگی می بینید: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/pwgAb.png) اگر **_assume_* * که مجموعه داده‌های من یک «فاصله x» را به اشتراک می‌گذارند، سپس می‌توانم آن x-value را از طریق: y = پیدا کنم mx + b 0 = mx + b -b = mx x = m / -b که به‌دست می‌آید: شیب (m) فاصله (ب) فاصله x مشترک (با فرض اینکه آنها یک است) ========= == ====================================== 1.15287 11484.8 -9961.9 0.86301 7173.5 -8312.2 0.43212 4306.4 -9965.6 0.25894 2853.6 -11020.2 که جدای از یک نقطه واقعاً نامطلوب، به خوبی همگرا می شود.
انجام رگرسیون های خطی چندگانه، در اکسل، که یک قطع مشترک x دارند؟
101121
برای ارزیابی تفاوت بین دو روش توالی یابی DNA (454 و MiSeq) من مخلوط های مصنوعی از باکتری های مختلف را در آزمایشگاه ساخته ام (جامعه های ساختگی). یک مثال ممکن است این باشد (اعداد درصد سلول های باکتری در نمونه های توالی یابی شده است): * سویه باکتری A: 25% * سویه باکتری B: 25% * سویه باکتری C: 25% * سویه باکتری D: 25% من نیز پیچیده تر هستم مخلوط ها (حداکثر 20 باکتری مختلف و نسبت های دیگر غیر از 1:1، برای آزمایش لگاریتمی) اگر شما دنباله این را به عنوان مثال نتایج زیر دریافت می کنید: ## 454: * A: 20% * B: 30% * C: 24% * D: 26% ## Illumina: * A: 22% * B: 28% * C : 20% * D: 30% از هر نمونه (مانند نمونه بالا) سه نسخه دارم. در صورت وجود تفاوت معنادار بین این دو روش، چه آزمون آماری را برای آزمایش پیشنهاد می کنید (من حدس می زنم تجزیه و تحلیل تفاوت در نسبت ها کار درستی باشد؟). آیا اگر من سه نمونه مختلف داشته باشم (یکی همان نمونه ای است که در بالا ذکر شد) Chi-Square کار درستی است؟ آیا حتی برخی از رویکردهای بوت استرپ ایده ای است؟ من با R آشنا هستم، بنابراین اگر بسته ای وجود دارد که می توانید پیشنهاد دهید، خوب است... * * * تصویری برای توضیح روند کار. امیدوارم این به درک بهتر مشکل من کمک کند: ![Workflow](http://i.stack.imgur.com/bShvA.png) من همچنین جوامع ساختگی دارم که پیچیده تر هستند (10 یا 19 سویه باکتری در نسبت های مختلف) . اما اصل یکسان است. برای فرآیند توالی یابی، شما تصمیم می گیرید که چند توالی DNA را می خواهید توالی یابی کنید! تعداد خوانده‌ها (توالی‌هایی که دریافت می‌کنید) (فقط) به غلظت DNA مربوط نمی‌شود (تا زمانی که DNA کافی برای داشتن «اشباع» داشته باشید). بنابراین آنچه در پایان می توانید بین 454 و MiSeq مقایسه کنید، تا آنجایی که من متوجه شدم، نسبت ها (پس از خوشه بندی) به جای اعداد کامل هستند...
آزمون آماری برای ارزیابی تفاوت بین دو روش توالی یابی
105140
Gaussian Naive Bayes واقعا معادل GMM با ماتریس های کوواریانس مورب است؟
93476
من به دنبال کمکی برای آزمایش این هستم که آیا تفاوت های آماری بین نسبت ها زمانی که داده ها وابسته هستند وجود دارد یا خیر. منظور من از وابسته، این است که تمام داده‌ها از شرکت‌کنندگان یکسانی هستند، اگرچه من در مورد طرح آزمایشی با اندازه‌گیری‌های مکرر صحبت نمی‌کنم، بلکه فقط سؤال‌های متفاوت از شرکت‌کنندگان یکسان است. معمولاً من مستقیماً برای آزمایش مک نمار می روم. با این حال، مشکلی که من با آن روبرو هستم این است که ... اگرچه داده ها همه از یک گروه (1000 نفر) هستند، تفاوت های جزئی در تعداد افرادی که به سوالاتی که من برای محاسبه نسبت ها استفاده می کنم پاسخ می دهند وجود دارد. از همه 1000 نفر پرسیدم که آیا به طور مرتب از ویندوز (همه پاسخ مثبت دادند؛ یعنی 1000 نفر پاسخ مثبت دادند)، Mac OSX (500 نفر پاسخ مثبت دادند)، یک توزیع لینوکس (100 نفر پاسخ مثبت دادند) و انواع سیستم عامل های دیگر (10 نفر پاسخ مثبت دادند) پرسیدم. ). شرکت‌کنندگان می‌توانند پاسخ‌های خود را ترکیب کنند - ممکن است از Windows، Mac OSX… یا فقط Windows… استفاده کرده باشند. یا ویندوز و لینوکس، یا هر سه، و غیره. برای هر سیستم عاملی که شخصی استفاده می‌کند، از آنها پرسیدم که آیا از نرم‌افزار خاصی در آن سیستم‌عامل‌ها استفاده می‌کنند (مثلاً آیا از پردازشگر Word استفاده می‌کنند). بنابراین اگر شخصی از OSX و Windows استفاده می‌کرد، از او پرسیده می‌شد که آیا از یک واژه‌پرداز برای ویندوز استفاده کرده است یا نه و به طور جداگانه همان سؤال را برای OSX می‌پرسد. یکی دیگر از شرکت‌کنندگان ممکن است از ویندوز و لینوکس استفاده کند، و از او پرسیده می‌شود که آیا از یک واژه‌پرداز برای ویندوز استفاده می‌کند و به طور جداگانه همان سؤال را برای لینوکس می‌پرسد. شخص دیگری ممکن است گفته باشد که فقط از ویندوز استفاده می کند و بنابراین فقط در مورد استفاده از واژه پرداز وی در ویندوز از او سوال شده است. اینجاست که مشکل پیش می آید. اگر متوجه شوم که 85 درصد از 1000 کاربر ویندوز به طور منظم به یک پردازنده Word دسترسی دارند، چگونه می توانم این را با 65 درصد از 500 کاربر OSX که به طور منظم به یک پردازنده Word دسترسی دارند مقایسه کنم. من در مورد استفاده از تست مک نمار فکر کرده بودم، اما مطمئن نیستم که چگونه با جفت‌های ناسازگار برخورد کنم - برای مثال، برای کسی که از ویندوز استفاده می‌کند اما از OSX استفاده نمی‌کند، هیچ جفت هماهنگ/ناسازگاری وجود ندارد. من در مورد استفاده از آزمون Z برای نسبت‌ها فکر کرده بودم، اما این برای مقایسه نسبت‌هایی است که کاملاً مستقل هستند - من تقریباً مطمئن هستم که داده‌های من این شرط را برآورده نمی‌کنند (اما باید اصلاح شوند). هر ایده ای؟ با تشکر از همه! امیدوارم کسی بتواند به من کمک کند! Simon :) **اضافه شدن اطلاعات اضافی همانطور که درخواست شد ** من فقط برخی از داده های خام را مسخره کردم. بنابراین این نمایش داده‌ای است که من برای هر شرکت‌کننده دارم (-1 = شرکت‌کنندگانی که به این سؤال پاسخ ندادند زیرا از آن سیستم عامل استفاده نمی‌کنند). ![Mock Participant Data](http://i.stack.imgur.com/hfSKw.jpg) من به دنبال این هستم که ببینم آیا نسبت افرادی که از یک واژه پرداز در ویندوز استفاده می کنند مشابه نسبت افرادی است که از یک کلمه استفاده می کنند یا خیر. پردازنده در OSX (که در آن داده ها از همان نمونه تا حدودی هستند - تا حدودی با توجه به موضوع بالا در مورد پاسخ دادن شرکت کنندگان به سوالات مربوط به آنها به این معنی که من حکاکی های کمی متفاوت از یکسان را با هم مقایسه خواهم کرد. نمونه). بنابراین بله، من سعی می کنم نسبت افرادی که از پردازشگرهای کلمه استفاده می کنند را با توجه به سیستم عامل خود مقایسه کنم. با این حال، من سعی می کنم آن را برای مقایسه بین سیستم عامل های فردی تجزیه کنم. بنابراین در جدول خلاصه زیر ... من سعی می کنم مقایسه کنم که آیا 85٪ (ویندوز) تفاوت قابل توجهی با 65٪ (OSX) دارد یا خیر. دلیل اینکه من از Chi-square استاندارد (پیرسون) اجتناب کرده‌ام این است که آن داده‌ها تا حدودی وابسته هستند - سوالات شامل شرکت‌کنندگان مختلف نمی‌شود. ![Mock Data Overview/Summary](http://i.stack.imgur.com/MKsH4.jpg) آیا این موضوع را کمی واضح تر می کند؟ اگر نه پس به من اطلاع دهید و می توانم گسترش دهم :)
مقایسه نسبت ها از نمونه (تا حدودی) مشابه
32748
با توجه به اینکه مجموعه داده من متشکل از 384 متغیر توضیحی و 1 متغیر وابسته است، برای انجام رگرسیون خطی چندگانه در متلب کدام راه ساده تر است؟ در واقع، من باید ضرایب، باقیمانده‌های متناظر، و همچنین خطای تعمیم را هنگام آزمایش این مدل خطی با استفاده از مثلاً 30 مثالی که در مجموعه آموزشی نیستند، محاسبه کنم. من فکر می کنم که این تابع برای من خوب کار می کند، اما مطمئن نیستم که چگونه آن را با تعداد زیادی متغیر توضیحی کار کنم. من می دانم که باید راه کارآمدتری برای ساختن چنین مدلی وجود داشته باشد، اما این فقط یک کار مقدماتی تحقیق من است. از همه ایده ها استقبال می شود. ویرایش: فکر کنم پیداش کردم. لطفاً صحت موارد زیر را تأیید کنید؟ X = DATA(1:101,1:99); [M,N] = اندازه (X); y = DATA(1:101,100); X = [اونها(M,1) X]; b = رگرسیون (y,X); اما، در مورد باقیمانده ها و خطای تعمیم چطور؟
رگرسیون خطی چندگانه در متلب
93472
من دو نمونه مستقل دارم و باید مقادیر آنها را با هم مقایسه کنم تا بگویم مقادیر گروه اول بالاتر از مقادیر گروه دوم هستند یا خیر. من تست Levene را انجام دادم و واریانس ها بسیار نابرابر هستند. آیا بهتر است از نسخه SPSS آزمون t (واریانس های برابر فرض نمی شود) استفاده کنیم یا آزمون U Mann-Whitney؟ آیا مرجع رسمی (مقاله ای که می توانم به آن استناد کنم) برای نسخه آزمون t-test SPSS زمانی که واریانس های مساوی در نظر گرفته نشده اند دارید؟
آزمون تی واریانس نابرابر یا آزمون یو من ویتنی؟
101120
من با یک سوال روش پایه یادگیری ماشین مشکل دارم. من مفهوم استفاده نکردن از داده‌های یکسان برای آموزش و ارزیابی یک طبقه‌بندی کننده را درک می‌کنم، و علاوه بر این، وقتی پارامترهایی در یک الگوریتم وجود دارد که باید بهینه شوند، باید از یک مجموعه آزمایشی مستقل سوم برای به دست آوردن ارقام عملکرد قابل گزارش نهایی استفاده کنید (مثلاً نرخ فراخوان ). با این حال، استفاده از یک مجموعه تست _single_ برای اندازه‌گیری عملکرد مشکل‌ساز به نظر می‌رسد زیرا معیارهای عملکرد احتمالاً بسته به نحوه تقسیم‌بندی داده‌ها به آموزش (به‌علاوه اعتبارسنجی) و مجموعه‌های آزمایشی، به‌ویژه برای مجموعه‌های داده کوچک، متفاوت خواهد بود. بهتر است نتایج N پارتیشن مختلف را میانگین بگیرید. برای مرحله آموزش، دقیقاً به همین دلیل است که افراد معمولاً از اعتبار سنجی متقاطع k-fold استفاده می کنند، اما اگر می خواهید مرحله آزمایش نهایی را با مجموعه های آزمایشی مختلف (یعنی اعتبارسنجی متقاطع k-fold) تکرار کنید، در این صورت داده های مورد استفاده برای پارامتر را با هم ترکیب می کنید. تنظیم با داده های تست این همان چیزی است که تمام مراجع یادگیری ماشینی که دیده‌ام می‌گویند نباید انجام شود. اما چگونه می توان یک معیار عملکرد خوب به دست آورد که وابسته به پارتیشن بندی مجموعه داده نباشد؟ * * * ## ویرایش مربوط به نظر cbeleites: مطمئن نیستم که مفهوم اعتبارسنجی متقاطع تودرتو را درک کرده باشم یا نه. در اینجا یک بررسی از درک من است. لطفا اگر درست نیستم نظر بدید فرض کنید من 1200 نمونه برچسب دار دارم و می خواهم 3 مدل مختلف را با هم مقایسه کنم (به عنوان مثال یک الگوریتم درخت تصمیم با سه تنظیمات پارامتر مختلف). برای هر مدل، من دو حلقه اعتبارسنجی متقاطع دارم - یک حلقه بیرونی که آزمایش را انجام می دهد و یک حلقه داخلی که مدل را تولید می کند و همچنین آن را آزمایش می کند. برای حلقه بیرونی، اگر من 4 برابر را انتخاب کنم، ابتدا یک تقسیم 75/25 ایجاد می کنم تا یک مجموعه آموزشی/اعتباری (900 نمونه) و مجموعه آزمایشی (300 نمونه) ایجاد کنم. با سهم 75 درصد، اعتبار سنجی متقاطع k-fold را انجام می دهم (در مثال زیر، 3 برابر را انتخاب می کنم، تا شکل را ساده نگه دارم، بنابراین 300 نمونه در هر برابر وجود دارد) و میانگین عملکرد k-fold ها را محاسبه می کنم. . سپس همان مدل (یعنی تنظیمات پارامتر مشابه) را با استفاده از قسمت کامل 75% دوباره آموزش می‌دهم و سپس با 25% باقی‌مانده آزمایش می‌کنم. سپس این روش را سه بار با استفاده از چین های مختلف از حلقه بیرونی تکرار می کنم (شکل را ببینید). بخش آخر جایی است که من کمی مطمئن نیستم که روش صحیح چیست. آیا چهار تست را از هر مدل (یعنی چین‌های حلقه بیرونی) میانگین می‌دهم. در واقع هدف حلقه داخلی چیست؟ یا من اصلا لانه سازی را درست انجام نمی دهم؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/oPxJF.png)
روش شناسی صحیح برای تکرار تست طبقه بندی کننده برای به دست آوردن تخمین خوب از عملکرد
56351
ترکیب درمان به طور معمول و گروه های کنترل دارونما تجربی در یک متاآنالیز
93867
مشکل با سال به عنوان عامل GLMM
56013
من یک داده نظرسنجی با متغیر نتیجه طبقه بندی دارم (بله، نه، نمی دانم) که نشان دهنده پذیرش برخی موقعیت ها توسط پاسخ دهندگان است. نگرانی من این است که چگونه با پاسخ‌های نمی‌دانم برخورد کنم، واقعاً شک دارم که این مشاهدات را کنار بگذارم، زیرا: 1. مجموعه داده‌های من را از حدود 14400 به حدود 13000 کاهش می‌دهد که قابل توجه است. 2. من شهود دارم که پاسخ DK حاوی برخی اطلاعات است و بنابراین تصادفی نیست. بنابراین سؤالات من این است: 1. یکی پیشنهاد کرد که غیرتصادفی بودن بر احتمال تخمین زده شده تأثیر می گذارد و من باید آن را بررسی کنم، اما چگونه تصادفی بودن را در Stata بررسی کنیم؟ 2. اگر حفظ پاسخ های DK مورد نظر است، انتساب چندگانه (به عنوان مثال) راهی برای مقابله با این موضوع است. آیا منبع/پیوندهایی وجود دارد که بتوانم از آن استفاده کنم تا خودم را با چیستی انتساب چندگانه و نحوه انجام آن در Stata استفاده کنم؟ 3. تقریباً تمام مقالاتی که در مورد موضوع خود می خوانم از رگرسیون لجستیک استفاده می کنند، نمی دانم چه توجیهی پشت آن است. آیا پیوند/منبعی وجود دارد که رویکردهای احتمالی مختلف را برای متغیر نتیجه غیر باینری مقایسه کند (در مورد من این متغیر نتیجه دسته‌بندی سه پاسخ خواهد بود) و چگونه بین آنها انتخاب کنیم؟
پرداختن به پاسخ های «نمی دانم» برای یک متغیر نتیجه طبقه بندی شده
65601
من به دنبال مجموعه داده های شبکه های اجتماعی برای تعیین قدرت روابط (آشنایی، دوستی، خانوادگی، حرفه ای،...) هستم.
مجموعه داده شبکه های اجتماعی
4453
فرض کنید من یک مجموعه $\mathcal{S}$ از $N$ موارد متمایز دارم. اکنون مجموعه $\mathcal{P}$ همه جفت‌های ممکنی را که می‌توانم از $S$ ترسیم کنم، در نظر بگیرید. به طور طبیعی، $|\mathcal{P}| = \binom{N}{2}$. حالا وقتی از $\mathcal{P}$ با توزیع یکنواخت $k$ (جفت) می‌کشم، تعداد مورد انتظار متمایز از $S$ در آن جفت‌های $k$ چقدر است؟
چگونه می توان تعداد مورد انتظار موارد متمایز را هنگام ترسیم جفت محاسبه کرد؟
56358
![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/LL3GL.jpg) من یک glmm دو جمله ای نگ در glmmADMB انجام می دهم. افکت‌های تصادفی کاملاً عادی توزیع نمی‌شوند (تصاویر پیوست را ببینید). چقدر باید نگران این موضوع باشم؟ اگر این تخلف بیش از حد است، آیا گزینه های دیگری برای تجزیه و تحلیل داده های طولی وجود دارد؟
93865
$X$ و $Y$ دارای توزیع نرمال دو متغیره و دارای pdf مشترک \begin{equation*} f\left(x,y\right) =a\exp \left( \frac{-1}{2}\omega \ راست) ,\text{where }% \omega =6x^{2}+12y^{2}-16xy-8x+24 \end{معادله*} پس معنی $X$ و $Y$؟ من \begin{equation*} \frac{1}{\left( 1-\rho ^{2}\right) \sigma _{X}^{2}}=6,~\frac{1}{\ دارم left( 1-\rho ^{2}\right) \sigma _{Y}^{2}}=12~\text{and }\frac{-2\rho }{\left( 1-\rho ^{2}\right) \sigma _{X}\sigma _{Y}}=-16 \end{معادله*} تا بتوانم $\rho ،\sigma _{X}$ و $ را پیدا کنم \sigma _{Y}$ با استفاده از این معادلات. اما چگونه می توانم $\mu _{X}$ و $\mu _{Y}$ را دریافت کنم؟ این سوال در یک امتحان پرسیده شد و درخواست شد در 2 دقیقه پاسخ داده شود. آیا میانبری برای این کار وجود دارد؟
4454
آیا ابزار مناسبی برای نوشتن/طراحی پرسشنامه قبل از ارائه به برنامه نویسان وجود دارد؟ در حال حاضر مایکروسافت ورد در حال استفاده است و ردیابی تغییرات و استاندارد نگه داشتن آن به یک سردرد تبدیل شده است. **به روز رسانی**: فکر می کنم در اینجا کمی دچار سوءتفاهم شده ام. در اینجا یک سناریو وجود دارد: مشتری با یک آمارشناس/متخصص در طراحی نظرسنجی صحبت می کند تا بتواند نظرسنجی را برای دریافت بازخورد از مشتریان خود طراحی کند. هنگامی که آن نظرسنجی طراحی شد (نه به معنای مد) آنها ممکن است آن را به یک هنرمند و برنامه نویس بدهند تا واقعاً نظرسنجی را ایجاد کند (برای وب یا هر چیز دیگری). من متعجبم که چه راه‌های خوبی برای انتقال طرح منطقی نظرسنجی به برنامه‌نویس می‌تواند باشد.
ابزار و قالب خوبی برای نمایش و انتقال محتوای طراحی یک نظرسنجی چیست؟
74167
چگونه می توانیم انتگرال انتگرال را با حد پایین 0 و حد بالایی بی نهایت در Stata محاسبه کنیم؟ من از دستور integ آگاه هستم، اما مطمئن نیستم که می توانم از آن استفاده کنم زمانی که حد بالایی بی نهایت است.
انتگرال در Stata زمانی که حد بالایی بی نهایت است
93861
فیلتر کالمن و باکس کاکس
56048
من یک آزمایش روانشناختی در مورد یک موضوع، تحت دو شرایط مختلف انجام داده ام. برای هر شرط، تعداد پاسخ های صحیح و غلط را برای هر محرک جمع آوری کرده ام (تعداد آزمایش در هر محرک = 10، تعداد محرک = 15). از داده‌های جمع‌آوری‌شده من منحنی روان‌سنجی (منحنی پروبیت یا لاجیت) را برازش کردم و اکنون می‌خواهم نتایج را با هم مقایسه کنم. **موضوع 1** را در نظر بگیرید: پاسخ های او در ماتریس های زیر جمع آوری شده است **COND_1** صحیح cnt Y N 1 0 10 2 0 10 3 0 10 4 0 10 5 0 10 6 0 10 7 1 9 8 4 6 9 5 5 10 7 3 11 8 2 12 7 3 13 10 0 14 10 0 15 10 0 **COND_2** صحیح cnt Y N 1 0 10 2 2 8 3 2 8 4 3 7 5 2 8 6 4 6 7 8 2 8 10 0 9 0 19 2 0 1 12 10 0 13 10 0 14 10 0 15 10 0 COND_1.1 <- ماتریس (c(0، 2، 2، 3، 2، 4، 8، 10، 8، 10، 9، 10، 10، 10، 10، 10، 8، 8، 7، 8، 6، 2، 0، 2، 0، 1، 0، 0، 0، 0)، byrow=F، ncol=2) COND_1.2 <- ماتریس(c(0، 0، 0، 0، 0، 0، 1، 4، 5، 7، 8، 7، 10، 10، 10، 10، 10، 10، 10، 10، 10، 9، 6، 5، 3، 2، 3، 0، 0، 0)، byrow=F، ncol=2) cnt <- seq(from=0، to=1.4، by=0.1) ddprob.1.1 <- glm(COND_1 .1 ~ cnt، خانواده = دو جمله ای (پیوند = probit)) ddprob.2.1 <- glm(COND_2.1 ~ cnt, family = binomial(link = probit)) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gDGhi.jpg) با مشاهده طرح، مطمئناً می توانید بگویید که عملکرد در شرایط 2 بهتر از عملکرد در شرایط 1 است. در واقع اگر برخی از پارامترها مانند AUC, p25, p50, p75 را محاسبه کنید (مقدار محرکی که در آن تعداد پاسخ های صحیح هر کدام 25%، 50% و 75% است) [پارامترهای آستانه]، خواهید دید که: COND_1 COND_2 AUC < AUC p25 > p25 p50 > p50 p75 > p75 * * * اکنون در نظر بگیرید * *موضوع 2** : COND_1 صحیح cnt Y N 1 0 10 2 0 10 3 0 10 4 0 10 5 3 7 6 3 7 7 4 6 8 5 5 9 9 1 10 9 1 11 10 0 12 10 0 13 10 0 14 10 0 15 10 0 COND_0 0 15 10 0 COND_0 N201 صحیح 10 4 4 6 5 2 8 6 4 7 4 6 8 7 3 9 4 6 10 7 3 11 7 3 12 10 0 13 9 1 14 10 0 15 10 0 COND_1.2 <0، ماتریس، ( 0، 0، 3، 3، 4، 5، 9، 9، 10، 10، 10، 10، 10، 10، 10، 10، 10، 7، 7، 6، 5، 1، 1، 0، 0، 0، 0، 0)، byrow=F ، ncol=2) COND_2.2 <- ماتریس (c(0, 1, 0, 4, 2, 6، 4، 7، 4، 7، 7، 10، 9، 10، 10، 10، 9، 10، 6، 8، 4، 6، 3، 6، 3، 3، 0، 1، 0، 0) , byrow=F, ncol=2) cnt <- seq(from=0, to=1.4, by=0.1) ddprob.1.1 <- glm(COND_1.2 ~ cnt، خانواده = دوجمله ای (پیوند = probit)) ddprob.2.1 <- glm(COND_2.2 ~ cnt، خانواده = دو جمله ای (پیوند = probit)) نمودار ترسیم شده منحنی ها در تصویر زیر نشان داده شده است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/7Qkct.jpg) می توانید بگویید چه عملکردی بهتر است؟ در شرایط 1 یا در شرایط 2؟ با برون یابی AUC، p25، p50، p75، شما دارید: COND_1 COND_2 AUC > AUC p25 > p25 p50 = p50 p75 < p75 بنابراین سؤال من این است: آیا روشی وجود دارد که بگوییم منحنی عمومی (logit، probit یا هر چیز دیگری) بالاتر است. سپس دیگری؟ آیا روشی برای مقایسه (یک عدد عملکرد) وجود دارد که تفاوت های دو منحنی را توصیف کند؟ مثال من نشان می دهد که AUC، p25، p50، p75 پارامترهای خوبی نیستند. من می خواهم یک پارامتر عددی واحد را برای هر منحنی محاسبه کنم تا یک آزمون t-paired ساده، برون یابی شده از توزیع مشاهده شده ایجاد کنم.
مقایسه دو منحنی logit/probit با یک پارامتر واحد
57005
اطلاعات فیشر برای مدل پواسون
57006
اصطلاحی که برای توصیف دو خط استفاده می شود که وقتی خطوط در شیب بیشتری هستند به یکدیگر نزدیکتر ظاهر می شوند
36247
من با شبکه های عصبی کاملاً تازه کار هستم اما علاقه زیادی به درک آنها دارم. با این حال شروع به کار اصلاً آسان نیست. آیا کسی می تواند یک کتاب خوب یا هر نوع منبع دیگری را معرفی کند؟ آیا حتما باید خوانده شود؟ من از هر نوع راهنمایی سپاسگزارم.
چگونه با شبکه های عصبی شروع کنیم
36249
کاربردها یا مزایای تکنیک های رگرسیون کاهش ابعاد (DRR) یا کاهش ابعاد نظارت شده (SDR) نسبت به تکنیک های رگرسیون سنتی (بدون هیچ گونه کاهش ابعاد) چیست؟ این دسته از تکنیک ها یک نمایش کم بعدی از مجموعه ویژگی برای مسئله رگرسیون پیدا می کنند. گاهی اوقات این فرض وجود دارد که توزیع مشترک ویژگی‌های $X$ و پاسخ $Y$ روی یک منیفولد قرار دارد. یادگیری منیفولد از نمونه مشاهده شده در این زمینه برای حل مسئله رگرسیون منطقی است. اما تکنیک‌های DRR، SDR هیچ فرضی از این نوع را ذکر نمی‌کنند که باعث می‌شود در شگفت باشم که چرا آنها مفید هستند. آیا آنها صرفاً رویه‌های کاهش پیچیدگی زمان و مکان را برای رگرسیون انجام می‌دهند؟ اگر این مزیت اصلی است، برخی منابع در کاهش پیچیدگی برای مجموعه داده‌های با ابعاد بالا در هنگام استفاده از این تکنیک‌ها مفید خواهد بود.
برنامه های کاهش ابعاد تحت نظارت
36241
من باید داده های آزمایشی را تجزیه و تحلیل کنم که در آن شرکت کنندگان دو وظیفه را انجام دادند. هر کار محتوای متفاوتی داشت و همچنین «شرایط فضایی» متفاوتی داشت. محتوا، شرایط فضا و ترتیب ارائه محتوا و شرایط بین شرکت‌کنندگان متعادل بود. هنگامی که شرکت‌کنندگان تکالیف را به پایان رساندند، به پرسشنامه‌ای در مورد دشواری هر یک پاسخ دادند که شامل مجموعه‌ای از 18 سؤال (برای هر کار) بود. من یک تحلیل عاملی برای 18 سوال ارجاع شده به تکلیف با شرط فضای 1 انجام دادم که نشان داد فقط یک مؤلفه وجود دارد و یک تحلیل عاملی دیگر با سؤالات مربوط به شرایط فضایی 2 که همچنین منجر به تنها یک مؤلفه شد. سوال من این است: آیا درست است که من یک ANOVA اندازه گیری های مکرر را با مقایسه دو مقیاس عامل حاصل (DV) در موضوع IV (شرایط فضا) و با ترکیب محتوا و شرایط فضا بین موضوعات IV انجام دهم؟ از کمک شما متشکرم.
مقیاس عاملی به عنوان یک متغیر وابسته در اندازه گیری های مکرر ANOVA
85368
اگر مجموعه داده‌ای که من با آن کار می‌کنم ابعاد متغیر مستقل زیادی داشته باشد، ممکن است لازم باشد یک زیرمجموعه مناسب از همه مکان‌های ممکن در بردار ویژگی خود انتخاب کنم تا مشخص کنم که آیا قرار است از آن برای تقسیم یک گره استفاده کنم یا خیر. این برای مدیریت پیچیدگی محاسباتی کار است. من تعجب می کنم که چه نتایجی در ادبیات پیرامون این موضوع وجود دارد، یا چه دستورالعمل های عملی را باید دنبال کنم. آیا باید از تابع جرم احتمال یکنواخت برای انتخاب نقاط تصادفی استفاده کنم یا از یک رویکرد پیچیده تر؟ آیا دستورالعملی در مورد نسبت امتیازی که من انتخاب می کنم به تعداد کل امتیازهای ممکن وجود دارد و این نسبت چگونه بر تعمیم مدل تأثیر می گذارد؟
گسسته سازی تقسیم در تخمین تصادفی جنگل
85367
فرض کنید من یک توزیع چند جمله ای با احتمالات $p_i$، i از 1 تا k ایجاد می کنم. حالا فرض کنید من آن را با استفاده از خوبی تناسب ( مربع کای ) با احتمالاتی که می دانیم دوباره آزمایش کنم. من خواندم که وقتی اندازه نمونه، N به اندازه کافی بزرگ باشد، این به خوبی کار می کند. سوالات 1\. چه عواملی بر اندازه N باید تأثیر بگذارد تا آزمایش به خوبی کار کند؟ فرضیه ها: k یا نحوه پخش احتمالات 2\. اگر یکی از احتمالات را با مقدار کمی تغییر دهیم (مثلاً 10$^{-3}$) چه می‌شود. N چقدر بزرگ باید باشد تا مطمئن شویم که آزمون توزیع نادرست را رد می کند؟ نکات: 1. سوال همچنین جواب می دهد اگر به جای تولید، داده های واقعی داشته باشیم، حجم نمونه به دلیل نویز 2 باید بزرگتر باشد. این را می توان به عنوان آزمایشی در نظر گرفت که تولید بدون خطای 3\ انجام شده است. یک برنامه می تواند نمونه ای برای آزمایش همه اینها باشد
حسن تناسب چند جمله ای
87211
من در حال مدل سازی غلظت املاح در پایین دست از یک منبع به عنوان تابعی از فاصله و جریان هستم. این در طی نه جلسه نمونه برداری منحصر به فرد در همان جریان اندازه گیری شد. غلظت در 9 فاصله مساوی در پایین دست از منبع اندازه گیری شد. برای هر جلسه نمونه‌برداری، یک جریان جریان منحصربه‌فرد (اندازه‌گیری شده در لیتر در ثانیه) وجود داشت. همچنین برای هر جلسه یک جرم منحصر به فرد برای منبع املاح وجود داشت. این منجر به سه متغیر توضیحی پیوسته می‌شود، یکی در جلسه (فاصله) و دو متغیر بین جلسه (زیست توده و جریان). بنابراین، این نه جلسه نمونه گیری، با 9 اندازه گیری فاصله در هر جلسه نمونه گیری می دهد. برای مدل سازی این، من از یک مدل اثرات مختلط استفاده کردم که اجازه می دهد برای هر جلسه نمونه برداری یک برش تصادفی و یک شیب تصادفی بر اساس فاصله برای هر جلسه نمونه گیری ایجاد شود، هر جلسه نمونه گیری به عنوان یک گروه در نظر گرفته می شود. کد مدل به نظر می رسد ... مدل <\- glmmadmb( غلظت ~ فاصله + زیست توده + جریان + زیست توده * جریان + فاصله * جریان + فاصله * زیست توده + (فاصله | جلسه نمونه برداری)، داده = جریان، خانواده = nbinom، zeroInflation = FALSE) مقاله حاوی این تحلیل اخیرا بررسی شده است. یکی از داوران گفت: «مشکل‌آمیزترین بخش دست‌نوشته، تحلیل‌های آماری است که گیج‌کننده، غیرضروری پیچیده، و دارای مسائل شبه‌تکراری هستند... در روشی که مدل‌ها ساخته می‌شوند، تکرار شبه وجود دارد که اگر اثر تصادفی باشد. جلسه است (که من معتقدم همینطور است) و تنها یک زیست توده و تنها یک اندازه گیری جریان در هر جلسه وجود دارد، فاصله تنها چیزی است که متفاوت است. ماهیت تو در تو فاصله‌های مکرر (و همبسته مکانی) در جلسه در حالی که همه متغیرهای دیگر در سطح جلسه جمع‌آوری شده‌اند، مفروضات مدل را نقض می‌کند و می‌توانست به نتایج اشتباه منجر شود. درک من این است که اثر تصادفی روی اندازه‌گیری‌های فاصله مکرر در هر جلسه، اساساً جلسه را به عنوان واحد نمونه‌گیری در نظر می‌گیرد و به مسئله تکرار شبه رسیدگی می‌کند. متغیرهای کمکی زیست توده و جریان بین گروه‌ها سپس در یک فاصله در هر جلسه ارزیابی می‌شوند (در این مورد میانگین است زیرا من با z-score اینها را استاندارد کرده‌ام). آیا در این مورد اشتباه می کنم؟ اگر نه، آیا توصیه‌هایی در مورد اینکه چگونه می‌توانم به نظرات این بازبین‌ها پاسخ دهم وجود دارد؟
درون و بین متغیرهای کمکی گروهی در مدل ترکیبی
16428
### زمینه: من در حال ایجاد مقیاسی برای پایان نامه خود هستم. مشاور من مرا راهنمایی کرده است که از SPSS PCA برای تکمیل تجزیه و تحلیل خود استفاده کنم. در ابتدا مقیاس من را به 3 عامل کاهش دادیم (اصرار او) و نمونه دوم را با مقیاس 3 عاملی جمع آوری کردیم. من با بارگذاری مناسب 3 فاکتور مشکل داشتم. شرکت‌کنندگان بر اساس سن و جنسیت به عامل سوم پاسخ متفاوتی می‌دهند و بارگذاری‌ها در 45/0 و سپس 42/0 در فاکتور دیگر قرار می‌گیرند. وقتی مدل دو عاملی را در نظر می‌گیرم (مقیاس 15 مورد در مقابل مقیاس 10 مورد)، همه بارگذاری 0.65 یا بالاتر است، و پاسخ‌دهی بر اساس جنسیت یا سن تأثیر نمی‌گذارد. ### سوالات: * برای کسب اطلاعات بیشتر در مورد استفاده از SPSS PCA برای توسعه مقیاس، چه چیزی را پیشنهاد می کنید مطالعه کنم؟ * آیا باید از SEM استفاده کنم؟ * آیا تجزیه و تحلیل های اضافی وجود دارد که بتوانم در این مقیاس برای تعیین تناسب/عوامل انجام دهم؟
61949
استفاده از نسبت سیگنال به نویز برای مقایسه برآوردگرهای رگرسیون ریج
41279
تصور کنید که من دو اقدام جداگانه انجام دهم و دو توزیع نرمال جداگانه $\mathcal{N}_1(m_1, s_1^2)$ و $\mathcal{N}_2(m_2, s_2^2)$ 1 دریافت کنم. چگونه می توانم یک توزیع نرمال منفرد $\mathcal{N}_3$ را پیدا کنید که نوعی میانگین از این دو منحنی نرمال است؟ 2. به عنوان یک فرمت، چگونه می توانم توزیعی را پیدا کنم که هر دو حالت عادی را نشان دهد؟ یعنی یک توزیع واحد خواهد بود و دو قله دارد و در مرکز $\frac{m_1 + m_2}{2}$؟
ترکیب توزیع های نرمال
84099
من وظیفه ای شبیه محاسبه باقیمانده ها به دلار برای یک فرد مشاهده شده دارم (با کد جنسیتی، کلاسی که در آن حضور دارند، سن آنها، و آنها فرضاً 50000 در سال می سازند - Dependent Var). پس از اجرای SPSS و خروجی ANOVA با مقدار رگرسیون، باقیمانده ها و مجموع (و من به مجموع مربع ها اشاره می کنم). سپس درجات آزادی و مربع میانگین وجود دارد. آیا امکان بازگشت از این مقادیر به مقدار باقیمانده برای یک مشاهده مشخص وجود دارد؟ (ریشه دوم باقیمانده‌های میانگین مربع) تقسیم بر (ریشه دوم رگرسیون میانگین مربع) به همان مقدار خطای استاندارد تخمین محاسبه می‌شود که در آن مربع R برای آن مدل 203/0 است. پس آیا درست است که بگوییم برای آن 50000 درآمدی که در بالا ذکر کردم، باقیمانده 20.3٪ یا 10،150 دلار است. مغز من در اینجا ذوب شده است - هر کمکی بسیار قدردانی می شود. برخلاف پست باب جان (یافتن مقدار باقیمانده) من بهترین فرمول خط را در این مورد ندارم.
پس از اجرای SPSS ANOVA باقیمانده را محاسبه کنید
41278
من قبلاً در مورد بوت استرپینگ اطلاعات خود پست کرده بودم. من اکنون در مورد کل فرآیند آزمایش/داده کاوی برای یک استراتژی و سپس آزمایش بر روی داده های بوت استرپ تعجب می کنم. آیا منطقی است که ابتدا داده های خود را بوت استرپ کنید و سپس داده ماین را برای بهترین نتیجه انجام دهید؟ این برای من اتفاق افتاد زیرا استراتژی فعلی من زمانی که آن را در برابر داده های بوت استرپ آزمایش کردم، کاهش قابل توجهی داشت. استراتژی اولیه استراتژی ای است که به صورت ماهانه بین SPY و TLT تعادل برقرار می کند. این استراتژی پس از آزمایش بر روی داده های 6 ساله (یا 72 معامله کل)، شارپ 2.06 دارد. اما وقتی آن را در برابر داده های بوت استرپ تست می کنم، نسبت شارپ به طور قابل توجهی به 1.04 کاهش می یابد. به نظر می رسد که من در نهایت به دنبال افزایش عدد 1.04 هستم، و برای انجام این کار باید شماره 1) فرآیند داده کاوی را دوباره شروع کنم تا یک استراتژی جدید تست شده را پیدا کنم و *#2) دوباره آزمایش کنم. در برابر داده های بوت استرپ بنابراین آیا می توانم از مرحله شماره 1 بگذرم؟ بدیهی است که این نیاز به قدرت محاسباتی قابل توجهی دارد. با تشکر
اول بوت استرپینگ، سپس داده کاوی؟
84098
تمرینی از من می‌خواهد نشان دهم که اگر $X_1,X_2,\ldots,X_n$ نمونه‌ای تصادفی از توزیع پواسون با پارامتر $\theta$ باشد، توزیع شرطی X_1,X_2,\ldots, X_{n-1 است. }$، با توجه به $Y=\sum_{i=1}^n X_i$، چند جمله ای است. به طور معمول، این می توانست آسان باشد، اما متأسفانه توزیع مشترک در اینجا من را کمی پرت می کند. این جایی است که من قدردان کمک هستم. پیشاپیش از شما متشکرم.
توزیع شرطی متغیرهای پواسون، با توجه به $\sum X_i$
61948
هندسه اطلاعات برای رگرسیون ریج
87217
من با نرم افزار R (Lib e1071) کار می کنم و سعی می کنم با استفاده از رگرسیون پشتیبان بردار پیش بینی ها را بدست بیاورم. روشی که من این کار را انجام می دهم به شرح زیر است: من در حال پنجره سازی قیمت های بسته شدن خام با استفاده از N=3 بازدهی هستم: s[t-3] s[t-2] s[t-1] -> s[t] 1.2350 1.2358 1.2354 1.2360 . . . . . . . . و غیره... مقداری که می خواهم پیش بینی کنم y=s[t] است. نوع SVM رگرسیون eps و هسته شعاعی است. همچنین، من یک اعتبارسنجی متقاطع 10 برابری انجام می‌دهم تا بهترین پارامترها، گاما و هزینه را دریافت کنم. اما من یک مشکل دارم: پیش بینی همیشه مقدار بسیار نزدیکی از آخرین مقدار s[k-1] است، به عنوان مثال: آخرین بردار: s[t-3] s[t-2] s[t-1] - > s[t] 1.2350 1.2358 1.2354 1.2355 مقادیر پیش بینی شده مقادیر بسیار نزدیک به آخرین مقادیر خواهند بود مقدار s[t-1]. من سعی کردم تعداد بردارهای آموخته شده را افزایش دهم (10K) و بازده N را افزایش دهم (تا 7)، اما نتایج یکسان است. آیا کسی می تواند به من بگوید چرا این اتفاق می افتد و چگونه می توانم پیش بینی های واقعی داشته باشم؟
پیش بینی سری زمانی مالی / رگرسیون SV
87216
من کاملاً مبتدی در آمار هستم. و من می خواهم بدانم کدام روش آماری برای سناریوی زیر قابل استفاده است. من یک دسته جملات استخراج شده از یک سند متنی دارم. هر جمله دارای یک عدد صحیح خاص است، مثلاً X که از 1 تا 5 متغیر است. هر جمله همچنین دارای مقدار لگاریتمی دیگری Y است که می تواند مثبت یا منفی باشد. رابطه ای (نسبت مستقیم یا معکوس) بین X و Y وجود ندارد. من می خواهم در نگاشت هر مقدار Y به یک مقدار X خاص با استفاده از آن دسته از عبارات تصمیم بگیرم. به عنوان مثال فرض کنید 12 جمله با مقادیر X و Y به شرح زیر دارم: X | Y جمله 1 : 1 | 0.00 جمله 2 : 1 | 1.05 جمله 3 : 2 | 0.00 جمله 4 : 3 | 12.0 جمله 5 : 5 | 2.0 جمله 6 : 4 | -1.0 جمله 7 : 5 | -9.0 جمله 8 : 2 | 0.0 جمله 9 : 3 | 15.0 جمله 10 : 1 | 0.0 سپس می‌خواهم تصمیم بگیرم که چه محدوده‌هایی از Y برای مقادیر 1،2،3،4،5 X مناسب است. حدس می‌زنم برخی از اشکال رگرسیون گزینه مناسبی در اینجا باشد. اما مطمئن نیستم که روش دقیق در اینجا قابل اجرا باشد.
روش آماری برای نگاشت مجموعه ای از مقادیر به دیگری
84094
من فقط چند نمونه از شبکه ASIA Bayesian با استفاده از BNToolbox ترسیم کردم. اکنون باید استقلال شرطی بین دو متغیر تصادفی دلخواه را با توجه به متغیر سوم آزمایش کنم، اما هیچ راهنمایی برای انجام آن با توجه به نمونه‌های موجود وجود ندارد. متوجه شدم یک تابع در BNToolbox به نام cond_indep_fisher_z وجود دارد که وظیفه مورد نظر من را انجام می دهد. اجرای آن وجود دارد. ممنون می شوم نحوه استفاده از آن را به من نشان دهید. من فقط پنج متغیر تصادفی و 1000 نمونه در دست دارم. تابع [CI, r, p] = cond_indep_fisher_z(X, Y, S, C, N, alpha) % COND_INDEP_FISHER_Z اگر X indep Y Z را با استفاده از آزمون Z فیشر داده شده است آزمایش کنید. % CI = cond_indep_fisher_z(X, Y, S, C, N، آلفا) % % C ماتریس کوواریانس (یا همبستگی) % N نمونه است اندازه % آلفا سطح معنی‌داری است (پیش‌فرض: 0.05) % % رجوع کنید به صفحه 133 T. Anderson، An Intro. to Multivariate Statistical Analysis، 1984 if nargin < 6, alpha = 0.05; پایان r = partial_corr_coef (C, X, Y, S); z = 0.5*log( (1+r)/(1-r)); z0 = 0; W = sqrt(N - طول(S) - 3)*(z-z0); % W ~ N(0,1) cutoff = norminv(1 - 0.5*alpha); % P(|W| <= cutoff) = 0.95 %cutoff = mynorminv(1 - 0.5*alpha); % P(|W| <= برش) = 0.95 اگر abs(W) <قطع CI = 1; else % فرضیه صفر را رد می کند که rho = 0 CI = 0. انتهای p = normcdf(W);
آیا کسی می تواند پیاده سازی و کاربرد cond_indep_fisher_z.m را در جعبه ابزار بیزی توضیح دهد؟
82783
سری های زمانی زیادی وجود دارد که مشخصا ثابت نیستند (منظورم این است که در تعریف) برخی از آنها حتی قطعی هستند، با این حال تست های ریشه وحدت مانند تست ADF/PP و غیره با خوشحالی وجود ریشه وحدت را در این فرآیندها رد می کنند. . بنابراین سوال من این است که از چه نوع روش هایی برای تعیین اینکه آیا یک فرآیند یک فرآیند واقعاً تصادفی با اطمینان معقول است یا خیر استفاده کردید؟
چگونه تعیین می کنید که آیا یک سری زمانی با اطمینان معقول ثابت است؟
84092
من دو تابع دارم، اولی نتیجه یک مدل خطی تعمیم یافته را برای یک سری مقادیر ('Dose') با توجه به یک سری معین از 'نتیجه' محاسبه می کند: glm.Vdose <- تابع (dvh.matrix, InputDose, outcome ) { Dose<-Vdose(dvh.matrix=dvh.matrix, Dose=InputDose) مدل <- glm(formula=نتیجه ~ دوز، خانواده=دوجمله(link=logit)) P<-summary(model)$coefficients[, Pr(>|z|)][2] بازگشت(P*1e12) } 'Vdose' تابع دیگری است که از برخی ماتریس های ورودی مقدار 'Dose' را استخراج می کند که باید برای مدل سازی استفاده شود. خروجی این تابع مقدار P مدل است. من باید مقدار پارامتر ورودی 'Dose' را تنظیم کنم تا به کمترین مقدار P-value تا حد ممکن دست یابیم و بنابراین تصمیم گرفتم تابعی ایجاد کنم که مقدار 'Dose' را پیدا کند و در نتیجه کمترین مقدار P-value را به دست آورد. توسط `glm.Vdose`. مناسب. (list(Vdose=out$par, P=out$objective*1e-12)) } اکنون می‌خواهم پارامترهای مختلفی را در تابع glm.Vdose نیز معرفی کنم تا بتوانیم یک رویکرد چند متغیری را در ارائه مدل بهینه‌سازی نهایی با توجه به مقدار پارامتر دوز دریافت کنیم. بنابراین من دو تابع را به صورت زیر تغییر دادم: glm.Vdose <- function(dvh.matrix, InputDose, formula) { D<-Vdose(dvh.matrix=dvh.matrix, Dose=InputDose) f <- update.formula(formula , ~ + D) مدل <- glm(formula=f, family=binomial(link=logit)) P<-summary(model)$ضرایب[، Pr(>|z|)][2] بازگشت(P*1e12) } fit.Vdose <- تابع(dvh.matrix، فرمول، start.Vdose=20) {فرمول <- as.formula(formula) out<-nlminb(start=start.Vdose, object=glm.Vdose, dvh.matrix=dvh.matrix, formula=formula) return(list(Vdose=out$par, P=out$objective*1e-12)) } من سعی می کنم مقدار `formula` را پاس کنم به منظور معرفی پارامترهای بیشتری برای نصب. دو تابع اول به درستی اجرا می شوند، دو تابع دوم خطایی را نشان می دهند: خطا در model.frame.default(فرمول = f، drop.unused.levels = TRUE): نوع نامعتبر (بستن) برای متغیر 'D' I don' نمی دانم چگونه می توانم این اشکال را اصلاح کنم. کسی میدونه؟
تغییر دینامیکی پارامتر در یک فرمول در طول بهینه سازی
73184
اگر تابع چگالی را داشته باشم چگونه می توانم یک متغیر تصادفی با اندازه n=2914 ایجاد کنم؟ بنابراین مشکل این است که من چگالی f(x) دارم (تابع به خوبی تعریف شده است) P<-function(a,e) { ( (1/6)*(1^3))-((a/2)*( 1^2)) +(((((a)^2)/2)+e)*1)} D<-function(u,mu,sigma) {dlogis(u,mu,sigma)} K<- تابع(u,a,e) {(((1/2)*(u^2))- (a*u) +(((a^2)/2)+e))} H<-function( u,mu,sigma){ plogis(u,mu,sigma, low.tail = TRUE)} Fprim<- تابع (u,a,e,mu,sigma) (1/P(a,e))*(D(u,mu,sigma))*(K(H(u,mu,sigma),a,e)) Fprim(1,a,e,mu,sigma ) df<- تابع(u) Fprim(u,a,e,mu,sigma) #### پارامتر n,a,e,mu,sigma n<-2914 mu<- -0.42155226 sigma<- 0.60665552 a<- 0.43218138 e<- 0.02149706 فکر می کنم باید معکوس کنم و برای استفاده از مونت کارلو، نمی دانم چگونه انجام دهم؟
ایجاد متغیر تصادفی از تابع چگالی
60095
من مدلی دارم که از آن برای پیش بینی مرگ و میر استفاده می کنم و AUC 0.799 را به من می دهد. کد R که من استفاده می کنم چیزی شبیه به این است: fit <- glm (مرگ ~ سن + جنسیت + ASA + Wndclass، داده = سپسیس، خانواده = دوجمله ای) من AUC خود را با استفاده از ROCR محاسبه می کنم: کتابخانه( ROCR) fit.pred <- predict(fit) sepsis.pred <- prediction(fit.pred, mortality[,1]) sepsis.perf <- performance(sepsis.pred، auc) فراخوانی `sepsis.perf` به من می دهد: یک شی از کلاس performance Slot x.name: [1] None Slot y.name : [1] مساحت زیر منحنی ROC اسلات alpha.name: [1] none اسلات x.values: list() اسلات y.values: [[1]] [1] 0.7990628 اسلات alpha.values: list() تا کنون به این نتیجه رسیده ام که این مدل به عنوان یک طبقه بندی خیلی بد نیست. با این حال، وقتی به ضرایب، به ویژه 95% CI، مدل رگرسیون لجستیک نگاه می‌کنم، نتایج عجیبی دریافت می‌کنم: (Intercept) 8.248484e-03 3.394696e-02 SEXfemale 9.037957e-01 1.325291EUL-407 S. 5.780619e+192 Age 1.026437e+00 1.043482e+00 ASACLAS2-Mild Disturb 1.408200e-220 3.478857e+229 ASACLAS3-Severe Disturb7-69261. 4.367441e+229 ASACLAS4-Life Threat 3.596686e-220 8.876357e+229 ASACLAS5-Moribund 8.561098e-220 2.113924e+230 ASACLASNUL20L 6.747396e+230 ASACLASهیچکدام اختصاص داده شده 1.513924e-219 3.793387e+230 WNDCLAS2-Clean/Cotaminated 9.281083e-01 1.897956e+00WNDCLAS19-219-Contaminated408-01. 1.604651e+00 WNDCLAS4-Dirty/Infected 5.114258e-01 8.718848e-01 چیزی که در اینجا مرا آزار می دهد 95% CI برای کلاس ASA است که مسخره است. با این حال، وقتی آن را از مدل خود خارج می‌کنم، AUC به 0.78 کاهش می‌یابد، و از نظر بالینی، طبقه‌بندی ASA (انجمن بیهوش‌شناسان آمریکا) اغلب برای طبقه‌بندی بیماران در خطر مرگ و میر کم تا بالا در دوره بعد از عمل استفاده می‌شود. بنابراین سوال من این است که با توجه به این نتایج CI 95٪، آیا باید کلاس ASA را حذف کنم؟ اگر نه، چگونه باید کلاس ASA را با توجه به نتایج خود تفسیر کنم؟ با تشکر از کمک!
64535
سوال اکولوژیکی من این است: روند درصد پوشش مرجانی بر اساس جزیره و عمق در سراسر ایالت هاوایی از سال 1999 تا 2012 چیست؟ من سعی می کنم این مجموعه داده سلسله مراتبی را با استفاده از R با 10 ترانسکت در هر عمق، 2 عمق در هر سایت، و سایت تو در تو در جزیره تجزیه و تحلیل کنم. ساختار داده ها: جلوه های ثابت: جزیره: هاوایی، مائوئی، مولوکای، کاهولاو، اوآهو، کائوآی. DepthCat: S = کم عمق، D = عمیق. سال سال: 0-13. پیشنهاد شد که سال ها از این عامل به عنوان متغیر کمکی استفاده کنم. اثرات تصادفی: سایت: 34 سایت در 6 جزیره با 2 عمق در هر سایت. ترانسکت: 10 ترانسکت دائمی در هر عمق. سال: 1999 – 2012 (14 سال) متغیر وابسته: PercentCover در حال حاضر، من از تابع 'lmer' در بسته 'lmerTest' استفاده می کنم و این مدلی است که من ساخته ام. fit1 <- lmer(PercentCover ~ WYear*Island*DepthCat + (1+WYear|Island/Site/DepthCat/Transect) + (1|Year)، data=Benthic) متأسفانه، داده‌ها نقطه‌ای هستند (یعنی داده‌های چندگانه از دست رفته است سال برای تعدادی از سایت‌ها) بنابراین مدل «[1] کوواریانس مجانبی را برمی‌گرداند ماتریس A مثبت نیست!، حتی با استفاده از داده های تبدیل شده arcsin. من هنوز هم می توانم آمار خلاصه را برای به دست آوردن نتایج اجرا کنم، اما با پیام خطا احساس راحتی نمی کنم. شاید ساختار مدل را از نظر سازماندهی عوامل تو در تو درست نکرده باشم، اما تعداد مشاهدات برای هر یک از سطوح در آمار خلاصه درست به نظر می رسد. من تکرارهای مختلف و ساده تری از مدل را امتحان کردم مانند: fit1 <- lmer(PercentCover ~ WYear + Island + DepthCat + (1+WYear|Transect/Site) + (1|Year)، data=Benthic) که کار می کند، اما جواب نمی دهد اطلاعات تعامل را به من بدهید و یک AIC بزرگتر برمی گرداند که نشان می دهد مدل نیز با داده ها مطابقت ندارد. برای مقابله با تمام داده های از دست رفته، من روش دیگری را با استفاده از شیب رگرسیون درصد پوشش در طول زمان به عنوان متغیر وابسته برای هر ترکیب عمق سایت X امتحان کردم. ساختار داده ها: جلوه های ثابت: جزیره: هاوایی، مائوئی، مولوکای، کاهولاو، اوآهو، کائوآی. DepthCat: S = کم عمق، D = عمیق. اثرات تصادفی: سایت: 34 سایت در 6 جزیره با 2 عمق در هر سایت. ترانسکت: 10 ترانسکت دائمی در هر عمق. متغیر وابسته: Trend من از مدل زیر استفاده کردم، اما نتایج خلاصه حتی پس از تبدیل داده ها چندان معنی نداشت. fit1<-lmer(Trend ~ Island*DepthCat + (1| Island/Site/DepthCat/Transect)، data=Benthic) هر پیشنهادی در مورد بهبود رویکرد تحلیلی من قابل قدردانی خواهد بود.
84036
همانطور که در پاسخ user25658 به این سوال بحث شد، وقتی کسی می خواهد $$ \beta = \mathbb{E}(x^Tx)^{-1} \mathbb{E}(x^TY) $$ اما $\mathbb را محاسبه کند {E}(x^Tx)$ معکوس نیست، $\beta$ منحصراً شناسایی نشده است. توصیف همه مقادیر ممکن $\beta$ توسط $$\beta= \mathbb{E}(x^Tx)^g\mathbb{E}(x^Ty)$$ که در آن $\mathbb{E} ارائه می‌شود. (x^Tx)^g$ معکوس تعمیم یافته $\mathbb{E}(x^Tx)$ است. در Hansen, Econometrics, pg 34, part 2.18 (در نسخه امروزی در وب سایت Hansen) نوشته شده است که $x^T\beta = x^T \mathbb{E}(x^Tx)^g\mathbb{E} (x^Ty) $ با این حال منحصر به فرد شناسایی می شود. این نتیجه برای من کاملاً غیر منطقی نیست. من می دانم که این ضرب ماتریس است و این واقعیت که برای هر $x$ ممکن است چندین $\beta(x)$ وجود داشته باشد، مثلا $\beta(x)_1 \neq \beta(x)_2$، اینطور نیست به معنای $x^T\beta(x)_1 \neq x^T\beta(x)_2$ است. با این وجود، من در تلاش برای اثبات این ادعا ناموفق بوده ام. آیا کسی می تواند در این مورد به من کمک کند؟
منحصر به فرد بودن $x'\beta$ حتی زمانی که $\mathbb{E}(x^Tx)$ معکوس نباشد
58230
لطفاً کسی توضیح دهد که چرا درجه آزادی برای یک نمونه تصادفی به جای _n_ _n-1_ است؟ من به دنبال توضیحی هستم که برای یک دانش آموز دبیرستانی به راحتی قابل درک باشد. ![http://www.statsdirect.com/help/image/stat0019_wmf.gif](http://i.stack.imgur.com/xb1sb.gif)
درجات آزادی برای انحراف معیار نمونه
64534
من می خواهم آزمایش کنم که آیا میانگین بین دو نمونه مستقل متفاوت است یا خیر. هر دو نمونه بزرگ هستند، هر کدام حدود 2 میلیون مشاهده، با این حال تقریباً همه مشاهدات صفر هستند. به ویژه در هر نمونه، تنها حدود 10000 مشاهده غیرصفر هستند. این داده ها مقدار پولی را که در یک دوره زمانی معین بین دو گروه از مشتریان خرج شده است، نشان می دهد، مقدار صفر به این معنی است که مشتری هیچ خریدی انجام نداده است. اجرای آزمون t-student یا من ویتنی U هیچ تفاوت آماری معنی داری را بین میانگین ها نشان نمی دهد. من در نظر داشتم همه مشاهدات غیر صفر را کنار بگذارم و آزمایش ها را دوباره اجرا کنم، اما مطمئن نیستم که چگونه نتایج را تفسیر کنم. هر گونه بینش قدردانی خواهد شد.
66015
من سعی می کنم بفهمم آیا تقسیم n-1 در محاسبه انحراف معیار مربوط به درجه آزادی، بی طرفی برآوردگر یا هر دو است. وقتی در مورد توزیع t، chi، f و غیره صحبت می کنیم، می فهمم که درجه آزادی چیست. من همچنین سعی کردم بفهمم درجه آزادی در رابطه با انحراف معیار چیست. من از توضیح دیگری مطلع شدم که مربوط به سوگیری تخمین $\sigma$ است. حالا من گیج شدم: چرا بر $n-1$ تقسیم می کنیم؟ آیا به دلیل درجات آزادی است (و در این مورد، واقعاً به چه معناست؟) یا به این دلیل است که ما می خواهیم یک برآوردگر بی طرف داشته باشیم؟ یا اینکه این دو توضیح به نوعی به هم مرتبط هستند؟ (آیا این طبیعی است که مفهوم DOF اینقدر لغزنده و درک آن دشوار است؟ یا این فقط من هستم؟) \--من موضوع پیشنهادی را خوانده ام و فکر می کنم فقط ظاهراً به سؤال من پاسخ داده است. OP آن موضوع در مورد درجات آزادی سؤال کرد و پاسخ در مورد برآوردگر مغرضانه صحبت کرد. من نمی فهمم آنها چگونه با یکدیگر ارتباط دارند.
انحراف معیار و n-1: درجات آزادی یا بی طرفانه؟
71268
برای پایان نامه خود یک روش روان درمانی برای پرداختن به شایستگی اجتماعی در کودکان پرخاشگر/ گوشه گیر توسعه دادم. من یک نمونه از 10 موضوع (نه تصادفی، اساتید بچه ها را با رفتارشان در کلاس انتخاب می کردند) به دست آوردم که هر کدام را به دو گروه 5 تایی تقسیم کردم (باز هم تصادفی نبود، نتوانستم انتخاب کنم، بچه ها از مدارس مختلف بودند. و من به هیچ وجه نمی‌توانستم انتخاب تصادفی انجام دهم. یکی از گروه‌ها آزمایشی و دیگری کنترل بود. من برای هر یک از فرزندان، والدین و معلمان پرسشنامه ای برای ارزیابی مشکلات اجتماعی قبل از اعمال روش و در پایان اعمال کرده ام. حال سوال من این است: هدف من تعمیم نتایج نیست زیرا این یک مطالعه اکتشافی است، بلکه مقایسه نتایج هر گروه در دو لحظه است. آیا مشکل نمونه برداری و حجم کم نمونه نتیجه ای را به خطر می اندازد یا می توانم آزمایشی انجام دهم؟ آیا می توان از آزمون های پارامتریک استفاده کرد؟ پیشاپیش ممنون
نمونه کوچک غیر تصادفی - چه نتیجه‌گیری می‌توانم داشته باشم؟
18819
در یک برنامه متن کاوی، یک رویکرد ساده استفاده از اکتشافی $tf-idf$ برای ایجاد بردارها به عنوان نمایش های پراکنده فشرده از اسناد است. این برای تنظیمات دسته ای خوب است، جایی که کل پیکره پیشینی شناخته می شود، زیرا $idf$ به کل مجموعه نیاز دارد $$ \mathrm{idf}(t) = \log \frac{|D|}{|\ \{d: t \in d\\}|} $$ که در آن $t$ یک اصطلاح است، $d$ یک سند، $D$ مجموعه سند، و $T$ (نشان داده نشده) فرهنگ لغت است. با این حال معمولا اسناد جدید در طول زمان دریافت می شوند. یکی از گزینه‌ها این است که تا زمانی که تعداد معینی از اسناد جدید دریافت نشده‌اند، از $idf$ موجود استفاده کنید و آن را دوباره محاسبه کنید. با این حال این نسبتاً ناکارآمد به نظر می رسد. آیا کسی طرح به روز رسانی افزایشی را می شناسد که (احتمالاً تقریباً) به مقدار همگرا شود اگر همه داده ها از قبل دیده شوند؟ یا به طور متناوب آیا معیار دیگری وجود دارد که همان مفهوم را نشان می دهد اما می تواند به صورت افزایشی محاسبه شود؟ همچنین یک سوال مرتبط وجود دارد که آیا $idf$ در طول زمان معیار خوبی باقی می ماند یا خیر. از آنجایی که idf مفهوم فراوانی کلمات پیکره را در بر می گیرد، می توان تصور کرد که اسناد قدیمی در مجموعه (مثلاً، مجموعه من شامل بیش از 100 سال مقاله مجله است)، زیرا فرکانس کلمات مختلف در طول زمان تغییر می کند. در این مورد ممکن است واقعا معقول باشد که وقتی اسناد جدید وارد می شوند، اسناد قدیمی را بیرون بیاوریم، در واقع با استفاده از یک پنجره کشویی $idf$. به طور قابل تصور، می‌توان تمام بردارهای $idf$ قبلی را به‌عنوان بردارهای جدید ذخیره کرد، و سپس اگر بخواهیم اسنادی را از مثلاً 1920-1930 بازیابی کنیم، می‌توانیم از $idf$ محاسبه‌شده از اسناد در آن محدوده تاریخ استفاده کنیم. آیا این رویکرد منطقی است؟ ویرایش: یک موضوع جداگانه اما مرتبط در مورد دیکشنری $T$ وجود دارد. با گذشت زمان، اصطلاحات فرهنگ لغت جدیدی وجود خواهند داشت که قبلاً ظاهر نشده بودند، بنابراین $|T|$ باید رشد کند، و از این رو طول بردار $idf$. به نظر می رسد که این مشکلی نخواهد بود، زیرا صفرها را می توان به بردارهای $idf$ قدیمی اضافه کرد.
IDF افزایشی (فرکانس اسناد معکوس)
37590
مقاله F-measure در ویکی پدیا می گوید: > F-measure سنتی یا F-score متعادل (امتیاز F1) هارمونیک > میانگین دقت و یادآوری است: $F_1=2\times\frac{precision \times > recall} {precision+recall}$ چرا به طور خاص از میانگین _هارمونیک_ استفاده می شود و از میانگین حسابی یا میانگین هندسی یا هر نوع دیگری استفاده نمی شود؟ از میانگین ها؟ محاسبه میانگین هارمونیک دقیقاً به چه معناست؟
در محاسبه F-Measure با دقت و یادآوری، چرا از میانگین هارمونیک استفاده می شود؟
37595
من با یک رگرسیون وزنی میانگین مدت اقامت (LOS) که بر حسب روز در مقابل نرخ پذیرش بستری در مجموعه داده ای متشکل از سوابق بستری از 30 بیمارستان اندازه گیری می شود، به یک همکار کمک می کنم. ما وزن را در هر نقطه داده به عنوان خطای استاندارد معکوس LOS بیمار در بیمارستان محاسبه کرده ایم. آیا روش استانداردی برای تخمین وزن خطای معکوس stnd وجود دارد که در آن خطای stnd = 0 باشد؟ در چندین بیمارستان با حجم بیمار کم، LOS برای همه بیماران در طول دوره زمانی تجزیه و تحلیل ما یکسان است، و بنابراین خطای stnd = 0، وزنی برابر با بی نهایت تولید می کند. ما می‌توانیم این نقاط داده را از رگرسیون حذف کنیم (یا به طور کامل از رگرسیون وزنی اجتناب کنیم)، اما در اصل به نظر می‌رسد که باید یک تکنیک پذیرفته‌شده برای محاسبه وزن‌ها در موارد خاص که واریانس = 0 وجود داشته باشد. من هیچ بررسی شانسی نداشته‌ام کتاب های درسی آمار من * * * از راهنمایی شما متشکرم، مایکل و وبر. بیشتر مجموع مجموع خطاهای مربعات را می توان به خطای اندازه گیری در مورد من نسبت داد که من یک رگرسیون حداقل مربعات بدون وزن ساده را اجرا می کنم (RSS=44.5، ESS=168.9، TSS=213.4). بنابراین اگر بخواهم طرح وزنی خودم را بسازم ممکن است مستلزم آن باشد، در یک افراطی اگر واریانس=0 وزن = # obs در آن بیمارستان، و در نهایت، اگر واریانس=بی نهایت، وزن=0 باشد. شاید یک فرمول مفید می تواند وزن_i = N_i/(N_i^CV_i) باشد، که در آن وزن_i = وزن برای بیمارستان i، N_i = # obs برای بیمارستان i، و CV_i = ضریب تغییرات LOS مشاهده شده برای بیمارستان i؟ ![ALOS vs. Admit Rate](http://i.stack.imgur.com/N0yKb.png)
محاسبه وزن به عنوان 1/(خطای stnd) برای رگرسیون وزنی اگر خطای stnd = 0 باشد
18816
من در حال تجزیه و تحلیل داده های تقاضای ساعتی برای برق هستم. برای اینکه پیش‌بینی‌هایم دقیق‌تر شود، چگونه باید با تعطیلات ملی در داده‌ها رفتار کنم؟ به طور خاص، چگونه باید با آنها در R رفتار کنم؟
هنگام کار با داده های سری زمانی چگونه با تعطیلات رفتار کنیم؟
18815
من تازه وارد یادگیری ماشین هستم. در حال حاضر من از یک طبقه‌بندی کننده Naive Bayes (NB) برای طبقه‌بندی متون کوچک در 3 کلاس به عنوان مثبت، منفی یا خنثی با استفاده از NLTK و python استفاده می‌کنم. پس از انجام برخی آزمایش‌ها، با مجموعه داده‌ای متشکل از 300000 نمونه (16924 مثبت 7477 منفی و 275599 خنثی) دریافتم که وقتی تعداد ویژگی‌ها را افزایش می‌دهم، دقت کاهش می‌یابد اما دقت/یادآوری کلاس‌های مثبت و منفی بالا می‌رود. آیا این یک رفتار عادی برای یک طبقه بندی کننده NB است؟ آیا می توانیم بگوییم که بهتر است از امکانات بیشتری استفاده کنیم؟ برخی از داده ها: ویژگی ها: 50 دقت: 0.88199 F_Measure Class Neutral 0.938299 F_Measure Class Positive 0.195742 F_Measure Class Negative 0.065596 ویژگی ها: 500 دقت: 0.82Measure Class: 0.82Measure 0.195742 0.904684 F_Measure Class Positive 0.223353 F_Measure Class Negative 0.134942 پیشاپیش متشکرم... **ویرایش 2011/11/26** من 3 استراتژی مختلف انتخاب ویژگی (MAXFREQ، FREQENT، FREQENT، Class Bayer، MAXINFOive) را آزمایش کرده ام. ابتدا دقت، و اندازه‌های F1 در هر کلاس آمده است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/VVFgg.png) سپس خطای قطار و خطای تست را با یک آموزش افزایشی رسم کردم. تنظیم کنید، هنگام استفاده از MAXINFOGAIN با 100 ویژگی برتر و 1000 ویژگی برتر: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/Nto1W.png) بنابراین، به نظر من این است که **اگرچه بالاترین دقت با FREQENT به دست می آید، بهترین طبقه بندی کننده طبقه بندی کننده ای است که از MAXINFOGAIN استفاده می کند، آیا درست است* *؟ هنگام استفاده از 100 ویژگی برتر، سوگیری داریم (خطای تست نزدیک به خطای آموزش است) و افزودن نمونه های آموزشی بیشتر کمکی نخواهد کرد. برای بهبود این امر به ویژگی های بیشتری نیاز داریم. با 1000 ویژگی، سوگیری کاهش می یابد اما خطا افزایش می یابد... آیا این مشکلی ندارد؟ آیا باید ویژگی های بیشتری اضافه کنم؟ من واقعا نمی دانم چگونه این را تفسیر کنم ... بازم ممنون ...
افزایش تعداد ویژگی ها منجر به کاهش دقت، اما افزایش prec/recall می شود
37596
هنگام آزمایش همبستگی بین xy و xz، شما همچنین باید yz را در فرمول به اضافه حجم نمونه بگنجانید. خوب اگر این متغیرها مواردی هستند که در پرسشنامه ای پرسیده می شوند که فقط برخی از شرکت کنندگان در نمونه به آن پاسخ دادند، از چه حجم نمونه استفاده می کنید، بنابراین برای هر همبستگی N متفاوتی وجود دارد؟
آزمون اهمیت تفاوت بین همبستگی های وابسته
81479
اساساً من چندین گزینه طراحی با 22 متغیر با گزینه 0-1 دارم. برای هر طرح یک خروجی دارم که یک عدد واقعی است. بنابراین... من می خواهم راهی برای بیان تا حد امکان واضح اثر همه متغیرها در خروجی بدانم و بیان کند که هر یک از طراحی ها چقدر خوب عمل کرده اند. پیشنهادی دارید؟ توضیح: من (به طور بالقوه) 2^22 طرح احتمالی دارم درست است؟ و من نمی دانم متغیرها چگونه با هم ارتباط دارند. بنابراین برای به دست آوردن یک ایده کلی اولیه، می‌خواهم نتایج را به صورت گرافیکی به گونه‌ای نمایش دهم که اطلاعات مربوط به هر طرح را به طور کلی جمع‌آوری کند. در حال حاضر من فقط 22 نوار را نشان می دهم که تغییرات متغیر وابسته را نشان می دهد وقتی که هر متغیر را تغییر دهید و بقیه را در یک پیکربندی اسمی ثابت نگه دارید. با این حال، این باعث می‌شود اطلاعاتی در مورد نقش متغیرهای متقابل در حال تغییر در این فرآیند از دست بدهم، می‌دانم که این سؤال به‌طور عجیبی باز است، و من فقط به دنبال پیشنهادهایی بودم که افراد با تجربه‌تر در این زمینه ممکن است داشته باشند.
پیشنهادهایی در مورد نحوه تجسم برخی از داده ها
81478
ضریب روایی معیار مهمی برای توسعه آزمون به ویژه در روانشناسی و جامعه شناسی است که در آن اندازه گیری های بیش از حد غیر مستقیم داریم. شاید راه های مختلفی برای دانستن اندازه آن داشته باشیم.
آیا می توان از CFA (تحلیل عامل تاییدی) برای تعیین ضریب روایی استفاده کرد؟
7128
### مطالعه: من برخی از مواد سطوح را در سطح صوتی و لمسی شبیه‌سازی کردم و از آزمودنی‌ها خواستم در مقیاس لیکرت 9 درجه‌ای میزان انسجام بین دو محرک را ارزیابی کنند. برای مثال محرک هایی با فلز در سطح شنوایی و برف در سطح لمسی یا چوب در سطح شنوایی و لمسی وجود دارد. بنابراین مانند آزمایش درجه بندی عدم تشابه است. این آزمایش تنها 12 شرکت‌کننده داشت، بنابراین برای هر محرک 12 پاسخ دارم (بدون اندازه‌گیری مکرر). ### سوال: چگونه آزمایش زیر را تجزیه و تحلیل کنم؟ ### افکار اولیه: تا کنون تنها راهی که فکر می کنم استفاده کنم ANOVA است. ### به روز رسانی سلام دوباره، من از دستور cmdscale در R استفاده کردم، اما نقشه ادراکی را که دوست داشتم ببینم، دریافت نکردم. من به عنوان کمک شما! شاید مشکل این است که من اشتباه متوجه شدم که آیا میز من برای هدف تجزیه و تحلیل خوب ساخته شده است. بیایید آزمایش، اهداف و مسئله‌ام را خلاصه کنیم: من برخی از مواد سطوح را در سطح صوتی و لمسی شبیه‌سازی کردم و از آزمودنی‌ها خواستم تا در مقیاس لیکرت 9 درجه‌ای میزان انسجام بین دو محرک را ارزیابی کنند. برای مثال آزمایشاتی وجود دارد که در سطح شنوایی یک سطح فلزی و در سطح لمسی سطح برف، یا چوب در هر دو سطح شنوایی و لمسی شبیه سازی شده است. آزمایش فقط 12 شرکت‌کننده داشت، بنابراین برای هر کارآزمایی 12 پاسخ دارم (بدون اندازه‌گیری مکرر). در مجموع 36 کارآزمایی وجود داشت و هر کارآزمایی تنها یک بار توسط هر یک از 12 شرکت‌کننده ارزیابی شد. بنابراین، هر آزمودنی 36 رتبه بندی در مقیاس لیکرت 9 درجه ای ارائه کرد که برای هر کارآزمایی یک رتبه بندی انجام شد. اساساً اینها داده‌های من هستند: WD MT SW GR SN DL WD 7.00 6.50 4.91 4.83 5.50 5.00 MT 7.33 6.91 2.08 3.16 4.25 3.25 SW 2.91 1.76 1.76 5.25 GR 2.91 2.66 6.25 6.41 7.25 6.75 SN 4.00 4.00 5.58 6.00 7.00 6.58 DL 3.91 3.08 5.16 6.25 6.50 6.50 SN 4.00 4.00. در هر سلول میانگین امتیاز برای هر کارآزمایی وجود دارد (به عنوان مثال، آزمایش GR-MT 2.66 است، که میانگین امتیاز داده شده توسط شرکت کنندگان به کارآزمایی است که در آن ماده شن در سطح لمسی ارائه شده است و ماده فلز سطح شنوایی ارائه شده است). اکنون می‌خواهم داده‌ها را به روش‌های صحیح تجزیه و تحلیل کنم و همانطور که گفته شد MDS بهترین تجزیه و تحلیل به جای ANOVA است که فکر می‌کردم. اولین هدف من چاپ یک نقشه ادراکی است که در آن جفت محرک های صوتی- شنوایی (مانند WD-WD، MT-DL، و غیره) را قرار دهم و ببینم آزمایش ها چقدر از یکدیگر فاصله دارند. من از cmdscale در R استفاده کردم اما به نتیجه مطلوب نرسیدم. هر پیشنهادی؟ هدف دوم من پیدا کردن مقادیر p است که معمولاً با ANOVA دریافت می کنم. برای مثال، من می‌خواهم بدانم که آیا داشتن دو محرک منسجم SW-SW (که به معنای «برف» در سطح صوتی و لمسی است) تفاوت‌های قابل‌توجهی در ارزیابی‌ها ایجاد می‌کند تا زوج SW-MT (به معنای «برف» در صوتی و فلز در سطح لمسی) باز هم می خواهم بفهمم که آیا تفاوت آماری بین همه زوج های محرک مربوط به سطوح جامد (مانند زوج‌های MT-MT، MT-WD، WD-WD، MT-MT) و تمام زوج‌هایی که سطح جامد و سطح سنگدانه‌ای ارائه می‌شوند (مانند زوج‌های MT-SN، یا WD-GR و غیره). ... من می خواهم تا حد امکان از آن جدول اطلاعات کسب کنم. من واقعا از هر کسی که می تواند هر گونه پیشنهاد یا اطلاعات مفیدی ارائه دهد تشکر می کنم.
آزمایش رتبه بندی عدم تشابه: نحوه تجزیه و تحلیل نتایج
7129
هنگام ارائه داده ها با استفاده از درصد، آیا داشتن ارقام اعشاری، مثلاً 2 رقم اعشار به جای گرد کردن به اعداد کامل، چیز خوبی است. به عنوان مثال، به جای 23.43٪، شما به 23٪ کامل می کنید، من به این موضوع از این منظر نگاه می کنم که آیا دقت 2 رقم اعشار تفاوت زیادی ایجاد می کند زیرا ما با درصد سروکار داریم و نه ارزش داده خام.
آیا درصدها باید دارای اعشار باشند؟
37625
وقتی از هیستوگرام برای رسم داده‌هایم در Stata استفاده می‌کنم، تقریباً همه متغیرها حول یک مقدار جمع می‌شوند، _یعنی_ اینها در 0 یا 1 هستند (یک نوار بزرگ در یک یا 0). چه چیزی را نشان می دهد و چگونه باید آن را اصلاح کنم؟ من روی پانل دیتا کار می کنم.
آمار توصیفی برای داده های غیر عادی
37626
من سعی می کنم توزیع نام خانوادگی را به صورت بصری در ایالات متحده نشان دهم. به طور خاص، من سعی می‌کنم نشان دهم که توزیع به گونه‌ای است که رایج‌ترین نام‌ها (مثلاً 50 مورد برتر) بسیار رایج هستند، اما پس از آن به سرعت از بین می‌رود. نتیجه‌ای که امیدوارم از آن حمایت کنم این است که تمایز بین نام‌های رایج و کمتر رایج در میان نام‌هایی که در X بالا نیستند چندان معنی‌دار نیست، زیرا همه آنها بخش بسیار کوچکی از جمعیت هستند. من فراوانی مشاهده شده همه نام‌های خانوادگی بیش از 100 بار در سرشماری سال 2000 را دارم. ## داده‌های سرشماری ایالات متحده، استخراج و میزبانی مجدد CSV ## http://www.census.gov/genealogy/www/data/2000surnames/names.zip names <- read.csv(http://samswift .org/files/app_c.csv) شهود من این بود که فهرست رتبه‌بندی‌شده را بر اساس گروه‌های 50 نفره جمع‌آوری کنم. رایج‌ترین نام‌ها 1-50، 51-100، ... sum50 <- tapply(names$count, (seq_along(names$count)-1) %/% 50, sum) بنابراین ما اکنون مجموع جمعیت افراد با 50 نام برتر را داریم، یک ثانیه 50 نام، و غیره. من یک طرح شبیه به این تصویر می کردم ! ضریب مرتب شده سطل ها (1-50، 51-100 ..) و محور y جمع جمعیت در آن سطل است. من فکر می کنم مهم است که عرض میله ها با متغیر y نیز مقیاس شوند تا مساحت مربع جرم جمعیت را منتقل کند. بنابراین، واقعاً سؤال دو قسمتی (اگرچه من فکر می‌کنم بد نیست) 1. چگونه می‌توانم این نمودار را در R با داده‌های ارائه شده ایجاد کنم. من به طور کلی از ggplot2 استفاده می کنم، اما به آن علاقه ندارم. من سعی کردم از geom_bar استفاده کنم و عرض را تنظیم کنم، اما نتوانستم چیزی حتی کمی کاربردی ایجاد کنم. 2. آیا فکر بهتری در مورد چگونگی تجسم ادعایی که من می‌کنم دارید یا کاملاً با ادعایی مخالف هستید؟
تجسم توزیع فرکانس binned در R
37624
من کارم را از آمار پزشکی به آمار زیست شناسی (شیلات) تبدیل می کنم. من نمی دانم که آیا تفاوت زیادی در روش یا تمرکز بین این دو زمینه وجود دارد؟ در زمینه پزشکی، ما کارآزمایی‌های بالینی یا مطالعات کوهورت بیماران زیادی را انجام می‌دهیم و سعی می‌کنیم با استفاده از انواع مختلف آزمون‌های معناداری و رگرسیون، ارتباط‌هایی را پیدا کنیم. در مورد زیست شناسی، کنترل بسیار محدودی بر روش نمونه گیری وجود دارد. من احساس می کنم که تمرکز اصلی آمارگیر یافتن بهترین راه برای نمونه برداری از داده ها است. از آنجایی که من واقعاً در این زمینه تازه کار هستم، آیا کسی می تواند در مورد تمرکز اصلی، روش های رایج در آمار زیست شناسی به من ایده بدهد؟ آیا واقعا با آمار پزشکی تفاوت دارد؟ آیا کتاب خوبی برای توصیه دارید؟ با تشکر
بزرگترین تفاوت بین آمار پزشکی و آمار بیولوژیکی
37623
من با فرمولی که در تصویر زیر نشان داده شده است روبرو هستم که فقط آن را درک نمی کنم، تا حدی به این دلیل که در آمارها هیچ دلیلی ندارم، و تا حدی به این دلیل که حتی نماد را درک نمی کنم: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/qrITP.png) اینجا چه خبر است؟ آیا در خط اول نحوه محاسبه VaR و سپس در خط دوم نحوه محاسبه نوسانات سالانه از برخی از متغیرهای مورد استفاده در محاسبه اول نشان داده شده است؟ من حتی قسمت T فواصل زمانی 1/m سال را هم نمی فهمم. mth یک سال چیست؟ و (sigma) 1/m به چه معناست؟ آیا این نوسان برای دوره زمانی _one_ است؟ اگر چنین است، آیا نیازی نیست که مقادیر را برای تمام دوره های زمانی گسسته به نحوی جمع آوری کنیم؟ من انتظار دارم مجموع از 1 تا m را در جایی ببینم ... من کاملاً گیج شده ام و هر کمکی با سپاس فراوان دریافت خواهد شد.
این فرمول (برای استخراج نوسانات سالانه برای VaR) به چه معناست؟
52187
اگر رگرسیون خطی را روی داده ای اعمال کنیم که دارای متغیر وابسته BINARY(0,1) است، فرض بسیار مهم واریانس ثابت متغیر وابسته در بین متغیرهای مستقل نقض می شود. کسی میتونه توضیح بده چطوری؟
590
در برخی از مقالات، به عنوان مثال در چگالی هندسی با پارامتر مکان نامشخص توسط کلوتز، یک توزیع هندسی، چگالی هندسی نامیده می شود. برای من، این ادعا اشتباه به نظر می رسد، با این حال کلوتز یک آماردان جدی و یک استاد در این زمینه است. سوال من این است که تا چه حد می توان یک توزیع هندسی را چگالی هندسی نامید؟
تا چه حد می توانیم یک توزیع هندسی را چگالی هندسی بنامیم
594
رویه E-M، برای افراد ناآشنا، کم و بیش به عنوان جادوی سیاه به نظر می رسد. تخمین پارامترهای یک HMM (به عنوان مثال) با استفاده از داده های نظارت شده. سپس داده‌های بدون برچسب را رمزگشایی کنید، با استفاده از رو به عقب برای «شمارش» رویدادها به گونه‌ای که گویی داده‌ها، کم و بیش برچسب‌گذاری شده‌اند. چرا این مدل را بهتر می کند؟ من چیزی در مورد ریاضی می دانم، اما همیشه آرزو می کنم که نوعی تصویر ذهنی از آن داشته باشم.
E-M، آیا توضیح شهودی وجود دارد؟
83015
اگر مجموعه‌ای از $n$ تاپل ($b_1،b_2،b_3،b_4،x،y،z$) داشته باشم، که در آن $b_1، b_2، b_3$ و $b_4$ شمارنده‌هایی هستند که توسط $P_1، P_2، P_3 حکومت می‌شوند. توزیع‌های پواسون $ و $P_4$ (خطا در شمارنده‌ها $\sqrt{b_1}$ و غیره است) و $x، y$ و $z$ توسط توزیع‌های با ارزش واقعی اداره می‌شوند. از میان آن، من زیرمجموعه ای از تاپل های $m$ را با توجه به شرایطی در $x,y$ و $z$ انتخاب می کنم، به عنوان مثال. $x > P_I$. این زیرمجموعه مقادیر خاصی $b_1'، b_2'، b_3'$ و $b_4'$ برای شمارنده‌ها خواهد داشت. اگر به عنوان مثال من $b_1'\div b_1$ را محاسبه می کنم، خطای آن نسبت چیست؟
انتشار خطا در نمونه های همبسته پواسون
50116
من دو سوال دارم: 1) حداکثر و حداقل مقدار ممکن $R^{2}$ برای برازش یک خط مستقیم چیست؟ و 2) تمام موارد ممکن را فهرست کنید به طوری که $R^{2}$ به حداکثر/دقیقه دست یابد. می دانم $0\leq R^{2}\leq 1$. بنابراین max = 1 و min = 0. اما چگونه می توانم همه موارد ممکن را پیدا کنم که باعث می شود $R^{2}$ به حداکثر یا حداقل برسد؟ با تشکر
50110
من یک مقیاس لیکرت 5 امتیازی و یک اندازه گیری زمان در اینترنت دارم به عنوان مثال. 1= کمتر از 10 دقیقه، 2=10-30 و غیره و همچنین تعداد مخاطبین SNS (1=10-30 و غیره). من می خواهم همبستگی آنها را تخمین بزنم، اما فکر نمی کنم بتوانم مستقیماً این کار را انجام دهم. من یک میانگین نمره برای پاسخ های لیکرت محاسبه کردم اما در مورد دو معیار دیگر چطور؟
53274
ترکیبی از دو زنجیره مارکوف زمان پیوسته مستقل