_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
87668
این واقعا یک سوال دو قسمتی است. از من خواسته شد تا توافق بین ارزیابی‌کننده‌ها را در مطالعه‌ای که در آن از 4 ارزیاب خواسته شد تا ریزآرایه‌ها را از نمونه‌های بیمار رتبه‌بندی کنند، ارزیابی کنم. رتبه بندی بر اساس مقیاس ترتیبی 5 امتیازی (0-4) بود. من تجربه تجزیه و تحلیل توافق رتبه‌دهنده برای 2 رتبه‌دهنده را دارم، اما نه برای چند رتبه‌دهنده، بنابراین می‌خواهم بینشی در مورد بهترین راه برای انجام آن داشته باشم. من تحقیقاتی انجام داده‌ام و دو ماکرو SAS را پیدا کرده‌ام که می‌توانند برای توافق چند رتبه‌بندی (MKAPPA و MAGREE) استفاده شوند. آیا استفاده از یکی از این روش ها بهترین رویکرد خواهد بود؟ برای اینکه این مشکل کمی پیچیده‌تر شود، هر نمونه 3 بار توسط هر یک از 4 ارزیاب رتبه‌بندی شد (مطالعاتی که خطوط سلولی را ارزیابی می‌کنند اغلب شامل انجام کارها در سه تکرار است). چگونه آن را حساب می کنید؟ آیا شما هر نمونه را مستقل می بینید؟ من مطمئن نیستم که آیا این بهترین رویکرد است یا خیر، زیرا آنها می خواهند همه 12 رتبه بندی را برای یک نمونه مقایسه کنند. آیا در عوض در نظر می گیرید که در واقع 12 ارزیاب برای هر نمونه وجود دارد زیرا هر یک از 4 ارزیاب هر نمونه را 3 بار رتبه بندی کرده اند؟ من از هر کمکی برای مقابله با این مشکل سپاسگزارم. اگر چیزی در اینجا واضح نیست، لطفاً به من اطلاع دهید. با تشکر
قابلیت اطمینان بین ارزیاب: چند رتبه‌دهنده و چند تکرار
52104
فرض کنید یک متغیر وابسته $Y$ با چند دسته و مجموعه ای از متغیرهای مستقل داریم. مزایای رگرسیون لجستیک چند جمله ای نسبت به مجموعه رگرسیون های لجستیک باینری چیست؟ منظور من از مجموعه رگرسیون لجستیک باینری این است که برای هر دسته $y_{i} \در Y$ مدل رگرسیون لجستیک باینری جداگانه با target=1 می‌سازیم که در غیر این صورت $Y=y_{i}$ و 0 باشد.
رگرسیون لجستیک چند جمله ای در مقابل رگرسیون لجستیک باینری
91074
من از مدل‌های ترکیبی خطی برای شناسایی عوامل مهم استفاده می‌کنم، و معلوم می‌شود که: * `A`: معنی‌دار * `B`: معنی‌دار نیست *`A`×`B`: معنی‌دار آیا به این معنی است که چون A`× B نشان می دهد که تأثیر A به تأثیر B بستگی دارد، فقط تأثیر A واقعاً معنی دار نیست؟ من منابع زیادی را خوانده‌ام، و به نظر می‌رسد که آنها پیشنهاد می‌کنند که اگر تأثیر «A»× «B» معنی‌دار باشد، نمی‌توانیم تأثیر «A» را بر متغیر وابسته‌مان معنا کنیم. درست می فهمم؟
اثر اصلی غیر قابل توجه خواهد بود اگر تعامل معنی دار باشد؟
99996
فرض کنید زمان انتظار (ثانیه) کاربران در صفحات وب دارم. زمان انتظار صفحه userid 1 p1 10 1 p2 20 1 p3 5 2 p1 2 2 p3 5 3 p1 10 3 p5 2 3 p6 5 من باید کاربران را بر اساس زمان انتظار در هر صفحه مقایسه کنم. برای محاسبه شباهت بین کاربران بر اساس زمان انتظار از چه معیاری می توانم استفاده کنم؟
شباهت زمان انتظار کاربران را محاسبه کنید
60016
من نمی دانم آیا راه آسانی برای محاسبه کوواریانس بین پارامترها در WinBUGS/OpenBUGS وجود دارد. به دست آوردن واریانس ها آسان است، اما برای تجزیه و تحلیل بعدی، من به کوواریانس ها نیاز دارم. مثال سالم را در نظر بگیرید: model { for( i in 1 : doses ) { for( j in 1 : plates ) { y[i, j] ~ dpois(mu[i، j]) log(mu[i، j]) <- آلفا + بتا * log(x[i] + 10) + گاما * x[i] + لامبدا[i، j] lambda[i، j] ~ dnorm(0.0، tau) تجمعی.y[i، j] <- تجمعی(y[i، j]، y[i، j]) } } آلفا ~ dnorm(0.0،1.0E- 6) بتا ~ dnorm (0.0،1.0E-6) گاما ~ dnorm(0.0،1.0E-6) tau ~ dgamma(0.001، 0.001) sigma <- 1 / sqrt(tau) } چگونه کوواریانس بین آلفا و بتا را بدست می آورید؟ متناوبا، آیا به هر حال می توان 1000 تکرار آخر را ذخیره کرد و سپس واریانس های خارج را به صورت دستی محاسبه کرد؟
چگونه می توانم کوواریانس بین پارامترها را در WinBUGS محاسبه کنم؟
113145
من سعی می کنم پارامترها و متغیرهای پنهان را در یک مدل تقسیم پواسون تخمین بزنم که تعداد قابل مشاهده و غیر قابل مشاهده را در زمان با فرض احتمال تقسیم $\pi$ توصیف می کند. یک رویداد قابل مشاهده در زمان به عنوان $O_t$ نشان داده می شود در حالی که یک رویداد غیرقابل مشاهده به عنوان $U_t$ نشان داده می شود. فرض می‌شود که توزیع‌های $O_{t+1}$ و $U_{t+1}$ از توزیع شرطی پیروی می‌کنند: $O_{t+1}|O_{t},U_{t}$ ~ Poisson$[ \pi(\mu_{t}O_{t}+\mu U_{t})]$U_{t+1}|O_{t}،U_{t}$ ~ Poisson$[(1-\pi)(\mu_{t}O_{t}+\mu U_{t})]$\mu$ و $\mu_r$ نرخ‌های خاصی هستند که در آن $\mu_{t} = \mu$ if $t \le C$ و $\mu_t = \mu_r$ اگر $t \gt C$; $t=1،2،\ldots،C-1، C، C+1، \ldots،N$. داده ها برای همه $O_t$ موجود است. هر متغیر پنهان $U_t$ باید با استفاده از رابطه بالا و با فرض اینکه $U_{t} = 0$ به روز شود. تخمین پارامترهای $\pi$، $\mu$، $\mu_r$ و متغیرهای پنهان $U_{t}$ برای همه $t$ مورد نظر است. روش بیزی برای انجام این تخمین ها انتخاب شده است و کد من در زیر آورده شده است: کتابخانه (R2jags) # داده های قابل مشاهده نمونه برای 30 نقطه زمانی o <- c(1, 1, 2, 11, 15, 30, 60, 46, 60 ، 54، 51، 44، 27، 20، 16، 10، 7، 7، 4، 4، 6، 10، 8، 10، 2، 4، 4، 1، 0، 0) # تنظیم ورودی برای تابع مدل jags oo <- data.frame(o) datain <- as.list(oo) datain$ n <- nrow(oo) datain$C <- C model <- function() { u[1] <- 0 #آوردن داده از طریق حلقه و توجه به شرایط نرخ برای (i در 2:C) { o[i]~dpois(pi*(mu*o[i-1]+mu*u[i-1])) } برای (i در (C+1):n ){ o[i]~dpois(pi*(mur*o[i-1]+mu*u[i-1])) } pi~dunif(0,1) # تنظیم پیشینهای غیر اطلاعاتی mu ~ dunif(0,10) mur ~ dunif(0,1) for(j در 2:C){ # پیشین های متغیر پنهان از طریق رابطه شرطی u[j]~dpois((1-pi)*( به روز می شوند mu*o[j-1]+mu*u[j-1])) } for(j در (C+1):n){ u[j]~dpois((1-pi)*(mur*o[j-1]+mu*u[j-1])) } } پارامترها <- c('pi','mu','mur ','u[10]','u[15]'،'u[20]') # معمولاً برای همه متغیرهای پنهان توزیع را بدست می آوریم اما فقط تصمیم می گیریم این سه متغیر را انتخاب کنیم. jagsfit <- jags(datain, model=model,parameters=parameters, n.chains=2,n.iter=5000000,n.burnin=100000,n.thin=5000) jagsfit mu.vect sd.vect 2.5% 25% 50% 75% u[10] 1.402007e+04 2037.291 1.103313e+04 1.213150e+04 1.397350e+04 1.561675e+04 u[15] 1.251555e+01.251555e+01.213150e+01. 1.132489e+06 1.251471e+06 1.352963e+06 u[20] 1.136881e+08 7039334.938 1.028741e+08 1.072936e+30841. 1.191725e+08 mu 2.466000e+00 0.021 2.431000e+00 2.449000e+00 2.465000e+00 2.485000e+00 مور 1.8601000-0001.8601000-01. 6.500000e-02 1.470000e-01 2.570000e-01 pi 0.000000e+00 0.000 0.000000e+00 0.000000e+00 0.0000000e+0 1.512097e+04 143.825 1.487507e+04 1.499773e+04 1.510491e+04 1.524422e+04 97.5% Rhat n.eff u[10] 1.79773e+04 u[15] 1.488133e+06 0.997 200 u[20] 1.262587e+08 0.998 200 mu 2.499000e+00 0.997 200 mur 6.220000e-04000000000001+6.220000e. 1.001 200 انحراف 1.534904e+04 0.997 200 داده های مشاهده شده در بالا را با ثابت کردن پارامترها و نوشتن تابع در زیر شبیه سازی کردم: set.seed(123) C =7;mu=2;mur =0.4;pi=0.7 o <- numeric() ; u <- عددی() o[1] <- 1; u[1] <- 0 f <- function(){ for(i در 2:30){ if(i <= C){ o[i] <<- rpois(1,pi*(mu*o[i -1]+mu*u[i-1]) u[i] <<- rpois(1,(1-pi)*(mu*o[i-1]+mu*u[i-1]) ) }دیگر{ o[i] <<- rpois(1,pi*(mur*o[i-1]+mu*u[i-1])) u[i] <<- rpois(1,(1-pi)*(mur*o[i- 1]+mu*u[i-1])) } } return(list(o,u)) } f() در این مورد، غیر قابل مشاهده این است: u <- c(0, 1, 3, 0, 7 , 12, 31، 32، 26، 20، 22، 15، 13، 8، 4، 2، 4، 4، 3، 4، 4، 4، 5، 5، 4، 2، 1، 0، 0، 0) من می خواهم برای بازیابی پارامترها و متغیرهای پنهان، اما نتایجی که به دست آوردم خوب نبود و فکر می‌کردم برخی از موارد را اشتباه مشخص کرده‌ام. توزیع ها کسی میتونه کمک کنه این مشکل رو بررسی کنه؟ با تشکر
تخمین پارامترها و متغیرهای پنهان در توزیع پواسون تقسیم شده با استفاده از R و JAGS
6817
شهود من می گوید که معادله سوم باید طول گرادیان مجذور کمتر از اپسیلون باشد. $x_{k+1} = x_k - f(x_k)$ $x_{k+1} = x_k + 1$ $|f(x_k)|^2 < \epsilon$ با این حال، مطمئن نیستم که آیا فرم استاندارد **شکل استاندارد روش گرادیان و به ویژه قانون پایان آن را چگونه می نویسید؟**
بهینه سازی قانون پایانی روش گرادیان
57086
در افکت ثابت می توانید از گزینه «predict u» برای دیدن جلوه های ثابت استفاده کنید. اما در System GMM در xtabond2 امکان پذیر نیست... کسی می تواند به من کمک کند؟
استخراج جلوه های ثابت در سیستم GMM (xtabond2)، Stata؟
15707
من می توانم تصحیح Sidak مقدار p را در اکسل محاسبه کنم، اما آیا راه سریعی برای انجام آن با دست وجود دارد؟ من به دنبال چیزی شبیه به محاسبه حاشیه خطا با دست هستم، یعنی تقسیم 1 با جذر حجم نمونه.
چگونه تصحیح سیداک را با دست محاسبه کنیم؟
60011
من سعی می کنم شهودی برای تحلیل چند متغیره به دست بیاورم. فکر کردم خوب است که مثلاً، کانتور احتمال 0.95 را برای یک نرمال چند متغیره تجسم کنیم. من به دنبال پیشنهادهایی در مورد روشی کارآمد برای انجام این کار در R هستم. تلاش من این بود که دسته ای از بردارهای $\boldsymbol v=(cos(x), sin(x))'$ برای x با فاصله مساوی در $[ تولید کنم. 0,2\pi]$ و سپس سعی کنید cdf را دستکاری کنید تا بفهمید که $k$ چه ثابتی را ایجاد کرده است. \boldsymbol0$ و $\boldsymbol \Sigma$ دلخواه). نتوانستم این کار را انجام دهم و به این فکر کردم که آیا رویکرد بهتری وجود دارد. من با پکیج R که امتحان کردم شانس زیادی نداشتم - mvtnorm \- مطمئن نیستم منظور آنها از کمیت 'همسانی' چیست؟
چگونه منحنی های سطح یک نرمال چند متغیره را پیدا کنیم؟
95606
یک مدل ساده را در نظر بگیرید: Y = A + B + A*B آیا ممکن است ضریب A*B معنادار باشد در حالی که برای A یا B یا هر دوی آنها ناچیز باشد؟ یا بله یا خیر، می توانید بگویید دلیل آن چیست؟
آیا ممکن است اثر متقابل قابل توجه باشد در حالی که اثر(های) فردی مهم نباشد؟
15703
شاید کسی بتواند به من کمک کند یا حداقل سرنخی به من بدهد. من 1057 بیمار دارم که همگی انواع پروتز دارند. به نظر می رسد یکی از آنها نسبت به بقیه دارای نرخ تجدید نظر بالاتری باشد. تعداد کل: پروتزA 662 پروتزB 162 پروتزC 151 دیگر 82 میزان تجدید نظر: پروتزA 9 1,36% پروتزB 11 6,79% پروتزC 3 1,99% سایر 4 4,88% آیا کسی می تواند به من بگوید که آیا می توانم میزان بازبینی را چگونه انجام دهم از prothesisB (6.79٪) به طور قابل توجهی است در مقایسه با سایر پروتزها (از جمله سایر) بالاتر است یا نه؟ با تشکر و احترام ویرایش: آیا می توان فقط پروتز B را با بقیه به یکباره مقایسه کرد؟ من جدول احتمالی زیر را ایجاد کرده ام: prostB سایر کل Rev 11 16 27 noRev 162 868 1030 173 884 1057 Odds-Ratio = (11*868)/(16*162) = 3.68 p-Value = Can1 (Fisher0) اکنون می گویم که شانس تجدید نظر وجود دارد با پروتز B 3.5 برابر بیشتر از بقیه هستند؟ آیا این قابل قبول است زیرا P-Value آزمون دقیق فیشر بسیار معنی دار است؟
چگونه نشان دهیم که آیا نرخ بالاتری وجود دارد یا خیر؟
107703
آیا فاصله اقلیدسی در مقایسه با روش‌های مبتنی بر فاصله دیگر مانند متریک فاصله منهاتان یا حداکثر اختلاف مزیتی دارد؟
مزیت فاصله اقلیدسی برای طبقه بندی
107707
من باید توزیع Rayleigh را برای یک تکلیف در شبکه های کامپیوتری درک کنم. متأسفانه، من فاقد دانش پیش زمینه در زمینه آمار و تئوری احتمال برای درک توضیحاتی هستم که در جاهای دیگر در مورد توزیع رایلی ارائه شده است، زیرا من را از صفحه ای به صفحه دیگر هدایت می کند و بیشتر گیج می شوم. اگر بتوانید از یک مثال برای نشان دادن قضیه استفاده کنید، حتی مفیدتر خواهد بود.
توضیح انگلیسی ساده توزیع ریلی؟
60012
نمونه فرمول خطای استاندارد چیست؟ من فقط $s$ می دانم اما حدس می زنم این نیست. من در مورد فرمول آن گیج شده ام. لطفا کمکم کنید. متشکرم.
نمونه فرمول خطای استاندارد چیست؟
99991
من می خواهم ویژگی های مهم به دست آمده از روش های غیر خطی را با استفاده از تابع هسته SVM-RBF طبقه بندی کنم. من از اعتبارسنجی متقاطع 10 برابری استفاده کرده ام که 180 نمونه را به عنوان مجموعه آموزشی و 20 نمونه را به عنوان مجموعه آزمایشی تقسیم می کند. آیا می توانید من را از طریق مراحل نحوه پیاده سازی SVM با هسته RBF برای طبقه بندی داده ها به دو گروه راهنمایی کنید؟
استفاده از SVM همراه با هسته RBF برای طبقه بندی داده های EEG
21946
من سعی می کنم فرمولی برای مسئله الگوریتم مشارکتی خود استخراج کنم تا رتبه محبوبیت یک مورد را محاسبه کنم. من سه عامل را برای محاسبه رتبه بندی برای یک آیتم بر اساس سه رتبه بندی مختلف $a$، $b$ و $c$ در نظر می گیرم که هر کدام دارای وزن $w_1$، $w_2$ و $w_3$ هستند. رتبه‌بندی تجمعی این است: $$w_1 a + w_2 b + w_3 c$$ در این معادله، من می‌خواهم به $b$ وزن کمتری نسبت به $a$ بدهم، یعنی $w_1 > w_2 > w_3$. اما مشکل این است که چگونه باید وزن ها را طوری تصمیم بگیرم/محاسبه کنم که این ترتیب نسبی را در حالت عادی حفظ کنند (من به دنبال نرمال سازی خطی نیستم) یعنی $$w_1 a > w_2 b > w_3 c$$ آیا راهی برای محاسبه وجود دارد $w_1$، $w_2$، $w_3$ به صورت پویا و چه فرآیند عادی سازی را باید استفاده کنم یا توصیه می شود؟ دریافت نظرات در مورد این رویکرد نیز بسیار مفید خواهد بود.
مقادیر نسبتاً عادی برای فیلترهای مشترک
100191
مجموعه داده من شامل نمونه هایی از متغیرهای زیر است: * $X_0$: وضعیت سیستم در زمان 0 (یک اسکالر پیوسته) * $X_1$: وضعیت سیستم در زمان 1 (یک اسکالر پیوسته) * $Y$: برخی از متغیرهای باینری که سیستم را در زمان 1 توصیف می کند * $\boldsymbol{C}$: یک دسته از متغیرهای کمکی من می خواهم بررسی کنم که آیا سیستم توسط تنظیم خودکار بررسی اینکه آیا X_0$ بزرگتر منجر به $Y$ بزرگتر می شود که به نوبه خود منجر به X_1$ کوچکتر می شود. اگر اینطور باشد، از طریق متغیر $Y$، وضعیت سیستم تمایل به تنظیم دارد. روشی که من در حال حاضر به آن نگاه کرده‌ام از طریق یک رگرسیون لجستیک است: $$ \text{logit } Y = \beta_0 + \beta_{x,0}X_0+\beta_{x,1}X_1+\boldsymbol{\beta_c} \boldsymbol{C} $$ متوجه شدم که هرگاه $\beta_{x,0}$ مثبت است و به طور قابل توجهی با صفر متفاوت است، $\beta_{x,1}$ منفی است و به طور قابل توجهی با صفر متفاوت است (آزمون والد). صرف‌نظر از جزئیات تخمین (حساب‌گذاری برای چند خطی و غیره)، من نمی‌دانم که آیا رگرسیون لجستیک راه درستی برای نزدیک شدن به چنین مشکلی است و اگر نه، چه مدل دیگری را می‌توانم بررسی کنم.
رگرسیون لجستیک برای خود تنظیمی
32013
اگر من یک مدل افزودنی تعمیم یافته داشته باشم چگونه می توانم این را در یک مقاله علمی به روش صحیح بنویسم؟ برای مثال: set.seed(10) RandData <- rnorm(8760*2) America <- rep(c('NewYork','Miami'),each=8760) Date = seq(from=as.POSIXct(1991) -01-01 00:00), to=as.POSIXct(31-12-1991 23:00)، length=8760) DatNew <- data.frame(Loc = America, Doy = as.numeric(format(Date,format = %j)), Tod = as.numeric(format(Date, قالب = %H))، Temp = RandData، DecTime = rep(seq(1، طول(RandData)/2) / (طول (RandData)/2)، 2)) نیاز (mgcv) mod1 <- gam(Temp ~ Loc + s(Doy) + s(Doy,by = Loc) + s(Tod) + s(Tod,by = Loc),data = DatNew, method = ML) بنابراین، اگر بخواهم بنویسم دمای هر دو مکان را می توان با مدل زیر توصیف کرد ... چگونه می توانم بنویسم این؟
فرمول مدل ریاضی مربوط به این مدل گام برازش در R چیست؟
24146
من 10 اندازه از مارها دارم که به شدت با هم مرتبط هستند (طول بدن، طول دم و 8 معیار اندازه سر). مجموعه داده‌های من شامل اندازه‌های مختلف مار است (اما مارهای غیر بالغ) بنابراین مارهای کوچک‌تر (جوان‌تر) سرهای کوچک‌تر و دم‌های کوتاه‌تری دارند (زیرا به طول بدن بستگی دارند). معمولاً دو رویکرد وجود دارد که چگونه می توان PCA را روی اقدامات زیست شناسی در این مورد پیاده سازی کرد. یکی از آنها این است که همه اندازه‌گیری‌ها را بر روی طول بدن رگرسیون کنید و سپس PCA را روی باقیمانده‌ها + طول بدن پیش‌فرض کنید. روش دوم اجرای PCA بر روی متغیرهای اصلی است. نمی‌دانم چرا باید همه اندازه‌گیری‌ها را روی طول بدن عقب نشینی کنم، زیرا در PCA وقتی متغیرهای من همبستگی دارند مشکلی نیست. تنها حسی که در این روش می توانم ببینم در کاهش چند خطی بودن بالقوه است. اگر من همیشه PCA را با استفاده از ماتریس همبستگی و چرخش مایل در SPSS انجام دهم، آیا انجام آن روی باقیمانده ها منطقی است؟ تفاوت بین نتایج این دو رویکرد چیست؟ هدف این PCA ها کاهش چند بعدی بودن و سپس رسم نمودار اجزای جدید است... آیا می توان فکر کرد که انجام PCA بر روی باقیمانده ها چیزی شبیه به استاندارد کردن اندازه است و انجام PCA روی متغیرهای اصلی PCA استاندارد شده با اندازه نیست. ? آیا منطقی است؟ آیا قبل از انجام PCA باید همه اقدامات را در یک اندازه استاندارد کنم؟ من اینطور فکر نمی کنم، اما می خواهم مطمئن باشم. با تشکر ویرایش: برخی از منابع بیولوژیکی برای این موضوع PCA در مورد باقیمانده ها: http://www.pnas.org/content/94/8/3828.full http://www.ispa.pt/ui/uie/pdf/OliveiraAlmada1995. pdf PCA روی متغیرهای اصلی: http://swfsc.noaa.gov/uploadedFiles/Divisions/PRD/Publications/Jefferson_VW2004(82).pdf http://www.zool.uzh.ch/static/research/oekologie/literatur/pdf05_01/2001Evolution.pdf اینها دو رویکرد در زیست شناسی قبل از PCA رایج هستند، تعداد کمی از نویسندگان برای استانداردسازی اندازه استفاده می کنند نسبت متغیر وابسته و طول بدن من نمی دانم که آیا این سؤال نامشخص است یا شما نمی دانید پاسخ دهید، لطفاً به من بگویید چگونه می توانم آن را بهبود بخشم.
PCA روی متغیرهای اصلی در مقابل PCA روی باقیمانده ها
57089
آماردان آماتوری را در نظر بگیرید که هر نمونه ای را که منجر به رد فرضیه صفر خود در سطح معناداری 0.05= آلفا با آزمون دو طرفه نشود، کنار می گذارد. این خطای نوع 1 آمارگیران چیست؟ (او به رسم نمونه های مستقل ادامه می دهد تا زمانی که بتواند فرضیه صفر را رد کند.)
خطای نوع 1 رد نمونه هایی با مقدار p پایین چیست؟
21933
به نظر می رسد نمی توانم بفهمم PCA چگونه کار می کند. (عدم) دانش ریاضی هم به من کمک نمی کند. من خوانده ام که مجموعه جدید متغیرها باید ترکیبی خطی از مجموعه قدیمی باشد. این دقیقا به چه معناست؟ اینکه باید راهی وجود داشته باشد که اعداد a، b، c، ... را با ابعاد/متغیرهای x، y، z... ضرب کنیم و مجموعه قدیمی (!) بزرگتر را بدست آوریم؟ آیا می توانید به مثال من پاسخ دهید: اگر من 8 متغیر/بعد داشته باشم می توان آنها را به 3 کاهش داد؟ یا بردار 3 مولفه (با عرض پوزش برای عدم استفاده از اصطلاحات مناسب، انگلیسی زبان مادری من نیست) ترکیب خطی 8 نیست و بنابراین خیر؟ با تشکر
چگونه می توان 8 بعد را به 3 کاهش داد؟
15701
سلب مسئولیت: _من یک توسعه دهنده نرم افزار هستم و آمار را دوست دارم، اما آماردان حرفه ای نیستم، قبلاً تجربه کرده ام که عبارت من همیشه اصطلاحات صحيح نيست. لطفاً به خاطر داشته باشید._ من نظر شما را در مورد نحوه ساخت یک مدل آماری مشخص می‌خواهم: **هدف** چرا این کار را انجام می‌دهم: باید قابلیت اطمینان یک پایگاه داده مواد غذایی را ارزیابی کنم. آیا غذایی موجود است که بیشتر مردم می خورند؟ با کمک _CrossValidated_ من یک معیار دلخواه ایجاد کردم که نشان دهنده چیزی است که می خواهم بدانم: 1. 30 درصد مواد غذایی برتر 2. بر اساس مقداری که یک فرد عادی در یک وعده می خورد 3. فروخته شده سالانه در اتریش **گروه هدف** هدف این است که بفهمیم بیشترین غذاهایی که در اتریش خورده می‌شوند (شهروندان: 8 متر)، اما بیشتر توسط افرادی که به اینترنت آشنا هستند، بنابراین من تمایل دارم بگویم شهری، تحصیل کرده بخش خاصی وجود دارد _ مادر با فرزندان _ و _ ورزشکاران_ که در مطالعه دوم به آن خواهم پرداخت. **داده** درباره غذای مارک دار است زیرا پایگاه داده با غذاهای طبیعی کامل است. هر برند باید جداگانه ثبت شود. می‌خواهم نظر شما را در مورد رویکرد من بدانم: من به یک سوپرمارکت می‌روم و مدتی میز پول را مشاهده می‌کنم و هر غذایی که خریداری شده را ضبط می‌کنم. این یک نمونه از جامعه مصرف کلی اقلام در هر غذا است. به عنوان مثال 23000 لیتر کوکاکولا 600000 سیب 1. آیا این طراحی عاقلانه ای است؟ 2. حجم نمونه مناسب چقدر خواهد بود؟ 3. چگونه این کار را انجام می دهید؟ در نظر بگیرید که در حال حاضر این یک سرگرمی است که ما در 3 نفر انجام می دهیم. من راحت هستم که چند صد یورو را برای پرس و جو خرج کنم، اما فقط در صورتی که عاقلانه خرج شود.
چگونه از یک آمار نمونه برداری کنیم؟
112231
فرض کنید که ما دو پایگاه داده داریم: پایگاه_داده_1 و پایگاه_داده_2. پایگاه_داده_1 دارای 300 نمونه و پایگاه_داده_2 دارای 700 نمونه است. پایگاه_همه ترکیبی از دو پایگاه داده است. * آیا یافتن نقاط پرت با استفاده از «abs(X-mean(X))>=1.9*std(X)» در «پایگاه_داده» برابر است با یافتن نقاط پرت به طور جداگانه در «پایگاه داده_1» و «پایگاه داده_2»؟ در هر دو مورد نمونه های مشابه را حذف می کنیم یا خیر؟ * فرض کنید که موارد پرت را با ستون 1 در پایگاه داده های بالا حذف می کنیم. در ستون «2» و «3» داده‌هایی داریم که می‌خواهیم برای هر نمونه یک برچسب مانند این ایجاد کنیم «(column_2_value-column_3_value)/mean(column_2)» («mean(column_2)» میانگین همه مقادیر در ستون است. 2`) ما می خواهیم این برچسب را برای همه نمونه ها پس از حذف نقاط پرت محاسبه کنیم. در این مورد، اگر مقادیر پرت را از پایگاه_داده_همه حذف کنیم، پس از حذف مقادیر پرت به طور جداگانه در پایگاه_داده_89 و پایگاه_داده_90، مقایسه کنیم تا محاسبه کنیم؟ لطفا اگر وقت دارید این مشکل را ریاضی ثابت کنید. با تشکر
آیا تشخیص Outlier در دو پایگاه داده مجزا برابر با یک پایگاه داده ترکیبی است؟
9752
من مجموعه بزرگی از داده های مشتری دارم. برای این مشتریان، من **_امتیاز وفاداری مشتری_** ابداع کرده ام که معیاری برای وفاداری مشتری است. من می‌خواهم ویژگی‌هایی را پیدا کنم که به شدت با این امتیاز مرتبط/همبسته هستند. ویژگی‌ها می‌توانند _تعداد خریدها_ در انواع مختلف تاجر باشد. یک پاسخ واضح این است که فقط **_correlation_** را برای هر ویژگی با امتیاز وفاداری مشتری محاسبه کنید و ببینید کدامیک بیشترین همبستگی را دارند. آیا این روش ارجح برای انجام این کار است یا تکنیک های بهتری وجود دارد؟
پیشنهاداتی برای شناسایی ویژگی های کلیدی
78157
من دو نمونه $n=10$ با مقادیر زیر دارم نمونه 1: * Mean = $3$ * $s_{d} = 0.4$ نمونه 2: * Mean = $3.35$ * $s_{d} = 0.3$ اما مشاهدات هر دو نمونه ناشناخته است و من می خواهم $s_{d}$ رایج را برای محاسبه $t_{0}$ * * * بدانم: توجه: این تکلیف نیست فقط یک تکلیف است تمرین از آموزش که حل نشده است.
آزمون t-paired با حجم نمونه برابر و واریانس های نابرابر
58936
من رابطه قانون توان زیر را تخمین می زنم: $$\ln(\text{Rank}) = \text{constant} + \alpha \ln(\text{Size})$$ که $\text{Rank}$ $1 است ,~2,~3,~...,~n$, and $\text{Size}$ مقدار خام است. خطاهای استاندارد ضریب آلفا در این مثال چیست؟ من در مقاله ای خواندم که شما نمی توانید از فرمول معمولی استفاده کنید زیرا رتبه به طور خودکار همبسته است (براساس ساخت) و گرفتن گزارش ها برخی ویژگی ها را تغییر می دهد. اگر کمک کند، فرمولی که برای خطای استاندارد در این مثال دیده‌ام، $\text{SE}(\alpha) = \alpha (2/n)^{\frac{1}{2}}$ است.
رگرسیون ثبت خطای استاندارد OLS
51622
من کوواریانس یک توزیع را به صورت موازی محاسبه می کنم و باید نتایج توزیع شده را در گاوسی مفرد ترکیب کنم. چگونه این دو را ترکیب کنم؟ درون یابی خطی بین این دو تقریباً کار می کند، اگر به طور مشابه توزیع و اندازه شوند. ویکی‌پدیا یک فروم در پایین برای ترکیب ارائه می‌کند، اما درست به نظر نمی‌رسد. دو توزیع یکسان توزیع شده باید کوواریانس یکسانی داشته باشند، اما فرمول پایین صفحه کوواریانس را دو برابر می کند. آیا راهی برای ترکیب دو ماتریس وجود دارد؟
ترکیب دو ماتریس کوواریانس
19976
من گیاهانم را به چهار گروه 16 تایی تقسیم می کنم و برای اینکه حشرات دور نشوند آنها را اسپری می کنم: گروه 1: من روزانه سمپاشی می کنم گروه 2: من هر 2 روز یکبار سمپاشی می کنم گروه 3: من هر 3 روز یکبار سمپاشی می کنم گروه 4: من هر 4 روز یکبار سمپاشی می کنم. در پایان 12 روز، تعداد گیاهانی را که بدون اشکال هستند بررسی می کنم گروه 1: 12 گروه 2 است: 10 گروه 3 است: 7 گروه 4 است: 6 چگونه باید یک مدل را در این مورد قرار دهم؟
از چه مدلی برای آزمایش سمپاشی استفاده کنیم؟
18538
من دو سری داده دارم که میانگین سن مرگ را در طول زمان ترسیم می کنند. هر دو سری افزایش سن در هنگام مرگ را در طول زمان نشان می‌دهند، اما یکی بسیار کمتر از دیگری. من می خواهم تعیین کنم که آیا افزایش سن در هنگام مرگ نمونه پایین به طور قابل توجهی با نمونه بالا متفاوت است یا خیر. در اینجا داده‌ها بر اساس سال (از سال 1972 تا 2009) به صورت گرد شده به سه رقم اعشار مرتب شده‌اند: گروه A 70.257 70.424 70.650 70.938 71.207 71.263 71.467 71.7267 71.7987 71.7267 72.798 72.964 73.397 73.518 73.606 73.905 74.343 74.330 74.565 74.558 74.813 74.773 75.176 75.470 75.176 75.40 76.152 76.312 76.558 76.796 77.057 77.125 77.328 77.431 77.656 77.884 77.983 77.983 گروه B 5.139 8.261 8.261 6.261 6.261. 11.364 12.639 11.667 14.286 12.794 12.250 14.079 17.917 16.250 17.321 18.182 17.500 20.000 20.000 18.825 18.825 21.167 21.818 22.895 23.214 24.167 26.250 24.375 27.143 24.500 23.676 25.179 24.861 26.875 227.14 26.875 27.14. 29.318 هر دو سری غیر ثابت هستند - لطفاً چگونه می توانم این دو را مقایسه کنم؟ من از STATA استفاده می کنم. هر توصیه ای با سپاس پذیرفته می شود. ![نمودار داده ها](http://i.stack.imgur.com/DMkM4.png)
چگونه 2 سری زمانی غیر ثابت را برای تعیین همبستگی مقایسه کنیم؟
80590
من در چند مقاله خوانده ام که ماشین بردار پشتیبانی (SVM) یک مشکل سخت NP است، من نمی توانم این دو را با هم مرتبط کنم. می خواستم بدانم آیا کسی می تواند رابطه بین SVM و برنامه نویسی غیرخطی را توضیح دهد.
چگونه ماشین بردار پشتیبان با برنامه ریزی غیرخطی مرتبط است؟
112940
من سعی می‌کنم روندی را در سطوح یک متغیر طبقه‌بندی با استفاده از یک عبارت کنتراست در یک مدل آزمایش کنم و نمی‌توانم بفهمم که وقتی تعداد سطوح فرد وجود دارد چگونه این کار را انجام دهم. با نگاهی به صفحه پشتیبانی SAS برای عبارات کنتراست (یعنی http://support.sas.com/kb/22/912.html)، تنظیم برای تعداد زوج سطوح با استفاده از ضرایب متعادل در حدود 0 آسان است، اما زمانی که شما یک فرد دارید. به عدد وسط، ضریب 0 اختصاص داده می شود، به این معنی که به هیچ وجه در کنتراست محاسبه نمی شود. من مستقیماً با پشتیبانی SAS تماس گرفتم و آنها پیشنهاد کردند که در یک انجمن آماری مانند این سؤال کنم.
چگونه روند را در یک مدل خطی تعمیم یافته، به ویژه برای اعداد فرد سطوح یک متغیر آزمایش می کنید؟
95404
فرض کنید $y = a + a_1x_1 + a_2x_2 + a_3x_3 + e$ که در آن $x_1$ و $x_2$ هر دو شاخص هستند، هر دو از $0-10$ متغیر هستند که $0$ حداقل و $10$ حداکثر است. من با استفاده از روش های VIF، CI و مقادیر ویژه دریافتم که $x_1$ و $x_2$ هم خط هستند. آیا می‌توان این شاخص‌ها را برای حل مشکل چند خطی متمرکز کرد؟
آیا وسط یک راه حل معتبر برای چند خطی بودن است؟
6814
من یک سوال در مورد واگرایی Kullback-Leibler دارم. آیا کسی می تواند توضیح دهد که چرا فاصله بین چگالی آبی و چگالی قرمز کمتر از فاصله بین منحنی سبز و قرمز است؟ ![گراف سه پی دی اف](http://i.stack.imgur.com/Zrm76.jpg) با احترام، مارکو
واگرایی کولبک-لایبلر - تفسیر
97365
برای مقایسه چندین گروه، معمولا ANOVA را اجرا می‌کند. اگر ANOVA فرضیه صفر را رد کند، مقایسه‌های چندگانه انجام می‌شود. مقایسه های متعدد برای تعیین اینکه کدام گروه متفاوت است ضروری است. مقایسه های چندگانه با اعمال تصحیح بونفرونی (یا انواع جدیدتر تصحیح، مانند هولمز یا هومل) انجام می شود. چنین اصلاحاتی تضمین می کند که نرخ خطای خانوادگی (FWER) حداکثر آلفا باشد. FWER احتمال برگرداندن حداقل یک عبارت اشتباه در اهمیت هنگام مقایسه جمعیت هایی است که میانگین آنها در واقع یکسان است. من تعجب می کنم که چرا ANOVA قبلی اصلاً ضروری است. من فکر می کنم که باید مستقیماً مقایسه چندگانه را با مقادیر p تنظیم شده اجرا کرد. در واقع: الف) اگر همه میانگین ها برابر باشند: به دلیل اصلاح، مقایسه چندگانه همان FWER ANOVA را خواهد داشت. ب) برخی ابزارها متفاوت هستند. سپس مقایسه های متعدد به هر حال ضروری است. ANOVA قبلی اغلب انجام می شود، اما من دلیل قانع کننده ای برای آن نمی بینم. با تشکر
مقایسه چندگانه اصلاح شد: آیا ANOVA قبلی اصلا ضروری است؟
79421
من یک مجموعه داده $\mathcal{S}$ دارم که از چندین زیر مجموعه به عنوان $\mathcal{S}=\\{S_1,...S_i,...S_n\\}$ تشکیل شده است که هر $S_i$ دارای میانگین خود $\mu_i$، واریانس $\sigma_i$، و اندازه $\|S_i\|$. آیا راهی برای بدست آوردن واریانس کل مجموعه داده $\mathcal{S}$ وجود دارد؟
دریافت واریانس مجموعه ای متشکل از گروهی از زیر مجموعه ها
79403
من نتایج تعدادی از گروه ها را با مقدار مورد انتظار مقایسه کرده ام. نتایج یک مقیاس ساده با سه گزینه ممکن است: -1، 0، +1 مقدار مورد انتظار 0 است و یکی از گروه های من با تمام 1 پاسخ داده است که نتیجه آن این است که مقدار t من بی نهایت را می خواند. آیا این را به عنوان بی نهایت گزارش کنم؟ یا جایگزینی وجود دارد؟ من همچنین اندازه‌های اثر را بر اساس t-value محاسبه می‌کنم که در این مورد به وضوح غیرممکن است، بنابراین به جای آن چه بنویسم؟ با تشکر
یک نمونه t-test: نتیجه بی نهایت است - چه چیزی را گزارش کنم؟
36309
اگر مجموعه داده ای داشته باشم که نموداری مانند شکل زیر تولید می کند، چگونه می توانم به صورت الگوریتمی مقادیر x پیک های نشان داده شده (در این مورد سه مورد از آنها) را تعیین کنم: ![شرح تصویر را اینجا وارد کنید](http://i) .stack.imgur.com/tyLDG.png)
چگونه می توانم قله ها را در یک مجموعه داده پیدا کنم؟
9756
من یک **مدل رگرسیون SVM** را با استفاده از داده های آموزشی، x_1,x_2,\dots,x_N$ آموزش داده ام. من می خواهم ** یادگیری فعال ** را برای بهبود مدل انجام دهم. یعنی می‌خواهم نمونه‌های بیشتری را به داده‌های آموزشی اضافه کنم و مدل بهتری را دوباره یاد بگیرم، و این نمونه‌های جدید را به‌گونه‌ای انتخاب کنم که عملکرد مدل حاصل را به حداکثر برسانم. برای یک طبقه‌بندی‌کننده SVM، یک روش اکتشافی مفید برای یادگیری فعال، انتخاب نمونه‌هایی است که نزدیک به مرز تصمیم قرار می‌گیرند. به عنوان مثال، برای یک نمونه خاص، اطمینان (_c_) را می توان با استفاده از SVM محاسبه کرد. نمونه هایی که |c| کوچک دارند به احتمال زیاد مرز تصمیم گیری را در SVM بازآموزی شده بهبود می بخشند. آیا پیشنهادی در مورد نحوه انجام این کار برای رگرسیون SVM دارید؟ (من می‌توانم نمونه‌ها را به میل خود تولید کنم، اما برچسب‌گذاری آنها پرهزینه است، بنابراین می‌خواهم بدانم آیا می‌توانم از رگرسیون-SVM «از قبل آموزش‌دیده» استفاده کنم تا به من کمک کند تصمیم بگیرم کدام یک را برچسب‌گذاری کنم)
یادگیری فعال با استفاده از رگرسیون SVM
19975
من مستندات را در این آدرس پیدا کردم: http://hosho.ees.hokudai.ac.jp/~kubo/Rdoc/library/SuppDists/html/maxFratio.html اما مطمئن نیستم که واقعاً چگونه از این استفاده کنم و برای یافتن کمک کوتاه می‌خواهم آنلاین اگر کسی لینک یا آموزشی در این مورد در R دارد لطفا به من اطلاع دهد.
کمک به استفاده از maxFratio() در R (تست هارتلی)
68349
اگر این سوال اساسی است پیشاپیش عذرخواهی می کنم. من سعی می کنم از LASSO برای انتخاب متغیر استفاده کنم، با یک پیاده سازی در R. در حال حاضر 15 پیش بینی کننده دارم، و به دنبال کاهش فضای متغیر و انتخاب بهترین پیش بینی کننده ها هستم تا در مدل فاکتور نهایی خود گنجانده شود. برخی به من توصیه کرده اند که برای این منظور از LASSO استفاده کنم. با این حال، پس از خواندن برخی مستندات در مورد موضوع، هنوز مطمئن نیستم که چگونه **پارامتر تنظیم** $\lambda$ را انتخاب کنم. در مورد پیاده سازی در R، من سعی کردم از بسته glmnet استفاده کنم: ** مقدار پارامتر تنظیم $\lambda$** library(glmnet) و <- cv.glmnet(data, return[,1], standardize = TRUE) par(mfrow=c(1, 2)) plot(ans$glmnet.fit، norm، label=TRUE) plot(ans$glmnet.fit، lambda، label=TRUE) dev.new() plot(ans) با این حال، من مطمئن نیستم که چگونه نتایج را تفسیر کنم. سپس موارد زیر را اجرا می کنم: مدل <- cv.glmnet(data, return[,1], standardize = TRUE) coef(model) لطفاً کسی می تواند نتایج LASSO در R را روشن کند؟ با تشکر
LASSO در R برای انتخاب متغیر: نحوه انتخاب پارامتر تنظیم
57088
من سعی می‌کنم بفهمم اگر تکنیک تشخیص پرت هامپل را بر اساس میانه و MAD روی داده‌های کج‌شده اعمال کنید، چه اتفاقی می‌افتد. ظاهراً مزیت روش هامپل نسبت به z-score ها این است که بسیار کمتر تحت تأثیر خود پرت قرار می گیرد. با این حال، چندین مقاله و وب سایت می گویند که این روش نباید زمانی که توزیع داده ها منحرف است، بنابراین زمانی که داده ها به طور معمول توزیع نمی شوند، اعمال شود. با این حال، هیچ ادبیاتی در مورد اینکه اگر این روش را برای داده‌های کج‌شده اعمال کنید چه اتفاقی می‌افتد، پیدا نکردم. آیا اصلاً نقاط پرت را تشخیص نمی دهد؟ یا اینکه مثبت کاذب را تشخیص می دهد؟ من چندین سوال در این انجمن پیدا کردم که آیا از z-scores یا رویکرد هامپل استفاده می شود و حتی زمانی که داده ها دارای انحراف هستند، اما هیچ کس پاسخی نداد که نتیجه روش هامپل در استفاده از داده های کج چیست. نزدیکترین نظری که در این انجمن پیدا کردم این است: استفاده از MAD به معنای متقارن بودن توزیع زیربنایی است (انحرافات بالای میانه و زیر میانه به طور مساوی در نظر گرفته می شوند). شما را به تخمین بیش از حد تغییرپذیری واقعی داده‌هایتان سوق می‌دهد. میانگین $\pm$SD یا Median$\pm$MAD برای خلاصه کردن یک متغیر بسیار کج؟ می‌گوید این شما را به برآورد بیش از حد تغییرپذیری واقعی داده‌هایتان سوق می‌دهد اما واقعاً این به چه معناست؟ آیا منجر به شناسایی موارد پرت بسیار زیاد یا بسیار کمتر می شود؟ علاوه بر این، آیا کسی می تواند مشکلی را در استفاده از این تکنیک برای مطالعات با حجم نمونه کوچک در مقایسه با امتیاز z مشاهده کند؟ آیا کسی می تواند برای روشن کردن آن کمک کند؟
میانه + MAD برای داده های کج
9759
من اینجا تازه کار هستم، بنابراین امیدوارم قبلاً به این موضوع پرداخته نشده باشد، اما چند جستجوی اول من چیزی پیدا نکرد. من در آستانه یادگیری R هستم و پروژه یادگیری من مستلزم اعمال رگرسیون اثرات مختلط یا تصادفی به یک مجموعه داده به منظور ایجاد یک معادله پیش بینی است. من نگرانی نویسنده را در این پست به اشتراک می گذارم چگونه کتابخانه nlme یا lme4 R را برای مدل های جلوه های ترکیبی انتخاب کنیم؟ در تعجب که آیا NLME یا LME4 بسته بهتری برای آشنایی است. یک سوال اساسی‌تر (امیدوارم احمقانه‌تر) این است: تفاوت بین مدل‌سازی اثرات مختلط خطی و غیرخطی چیست؟ برای پیشینه، من مدل سازی M-E را در تحقیقات MS خود به کار بردم (در MATLAB، نه R)، بنابراین با نحوه برخورد با متغیرهای تصادفی در مقابل ثابت آشنا هستم. اما مطمئن نیستم کاری که انجام دادم خطی بود یا غیرخطی M-E. آیا این به سادگی شکل تابعی معادله مورد استفاده است یا چیز دیگری؟
آیا کسی می تواند اثرات مختلط خطی در مقابل غیرخطی را روشن کند؟
68345
این سوال مربوط به تلاش من برای خوشه‌بندی توالی‌ها با استفاده از مدل‌سازی مارکوف مخلوط است. من در درک مقدمات دیریکله در زمینه برآورد MAP (مدل های مارکوف مخلوط) مشکل دارم. یعنی، پیشین های من در نهایت (بسیار) بزرگتر از یک هستند. من پیشین های غیر آموزنده دارم که به صورت زیر تعریف شده اند: $$ p(\theta_n^{j}|a_n^{j})=\frac{\Gamma(\sum_{m=1}^{M}(a_{nm}^{j}+1))}{\prod_ { m=1}^{M}\Gamma(a_{nm}^{j}+1)}*\prod_{m=1}^{M}(\theta_{nm}^{j})^{a_{ nm}^{j}}، $$ که در آن هر $a_n^{j}$ یک _M_ -بردار با اجزای $a_{nm}^{j}>0$ است. _j_ نشان دهنده jامین جزء در مخلوط و _n_ تعداد ردیف TPM (ماتریس احتمال انتقال) است. سپس از مجموع log (Dirichlet Priors) در هر ردیف و هر جزء استفاده می کنم. گیج کننده ترین جنبه ها عبارتند از: 1) در تمام ادبیات فرمول قبلی دیریکله به صورت: $$ ارائه شده است. p(\theta_n^{j}|a_n^{j})=\frac{\Gamma(\sum_{m=1}^{M}(a_{nm}^{j}))}{\prod_{m =1}^{M}\Gamma(a_{nm}^{j})}*\prod_{m=1}^{M}(\theta_{nm}^{j})^{a_{nm}^ {j}-1}، $$ (به -1 در عبارت توان توجه کنید). آیا احتمالاً اشتباه تایپی در مقاله وجود دارد یا می توان از عبارت -1 صرف نظر کرد؟ 2) مقاله $a_n^{j}$ را برابر با 10% از بسامدهای نسبی متناظر TPM شمارش اصلی در تمام دنباله‌ها تنظیم می‌کند (اگر مدل ما فقط 1 جزء داشته باشد). سپس، اجازه دهید چنین مثالی را در نظر بگیریم: 3 حالت ممکن در زنجیره مارکوف وجود دارد، و احتمالات انتقال ردیف _n_ 0.1، 0.8، 0.1 است. اجازه دهید $a_n^j$ برابر با (0.01,0.03,0.06) باشد. سپس با پیروی از فرمول، پیشین من (محاسبه در R) خواهد بود: طبق نسخه اول فرمول: **1.961152** طبق نسخه دوم فرمول: **245.144** این با تعریف یک محاسبه شده است. تابع در R: > dirichletPrior<-function(matrix_row,alpha_row){ dirichl<-((gamma(sum(alpha_row+1)))/(prod(gamma(alpha_row+1))))*prod(matrix_row^(alpha_row)) dirichl } نتایج به نظر من کمی مزخرف به نظر می رسد، و من نمی فهمم منطق من کجاست. 3) آیا «پیشین دیریکله» تابع چگالی احتمال است یا تابع درستنمایی؟ اگر نتیجه هر ردیف بزرگتر از 1 باشد به چه معناست؟ آیا پارامترهای چند جمله ای آلفا مانند آنچه در مثال آوردم، اصلاً معنی دارند؟ چه وجه اشتراکی با پارامتر غلظت دارند؟ مقاله ای که من به آن اشاره کرده ام در لینک زیر قرار دارد: http://www.cs.uoi.gr/~kblekas/papers/C19.pdf‎.
آیا توزیع قبلی دیریکله می تواند بزرگتر از 1 باشد؟
67371
اجازه دهید $f$ یک تابع (احتمالا تصادفی) با دامنه محدود $D$ و محدوده محدود $R$ باشد، به طوری که برای هر دو $x$ و $x'$ در دامنه، $f(x)$ و $f (x')$ به طور یکسان توزیع می شوند. به عنوان مثال: $$\forall x,x'\in D, \forall y\in R \quad \Pr[f(x)=y] = \Pr[f(x')=y] \enspace. \qquad (\dagger)$$ من می خواهم ثابت کنم که خروجی $f$ مستقل از هر توزیع ورودی است. یعنی برای هر توزیع ورودی گسسته $X$ با پشتیبانی $D$، ما داریم: $$\forall x\in D, \forall y\in R \quad \Pr[f(x)=y \mid X= x]=\Pr[f(x)=y] \enspace. \qquad (\ddagger)$$ * * * در اینجا دو مثال آورده شده است که $(\dagger)$ را برآورده می کند و بنابراین $(\ddagger)$ را برآورده می کند: **مثال 1.** $f(x)$ یک تابع ثابت است . **مثال 2.** دامنه $D$ مجموعه ای از رشته های $n$-bit و $f(x)=x \oplus r$ است. یعنی $f$ یک رشته تصادفی $n$-bit (داخلی) انتخاب می کند و آن را به ورودی خود XOR می کند.
چگونه استقلال را در مورد زیر اثبات کنیم؟
112234
**هدف:** من به دنبال تعداد بهینه آثار منحصر به فرد در مسابقه مهارت با جوایز پولی هستم. **توضیحات:** مسابقات از 20 ورودی تا 10000+ ورودی متفاوت است. شما می توانید تعداد نامحدودی از ورودی ها را وارد کنید. در هر ورودی، 9 اسلات وجود دارد که می توان آنها را با متغیرها پر کرد. هر شکاف دارای مجموعه ای منحصر به فرد از متغیرها است که در هیچ شکاف دیگری قابل استفاده نیست. متغیرهای منحصر به فرد برای هر شکاف ممکن است بسته به مسابقه بین 2 تا 30 عدد باشد. هنگامی که متغیرهای انتخابی خود را در اسلات ها وارد می کنید، متغیرها بر اساس رویدادهای زندگی واقعی امتیاز کسب می کنند. برخی از اسلات ها به طور سنتی امتیاز بیشتری نسبت به سایر اسلات ها کسب می کنند. ورودی با بیشترین میزان امتیاز برنده است. در صورت تساوی، مبلغ جایزه تقسیم می شود. **فرض ها:** من بازیکنی بالاتر از حد متوسط ​​هستم. هنگام مواجهه با رقابت مشابه، فرض کنید من می‌توانم 57 درصد مواقع برنده شوم (اگر در یک مسابقه پنجاه یا پنجاه بازی کنم که نیمی از شرکت‌کنندگان برنده جایزه می‌شوند). این مسابقه دقیقا 10055 اثر دارد. هزینه ورودی 2 دلار است. جزئیات توزیع جوایز به شرح زیر است (منهای 10.5٪ هزینه ورودی به برگزارکنندگان مسابقه): **جوایز:** **اول:** $2,000; **دوم:** 1200; **سوم:** 800; **چهارم:** 500; **پنجم:** 350; **ششم:** 300; **هفتم:** 250; **هشتم:** 200; **نهم:** 180; ** دهم** : 160; **یازدهم:** 150; **دوازدهم:** 140; **سیزدهم:** 130; **چهاردهم:** 120; **پانزدهم:** 110; ** شانزدهم:** 100; **هفدهم - هجدهم:** 90; ** نوزدهم - بیستم:** 80; **بیست و یکم - بیست و دوم:** 70; **23 - 25:** 60; **بیست و ششم - بیست و هشتم:** 50; **بیست و نهم - سی و پنجم:** 40; **36 - 50:** 30; ** 51 - 60: ** 20; **61 - 75:** 18; **76 - 100:** 16; **101 - 200:** 14; ** 201 - 400:** 12; **401 - 600:** 10; **601 - 800:** 8; **801 - 1050:** 6 **بحث:** من درکی بالاتر از حد متوسط ​​از احتمال دارم (اما این واقعاً نمی‌گوید)، بنابراین به اجرای شبیه‌سازی رسیده‌ام (کین کاغذ و مداد) با 10 ورودی و 10 دلار هزینه ورودی (1-50 دلار، دوم-30، 3-20). تحقیقات اینترنتی نشان می‌دهد، و شبیه‌سازی‌های مقاله من موافق است، که استفاده از 2 یا بیشتر از ورودی‌های دقیقاً یکسان همیشه منجر به یک مقدار انتظاری منفی (EV) می‌شود. سپس سعی کردم شبیه سازی را با دو ورودی مختلف اجرا کنم. به نظر می رسد 44 امکان منحصر به فرد وجود دارد. من پول جایزه را جمع کردم. سپس در 1/44 ضرب کردم. من این پاسخ را گرفتم و سپس 20 دلار هزینه ورودی را کم کردم. نتیجه ارزش مورد انتظار 45 سنت بود. آیا این درست است؟ با فرض اینکه ریاضی من درست باشد، نمی دانم چگونه می توانم آن را در مسابقاتی با تعداد ورودی های بسیار بالاتر اعمال کنم تا تعداد بهینه ورودی های منحصر به فردی را که باید ارسال کنم، بیابم. من واقعاً نمی‌دانم چگونه نرخ موفقیت 57 درصدی خود را در یک مسابقه به مسابقه دیگر ترجمه کنم. همچنین نمی‌دانم که آیا بهتر است ورودی‌های کاملاً منحصربه‌فرد داشته باشیم یا فقط ورودی‌های کمی منحصربه‌فرد (به نظر می‌رسد که باید ورودی‌هایم را متنوع کنم و آنها را تا حد امکان منحصربه‌فرد کنم و در عین حال امتیازهای کسب شده را به حداکثر برسانم). هر گونه کمک، راهنمایی یا راهنمایی بسیار قدردانی می شود. روز خوبی داشته باشید. P.S. اگر از مسابقاتی که در مورد آنها صحبت می کنم می دانید، لطفاً به آنها اشاره نکنید. P.S.S. من مطمئن نبودم که این سوال را اینجا پست کنم یا در math.stackexchange
تعداد بهینه آثار در مسابقه مهارت
94334
صبح همگی بخیر، من در حال انجام یک تمرین خودآموزی هستم که سعی دارد موردی را مثال بزند که در آن **توزیع عادی** برای تقریب **توزیع پواسون** استفاده می شود، زیرا میانگین جمعیت بیش از 10 است. من می دانم که هنگام استفاده از **توزیع عادی** تا تقریبی **توزیعات پواسون/دوجمله ای**، نیاز به **تداوم وجود دارد. خطای تصحیح ** مدیریت می شود. از درک من، این به معنای کم کردن 0.5 از کران پایین و اضافه کردن 0.5 به کران بالایی است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/KJJud.jpg) با این حال، من با مثال زیر روبرو شدم که 0.5 از معادله کم شد. من می خواهم توضیح دهم: > اگر این به این دلیل است که کران پایین تر است، زیرا مقدار آن کمتر از W است؟ و اگر مفهوم زیر درست باشد > از درک من، این به معنای کم کردن 0.5 از کران پایین و > افزودن 0.5 به کران بالایی است. قدردان هر راهنمایی لطفا.
خطای تصحیح پیوستگی هنگام استفاده از توزیع نرمال برای تخمین توزیع پواسون
108101
من سعی می کنم از کتابخانه liblinear برای رگرسیون لجستیک با تنظیم L2 استفاده کنم. با این حال، من مشکلاتی را با آن پیدا می کنم. به عنوان مثال هنگام انتخاب پارامتر هزینه، پارامتر C را از 0.5 تا 10 با اعتبارسنجی متقاطع 10 برابری انتخاب کردم. با این حال، وقتی با مقادیر بالاتر C تا حتی 32000 امتحان کردم، دقت اعتبارسنجی متقاطع با C=32000 بیشتر است. این واقعاً عجیب است، من معمولاً می بینم که مردم از 10 عدد استفاده می کنند، اما در مورد من حتی 32000 بهترین به نظر می رسد. این عجیب نیست؟
رگرسیون لجستیک Liblinear با تنظیم L2 برای طبقه بندی
107704
من سعی می کنم روش استاندارد مدیریت خطای ضربی را در یک مدل خطی کشف کنم، به عنوان مثال، مدل من می خواند: $$ Y_i = (ax_i + b)\varepsilon_i , \quad \varepsilon_i\sim\mathcal{N}(1 , \sigma^2) $$ چگونه این را (در R) جا بدهم؟ ایده من این بود که از یک تبدیل log در هر دو طرف استفاده کنم: $$ Z_i = \log(Y_i) = \log(ax_i + b) + \log(\varepsilon_i) $$ خطاهای افزودنی اکنون به طور منطقی توزیع شده اند، اما چگونه می توانم مناسب این؟ من می توانم بگویم این یک GLM با تابع پیوند $g=\exp$ و خطاهای lognormal است، اما به نظر می رسد R چنین مدلی را نمی شناسد. آیا من چیزی را از دست داده ام؟ به نظر می رسد این یک مدل فوق العاده استاندارد باشد... ویرایش: واضح است که من چیزی را در اینجا قاطی کرده ام ؛) $\varepsilon_i$ باید به طور منطقی توزیع شود، سپس برای گرفتن گزارش ها معتبر است. اما همچنان، تابع پیوند نمایی خواهد بود - یا نه؟ بنابراین من glm(z ~ x, data = data.frame (x, z = log(y)), family = gaussian (link = 'exp')) را امتحان کردم اما تابع پیوند وجود ندارد...
خطاهای ضربی برای مدل خطی
91959
من در درک مراحل اثبات در نیمه پایین صفحه دوم این مقاله مشکل دارم: http://www.cs.berkeley.edu/~jordan/courses/281B-spring04/readings/blackwell- macqueen pdf. به طور خاص، اجازه دهید: \begin{equation} m_n(A)=\frac{\alpha}{\alpha+n}\mu(A)+\frac{1}{\alpha+n}\sum_{i=1} ^n{\mathbb{I}(X_i\in A)}، \end{equation} که در آن $A$ هر زیر مجموعه ای از فضای احتمال $\mu$ است و $\mu$ هر اندازه گیری پایه احتمال ما دنباله ای از متغیرهای تصادفی $\\{X_n\\}_{n=1}^{\infty}$ را یک دنباله Polya می نامیم که پارامترهای $\alpha>0$ و $\mu$ هر توزیعی هستند، داریم: \begin{equation} \mathbb{P}\left(X_1\in A\right)=\mu(A), \end{equation} \begin{equation} \mathbb{P}\left(X_{n+1}\in A|X_1,\dots,X_n\right)=m_n(A). \end{equation} همچنین، اجازه دهید $I_j$ نشانگر این رویداد باشد که $X_j$ با تمام $X_i$ با $i<j$ متفاوت است و تعریف کنید: \begin{equation} \begin{split} &f_{nj }=I_jm_n(X_j),&\text{for }1\leq j\leq n,\\\ &f_{nj}=0،&\text{در غیر این صورت.} \end{split} \end{equation} می‌خواهیم ثابت کنیم که: \begin{equation} \sum_{\substack{1\leq j\leq r\\ \x_j\in A}}{f_{nj}}\leq m_r(A)، \end{equation} و آن: \begin{equation} m_r(A)\leq \sum_{\substack{1\leq j\leq r\\\x_j\in A}}{f_{nj}}+1-\sum_{1\leq j\leq r}{f_{nj}}. \end{equation} من واقعاً از کمک شما سپاسگزارم! ممنون، آنتونی
طرح اورن بلک ول-مک کوئین
59952
در کتاب «مدل‌های خطی پویا با R»، در بخش مدل‌های رگرسیون آمده است: «مدل خطی رگرسیون ایستا مربوط به حالتی است که $W_t = 0$ برای هر $t$، به طوری که $\theta_t = \theta$ ثابت است. در طول زمان. من معنی این را نمی‌فهمم، زیرا وقتی یک «dlmModReg» را با «dW = 0» (مقادیر پیش‌فرض) قرار می‌دهم و سپس مقادیر پیش‌بینی‌شده بردارهای حالت را رسم می‌کنم، ضرایب رگرسیون من در طول زمان تغییر می‌کند و در نهایت به یک مقدار تثبیت می‌شود. مشابه رگرسیون حداقل مربعات استاندارد. نمودار ضریب شیب رگرسیون با «dW = 0»: ![dW = 0](http://i.stack.imgur.com/I5MLB.jpg) با این حال، اگر از «dlmMLE» برای یافتن MLE «dW» استفاده کنم قبل از برازش مدل، رسم مقادیر پیش‌بینی‌شده بردارهای حالت به مقادیر غیرمعقول با چندین ناپیوستگی بزرگ منجر می‌شود. نمودار ضریب شیب رگرسیون با MLE `dW` و بدون قطع: ![dW != 0 بدون قطع](http://i.stack.imgur.com/VzdIB.jpg) نمودار شیب رگرسیون با MLE `dW` با intercept: ![dw != 0 with intercept](http://i.stack.imgur.com/2Yu7P.jpg) من هنوز هیچ مقاله ای در مورد چگونگی تنظیم ضریب قطع پیدا نکرده ام، اما من یک رابطه خطی تقریباً کامل بین ضریب برش و شیب را مشاهده می کنم. گنجاندن یک عبارت intercept در پارامتر MLE همچنین باعث می‌شود «dV» من از 16 به 0.003 کاهش یابد. آیا کسی می‌تواند به من اشاره کند که در آن به من اشاره کند که چگونه عبارت رهگیری در هر به‌روزرسانی تنظیم می‌شود؟ نمودار قطع و شیب با `dW` MLE: ![intercept and slope](http://i.stack.imgur.com/TjvTW.jpg) **سوالات من این است:** 1. چرا ضرایب رگرسیون پویا هستند /time-varing حتی با 'dW = 0' در مثال اول؟ اگر ضریب رگرسیون در هر مرحله زمانی تغییر کند، صرف نظر از اینکه «dW» 0 است یا خیر، به دلیل مرحله به‌روزرسانی اندازه‌گیری، $\beta_t = \hat{\beta_t} + K_t(y_t - \alpha_t - \hat{\beta_t}x_t )$ ($K$ بهره کالمن است)، چه تفاوتی بین رگرسیون خطی ساده و رگرسیون خطی پویا وجود دارد به جز برخی تغییرات تصادفی اضافه شده در زمان معادله به روز رسانی $\hat{P_t} = P_{t-1} + dW$ ($P$ کوواریانس خطای تخمینی است)؟ 2. چرا نمودار ضرایب رگرسیون این همه ناپیوستگی دارد وقتی که dW !=0 من است؟ 3. رابطه بین ضرایب برش و شیب چیست؟ ترسیم آنها یک رابطه خطی تقریباً کامل را نشان می دهد، اما من نمی توانم ادبیاتی را پیدا کنم که این را توضیح دهد. من عبارت رهگیری را در هیچ فرمولی از معادلات به روز رسانی کالمن نیافته ام. آیا کسی حاضر است به داده ها/کد من نگاهی بیندازد؟
کمک به درک مدل های رگرسیون با dlm در R
88985
من از تابع lrm بسته RMS برای مدل رگرسیون ترتیبی برای پیش بینی استفاده کردم. هنگامی که من از روش نمودار گرافیکی استفاده می کنم، به نظر می رسد که فرض خط موازی برای برخی از متغیرها ناموفق است. آیا راهی وجود دارد که فرض خطوط موازی راحت شود؟ ? آیا بسته lrm این فرضیه را دور می زند؟ سوال دیگر این است که آیا آزمون Hosmer-Lemeshow در تفسیر این با وجود فرض نامعتبر ارزشمند است؟ آیا پیاده سازی در R برای تست HS gof برای رگرسیون ترتیبی وجود دارد؟ پاسخ شما بسیار قدردانی خواهد شد.
فرض خطوط موازی برای مدل رگرسیون ترتیبی
100194
من یک مجموعه داده طبقه بندی از 100000 ردیف و 200 ویژگی دارم. در مجموعه داده، متغیر پیش بینی من (Y) یک مقدار صحیح بین 0-55 است، بنابراین من سعی می کنم 1 از 56 کلاس ممکن را پیش بینی کنم. من مجموعه آموزشی/آزمایشی خود را به 80/20% تقسیم کردم و یک تمرین اعتبارسنجی متقاطع 10 برابری را برای تنظیم پارامترها و مطابقت با مدل نهایی انجام دادم. من در **مجموعه تمرینی (~90%)** امتیازی با دقت بسیار بالا (و F1) دارم، اما در **مجموعه تست (~10%)** نمره دقت بسیار پایین (و F1) دارم. **ویرایش 1:** مجموعه آموزش و تست به صورت تصادفی تقسیم می شود. حدود 150 مورد از ویژگی ها ویژگی های باینری هستند (0 یا 1) و بقیه مقادیر پیوسته هستند که من آنها را در مرکز و مقیاس بین 0 و 1 قرار می دهم. الگوریتم های یادگیری متعددی را امتحان کرده ام (SVM، NN، رگرسیون لجستیک، PCA + SVM) و بر این باور باشید که CV 10 برابری باید تا حد امکان اضافه برازش را حذف می کرد. با این حال، به نظر می‌رسد هیچ چیزی که من تلاش می‌کنم، نتایج متفاوتی به همراه نداشته باشد. آیا کسی می تواند راه های جدیدی برای افزایش دقت مجموعه تست پیشنهاد دهد؟ ** هشدارها:** 1) این داده های دنیای واقعی است، بنابراین دریافت بیشتر از آن بسیار گران و زمان بر است. 2) ما به این 56 کلاس نیاز داریم، بنابراین نمی توانیم به سادگی هیچ کدام را حذف کنیم. با تشکر و هر گونه پیشنهاد قدردانی می شود.
چالش دنیای واقعی: تفاوت بزرگ بین دقت مجموعه تمرین و تست
114437
من در حال حاضر در حال انجام دو رگرسیون خطی چندگانه هستم. هر کدام از آنها با مجموعه پیش‌بینی‌کننده‌های یکسانی (اندازه‌گیری کیفیت املاک) X_1،...، X_n$، اما با متغیرهای وابسته متفاوت (یکی از آنها قیمت خرید، دیگری اجاره سالانه) Y_1 دلار و Y_2$. $Y_1= a_1X_1+a_2X_2+...$Y_2= b_1X_1+b_2X_2+...$ چیزی که من به آن علاقه دارم تاثیر متغیرهای مستقل بر متغیر وابسته سوم $Y_3$ (فرض بازده سرمایه گذار املاک) است که تقریباً ضریب دو متغیر وابسته اول $Y_1/Y_2$ است. بنابراین کاری که من می‌خواهم انجام دهم این است که بفهمم کدام یک از متغیرهای مستقل احتمالاً می‌تواند روی متغیر وابسته سوم تأثیر بگذارد. به عنوان پیش‌بینی‌کننده رگرسیون روی $Y_3$، من فقط می‌خواهم از متغیرهای مستقل خارج از مجموعه اصلی استفاده کنم، که فکر می‌کنم آنها روی $Y_3$ تأثیر دارند. برای این کار می‌خواهم تأثیر متغیرهای مستقل را روی $Y_1$ و $Y_2$ مقایسه کنم. اگر تأثیر در جهت دیگری باشد (به عنوان مثال ضریب $a_1$ منفی و $b_1$ مثبت است) بدیهی است که این متغیر مستقل احتمالاً روی $Y_3$ تأثیر خواهد داشت. اما اگر جهت یکسان باشد چه؟ ممکن است این اتفاق بیفتد که متغیر مستقل $X_n$ تاثیر قوی روی $Y_1$ و $Y_2$ داشته باشد اما با همان مقدار، به طوری که $Y_3$ توسط این متغیر مستقل تعیین نمی‌شود. _بنابراین سوال من این است_، آیا راهی برای فهمیدن (مثلاً با مقایسه ضرایب رگرسیون استاندارد؟)، وجود دارد که تأثیر یک پیش‌بینی‌کننده نسبتاً روی $Y_1$ و $Y_2$ چقدر است؟ بنابراین می توانم بگویم برای مثال، $X_n$ هم $Y_1$ و هم $Y_2$ را به صورت مثبت تعیین می کند، اما $Y_1$ قوی تر تعیین می شود، به طوری که ضریب $Y_1/Y_2$ و بنابراین احتمالاً $Y_3$ تحت تاثیر $X_n$ به صورت مثبت، به همین دلیل است که از آن به عنوان پیش بینی کننده در رگرسیون $Y_3$ استفاده می کنم. من نمی خواهم از ضریب $Y_1$ و $Y_2$ را به عنوان تخمین‌گر برای $Y_3$ پیش‌بینی کرد، اما یک رگرسیون کاملاً جدید در $Y_3$ انجام داد.
تأثیر مجموعه یکسانی از متغیرهای مستقل را بر روی دو متغیر وابسته متفاوت مقایسه کنید
67372
من قبلاً داده های خود را برای پایان نامه خود جمع آوری کرده ام و از آنجا که متغیرهای زیادی دارم، تجزیه و تحلیل عاملی انجام داده ام تا متغیرها را به چند عامل کاهش دهم. سپس میانگین همه متغیرهای مربوط به هر عامل جداگانه را محاسبه کردم. با این حال، زمانی که من تست نرمال بودن فاکتورها را انجام می دهم، منفی است، در حالی که تست نرمال بودن با نمرات ضریب رگرسیون ذخیره شده، نتایج مثبتی را به همراه دارد. کدام صحیح است؟ همچنین می خواستم بدانم آیا می توانم از نمرات ضریب رگرسیون ذخیره شده برای انجام تست های بعدی مانند تجزیه و تحلیل تفکیک، آزمون t و تحلیل رگرسیون چندگانه استفاده کنم یا باید به میانگین فاکتورها پایبند باشم؟ من در مورد چگونگی ادامه دادن کاملا گیج هستم. از هرگونه کمکی استقبال می شود. با تشکر
آیا می توان از نمرات ضریب رگرسیون ذخیره شده برای تست نرمال بودن در spss و برای تجزیه و تحلیل بیشتر استفاده کرد؟
113436
فرض کنید یک کوزه با تیله های N دارید. تمام سنگ های مرمر سیاه یا سفید هستند. شما یک نمونه از اندازه n را بدون جایگزین کردن آنها در urn می گیرید. با این یک نمونه می‌خواهید بتوانید یکی از دو عبارت زیر را بیان کنید: 1. Y% یا بیشتر از تیله‌ها سفید هستند. 2. کمتر از Y% از تیله ها سفید هستند. **افکار:** * این رویکرد از توزیع فوق هندسی استفاده می کند. * در عمل، N من بزرگ خواهد بود (1*10E5 تا 1*10E6). **سوالات:** 1. اندازه n چقدر است؟ 2. فرمول محاسبه حجم نمونه مورد نیاز «n» چیست؟ 3. چگونه می توان فاصله اطمینان برای Y را تخمین زد؟ پیشاپیش ممنون
فرمول محاسبه حجم نمونه برای توزیع فراهندسی
114787
من روی یک مسئله تمرین کار می کنم و در این مشکل گیر کرده ام: فرض کنید که $X_1,\dots,X_n$ با $X_i\sim\mathrm{N}(\alpha_i + \nu, \sigma^2)$ مستقل هستند. اجازه دهید $\theta = (\alpha_1, . . . , \alpha_n, \nu, \sigma^2)$ و خانواده توزیع های نمونه $P_θ$ را در نظر بگیرید. آیا پارامترسازی فوق قابل شناسایی است؟
قابلیت شناسایی توزیع نرمال
68342
من در حال مدل‌سازی میزان موارد سل (TB) در سطح محله هستم و سعی می‌کنم عوامل خطر مرتبط با میزان بالاتر را شناسایی کنم. من مایلم جوامعی را با نرخ موارد زیر متوسط ​​با توجه به مشخصات فاکتور خطرشان با این ایده که اینها بهترین مکان برای یافتن موارد جدید هستند، شناسایی کنم. کمی دایره ای است که من متوجه می شوم که از همان واحدهایی استفاده کنم که عوامل خطر را با آنها شناسایی می کنم تا سپس مناطقی را با نرخ های بالاتر مورد انتظار شناسایی کنم، اما فکر من این است که بتوانم جوامعی را که در انتهای پایین توزیع قرار دارند برای هر عامل خطر شناسایی کنم. . پس برنامه من این است که یک مدل پواسون با عوامل خطر قابل توجه بسازم، هر محله را متصل کنم و «نرخ مورد انتظار» را محاسبه کنم. سپس تفاوت را با کم کردن نرخ‌های «مشاهده‌شده» از «مورد انتظار» محاسبه کنید و سپس جوامعی را که بیشترین اختلاف را دارند شناسایی کنید. آیا این رویکرد مشروع است؟ یا این که از مدل به گونه ای استفاده می کند که قرار نیست استفاده شود؟
شناسایی واحدهای زیر متوسط ​​در مدل پواسون
114786
من با این ایده کاپولا کاملاً تازه کار هستم. من به ویژه در مورد تعریف یک جفت گاوسی سردرگم هستم. برای اینکه یک کوپول یک کوپول گاوسی باشد، آیا حاشیه‌ها باید گاوسی هم باشند؟ یا می تواند از هر توزیعی باشد؟ از صفحه ویکی‌پدیا به نظر می‌رسد که باید باشد (http://en.wikipedia.org/wiki/Copula_(Probability_theory)#Gaussian_copula) اما من فکر کردم که لازم نیست.
آیا در تعریف کوپول گاوسی، حاشیه ها نیز باید گوسی باشند؟
30331
من مونت کارلوس را بر روی داده‌های تاریخی اجرا می‌کردم و صرف نظر از توزیع داده‌ها، به دلیل نمونه‌گیری مجدد با جایگزینی، همیشه توزیع نرمال دریافت می‌کردم. این باعث شد که بتوانم با اطمینان 95 درصد پیش بینی کنم که مقدار مورد انتظار آن «متغیر» چقدر خواهد بود. تا اینجا خیلی خوب و خیلی باحال! مهم نیست که توزیع تاریخی متغیر چگونه به نظر می رسد، نمونه برداری مجدد و تخمین احتمال وقوع در آینده همیشه از توزیع نرمال پیروی می کند. حالا توزیع نرمال در عمل چندان عادی نیست. بنابراین چه پدیده ای منجر به توزیع نرمال می شود؟ آیا دلیل ریاضی برای آن وجود دارد؟ من مطمئن هستم که ربطی به قضیه حد مرکزی دارد، اما من در زیبایی تولید یک توزیع نرمال هنگام نمونه‌گیری مجدد با جایگزینی کاملاً متحیر و مجذوب هستم. ممکن است من نادرست باشم اما آیا این به طور کلی درست است؟ صرف نظر از توزیع تاریخی من (اعم از بتا، پواسون، دوجمله ای، تصادفی و غیره) من به توزیع عادی در نمونه گیری مجدد ادامه می دهم. هر گونه کمکی در زمینه ریاضیات که این پدیده را پشتوانه می کند مفید خواهد بود.
چگونه/چرا نمونه برداری مجدد از توزیع هر به توزیع نرمال منجر می شود؟
112233
من پاسخ این مشکل ساده را پیدا نمی کنم: چگونه می توانم با 3 متغیر A,B,C به صورت جبری نشان دهم که $ \sum\limits_C P(B|C)P(C|A)=P(B|A) )$ به شرطی که $P(A,B,C)=P(A|C)P(B|C)P(C)$ بی اهمیت به نظر می رسد، اما من مراحل جبری را از دست داده ام... با تشکر
به سادگی نشان دادن بر اساس احتمال شرطی
100017
اگر یک متغیر تصادفی $W$ به طور معمول توزیع شده باشد، آنگاه $\exp(W)$ Log- Normally توزیع شده است. با این حال، pdf این دو متغیر تصادفی با ضریب $\exp(W)^{-1}$ متفاوت است. pdf معمولی برای $W$ $$P(w \in W) = \frac{1}{\sigma\sqrt{2\pi}}\, e^{-\frac{(w - \mu)^ است 2}{2 \sigma^2}}$$ اما pdf Log-Normal برای $\exp(W)$ $$P(\exp(w) \in \exp(W)) = است \frac{1}{\exp(w)\sigma\sqrt{2\pi}}\ e^{-\frac{\left(w-\mu\right)^2}{2\sigma^2}} $$ چرا اینطور است؟ آیا نباید معادل باشند؟
چرا توابع چگالی نرمال و لگ نرمال با یک عامل متفاوت هستند؟
69726
من یک موتور جستجوی خاص دامنه ساخته ام، یک موتور جستجوی متا. این موتور جستجو، البته، نتایج خود را از موتورهای جستجوی دیگر مانند گوگل، بینگ، یاهو و غیره گرفته است. سپس یک طبقه بندی برای فیلتر کردن نتایج انجام می دهد. اکنون، من در حال ارزیابی دقت نتایج جستجوی بازگردانده شده توسط این موتور جستجو نسبت به دقت نتایج جستجوی بازگشتی از یک موتور جستجوی عمومی هستم. بنابراین من تعدادی پرس و جو در موتور جستجوی خود پرسیدم، دقت هر نتیجه بازگشتی را شمارش کردم و میانگین دقت ها را محاسبه کردم. من همان پرس و جوها را با یک موتور جستجوی عمومی انجام می دهم که در این مورد گوگل است. و بدین ترتیب میانگین دقت ها را محاسبه کنید. من از t-test دو استفاده می کنم تا ببینم آیا تفاوت بین این دقت ها از نظر آماری تفاوت معنی داری دارد یا خیر. چیزی که الان نمیتونم بفهمم این تست تی زوجی هست یا مستقل؟ من از استادم شنیدم که باید آزمون t مستقل باشد، زیرا مجموعه های نمونه از دو موتور جستجوی مختلف می آیند. اما به نظر من، از آنجایی که نمونه (نتایج جستجو برگردانده شده) بر اساس همان پرس و جوها به ترتیب نمایش داده می شود و موتورهای متا نتایج خود را از چندین موتور جستجوی عمومی می گیرند، باید تست t جفتی شود. از طرف دیگر من این را هم می‌دانم که تست t زوجی باید روی همان نمونه، درمان‌های مختلف انجام شود. کدام را انتخاب کنم؟ نیاز به کمک. من عکس صفحه نتایج جستجو را نیز ضمیمه می کنم تا سوالم واضح تر و قابل درک تر شود. با تشکر ![چگونه به نظر می رسد](http://i.stack.imgur.com/o4RsK.png)
مقایسه موتور جستجوی عمومی و موتور جستجوی متا. تست تی زوجی یا تی مستقل؟
94337
من در مورد موقعیتی صحبت می کنم که در آن چندین متغیر پیش بینی کننده پیوسته دارم که یک نتیجه پیوسته را پیش بینی می کنند. یکی از پیش‌بینی‌کننده‌ها دارای توزیع بسیار غیرعادی است و دارای مقادیر پرت وحشی است. من قصد دارم مدل رگرسیون را به یک جمعیت گسترده تر تعمیم دهم. آیا غیر عادی بودن و/یا وجود موارد پرت مانع از تجزیه و تحلیل من می شود یا در تفسیر مشکل ایجاد می کند؟ چه کار کنم؟
غیر نرمال بودن در متغیرهای پیش بینی کننده چه مشکلاتی را برای تحلیل رگرسیون چندگانه ایجاد می کند؟
67375
من می خواهم 1 میلیون بردار از مجموعه بردارها را نمونه برداری کنم $$\mathbf{v} = \\{v_1,v_2,...,v_n \\} $$ مشروط به * $\sum_{i=1}^ n v_i = 1$ * $\forall i: v_i \ge 0$ * هر $v_i$ حداکثر دارای 2 رقم اعشار است به عنوان مثال من $n = 10$ دارم. در واقع، من انتخاب می‌کنم اقلام 100 دلاری را به بخش 10 دلاری تقسیم کنم، به طوری که حداقل تعداد آیتم‌هایی وجود نداشته باشد که در هر قسمتی وجود داشته باشد (به این معنی که کالای 0 دلاری در یک قسمت ممکن است). این یک مسئله جالب ترکیبی (البته ابتدایی) است. فرض کنید یک مرد ثروتمند می خواهد ثروت 100 میلیارد دلاری خود را بین 10 پسرش تقسیم کند. فرض کنید او می‌خواهد هر پسری حداقل 1 میلیارد دلار به دست آورد و پسر *i*ام باید n$ میلیارد دلار دریافت کند که در آن n$ یک عدد صحیح بزرگتر از 0 است. تصور کنید او پول خود را در 1 میلیارد دلار پشت سر هم انباشته کرده است. با مقداری فاصله بین هر شمع سپس او 99 شکاف بین شمع ها خواهد داشت. برای تقسیم پول، او باید به سادگی 9 نقطه برش را از 99 شکاف انتخاب کند. بنابراین، 99 است، 9 را انتخاب کنید. به طور کلی، اگر او $c میلیارد و d پسر داشته باشد، C-1 انتخاب d راه برای تقسیم ثروت خود خواهد بود. حالا فرض کنید او می خواهد ثروتش را طوری تقسیم کند که حداقلی وجود نداشته باشد و پسر *i*ام بتواند n_i$ میلیارد دلار بدست آورد که در آن $n_i$ یک عدد صحیح بزرگتر یا مساوی 0 است. چند راه برای انجام این کار وجود دارد؟ او باهوش بود و از دوستش خواست که 10 میلیارد دلار به او قرض دهد و او نیز آنها را با میلیاردهای دیگرش در یک ردیف قرار داد. اکنون 110 توده از یک میلیارد دلار پشت سر هم وجود دارد و 109 شکاف وجود دارد. او از بین این 109 فاصله، 9 نقطه برش را انتخاب می کند. اکنون او 110 میلیارد دلار را به 10 قسمت با حداقل یک میلیارد دلار تقسیم کرده است. حالا او از هر قسمت 1 میلیارد دلار پس می گیرد و 10 دلار را به دوستش برمی گرداند. حالا 100 میلیارد دلار اصلی به 10 شمع تقسیم شده است به گونه ای که هیچ حداقلی وجود ندارد! بنابراین 109 دلار با انتخاب 9 دلار به من این ترکیب ها را می دهد. در R، «combn(a,b)» تمام نقاط برش را از همه ترکیب‌های ممکن «a انتخاب b» به من می‌دهد. با این حال اجرای «combn(109,9)» در رایانه من امکان پذیر نیست. در R، آیا روش کارآمدی برای نمونه برداری از خروجی «combn» وجود دارد؟
در R، اگر a انتخاب b خیلی بزرگ است، چگونه از خروجی combn(a,b) نمونه برداری کنیم؟
109851
من از رگرسیون لجستیک برای پیش بینی احتمال وقوع یک رویداد استفاده می کنم. در نهایت، این احتمالات در یک محیط تولید قرار می گیرند، جایی که ما تا حد امکان بر روی پیش بینی های بله خود تمرکز می کنیم. بنابراین برای ما مفید است که علاوه بر سایر اقداماتی که برای اطلاع از این تعیین استفاده می‌کنیم، ایده‌ای در مورد اینکه چه «بازخورد» یا «عدم بازدید» می‌تواند پیشینی باشد (قبل از اجرای تولید) مفید است. سوال من این است که راه مناسب برای پیش‌بینی کلاس قطعی (1,0) بر اساس احتمال پیش‌بینی‌شده چیست؟ به طور خاص، من از بسته «glmnet» R برای مدلسازی خود استفاده می کنم. این بسته به طور خودسرانه احتمال 0.5 را به عنوان آستانه برای بله یا خیر انتخاب می کند. من معتقدم که باید نتایج یک قانون امتیازدهی مناسب را بر اساس احتمالات پیش‌بینی‌شده در نظر بگیرم تا به یک کلاس قطعی تعمیم دهم. نمونه‌ای از فرآیند مدل‌سازی من در زیر آمده است: mods <- c('glmnet', 'scoring') lapply(mods, need, character.only = T) # run cross-validated LASSO regression fit <- cv.glmnet(x = df1[، c(2:100)])، y = df1[، 1]، خانواده = 'دو جمله ای'، type.measure = 'auc') # ایجاد احتمالات پیش بینی شده در داده های جدید df2$prob <- predict(fit, type=response, newx = df2[, c(2:100)], s = 'lambda.min') # محاسبه Brier امتیاز برای هر رکورد df2$propscore <- brierscore(df2[,1] ~ df2$prob, data = df2) بنابراین من اکنون یک مجموعه‌ای از امتیازات بریر برای هر پیش‌بینی، اما چگونه می‌توانم از امتیاز بریر برای وزن مناسب هر احتمال بله یا خیر بودن استفاده کنم؟ من می دانم که روش های دیگری نیز برای این تعیین وجود دارد، مانند جنگل تصادفی.
استفاده از قانون امتیازدهی مناسب برای تعیین عضویت کلاس از رگرسیون لجستیک
67376
قرارداد استاندارد در آمار فضایی این است که عبارت تاخیر مکانی در مدل رگرسیون به دلیل همزمانی سوگیری خواهد داشت. با نگاهی به مدل زیر، استدلال با این امر دشوار خواهد بود: $y_{i} = \rho W y_{i} + X_{i} \beta + \varepsilon_{i}$، زیرا ما انتظار یک اثر بازخورد را داریم . به عبارت دیگر، تاخیر مکانی $y_{i}$ را تحت تاثیر قرار می دهد، اما $y_{i}$ نیز بر تاخیر مکانی خود تاثیر می گذارد. با این حال، من در تلاش برای شبیه سازی یک مدل رگرسیون فضایی هستم و این نتیجه را پیدا نمی کنم. اگر کسی بتواند دلیل این موضوع را روشن کند ممنون می شوم. این حتی در مورد تعداد بسیار کم مشاهدات و همبستگی فضایی بالا نیز صادق است. روش شبیه سازی من به شرح زیر است. 100 مشاهده وجود دارد که به طور مساوی در یک شبکه 10 دلاری \ برابر 10 دلاری قرار گرفته اند. وزن‌های $W$ توسط مجاورت روک داده می‌شوند و ردیف استاندارد می‌شوند. من 4 مدل تخمین می زنم. دو مورد اول OLS هستند، با و بدون اصطلاح تاخیر مکانی. جای تعجب نیست، ضرایب سوگیری هستند زمانی که تاخیر فضایی حذف شده است. مدل‌های دیگر تأخیر مکانی را از طریق حداکثر احتمال و 2SLS تخمین می‌زنند. من هیچ تفاوت اساسی بین OLS با تاخیر فضایی، حداکثر احتمال و برآوردگرهای 2SLS پیدا نکردم. متغیرهای زیر ایجاد می‌شوند: $x_1 = 1$، یعنی وقفه $u_{1i}\sim \mathcal{N}(0,1)$ $u_{2i}\sim \mathcal{N}(0,1) $\rho_x $ = 0.5 $، بنابراین متغیرهای مستقل از نظر مکانی همبستگی دارند $x_{2i} = (1-\rho_{x} W)^{-1} u_{1i}$x_{3i} = (1-\rho_{x}W)^{-1} u_{2i}$\rho = 0.75$، همبستگی مکانی قوی $b_1 = 1$b_2 = 8$$b_3 = 2$$\varepsilon_{i}\sim \mathcal{N}(0,1)$ $M=(1- \rho W)^{-1}$ $y_{i} = M b_{1}x_{1i} + M b_{2}x_{2i} + M b_{3}x_{3i } + M \varepsilon_{i}$، مدل فرم کاهش یافته. کد R مربوطه را هم پیوست می کنم. # کتابخانه چند مدل فضایی (spdep) rm(list=ls()) n = 100 داده = data.frame(n1=1:n) # coords data$lat = rep(1:sqrt(n), sqrt(n) ) data$long = sort(rep(1:sqrt(n), sqrt(n))) # ایجاد ماتریس W wt1 = as.matrix(dist(cbind(data$long, data$lat), method = euclidean, upper=TRUE)) wt1 = ifelse(wt1==1, 1, 0) diag(wt1) = 0 # row standardize rs = مجموع ردیف (wt1) wt1 = اعمال (wt1, 2, تابع (x) x/rs) lw1 = mat2listw(wt1، style=W) rx = 0.5 rho = 0.75 b1 = 1 b2 = 8 b3 = 2 inv1 = invIrW(lw1, rho=rx, روش = حل، امکان پذیر=NULL) inv2 = invIrW(lw1 , rho=rho, method=solve, feasible=NULL) sims = 100 beta1results = ماتریس (NA, ncol=4, nrow=sims) beta2results = ماتریس (NA, ncol=4, nrow=sims) beta3results = ماتریس (NA, ncol=4, nrow=sims) rhoresults = ماتریس (NA, ncol= 3, nrow=sims) for(i در 1:sims){ u1 = rnorm(n) x2 = inv1 %*% u1 u2 = rnorm(n) x3 = inv1 %*% u2 e1 = rnorm(n) y1 = b1 + b2*x2 + b3*x3 + e1 y1 = inv2 %*% y1 yl = wt1 %*% y1 data1 = data.frame(y1, x2, x3) m1 = coef(lm(y1 ~ x2 + x3)) m2 = coef(lm(y1 ~ yl + x2 + x3)) m3 = coef(lagsarlm(y1 ~ x2 + x3, data1, lw1)) m4 = coef(stsls(y1 ~ x2 + x3، data1، lw1)) beta1نتایج[i،] = c(m1[1]، m2[1]، m3[2]، m4[2]) بتا2نتایج[i،] = c(m1[2]، m2[3]، m3[3]، m4[3]) beta3نتایج[i،] = c(m1[3]، m2[4]، m3[4]، m4[4]) نتایج اولیه[i،] = c(m2[2]، m3[1], m4[1]) } # ارزیابی عملکرد اعمال می‌شود(نتایج اولیه، 2، میانگین) ; application(rhorresults, 2, sd) application(beta1results, 2, mean) ; apply(beta1results, 2, sd) application(beta2results, 2, mean) ; application(beta2results, 2, sd) application(beta3results, 2, mean) ; اعمال (بتا3نتایج، 2، SD)
درون زایی در مدل رگرسیون با تأخیر فضایی
33755
برای 100 شرکت، من (i) «تویت» و (2) «بازدید از صفحه» وب سایت شرکتی را برای «148» روز جمع آوری کرده ام. حجم توییت و بازدید از صفحه در روز دو متغیر مستقل هستند که در برابر «حجم معاملات» سهام برای هر شرکت جفت شده‌اند که منجر به 100 x 148 = 14800 مشاهده می‌شود. ساختار داده های من به این صورت است: تاریخ شرکت tweetVol pageviewVol tradeVol -------------------------------------- ---------- 1 1 200 150 2423325 1 2 194 152 2455343 1 3 214 199 3100429 . . . . . . . . . . 1 148 205 233 2563463 2 1 752 932 7434124 2 2 932 2423 7464354 2 3 600 1435 5324323 . . . . . . . . . . . . . . . 100 148 3 155 32324 از آنجایی که تفاوت زیادی در اندازه شرکت وجود دارد (برخی شرکت ها فقط 2 توییت در روز دریافت می کنند، در حالی که دیگران مانند اپل روزانه بیش از 10000 توییت دریافت می کنند)، همه متغیرها برای هموارسازی توزیع ثبت می شوند. (این مطابق با تحقیقات قبلی است - این برای پایان نامه من است). من فقط یک رگرسیون خطی روی این داده ها انجام دادم که شامل هر دو متغیر مستقل بود. R-Squared 0.411 است اما Durbin-Watson فقط 0.141 (!) بدون جستجوی مرزهای دقیق، می دانم که این مستقیماً به این معنی است که باقیمانده های من غیر خطی هستند، به عنوان مثال. همبستگی خودکار، درست است؟ سوال من این است: چگونه می توانم این را حل کنم؟ وقتی به آن فکر می کنم، این داده ها نباید همبستگی خودکار داشته باشند، بنابراین من واقعاً نمی فهمم. آیا به این دلیل است که در واقع یک تحلیل سری زمانی است؟ من هم فکر نمی کنم، زیرا برای مثال حجم معاملات امروز مستقل از حجم معاملات دیروز است. کسی می تواند این را برای من توضیح دهد؟ P.S. در دانشگاه من، ما از SPSS/PASW بدون ماژول‌های اضافی استفاده می‌کنیم، بنابراین من نمی‌توانم آنالیز سری‌های زمانی را در این مورد مانند شما در STATA یا R انجام دهم.
با دوربین واتسون بسیار پایین چه کنیم؟
68341
استدلال وزن در گلمر به چه چیزی اشاره دارد؟ من از اندازه های نمونه به عنوان وزن با glm استفاده کردم، اما در اینجا مطمئن نیستم. واریانس اندازه نمونه بسیار کم است، اما گنجاندن یا عدم آن در «گلمر» تفاوت زیادی به من می دهد. به عنوان مثال، در مجموعه داده زیر، تنها با استفاده از یک متغیر مستقل، تفاوت در نتایج بسیار زیاد است (تخمین، BIC، p.value). آیا کسی تجربه استفاده از وزنه در گلمر را دارد و تأیید می کند که آیا مطابق انتظار کار می کند یا اینکه من آن را درست انجام می دهم؟ به نظر می رسد موضوعی در مدل های r-sig-mixed و در صفحات github با استدلال وزن در glmer مشکلی وجود دارد، اما از آنجایی که دانش من در مورد مدل های ترکیبی تنها چند هفته پیش است، نمی توانم آن را دنبال کنم. . داده های من: cv <- ساختار(list(name = c(AlfF، AndH، AntH، BerG، BerR، FreZ، GerB، GerT، GueS، «GueV»، «HanN»، «HeiW»، «JakW»، «KarN»، «KerG»، «KlaS»، «ManS»، «MarS»، «SilN»، «TheG»، «UweP»، «WerT»، «AlfF»، «AndH»، «AntH»، «BerG»، «BerR»، «FreZ»، «GerB»، «GerT»، «GueS»، «GueV»، «HanN» ، HeiW، JakW، KarN، KerG، KlaS، ManS، MarS، SilN، TheG، UweP، «WerT»، «AlfF»، «AndH»، «AntH»، «BerG»، «BerR»، «FreZ»، «GerB»، «GerT»، «GueS»، «GueV»، «HanN»، «HeiW» ، JakW، KarN، KerG، KlaS، ManS، SilN، TheG، UweP، WerT، AlfF، «AndH»، «AntH»، «BerG»، «BerR»، «FreZ»، «GerB»، «GerT»، «GueS»، «GueV»، «HanN»، «HeiW»، «JakW»، «KarN» ، KerG، KlaS، ManS، SilN، TheG، UweP، WerT، AlfF، AndH، AntH، «BerK»، «BerR»، «ChrG»، «FraR»، «FreZ»، «GerB»، «GerB»، «GerT»، «GueS»، «GueV»، «HanN»، «HeiW»، «JakW» ، KlaS، ManS، MarH، PetS، SilN، TheG، UweP، WerT، AlfF، AndH، BerK، «BerR»، «ChrG»، «FraR»، «FreZ»، «GerB»، «GerB»، «GerT»، «GueV»، «HanN»، «HeiW»، «JakW»، «KlaS»، «ManS» ، MarH، PetS، PetW، SilN، SveR، UweP، WerT، AlfF، AndH، AntH، «BerK»، «BerR»، «ChrG»، «FraR»، «FreZ»، «GerB»، «GerB»، «GerT»، «GueS»، «GueV»، «HanN»، «HeiW»، «JakW» KlaS، ManS، MarH، MicH، PetS، SilN، SveR، UweP، WerT)، prop_yes = c(0، 0.2، 0.6، 0.1، 0، 0، 0.1، 0، 0.3، 0،0، 0، 0، 0.1، 0.8، 0.1، 0.1، 0، 0، 0، 0، 0، 0، 0، 0.3، 0، 0.3، 0.3، 0.5، 0.4، 0.778، 0، 0.05، 0.5، 0، 0، 0.4، 0.2، 0، 0، 0، 0.2، 0.2، 0.3، 0.2، 0.6، 0.2، 0.2، 0.1، 0.1، 0.3، 0.1، 0.1، 0.1، 0.111، 0، 0.2، 0.1، 0.2، 0.8، 0، 0.111، 0، 0.1، 0، 0.2، 0.3، 0.1، 0.4، 0.333، 0.2، 0.1، 0.2، 0.2، 0.1، 0.2 0.1، 0.364، 0.1، 0.3، 0.375، 0، 0، 0، 0.2، 0، 0.1، 0، 0، 0، 0، 0.1، 0.1، 0، 0.3، 0، 0، 0.3، 3، 0، 0. 0، 0.667، 0.2، 0.571، 0.2، 0، 0.2، 0.6، 0.2، 0، 0، 0، 0، 0، 0.2، 0، 0، 0، 0، 0.2، 0.3، 0، 0.7، 0.3، 0، 0، 0، 0.2 0.2، 0.1، 0.1، 0.4، 0.1، 0.4، 0.3، 0.222، 0.2، 0.1، 0.1، 0.5، 0.2، 0.6، 0، 0، 0.1، 0.167، 0.333، 0، 0.20، 0.222، 0.5 0.1، 0)، اندازه = c(10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 19 لیتر، 10 لیتر، 6 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، ، 9 لیتر، 10 لیتر، 6 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 20 لیتر، 10 لیتر، 8 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 11 لیتر، 10 لیتر، 10 لیتر، 11 لیتر، 10 لیتر، 10 لیتر، 8 لیتر، 7 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 4 لیتر، 6 لیتر، 10 لیتر، 9 لیتر، 9 لیتر، 10 لیتر، 7 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 1 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 8 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر 10 لیتر، 10 لیتر، 5 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 12 لیتر، 12 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 10 لیتر)، tmean_winter = c(-3.91--3.91-. ، -4.6، -4.09، -4.05، -4.09، -4.85، -4.48، -4.77، -6.66، -4.16، -4.68-، -4.48، -5.07، -3.83، -4.28، -4.79، -4.83، -4. , -4.43, 2.36, 1.47، 2.13، 1.09، 1.93، 2.26، 2.28، 1.98، 1.66، 1.3، 1.69، -1.01، 2.22، 1.89، 2، 1.23، 2.31، 2.6، 2.6، 2.31، 2.6، 2.31 1.38، 1.61، 0.86، 1.82، 0.48، 1.45، 1.74، 1.5، 1.78، 1.14، 0.65، 1.17، -1.59، 1.69، 1.55، 1.45، 1.55، 1.45، 1.41، 1.0 1.14، 1.23، 0.81، -1.53، -2.61، -1.52، -2.7، -1.77، -1.54، -1.68، -1.32، -2.16، -2.82، -1.95، -4.56، -1.57، -1. ، -2.55، -1.51، -1.98، -2.05، -1.97، -2.62-، -4.48، -5.25، -4.04، -4.92، -4.59، -5.34، -5.09، -4.12، -4.36، -5.23، -4.74 - ، -5.28، -4.55، -7.07، -4.18، -5.17، -4.56، -4.56، -4.74، -4.58، -4.62، -5.08، -5.25، -1.87، -2.67، -2.84، -2.47، -3.11، -2.3، -2. ، -2.05، -2.96، -2.57، -2.75، -2.54، -4.18، -2.07-، -3.04، -1.81، -2.39، -2.24، -2.75، -2.75، -2.79، -2.44، -2.85، -0.35، -1.47 - ، -1.02، -0.76، -1.23، -1.57، -0.48-، -0.65، -1.18، -0.58-، -0.92، -1.58، -1.07، -4.05، -0.52، -2.1، -0.36، -0.75، -1.04، -0.67، -1. ، -1.81، -0.61، -1.64))، .Names = c(name، prop_yes، size، tmean_winter)، row.names = c(NA، -158L)، class = data.frame) glmer(prop_yes ~tmean_winter+(1|نام)، خانواده=دوجمله‌ای، داده=cv) glmer(prop_yes~tmean_winter+(1|نام)، خانواده=دوجمله‌ای، داده=cv، وزن=اندازه)
آرگومان وزن در glmer()، داده های نسبت
109858
آیا تابعی در R وجود دارد که مدل VARMAX را تخمین بزند؟ یکی برای VARX (بسته MTS) وجود دارد، اما من یکی را پیدا نکردم که با قسمت MA نیز کار کند ...
مدل VARMAX در R
109853
Bagging فرآیند ایجاد N یادگیرنده بر روی N نمونه بوت استرپ مختلف و سپس گرفتن میانگین پیش بینی های آنها است. سوال من این است: چرا از هیچ نوع نمونه گیری دیگری استفاده نمی کنید؟ چرا از نمونه های بوت استرپ استفاده کنیم؟
چرا بگینگ از نمونه های بوت استرپ استفاده می کند؟
91353
من این سوال را برای یک تکلیف آمار / یادگیری ماشینی دریافت کردم و از شما می خواهم اگر هر یک از شما پاسخ مناسب را می دانید. اگر n نقطه داده داشته باشیم، احتمال اینکه یک نقطه داده معین در نمونه بوت استرپ ظاهر نشود چقدر است؟ به نظر به اندازه کافی ساده به نظر می رسد درست است؟ من مقدمه ای بر یادگیری آماری را می خوانم تا راه حل را بیابم، اما مطمئناً قدردان کمک هستم
احتمال داده شده نقطه داده در نمونه بوت استرپ ظاهر نمی شود؟
88983
من یک متغیر پیش بینی پیوسته دارم که آن را به bin ها تقسیم کرده ام (در 0٪، 0 تا 25٪، ...). برای هر یک از این سطل ها، هیستوگرام زیر تعداد شرکت هایی که در آن محدوده هستند و تعداد ورشکستگی ها را به شما نشان داده ام. انتظار دارید با رسیدن رشد دارایی ها به 100 درصد (و همچنین زمانی که رشد دارایی نزدیک به 0 درصد است)، ورشکستگی ها افزایش یابد. یک آزمون مجذور کای استقلال روی این سطل‌ها نشان داد که ورشکستگی‌ها و سطل‌های درصد رشد دارایی مستقل نیستند. چگونه ثابت کنم که رشد دارایی بالاتر (*و/یا** کمتر) به شدت با ورشکستگی مرتبط است؟ البته، نرخ ضربه برای درصد رشد دارایی بالاترین است. من از Chi-Sq در هر سطل (df=1) و ورشکستگی مورد انتظار = (متوسط ​​نرخ ضربه) x اندازه بن استفاده کردم، اما ممکن است نادرست باشد. آیا من 6 بار رگرسیون لجستیک تک متغیره انجام دهم و نتایج مدل را با هم مقایسه کنم؟ (همه prob = 0 برای رشد دارایی = 100% bin با استفاده از LR/glmfit). من از **MATLAB** استفاده می کنم. ![هیستوگرام تعداد شرکت ها و ورشکستگی های بیش از درصد رشد دارایی](http://i.stack.imgur.com/MVqvu.jpg)
مقایسه فرکانس ها
108108
هنگام گزارش نتایج نظرسنجی‌ها، اغلب درصد پاسخ‌دهندگانی را که پاسخ‌های متفاوتی داده‌اند فهرست می‌کنیم. با این حال، این درصدها را می‌توان از جمله افرادی که می‌گویند «نمی‌دانم» و/یا «بدون مبنایی برای قضاوت» محاسبه می‌شود (در این صورت درصد پاسخ‌های اساسی به 1 نمی‌رسد)، یا بدون چنین افرادی. چرا باید از درصدهایی به استثنای داده های dnk/nbj استفاده کنم؟
آیا هنگام گزارش خلاصه نتایج نظرسنجی باید «نمی دانم» درج شود؟
30339
فرض کنید یک متغیر $x_d$ دارم که در داده های تخمینی، یک نشانگر ساده است ($x_d \in \left\\{0,1\right\\}$). من یک ضریب برای آن تخمین می زنم، $\beta_d$، همراه با چندین ضریب دیگر برای متغیرهایی که می توانند پیوسته، ساختگی های بیشتر و غیره باشند. حالا یک نفر می خواهد از این ضرایب در یک پیش بینی استفاده کند. برای داده های ورودی خود، آنها مایلند $x_d$ را نه به عنوان یک شاخص، بلکه به عنوان یک متغیر پیوسته در نظر بگیرند. یعنی در حالی که داده های برآورد این کمیت را به عنوان یک یا یا یا نشان می دهند، داده های پیش بینی آن را بیشتر به عنوان یک درجه نشان می دهند. در این داده های پیش بینی، من امیدوارم که همکار من مقدار $x_d$ را بین 0 و 1 محدود کند، اما ما هنوز در مورد آن بحث نکرده ایم. ### ویرایش $x_d$ توضیح می‌دهد که آیا وام از یک وام‌دهنده بسیار خاص گرفته شده است یا خیر. بنابراین در واقعیت، مقدار واقعاً فقط 0 یا 1 است. در پیش‌بینی، همکار من می‌خواهد آن متغیر را به‌عنوان معیاری پیوسته از شباهت به آن وام‌دهنده در نظر بگیرد، یعنی چقدر شبیه آن وام دهنده منبع وام است، با 0 به معنای نه در همه، و 1 به معنای همان قرض دهنده است. آیا تغییر معنی به این شکل کار بدی است؟ من به ویژه نگران این هستم که چگونه بر معانی سایر ضرایب که در کنار یک شاخص تخمین زده شده اند و اکنون در کنار یک متغیر پیوسته استفاده می شوند، تأثیر می گذارد. آیا زمانی که یک ضریب با یک اندیکاتور/ساختگی تخمین زده می شود، اما در یک پیش بینی با متغیر پیوسته استفاده می شود، مشکلی وجود دارد؟
ضریب با پیش‌بینی‌کننده باینری $\in \{0,1\}$ تخمین زده می‌شود، اما انجام پیش‌بینی‌هایی با مقادیر بین $0 و $1$ - آیا این مشکلی ندارد؟
88986
با توجه به آنچه من درک می کنم، 3 نوع اصلی روش انتخاب پیش بینی کننده برای مدل های خطی وجود دارد، یعنی 1 انتخاب زیر مجموعه، 2 انقباض و 3 کاهش ابعاد. 1. انتخاب زیر مجموعه شامل بهترین انتخاب زیرمجموعه و انتخاب مرحله به مرحله است که می تواند جلو، عقب یا ترکیبی باشد. برای انتخاب پیش بینی کننده ها می توان از AIC، BIC، Cp یا Adjusted R-Square استفاده کرد. 2. Shrinkage شامل رگرسیون Ridge و Lasso می شود. این رویکرد تلاش می‌کند تا ضرایب را به 0 3 کاهش دهد. کاهش ابعاد، پیش‌بینی‌کننده‌ها را تبدیل می‌کند و مدل را با استفاده از پیش‌بین تبدیل‌شده برازش می‌دهد. اگر دقت پیش‌بینی هدف اصلی من است و تفسیرپذیری مدل مهم نیست، از کدام روش(های) باید استفاده کنم؟ اگر روش ها نتایج متناقضی به دست آورد، چه کاری باید انجام دهم؟ مزایا و معایب اصلی هر رویکرد چیست؟
انتخاب پیش بینی مدل خطی از کدام روش استفاده کنیم؟
76168
من علاقه مند به نوشتن یک نرخ همگرایی غیر مجانبی برای SLLN به عنوان تابعی از تعداد نمونه هستم. از ادبیاتی که تاکنون خوانده ام، CLT نرخ همگرایی مجانبی $(1/\sqrt N)$ را برای SLLN ارائه می دهد. همچنین، Berry-Esseen یک کران غیر مجانبی را از نظر c.d.f ارائه می‌کند. $$|F_N(x) - \Phi(x)| \le \frac{C\mathbb{E}(|X|^3)}{\sigma^3\sqrt N}$$ آیا عبارتی مانند Berry-Esseen وجود دارد که تفاوت بین میانگین نمونه و مقدار مورد انتظار را محدود کند توزیع زیربنایی به عنوان تابعی از N (تعداد نمونه)؟
نرخ همگرایی برای SLLN
52461
بیایید بگوییم که من داده هایی دارم که تعداد بازدید از موزه در روز را نشان می دهد. چالش من این است که بفهمم چگونه برخی از متغیرهای خارجی (برون زا؟) مانند آب و هوا و تبلیغات بر تعداد بازدیدهای روزانه تأثیر می گذارد. علاوه بر این، باید پیش‌بینی کنم که با تغییر متغیرهای خارجی، تعداد بازدیدها چگونه تغییر می‌کند. داده‌های من دارای نوسانات فصلی کاملاً واضحی است که در آن تعطیلات آخر هفته و تعطیلات خاص بازدیدکنندگان بیشتری را جذب می‌کنند. طول فصلی سالانه نیز می‌تواند وجود داشته باشد. از آخرین باری که با سری های زمانی کار کردم، مدت زیادی می گذرد، و بنابراین باید در جهت درست راهنمایی شوم. رویکردی که باید برای مدل‌سازی این داده‌ها استفاده کنم چیست؟ مراحل پیش پردازش؟ نوع مدل؟ دام های معمولی؟ آیا کسی از نمونه های کار شده ای سراغ دارد که بتوانم از آنها الهام بگیرم؟
مدل سازی سری های زمانی با متغیرهای مستقل
88984
فرض کنید یک فرآیند ثابت AR(p) گاوسی $$ X_t = \sum_{i=1}^t \phi_i X_{t-i} + a_t $$ است که $a_t$ از iid $N(0، \sigma_a^2) است. $. 1. برای تخمین پارامترهای آن از یک مسیر نمونه به طول $n$، من فکر می‌کنم راحت‌تر است که احتمال گزارش مشروط $\log p(X_{p+1}, \dots, X_n \mid X_1, \dots, X_p، \phi_1، \dots، \phi_p، \sigma_a^2)$ به جای حداکثر کردن احتمال گزارش $\log p(X_1، \dots، X_n \mid \phi_1، \dots، \phi_p، \sigma_a^2)$، زیرا نمی‌دانم چگونه احتمال ورود را برای توزیع مشترک $X_1، \dots، X_p استخراج کنم. $. من می دانم که $X_1، \dots، X_p$ باید یک توزیع نرمال چند متغیره داشته باشند، اما من نتوانستم فرمول صریحی برای ماتریس کوواریانس آنها پیدا کنم. بنابراین نمی‌دانم آیا فرمولی صریح برای ماتریس کوواریانس $X_1، \dots، X_p$ و احتمال ورود به سیستم می‌دانید؟ 2. هنگام محاسبه AIC، از آنجایی که من نحوه محاسبه log likelihood را بلد نیستم، آیا استفاده از احتمال log شرطی به جای log likelihood قابل قبول است؟ نگرانی من این است که تفاوت بین احتمال log و احتمال ثبت شرطی $\log p(X_1, \dots, X_p \mid \phi_1, \dots, \phi_p, \sigma_a^2)$ است که به ترتیب AR مربوط می شود. ص اگر از AIC شرطی برای انتخاب p استفاده کنم، نگرانم که AIC های مشروط مدل های AR را با p های مختلف در یک زمین مقایسه نکنم، زیرا هرچه p بزرگتر باشد، l بیشتر از AIC شرطی برای عدم نادیده گرفته می شود. شامل $\log p(X_1، \dots، X_p \mid \phi_1، \dots، \phi_p، \sigma_a^2)$. بنابراین آیا چنین AIC مشروط قابل قبول است؟ با تشکر
تخمین و انتخاب مدل برای AR (p) گاوسی: احتمال ورود شرطی و غیرشرطی
52468
من آزمایشی را انجام دادم که در آن خانواده‌های مختلفی را که از دو جمعیت منبع متفاوت بودند، بزرگ کردم، که در آن هر خانواده به درمان‌های متفاوتی تقسیم شد. پس از آزمایش، چندین صفت را در هر فرد اندازه‌گیری کردم. اکنون می‌خواهم یک آمار کلی و از این رو چند متغیره داشته باشم که تأثیر درمان یا منبع و همچنین تأثیر متقابل آنها را آزمایش کند، اما اثرات خانوادگی را تصحیح کند. بنابراین، اساساً من می خواهم یک MANOVA با یک افکت تصادفی انجام دهم که به چیزی شبیه به این ترجمه می شود: manova (منبع داده * درمان + خطا (خانواده)) با این حال، تابع استاندارد R MANOVA از جلوه های تصادفی پشتیبانی نمی کند و من نتوانست تابع دیگری را پیدا کند که این کار را انجام دهد. بنابراین من می خواهم بپرسم اگر کسی پیشنهادی دارد که می تواند کمک کند. با تشکر
چگونه یک MANOVA با یک افکت تصادفی در R انجام دهیم؟
15167
من در مورد دو تست تردید دارم: **آزمون بروش–پاگان**، برای تشخیص ناهمسانی در یک سری، و **آزمون بارتلت**، برای آزمایش واریانس های مساوی برای نمونه هایی از جمعیت $k$. تفاوت بین این دو تست چیست؟ * آیا آن تست ها ارتباط زیادی ندارند؟ * چگونه یک داده هموسداستیک می‌تواند در واریانس همگنی نداشته باشد؟
تفاوت بین داده های هموسداستیک و همگن واریانس
76169
چرا شرط خاتمه الگوریتم مقدار-تکرار است (مثال http://aima-java.googlecode.com/svn/trunk/aima-core/src/main/java/aima/core/probability/mdp/search/ValueIteration .java ) همانطور که هست؟ در MDP (فرایند تصمیم مارکوف) $||U_{i+1}-U_i||< \text{error}\cdot(1-\gamma)/\gamma$ داریم، که $U_i$ بردار است Utilities $U_{i+1}$ بردار ابزارهای به روز شده است $\text{error}$ کران خطای مورد استفاده در الگوریتم است. $\gamma$ عامل تخفیف مورد استفاده در الگوریتم است * $\text{error}\cdot(1-\gamma)/\gamma$ از کجا می آید؟ * آیا عبارت $/\gamma$ به این دلیل است که هر مرحله توسط $\gamma$ تخفیف داده می شود؟ اما در مورد $\text{error}\cdot(1-\gamma)$ چطور؟ * و اندازه $\text{error}$ چقدر باید باشد؟
همگرایی تکرار ارزش
109852
من توانستم مدل Longitudinal IRT را در Winbugs برای پاسخ ترتیبی با گسترش کد BUGS که توسط Curtis در JSS از مقاله برداشته بودم در Winbugs قرار دهم http://www.jstatsoft.org/v36/c01/paper/ با این حال، من دارم مشکل در معرفی یک افکت گروهی در کد. داده‌ها پاسخ‌های ترتیبی 7 دسته‌ای هستند که از 1 تا 7 کدگذاری شده‌اند و در چند نقطه زمانی برای هر موضوع اندازه‌گیری می‌شوند. من می خواهم 3 گروه از افراد را بر اساس متغیر پنهان آنها (پارامتر توانایی) مقایسه کنم. در اینجا کد BUGs (من از R2WinBUGS استفاده می کنم) بدون افکت گروه است و همانطور که انتظار می رود اجرا می شود: lgrmar1 <- function(){ # مدل طولی پاسخ درجه بندی شده # بدون محدودیت - پارامترهای تبعیض آلفا به طور آزاد برای (t در 1:T) برآورد شده است برای (i در 1:n){ برای (j در 1:p){ Y[i، j، t] ~ dcat(prob[i، j، t، 1:K[j]]) برای (k در 1:(K[j] - 1)) { logit(P[i، j، t، k]) <- kappa [j، k] - آلفا[j]*تتا[i، t] } P[i، j، t، K[j]] <- 1.0 } برای (j در 1:p){ prob[i، j، t، 1] <- P[i، j، t، 1] برای (k در 2:K[j]) { prob[i، j، t، k] <- P[i، j، t، k] - P[i، j، t، k - 1] } } } } برای (i در 1:n){ theta[i، 1:T] ~ dmnorm(mu.theta[], Pr.theta[,]) } # قبلی برای mu.theta mu.theta[1] <- 0.0 برای (t در 2:T){ mu.theta[t] ~ dnorm(m .mu.theta, pr.mu.theta) } pr.mu.theta <- pow(s.mu.theta, -2) # ساختار AR(1) برای Sigma.theta sigsq.theta <- 1.0 Sigma.theta[1, 1] <- sigsq.theta برای (t در 2:T){ Sigma.theta[t, t] <- sigsq.theta برای (j در 1: (t - 1)){ Sigma.theta[t، j] <- sigsq.theta*pow(rho، t - j) Sigma.theta[j, t] <- Sigma.theta[t, j] } } Pr.theta[1:T، 1:T] <- معکوس(Sigma.theta[,]) rho ~ dunif(-1.0، 1.0) # Priors در پارامترهای مورد برای (j در 1:p){ alpha[j] ~ dnorm(m.alpha, pr.alpha) %_% I(0, ) } pr.alpha <- pow(s.alpha, -2) # آستانه باید برای (j در 1:p){ برای (k در 1:K[j] - 1 رتبه بندی شود ){ kappa.star [j، k] ~ dnorm(m.kappa، pr.kappa) kappa[j، k] <- رتبه (kappa.star[j, 1:(K[j] - 1)]، k) } } pr.kappa <- pow(s.kappa، -2) } ثابت ها عبارتند از: زمان T <- dim(Y)[3] n.متغیرها p < - dim(Y)[2] اندازه نمونه n <- dim(Y)[1] K - حداکثر سطح برای متغیر ترتیبی برای هر مورد K <- اعمال می شود(اعمال (Y, c(2,3), max), 1, max) پارامترهای قبلی: m.alpha <- 1.0 s.alpha <- 2.5 m.kappa <- 0.0 s.kappa <- 2.5 m.mu.theta <- 0 s .mu.theta <- 1 * * * سوال من این است که چگونه می توانم یک اثر گروهی را در مقیاس متغیر پنهان کدنویسی کنم؟ آیا باید اثر گروه را مستقیماً در عبارت درستنمایی مدل کنم (مثلاً logit(P[i, j, t, k]) <\- kappa[j, k] - alpha[j]*theta[i, t] + coef1 *grp1 + coef2*grp2، 3 گروه وجود دارد)، یا باید اثر گروه از متغیر پنهان تتا وارد شود؟ برای مورد دوم، چه تغییری در کد وجود دارد؟
پاسخ چندگروهی مورد طولی WinBUGS OpenBUGS
72396
من به تازگی به مبانی تخمین حداکثر احتمال و حداکثر کردن انتظار پرداختم. دنبال کردن دومی واقعاً دشوار است و من در پی بردن به اینکه چگونه می توانم روش EM را برای تخمین پارامترها اعمال کنم، زمان سختی را سپری می کنم.
در مورد نحوه تدوین و اعمال حداکثر احتمال
30335
در یک مدل مخلوط گاوسی داده شده با متغیرهای ادامه مشاهده شده $Y$ و متغیرهای گسسته پنهان $X$، من می‌خواهم الگوریتم رو به عقب را به منظور محاسبه پسین‌های حاشیه‌ای $P(x_t|y_{1:T})$ اعمال کنم. از آنجایی که این به صورت $$\frac{\alpha_t(x_t) \beta_t(x_t)}{P(Y)}$$ محاسبه می‌شود، فکر می‌کردم چگونه می‌توانم مقدار $P(Y)$ را بدست بیاورم؟ تنها احتمالاتی که من داده ام یک احتمال انتقال $P(x'|x)$ است.
احتمال داده های مشاهده شده در HMM
103812
من از بسته وگان در R برای انجام تجزیه و تحلیل افزونگی (RDA، بخشی از تجزیه و تحلیل همبستگی متعارف) استفاده می کنم. داده‌های پاسخ من باینری است و متغیرهای توضیحی من شامل 0، 0.5 و 1 است. من مقادیر ویژه بسیار کم (~0.05) دریافت می‌کنم و سؤال من این است که داده‌های باینری چگونه بر مقدار ویژه تأثیر می‌گذارند؟ آیا تغییرپذیری همیشه بد توضیح داده می شود؟
چگونه مقادیر ویژه با داده های باینری در تجزیه و تحلیل افزونگی کار می کنند؟
100135
من و یک همکار در حال تلاش برای حاشیه نویسی یک کار هم ترازی هستیم. ما دو سند داریم. سند اول نسخه اصلی و سند دیگر نسخه اصلاح شده است. من و حاشیه نویس دیگر سعی می کنیم جملات نسخه دوم را با اصل تراز کنیم. یک جمله در سند دوم می تواند مانند متن اصلی باشد. یک جمله نیز می تواند اضافه شود. و یک جمله در اصل نیز می تواند حذف شود. همچنین، یک جمله می تواند با چندین جمله در نسخه اصلی تراز شود. و چندین جمله را می توان در یک جمله تراز کرد. ======= این یک مثال است: سند اول دارای 10 جمله است: Sent-1, Sent-2, Sent-3, Sent-4, ... , Sent-10. سند دوم 9 جمله دارد: Sent-1, Sent-2, Sent-3, ... , Sent-9. حاشیه نویسی من این است: 1، 2، 3، 4، ADD، 5، 6، 8، 10 این نشان می دهد که فکر می کنم Sent-1، 2، 3،4 با 1،2،3،4 در جمله اصلی تراز شده اند، Sent-5 اضافه می شود، Sent-6 به 5 تراز می شود و Sent-7 به 6، Sent-8 به 8، Sent-9 به 10 تراز می شود. موارد بدون تراز حذف می شوند. حاشیه نویس دیگر دارای 1، 2، 3، 4، 5، 5، 6، 9، 10 است. باید با 9 تراز شود. بنابراین کاپا در اینجا چیست؟
چگونه این نوع کاپا را محاسبه کنیم؟
72391
بگویید من یک مدل SEM با 1 متغیر پیش بینی کننده (IV)، 2 واسطه (MV1، MV2) و 1 متغیر وابسته (DV) دارم. آموس اثرات غیرمستقیم ترکیبی را برای IV در DV گزارش می‌کند. بنابراین اثر غیرمستقیم ترکیبی، مجموع اثرات غیرمستقیم مؤلفه (یعنی اثر غیرمستقیم IV-MV1-DV و اثر غیر مستقیم IV-MV2-DV) خواهد بود. Amos دریافت فواصل اطمینان بوت استرپ در اثرات غیر مستقیم ترکیبی را آسان می کند. با این حال، فرضیه‌ها اغلب به اثرات غیرمستقیم مؤلفه مربوط می‌شوند (به عنوان مثال، اینکه MV1 واسطه اثر IV بر DV است). **چگونه می توانم با استفاده از Amos فواصل اطمینان را بر روی جلوه های غیرمستقیم کامپوننت بدست بیاورم؟** من علاقه مند به فواصل اطمینان مجانبی و بوت استرپ هستم. آیا می توانم فقط از مقادیر و خطاهای استاندارد برای ضرایب فردی استفاده کنم (یعنی MV1<-IV و DV<-MV1)؟
چگونه فواصل اطمینان را برای اثرات غیر مستقیم خاص در آموس بدست آوریم؟
76160
من یک مدل ARMA را به داده‌هایم برازش می‌کنم و اینجا کد وارد کردن من است statsmodels.tsa.arima_model به عنوان ari model=ari.ARMA(pivoted['price'],(2,1)) ar_res=model.fit() preds= ar_res.predict(100,400) چیزی که من می خواهم این است که مدل ARMA را تا 100 نقطه داده آموزش دهم و سپس خارج از نمونه را آزمایش کنم. در نقاط داده 100-400. اما من فکر نمی کنم این چیزی باشد که اتفاق می افتد. من فکر می‌کنم این به این دلیل است که مدل برای کل مجموعه داده مناسب است، بنابراین چگونه می‌توان پیش‌بینی‌ها خارج از نمونه باشد؟ اینجا می گوید که پیش بینی خارج از نمونه امکان پذیر است. آیا کسی می تواند به من کمک کند تا این را بفهمم؟ خوب اینجا کد جدید من است model=ari.ARMA(pivoted['price'][:100],order=(2,1)) ar_res=model.fit() preds=ar_res.predict(100,400) error AssertionError: طول ایندکس با مقادیر مطابقت نداشت
من مطمئن نیستم که statsmodels خارج از نمونه را پیش بینی کند
76165
من سعی می‌کنم فاصله پیش‌بینی تابع ()predict.lm را در R با استفاده از فرمول موجود در این بحث مطابقت دهم: به دست آوردن فرمولی برای محدودیت‌های پیش‌بینی در یک مدل خطی، من از کمیت دانش‌آموز در بازه استفاده می‌کنم اما در در پایان بسیار بزرگتر از چیزی است که توسط predict(). آیا محاسبه خاصی در تابع پیش بینی وجود دارد، من سعی کردم به کد نگاه کنم اما هیچ پاسخی پیدا نکردم. فرمول خوب به نظر می رسد زیرا من دقیقاً همان را از منابع دیگر پیدا کردم. کد R من : airquality_clean <- na.omit(airquality) attach(airquality_clean) #مدل تخمین مدل_1 <- lm(Ozone ~., data = airquality_clean) #Unbias variance of the resduals sigma_2 <- sum(model_1$residuals**2)/(dim(airquality_clean)[1]-dim(airquality_clean)[2]) #New observation new <- data.frame(Solar.R=200,Wind=10,Temp=70 ,Day=1,Month=3) #سیگما فاصله پیش‌بینی محاسبه شده <- sqrt(sigma_2*(1 + as.matrix(جدید)%*%solve(as.matrix(t(airquality_clean[,-1]))%*%as.matrix(airquality_clean[,-1]))%*% as.matrix(t(جدید))) qt <- qt(0.995، df = dim(airquality_clean)[1]-dim(airquality_clean)[2]) int_pred_t <- cbind(predict(model_1, new)-(qt*sigma),predict(model_1, new)+(qt*sigma)) int_pred_t [, 1] [،2] [1،] -22.59931 95.82563 #R prediction interval predict(model_1, new, interval=predict, level=0.99)} fit lwr upr 1 36.61316 -21.12916 94.35548 من خیلی دور نیستم اما نتایج یکسانی نیست. اگر از یک مقدار p از یک توزیع نرمال استفاده کنم و نه دانش آموز، حتی نزدیکتر هستم. متشکرم.
R پیش بینی با گزینه پیش بینی.
10250
من اطلاعاتی در مورد درصد مواد آلی در رسوبات دریاچه از 0 سانتی متر (یعنی سطح مشترک رسوب و آب) تا 9 سانتی متر برای تقریباً 25 دریاچه دارم. در هر دریاچه 2 هسته از هر مکان گرفته شد، بنابراین من 2 تکرار درصد درصد ماده آلی در هر عمق رسوب برای هر دریاچه دارم. من علاقه مند به مقایسه دریاچه ها در رابطه بین درصد ماده آلی و عمق رسوب (یعنی شیب) هستم. در برخی دریاچه ها رابطه بین درصد ماده آلی و عمق رسوب خطی به نظر می رسد اما در موارد دیگر این رابطه پیچیده تر است (نمونه های زیر را ببینید). افکار اولیه من این بود که روابط خطی را در جایی که مناسب است با کل منحنی یا زیر مجموعه ای از منحنی در صورتی که عمدتا خطی بود منطبق کنم و فقط آن دریاچه هایی را مقایسه کنم که در آنها رابطه خطی قابل توجهی یافت شد. با این حال، من از این رویکرد ناراضی هستم زیرا نیازی به حذف داده‌ها بدون دلیل دیگری ندارد مگر اینکه آنها با مدل خطی مطابقت نداشته باشند و اطلاعات بالقوه جالب در مورد رابطه بین درصد ماده آلی و عمق رسوب را نادیده می‌گیرد. راه خوبی برای خلاصه کردن و مقایسه منحنی های دریاچه های مختلف چیست؟ منحنی های مثال متشکرم: در همه موارد، محور y درصد ماده آلی در رسوب است و محور x عمق رسوب است که در آن 0 = فصل مشترک رسوب و آب است. یک مثال خطی خوب: ![یک مثال خطی زیبا](http://i.stack.imgur.com/TxzGA.png) 2 مثال غیر خطی: ![غیرخطی 1](http://i.stack.imgur .com/6M4N8.png) ![enonlinear 2](http://i.stack.imgur.com/ESuxB.png) مثالی بدون هیچ رابطه آشکار: ![بدون رابطه](http://i.stack.imgur.com/4Cczp.png)
چگونه روابط غیر خطی را خلاصه و مقایسه کنیم؟
72392
این سوال در تاپیک دیگری که من شروع کردم مطرح شد بنابراین فکر کردم نظرات افراد بیشتری را در مورد آن دریافت کنم. سوال من این است **آیا باقیمانده، e، تخمین‌گر خطا، $\epsilon$ است؟** دلیلی که می‌پرسم به شرح زیر است. در OLS، واریانس باقیمانده ها، $\frac{\text{RSS}}{(n - K )}$، به عنوان واریانس رگرسیون شناخته می شود (که در آن RSS مجموع باقیمانده مربع ها است). به طور مشابه، ریشه دوم این واریانس، $\sqrt\frac{\text{RSS}}{(n - K )}$، خطای استاندارد رگرسیون است. با توجه به این واقعیت که ریشه دوم واریانس، $\frac{\text{RSS}}{(n - K )}$، یک خطای استاندارد است، باید به این معنی باشد که این واریانس واریانس یک برآوردگر است. ما قبلاً می دانیم که آن واریانس باقیمانده ها است، بنابراین، باقیمانده یک برآوردگر است؟ (من $\epsilon$ فرض می کنم) افکار؟؟
آیا باقیمانده، e، برآوردگر خطا، $\epsilon$ است؟
76167
من مجموعه داده ای از 100 سری زمانی مختلف دارم و سعی می کنم فقط یکی از آنها را پیش بینی کنم. با این حال، من فکر می کنم که 99 سری زمانی دیگر بر روی مورد علاقه من تأثیر می گذارد، بنابراین از یک مدل VAR استفاده می کنم تا سری زمانی که به آن علاقه مندم ترکیبی خطی از مقادیر تاخیر خودش و مقادیر تاخیر 99 زمان دیگر باشد. سری'. شهود این است که اطلاعات اضافه شده از سری‌های زمانی دیگر، عملکرد پیش‌بینی را بهبود می‌بخشد (یعنی بهتر از عملکرد پیش‌بینی یک مدل AR ساده است که در آن فقط مقادیر تأخیر سری‌های زمانی مورد علاقه گنجانده شده است). بنابراین اولین سوال من این است که آیا این شهود صحیح است؟ سوال دوم من این است که آیا روش‌های شناخته شده‌ای برای تعیین اینکه کدام سری‌های زمانی عملکرد پیش‌بینی سری‌های زمانی مورد علاقه را بهبود می‌بخشد و کدام نه (مشابه نحوه عملکرد انتخاب ویژگی) وجود دارد.
پیاده سازی یک مدل خودرگرسیون برداری که در آن فقط یک متغیر مورد توجه است
115275
من برای تعیین تعداد بهینه حالت‌های پنهان در یک HMM، اعتبارسنجی‌های Leave-one-out Cross را اجرا می‌کنم. در هر تکرار یک مدل می‌گیرم و با الگوریتم رو به جلو، احتمال داده‌های تست را بر اساس مدل تخمین می‌زنم. من همچنین به log-likelihod (LL) مدل در هر فولد نیاز دارم تا مجموع همه تاها را بدست بیاورم و در نهایت شاخص مناسبی داشته باشم. چگونه می توانم LL در هر فولد را با استفاده از matlab محاسبه کنم؟ می پرسم آیا تابع خاصی برای محاسبه آن وجود دارد؟ و سوال آخر، من یک مدل در هر فولد می گیرم چگونه می توانم مدل جهانی را دریافت کنم؟ با گرفتن میانگین احتمالات؟
دریافت احتمال ورود به سیستم در هر برابر در LOO Cross Validation برای HMM در Matlab
103704
من با یک مدل پروبیت چند متغیره با قابلیت مشاهده جزئی/انتخاب نمونه (نوشته شده در GAUSS) مشکل دارم. در این مدل در هر یک از مراحل متعدد یک پروبیت وجود دارد و تنها یکی از دو نتیجه برای هر مرحله به مرحله جدید می رود. به عبارت دیگر، اساساً یک مدل هکمن است، که در آن شما یک معادله نتیجه (دستمزد) را مشاهده می کنید، اما فقط برای یک زیرگروه که معادله انتخاب را پشت سر می گذارد (فقط کسانی که تصمیم به کار دارند). مشکل من با مشخص کردن ماتریس کوواریانس است. اساساً باید 3 چیز را برآورده کند: 1) باید قطعی مثبت باشد 2) همه ورودی های مورب = 1 برای شناسایی هستند 3) ورودی های خارج از مورب بنابراین همبستگی هستند و باید در [-1,1] باشند. برای اطمینان از قطعی مثبت ماتریس cov (PD)، افراد معمولاً فقط یک ماتریس مثلثی پایین‌تر از نوع Cholesky، C را پارامتر می‌کنند. سپس ماتریس cov=CC را تعریف می‌کنند که PD تضمین شده است. با این حال، در این تجزیه C، قطرها به شکل sqrt(1-x) هستند. این مقادیر اغلب در تخمین من تخیلی می شوند، حتی اگر آنها را به صورت بی رحمانه به مقادیر خوب برگردانم (احتمالاً از آنجایی که بهینه سازی کنسرو شده پس از ارزیابی کد من کار خود را انجام می دهد). ثانیاً، من نمی‌توانم ورودی‌های خارج از مورب را در [-1،1] محدود کنم، بنابراین با مقادیر بزرگ‌تر از 1 پایان می‌دهم، با این حال فرض می‌شود که آنها همبستگی باشند. کسی مشاوره یا تجربه ای در مورد این مسائل داره؟ بسیار قدردانی می شود.
مشخصات ماتریس کوواریانس در پروبیت چند متغیره
76163
در رگرسیون خطی ساده اغلب می‌خواهیم بررسی کنیم که آیا مفروضات خاصی برای استنتاج وجود دارد یا خیر (مثلاً باقیمانده‌ها معمولاً توزیع می‌شوند). آیا منطقی است که مفروضات را با بررسی اینکه آیا مقادیر برازش به طور معمول توزیع شده اند بررسی کنیم؟
چرا تشخیص بر اساس باقیمانده ها است؟
111951
پس از آزمایش چندین مدل با داده های من، مقادیر R^2 و p مدل من را مانند زیر نشان می دهد. نمودار ACF به من می گوید که اصطلاح AR مهم است. بینش‌ها در مورد داده‌ها به من می‌گویند که تغییر در «x» تأثیر خواهد داشت (مثلاً y استفاده از A/C و x دما است). y(t)=a+b*y(t-1)+c*{x(t)-x(t-1)}+خطا سوال: آیا مدل فوق از نظر آماری معنادار است؟ اگر چنین است، این «مدل خطی» به چه دسته‌ای گفته می‌شود؟ من با مدل‌های AR، مدل‌های MA و مدل‌های ARIMA/ARMA برخوردم، اما مدلی را ندیده‌ام که عبارت AR و diff (متغیر مستقل) با هم وجود داشته باشد.
شرایط AR و متغیر مستقل به عنوان رگرسیون
92600
من سوالات دیگر در مورد مشاوره کتاب تئوری اندازه گیری را دیده ام، و فکر نمی کنم هیچ یک از آنها با آنچه من به دنبال آن هستم مطابقت داشته باشد. اکثریت قریب به اتفاق کتاب های درسی تئوری اندازه گیری (به طور طبیعی) مبتنی بر ریاضی هستند و معیارهای مختلفی را مورد بحث قرار می دهند. چیزی که من به دنبال آن هستم کتاب تئوری اندازه گیری است که بیشتر بر روی _تفسیر_ تمرکز دارد و اینکه چگونه ویژگی های چیزهایی مانند واریانس/انحراف معیار تغییر می کند، اگر معیارهای اساسی آنها را که بر اساس آن ها استوار شده اند، اصلاح کنید. به عبارت دیگر، کتابی که در مورد تفسیر، نحوه قضاوت در مورد معیارها بحث می کند (مثلاً آیا این نسبت به موارد دورافتاده حساس است، آیا قوی است و غیره) و نحوه ایجاد یک متریک و غیره. به عنوان مثال، معیار مرکزیت پذیرفته شده میانگین است، نه حالت یا میانه بنابراین اگر می‌خواهم بدانم اگر میانگین را با میانه جایگزین کنم، عملکرد واریانس/انحراف استاندارد چگونه تغییر می‌کند، چگونه این کار را انجام دهم؟ به عبارت دیگر، اگر در محاسبه واریانس، میانگین را با میانه جایگزین کنم، چگونه می توانم نتیجه بگیرم که تفاوت چندانی ندارد؟ از کمک شما متشکرم. **ویرایش**: آیا این سوال واقعاً یک سوال تئوری تصمیم است؟
تفسیر نظریه اندازه گیری - مشاوره کتاب درسی
7563
چه تکنیک ها/رویکردهایی در تست نرم افزارهای آماری مفید هستند؟ من به ویژه به برنامه هایی که تخمین پارامتریک را با استفاده از حداکثر احتمال انجام می دهند علاقه مند هستم. مقایسه نتایج با سایر برنامه‌ها یا منابع منتشر شده همیشه امکان‌پذیر نیست، زیرا اکثر اوقات وقتی برنامه‌ای از خودم می‌نویسم به این دلیل است که محاسبات مورد نیاز من قبلاً در یک سیستم موجود پیاده‌سازی نشده است. من بر روش هایی که می تواند صحت را تضمین کند، اصرار نمی کنم. من از تکنیک هایی که می توانند کسری از خطاها را بگیرند خوشحال خواهم شد.
نرم افزار تست آماری
100010
یک ماتریس $N \times 2$ را در نظر بگیرید (نماد MATLAB): M = [1.2, 3; 1.4، 2; 1.8، 1; 2.0، 2]; این یک ماتریس $4 \ برابر 2 $ است که در آن ستون اول از اعداد واقعی و دومی از اعداد صحیح تشکیل شده است. سوال من به سادگی این است: آیا اجرای یک تست $\chi^2$ در این مورد منطقی است و اگر چنین است چگونه آن را انجام می دهید؟ من تمایل دارم که نه بگویم زیرا محاسبه فرکانس ها برای واقعی (من در اینجا به یک نقطه اعشار کوتاه شده ام، اما این می تواند 5 یا 6 اعشار باشد) منطقی نیست. آیا من خیلی دور هستم، روشن یا در بین؟
آیا می توانید از آزمون کای دو با جداول اعداد واقعی استفاده کنید؟