_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
87668
|
این واقعا یک سوال دو قسمتی است. از من خواسته شد تا توافق بین ارزیابیکنندهها را در مطالعهای که در آن از 4 ارزیاب خواسته شد تا ریزآرایهها را از نمونههای بیمار رتبهبندی کنند، ارزیابی کنم. رتبه بندی بر اساس مقیاس ترتیبی 5 امتیازی (0-4) بود. من تجربه تجزیه و تحلیل توافق رتبهدهنده برای 2 رتبهدهنده را دارم، اما نه برای چند رتبهدهنده، بنابراین میخواهم بینشی در مورد بهترین راه برای انجام آن داشته باشم. من تحقیقاتی انجام دادهام و دو ماکرو SAS را پیدا کردهام که میتوانند برای توافق چند رتبهبندی (MKAPPA و MAGREE) استفاده شوند. آیا استفاده از یکی از این روش ها بهترین رویکرد خواهد بود؟ برای اینکه این مشکل کمی پیچیدهتر شود، هر نمونه 3 بار توسط هر یک از 4 ارزیاب رتبهبندی شد (مطالعاتی که خطوط سلولی را ارزیابی میکنند اغلب شامل انجام کارها در سه تکرار است). چگونه آن را حساب می کنید؟ آیا شما هر نمونه را مستقل می بینید؟ من مطمئن نیستم که آیا این بهترین رویکرد است یا خیر، زیرا آنها می خواهند همه 12 رتبه بندی را برای یک نمونه مقایسه کنند. آیا در عوض در نظر می گیرید که در واقع 12 ارزیاب برای هر نمونه وجود دارد زیرا هر یک از 4 ارزیاب هر نمونه را 3 بار رتبه بندی کرده اند؟ من از هر کمکی برای مقابله با این مشکل سپاسگزارم. اگر چیزی در اینجا واضح نیست، لطفاً به من اطلاع دهید. با تشکر
|
قابلیت اطمینان بین ارزیاب: چند رتبهدهنده و چند تکرار
|
52104
|
فرض کنید یک متغیر وابسته $Y$ با چند دسته و مجموعه ای از متغیرهای مستقل داریم. مزایای رگرسیون لجستیک چند جمله ای نسبت به مجموعه رگرسیون های لجستیک باینری چیست؟ منظور من از مجموعه رگرسیون لجستیک باینری این است که برای هر دسته $y_{i} \در Y$ مدل رگرسیون لجستیک باینری جداگانه با target=1 میسازیم که در غیر این صورت $Y=y_{i}$ و 0 باشد.
|
رگرسیون لجستیک چند جمله ای در مقابل رگرسیون لجستیک باینری
|
91074
|
من از مدلهای ترکیبی خطی برای شناسایی عوامل مهم استفاده میکنم، و معلوم میشود که: * `A`: معنیدار * `B`: معنیدار نیست *`A`×`B`: معنیدار آیا به این معنی است که چون A`× B نشان می دهد که تأثیر A به تأثیر B بستگی دارد، فقط تأثیر A واقعاً معنی دار نیست؟ من منابع زیادی را خواندهام، و به نظر میرسد که آنها پیشنهاد میکنند که اگر تأثیر «A»× «B» معنیدار باشد، نمیتوانیم تأثیر «A» را بر متغیر وابستهمان معنا کنیم. درست می فهمم؟
|
اثر اصلی غیر قابل توجه خواهد بود اگر تعامل معنی دار باشد؟
|
99996
|
فرض کنید زمان انتظار (ثانیه) کاربران در صفحات وب دارم. زمان انتظار صفحه userid 1 p1 10 1 p2 20 1 p3 5 2 p1 2 2 p3 5 3 p1 10 3 p5 2 3 p6 5 من باید کاربران را بر اساس زمان انتظار در هر صفحه مقایسه کنم. برای محاسبه شباهت بین کاربران بر اساس زمان انتظار از چه معیاری می توانم استفاده کنم؟
|
شباهت زمان انتظار کاربران را محاسبه کنید
|
60016
|
من نمی دانم آیا راه آسانی برای محاسبه کوواریانس بین پارامترها در WinBUGS/OpenBUGS وجود دارد. به دست آوردن واریانس ها آسان است، اما برای تجزیه و تحلیل بعدی، من به کوواریانس ها نیاز دارم. مثال سالم را در نظر بگیرید: model { for( i in 1 : doses ) { for( j in 1 : plates ) { y[i, j] ~ dpois(mu[i، j]) log(mu[i، j]) <- آلفا + بتا * log(x[i] + 10) + گاما * x[i] + لامبدا[i، j] lambda[i، j] ~ dnorm(0.0، tau) تجمعی.y[i، j] <- تجمعی(y[i، j]، y[i، j]) } } آلفا ~ dnorm(0.0،1.0E- 6) بتا ~ dnorm (0.0،1.0E-6) گاما ~ dnorm(0.0،1.0E-6) tau ~ dgamma(0.001، 0.001) sigma <- 1 / sqrt(tau) } چگونه کوواریانس بین آلفا و بتا را بدست می آورید؟ متناوبا، آیا به هر حال می توان 1000 تکرار آخر را ذخیره کرد و سپس واریانس های خارج را به صورت دستی محاسبه کرد؟
|
چگونه می توانم کوواریانس بین پارامترها را در WinBUGS محاسبه کنم؟
|
113145
|
من سعی می کنم پارامترها و متغیرهای پنهان را در یک مدل تقسیم پواسون تخمین بزنم که تعداد قابل مشاهده و غیر قابل مشاهده را در زمان با فرض احتمال تقسیم $\pi$ توصیف می کند. یک رویداد قابل مشاهده در زمان به عنوان $O_t$ نشان داده می شود در حالی که یک رویداد غیرقابل مشاهده به عنوان $U_t$ نشان داده می شود. فرض میشود که توزیعهای $O_{t+1}$ و $U_{t+1}$ از توزیع شرطی پیروی میکنند: $O_{t+1}|O_{t},U_{t}$ ~ Poisson$[ \pi(\mu_{t}O_{t}+\mu U_{t})]$U_{t+1}|O_{t}،U_{t}$ ~ Poisson$[(1-\pi)(\mu_{t}O_{t}+\mu U_{t})]$\mu$ و $\mu_r$ نرخهای خاصی هستند که در آن $\mu_{t} = \mu$ if $t \le C$ و $\mu_t = \mu_r$ اگر $t \gt C$; $t=1،2،\ldots،C-1، C، C+1، \ldots،N$. داده ها برای همه $O_t$ موجود است. هر متغیر پنهان $U_t$ باید با استفاده از رابطه بالا و با فرض اینکه $U_{t} = 0$ به روز شود. تخمین پارامترهای $\pi$، $\mu$، $\mu_r$ و متغیرهای پنهان $U_{t}$ برای همه $t$ مورد نظر است. روش بیزی برای انجام این تخمین ها انتخاب شده است و کد من در زیر آورده شده است: کتابخانه (R2jags) # داده های قابل مشاهده نمونه برای 30 نقطه زمانی o <- c(1, 1, 2, 11, 15, 30, 60, 46, 60 ، 54، 51، 44، 27، 20، 16، 10، 7، 7، 4، 4، 6، 10، 8، 10، 2، 4، 4، 1، 0، 0) # تنظیم ورودی برای تابع مدل jags oo <- data.frame(o) datain <- as.list(oo) datain$ n <- nrow(oo) datain$C <- C model <- function() { u[1] <- 0 #آوردن داده از طریق حلقه و توجه به شرایط نرخ برای (i در 2:C) { o[i]~dpois(pi*(mu*o[i-1]+mu*u[i-1])) } برای (i در (C+1):n ){ o[i]~dpois(pi*(mur*o[i-1]+mu*u[i-1])) } pi~dunif(0,1) # تنظیم پیشینهای غیر اطلاعاتی mu ~ dunif(0,10) mur ~ dunif(0,1) for(j در 2:C){ # پیشین های متغیر پنهان از طریق رابطه شرطی u[j]~dpois((1-pi)*( به روز می شوند mu*o[j-1]+mu*u[j-1])) } for(j در (C+1):n){ u[j]~dpois((1-pi)*(mur*o[j-1]+mu*u[j-1])) } } پارامترها <- c('pi','mu','mur ','u[10]','u[15]'،'u[20]') # معمولاً برای همه متغیرهای پنهان توزیع را بدست می آوریم اما فقط تصمیم می گیریم این سه متغیر را انتخاب کنیم. jagsfit <- jags(datain, model=model,parameters=parameters, n.chains=2,n.iter=5000000,n.burnin=100000,n.thin=5000) jagsfit mu.vect sd.vect 2.5% 25% 50% 75% u[10] 1.402007e+04 2037.291 1.103313e+04 1.213150e+04 1.397350e+04 1.561675e+04 u[15] 1.251555e+01.251555e+01.213150e+01. 1.132489e+06 1.251471e+06 1.352963e+06 u[20] 1.136881e+08 7039334.938 1.028741e+08 1.072936e+30841. 1.191725e+08 mu 2.466000e+00 0.021 2.431000e+00 2.449000e+00 2.465000e+00 2.485000e+00 مور 1.8601000-0001.8601000-01. 6.500000e-02 1.470000e-01 2.570000e-01 pi 0.000000e+00 0.000 0.000000e+00 0.000000e+00 0.0000000e+0 1.512097e+04 143.825 1.487507e+04 1.499773e+04 1.510491e+04 1.524422e+04 97.5% Rhat n.eff u[10] 1.79773e+04 u[15] 1.488133e+06 0.997 200 u[20] 1.262587e+08 0.998 200 mu 2.499000e+00 0.997 200 mur 6.220000e-04000000000001+6.220000e. 1.001 200 انحراف 1.534904e+04 0.997 200 داده های مشاهده شده در بالا را با ثابت کردن پارامترها و نوشتن تابع در زیر شبیه سازی کردم: set.seed(123) C =7;mu=2;mur =0.4;pi=0.7 o <- numeric() ; u <- عددی() o[1] <- 1; u[1] <- 0 f <- function(){ for(i در 2:30){ if(i <= C){ o[i] <<- rpois(1,pi*(mu*o[i -1]+mu*u[i-1]) u[i] <<- rpois(1,(1-pi)*(mu*o[i-1]+mu*u[i-1]) ) }دیگر{ o[i] <<- rpois(1,pi*(mur*o[i-1]+mu*u[i-1])) u[i] <<- rpois(1,(1-pi)*(mur*o[i- 1]+mu*u[i-1])) } } return(list(o,u)) } f() در این مورد، غیر قابل مشاهده این است: u <- c(0, 1, 3, 0, 7 , 12, 31، 32، 26، 20، 22، 15، 13، 8، 4، 2، 4، 4، 3، 4، 4، 4، 5، 5، 4، 2، 1، 0، 0، 0) من می خواهم برای بازیابی پارامترها و متغیرهای پنهان، اما نتایجی که به دست آوردم خوب نبود و فکر میکردم برخی از موارد را اشتباه مشخص کردهام. توزیع ها کسی میتونه کمک کنه این مشکل رو بررسی کنه؟ با تشکر
|
تخمین پارامترها و متغیرهای پنهان در توزیع پواسون تقسیم شده با استفاده از R و JAGS
|
6817
|
شهود من می گوید که معادله سوم باید طول گرادیان مجذور کمتر از اپسیلون باشد. $x_{k+1} = x_k - f(x_k)$ $x_{k+1} = x_k + 1$ $|f(x_k)|^2 < \epsilon$ با این حال، مطمئن نیستم که آیا فرم استاندارد **شکل استاندارد روش گرادیان و به ویژه قانون پایان آن را چگونه می نویسید؟**
|
بهینه سازی قانون پایانی روش گرادیان
|
57086
|
در افکت ثابت می توانید از گزینه «predict u» برای دیدن جلوه های ثابت استفاده کنید. اما در System GMM در xtabond2 امکان پذیر نیست... کسی می تواند به من کمک کند؟
|
استخراج جلوه های ثابت در سیستم GMM (xtabond2)، Stata؟
|
15707
|
من می توانم تصحیح Sidak مقدار p را در اکسل محاسبه کنم، اما آیا راه سریعی برای انجام آن با دست وجود دارد؟ من به دنبال چیزی شبیه به محاسبه حاشیه خطا با دست هستم، یعنی تقسیم 1 با جذر حجم نمونه.
|
چگونه تصحیح سیداک را با دست محاسبه کنیم؟
|
60011
|
من سعی می کنم شهودی برای تحلیل چند متغیره به دست بیاورم. فکر کردم خوب است که مثلاً، کانتور احتمال 0.95 را برای یک نرمال چند متغیره تجسم کنیم. من به دنبال پیشنهادهایی در مورد روشی کارآمد برای انجام این کار در R هستم. تلاش من این بود که دسته ای از بردارهای $\boldsymbol v=(cos(x), sin(x))'$ برای x با فاصله مساوی در $[ تولید کنم. 0,2\pi]$ و سپس سعی کنید cdf را دستکاری کنید تا بفهمید که $k$ چه ثابتی را ایجاد کرده است. \boldsymbol0$ و $\boldsymbol \Sigma$ دلخواه). نتوانستم این کار را انجام دهم و به این فکر کردم که آیا رویکرد بهتری وجود دارد. من با پکیج R که امتحان کردم شانس زیادی نداشتم - mvtnorm \- مطمئن نیستم منظور آنها از کمیت 'همسانی' چیست؟
|
چگونه منحنی های سطح یک نرمال چند متغیره را پیدا کنیم؟
|
95606
|
یک مدل ساده را در نظر بگیرید: Y = A + B + A*B آیا ممکن است ضریب A*B معنادار باشد در حالی که برای A یا B یا هر دوی آنها ناچیز باشد؟ یا بله یا خیر، می توانید بگویید دلیل آن چیست؟
|
آیا ممکن است اثر متقابل قابل توجه باشد در حالی که اثر(های) فردی مهم نباشد؟
|
15703
|
شاید کسی بتواند به من کمک کند یا حداقل سرنخی به من بدهد. من 1057 بیمار دارم که همگی انواع پروتز دارند. به نظر می رسد یکی از آنها نسبت به بقیه دارای نرخ تجدید نظر بالاتری باشد. تعداد کل: پروتزA 662 پروتزB 162 پروتزC 151 دیگر 82 میزان تجدید نظر: پروتزA 9 1,36% پروتزB 11 6,79% پروتزC 3 1,99% سایر 4 4,88% آیا کسی می تواند به من بگوید که آیا می توانم میزان بازبینی را چگونه انجام دهم از prothesisB (6.79٪) به طور قابل توجهی است در مقایسه با سایر پروتزها (از جمله سایر) بالاتر است یا نه؟ با تشکر و احترام ویرایش: آیا می توان فقط پروتز B را با بقیه به یکباره مقایسه کرد؟ من جدول احتمالی زیر را ایجاد کرده ام: prostB سایر کل Rev 11 16 27 noRev 162 868 1030 173 884 1057 Odds-Ratio = (11*868)/(16*162) = 3.68 p-Value = Can1 (Fisher0) اکنون می گویم که شانس تجدید نظر وجود دارد با پروتز B 3.5 برابر بیشتر از بقیه هستند؟ آیا این قابل قبول است زیرا P-Value آزمون دقیق فیشر بسیار معنی دار است؟
|
چگونه نشان دهیم که آیا نرخ بالاتری وجود دارد یا خیر؟
|
107703
|
آیا فاصله اقلیدسی در مقایسه با روشهای مبتنی بر فاصله دیگر مانند متریک فاصله منهاتان یا حداکثر اختلاف مزیتی دارد؟
|
مزیت فاصله اقلیدسی برای طبقه بندی
|
107707
|
من باید توزیع Rayleigh را برای یک تکلیف در شبکه های کامپیوتری درک کنم. متأسفانه، من فاقد دانش پیش زمینه در زمینه آمار و تئوری احتمال برای درک توضیحاتی هستم که در جاهای دیگر در مورد توزیع رایلی ارائه شده است، زیرا من را از صفحه ای به صفحه دیگر هدایت می کند و بیشتر گیج می شوم. اگر بتوانید از یک مثال برای نشان دادن قضیه استفاده کنید، حتی مفیدتر خواهد بود.
|
توضیح انگلیسی ساده توزیع ریلی؟
|
60012
|
نمونه فرمول خطای استاندارد چیست؟ من فقط $s$ می دانم اما حدس می زنم این نیست. من در مورد فرمول آن گیج شده ام. لطفا کمکم کنید. متشکرم.
|
نمونه فرمول خطای استاندارد چیست؟
|
99991
|
من می خواهم ویژگی های مهم به دست آمده از روش های غیر خطی را با استفاده از تابع هسته SVM-RBF طبقه بندی کنم. من از اعتبارسنجی متقاطع 10 برابری استفاده کرده ام که 180 نمونه را به عنوان مجموعه آموزشی و 20 نمونه را به عنوان مجموعه آزمایشی تقسیم می کند. آیا می توانید من را از طریق مراحل نحوه پیاده سازی SVM با هسته RBF برای طبقه بندی داده ها به دو گروه راهنمایی کنید؟
|
استفاده از SVM همراه با هسته RBF برای طبقه بندی داده های EEG
|
21946
|
من سعی می کنم فرمولی برای مسئله الگوریتم مشارکتی خود استخراج کنم تا رتبه محبوبیت یک مورد را محاسبه کنم. من سه عامل را برای محاسبه رتبه بندی برای یک آیتم بر اساس سه رتبه بندی مختلف $a$، $b$ و $c$ در نظر می گیرم که هر کدام دارای وزن $w_1$، $w_2$ و $w_3$ هستند. رتبهبندی تجمعی این است: $$w_1 a + w_2 b + w_3 c$$ در این معادله، من میخواهم به $b$ وزن کمتری نسبت به $a$ بدهم، یعنی $w_1 > w_2 > w_3$. اما مشکل این است که چگونه باید وزن ها را طوری تصمیم بگیرم/محاسبه کنم که این ترتیب نسبی را در حالت عادی حفظ کنند (من به دنبال نرمال سازی خطی نیستم) یعنی $$w_1 a > w_2 b > w_3 c$$ آیا راهی برای محاسبه وجود دارد $w_1$، $w_2$، $w_3$ به صورت پویا و چه فرآیند عادی سازی را باید استفاده کنم یا توصیه می شود؟ دریافت نظرات در مورد این رویکرد نیز بسیار مفید خواهد بود.
|
مقادیر نسبتاً عادی برای فیلترهای مشترک
|
100191
|
مجموعه داده من شامل نمونه هایی از متغیرهای زیر است: * $X_0$: وضعیت سیستم در زمان 0 (یک اسکالر پیوسته) * $X_1$: وضعیت سیستم در زمان 1 (یک اسکالر پیوسته) * $Y$: برخی از متغیرهای باینری که سیستم را در زمان 1 توصیف می کند * $\boldsymbol{C}$: یک دسته از متغیرهای کمکی من می خواهم بررسی کنم که آیا سیستم توسط تنظیم خودکار بررسی اینکه آیا X_0$ بزرگتر منجر به $Y$ بزرگتر می شود که به نوبه خود منجر به X_1$ کوچکتر می شود. اگر اینطور باشد، از طریق متغیر $Y$، وضعیت سیستم تمایل به تنظیم دارد. روشی که من در حال حاضر به آن نگاه کردهام از طریق یک رگرسیون لجستیک است: $$ \text{logit } Y = \beta_0 + \beta_{x,0}X_0+\beta_{x,1}X_1+\boldsymbol{\beta_c} \boldsymbol{C} $$ متوجه شدم که هرگاه $\beta_{x,0}$ مثبت است و به طور قابل توجهی با صفر متفاوت است، $\beta_{x,1}$ منفی است و به طور قابل توجهی با صفر متفاوت است (آزمون والد). صرفنظر از جزئیات تخمین (حسابگذاری برای چند خطی و غیره)، من نمیدانم که آیا رگرسیون لجستیک راه درستی برای نزدیک شدن به چنین مشکلی است و اگر نه، چه مدل دیگری را میتوانم بررسی کنم.
|
رگرسیون لجستیک برای خود تنظیمی
|
32013
|
اگر من یک مدل افزودنی تعمیم یافته داشته باشم چگونه می توانم این را در یک مقاله علمی به روش صحیح بنویسم؟ برای مثال: set.seed(10) RandData <- rnorm(8760*2) America <- rep(c('NewYork','Miami'),each=8760) Date = seq(from=as.POSIXct(1991) -01-01 00:00), to=as.POSIXct(31-12-1991 23:00)، length=8760) DatNew <- data.frame(Loc = America, Doy = as.numeric(format(Date,format = %j)), Tod = as.numeric(format(Date, قالب = %H))، Temp = RandData، DecTime = rep(seq(1، طول(RandData)/2) / (طول (RandData)/2)، 2)) نیاز (mgcv) mod1 <- gam(Temp ~ Loc + s(Doy) + s(Doy,by = Loc) + s(Tod) + s(Tod,by = Loc),data = DatNew, method = ML) بنابراین، اگر بخواهم بنویسم دمای هر دو مکان را می توان با مدل زیر توصیف کرد ... چگونه می توانم بنویسم این؟
|
فرمول مدل ریاضی مربوط به این مدل گام برازش در R چیست؟
|
24146
|
من 10 اندازه از مارها دارم که به شدت با هم مرتبط هستند (طول بدن، طول دم و 8 معیار اندازه سر). مجموعه دادههای من شامل اندازههای مختلف مار است (اما مارهای غیر بالغ) بنابراین مارهای کوچکتر (جوانتر) سرهای کوچکتر و دمهای کوتاهتری دارند (زیرا به طول بدن بستگی دارند). معمولاً دو رویکرد وجود دارد که چگونه می توان PCA را روی اقدامات زیست شناسی در این مورد پیاده سازی کرد. یکی از آنها این است که همه اندازهگیریها را بر روی طول بدن رگرسیون کنید و سپس PCA را روی باقیماندهها + طول بدن پیشفرض کنید. روش دوم اجرای PCA بر روی متغیرهای اصلی است. نمیدانم چرا باید همه اندازهگیریها را روی طول بدن عقب نشینی کنم، زیرا در PCA وقتی متغیرهای من همبستگی دارند مشکلی نیست. تنها حسی که در این روش می توانم ببینم در کاهش چند خطی بودن بالقوه است. اگر من همیشه PCA را با استفاده از ماتریس همبستگی و چرخش مایل در SPSS انجام دهم، آیا انجام آن روی باقیمانده ها منطقی است؟ تفاوت بین نتایج این دو رویکرد چیست؟ هدف این PCA ها کاهش چند بعدی بودن و سپس رسم نمودار اجزای جدید است... آیا می توان فکر کرد که انجام PCA بر روی باقیمانده ها چیزی شبیه به استاندارد کردن اندازه است و انجام PCA روی متغیرهای اصلی PCA استاندارد شده با اندازه نیست. ? آیا منطقی است؟ آیا قبل از انجام PCA باید همه اقدامات را در یک اندازه استاندارد کنم؟ من اینطور فکر نمی کنم، اما می خواهم مطمئن باشم. با تشکر ویرایش: برخی از منابع بیولوژیکی برای این موضوع PCA در مورد باقیمانده ها: http://www.pnas.org/content/94/8/3828.full http://www.ispa.pt/ui/uie/pdf/OliveiraAlmada1995. pdf PCA روی متغیرهای اصلی: http://swfsc.noaa.gov/uploadedFiles/Divisions/PRD/Publications/Jefferson_VW2004(82).pdf http://www.zool.uzh.ch/static/research/oekologie/literatur/pdf05_01/2001Evolution.pdf اینها دو رویکرد در زیست شناسی قبل از PCA رایج هستند، تعداد کمی از نویسندگان برای استانداردسازی اندازه استفاده می کنند نسبت متغیر وابسته و طول بدن من نمی دانم که آیا این سؤال نامشخص است یا شما نمی دانید پاسخ دهید، لطفاً به من بگویید چگونه می توانم آن را بهبود بخشم.
|
PCA روی متغیرهای اصلی در مقابل PCA روی باقیمانده ها
|
57089
|
آماردان آماتوری را در نظر بگیرید که هر نمونه ای را که منجر به رد فرضیه صفر خود در سطح معناداری 0.05= آلفا با آزمون دو طرفه نشود، کنار می گذارد. این خطای نوع 1 آمارگیران چیست؟ (او به رسم نمونه های مستقل ادامه می دهد تا زمانی که بتواند فرضیه صفر را رد کند.)
|
خطای نوع 1 رد نمونه هایی با مقدار p پایین چیست؟
|
21933
|
به نظر می رسد نمی توانم بفهمم PCA چگونه کار می کند. (عدم) دانش ریاضی هم به من کمک نمی کند. من خوانده ام که مجموعه جدید متغیرها باید ترکیبی خطی از مجموعه قدیمی باشد. این دقیقا به چه معناست؟ اینکه باید راهی وجود داشته باشد که اعداد a، b، c، ... را با ابعاد/متغیرهای x، y، z... ضرب کنیم و مجموعه قدیمی (!) بزرگتر را بدست آوریم؟ آیا می توانید به مثال من پاسخ دهید: اگر من 8 متغیر/بعد داشته باشم می توان آنها را به 3 کاهش داد؟ یا بردار 3 مولفه (با عرض پوزش برای عدم استفاده از اصطلاحات مناسب، انگلیسی زبان مادری من نیست) ترکیب خطی 8 نیست و بنابراین خیر؟ با تشکر
|
چگونه می توان 8 بعد را به 3 کاهش داد؟
|
15701
|
سلب مسئولیت: _من یک توسعه دهنده نرم افزار هستم و آمار را دوست دارم، اما آماردان حرفه ای نیستم، قبلاً تجربه کرده ام که عبارت من همیشه اصطلاحات صحيح نيست. لطفاً به خاطر داشته باشید._ من نظر شما را در مورد نحوه ساخت یک مدل آماری مشخص میخواهم: **هدف** چرا این کار را انجام میدهم: باید قابلیت اطمینان یک پایگاه داده مواد غذایی را ارزیابی کنم. آیا غذایی موجود است که بیشتر مردم می خورند؟ با کمک _CrossValidated_ من یک معیار دلخواه ایجاد کردم که نشان دهنده چیزی است که می خواهم بدانم: 1. 30 درصد مواد غذایی برتر 2. بر اساس مقداری که یک فرد عادی در یک وعده می خورد 3. فروخته شده سالانه در اتریش **گروه هدف** هدف این است که بفهمیم بیشترین غذاهایی که در اتریش خورده میشوند (شهروندان: 8 متر)، اما بیشتر توسط افرادی که به اینترنت آشنا هستند، بنابراین من تمایل دارم بگویم شهری، تحصیل کرده بخش خاصی وجود دارد _ مادر با فرزندان _ و _ ورزشکاران_ که در مطالعه دوم به آن خواهم پرداخت. **داده** درباره غذای مارک دار است زیرا پایگاه داده با غذاهای طبیعی کامل است. هر برند باید جداگانه ثبت شود. میخواهم نظر شما را در مورد رویکرد من بدانم: من به یک سوپرمارکت میروم و مدتی میز پول را مشاهده میکنم و هر غذایی که خریداری شده را ضبط میکنم. این یک نمونه از جامعه مصرف کلی اقلام در هر غذا است. به عنوان مثال 23000 لیتر کوکاکولا 600000 سیب 1. آیا این طراحی عاقلانه ای است؟ 2. حجم نمونه مناسب چقدر خواهد بود؟ 3. چگونه این کار را انجام می دهید؟ در نظر بگیرید که در حال حاضر این یک سرگرمی است که ما در 3 نفر انجام می دهیم. من راحت هستم که چند صد یورو را برای پرس و جو خرج کنم، اما فقط در صورتی که عاقلانه خرج شود.
|
چگونه از یک آمار نمونه برداری کنیم؟
|
112231
|
فرض کنید که ما دو پایگاه داده داریم: پایگاه_داده_1 و پایگاه_داده_2. پایگاه_داده_1 دارای 300 نمونه و پایگاه_داده_2 دارای 700 نمونه است. پایگاه_همه ترکیبی از دو پایگاه داده است. * آیا یافتن نقاط پرت با استفاده از «abs(X-mean(X))>=1.9*std(X)» در «پایگاه_داده» برابر است با یافتن نقاط پرت به طور جداگانه در «پایگاه داده_1» و «پایگاه داده_2»؟ در هر دو مورد نمونه های مشابه را حذف می کنیم یا خیر؟ * فرض کنید که موارد پرت را با ستون 1 در پایگاه داده های بالا حذف می کنیم. در ستون «2» و «3» دادههایی داریم که میخواهیم برای هر نمونه یک برچسب مانند این ایجاد کنیم «(column_2_value-column_3_value)/mean(column_2)» («mean(column_2)» میانگین همه مقادیر در ستون است. 2`) ما می خواهیم این برچسب را برای همه نمونه ها پس از حذف نقاط پرت محاسبه کنیم. در این مورد، اگر مقادیر پرت را از پایگاه_داده_همه حذف کنیم، پس از حذف مقادیر پرت به طور جداگانه در پایگاه_داده_89 و پایگاه_داده_90، مقایسه کنیم تا محاسبه کنیم؟ لطفا اگر وقت دارید این مشکل را ریاضی ثابت کنید. با تشکر
|
آیا تشخیص Outlier در دو پایگاه داده مجزا برابر با یک پایگاه داده ترکیبی است؟
|
9752
|
من مجموعه بزرگی از داده های مشتری دارم. برای این مشتریان، من **_امتیاز وفاداری مشتری_** ابداع کرده ام که معیاری برای وفاداری مشتری است. من میخواهم ویژگیهایی را پیدا کنم که به شدت با این امتیاز مرتبط/همبسته هستند. ویژگیها میتوانند _تعداد خریدها_ در انواع مختلف تاجر باشد. یک پاسخ واضح این است که فقط **_correlation_** را برای هر ویژگی با امتیاز وفاداری مشتری محاسبه کنید و ببینید کدامیک بیشترین همبستگی را دارند. آیا این روش ارجح برای انجام این کار است یا تکنیک های بهتری وجود دارد؟
|
پیشنهاداتی برای شناسایی ویژگی های کلیدی
|
78157
|
من دو نمونه $n=10$ با مقادیر زیر دارم نمونه 1: * Mean = $3$ * $s_{d} = 0.4$ نمونه 2: * Mean = $3.35$ * $s_{d} = 0.3$ اما مشاهدات هر دو نمونه ناشناخته است و من می خواهم $s_{d}$ رایج را برای محاسبه $t_{0}$ * * * بدانم: توجه: این تکلیف نیست فقط یک تکلیف است تمرین از آموزش که حل نشده است.
|
آزمون t-paired با حجم نمونه برابر و واریانس های نابرابر
|
58936
|
من رابطه قانون توان زیر را تخمین می زنم: $$\ln(\text{Rank}) = \text{constant} + \alpha \ln(\text{Size})$$ که $\text{Rank}$ $1 است ,~2,~3,~...,~n$, and $\text{Size}$ مقدار خام است. خطاهای استاندارد ضریب آلفا در این مثال چیست؟ من در مقاله ای خواندم که شما نمی توانید از فرمول معمولی استفاده کنید زیرا رتبه به طور خودکار همبسته است (براساس ساخت) و گرفتن گزارش ها برخی ویژگی ها را تغییر می دهد. اگر کمک کند، فرمولی که برای خطای استاندارد در این مثال دیدهام، $\text{SE}(\alpha) = \alpha (2/n)^{\frac{1}{2}}$ است.
|
رگرسیون ثبت خطای استاندارد OLS
|
51622
|
من کوواریانس یک توزیع را به صورت موازی محاسبه می کنم و باید نتایج توزیع شده را در گاوسی مفرد ترکیب کنم. چگونه این دو را ترکیب کنم؟ درون یابی خطی بین این دو تقریباً کار می کند، اگر به طور مشابه توزیع و اندازه شوند. ویکیپدیا یک فروم در پایین برای ترکیب ارائه میکند، اما درست به نظر نمیرسد. دو توزیع یکسان توزیع شده باید کوواریانس یکسانی داشته باشند، اما فرمول پایین صفحه کوواریانس را دو برابر می کند. آیا راهی برای ترکیب دو ماتریس وجود دارد؟
|
ترکیب دو ماتریس کوواریانس
|
19976
|
من گیاهانم را به چهار گروه 16 تایی تقسیم می کنم و برای اینکه حشرات دور نشوند آنها را اسپری می کنم: گروه 1: من روزانه سمپاشی می کنم گروه 2: من هر 2 روز یکبار سمپاشی می کنم گروه 3: من هر 3 روز یکبار سمپاشی می کنم گروه 4: من هر 4 روز یکبار سمپاشی می کنم. در پایان 12 روز، تعداد گیاهانی را که بدون اشکال هستند بررسی می کنم گروه 1: 12 گروه 2 است: 10 گروه 3 است: 7 گروه 4 است: 6 چگونه باید یک مدل را در این مورد قرار دهم؟
|
از چه مدلی برای آزمایش سمپاشی استفاده کنیم؟
|
18538
|
من دو سری داده دارم که میانگین سن مرگ را در طول زمان ترسیم می کنند. هر دو سری افزایش سن در هنگام مرگ را در طول زمان نشان میدهند، اما یکی بسیار کمتر از دیگری. من می خواهم تعیین کنم که آیا افزایش سن در هنگام مرگ نمونه پایین به طور قابل توجهی با نمونه بالا متفاوت است یا خیر. در اینجا دادهها بر اساس سال (از سال 1972 تا 2009) به صورت گرد شده به سه رقم اعشار مرتب شدهاند: گروه A 70.257 70.424 70.650 70.938 71.207 71.263 71.467 71.7267 71.7987 71.7267 72.798 72.964 73.397 73.518 73.606 73.905 74.343 74.330 74.565 74.558 74.813 74.773 75.176 75.470 75.176 75.40 76.152 76.312 76.558 76.796 77.057 77.125 77.328 77.431 77.656 77.884 77.983 77.983 گروه B 5.139 8.261 8.261 6.261 6.261. 11.364 12.639 11.667 14.286 12.794 12.250 14.079 17.917 16.250 17.321 18.182 17.500 20.000 20.000 18.825 18.825 21.167 21.818 22.895 23.214 24.167 26.250 24.375 27.143 24.500 23.676 25.179 24.861 26.875 227.14 26.875 27.14. 29.318 هر دو سری غیر ثابت هستند - لطفاً چگونه می توانم این دو را مقایسه کنم؟ من از STATA استفاده می کنم. هر توصیه ای با سپاس پذیرفته می شود. 
|
چگونه 2 سری زمانی غیر ثابت را برای تعیین همبستگی مقایسه کنیم؟
|
80590
|
من در چند مقاله خوانده ام که ماشین بردار پشتیبانی (SVM) یک مشکل سخت NP است، من نمی توانم این دو را با هم مرتبط کنم. می خواستم بدانم آیا کسی می تواند رابطه بین SVM و برنامه نویسی غیرخطی را توضیح دهد.
|
چگونه ماشین بردار پشتیبان با برنامه ریزی غیرخطی مرتبط است؟
|
112940
|
من سعی میکنم روندی را در سطوح یک متغیر طبقهبندی با استفاده از یک عبارت کنتراست در یک مدل آزمایش کنم و نمیتوانم بفهمم که وقتی تعداد سطوح فرد وجود دارد چگونه این کار را انجام دهم. با نگاهی به صفحه پشتیبانی SAS برای عبارات کنتراست (یعنی http://support.sas.com/kb/22/912.html)، تنظیم برای تعداد زوج سطوح با استفاده از ضرایب متعادل در حدود 0 آسان است، اما زمانی که شما یک فرد دارید. به عدد وسط، ضریب 0 اختصاص داده می شود، به این معنی که به هیچ وجه در کنتراست محاسبه نمی شود. من مستقیماً با پشتیبانی SAS تماس گرفتم و آنها پیشنهاد کردند که در یک انجمن آماری مانند این سؤال کنم.
|
چگونه روند را در یک مدل خطی تعمیم یافته، به ویژه برای اعداد فرد سطوح یک متغیر آزمایش می کنید؟
|
95404
|
فرض کنید $y = a + a_1x_1 + a_2x_2 + a_3x_3 + e$ که در آن $x_1$ و $x_2$ هر دو شاخص هستند، هر دو از $0-10$ متغیر هستند که $0$ حداقل و $10$ حداکثر است. من با استفاده از روش های VIF، CI و مقادیر ویژه دریافتم که $x_1$ و $x_2$ هم خط هستند. آیا میتوان این شاخصها را برای حل مشکل چند خطی متمرکز کرد؟
|
آیا وسط یک راه حل معتبر برای چند خطی بودن است؟
|
6814
|
من یک سوال در مورد واگرایی Kullback-Leibler دارم. آیا کسی می تواند توضیح دهد که چرا فاصله بین چگالی آبی و چگالی قرمز کمتر از فاصله بین منحنی سبز و قرمز است؟  با احترام، مارکو
|
واگرایی کولبک-لایبلر - تفسیر
|
97365
|
برای مقایسه چندین گروه، معمولا ANOVA را اجرا میکند. اگر ANOVA فرضیه صفر را رد کند، مقایسههای چندگانه انجام میشود. مقایسه های متعدد برای تعیین اینکه کدام گروه متفاوت است ضروری است. مقایسه های چندگانه با اعمال تصحیح بونفرونی (یا انواع جدیدتر تصحیح، مانند هولمز یا هومل) انجام می شود. چنین اصلاحاتی تضمین می کند که نرخ خطای خانوادگی (FWER) حداکثر آلفا باشد. FWER احتمال برگرداندن حداقل یک عبارت اشتباه در اهمیت هنگام مقایسه جمعیت هایی است که میانگین آنها در واقع یکسان است. من تعجب می کنم که چرا ANOVA قبلی اصلاً ضروری است. من فکر می کنم که باید مستقیماً مقایسه چندگانه را با مقادیر p تنظیم شده اجرا کرد. در واقع: الف) اگر همه میانگین ها برابر باشند: به دلیل اصلاح، مقایسه چندگانه همان FWER ANOVA را خواهد داشت. ب) برخی ابزارها متفاوت هستند. سپس مقایسه های متعدد به هر حال ضروری است. ANOVA قبلی اغلب انجام می شود، اما من دلیل قانع کننده ای برای آن نمی بینم. با تشکر
|
مقایسه چندگانه اصلاح شد: آیا ANOVA قبلی اصلا ضروری است؟
|
79421
|
من یک مجموعه داده $\mathcal{S}$ دارم که از چندین زیر مجموعه به عنوان $\mathcal{S}=\\{S_1,...S_i,...S_n\\}$ تشکیل شده است که هر $S_i$ دارای میانگین خود $\mu_i$، واریانس $\sigma_i$، و اندازه $\|S_i\|$. آیا راهی برای بدست آوردن واریانس کل مجموعه داده $\mathcal{S}$ وجود دارد؟
|
دریافت واریانس مجموعه ای متشکل از گروهی از زیر مجموعه ها
|
79403
|
من نتایج تعدادی از گروه ها را با مقدار مورد انتظار مقایسه کرده ام. نتایج یک مقیاس ساده با سه گزینه ممکن است: -1، 0، +1 مقدار مورد انتظار 0 است و یکی از گروه های من با تمام 1 پاسخ داده است که نتیجه آن این است که مقدار t من بی نهایت را می خواند. آیا این را به عنوان بی نهایت گزارش کنم؟ یا جایگزینی وجود دارد؟ من همچنین اندازههای اثر را بر اساس t-value محاسبه میکنم که در این مورد به وضوح غیرممکن است، بنابراین به جای آن چه بنویسم؟ با تشکر
|
یک نمونه t-test: نتیجه بی نهایت است - چه چیزی را گزارش کنم؟
|
36309
|
اگر مجموعه داده ای داشته باشم که نموداری مانند شکل زیر تولید می کند، چگونه می توانم به صورت الگوریتمی مقادیر x پیک های نشان داده شده (در این مورد سه مورد از آنها) را تعیین کنم:  .stack.imgur.com/tyLDG.png)
|
چگونه می توانم قله ها را در یک مجموعه داده پیدا کنم؟
|
9756
|
من یک **مدل رگرسیون SVM** را با استفاده از داده های آموزشی، x_1,x_2,\dots,x_N$ آموزش داده ام. من می خواهم ** یادگیری فعال ** را برای بهبود مدل انجام دهم. یعنی میخواهم نمونههای بیشتری را به دادههای آموزشی اضافه کنم و مدل بهتری را دوباره یاد بگیرم، و این نمونههای جدید را بهگونهای انتخاب کنم که عملکرد مدل حاصل را به حداکثر برسانم. برای یک طبقهبندیکننده SVM، یک روش اکتشافی مفید برای یادگیری فعال، انتخاب نمونههایی است که نزدیک به مرز تصمیم قرار میگیرند. به عنوان مثال، برای یک نمونه خاص، اطمینان (_c_) را می توان با استفاده از SVM محاسبه کرد. نمونه هایی که |c| کوچک دارند به احتمال زیاد مرز تصمیم گیری را در SVM بازآموزی شده بهبود می بخشند. آیا پیشنهادی در مورد نحوه انجام این کار برای رگرسیون SVM دارید؟ (من میتوانم نمونهها را به میل خود تولید کنم، اما برچسبگذاری آنها پرهزینه است، بنابراین میخواهم بدانم آیا میتوانم از رگرسیون-SVM «از قبل آموزشدیده» استفاده کنم تا به من کمک کند تصمیم بگیرم کدام یک را برچسبگذاری کنم)
|
یادگیری فعال با استفاده از رگرسیون SVM
|
19975
|
من مستندات را در این آدرس پیدا کردم: http://hosho.ees.hokudai.ac.jp/~kubo/Rdoc/library/SuppDists/html/maxFratio.html اما مطمئن نیستم که واقعاً چگونه از این استفاده کنم و برای یافتن کمک کوتاه میخواهم آنلاین اگر کسی لینک یا آموزشی در این مورد در R دارد لطفا به من اطلاع دهد.
|
کمک به استفاده از maxFratio() در R (تست هارتلی)
|
68349
|
اگر این سوال اساسی است پیشاپیش عذرخواهی می کنم. من سعی می کنم از LASSO برای انتخاب متغیر استفاده کنم، با یک پیاده سازی در R. در حال حاضر 15 پیش بینی کننده دارم، و به دنبال کاهش فضای متغیر و انتخاب بهترین پیش بینی کننده ها هستم تا در مدل فاکتور نهایی خود گنجانده شود. برخی به من توصیه کرده اند که برای این منظور از LASSO استفاده کنم. با این حال، پس از خواندن برخی مستندات در مورد موضوع، هنوز مطمئن نیستم که چگونه **پارامتر تنظیم** $\lambda$ را انتخاب کنم. در مورد پیاده سازی در R، من سعی کردم از بسته glmnet استفاده کنم: ** مقدار پارامتر تنظیم $\lambda$** library(glmnet) و <- cv.glmnet(data, return[,1], standardize = TRUE) par(mfrow=c(1, 2)) plot(ans$glmnet.fit، norm، label=TRUE) plot(ans$glmnet.fit، lambda، label=TRUE) dev.new() plot(ans) با این حال، من مطمئن نیستم که چگونه نتایج را تفسیر کنم. سپس موارد زیر را اجرا می کنم: مدل <- cv.glmnet(data, return[,1], standardize = TRUE) coef(model) لطفاً کسی می تواند نتایج LASSO در R را روشن کند؟ با تشکر
|
LASSO در R برای انتخاب متغیر: نحوه انتخاب پارامتر تنظیم
|
57088
|
من سعی میکنم بفهمم اگر تکنیک تشخیص پرت هامپل را بر اساس میانه و MAD روی دادههای کجشده اعمال کنید، چه اتفاقی میافتد. ظاهراً مزیت روش هامپل نسبت به z-score ها این است که بسیار کمتر تحت تأثیر خود پرت قرار می گیرد. با این حال، چندین مقاله و وب سایت می گویند که این روش نباید زمانی که توزیع داده ها منحرف است، بنابراین زمانی که داده ها به طور معمول توزیع نمی شوند، اعمال شود. با این حال، هیچ ادبیاتی در مورد اینکه اگر این روش را برای دادههای کجشده اعمال کنید چه اتفاقی میافتد، پیدا نکردم. آیا اصلاً نقاط پرت را تشخیص نمی دهد؟ یا اینکه مثبت کاذب را تشخیص می دهد؟ من چندین سوال در این انجمن پیدا کردم که آیا از z-scores یا رویکرد هامپل استفاده می شود و حتی زمانی که داده ها دارای انحراف هستند، اما هیچ کس پاسخی نداد که نتیجه روش هامپل در استفاده از داده های کج چیست. نزدیکترین نظری که در این انجمن پیدا کردم این است: استفاده از MAD به معنای متقارن بودن توزیع زیربنایی است (انحرافات بالای میانه و زیر میانه به طور مساوی در نظر گرفته می شوند). شما را به تخمین بیش از حد تغییرپذیری واقعی دادههایتان سوق میدهد. میانگین $\pm$SD یا Median$\pm$MAD برای خلاصه کردن یک متغیر بسیار کج؟ میگوید این شما را به برآورد بیش از حد تغییرپذیری واقعی دادههایتان سوق میدهد اما واقعاً این به چه معناست؟ آیا منجر به شناسایی موارد پرت بسیار زیاد یا بسیار کمتر می شود؟ علاوه بر این، آیا کسی می تواند مشکلی را در استفاده از این تکنیک برای مطالعات با حجم نمونه کوچک در مقایسه با امتیاز z مشاهده کند؟ آیا کسی می تواند برای روشن کردن آن کمک کند؟
|
میانه + MAD برای داده های کج
|
9759
|
من اینجا تازه کار هستم، بنابراین امیدوارم قبلاً به این موضوع پرداخته نشده باشد، اما چند جستجوی اول من چیزی پیدا نکرد. من در آستانه یادگیری R هستم و پروژه یادگیری من مستلزم اعمال رگرسیون اثرات مختلط یا تصادفی به یک مجموعه داده به منظور ایجاد یک معادله پیش بینی است. من نگرانی نویسنده را در این پست به اشتراک می گذارم چگونه کتابخانه nlme یا lme4 R را برای مدل های جلوه های ترکیبی انتخاب کنیم؟ در تعجب که آیا NLME یا LME4 بسته بهتری برای آشنایی است. یک سوال اساسیتر (امیدوارم احمقانهتر) این است: تفاوت بین مدلسازی اثرات مختلط خطی و غیرخطی چیست؟ برای پیشینه، من مدل سازی M-E را در تحقیقات MS خود به کار بردم (در MATLAB، نه R)، بنابراین با نحوه برخورد با متغیرهای تصادفی در مقابل ثابت آشنا هستم. اما مطمئن نیستم کاری که انجام دادم خطی بود یا غیرخطی M-E. آیا این به سادگی شکل تابعی معادله مورد استفاده است یا چیز دیگری؟
|
آیا کسی می تواند اثرات مختلط خطی در مقابل غیرخطی را روشن کند؟
|
68345
|
این سوال مربوط به تلاش من برای خوشهبندی توالیها با استفاده از مدلسازی مارکوف مخلوط است. من در درک مقدمات دیریکله در زمینه برآورد MAP (مدل های مارکوف مخلوط) مشکل دارم. یعنی، پیشین های من در نهایت (بسیار) بزرگتر از یک هستند. من پیشین های غیر آموزنده دارم که به صورت زیر تعریف شده اند: $$ p(\theta_n^{j}|a_n^{j})=\frac{\Gamma(\sum_{m=1}^{M}(a_{nm}^{j}+1))}{\prod_ { m=1}^{M}\Gamma(a_{nm}^{j}+1)}*\prod_{m=1}^{M}(\theta_{nm}^{j})^{a_{ nm}^{j}}، $$ که در آن هر $a_n^{j}$ یک _M_ -بردار با اجزای $a_{nm}^{j}>0$ است. _j_ نشان دهنده jامین جزء در مخلوط و _n_ تعداد ردیف TPM (ماتریس احتمال انتقال) است. سپس از مجموع log (Dirichlet Priors) در هر ردیف و هر جزء استفاده می کنم. گیج کننده ترین جنبه ها عبارتند از: 1) در تمام ادبیات فرمول قبلی دیریکله به صورت: $$ ارائه شده است. p(\theta_n^{j}|a_n^{j})=\frac{\Gamma(\sum_{m=1}^{M}(a_{nm}^{j}))}{\prod_{m =1}^{M}\Gamma(a_{nm}^{j})}*\prod_{m=1}^{M}(\theta_{nm}^{j})^{a_{nm}^ {j}-1}، $$ (به -1 در عبارت توان توجه کنید). آیا احتمالاً اشتباه تایپی در مقاله وجود دارد یا می توان از عبارت -1 صرف نظر کرد؟ 2) مقاله $a_n^{j}$ را برابر با 10% از بسامدهای نسبی متناظر TPM شمارش اصلی در تمام دنبالهها تنظیم میکند (اگر مدل ما فقط 1 جزء داشته باشد). سپس، اجازه دهید چنین مثالی را در نظر بگیریم: 3 حالت ممکن در زنجیره مارکوف وجود دارد، و احتمالات انتقال ردیف _n_ 0.1، 0.8، 0.1 است. اجازه دهید $a_n^j$ برابر با (0.01,0.03,0.06) باشد. سپس با پیروی از فرمول، پیشین من (محاسبه در R) خواهد بود: طبق نسخه اول فرمول: **1.961152** طبق نسخه دوم فرمول: **245.144** این با تعریف یک محاسبه شده است. تابع در R: > dirichletPrior<-function(matrix_row,alpha_row){ dirichl<-((gamma(sum(alpha_row+1)))/(prod(gamma(alpha_row+1))))*prod(matrix_row^(alpha_row)) dirichl } نتایج به نظر من کمی مزخرف به نظر می رسد، و من نمی فهمم منطق من کجاست. 3) آیا «پیشین دیریکله» تابع چگالی احتمال است یا تابع درستنمایی؟ اگر نتیجه هر ردیف بزرگتر از 1 باشد به چه معناست؟ آیا پارامترهای چند جمله ای آلفا مانند آنچه در مثال آوردم، اصلاً معنی دارند؟ چه وجه اشتراکی با پارامتر غلظت دارند؟ مقاله ای که من به آن اشاره کرده ام در لینک زیر قرار دارد: http://www.cs.uoi.gr/~kblekas/papers/C19.pdf.
|
آیا توزیع قبلی دیریکله می تواند بزرگتر از 1 باشد؟
|
67371
|
اجازه دهید $f$ یک تابع (احتمالا تصادفی) با دامنه محدود $D$ و محدوده محدود $R$ باشد، به طوری که برای هر دو $x$ و $x'$ در دامنه، $f(x)$ و $f (x')$ به طور یکسان توزیع می شوند. به عنوان مثال: $$\forall x,x'\in D, \forall y\in R \quad \Pr[f(x)=y] = \Pr[f(x')=y] \enspace. \qquad (\dagger)$$ من می خواهم ثابت کنم که خروجی $f$ مستقل از هر توزیع ورودی است. یعنی برای هر توزیع ورودی گسسته $X$ با پشتیبانی $D$، ما داریم: $$\forall x\in D, \forall y\in R \quad \Pr[f(x)=y \mid X= x]=\Pr[f(x)=y] \enspace. \qquad (\ddagger)$$ * * * در اینجا دو مثال آورده شده است که $(\dagger)$ را برآورده می کند و بنابراین $(\ddagger)$ را برآورده می کند: **مثال 1.** $f(x)$ یک تابع ثابت است . **مثال 2.** دامنه $D$ مجموعه ای از رشته های $n$-bit و $f(x)=x \oplus r$ است. یعنی $f$ یک رشته تصادفی $n$-bit (داخلی) انتخاب می کند و آن را به ورودی خود XOR می کند.
|
چگونه استقلال را در مورد زیر اثبات کنیم؟
|
112234
|
**هدف:** من به دنبال تعداد بهینه آثار منحصر به فرد در مسابقه مهارت با جوایز پولی هستم. **توضیحات:** مسابقات از 20 ورودی تا 10000+ ورودی متفاوت است. شما می توانید تعداد نامحدودی از ورودی ها را وارد کنید. در هر ورودی، 9 اسلات وجود دارد که می توان آنها را با متغیرها پر کرد. هر شکاف دارای مجموعه ای منحصر به فرد از متغیرها است که در هیچ شکاف دیگری قابل استفاده نیست. متغیرهای منحصر به فرد برای هر شکاف ممکن است بسته به مسابقه بین 2 تا 30 عدد باشد. هنگامی که متغیرهای انتخابی خود را در اسلات ها وارد می کنید، متغیرها بر اساس رویدادهای زندگی واقعی امتیاز کسب می کنند. برخی از اسلات ها به طور سنتی امتیاز بیشتری نسبت به سایر اسلات ها کسب می کنند. ورودی با بیشترین میزان امتیاز برنده است. در صورت تساوی، مبلغ جایزه تقسیم می شود. **فرض ها:** من بازیکنی بالاتر از حد متوسط هستم. هنگام مواجهه با رقابت مشابه، فرض کنید من میتوانم 57 درصد مواقع برنده شوم (اگر در یک مسابقه پنجاه یا پنجاه بازی کنم که نیمی از شرکتکنندگان برنده جایزه میشوند). این مسابقه دقیقا 10055 اثر دارد. هزینه ورودی 2 دلار است. جزئیات توزیع جوایز به شرح زیر است (منهای 10.5٪ هزینه ورودی به برگزارکنندگان مسابقه): **جوایز:** **اول:** $2,000; **دوم:** 1200; **سوم:** 800; **چهارم:** 500; **پنجم:** 350; **ششم:** 300; **هفتم:** 250; **هشتم:** 200; **نهم:** 180; ** دهم** : 160; **یازدهم:** 150; **دوازدهم:** 140; **سیزدهم:** 130; **چهاردهم:** 120; **پانزدهم:** 110; ** شانزدهم:** 100; **هفدهم - هجدهم:** 90; ** نوزدهم - بیستم:** 80; **بیست و یکم - بیست و دوم:** 70; **23 - 25:** 60; **بیست و ششم - بیست و هشتم:** 50; **بیست و نهم - سی و پنجم:** 40; **36 - 50:** 30; ** 51 - 60: ** 20; **61 - 75:** 18; **76 - 100:** 16; **101 - 200:** 14; ** 201 - 400:** 12; **401 - 600:** 10; **601 - 800:** 8; **801 - 1050:** 6 **بحث:** من درکی بالاتر از حد متوسط از احتمال دارم (اما این واقعاً نمیگوید)، بنابراین به اجرای شبیهسازی رسیدهام (کین کاغذ و مداد) با 10 ورودی و 10 دلار هزینه ورودی (1-50 دلار، دوم-30، 3-20). تحقیقات اینترنتی نشان میدهد، و شبیهسازیهای مقاله من موافق است، که استفاده از 2 یا بیشتر از ورودیهای دقیقاً یکسان همیشه منجر به یک مقدار انتظاری منفی (EV) میشود. سپس سعی کردم شبیه سازی را با دو ورودی مختلف اجرا کنم. به نظر می رسد 44 امکان منحصر به فرد وجود دارد. من پول جایزه را جمع کردم. سپس در 1/44 ضرب کردم. من این پاسخ را گرفتم و سپس 20 دلار هزینه ورودی را کم کردم. نتیجه ارزش مورد انتظار 45 سنت بود. آیا این درست است؟ با فرض اینکه ریاضی من درست باشد، نمی دانم چگونه می توانم آن را در مسابقاتی با تعداد ورودی های بسیار بالاتر اعمال کنم تا تعداد بهینه ورودی های منحصر به فردی را که باید ارسال کنم، بیابم. من واقعاً نمیدانم چگونه نرخ موفقیت 57 درصدی خود را در یک مسابقه به مسابقه دیگر ترجمه کنم. همچنین نمیدانم که آیا بهتر است ورودیهای کاملاً منحصربهفرد داشته باشیم یا فقط ورودیهای کمی منحصربهفرد (به نظر میرسد که باید ورودیهایم را متنوع کنم و آنها را تا حد امکان منحصربهفرد کنم و در عین حال امتیازهای کسب شده را به حداکثر برسانم). هر گونه کمک، راهنمایی یا راهنمایی بسیار قدردانی می شود. روز خوبی داشته باشید. P.S. اگر از مسابقاتی که در مورد آنها صحبت می کنم می دانید، لطفاً به آنها اشاره نکنید. P.S.S. من مطمئن نبودم که این سوال را اینجا پست کنم یا در math.stackexchange
|
تعداد بهینه آثار در مسابقه مهارت
|
94334
|
صبح همگی بخیر، من در حال انجام یک تمرین خودآموزی هستم که سعی دارد موردی را مثال بزند که در آن **توزیع عادی** برای تقریب **توزیع پواسون** استفاده می شود، زیرا میانگین جمعیت بیش از 10 است. من می دانم که هنگام استفاده از **توزیع عادی** تا تقریبی **توزیعات پواسون/دوجمله ای**، نیاز به **تداوم وجود دارد. خطای تصحیح ** مدیریت می شود. از درک من، این به معنای کم کردن 0.5 از کران پایین و اضافه کردن 0.5 به کران بالایی است.  با این حال، من با مثال زیر روبرو شدم که 0.5 از معادله کم شد. من می خواهم توضیح دهم: > اگر این به این دلیل است که کران پایین تر است، زیرا مقدار آن کمتر از W است؟ و اگر مفهوم زیر درست باشد > از درک من، این به معنای کم کردن 0.5 از کران پایین و > افزودن 0.5 به کران بالایی است. قدردان هر راهنمایی لطفا.
|
خطای تصحیح پیوستگی هنگام استفاده از توزیع نرمال برای تخمین توزیع پواسون
|
108101
|
من سعی می کنم از کتابخانه liblinear برای رگرسیون لجستیک با تنظیم L2 استفاده کنم. با این حال، من مشکلاتی را با آن پیدا می کنم. به عنوان مثال هنگام انتخاب پارامتر هزینه، پارامتر C را از 0.5 تا 10 با اعتبارسنجی متقاطع 10 برابری انتخاب کردم. با این حال، وقتی با مقادیر بالاتر C تا حتی 32000 امتحان کردم، دقت اعتبارسنجی متقاطع با C=32000 بیشتر است. این واقعاً عجیب است، من معمولاً می بینم که مردم از 10 عدد استفاده می کنند، اما در مورد من حتی 32000 بهترین به نظر می رسد. این عجیب نیست؟
|
رگرسیون لجستیک Liblinear با تنظیم L2 برای طبقه بندی
|
107704
|
من سعی می کنم روش استاندارد مدیریت خطای ضربی را در یک مدل خطی کشف کنم، به عنوان مثال، مدل من می خواند: $$ Y_i = (ax_i + b)\varepsilon_i , \quad \varepsilon_i\sim\mathcal{N}(1 , \sigma^2) $$ چگونه این را (در R) جا بدهم؟ ایده من این بود که از یک تبدیل log در هر دو طرف استفاده کنم: $$ Z_i = \log(Y_i) = \log(ax_i + b) + \log(\varepsilon_i) $$ خطاهای افزودنی اکنون به طور منطقی توزیع شده اند، اما چگونه می توانم مناسب این؟ من می توانم بگویم این یک GLM با تابع پیوند $g=\exp$ و خطاهای lognormal است، اما به نظر می رسد R چنین مدلی را نمی شناسد. آیا من چیزی را از دست داده ام؟ به نظر می رسد این یک مدل فوق العاده استاندارد باشد... ویرایش: واضح است که من چیزی را در اینجا قاطی کرده ام ؛) $\varepsilon_i$ باید به طور منطقی توزیع شود، سپس برای گرفتن گزارش ها معتبر است. اما همچنان، تابع پیوند نمایی خواهد بود - یا نه؟ بنابراین من glm(z ~ x, data = data.frame (x, z = log(y)), family = gaussian (link = 'exp')) را امتحان کردم اما تابع پیوند وجود ندارد...
|
خطاهای ضربی برای مدل خطی
|
91959
|
من در درک مراحل اثبات در نیمه پایین صفحه دوم این مقاله مشکل دارم: http://www.cs.berkeley.edu/~jordan/courses/281B-spring04/readings/blackwell- macqueen pdf. به طور خاص، اجازه دهید: \begin{equation} m_n(A)=\frac{\alpha}{\alpha+n}\mu(A)+\frac{1}{\alpha+n}\sum_{i=1} ^n{\mathbb{I}(X_i\in A)}، \end{equation} که در آن $A$ هر زیر مجموعه ای از فضای احتمال $\mu$ است و $\mu$ هر اندازه گیری پایه احتمال ما دنباله ای از متغیرهای تصادفی $\\{X_n\\}_{n=1}^{\infty}$ را یک دنباله Polya می نامیم که پارامترهای $\alpha>0$ و $\mu$ هر توزیعی هستند، داریم: \begin{equation} \mathbb{P}\left(X_1\in A\right)=\mu(A), \end{equation} \begin{equation} \mathbb{P}\left(X_{n+1}\in A|X_1,\dots,X_n\right)=m_n(A). \end{equation} همچنین، اجازه دهید $I_j$ نشانگر این رویداد باشد که $X_j$ با تمام $X_i$ با $i<j$ متفاوت است و تعریف کنید: \begin{equation} \begin{split} &f_{nj }=I_jm_n(X_j),&\text{for }1\leq j\leq n,\\\ &f_{nj}=0،&\text{در غیر این صورت.} \end{split} \end{equation} میخواهیم ثابت کنیم که: \begin{equation} \sum_{\substack{1\leq j\leq r\\ \x_j\in A}}{f_{nj}}\leq m_r(A)، \end{equation} و آن: \begin{equation} m_r(A)\leq \sum_{\substack{1\leq j\leq r\\\x_j\in A}}{f_{nj}}+1-\sum_{1\leq j\leq r}{f_{nj}}. \end{equation} من واقعاً از کمک شما سپاسگزارم! ممنون، آنتونی
|
طرح اورن بلک ول-مک کوئین
|
59952
|
در کتاب «مدلهای خطی پویا با R»، در بخش مدلهای رگرسیون آمده است: «مدل خطی رگرسیون ایستا مربوط به حالتی است که $W_t = 0$ برای هر $t$، به طوری که $\theta_t = \theta$ ثابت است. در طول زمان. من معنی این را نمیفهمم، زیرا وقتی یک «dlmModReg» را با «dW = 0» (مقادیر پیشفرض) قرار میدهم و سپس مقادیر پیشبینیشده بردارهای حالت را رسم میکنم، ضرایب رگرسیون من در طول زمان تغییر میکند و در نهایت به یک مقدار تثبیت میشود. مشابه رگرسیون حداقل مربعات استاندارد. نمودار ضریب شیب رگرسیون با «dW = 0»:  با این حال، اگر از «dlmMLE» برای یافتن MLE «dW» استفاده کنم قبل از برازش مدل، رسم مقادیر پیشبینیشده بردارهای حالت به مقادیر غیرمعقول با چندین ناپیوستگی بزرگ منجر میشود. نمودار ضریب شیب رگرسیون با MLE `dW` و بدون قطع:  نمودار شیب رگرسیون با MLE `dW` با intercept:  من هنوز هیچ مقاله ای در مورد چگونگی تنظیم ضریب قطع پیدا نکرده ام، اما من یک رابطه خطی تقریباً کامل بین ضریب برش و شیب را مشاهده می کنم. گنجاندن یک عبارت intercept در پارامتر MLE همچنین باعث میشود «dV» من از 16 به 0.003 کاهش یابد. آیا کسی میتواند به من اشاره کند که در آن به من اشاره کند که چگونه عبارت رهگیری در هر بهروزرسانی تنظیم میشود؟ نمودار قطع و شیب با `dW` MLE:  **سوالات من این است:** 1. چرا ضرایب رگرسیون پویا هستند /time-varing حتی با 'dW = 0' در مثال اول؟ اگر ضریب رگرسیون در هر مرحله زمانی تغییر کند، صرف نظر از اینکه «dW» 0 است یا خیر، به دلیل مرحله بهروزرسانی اندازهگیری، $\beta_t = \hat{\beta_t} + K_t(y_t - \alpha_t - \hat{\beta_t}x_t )$ ($K$ بهره کالمن است)، چه تفاوتی بین رگرسیون خطی ساده و رگرسیون خطی پویا وجود دارد به جز برخی تغییرات تصادفی اضافه شده در زمان معادله به روز رسانی $\hat{P_t} = P_{t-1} + dW$ ($P$ کوواریانس خطای تخمینی است)؟ 2. چرا نمودار ضرایب رگرسیون این همه ناپیوستگی دارد وقتی که dW !=0 من است؟ 3. رابطه بین ضرایب برش و شیب چیست؟ ترسیم آنها یک رابطه خطی تقریباً کامل را نشان می دهد، اما من نمی توانم ادبیاتی را پیدا کنم که این را توضیح دهد. من عبارت رهگیری را در هیچ فرمولی از معادلات به روز رسانی کالمن نیافته ام. آیا کسی حاضر است به داده ها/کد من نگاهی بیندازد؟
|
کمک به درک مدل های رگرسیون با dlm در R
|
88985
|
من از تابع lrm بسته RMS برای مدل رگرسیون ترتیبی برای پیش بینی استفاده کردم. هنگامی که من از روش نمودار گرافیکی استفاده می کنم، به نظر می رسد که فرض خط موازی برای برخی از متغیرها ناموفق است. آیا راهی وجود دارد که فرض خطوط موازی راحت شود؟ ? آیا بسته lrm این فرضیه را دور می زند؟ سوال دیگر این است که آیا آزمون Hosmer-Lemeshow در تفسیر این با وجود فرض نامعتبر ارزشمند است؟ آیا پیاده سازی در R برای تست HS gof برای رگرسیون ترتیبی وجود دارد؟ پاسخ شما بسیار قدردانی خواهد شد.
|
فرض خطوط موازی برای مدل رگرسیون ترتیبی
|
100194
|
من یک مجموعه داده طبقه بندی از 100000 ردیف و 200 ویژگی دارم. در مجموعه داده، متغیر پیش بینی من (Y) یک مقدار صحیح بین 0-55 است، بنابراین من سعی می کنم 1 از 56 کلاس ممکن را پیش بینی کنم. من مجموعه آموزشی/آزمایشی خود را به 80/20% تقسیم کردم و یک تمرین اعتبارسنجی متقاطع 10 برابری را برای تنظیم پارامترها و مطابقت با مدل نهایی انجام دادم. من در **مجموعه تمرینی (~90%)** امتیازی با دقت بسیار بالا (و F1) دارم، اما در **مجموعه تست (~10%)** نمره دقت بسیار پایین (و F1) دارم. **ویرایش 1:** مجموعه آموزش و تست به صورت تصادفی تقسیم می شود. حدود 150 مورد از ویژگی ها ویژگی های باینری هستند (0 یا 1) و بقیه مقادیر پیوسته هستند که من آنها را در مرکز و مقیاس بین 0 و 1 قرار می دهم. الگوریتم های یادگیری متعددی را امتحان کرده ام (SVM، NN، رگرسیون لجستیک، PCA + SVM) و بر این باور باشید که CV 10 برابری باید تا حد امکان اضافه برازش را حذف می کرد. با این حال، به نظر میرسد هیچ چیزی که من تلاش میکنم، نتایج متفاوتی به همراه نداشته باشد. آیا کسی می تواند راه های جدیدی برای افزایش دقت مجموعه تست پیشنهاد دهد؟ ** هشدارها:** 1) این داده های دنیای واقعی است، بنابراین دریافت بیشتر از آن بسیار گران و زمان بر است. 2) ما به این 56 کلاس نیاز داریم، بنابراین نمی توانیم به سادگی هیچ کدام را حذف کنیم. با تشکر و هر گونه پیشنهاد قدردانی می شود.
|
چالش دنیای واقعی: تفاوت بزرگ بین دقت مجموعه تمرین و تست
|
114437
|
من در حال حاضر در حال انجام دو رگرسیون خطی چندگانه هستم. هر کدام از آنها با مجموعه پیشبینیکنندههای یکسانی (اندازهگیری کیفیت املاک) X_1،...، X_n$، اما با متغیرهای وابسته متفاوت (یکی از آنها قیمت خرید، دیگری اجاره سالانه) Y_1 دلار و Y_2$. $Y_1= a_1X_1+a_2X_2+...$Y_2= b_1X_1+b_2X_2+...$ چیزی که من به آن علاقه دارم تاثیر متغیرهای مستقل بر متغیر وابسته سوم $Y_3$ (فرض بازده سرمایه گذار املاک) است که تقریباً ضریب دو متغیر وابسته اول $Y_1/Y_2$ است. بنابراین کاری که من میخواهم انجام دهم این است که بفهمم کدام یک از متغیرهای مستقل احتمالاً میتواند روی متغیر وابسته سوم تأثیر بگذارد. به عنوان پیشبینیکننده رگرسیون روی $Y_3$، من فقط میخواهم از متغیرهای مستقل خارج از مجموعه اصلی استفاده کنم، که فکر میکنم آنها روی $Y_3$ تأثیر دارند. برای این کار میخواهم تأثیر متغیرهای مستقل را روی $Y_1$ و $Y_2$ مقایسه کنم. اگر تأثیر در جهت دیگری باشد (به عنوان مثال ضریب $a_1$ منفی و $b_1$ مثبت است) بدیهی است که این متغیر مستقل احتمالاً روی $Y_3$ تأثیر خواهد داشت. اما اگر جهت یکسان باشد چه؟ ممکن است این اتفاق بیفتد که متغیر مستقل $X_n$ تاثیر قوی روی $Y_1$ و $Y_2$ داشته باشد اما با همان مقدار، به طوری که $Y_3$ توسط این متغیر مستقل تعیین نمیشود. _بنابراین سوال من این است_، آیا راهی برای فهمیدن (مثلاً با مقایسه ضرایب رگرسیون استاندارد؟)، وجود دارد که تأثیر یک پیشبینیکننده نسبتاً روی $Y_1$ و $Y_2$ چقدر است؟ بنابراین می توانم بگویم برای مثال، $X_n$ هم $Y_1$ و هم $Y_2$ را به صورت مثبت تعیین می کند، اما $Y_1$ قوی تر تعیین می شود، به طوری که ضریب $Y_1/Y_2$ و بنابراین احتمالاً $Y_3$ تحت تاثیر $X_n$ به صورت مثبت، به همین دلیل است که از آن به عنوان پیش بینی کننده در رگرسیون $Y_3$ استفاده می کنم. من نمی خواهم از ضریب $Y_1$ و $Y_2$ را به عنوان تخمینگر برای $Y_3$ پیشبینی کرد، اما یک رگرسیون کاملاً جدید در $Y_3$ انجام داد.
|
تأثیر مجموعه یکسانی از متغیرهای مستقل را بر روی دو متغیر وابسته متفاوت مقایسه کنید
|
67372
|
من قبلاً داده های خود را برای پایان نامه خود جمع آوری کرده ام و از آنجا که متغیرهای زیادی دارم، تجزیه و تحلیل عاملی انجام داده ام تا متغیرها را به چند عامل کاهش دهم. سپس میانگین همه متغیرهای مربوط به هر عامل جداگانه را محاسبه کردم. با این حال، زمانی که من تست نرمال بودن فاکتورها را انجام می دهم، منفی است، در حالی که تست نرمال بودن با نمرات ضریب رگرسیون ذخیره شده، نتایج مثبتی را به همراه دارد. کدام صحیح است؟ همچنین می خواستم بدانم آیا می توانم از نمرات ضریب رگرسیون ذخیره شده برای انجام تست های بعدی مانند تجزیه و تحلیل تفکیک، آزمون t و تحلیل رگرسیون چندگانه استفاده کنم یا باید به میانگین فاکتورها پایبند باشم؟ من در مورد چگونگی ادامه دادن کاملا گیج هستم. از هرگونه کمکی استقبال می شود. با تشکر
|
آیا می توان از نمرات ضریب رگرسیون ذخیره شده برای تست نرمال بودن در spss و برای تجزیه و تحلیل بیشتر استفاده کرد؟
|
113436
|
فرض کنید یک کوزه با تیله های N دارید. تمام سنگ های مرمر سیاه یا سفید هستند. شما یک نمونه از اندازه n را بدون جایگزین کردن آنها در urn می گیرید. با این یک نمونه میخواهید بتوانید یکی از دو عبارت زیر را بیان کنید: 1. Y% یا بیشتر از تیلهها سفید هستند. 2. کمتر از Y% از تیله ها سفید هستند. **افکار:** * این رویکرد از توزیع فوق هندسی استفاده می کند. * در عمل، N من بزرگ خواهد بود (1*10E5 تا 1*10E6). **سوالات:** 1. اندازه n چقدر است؟ 2. فرمول محاسبه حجم نمونه مورد نیاز «n» چیست؟ 3. چگونه می توان فاصله اطمینان برای Y را تخمین زد؟ پیشاپیش ممنون
|
فرمول محاسبه حجم نمونه برای توزیع فراهندسی
|
114787
|
من روی یک مسئله تمرین کار می کنم و در این مشکل گیر کرده ام: فرض کنید که $X_1,\dots,X_n$ با $X_i\sim\mathrm{N}(\alpha_i + \nu, \sigma^2)$ مستقل هستند. اجازه دهید $\theta = (\alpha_1, . . . , \alpha_n, \nu, \sigma^2)$ و خانواده توزیع های نمونه $P_θ$ را در نظر بگیرید. آیا پارامترسازی فوق قابل شناسایی است؟
|
قابلیت شناسایی توزیع نرمال
|
68342
|
من در حال مدلسازی میزان موارد سل (TB) در سطح محله هستم و سعی میکنم عوامل خطر مرتبط با میزان بالاتر را شناسایی کنم. من مایلم جوامعی را با نرخ موارد زیر متوسط با توجه به مشخصات فاکتور خطرشان با این ایده که اینها بهترین مکان برای یافتن موارد جدید هستند، شناسایی کنم. کمی دایره ای است که من متوجه می شوم که از همان واحدهایی استفاده کنم که عوامل خطر را با آنها شناسایی می کنم تا سپس مناطقی را با نرخ های بالاتر مورد انتظار شناسایی کنم، اما فکر من این است که بتوانم جوامعی را که در انتهای پایین توزیع قرار دارند برای هر عامل خطر شناسایی کنم. . پس برنامه من این است که یک مدل پواسون با عوامل خطر قابل توجه بسازم، هر محله را متصل کنم و «نرخ مورد انتظار» را محاسبه کنم. سپس تفاوت را با کم کردن نرخهای «مشاهدهشده» از «مورد انتظار» محاسبه کنید و سپس جوامعی را که بیشترین اختلاف را دارند شناسایی کنید. آیا این رویکرد مشروع است؟ یا این که از مدل به گونه ای استفاده می کند که قرار نیست استفاده شود؟
|
شناسایی واحدهای زیر متوسط در مدل پواسون
|
114786
|
من با این ایده کاپولا کاملاً تازه کار هستم. من به ویژه در مورد تعریف یک جفت گاوسی سردرگم هستم. برای اینکه یک کوپول یک کوپول گاوسی باشد، آیا حاشیهها باید گاوسی هم باشند؟ یا می تواند از هر توزیعی باشد؟ از صفحه ویکیپدیا به نظر میرسد که باید باشد (http://en.wikipedia.org/wiki/Copula_(Probability_theory)#Gaussian_copula) اما من فکر کردم که لازم نیست.
|
آیا در تعریف کوپول گاوسی، حاشیه ها نیز باید گوسی باشند؟
|
30331
|
من مونت کارلوس را بر روی دادههای تاریخی اجرا میکردم و صرف نظر از توزیع دادهها، به دلیل نمونهگیری مجدد با جایگزینی، همیشه توزیع نرمال دریافت میکردم. این باعث شد که بتوانم با اطمینان 95 درصد پیش بینی کنم که مقدار مورد انتظار آن «متغیر» چقدر خواهد بود. تا اینجا خیلی خوب و خیلی باحال! مهم نیست که توزیع تاریخی متغیر چگونه به نظر می رسد، نمونه برداری مجدد و تخمین احتمال وقوع در آینده همیشه از توزیع نرمال پیروی می کند. حالا توزیع نرمال در عمل چندان عادی نیست. بنابراین چه پدیده ای منجر به توزیع نرمال می شود؟ آیا دلیل ریاضی برای آن وجود دارد؟ من مطمئن هستم که ربطی به قضیه حد مرکزی دارد، اما من در زیبایی تولید یک توزیع نرمال هنگام نمونهگیری مجدد با جایگزینی کاملاً متحیر و مجذوب هستم. ممکن است من نادرست باشم اما آیا این به طور کلی درست است؟ صرف نظر از توزیع تاریخی من (اعم از بتا، پواسون، دوجمله ای، تصادفی و غیره) من به توزیع عادی در نمونه گیری مجدد ادامه می دهم. هر گونه کمکی در زمینه ریاضیات که این پدیده را پشتوانه می کند مفید خواهد بود.
|
چگونه/چرا نمونه برداری مجدد از توزیع هر به توزیع نرمال منجر می شود؟
|
112233
|
من پاسخ این مشکل ساده را پیدا نمی کنم: چگونه می توانم با 3 متغیر A,B,C به صورت جبری نشان دهم که $ \sum\limits_C P(B|C)P(C|A)=P(B|A) )$ به شرطی که $P(A,B,C)=P(A|C)P(B|C)P(C)$ بی اهمیت به نظر می رسد، اما من مراحل جبری را از دست داده ام... با تشکر
|
به سادگی نشان دادن بر اساس احتمال شرطی
|
100017
|
اگر یک متغیر تصادفی $W$ به طور معمول توزیع شده باشد، آنگاه $\exp(W)$ Log- Normally توزیع شده است. با این حال، pdf این دو متغیر تصادفی با ضریب $\exp(W)^{-1}$ متفاوت است. pdf معمولی برای $W$ $$P(w \in W) = \frac{1}{\sigma\sqrt{2\pi}}\, e^{-\frac{(w - \mu)^ است 2}{2 \sigma^2}}$$ اما pdf Log-Normal برای $\exp(W)$ $$P(\exp(w) \in \exp(W)) = است \frac{1}{\exp(w)\sigma\sqrt{2\pi}}\ e^{-\frac{\left(w-\mu\right)^2}{2\sigma^2}} $$ چرا اینطور است؟ آیا نباید معادل باشند؟
|
چرا توابع چگالی نرمال و لگ نرمال با یک عامل متفاوت هستند؟
|
69726
|
من یک موتور جستجوی خاص دامنه ساخته ام، یک موتور جستجوی متا. این موتور جستجو، البته، نتایج خود را از موتورهای جستجوی دیگر مانند گوگل، بینگ، یاهو و غیره گرفته است. سپس یک طبقه بندی برای فیلتر کردن نتایج انجام می دهد. اکنون، من در حال ارزیابی دقت نتایج جستجوی بازگردانده شده توسط این موتور جستجو نسبت به دقت نتایج جستجوی بازگشتی از یک موتور جستجوی عمومی هستم. بنابراین من تعدادی پرس و جو در موتور جستجوی خود پرسیدم، دقت هر نتیجه بازگشتی را شمارش کردم و میانگین دقت ها را محاسبه کردم. من همان پرس و جوها را با یک موتور جستجوی عمومی انجام می دهم که در این مورد گوگل است. و بدین ترتیب میانگین دقت ها را محاسبه کنید. من از t-test دو استفاده می کنم تا ببینم آیا تفاوت بین این دقت ها از نظر آماری تفاوت معنی داری دارد یا خیر. چیزی که الان نمیتونم بفهمم این تست تی زوجی هست یا مستقل؟ من از استادم شنیدم که باید آزمون t مستقل باشد، زیرا مجموعه های نمونه از دو موتور جستجوی مختلف می آیند. اما به نظر من، از آنجایی که نمونه (نتایج جستجو برگردانده شده) بر اساس همان پرس و جوها به ترتیب نمایش داده می شود و موتورهای متا نتایج خود را از چندین موتور جستجوی عمومی می گیرند، باید تست t جفتی شود. از طرف دیگر من این را هم میدانم که تست t زوجی باید روی همان نمونه، درمانهای مختلف انجام شود. کدام را انتخاب کنم؟ نیاز به کمک. من عکس صفحه نتایج جستجو را نیز ضمیمه می کنم تا سوالم واضح تر و قابل درک تر شود. با تشکر 
|
مقایسه موتور جستجوی عمومی و موتور جستجوی متا. تست تی زوجی یا تی مستقل؟
|
94337
|
من در مورد موقعیتی صحبت می کنم که در آن چندین متغیر پیش بینی کننده پیوسته دارم که یک نتیجه پیوسته را پیش بینی می کنند. یکی از پیشبینیکنندهها دارای توزیع بسیار غیرعادی است و دارای مقادیر پرت وحشی است. من قصد دارم مدل رگرسیون را به یک جمعیت گسترده تر تعمیم دهم. آیا غیر عادی بودن و/یا وجود موارد پرت مانع از تجزیه و تحلیل من می شود یا در تفسیر مشکل ایجاد می کند؟ چه کار کنم؟
|
غیر نرمال بودن در متغیرهای پیش بینی کننده چه مشکلاتی را برای تحلیل رگرسیون چندگانه ایجاد می کند؟
|
67375
|
من می خواهم 1 میلیون بردار از مجموعه بردارها را نمونه برداری کنم $$\mathbf{v} = \\{v_1,v_2,...,v_n \\} $$ مشروط به * $\sum_{i=1}^ n v_i = 1$ * $\forall i: v_i \ge 0$ * هر $v_i$ حداکثر دارای 2 رقم اعشار است به عنوان مثال من $n = 10$ دارم. در واقع، من انتخاب میکنم اقلام 100 دلاری را به بخش 10 دلاری تقسیم کنم، به طوری که حداقل تعداد آیتمهایی وجود نداشته باشد که در هر قسمتی وجود داشته باشد (به این معنی که کالای 0 دلاری در یک قسمت ممکن است). این یک مسئله جالب ترکیبی (البته ابتدایی) است. فرض کنید یک مرد ثروتمند می خواهد ثروت 100 میلیارد دلاری خود را بین 10 پسرش تقسیم کند. فرض کنید او میخواهد هر پسری حداقل 1 میلیارد دلار به دست آورد و پسر *i*ام باید n$ میلیارد دلار دریافت کند که در آن n$ یک عدد صحیح بزرگتر از 0 است. تصور کنید او پول خود را در 1 میلیارد دلار پشت سر هم انباشته کرده است. با مقداری فاصله بین هر شمع سپس او 99 شکاف بین شمع ها خواهد داشت. برای تقسیم پول، او باید به سادگی 9 نقطه برش را از 99 شکاف انتخاب کند. بنابراین، 99 است، 9 را انتخاب کنید. به طور کلی، اگر او $c میلیارد و d پسر داشته باشد، C-1 انتخاب d راه برای تقسیم ثروت خود خواهد بود. حالا فرض کنید او می خواهد ثروتش را طوری تقسیم کند که حداقلی وجود نداشته باشد و پسر *i*ام بتواند n_i$ میلیارد دلار بدست آورد که در آن $n_i$ یک عدد صحیح بزرگتر یا مساوی 0 است. چند راه برای انجام این کار وجود دارد؟ او باهوش بود و از دوستش خواست که 10 میلیارد دلار به او قرض دهد و او نیز آنها را با میلیاردهای دیگرش در یک ردیف قرار داد. اکنون 110 توده از یک میلیارد دلار پشت سر هم وجود دارد و 109 شکاف وجود دارد. او از بین این 109 فاصله، 9 نقطه برش را انتخاب می کند. اکنون او 110 میلیارد دلار را به 10 قسمت با حداقل یک میلیارد دلار تقسیم کرده است. حالا او از هر قسمت 1 میلیارد دلار پس می گیرد و 10 دلار را به دوستش برمی گرداند. حالا 100 میلیارد دلار اصلی به 10 شمع تقسیم شده است به گونه ای که هیچ حداقلی وجود ندارد! بنابراین 109 دلار با انتخاب 9 دلار به من این ترکیب ها را می دهد. در R، «combn(a,b)» تمام نقاط برش را از همه ترکیبهای ممکن «a انتخاب b» به من میدهد. با این حال اجرای «combn(109,9)» در رایانه من امکان پذیر نیست. در R، آیا روش کارآمدی برای نمونه برداری از خروجی «combn» وجود دارد؟
|
در R، اگر a انتخاب b خیلی بزرگ است، چگونه از خروجی combn(a,b) نمونه برداری کنیم؟
|
109851
|
من از رگرسیون لجستیک برای پیش بینی احتمال وقوع یک رویداد استفاده می کنم. در نهایت، این احتمالات در یک محیط تولید قرار می گیرند، جایی که ما تا حد امکان بر روی پیش بینی های بله خود تمرکز می کنیم. بنابراین برای ما مفید است که علاوه بر سایر اقداماتی که برای اطلاع از این تعیین استفاده میکنیم، ایدهای در مورد اینکه چه «بازخورد» یا «عدم بازدید» میتواند پیشینی باشد (قبل از اجرای تولید) مفید است. سوال من این است که راه مناسب برای پیشبینی کلاس قطعی (1,0) بر اساس احتمال پیشبینیشده چیست؟ به طور خاص، من از بسته «glmnet» R برای مدلسازی خود استفاده می کنم. این بسته به طور خودسرانه احتمال 0.5 را به عنوان آستانه برای بله یا خیر انتخاب می کند. من معتقدم که باید نتایج یک قانون امتیازدهی مناسب را بر اساس احتمالات پیشبینیشده در نظر بگیرم تا به یک کلاس قطعی تعمیم دهم. نمونهای از فرآیند مدلسازی من در زیر آمده است: mods <- c('glmnet', 'scoring') lapply(mods, need, character.only = T) # run cross-validated LASSO regression fit <- cv.glmnet(x = df1[، c(2:100)])، y = df1[، 1]، خانواده = 'دو جمله ای'، type.measure = 'auc') # ایجاد احتمالات پیش بینی شده در داده های جدید df2$prob <- predict(fit, type=response, newx = df2[, c(2:100)], s = 'lambda.min') # محاسبه Brier امتیاز برای هر رکورد df2$propscore <- brierscore(df2[,1] ~ df2$prob, data = df2) بنابراین من اکنون یک مجموعهای از امتیازات بریر برای هر پیشبینی، اما چگونه میتوانم از امتیاز بریر برای وزن مناسب هر احتمال بله یا خیر بودن استفاده کنم؟ من می دانم که روش های دیگری نیز برای این تعیین وجود دارد، مانند جنگل تصادفی.
|
استفاده از قانون امتیازدهی مناسب برای تعیین عضویت کلاس از رگرسیون لجستیک
|
67376
|
قرارداد استاندارد در آمار فضایی این است که عبارت تاخیر مکانی در مدل رگرسیون به دلیل همزمانی سوگیری خواهد داشت. با نگاهی به مدل زیر، استدلال با این امر دشوار خواهد بود: $y_{i} = \rho W y_{i} + X_{i} \beta + \varepsilon_{i}$، زیرا ما انتظار یک اثر بازخورد را داریم . به عبارت دیگر، تاخیر مکانی $y_{i}$ را تحت تاثیر قرار می دهد، اما $y_{i}$ نیز بر تاخیر مکانی خود تاثیر می گذارد. با این حال، من در تلاش برای شبیه سازی یک مدل رگرسیون فضایی هستم و این نتیجه را پیدا نمی کنم. اگر کسی بتواند دلیل این موضوع را روشن کند ممنون می شوم. این حتی در مورد تعداد بسیار کم مشاهدات و همبستگی فضایی بالا نیز صادق است. روش شبیه سازی من به شرح زیر است. 100 مشاهده وجود دارد که به طور مساوی در یک شبکه 10 دلاری \ برابر 10 دلاری قرار گرفته اند. وزنهای $W$ توسط مجاورت روک داده میشوند و ردیف استاندارد میشوند. من 4 مدل تخمین می زنم. دو مورد اول OLS هستند، با و بدون اصطلاح تاخیر مکانی. جای تعجب نیست، ضرایب سوگیری هستند زمانی که تاخیر فضایی حذف شده است. مدلهای دیگر تأخیر مکانی را از طریق حداکثر احتمال و 2SLS تخمین میزنند. من هیچ تفاوت اساسی بین OLS با تاخیر فضایی، حداکثر احتمال و برآوردگرهای 2SLS پیدا نکردم. متغیرهای زیر ایجاد میشوند: $x_1 = 1$، یعنی وقفه $u_{1i}\sim \mathcal{N}(0,1)$ $u_{2i}\sim \mathcal{N}(0,1) $\rho_x $ = 0.5 $، بنابراین متغیرهای مستقل از نظر مکانی همبستگی دارند $x_{2i} = (1-\rho_{x} W)^{-1} u_{1i}$x_{3i} = (1-\rho_{x}W)^{-1} u_{2i}$\rho = 0.75$، همبستگی مکانی قوی $b_1 = 1$b_2 = 8$$b_3 = 2$$\varepsilon_{i}\sim \mathcal{N}(0,1)$ $M=(1- \rho W)^{-1}$ $y_{i} = M b_{1}x_{1i} + M b_{2}x_{2i} + M b_{3}x_{3i } + M \varepsilon_{i}$، مدل فرم کاهش یافته. کد R مربوطه را هم پیوست می کنم. # کتابخانه چند مدل فضایی (spdep) rm(list=ls()) n = 100 داده = data.frame(n1=1:n) # coords data$lat = rep(1:sqrt(n), sqrt(n) ) data$long = sort(rep(1:sqrt(n), sqrt(n))) # ایجاد ماتریس W wt1 = as.matrix(dist(cbind(data$long, data$lat), method = euclidean, upper=TRUE)) wt1 = ifelse(wt1==1, 1, 0) diag(wt1) = 0 # row standardize rs = مجموع ردیف (wt1) wt1 = اعمال (wt1, 2, تابع (x) x/rs) lw1 = mat2listw(wt1، style=W) rx = 0.5 rho = 0.75 b1 = 1 b2 = 8 b3 = 2 inv1 = invIrW(lw1, rho=rx, روش = حل، امکان پذیر=NULL) inv2 = invIrW(lw1 , rho=rho, method=solve, feasible=NULL) sims = 100 beta1results = ماتریس (NA, ncol=4, nrow=sims) beta2results = ماتریس (NA, ncol=4, nrow=sims) beta3results = ماتریس (NA, ncol=4, nrow=sims) rhoresults = ماتریس (NA, ncol= 3, nrow=sims) for(i در 1:sims){ u1 = rnorm(n) x2 = inv1 %*% u1 u2 = rnorm(n) x3 = inv1 %*% u2 e1 = rnorm(n) y1 = b1 + b2*x2 + b3*x3 + e1 y1 = inv2 %*% y1 yl = wt1 %*% y1 data1 = data.frame(y1, x2, x3) m1 = coef(lm(y1 ~ x2 + x3)) m2 = coef(lm(y1 ~ yl + x2 + x3)) m3 = coef(lagsarlm(y1 ~ x2 + x3, data1, lw1)) m4 = coef(stsls(y1 ~ x2 + x3، data1، lw1)) beta1نتایج[i،] = c(m1[1]، m2[1]، m3[2]، m4[2]) بتا2نتایج[i،] = c(m1[2]، m2[3]، m3[3]، m4[3]) beta3نتایج[i،] = c(m1[3]، m2[4]، m3[4]، m4[4]) نتایج اولیه[i،] = c(m2[2]، m3[1], m4[1]) } # ارزیابی عملکرد اعمال میشود(نتایج اولیه، 2، میانگین) ; application(rhorresults, 2, sd) application(beta1results, 2, mean) ; apply(beta1results, 2, sd) application(beta2results, 2, mean) ; application(beta2results, 2, sd) application(beta3results, 2, mean) ; اعمال (بتا3نتایج، 2، SD)
|
درون زایی در مدل رگرسیون با تأخیر فضایی
|
33755
|
برای 100 شرکت، من (i) «تویت» و (2) «بازدید از صفحه» وب سایت شرکتی را برای «148» روز جمع آوری کرده ام. حجم توییت و بازدید از صفحه در روز دو متغیر مستقل هستند که در برابر «حجم معاملات» سهام برای هر شرکت جفت شدهاند که منجر به 100 x 148 = 14800 مشاهده میشود. ساختار داده های من به این صورت است: تاریخ شرکت tweetVol pageviewVol tradeVol -------------------------------------- ---------- 1 1 200 150 2423325 1 2 194 152 2455343 1 3 214 199 3100429 . . . . . . . . . . 1 148 205 233 2563463 2 1 752 932 7434124 2 2 932 2423 7464354 2 3 600 1435 5324323 . . . . . . . . . . . . . . . 100 148 3 155 32324 از آنجایی که تفاوت زیادی در اندازه شرکت وجود دارد (برخی شرکت ها فقط 2 توییت در روز دریافت می کنند، در حالی که دیگران مانند اپل روزانه بیش از 10000 توییت دریافت می کنند)، همه متغیرها برای هموارسازی توزیع ثبت می شوند. (این مطابق با تحقیقات قبلی است - این برای پایان نامه من است). من فقط یک رگرسیون خطی روی این داده ها انجام دادم که شامل هر دو متغیر مستقل بود. R-Squared 0.411 است اما Durbin-Watson فقط 0.141 (!) بدون جستجوی مرزهای دقیق، می دانم که این مستقیماً به این معنی است که باقیمانده های من غیر خطی هستند، به عنوان مثال. همبستگی خودکار، درست است؟ سوال من این است: چگونه می توانم این را حل کنم؟ وقتی به آن فکر می کنم، این داده ها نباید همبستگی خودکار داشته باشند، بنابراین من واقعاً نمی فهمم. آیا به این دلیل است که در واقع یک تحلیل سری زمانی است؟ من هم فکر نمی کنم، زیرا برای مثال حجم معاملات امروز مستقل از حجم معاملات دیروز است. کسی می تواند این را برای من توضیح دهد؟ P.S. در دانشگاه من، ما از SPSS/PASW بدون ماژولهای اضافی استفاده میکنیم، بنابراین من نمیتوانم آنالیز سریهای زمانی را در این مورد مانند شما در STATA یا R انجام دهم.
|
با دوربین واتسون بسیار پایین چه کنیم؟
|
68341
|
استدلال وزن در گلمر به چه چیزی اشاره دارد؟ من از اندازه های نمونه به عنوان وزن با glm استفاده کردم، اما در اینجا مطمئن نیستم. واریانس اندازه نمونه بسیار کم است، اما گنجاندن یا عدم آن در «گلمر» تفاوت زیادی به من می دهد. به عنوان مثال، در مجموعه داده زیر، تنها با استفاده از یک متغیر مستقل، تفاوت در نتایج بسیار زیاد است (تخمین، BIC، p.value). آیا کسی تجربه استفاده از وزنه در گلمر را دارد و تأیید می کند که آیا مطابق انتظار کار می کند یا اینکه من آن را درست انجام می دهم؟ به نظر می رسد موضوعی در مدل های r-sig-mixed و در صفحات github با استدلال وزن در glmer مشکلی وجود دارد، اما از آنجایی که دانش من در مورد مدل های ترکیبی تنها چند هفته پیش است، نمی توانم آن را دنبال کنم. . داده های من: cv <- ساختار(list(name = c(AlfF، AndH، AntH، BerG، BerR، FreZ، GerB، GerT، GueS، «GueV»، «HanN»، «HeiW»، «JakW»، «KarN»، «KerG»، «KlaS»، «ManS»، «MarS»، «SilN»، «TheG»، «UweP»، «WerT»، «AlfF»، «AndH»، «AntH»، «BerG»، «BerR»، «FreZ»، «GerB»، «GerT»، «GueS»، «GueV»، «HanN» ، HeiW، JakW، KarN، KerG، KlaS، ManS، MarS، SilN، TheG، UweP، «WerT»، «AlfF»، «AndH»، «AntH»، «BerG»، «BerR»، «FreZ»، «GerB»، «GerT»، «GueS»، «GueV»، «HanN»، «HeiW» ، JakW، KarN، KerG، KlaS، ManS، SilN، TheG، UweP، WerT، AlfF، «AndH»، «AntH»، «BerG»، «BerR»، «FreZ»، «GerB»، «GerT»، «GueS»، «GueV»، «HanN»، «HeiW»، «JakW»، «KarN» ، KerG، KlaS، ManS، SilN، TheG، UweP، WerT، AlfF، AndH، AntH، «BerK»، «BerR»، «ChrG»، «FraR»، «FreZ»، «GerB»، «GerB»، «GerT»، «GueS»، «GueV»، «HanN»، «HeiW»، «JakW» ، KlaS، ManS، MarH، PetS، SilN، TheG، UweP، WerT، AlfF، AndH، BerK، «BerR»، «ChrG»، «FraR»، «FreZ»، «GerB»، «GerB»، «GerT»، «GueV»، «HanN»، «HeiW»، «JakW»، «KlaS»، «ManS» ، MarH، PetS، PetW، SilN، SveR، UweP، WerT، AlfF، AndH، AntH، «BerK»، «BerR»، «ChrG»، «FraR»، «FreZ»، «GerB»، «GerB»، «GerT»، «GueS»، «GueV»، «HanN»، «HeiW»، «JakW» KlaS، ManS، MarH، MicH، PetS، SilN، SveR، UweP، WerT)، prop_yes = c(0، 0.2، 0.6، 0.1، 0، 0، 0.1، 0، 0.3، 0،0، 0، 0، 0.1، 0.8، 0.1، 0.1، 0، 0، 0، 0، 0، 0، 0، 0.3، 0، 0.3، 0.3، 0.5، 0.4، 0.778، 0، 0.05، 0.5، 0، 0، 0.4، 0.2، 0، 0، 0، 0.2، 0.2، 0.3، 0.2، 0.6، 0.2، 0.2، 0.1، 0.1، 0.3، 0.1، 0.1، 0.1، 0.111، 0، 0.2، 0.1، 0.2، 0.8، 0، 0.111، 0، 0.1، 0، 0.2، 0.3، 0.1، 0.4، 0.333، 0.2، 0.1، 0.2، 0.2، 0.1، 0.2 0.1، 0.364، 0.1، 0.3، 0.375، 0، 0، 0، 0.2، 0، 0.1، 0، 0، 0، 0، 0.1، 0.1، 0، 0.3، 0، 0، 0.3، 3، 0، 0. 0، 0.667، 0.2، 0.571، 0.2، 0، 0.2، 0.6، 0.2، 0، 0، 0، 0، 0، 0.2، 0، 0، 0، 0، 0.2، 0.3، 0، 0.7، 0.3، 0، 0، 0، 0.2 0.2، 0.1، 0.1، 0.4، 0.1، 0.4، 0.3، 0.222، 0.2، 0.1، 0.1، 0.5، 0.2، 0.6، 0، 0، 0.1، 0.167، 0.333، 0، 0.20، 0.222، 0.5 0.1، 0)، اندازه = c(10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 19 لیتر، 10 لیتر، 6 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، ، 9 لیتر، 10 لیتر، 6 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 20 لیتر، 10 لیتر، 8 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 11 لیتر، 10 لیتر، 10 لیتر، 11 لیتر، 10 لیتر، 10 لیتر، 8 لیتر، 7 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 4 لیتر، 6 لیتر، 10 لیتر، 9 لیتر، 9 لیتر، 10 لیتر، 7 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 1 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 8 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر 10 لیتر، 10 لیتر، 5 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 12 لیتر، 12 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 10 لیتر)، tmean_winter = c(-3.91--3.91-. ، -4.6، -4.09، -4.05، -4.09، -4.85، -4.48، -4.77، -6.66، -4.16، -4.68-، -4.48، -5.07، -3.83، -4.28، -4.79، -4.83، -4. , -4.43, 2.36, 1.47، 2.13، 1.09، 1.93، 2.26، 2.28، 1.98، 1.66، 1.3، 1.69، -1.01، 2.22، 1.89، 2، 1.23، 2.31، 2.6، 2.6، 2.31، 2.6، 2.31 1.38، 1.61، 0.86، 1.82، 0.48، 1.45، 1.74، 1.5، 1.78، 1.14، 0.65، 1.17، -1.59، 1.69، 1.55، 1.45، 1.55، 1.45، 1.41، 1.0 1.14، 1.23، 0.81، -1.53، -2.61، -1.52، -2.7، -1.77، -1.54، -1.68، -1.32، -2.16، -2.82، -1.95، -4.56، -1.57، -1. ، -2.55، -1.51، -1.98، -2.05، -1.97، -2.62-، -4.48، -5.25، -4.04، -4.92، -4.59، -5.34، -5.09، -4.12، -4.36، -5.23، -4.74 - ، -5.28، -4.55، -7.07، -4.18، -5.17، -4.56، -4.56، -4.74، -4.58، -4.62، -5.08، -5.25، -1.87، -2.67، -2.84، -2.47، -3.11، -2.3، -2. ، -2.05، -2.96، -2.57، -2.75، -2.54، -4.18، -2.07-، -3.04، -1.81، -2.39، -2.24، -2.75، -2.75، -2.79، -2.44، -2.85، -0.35، -1.47 - ، -1.02، -0.76، -1.23، -1.57، -0.48-، -0.65، -1.18، -0.58-، -0.92، -1.58، -1.07، -4.05، -0.52، -2.1، -0.36، -0.75، -1.04، -0.67، -1. ، -1.81، -0.61، -1.64))، .Names = c(name، prop_yes، size، tmean_winter)، row.names = c(NA، -158L)، class = data.frame) glmer(prop_yes ~tmean_winter+(1|نام)، خانواده=دوجملهای، داده=cv) glmer(prop_yes~tmean_winter+(1|نام)، خانواده=دوجملهای، داده=cv، وزن=اندازه)
|
آرگومان وزن در glmer()، داده های نسبت
|
109858
|
آیا تابعی در R وجود دارد که مدل VARMAX را تخمین بزند؟ یکی برای VARX (بسته MTS) وجود دارد، اما من یکی را پیدا نکردم که با قسمت MA نیز کار کند ...
|
مدل VARMAX در R
|
109853
|
Bagging فرآیند ایجاد N یادگیرنده بر روی N نمونه بوت استرپ مختلف و سپس گرفتن میانگین پیش بینی های آنها است. سوال من این است: چرا از هیچ نوع نمونه گیری دیگری استفاده نمی کنید؟ چرا از نمونه های بوت استرپ استفاده کنیم؟
|
چرا بگینگ از نمونه های بوت استرپ استفاده می کند؟
|
91353
|
من این سوال را برای یک تکلیف آمار / یادگیری ماشینی دریافت کردم و از شما می خواهم اگر هر یک از شما پاسخ مناسب را می دانید. اگر n نقطه داده داشته باشیم، احتمال اینکه یک نقطه داده معین در نمونه بوت استرپ ظاهر نشود چقدر است؟ به نظر به اندازه کافی ساده به نظر می رسد درست است؟ من مقدمه ای بر یادگیری آماری را می خوانم تا راه حل را بیابم، اما مطمئناً قدردان کمک هستم
|
احتمال داده شده نقطه داده در نمونه بوت استرپ ظاهر نمی شود؟
|
88983
|
من یک متغیر پیش بینی پیوسته دارم که آن را به bin ها تقسیم کرده ام (در 0٪، 0 تا 25٪، ...). برای هر یک از این سطل ها، هیستوگرام زیر تعداد شرکت هایی که در آن محدوده هستند و تعداد ورشکستگی ها را به شما نشان داده ام. انتظار دارید با رسیدن رشد دارایی ها به 100 درصد (و همچنین زمانی که رشد دارایی نزدیک به 0 درصد است)، ورشکستگی ها افزایش یابد. یک آزمون مجذور کای استقلال روی این سطلها نشان داد که ورشکستگیها و سطلهای درصد رشد دارایی مستقل نیستند. چگونه ثابت کنم که رشد دارایی بالاتر (*و/یا** کمتر) به شدت با ورشکستگی مرتبط است؟ البته، نرخ ضربه برای درصد رشد دارایی بالاترین است. من از Chi-Sq در هر سطل (df=1) و ورشکستگی مورد انتظار = (متوسط نرخ ضربه) x اندازه بن استفاده کردم، اما ممکن است نادرست باشد. آیا من 6 بار رگرسیون لجستیک تک متغیره انجام دهم و نتایج مدل را با هم مقایسه کنم؟ (همه prob = 0 برای رشد دارایی = 100% bin با استفاده از LR/glmfit). من از **MATLAB** استفاده می کنم. 
|
مقایسه فرکانس ها
|
108108
|
هنگام گزارش نتایج نظرسنجیها، اغلب درصد پاسخدهندگانی را که پاسخهای متفاوتی دادهاند فهرست میکنیم. با این حال، این درصدها را میتوان از جمله افرادی که میگویند «نمیدانم» و/یا «بدون مبنایی برای قضاوت» محاسبه میشود (در این صورت درصد پاسخهای اساسی به 1 نمیرسد)، یا بدون چنین افرادی. چرا باید از درصدهایی به استثنای داده های dnk/nbj استفاده کنم؟
|
آیا هنگام گزارش خلاصه نتایج نظرسنجی باید «نمی دانم» درج شود؟
|
30339
|
فرض کنید یک متغیر $x_d$ دارم که در داده های تخمینی، یک نشانگر ساده است ($x_d \in \left\\{0,1\right\\}$). من یک ضریب برای آن تخمین می زنم، $\beta_d$، همراه با چندین ضریب دیگر برای متغیرهایی که می توانند پیوسته، ساختگی های بیشتر و غیره باشند. حالا یک نفر می خواهد از این ضرایب در یک پیش بینی استفاده کند. برای داده های ورودی خود، آنها مایلند $x_d$ را نه به عنوان یک شاخص، بلکه به عنوان یک متغیر پیوسته در نظر بگیرند. یعنی در حالی که داده های برآورد این کمیت را به عنوان یک یا یا یا نشان می دهند، داده های پیش بینی آن را بیشتر به عنوان یک درجه نشان می دهند. در این داده های پیش بینی، من امیدوارم که همکار من مقدار $x_d$ را بین 0 و 1 محدود کند، اما ما هنوز در مورد آن بحث نکرده ایم. ### ویرایش $x_d$ توضیح میدهد که آیا وام از یک وامدهنده بسیار خاص گرفته شده است یا خیر. بنابراین در واقعیت، مقدار واقعاً فقط 0 یا 1 است. در پیشبینی، همکار من میخواهد آن متغیر را بهعنوان معیاری پیوسته از شباهت به آن وامدهنده در نظر بگیرد، یعنی چقدر شبیه آن وام دهنده منبع وام است، با 0 به معنای نه در همه، و 1 به معنای همان قرض دهنده است. آیا تغییر معنی به این شکل کار بدی است؟ من به ویژه نگران این هستم که چگونه بر معانی سایر ضرایب که در کنار یک شاخص تخمین زده شده اند و اکنون در کنار یک متغیر پیوسته استفاده می شوند، تأثیر می گذارد. آیا زمانی که یک ضریب با یک اندیکاتور/ساختگی تخمین زده می شود، اما در یک پیش بینی با متغیر پیوسته استفاده می شود، مشکلی وجود دارد؟
|
ضریب با پیشبینیکننده باینری $\in \{0,1\}$ تخمین زده میشود، اما انجام پیشبینیهایی با مقادیر بین $0 و $1$ - آیا این مشکلی ندارد؟
|
88986
|
با توجه به آنچه من درک می کنم، 3 نوع اصلی روش انتخاب پیش بینی کننده برای مدل های خطی وجود دارد، یعنی 1 انتخاب زیر مجموعه، 2 انقباض و 3 کاهش ابعاد. 1. انتخاب زیر مجموعه شامل بهترین انتخاب زیرمجموعه و انتخاب مرحله به مرحله است که می تواند جلو، عقب یا ترکیبی باشد. برای انتخاب پیش بینی کننده ها می توان از AIC، BIC، Cp یا Adjusted R-Square استفاده کرد. 2. Shrinkage شامل رگرسیون Ridge و Lasso می شود. این رویکرد تلاش میکند تا ضرایب را به 0 3 کاهش دهد. کاهش ابعاد، پیشبینیکنندهها را تبدیل میکند و مدل را با استفاده از پیشبین تبدیلشده برازش میدهد. اگر دقت پیشبینی هدف اصلی من است و تفسیرپذیری مدل مهم نیست، از کدام روش(های) باید استفاده کنم؟ اگر روش ها نتایج متناقضی به دست آورد، چه کاری باید انجام دهم؟ مزایا و معایب اصلی هر رویکرد چیست؟
|
انتخاب پیش بینی مدل خطی از کدام روش استفاده کنیم؟
|
76168
|
من علاقه مند به نوشتن یک نرخ همگرایی غیر مجانبی برای SLLN به عنوان تابعی از تعداد نمونه هستم. از ادبیاتی که تاکنون خوانده ام، CLT نرخ همگرایی مجانبی $(1/\sqrt N)$ را برای SLLN ارائه می دهد. همچنین، Berry-Esseen یک کران غیر مجانبی را از نظر c.d.f ارائه میکند. $$|F_N(x) - \Phi(x)| \le \frac{C\mathbb{E}(|X|^3)}{\sigma^3\sqrt N}$$ آیا عبارتی مانند Berry-Esseen وجود دارد که تفاوت بین میانگین نمونه و مقدار مورد انتظار را محدود کند توزیع زیربنایی به عنوان تابعی از N (تعداد نمونه)؟
|
نرخ همگرایی برای SLLN
|
52461
|
بیایید بگوییم که من داده هایی دارم که تعداد بازدید از موزه در روز را نشان می دهد. چالش من این است که بفهمم چگونه برخی از متغیرهای خارجی (برون زا؟) مانند آب و هوا و تبلیغات بر تعداد بازدیدهای روزانه تأثیر می گذارد. علاوه بر این، باید پیشبینی کنم که با تغییر متغیرهای خارجی، تعداد بازدیدها چگونه تغییر میکند. دادههای من دارای نوسانات فصلی کاملاً واضحی است که در آن تعطیلات آخر هفته و تعطیلات خاص بازدیدکنندگان بیشتری را جذب میکنند. طول فصلی سالانه نیز میتواند وجود داشته باشد. از آخرین باری که با سری های زمانی کار کردم، مدت زیادی می گذرد، و بنابراین باید در جهت درست راهنمایی شوم. رویکردی که باید برای مدلسازی این دادهها استفاده کنم چیست؟ مراحل پیش پردازش؟ نوع مدل؟ دام های معمولی؟ آیا کسی از نمونه های کار شده ای سراغ دارد که بتوانم از آنها الهام بگیرم؟
|
مدل سازی سری های زمانی با متغیرهای مستقل
|
88984
|
فرض کنید یک فرآیند ثابت AR(p) گاوسی $$ X_t = \sum_{i=1}^t \phi_i X_{t-i} + a_t $$ است که $a_t$ از iid $N(0، \sigma_a^2) است. $. 1. برای تخمین پارامترهای آن از یک مسیر نمونه به طول $n$، من فکر میکنم راحتتر است که احتمال گزارش مشروط $\log p(X_{p+1}, \dots, X_n \mid X_1, \dots, X_p، \phi_1، \dots، \phi_p، \sigma_a^2)$ به جای حداکثر کردن احتمال گزارش $\log p(X_1، \dots، X_n \mid \phi_1، \dots، \phi_p، \sigma_a^2)$، زیرا نمیدانم چگونه احتمال ورود را برای توزیع مشترک $X_1، \dots، X_p استخراج کنم. $. من می دانم که $X_1، \dots، X_p$ باید یک توزیع نرمال چند متغیره داشته باشند، اما من نتوانستم فرمول صریحی برای ماتریس کوواریانس آنها پیدا کنم. بنابراین نمیدانم آیا فرمولی صریح برای ماتریس کوواریانس $X_1، \dots، X_p$ و احتمال ورود به سیستم میدانید؟ 2. هنگام محاسبه AIC، از آنجایی که من نحوه محاسبه log likelihood را بلد نیستم، آیا استفاده از احتمال log شرطی به جای log likelihood قابل قبول است؟ نگرانی من این است که تفاوت بین احتمال log و احتمال ثبت شرطی $\log p(X_1, \dots, X_p \mid \phi_1, \dots, \phi_p, \sigma_a^2)$ است که به ترتیب AR مربوط می شود. ص اگر از AIC شرطی برای انتخاب p استفاده کنم، نگرانم که AIC های مشروط مدل های AR را با p های مختلف در یک زمین مقایسه نکنم، زیرا هرچه p بزرگتر باشد، l بیشتر از AIC شرطی برای عدم نادیده گرفته می شود. شامل $\log p(X_1، \dots، X_p \mid \phi_1، \dots، \phi_p، \sigma_a^2)$. بنابراین آیا چنین AIC مشروط قابل قبول است؟ با تشکر
|
تخمین و انتخاب مدل برای AR (p) گاوسی: احتمال ورود شرطی و غیرشرطی
|
52468
|
من آزمایشی را انجام دادم که در آن خانوادههای مختلفی را که از دو جمعیت منبع متفاوت بودند، بزرگ کردم، که در آن هر خانواده به درمانهای متفاوتی تقسیم شد. پس از آزمایش، چندین صفت را در هر فرد اندازهگیری کردم. اکنون میخواهم یک آمار کلی و از این رو چند متغیره داشته باشم که تأثیر درمان یا منبع و همچنین تأثیر متقابل آنها را آزمایش کند، اما اثرات خانوادگی را تصحیح کند. بنابراین، اساساً من می خواهم یک MANOVA با یک افکت تصادفی انجام دهم که به چیزی شبیه به این ترجمه می شود: manova (منبع داده * درمان + خطا (خانواده)) با این حال، تابع استاندارد R MANOVA از جلوه های تصادفی پشتیبانی نمی کند و من نتوانست تابع دیگری را پیدا کند که این کار را انجام دهد. بنابراین من می خواهم بپرسم اگر کسی پیشنهادی دارد که می تواند کمک کند. با تشکر
|
چگونه یک MANOVA با یک افکت تصادفی در R انجام دهیم؟
|
15167
|
من در مورد دو تست تردید دارم: **آزمون بروش–پاگان**، برای تشخیص ناهمسانی در یک سری، و **آزمون بارتلت**، برای آزمایش واریانس های مساوی برای نمونه هایی از جمعیت $k$. تفاوت بین این دو تست چیست؟ * آیا آن تست ها ارتباط زیادی ندارند؟ * چگونه یک داده هموسداستیک میتواند در واریانس همگنی نداشته باشد؟
|
تفاوت بین داده های هموسداستیک و همگن واریانس
|
76169
|
چرا شرط خاتمه الگوریتم مقدار-تکرار است (مثال http://aima-java.googlecode.com/svn/trunk/aima-core/src/main/java/aima/core/probability/mdp/search/ValueIteration .java ) همانطور که هست؟ در MDP (فرایند تصمیم مارکوف) $||U_{i+1}-U_i||< \text{error}\cdot(1-\gamma)/\gamma$ داریم، که $U_i$ بردار است Utilities $U_{i+1}$ بردار ابزارهای به روز شده است $\text{error}$ کران خطای مورد استفاده در الگوریتم است. $\gamma$ عامل تخفیف مورد استفاده در الگوریتم است * $\text{error}\cdot(1-\gamma)/\gamma$ از کجا می آید؟ * آیا عبارت $/\gamma$ به این دلیل است که هر مرحله توسط $\gamma$ تخفیف داده می شود؟ اما در مورد $\text{error}\cdot(1-\gamma)$ چطور؟ * و اندازه $\text{error}$ چقدر باید باشد؟
|
همگرایی تکرار ارزش
|
109852
|
من توانستم مدل Longitudinal IRT را در Winbugs برای پاسخ ترتیبی با گسترش کد BUGS که توسط Curtis در JSS از مقاله برداشته بودم در Winbugs قرار دهم http://www.jstatsoft.org/v36/c01/paper/ با این حال، من دارم مشکل در معرفی یک افکت گروهی در کد. دادهها پاسخهای ترتیبی 7 دستهای هستند که از 1 تا 7 کدگذاری شدهاند و در چند نقطه زمانی برای هر موضوع اندازهگیری میشوند. من می خواهم 3 گروه از افراد را بر اساس متغیر پنهان آنها (پارامتر توانایی) مقایسه کنم. در اینجا کد BUGs (من از R2WinBUGS استفاده می کنم) بدون افکت گروه است و همانطور که انتظار می رود اجرا می شود: lgrmar1 <- function(){ # مدل طولی پاسخ درجه بندی شده # بدون محدودیت - پارامترهای تبعیض آلفا به طور آزاد برای (t در 1:T) برآورد شده است برای (i در 1:n){ برای (j در 1:p){ Y[i، j، t] ~ dcat(prob[i، j، t، 1:K[j]]) برای (k در 1:(K[j] - 1)) { logit(P[i، j، t، k]) <- kappa [j، k] - آلفا[j]*تتا[i، t] } P[i، j، t، K[j]] <- 1.0 } برای (j در 1:p){ prob[i، j، t، 1] <- P[i، j، t، 1] برای (k در 2:K[j]) { prob[i، j، t، k] <- P[i، j، t، k] - P[i، j، t، k - 1] } } } } برای (i در 1:n){ theta[i، 1:T] ~ dmnorm(mu.theta[], Pr.theta[,]) } # قبلی برای mu.theta mu.theta[1] <- 0.0 برای (t در 2:T){ mu.theta[t] ~ dnorm(m .mu.theta, pr.mu.theta) } pr.mu.theta <- pow(s.mu.theta, -2) # ساختار AR(1) برای Sigma.theta sigsq.theta <- 1.0 Sigma.theta[1, 1] <- sigsq.theta برای (t در 2:T){ Sigma.theta[t, t] <- sigsq.theta برای (j در 1: (t - 1)){ Sigma.theta[t، j] <- sigsq.theta*pow(rho، t - j) Sigma.theta[j, t] <- Sigma.theta[t, j] } } Pr.theta[1:T، 1:T] <- معکوس(Sigma.theta[,]) rho ~ dunif(-1.0، 1.0) # Priors در پارامترهای مورد برای (j در 1:p){ alpha[j] ~ dnorm(m.alpha, pr.alpha) %_% I(0, ) } pr.alpha <- pow(s.alpha, -2) # آستانه باید برای (j در 1:p){ برای (k در 1:K[j] - 1 رتبه بندی شود ){ kappa.star [j، k] ~ dnorm(m.kappa، pr.kappa) kappa[j، k] <- رتبه (kappa.star[j, 1:(K[j] - 1)]، k) } } pr.kappa <- pow(s.kappa، -2) } ثابت ها عبارتند از: زمان T <- dim(Y)[3] n.متغیرها p < - dim(Y)[2] اندازه نمونه n <- dim(Y)[1] K - حداکثر سطح برای متغیر ترتیبی برای هر مورد K <- اعمال می شود(اعمال (Y, c(2,3), max), 1, max) پارامترهای قبلی: m.alpha <- 1.0 s.alpha <- 2.5 m.kappa <- 0.0 s.kappa <- 2.5 m.mu.theta <- 0 s .mu.theta <- 1 * * * سوال من این است که چگونه می توانم یک اثر گروهی را در مقیاس متغیر پنهان کدنویسی کنم؟ آیا باید اثر گروه را مستقیماً در عبارت درستنمایی مدل کنم (مثلاً logit(P[i, j, t, k]) <\- kappa[j, k] - alpha[j]*theta[i, t] + coef1 *grp1 + coef2*grp2، 3 گروه وجود دارد)، یا باید اثر گروه از متغیر پنهان تتا وارد شود؟ برای مورد دوم، چه تغییری در کد وجود دارد؟
|
پاسخ چندگروهی مورد طولی WinBUGS OpenBUGS
|
72396
|
من به تازگی به مبانی تخمین حداکثر احتمال و حداکثر کردن انتظار پرداختم. دنبال کردن دومی واقعاً دشوار است و من در پی بردن به اینکه چگونه می توانم روش EM را برای تخمین پارامترها اعمال کنم، زمان سختی را سپری می کنم.
|
در مورد نحوه تدوین و اعمال حداکثر احتمال
|
30335
|
در یک مدل مخلوط گاوسی داده شده با متغیرهای ادامه مشاهده شده $Y$ و متغیرهای گسسته پنهان $X$، من میخواهم الگوریتم رو به عقب را به منظور محاسبه پسینهای حاشیهای $P(x_t|y_{1:T})$ اعمال کنم. از آنجایی که این به صورت $$\frac{\alpha_t(x_t) \beta_t(x_t)}{P(Y)}$$ محاسبه میشود، فکر میکردم چگونه میتوانم مقدار $P(Y)$ را بدست بیاورم؟ تنها احتمالاتی که من داده ام یک احتمال انتقال $P(x'|x)$ است.
|
احتمال داده های مشاهده شده در HMM
|
103812
|
من از بسته وگان در R برای انجام تجزیه و تحلیل افزونگی (RDA، بخشی از تجزیه و تحلیل همبستگی متعارف) استفاده می کنم. دادههای پاسخ من باینری است و متغیرهای توضیحی من شامل 0، 0.5 و 1 است. من مقادیر ویژه بسیار کم (~0.05) دریافت میکنم و سؤال من این است که دادههای باینری چگونه بر مقدار ویژه تأثیر میگذارند؟ آیا تغییرپذیری همیشه بد توضیح داده می شود؟
|
چگونه مقادیر ویژه با داده های باینری در تجزیه و تحلیل افزونگی کار می کنند؟
|
100135
|
من و یک همکار در حال تلاش برای حاشیه نویسی یک کار هم ترازی هستیم. ما دو سند داریم. سند اول نسخه اصلی و سند دیگر نسخه اصلاح شده است. من و حاشیه نویس دیگر سعی می کنیم جملات نسخه دوم را با اصل تراز کنیم. یک جمله در سند دوم می تواند مانند متن اصلی باشد. یک جمله نیز می تواند اضافه شود. و یک جمله در اصل نیز می تواند حذف شود. همچنین، یک جمله می تواند با چندین جمله در نسخه اصلی تراز شود. و چندین جمله را می توان در یک جمله تراز کرد. ======= این یک مثال است: سند اول دارای 10 جمله است: Sent-1, Sent-2, Sent-3, Sent-4, ... , Sent-10. سند دوم 9 جمله دارد: Sent-1, Sent-2, Sent-3, ... , Sent-9. حاشیه نویسی من این است: 1، 2، 3، 4، ADD، 5، 6، 8، 10 این نشان می دهد که فکر می کنم Sent-1، 2، 3،4 با 1،2،3،4 در جمله اصلی تراز شده اند، Sent-5 اضافه می شود، Sent-6 به 5 تراز می شود و Sent-7 به 6، Sent-8 به 8، Sent-9 به 10 تراز می شود. موارد بدون تراز حذف می شوند. حاشیه نویس دیگر دارای 1، 2، 3، 4، 5، 5، 6، 9، 10 است. باید با 9 تراز شود. بنابراین کاپا در اینجا چیست؟
|
چگونه این نوع کاپا را محاسبه کنیم؟
|
72391
|
بگویید من یک مدل SEM با 1 متغیر پیش بینی کننده (IV)، 2 واسطه (MV1، MV2) و 1 متغیر وابسته (DV) دارم. آموس اثرات غیرمستقیم ترکیبی را برای IV در DV گزارش میکند. بنابراین اثر غیرمستقیم ترکیبی، مجموع اثرات غیرمستقیم مؤلفه (یعنی اثر غیرمستقیم IV-MV1-DV و اثر غیر مستقیم IV-MV2-DV) خواهد بود. Amos دریافت فواصل اطمینان بوت استرپ در اثرات غیر مستقیم ترکیبی را آسان می کند. با این حال، فرضیهها اغلب به اثرات غیرمستقیم مؤلفه مربوط میشوند (به عنوان مثال، اینکه MV1 واسطه اثر IV بر DV است). **چگونه می توانم با استفاده از Amos فواصل اطمینان را بر روی جلوه های غیرمستقیم کامپوننت بدست بیاورم؟** من علاقه مند به فواصل اطمینان مجانبی و بوت استرپ هستم. آیا می توانم فقط از مقادیر و خطاهای استاندارد برای ضرایب فردی استفاده کنم (یعنی MV1<-IV و DV<-MV1)؟
|
چگونه فواصل اطمینان را برای اثرات غیر مستقیم خاص در آموس بدست آوریم؟
|
76160
|
من یک مدل ARMA را به دادههایم برازش میکنم و اینجا کد وارد کردن من است statsmodels.tsa.arima_model به عنوان ari model=ari.ARMA(pivoted['price'],(2,1)) ar_res=model.fit() preds= ar_res.predict(100,400) چیزی که من می خواهم این است که مدل ARMA را تا 100 نقطه داده آموزش دهم و سپس خارج از نمونه را آزمایش کنم. در نقاط داده 100-400. اما من فکر نمی کنم این چیزی باشد که اتفاق می افتد. من فکر میکنم این به این دلیل است که مدل برای کل مجموعه داده مناسب است، بنابراین چگونه میتوان پیشبینیها خارج از نمونه باشد؟ اینجا می گوید که پیش بینی خارج از نمونه امکان پذیر است. آیا کسی می تواند به من کمک کند تا این را بفهمم؟ خوب اینجا کد جدید من است model=ari.ARMA(pivoted['price'][:100],order=(2,1)) ar_res=model.fit() preds=ar_res.predict(100,400) error AssertionError: طول ایندکس با مقادیر مطابقت نداشت
|
من مطمئن نیستم که statsmodels خارج از نمونه را پیش بینی کند
|
76165
|
من سعی میکنم فاصله پیشبینی تابع ()predict.lm را در R با استفاده از فرمول موجود در این بحث مطابقت دهم: به دست آوردن فرمولی برای محدودیتهای پیشبینی در یک مدل خطی، من از کمیت دانشآموز در بازه استفاده میکنم اما در در پایان بسیار بزرگتر از چیزی است که توسط predict(). آیا محاسبه خاصی در تابع پیش بینی وجود دارد، من سعی کردم به کد نگاه کنم اما هیچ پاسخی پیدا نکردم. فرمول خوب به نظر می رسد زیرا من دقیقاً همان را از منابع دیگر پیدا کردم. کد R من : airquality_clean <- na.omit(airquality) attach(airquality_clean) #مدل تخمین مدل_1 <- lm(Ozone ~., data = airquality_clean) #Unbias variance of the resduals sigma_2 <- sum(model_1$residuals**2)/(dim(airquality_clean)[1]-dim(airquality_clean)[2]) #New observation new <- data.frame(Solar.R=200,Wind=10,Temp=70 ,Day=1,Month=3) #سیگما فاصله پیشبینی محاسبه شده <- sqrt(sigma_2*(1 + as.matrix(جدید)%*%solve(as.matrix(t(airquality_clean[,-1]))%*%as.matrix(airquality_clean[,-1]))%*% as.matrix(t(جدید))) qt <- qt(0.995، df = dim(airquality_clean)[1]-dim(airquality_clean)[2]) int_pred_t <- cbind(predict(model_1, new)-(qt*sigma),predict(model_1, new)+(qt*sigma)) int_pred_t [, 1] [،2] [1،] -22.59931 95.82563 #R prediction interval predict(model_1, new, interval=predict, level=0.99)} fit lwr upr 1 36.61316 -21.12916 94.35548 من خیلی دور نیستم اما نتایج یکسانی نیست. اگر از یک مقدار p از یک توزیع نرمال استفاده کنم و نه دانش آموز، حتی نزدیکتر هستم. متشکرم.
|
R پیش بینی با گزینه پیش بینی.
|
10250
|
من اطلاعاتی در مورد درصد مواد آلی در رسوبات دریاچه از 0 سانتی متر (یعنی سطح مشترک رسوب و آب) تا 9 سانتی متر برای تقریباً 25 دریاچه دارم. در هر دریاچه 2 هسته از هر مکان گرفته شد، بنابراین من 2 تکرار درصد درصد ماده آلی در هر عمق رسوب برای هر دریاچه دارم. من علاقه مند به مقایسه دریاچه ها در رابطه بین درصد ماده آلی و عمق رسوب (یعنی شیب) هستم. در برخی دریاچه ها رابطه بین درصد ماده آلی و عمق رسوب خطی به نظر می رسد اما در موارد دیگر این رابطه پیچیده تر است (نمونه های زیر را ببینید). افکار اولیه من این بود که روابط خطی را در جایی که مناسب است با کل منحنی یا زیر مجموعه ای از منحنی در صورتی که عمدتا خطی بود منطبق کنم و فقط آن دریاچه هایی را مقایسه کنم که در آنها رابطه خطی قابل توجهی یافت شد. با این حال، من از این رویکرد ناراضی هستم زیرا نیازی به حذف دادهها بدون دلیل دیگری ندارد مگر اینکه آنها با مدل خطی مطابقت نداشته باشند و اطلاعات بالقوه جالب در مورد رابطه بین درصد ماده آلی و عمق رسوب را نادیده میگیرد. راه خوبی برای خلاصه کردن و مقایسه منحنی های دریاچه های مختلف چیست؟ منحنی های مثال متشکرم: در همه موارد، محور y درصد ماده آلی در رسوب است و محور x عمق رسوب است که در آن 0 = فصل مشترک رسوب و آب است. یک مثال خطی خوب:  2 مثال غیر خطی:   مثالی بدون هیچ رابطه آشکار: 
|
چگونه روابط غیر خطی را خلاصه و مقایسه کنیم؟
|
72392
|
این سوال در تاپیک دیگری که من شروع کردم مطرح شد بنابراین فکر کردم نظرات افراد بیشتری را در مورد آن دریافت کنم. سوال من این است **آیا باقیمانده، e، تخمینگر خطا، $\epsilon$ است؟** دلیلی که میپرسم به شرح زیر است. در OLS، واریانس باقیمانده ها، $\frac{\text{RSS}}{(n - K )}$، به عنوان واریانس رگرسیون شناخته می شود (که در آن RSS مجموع باقیمانده مربع ها است). به طور مشابه، ریشه دوم این واریانس، $\sqrt\frac{\text{RSS}}{(n - K )}$، خطای استاندارد رگرسیون است. با توجه به این واقعیت که ریشه دوم واریانس، $\frac{\text{RSS}}{(n - K )}$، یک خطای استاندارد است، باید به این معنی باشد که این واریانس واریانس یک برآوردگر است. ما قبلاً می دانیم که آن واریانس باقیمانده ها است، بنابراین، باقیمانده یک برآوردگر است؟ (من $\epsilon$ فرض می کنم) افکار؟؟
|
آیا باقیمانده، e، برآوردگر خطا، $\epsilon$ است؟
|
76167
|
من مجموعه داده ای از 100 سری زمانی مختلف دارم و سعی می کنم فقط یکی از آنها را پیش بینی کنم. با این حال، من فکر می کنم که 99 سری زمانی دیگر بر روی مورد علاقه من تأثیر می گذارد، بنابراین از یک مدل VAR استفاده می کنم تا سری زمانی که به آن علاقه مندم ترکیبی خطی از مقادیر تاخیر خودش و مقادیر تاخیر 99 زمان دیگر باشد. سری'. شهود این است که اطلاعات اضافه شده از سریهای زمانی دیگر، عملکرد پیشبینی را بهبود میبخشد (یعنی بهتر از عملکرد پیشبینی یک مدل AR ساده است که در آن فقط مقادیر تأخیر سریهای زمانی مورد علاقه گنجانده شده است). بنابراین اولین سوال من این است که آیا این شهود صحیح است؟ سوال دوم من این است که آیا روشهای شناخته شدهای برای تعیین اینکه کدام سریهای زمانی عملکرد پیشبینی سریهای زمانی مورد علاقه را بهبود میبخشد و کدام نه (مشابه نحوه عملکرد انتخاب ویژگی) وجود دارد.
|
پیاده سازی یک مدل خودرگرسیون برداری که در آن فقط یک متغیر مورد توجه است
|
115275
|
من برای تعیین تعداد بهینه حالتهای پنهان در یک HMM، اعتبارسنجیهای Leave-one-out Cross را اجرا میکنم. در هر تکرار یک مدل میگیرم و با الگوریتم رو به جلو، احتمال دادههای تست را بر اساس مدل تخمین میزنم. من همچنین به log-likelihod (LL) مدل در هر فولد نیاز دارم تا مجموع همه تاها را بدست بیاورم و در نهایت شاخص مناسبی داشته باشم. چگونه می توانم LL در هر فولد را با استفاده از matlab محاسبه کنم؟ می پرسم آیا تابع خاصی برای محاسبه آن وجود دارد؟ و سوال آخر، من یک مدل در هر فولد می گیرم چگونه می توانم مدل جهانی را دریافت کنم؟ با گرفتن میانگین احتمالات؟
|
دریافت احتمال ورود به سیستم در هر برابر در LOO Cross Validation برای HMM در Matlab
|
103704
|
من با یک مدل پروبیت چند متغیره با قابلیت مشاهده جزئی/انتخاب نمونه (نوشته شده در GAUSS) مشکل دارم. در این مدل در هر یک از مراحل متعدد یک پروبیت وجود دارد و تنها یکی از دو نتیجه برای هر مرحله به مرحله جدید می رود. به عبارت دیگر، اساساً یک مدل هکمن است، که در آن شما یک معادله نتیجه (دستمزد) را مشاهده می کنید، اما فقط برای یک زیرگروه که معادله انتخاب را پشت سر می گذارد (فقط کسانی که تصمیم به کار دارند). مشکل من با مشخص کردن ماتریس کوواریانس است. اساساً باید 3 چیز را برآورده کند: 1) باید قطعی مثبت باشد 2) همه ورودی های مورب = 1 برای شناسایی هستند 3) ورودی های خارج از مورب بنابراین همبستگی هستند و باید در [-1,1] باشند. برای اطمینان از قطعی مثبت ماتریس cov (PD)، افراد معمولاً فقط یک ماتریس مثلثی پایینتر از نوع Cholesky، C را پارامتر میکنند. سپس ماتریس cov=CC را تعریف میکنند که PD تضمین شده است. با این حال، در این تجزیه C، قطرها به شکل sqrt(1-x) هستند. این مقادیر اغلب در تخمین من تخیلی می شوند، حتی اگر آنها را به صورت بی رحمانه به مقادیر خوب برگردانم (احتمالاً از آنجایی که بهینه سازی کنسرو شده پس از ارزیابی کد من کار خود را انجام می دهد). ثانیاً، من نمیتوانم ورودیهای خارج از مورب را در [-1،1] محدود کنم، بنابراین با مقادیر بزرگتر از 1 پایان میدهم، با این حال فرض میشود که آنها همبستگی باشند. کسی مشاوره یا تجربه ای در مورد این مسائل داره؟ بسیار قدردانی می شود.
|
مشخصات ماتریس کوواریانس در پروبیت چند متغیره
|
76163
|
در رگرسیون خطی ساده اغلب میخواهیم بررسی کنیم که آیا مفروضات خاصی برای استنتاج وجود دارد یا خیر (مثلاً باقیماندهها معمولاً توزیع میشوند). آیا منطقی است که مفروضات را با بررسی اینکه آیا مقادیر برازش به طور معمول توزیع شده اند بررسی کنیم؟
|
چرا تشخیص بر اساس باقیمانده ها است؟
|
111951
|
پس از آزمایش چندین مدل با داده های من، مقادیر R^2 و p مدل من را مانند زیر نشان می دهد. نمودار ACF به من می گوید که اصطلاح AR مهم است. بینشها در مورد دادهها به من میگویند که تغییر در «x» تأثیر خواهد داشت (مثلاً y استفاده از A/C و x دما است). y(t)=a+b*y(t-1)+c*{x(t)-x(t-1)}+خطا سوال: آیا مدل فوق از نظر آماری معنادار است؟ اگر چنین است، این «مدل خطی» به چه دستهای گفته میشود؟ من با مدلهای AR، مدلهای MA و مدلهای ARIMA/ARMA برخوردم، اما مدلی را ندیدهام که عبارت AR و diff (متغیر مستقل) با هم وجود داشته باشد.
|
شرایط AR و متغیر مستقل به عنوان رگرسیون
|
92600
|
من سوالات دیگر در مورد مشاوره کتاب تئوری اندازه گیری را دیده ام، و فکر نمی کنم هیچ یک از آنها با آنچه من به دنبال آن هستم مطابقت داشته باشد. اکثریت قریب به اتفاق کتاب های درسی تئوری اندازه گیری (به طور طبیعی) مبتنی بر ریاضی هستند و معیارهای مختلفی را مورد بحث قرار می دهند. چیزی که من به دنبال آن هستم کتاب تئوری اندازه گیری است که بیشتر بر روی _تفسیر_ تمرکز دارد و اینکه چگونه ویژگی های چیزهایی مانند واریانس/انحراف معیار تغییر می کند، اگر معیارهای اساسی آنها را که بر اساس آن ها استوار شده اند، اصلاح کنید. به عبارت دیگر، کتابی که در مورد تفسیر، نحوه قضاوت در مورد معیارها بحث می کند (مثلاً آیا این نسبت به موارد دورافتاده حساس است، آیا قوی است و غیره) و نحوه ایجاد یک متریک و غیره. به عنوان مثال، معیار مرکزیت پذیرفته شده میانگین است، نه حالت یا میانه بنابراین اگر میخواهم بدانم اگر میانگین را با میانه جایگزین کنم، عملکرد واریانس/انحراف استاندارد چگونه تغییر میکند، چگونه این کار را انجام دهم؟ به عبارت دیگر، اگر در محاسبه واریانس، میانگین را با میانه جایگزین کنم، چگونه می توانم نتیجه بگیرم که تفاوت چندانی ندارد؟ از کمک شما متشکرم. **ویرایش**: آیا این سوال واقعاً یک سوال تئوری تصمیم است؟
|
تفسیر نظریه اندازه گیری - مشاوره کتاب درسی
|
7563
|
چه تکنیک ها/رویکردهایی در تست نرم افزارهای آماری مفید هستند؟ من به ویژه به برنامه هایی که تخمین پارامتریک را با استفاده از حداکثر احتمال انجام می دهند علاقه مند هستم. مقایسه نتایج با سایر برنامهها یا منابع منتشر شده همیشه امکانپذیر نیست، زیرا اکثر اوقات وقتی برنامهای از خودم مینویسم به این دلیل است که محاسبات مورد نیاز من قبلاً در یک سیستم موجود پیادهسازی نشده است. من بر روش هایی که می تواند صحت را تضمین کند، اصرار نمی کنم. من از تکنیک هایی که می توانند کسری از خطاها را بگیرند خوشحال خواهم شد.
|
نرم افزار تست آماری
|
100010
|
یک ماتریس $N \times 2$ را در نظر بگیرید (نماد MATLAB): M = [1.2, 3; 1.4، 2; 1.8، 1; 2.0، 2]; این یک ماتریس $4 \ برابر 2 $ است که در آن ستون اول از اعداد واقعی و دومی از اعداد صحیح تشکیل شده است. سوال من به سادگی این است: آیا اجرای یک تست $\chi^2$ در این مورد منطقی است و اگر چنین است چگونه آن را انجام می دهید؟ من تمایل دارم که نه بگویم زیرا محاسبه فرکانس ها برای واقعی (من در اینجا به یک نقطه اعشار کوتاه شده ام، اما این می تواند 5 یا 6 اعشار باشد) منطقی نیست. آیا من خیلی دور هستم، روشن یا در بین؟
|
آیا می توانید از آزمون کای دو با جداول اعداد واقعی استفاده کنید؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.