_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
107758
سوال من در مورد برنامه ریزی آماری نیست. ما می دانیم که چگونه نرم افزار را در یک رگرسیون با بسیاری از متغیرهای مستقل کدنویسی کنیم. سوال من این است که چگونه نرم افزار کامپیوتری همه متغیرها را به طور همزمان کنترل می کند. درک همبستگی ساده دو متغیر آسان است، زیرا هر متغیر توجه کامل دیگری را به خود جلب می کند. با این حال، در رگرسیون چندگانه، چندین متغیر مستقل به طور همزمان به متغیر وابسته نگاه می کنند و هر کدام به دنبال این هستند که تغییر را کم کنند یا توضیح دهند، اما همه آنها نمی توانند با متغیر وابسته در عمل باشند. همان زمان اگر به یک متغیر مستقل داده‌شده اولویت داده شود تا اولین کسی باشد که با متغیر وابسته تعامل می‌کند، و سهم خود را از متغیر وابسته «برداشته» می‌کند، آن‌گاه آنچه را که حذف می‌کند به درستی واجد شرایط توضیح سایر مستقل نخواهد بود. متغیرها، همانطور که عادلانه باید باشد. حس شهودی من از آنچه اتفاق می افتد باید اشتباه باشد، و من به پاسخی نیاز دارم که شامل فرمول نباشد. چالش پیش روی حرفه معلمی این است که چگونه می توان ایده های پیچیده را به صورت روایی یا استعاری برای تحلیلگرانی که حس سریع و شهودی برای توضیح نمادین ندارند، توضیح داد. یک سوال مرتبط این است: آیا این فرآیند تکراری است که تقریب‌های اولیه (بتاها) انجام می‌شود، و به تدریج تنظیم می‌شوند زیرا هر یک از متغیرهای مستقل دیگر اطلاعات بیشتری را به تخمین‌های بتا اولیه اضافه می‌کنند؟
چگونه کنترل متغیرها در رگرسیون چندگانه کار می کند؟
94691
من سعی می‌کنم بر روی داده‌هایم که از اندازه‌گیری لیپیدها در نمونه‌های مختلف به دست می‌آید، آنالیز کامپیوتری انجام دهم. من فقط یک عامل دارم: اگر نمونه ها دیابتی باشند یا غیر دیابتی. این نمودار PCA است که من دریافت می کنم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/LbinR.png) همانطور که می بینید، داده ها به هیچ وجه خوشه بندی نمی شوند! برای آن چه باید بکنم؟ آیا تجزیه و تحلیل دسته بندی دیگری وجود دارد که بتوانم به جای PCA از آن استفاده کنم؟
مشکل با PCA
45878
من ANOVA را در SPSS و سپس در R انجام می‌دادم و در کمال تعجب، نتایج آخرین نسخه R نادرست بود. هنگامی که از تابع model.tables(xmeans) برای بدست آوردن آمار توصیفی استفاده می کنم، میانگین متغیر مستقل وابسته دوم کمی نادرست است (مثلاً 129 به جای 130.27). سوال من این است که چه چیزی می تواند باعث مشکل شود؟ من یک مبتدی به R هستم اما با استفاده از همان داده ها، SPSS به درستی نتیجه را دریافت می کند، بنابراین واضح است که چیزی اشتباه است. `head(data)`: skupina pohlavie zodpovedny 1 1 1 152 2 1 1 118 3 2 2 88 4 2 1 140 کد: x <- aov(zodpovedny ~ pohlavie*skupina,data=data) model.tables(x معنی) مشکل نشان داده شده است: ![این است متأسفانه.](http://i.stack.imgur.com/g19cG.jpg)
R model.tables() به معنای نادرست - اشکال احتمالی است؟
45870
من سعی می‌کنم تخمین‌های حداکثر احتمال را در یک مدل SDM شناسایی کنم (مدل قیمت خانه لذت‌بخش، با مشاهدات 5000 خانه جداگانه)، $$y=\rho W y + X\beta + WX\lambda + \epsilon$$ تابع درستنمایی این مدل $$\ln(\mathcal{L}) = \dfrac{n\ln(\pi\sigma^2)}{2} + است. \ln|I - \rho W| + \dfrac{e'e}{2\sigma^2} $$ با $e= y - \rho W y - X\beta - WX\lambda$ من توانستم با موفقیت پارامترهای $\rho، \beta را تخمین بزنم ,\lambda$ با استفاده از تابع 'lagsarlm' در بسته 'spdep'. در مورد من، $W$ یک ماتریس فاصله معکوس محدود به شعاع $r$ یا $$W_{ij} = \begin{cases} 1/d_{ij} & \text{برای $d_{ij} \ leq r$ miles}\\\ 0 & \text{for $d_{ij} > r$ miles} \end{cases}$$ من می‌خواهم $r$ را همزمان با $\rho، \بتا،\lambda$. من حتی یک تابع احتمال برای انجام این کار در R نوشته ام (استفاده از همسایگان و توابع تاخیر در spdep) sdm.lik <- function(params, y, X, GeoPoints){ n <- length(y) rho <- params[1] شعاع <- params[2] sigma2 <- params[3] delta <- params[-c(1,2,3)] # make W موضوع به radius points.dnn <- dnearneigh(GeoPoints, 0, radius*5280) dists <- nbdists(points.dnn, GeoPoints) dists.inv <- lapply(dists, function(x) 1/x) Wlist <- nb2listw( points.dnn، glist=dists.inv، style=W، zero.policy=TRUE) W <- listw2mat(Wlist) # Lag X متغیر Z <- cbind(X[,1], lag.listw(Wlist, X[,1], zero.policy=TRUE)) for(i در 2:ncol(X)){ Z <- cbind(Z, X[,i], lag.listw(Wlist, X[,1], zero.policy=TRUE)) } # محاسبه احتمال ثبت گزارش e <- y - ((rho * W) %*% y) - (Z %*% delta) lagmatrix <- diag(1,nrow=length(y), ncol=length(y)) - rho*W logL <- ( -0.5*n*log(pi * sigma2) + log( det(lagmatrix) ) -(t(e) %*% e) / (2*sigma2) ) return(-logL) } بهینه سازی این تابع بسیار آهسته تر از آن است که عملی باشد. جای تعجب نیست که بالاترین هزینه عملیات، عامل تعیین کننده گزارش است. 1. آیا نکاتی برای محاسبه سریعتر این تعیین کننده دارید؟ 2. آیا «lagsarlm» از قبل قابلیتی برای انجام این کار دارد؟ 3. آیا می توانم آن را هک کنم تا این کار را انجام دهد؟
برآورد MLE شعاع اثرات فضایی
81756
اجازه دهید برای شما مثالی بزنم تا نشان دهم در تلاش هستم. فرض کنید 50 بیمار درمان یک بیماری را شروع کردند و 2 ماه طول کشید. بنابراین، من می خواهم اندازه تومور ماه اول را با اندازه تومور ماه دوم برای هر یک از 50 بیمار مقایسه کنم. و باید بتوانم به بیماران بگویم که اندازه تومور در طول دوره درمان پایدار است/افزایش/کاهش می‌یابد. من اطلاعات 50 بیمار دارم که تاثیر درمان را در ماه اول و ماه دوم توصیف می کند. به عنوان مثال، داده‌ها مانند شناسه بیمار ماه اول به نظر می‌رسند اندازه حجم تومور 1 1 90 1 1 89 1 1 88 2 1 90 2 1 90 2 1 91 1 2 75 1 2 80 1 2 83 2 2 98 2 2 95 2 2 97 .. .. .. .. .. 50 2 67 در اینجا اگر ماه اول 1 باشد یعنی در ماه اول است، 2 یعنی در ماه دوم درمان است. و شناسه ها فقط عددی هستند که نشان دهنده هر بیمار است. بیش از 3 اندازه گیری برای هر بیمار وجود دارد، اما من فقط 3 مورد از آنها را برای اختصار نشان داده ام. چگونه ماه اول درمان را با ماه دوم درمان بیماری مقایسه کنیم؟ من از A one way Anova برای مقایسه ماه اول با ماه دوم با استفاده از اندازه حجم تومور به عنوان متغیر وابسته و ماه اول به عنوان عاملی در SPSS استفاده کردم. نتایج نشان می دهد که بین ماه اول اندازه تومور و ماه دوم اندازه سرطان برای همه بیماران تفاوت معنی داری وجود دارد. اما، من شناسه بیمار را در SPSS وارد نکردم، آیا باید از آن استفاده کنم؟ آیا باید داده های ماه اول هر بیمار و ماه دوم دوره درمان را جداگانه مقایسه کنم؟ بنابراین، به جای داشتن یک نتیجه آزمایش آنووا، آیا باید 50 (تعداد بیماران) نتیجه آنووا داشته باشم تا بگویم تفاوت ها قابل توجه است؟
15878
اگر یک مدل رگرسیونی وجود داشته باشد که در آن $Y = a + bX$ که در آن $a = 1.6$ و $b=0.4$ است، دارای ضریب همبستگی $r = 0.60302$ است. اگر $X$ و $Y$ عوض شوند و معادله $X = c + dY$ می شود که در آن $c=0.4545$ و $d=0.9091$ می شود، همچنین دارای مقدار $r$ 0.60302$ است. امیدوارم کسی بتواند توضیح دهد که چرا $r=(d\times b)^{0.5}$ نیز 0.60302$ است.
چرا جذر حاصل ضرب دو ضریب رگرسیون، یکی از X که Y را پیش بینی می کند و بالعکس برابر با همبستگی است؟
15879
من از یک برنامه رایگان مخفی خارج از اینترنت به نام stable.exe استفاده می‌کنم که سعی می‌کنم منحنی توزیع پایدار را به یک مجموعه داده برسانم، اما در وارد کردن فایل مجموعه داده به برنامه با مشکل مواجه هستم. وقتی برنامه از من می‌خواهد فایل را وارد کنم، تست پایدار 1 را وارد می‌کنم، که نام مجموعه داده است (یک سند دفترچه یادداشت متشکل از یک ستون 20 عددی، در همان فهرست کاری برنامه). سپس پیام خطا در خواندن فایل را منتشر می کند. من سعی کردم دایرکتوری را به عنوان 'C:\...etc...\stable test 1' و غیره مشخص کنم، اما فایده ای نداشت. اگر کسی تجربه ای با این برنامه زیبا و در عین حال تا حدی معمایی داشته باشد، یا به طور کلی دانشی فراتر از آن داشته باشد، از راهنمایی شما سپاسگزار خواهم بود. همچنین، فایل read me برای برنامه می‌گوید که برنامه آخرین عدد در مجموعه داده را نمی‌خواند مگر اینکه بعد از آن یک carriage return قرار دهم. آیا کسی می تواند توضیح دهد که بازگشت کالسکه چیست؟
مشکل در استفاده از نرم افزار توزیع پایدار پارتو
83868
دو سوال ساده در پایان وجود دارد، اما فکر می‌کنم بیان پیش‌زمینه‌ای که به آنها انگیزه داده است نیز مفید باشد. از این سوال در مورد یک پیش‌بینی غیرمنتظره از روش کاملاً خودکار پشت تابع forecast::ets در R ناشی می‌شود. کد، نمودار و پیش‌بینی برای راحتی در زیر آمده است: library(forecast);options(scipen=999) usage <- ts(scan('http://cl.ly/102L0j3o1p2m0m3p0t2o/usage')، فرکانس = 24) plot(f1<-پیش بینی(m1<-HoltWinters(استفاده)، h = 168)) نمودار(f2<-پیش بینی(m2<-ets(استفاده)، h = 168));AIC(m2) #replication OK ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/CJ4N3.png) plot(f3<-forecast(m3<-ets(usage,additive.only=TRUE), h = 168)) plot(f4<-forecast(m4<-ets(usage,additive.only=TRUE,damped=FALSE) ، h = 168)) فقط با نگاه کردن به نمودار داده ها بلافاصله به نظر می رسد که ARIMA(0,2,2) یا ETS(AAN) جزو بهترین مدل های غیر فصلی باشند (و پیش بینی امتیاز آنها تفاوت چندانی نخواهد داشت). با پیروی از توصیه های معمول مبنی بر اینکه AIC فقط مجموعه کوچکی از مدل های بالقوه مفید باید مقایسه شود، نمی توانم دلیلی برای در نظر گرفتن مدل های ضربی در اینجا ببینم، و همچنین نمی توانم ببینم چگونه یک پیش بینی میرایی برای من مفید خواهد بود. با این اطلاعات، بهترین ets مدل m4 و پیش‌بینی f4 مرتبط با آن همان چیزی است که انتظار می‌رفت، اما این فرآیند کاملاً خودکار نیست. با تعداد زیادی سری زمانی، که من وقت یا تمایلی برای بررسی آنها ندارم، به سختی گزینه بهتری از استفاده کورکورانه از ets (داده) خواهم داشت. صفحه مستندات ets به من اطمینان می دهد که _روش کاملا خودکار است. تنها آرگومان مورد نیاز برای ets سری زمانی است. اگر مشخص نشده باشد مدل به طور خودکار انتخاب می شود_. مثال بالا اولین موردی نیست که نشان می‌دهد روشی که کار می‌کند در بهترین حالت نیمه خودکار است و نمونه کاملاً خودکار ممکن است حتی در موارد ساده‌تر مطابق انتظار عمل نکند. یکی از راه‌های رفع مشکل، در نظر گرفتن n مدل $\ge$ 1 با مقادیر مناسب AIC پایین است که به همان اندازه توسط داده‌ها پشتیبانی می‌شوند. من با RJH موافقم (_اگرچه مدل ممکن است بهترین AIC را ارائه ندهد، ممکن است پیش بینی هایی را ارائه دهد که برای شما مفیدتر باشد. . اما پس از آن ما این سوال را داریم که چه زمانی AIC برای انتخاب مدلی که بهترین پیش بینی را انجام می دهد مفید است. مثلاً از نقل قول‌های موجود در این سؤال می‌توان نتیجه گرفت که اگر AICهای همه مدل‌های در نظر گرفته شده بیش از مقداری کوچک c تفاوت نداشته باشند، AIC قدرت خود را برای تمایز بین این مدل‌ها از دست می‌دهد و سایر عوامل/ایده‌ها باید در نظر گرفته شوند. . اما c چقدر کوچک است؟ کسانی که با آکایکه کار می کنند (Y Sakamoto و M Ishiguro و G. Kitagawa) در کتابی با عنوان Akaike Information Criterion statistics (در قسمتی با عنوان Some remarks on use of AIC) به c=1 اشاره کردند. عدد c=2 اغلب ذکر می‌شود (مثلاً نقل قولی از برایان ریپلی را می‌توان به آن دو مرتبط با بالا اضافه کرد). عدد c=4 را کریس چتفیلد در یکی از کتاب هایش ذکر کرده است. من هیچ چیز واضحی در مورد مقادیر c بزرگتر از چهار ندیده‌ام، اما این احتمالاً به متغیر بودن داده‌ها، خطای نمونه‌گیری انحراف و عوامل مرتبط بستگی دارد. در مثال بالا، AIC(m3,m4) نشان می‌دهد که AIC مدل با پیش‌بینی مفیدتر از AIC مدل دیگر با فقط 78348.75-78337.22=11.52 بیشتر است. آیا هیچ فرمول، دستورالعمل یا قانون کلی برای مقادیر مفید داده های c وجود دارد؟ آیا مقادیر c بزرگتر از چهار در ادبیات ذکر شده است؟
چه زمانی AIC قدرت خود را در تشخیص مدل ها از دست می دهد؟
58218
از یادداشتی توسط Jun Shao > اگر $V(X)$ یک آمار فرعی غیر پیش پا افتاده است، آنگاه $σ(V(X)) ⊂ σ(X)$ یک > غیر بی اهمیت σ-فیلد است که **هیچ اطلاعاتی ندارد. حدود** $P$. من تعجب کردم که فیلد σ آمار $V(X)$ حاوی هیچ اطلاعاتی در مورد توزیع $P$ از $X$ نیست به چه معناست؟ 1. من یاد گرفتم که فیلد σ خودش اطلاعات را نشان می دهد، اما مطمئن نیستم که میدان σ $V(X)$ حاوی اطلاعاتی در مورد توزیع X$ نیست. 2. آیا اطلاعات در اینجا به معنای اطلاعات فیشر است؟ با تشکر و احترام
78667
هنگام تولید تغییرات تصادفی از توزیع‌های حاشیه‌ای مختلف با استفاده از روش NORTA (Normal-to-Anything)، همانطور که در Cario & Nelson 2007 توضیح داده شد، چرا $\varrho$ مورد نیاز است؟ > برای تنظیم این همبستگی، می‌توانیم توجه را به تنظیم $\ > E[X_iX_j]$ محدود کنیم، زیرا > > $$ Corr[X_i; X_j ] = \frac{E[X_iX_j]-E[X_i]E[X_j]}{\sqrt{Var[X_i]Var[X_j]}} > $$ > > و $\ E[X_i]$، $\ E[X_i]$، $\ Var[X_i]$ و $\ Var[X_i]$ توسط $\ > F_{X_i} $ و $\ ثابت می‌شوند F_{X_j} دلار. سپس، از آنجایی که $\ (Z_i، Z_j)$ دارای استاندارد > توزیع نرمال دو متغیره با همبستگی $\ Corr[Z_i; Z_j ] = (Z_i، > Z_j)$، داریم > > $$ E[X_iX_j] = E \Bigl\\{ F^{-1}_{X_i}[\Phi(Z_i)]F^{-1 }_{X_j}[\Phi(Z_j)] > \Bigl\\} $$ $$ = \int_{-\infty}^{\infty}\int_{-\infty}^{\infty} > F^{-1}_{X_i}[\Phi(Z_i)]F^{-1}_{ X_j}[\Phi(Z_j)]\varphi_{\varrho > z(i,j)}(z_i,z_j)dz_idz_j $$ > > کجا $\ \varphi_{\varrho z(i,j)}(z_i,z_j) $ دو متغیره استاندارد > تابع چگالی احتمال عادی (pdf) با همبستگی $\ \varrho z(i,j) > $ است. **ما فقط به توزیع‌هایی علاقه‌مندیم که این انتظار برای آنها وجود دارد** آیا نمی‌توان با وارد کردن پارامترهای مورد نیاز مستقیماً به یک کوپول گاوسی، متغیرهای مورد نظر را ایجاد کرد؟ برای مثال، همبستگی 0.5- با U(10) و Expo(10). مثال MATLAB در زیر. corrZ = [1 -0.5;-0.5 1]; اندازه = 200; Z = mvnrnd([0 0]، corrZ، اندازه); X(:،1) = expinv( normcdf(Z(:،1))، 10); X(:،2) = unidinv(normcdf(Z(:،2))، 10); X mean(X) scatter(X(:,2),X(:,1)) آیا $\varrho$ واریانس ها و میانگین های حاشیه ها را حفظ می کند؟ من چی رو اشتباه میفهمم یک سوال دیگر: وقتی مقدار پیدا شده برای $\varrho$ در خارج از (-1,1) قرار دارد به چه معناست؟ من حاشیه هایی دارم که یافتن ریشه برای $\varrho$ را غیرقابل حل می کند. چرا این اتفاق می افتد؟ در صورت نیاز می توانم بیشتر توضیح دهم.
61234
من 10 ویژگی بیولوژیکی مختلف دارم (به عنوان مثال: طبیعی، بیماری 1، بیماری 2، ...، بیماری 9). نمونه های بافتی از بیماران مختلف تصویربرداری شد و 60 پارامتر تصویربرداری اندازه گیری شد. یک پزشک مناطق مختلف در بافت تصویربرداری شده را به عنوان طبیعی یا بیمار شناسایی کرد (1-9). من می خواهم بدانم که آیا پارامترهای اندازه گیری شده می توانند بین شرایط مختلف بافت تمایز قائل شوند یا خیر. من نمی دانم که آیا این پارامترها مستقل از یکدیگر هستند یا خیر. هزاران مقدار (برای هر پارامتر) به یک وضعیت بافت اختصاص داده شده است. اما این داده ها با تصویربرداری از چند نمونه بافت به دست آمده است. برای تعیین اینکه آیا 60 پارامتر از نظر آماری بین 10 ویژگی مختلف تفاوت معنی داری دارند، از چه نوع آزمون آماری باید استفاده کنم؟ آیا چیزی در متلب وجود دارد؟ من به anovan.m فکر می کردم، اما مشخص نیست که چگونه باید از آن استفاده کنم.
107880
من در تلاش هستم تا با استفاده از 8 متغیر کلان اقتصادی، یک رگرسیون پیش‌بینی‌کننده OLS روی بازده سهام برای 7 کشور اجرا کنم. من قبلاً تجزیه و تحلیل رگرسیون خطی ساده را انجام داده ام که وجود یا عدم وجود قدرت پیش بینی را برای هر متغیر در هر کشور برجسته کرده است و از مشکلات مختلف سوگیری نمونه و داده کاوی آگاه هستم که می توان با یک روش بوت استرپ قوی به آنها پرداخت. با این حال، به من توصیه شده است که یک تجزیه و تحلیل پانل را برای جستجوی یک تاریخ استراحت مشترک در داده‌ها در سراسر کشورها اجرا کنم، و من در مورد نحوه انجام این کار توصیه می‌کنم. من رگرسیون OLS ادغام شده را اجرا کردم و رگرسیون اثرات ثابت را اجرا کردم که کمی خطاهای استاندارد را افزایش داده است و هر دو تست توانایی پیش بینی فردی متغیرهای مشابه (نرخ بهره، تیبل و شاخص اطمینان تجاری) را تایید می کنند. رگرسیون خطی ساده قبلی مشکل اصلی من این است که چگونه می توان این شکست ها را در OLS ساده و پانل OLS شناسایی کرد. درک من این است که اگر وقفه هایی وجود داشته باشد، یک تکنیک خارج از نمونه اجازه می دهد تا پارامترهای موجود در رگرسیون پیش بینی در طول زمان تغییر کنند. من از نظر آماری چندان عالی نیستم، اما هر اشاره‌ای در جهت درست بسیار قدردانی می‌شود
67106
من باید متغیرهای تصادفی تولید شده از یک توزیع chi را تولید کنم (*نه** chi-squared!). به نظر نمی رسد مکانیزم استانداردی در C++ در (به عنوان مثال) Boost::Random وجود داشته باشد و از این رو من به دنبال پیاده سازی جایگزینی هستم که در C++ (یا یک زبان به راحتی سازگار مانند C یا FORTRAN) پیاده سازی شود. یک مقاله در ACM TOMS در مورد این موضوع وجود دارد. یا، آیا باید به سادگی جذر یک متغیر تصادفی مجذور کای، که چندین پیاده سازی از آن وجود دارد، بگیرم؟ که به احتمال زیاد سریعترین است - متأسفانه، باید تعداد زیادی از آنها را ترسیم کنم. * * * **به روز رسانی:** در پاسخ به نظرات زیر، اینها نکاتی برای برنامه خاص من هستند: * من به دنبال یک پیاده سازی سازگار با C/C++ یا جزئیات کافی برای برنامه ریزی خودم هستم. * برنامه حساس به CPU است و بر روی یک پلتفرم تعبیه شده متوسط ​​(400 مگاهرتز با یک FPU دو برابر اسکالر و حافظه پنهان محدود، اما بدون sqrt()، sin()، exp() یا دستورالعمل های مشابه اجرا می شود. از آنجایی که پیش‌بینی زمان اجرا واقعی آسان نیست، من به دنبال الگوریتم‌هایی هستم که _در میان_ سریع‌ترین و شناخته شده‌ترین الگوریتم‌هایی هستند که عملکرد خوبی دارند. من می توانم هر یک از اینها را با سخت افزار خودم ارزیابی کنم. * از قبل امکاناتی برای تولید اعداد تصادفی یکنواخت و معمولی دارم. در صورت لزوم می توانم مجذور کای بگیرم. * DoF همیشه یک عدد صحیح است، معمولاً بین 15 و 39. پاسخی که من می پذیرم دارای محتوای زیر خواهد بود: * کدام روش ها سریع در نظر گرفته می شوند و چگونه اجرا می شوند؟ * آیا آنها در غیر این صورت دارای معایب شناخته شده ای هستند (مثلاً ثبات عددی)؟ * آیا روش هایی وجود دارد که به طور خاص باید از آنها اجتناب کرد؟
70837
مقاله Hausman, Hall, and Griliches (1984) مدل های اقتصادسنجی برای داده های شمارش با کاربرد در رابطه حق اختراع- تحقیق و توسعه به نمونه متعارف MLE شرطی مدل پانل شمارش با اثرات ثابت تبدیل شده است. در ضمیمه B، هاسمن و نیوی آزمایشی را برای همبستگی سریال برای این مدل اثرات ثابت ایجاد کردند. من باید پیاده‌سازی یا پیاده‌سازی این آزمون را پیدا کنم، و در محاسبه نحوه محاسبه $\hat{V}_m$، واریانس-کوواریانس مجانبی این بردار $m_i(\beta)$ مشکل دارم. جمله آخر می گوید که B.3 مشابه آزمون ضریب لاگرانژ است و می توان آن را از طریق رگرسیون محاسبه کرد. چه قهقرایی؟ اصلا برام واضح نیست به شرطی که من سعی می کنم $\hat{V}_m$ را محاسبه کنم. قطعه ای که اکنون گم می کنم این است که چگونه $U_i{(\hat{\beta})}$ را محاسبه کنم. آیا این فقط بردار امتیاز احتمال چندجمله ای در 2.5 است؟ فکر می‌کنم اشتباه می‌کنم، زیرا به نظر من این با $m_i(\hat{\beta})$ سازگار نیست؟ پیوند به مقاله
آزمون هاسمن-نیوی برای همبستگی سریال در پواسون با اثرات ثابت
77489
چرا مرسوم است که از میانگین مربع خطا به جای میانگین خطای مطلق (مقدار مطلق هدف - خروجی) استفاده شود؟ به طور خاص در شبکه های عصبی - آیا ربطی به مشتق راحت آن دارد؟
منطق پشت MSE
45193
متوجه شدم که تابع jags() در بسته R2jags گاهی اوقات حتی با گزینه n.burnin=## سوختگی را تا حدی حذف نمی کند. در اینجا یک مثال بسیار ساده در `R` (یک مدل خطی ساده): library(R2jags) N <- 1000 y <- rnorm(N) x <- rnorm(N) داده <- list(N, y ، x) پارامترهای <- function(){list(beta0=rnorm(1), beta1=rnorm(1), tau=1)} <- c(beta0, beta1، tau) مدل `m.bug` به این صورت است: model{ for (i in 1:N){ y[i] ~ dnorm(mu[i], tau) mu[i] <- beta0 + beta1*x[i]} beta0 ~ dnorm(0، 0.00001) beta1 ~ dnorm(0، 0.00001) تاو ~ dgamma(0.001, 0.001) sigma2 <- 1/tau } با استفاده از jags() در بسته `R2jags` مانند این: m <- jags(داده ها، inits، پارامترها، m.bug، n.chains=3 ، n.iter=2000، n.burnin=1000، n.thin=1) سوال من: در خروجی «m»، تخمین‌های پسین بر اساس تعداد مناسب بین‌الملل (1000) است، اما اگر ردی پلات را بررسی کنیم (با استفاده از «traceplot(m)»)، بخش سوختگی همچنان وجود دارد (مثلاً چند مقدار اول) برای tau همگرا نیستند). چرا؟ و تنها یک نوار پیشرفت وجود دارد (معمولاً دو نوار، یکی برای سوختن، یکی برای بقیه). همچنین، اگر «n.iter=2000، n.burnin=1000» را به «n.iter=2001000، n.burnin=2000000» تغییر دهم، زمان سپری شده تغییر نمی کند، که برای تکرارهای زیاد «خیلی سریع» است. ps. من از «R» نسخه 2.15.2 و «R2jags» نسخه 0.03-08 استفاده کردم
R2jags گاهی اوقات سوختگی را تا حدی برطرف نمی کند؟
92286
من مدت زیادی است که از تابع CORREL() در اکسل استفاده می کنم. من فقط می خواستم به صورت نیمه دستی همبستگی را برای سرگرمی محاسبه کنم، و مقداری که به دست آوردم با مقداری که از تابع CORREL() دریافت می کنم مطابقت نداشت. داده‌های من در اینجا است: x 18787 27769 32330 7832 27815 26075 98294 31807 y 329 371 371 112 267 332 386 379. و از فرمول اکسل برای همبستگی «0 معتبر، CORR5» استفاده می‌شود. ضریب لحظه-محصول پیرسون `= COVAR(X,Y) / (STDEV(X)*STDEV(Y))` = 0.46207 ظاهراً بین نتایج تفاوت معنی داری وجود دارد.
اعتبارسنجی همبستگی در اکسل
41354
من با آمار و SPSS نسخه 20 تازه کار هستم. من در حال انجام تجزیه و تحلیل بقا - KM و رگرسیون کاکس با SPSS هستم. من سعی می کنم مدل های کاکس را با متغیرهای مختلف بسازم - بالینی، ژنتیکی و غیره. من علاقه مندم بدانم که هر یک از این مدل ها چقدر قادر به پیش بینی وقوع متاستاز هستند. سوالات من این است: 1. آیا می توان این کار را با SPSS انجام داد؟ 2. آیا راهی برای ذخیره نتیجه پیش بینی شده مدل در حین انجام رگرسیون کاکس وجود دارد؟ من دیدم که وقتی رگرسیون لجستیک چند جمله ای را در SPSS انجام می دهم، می توانم دسته پیش بینی شده را ذخیره کنم و آن را با دسته واقعی مقایسه کنم. من این گزینه را در Cox ندارم. 3. آیا می توان منحنی های ROC را برای مدل های مختلف کاکس درست کرد و سپس سطح زیر منحنی را برای مدل های مختلف مقایسه کرد؟ من مطمئن نیستم که این راه را به درستی دنبال می کنم.
مقایسه مدل های کاکس
91733
من از جعبه ابزار رگرسیون فرآیند گاوسی از سایت http://www.gaussianprocess.org/gpml/code/matlab/doc استفاده می کنم. با این حال من نمی توانم مقدار ضریب همبستگی را بدست بیاورم. من یک مجموعه داده آموزشی با n=64 و d=5 دارم. من از توابع میانگین، کوواریانس و درستنمایی زیر استفاده می کنم. مجموعه داده های تست با n=30، d=6 است. میانگین = {@meanPoly ,2}; hyp.mean = [1;1;1;1;1;1;1;1;1;1;1;1] cov = {'covSEiso'};ell=1/4، sf=1 hyp.cov = ورود به سیستم ([ell;sf]) lik = @likGauss; sn = 0.1; hyp.lik = log(sn) سپس با استفاده از تابع مینیمم کردن مانند نزول رگرسیون، hyp = Minime (hyp، @gp، -50، @infExact، میانگین، cov، lik، x، y) را ارائه داد. [ymu ys2 fmu fs2 lp] = gp(hyp, @infExact, mean, cov, lik, x, y, xs, ys) سعی کردم پارامترهای hyper را به صورت دستی تغییر دهم اما زمان بر است و به هیچ نتیجه مثمر ثمری منجر نشده است. تا کنون اگر بتوانید خطایی را که در پیاده سازی کد انجام می دهم را به من نشان دهید، واقعا ممنون می شوم.
فرآیند گاوسی، انتخاب فراپارامترها
15870
فایل های Stata ADO به چه زبانی نوشته می شوند؟ من به svy.ado نگاه می کنم و کنجکاو هستم که به چه زبانی است؟ آیا این چیزی است که توسط شرکت Stata ساخته شده است؟
زبان فایل های ADO Stata
81753
من سعی می کنم PCA را در MATLAB با استفاده از داده های عنبیه فیشر پیاده سازی کنم. من در یافتن درصد واریانس در تجزیه و تحلیل مؤلفه اصلی مشکل دارم. من نتیجه زیر را دریافت می کنم: pc = 0.3614 0.6566 -0.5820 0.3155 -0.0845 0.7302 0.5979 -0.3197 0.8567 -0.1734 0.0762 -0.475854 -0.47958 - 0.3158 0.7537 نهفته = 4.2282 0.2427 0.0782 0.0238 ans = 0.9246 0.9777 0.9948 1.0000 حالا چگونه درصد واریانس را انتخاب می کنید؟ (در مجموعه داده هولد 98٪ است، اما من همچنین نمی دانم چرا 98٪ است.)
15875
من مجموعه‌ای از آزمایش‌های مستقل با توزیع‌های مختلف دارم و سعی می‌کنم تعیین کنم کدامیک بالاترین میانگین بازده را دارد. من می خواهم این را به عنوان یک مشکل راهزن چند دستی در نظر بگیرم، اما تنظیم کمی غیر معمول است. در هر تکرار، 2 آزمایش را انتخاب می‌کنم، هر کدام به‌طور تصادفی مجموعه‌ای از آیتم‌ها را تولید می‌کنند، سپس یک آیتم از بین مجموعه‌های اقلام ترکیبی انتخاب می‌شود و آزمایشی که مورد انتخابی را تولید می‌کند، برنده است. ممکن است برای هر دو آزمایش مجموعه ای یکسان (یا مشابه) از آیتم ها تولید شود و اگر آیتم برنده در هر دو آزمایش بود، قرعه کشی است. من می‌توانم احتمال هم‌پوشانی را برای همه جفت‌های آزمایش پیگیری کنم، اگر منطقی باشد که آزمایش‌هایی که مجموعه‌های آیتم‌های یکسانی را ارائه می‌دهند، اطلاعات کمی ارائه می‌دهند و آزمایش‌هایی که آیتم‌های بسیار متفاوتی را تولید می‌کنند، سهم قابل‌توجهی دارند. ایده اولیه من این بود که جفت آزمایشی را انتخاب کنم که $$ \text{UCB}(E_i) \text{UCB}(E_j) \hat{diff}(E_i, E_j) $$ را به حداکثر می‌رساند، اما در توجیه این یا یافتن هر کدام مشکل دارم. محدوده آیا کسی چیزی مشابه دیده است یا ایده ای دارد که چگونه باید ادامه دهم؟
راهزن چندبازویی جفت شده
110575
برایم جالب بود که بدانم آیا داده‌های تاریخی شروع باران موسمی در هر سال دارم (که شروع هر سال در روز جولیان است) و می‌خواهم یک رگرسیون شروع در برابر زمان انجام دهم تا بررسی کنم که آیا شروع موسمی در طول زمان تغییر کرده است یا خیر. چه نوع رگرسیون باید انجام دهم؟ من در ابتدا فکر می‌کردم که یک رگرسیون خطی معمولی انجام می‌دهم، اما سپس در مفاهیم آماری گیج شدم. آیا نباید به جای آن یک رگرسیون پواسون انجام دهم زیرا شروع یک داده شمارش است؟ اگر این سوال خیلی احمقانه به نظر می رسد عذرخواهی می کنم. با تشکر
رگرسیون خطی یا پواسون برای شروع موسمی
83864
من در حال حاضر کتاب زیر را می خوانم: * کارآزمایی های بالینی: راهنمای عملی برای طراحی، تجزیه و تحلیل و گزارش توسط Duolao Wang، Ameet Bakhai (2006) در صفحه 243-244 نمونه ای در مورد آزمون log-rank وجود دارد. آماره آزمون log-rank با علامت مربع کای نشان داده می شود و به صورت زیر محاسبه می شود: : ![t2](http://i.stack.imgur.com/W3nWj.png) و ![t2](http://i.stack.imgur.com/RiI9z.png) من نمی خواهم بر روی ایده پشت این فرمول ها و آنچه که هر نماد مخفف آن است تمرکز کنم. من جدول زیر را به شما می‌دهم، بنابراین نیازی به محاسبه $d_j$ و $n_{1j}$ نیست. $n_j$. ![t4](http://i.stack.imgur.com/9Hed2.png) شاید خواندن آن دشوار باشد، اما ستون های درمان A به نمایه 1 و ستون های درمان B به نمایه 2 ارجاع داده می شوند. * *به نظر من فرمول داده شده برای محاسبه $e_{1j}$ اشتباه است.** به عنوان مثال. بیایید 2 j اول را در نظر بگیریم: $e_{11}=\frac{n_{11}-d_1}{n_1}=\frac{17-1}{34}=0.47$ و این $!=0.5$ $e_ است {12}=\frac{n_{12}-d_2}{n_2}=\frac{16-1}{31}=0.484$ و این $!=0.5161$ است به نظر من، فرمول صحیح این است: $e_{1j}=\frac{d_j}{n_j}*n_{1j}$ من این را برای زمان (ماه) =23 (j=7) بررسی می کنم ) و 27 (j=8): $e_{17}=\frac{d_7}{n_7}*n_{17}=\frac{1}{20}*13=0.65$$e_{18}=\frac{d_8}{n_8}*n_{ 18}=\frac{1}{19}*13=0.6842$ و در واقع، اینها مقادیر داده شده در جدول هستند. **چه می گویید؟** ویرایش: البته باید بگویم که جدول از کتاب است.
خطا در فرمول کتابها در مورد آزمون لگ رتبه؟
70838
چگونه می توانیم تاریخ تولد یک نام مشخص را استنباط کنیم؟ چگونه باید این مشکل را مدل کنم؟ آیا باید یک مقدار واحد استنباط کنم که خود سن را توصیف کند؟
چگونه سن افراد را با استفاده از نام خود تخمین بزنیم؟
7664
در بسیاری از موارد، اگر هسته آن را بشناسیم و با یک خانواده شناخته شده مطابقت دارد، عملاً مجبور نیستیم به طور صریح ثابت عادی سازی یک توزیع خاص را محاسبه کنیم. آیا نامی برای این ترفند وجود دارد که بتوانم جستجو کنم و در مورد آن بیشتر مطالعه کنم؟ فکر نمی‌کنم چیز خیلی عمیقی در آن وجود داشته باشد، اما فکر کردم که باید نامی داشته باشد. با تشکر
آیا نامی برای اصل هسته وجود دارد؟
15872
من یک سوال در مورد فواصل اطمینان دارم. > به طور کلی فواصل اطمینان باز است یا بسته؟
آیا فواصل اطمینان باز است یا باز؟
18935
من یک سوال در مورد بسته RTextTools دارم. زمانی که کتاب‌های درسی و ویکی‌پدیا را مطالعه می‌کردم، تصور می‌کردم که طبقه‌بندی متن به معنای تعریف طبقه‌بندی‌کننده است. در RTextTools شما اسناد یادگیری و تست را در یک دستور تعریف می کنید. به عنوان مثال داده <- داده[sample(1:3100,size=100,replace=FALSE),] ماتریس <- create_matrix(cbind(data$Title,data$Subject), language=english, removeNumbers=TRUE, stemWords =نادرست، وزن =weightTfIdf) پیکره <- create_corpus(matrix,data$Topic.Code,trainSize=1:75, testSize=76:100,virgin=FALSE) models <- train_models(corpus, algorithms=c(MAXENT,SVM)) ما یک پیکره ایجاد می کنیم از یک مجموعه داده، که مانند 75 سند اول برای یادگیری و بقیه برای آموزش است. اما وقتی نوبت به استفاده از نظریه‌های طبقه‌بندی متن برای استفاده عملی می‌رسد، می‌خواهید طبقه‌بندی‌کننده متن از پیش تعریف‌شده برای مجموعه‌های داده مختلف اعمال شود. در حال حاضر تنها راه حلی که من توانستم پیدا کنم این است که با همان مدارک آموزش ببینم و سپس از داده های آزمایشی مختلف استفاده کنم. اما وقتی صحبت از متن های بزرگ می شود بسیار ناراحت کننده به نظر می رسد. بنابراین سوال من این است که چگونه می توان طبقه بندی کننده از پیش تعریف شده ایجاد کرد و سپس آن را به مجموعه داده های مختلف با R اعمال کرد؟ استفاده از الگوریتم های RTextTools ترجیح داده می شود.
به دست آوردن طبقه بندی کننده نهایی در RTextTools
92281
من سعی می کنم از EM برای تخمین برخی پارامترها استفاده کنم. من برنامه نویسی کرده ام و ارائه می دهد. اما مشکل این است که برای هر اجرای برنامه من، تخمین زدن ممکن است 5 ثانیه، 1 دقیقه، 3 دقیقه یا بیشتر طول بکشد. بنابراین، من به دنبال تسریع الگوریتم EM در اینترنت هستم و متوجه شدم که با روش‌هایی غرق شده‌ام. روش های بسیار زیادی وجود دارد - مانند روش آیتکن، لوئیس، رویکرد مزدوج تعمیم یافته، گرادیان تعمیم یافته، روش های ترکیبی مانند روش های مبتنی بر نیوتن رافسون، ECM، و ECME... (احتمالاً هنوز برخی از آنها وجود ندارد) - که من این کار را نمی کنم. می دانم کدام یک را انتخاب کنم، و من به سادگی وقت ندارم که همه آنها را خودم مطالعه کنم. از این رو، برای تصمیم گیری در مورد اینکه کدام یک را باید مطالعه کنم، از شما کمک می خواهم. من از $ Y_n \sim \pi N(\theta_1+\theta_0Y_{n-1},\sigma^2)+(1-\pi)N(\theta_2+\theta_0Y_{n-1},\sigma^ نمونه برداری می کنم 2)$ و من از EM برای تخمین $\theta_1,\theta_2,\sigma,\pi$ استفاده می کنم
امکان تسریع الگوریتم EM
86429
(این بر اساس سؤالی است که به تازگی از طریق ایمیل برای من مطرح شده است؛ من از یک مکالمه کوتاه قبلی مقداری زمینه را اضافه کرده ام.) سال گذشته به من گفته شد که توزیع گاما سنگین تر از lognormal است و من از آن زمان به این نتیجه رسیده ام. گفت که اینطور نیست * دم کدام _سنگین تر است؟ * از چه منابعی می توانم برای کشف رابطه استفاده کنم؟
کدام دم سنگین تر است، لگ نرمال یا گاما؟
86422
واریانس میانگین n متغیر تصادفی توزیع شده برنولی Ber(p) چقدر است؟ بنابراین Var(جمع(xi)/N)
واریانس میانگین متغیرهای برنولی
18937
من سؤال قدیمی (در زیر) را بازنویسی کردم تا امیدوارم اوضاع کمی واضح تر شود. اساساً من فکر می کنم که دمای زمین باید به طور معمول توزیع شود، اما به دلیل شیب فصلی و انحنای سطح زمین نیست. من برخی از هیستوگرام‌ها را برای «باندهای عرض جغرافیایی» مختلف دما و میزان بارندگی بر حسب میلی‌متر در اینجا اضافه کرده‌ام (بارندگی را در اینجا گنجانده‌ام اما لطفاً فعلاً آن را نادیده بگیرید). برای مثال، [-10 ... 10] مربوط به نوار عرض جغرافیایی (-) 10 درجه جنوبی تا 10 درجه شمالی شامل می شود. البته دما به عرض جغرافیایی بستگی دارد اما این به این دلیل است که در واقع به شیب فصلی و انحنای IMHO بستگی دارد. در پایان روز من به دنبال تغییراتی هستم که اثر شیب/انحنای فصلی را حذف می کند تا به توزیع نرمال جهانی برای هر چهار فصل برسد. آیا این منطقی است؟ با تشکر سوال قدیمی مسیحی: من اطلاعاتی از سطح زمین دارم (دما + بارندگی بر حسب میلی متر): ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/A9wlr.jpg) واضح است که شیب زمین بر روی حالت / نرمال بودن، برای مثال، توزیع دما. من فقط به این فکر می کنم که آیا راهی برای تنظیم این امر وجود دارد تا داده های (ترکیبی؟) نرمال تر/کمتر مودال شوند؟ من یک آمارگیر نیستم ... پس مطمئن نیستم که آیا این امکان پذیر است؟ پیشاپیش ممنون مسیحی
تنظیم برای شیب زمین
41683
کاربرد ساده روش های بوت استرپ برای آزمایش فرضیه، تخمین فاصله اطمینان آمار آزمون $\hat{\theta}$ با محاسبه مکرر آن بر روی نمونه های بوت استرپ است (اجازه دهید آمار $\hat{\theta}$ از bootstrap نمونه برداری شود. $\hat{\theta^*}$) نامیده شود. اگر پارامتر فرضی $\theta_0$ (که معمولاً برابر 0 است) خارج از فاصله اطمینان $\hat{\theta^*}$ باشد، ما H_0$ را رد می کنیم. من خوانده ام که این روش فاقد قدرت است. در مقاله Hall P. و Wilson S.R. Two Guidelines for Bootstrap Hypothesis Testing (1992) به عنوان اولین دستورالعمل نوشته شده است که باید $\hat{\theta^*} - \hat{\theta}$ را مجدداً نمونه برداری کرد، نه $\hat{\theta^ *} - \theta_0$. و این قسمتی است که من نمی فهمم. آیا این $\hat{\theta^*} - \hat{\theta}$ فقط سوگیری برآوردگر $\hat{\theta^*}$ را اندازه می‌گیرد؟ برای برآوردگرهای بی طرف، فواصل اطمینان این عبارت باید همیشه کوچکتر از $\hat{\theta^*} - \theta_0$ باشد، اما من نمی‌دانم چه ارتباطی با آزمایش $\hat{\theta}= دارد. \theta_0$؟ جایی نیست که بتوانم ببینم اطلاعاتی درباره $\theta_0$ قرار داده ایم. * * * برای کسانی از شما که به این مقاله دسترسی ندارید، این یک نقل قول از پاراگراف مربوطه است که بلافاصله بعد از پایان نامه آمده است: > برای درک اینکه چرا این مهم است، توجه داشته باشید که آزمون شامل > رد H_0$ است. اگر $ در $\left| باشد \hat{\theta} - \theta_0\right|$ خیلی > بزرگ است. اگر $\theta_0$ فاصله زیادی با مقدار واقعی $\theta$ داشته باشد (یعنی اگر > $H_0$ به طور فاحش خطا باشد) آنگاه تفاوت $\left|\hat{\theta} - > \theta_0 \right| $ هرگز در مقایسه با توزیع غیرپارامتری بوت استرپ $\left| خیلی بزرگ به نظر نمی رسد \hat{\theta} - > \theta_0\right|$. مقایسه معنادارتر با توزیع > $\left| است \hat{\theta^*} - \hat{\theta}\right|$. در واقع، اگر مقدار واقعی > $\theta$ $\theta_1$ باشد، قدرت تست بوت استرپ به 1 افزایش می‌یابد با افزایش $\left|\theta_1 - \theta_0\right|$، مشروط بر اینکه تست بر اساس > نمونه برداری مجدد $\left| \hat{\theta^*} - \hat{\theta}\right|$، اما توان > حداکثر تا سطح معنی‌داری کاهش می‌یابد (به عنوان $\left|\theta_1 - > \theta_0\right|$) اگر آزمایش بر اساس نمونه‌گیری مجدد است > $\left|\hat{\theta} - \theta_0\right|$
چرا داده ها باید تحت فرضیه صفر در آزمون فرضیه بوت استرپ نمونه برداری شوند؟
30620
بگویید من چهار جمعیت نمونه دارم، و می‌خواهم بدانم که آیا آنها متمایز هستند یا از یک فرآیند نمونه‌برداری می‌کنند. هر نمونه چند متغیره است و توزیع متغیرها غیر نرمال است. علاوه بر این، مجموعه داده کاملاً نویزدار است، بنابراین PCA مبتنی بر هسته در تمام نمونه‌ها ساختار قابل تشخیصی ارائه نمی‌دهد. من می‌خواهم نمونه‌هایی را انتخاب کنم که به بهترین شکل فرآیند(های) زیربنایی را نشان می‌دهند، بنابراین کارهای زیر را انجام دادم: برای هر جمعیت، میانگین هر متغیر را بوت استرپ کردم و یک بردار میانگین به من داد. برای امتیاز دهی به نمونه ها، ضریب همبستگی پیرسون را بین نمونه و میانگین بردار مربوطه محاسبه کردم. سوال من این است: نمونه هایی که بیشترین همبستگی را با میانگین بردارهای مربوط به خود دارند، آیا برای تجزیه و تحلیل بیشتر مناسب هستند (مثلاً روش های خوشه بندی) یا من خودم را فریب می دهم؟
انتخاب نمونه ها در داده های پر سر و صدا بر اساس همبستگی با بردار میانگین چند متغیره؟
18938
آیا با استفاده از randomForest در R برای تولید یک طبقه‌بندی‌کننده نسبتاً موفق، آیا راهی برای تأکید بر حساسیت بر ویژگی وجود دارد، برای مثال، اگر هزینه از دست دادن یک بیماری بسیار بیشتر از تشخیص مثبت کاذب باشد؟
چگونه یک الگوریتم جنگل تصادفی را حساس به هزینه کنیم؟
83284
من آزمایشی دارم که به صورت زیر سازماندهی شده است: * N اندازه گیری مکرر برای هر یک از M شرایط مختلف انجام شد (هر یک دارای میانگین مقدار متفاوتی بود) * آزمایش P بار انجام شد، هر بار با استفاده از روش اندازه گیری متفاوت. اکنون می‌خواهم تخمین بزنم که کدام یک از روش‌های P کمترین ضریب تغییرات کلی را دارد، اما مطمئن نیستم که چگونه از آن پیروی کنم. من در ابتدا به محاسبه CV برای هر یک از شرایط M (بر اساس N اندازه گیری های مکرر) و سپس یافتن CV متوسط برای هر روش اندازه گیری فکر کردم. با این حال، در این مورد نمی‌دانم چگونه برای اهمیت بین روش‌های اندازه‌گیری مختلف آزمایش کنم. بهترین راه برای نشان دادن اینکه آیا یک روش اندازه گیری معین دارای پراکندگی «کلی» کمتری نسبت به سایرین با داده هایی است که من در دسترس دارم، چیست؟
چگونه چندین ضریب تغییرات را مقایسه کنم؟
83283
اینجا در ویکی پدیا می گوید: > برای مقادیر به اندازه کافی بزرگ λ، (مثلا λ>1000)، توزیع نرمال > با میانگین λ و واریانس λ (انحراف استاندارد $\sqrt{\lambda}$)، یک تقریب عالی برای توزیع پواسون اگر λ بزرگتر از > حدود 10 باشد، آنگاه توزیع نرمال تقریب خوبی است اگر تصحیح تداوم مناسب > انجام شود، به عنوان مثال، P(X ≤ x)، که در آن > (حروف کوچک) x یک عدد صحیح غیر منفی است، P(X ≤ x + 0.5) جایگزین می شود. > > $F_\mathrm{Poisson}(x;\lambda) \approx > F_\mathrm{normal}(x;\mu=\lambda,\sigma^2=\lambda)$ متأسفانه این ذکر نشده است. من می خواهم بتوانم این را با کمی دقت نشان دهم / ثابت کنم. چگونه می‌توانید در واقع _بگوییم_ توزیع نرمال تقریب خوبی است وقتی $\lambda > 1000$، چگونه این تقریب عالی را کمیت می‌دهید، چه معیارهایی استفاده شده است؟ دورترین چیزی که من در این مورد داشته ام اینجاست که جان در مورد استفاده از قضیه بری-اسین صحبت می کند و خطا در دو CDF را تقریب می زند. از آنچه من می بینم او هیچ مقدار $\lambda \geq 1000$ را امتحان نمی کند.
تقریب نرمال به توزیع پواسون
108950
من از SVM با هسته خطی برای طبقه بندی جملات (دودویی) استفاده می کنم. مجموعه داده من حاوی نمونه های تکراری زیادی است، یعنی بسیاری از جملات در مجموعه آموزشی دارای بردارهای ویژگی یکسان هستند. در مدل آموزش‌دیده، من تعداد زیادی بردار پشتیبان تکراری را می‌بینم که هر کدام یک عبارت ضریب لاگرانژ (alpha*y) متفاوتی دارند. به عنوان مثال: -0.064019597363882741 5660:1 # fcda5cf6-e00b-11e2-ddad-001517e11bd0 -0.00028270965981203044 #5660:1 67d4d4d2-855c-11e3-f88e-001517e11900 -0.00084391434273911603 5660:1 # 38d53d84-e435-11e2-ddad-010151 -0.031641060077848393 5660:1 # 069c2c6e-e8be-11e2-edb1-001517e116e4 -0.0028105012661461251 5660:1 # 623c52e4-e038-11e2-edb1-001517e116e4 -0.00098570725949942428 5660:1 # f67aae78-e020-11e2-5884-019517e مدل S فرمت، هر یک از خطوط بالا نشان دهنده یک بردار پشتیبانی است، که در آن: * جمله اول آلفا*ی است * جفت های کلید-مقدار ('5660:1') feature_number:feature_value هستند. بنابراین، تمام نمونه‌های آموزشی بالا فقط حاوی یک ویژگی با مقدار 1 هستند. * موارد زیر «#» نظراتی هستند (شناسه‌های نمونه در مورد من) چرا بردارهای پشتیبانی فوق مقادیر آلفا*ی متفاوتی دارند، حتی اگر بردارهای ویژگی یکسانی داشته باشند. ? همچنین، چرا مدل در وهله اول شامل چندین SV با بردارهای ویژگی یکسان است؟ من انتظار داشتم همه SV ها دارای بردارهای ویژگی منحصر به فرد باشند، اگرچه آنهایی که کپی شده بودند مقدار آلفای بیشتری داشتند. موافقم که اگر نمونه‌های تکراری در حاشیه (نرم) قرار گیرند، تکرار نمونه‌های آموزشی ممکن است حاشیه را تغییر دهد، اما نمی‌توانم بفهمم چرا هر بردار پشتیبانی تکراری مقدار آلفا*ی متفاوتی دارد؟
طبقه بندی SVM با نمونه های آموزشی تکراری
77481
می‌پرسم آیا نسخه‌ای از پنجره کشویی EM وجود دارد؟ من روی برنامه ای کار می کنم که شامل یک جریان متن (توئیت) است. ما به استفاده از داده های 1 روزه به عنوان مجموعه آموزشی فکر می کنیم و موضوعات را با استفاده از PLSA (تحلیل معنایی نهفته احتمالی) استخراج می کنیم. ما پارامترها را با استفاده از الگوریتم EM استنباط می کنیم. مشکل این است که از آنجایی که داده ها به صورت جریانی در هر ثانیه وارد می شوند، ما اساساً فقط می خواهیم داده ها را ظرف یک روز از زمان فعلی در مدل نگه داریم. یکی از راه‌های انجام این کار، آموزش مجدد مدل با استفاده از داده‌های یک روزه است، اما به نظر می‌رسد زمان‌بر است (هزاران توییت در اینجا). می‌پرسم آیا نسخه‌ای از EM وجود دارد که آنلاین باشد و همچنین بتواند داده‌ها را از یک پنجره زمانی خارج کند؟
الگوریتم EM پنجره کشویی برای PLSA؟
86427
من در حال انجام یک مطالعه هستم که در آن برابری را در ورزش اندازه گیری می کنم. برای انجام این کار، من به چگونگی توزیع درصدهای برنده یک سال (WP) نگاه می کنم. من در حال حاضر آنها را با یک توزیع دو جمله ای مقایسه می کنم، اما از آنجایی که WP هر تیم به طور مستقیم با WP رقبای خود مرتبط است، نگرانم که مدل بهتری را از دست بدهم. آیا چیزی بهتر از توزیع دوجمله ای استاندارد برای این نوع مدل وابسته به هم وجود دارد؟
توزیع درصد بردهای ورزشی
11331
اینو تو سایت ریاضی پرسیدم ولی الان فکر میکنم اینجا جای بهتری باشه. با عرض پوزش برای پست متقاطع. با توجه به هر نمودار خطی، آیا روش قابل اعتمادی برای شناسایی هر نوع نوسان منظم وجود دارد؟ بیایید فرض کنیم که من شیوع گونه‌های مختلف جانوران را در یک مکان، در طی چندین سال ترسیم می‌کنم. چه نوع الگوریتمی را می توانم اعمال کنم که یک مهاجرت منظم را به جای افزایش یا کاهش ثابت شناسایی کند؟ امیدوارم این منطقی باشد. با تشکر از کمک!
شناسایی نوسان در یک سری زمانی
83132
من علاقه مندم که نمودارهای پراکنده را به مردم ارائه دهم و از آنها بخواهم همبستگی را که در نمودار پراکنده درک می کنند حدس بزنند. ظاهراً $r$ پیرسون در واقع تحت تأثیر سه چیز است: شیب مربوط به $x$ به $y$، واریانس خطا، و واریانس $x$. معادله زیر این مولفه ها و ترکیب آنها را به صورت $r$ پیرسون نشان می دهد: $$r^2 = \frac{b^2 \cdot S_x^2}{b^2 \cdot S_x^2 + S_e^2}$$ بنابراین، یک مجموعه داده با شیب، واریانس خطا و واریانس $x$ مقادیر 2، 1000 و 400 از نظر آماری است. معادل یکی با مقادیر 4، 4000، و 400 زیرا هر کدام یک $r=0.78$ پیرسون تولید می کنند. برخی از مطالعات قبلی نشان می‌دهند که افراد هنگام حدس زدن مقدار همبستگی، بیشترین حساسیت را نسبت به دستکاری واریانس خطا دارند، بنابراین برخی از تحقیقات قبلی شیب را ثابت نگه می‌دارند در حالی که واریانس خطا را دستکاری می‌کنند تا مقدار کلی $r$ پیرسون را تغییر دهد. من با تولید نقاط داده تصادفی و انتخاب مجموعه‌هایی با دامنه شیب محدود و واریانس‌های خطای وسیع برای دستیابی به $r$ مختلف پیرسون بازی کرده‌ام. با این حال، من در حالت ایده‌آل می‌خواهم نقاط داده را از مجموعه داده‌های واقعی که باید چند نمودار پراکنده درست کنم، ترسیم کنم - مشکل این است که داده‌های واقعی من در مقیاس‌های متفاوتی هستند، بنابراین من روی $z$-scoring برنامه‌ریزی می‌کنم تا آنها را در همان حالت قرار دهم. مقیاس AND برای دستیابی به واریانس ثابت $x$. با این حال، من گیج شده‌ام که چگونه می‌توانم به آنچه در بالا پیشنهاد کردم پس از امتیازدهی به $z$ برسم. هنگامی که شما نقاط داده را به امتیازهای z$-$ تبدیل می کنید، همبستگی پیرسون بین مجموعه داده اصلی و مجموعه داده های $z$-score یکسان است، اما همبستگی پیرسون اکنون معادل شیب $z$-score است. مجموعه بنابراین اکنون نمی‌دانم که چگونه می‌توانم کاری را که در بالا پیشنهاد کردم انجام دهم - اگر $r$ پیرسون اکنون به شیب یوک شده است، چگونه می‌توانم فقط واریانس خطا را تغییر دهم تا $r$ پیرسون را بدون این تغییر دهم. تغییر همزمان شیب؟ به نظر می رسد که من واریانس خطا را برای تغییر مقدار $r$ تغییر می دهم، باید شیب را نیز تغییر دهم. آیا این درست است؟
چگونه می توانم r پیرسون را دستکاری کنم اما شیب را ثابت نگه دارم (بعد از z-scoring؟)
93594
من یک رگرسیون اجرا کردم که در آن عبارت تعامل دو متغیر عاملی را دارم. یکی از متغیرها دارای 2 سطح است: Condition_A و Condition_B (بنابراین اولین دسته مرجع است) اما دیگری Group نام دارد. عضویت دارای 3 سطح است: Group_1، Group_2 و Group_3 (بنابراین اولین دسته مرجع است) . چیزی که من در مورد آن مطمئن نیستم این است که چگونه خروجی را تفسیر کنم. چیزی که من به عنوان بخشی از خروجی lm() دریافت می کنم این است: شرطB:Group.Membership.L (بتا و p-value) ConditionB:Group.Membership.Q (بتا و p-value) آیا باید .L را به عنوان ضریب تفسیر کنم برای Group_2 در مقایسه با رده مرجع (Group_1)، و در مورد .Q؟ یا تعبیر دیگری از این نوع خروجی وجود دارد؟ با تشکر از شما برای کمک شما! ویرایش ---------------- من یک سوال دیگر دارم. من عبارت تعامل متغیر Condition را با بسیاری از متغیرهای عامل دیگر آزمایش کرده ام. چرا گاهی اوقات من .L و .Q را در انتها در خروجی دریافت می کنم، در حالی که در موارد دیگر سطوح متغیر دوم عبارت تعامل را بدون .L و Q. دریافت می کنم؟ آیا در lm() خود کار اشتباهی انجام می دهم؟
تفسیر عبارت تعامل در Rlm(): .L .Q
40553
چگونه یک مدل را با یک متغیر وابسته log تبدیل شده با یک گوشه در صفر و یک توزیع پیوسته برای مقادیر کاملاً مثبت و یک مشکل انتخاب اضافی به دلیل فقدان تخمین می زنید؟ **زمینه**: متغیر وابسته y (هزینه ها) که در آن y>=0 با مقادیر 0 true (y همیشه مشاهده می شود. مقدار صفر دلخواه نیست، داده های مشاهده شده است). بنابراین من یک گوشه در صفر و یک توزیع پیوسته برای مقادیر کاملاً مثبت دارم. توزیع به گونه‌ای است که ترجیح می‌دهم یک تبدیل log متغیر وابسته y (ln y) ایجاد کنم. بر این اساس من چندین مدل دو بخشی را تخمین می زنم (به گفته Wooldridge) 1.Cragg Truncated Normal Hurdle Model 2\. مدل با مانع Lognormal 3. مدل توبیت نوع دوم نمایی در نهایت، برای مقایسه این دو مدل بخش، از مقدار تابع log-likelihood استفاده می‌کنم. **اما** چه اتفاقی می‌افتد اگر من یک مشکل داده‌های گمشده واقعی داشته باشم. یعنی مقدار صفر داده‌های مشاهده‌شده است اما به‌علاوه من در y گم شده‌ام (مشکل انتخاب). آیا مرجعی در این زمینه سراغ دارید؟
مدل توبیت با حل گوشه و مسئله انتخاب
18930
در اکثر بسته‌های پیش‌بینی، دو تبدیل به‌راحتی برای تثبیت واریانس در دسترس است: ریشه دوم و لگاریتنی. آیا روشی (مثلاً آزمایش) وجود دارد که بتواند به کاربر بگوید کدام یک از دو تبدیل را انتخاب کند؟ در نهایت، تغییر شکل پایدارسازی واریانس باید به داده‌های سری زمانی اعمال شود (اگر واریانس ضربی را نشان می‌دهند) بدون توجه به مدل مورد استفاده (به عنوان مثال باید در ARIMA، هموارسازی نمایی، اجزای مشاهده نشده، تجزیه کلاسیک و غیره در صورت زمان استفاده شود. سری ها واریانس ضربی را نشان می دهند)؟ پیشاپیش متشکرم، آندریاس
تبدیل برای تثبیت واریانس در سری های زمانی
14345
با $y_1، \ldots، y_n$ یک سری زمانی با ارزش واقعی و $\hat{f} : \mathbb{R} \to \mathbb{R}$ یک تخمین (کمترین مربع) از تابع $y \mapsto E( Y_i \mid Y_{i-1} = y)$ خطای آموزشی $$\text{err} = \frac{1}{n-1} \sum_{i=2}^n (y_i - \hat{f}(y_{i-1}))^2$$ معمولاً خطای پیش‌بینی مورد انتظار $\hat{f}$ را در یک مجموعه داده مستقل دست‌کم می‌گیرد. . علاوه بر این، هر چه مدلی که برای تناسب با $\hat{f}$ استفاده می‌کنیم انعطاف‌پذیرتر باشد، این خوش‌بینی نسبت به خطای آموزشی بدتر است، که آن را برای انتخاب مدل بی‌فایده می‌کند. طرح‌های نمونه‌گیری مجدد یا اعتبارسنجی متقابل با هدف کلی مختلف، همچنین در ادبیات سری زمانی، وجود دارد تا تخمین بهتری از خطای پیش‌بینی مورد انتظار ارائه دهد. برای ضرر درجه دوم چندین نتیجه نظری در ادبیات _رگرسیون_ در مورد اصلاحات خطای آموزشی وجود دارد، مانند اصلاحات نوع $C_p$ یا برآورد ریسک بی طرفانه استین، به تخمین خطای پیش بینی توسط افرون یا فصل 7 در ESL مراجعه کنید. این نتایج تحت مفروضات استقلال ارائه شده است که برای سری های زمانی صدق نمی کند. آیا کسی می تواند با ارجاع به ادبیات سری زمانی در مورد اصلاحات نظری خطای آموزشی مشابه آنچه در بالا برای رگرسیون به آنها اشاره شد کمک کند؟
اصلاحات نظری خطای آموزشی برای داده های سری زمانی
83130
سرعت همگرایی در MSE معمولاً تحت تسلط واریانس است. برآوردگر ML واریانس را در نظر بگیرید: واریانس آن به صورت $\mathcal{O}(1/n)$ و اصطلاح بایاس به صورت $\mathcal{O}(1/n^2)$ کاهش می‌یابد. آیا این ادعا درست است که واریانس همیشه عبارت غالب در نرخ همگرایی خواهد بود؟
اصطلاح غالب در همگرایی در MSE
83135
من برای توصیف مشکلم مشکل دارم، اما تمام تلاشم را می کنم. همه چیز در مورد توزیع گاوسی مختلط چند متغیره با میانگین صفر، دایره‌ای متقارن است $f(z)=\frac{1}{\pi^K\det(\mathbf{\Sigma})}\exp(- \mathbf{z}^H\mathbf{\سیگما}^{-1}\mathbf{z})$، با $\mathbf{\Sigma}$ ماتریس کوواریانس مختلط است. اگر اکنون $\mathbf{\Sigma}$ را عادی کنیم به طوری که قطر اصلی آن به بردار وحدت تبدیل شود (یعنی ماتریس همبستگی را دریافت می کنیم) و همچنین بزرگی $\mathbf{z}$ را به 1 نرمال کنیم - نتیجه، تطبیق داده می شود. تابع هنوز یک تابع چگالی احتمال معتبر پس از آن؟ اگر بله، توزیع حاصل چگونه است؟ یا حداقل می توان از نتیجه به عنوان تابع احتمال استفاده کرد، به عنوان مثال. در زمینه تخمین حداکثر احتمال؟
عادی سازی توزیع گاوسی پیچیده متقارن دایره ای
89623
من الگوریتم های مختلفی را اجرا می کنم (SVM، Random Forest، سایر الگوریتم های تصمیم گیری مبتنی بر درخت). من متوجه شدم که عملکرد من پس از افزودن ویژگی های جدید پایین آمد (خطا بالا رفت). performance(Feature_family_1 + Feature_family_2) < performance(Feature_family_1) آیا این امکان پذیر است، و چگونه می توانم مطمئن شوم که اطلاعات را از دست ندهم؟ آیا باید از PCA استفاده کنم؟
آیا ویژگی های بیشتر می تواند عملکرد را کاهش دهد
41680
من یک پرسشنامه با 40 سوال دارم که در آن پاسخ دهنده در مقیاس 1-7 برای هر سوال پاسخ می دهد. در حال حاضر حجم نمونه مثلاً 10000 نفر داریم. سوال این است که چگونه می توانم با کاهش حجم نمونه و پرسیدن از 2000 نفر (نماینده از کل نمونه) مقدار داده هایی را که از دست می دهیم محاسبه کنم؟ این چقدر پاسخ ها را تغییر می دهد؟ آیا می توانیم انتظار داشته باشیم که میانگین یک سوال (به عنوان مثال) از 5.2 به 5.2 $ \pm 0.3 $ برسد؟ ما از تجربه می‌دانیم که پاسخ‌ها معمولاً توزیع نمی‌شوند و اگر کمک کند، بیشتر به سمت مقادیر بالاتر منحرف می‌شوند. بگویید که یک سوال ممکن است دارای میانگین 5.2 و انحراف معیار 0.4 باشد. یا برعکس: به عنوان مثال، اگر از 10000 نفر سوال کرده بودیم، اگر از 10000 نفر سوال کرده بودیم، میانگین 5.2 گرفته بودیم و اگر حجم نمونه را کم کنیم، می‌توانیم انحراف +/- 0.1 را بپذیریم، آیا این به این معنی است. که می توانیم به جای آن 2000 بپرسیم یا 5000 یا 6000؟ همه چیز به این واقعیت مربوط می شود که از افراد کمتری بخواهیم ارزان تر باشد.
چگونه می توان از دست دادن در اطلاعات را هنگام کاهش حجم نمونه محاسبه کرد؟
92285
من تاپیک های مختلفی را در اینجا مرور کردم، اما فکر نمی کنم به سوال من پاسخ دقیقی داده شود. من مجموعه داده ای متشکل از 50000 دانش آموز و زمان آنها را برای ترک تحصیل دارم. من قصد دارم رگرسیون خطرات متناسب را با تعداد زیادی از متغیرهای کمکی بالقوه انجام دهم. من همچنین قصد دارم رگرسیون لجستیک را در مورد ترک تحصیل/ ماندن انجام دهم. هدف اصلی پیش‌بینی گروه‌های جدید دانش‌آموزان خواهد بود، اما دلیلی نداریم که باور کنیم آنها با گروه سال گذشته تفاوت زیادی دارند. معمولاً من چنین داده‌های لوکسی ندارم و با نوعی جریمه کردن مدل‌سازی را انجام می‌دهم، اما این بار به این فکر کردم که مجموعه‌های داده‌های آموزشی و آزمایشی را تقسیم کنم و سپس انتخاب متغیر را روی مجموعه آموزشی انجام دهم. سپس از مجموعه داده های آزمون برای تخمین پارامترها و ظرفیت پیش بینی استفاده می شود. آیا این استراتژی خوبی است؟ اگر نه، چه چیزی بهتر است؟ نقل قول ها استقبال می شود اما ضروری نیست.
آموزش، آزمایش، اعتبارسنجی در یک مسئله تجزیه و تحلیل بقا
108451
من شک دارم که با تخمین حالت بازگشتی با استفاده از فیلتر بیز (در واقع با استفاده از تقریبی به آن از طریق فیلترهای ذرات) مرتبط است. سوالات من این است: * چگونه یک $\Delta t$ را انتخاب کنیم که برای مشکل به اندازه کافی خوب باشد؟ * آیا می توان یک $\Delta t$ داشت که همگن نباشد، بنابراین فرض کنید که در $t=1$ نمونه برداری کنیم، سپس $t=3$، سپس $t=10$ و غیره؟
آیا داشتن زمان نمونه برداری غیر همگن در فیلتر Bayes مشکل دارد؟
83134
در ویکی‌پدیا، معیار گیبس احتمال را به این صورت تعریف می‌کند: $$ P(X=x) = \frac{1}{Z(\beta)}\exp(-\beta E(x)) $$ حال، شکل آشنا از توزیع نرمال این است: $$ P(x) = \frac{1}{\sqrt{2\pi}\sigma}\exp-{\frac{(x-\mu)^{2}}{2\sigma^2}} $$ اکنون، به نظر می‌رسد که توزیع نرمال یک معیار گیبس است و من نمی‌دانستم که آیا می‌توانم برخی از اصطلاحات را معادل‌سازی کنم. بنابراین، برای مثال عبارت $\beta$ چیست و مهمتر از آن، عبارت انرژی مربوطه در توزیع نرمال چیست. آیا می توانم بگویم $\beta$ $\frac{1}{2}$ است و اصطلاح انرژی $\frac{(x-\mu)^{2}}{\sigma^2}$ است، اما من این کار را نمی کنم درک کنید که چگونه تابع پارتیشن $Z$ تابعی از $\beta$ است. با تشکر از کمک شما!
اندازه گیری گیبس و توزیع نرمال
108184
در حال مدل سازی قیمت فوبرها هستیم. همه فوبارها دارای مقدار x هستند که از 0 تا بی نهایت متغیر است. علاوه بر این فوبرها می توانند چندین ویژگی داشته باشند. برای قیمت گذاری فوبارها از رگرسیون خطی روی فوبارهای مشابه با مقدار x نسبت به قیمت آنها استفاده می کنیم. فرض کنید یک فوبار با ویژگی های a، b و c داریم. ما مجموعه داده ای از فوبارهای قیمت گذاری شده با مشخصه a داریم، همچنین مجموعه داده ای با فووبارها با مشخصه b و مجموعه داده ای از فوبارها با مشخصه c داریم. با این حال، هیچ مجموعه داده ای با فوبارها با ویژگی های a، b و c نداریم. آیا راهی برای قیمت گذاری دقیق فوبار مورد نظر با داده های موجود وجود دارد؟ پیشاپیش ممنون
مدل قیمت گذاری با متغیرهای چندگانه و داده کافی نیست
18643
**مشکل:** دو اتومبیل (که به عنوان اشیاء نقطه ای در نظر گرفته می شوند) را در نظر بگیرید، به نام های رهبر $L$ و دنبال کننده $F$، که هر دو مجهز به دستگاه های GPS هستند که با یکدیگر ارتباط برقرار می کنند. هدف $F$ این است که $L$ را تا حد امکان به دقت دنبال کند زیرا دومی خودسرانه در هواپیما حرکت می کند. با توجه به اینکه همه دستگاه‌های GPS دارای توزیع خطای احتمالی خطای دایره‌ای (CEP) هستند، با میانگین تجویز شده $\mu = (\mu_x,\mu_y)$ و یک ماتریس کوواریانس تجویز شده $\Sigma_{2\times 2}$. * با توجه به اینکه $L$ از یک منحنی (تکه ای صاف) $C$ در صفحه عبور می کند، منحنی مورد انتظار عبور شده توسط $F$ چقدر است؟ به علاوه، توزیع مسیرهای $F$ چگونه است؟ * راه بهینه برای $F$ برای تخمین $L$ در یک دوره زمانی چیست؟ **زمینه:** این یک مشکل عملی است که من در کار تجربی با آن مواجه بودم و به هیچ وجه تکلیف نیست. من از ابزارهایی مانند Kalman Filtering برای تخمین حالت بهینه در مواجهه با نویز سفید آگاهی دارم، اما در مورد نحوه دقیق گسترش آنها به این مورد مطمئن نیستم. من همچنین می خواهم از ادبیات تحقیق مرتبط بدانم.
یک مشکل تخمینی در ردیابی GPS
108455
من مفهوم مقیاس بندی را درک می کنم و این که نتایج را در SVM و NN بهبود می بخشد. با این حال، من می خواهم جایی را پیدا کنم که در آن توضیح داده شود، به عبارت ساده عوام. از نحوه انجام آن ترجیح می‌دهم ویکی‌پدیا نباشد زیرا از آن برای پایان‌نامه کارشناسی ارشدم استفاده می‌کنم. پیشاپیش متشکرم
نحوه انجام: مقدمه ای مختصر برای مقیاس بندی و تغییر مقیاس داده ها (ورودی ها) برای الگوریتم های یادگیری نظارت شده
14473
ما در حال برنامه‌ریزی یک مطالعه مورد-شاهدی هستیم که در آن افراد را به‌عنوان مورد یا شاهد (بر اساس وزن طبیعی در مقابل وزن کم هنگام تولد) تعیین می‌کنیم و سپس متغیر پیامد پیوسته (% چربی بدن) را اندازه‌گیری می‌کنیم. آیا کسی می تواند من را به سمت روشی برای محاسبه تعداد موارد در مقابل کنترل مورد نیاز راهنمایی کند. ما ایده ای از انحراف معیار متغیر نتیجه (% چربی بدن) داریم. خیلی ممنون اندرو
محاسبه توان برای یک مطالعه مورد-شاهدی با یک نتیجه مستمر
99849
فرض کنید من یک رگرسیون خطی ساده را اجرا می کنم. تخمین ضریب 2، خطای استاندارد ضریب 0.5 و مقدار t 4 است. آیا درست می گویم که خطای استاندارد در دو توزیع مختلف استفاده می شود؟ اولین توزیع، توزیع ضرایب برآورد شده برای جمعیت است. این توزیع دارای میانگین 2 (برآورد ضریب جمعیت) با خطای استاندارد 0.5 است. توزیع دوم توزیع مقادیر t است. این توزیع دارای میانگین 0 با خطای استاندارد 0.5 است.
خطای استاندارد در رگرسیون خطی
47685
من در حال حاضر با زنجیره‌های مارکوف کار می‌کنم و تخمین حداکثر احتمال را با استفاده از احتمالات انتقال همانطور که توسط چندین منبع پیشنهاد شده است محاسبه کردم (یعنی تعداد انتقال‌ها از a به b تقسیم بر تعداد انتقال کلی از a به گره‌های دیگر). من اکنون می‌خواهم احتمال ورود MLE را محاسبه کنم، اما کاملاً مطمئن نیستم که چگونه این کار را انجام دهم. شاید کسی بتونه کمکم کنه
محاسبه احتمال ورود به سیستم برای MLE داده شده (زنجیره مارکوف)
31574
من از بسته «بررسی» در R استفاده می‌کنم تا داده‌هایی را که مستقل نیستند (سری زمانی است) آزمایش کنم، با ایجاد یک شی «نظرسنجی» و شناسایی ماه‌های مختلف به‌عنوان «خوشه‌ها» و سپس آزمایش t تا ببینم آیا میانگین (در طول یک سال کامل) با 0 متفاوت است. داده ها چیزی شبیه به این هستند: ID Y ماه 1 .5 1 2 .24 1 3 .36 1 ... 200 .44 12 من یک شئ survey با خط زیر ایجاد می کنم: clusterdat<- svydesign(id=~month,data=mydata) سپس t-test ($H_a: \mu \neq 0$) svyttest(y~0, design=mydata ) خروجی شامل یک آماره t، مقدار p متناظر، درجه آزادی و میانگین نمونه است، اما گزینه ای برای محاسبه فاصله اطمینان وجود ندارد. آیا من چیزی را از دست داده ام؟ اگر نه، چگونه می توانم خودم یکی را محاسبه کنم؟ آیا $t^*$ برای اطمینان 95% در این مورد مانند یک آزمون t معمولی است (یعنی آیا می توانم آن را با df در یک جدول $t$ معمولی جستجو کنم)؟ چگونه می توانم انحراف استاندارد نمونه را برای این داده ها محاسبه کنم؟
محاسبه فواصل اطمینان برای داده های غیر مستقل
83285
من 6 متغیر و 125 مشاهده دارم که آنها را با استفاده از مدل VAR مدلسازی می‌کنم، که در آن همه متغیرها را به‌عنوان درون‌زا، همانطور که همه روابط به من علاقه دارند، قرار می‌دهم (دو جهتی). من تست‌های گرنجر را انجام داده‌ام، داده‌هایم را کاهش داده‌ام (به عنوان مثال، ثابت بودن را بررسی کرده‌ام، گزارش‌های ثبت شده، log_difference را در صورت لزوم بررسی کرده‌ام) بنابراین همه متغیرها در مدل ثابت می‌آیند. برای تاخیر، lag.max = 6 را تنظیم کردم و از معیار AIC در مدل استفاده کردم (که به هر حال هرگز تاخیری بزرگتر از 5 را بر نمی گرداند). این مدل به خوبی کار می‌کند و من می‌توانم پاسخ‌ها را با اهمیت اینجا و آنجا بخوانم، و کم و بیش فرضیه‌های من را که قبل از آزمون مطرح کردم تأیید می‌کند. من در حال بررسی چگونگی ارتباط موجودی‌های نفت با عامل دیگری هستم (بازده خالص، نفت WTI) این رابطه 2 تاخیر از AIC دریافت می‌کند. سپس نتایج من: summary(equations=NCY_WTI_3M,VAR(data.final[,c(NCY_WTI_3M,NCY_BRE_3M,SP,INV)], type=const, ic=AIC , lag.max=LagMax)) نتایج تخمین VAR: ======================== متغیرهای درون زا: NCY_WTI_3M, NCY_BRE_3M, SP, INV متغیرهای قطعی: const حجم نمونه: 123 Log Likelihood: -763.052 ریشه چند جمله ای مشخصه: 0.8509 0.8509 0.5029 0.5029 0.4318 0.4318 0.2642 0.2151 تماس: VAR(y = data.final[, c(NCY_WTI_3M، NCY_BRE_3M، SP، INV)] =، type = const، Lag. = AIC) نتایج تخمین برای معادله NCY_WTI_3M: =========================================== NCY_WTI_3M = NCY_WTI_3M. l1 + NCY_BRE_3M.l1 + SP.l1 + INV.l1 + NCY_WTI_3M.l2 + NCY_BRE_3M.l2 + SP.l2 + INV.l2 + const Estimate Std. خطای t مقدار Pr(>|t|) NCY_WTI_3M.l1 5.018e-01 9.903e-02 5.067 1.57e-06 *** NCY_BRE_3M.l1 5.096e-01 1.213e-01-01 *** 3.213e-0105 4.2. l1 1.230e-01 2.182e-01 0.564 0.57393 INV.l1 -2.578e-06 8.847e-07 -2.914 0.00429 ** NCY_WTI_3M.l2 -1.880-1.889e-21 -1.889e-21. 0.03237 * NCY_BRE_3M.l2 1.613e-01 1.435e-01 1.124 0.26351 SP.l2 5.887e-01 2.205e-01 2.669 0.0088l 2.669 0.0088l **1-0.00871 8.528e-07 2.215 0.02875 * const 1.984e-01 1.012e-01 1.961 0.05234. --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 مشکل این است که هر دو 'INV.l1' و 'INV.l2' در این مدل اهمیت دارند، هر چند که دارند اثرات متفاوت «INV.l1» (* _) تخمین منفی دارد، در حالی که «INV.l2» (_) تخمین مثبتی دارد - این به معنای یک رابطه متفاوت در طول دوره‌های زمانی است، در صورتی که باید هر دو را معنی‌دار دانست. این ناهنجاری عملاً در هر مدلی که من از 27 متغیر اجرا کرده ام (با استفاده از مدل های سبد کوچکتر) ظاهر شده است، جایی که هر بار که یک عامل اهمیت دارد، تخمین های ارائه شده دارای علائم متفاوتی هستند (+/-). ** من فکر نمی کنم که این مورد باشد، و بنابراین سوال من این است که آیا ویژگی ذاتی مدل های VAR وجود دارد که می تواند به توضیح این موضوع کمک کند؟** داشتم فکر می کردم، اگر تأثیر 'lag1' در امروز مثبت باشد. ، پس اثر lag2 روی lag1 نیز باید مثبت باشد، بنابراین تاثیر مورد انتظار از lag2 در امروز چیست؟ آیا این واقعیت که علامت با هر تأخیر تغییر می‌کند، به این معنی است که در کل سری‌های زمانی یکنواختی وجود دارد؟ به روز رسانی: پس از صحبت با افراد دیگر، نظریه فعلی من این است که یک تصحیح بیش از حد وجود دارد. دومین متغیر تاخیری تنها پس از در نظر گرفتن اولین متغیر با تاخیر روی متغیر مستقل تاثیر می گذارد. در این رشته فکر، «مشکل» من با نوعی اثر بازگشت میانگین ایجاد می‌شود، که به موجب آن محاسبه همیشه تا حدی از علامت فراتر می‌رود و بنابراین علائم مثبت/منفی را در مقابل مقادیر تخمینی من تولید می‌کند.
نشانه های متناوب برآوردهای قابل توجه در مدل VAR
108181
بنابراین، این سوالی است که من می خواهم بپرسم. داشتم در مورد رگرسیون خطی و این چیزها می خواندم. من فهمیدم که رگرسیون خطی اساساً دو متغیر را با یکدیگر مرتبط می کند. من در مورد کاربرد آن شک دارم که آیا می توان آن را به نحوی در مورد من نیز اعمال کرد. بنابراین، فرض کنید من 10 فایل دارم. هر فایل اساساً شامل 1000 ردیف و 3 ستون است. دو ستون اول اساساً گره ها را نشان می دهند (مانند یک نمودار) و ستون سوم یک قاعده را ارائه می دهد که گره ها از آن پیروی می کنند. اجازه دهید این قانون را به عنوان هر دنباله ای از 1 و 0 با هم مخلوط کنیم. نمونه: Node 1 Node 2 Rule 2 3 110 3 4 110 .......................... فایل دیگری حاوی گره هایی برای قانون دیگری است. آیا راهی وجود دارد که بتوانم برخی از مدل های رگرسیون را روی هر یک از پارامترهای R اعمال کنم؟
استفاده از مدل های رگرسیون در R
83136
اخیراً این مقاله مورد توجه زیادی قرار گرفته است (به عنوان مثال از WSJ). اساسا، نویسندگان به این نتیجه رسیدند که فیس بوک تا سال 2017 80 درصد از اعضای خود را از دست خواهد داد. آنها ادعاهای خود را بر اساس برون یابی مدل SIR، یک مدل تقسیمی که اغلب در اپیدمیولوژی استفاده می شود، قرار می دهند. داده‌های آن‌ها از جستجوهای گوگل برای «فیس‌بوک» گرفته شده است و نویسندگان از نابودی Myspace برای تأیید نتیجه‌گیری خود استفاده می‌کنند. **سوال:** آیا نویسندگان اشتباه همبستگی دلالت بر علیت ندارد دارند؟ شاید این مدل و منطق برای مای اسپیس جواب داده باشد، اما آیا برای هر شبکه اجتماعی معتبر است؟ **به روز رسانی**: فیس بوک پاسخ می دهد > با رعایت اصل علمی همبستگی برابر است با علیت، تحقیقات > ما به صراحت نشان داد که پرینستون ممکن است در خطر > ناپدید شدن کامل باشد. > > ما واقعاً فکر نمی کنیم که پرینستون یا عرضه هوای جهان به این زودی ها به جایی برسد. ما پرینستون (و هوا) را دوست داریم» و یادآوری نهایی را اضافه کرد که «همه تحقیقات برابر نیستند - و برخی از روش‌های تجزیه و تحلیل منجر به نتیجه‌گیری‌های بسیار دیوانه‌کننده می‌شوند.
آیا فیس بوک به پایان می رسد؟
7668
فرض کنید من داده هایی با متغیرهای توضیحی p دارم و می خواهم از الگوریتم LARS برای ساخت یک مدل استفاده کنم. آیا 1. LARS را اجرا کنم تا زمانی که همه متغیرهای p به مدل من اضافه شوند و همبستگی بین هر متغیر و باقیمانده 0 باشد؟ 2. یا آیا LARS را زودتر خاتمه می‌دهم، مثلاً الف) با توقف LARS هنگامی که k<p متغیرها به مدل من اضافه شده‌اند، یا ب) با توقف زمانی که همبستگی بین هر متغیر و تلاقی‌های باقی‌مانده از مقداری از آستانه t عبور می‌کند؟ (که در آن k یا t را می توان با اعتبارسنجی متقابل تعیین کرد.) در خواندن مقاله اصلی توسط افرون و همکاران. دوباره، به نظر می رسد که من نسخه 1 را انجام می دهم (مدل کامل را بسازم). اما بعد من گیج شدم -- این راه حل با تخمین OLS با حداکثر احتمال چگونه تفاوت دارد؟ (تخمین OLS همچنین بین هر متغیر و باقیمانده همبستگی صفر ایجاد می کند، و من فکر می کردم تنها یک راه برای به دست آوردن این همبستگی صفر وجود دارد، یعنی با طرح ریزی متعامد. یا اشتباه می کنم؟)
شرط توقف برای رگرسیون حداقل زاویه
47684
آیا کسی می تواند توضیح دهد که $J$ در این مقاله، معادله 1.5 از چه چیزی تشکیل شده است. $$ J \sim N(\beta, \sigma^2 I/k) $$ $\beta$ اینجا چیست؟ $N$ چیست؟ همچنین، چرا آنها به جای اینکه فقط بگویند از CV برای پیدا کردن بهترین $k$ استفاده کنید، این همه تلاش برای استخراج $k$ با فرمول های پیچیده انجام می دهند؟
درک رگرسیون خط الراس بی طرفانه
86426
من برخی از معیارها را امتحان می کنم تا فهرستی از نام ژن ها را با مقادیر عددی مرتبط که با فراوانی آنها مطابقت دارد فیلتر کنم. من به دنبال چند ژن جالب هستم و سعی می کنم ببینم که آیا آنها قبل و بعد از فیلتر کردن به منطقه برتر لیست ژن های رتبه بندی شده (رتبه بندی شده بر اساس فراوانی) می رسند یا خیر. لطفاً شکل ضمیمه شده را ببینید. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/rCihr.png) می‌خواهم ببینم رتبه‌بندی ژن مورد علاقه‌ام (G) قبل و بعد از فیلتر کردن به طور قابل توجهی تغییر کرده است یا خیر. به فکر انجام تست دقیق فیشر برای نسبت ها برای تعیین اهمیت است. بنابراین با توجه به رتبه ژن مورد نظر، مایلم به تعداد ژن های بالا و پایین ژن در رتبه با و بدون فیلتر نگاه کنم و نسبت آنها را با استفاده از تست FE مقایسه کنم اگر در داده های فیلتر شده سازمان ملل 200 و 2800 ژن بالا و پایین G و 30 و 100 به ترتیب در داده های فیلتر شده، سپس می توانم آزمایش FE را به صورت زیر انجام دهم (در R): >my.mat <- matrix(c(30,100,200,2800),nrow=2,byrow=TRUE) >my.mat [,1] [,2] [1,] 30 100 [2,] 200 2800 >fisher.test(my.mat, alternative=two.sided) لطفاً به من اطلاع دهید که آیا اصلاً می توانم آزمایش دقیق فیشر را برای چنین اندازه گیری انجام دهم؟ پیشاپیش ممنون
آزمایش دقیق فیشر برای غنی سازی رتبه ژنی
110578
من سعی می کنم جدول 2.1 (ص. 41) LeSage and Pace (2009) را با استفاده از **نرم افزار باز R** بازتولید کنم. این جدول حاوی تأثیرات مستقیم، غیرمستقیم و کل یک مدل SAR است (از آنجایی که ضرایب رگرسیون را نمی توان مستقیماً به دلیل سرریزها تفسیر کرد)، **تقسیم بندی شده توسط W-order **. من می توانم قسمت اول جدول (ضربه ها () را در R تولید کنم، اما در حال حاضر سرنخی در مورد **نحوه تقسیم این تاثیرات در هر توان W در نرم افزار R** ندارم. لطفا، کسی می تواند به من راهنمایی کند که چگونه این کار را انجام دهم؟ من بسیار سپاسگزار خواهم بود! پیشاپیش خیلی ممنون جانکا
تقسیم بندی فضایی تأثیرات مستقیم، غیر مستقیم و کل
14471
من باید در مورد پارامتر مثبت $p$ استنباط کنم. برای جبران مثبت بودن، $p=\exp(q)$ را مجدداً پارامتریزه کردم. با استفاده از روال MLE، تخمین نقطه و s.e را برای $q$ محاسبه کردم. ویژگی عدم تغییر MLE مستقیماً یک تخمین نقطه ای برای $p$ به من می دهد، اما من مطمئن نیستم که چگونه s.e را برای $p$ محاسبه کنم. پیشاپیش از هرگونه پیشنهاد یا مرجعی تشکر می کنم.
چگونه خطاهای استاندارد را برای تبدیل MLE محاسبه می کنید؟
30623
لطفا راهنمایی کنید که چگونه به بهترین شکل به موارد زیر نزدیک شوید. من روندی به دنبال سیگنال معاملاتی دارم که شامل میانگین متحرک ساده پس از n نقطه داده است. داده ثابت است. در حال حاضر من یک z-score را بر اساس n نقطه داده محاسبه می کنم و قدرت سیگنال جدیدترین نقطه داده را به عنوان مقدار z-score آن قضاوت می کنم. چه جایگزین هایی ممکن است نشانگر بهتری از قدرت سیگنال ارائه دهند؟ شایان ذکر است که داده ها همبستگی خودکار مرتبه اول منفی را نشان می دهند و (شاید سخت تر) درجه همبستگی خودکار منفی ثابت نیست - اما بیایید بگوییم که به روشی قابل پیش بینی متفاوت است. هر گونه اشاره در مورد نوع مدل هایی که شاید باید در نظر بگیرم قدردانی خواهد شد. یوگ
میانگین متحرک اطمینان سیگنال
40554
شرکت کنندگان (N=14) دو پرسشنامه را در دو مقطع زمانی پر کردند و من می خواهم همبستگی بین متغیرها را ببینم. آیا این حجم نمونه کافی است؟ همچنین، آیا باید قبل از اجرای تجزیه و تحلیل همبستگی، آیتم ها را کدگذاری معکوس کرده باشم؟
حجم نمونه برای همبستگی پیرسون و موارد کدگذاری شده معکوس برای تحلیل همبستگی؟
83137
آیا می توان مدل های خطی پویا را به عنوان موارد خاصی از مدل های چندسطحی/مدل های ضریب تصادفی در نظر گرفت؟ اگر بله، دلیل پشت آن چگونه است؟
مدل خطی پویا و مدل های چند سطحی
47683
من در اخبار خوانده ام که در ماه گذشته پنج عابر پیاده از جمعیت 500000 نفری جان خود را از دست دادند. به یاد داشته باشید که این یک مشکل سمی است (لگدهای معروف اسب پروس توسط Ladislaus Bortewicz). من R را برای درک احتمال ppois (5*12, 3, low.tail=F) شلیک کردم چون در یک ماه مرده 5 شد آن را در 12 ماه ضرب کردم و با آمار رسمی 3 عابر پیاده در سال در این منطقه مقایسه کردم. . نتیجه: [1] 1.310782e-56 بنابراین، بله، این یک مورد غیرعادی است. آیا من همه چیز را درست انجام می دهم؟
محاسبه احتمال یک رویداد نادر
40555
من داده‌هایی برای چند گروه دارم - برخی از داده‌های سطح همگروهی از طریق Z-scores عادی شده‌اند، و برخی از آنها از طریق تبدیل‌های گزارش نرمال شده‌اند. (آق.) آیا راهی برای مقایسه آنها وجود دارد؟ آیا می توانم امتیازهای Z را به داده های خام تبدیل کنم، سپس آنها را تبدیل به لاگ کنم؟ (من میانگین و انحراف معیار را برای داده های خام گروه های با امتیاز Z دارم). همچنین - من این پست را دیدم: چگونه می توان امتیازهای تبدیل Z را ثبت کرد؟، اما از آنجایی که من چند همگروه دارم باید مطمئن باشم که همه داده ها در یک مقیاس هستند / به یک روش تبدیل شده اند. هر فکری مفید خواهد بود.
مقایسه امتیازهای Z و داده‌های تبدیل‌شده گزارش
38363
من در حال نوشتن یک رگرسیون لجستیک هستم که به عوامل والدینی (یعنی افسردگی والدین، اضطراب و استرس) به عنوان پیش‌بینی‌کننده‌های وجود تشخیص اختلال اضطراب کودک نگاه می‌کند. پروتکل دوباره چیست. گزارش همبستگی های دو متغیره (طبق APA6- یا حتی به طور کلی)؟ آیا توصیه می‌شود قبل از نوشتن رگرسیون لجستیک جدولی از همبستگی‌ها گنجانده شود؟ و اگر چنین است، آیا این شامل DV طبقه‌بندی می‌شود، حتی اگر چنین همبستگی‌هایی خیلی معنی‌دار نیستند؟ من هرگز رگرسیون لجستیک ننوشته ام و در یافتن نمونه های زیادی مشکل دارم. ممنون از کمکت :)
آیا هنگام گزارش رگرسیون لجستیک لازم است همبستگی های دو متغیره گزارش شود؟
108457
من می خواهم فاصله اطمینان را برای یک متغیر با کران پایین محاسبه کنم و به نظر نمی رسد که بفهمم چگونه این کار را انجام دهم. من چندین پست مشابه را دیده ام، اما هیچ کدام به سوال من پاسخ نداده اند، حداقل نه مستقیم. من از یک مثال اسباب بازی در اینجا برای سادگی استفاده می کنم. برای دقیق بودن، بیایید توزیع را در نظر بگیریم (من خودم این اعداد را انتخاب کردم تا به نوعی شبیه توزیع پواسون به نظر برسد)، {1,2,3,5,1,2,2,3,7,2,3,4,1 ,5,7,6,4,1,2,2,3,9,2,1,2,2,3} که در زیر نشان داده شده است، ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/VK2P3.jpg) اگر من انحراف معیار و میانگین را برای این توزیع محاسبه کنم، به ترتیب 3.1 و 2.4 دریافت می کنم، اما از آنجایی که توزیع یک توزیع نرمال نیست، اینطور نیست. واقعاً فاصله اطمینان را به من بدهید. چگونه می توانم فاصله اطمینان را به درستی محاسبه کنم؟
فاصله اطمینان برای داده های توزیع شده پواسون
47689
من دو تابع $f_x$ = $\frac{1}{2}\delta(x-5) + 1/4$ دارم که 1/4 مربوط به توزیع یکنواخت از 5 تا 7 است. من همچنین $f_{ دارم y|x}$ = $\frac {1}{2}\delta(y-x-4) + 1/4$ که 1/4 در محدوده x+4 تا x+6 است. من سعی می کنم $f_y$ را با استفاده از معادله پیدا کنم: $$ f_y = \int f_x f_{y|x} \,\mathrm dx \>. $$ سوال من این است: چگونه می توانم محدودیت های این ادغام را پیدا کنم؟ من به چیزی شبیه ادغام از $y-4$ به $y-6$ فکر کرده بودم، اما واقعاً درست به نظر نمی رسد.
محدودیت های ادغام برای محاسبه توزیع حاشیه ای
47682
من سعی می کنم نتایج شبیه سازی یک مقاله را تکرار کنم، اما موفقیت زیادی کسب نمی کنم. معادله این است: $$ P_t = \beta_{PD}*X_t + \varepsilon_{PD,t} $$ * $P_t$ (بر اساس فرض) به عنوان نرمال استاندارد توصیف می‌شود. * $\beta_{PD}$ ثابت $0\leq\beta_{PD}\leq1$ است. * $\varepsilon_{PD,t}$ - یک اصطلاح باقیمانده است. به طور دقیق‌تر، $\varepsilon_{PD,t}$ در مقاله به‌عنوان «..تغییرات باقی‌مانده، متقابل مستقل، مستقل از $X_t$، و معمولاً به‌گونه‌ای توزیع می‌شوند که $P_t$ یک متغیر توزیع شده نرمال استاندارد است» توصیف می‌شود. ، صفحه 5. مجموع واریانس های متغیرهای تصادفی تبدیل شده باید $1$ باشد زیرا $P_t$ $\mathcal N(0,1)$ است. واریانس عبارت اول $\beta_{PD}^2$/انحراف استاندارد $\beta_{PD}$ است. چگونه جمله دوم را طوری می سازید که مجموع عبارت ها $\mathcal N(0,1)$ باشد؟ پیشنهاد دیگری غیر از اینکه چگونه این کار را در زیر انجام داده ام وجود دارد؟ کد R: Bpd<-0.4; Xt<-rnorm(100000,0,1);E.pd<-rnorm(100000,0,1) # معادله 1 همانطور که در مقاله بیان شد Pt = (Bpd)*Xt + E.pd # Pt2 استاندارد N( 0،1) اما نه آنطور که (eq1) در مقاله نوشته شده است Pt2<-(Bpd)^0.5*Xt+(1-Bpd)^0.5*E.pd sd(Pt); sd(Pt2) **مرجع:** ارزیابی رابطه بین احتمال نکول و زیان پیش فرض در یک سبد وام کشاورزی، توسط نیکلاس ک. ساکایمبو و گلن دی. پدرسون.
چگونه می توان مجموع دو متغیر توزیع شده نرمال را هنگام تبدیل خطی شبیه سازی کرد؟
83139
به نظر می رسد این یک سوال بسیار کلی در مورد بایاس است که OLS برای متغیرهای RHS با واریانس نابرابر تولید می کند، اما من نتوانستم راه حل صریحی در جایی پیدا کنم. فرض کنید یک متغیر تصادفی $y_t \sim N(0، \sigma_y^2)، t = 1، \ldots، N$ داریم. و ما $x_{it}$ داریم، تخمین‌گرهای پر سر و صدای $y_t$، برای $i = 1، \ldots، k$x_{it} = y_t + \delta_{it}، \delta_{it} \sim N (0، \sigma_i^2)$ اگر رگرسیون OLS را روی $y_t = \beta_1 x_{1t} + \beta_2 اجرا کنیم x_{2t} + \epsilon_t$ ما $\sum \hat\beta_i \neq 1$ دریافت می کنیم که برای من شهودی نیست. اول، آیا این حتی یک تعصب است؟ یا فقط واریانس نابرابر را جبران می کند؟ اگر همه چیز را به درستی عادی کنیم، بنابراین $\sigma_y^2 = \sigma_{x_i}^2$، باید $E[\hat\beta_i] = 1 / k$ را به عنوان $N \rightarrow \infty$ دریافت کنیم. من نتایج تجربی از شبیه‌سازی‌های زیر دارم، اما در مورد شکل عملکردی مجانبی $E[\hat\beta_i]$ به عنوان تابعی از $\sigma_y^2، \sigma_1^2، \ldots، \sigma_k^ کنجکاو بودم. 2 دلار $f(\sigma_y، \sigma_1) \rightarrow \hat\beta_1, f(1,1) \rightarrow 1/2, f(1,2) \rightarrow1/5, f(2,1) \rightarrow 4/5 $f(\sigma_y، \sigma_1، \sigma_2) \rightarrow (\hat\beta_1، \hat\beta_2)، f(1,1,1) \راست فلش (1/3, 1/3), f(2,1,1) \rightarrow (4/9, 4/9), f(1,2,1) \rightarrow (1/9، 4/9)$ علاوه بر این، اگر خطاهای RHS همبستگی داشته باشند چه می‌شود، به طوری که $\sigma_{ij}^2 \neq 0$. چگونه برای $\Sigma$ غیر مورب تعمیم می یابد؟
مجانبی ضرایب OLS برای متغیرهای RHS واریانس نابرابر
14474
می‌پرسم آیا کسی مجموعه‌ای از تکنیک‌های اعتبارسنجی متقاطع را با بحث در مورد تفاوت‌های بین آنها و راهنمایی در مورد زمان استفاده از هر یک از آنها می‌شناسد. ویکی‌پدیا فهرستی از رایج‌ترین تکنیک‌ها را دارد، اما من کنجکاو هستم که آیا تکنیک‌های دیگری نیز وجود دارد و آیا طبقه‌بندی برای آنها وجود دارد یا خیر. برای مثال، من فقط به کتابخانه‌ای برخوردم که به من امکان می‌دهد یکی از استراتژی‌های زیر را انتخاب کنم: * Hold out * Bootstrap * K Cross-validation * یکی را کنار بگذاریم * Stratified Cross Validation * Balanced Stratified Cross Validation * Stratified Hold out * Stratified Bootstrap و من سعی می کنم بفهمم طبقه بندی شده و متعادل چه معنایی در بوت استرپینگ، نگه داشتن یا CV دارد. ما همچنین می‌توانیم این پست را در صورت تمایل به یک ویکی جامعه تبدیل کنیم و بحثی درباره تکنیک‌ها یا طبقه‌بندی‌ها در اینجا جمع‌آوری کنیم.
خلاصه ای از تکنیک های اعتبار سنجی متقابل
103564
آیا من درست می گویم که نتایج حاصل از ANOVA اندازه گیری های مکرر به شما نمی گوید که تفاوت در گروه (در صورت وجود) کجاست؟ پس یک تست _post hoc_ باید انجام شود؟ من از Stata برای تجزیه و تحلیل داده های خود استفاده می کنم. در زیر نتیجه معمولی است که من به دست آوردم، اما نتایج قابل توجه است. چگونه می توانم تجزیه و تحلیل بیشتری انجام دهم تا بفهمم کدام گروه تفاوت معنی داری دارند؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/lBcum.jpg)
چگونه تفاوت قابل توجهی را در یک گروه / ANOVA پیدا کنیم
11562
یک آزمون آماری خوب برای بررسی اینکه آیا سوگیری در قضاوت در موقعیتی وجود دارد که یک داور وجود دارد که نمرات شدید (نمره بالا برای یکی از شرکت کنندگان و نمرات بسیار پایین برای بقیه شرکت کنندگان) وجود دارد یا خیر چیست؟ در اینجا داده های واقعی در مسابقه آمده است: شرکت کننده 1 شرکت کننده 2 شرکت کننده 3 شرکت کننده 4 داور 1 83.03 96.5 88.5 90.5 داور 2 67.15 89.9 85.36 89.85 داور 3 72.05 89.58 84.6 8 قاضی 93.3 88 94.1 داوری 5 44 65.15 52.45 96.05 بسیار متشکرم!
ارزیابی تعصب ارزیاب در جایی که یک رتبه‌دهنده به یک رتبه‌بندی بسیار بالا و بقیه رتبه‌های بسیار پایین داده است
13843
من به دنبال یک CDF (یا دقیق یا تقریبی) از اولین زمان عبور، $T$، یک فرآیند ذخیره سازی $\\{X(t) هستم. 0 \leq t < \infty \\}، $ با جهش‌های ورودی ثابت (واحد) که در فرآیند پواسون با میانگین نرخ $\lambda$ پرش در واحد زمان، نرخ فروپاشی نمایی، آلفا $X(t)$، و مقدار اولیه $X(0) = x_0$. من چندین مرجع در ادبیات مسائل مشابه پیدا کردم که در آن ورودی ها پواسون مرکب هستند، یعنی هر دو فواصل بین ورودی های متوالی و دامنه _ ورودی به صورت نمایی توزیع شده اند، به عنوان مثال: * Harrison, J.M & Resnick, S (1976) توزیع ثابت و اول احتمالات خروج از یک فرآیند ذخیره سازی با نرخ انتشار عمومی. ریاضیات عملیات Res. 1، 347-358. * بله، G.F. (2010) کشف مجدد اولین نتیجه زمان گذر برای سدها و صدای شلیک. Mathematical Scientist جلد. 35، شماره 1، 18-22 و همچنین نمونه ای از دامنه های ورودی و انتشار هر دو ثابت: * Moran، P.A.P. (1959) Theory of Storage 79-81. اما من نتوانستم مورد ورودی های دامنه ثابت و فروپاشی نمایی را پیدا کنم.
CDF زمان گذر اول برای نویز سد/شات پواسون با پرش های دامنه ثابت و فروپاشی نمایی
83133
بنابراین، من یک تکلیف خانه دارم که در آن از من خواسته می شود تا تناسب دو مدل مشابه را با مقایسه $R^2$ و AIC آنها مقایسه کنم. هر دو مدل در R اجرا شدند، یکی با استفاده از دستور 'lm' (برای OLS) و دیگری از دستور 'glm'. مدل اول R^2$ تعدیل شده 0.82 را به همراه داشت و مدل دوم، با همان DV و متغیرهای کمکی، AIC 365.96 را تولید کرد. تنها تفاوت بین مدل ها، g در دستور 'lm'/'glm است. ضرایب و خطاهای استانداردی که آنها برگردانده اند تقریباً یکسان هستند. چگونه می توان $R^2$ و AIC را مقایسه کرد؟ چگونه می توانم بگویم کدام مدل رگرسیون با داده ها سازگاری بیشتری دارد؟
مقایسه AIC و تنظیم $R^2$
55065
سوال من مربوط به تست ARCH LM است. در واقع من داده های سه ماهه CPI را برای پاکستان با پایه 2005 دارم. من آن را با گرفتن تفاوت لگ به نرخ رشد Y-O-Y تبدیل کرده و سپس آن را ثابت کرده ام. وقتی تست ARCH LM را روی داده‌های خام اعمال می‌کنم، نتایج قابل توجهی نشان می‌دهد، اما وقتی آن را روی داده‌های متفاوت اعمال می‌کنم، این تست بی‌اهمیت می‌شود. می‌خواهم بپرسم روی کدام نوع داده باید تست ARCH LM را اعمال کنیم
استفاده از آزمون ARCH LM بر روی داده ها
62631
در پرسشنامه ام این دو سوال را پرسیدم: 1. q1. آیا تا به حال در تعطیلاتی بوده اید که شامل بازدید از لوکیشن فیلم باشد؟ * بله (به سوال بعدی بروید) * خیر 2. q2. آیا تا به حال به یک مکان فیلم رفته اید که دلیل اصلی آن بازدید از آن سایت فیلم باشد؟ * بله * خیر. از نظر پاسخ افراد به این سوالات، آنها را به 3 گروه تقسیم کردم. اول کسانی که به q1 نه گفتند، دوم کسانی که به q2 بله گفتند و سوم کسانی که به q2 نه گفتند. مشکل من این است که باید از آنالیز ANOVA استفاده کنم، زیرا من 3 گروه دارم. اما من نمی دانم چگونه می توانم پاسخ این دو سوال را در یک متغیر در SPSS ادغام کنم.
کدگذاری مجدد متغیرها برای ترکیب دو سوال در SPSS
88959
من در 100 روز گذشته هر روز در حال تجزیه و تحلیل بودم که احتمال افزایش یا کاهش آن اندازه‌گیری در طول یک هفته چقدر است (مثلاً 4 بار از 7، 60٪ احتمال دارد اندازه‌گیری من بالا برود) اما نتوانستم. رکورد 10 روز متوالی، بنابراین من دوباره شروع کردم. بیایید بگوییم: * روز 1: 10 * روز 2: 11 * روز 3: 10 * روز 4: 14 ... * روز 90: 13 * روز 91: -- * روز 92: -- * ... _(روز 93 تا 99: --)_ * روز 100: -- * روز 101: 16 * روز 102: 15 * روز 103: 15 که در آن -- هیچ داده ای برای آن روز ثبت نشده است. قبل از اینکه خواندن آن آسان بود، در طول هر 7 روز متوالی، احتمال افزایش اندازه گیری x است، اما پس از شکاف، اینطور نیست، زیرا 7 روز گذشته خواندن از دست رفته است. بهترین راه برای تفسیر قرائت های از دست رفته چیست؟ آیا باید از این شکاف خلاص شوم؟
چگونه می توان شکاف ها را در سری های زمانی در نظر گرفت؟
13847
من سعی می کنم بفهمم که چگونه dinterval() در JAGS برای داده های سانسور شده کار می کند. من داده‌های درشت را مدل‌سازی می‌کنم که در آن فقط مرزهای بالا و پایین برای هر نقطه داده (نه مقدار واقعی) دارم. در اینجا یک مثال ساده از نحوه کارکرد آن وجود دارد: برخی از کران های بالا و پایین برای هر نقطه: > head(lim) L U [1,] 14.98266 15.68029 [2,] 21.21827 21.91590 [3،] 18.34953 19.047]1 19.00186 19.69949 [5،] 15.39891 16.09654 [6،] 17.81705 18.51468 تابعی برای نوشتن مدل (با فرض اینکه داده ها از یک نرمال با میانگین و واریانس مشترک آمده باشند): playmodel <- function(){ برای (i در 1:50) { is.censored[i] ~ diterval(t[i], lim[i،]) t[i] ~ dnorm(mu,tau) } mu ~ dnorm(0,001) tau ~ dgamma(.01,.01) } نام فایل <- toymod.bug write.model( toymod,filename) برخی از توابع و تکالیف برای فراخوانی jags: data <- list(lim=lim) inits <- list(mu=rnorm(1),tau=rgamma(1,.01,.01),t=as.vector(apply(lim,1,mean))) #آخرین قسمت اطمینان از اینکه مقدار شروع بین حد بالا و پایین #هر زنجیره برای t از یک مکان شروع می شود اما این فقط برای این مورد است پارامترهای <- c(mu,tau) و مدل را اجرا کنید: playmodel.jags <- jags(data,inits, params, model.file=toymod.bug, n.chains=3, n.iter=50000,n.burnin=30000, n.thin=1, DIC=TRUE, working.directory= NULL، refresh = 50000/50، progress.bar = text) وقتی این را اجرا می کنم چه اتفاقی می افتد؟ 1) تخمین من از mu دقیقاً حول 0 حرکت می کند در حالی که باید 15 باشد 2) اگر DIC=TRUE اجرا نمی شود: > خطا: خطا در jags.samples(model, variable.names, n.iter, thin, type = > trace, : تنظیم مانیتور ردیابی برای انحراف گره انجام نشد توجه: می توانم با حذف ()dinterval یک مدل مشابه در OpenBUGS اجرا کنم. خط و اضافه کردن I (پایین، بالا) به dnorm.
چگونه dinterval() برای داده های سانسور شده در JAGS کار می کند؟
93779
من کاملاً با SPSS تازه کار هستم. من یک سوال در مورد شبیه سازی دارم. آیا می توانیم برای مدل سری زمانی با استفاده از SPSS شبیه سازی کنیم؟ پیشاپیش ممنون
نحوه انجام شبیه سازی برای مدل سری زمانی با استفاده از SPSS
47027
من این سردرگمی مربوط به محاسبه یک توزیع شرطی را دارم، فرض کنید $y_n = N(0,w)$ $p(o_n|y_n) = N(D.y_n,\phi)$ چگونه $p(y_n را محاسبه کنم| o_n)$ در واقع من داشتم این مقاله مربوط به انتساب داده های گمشده را می خواندم که از همبستگی فضایی بین داده ها استفاده می کرد. http://astro.temple.edu/~tua86150/Lou_IJCAI_11.pdf. با این حال، در حالی که مقاله را مرور می کردم، این قسمت را که در آن $E(y_n|o_n)$ را محاسبه می کند، نگرفتم. هر گونه پیشنهاد بسیار قدردانی خواهد شد. در واقع، $y_n$ به عنوان متغیرهای پنهان در مقاله در نظر گرفته می شود و {$y_n,o_n$} یک مدل متغیر پنهان خطی-گاوسی را نشان می دهد. متغیرهای پنهان {$y_n$} به عنوان مستقل در نظر گرفته می شوند
سردرگمی مربوط به محاسبه توزیع شرطی
85994
لطفاً کسی می تواند رابطه (در صورت وجود) بین SUR و SOLS را روشن کند؟ آیا SOLS روشی برای تخمین SUR است؟ تفاوت بین SUR و SOLS چیست؟ همچنین آیا درست است که این روش ها نسبت به تخمین گام به گام این معادلات توسط OLS مزیت دارند، زیرا می توانیم روابط معادله متقاطع را بدست آوریم؟
رگرسیون به ظاهر نامرتبط در مقابل سیستم OLS
31579
مقدار بهینه $k$ برای طبقه‌بندی‌کننده kNN اقلیدسی بدون وزن که روی مجموعه داده‌های Iris اعمال می‌شود چقدر است؟ جایی که بهینه به معنای مقدار $k$ است که منجر به کمترین خطای تعمیم می شود.
$k$ بهینه برای طبقه‌بندی کننده نزدیکترین همسایه $k$ در مجموعه داده Iris چیست؟
89396
Multi-Armed Bandit: http://en.wikipedia.org/wiki/Multi-armed_bandit Uplift Modeling: http://en.wikipedia.org/wiki/Uplift_modelling این دو رویکرد چگونه متفاوت هستند؟ چگونه شبیه هستند؟ آیا یکی بهتر از دیگری است؟ ویرایش: اگر به یک سناریوی نمونه نیاز است، موارد زیر را در نظر بگیرید. ما تبلیغات بنری را به صورت آنلاین قرار می دهیم و می خواهیم افراد مناسب را هدف قرار دهیم. اصولاً آن دسته از افرادی که در صورت ارائه آگهی، احتمال بیشتری دارند که اقدام دلخواه خود را انجام دهند. به نظر می رسد که این یک مشکل مدل Uplift است، اما مطمئن نیستم که آیا راهزن مسلح نیز در این مورد قابل استفاده است یا خیر.
الگوریتم های راهزن چند مسلح در مقابل مدل سازی Uplift
111341
من متوجه هستم که این ممکن است یک سؤال نسبتاً گسترده باشد، اما آیا کسی می‌تواند یک رویکرد آماری مناسب برای تجزیه و تحلیل این نوع داده‌ها پیشنهاد کند؟ به عنوان مثال، آیا درصد سلول های مرده بین دوزها به طور قابل توجهی متفاوت است و آیا درصد انواع سلول ها متفاوت است؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3qr7M.png) آیا درصد کل سلول های مرده و انواعی که آن را تشکیل می دهند، متغیرهای وابسته جداگانه ای را نشان می دهند و بنابراین تجزیه و تحلیل چند متغیره را تشکیل می دهند؟
تحلیل چند متغیره؟
13845
من روی یک سیستم معاملاتی کار می کنم و باید آماری را در مورد نتایج اعمال کنم. متأسفانه پس از بیش از یک دهه پیش که دانشگاه را ترک کردم همه چیز را در مورد آمار فراموش کردم و اکنون واقعاً نمی دانم چگونه باید آنچه را که نیاز دارم محاسبه کنم. امیدوارم کسی بتونه کمکم کنه خارج از برنامه معاملاتی (در حال حاضر در حالت آزمایشی)، من سود / زیان (PL) در هر معامله و در روز دریافت می کنم. فرض کنید PL روزانه (انباشت PL کل را در دوره معین به دست می دهد) آزمایش 5 سال پیش (حدود 1250 امتیاز) دارم، بهترین راه برای پیش بینی سود کل چیست. در 6 ماه آینده (125 امتیاز جلوتر) و سال بعد (250 امتیاز جلوتر)؟ البته هر معامله ای سودآور نیست. بنابراین من معاملات با زیان و (امیدوارم) معاملات بیشتری با سود دارم. بهترین روش برای محاسبه سود در روز (با یک اطمینان خاص) چه زمانی است که فقط معاملات برنده را در نظر بگیرید، وقتی فقط به معاملات بازنده نگاه کنید چه ضرری خواهید داشت و زمانی که PL چقدر خواهد بود. هر دو معامله برنده و بازنده را با هم انجام دهید. چگونه می توانم تغییری را محاسبه کنم که در طی یک دوره زمانی X، استراتژی با درصد خاصی از قابلیت اطمینان) درآمد کسب می کند؟ علاوه بر این، من البته فقط یک استراتژی را معامله نمی کنم، بلکه چندین استراتژی را معامله خواهم کرد. بر اساس آزمایش برگشتی، چگونه می توانم احتمال اینکه پرتفولیویی که در آن معامله خواهم کرد در دوره x درآمد کسب کند و چگونه می توانم پهنای باند را برای سود مورد انتظار برای استخر محاسبه کنم؟ امیدوارم بتوانید به من کمک کنید از کدام روش استفاده کنم (به هر حال من آن را در سی شارپ برنامه نویسی خواهم کرد). * * * **نمونه‌ای از PL روزانه (برای طرح‌بندی به 0 اعشار گرد گرد شده):** DBDate PeriodToPeriodPL Accumulation 20060720 0 20060721 -1741 -1741 20060724 -725 -2027 -2060 -725 -2060 20060726 -149 -3427 20060727 -3517 -6945 20060728 2253 -4692 20060731 97 -4594 20060801 54 -4541 200606020206029 726 -3486 20060804 569 -2917 20060807 1359 -1558 20060808 -682 -2240 20060809 -635 -2874 20060810 20060810 -22815 -2720 -2720 - 20060814 -542 -3948 20060815 -1320 -5268 20060816 932 -4336 20060817 2553 -1783 20060818 -155 -1938 -2006 -155 -1938 -2006 20060822 669 -1637 20060823 433 -1204 20060824 -734 -1938 20060825 361 -1577 20060828 -479 -2056 20060606060608 -479 -479 -2056 -1268 -3686 20060831 -424 -4111 20060901 779 -3331 20060904 1857 -1475 20060905 -356 -1831 20060906 -14060906 -14094 -140906 -140906 -2452 20060908 1130 -1322 20060911 -254 -1576 20060912 -731 -2308 20060913 -442 -2749 20060914 982 -17602 -17602 -17602 20060918 1236 -1024 20060919 -842 -1866 20060920 80 -1786 20060921 -2628 -4413 20060922 185 -4228 - 20062 - 200606 377 -3963 20060927 -1806 -5769 20060928 881 -4888 20060929 -800 -5688 20061002 2010 -3677 20061003 74061003 74061003 7494 -1821 20061005 2214 393 20061006 1110 1503 20061009 1401 2903 20061010 -65 2838 20061011 -77 27612 -77 276127 20061013 -1512 462 20061016 300 762 20061017 1058 1820 20061018 1625 3445 20061019 773 4218 200624 200618 20061023 492 6564 20061024 -1063 5501 20061025 1230 6731 20061026 148 6878 20061027 11 68803 20078 - 20061 20061031 -47 5652 20061101 -484 5168 20061102 -152 5017 20061103 -998 4019 20061106 -591 3428 20091106 20061106 378 2836 20061109 1217 4052 20061110 745 4797 20061113 201 4998 20061114 -454 4545 20061115 20061115 1494 1494 20061117 -677 4151 20061120 1404 5555 20061121 864 6418 20061122 271 6689 20061123 1503 81912 2006 1503 81912 2006 20061127 2245 15014 20061128 -2902 12112 20061129 2002 14114 20061130 1108 15222 20061201 12726201 127261 18715 20061205 -1496 17219 20061206 842 18061 20061207 -1639 16422 20061208 650 17072 2006121
از چه روش هایی برای پیش بینی/پیش بینی آماری داده های معاملاتی استفاده کنیم؟
62637
من باید رابطه بین دو متغیر را شناسایی کنم. من دو مجموعه از اقدامات انجام شده توسط دو سیستم رقیب را دارم، و می خواهم مقایسه کنم که این دو سیستم چقدر به یکدیگر نزدیک هستند. در اینجا مثالی از نحوه ظاهر داده ها (مقادیر ساختگی) آمده است: اندازه گیری. ║ اندازه‌گیری-2 ║ ╠════════╬═════════════════════════ obj1 ║ 0 ║ 120 ║ ║ obj2 ║ 1 ║ 60 ║ ║ obj3 ║ 0 ║ 20 ║ ║ obj4 ║ 4 ║ 240 ║ ╚════════╩═══════════╩══════════════════╩════════╩═══════ مقیاسی که آنها استفاده می کنند، اما به احتمال زیاد یکی از سری داده های خطی و دومی در مقیاس لگاریتمی ساخته شده است. من با طرح سریال به صورت پراکنده متوجه این موضوع شدم. با استفاده از مقیاس خطی برای X و Y، این رابطه خطی نیست، زیرا منحنی به سرعت رشد می‌کند و سپس صاف می‌شود در حالی که X افزایش می‌یابد. اگر تیک مقیاس لگاریتمی را در محور Y نمودار بزنم، نقاط کاملاً تراز هستند. اولین سوال من این است که آیا این نشان می دهد که سری X از مقیاس لگاریتمی استفاده می کند؟ سوال دوم من در مورد یافتن راه مناسب برای بررسی میزان شباهت سریال ها به یکدیگر است. حدس من این است که من باید ضریب همبستگی بین هر دو سری را محاسبه کنم (یعنی یک معیار نرمال شده از نزدیک بودن دو مجموعه اندازه گیری به دست بیاورم)، اما فکر می کنم ابتدا لازم است یکی از سری های داده پردازش شود تا مقیاس مجدد شود. قبل از استفاده از تابع CORREL صفحه گسترده. من سعی کردم log() را برای یکی از سری ها اعمال کنم و همبستگی را محاسبه کنم، اما به نظر نمی رسد که نتایج مرتبطی ارائه دهد (ضریب نزدیک به 0.5 است، با وجود تراز قوی نقاط). من در مورد همبستگی رتبه پیرسون خوانده ام، اما مطمئن نیستم که چگونه آن را در اکسل محاسبه کنم.
همبستگی بین سری خطی و لاگ
5619
من می دانم که $r$ خود معیاری برای اندازه اثر است، اما می خواهم بدانم که آیا با استفاده از آزمون رتبه اسپیرمن می توانم استدلال کنم که رابطه بین X و Y با $r = 0.33$ معنی دار است و اینکه اثر متوسط ​​است. همانطور که من با تست پیرسون انجام می دهم.
اندازه اثر آزمون رتبه اسپیرمن
11568
من یک نمونه داده از متغیر تصادفی غیر منفی $X$ با توزیع ناشناخته و مقدار مورد انتظار از پیش تعریف شده $y$ دارم. آیا آزمونی وجود دارد که بتواند فرضیه صفر $\mathbb{E}[X]\geq y$ یا $\mathbb{E}[X]\leq y$ را بررسی کند؟ نمونه داده های واقعی در زمان واقعی جمع آوری می شوند. به طور خاص، فواصل بین درخواست‌های HTTP است که از یک مشتری به وب سرور می‌آیند. آزمون پیرسون نشان داد که متغیر توزیع شده نرمال نیست.
چگونه فرضیه تخمین متغیر تصادفی با توزیع مجهول را بررسی کنیم؟
38366
لطفاً فرض کنید که من دو متغیر مستقل متریک (مثلاً دو پارامتر خون) و یک متغیر وابسته (مثلاً یک بیماری) دارم. در DV، 0 نشان دهنده عدم وجود بیماری، 1 نشان دهنده یک رخداد ضعیف ... 10 (حداکثر) یک رخداد بسیار قوی است (لطفاً مفید بودن چنین ارزیابی را نادیده بگیرید). مشکل فرضی به این دلیل است که در نمونه من (N = 80)، فقط 25٪ نمره > 0 در DV دارند (یعنی 20 شرکت کننده). به هر حال، من DV را روی IV1، IV2 و تعامل IV1 و IV2 پسرفت کردم (OLS و Tobit). به نظر می رسد تعامل قابل توجه است، هیچ اثر اصلی رخ نداده است. به دلیل پایین بودن خط پایه (25% > 0 در DV)، آیا این روش مشکل ساز است؟ آیا خط پایه من خیلی پایین است؟ آیا شرکت کنندگان به اندازه کافی مبتلا به این بیماری نیستند؟ اجازه دهید فرض کنیم، در حالت ایده‌آل، همه 20 شرکت‌کننده بین 8-10 (DV) امتیاز می‌گیرند و همه 20 نفر الگوی خاصی از IVs دارند، به عنوان مثال، IV1 پایین و IV2 پایین، بنابراین این گروه، ساده شده، با # کم مقایسه می‌شود. IV1 و IV2 بالا. # IV1 کم و IV2 کم؛ # IV1 بالا و IV2 بالا. بنابراین از درک من، یک گروه 20 نفره با، در حالت ایده آل، 3 گروه 20 شرکت کننده مقایسه می شود که در تحقیقات پزشکی کاملاً رایج است. پس به نظر شما مشکلاتی وجود دارد؟ و آیا ادبیاتی پیشنهاد می کند که من مجاز (یا مجاز نیستم) داده ها را به روشی که انجام می دهم تجزیه و تحلیل کنم؟ خوب، چون من متخصص نیستم، امیدوارم که بتوانید چراغ ها را برای من روشن کنید... ممنون!
نمونه کوچک، پایه پایین در DV، به هر حال تعامل؟
5617
فرض کنید دو عامل (A و B) داریم که هر کدام دارای دو سطح (A1، A2 و B1، B2) و یک متغیر پاسخ (y) هستند. هنگام انجام یک ANOVA دو طرفه از نوع: y~A+B+A*B ما در حال آزمایش سه فرضیه صفر هستیم: 1. تفاوتی در میانگین عامل A وجود ندارد. 2. تفاوتی در میانگین عامل B وجود ندارد. 3. هیچ اثر متقابلی بین عوامل A و B وجود ندارد هنگامی که نوشته می‌شود، دو فرضیه اول به راحتی قابل فرمول‌بندی هستند (برای 1 $H_0:\; \mu_{A1}=\mu_{A2}$) اما فرضیه 3 چگونه باید فرموله شود؟ **ویرایش** : و چگونه برای مورد بیش از دو سطح فرموله می شود؟ با تشکر
فرضیه NULL برای تعامل در یک ANOVA دو طرفه چیست؟
88954
من یک مجموعه داده متشکل از تعدادی بیمارستان مختلف دارم. من سعی می کنم نسبت بیمارستان X را با نسبت کلی در مجموعه داده ها (که شامل بیمارستان X می شود) مقایسه کنم. آیا برای این کار نباید از آزمون نسبت دو نمونه استفاده کنم؟ من نگران هستم زیرا نسبت کلی شامل مشاهدات بیمارستان X است که فرض استقلال را نقض می کند. لطفاً به من بگویید از چه روشی باید استفاده کنم. همچنین، اگر قرار باشد مسائل مربوط به اندازه نمونه وجود داشته باشد (مثلاً یک بیمارستان واقعاً بزرگ تأثیر بیشتری بر نسبت کلی خواهد داشت، آیا این مشکل در مقایسه با بیمارستان‌های کوچکتر بیشتر است؟)
مقایسه نسبت نمونه با نسبت جمعیت