_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
107758 | سوال من در مورد برنامه ریزی آماری نیست. ما می دانیم که چگونه نرم افزار را در یک رگرسیون با بسیاری از متغیرهای مستقل کدنویسی کنیم. سوال من این است که چگونه نرم افزار کامپیوتری همه متغیرها را به طور همزمان کنترل می کند. درک همبستگی ساده دو متغیر آسان است، زیرا هر متغیر توجه کامل دیگری را به خود جلب می کند. با این حال، در رگرسیون چندگانه، چندین متغیر مستقل به طور همزمان به متغیر وابسته نگاه می کنند و هر کدام به دنبال این هستند که تغییر را کم کنند یا توضیح دهند، اما همه آنها نمی توانند با متغیر وابسته در عمل باشند. همان زمان اگر به یک متغیر مستقل دادهشده اولویت داده شود تا اولین کسی باشد که با متغیر وابسته تعامل میکند، و سهم خود را از متغیر وابسته «برداشته» میکند، آنگاه آنچه را که حذف میکند به درستی واجد شرایط توضیح سایر مستقل نخواهد بود. متغیرها، همانطور که عادلانه باید باشد. حس شهودی من از آنچه اتفاق می افتد باید اشتباه باشد، و من به پاسخی نیاز دارم که شامل فرمول نباشد. چالش پیش روی حرفه معلمی این است که چگونه می توان ایده های پیچیده را به صورت روایی یا استعاری برای تحلیلگرانی که حس سریع و شهودی برای توضیح نمادین ندارند، توضیح داد. یک سوال مرتبط این است: آیا این فرآیند تکراری است که تقریبهای اولیه (بتاها) انجام میشود، و به تدریج تنظیم میشوند زیرا هر یک از متغیرهای مستقل دیگر اطلاعات بیشتری را به تخمینهای بتا اولیه اضافه میکنند؟ | چگونه کنترل متغیرها در رگرسیون چندگانه کار می کند؟ |
94691 | من سعی میکنم بر روی دادههایم که از اندازهگیری لیپیدها در نمونههای مختلف به دست میآید، آنالیز کامپیوتری انجام دهم. من فقط یک عامل دارم: اگر نمونه ها دیابتی باشند یا غیر دیابتی. این نمودار PCA است که من دریافت می کنم:  همانطور که می بینید، داده ها به هیچ وجه خوشه بندی نمی شوند! برای آن چه باید بکنم؟ آیا تجزیه و تحلیل دسته بندی دیگری وجود دارد که بتوانم به جای PCA از آن استفاده کنم؟ | مشکل با PCA |
45878 | من ANOVA را در SPSS و سپس در R انجام میدادم و در کمال تعجب، نتایج آخرین نسخه R نادرست بود. هنگامی که از تابع model.tables(xmeans) برای بدست آوردن آمار توصیفی استفاده می کنم، میانگین متغیر مستقل وابسته دوم کمی نادرست است (مثلاً 129 به جای 130.27). سوال من این است که چه چیزی می تواند باعث مشکل شود؟ من یک مبتدی به R هستم اما با استفاده از همان داده ها، SPSS به درستی نتیجه را دریافت می کند، بنابراین واضح است که چیزی اشتباه است. `head(data)`: skupina pohlavie zodpovedny 1 1 1 152 2 1 1 118 3 2 2 88 4 2 1 140 کد: x <- aov(zodpovedny ~ pohlavie*skupina,data=data) model.tables(x معنی) مشکل نشان داده شده است:  | R model.tables() به معنای نادرست - اشکال احتمالی است؟ |
45870 | من سعی میکنم تخمینهای حداکثر احتمال را در یک مدل SDM شناسایی کنم (مدل قیمت خانه لذتبخش، با مشاهدات 5000 خانه جداگانه)، $$y=\rho W y + X\beta + WX\lambda + \epsilon$$ تابع درستنمایی این مدل $$\ln(\mathcal{L}) = \dfrac{n\ln(\pi\sigma^2)}{2} + است. \ln|I - \rho W| + \dfrac{e'e}{2\sigma^2} $$ با $e= y - \rho W y - X\beta - WX\lambda$ من توانستم با موفقیت پارامترهای $\rho، \beta را تخمین بزنم ,\lambda$ با استفاده از تابع 'lagsarlm' در بسته 'spdep'. در مورد من، $W$ یک ماتریس فاصله معکوس محدود به شعاع $r$ یا $$W_{ij} = \begin{cases} 1/d_{ij} & \text{برای $d_{ij} \ leq r$ miles}\\\ 0 & \text{for $d_{ij} > r$ miles} \end{cases}$$ من میخواهم $r$ را همزمان با $\rho، \بتا،\lambda$. من حتی یک تابع احتمال برای انجام این کار در R نوشته ام (استفاده از همسایگان و توابع تاخیر در spdep) sdm.lik <- function(params, y, X, GeoPoints){ n <- length(y) rho <- params[1] شعاع <- params[2] sigma2 <- params[3] delta <- params[-c(1,2,3)] # make W موضوع به radius points.dnn <- dnearneigh(GeoPoints, 0, radius*5280) dists <- nbdists(points.dnn, GeoPoints) dists.inv <- lapply(dists, function(x) 1/x) Wlist <- nb2listw( points.dnn، glist=dists.inv، style=W، zero.policy=TRUE) W <- listw2mat(Wlist) # Lag X متغیر Z <- cbind(X[,1], lag.listw(Wlist, X[,1], zero.policy=TRUE)) for(i در 2:ncol(X)){ Z <- cbind(Z, X[,i], lag.listw(Wlist, X[,1], zero.policy=TRUE)) } # محاسبه احتمال ثبت گزارش e <- y - ((rho * W) %*% y) - (Z %*% delta) lagmatrix <- diag(1,nrow=length(y), ncol=length(y)) - rho*W logL <- ( -0.5*n*log(pi * sigma2) + log( det(lagmatrix) ) -(t(e) %*% e) / (2*sigma2) ) return(-logL) } بهینه سازی این تابع بسیار آهسته تر از آن است که عملی باشد. جای تعجب نیست که بالاترین هزینه عملیات، عامل تعیین کننده گزارش است. 1. آیا نکاتی برای محاسبه سریعتر این تعیین کننده دارید؟ 2. آیا «lagsarlm» از قبل قابلیتی برای انجام این کار دارد؟ 3. آیا می توانم آن را هک کنم تا این کار را انجام دهد؟ | برآورد MLE شعاع اثرات فضایی |
81756 | اجازه دهید برای شما مثالی بزنم تا نشان دهم در تلاش هستم. فرض کنید 50 بیمار درمان یک بیماری را شروع کردند و 2 ماه طول کشید. بنابراین، من می خواهم اندازه تومور ماه اول را با اندازه تومور ماه دوم برای هر یک از 50 بیمار مقایسه کنم. و باید بتوانم به بیماران بگویم که اندازه تومور در طول دوره درمان پایدار است/افزایش/کاهش مییابد. من اطلاعات 50 بیمار دارم که تاثیر درمان را در ماه اول و ماه دوم توصیف می کند. به عنوان مثال، دادهها مانند شناسه بیمار ماه اول به نظر میرسند اندازه حجم تومور 1 1 90 1 1 89 1 1 88 2 1 90 2 1 90 2 1 91 1 2 75 1 2 80 1 2 83 2 2 98 2 2 95 2 2 97 .. .. .. .. .. 50 2 67 در اینجا اگر ماه اول 1 باشد یعنی در ماه اول است، 2 یعنی در ماه دوم درمان است. و شناسه ها فقط عددی هستند که نشان دهنده هر بیمار است. بیش از 3 اندازه گیری برای هر بیمار وجود دارد، اما من فقط 3 مورد از آنها را برای اختصار نشان داده ام. چگونه ماه اول درمان را با ماه دوم درمان بیماری مقایسه کنیم؟ من از A one way Anova برای مقایسه ماه اول با ماه دوم با استفاده از اندازه حجم تومور به عنوان متغیر وابسته و ماه اول به عنوان عاملی در SPSS استفاده کردم. نتایج نشان می دهد که بین ماه اول اندازه تومور و ماه دوم اندازه سرطان برای همه بیماران تفاوت معنی داری وجود دارد. اما، من شناسه بیمار را در SPSS وارد نکردم، آیا باید از آن استفاده کنم؟ آیا باید داده های ماه اول هر بیمار و ماه دوم دوره درمان را جداگانه مقایسه کنم؟ بنابراین، به جای داشتن یک نتیجه آزمایش آنووا، آیا باید 50 (تعداد بیماران) نتیجه آنووا داشته باشم تا بگویم تفاوت ها قابل توجه است؟ | |
15878 | اگر یک مدل رگرسیونی وجود داشته باشد که در آن $Y = a + bX$ که در آن $a = 1.6$ و $b=0.4$ است، دارای ضریب همبستگی $r = 0.60302$ است. اگر $X$ و $Y$ عوض شوند و معادله $X = c + dY$ می شود که در آن $c=0.4545$ و $d=0.9091$ می شود، همچنین دارای مقدار $r$ 0.60302$ است. امیدوارم کسی بتواند توضیح دهد که چرا $r=(d\times b)^{0.5}$ نیز 0.60302$ است. | چرا جذر حاصل ضرب دو ضریب رگرسیون، یکی از X که Y را پیش بینی می کند و بالعکس برابر با همبستگی است؟ |
15879 | من از یک برنامه رایگان مخفی خارج از اینترنت به نام stable.exe استفاده میکنم که سعی میکنم منحنی توزیع پایدار را به یک مجموعه داده برسانم، اما در وارد کردن فایل مجموعه داده به برنامه با مشکل مواجه هستم. وقتی برنامه از من میخواهد فایل را وارد کنم، تست پایدار 1 را وارد میکنم، که نام مجموعه داده است (یک سند دفترچه یادداشت متشکل از یک ستون 20 عددی، در همان فهرست کاری برنامه). سپس پیام خطا در خواندن فایل را منتشر می کند. من سعی کردم دایرکتوری را به عنوان 'C:\...etc...\stable test 1' و غیره مشخص کنم، اما فایده ای نداشت. اگر کسی تجربه ای با این برنامه زیبا و در عین حال تا حدی معمایی داشته باشد، یا به طور کلی دانشی فراتر از آن داشته باشد، از راهنمایی شما سپاسگزار خواهم بود. همچنین، فایل read me برای برنامه میگوید که برنامه آخرین عدد در مجموعه داده را نمیخواند مگر اینکه بعد از آن یک carriage return قرار دهم. آیا کسی می تواند توضیح دهد که بازگشت کالسکه چیست؟ | مشکل در استفاده از نرم افزار توزیع پایدار پارتو |
83868 | دو سوال ساده در پایان وجود دارد، اما فکر میکنم بیان پیشزمینهای که به آنها انگیزه داده است نیز مفید باشد. از این سوال در مورد یک پیشبینی غیرمنتظره از روش کاملاً خودکار پشت تابع forecast::ets در R ناشی میشود. کد، نمودار و پیشبینی برای راحتی در زیر آمده است: library(forecast);options(scipen=999) usage <- ts(scan('http://cl.ly/102L0j3o1p2m0m3p0t2o/usage')، فرکانس = 24) plot(f1<-پیش بینی(m1<-HoltWinters(استفاده)، h = 168)) نمودار(f2<-پیش بینی(m2<-ets(استفاده)، h = 168));AIC(m2) #replication OK  plot(f3<-forecast(m3<-ets(usage,additive.only=TRUE), h = 168)) plot(f4<-forecast(m4<-ets(usage,additive.only=TRUE,damped=FALSE) ، h = 168)) فقط با نگاه کردن به نمودار داده ها بلافاصله به نظر می رسد که ARIMA(0,2,2) یا ETS(AAN) جزو بهترین مدل های غیر فصلی باشند (و پیش بینی امتیاز آنها تفاوت چندانی نخواهد داشت). با پیروی از توصیه های معمول مبنی بر اینکه AIC فقط مجموعه کوچکی از مدل های بالقوه مفید باید مقایسه شود، نمی توانم دلیلی برای در نظر گرفتن مدل های ضربی در اینجا ببینم، و همچنین نمی توانم ببینم چگونه یک پیش بینی میرایی برای من مفید خواهد بود. با این اطلاعات، بهترین ets مدل m4 و پیشبینی f4 مرتبط با آن همان چیزی است که انتظار میرفت، اما این فرآیند کاملاً خودکار نیست. با تعداد زیادی سری زمانی، که من وقت یا تمایلی برای بررسی آنها ندارم، به سختی گزینه بهتری از استفاده کورکورانه از ets (داده) خواهم داشت. صفحه مستندات ets به من اطمینان می دهد که _روش کاملا خودکار است. تنها آرگومان مورد نیاز برای ets سری زمانی است. اگر مشخص نشده باشد مدل به طور خودکار انتخاب می شود_. مثال بالا اولین موردی نیست که نشان میدهد روشی که کار میکند در بهترین حالت نیمه خودکار است و نمونه کاملاً خودکار ممکن است حتی در موارد سادهتر مطابق انتظار عمل نکند. یکی از راههای رفع مشکل، در نظر گرفتن n مدل $\ge$ 1 با مقادیر مناسب AIC پایین است که به همان اندازه توسط دادهها پشتیبانی میشوند. من با RJH موافقم (_اگرچه مدل ممکن است بهترین AIC را ارائه ندهد، ممکن است پیش بینی هایی را ارائه دهد که برای شما مفیدتر باشد. . اما پس از آن ما این سوال را داریم که چه زمانی AIC برای انتخاب مدلی که بهترین پیش بینی را انجام می دهد مفید است. مثلاً از نقل قولهای موجود در این سؤال میتوان نتیجه گرفت که اگر AICهای همه مدلهای در نظر گرفته شده بیش از مقداری کوچک c تفاوت نداشته باشند، AIC قدرت خود را برای تمایز بین این مدلها از دست میدهد و سایر عوامل/ایدهها باید در نظر گرفته شوند. . اما c چقدر کوچک است؟ کسانی که با آکایکه کار می کنند (Y Sakamoto و M Ishiguro و G. Kitagawa) در کتابی با عنوان Akaike Information Criterion statistics (در قسمتی با عنوان Some remarks on use of AIC) به c=1 اشاره کردند. عدد c=2 اغلب ذکر میشود (مثلاً نقل قولی از برایان ریپلی را میتوان به آن دو مرتبط با بالا اضافه کرد). عدد c=4 را کریس چتفیلد در یکی از کتاب هایش ذکر کرده است. من هیچ چیز واضحی در مورد مقادیر c بزرگتر از چهار ندیدهام، اما این احتمالاً به متغیر بودن دادهها، خطای نمونهگیری انحراف و عوامل مرتبط بستگی دارد. در مثال بالا، AIC(m3,m4) نشان میدهد که AIC مدل با پیشبینی مفیدتر از AIC مدل دیگر با فقط 78348.75-78337.22=11.52 بیشتر است. آیا هیچ فرمول، دستورالعمل یا قانون کلی برای مقادیر مفید داده های c وجود دارد؟ آیا مقادیر c بزرگتر از چهار در ادبیات ذکر شده است؟ | چه زمانی AIC قدرت خود را در تشخیص مدل ها از دست می دهد؟ |
58218 | از یادداشتی توسط Jun Shao > اگر $V(X)$ یک آمار فرعی غیر پیش پا افتاده است، آنگاه $σ(V(X)) ⊂ σ(X)$ یک > غیر بی اهمیت σ-فیلد است که **هیچ اطلاعاتی ندارد. حدود** $P$. من تعجب کردم که فیلد σ آمار $V(X)$ حاوی هیچ اطلاعاتی در مورد توزیع $P$ از $X$ نیست به چه معناست؟ 1. من یاد گرفتم که فیلد σ خودش اطلاعات را نشان می دهد، اما مطمئن نیستم که میدان σ $V(X)$ حاوی اطلاعاتی در مورد توزیع X$ نیست. 2. آیا اطلاعات در اینجا به معنای اطلاعات فیشر است؟ با تشکر و احترام | |
78667 | هنگام تولید تغییرات تصادفی از توزیعهای حاشیهای مختلف با استفاده از روش NORTA (Normal-to-Anything)، همانطور که در Cario & Nelson 2007 توضیح داده شد، چرا $\varrho$ مورد نیاز است؟ > برای تنظیم این همبستگی، میتوانیم توجه را به تنظیم $\ > E[X_iX_j]$ محدود کنیم، زیرا > > $$ Corr[X_i; X_j ] = \frac{E[X_iX_j]-E[X_i]E[X_j]}{\sqrt{Var[X_i]Var[X_j]}} > $$ > > و $\ E[X_i]$، $\ E[X_i]$، $\ Var[X_i]$ و $\ Var[X_i]$ توسط $\ > F_{X_i} $ و $\ ثابت میشوند F_{X_j} دلار. سپس، از آنجایی که $\ (Z_i، Z_j)$ دارای استاندارد > توزیع نرمال دو متغیره با همبستگی $\ Corr[Z_i; Z_j ] = (Z_i، > Z_j)$، داریم > > $$ E[X_iX_j] = E \Bigl\\{ F^{-1}_{X_i}[\Phi(Z_i)]F^{-1 }_{X_j}[\Phi(Z_j)] > \Bigl\\} $$ $$ = \int_{-\infty}^{\infty}\int_{-\infty}^{\infty} > F^{-1}_{X_i}[\Phi(Z_i)]F^{-1}_{ X_j}[\Phi(Z_j)]\varphi_{\varrho > z(i,j)}(z_i,z_j)dz_idz_j $$ > > کجا $\ \varphi_{\varrho z(i,j)}(z_i,z_j) $ دو متغیره استاندارد > تابع چگالی احتمال عادی (pdf) با همبستگی $\ \varrho z(i,j) > $ است. **ما فقط به توزیعهایی علاقهمندیم که این انتظار برای آنها وجود دارد** آیا نمیتوان با وارد کردن پارامترهای مورد نیاز مستقیماً به یک کوپول گاوسی، متغیرهای مورد نظر را ایجاد کرد؟ برای مثال، همبستگی 0.5- با U(10) و Expo(10). مثال MATLAB در زیر. corrZ = [1 -0.5;-0.5 1]; اندازه = 200; Z = mvnrnd([0 0]، corrZ، اندازه); X(:،1) = expinv( normcdf(Z(:،1))، 10); X(:،2) = unidinv(normcdf(Z(:،2))، 10); X mean(X) scatter(X(:,2),X(:,1)) آیا $\varrho$ واریانس ها و میانگین های حاشیه ها را حفظ می کند؟ من چی رو اشتباه میفهمم یک سوال دیگر: وقتی مقدار پیدا شده برای $\varrho$ در خارج از (-1,1) قرار دارد به چه معناست؟ من حاشیه هایی دارم که یافتن ریشه برای $\varrho$ را غیرقابل حل می کند. چرا این اتفاق می افتد؟ در صورت نیاز می توانم بیشتر توضیح دهم. | |
61234 | من 10 ویژگی بیولوژیکی مختلف دارم (به عنوان مثال: طبیعی، بیماری 1، بیماری 2، ...، بیماری 9). نمونه های بافتی از بیماران مختلف تصویربرداری شد و 60 پارامتر تصویربرداری اندازه گیری شد. یک پزشک مناطق مختلف در بافت تصویربرداری شده را به عنوان طبیعی یا بیمار شناسایی کرد (1-9). من می خواهم بدانم که آیا پارامترهای اندازه گیری شده می توانند بین شرایط مختلف بافت تمایز قائل شوند یا خیر. من نمی دانم که آیا این پارامترها مستقل از یکدیگر هستند یا خیر. هزاران مقدار (برای هر پارامتر) به یک وضعیت بافت اختصاص داده شده است. اما این داده ها با تصویربرداری از چند نمونه بافت به دست آمده است. برای تعیین اینکه آیا 60 پارامتر از نظر آماری بین 10 ویژگی مختلف تفاوت معنی داری دارند، از چه نوع آزمون آماری باید استفاده کنم؟ آیا چیزی در متلب وجود دارد؟ من به anovan.m فکر می کردم، اما مشخص نیست که چگونه باید از آن استفاده کنم. | |
107880 | من در تلاش هستم تا با استفاده از 8 متغیر کلان اقتصادی، یک رگرسیون پیشبینیکننده OLS روی بازده سهام برای 7 کشور اجرا کنم. من قبلاً تجزیه و تحلیل رگرسیون خطی ساده را انجام داده ام که وجود یا عدم وجود قدرت پیش بینی را برای هر متغیر در هر کشور برجسته کرده است و از مشکلات مختلف سوگیری نمونه و داده کاوی آگاه هستم که می توان با یک روش بوت استرپ قوی به آنها پرداخت. با این حال، به من توصیه شده است که یک تجزیه و تحلیل پانل را برای جستجوی یک تاریخ استراحت مشترک در دادهها در سراسر کشورها اجرا کنم، و من در مورد نحوه انجام این کار توصیه میکنم. من رگرسیون OLS ادغام شده را اجرا کردم و رگرسیون اثرات ثابت را اجرا کردم که کمی خطاهای استاندارد را افزایش داده است و هر دو تست توانایی پیش بینی فردی متغیرهای مشابه (نرخ بهره، تیبل و شاخص اطمینان تجاری) را تایید می کنند. رگرسیون خطی ساده قبلی مشکل اصلی من این است که چگونه می توان این شکست ها را در OLS ساده و پانل OLS شناسایی کرد. درک من این است که اگر وقفه هایی وجود داشته باشد، یک تکنیک خارج از نمونه اجازه می دهد تا پارامترهای موجود در رگرسیون پیش بینی در طول زمان تغییر کنند. من از نظر آماری چندان عالی نیستم، اما هر اشارهای در جهت درست بسیار قدردانی میشود | |
67106 | من باید متغیرهای تصادفی تولید شده از یک توزیع chi را تولید کنم (*نه** chi-squared!). به نظر نمی رسد مکانیزم استانداردی در C++ در (به عنوان مثال) Boost::Random وجود داشته باشد و از این رو من به دنبال پیاده سازی جایگزینی هستم که در C++ (یا یک زبان به راحتی سازگار مانند C یا FORTRAN) پیاده سازی شود. یک مقاله در ACM TOMS در مورد این موضوع وجود دارد. یا، آیا باید به سادگی جذر یک متغیر تصادفی مجذور کای، که چندین پیاده سازی از آن وجود دارد، بگیرم؟ که به احتمال زیاد سریعترین است - متأسفانه، باید تعداد زیادی از آنها را ترسیم کنم. * * * **به روز رسانی:** در پاسخ به نظرات زیر، اینها نکاتی برای برنامه خاص من هستند: * من به دنبال یک پیاده سازی سازگار با C/C++ یا جزئیات کافی برای برنامه ریزی خودم هستم. * برنامه حساس به CPU است و بر روی یک پلتفرم تعبیه شده متوسط (400 مگاهرتز با یک FPU دو برابر اسکالر و حافظه پنهان محدود، اما بدون sqrt()، sin()، exp() یا دستورالعمل های مشابه اجرا می شود. از آنجایی که پیشبینی زمان اجرا واقعی آسان نیست، من به دنبال الگوریتمهایی هستم که _در میان_ سریعترین و شناخته شدهترین الگوریتمهایی هستند که عملکرد خوبی دارند. من می توانم هر یک از اینها را با سخت افزار خودم ارزیابی کنم. * از قبل امکاناتی برای تولید اعداد تصادفی یکنواخت و معمولی دارم. در صورت لزوم می توانم مجذور کای بگیرم. * DoF همیشه یک عدد صحیح است، معمولاً بین 15 و 39. پاسخی که من می پذیرم دارای محتوای زیر خواهد بود: * کدام روش ها سریع در نظر گرفته می شوند و چگونه اجرا می شوند؟ * آیا آنها در غیر این صورت دارای معایب شناخته شده ای هستند (مثلاً ثبات عددی)؟ * آیا روش هایی وجود دارد که به طور خاص باید از آنها اجتناب کرد؟ | |
70837 | مقاله Hausman, Hall, and Griliches (1984) مدل های اقتصادسنجی برای داده های شمارش با کاربرد در رابطه حق اختراع- تحقیق و توسعه به نمونه متعارف MLE شرطی مدل پانل شمارش با اثرات ثابت تبدیل شده است. در ضمیمه B، هاسمن و نیوی آزمایشی را برای همبستگی سریال برای این مدل اثرات ثابت ایجاد کردند. من باید پیادهسازی یا پیادهسازی این آزمون را پیدا کنم، و در محاسبه نحوه محاسبه $\hat{V}_m$، واریانس-کوواریانس مجانبی این بردار $m_i(\beta)$ مشکل دارم. جمله آخر می گوید که B.3 مشابه آزمون ضریب لاگرانژ است و می توان آن را از طریق رگرسیون محاسبه کرد. چه قهقرایی؟ اصلا برام واضح نیست به شرطی که من سعی می کنم $\hat{V}_m$ را محاسبه کنم. قطعه ای که اکنون گم می کنم این است که چگونه $U_i{(\hat{\beta})}$ را محاسبه کنم. آیا این فقط بردار امتیاز احتمال چندجمله ای در 2.5 است؟ فکر میکنم اشتباه میکنم، زیرا به نظر من این با $m_i(\hat{\beta})$ سازگار نیست؟ پیوند به مقاله | آزمون هاسمن-نیوی برای همبستگی سریال در پواسون با اثرات ثابت |
77489 | چرا مرسوم است که از میانگین مربع خطا به جای میانگین خطای مطلق (مقدار مطلق هدف - خروجی) استفاده شود؟ به طور خاص در شبکه های عصبی - آیا ربطی به مشتق راحت آن دارد؟ | منطق پشت MSE |
45193 | متوجه شدم که تابع jags() در بسته R2jags گاهی اوقات حتی با گزینه n.burnin=## سوختگی را تا حدی حذف نمی کند. در اینجا یک مثال بسیار ساده در `R` (یک مدل خطی ساده): library(R2jags) N <- 1000 y <- rnorm(N) x <- rnorm(N) داده <- list(N, y ، x) پارامترهای <- function(){list(beta0=rnorm(1), beta1=rnorm(1), tau=1)} <- c(beta0, beta1، tau) مدل `m.bug` به این صورت است: model{ for (i in 1:N){ y[i] ~ dnorm(mu[i], tau) mu[i] <- beta0 + beta1*x[i]} beta0 ~ dnorm(0، 0.00001) beta1 ~ dnorm(0، 0.00001) تاو ~ dgamma(0.001, 0.001) sigma2 <- 1/tau } با استفاده از jags() در بسته `R2jags` مانند این: m <- jags(داده ها، inits، پارامترها، m.bug، n.chains=3 ، n.iter=2000، n.burnin=1000، n.thin=1) سوال من: در خروجی «m»، تخمینهای پسین بر اساس تعداد مناسب بینالملل (1000) است، اما اگر ردی پلات را بررسی کنیم (با استفاده از «traceplot(m)»)، بخش سوختگی همچنان وجود دارد (مثلاً چند مقدار اول) برای tau همگرا نیستند). چرا؟ و تنها یک نوار پیشرفت وجود دارد (معمولاً دو نوار، یکی برای سوختن، یکی برای بقیه). همچنین، اگر «n.iter=2000، n.burnin=1000» را به «n.iter=2001000، n.burnin=2000000» تغییر دهم، زمان سپری شده تغییر نمی کند، که برای تکرارهای زیاد «خیلی سریع» است. ps. من از «R» نسخه 2.15.2 و «R2jags» نسخه 0.03-08 استفاده کردم | R2jags گاهی اوقات سوختگی را تا حدی برطرف نمی کند؟ |
92286 | من مدت زیادی است که از تابع CORREL() در اکسل استفاده می کنم. من فقط می خواستم به صورت نیمه دستی همبستگی را برای سرگرمی محاسبه کنم، و مقداری که به دست آوردم با مقداری که از تابع CORREL() دریافت می کنم مطابقت نداشت. دادههای من در اینجا است: x 18787 27769 32330 7832 27815 26075 98294 31807 y 329 371 371 112 267 332 386 379. و از فرمول اکسل برای همبستگی «0 معتبر، CORR5» استفاده میشود. ضریب لحظه-محصول پیرسون `= COVAR(X,Y) / (STDEV(X)*STDEV(Y))` = 0.46207 ظاهراً بین نتایج تفاوت معنی داری وجود دارد. | اعتبارسنجی همبستگی در اکسل |
41354 | من با آمار و SPSS نسخه 20 تازه کار هستم. من در حال انجام تجزیه و تحلیل بقا - KM و رگرسیون کاکس با SPSS هستم. من سعی می کنم مدل های کاکس را با متغیرهای مختلف بسازم - بالینی، ژنتیکی و غیره. من علاقه مندم بدانم که هر یک از این مدل ها چقدر قادر به پیش بینی وقوع متاستاز هستند. سوالات من این است: 1. آیا می توان این کار را با SPSS انجام داد؟ 2. آیا راهی برای ذخیره نتیجه پیش بینی شده مدل در حین انجام رگرسیون کاکس وجود دارد؟ من دیدم که وقتی رگرسیون لجستیک چند جمله ای را در SPSS انجام می دهم، می توانم دسته پیش بینی شده را ذخیره کنم و آن را با دسته واقعی مقایسه کنم. من این گزینه را در Cox ندارم. 3. آیا می توان منحنی های ROC را برای مدل های مختلف کاکس درست کرد و سپس سطح زیر منحنی را برای مدل های مختلف مقایسه کرد؟ من مطمئن نیستم که این راه را به درستی دنبال می کنم. | مقایسه مدل های کاکس |
91733 | من از جعبه ابزار رگرسیون فرآیند گاوسی از سایت http://www.gaussianprocess.org/gpml/code/matlab/doc استفاده می کنم. با این حال من نمی توانم مقدار ضریب همبستگی را بدست بیاورم. من یک مجموعه داده آموزشی با n=64 و d=5 دارم. من از توابع میانگین، کوواریانس و درستنمایی زیر استفاده می کنم. مجموعه داده های تست با n=30، d=6 است. میانگین = {@meanPoly ,2}; hyp.mean = [1;1;1;1;1;1;1;1;1;1;1;1] cov = {'covSEiso'};ell=1/4، sf=1 hyp.cov = ورود به سیستم ([ell;sf]) lik = @likGauss; sn = 0.1; hyp.lik = log(sn) سپس با استفاده از تابع مینیمم کردن مانند نزول رگرسیون، hyp = Minime (hyp، @gp، -50، @infExact، میانگین، cov، lik، x، y) را ارائه داد. [ymu ys2 fmu fs2 lp] = gp(hyp, @infExact, mean, cov, lik, x, y, xs, ys) سعی کردم پارامترهای hyper را به صورت دستی تغییر دهم اما زمان بر است و به هیچ نتیجه مثمر ثمری منجر نشده است. تا کنون اگر بتوانید خطایی را که در پیاده سازی کد انجام می دهم را به من نشان دهید، واقعا ممنون می شوم. | فرآیند گاوسی، انتخاب فراپارامترها |
15870 | فایل های Stata ADO به چه زبانی نوشته می شوند؟ من به svy.ado نگاه می کنم و کنجکاو هستم که به چه زبانی است؟ آیا این چیزی است که توسط شرکت Stata ساخته شده است؟ | زبان فایل های ADO Stata |
81753 | من سعی می کنم PCA را در MATLAB با استفاده از داده های عنبیه فیشر پیاده سازی کنم. من در یافتن درصد واریانس در تجزیه و تحلیل مؤلفه اصلی مشکل دارم. من نتیجه زیر را دریافت می کنم: pc = 0.3614 0.6566 -0.5820 0.3155 -0.0845 0.7302 0.5979 -0.3197 0.8567 -0.1734 0.0762 -0.475854 -0.47958 - 0.3158 0.7537 نهفته = 4.2282 0.2427 0.0782 0.0238 ans = 0.9246 0.9777 0.9948 1.0000 حالا چگونه درصد واریانس را انتخاب می کنید؟ (در مجموعه داده هولد 98٪ است، اما من همچنین نمی دانم چرا 98٪ است.) | |
15875 | من مجموعهای از آزمایشهای مستقل با توزیعهای مختلف دارم و سعی میکنم تعیین کنم کدامیک بالاترین میانگین بازده را دارد. من می خواهم این را به عنوان یک مشکل راهزن چند دستی در نظر بگیرم، اما تنظیم کمی غیر معمول است. در هر تکرار، 2 آزمایش را انتخاب میکنم، هر کدام بهطور تصادفی مجموعهای از آیتمها را تولید میکنند، سپس یک آیتم از بین مجموعههای اقلام ترکیبی انتخاب میشود و آزمایشی که مورد انتخابی را تولید میکند، برنده است. ممکن است برای هر دو آزمایش مجموعه ای یکسان (یا مشابه) از آیتم ها تولید شود و اگر آیتم برنده در هر دو آزمایش بود، قرعه کشی است. من میتوانم احتمال همپوشانی را برای همه جفتهای آزمایش پیگیری کنم، اگر منطقی باشد که آزمایشهایی که مجموعههای آیتمهای یکسانی را ارائه میدهند، اطلاعات کمی ارائه میدهند و آزمایشهایی که آیتمهای بسیار متفاوتی را تولید میکنند، سهم قابلتوجهی دارند. ایده اولیه من این بود که جفت آزمایشی را انتخاب کنم که $$ \text{UCB}(E_i) \text{UCB}(E_j) \hat{diff}(E_i, E_j) $$ را به حداکثر میرساند، اما در توجیه این یا یافتن هر کدام مشکل دارم. محدوده آیا کسی چیزی مشابه دیده است یا ایده ای دارد که چگونه باید ادامه دهم؟ | راهزن چندبازویی جفت شده |
110575 | برایم جالب بود که بدانم آیا دادههای تاریخی شروع باران موسمی در هر سال دارم (که شروع هر سال در روز جولیان است) و میخواهم یک رگرسیون شروع در برابر زمان انجام دهم تا بررسی کنم که آیا شروع موسمی در طول زمان تغییر کرده است یا خیر. چه نوع رگرسیون باید انجام دهم؟ من در ابتدا فکر میکردم که یک رگرسیون خطی معمولی انجام میدهم، اما سپس در مفاهیم آماری گیج شدم. آیا نباید به جای آن یک رگرسیون پواسون انجام دهم زیرا شروع یک داده شمارش است؟ اگر این سوال خیلی احمقانه به نظر می رسد عذرخواهی می کنم. با تشکر | رگرسیون خطی یا پواسون برای شروع موسمی |
83864 | من در حال حاضر کتاب زیر را می خوانم: * کارآزمایی های بالینی: راهنمای عملی برای طراحی، تجزیه و تحلیل و گزارش توسط Duolao Wang، Ameet Bakhai (2006) در صفحه 243-244 نمونه ای در مورد آزمون log-rank وجود دارد. آماره آزمون log-rank با علامت مربع کای نشان داده می شود و به صورت زیر محاسبه می شود: :  و  من نمی خواهم بر روی ایده پشت این فرمول ها و آنچه که هر نماد مخفف آن است تمرکز کنم. من جدول زیر را به شما میدهم، بنابراین نیازی به محاسبه $d_j$ و $n_{1j}$ نیست. $n_j$.  شاید خواندن آن دشوار باشد، اما ستون های درمان A به نمایه 1 و ستون های درمان B به نمایه 2 ارجاع داده می شوند. * *به نظر من فرمول داده شده برای محاسبه $e_{1j}$ اشتباه است.** به عنوان مثال. بیایید 2 j اول را در نظر بگیریم: $e_{11}=\frac{n_{11}-d_1}{n_1}=\frac{17-1}{34}=0.47$ و این $!=0.5$ $e_ است {12}=\frac{n_{12}-d_2}{n_2}=\frac{16-1}{31}=0.484$ و این $!=0.5161$ است به نظر من، فرمول صحیح این است: $e_{1j}=\frac{d_j}{n_j}*n_{1j}$ من این را برای زمان (ماه) =23 (j=7) بررسی می کنم ) و 27 (j=8): $e_{17}=\frac{d_7}{n_7}*n_{17}=\frac{1}{20}*13=0.65$$e_{18}=\frac{d_8}{n_8}*n_{ 18}=\frac{1}{19}*13=0.6842$ و در واقع، اینها مقادیر داده شده در جدول هستند. **چه می گویید؟** ویرایش: البته باید بگویم که جدول از کتاب است. | خطا در فرمول کتابها در مورد آزمون لگ رتبه؟ |
70838 | چگونه می توانیم تاریخ تولد یک نام مشخص را استنباط کنیم؟ چگونه باید این مشکل را مدل کنم؟ آیا باید یک مقدار واحد استنباط کنم که خود سن را توصیف کند؟ | چگونه سن افراد را با استفاده از نام خود تخمین بزنیم؟ |
7664 | در بسیاری از موارد، اگر هسته آن را بشناسیم و با یک خانواده شناخته شده مطابقت دارد، عملاً مجبور نیستیم به طور صریح ثابت عادی سازی یک توزیع خاص را محاسبه کنیم. آیا نامی برای این ترفند وجود دارد که بتوانم جستجو کنم و در مورد آن بیشتر مطالعه کنم؟ فکر نمیکنم چیز خیلی عمیقی در آن وجود داشته باشد، اما فکر کردم که باید نامی داشته باشد. با تشکر | آیا نامی برای اصل هسته وجود دارد؟ |
15872 | من یک سوال در مورد فواصل اطمینان دارم. > به طور کلی فواصل اطمینان باز است یا بسته؟ | آیا فواصل اطمینان باز است یا باز؟ |
18935 | من یک سوال در مورد بسته RTextTools دارم. زمانی که کتابهای درسی و ویکیپدیا را مطالعه میکردم، تصور میکردم که طبقهبندی متن به معنای تعریف طبقهبندیکننده است. در RTextTools شما اسناد یادگیری و تست را در یک دستور تعریف می کنید. به عنوان مثال داده <- داده[sample(1:3100,size=100,replace=FALSE),] ماتریس <- create_matrix(cbind(data$Title,data$Subject), language=english, removeNumbers=TRUE, stemWords =نادرست، وزن =weightTfIdf) پیکره <- create_corpus(matrix,data$Topic.Code,trainSize=1:75, testSize=76:100,virgin=FALSE) models <- train_models(corpus, algorithms=c(MAXENT,SVM)) ما یک پیکره ایجاد می کنیم از یک مجموعه داده، که مانند 75 سند اول برای یادگیری و بقیه برای آموزش است. اما وقتی نوبت به استفاده از نظریههای طبقهبندی متن برای استفاده عملی میرسد، میخواهید طبقهبندیکننده متن از پیش تعریفشده برای مجموعههای داده مختلف اعمال شود. در حال حاضر تنها راه حلی که من توانستم پیدا کنم این است که با همان مدارک آموزش ببینم و سپس از داده های آزمایشی مختلف استفاده کنم. اما وقتی صحبت از متن های بزرگ می شود بسیار ناراحت کننده به نظر می رسد. بنابراین سوال من این است که چگونه می توان طبقه بندی کننده از پیش تعریف شده ایجاد کرد و سپس آن را به مجموعه داده های مختلف با R اعمال کرد؟ استفاده از الگوریتم های RTextTools ترجیح داده می شود. | به دست آوردن طبقه بندی کننده نهایی در RTextTools |
92281 | من سعی می کنم از EM برای تخمین برخی پارامترها استفاده کنم. من برنامه نویسی کرده ام و ارائه می دهد. اما مشکل این است که برای هر اجرای برنامه من، تخمین زدن ممکن است 5 ثانیه، 1 دقیقه، 3 دقیقه یا بیشتر طول بکشد. بنابراین، من به دنبال تسریع الگوریتم EM در اینترنت هستم و متوجه شدم که با روشهایی غرق شدهام. روش های بسیار زیادی وجود دارد - مانند روش آیتکن، لوئیس، رویکرد مزدوج تعمیم یافته، گرادیان تعمیم یافته، روش های ترکیبی مانند روش های مبتنی بر نیوتن رافسون، ECM، و ECME... (احتمالاً هنوز برخی از آنها وجود ندارد) - که من این کار را نمی کنم. می دانم کدام یک را انتخاب کنم، و من به سادگی وقت ندارم که همه آنها را خودم مطالعه کنم. از این رو، برای تصمیم گیری در مورد اینکه کدام یک را باید مطالعه کنم، از شما کمک می خواهم. من از $ Y_n \sim \pi N(\theta_1+\theta_0Y_{n-1},\sigma^2)+(1-\pi)N(\theta_2+\theta_0Y_{n-1},\sigma^ نمونه برداری می کنم 2)$ و من از EM برای تخمین $\theta_1,\theta_2,\sigma,\pi$ استفاده می کنم | امکان تسریع الگوریتم EM |
86429 | (این بر اساس سؤالی است که به تازگی از طریق ایمیل برای من مطرح شده است؛ من از یک مکالمه کوتاه قبلی مقداری زمینه را اضافه کرده ام.) سال گذشته به من گفته شد که توزیع گاما سنگین تر از lognormal است و من از آن زمان به این نتیجه رسیده ام. گفت که اینطور نیست * دم کدام _سنگین تر است؟ * از چه منابعی می توانم برای کشف رابطه استفاده کنم؟ | کدام دم سنگین تر است، لگ نرمال یا گاما؟ |
86422 | واریانس میانگین n متغیر تصادفی توزیع شده برنولی Ber(p) چقدر است؟ بنابراین Var(جمع(xi)/N) | واریانس میانگین متغیرهای برنولی |
18937 | من سؤال قدیمی (در زیر) را بازنویسی کردم تا امیدوارم اوضاع کمی واضح تر شود. اساساً من فکر می کنم که دمای زمین باید به طور معمول توزیع شود، اما به دلیل شیب فصلی و انحنای سطح زمین نیست. من برخی از هیستوگرامها را برای «باندهای عرض جغرافیایی» مختلف دما و میزان بارندگی بر حسب میلیمتر در اینجا اضافه کردهام (بارندگی را در اینجا گنجاندهام اما لطفاً فعلاً آن را نادیده بگیرید). برای مثال، [-10 ... 10] مربوط به نوار عرض جغرافیایی (-) 10 درجه جنوبی تا 10 درجه شمالی شامل می شود. البته دما به عرض جغرافیایی بستگی دارد اما این به این دلیل است که در واقع به شیب فصلی و انحنای IMHO بستگی دارد. در پایان روز من به دنبال تغییراتی هستم که اثر شیب/انحنای فصلی را حذف می کند تا به توزیع نرمال جهانی برای هر چهار فصل برسد. آیا این منطقی است؟ با تشکر سوال قدیمی مسیحی: من اطلاعاتی از سطح زمین دارم (دما + بارندگی بر حسب میلی متر):  واضح است که شیب زمین بر روی حالت / نرمال بودن، برای مثال، توزیع دما. من فقط به این فکر می کنم که آیا راهی برای تنظیم این امر وجود دارد تا داده های (ترکیبی؟) نرمال تر/کمتر مودال شوند؟ من یک آمارگیر نیستم ... پس مطمئن نیستم که آیا این امکان پذیر است؟ پیشاپیش ممنون مسیحی | تنظیم برای شیب زمین |
41683 | کاربرد ساده روش های بوت استرپ برای آزمایش فرضیه، تخمین فاصله اطمینان آمار آزمون $\hat{\theta}$ با محاسبه مکرر آن بر روی نمونه های بوت استرپ است (اجازه دهید آمار $\hat{\theta}$ از bootstrap نمونه برداری شود. $\hat{\theta^*}$) نامیده شود. اگر پارامتر فرضی $\theta_0$ (که معمولاً برابر 0 است) خارج از فاصله اطمینان $\hat{\theta^*}$ باشد، ما H_0$ را رد می کنیم. من خوانده ام که این روش فاقد قدرت است. در مقاله Hall P. و Wilson S.R. Two Guidelines for Bootstrap Hypothesis Testing (1992) به عنوان اولین دستورالعمل نوشته شده است که باید $\hat{\theta^*} - \hat{\theta}$ را مجدداً نمونه برداری کرد، نه $\hat{\theta^ *} - \theta_0$. و این قسمتی است که من نمی فهمم. آیا این $\hat{\theta^*} - \hat{\theta}$ فقط سوگیری برآوردگر $\hat{\theta^*}$ را اندازه میگیرد؟ برای برآوردگرهای بی طرف، فواصل اطمینان این عبارت باید همیشه کوچکتر از $\hat{\theta^*} - \theta_0$ باشد، اما من نمیدانم چه ارتباطی با آزمایش $\hat{\theta}= دارد. \theta_0$؟ جایی نیست که بتوانم ببینم اطلاعاتی درباره $\theta_0$ قرار داده ایم. * * * برای کسانی از شما که به این مقاله دسترسی ندارید، این یک نقل قول از پاراگراف مربوطه است که بلافاصله بعد از پایان نامه آمده است: > برای درک اینکه چرا این مهم است، توجه داشته باشید که آزمون شامل > رد H_0$ است. اگر $ در $\left| باشد \hat{\theta} - \theta_0\right|$ خیلی > بزرگ است. اگر $\theta_0$ فاصله زیادی با مقدار واقعی $\theta$ داشته باشد (یعنی اگر > $H_0$ به طور فاحش خطا باشد) آنگاه تفاوت $\left|\hat{\theta} - > \theta_0 \right| $ هرگز در مقایسه با توزیع غیرپارامتری بوت استرپ $\left| خیلی بزرگ به نظر نمی رسد \hat{\theta} - > \theta_0\right|$. مقایسه معنادارتر با توزیع > $\left| است \hat{\theta^*} - \hat{\theta}\right|$. در واقع، اگر مقدار واقعی > $\theta$ $\theta_1$ باشد، قدرت تست بوت استرپ به 1 افزایش مییابد با افزایش $\left|\theta_1 - \theta_0\right|$، مشروط بر اینکه تست بر اساس > نمونه برداری مجدد $\left| \hat{\theta^*} - \hat{\theta}\right|$، اما توان > حداکثر تا سطح معنیداری کاهش مییابد (به عنوان $\left|\theta_1 - > \theta_0\right|$) اگر آزمایش بر اساس نمونهگیری مجدد است > $\left|\hat{\theta} - \theta_0\right|$ | چرا داده ها باید تحت فرضیه صفر در آزمون فرضیه بوت استرپ نمونه برداری شوند؟ |
30620 | بگویید من چهار جمعیت نمونه دارم، و میخواهم بدانم که آیا آنها متمایز هستند یا از یک فرآیند نمونهبرداری میکنند. هر نمونه چند متغیره است و توزیع متغیرها غیر نرمال است. علاوه بر این، مجموعه داده کاملاً نویزدار است، بنابراین PCA مبتنی بر هسته در تمام نمونهها ساختار قابل تشخیصی ارائه نمیدهد. من میخواهم نمونههایی را انتخاب کنم که به بهترین شکل فرآیند(های) زیربنایی را نشان میدهند، بنابراین کارهای زیر را انجام دادم: برای هر جمعیت، میانگین هر متغیر را بوت استرپ کردم و یک بردار میانگین به من داد. برای امتیاز دهی به نمونه ها، ضریب همبستگی پیرسون را بین نمونه و میانگین بردار مربوطه محاسبه کردم. سوال من این است: نمونه هایی که بیشترین همبستگی را با میانگین بردارهای مربوط به خود دارند، آیا برای تجزیه و تحلیل بیشتر مناسب هستند (مثلاً روش های خوشه بندی) یا من خودم را فریب می دهم؟ | انتخاب نمونه ها در داده های پر سر و صدا بر اساس همبستگی با بردار میانگین چند متغیره؟ |
18938 | آیا با استفاده از randomForest در R برای تولید یک طبقهبندیکننده نسبتاً موفق، آیا راهی برای تأکید بر حساسیت بر ویژگی وجود دارد، برای مثال، اگر هزینه از دست دادن یک بیماری بسیار بیشتر از تشخیص مثبت کاذب باشد؟ | چگونه یک الگوریتم جنگل تصادفی را حساس به هزینه کنیم؟ |
83284 | من آزمایشی دارم که به صورت زیر سازماندهی شده است: * N اندازه گیری مکرر برای هر یک از M شرایط مختلف انجام شد (هر یک دارای میانگین مقدار متفاوتی بود) * آزمایش P بار انجام شد، هر بار با استفاده از روش اندازه گیری متفاوت. اکنون میخواهم تخمین بزنم که کدام یک از روشهای P کمترین ضریب تغییرات کلی را دارد، اما مطمئن نیستم که چگونه از آن پیروی کنم. من در ابتدا به محاسبه CV برای هر یک از شرایط M (بر اساس N اندازه گیری های مکرر) و سپس یافتن CV متوسط برای هر روش اندازه گیری فکر کردم. با این حال، در این مورد نمیدانم چگونه برای اهمیت بین روشهای اندازهگیری مختلف آزمایش کنم. بهترین راه برای نشان دادن اینکه آیا یک روش اندازه گیری معین دارای پراکندگی «کلی» کمتری نسبت به سایرین با داده هایی است که من در دسترس دارم، چیست؟ | چگونه چندین ضریب تغییرات را مقایسه کنم؟ |
83283 | اینجا در ویکی پدیا می گوید: > برای مقادیر به اندازه کافی بزرگ λ، (مثلا λ>1000)، توزیع نرمال > با میانگین λ و واریانس λ (انحراف استاندارد $\sqrt{\lambda}$)، یک تقریب عالی برای توزیع پواسون اگر λ بزرگتر از > حدود 10 باشد، آنگاه توزیع نرمال تقریب خوبی است اگر تصحیح تداوم مناسب > انجام شود، به عنوان مثال، P(X ≤ x)، که در آن > (حروف کوچک) x یک عدد صحیح غیر منفی است، P(X ≤ x + 0.5) جایگزین می شود. > > $F_\mathrm{Poisson}(x;\lambda) \approx > F_\mathrm{normal}(x;\mu=\lambda,\sigma^2=\lambda)$ متأسفانه این ذکر نشده است. من می خواهم بتوانم این را با کمی دقت نشان دهم / ثابت کنم. چگونه میتوانید در واقع _بگوییم_ توزیع نرمال تقریب خوبی است وقتی $\lambda > 1000$، چگونه این تقریب عالی را کمیت میدهید، چه معیارهایی استفاده شده است؟ دورترین چیزی که من در این مورد داشته ام اینجاست که جان در مورد استفاده از قضیه بری-اسین صحبت می کند و خطا در دو CDF را تقریب می زند. از آنچه من می بینم او هیچ مقدار $\lambda \geq 1000$ را امتحان نمی کند. | تقریب نرمال به توزیع پواسون |
108950 | من از SVM با هسته خطی برای طبقه بندی جملات (دودویی) استفاده می کنم. مجموعه داده من حاوی نمونه های تکراری زیادی است، یعنی بسیاری از جملات در مجموعه آموزشی دارای بردارهای ویژگی یکسان هستند. در مدل آموزشدیده، من تعداد زیادی بردار پشتیبان تکراری را میبینم که هر کدام یک عبارت ضریب لاگرانژ (alpha*y) متفاوتی دارند. به عنوان مثال: -0.064019597363882741 5660:1 # fcda5cf6-e00b-11e2-ddad-001517e11bd0 -0.00028270965981203044 #5660:1 67d4d4d2-855c-11e3-f88e-001517e11900 -0.00084391434273911603 5660:1 # 38d53d84-e435-11e2-ddad-010151 -0.031641060077848393 5660:1 # 069c2c6e-e8be-11e2-edb1-001517e116e4 -0.0028105012661461251 5660:1 # 623c52e4-e038-11e2-edb1-001517e116e4 -0.00098570725949942428 5660:1 # f67aae78-e020-11e2-5884-019517e مدل S فرمت، هر یک از خطوط بالا نشان دهنده یک بردار پشتیبانی است، که در آن: * جمله اول آلفا*ی است * جفت های کلید-مقدار ('5660:1') feature_number:feature_value هستند. بنابراین، تمام نمونههای آموزشی بالا فقط حاوی یک ویژگی با مقدار 1 هستند. * موارد زیر «#» نظراتی هستند (شناسههای نمونه در مورد من) چرا بردارهای پشتیبانی فوق مقادیر آلفا*ی متفاوتی دارند، حتی اگر بردارهای ویژگی یکسانی داشته باشند. ? همچنین، چرا مدل در وهله اول شامل چندین SV با بردارهای ویژگی یکسان است؟ من انتظار داشتم همه SV ها دارای بردارهای ویژگی منحصر به فرد باشند، اگرچه آنهایی که کپی شده بودند مقدار آلفای بیشتری داشتند. موافقم که اگر نمونههای تکراری در حاشیه (نرم) قرار گیرند، تکرار نمونههای آموزشی ممکن است حاشیه را تغییر دهد، اما نمیتوانم بفهمم چرا هر بردار پشتیبانی تکراری مقدار آلفا*ی متفاوتی دارد؟ | طبقه بندی SVM با نمونه های آموزشی تکراری |
77481 | میپرسم آیا نسخهای از پنجره کشویی EM وجود دارد؟ من روی برنامه ای کار می کنم که شامل یک جریان متن (توئیت) است. ما به استفاده از داده های 1 روزه به عنوان مجموعه آموزشی فکر می کنیم و موضوعات را با استفاده از PLSA (تحلیل معنایی نهفته احتمالی) استخراج می کنیم. ما پارامترها را با استفاده از الگوریتم EM استنباط می کنیم. مشکل این است که از آنجایی که داده ها به صورت جریانی در هر ثانیه وارد می شوند، ما اساساً فقط می خواهیم داده ها را ظرف یک روز از زمان فعلی در مدل نگه داریم. یکی از راههای انجام این کار، آموزش مجدد مدل با استفاده از دادههای یک روزه است، اما به نظر میرسد زمانبر است (هزاران توییت در اینجا). میپرسم آیا نسخهای از EM وجود دارد که آنلاین باشد و همچنین بتواند دادهها را از یک پنجره زمانی خارج کند؟ | الگوریتم EM پنجره کشویی برای PLSA؟ |
86427 | من در حال انجام یک مطالعه هستم که در آن برابری را در ورزش اندازه گیری می کنم. برای انجام این کار، من به چگونگی توزیع درصدهای برنده یک سال (WP) نگاه می کنم. من در حال حاضر آنها را با یک توزیع دو جمله ای مقایسه می کنم، اما از آنجایی که WP هر تیم به طور مستقیم با WP رقبای خود مرتبط است، نگرانم که مدل بهتری را از دست بدهم. آیا چیزی بهتر از توزیع دوجمله ای استاندارد برای این نوع مدل وابسته به هم وجود دارد؟ | توزیع درصد بردهای ورزشی |
11331 | اینو تو سایت ریاضی پرسیدم ولی الان فکر میکنم اینجا جای بهتری باشه. با عرض پوزش برای پست متقاطع. با توجه به هر نمودار خطی، آیا روش قابل اعتمادی برای شناسایی هر نوع نوسان منظم وجود دارد؟ بیایید فرض کنیم که من شیوع گونههای مختلف جانوران را در یک مکان، در طی چندین سال ترسیم میکنم. چه نوع الگوریتمی را می توانم اعمال کنم که یک مهاجرت منظم را به جای افزایش یا کاهش ثابت شناسایی کند؟ امیدوارم این منطقی باشد. با تشکر از کمک! | شناسایی نوسان در یک سری زمانی |
83132 | من علاقه مندم که نمودارهای پراکنده را به مردم ارائه دهم و از آنها بخواهم همبستگی را که در نمودار پراکنده درک می کنند حدس بزنند. ظاهراً $r$ پیرسون در واقع تحت تأثیر سه چیز است: شیب مربوط به $x$ به $y$، واریانس خطا، و واریانس $x$. معادله زیر این مولفه ها و ترکیب آنها را به صورت $r$ پیرسون نشان می دهد: $$r^2 = \frac{b^2 \cdot S_x^2}{b^2 \cdot S_x^2 + S_e^2}$$ بنابراین، یک مجموعه داده با شیب، واریانس خطا و واریانس $x$ مقادیر 2، 1000 و 400 از نظر آماری است. معادل یکی با مقادیر 4، 4000، و 400 زیرا هر کدام یک $r=0.78$ پیرسون تولید می کنند. برخی از مطالعات قبلی نشان میدهند که افراد هنگام حدس زدن مقدار همبستگی، بیشترین حساسیت را نسبت به دستکاری واریانس خطا دارند، بنابراین برخی از تحقیقات قبلی شیب را ثابت نگه میدارند در حالی که واریانس خطا را دستکاری میکنند تا مقدار کلی $r$ پیرسون را تغییر دهد. من با تولید نقاط داده تصادفی و انتخاب مجموعههایی با دامنه شیب محدود و واریانسهای خطای وسیع برای دستیابی به $r$ مختلف پیرسون بازی کردهام. با این حال، من در حالت ایدهآل میخواهم نقاط داده را از مجموعه دادههای واقعی که باید چند نمودار پراکنده درست کنم، ترسیم کنم - مشکل این است که دادههای واقعی من در مقیاسهای متفاوتی هستند، بنابراین من روی $z$-scoring برنامهریزی میکنم تا آنها را در همان حالت قرار دهم. مقیاس AND برای دستیابی به واریانس ثابت $x$. با این حال، من گیج شدهام که چگونه میتوانم به آنچه در بالا پیشنهاد کردم پس از امتیازدهی به $z$ برسم. هنگامی که شما نقاط داده را به امتیازهای z$-$ تبدیل می کنید، همبستگی پیرسون بین مجموعه داده اصلی و مجموعه داده های $z$-score یکسان است، اما همبستگی پیرسون اکنون معادل شیب $z$-score است. مجموعه بنابراین اکنون نمیدانم که چگونه میتوانم کاری را که در بالا پیشنهاد کردم انجام دهم - اگر $r$ پیرسون اکنون به شیب یوک شده است، چگونه میتوانم فقط واریانس خطا را تغییر دهم تا $r$ پیرسون را بدون این تغییر دهم. تغییر همزمان شیب؟ به نظر می رسد که من واریانس خطا را برای تغییر مقدار $r$ تغییر می دهم، باید شیب را نیز تغییر دهم. آیا این درست است؟ | چگونه می توانم r پیرسون را دستکاری کنم اما شیب را ثابت نگه دارم (بعد از z-scoring؟) |
93594 | من یک رگرسیون اجرا کردم که در آن عبارت تعامل دو متغیر عاملی را دارم. یکی از متغیرها دارای 2 سطح است: Condition_A و Condition_B (بنابراین اولین دسته مرجع است) اما دیگری Group نام دارد. عضویت دارای 3 سطح است: Group_1، Group_2 و Group_3 (بنابراین اولین دسته مرجع است) . چیزی که من در مورد آن مطمئن نیستم این است که چگونه خروجی را تفسیر کنم. چیزی که من به عنوان بخشی از خروجی lm() دریافت می کنم این است: شرطB:Group.Membership.L (بتا و p-value) ConditionB:Group.Membership.Q (بتا و p-value) آیا باید .L را به عنوان ضریب تفسیر کنم برای Group_2 در مقایسه با رده مرجع (Group_1)، و در مورد .Q؟ یا تعبیر دیگری از این نوع خروجی وجود دارد؟ با تشکر از شما برای کمک شما! ویرایش ---------------- من یک سوال دیگر دارم. من عبارت تعامل متغیر Condition را با بسیاری از متغیرهای عامل دیگر آزمایش کرده ام. چرا گاهی اوقات من .L و .Q را در انتها در خروجی دریافت می کنم، در حالی که در موارد دیگر سطوح متغیر دوم عبارت تعامل را بدون .L و Q. دریافت می کنم؟ آیا در lm() خود کار اشتباهی انجام می دهم؟ | تفسیر عبارت تعامل در Rlm(): .L .Q |
40553 | چگونه یک مدل را با یک متغیر وابسته log تبدیل شده با یک گوشه در صفر و یک توزیع پیوسته برای مقادیر کاملاً مثبت و یک مشکل انتخاب اضافی به دلیل فقدان تخمین می زنید؟ **زمینه**: متغیر وابسته y (هزینه ها) که در آن y>=0 با مقادیر 0 true (y همیشه مشاهده می شود. مقدار صفر دلخواه نیست، داده های مشاهده شده است). بنابراین من یک گوشه در صفر و یک توزیع پیوسته برای مقادیر کاملاً مثبت دارم. توزیع به گونهای است که ترجیح میدهم یک تبدیل log متغیر وابسته y (ln y) ایجاد کنم. بر این اساس من چندین مدل دو بخشی را تخمین می زنم (به گفته Wooldridge) 1.Cragg Truncated Normal Hurdle Model 2\. مدل با مانع Lognormal 3. مدل توبیت نوع دوم نمایی در نهایت، برای مقایسه این دو مدل بخش، از مقدار تابع log-likelihood استفاده میکنم. **اما** چه اتفاقی میافتد اگر من یک مشکل دادههای گمشده واقعی داشته باشم. یعنی مقدار صفر دادههای مشاهدهشده است اما بهعلاوه من در y گم شدهام (مشکل انتخاب). آیا مرجعی در این زمینه سراغ دارید؟ | مدل توبیت با حل گوشه و مسئله انتخاب |
18930 | در اکثر بستههای پیشبینی، دو تبدیل بهراحتی برای تثبیت واریانس در دسترس است: ریشه دوم و لگاریتنی. آیا روشی (مثلاً آزمایش) وجود دارد که بتواند به کاربر بگوید کدام یک از دو تبدیل را انتخاب کند؟ در نهایت، تغییر شکل پایدارسازی واریانس باید به دادههای سری زمانی اعمال شود (اگر واریانس ضربی را نشان میدهند) بدون توجه به مدل مورد استفاده (به عنوان مثال باید در ARIMA، هموارسازی نمایی، اجزای مشاهده نشده، تجزیه کلاسیک و غیره در صورت زمان استفاده شود. سری ها واریانس ضربی را نشان می دهند)؟ پیشاپیش متشکرم، آندریاس | تبدیل برای تثبیت واریانس در سری های زمانی |
14345 | با $y_1، \ldots، y_n$ یک سری زمانی با ارزش واقعی و $\hat{f} : \mathbb{R} \to \mathbb{R}$ یک تخمین (کمترین مربع) از تابع $y \mapsto E( Y_i \mid Y_{i-1} = y)$ خطای آموزشی $$\text{err} = \frac{1}{n-1} \sum_{i=2}^n (y_i - \hat{f}(y_{i-1}))^2$$ معمولاً خطای پیشبینی مورد انتظار $\hat{f}$ را در یک مجموعه داده مستقل دستکم میگیرد. . علاوه بر این، هر چه مدلی که برای تناسب با $\hat{f}$ استفاده میکنیم انعطافپذیرتر باشد، این خوشبینی نسبت به خطای آموزشی بدتر است، که آن را برای انتخاب مدل بیفایده میکند. طرحهای نمونهگیری مجدد یا اعتبارسنجی متقابل با هدف کلی مختلف، همچنین در ادبیات سری زمانی، وجود دارد تا تخمین بهتری از خطای پیشبینی مورد انتظار ارائه دهد. برای ضرر درجه دوم چندین نتیجه نظری در ادبیات _رگرسیون_ در مورد اصلاحات خطای آموزشی وجود دارد، مانند اصلاحات نوع $C_p$ یا برآورد ریسک بی طرفانه استین، به تخمین خطای پیش بینی توسط افرون یا فصل 7 در ESL مراجعه کنید. این نتایج تحت مفروضات استقلال ارائه شده است که برای سری های زمانی صدق نمی کند. آیا کسی می تواند با ارجاع به ادبیات سری زمانی در مورد اصلاحات نظری خطای آموزشی مشابه آنچه در بالا برای رگرسیون به آنها اشاره شد کمک کند؟ | اصلاحات نظری خطای آموزشی برای داده های سری زمانی |
83130 | سرعت همگرایی در MSE معمولاً تحت تسلط واریانس است. برآوردگر ML واریانس را در نظر بگیرید: واریانس آن به صورت $\mathcal{O}(1/n)$ و اصطلاح بایاس به صورت $\mathcal{O}(1/n^2)$ کاهش مییابد. آیا این ادعا درست است که واریانس همیشه عبارت غالب در نرخ همگرایی خواهد بود؟ | اصطلاح غالب در همگرایی در MSE |
83135 | من برای توصیف مشکلم مشکل دارم، اما تمام تلاشم را می کنم. همه چیز در مورد توزیع گاوسی مختلط چند متغیره با میانگین صفر، دایرهای متقارن است $f(z)=\frac{1}{\pi^K\det(\mathbf{\Sigma})}\exp(- \mathbf{z}^H\mathbf{\سیگما}^{-1}\mathbf{z})$، با $\mathbf{\Sigma}$ ماتریس کوواریانس مختلط است. اگر اکنون $\mathbf{\Sigma}$ را عادی کنیم به طوری که قطر اصلی آن به بردار وحدت تبدیل شود (یعنی ماتریس همبستگی را دریافت می کنیم) و همچنین بزرگی $\mathbf{z}$ را به 1 نرمال کنیم - نتیجه، تطبیق داده می شود. تابع هنوز یک تابع چگالی احتمال معتبر پس از آن؟ اگر بله، توزیع حاصل چگونه است؟ یا حداقل می توان از نتیجه به عنوان تابع احتمال استفاده کرد، به عنوان مثال. در زمینه تخمین حداکثر احتمال؟ | عادی سازی توزیع گاوسی پیچیده متقارن دایره ای |
89623 | من الگوریتم های مختلفی را اجرا می کنم (SVM، Random Forest، سایر الگوریتم های تصمیم گیری مبتنی بر درخت). من متوجه شدم که عملکرد من پس از افزودن ویژگی های جدید پایین آمد (خطا بالا رفت). performance(Feature_family_1 + Feature_family_2) < performance(Feature_family_1) آیا این امکان پذیر است، و چگونه می توانم مطمئن شوم که اطلاعات را از دست ندهم؟ آیا باید از PCA استفاده کنم؟ | آیا ویژگی های بیشتر می تواند عملکرد را کاهش دهد |
41680 | من یک پرسشنامه با 40 سوال دارم که در آن پاسخ دهنده در مقیاس 1-7 برای هر سوال پاسخ می دهد. در حال حاضر حجم نمونه مثلاً 10000 نفر داریم. سوال این است که چگونه می توانم با کاهش حجم نمونه و پرسیدن از 2000 نفر (نماینده از کل نمونه) مقدار داده هایی را که از دست می دهیم محاسبه کنم؟ این چقدر پاسخ ها را تغییر می دهد؟ آیا می توانیم انتظار داشته باشیم که میانگین یک سوال (به عنوان مثال) از 5.2 به 5.2 $ \pm 0.3 $ برسد؟ ما از تجربه میدانیم که پاسخها معمولاً توزیع نمیشوند و اگر کمک کند، بیشتر به سمت مقادیر بالاتر منحرف میشوند. بگویید که یک سوال ممکن است دارای میانگین 5.2 و انحراف معیار 0.4 باشد. یا برعکس: به عنوان مثال، اگر از 10000 نفر سوال کرده بودیم، اگر از 10000 نفر سوال کرده بودیم، میانگین 5.2 گرفته بودیم و اگر حجم نمونه را کم کنیم، میتوانیم انحراف +/- 0.1 را بپذیریم، آیا این به این معنی است. که می توانیم به جای آن 2000 بپرسیم یا 5000 یا 6000؟ همه چیز به این واقعیت مربوط می شود که از افراد کمتری بخواهیم ارزان تر باشد. | چگونه می توان از دست دادن در اطلاعات را هنگام کاهش حجم نمونه محاسبه کرد؟ |
92285 | من تاپیک های مختلفی را در اینجا مرور کردم، اما فکر نمی کنم به سوال من پاسخ دقیقی داده شود. من مجموعه داده ای متشکل از 50000 دانش آموز و زمان آنها را برای ترک تحصیل دارم. من قصد دارم رگرسیون خطرات متناسب را با تعداد زیادی از متغیرهای کمکی بالقوه انجام دهم. من همچنین قصد دارم رگرسیون لجستیک را در مورد ترک تحصیل/ ماندن انجام دهم. هدف اصلی پیشبینی گروههای جدید دانشآموزان خواهد بود، اما دلیلی نداریم که باور کنیم آنها با گروه سال گذشته تفاوت زیادی دارند. معمولاً من چنین دادههای لوکسی ندارم و با نوعی جریمه کردن مدلسازی را انجام میدهم، اما این بار به این فکر کردم که مجموعههای دادههای آموزشی و آزمایشی را تقسیم کنم و سپس انتخاب متغیر را روی مجموعه آموزشی انجام دهم. سپس از مجموعه داده های آزمون برای تخمین پارامترها و ظرفیت پیش بینی استفاده می شود. آیا این استراتژی خوبی است؟ اگر نه، چه چیزی بهتر است؟ نقل قول ها استقبال می شود اما ضروری نیست. | آموزش، آزمایش، اعتبارسنجی در یک مسئله تجزیه و تحلیل بقا |
108451 | من شک دارم که با تخمین حالت بازگشتی با استفاده از فیلتر بیز (در واقع با استفاده از تقریبی به آن از طریق فیلترهای ذرات) مرتبط است. سوالات من این است: * چگونه یک $\Delta t$ را انتخاب کنیم که برای مشکل به اندازه کافی خوب باشد؟ * آیا می توان یک $\Delta t$ داشت که همگن نباشد، بنابراین فرض کنید که در $t=1$ نمونه برداری کنیم، سپس $t=3$، سپس $t=10$ و غیره؟ | آیا داشتن زمان نمونه برداری غیر همگن در فیلتر Bayes مشکل دارد؟ |
83134 | در ویکیپدیا، معیار گیبس احتمال را به این صورت تعریف میکند: $$ P(X=x) = \frac{1}{Z(\beta)}\exp(-\beta E(x)) $$ حال، شکل آشنا از توزیع نرمال این است: $$ P(x) = \frac{1}{\sqrt{2\pi}\sigma}\exp-{\frac{(x-\mu)^{2}}{2\sigma^2}} $$ اکنون، به نظر میرسد که توزیع نرمال یک معیار گیبس است و من نمیدانستم که آیا میتوانم برخی از اصطلاحات را معادلسازی کنم. بنابراین، برای مثال عبارت $\beta$ چیست و مهمتر از آن، عبارت انرژی مربوطه در توزیع نرمال چیست. آیا می توانم بگویم $\beta$ $\frac{1}{2}$ است و اصطلاح انرژی $\frac{(x-\mu)^{2}}{\sigma^2}$ است، اما من این کار را نمی کنم درک کنید که چگونه تابع پارتیشن $Z$ تابعی از $\beta$ است. با تشکر از کمک شما! | اندازه گیری گیبس و توزیع نرمال |
108184 | در حال مدل سازی قیمت فوبرها هستیم. همه فوبارها دارای مقدار x هستند که از 0 تا بی نهایت متغیر است. علاوه بر این فوبرها می توانند چندین ویژگی داشته باشند. برای قیمت گذاری فوبارها از رگرسیون خطی روی فوبارهای مشابه با مقدار x نسبت به قیمت آنها استفاده می کنیم. فرض کنید یک فوبار با ویژگی های a، b و c داریم. ما مجموعه داده ای از فوبارهای قیمت گذاری شده با مشخصه a داریم، همچنین مجموعه داده ای با فووبارها با مشخصه b و مجموعه داده ای از فوبارها با مشخصه c داریم. با این حال، هیچ مجموعه داده ای با فوبارها با ویژگی های a، b و c نداریم. آیا راهی برای قیمت گذاری دقیق فوبار مورد نظر با داده های موجود وجود دارد؟ پیشاپیش ممنون | مدل قیمت گذاری با متغیرهای چندگانه و داده کافی نیست |
18643 | **مشکل:** دو اتومبیل (که به عنوان اشیاء نقطه ای در نظر گرفته می شوند) را در نظر بگیرید، به نام های رهبر $L$ و دنبال کننده $F$، که هر دو مجهز به دستگاه های GPS هستند که با یکدیگر ارتباط برقرار می کنند. هدف $F$ این است که $L$ را تا حد امکان به دقت دنبال کند زیرا دومی خودسرانه در هواپیما حرکت می کند. با توجه به اینکه همه دستگاههای GPS دارای توزیع خطای احتمالی خطای دایرهای (CEP) هستند، با میانگین تجویز شده $\mu = (\mu_x,\mu_y)$ و یک ماتریس کوواریانس تجویز شده $\Sigma_{2\times 2}$. * با توجه به اینکه $L$ از یک منحنی (تکه ای صاف) $C$ در صفحه عبور می کند، منحنی مورد انتظار عبور شده توسط $F$ چقدر است؟ به علاوه، توزیع مسیرهای $F$ چگونه است؟ * راه بهینه برای $F$ برای تخمین $L$ در یک دوره زمانی چیست؟ **زمینه:** این یک مشکل عملی است که من در کار تجربی با آن مواجه بودم و به هیچ وجه تکلیف نیست. من از ابزارهایی مانند Kalman Filtering برای تخمین حالت بهینه در مواجهه با نویز سفید آگاهی دارم، اما در مورد نحوه دقیق گسترش آنها به این مورد مطمئن نیستم. من همچنین می خواهم از ادبیات تحقیق مرتبط بدانم. | یک مشکل تخمینی در ردیابی GPS |
108455 | من مفهوم مقیاس بندی را درک می کنم و این که نتایج را در SVM و NN بهبود می بخشد. با این حال، من می خواهم جایی را پیدا کنم که در آن توضیح داده شود، به عبارت ساده عوام. از نحوه انجام آن ترجیح میدهم ویکیپدیا نباشد زیرا از آن برای پایاننامه کارشناسی ارشدم استفاده میکنم. پیشاپیش متشکرم | نحوه انجام: مقدمه ای مختصر برای مقیاس بندی و تغییر مقیاس داده ها (ورودی ها) برای الگوریتم های یادگیری نظارت شده |
14473 | ما در حال برنامهریزی یک مطالعه مورد-شاهدی هستیم که در آن افراد را بهعنوان مورد یا شاهد (بر اساس وزن طبیعی در مقابل وزن کم هنگام تولد) تعیین میکنیم و سپس متغیر پیامد پیوسته (% چربی بدن) را اندازهگیری میکنیم. آیا کسی می تواند من را به سمت روشی برای محاسبه تعداد موارد در مقابل کنترل مورد نیاز راهنمایی کند. ما ایده ای از انحراف معیار متغیر نتیجه (% چربی بدن) داریم. خیلی ممنون اندرو | محاسبه توان برای یک مطالعه مورد-شاهدی با یک نتیجه مستمر |
99849 | فرض کنید من یک رگرسیون خطی ساده را اجرا می کنم. تخمین ضریب 2، خطای استاندارد ضریب 0.5 و مقدار t 4 است. آیا درست می گویم که خطای استاندارد در دو توزیع مختلف استفاده می شود؟ اولین توزیع، توزیع ضرایب برآورد شده برای جمعیت است. این توزیع دارای میانگین 2 (برآورد ضریب جمعیت) با خطای استاندارد 0.5 است. توزیع دوم توزیع مقادیر t است. این توزیع دارای میانگین 0 با خطای استاندارد 0.5 است. | خطای استاندارد در رگرسیون خطی |
47685 | من در حال حاضر با زنجیرههای مارکوف کار میکنم و تخمین حداکثر احتمال را با استفاده از احتمالات انتقال همانطور که توسط چندین منبع پیشنهاد شده است محاسبه کردم (یعنی تعداد انتقالها از a به b تقسیم بر تعداد انتقال کلی از a به گرههای دیگر). من اکنون میخواهم احتمال ورود MLE را محاسبه کنم، اما کاملاً مطمئن نیستم که چگونه این کار را انجام دهم. شاید کسی بتونه کمکم کنه | محاسبه احتمال ورود به سیستم برای MLE داده شده (زنجیره مارکوف) |
31574 | من از بسته «بررسی» در R استفاده میکنم تا دادههایی را که مستقل نیستند (سری زمانی است) آزمایش کنم، با ایجاد یک شی «نظرسنجی» و شناسایی ماههای مختلف بهعنوان «خوشهها» و سپس آزمایش t تا ببینم آیا میانگین (در طول یک سال کامل) با 0 متفاوت است. داده ها چیزی شبیه به این هستند: ID Y ماه 1 .5 1 2 .24 1 3 .36 1 ... 200 .44 12 من یک شئ survey با خط زیر ایجاد می کنم: clusterdat<- svydesign(id=~month,data=mydata) سپس t-test ($H_a: \mu \neq 0$) svyttest(y~0, design=mydata ) خروجی شامل یک آماره t، مقدار p متناظر، درجه آزادی و میانگین نمونه است، اما گزینه ای برای محاسبه فاصله اطمینان وجود ندارد. آیا من چیزی را از دست داده ام؟ اگر نه، چگونه می توانم خودم یکی را محاسبه کنم؟ آیا $t^*$ برای اطمینان 95% در این مورد مانند یک آزمون t معمولی است (یعنی آیا می توانم آن را با df در یک جدول $t$ معمولی جستجو کنم)؟ چگونه می توانم انحراف استاندارد نمونه را برای این داده ها محاسبه کنم؟ | محاسبه فواصل اطمینان برای داده های غیر مستقل |
83285 | من 6 متغیر و 125 مشاهده دارم که آنها را با استفاده از مدل VAR مدلسازی میکنم، که در آن همه متغیرها را بهعنوان درونزا، همانطور که همه روابط به من علاقه دارند، قرار میدهم (دو جهتی). من تستهای گرنجر را انجام دادهام، دادههایم را کاهش دادهام (به عنوان مثال، ثابت بودن را بررسی کردهام، گزارشهای ثبت شده، log_difference را در صورت لزوم بررسی کردهام) بنابراین همه متغیرها در مدل ثابت میآیند. برای تاخیر، lag.max = 6 را تنظیم کردم و از معیار AIC در مدل استفاده کردم (که به هر حال هرگز تاخیری بزرگتر از 5 را بر نمی گرداند). این مدل به خوبی کار میکند و من میتوانم پاسخها را با اهمیت اینجا و آنجا بخوانم، و کم و بیش فرضیههای من را که قبل از آزمون مطرح کردم تأیید میکند. من در حال بررسی چگونگی ارتباط موجودیهای نفت با عامل دیگری هستم (بازده خالص، نفت WTI) این رابطه 2 تاخیر از AIC دریافت میکند. سپس نتایج من: summary(equations=NCY_WTI_3M,VAR(data.final[,c(NCY_WTI_3M,NCY_BRE_3M,SP,INV)], type=const, ic=AIC , lag.max=LagMax)) نتایج تخمین VAR: ======================== متغیرهای درون زا: NCY_WTI_3M, NCY_BRE_3M, SP, INV متغیرهای قطعی: const حجم نمونه: 123 Log Likelihood: -763.052 ریشه چند جمله ای مشخصه: 0.8509 0.8509 0.5029 0.5029 0.4318 0.4318 0.2642 0.2151 تماس: VAR(y = data.final[, c(NCY_WTI_3M، NCY_BRE_3M، SP، INV)] =، type = const، Lag. = AIC) نتایج تخمین برای معادله NCY_WTI_3M: =========================================== NCY_WTI_3M = NCY_WTI_3M. l1 + NCY_BRE_3M.l1 + SP.l1 + INV.l1 + NCY_WTI_3M.l2 + NCY_BRE_3M.l2 + SP.l2 + INV.l2 + const Estimate Std. خطای t مقدار Pr(>|t|) NCY_WTI_3M.l1 5.018e-01 9.903e-02 5.067 1.57e-06 *** NCY_BRE_3M.l1 5.096e-01 1.213e-01-01 *** 3.213e-0105 4.2. l1 1.230e-01 2.182e-01 0.564 0.57393 INV.l1 -2.578e-06 8.847e-07 -2.914 0.00429 ** NCY_WTI_3M.l2 -1.880-1.889e-21 -1.889e-21. 0.03237 * NCY_BRE_3M.l2 1.613e-01 1.435e-01 1.124 0.26351 SP.l2 5.887e-01 2.205e-01 2.669 0.0088l 2.669 0.0088l **1-0.00871 8.528e-07 2.215 0.02875 * const 1.984e-01 1.012e-01 1.961 0.05234. --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 مشکل این است که هر دو 'INV.l1' و 'INV.l2' در این مدل اهمیت دارند، هر چند که دارند اثرات متفاوت «INV.l1» (* _) تخمین منفی دارد، در حالی که «INV.l2» (_) تخمین مثبتی دارد - این به معنای یک رابطه متفاوت در طول دورههای زمانی است، در صورتی که باید هر دو را معنیدار دانست. این ناهنجاری عملاً در هر مدلی که من از 27 متغیر اجرا کرده ام (با استفاده از مدل های سبد کوچکتر) ظاهر شده است، جایی که هر بار که یک عامل اهمیت دارد، تخمین های ارائه شده دارای علائم متفاوتی هستند (+/-). ** من فکر نمی کنم که این مورد باشد، و بنابراین سوال من این است که آیا ویژگی ذاتی مدل های VAR وجود دارد که می تواند به توضیح این موضوع کمک کند؟** داشتم فکر می کردم، اگر تأثیر 'lag1' در امروز مثبت باشد. ، پس اثر lag2 روی lag1 نیز باید مثبت باشد، بنابراین تاثیر مورد انتظار از lag2 در امروز چیست؟ آیا این واقعیت که علامت با هر تأخیر تغییر میکند، به این معنی است که در کل سریهای زمانی یکنواختی وجود دارد؟ به روز رسانی: پس از صحبت با افراد دیگر، نظریه فعلی من این است که یک تصحیح بیش از حد وجود دارد. دومین متغیر تاخیری تنها پس از در نظر گرفتن اولین متغیر با تاخیر روی متغیر مستقل تاثیر می گذارد. در این رشته فکر، «مشکل» من با نوعی اثر بازگشت میانگین ایجاد میشود، که به موجب آن محاسبه همیشه تا حدی از علامت فراتر میرود و بنابراین علائم مثبت/منفی را در مقابل مقادیر تخمینی من تولید میکند. | نشانه های متناوب برآوردهای قابل توجه در مدل VAR |
108181 | بنابراین، این سوالی است که من می خواهم بپرسم. داشتم در مورد رگرسیون خطی و این چیزها می خواندم. من فهمیدم که رگرسیون خطی اساساً دو متغیر را با یکدیگر مرتبط می کند. من در مورد کاربرد آن شک دارم که آیا می توان آن را به نحوی در مورد من نیز اعمال کرد. بنابراین، فرض کنید من 10 فایل دارم. هر فایل اساساً شامل 1000 ردیف و 3 ستون است. دو ستون اول اساساً گره ها را نشان می دهند (مانند یک نمودار) و ستون سوم یک قاعده را ارائه می دهد که گره ها از آن پیروی می کنند. اجازه دهید این قانون را به عنوان هر دنباله ای از 1 و 0 با هم مخلوط کنیم. نمونه: Node 1 Node 2 Rule 2 3 110 3 4 110 .......................... فایل دیگری حاوی گره هایی برای قانون دیگری است. آیا راهی وجود دارد که بتوانم برخی از مدل های رگرسیون را روی هر یک از پارامترهای R اعمال کنم؟ | استفاده از مدل های رگرسیون در R |
83136 | اخیراً این مقاله مورد توجه زیادی قرار گرفته است (به عنوان مثال از WSJ). اساسا، نویسندگان به این نتیجه رسیدند که فیس بوک تا سال 2017 80 درصد از اعضای خود را از دست خواهد داد. آنها ادعاهای خود را بر اساس برون یابی مدل SIR، یک مدل تقسیمی که اغلب در اپیدمیولوژی استفاده می شود، قرار می دهند. دادههای آنها از جستجوهای گوگل برای «فیسبوک» گرفته شده است و نویسندگان از نابودی Myspace برای تأیید نتیجهگیری خود استفاده میکنند. **سوال:** آیا نویسندگان اشتباه همبستگی دلالت بر علیت ندارد دارند؟ شاید این مدل و منطق برای مای اسپیس جواب داده باشد، اما آیا برای هر شبکه اجتماعی معتبر است؟ **به روز رسانی**: فیس بوک پاسخ می دهد > با رعایت اصل علمی همبستگی برابر است با علیت، تحقیقات > ما به صراحت نشان داد که پرینستون ممکن است در خطر > ناپدید شدن کامل باشد. > > ما واقعاً فکر نمی کنیم که پرینستون یا عرضه هوای جهان به این زودی ها به جایی برسد. ما پرینستون (و هوا) را دوست داریم» و یادآوری نهایی را اضافه کرد که «همه تحقیقات برابر نیستند - و برخی از روشهای تجزیه و تحلیل منجر به نتیجهگیریهای بسیار دیوانهکننده میشوند. | آیا فیس بوک به پایان می رسد؟ |
7668 | فرض کنید من داده هایی با متغیرهای توضیحی p دارم و می خواهم از الگوریتم LARS برای ساخت یک مدل استفاده کنم. آیا 1. LARS را اجرا کنم تا زمانی که همه متغیرهای p به مدل من اضافه شوند و همبستگی بین هر متغیر و باقیمانده 0 باشد؟ 2. یا آیا LARS را زودتر خاتمه میدهم، مثلاً الف) با توقف LARS هنگامی که k<p متغیرها به مدل من اضافه شدهاند، یا ب) با توقف زمانی که همبستگی بین هر متغیر و تلاقیهای باقیمانده از مقداری از آستانه t عبور میکند؟ (که در آن k یا t را می توان با اعتبارسنجی متقابل تعیین کرد.) در خواندن مقاله اصلی توسط افرون و همکاران. دوباره، به نظر می رسد که من نسخه 1 را انجام می دهم (مدل کامل را بسازم). اما بعد من گیج شدم -- این راه حل با تخمین OLS با حداکثر احتمال چگونه تفاوت دارد؟ (تخمین OLS همچنین بین هر متغیر و باقیمانده همبستگی صفر ایجاد می کند، و من فکر می کردم تنها یک راه برای به دست آوردن این همبستگی صفر وجود دارد، یعنی با طرح ریزی متعامد. یا اشتباه می کنم؟) | شرط توقف برای رگرسیون حداقل زاویه |
47684 | آیا کسی می تواند توضیح دهد که $J$ در این مقاله، معادله 1.5 از چه چیزی تشکیل شده است. $$ J \sim N(\beta, \sigma^2 I/k) $$ $\beta$ اینجا چیست؟ $N$ چیست؟ همچنین، چرا آنها به جای اینکه فقط بگویند از CV برای پیدا کردن بهترین $k$ استفاده کنید، این همه تلاش برای استخراج $k$ با فرمول های پیچیده انجام می دهند؟ | درک رگرسیون خط الراس بی طرفانه |
86426 | من برخی از معیارها را امتحان می کنم تا فهرستی از نام ژن ها را با مقادیر عددی مرتبط که با فراوانی آنها مطابقت دارد فیلتر کنم. من به دنبال چند ژن جالب هستم و سعی می کنم ببینم که آیا آنها قبل و بعد از فیلتر کردن به منطقه برتر لیست ژن های رتبه بندی شده (رتبه بندی شده بر اساس فراوانی) می رسند یا خیر. لطفاً شکل ضمیمه شده را ببینید.  میخواهم ببینم رتبهبندی ژن مورد علاقهام (G) قبل و بعد از فیلتر کردن به طور قابل توجهی تغییر کرده است یا خیر. به فکر انجام تست دقیق فیشر برای نسبت ها برای تعیین اهمیت است. بنابراین با توجه به رتبه ژن مورد نظر، مایلم به تعداد ژن های بالا و پایین ژن در رتبه با و بدون فیلتر نگاه کنم و نسبت آنها را با استفاده از تست FE مقایسه کنم اگر در داده های فیلتر شده سازمان ملل 200 و 2800 ژن بالا و پایین G و 30 و 100 به ترتیب در داده های فیلتر شده، سپس می توانم آزمایش FE را به صورت زیر انجام دهم (در R): >my.mat <- matrix(c(30,100,200,2800),nrow=2,byrow=TRUE) >my.mat [,1] [,2] [1,] 30 100 [2,] 200 2800 >fisher.test(my.mat, alternative=two.sided) لطفاً به من اطلاع دهید که آیا اصلاً می توانم آزمایش دقیق فیشر را برای چنین اندازه گیری انجام دهم؟ پیشاپیش ممنون | آزمایش دقیق فیشر برای غنی سازی رتبه ژنی |
110578 | من سعی می کنم جدول 2.1 (ص. 41) LeSage and Pace (2009) را با استفاده از **نرم افزار باز R** بازتولید کنم. این جدول حاوی تأثیرات مستقیم، غیرمستقیم و کل یک مدل SAR است (از آنجایی که ضرایب رگرسیون را نمی توان مستقیماً به دلیل سرریزها تفسیر کرد)، **تقسیم بندی شده توسط W-order **. من می توانم قسمت اول جدول (ضربه ها () را در R تولید کنم، اما در حال حاضر سرنخی در مورد **نحوه تقسیم این تاثیرات در هر توان W در نرم افزار R** ندارم. لطفا، کسی می تواند به من راهنمایی کند که چگونه این کار را انجام دهم؟ من بسیار سپاسگزار خواهم بود! پیشاپیش خیلی ممنون جانکا | تقسیم بندی فضایی تأثیرات مستقیم، غیر مستقیم و کل |
14471 | من باید در مورد پارامتر مثبت $p$ استنباط کنم. برای جبران مثبت بودن، $p=\exp(q)$ را مجدداً پارامتریزه کردم. با استفاده از روال MLE، تخمین نقطه و s.e را برای $q$ محاسبه کردم. ویژگی عدم تغییر MLE مستقیماً یک تخمین نقطه ای برای $p$ به من می دهد، اما من مطمئن نیستم که چگونه s.e را برای $p$ محاسبه کنم. پیشاپیش از هرگونه پیشنهاد یا مرجعی تشکر می کنم. | چگونه خطاهای استاندارد را برای تبدیل MLE محاسبه می کنید؟ |
30623 | لطفا راهنمایی کنید که چگونه به بهترین شکل به موارد زیر نزدیک شوید. من روندی به دنبال سیگنال معاملاتی دارم که شامل میانگین متحرک ساده پس از n نقطه داده است. داده ثابت است. در حال حاضر من یک z-score را بر اساس n نقطه داده محاسبه می کنم و قدرت سیگنال جدیدترین نقطه داده را به عنوان مقدار z-score آن قضاوت می کنم. چه جایگزین هایی ممکن است نشانگر بهتری از قدرت سیگنال ارائه دهند؟ شایان ذکر است که داده ها همبستگی خودکار مرتبه اول منفی را نشان می دهند و (شاید سخت تر) درجه همبستگی خودکار منفی ثابت نیست - اما بیایید بگوییم که به روشی قابل پیش بینی متفاوت است. هر گونه اشاره در مورد نوع مدل هایی که شاید باید در نظر بگیرم قدردانی خواهد شد. یوگ | میانگین متحرک اطمینان سیگنال |
40554 | شرکت کنندگان (N=14) دو پرسشنامه را در دو مقطع زمانی پر کردند و من می خواهم همبستگی بین متغیرها را ببینم. آیا این حجم نمونه کافی است؟ همچنین، آیا باید قبل از اجرای تجزیه و تحلیل همبستگی، آیتم ها را کدگذاری معکوس کرده باشم؟ | حجم نمونه برای همبستگی پیرسون و موارد کدگذاری شده معکوس برای تحلیل همبستگی؟ |
83137 | آیا می توان مدل های خطی پویا را به عنوان موارد خاصی از مدل های چندسطحی/مدل های ضریب تصادفی در نظر گرفت؟ اگر بله، دلیل پشت آن چگونه است؟ | مدل خطی پویا و مدل های چند سطحی |
47683 | من در اخبار خوانده ام که در ماه گذشته پنج عابر پیاده از جمعیت 500000 نفری جان خود را از دست دادند. به یاد داشته باشید که این یک مشکل سمی است (لگدهای معروف اسب پروس توسط Ladislaus Bortewicz). من R را برای درک احتمال ppois (5*12, 3, low.tail=F) شلیک کردم چون در یک ماه مرده 5 شد آن را در 12 ماه ضرب کردم و با آمار رسمی 3 عابر پیاده در سال در این منطقه مقایسه کردم. . نتیجه: [1] 1.310782e-56 بنابراین، بله، این یک مورد غیرعادی است. آیا من همه چیز را درست انجام می دهم؟ | محاسبه احتمال یک رویداد نادر |
40555 | من دادههایی برای چند گروه دارم - برخی از دادههای سطح همگروهی از طریق Z-scores عادی شدهاند، و برخی از آنها از طریق تبدیلهای گزارش نرمال شدهاند. (آق.) آیا راهی برای مقایسه آنها وجود دارد؟ آیا می توانم امتیازهای Z را به داده های خام تبدیل کنم، سپس آنها را تبدیل به لاگ کنم؟ (من میانگین و انحراف معیار را برای داده های خام گروه های با امتیاز Z دارم). همچنین - من این پست را دیدم: چگونه می توان امتیازهای تبدیل Z را ثبت کرد؟، اما از آنجایی که من چند همگروه دارم باید مطمئن باشم که همه داده ها در یک مقیاس هستند / به یک روش تبدیل شده اند. هر فکری مفید خواهد بود. | مقایسه امتیازهای Z و دادههای تبدیلشده گزارش |
38363 | من در حال نوشتن یک رگرسیون لجستیک هستم که به عوامل والدینی (یعنی افسردگی والدین، اضطراب و استرس) به عنوان پیشبینیکنندههای وجود تشخیص اختلال اضطراب کودک نگاه میکند. پروتکل دوباره چیست. گزارش همبستگی های دو متغیره (طبق APA6- یا حتی به طور کلی)؟ آیا توصیه میشود قبل از نوشتن رگرسیون لجستیک جدولی از همبستگیها گنجانده شود؟ و اگر چنین است، آیا این شامل DV طبقهبندی میشود، حتی اگر چنین همبستگیهایی خیلی معنیدار نیستند؟ من هرگز رگرسیون لجستیک ننوشته ام و در یافتن نمونه های زیادی مشکل دارم. ممنون از کمکت :) | آیا هنگام گزارش رگرسیون لجستیک لازم است همبستگی های دو متغیره گزارش شود؟ |
108457 | من می خواهم فاصله اطمینان را برای یک متغیر با کران پایین محاسبه کنم و به نظر نمی رسد که بفهمم چگونه این کار را انجام دهم. من چندین پست مشابه را دیده ام، اما هیچ کدام به سوال من پاسخ نداده اند، حداقل نه مستقیم. من از یک مثال اسباب بازی در اینجا برای سادگی استفاده می کنم. برای دقیق بودن، بیایید توزیع را در نظر بگیریم (من خودم این اعداد را انتخاب کردم تا به نوعی شبیه توزیع پواسون به نظر برسد)، {1,2,3,5,1,2,2,3,7,2,3,4,1 ,5,7,6,4,1,2,2,3,9,2,1,2,2,3} که در زیر نشان داده شده است،  اگر من انحراف معیار و میانگین را برای این توزیع محاسبه کنم، به ترتیب 3.1 و 2.4 دریافت می کنم، اما از آنجایی که توزیع یک توزیع نرمال نیست، اینطور نیست. واقعاً فاصله اطمینان را به من بدهید. چگونه می توانم فاصله اطمینان را به درستی محاسبه کنم؟ | فاصله اطمینان برای داده های توزیع شده پواسون |
47689 | من دو تابع $f_x$ = $\frac{1}{2}\delta(x-5) + 1/4$ دارم که 1/4 مربوط به توزیع یکنواخت از 5 تا 7 است. من همچنین $f_{ دارم y|x}$ = $\frac {1}{2}\delta(y-x-4) + 1/4$ که 1/4 در محدوده x+4 تا x+6 است. من سعی می کنم $f_y$ را با استفاده از معادله پیدا کنم: $$ f_y = \int f_x f_{y|x} \,\mathrm dx \>. $$ سوال من این است: چگونه می توانم محدودیت های این ادغام را پیدا کنم؟ من به چیزی شبیه ادغام از $y-4$ به $y-6$ فکر کرده بودم، اما واقعاً درست به نظر نمی رسد. | محدودیت های ادغام برای محاسبه توزیع حاشیه ای |
47682 | من سعی می کنم نتایج شبیه سازی یک مقاله را تکرار کنم، اما موفقیت زیادی کسب نمی کنم. معادله این است: $$ P_t = \beta_{PD}*X_t + \varepsilon_{PD,t} $$ * $P_t$ (بر اساس فرض) به عنوان نرمال استاندارد توصیف میشود. * $\beta_{PD}$ ثابت $0\leq\beta_{PD}\leq1$ است. * $\varepsilon_{PD,t}$ - یک اصطلاح باقیمانده است. به طور دقیقتر، $\varepsilon_{PD,t}$ در مقاله بهعنوان «..تغییرات باقیمانده، متقابل مستقل، مستقل از $X_t$، و معمولاً بهگونهای توزیع میشوند که $P_t$ یک متغیر توزیع شده نرمال استاندارد است» توصیف میشود. ، صفحه 5. مجموع واریانس های متغیرهای تصادفی تبدیل شده باید $1$ باشد زیرا $P_t$ $\mathcal N(0,1)$ است. واریانس عبارت اول $\beta_{PD}^2$/انحراف استاندارد $\beta_{PD}$ است. چگونه جمله دوم را طوری می سازید که مجموع عبارت ها $\mathcal N(0,1)$ باشد؟ پیشنهاد دیگری غیر از اینکه چگونه این کار را در زیر انجام داده ام وجود دارد؟ کد R: Bpd<-0.4; Xt<-rnorm(100000,0,1);E.pd<-rnorm(100000,0,1) # معادله 1 همانطور که در مقاله بیان شد Pt = (Bpd)*Xt + E.pd # Pt2 استاندارد N( 0،1) اما نه آنطور که (eq1) در مقاله نوشته شده است Pt2<-(Bpd)^0.5*Xt+(1-Bpd)^0.5*E.pd sd(Pt); sd(Pt2) **مرجع:** ارزیابی رابطه بین احتمال نکول و زیان پیش فرض در یک سبد وام کشاورزی، توسط نیکلاس ک. ساکایمبو و گلن دی. پدرسون. | چگونه می توان مجموع دو متغیر توزیع شده نرمال را هنگام تبدیل خطی شبیه سازی کرد؟ |
83139 | به نظر می رسد این یک سوال بسیار کلی در مورد بایاس است که OLS برای متغیرهای RHS با واریانس نابرابر تولید می کند، اما من نتوانستم راه حل صریحی در جایی پیدا کنم. فرض کنید یک متغیر تصادفی $y_t \sim N(0، \sigma_y^2)، t = 1، \ldots، N$ داریم. و ما $x_{it}$ داریم، تخمینگرهای پر سر و صدای $y_t$، برای $i = 1، \ldots، k$x_{it} = y_t + \delta_{it}، \delta_{it} \sim N (0، \sigma_i^2)$ اگر رگرسیون OLS را روی $y_t = \beta_1 x_{1t} + \beta_2 اجرا کنیم x_{2t} + \epsilon_t$ ما $\sum \hat\beta_i \neq 1$ دریافت می کنیم که برای من شهودی نیست. اول، آیا این حتی یک تعصب است؟ یا فقط واریانس نابرابر را جبران می کند؟ اگر همه چیز را به درستی عادی کنیم، بنابراین $\sigma_y^2 = \sigma_{x_i}^2$، باید $E[\hat\beta_i] = 1 / k$ را به عنوان $N \rightarrow \infty$ دریافت کنیم. من نتایج تجربی از شبیهسازیهای زیر دارم، اما در مورد شکل عملکردی مجانبی $E[\hat\beta_i]$ به عنوان تابعی از $\sigma_y^2، \sigma_1^2، \ldots، \sigma_k^ کنجکاو بودم. 2 دلار $f(\sigma_y، \sigma_1) \rightarrow \hat\beta_1, f(1,1) \rightarrow 1/2, f(1,2) \rightarrow1/5, f(2,1) \rightarrow 4/5 $f(\sigma_y، \sigma_1، \sigma_2) \rightarrow (\hat\beta_1، \hat\beta_2)، f(1,1,1) \راست فلش (1/3, 1/3), f(2,1,1) \rightarrow (4/9, 4/9), f(1,2,1) \rightarrow (1/9، 4/9)$ علاوه بر این، اگر خطاهای RHS همبستگی داشته باشند چه میشود، به طوری که $\sigma_{ij}^2 \neq 0$. چگونه برای $\Sigma$ غیر مورب تعمیم می یابد؟ | مجانبی ضرایب OLS برای متغیرهای RHS واریانس نابرابر |
14474 | میپرسم آیا کسی مجموعهای از تکنیکهای اعتبارسنجی متقاطع را با بحث در مورد تفاوتهای بین آنها و راهنمایی در مورد زمان استفاده از هر یک از آنها میشناسد. ویکیپدیا فهرستی از رایجترین تکنیکها را دارد، اما من کنجکاو هستم که آیا تکنیکهای دیگری نیز وجود دارد و آیا طبقهبندی برای آنها وجود دارد یا خیر. برای مثال، من فقط به کتابخانهای برخوردم که به من امکان میدهد یکی از استراتژیهای زیر را انتخاب کنم: * Hold out * Bootstrap * K Cross-validation * یکی را کنار بگذاریم * Stratified Cross Validation * Balanced Stratified Cross Validation * Stratified Hold out * Stratified Bootstrap و من سعی می کنم بفهمم طبقه بندی شده و متعادل چه معنایی در بوت استرپینگ، نگه داشتن یا CV دارد. ما همچنین میتوانیم این پست را در صورت تمایل به یک ویکی جامعه تبدیل کنیم و بحثی درباره تکنیکها یا طبقهبندیها در اینجا جمعآوری کنیم. | خلاصه ای از تکنیک های اعتبار سنجی متقابل |
103564 | آیا من درست می گویم که نتایج حاصل از ANOVA اندازه گیری های مکرر به شما نمی گوید که تفاوت در گروه (در صورت وجود) کجاست؟ پس یک تست _post hoc_ باید انجام شود؟ من از Stata برای تجزیه و تحلیل داده های خود استفاده می کنم. در زیر نتیجه معمولی است که من به دست آوردم، اما نتایج قابل توجه است. چگونه می توانم تجزیه و تحلیل بیشتری انجام دهم تا بفهمم کدام گروه تفاوت معنی داری دارند؟  | چگونه تفاوت قابل توجهی را در یک گروه / ANOVA پیدا کنیم |
11562 | یک آزمون آماری خوب برای بررسی اینکه آیا سوگیری در قضاوت در موقعیتی وجود دارد که یک داور وجود دارد که نمرات شدید (نمره بالا برای یکی از شرکت کنندگان و نمرات بسیار پایین برای بقیه شرکت کنندگان) وجود دارد یا خیر چیست؟ در اینجا داده های واقعی در مسابقه آمده است: شرکت کننده 1 شرکت کننده 2 شرکت کننده 3 شرکت کننده 4 داور 1 83.03 96.5 88.5 90.5 داور 2 67.15 89.9 85.36 89.85 داور 3 72.05 89.58 84.6 8 قاضی 93.3 88 94.1 داوری 5 44 65.15 52.45 96.05 بسیار متشکرم! | ارزیابی تعصب ارزیاب در جایی که یک رتبهدهنده به یک رتبهبندی بسیار بالا و بقیه رتبههای بسیار پایین داده است |
13843 | من به دنبال یک CDF (یا دقیق یا تقریبی) از اولین زمان عبور، $T$، یک فرآیند ذخیره سازی $\\{X(t) هستم. 0 \leq t < \infty \\}، $ با جهشهای ورودی ثابت (واحد) که در فرآیند پواسون با میانگین نرخ $\lambda$ پرش در واحد زمان، نرخ فروپاشی نمایی، آلفا $X(t)$، و مقدار اولیه $X(0) = x_0$. من چندین مرجع در ادبیات مسائل مشابه پیدا کردم که در آن ورودی ها پواسون مرکب هستند، یعنی هر دو فواصل بین ورودی های متوالی و دامنه _ ورودی به صورت نمایی توزیع شده اند، به عنوان مثال: * Harrison, J.M & Resnick, S (1976) توزیع ثابت و اول احتمالات خروج از یک فرآیند ذخیره سازی با نرخ انتشار عمومی. ریاضیات عملیات Res. 1، 347-358. * بله، G.F. (2010) کشف مجدد اولین نتیجه زمان گذر برای سدها و صدای شلیک. Mathematical Scientist جلد. 35، شماره 1، 18-22 و همچنین نمونه ای از دامنه های ورودی و انتشار هر دو ثابت: * Moran، P.A.P. (1959) Theory of Storage 79-81. اما من نتوانستم مورد ورودی های دامنه ثابت و فروپاشی نمایی را پیدا کنم. | CDF زمان گذر اول برای نویز سد/شات پواسون با پرش های دامنه ثابت و فروپاشی نمایی |
83133 | بنابراین، من یک تکلیف خانه دارم که در آن از من خواسته می شود تا تناسب دو مدل مشابه را با مقایسه $R^2$ و AIC آنها مقایسه کنم. هر دو مدل در R اجرا شدند، یکی با استفاده از دستور 'lm' (برای OLS) و دیگری از دستور 'glm'. مدل اول R^2$ تعدیل شده 0.82 را به همراه داشت و مدل دوم، با همان DV و متغیرهای کمکی، AIC 365.96 را تولید کرد. تنها تفاوت بین مدل ها، g در دستور 'lm'/'glm است. ضرایب و خطاهای استانداردی که آنها برگردانده اند تقریباً یکسان هستند. چگونه می توان $R^2$ و AIC را مقایسه کرد؟ چگونه می توانم بگویم کدام مدل رگرسیون با داده ها سازگاری بیشتری دارد؟ | مقایسه AIC و تنظیم $R^2$ |
55065 | سوال من مربوط به تست ARCH LM است. در واقع من داده های سه ماهه CPI را برای پاکستان با پایه 2005 دارم. من آن را با گرفتن تفاوت لگ به نرخ رشد Y-O-Y تبدیل کرده و سپس آن را ثابت کرده ام. وقتی تست ARCH LM را روی دادههای خام اعمال میکنم، نتایج قابل توجهی نشان میدهد، اما وقتی آن را روی دادههای متفاوت اعمال میکنم، این تست بیاهمیت میشود. میخواهم بپرسم روی کدام نوع داده باید تست ARCH LM را اعمال کنیم | استفاده از آزمون ARCH LM بر روی داده ها |
62631 | در پرسشنامه ام این دو سوال را پرسیدم: 1. q1. آیا تا به حال در تعطیلاتی بوده اید که شامل بازدید از لوکیشن فیلم باشد؟ * بله (به سوال بعدی بروید) * خیر 2. q2. آیا تا به حال به یک مکان فیلم رفته اید که دلیل اصلی آن بازدید از آن سایت فیلم باشد؟ * بله * خیر. از نظر پاسخ افراد به این سوالات، آنها را به 3 گروه تقسیم کردم. اول کسانی که به q1 نه گفتند، دوم کسانی که به q2 بله گفتند و سوم کسانی که به q2 نه گفتند. مشکل من این است که باید از آنالیز ANOVA استفاده کنم، زیرا من 3 گروه دارم. اما من نمی دانم چگونه می توانم پاسخ این دو سوال را در یک متغیر در SPSS ادغام کنم. | کدگذاری مجدد متغیرها برای ترکیب دو سوال در SPSS |
88959 | من در 100 روز گذشته هر روز در حال تجزیه و تحلیل بودم که احتمال افزایش یا کاهش آن اندازهگیری در طول یک هفته چقدر است (مثلاً 4 بار از 7، 60٪ احتمال دارد اندازهگیری من بالا برود) اما نتوانستم. رکورد 10 روز متوالی، بنابراین من دوباره شروع کردم. بیایید بگوییم: * روز 1: 10 * روز 2: 11 * روز 3: 10 * روز 4: 14 ... * روز 90: 13 * روز 91: -- * روز 92: -- * ... _(روز 93 تا 99: --)_ * روز 100: -- * روز 101: 16 * روز 102: 15 * روز 103: 15 که در آن -- هیچ داده ای برای آن روز ثبت نشده است. قبل از اینکه خواندن آن آسان بود، در طول هر 7 روز متوالی، احتمال افزایش اندازه گیری x است، اما پس از شکاف، اینطور نیست، زیرا 7 روز گذشته خواندن از دست رفته است. بهترین راه برای تفسیر قرائت های از دست رفته چیست؟ آیا باید از این شکاف خلاص شوم؟ | چگونه می توان شکاف ها را در سری های زمانی در نظر گرفت؟ |
13847 | من سعی می کنم بفهمم که چگونه dinterval() در JAGS برای داده های سانسور شده کار می کند. من دادههای درشت را مدلسازی میکنم که در آن فقط مرزهای بالا و پایین برای هر نقطه داده (نه مقدار واقعی) دارم. در اینجا یک مثال ساده از نحوه کارکرد آن وجود دارد: برخی از کران های بالا و پایین برای هر نقطه: > head(lim) L U [1,] 14.98266 15.68029 [2,] 21.21827 21.91590 [3،] 18.34953 19.047]1 19.00186 19.69949 [5،] 15.39891 16.09654 [6،] 17.81705 18.51468 تابعی برای نوشتن مدل (با فرض اینکه داده ها از یک نرمال با میانگین و واریانس مشترک آمده باشند): playmodel <- function(){ برای (i در 1:50) { is.censored[i] ~ diterval(t[i], lim[i،]) t[i] ~ dnorm(mu,tau) } mu ~ dnorm(0,001) tau ~ dgamma(.01,.01) } نام فایل <- toymod.bug write.model( toymod,filename) برخی از توابع و تکالیف برای فراخوانی jags: data <- list(lim=lim) inits <- list(mu=rnorm(1),tau=rgamma(1,.01,.01),t=as.vector(apply(lim,1,mean))) #آخرین قسمت اطمینان از اینکه مقدار شروع بین حد بالا و پایین #هر زنجیره برای t از یک مکان شروع می شود اما این فقط برای این مورد است پارامترهای <- c(mu,tau) و مدل را اجرا کنید: playmodel.jags <- jags(data,inits, params, model.file=toymod.bug, n.chains=3, n.iter=50000,n.burnin=30000, n.thin=1, DIC=TRUE, working.directory= NULL، refresh = 50000/50، progress.bar = text) وقتی این را اجرا می کنم چه اتفاقی می افتد؟ 1) تخمین من از mu دقیقاً حول 0 حرکت می کند در حالی که باید 15 باشد 2) اگر DIC=TRUE اجرا نمی شود: > خطا: خطا در jags.samples(model, variable.names, n.iter, thin, type = > trace, : تنظیم مانیتور ردیابی برای انحراف گره انجام نشد توجه: می توانم با حذف ()dinterval یک مدل مشابه در OpenBUGS اجرا کنم. خط و اضافه کردن I (پایین، بالا) به dnorm. | چگونه dinterval() برای داده های سانسور شده در JAGS کار می کند؟ |
93779 | من کاملاً با SPSS تازه کار هستم. من یک سوال در مورد شبیه سازی دارم. آیا می توانیم برای مدل سری زمانی با استفاده از SPSS شبیه سازی کنیم؟ پیشاپیش ممنون | نحوه انجام شبیه سازی برای مدل سری زمانی با استفاده از SPSS |
47027 | من این سردرگمی مربوط به محاسبه یک توزیع شرطی را دارم، فرض کنید $y_n = N(0,w)$ $p(o_n|y_n) = N(D.y_n,\phi)$ چگونه $p(y_n را محاسبه کنم| o_n)$ در واقع من داشتم این مقاله مربوط به انتساب داده های گمشده را می خواندم که از همبستگی فضایی بین داده ها استفاده می کرد. http://astro.temple.edu/~tua86150/Lou_IJCAI_11.pdf. با این حال، در حالی که مقاله را مرور می کردم، این قسمت را که در آن $E(y_n|o_n)$ را محاسبه می کند، نگرفتم. هر گونه پیشنهاد بسیار قدردانی خواهد شد. در واقع، $y_n$ به عنوان متغیرهای پنهان در مقاله در نظر گرفته می شود و {$y_n,o_n$} یک مدل متغیر پنهان خطی-گاوسی را نشان می دهد. متغیرهای پنهان {$y_n$} به عنوان مستقل در نظر گرفته می شوند | سردرگمی مربوط به محاسبه توزیع شرطی |
85994 | لطفاً کسی می تواند رابطه (در صورت وجود) بین SUR و SOLS را روشن کند؟ آیا SOLS روشی برای تخمین SUR است؟ تفاوت بین SUR و SOLS چیست؟ همچنین آیا درست است که این روش ها نسبت به تخمین گام به گام این معادلات توسط OLS مزیت دارند، زیرا می توانیم روابط معادله متقاطع را بدست آوریم؟ | رگرسیون به ظاهر نامرتبط در مقابل سیستم OLS |
31579 | مقدار بهینه $k$ برای طبقهبندیکننده kNN اقلیدسی بدون وزن که روی مجموعه دادههای Iris اعمال میشود چقدر است؟ جایی که بهینه به معنای مقدار $k$ است که منجر به کمترین خطای تعمیم می شود. | $k$ بهینه برای طبقهبندی کننده نزدیکترین همسایه $k$ در مجموعه داده Iris چیست؟ |
89396 | Multi-Armed Bandit: http://en.wikipedia.org/wiki/Multi-armed_bandit Uplift Modeling: http://en.wikipedia.org/wiki/Uplift_modelling این دو رویکرد چگونه متفاوت هستند؟ چگونه شبیه هستند؟ آیا یکی بهتر از دیگری است؟ ویرایش: اگر به یک سناریوی نمونه نیاز است، موارد زیر را در نظر بگیرید. ما تبلیغات بنری را به صورت آنلاین قرار می دهیم و می خواهیم افراد مناسب را هدف قرار دهیم. اصولاً آن دسته از افرادی که در صورت ارائه آگهی، احتمال بیشتری دارند که اقدام دلخواه خود را انجام دهند. به نظر می رسد که این یک مشکل مدل Uplift است، اما مطمئن نیستم که آیا راهزن مسلح نیز در این مورد قابل استفاده است یا خیر. | الگوریتم های راهزن چند مسلح در مقابل مدل سازی Uplift |
111341 | من متوجه هستم که این ممکن است یک سؤال نسبتاً گسترده باشد، اما آیا کسی میتواند یک رویکرد آماری مناسب برای تجزیه و تحلیل این نوع دادهها پیشنهاد کند؟ به عنوان مثال، آیا درصد سلول های مرده بین دوزها به طور قابل توجهی متفاوت است و آیا درصد انواع سلول ها متفاوت است؟  آیا درصد کل سلول های مرده و انواعی که آن را تشکیل می دهند، متغیرهای وابسته جداگانه ای را نشان می دهند و بنابراین تجزیه و تحلیل چند متغیره را تشکیل می دهند؟ | تحلیل چند متغیره؟ |
13845 | من روی یک سیستم معاملاتی کار می کنم و باید آماری را در مورد نتایج اعمال کنم. متأسفانه پس از بیش از یک دهه پیش که دانشگاه را ترک کردم همه چیز را در مورد آمار فراموش کردم و اکنون واقعاً نمی دانم چگونه باید آنچه را که نیاز دارم محاسبه کنم. امیدوارم کسی بتونه کمکم کنه خارج از برنامه معاملاتی (در حال حاضر در حالت آزمایشی)، من سود / زیان (PL) در هر معامله و در روز دریافت می کنم. فرض کنید PL روزانه (انباشت PL کل را در دوره معین به دست می دهد) آزمایش 5 سال پیش (حدود 1250 امتیاز) دارم، بهترین راه برای پیش بینی سود کل چیست. در 6 ماه آینده (125 امتیاز جلوتر) و سال بعد (250 امتیاز جلوتر)؟ البته هر معامله ای سودآور نیست. بنابراین من معاملات با زیان و (امیدوارم) معاملات بیشتری با سود دارم. بهترین روش برای محاسبه سود در روز (با یک اطمینان خاص) چه زمانی است که فقط معاملات برنده را در نظر بگیرید، وقتی فقط به معاملات بازنده نگاه کنید چه ضرری خواهید داشت و زمانی که PL چقدر خواهد بود. هر دو معامله برنده و بازنده را با هم انجام دهید. چگونه می توانم تغییری را محاسبه کنم که در طی یک دوره زمانی X، استراتژی با درصد خاصی از قابلیت اطمینان) درآمد کسب می کند؟ علاوه بر این، من البته فقط یک استراتژی را معامله نمی کنم، بلکه چندین استراتژی را معامله خواهم کرد. بر اساس آزمایش برگشتی، چگونه می توانم احتمال اینکه پرتفولیویی که در آن معامله خواهم کرد در دوره x درآمد کسب کند و چگونه می توانم پهنای باند را برای سود مورد انتظار برای استخر محاسبه کنم؟ امیدوارم بتوانید به من کمک کنید از کدام روش استفاده کنم (به هر حال من آن را در سی شارپ برنامه نویسی خواهم کرد). * * * **نمونهای از PL روزانه (برای طرحبندی به 0 اعشار گرد گرد شده):** DBDate PeriodToPeriodPL Accumulation 20060720 0 20060721 -1741 -1741 20060724 -725 -2027 -2060 -725 -2060 20060726 -149 -3427 20060727 -3517 -6945 20060728 2253 -4692 20060731 97 -4594 20060801 54 -4541 200606020206029 726 -3486 20060804 569 -2917 20060807 1359 -1558 20060808 -682 -2240 20060809 -635 -2874 20060810 20060810 -22815 -2720 -2720 - 20060814 -542 -3948 20060815 -1320 -5268 20060816 932 -4336 20060817 2553 -1783 20060818 -155 -1938 -2006 -155 -1938 -2006 20060822 669 -1637 20060823 433 -1204 20060824 -734 -1938 20060825 361 -1577 20060828 -479 -2056 20060606060608 -479 -479 -2056 -1268 -3686 20060831 -424 -4111 20060901 779 -3331 20060904 1857 -1475 20060905 -356 -1831 20060906 -14060906 -14094 -140906 -140906 -2452 20060908 1130 -1322 20060911 -254 -1576 20060912 -731 -2308 20060913 -442 -2749 20060914 982 -17602 -17602 -17602 20060918 1236 -1024 20060919 -842 -1866 20060920 80 -1786 20060921 -2628 -4413 20060922 185 -4228 - 20062 - 200606 377 -3963 20060927 -1806 -5769 20060928 881 -4888 20060929 -800 -5688 20061002 2010 -3677 20061003 74061003 74061003 7494 -1821 20061005 2214 393 20061006 1110 1503 20061009 1401 2903 20061010 -65 2838 20061011 -77 27612 -77 276127 20061013 -1512 462 20061016 300 762 20061017 1058 1820 20061018 1625 3445 20061019 773 4218 200624 200618 20061023 492 6564 20061024 -1063 5501 20061025 1230 6731 20061026 148 6878 20061027 11 68803 20078 - 20061 20061031 -47 5652 20061101 -484 5168 20061102 -152 5017 20061103 -998 4019 20061106 -591 3428 20091106 20061106 378 2836 20061109 1217 4052 20061110 745 4797 20061113 201 4998 20061114 -454 4545 20061115 20061115 1494 1494 20061117 -677 4151 20061120 1404 5555 20061121 864 6418 20061122 271 6689 20061123 1503 81912 2006 1503 81912 2006 20061127 2245 15014 20061128 -2902 12112 20061129 2002 14114 20061130 1108 15222 20061201 12726201 127261 18715 20061205 -1496 17219 20061206 842 18061 20061207 -1639 16422 20061208 650 17072 2006121 | از چه روش هایی برای پیش بینی/پیش بینی آماری داده های معاملاتی استفاده کنیم؟ |
62637 | من باید رابطه بین دو متغیر را شناسایی کنم. من دو مجموعه از اقدامات انجام شده توسط دو سیستم رقیب را دارم، و می خواهم مقایسه کنم که این دو سیستم چقدر به یکدیگر نزدیک هستند. در اینجا مثالی از نحوه ظاهر داده ها (مقادیر ساختگی) آمده است: اندازه گیری. ║ اندازهگیری-2 ║ ╠════════╬═════════════════════════ obj1 ║ 0 ║ 120 ║ ║ obj2 ║ 1 ║ 60 ║ ║ obj3 ║ 0 ║ 20 ║ ║ obj4 ║ 4 ║ 240 ║ ╚════════╩═══════════╩══════════════════╩════════╩═══════ مقیاسی که آنها استفاده می کنند، اما به احتمال زیاد یکی از سری داده های خطی و دومی در مقیاس لگاریتمی ساخته شده است. من با طرح سریال به صورت پراکنده متوجه این موضوع شدم. با استفاده از مقیاس خطی برای X و Y، این رابطه خطی نیست، زیرا منحنی به سرعت رشد میکند و سپس صاف میشود در حالی که X افزایش مییابد. اگر تیک مقیاس لگاریتمی را در محور Y نمودار بزنم، نقاط کاملاً تراز هستند. اولین سوال من این است که آیا این نشان می دهد که سری X از مقیاس لگاریتمی استفاده می کند؟ سوال دوم من در مورد یافتن راه مناسب برای بررسی میزان شباهت سریال ها به یکدیگر است. حدس من این است که من باید ضریب همبستگی بین هر دو سری را محاسبه کنم (یعنی یک معیار نرمال شده از نزدیک بودن دو مجموعه اندازه گیری به دست بیاورم)، اما فکر می کنم ابتدا لازم است یکی از سری های داده پردازش شود تا مقیاس مجدد شود. قبل از استفاده از تابع CORREL صفحه گسترده. من سعی کردم log() را برای یکی از سری ها اعمال کنم و همبستگی را محاسبه کنم، اما به نظر نمی رسد که نتایج مرتبطی ارائه دهد (ضریب نزدیک به 0.5 است، با وجود تراز قوی نقاط). من در مورد همبستگی رتبه پیرسون خوانده ام، اما مطمئن نیستم که چگونه آن را در اکسل محاسبه کنم. | همبستگی بین سری خطی و لاگ |
5619 | من می دانم که $r$ خود معیاری برای اندازه اثر است، اما می خواهم بدانم که آیا با استفاده از آزمون رتبه اسپیرمن می توانم استدلال کنم که رابطه بین X و Y با $r = 0.33$ معنی دار است و اینکه اثر متوسط است. همانطور که من با تست پیرسون انجام می دهم. | اندازه اثر آزمون رتبه اسپیرمن |
11568 | من یک نمونه داده از متغیر تصادفی غیر منفی $X$ با توزیع ناشناخته و مقدار مورد انتظار از پیش تعریف شده $y$ دارم. آیا آزمونی وجود دارد که بتواند فرضیه صفر $\mathbb{E}[X]\geq y$ یا $\mathbb{E}[X]\leq y$ را بررسی کند؟ نمونه داده های واقعی در زمان واقعی جمع آوری می شوند. به طور خاص، فواصل بین درخواستهای HTTP است که از یک مشتری به وب سرور میآیند. آزمون پیرسون نشان داد که متغیر توزیع شده نرمال نیست. | چگونه فرضیه تخمین متغیر تصادفی با توزیع مجهول را بررسی کنیم؟ |
38366 | لطفاً فرض کنید که من دو متغیر مستقل متریک (مثلاً دو پارامتر خون) و یک متغیر وابسته (مثلاً یک بیماری) دارم. در DV، 0 نشان دهنده عدم وجود بیماری، 1 نشان دهنده یک رخداد ضعیف ... 10 (حداکثر) یک رخداد بسیار قوی است (لطفاً مفید بودن چنین ارزیابی را نادیده بگیرید). مشکل فرضی به این دلیل است که در نمونه من (N = 80)، فقط 25٪ نمره > 0 در DV دارند (یعنی 20 شرکت کننده). به هر حال، من DV را روی IV1، IV2 و تعامل IV1 و IV2 پسرفت کردم (OLS و Tobit). به نظر می رسد تعامل قابل توجه است، هیچ اثر اصلی رخ نداده است. به دلیل پایین بودن خط پایه (25% > 0 در DV)، آیا این روش مشکل ساز است؟ آیا خط پایه من خیلی پایین است؟ آیا شرکت کنندگان به اندازه کافی مبتلا به این بیماری نیستند؟ اجازه دهید فرض کنیم، در حالت ایدهآل، همه 20 شرکتکننده بین 8-10 (DV) امتیاز میگیرند و همه 20 نفر الگوی خاصی از IVs دارند، به عنوان مثال، IV1 پایین و IV2 پایین، بنابراین این گروه، ساده شده، با # کم مقایسه میشود. IV1 و IV2 بالا. # IV1 کم و IV2 کم؛ # IV1 بالا و IV2 بالا. بنابراین از درک من، یک گروه 20 نفره با، در حالت ایده آل، 3 گروه 20 شرکت کننده مقایسه می شود که در تحقیقات پزشکی کاملاً رایج است. پس به نظر شما مشکلاتی وجود دارد؟ و آیا ادبیاتی پیشنهاد می کند که من مجاز (یا مجاز نیستم) داده ها را به روشی که انجام می دهم تجزیه و تحلیل کنم؟ خوب، چون من متخصص نیستم، امیدوارم که بتوانید چراغ ها را برای من روشن کنید... ممنون! | نمونه کوچک، پایه پایین در DV، به هر حال تعامل؟ |
5617 | فرض کنید دو عامل (A و B) داریم که هر کدام دارای دو سطح (A1، A2 و B1، B2) و یک متغیر پاسخ (y) هستند. هنگام انجام یک ANOVA دو طرفه از نوع: y~A+B+A*B ما در حال آزمایش سه فرضیه صفر هستیم: 1. تفاوتی در میانگین عامل A وجود ندارد. 2. تفاوتی در میانگین عامل B وجود ندارد. 3. هیچ اثر متقابلی بین عوامل A و B وجود ندارد هنگامی که نوشته میشود، دو فرضیه اول به راحتی قابل فرمولبندی هستند (برای 1 $H_0:\; \mu_{A1}=\mu_{A2}$) اما فرضیه 3 چگونه باید فرموله شود؟ **ویرایش** : و چگونه برای مورد بیش از دو سطح فرموله می شود؟ با تشکر | فرضیه NULL برای تعامل در یک ANOVA دو طرفه چیست؟ |
88954 | من یک مجموعه داده متشکل از تعدادی بیمارستان مختلف دارم. من سعی می کنم نسبت بیمارستان X را با نسبت کلی در مجموعه داده ها (که شامل بیمارستان X می شود) مقایسه کنم. آیا برای این کار نباید از آزمون نسبت دو نمونه استفاده کنم؟ من نگران هستم زیرا نسبت کلی شامل مشاهدات بیمارستان X است که فرض استقلال را نقض می کند. لطفاً به من بگویید از چه روشی باید استفاده کنم. همچنین، اگر قرار باشد مسائل مربوط به اندازه نمونه وجود داشته باشد (مثلاً یک بیمارستان واقعاً بزرگ تأثیر بیشتری بر نسبت کلی خواهد داشت، آیا این مشکل در مقایسه با بیمارستانهای کوچکتر بیشتر است؟) | مقایسه نسبت نمونه با نسبت جمعیت |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.