_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
110173
من سعی می کنم مقدار p را از یک آزمایش جایگشت جفتی دقیق پیدا کنم. برای نمونه های کوچک خوب کار می کند: > library(exactRankTests) > n <- 1000 > perm.test(runif(n, 0.9, 1), runif(n, 0.8, 1), paired=TRUE, exact=TRUE)$p .value [1] 2.907099e-116 اما برای نمونه های بزرگتر دقیقاً 0 می دهد: > n <- 1500 > perm.test(runif(n, 0.9, 1), runif(n, 0.8, 1), paired=TRUE, exact=TRUE)$p.value [1] 0 چگونه می توانم مقدار دقیق را بدست بیاورم؟ و اگر نمی توانم، چگونه باید p-value را در یک مقاله ژورنال گزارش کنم؟
یک perm.test جفت شده دقیق، مقدار p 0 را برای اندازه‌های نمونه بزرگ برمی‌گرداند
31080
با توجه به پیشنهاد ماکرو، در حال ایجاد یک تاپیک جدید برای سوالاتم هستم. (این به نوعی با سوال اصلی که در اینجا مورد بحث قرار گرفته بود مرتبط است: درک معادله مدل اثرات مختلط خطی و برازش یک مدل اثرات تصادفی با وزن‌ها در R به طور خاص، من سعی می‌کنم یک مدل قطع تصادفی را به شکل $${ بفهمم. \bf y}={\bf X}{\boldsymbol \beta} + {\bf Z} {\bf b} + {\boldsymbol \varepsilon} $$ (به دنبال علامت گذاری ماکرو برای ${\boldsymbol y_i}$ در سؤال قبلی، فرمول های گروه را به صورت عمودی کنار هم قرار دادم و یک فرمول بزرگ برای کل مجموعه داده با همه گروه ها به دست آوردم: 1. In). یک مدل رهگیری تصادفی (همه گروه‌ها دارای بتای یکسان هستند)، وضعیت زیر به وجود می‌آید: همه نقاط داده در یک گروه در یک سمت (یک سمت) از خط رگرسیون آن گروه قرار دارند. در اینجا فکر می کنم: حتی اگر برای یک گروه خاص، بتای کلی برای آن گروه بسیار بد است، من حداقل هنوز می توانم خط رگرسیون را که از ابر عبور می کند، دریافت کنم؟ در اینجا با گذر از ابر منظورم این است که همه نقاط در یک سمت خط رگرسیون قرار نخواهند داشت. 2. در یک مدل قطع تصادفی، برای هر گروه، خط رگرسیون از کدام نقطه عبور می کند؟ در OLS عمومی، ما می دانستیم که این نقطه $(\overline{x}, \overline{y})$ است که توسط خط رگرسیون عبور می کند. اما برای هر گروه در یک مدل قطع تصادفی، آن نقطه مرکزی کدام نقطه است؟ 3. علاوه بر این، در «R»، چه راهی مناسب برای تجسم آنچه در یک گروه خاص در یک مدل ترکیبی اتفاق می‌افتد چیست؟ 4. چگونه ${\bf b}$ را بفهمم؟ این ${\bf b}$ چیست؟ آیا می توانم بگویم آنها به سادگی $\overline{y}_i - \overline{y}$ هستند، یعنی محور عمودی مراکز گروه - محور عمودی مرکز کل داده؟ 5. چرا lme به صراحت تحمیل می کند که مجموع ${\bf b}$ $0$ است؟ 6. برای درک بهتر مدل‌های «lme»، من مدل‌های اسباب‌بازی خود را ایجاد می‌کنم و مطالعات مقایسه‌ای انجام می‌دهم: برای پختن مدل خودم، تصمیم می‌گیرم مشکل حداقل مربع زیر را حل کنم: $$ \min \left( \sum_ {k=1}^{K} w_{1k} {\bf b}_k^2 + \sum_{i=1}^{N} w_{2i} \varepsilon_i^2 \right) $$ اینجا $\\{ {\bf b}_k \\}_{k=1}^{K}$، که $K$ تعداد گروه‌ها است. $\\{ \varepsilon_i \\}_{i=1}^{N}$، که $N$ تعداد افراد است. $w_1$ مجموعه ای از وزن ها برای افراد و $w_2$ مجموعه ای از وزن های گروه ها در سطح گروه است. هدف من ایجاد مدلی است که شبیه مدل رهگیری تصادفی باشد، اما فرض توزیع گاوسی را برای ${\bf b}$ حذف می‌کند و می‌خواهم خط رگرسیون در هر گروه (به اشتراک‌گذاری بتای یکسان) عبور کند. ابر داده برای آن گروه (لطفاً به Q1 در بالا مراجعه کنید). * به نظر شما مدل من منطقی است؟ * لطفاً به من کمک کنید مدل خود را در مقابل مدل رهگیری تصادفی «lme» نقد کنم؟ * آیا محدودیت های بیشتری مانند $\sum {\bf b}_k = 0$ و $\sum \varepsilon_i =0$ اضافه کنم؟ با تشکر فراوان برای کمک شما!
درک مدل جلوه ترکیبی از طریق ایجاد مدل مبتنی بر بهینه سازی خودم
105250
من باید همبستگی بین چند عبارت (مثلاً 3 یا 4) را در یک فهرست جستجوی تک ترمی پیدا کنم. من سعی می کنم بفهمم آیا LSA با مشکل مطابقت دارد یا خیر. آیا من درست می گویم که LSA چیزی بیش از یک ماتریس همبستگی ترم به مدت به شکلی مناسب برای برش ابعاد نیست و جفت ترم-ترم بیشتری ندارد؟
آیا LSA می تواند همبستگی بین چندین کلمه را پیدا کند؟
111869
من یک شبیه‌سازی دارم که در آن یک حیوان در یک محیط خصمانه قرار می‌گیرد و زمان‌بندی می‌شود تا ببینم چقدر می‌تواند با استفاده از روشی برای بقا زنده بماند. سه روش برای زنده ماندن وجود دارد. من 300 شبیه سازی از حیوان را با استفاده از هر رویکرد بقا اجرا کردم. همه شبیه‌سازی‌ها در یک محیط انجام می‌شوند، اما مقداری تصادفی وجود دارد، بنابراین هر بار متفاوت است. من زمان می کنم که حیوان در هر شبیه سازی چند ثانیه زنده می ماند. طولانی تر زندگی کردن بهتر است. داده‌های من به این شکل است: رویکرد 1، رویکرد 2، رویکرد 2 45،79،38 48،32،24 85،108،44 ... 300 ردیف از این‌ها، من در مورد هر کاری که بعد از این مرحله انجام می‌دهم مطمئن نیستم، بنابراین به من اطلاع دهید اگر من دارم کار احمقانه و اشتباهی می کنم. من سعی می کنم با استفاده از یک رویکرد خاص بفهمم که آیا تفاوت آماری در طول عمر وجود دارد یا خیر. من یک آزمایش Shapiro روی هر یک از نمونه‌ها انجام دادم و آنها با مقادیر p کوچک برگشتند، بنابراین معتقدم که داده‌ها عادی نیستند. نمودارهای توزیع و نمودار جعبه را می توان در اینجا مشاهده کرد: http://imgur.com/a/xo5De داده های ردیف ها هیچ ارتباطی با یکدیگر ندارند. دانه تصادفی مورد استفاده برای هر شبیه سازی متفاوت بود. در نتیجه، من معتقدم که داده ها جفت نشده اند. از آنجایی که داده‌ها نرمال‌سازی نشده‌اند، جفت نشده‌اند و بیش از دو نمونه وجود داشت، آزمایش Kruskal Wallis را انجام دادم که با مقدار p 0.048 برگشت. سپس با انتخاب Mann Whitney، به یک post hoc رفتم. واقعاً مطمئن نیستم که Mann Whitney باید در اینجا استفاده شود یا خیر. من با انجام آزمون من ویتنی، یعنی {(رویکرد 1، رویکرد 2)، (رویکرد 1، رویکرد 3)، (رویکرد 2، رویکرد 3)}، هر رویکرد بقا را با رویکرد دیگری مقایسه کردم. با استفاده از آزمون دو دنباله بین جفت (رویکرد 2، رویکرد 3) معنی‌داری آماری وجود نداشت، اما با استفاده از آزمون یک دنباله تفاوت معنی‌داری یافت شد. مشکلات: 1. من نمی دانم که آیا استفاده از Mann Whitney به این شکل منطقی است یا خیر. 2. نمی دانم باید از مان ویتنی یک یا دو دم استفاده کنم.
آیا می توان از آزمون من ویتنی برای مقایسات بعد از کروسکال-والیس استفاده کرد؟
6021
این یک سوال تجسم داده است. من یک پایگاه داده دارم که حاوی برخی از داده ها است که دائماً اصلاح می شود (به روز رسانی آنلاین). بهترین راه در R برای به روز رسانی یک نمودار در هر 5 یا 10 ثانیه چیست. (بدون طرح مجدد همه چیز ممکن است)؟ فرد
R: یک نمودار را به صورت پویا به روز کنید
10075
من به خودم تئوری احتمال را آموزش می‌دهم و مطمئن نیستم که هیچ کاربرد واریانس را بر خلاف انحراف معیار درک کنم. در موقعیت‌های تمرینی که من به آنها نگاه می‌کنم، واریانس بزرگ‌تر از محدوده است، بنابراین از نظر شهودی مفید به نظر نمی‌رسد.
کاربرد عملی واریانس چیست؟
70196
من می خواهم تحلیل رگرسیون را با استفاده از یک تابع هزینه ویژه انجام دهم که خطای _sign_ را بیشتر از مجذور خطا جریمه می کند. به عنوان مثال، من تعدادی مشاهده تغییر ماهانه دارم که می تواند مقادیر منفی داشته باشد. $Y$ 1100 ژانویه، +500 فوریه، -100 مارس است. اگر پیش بینی $X$ من دارای مقادیر 100 ژانویه، -500 فوریه، -100 مارس باشد، تابع حداقل مربع هزینه همان خطا را برای دو مقدار اول محاسبه می کند ($1000^2$)، اگرچه برای مشکل من خطای دوم بدتر است: من می خواهم بیشتر خطای جهت را جریمه کنم تا فاصله. من به دنبال رگرسیون لجستیک نیستم زیرا مسئله در اینجا این نیست که به سادگی یک نتیجه باینری را پیش بینی کنیم، بلکه خطای باینری را با خطای مربع ترکیب کنیم. چه نوع تحلیل رگرسیونی را باید بررسی کنم؟
تحلیل رگرسیون با تابع هزینه ویژه
111879
من سعی می‌کنم هزینه‌های مراقبت‌های بهداشتی را تخمین بزنم و از خودم می‌پرسیدم که روش استاندارد برای مقادیر شدید چیست؟ منظورم از مقادیر افراطی من است که بخش بزرگی از هزینه‌هایم صفر است و بخش کوچکی از هزینه‌هایم بیش از 100000 دلار است. در این صورت بهتر است از میانگین از میانه استفاده کنیم؟ و چه توجیهی دارد؟ یا آیا قراردادهای آنها برای برآورد هزینه مراقبت های بهداشتی ممکن است در یک بازه زمانی به دنبال باشد؟ هر گونه کمک، نظر یا مرجع بسیار قدردانی خواهد شد!
برآورد هزینه ها با مقادیر شدید
70191
من یک مشکل طبقه بندی دو کلاسه با داده های n بعدی دارم. من می خواهم یک طبقه بندی (ترجیحا اما نه لزوما خطی) با ارزش پیش بینی مثبت 100٪ آموزش دهم. به عبارت دیگر، من می خواهم مدل به طور کامل از یکی از کلاس ها اجتناب کند. برای این برنامه، تا زمانی که PPV ~ 100٪ باشد، حساسیت کم خوب است. آیا پیشنهادی از تکنیک های خوب برای استفاده دارید؟ متشکرم
ایجاد یک طبقه بندی کننده با ارزش پیش بینی بالا
70443
من سعی می کنم از رگرسیون لجستیک در SPSS استفاده کنم. می‌پرسم، آیا باید به SPSS بگویم که مثلاً «جنسیت» یک متغیر طبقه‌بندی است؟ همچنین قصد دارم متغیرهای توضیحی بیشتری را به صورت گام به گام برای پیش بینی متغیر وابسته اضافه کنم، در مجموع 7 مدل خواهم داشت. آیا باید از گزینه blocks در رگرسیون لجستیک استفاده کنم؟ یا می توانم هر ماژول را به طور مستقل یکی یکی انجام دهم؟
بلوک ها و سوالات دیگر در مورد رگرسیون لجستیک با SPSS
16104
بسیاری از برنامه های کاربردی مستقل یادگیری ماشین/داده کاوی برجسته به زبان های مختلف مانند جاوا، پایتون و غیره وجود دارد. با این حال، من تعجب می کنم، عملا، در صورت استفاده از تکنیک های یادگیری ماشین در یک محیط وب، آیا چیزی وجود دارد که بتوان از آن استفاده کرد؟ به عنوان مثال آیا چارچوب یا کتابخانه ای برای اعمال یادگیری ماشین در برنامه های کاربردی وب وجود دارد؟ من می‌دانم که در محیط‌های زبانی ممکن است چیزها متفاوت باشند، اما اگر بتوانید به هر نوع اطلاعات مرتبط مراجعه کنید، می‌تواند مفید باشد. با تشکر
یادگیری ماشین در برنامه وب؟
70449
آیا کسی مقاله یا مرجع دیگری در مورد بیزی گروه-کند برای مدل probit/logit یا GLM (مدل های خطی تعمیم یافته) دارد؟ هیچ مقاله ای پیدا نکردم که به صراحت به این موضوع بپردازد.
منابع گروه بیزی-کند برای رگرسیون پروبیت/لوجیت
70190
$y_i=\beta_0+\beta_1x_i+\varepsilon $ یک مدل خطی ساده است. ما می دانیم $R^2=1-\frac{SSE/(n-k-1)}{SST/(n-1)} $ که در آن $SSE=Y'(I-H)Y=\sum(y_i-\hat{y })^2$ و $SST=Y'(I-P_1)Y=\sum(y_i-\bar{y})^2$ (برای $H=X(X'X)^{-1}X' دلار و $P_1=\frac{1}{n}\mathbf{11'}$ و $\mathbf{1}=(1,\cdots,1)_{1\times n}'$, $Y=(y_1, y_2,\cdots,y_n)'$,$X=\begin{bmatrix} 1 & x_{11}\\\ 1& x_{21}\\\ \vdots&\vdots \\\ 1&x_{n1 } \end{bmatrix}$) $r=\frac{\sum (y_i-\bar{y})(x_i-\bar{x})}{\sqrt{ \sum (y_i-\bar{y})^2\sum (x_i-\bar{x})^2}}$. **نمایش $R^2=r^2$** پیشاپیش متشکرم.
اثبات اینکه R^2$$r^2$ است
44285
لطفا اشتباهم را به من اطلاع دهید. من انتظار داشتم که بوت استرپ یک داده عادی استاندارد میانگین صفر و انحراف استاندارد 1 را تولید کند، اما مثال من اینطور نیست. rm(list=ls()) ایجاد داده های تصادفی با میانگین صفر و انحراف استاندارد یک V1 <- rnorm(9, mean=0, sd=1); V2 <- rnorm(9, mean=0, sd=1); V3 <- rnorm(9, mean=0, sd=1) V4 <- rnorm(9, mean=0, sd=1); V5 <- rnorm(9, mean=0, sd=1); V6 <- rnorm(9, mean=0, sd=1) V7 <- rnorm(9, mean=0, sd=1); V8 <- rnorm(9, mean=0, sd=1) charDataDiff <- as.data.frame(cbind(V1,V2,V3,V4,V5,V6,V7,V8));charDataDiff نام ستونها را تغییر نام دهید( charDataDiff) <- c(s380، s390، s400، s410، s420، s430, s440، s450); charDataDiff patchId <- c(C، B، A، A، B، C، A، B، C); patchId یک متغیر سفارشی ارائه می کند idColor <- c(C, B, A) همه قطعات را کنار هم قرار دهید تا داده charDataDiff ایجاد شود <- cbind.data.frame(patchId,charDataDiff); charDataDiff تقسیم داده‌ها بر اساس patchId patchSpectrumBiasSplit <- split(charDataDiff, charDataDiff$patchId) ترتیب داده‌ها بر اساس idColor patchSpectrumBiasOrdered <- patchSpectrumBiasSplit[idColor] حذف اولین ستون (PatchRSpectrum Patchly,Bias) [، 2:9) بوت استرپ نمونه یک <- تابع(x) x[نمونه(seq_len(nrow(x))، جایگزین = TRUE)، ] نمونه بوت <- تابع(x، n) replicate(n، sampleOne(x )، ساده کردن = نادرست) اعمالمیانگین <- تابع(l) do.call(rbind، lapply(l، اعمال، 2، میانه)) k <- lapply(lapply(patchSpectrumBias، sampleBoot، n = 1000)، applicationMedian) میانگین را محاسبه کنید، انتظار داشتم میانگین طبق قانون اعداد بزرگ صفر باشد. bootMeansBias <- do.call(rbind, lapply(k, application, 2, mean));bootMeansBias انحراف استاندارد را محاسبه کنید، انتظار داشتم انحراف استاندارد یک استاندارد باشدError <- do.call(rbind, lapply(k, application, 2, sd));standardError
بوت استرپ داده های عادی استاندارد، میانگین صفر و انحراف استاندارد 1 را ایجاد نمی کند
84308
الگوریتمی برای تولید متغیر تصادفی Y به من داده شده است، به شرح زیر: * $X=-ln(Z)$ * اگر $X>2$، سپس $Y=X-2$، در غیر این صورت رد می شود. سپس از من خواسته می شود pdf و cdf Y را پیدا کنم. کسی می تواند به من بگوید چگونه این را بخوانم؟ من از نظر تئوری می دانم که هر دو چیست، اما به سختی می توانم آنها را از مشکلاتی مانند این استنتاج کنم.
چگونه می توانم یک pdf بر اساس این معیارهای شبیه سازی پذیرش-رد دریافت کنم؟
105255
من یک مجموعه داده نسبتا کوچک دارم که از ویژگی های عددی، اسمی و همچنین متنی تشکیل شده است. برخی از سلول‌ها خالی هستند در حالی که نوع کلاس اسمی است و می‌تواند هر یک از 10 مقدار کلاس مختلف موجود را بگیرد. من می خواهم دو الگوریتم طبقه بندی را اعمال کنم و سپس خطای تست را اندازه گیری کنم. اولین سوال من این است که چگونه مجموعه داده را آماده کنیم. چگونه باید با مقادیر تهی / خالی رفتار کنم؟ چگونه باید با فیلدهای متنی رفتار کنم؟ آیا باید مقادیر اسمی را به عددی تبدیل کنم؟ علاوه بر این، چگونه باید انتخاب ویژگی را انجام دهم؟ آیا باید این کار را قبل از کار طبقه بندی انجام دهم یا بعد از آن؟ پس از پاسخ دادن به این سؤالات، می خواهم خط لوله مربوطه را در پایتون و scikit Learn راه اندازی کنم. آیا می توانید راهنمایی هایی در مورد چگونگی شروع به کار این پروژه بدهید؟ این کاری است که من تاکنون انجام داده ام. از sklearn وارد کردن مجموعه داده ها از sklearn import cross_validation از sklearn.svm واردات SVC از sklearn.naive_bayes import GaussianNB iris = datas.load_iris() iris.data.shape, iris.target.shape X_train, X_test, y_test = cross_validation.train_test_split(iris.data، iris.target، test_size=0.4، random_state=0) # algo 1 clf = SVC(kernel='linear', C=1) scores = cross_validation.cross_val_score(clf, iris.data, iris .target، cv=10) print(دقت: %0.2f (+/- %0.2f) % (scores.mean(), scores.std() * 2)) # algo 2 iris = databases.load_iris() gnb = GaussianNB() scores = cross_validation.cross_val_score( gnb، iris.data، iris.target، cv=10) print(دقت: %0.2f (+/- %0.2f) % (scores.mean()، scores.std() * 2))
نحوه آماده سازی داده ها برای طبقه بندی
52473
آیا راهی برای استفاده از تابع تناسب خطی یا R با خطاهای خودم به جای وزن های مقدار وجود دارد؟ یعنی من یک آزمایش فیزیکی دارم که در آن خطاهای هر نقطه را می دانیم، به عنوان مثال: > df x y Yerror 1 0 3097.460 55.65483 2 60 4624.340 68.00250 3 121 7013.675 >Structure 7013.675 8d. c(0، 60، 121)، y = c(3097.46، 4624.34، 7013.675)، خطا = c(55.6548290806827، 68.0024999540458، 83.73521815، 83.7472615 = y، yerror)، row.names = c(NA, -3L)، class = data.frame) آیا راهی برای ارائه این مورد به تابع **lm** در R (یا مشابه آن) وجود دارد یک) اما به جای اینکه R خطاهای آماری را محاسبه کنیم، خطاهای واقعی را بدهیم؟ به عنوان مثال، چیزی شبیه تابع **LINFIT** از **زبان IDL**: http://www.astro.virginia.edu/class/oconnell/astr511/idl_5.1_html/idlea.htm من می بینم که می توانم ارائه دهم وزن ها به عنوان پارامتر برای **lm**، اما چیزی که من می خواهم این است که خطاهایی را که اندازه گیری کرده ایم ارائه دهیم. ویرایش: من کد و خروجی را در R و IDL قرار می دهم تا تفاوت ها را ببینم. **IDL/GDL** X = [0، 60، 121] Y = [3097.46، 4624.34، 7013.675] YERROR = [55.6548290806827، 68.0024999540457، 68.0024999540457 = 268457، 268. چاپ LINFIT(X، Y، CHISQR=chi2، COVAR=varco، MEASURE_ERRORS=YERROR، SIGMA=sig)، چاپ 3006.64 31.4443، چاپ chi2 24.1395، varco 2755.76 -29.064 -29.064 -29.064 52.4954 0.80960 و اکنون در **R**: > lfit = lm(y~x، data=df، weights=yerror^-2) > summary(lfit) فراخوانی: lm(فرمول = y ~ x، داده = df، وزن = خطا^-2) باقیمانده وزنی: 1 2 3 1.632 -3.955 2.415 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 3006.640 257.920 11.657 0.0545. x 31.444 3.978 7.905 0.0801 . --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقی مانده: 4.913 در 1 درجه آزادی چندگانه R-squared: 0.9842، تنظیم شده R-squared: 0.9685 F آمار: 62.49 در 1 و 1 DF، p-value: 0.08011 > vcov(lfit) (Intercept) x (Intercept) 66522.7761 -701.59982 x -701.5998 15.82237 > vcov(lfit)/4.913^2 (Intercept) 249.25 x (Inter) -29.066714 x -29.06671 0.655508 همانطور که می بینید ماتریس کوواریانس تابع lm در R در مربع خطای استاندارد باقیمانده ضرب می شود. اگر همیشه این اتفاق بیفتد، حدس می‌زنم فقط می‌توانم آن را بر آن تقسیم کنم و سپس خطا را از ماتریس کوواریانس درست محاسبه کنم. نه تنها این، بلکه به نظر می رسد خطای ارائه شده توسط R در خطای استاندارد باقیمانده ضرب شده است (تقریبا، واقعاً دقیق نیست).
ارائه خطای واقعی اندازه‌گیری شده به جای وزن‌ها به تابع lm در R (یا تابع تناسب خطی مشابه)
103853
در برخی شرایط، آزمون Chi-square را می توان با آزمونی بر اساس توزیع دو جمله ای جایگزین کرد. مشکل رایج استفاده از توزیع دوجمله ای این است که محاسبه فاکتوریل های بزرگ ممکن است به سرعت دشوار شود. با این حال ، می توان به راحتی از تقریب استرلینگ برای تقریب چنین عملکردی استفاده کرد. سوال من این است: پس از آن چه آزمایشی بهتر است؟ مثلاً سکه را برمی گردانم و تعداد سر و دم را می شمارم. من 4519 سر و 4456 دم دارم. آیا سکه من عادلانه است؟ کدام آزمون مطمئن ترین p.value را به من می دهد، آزمون مجذور کای یا آزمونی بر اساس توزیع دوجمله ای (با استفاده از تقریب استرلینگ برای سهولت محاسبه)؟ $$\chi ^2 = \frac{4456 - \frac{4456+4519}{2}}{4456+4519} + \frac{4519 - \frac{4456+4519}{2}}{4456+4519} $$ $$P(X < 4519) = \sum_{i=0}^{4519}{ {4456+4519} \choose {i} }0.5^{4456+4519}$$
آزمون کای دو و توزیع دوجمله ای
84307
من در مدل‌سازی یک رگرسیون با مشاهدات تودرتو و به ظاهر غیر مستقل مشکل دارم. من در حال بررسی تأثیر خویشاوندی بر نسبت فرزندان در مواردی هستم که نرهای متعدد در تولید تخم‌ها نقش دارند. من تخمین‌هایی از ارتباط ژنتیکی بین هر نر و ماده‌ای که با آن جفت می‌شود، و همچنین نسبت فرزندان نر در تخم‌های آن ماده را دارم. حداکثر 5 نوزاد نر در تولید یک نوزاد نقش دارند و از 9 نوزاد برای پدری نمونه برداری شده است. بنابراین برآیند نسبت Sired است و متغیر وابسته مربوط بودن است. سرراست به نظر می رسد. با این حال، مشاهدات نسبت فرزندان نر در یک نوزاد مستقل نیستند (نسبت ها مجموع 1 است). آیا مشاهدات باید در ماده تودرتو باشد یا ماده باید به عنوان یک اثر تصادفی (9 مولد از 9 ماده) یا هر دو در نظر گرفته شود؟ و آیا ارتباط باید یک اثر ثابت باقی بماند؟ من فقط یک پیش‌بینی‌کننده و یک نتیجه، نسبت ~ مرتبط دارم، بنابراین در ابتدا فکر می‌کردم که نسبتاً ساده است، اما «درمان» زنانه تصادفی است... و داده‌های مرد در یک زن واقعاً مستقل نیستند. من به دنبال انجام این تجزیه و تحلیل در lme4 در R هستم. در اینجا نمونه ای از داده ها آمده است: ID Female Relat. Prop. 1 A .12 .3 2 A .03 .02 3 B .02 .33 ... با تشکر از هرگونه کمک یا راهنمایی، LP
رگرسیون مدل مخلوط با داده های غیر مستقل (تودرتو؟) در r
45153
من یک مجموعه داده نمونه با 31 مقدار دارم. من یک آزمون t دو طرفه را با استفاده از R برای آزمایش اینکه آیا میانگین واقعی برابر با 10 است انجام دادم: t.test(x=data، mu=10، conf.level=0.95) خروجی: t = 11.244، df = 30، p-value = 2.786e-12 فرضیه جایگزین: میانگین واقعی برابر با 10 95 درصد فاصله اطمینان نیست. 19.18980 23.26907 تخمین نمونه: میانگین x 21.22944 حالا من سعی می کنم همین کار را به صورت دستی انجام دهم: t.value = (mean(data) - 10) / (sd(data) / sqrt(length(data))) p. مقدار = dt(t.value، df=طول(طول-1)) مقدار t محاسبه شده با استفاده از این روش همان خروجی تابع t-test R است. با این حال، مقدار p 3.025803e-12 است. هیچ ایده ای دارید که من چه کار اشتباهی انجام می دهم؟ با تشکر **ویرایش** در اینجا کد R کامل، از جمله مجموعه داده من است: # مجموعه داده خام -- 32 داده مشاهدات = c(21.75، 18.0875، 18.75، 23.5، 14.125، 16.75، 11.125، 11.125، 11.125، 14.85، 14.85. 17.125، 19.075، 25.125، 27.75، 29.825، 17.825، 28.375، 22.625، 28.75، 27، 12.825، 26، 32.838، 26، 32.825، 26، 32.825، 17.825. 15.625، 26.825، 24.625، 26.625، 19.625) # Student t-Test t.test(x=data, mu=10, conf.level=0.95) # محاسبه دستی p-value t.value = (mean(data) - 10 ) / (sd(داده) / sqrt(طول(داده))) p.value = dt(t.value, df=length(داده) - 1)
محاسبه دستی مقدار P از t-value در آزمون t
84306
با EP چه اتفاقی می‌افتد وقتی شرایط احتمال و مقدمات از قبل گوسی باشند. بنابراین، اگر تصور کنیم که پسین با: $$ P(\theta|y) = \frac{1}{Z}P(\theta)\prod_i{\frac{\phi}{2\pi}\ داده می‌شود exp^{-0.5(y_i-f(x,w_i))\phi(y_i-f(x,w_i))}} $$ در اینجا $y$ و $x$ مشاهده می شود و $f(x, w_i)$ فقط یک تابع تبدیل است که $w_i$ را به عنوان پارامتر می گیرد. تصور کنید $P(\theta)$ نیز گاوسی باشد. بنابراین، در این مورد من نیازی به انجام هیچ تقریبی ندارم، درست است؟ من می توانم گاوسی ها را با مقداری اولیه مقداردهی کنم و هر فاکتور را در یک زمان به روز رسانی را محاسبه کنم. با این حال، طرح ریزی لازم نیست انجام شود زیرا اصطلاحات قبلاً به شکل صحیح گاوسی هستند. من مطمئن هستم که این اشتباه است و به نوعی درست نیست، اما دوست دارم نظر شما را بشنوم.
انتشار انتظار زمانی که احتمال از قبل گوسی باشد
45155
هنگام مقایسه $C_p$ هر مدل تولید شده به صورت جداگانه با تعداد پارامترها، مقایسه با کدام تعدادی از پارامترها است؟ هر مدل فردی یا تعداد کلی پارامترها؟
سوال Cp Mallow
111868
من سعی می کنم به خودم یاد بدهم که چگونه به سرعت انواع مختلف معادلات را به کدهای VB، T-SQL و MDX ترجمه کنم. از آنجایی که من سعی می کنم مهارتی را ایجاد کنم، نه فقط یک مسئله مجزا را حل کنم، سعی می کنم تا آنجا که ممکن است این موارد را به تنهایی کشف کنم - اما از تابع خطای استفاده شده در محاسبه گیج شده ام. تابع توزیع تجمعی نرمال در معادله‌ای که از صفحه ویکی‌پدیا توزیع عادی بازیابی کردم، یک نماد $t$ (در واقع $-t^2$) وجود دارد که من نمی‌توانم هیچ مرجعی در آن پیدا کنم. $$\text{erf}(x)=\frac{1}{\sqrt{(\pi)}}\int_{-x}^x\exp(-t^2)dt$$ آیا کسی می تواند به من بگوید چه چیزی به این معنی است، و چگونه می توان آن مقدار را در صورتی که واضح نیست استخراج کرد؟ من نمی توانم بفهمم که آیا این یک نماد محاسباتی رایج است یا معیاری است که در آمار استفاده می شود. آیا همانطور که در http://en.wikipedia.org/wiki/Parameter و http://en.wikipedia.org/wiki/Differentiation_under_the_integral_sign ذکر شده است، می تواند یکی از پارامترهای مورد استفاده در تمایز انتگرال باشد؟ بعلاوه، خوانده ام که تعریف دقیق CDF برای توزیع نرمال دشوار است، بنابراین از تقریب های مبتنی بر مواردی مانند سری تیلور و سری مک لورین استفاده می شود. من می‌خواهم در صورت امکان، نحوه کدنویسی چنین چیزهایی را به تنهایی کشف کنم، اما می‌پرسیدم آیا کسی فکری در مورد اینکه کدام روش ممکن است عملکرد بالاتری داشته باشد و کدام روش دقت بیشتری را به همراه دارد، دارد.
تابع توزیع تجمعی: $t$ در $\int\exp(-t^2)dt$ چیست؟
71713
آیا «قاعده‌ای سرانگشتی» برای محاسبه مقدار RAM مورد نیاز در رایانه برای انجام یک رگرسیون چند متغیره در زمان اجرا $t$ با ماتریس طراحی $p \times n$ وجود دارد؟ با فرض اینکه هنگام حل ضرایب OLS باید محصول X^TX$ را پیدا کنم، آیا داشتن RAM کافی برای نگهداری مجموعه داده $n \times n$ در حافظه مطلوب است؟ من تحلیل‌هایی را در SAS و R اجرا می‌کنم که قابلیت‌های متفاوتی دارند، بنابراین متوجه می‌شوم که پاسخ‌ها ممکن است بر اساس زبانی که استفاده می‌کنم متفاوت باشد.
الزامات RAM برای رگرسیون چند متغیره در SAS و R؟
29859
من سعی می‌کنم یک آزمایش Dunnett را روی برخی داده‌های سمیت (مقایسه پاسخ‌ها به یک کنترل منفی) انجام دهم، اما باید بیش از 20 درمان را با کنترل مقایسه کنم. من یک تابع R برای اجرای آزمون دانت با درون یابی q' از جداول ارائه شده در زار (1999) نوشته ام، اما تعداد گروه ها در جداول به 10 گروه محدود شده است. من همچنین سعی کردم این روال را در Sigmaplot اجرا کنم، اما محدودیت آن 20 گروه است. آیا منبعی برای محاسبه یا بدست آوردن q' برای اندازه گروه های بزرگتر وجود دارد؟ توجه: من سعی کردم از بسته multicomp در R استفاده کنم، اما در حالی که نمونه ای از تصویر را مرور می کنم یک پیام خطا دریافت می کنم و به نویسنده ایمیل ارسال کرده ام. ویرایش: من موفق به کار بسته مولتی کامپ شده ام و توانسته ام این تست ها را در سطوح گروه بزرگتر (یعنی 25) اجرا کنم.
تست دانت برای تعداد زیادی درمان
70445
من چند ماه پیش شروع به یادگیری و استفاده از پیش بینی در شغلم کردم. پیش‌بینی مسائل عملی در دنیای واقعی برخلاف تمرین کتاب درسی واقعاً چالش برانگیز است. در زیر از دیدگاه من برخی از ویژگی های خوب یک روش پیش بینی وجود دارد که می خواهم به اشتراک بگذارم: 1. توانایی تشخیص نقاط پرت و تغییر سطح به طور خودکار 2. گنجاندن متغیرهای علی در پیش بینی 3. گنجاندن ضرایب رگرسیون متغیر زمانی 4. تشخیص روند، فصلی بودن , چرخه های خودکار 5. امکان ترکیب ضرایب رگرسیون _غیرخطی_ متغیرهای علّی 6. اکثر پیش بینی کنندگانی که من می شناسم (از جمله من) و برخی از بررسی ها را در ادبیات مطالعه می کنند، آماردانان آموزش دیده نیستند. بنابراین، هر روش پیش‌بینی خوب باید توانایی انجام وظایف فوق را با دخالت بسیار محدود انسانی داشته باشد. دو روش آماری وجود دارد که من می‌دانم می‌توانند این کار را انجام دهند: 1. ARIMA (در مورد 1،2،4 امتیاز، مطمئن نیستم 3 و 5، متأسفانه نه 6) 2. مدل‌های فضایی حالت - مدل‌های مؤلفه مشاهده نشده (همه 6 امتیاز) اگر کسی دیدگاه متفاوتی در این مورد داشته باشد یا نکات/کیفیت های فوق الذکر یک روش پیش بینی خوب را بهبود بخشد، خوشحال می شوم.
همه ویژگی های خوب یک روش پیش بینی ایده آل چیست؟
70442
فرض کنید من مجموعه ای از اشیاء دارم. هر شی دارای مجموعه‌ای از ویژگی‌های پیش‌بینی‌کننده است که ویژگی ممکن است درست یا نادرست باشد. هر خصیصه وقتی درست است «موفقیت» را با احتمال مشخص پیش‌بینی می‌کند و این احتمالات لزوماً برای ویژگی‌های مختلف یکسان نیستند. احتمال موفقیت برای یک شی با بیش از یک ویژگی واقعی چقدر است؟ به عنوان مثال، اگر مرد بودن 25 درصد شانس موفقیت و زیر 35 سالگی 50 درصد شانس موفقیت دارد، با فرض مستقل بودن این دو ویژگی از نظر موفقیت، شانس موفقیت برای یک مرد زیر 35 سال چقدر است؟ سوال دوم فرض کنید من مقدار z را برای ویژگی A و مقدار z را برای ویژگی B می دانم. با فرض اینکه A و B مستقل هستند، انتظار دارم مقدار z برای (A و B) چه چیزی باشد؟ با تشکر
احتمال موفقیت زمانی که دو پیش بینی مستقل با هم اتفاق می افتند چقدر است؟
6026
من یک دانشجوی پزشکی هستم که سعی می کنم آمار را بفهمم(!) - پس لطفا ملایم باشید! ؛) من مقاله ای می نویسم که حاوی مقدار زیادی تجزیه و تحلیل آماری از جمله تجزیه و تحلیل بقا (کاپلان-مایر، لاگ-رتبه و رگرسیون کاکس) است. من یک رگرسیون کاکس را روی داده‌هایم اجرا کردم تا بفهمم آیا می‌توانم تفاوت معنی‌داری بین مرگ و میر بیماران در دو گروه (بیماران پرخطر یا کم خطر) پیدا کنم. من چندین متغیر کمکی را به رگرسیون کاکس اضافه کردم تا تأثیر آنها را کنترل کنم. خطر (دوگانه) جنسیت (دوگانه) سن در هنگام عمل (سطح عدد صحیح) انسداد شریان (دوگانه) تنگی شریان (دوگانه) شانت مورد استفاده در عمل (دوگانه) من انسداد شریان را از لیست متغیرهای کمکی حذف کردم زیرا SE آن بسیار بالا بود (976). همه SE های دیگر بین 0,064 و 1,118 هستند. این چیزی است که من دریافت می کنم: B SE Wald df Sig. Exp(B) 95,0% CI برای Exp(B) Lower Upper risk 2,086 1,102 3,582 1 ,058 8,049 ,928 69,773 جنسیت - 900 , 733 1,508 1 ,220 , 1,220 ,407 ,407 , 062 2,159 1 ,142 1,096 ,970 1,239 تنگی , 231 ,674 , 117 1 ,732 1,259 ,336 4,721 op_shunt ,965 ,689 1,926 1,914 10,119 من می دانم که ریسک فقط در 0,058 مرزی قابل توجه است. اما علاوه بر این، چگونه مقدار Exp(B) را تفسیر کنم؟ مقاله‌ای درباره رگرسیون لجستیک خواندم (که تا حدودی شبیه به رگرسیون کاکس است؟) که در آن مقدار Exp(B) به این صورت تفسیر شد: قرار گرفتن در گروه پرخطر شامل افزایش 8 برابری در احتمال نتیجه است. در این مورد مرگ است. آیا می توانم بگویم که احتمال مرگ بیماران پرخطر من 8 برابر بیشتر از ... است؟ لطفا به من کمک کنید! ؛) ضمنا من از SPSS 18 برای اجرای آنالیز استفاده می کنم.
چگونه Exp(B) را در رگرسیون کاکس تفسیر کنم؟
64917
من داده‌هایی دارم که دارای دو نوک ناگهانی (تقریباً مانند توده‌های شدید یا توابع دلتای دیراک) در داده‌های سری زمانی من هستند و می‌دانستم که آیا این مشکل در ساخت مدل‌های مخفی مارکوف وجود دارد یا خیر. در اینجا نموداری از داده های من برای نشان دادن این موضوع وجود دارد: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0wONs.jpg) من سعی می کنم از HMM برای تخمین تعداد حالت های نهفته استفاده کنم داده ها (با استفاده از بسته RHmm) اما وقتی مجموعه داده هایی را با این اسپک ها دریافت می کنم، به مشکلات NaN ادامه می دهم. آیا کسی توضیحی برای علت این مشکل دارد یا چگونه می توانم این مشکل را کاهش دهم؟ اگر کمک می کند، اینجا یک کد R است که من نوشتم که این موضوع را نیز نشان می دهد: library(RHmm) y = c(100,rnorm(10000)) #این کد به خوبی کار می کند HMMFit(y[-1],nStates=2) #این کد HMMFit (y,nStates=2) ندارد و خروجی: > y = c(100,rnorm(10000)) > > #این کد خوب کار می کند > HMMFit(y[-1],nStates=2) فراخوانی: ---- HMMFit(obs = y[-1]، nStates = 2) Model : ------ 2 حالت HMM با وضعیت الگوریتم Baum-Welch توزیع گاوسی تک متغیره: ----------------------------- تعداد تکرار: 21 آخرین تغییر نسبی تابع LLH: 0.000001 تخمین: ------- ---- احتمالات اولیه: Pi 1 Pi 2 0.4468508 0.5531492 ماتریس انتقال: حالت 1 حالت 2 State 1 0.7607666 0.2392334 State 2 0.5074063 0.4925937 پارامترهای توزیع شرطی: پارامترهای توزیع: میانگین var State 1 0.03591381 1.1009758 State 71726-21706. احتمال ورود: -14171.31 معیار BIC: 28407.1 معیار AIC: 28356.62 > > > > > #This code does not > HMMFit(y,nStates=2) تماس: ---- HMMFit(obs = y, nStates = ) مدل: ------ 2 حالت HMM با تک متغیره وضعیت الگوریتم Baum-Welch توزیع گاوسی: ---------------------------- بدون همگرایی پس از 1 مسئله تکرار در الگوریتم بام-ولش آخرین برآورد: ---------------- احتمالات اولیه: Pi 1 Pi 2 ماتریس انتقال NaN NaN: حالت 1 حالت 2 حالت 1 NaN حالت NaN 2 NaN NaN پارامترهای توزیع شرطی: پارامترهای توزیع: میانگین var حالت 1 حالت NaN NaN 2 NaN NaN احتمال ورود: معیار NaN BIC: معیار NaN AIC: NaN
چگونه میخ های ناگهانی بر مدل های پنهان مارکوف تأثیر می گذارد
45151
آیا کسی مقدار زیر را در ادبیات دیده است؟ $$\frac{\mathbb{E}[X]^2}{\mathbb{E}[X^2]}$$ آن را در معادله 10 این مقاله دیدم.
نام برای $E[X]^2/E[X^2]$؟
70440
من می خواهم یک رگرسیون لجستیک منظم روی یک مجموعه داده با 25 میلیون مشاهده و حدود 1000 ستون عمدتاً غیر پراکنده با وزن های غیر قابل چشم پوشی اجرا کنم. اولین انتخاب من BayesGLM خواهد بود، اما مطمئن هستم که از راه دور به لحاظ محاسباتی امکان پذیر نیست. من به دنبال پیاده‌سازی LASSO/ElasticNet در SciPi بودم و به نظر نمی‌رسد توانایی گرفتن داده‌های وزنی را داشته باشد. آیا کسی توصیه ای دارد؟
اجرای رگرسیون لجستیک منظم بر روی مجموعه داده های بسیار بزرگ
5305
من یک سری زمانی XTS با فاصله نامنظم دارم (با مقادیر POSIXct به عنوان نوع شاخص). چگونه می توانم یک سری زمانی جدید بسازم که نمونه برداری شده در یک فاصله مثلاً 10 دقیقه، اما با هر لحظه نمونه تراز شده با زمان دور (13:00:00، 13:10:00، 13:20:00، ...) . اگر لحظه نمونه‌برداری مجدد دقیقاً روی مقدار سری اصلی قرار نگیرد، می‌خواهم لحظه قبلی را بگیرم.
چگونه یک سری زمانی XTS را در R نمونه برداری کنیم؟
105257
من می خواهم با استفاده از روش با صدای بلند (تحلیل پروتکل) پرسشنامه ای را برای جمعیت خود تأیید کنم. این مطالعه به رضایت کاربران فناوری اطلاعات می پردازد. آیا فکر می کنید شرکت کنندگان من باید مدتی از نرم افزار استفاده کنند تا بتوانند ارزیابی کنند که پرسشنامه را درک می کنند؟ همچنین، آیا استفاده از همان افراد برای پاسخ دادن به پرسشنامه بعداً مشکلی ندارد؟
آزمون اعتبار صوری پرسشنامه
71719
من به دنبال مقالاتی در حوزه مدیریت هستم که بیشتر در مورد استفاده از مدل‌های مختلط خطی در R بحث می‌کنند. آیا در مورد این دو مورد من را روشن می کنید؟ من می دانم که آنها مشابه هستند، مانند مورد داده های پانل و ناهمگونی مشاهده نشده به دلیل اثرات تصادفی.
رگرسیون GLS در مقابل مدل‌های مختلط خطی در R
62359
من می خواهم شروع به یادگیری در مورد انجام محاسبات در مجموعه داده های بزرگ کنم. من پست‌های زیادی در مورد چیزهایی مانند کاهش نقشه و هدوپ خوانده‌ام، اما چیزی که نمونه‌هایی را نشان می‌دهد یا حتی به وضوح نحوه عملکرد این موارد را توضیح نمی‌دهد. Hadoop to هنوز هم مانند یک کلمه جادویی به نظر می رسد که مردم در اطراف موج می زنند. بنابراین فرض کنید می‌خواهم کاری شبیه رگرسیون پایه در R انجام دهم، اما به جای ده متغیر و چند صد نقطه داده، می‌خواهم آن را روی 800 متغیر و 1 میلیون نقطه داده انجام دهم. چگونه می توانم برای چنین مشکلی تلاش کنم. آیا هنوز هم می توان از R برای چنین چیزی استفاده کرد؟ آیا به ابر آمازون نیاز دارم؟ آیا هیچ آموزشی وجود دارد که شما را با این نوع مشکلات راهنمایی کند؟
رگرسیون R و مجموعه داده های بزرگ
1063
آمارهای من به صورت خودآموز آموزش داده شده است، اما بسیاری از مطالبی که خواندم به یک مجموعه داده اشاره دارد که میانگین 0 و انحراف استاندارد 1 دارد. اگر اینطور است، پس: 1. چرا میانگین 0 و SD 1 ویژگی خوبی است؟ 2. چرا یک متغیر تصادفی که از این نمونه گرفته شده برابر با 0.5 است؟ شانس رسم 0.001 برابر با 0.5 است، بنابراین باید توزیع مسطح باشد... 3. وقتی مردم در مورد امتیاز Z صحبت می کنند در اینجا واقعا به چه معنا هستند؟
چرا همیشه از توزیع میانگین 0 و انحراف استاندارد 1 استفاده می شود؟
95271
در بسیاری از رویکردها برای یادگیری شبکه‌های بیزی، یک راه‌حل برای مقابله با متغیرهای پیوسته، گسسته‌سازی آنها و به‌کارگیری یکی از تکنیک‌های شناخته شده برای یادگیری شبکه‌های بیزی که فقط شامل متغیرهای گسسته است، است. بیشتر تکنیک‌های گسسته‌سازی تک متغیره هستند به این معنا که روی هر متغیر به تنهایی عمل می‌کنند. این طبیعتاً تعاملات بین آنها را در نظر نمی گیرد. آیا کسی می‌داند که استفاده از K-means در همه یا گروه‌های متغیرهای موجود در شبکه و سپس استفاده از افراط‌های خوشه‌های حاصل به عنوان آستانه برای گسسته‌سازی منطقی است؟ اگر نه، کدام تکنیک های گسسته سازی (چند متغیری) توصیه می شود و چرا؟ پیشاپیش از شما متشکرم
شبکه های بیزی و گسسته سازی متغیرها با استفاده از خوشه بندی K-means
99789
من در استفاده از SPSS نسبتاً تازه کار هستم (من دانشجوی سال اول دانشگاه هستم) و می خواهم تعاملات خود را بیشتر آزمایش کنم. من روش Aiken و West را برای آزمایش تعاملات خواندم، روشی که اثرات تعدیل کننده را یک و دو SD در بالا و پایین میانگین ترسیم می کند. من می خواهم بدانم چگونه می توانم این روش را از طریق SPSS انجام دهم. من واقعا از کمک شما قدردانی می کنم!
نمودار SD تعاملات در بالا و پایین تر از میانگین
70447
هنگامی که 3 متغیر پیش بینی وجود دارد که باید در نظر گرفته شود، روش صحیح چیست؟ آیا ما برای تمام 2 ترکیب ممکن نمودارهای جعبه می سازیم یا راهی برای مقایسه 3 متغیر وجود دارد؟ ببخشید اگر این یک سوال اساسی است. پاسخ پاسخ اورانیوم است و 3 متغیر پیش بینی کننده وجود دارد: زمان، دما و قدرت اسید. هر 3 متغیر پیش بینی دارای 3 سطح پایین، متوسط، زیاد هستند. من می خواهم سعی کنم یک تجزیه و تحلیل ANOVA سه طرفه را روی مجموعه داده ها اجرا کنم، این یک سوال تمرینی برای یک کلاس است، اما خیلی مطمئن نیستم که چگونه شروع کنم، بنابراین از نمودارهای جعبه استفاده می کنم تا ببینم ابتدا داده ها چگونه به نظر می رسند.
ساختن نمودارهای جعبه ای هنگام تجزیه و تحلیل یک مورد با 3 متغیر پیش بینی کننده؟
87144
من با R و آمار بسیار تازه کار هستم، بنابراین این ممکن است یک سوال ساده باشد. من یک ماتریس (1000756) دارم که حاوی 1000 سال داده فشار سطح دریا (SLP) در 756 مکان در اقیانوس اطلس شمالی است. من باید یک نوسان در ناهنجاری های SLP (یعنی تفاوت بین مناطق بالا و پایین در شمال و جنوب) را شناسایی کنم که نوسان اقیانوس اطلس شمالی نامیده می شود. من تجزیه و تحلیل مؤلفه های اصلی داده ها را با استفاده از Princomp انجام داده ام. با توجه به ادبیات، من باید از کامپیوتر پیشرو استفاده کنم و: سری زمانی ناهنجاری SLP را بر روی این الگو پیش بینی کنید (مثلاً محصول اسکالر یا نقطه ای را بین فیلد و الگو محاسبه کنید). آیا کسی می تواند به من کمک کند که چگونه این کار را انجام دهم؟ پیشاپیش ممنون
محاسبه محصول اسکالر/نقطه بین جزء اصلی و داده
5308
برای این مجموعه داده: data my; ورودی x y; خطوط داده؛ -122.413582861209 37.7828877716232 -122.417876547159 37.7848288325307 ; چاپ پروک؛ اجرا؛ خروجی ها و جداول مربوطه عبارتند از: ![alt text](http://i.stack.imgur.com/lGS8r.png) چگونه می توانم این مقادیر را با حداکثر دقت وارد، ذخیره و استفاده کنم؟
مقادیر اعشاری را در SAS بخوانید
5300
من مجموعه ای از داده ها با 4 متغیر ورودی و 1 فیلد نتیجه دارم (همگی مقادیر عددی هستند). من می‌خواهم تأثیر متغیر #4 را بر نتایج تعیین کنم، بنابراین منطقی است که سعی کنیم 3 ورودی دیگر را اصلاح کنیم و نتایج را با مقدار var #4 مقایسه کنیم. من متوجه هستم که احتمالاً از اصطلاحات آمار وحشتناک استفاده می کنم، اما فقط به دنبال کمکی سریع بودم -- و بله، این می تواند سریع و کثیف باشد، لازم نیست در سطح حرفه ای باشد.
رفع 3 متغیر برای پیدا کردن تأثیر یک چهارم؟
87145
من سعی می کنم انتخاب مدل را روی یک مجموعه داده بزرگ (بیش از 500 نمونه و بیش از 50 vars) اجرا کنم. من GLS را اجرا کردم (با استفاده از یک اسکریپت خودنوشت برای انتخاب مدل‌های مبتنی بر AICc)، اما مشکل این است که بهترین مدل GLS شامل بسیاری از متغیرهای غیر قابل توجه است (مدل بیش از حد برازش شده، فکر می‌کنم). سایر احتمالات عبارتند از Forward Selection و Lars، اما اینها برای خود همبستگی فضایی که به نظر می رسد در داده های من قوی است، حساب نمی کنند. من می خواهم در مورد روش های دیگر توصیه هایی داشته باشم.
متغیرهای غیر معنی دار در بهترین مدل
44281
در R، آیا تابع از پیش تعریف شده ای وجود دارد که با توجه به خروجی رگرسیون coxph، نسبت خطر log و خطای استاندارد آن را برای یک مرد سیاه پوست (همانطور که در مثال زیر نشان داده شده است) به من بدهد؟ library(survival) library(KMsurv) #داده های پیوند کلیه از کلاین و موشبرگر. داده‌ها را ماساژ دهید تا #نتایج شبیه به داده‌های کتاب (kidtran) data2 <- kidtran data2$Gender <- male data2[data2$gender==2,7] <- female data2$Race <- white data2[data2$race==2,8] <- سیاه data2$Gender <- as.factor(data2$Gender) data2$Race <- as.factor(data2$Race) data2$Race <- relevel(data2$Race,ref=white) fit2 <- coxph(Surv(time,delta) ~ جنسیت * نژاد، data=data2) خلاصه (مطابق2) #خطر ثبت نسبی برای یک مرد سیاه پوست (مرجع ماده سفیدپوست) از # صفحه 252 در کلاین و موشبرگر (coef(fit2)[3] + coef(fit2)[2] + coef(fit2)[1]) sqrt(sum(diag(fit2$var)) + 2*fit2$var[2,1] + 2* fit2$var[3,1] + 2*fit2$var[3,2]) #بیایید از predict black.male <- data.frame( Gender=male, Race=black استفاده کنیم ) white.female <- data.frame( Gender=female, Race=white ) bm <- predict(fit2,newdata=black.male,se.fit=TRUE) #bm بر حسب ضرایب اصلی ( fit2)[3]*(1-fit2$means[3]) + coef(fit2)[2]*(1-fit2$means[2]) + coef(fit2)[1]*(1-fit2$means[1]) wf <- predict(fit2,newdata=white.female,se.fit=TRUE) #ریسک ثبت نسبی و se برای یک مرد سیاه پوست (مرجع سفید) زن) bm$fit - wf$fit sqrt(bm$se.fit^2 + wf$se.fit^2)
محاسبه نسبت خطر ورود به سیستم با SE در R
89430
اطلاعات در مغایرت میانگین و میانه (بدون قید و شرط) نهفته است. به عنوان مثال، اگر میانه بزرگتر از میانگین باشد، توزیع باید به سمت چپ باشد. آیا این نوع استنتاج به میانگین ها و میانه های شرطی که توسط حداقل مربعات معمولی و رگرسیون چندک تخمین زده می شود ترجمه می شود؟ به عنوان مثال، اگر ضریب رگرسیون چندک بزرگتر از ضریب OLS باشد، آیا می توانیم بگوییم که توزیع شرطی Y با توجه به X دارای انحراف چپ است؟ آیا چنین تفسیری یا مرتبط با آن در حضور چندین متغیر مستقل معتبر است؟
وقتی حداقل مربعات معمولی چند متغیره و رگرسیون چندکی (میانگین) نتایج متفاوتی به دست می‌دهند، چه چیزی می‌توان استنباط کرد؟
46819
چگونه می توانم تست Dickey-Fuller (یا جایگزین) تقویت شده را برای تعیین اینکه آیا یک متغیر به جای $I(1)$ $I(2)$ است اعمال کنم؟ آیا قابلیتی برای این در زبان «R» وجود دارد؟ حدس من این است که روش زیر را اعمال کنیم: * فرضیه صفر که $X_t$ $I(0)$ است را رد کنید، به این نتیجه رسیدیم که $X_t \sim I(d)$ برای $d > 0$. * تست $H_0 : \Delta X_t \sim I(0)$. * اگر $H_0$ رد شد، آنگاه $X_t \sim I(d)$ برای $d > 1$. * تا زمانی که $d$ را جدا کنیم ادامه دهید.
چگونه برای سفارش یکپارچه 2/غیر ثابت I(2) آزمایش کنیم؟
17864
اولین بار که پست میذارم! من سعی می‌کنم با استفاده از شبیه‌سازی حلقه‌ای، تخمین‌گر لاجیت ایجاد کنم، جایی که حلقه تعداد پیش‌بینی صحیح را تشخیص می‌دهد (کد من در زیر است). آیا امکان تغییر شوک در توزیع (تعریف شده به عنوان انحراف استاندارد در توزیع rnorm) پس از تعداد معینی از پیش بینی صحیح وجود دارد؟ من آن را با متغیر f آغاز شده در زیر امتحان می کنم، اما با موفقیت کمی. من فکر می‌کردم که متغیر f می‌تواند پس از مثلاً 20 پیش‌بینی صحیح، به 2 تغییر کند. کد زیر کار می کند -- با هش هایی که کمی کد کار را پنهان می کنند -- اما نتایج بر اساس شوک متفاوت نخواهد بود (انحراف استاندارد ثابت است). با تشکر x<-1:7 y<-c(0,0,0,1,0,1,1) n=2000 bin1<-rep(NA,n) bin2<-rep(NA,n) راست<-NULL b0<-rnorm(1,-4,.1) b1<-rnorm(1,1,.1) n=1000 ti=0 f<-1 تکرار<-0 bin1<-NULL bin2<-NULL راست=-1 برای (i در 1:n) { nright<-NULL nb0<-b0 + rnorm(1,0,1/f) nb1<- b1+ rnorm(1,0, 1/f) پیش بینی<-((1/(1+exp(- nb0- nb1*x)))) برای (j در 1:7) { ifelse ( y[j]==1,nright[j]<-predict[j],nright[j]<-1-predict[j]) } nright <- prod(nright) if (nright>right) b0 < -nb0 if (nright>right) b1<- nb1 bin1[i]<-b0 bin2[i]<-b1 # ifelse ( nright > راست، iter<-0، iter<-iter+1) # if (iter > 50) f<- f/2 # if (f<.05) stop(Done) if (nright>right) right<-nright ti<-ti+1 } f ti b0 b1
ایجاد یک برآوردگر با سطوح شوک (SD) متفاوت در R؟
44283
یک متغیر اسمی A (به عنوان مثال سیگاری/غیر سیگاری) را در نظر بگیرید که در تعدادی از نمونه ها اندازه گیری شده است. اکنون می خواهم بدانم آیا نسبت A (سیگاری / غیر سیگاری) بین نمونه ها متفاوت است یا خیر. کدام آزمون مناسب خواهد بود؟
کدام آزمون برای تفاوت فراوانی متغیر اسمی
111944
معیار اطلاعات انحراف (DIC) یک ابزار بسیار محبوب برای انتخاب مدل بیزی است که تا حدی به دلیل پشتیبانی آن توسط پلتفرم‌های BUGS است. با این حال، برخی محدودیت‌های باقی‌مانده وجود دارد که توسط پلامر (2008) بحث شده است. یکی از این موارد این است که تعداد موثر پارامترها، pD، باید نسبت به حجم نمونه کم باشد، در غیر این صورت DIC مدل را کمتر جریمه می کند (ص 535). آیا دانشی در مورد اینکه حداقل نسبت پارامترها به مشاهدات باید چقدر باشد تا DIC معتبر باشد وجود دارد؟ آیا این به طور رسمی بررسی شده است؟ Plummer M. توابع ضرر مجازات برای مقایسه مدل بیزی. (2008). _آمار زیستی_، _9_، 523-539.
نگرانی در مورد استفاده از DIC برای مقایسه مدل های بیزی
1066
سوال من در واقع بسیار کوتاه است، اما باید با توصیف زمینه شروع کنم زیرا مطمئن نیستم که چگونه مستقیماً آن را بپرسم. بازی زیر را در نظر بگیرید: ما یک پاره به طول n (قطعه بزرگ) و m اعداد صحیح (طول) داریم که همه به طور قابل توجهی کوچکتر از n است. برای هر یک از طول های m یک زیرقطعه تصادفی از طول آن بر روی قطعه بزرگ رسم می کنیم. به عنوان مثال، اگر قطعه بزرگ به اندازه 1000 باشد (یعنی 1..1000) و طول های 20، 10، 50 به ما داده شود، یک راه حل ممکن خواهد بود: 31..50، 35..44، 921..970 (زیربخش های به ترتیب 20، 10 و 50). یادداشت ها: 1\. این فقط یک نمونه اسباب بازی است. ما معمولاً طول های بسیار بیشتری داریم، بنابراین همپوشانی های زیادی وجود دارد و هر موقعیت در بخش بزرگ توسط چند بخش فرعی پوشانده می شود. 2\. به یاد داشته باشید که طول ها داده شده است. فقط نگاشت آنها به بخش بزرگ تصادفی است. 3\. ترسیم یک بخش فرعی به طول k به سادگی با رسم یک عدد از توزیع یکنواخت روی 1..n-k انجام می شود (بخش فرعی با اندازه k می تواند از موقعیت 1، 2، ... n-k شروع شود). اکنون، ما شبیه‌سازی‌های زیادی از فرآیند انجام می‌دهیم و داده‌ها را ثبت می‌کنیم. ما در نهایت برای هر موقعیت توزیع تعداد زیربخش های پوشش دهنده این موقعیت را بررسی می کنیم. اگر به موقعیت هایی نگاه کنیم که نسبتاً از لبه های بخش بزرگ فاصله دارند، توزیع در هر یک از این موقعیت ها نرمال است و همه توزیع ها یکسان به نظر می رسند. مشکل این است که موقعیت های انتهایی به هیچ وجه عادی به نظر نمی رسند. این تعجب آور نیست، زیرا، برای مثال، اگر اکنون یک بخش فرعی به طول 10 ترسیم کنیم، تنها راهی که اولین موقعیت در بخش بزرگ پوشش داده می شود این است که 1 را رسم کنیم، در حالی که، برای مثال، 10th اگر 1،2،3،..10 بکشیم موقعیت پوشش داده می شود. چیزی که من سعی می کنم بفهمم این است که نوع توزیعی که در موقعیت های لبه می بینیم چیست (عادی نیست، اما فکر می کنم معمولاً شبیه یک توزیع معمولی است که دمش در یک جهت بریده شده است)، و همچنین چگونه می تواند من این تابع چگالی توزیع را از شبیه سازی هایم تقریبی می کنم. برای موقعیت های مرکز، من فقط میانگین و انحراف استاندارد را تخمین می زنم و از آنجایی که معتقدم توزیع ها نرمال هستند - می توانم از تابع چگالی نرمال استفاده کنم. این امر باعث می‌شود به این فکر کنم که آیا واقعاً نیاز دارم که موقعیت‌ها را به روشی طبقه‌بندی کنیم - «نزدیک لبه‌ها» و «نه نزدیک لبه‌ها»، یا اینکه واقعاً به نوعی مشابه هستند (تعمیم‌هایی از توزیع نرمال؟) . با تشکر و پوزش مجدد برای طولانی شدن پست.
تابع چگالی تقریبی برای توزیع غیر نرمال
89438
من باید تنظیمات متغیر مدرسه (تنظیمات شهری، زیرشهری و روستایی) را در یک متغیر ساختگی مجدداً رمزگذاری کنم. من می دانم که هنگام ایجاد یک متغیر ساختگی، یک دسته کمتر وجود دارد (بنابراین 2 به جای سه شرط) و شهری بزرگترین گروه است و باید به عنوان خط مبنا استفاده شود (مطمئن نیستم که خط مبنا کلمه مناسبی است یا خیر، اما امیدوارم که بدانید منظورم چیست). با این حال، من نمی دانم از اینجا چه کار کنم. آیا متغیر به 1\ تغییر یافته است. دو متغیر ساختگی: تنظیم 1 با شهری/حومه شهری و تنظیم 2 با شهری/روستایی؟ 2\. یکی از متغیرها که در آن به شهر مقدار 1 داده می شود و به شهر و برون شهری مقدار 0 داده می شود؟ 3\. هر دو؟ 4\. آیا چیزی را کاملاً از دست داده ام؟ امیدوارم بتونی کمکم کنی!!
رمزگذاری مجدد یک متغیر با سه سطح به یک متغیر ساختگی
1062
به طور کلی، چرا پارامترهای متعامد مفید هستند، و چرا ارزش تلاش برای یافتن پارامتری جدید که پارامترها را متعامد می کند، دارد؟ من نمونه‌های کتاب درسی را دیده‌ام، نه چندان، و به مثال‌های ملموس‌تر و/یا انگیزه علاقه‌مندم.
پارامترسازی متعامد
17862
من چند توضیح از آمارهای اساسی یک فرآیند پواسون مرکب را دیده‌ام، اساساً فقط عبارات ساده در مورد نحوه محاسبه میانگین و واریانس با توجه به میانگین و واریانس فرآیندهای اساسی. متأسفانه من چیزی را پیدا نکردم که در یک زمینه حرفه ای احساس راحتی کنم. **آیا کسی می تواند یک مرجع خوب میز کار را که فرآیندها/توزیعات مرکب پواسون را پوشش دهد توصیه کند؟** ترجیحاً به اندازه کافی کلی باشد که به عنوان یک مرجع میز خوب در مورد آمار برای یک مهندس (با تمایل به انجام تجزیه و تحلیل عددی زیاد) باشد. به جای تمرکز صرف بر روی فرآیندهای ترکیبی. اگر به طور کلی طرح کلی خوبی از استنباط بیزی ارائه دهد، امتیازات اضافی را ارائه می دهد.
مرجع خوبی برای فرآیندهای پواسون مرکب چیست؟
17861
من یک رگرسیون دارم که به شکل زیر است: $$\text{salespc} = \beta_1 + \beta_2 \text{realprice} + \beta_3 \text{realincpc} + e_i $$ خروجی من از R به شرح زیر است: Coef S.E. t Pr(>|t|) Intercept 253.5044 9.2183 27.50 <0.0001 realprice -18.4374 2.6315 -7.01 <0.0001 realincpc -0.0035 0.0004 -0.0004 -0.001 تقاضای من برای پیدا کردن تقاضای من از 0.001-8.45 و خطای استاندارد آن من فکر می کنم که کشش $$\beta_2 \frac{\text{realprice}}{\text{salespc}}$$ در مقادیر داده شده $\text{realprice}$ و $\text{realincpc}$ است. اما من مطمئن نیستم که چگونه SE را پیدا کنم. می دانم که این یک انجمن اقتصادی نیست، اما فکر کردم شاید بهترین عکس من باشد. با تشکر من قرار است یک سوال مشابه با $$\log(\text{salespc}) = \gamma_1 + \gamma_2 \log(\text{realprice}) + \gamma_3 \log(\text{realincpc}) + e_i انجام دهم $$ اما فکر می کنم وقتی قسمت اول را گرفتم می توانم قسمت دوم را انجام دهم.
یافتن خطای استاندارد کشش قیمت
89436
من سعی می‌کنم صدای انسان را از یک کلیپ پر سر و صدا استخراج کنم و آزمایش‌هایی را روی آن مطالعه کردم، مانند بریده‌شدن صدا با استفاده از یادگیری عمیق یا MLP ann و غیره، سپس شناسایی گفتار با استفاده از اکتشافی مبتنی بر توالی و اکنون تا حدودی گیج شدم. برای شروع بسیار در این زمینه، به برخی از مراجع در این تاپیک نیاز دارم.
درخواست مرجع: استخراج گفتار انسان با استفاده از یادگیری ماشینی
94928
یک طرح نمونه‌گیری دو مرحله‌ای را در نظر بگیرید: ابتدا، از انتخاب تصادفی وزن‌دار از یک فهرست برای به دست آوردن مجموعه‌ای از N عنصر_unique_ استفاده کنید. سپس، از انتخاب تصادفی _uniform_ برای انتخاب یکی از آن عناصر استفاده کنید. چگونه می توانم هنگام به دست آوردن اولین مجموعه وزنی، انحراف ناشی از شرط منحصر به فرد را مقابله کنم، به طوری که فرکانس انتخاب خروجی به خوبی با وزن های تعریف شده برای هر عنصر مطابقت داشته باشد؟ من اولین مجموعه را با تکرار یک نمونه وزنی ساده به دست می‌آورم: یک لیست تجمعی از وزن‌ها بسازید، یک عدد صحیح تصادفی در [0، مجموع (cumweights) انتخاب کنید)، شاخص مربوطه را در فهرست تجمعی وزن‌ها پیدا کنید، سپس عنصر مربوطه را برگردانید. من این N بار تکرار می کنم، جایی که N تعداد عناصر موجود در لیست است. سپس موارد تکراری را دور می اندازم. در اینجا مقایسه بین نگهداری و دور انداختن موارد تکراری است، زمانی که من یک شبیه سازی را 1'000'000 بار اجرا می کنم: وزن عنصر W/موارد تکراری WO/موارد تکراری A 5 0.050 0.066 B 10 0.100 0.125 C 20 0.2190 0.200 D300. 35 0.350 0.307 برنامه در اینجا یک متعادل کننده بار DNS با مجموعه پیکربندی شده ای از تاپل های (IP,weight) است. یک پرس و جو باید مجموعه ای از IP های منحصر به فرد را به مشتری برگرداند به گونه ای که در طول زمان، هر IP با احتمالی متناسب با وزن آن انتخاب شود - گویی یک نمونه واحد گرفته شده است. حل‌کننده‌های مختلف DNS درگیر در این فرآیند (تحلیل‌کننده خرد سیستم‌عامل، بازگشت‌کننده محلی، و غیره) را می‌توان فرض کرد که مجموعه IP را به‌طور یکنواخت به هم می‌زند (اگرچه این یک حل‌کننده خاص است).
نمونه برداری یکنواخت از مجموعه ای از نمونه های وزنی
12569
آیا کسی می تواند k-means و هسته PCA را در حوزه کوانتیزاسیون برداری (حافظه، سرعت، اثربخشی، ...) مقایسه کند؟
هسته PCA در مقابل k-means
28811
چه گزینه‌هایی برای هموارسازی داده‌های واقعی دوبعدی در دسترس هستند که نقاط مختص آنها فواصل واقعی به شکل $(x_j , [y_{j0}, y_{j1}])$ هستند در مورد من، داده‌ها مبهم هستند زیرا دقت اندازه‌گیری ذاتی، و من می‌خواهم دانش کمیت با توزیع یکنواخت در بازه $[y_{j0} مشخص شود، y_{j1}]$ (به جای گاوسی). یکی از گزینه‌ها استفاده از یک spline هموارسازی است که در آن داده‌های مختصات به‌عنوان میانگین فواصل در نظر گرفته می‌شوند و نقاط به‌طور معکوس نسبت به اندازه فاصله وزن می‌شوند (در مورد گاوسی، حدس می‌زنم به جای آن، این انحراف استاندارد باشد. ). متأسفانه، این منحنی را تشویق می کند تا از وسط فواصل عبور کند، علیرغم این واقعیت که من هیچ دلیلی برای این کار ندارم. چه گزینه های دیگری در دسترس هستند؟
هموارسازی منحنی در حضور عدم قطعیت غیر گاوسی
83653
من قصد دارم آزمایشی را با 2 گروه، 3 شرایط (3 X 2 ANOVA مخلوط) انجام دهم و در درجه اول به تعامل بین گروه و شرایط علاقه مند هستم. من سعی می کنم بفهمم اگر آلفا = 0.05، توان = 0.8 به چه اندازه نمونه نیاز دارم. من شمارنده من df = 2 (3-1) * (2-1) را فرض می کنم. با این حال، وقتی همه این اطلاعات را در کادر پارامترهای ورودی وارد می‌کنم، به من گفته نمی‌شود که اندازه نمونه من چقدر باید باشد. در عوض، کادری در سمت راست ظاهر می شود که به نظر می رسد سعی دارد اندازه افکت f را محاسبه کند. این را می توان یا از واریانس یا مستقیم انجام داد. آیا می توانید به من بگویید که در اینجا چه کاری باید انجام دهم و چگونه می توانم حجم نمونه مورد نیاز را تخمین بزنم؟ فکر می‌کنم درست است که می‌گویم باید به گزینه زیر در GPower دسترسی داشته باشم: F-tests، سپس ANOVA: جلوه‌های ثابت، ویژه، جلوه‌های اصلی و تعاملات سپس A-priori: محاسبه حجم نمونه مورد نیاز - داده شده است. اندازه آلفا، قدرت و افکت.' اما وقتی این کار را انجام می دهم با مشکل بالا مواجه می شوم. لطفاً می توانید به من بگویید چگونه می توانم حجم نمونه تخمینی را بدست بیاورم؟ با تشکر فراوان
نحوه یافتن اندازه نمونه در ANOVA: جلوه های ثابت، ویژه، جلوه های اصلی و تعاملات
66812
من در حال حاضر مشغول نوشتن یک مقاله هستم، اما با برخی چیزها در تجزیه و تحلیل داده ها دست و پنجه نرم می کنم. این مدل مفهومی من است (ساده شده): $A$---\ .......\ ........$C$ ......../ $B$-- -/ در جایی که $A$ یک متغیر اسمی است، بنابراین نیاز به dummified دارد، $B$ یک متغیر مقیاس است، و $C$ یک متغیر مقیاس است. فرضیه های من: * $H_1$: $A$ با $C$ رابطه مثبت دارد * $H_2$: $B$ رابطه مثبتی با $C$ دارد * $H_3$: $A$ رابطه مثبت تری با $ دارد. C$ از $B$ تا $C$. چگونه این را تست کنم؟ من به این فکر کردم که $H_1$ و $H_2$ را با رگرسیون خطی آزمایش کنم، اما چگونه می توانم $H_3$ را آزمایش کنم؟ و چگونه متغیرها را کنترل کنم؟
چگونه این فرضیه ها را آزمایش کنم؟ کدام رگرسیون
1060
من از یک مثال استفاده می کنم تا بتوانید نتایج را بازتولید کنید # مرگ و میر مرگ = ts(scan(http://www.stat.pitt.edu/stoffer/tsa2/data/cmort.dat),start=1970, فرکانس=52) # دمای دما = ts (اسکن (http://www.stat.pitt.edu/stoffer/tsa2/data/temp.dat)، start=1970، فرکانس=52) #ذرات آلاینده بخش = ts(scan(http://www.stat.pitt.edu/stoffer/tsa2/data/part.dat)، start=1970، فرکانس=52) temp = temp-mean(temp) temp2 = temp^2 trend = time(mort) اکنون، مدلی را برای داده های مرگ و میر متناسب = lm (mort ~ روند + temp + temp2) مناسب کنید + part, na.action=NULL) آنچه اکنون می خواهم این است که نتیجه دستور AIC را بازتولید کنم AIC(fit) [1] 3332.282 طبق فایل راهنمای R برای AIC، AIC = -2 * log.likelihood + 2 * npar . اگر درست می گویم، فکر می کنم که log.likelihood با استفاده از فرمول زیر داده می شود: n = طول (mort) RSS = anova (fit)[length(anova(fit)[,2])، 2] # باید بهتر باشد به هر حال راه هایی برای دریافت این (log.likelihood <- -n/2*(log(2*pi)+log(RSS/n)+1)) [1] -1660.135 این تقریبا برابر است با logLik(fit) 'log Lik.' -1660.141 (df=6) تا جایی که من می توانم بگویم تعداد پارامترهای مدل 5 عدد است (چگونه می توانم این عدد را به صورت برنامه نویسی دریافت کنم ??). بنابراین AIC باید با: -2 * log.likelihood + 2 * 5 [1] 3330.271 اوه داده شود، به نظر می رسد که من باید به جای 5 از 6 به عنوان تعداد پارامترها استفاده می کردم. این محاسبات چه اشکالی دارد؟
چرا به نظر می رسد فرمول AIC در R از یک پارامتر اضافی بیش از حد انتظار استفاده می کند؟
28816
من باید یک هیستوگرام از کارکنان شرکت های سراسر کشور تهیه کنم. هدف من بررسی مشاهدات افراطی است و البته در ابتدا بسیار زیاد و در پایان بسیار کم است، بنابراین نمی توانم بفهمم چگونه می توانم یک هیستوگرام دید واضحی از بزرگی و تعداد افراط ها ارائه کنم. در آغاز مطلق وجود دارد. بهترین ایده من تا کنون این بوده است که مجموعه داده را به دو قسمت تقسیم کنم، اما مطمئناً این بهترین راه نیست. ایده های شما چیست؟ من SAS 9.2 دارم.
نحوه ایجاد هیستوگرام هوشمند
17860
فرض کنید من سه نمونه دارم: کنترل، A و B. (من چیزهای اساسی در مورد نمونه گیری مانند عدم تعصب، عدم وجود عوامل مخدوش کننده و استقلال در انتخاب نمونه ها را فرض می کنم.) می خواهم ببینم آیا بین هر سه تفاوت معنی داری وجود دارد یا خیر. نمونه ها من تفاوت معنی داری را با آزمون فرضیه با استفاده از آزمون t تعیین می کنم. من یک آزمون t را روی هر ترکیبی از سه نمونه با استفاده از همان برش $\alpha$ انجام می دهم. فرض صفر این است که بین دو نمونه تفاوت معناداری وجود ندارد. برای استدلال، در هر سه آزمون، تمام فرضیه های صفر رد می شوند. بر اساس این سناریو، من ادعا می کنم: * احتمال رد فرضیه صفر در هر یک از سه آزمون $3 \cdot \alpha$ است. * احتمال رد فرضیه صفر در هر سه آزمون $\alpha^3$ است. آیا این ادعاها درست است؟ اگر چنین است، آیا مبنای انجام کاری مانند تنظیمات Bonferroni یا Holm برای $\alpha$ فقط در صورتی اعمال می‌شود که سؤال اصلی این باشد: آیا فرضیه صفر برای _هر_یک از آزمون‌ها رد خواهد شد؟ اگر اینطور است، اگر سؤال این باشد: آیا فرضیه صفر برای _همه_آزمون ها رد می شود آیا تنظیمات $\alpha$ بی ربط هستند؟
مبنای تنظیم مقادیر بحرانی در آزمون های t چندگانه چیست؟
83651
برای رگرسیون (از دست دادن مربع) می دانم که چیزی شبیه به بزرگترین مقدار ویژه ماتریس X'*X یا چیزی شبیه به آن است. جایی که X ماتریس داده است. تکمیل ماتریس اساساً عبارت است از: loss(observed_entries_ij - predicted_entries_ij) + جریمه به طور خاص من به ثابت Lipschitz مجذور از دست دادن frobenius (اصولاً از دست دادن مربع) بیش از مجموعه شاخص های آموزشی علاقه مند هستم. سوال این است که چگونه ثابت Lipschitz (یا کران) را برای از دست دادن فروبنیوس مجذور در مسئله تکمیل ماتریس محاسبه کنم؟
ثابت Lipschitz برای یک مسئله تکمیل ماتریس؟ (از دست دادن سرپوش)
82016
من مجموعه ای از مجموعه داده ها با اندازه گیری های متوالی دارم. از آنجایی که اندازه این مجموعه ها بسیار بزرگ است (بیش از 80000 اندازه گیری)، تصمیم گرفتم آنها را با استفاده از میانگین متحرک ساده (SMA) و انتخاب داده ها در هر n اندازه گیری ساده کنم. هر مجموعه متعلق به یک بیمار است و ما می خواهیم تاثیر سبک زندگی خاصی را بر پارامتری که اندازه گیری می کنیم، همانطور که در این سوال توضیح داده شده است، ببینیم. اما من مقادیر گم شده ای در مجموعه ها دارم، بنابراین SMA را نمی توان اعمال کرد. چگونه باید با مقادیر از دست رفته رفتار کنم؟ من به دو راه حل فکر کردم: حذف مقادیر از دست رفته یا جایگزینی آنها با موارد قبلی، بر اساس این فرض که یک مقدار از نظر بیولوژیکی به هم مرتبط است، به طور استثنایی با قبلی تفاوت ندارد. راه حل دیگر این است که مقدار گمشده را با میانگین کردن مقدار قبل و بعد بدست آورید. بنابراین، کدام راه حل بهتر است؟ راه حل های دیگری پیشنهاد می کنید؟
چگونه می توان قبل از اعمال میانگین متحرک (و به طور کلی) با مقادیر از دست رفته در داده های متوالی کنار آمد؟
28819
من یک مدل رگرسیون خطی چندگانه با R با استفاده از «lm» و «glm» ایجاد کرده‌ام. من از «lm» در یک مجموعه آموزشی و «پیش‌بینی» در یک مجموعه آزمایشی برای اعتبارسنجی مدل استفاده می‌کنم. در یک آزمایش، نتایج من در 80٪ چیزی است که برای 80٪ موارد باید باشد. برای یک متغیر پاسخ با 40 درصد و برای متغیر پاسخ دیگر با 63 درصد همبستگی دارد (اما متغیر پاسخ با همبستگی 63 درصد به مقادیر واقعی پیش بینی نزدیک نیست). من 53 محمول دارم. احتمال وقوع آن به طور تصادفی چقدر است؟ من سعی کردم یک svm چند کلاسه از ویژگی ها با استفاده از گزاره ها بسازم، اما تاکنون svm نتوانسته است نتایج را به درستی پیش بینی کند.
اعتبار سنجی مدل رگرسیون خطی با استفاده از R
71715
من از وجود چیزهایی مانند زنجیر مارکوف مونت کارلو، شبکه های عصبی و جنگل های تصادفی مطلع شده ام. در مدرسه در مورد OLS، logit، probit، GLM و غیره یاد گرفتم. در حالی که این روش ها را یاد گرفتم، همه چیز را در زمینه ایجاد اثرات حاشیه ای با تأکید بسیار کمی بر پیش بینی به خاطر پیش بینی آموختم. این بدیهی است که در تضاد کامل با rf و nn است که (من معتقدم) به طور خاص برای پیش‌بینی‌های خوب به جای حل اثرات حاشیه‌ای طراحی شده‌اند. من واقعاً مطمئن نیستم که MCMC برای حل کردن چه چیزی مناسب است، فقط می دانم که با درهم شکستن یک سری چیزهای تصادفی برای دریافت یک پاسخ واقعی، جادو می کند. با فرض اینکه انگیزه اصلی شما پیش‌بینی نتایج آینده است، آیا کسی می‌تواند مثال‌هایی سریع (یا نسبتاً خوب) از اینکه چه زمانی هر روش مناسب‌تر از روش‌های دیگر است را به من ارائه دهد؟ (آیا این حتی یک سوال معقول است؟) آیا OLS (و به طور کلی تمام روش هایی که در آن مدل سازی از قبل سفت و سخت است) احتمالاً دقیق ترین وسیله برای پیش بینی با فرض اینکه شما فقط به پیش بینی ها اهمیت می دهید باشد؟ با نادیده گرفتن OLS، آیا هنگام تلاش برای استخراج یک مدل برای پیش‌بینی، نشانه‌هایی برای انتخاب بین تکنیک‌های مختلف یادگیری ماشین وجود دارد یا بهتر است همه تکنیک‌ها را اجرا کنید و ببینید که آنها برای یک مشکل/مجموعه داده‌ها چگونه عمل می‌کنند؟
چند نمونه از مشکلاتی که تکنیک های مختلف به خوبی برای آنها مناسب هستند چیست؟
5306
من در حال تلاش برای انتقال به R از استفاده از SPSS هستم. در گذشته، من داده های خود را در قالب گسترده برای ANOVA اندازه گیری های مکرر خود در 'SPSS' تنظیم کرده ام. چگونه باید داده های خود را برای اجرای «nlme()» تنظیم کنم؟ داده ها متعادل است. دارای متغیرهای درون آزمودنی از نوع کارآزمایی (3 سطح) است که هر کدام 8 بار اندازه‌گیری شده‌اند، و یک عامل بین آزمودنی‌ها با 2 سطح. 2 تجزیه و تحلیل جداگانه اجرا خواهد شد. یکی با زمان پاسخ به عنوان DV و دیگری با دقت به عنوان DV. می دانم که داده ها باید در قالب طولانی باشند، اما مطمئن نیستم که ستون ها چگونه باید چیده شوند. آیا 1 ستون باید شناسه موضوع، ستون دیگر نوع آزمایشی، ستون دیگر زمان و سپس 1 برای DV باشد؟ آیا این مهم است؟ هر نکته در جهت درست بسیار قدردانی خواهد شد. با تشکر
چگونه می توانم داده های اندازه گیری های مکرر را برای تجزیه و تحلیل با ()nlme تنظیم کنم؟
29851
هنگام استفاده از رویکرد گام به گام رو به جلو برای انتخاب متغیرها، آیا مدل نهایی تضمین می شود که بالاترین $R^2$ ممکن را داشته باشد؟ به روش دیگر، آیا رویکرد گام به گام یک بهینه جهانی را تضمین می کند یا فقط یک بهینه محلی؟ به عنوان مثال، اگر من 10 متغیر برای انتخاب داشته باشم و بخواهم یک مدل 5 متغیری بسازم، آیا نتیجه نهایی مدل 5 متغیری ساخته شده با رویکرد گام به گام، بالاترین $R^2$ را در بین تمام مدل های 5 متغیری ممکن خواهد داشت. که می توانست ساخته شود؟ توجه داشته باشید که این سوال صرفاً تئوری است، یعنی ما در مورد اینکه آیا مقدار بالای $R^2$ بهینه است یا خیر، آیا منجر به اضافه شدن می‌شود و غیره بحث نمی‌کنیم.
آیا رویکرد گام به گام بالاترین مدل R^2$ را ایجاد می کند؟
82011
در بسته R روان سنجی تخمینی از SE از R مجذور sersq <- sqrt((4*rsq*(1-rsq)^2*(n-k-1)^2)/((n^2-1)* (n+3))) با n حجم نمونه و k تعداد پارامتر در صورت یافتن اندازه نمونه بیشتر از 60. آیا کسی فرمولی برای حجم نمونه کوچکتر یا فرمول دقیقی دارد؟ من از طریق sos - اما فقط موارد بالا را پیدا کردم؟ - مشکل اساسی واقعی این است که آیا مقایسه مدل هایی با هدف توضیح مجموعه ای از غلظت ها در اینجا فقط بر اساس مربع R پیش بینی های مدل فردی در مقابل مقادیر اندازه گیری شده روش سالمی است یا خیر.
محاسبه دقیق SD در R-squared
64830
من در حال حاضر در حال انجام تحقیق با رگرسیون لجستیک باینری داده های پانل هستم. در حال حاضر، من قصد دارم تست مشخصات را با 'لینک تست'، تست خوب بودن برازش (تست Hosmer & Lemeshows) و تست چند خطی با 'collin' در Stata انجام دهم. آیا این درست است؟ دوم، چگونه می توانم ناهمگونی را در رگرسیون لجستیک پانل در Stata بررسی کنم؟ پس از یافتن، چگونه آنها را اصلاح کنم؟
چگونه هتروسکداستیکی را برای رگرسیون پانل لاجیت در Stata تشخیص دهیم؟
17866
متأسفانه این چیزی است که من هرگز در مقطع کارشناسی یا در مقطع دکتری (اقتصاد) با آن مواجه نشدم. به عنوان مثال، فرض کنید من به سه نظرسنجی شناخته شده در سطح ملی نگاه می کنم: برآوردهای اخیر از نظرسنجی جوامع آمریکایی (ACS)، نظرسنجی عمومی اجتماعی (GSS)، و NLSY79. فرض کنید هر کدام دارای یک متغیر مجموع هستند که من می‌خواهم در تجزیه و تحلیل درآمد از آن استفاده کنم، و همچنین فرض کنید هر یک از سه متغیر مستقل برای بررسی‌های مربوطه خود منحصر به فرد هستند. فکر می‌کنم تحلیل مقطعی انجام نشده است، زیرا من با پاسخ‌دهندگان مختلف سروکار دارم. همچنین به نظر می‌رسد که اگر نظرسنجی‌ها در زمان‌های مختلف اجرا شوند، انجام یک تحلیل سری زمانی مشکل خواهد بود (مثال‌ها هستند). به طور خلاصه، برای مشاهده الگوهای جالب در داده ها چه کاری می توانم انجام دهم؟ با توجه به استفاده از نتایج نظرسنجی های مختلف، _kosher_ چیست و _faux pas_ چیست؟
من می خواهم بسیاری از نظرسنجی های نماینده را در تجزیه و تحلیل خود ترکیب کنم. چه چیزی باید بدانم؟
83656
من با مجموعه داده بزرگی از مکان‌های برچسب ماهواره‌ای سروکار دارم که نشان‌دهنده حیوانات ردیابی جداگانه در R است. من در نقطه‌ای هستم که می‌خواهم آزمایش آماری برخی از الگوهای حرکتی که در داده‌ها ظاهر می‌شوند را آغاز کنم. به طور خاص، من می خواهم آزمایش کنم که آیا تعدادی از متغیرهای طبقه بندی به طور قابل توجهی بر اندازه گیری های Lat بین دو گروهی که از داده ها بیرون کشیده ام (Res و Mig) تأثیر می گذارد. من می‌خواهم آزمایش کنم که آیا داده‌های عرض جغرافیایی برای یک گروه با گروه دیگر بر اساس ماه، فصل یا گروه‌بندی مشخصی از ماه‌ها که نشان‌دهنده ماه‌هایی است که تصور می‌شود دوره مهاجرت حیوانات را در بر می‌گیرند به طور قابل‌توجهی متفاوت است یا خیر. نقشه برداری از داده ها قبلاً تفاوتی را نشان می دهد که من فقط به دنبال پشتیبان گیری از آن با برخی از آمار هستم. داده‌های من به این شکل است: Most.tags <- structure(list(Day = c(28L, 28L, 28L, 28L, 29L, 29L, 29L, 29L, 30L, 30L, 30L, 30L, 1L, 1L, 1L, 2L ، 2 لیتر، 2 لیتر، 3 لیتر، 14 لیتر، 14 لیتر، 15 لیتر، 15 لیتر، 19 لیتر، 19 لیتر، 20 لیتر، 21 لیتر، 21 لیتر، 22 لیتر، 22 لیتر، 23 لیتر، 23 لیتر، 3 لیتر، 3 لیتر، 10 لیتر، 11 لیتر، 15 لیتر، 15 لیتر، 16 لیتر، 6 لیتر، ماه = 6 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3L، 3L، 3L، 3L، 3L)، سال = c(2004L، 2004L، 2004L، 2004L، 2004L، 2004L، 2004L، 2004L، 2004L، 2004L، 4L، 20 2004L، 2004L، 2004L، 2004L، 2004L، 2004L، 2011L، 2011L، 2011L، 2011L، 2011L، 2011L، 2011L، 2011L، 2011L، 2011L. 2011L، 2011L، 2011L، 2011L، 2011L، 2011L، 2011L، 2011L، 2011L، 2011L)، Lon = c(-117.6639928، -117.6639928، -117.649.649 -117.649. -117.6732003، -117.6577472، -117.6714935، -117.69592، -117.7110577، -117.7294612، -117.7354972، -117.7354972، -117.7354972، -117.718 -117.717. -117.7433286، -117.7565529، -117.7301581، -117.7478658، -117.7562485، -117.7640799، -117.8033669، -117.8033669، -1157.11531 -1157. -115.2480359، -115.2921405، -115.428897، -115.5640357، -115.7685924، -115.7876896، -115.8866044، -1115.8866044، -1115.9، -1115.9. -116.0415766، -115.8892831، -114.8770236، -114.605، -114.658، -114.3246344، -115.2033948، -115.670111123، -115.670911236، - Lat = c(32.86436552، 32.88220923، 32.89807426، 32.8862077، 32.91088934، 32.89569742، 32.9184579، 32.9184579، 382.94، 382.94، 32.9184579، 32.918، 32.994 32.95505376, 32.94755812, 32.93312722, 32.94289665, 32.94081439, 32.91104582, 32.93221554, 32.932215554, 32.93215554, 32.9321554, 32.9321554, 32.93215554, 32.93215812, 32.94289665. 32.92776881, 28.85519605, 28.88566432, 28.83765659, 28.82367125, 28.73205855, 28.83651705, 28.83651705, 28.83656432, 28.8365659, 28.83656881, 28.83651705, 28.8366432, 28.8367125, 28.83656881 28.90642536، 28.86772735، 28.87097892، 28.85694424، 28.84167306، 29.05524366، 28.435، 27.879، 27.876، 27.877، 126 27.26177248، 27.62240126، 27.6175314)، ptt = c(44386L, 44386L, 44386L, 44386L, 44386L, 44386L, 44386L, 6L,44348 44386L، 44386L، 44386L، 44386L، 44386L، 44386L، 44386L، 44386L، 44386L، 44386L، 100949L، 100949L، 100949L، 100949L، 100949L. 100949L، 100949L، 100949L، 100949L، 100949L، 100949L، 100949L، 100949L، 100949L، 100949L، 100949L، 100949L، 100949L، 100949L. 100949L, 100949L, 100949L, FL = c(107L, 107L, 107L, 107L, 107L, 107L, 107L, 107L, 107L, 107L, 107L, 107L, 107L, 107L, 107L, 107 لیتر، 107 لیتر، 107 لیتر، 107 لیتر، 107 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر، 164 لیتر)، جنسیت = ساختار 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر)، .برچسب = c(F، M)، کلاس = عامل)، Res.Mig = ساختار (c(2L، 2L، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L)، .Label = c(Mig، Res)، class = factor)، فصل = c(2L، 2L، 2L، 2L، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، , حرکت = c(1L, 1L, 1L, 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1L، 1L، 1L، 1L، 1L، 1L، 1L))، .Names = c(روز، ماه، سال، Lon، Lat، ptt، FL، Sex، Res.Mig، Season، Movement)، row.names = c(NA, 39L)، class = data.frame) Res.Mig فاکتور 2 دسته ای است که داده های من را به دو گروه مورد علاقه تقسیم می کند، حرکت گروه بندی ماه ها به ماه های مهاجرت 1 یا ماه های ساکن 0 است. من متوجه شدم که این داده ها برای اینکه همه چیز به درستی کار کند کافی نیست، اما باید برای بازی کردن کافی باشد. این اولین تلاش من برای استفاده از R برای این نوع کار آماری است و برای من سخت است که آنچه را که دنبال آن هستم تولید کنم. من تا الان از Anova در پکیج ماشین استفاده کرده ام اما اگر راه بهتری وجود داشته باشد در این مورد گیر نکرده ام. تلاش اولیه من این بوده است: Res.v.Mig.ANOVA <- Anova(lm(Lat ~ Res.Mig*Month*Season*Movement, data=Most.tags)) Res.v.Mig.ANOVA آن چیزی نیست که من انتظار دارم (1 DF برای هر
آزمایش تفاوت حرکتی بین 2 گروه در طول سال
66817
آیا ویکی پدیا اشتباه است یا من آن را نمی فهمم؟ > **ویکی‌پدیا:** مربع‌های سفید و سیاه (الگوی شطرنج) کاملاً > پراکنده هستند بنابراین من موران −1 خواهد بود. اگر مربع‌های سفید در یک > نیمی از تخته و مربع‌های سیاه روی دیگری قرار می‌گرفتند، من موران نزدیک به +1 بود. چیدمان تصادفی رنگ‌های مربعی به موران I مقداری نزدیک به 0 می‌دهد. # داده‌های مثال: x_coor<-rep(c(1:8), every=8) y_coor<-rep(c(1:8) , length=64) my.values<-rep(c(1,0,1,0,1,0,1,0,0,1,0,1,0,1,0,1) طول=64) rbPal <- colorRampPalette(c(darkorchid،darkorange)) my.Col <- rbPal(10)[as.numeric(cut(my.values,breaks = 10))] # نقطه را رسم کنید الگوی... نمودار(y_coor,x_coor,col = my.Col, pch=20, cex=8, xlim=c(0,9),ylim=c(0,9)) بنابراین همانطور که می بینید **نقاط کاملا پراکنده هستند** # ماتریس فاصله my.dists <- as.matrix(dist(cbind(x_coor,y_coor ))) # ... ماتریس فاصله معکوس my.dists.inv <- 1/my.dists # قطرها دیاگ 0 هستند(my.dists.inv) <- 0 محاسبات Moran's I **library(ape)** Moran.I(my.values, my.dists.inv) $observed [1] -0.07775248 $expected [1] -0.01587302 $sd [1] 0.01499786 $p .value [1] 3.693094e-05 **چرا به جای -1 مشاهده می شوم = -0.07775248.**
چرا I موران در الگوی نقطه کاملاً پراکنده با -1 برابر نیست
58084
من مجموعه‌ای از ویژگی‌ها/ویژگی‌های محصول عمومی دارم که مجموعه‌ای از الزامات عملکردی را تعریف می‌کنند («خواسته‌ها/نیازهای من»). هر تعداد از محصولات موجود به طور بالقوه نیازهای من را با هزینه‌های معین/قابل محاسبه برآورده می‌کنند. هدف من یافتن بهترین تطابق بین نیازمندی های من با کمترین هزینه (معمولاً برای استفاده از یک روش و تکنیک مناسب به راهنمایی نیاز دارم که بتوانم آن ها را مطالعه کنم و در یک فرآیند تصمیم گیری خودکار اعمال کنم). از قبل برای هر کمکی که می توانید ارائه دهید.
چه تکنیکی برای انتخاب بهترین گزینه ها بر اساس مجموعه ای از الزامات مناسب است
29853
در مورد فاصله اطمینان کمی سردرگمی دارم. من داشتم از طریق این لینک http://www.stat.yale.edu/Courses/1997-98/101/confint.htm چیزی شبیه به این دارد: > فرض کنید دانش آموزی که دمای جوش یک مایع خاص را اندازه می گیرد > مشاهده می کند قرائت (بر حسب درجه سانتیگراد) 102.5، 101.7، 103.1، 100.9، > 100.5 و 102.2 در 6 نمونه مختلف مایع. او میانگین > نمونه را 82/101 محاسبه می کند. اگر می داند که انحراف معیار برای این > رویه 1.2 درجه است، میانگین فاصله اطمینان برای جمعیت > در سطح اطمینان 95 درصد چقدر است؟ به عبارت دیگر، دانش آموز می خواهد میانگین دمای جوش واقعی مایع را با استفاده از نتایج اندازه گیری های خود تخمین بزند. اگر اندازه‌گیری‌ها از توزیع نرمال پیروی کنند، میانگین نمونه دارای توزیع $\mathcal{N}(\mu_i,\sigma/\sqrt{n})$ خواهد بود. از آنجایی که حجم نمونه 6 است، انحراف استاندارد میانگین نمونه برابر با 1.2$/\sqrt{6}=0.49$ است. سوال من این است که وقتی می گوید پس میانگین نمونه توزیع را خواهد داشت چرا می گوید توزیع میانگین نمونه؟ باید می گفت «توزیع قرائت های نقطه جوش»، اینطور نیست؟ آیا مجموعه هایی از نمونه ها را می گیریم و از هر مجموعه ای از نمونه ها یک میانگین نمونه بدست می آوریم و این مجموعه از میانگین های نمونه از توزیع نرمال پیروی می کنند؟ من در این مورد سردرگم هستم. همچنین چگونه $\mathcal{N}(\mu_i,\sigma/\sqrt{n})$ است. منظورم این است که از آنجایی که میانگین یک برآوردگر بی طرفانه است، آن را به عنوان $\mu_i$ در نظر گرفته‌ایم و از آنجایی که انحراف استاندارد نمونه یک تخمین‌گر بایاس است، $\sigma/\sqrt{n}$ را در نظر گرفته‌ایم. هنوز هم باید $\sigma/\sqrt{(n-1)}$ بود، اینطور نیست؟
سردرگمی در مورد فاصله اطمینان
85923
اجازه دهید $Y$ مستقل باشد و به طور یکسان نرمال با میانگین $2\mu$ و واریانس $16$ توزیع شود. نشان دهید که $\frac{\bar y}{2}$ حداکثر تخمین‌گر احتمال $\mu$ است.
سوال اثباتی در مورد برآوردگر حداکثر احتمال
82972
من سعی می کنم یاد بگیرم که چگونه از فیلدهای تصادفی مارکوف برای طبقه بندی پیکسل ها در یک تصویر استفاده کنم. آیا کسی می تواند مرا به یک آموزش ساده راهنمایی کند که نشان می دهد چگونه این کار انجام می شود. این آموزش باید تخمین پارامترهای مدل و مدیریت طبقه بندی نهایی را پوشش دهد. برخی از چیزهایی که من نمی‌فهمم: 1. در مورد ICM و برش‌های نموداری که برای به حداقل رساندن تابع انرژی که در MRF ظاهر می‌شود استفاده می‌شوند خوانده‌ام. آیا این فقط به مرحله طبقه بندی اشاره دارد، یعنی همه پارامترهای مدل از قبل شناخته شده هستند؟ 2. در مدل های مخلوط گاوسی، احتمال مشروط شدت پیکسل با توجه به برچسب کلاس آن (مدل سازی شده توسط یک تابع گاوسی) و احتمال قبلی برای گرفتن برچسب کلاس وجود دارد. آیا احتمال مدل‌سازی شده توسط MRF جایگزین احتمال قبلی برای برچسب کلاس می‌شود یا هر دو احتمال را جایگزین می‌کند؟ هر گونه کمکی بسیار قدردانی خواهد شد. پیشاپیش ممنون
آموزش آسان برای استفاده از فیلدهای تصادفی مارکوف برای طبقه بندی پیکسل ها در تصاویر در مقیاس خاکستری
10672
من در مورد تعدادی از الگوریتم‌ها برای حل مشکلات راهزن مسلح n مانند $\epsilon$-greedy، softmax و UCB1 خوانده‌ام، اما در طبقه‌بندی بهترین روش برای به حداقل رساندن پشیمانی مشکل دارم. آیا الگوریتم بهینه شناخته شده ای برای حل مسئله راهزن n-armed وجود دارد؟ آیا انتخاب الگوریتمی وجود دارد که به نظر می رسد در عمل بهترین عملکرد را داشته باشد؟
الگوریتم بهینه برای حل مسائل راهزن مسلح n؟
21590
من با مجموعه داده‌های بزرگی از داده‌های رفتاری کار می‌کنم که آن‌ها را (پس‌البته) به‌عنوان یک طرح آزمایشی سری زمانی بررسی می‌کنم تا به دنبال تغییر قابل اعتماد در یک متغیر وابسته منفرد در نتیجه یک درمان باشم. داده ها از تعامل کاربر با یک وب سایت در طول 10 سال به دست می آید. یک بهبود کلی از زمان 1 تا زمان 2 وجود دارد، p<.001. اما یک رگرسیون به اثر میانگین وجود دارد (اینجا را نیز ببینید) به طوری که کسانی که DV پایین در زمان 1 دارند در زمان 2 افزایش می‌یابند و کسانی که DV بالا در زمان 1 دارند در زمان 2 کاهش می‌یابند. (این را می‌توان به وضوح در نمودارها مشاهده کرد. ) من نمی دانم چگونه به تحلیل ادامه دهم. آیا می توانم رگرسیون را تا اثر میانگین کمی کنم و از این طریق تعیین کنم که چگونه اثر درمان از اثر رگرسیون بیشتر است؟ در اینجا برخی از جزئیات بیشتر در مورد مطالعه آمده است: * داده های مطالعه از یک وب سایت گروه پشتیبانی می آیند که در آن کاربران در مورد مشکلات زندگی می نویسند. مشاوران داوطلب ورودی ها را می خوانند و با پشتیبانی و مشاوره به کاربران پاسخ می دهند. داده های 10 ساله وجود دارد. n=~200000. * تحقیق من یک آزمایش طبیعی است زیرا با داده های وب سایتی کار می کند که با تحقیق جمع آوری نشده اند. بزرگترین مشکل با آن: عدم وجود گروه کنترل. * مشاوران داوطلب همچنین ورودی نوشته شده کاربر را با برچسب‌های موضوع، ویژگی و شدت برچسب (خصوصی) می‌کنند. من یک نظرسنجی از مشاوران انجام دادم و از آنها خواستم که شدت نسبی این برچسب‌ها را ارزیابی کنند (مثلاً افسردگی-هراس~0، نگرانی مدرسه~2، روابط-خوشحال~5). نتایج نظرسنجی و برچسب‌های اعمال شده برای هر ورودی نوشتاری برای استخراج یک پروکسی ساده برای وضعیت کاربر در زمان نوشتن استفاده شد. این پروکسی در سراسر نمونه نرمال شده است، توزیعی شبه نرمال دارد و به عنوان IV در نظر گرفته می شود. * درمان صرفاً استفاده از سایت است (نوشتن در مورد مشکلات زندگی و دریافت حمایت اجتماعی)، بنابراین DV از نوشتن مدخل 1 تا مدخل 2. تأثیر اصلی این است که IV به طور کلی از ورودی 1 به 2 افزایش می یابد، اما همانطور که توضیح داده شد یک رگرسیون به اثر میانگین * پس از ایجاد یک اثر اصلی، من علاقه مند به بررسی انواع متغیرهای تعاملی هستم: انتخاب زبان کاربر، جزئیات تعامل وب سایت، زمان پاسخگویی مشاور و غیره.
چگونه می توان رگرسیون به سمت میانگین را آزمایش کرد و با آن مقابله کرد؟
12566
من آزمایشی دارم که متغیر x را مختل می کند و باعث تغییر در متغیر z می شود. یک تغییر همزمان در متغیر y وجود دارد. چگونه می توانم تعیین کنم که آیا متغیر y در مسیر علّی بین x و z قرار دارد یا اینکه یک پدیده غیر مرتبط است؟
در مسیر علّی چیست؟
88744
من شنیدم که تمام شرطی های کامل (همانطور که در نمونه گیری گیبس استفاده می شود) می توانند توزیع مشترک را تعیین کنند. اما نمی فهمم چرا و چگونه. یا من اشتباه شنیدم؟ با تشکر
آیا شرایط کامل می تواند توزیع مشترک را تعیین کند؟
28815
یک سوال پرسیده شد که آیا دو متغیر مستقل $X$ و $Y$ که فقط مقادیر مثبت می گیرند می توانند $X-Y$ توزیع نرمال داشته باشند یا خیر. به من نشان داده شد که پاسخ منفی است. اما من فکر می کنم که می توان این کار را با دو نیمه نرمال که وابسته هستند انجام داد. اما نمی‌توانستم کاملاً بفهمم که چگونه وابستگی را ساختار دهم.
آیا دو rv وابسته X و Y که غیرمنفی هستند می توانند توزیع نرمال برای X-Y داشته باشند؟ با نصف نرمال میشه انجام داد؟
5304
همه عزیزان - من متوجه چیز عجیبی شدم که نمی توانم توضیح دهم، می توانید؟ به طور خلاصه: رویکرد دستی برای محاسبه فاصله اطمینان در یک مدل رگرسیون لجستیک، و تابع R confint() نتایج متفاوتی به دست می‌دهد. من در حال بررسی رگرسیون لجستیک کاربردی Hosmer & Lemeshow (ویرایش دوم) هستم. در فصل سوم مثالی از محاسبه نسبت شانس و فاصله اطمینان 95% آمده است. با استفاده از R، می توانم مدل را به راحتی بازتولید کنم: فراخوانی: glm(فرمول = مجموعه داده$CHD ~ as.factor(dataset$dich.age)، خانواده = دوجمله ای) باقیمانده انحراف: حداقل 1Q Median 3Q Max -1.734 -0.847 - 0.847 0.709 1.549 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -0.8408 0.2551 -3.296 0.00098 *** as.factor(dataset$dich.age)1 2.0935 0.5285 3.961 7.46e-05 *** --- Sign کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 136.66 در 99 درجه آزادی انحراف باقیمانده: 117.96 روشن 98 درجه آزادی AIC: 121.96 تعداد تکرار امتیازدهی فیشر: 4 با این حال، وقتی فواصل اطمینان پارامترها را محاسبه می‌کنم، فاصله زمانی متفاوتی با آنچه در متن داده شده است دریافت می‌کنم: > exp(confint(model)) در انتظار انجام پروفایل... 2.5 % 97.5 % (Intercept) 0.2566283 0.7013384 as.factor(dataset$dich.age)1 3.0293727 24.7013080 Hosmer & Lemeshow فرمول زیر را پیشنهاد می کند: $$ e^{[\hat\beta_1\pm z_{1-\alpha/2}\times\hat{\text{SE}}(\hat\beta_1)]} $$ و آنها فاصله اطمینان as.factor(dataset$dich.age)1 را به صورت (2.9) محاسبه می کنند. 22.9). انجام این کار در R ساده به نظر می رسد: # CI بالا برای بتا exp(summary(model)$coefficients[2,1]+1.96*summary(model)$coefficients[2,2]) # CI پایین تر برای بتا exp(summary( مدل)$ضرایب[2,1]-1.96*خلاصه(مدل)$ضرایب[2,2]) همان پاسخ را می دهد که کتاب با این حال، هر فکری در مورد اینکه چرا «confint()» نتایج متفاوتی به نظر می‌رسد؟ من نمونه های زیادی از افرادی را دیده ام که از «confint()» استفاده می کنند.
چرا بین محاسبه دستی فاصله اطمینان 95% رگرسیون لجستیک و استفاده از تابع ()confint در R تفاوت وجود دارد؟
7419
من در حال انجام برخی تحقیقات معمولی اینترنتی در مورد دو خوشه بوده ام. (من مقاله ویکی را چندین بار خوانده ام.) تا اینجا به نظر می رسد که تعاریف یا اصطلاحات استاندارد کمی وجود دارد. 1. می‌خواستم بدانم آیا مقاله یا کتاب استانداردی وجود دارد که هر کسی که به الگوریتم‌هایی برای یافتن دو خوشه علاقه‌مند است، باید بخواند؟ 2. آیا می توان گفت که وضعیت هنر در این زمینه چگونه است؟ ایده یافتن دو خوشه‌ها با استفاده از الگوریتم‌های ژنتیک برایم جالب بود، بنابراین از نظرات درباره آن رویکرد به‌ویژه در زمینه سایر رویکردها قدردانی می‌کنم. 3. معمولاً در خوشه بندی، هدف این است که مجموعه داده ها را به گروه هایی تقسیم کنیم که هر عنصر در گروهی قرار دارد. آیا الگوریتم های دو خوشه ای نیز به دنبال قرار دادن همه عناصر در یک گروه خاص هستند؟
شروع کار با دوخوشه سازی
66816
سال آینده در برنامه تحصیلی لیسانس **مطالعات اروپایی** (دانشکده علوم اجتماعی و اقتصادی، دانشگاه کامنیوس در براتیسلاوا) آمار تدریس خواهم کرد. با توجه به توضیحات برنامه، > هدف از مطالعه کسب دانش از مقولات و اصطلاحات اساسی > علوم سیاسی، حقوق و اقتصاد اروپا مرتبط با فرآیندهای > ادغام اروپایی است. دانشجویان فارغ التحصیل با اصطلاحات و نظریه های بنیادی در زمینه بررسی تحولات سیاسی و اقتصادی اروپا آشنا می شوند که ابزاری برای تحلیل سیاست های داخلی و خارجی است. > دانشجویان برای ادامه تحصیل در مقطع M.A در > مطالعات اروپایی، روابط بین الملل یا رشته های علمی مرتبط آمادگی دارند. > از جمله شایستگی های اساسی دانش آموز، توانایی جمع آوری و > کشف داده های نظری و تجربی در زمینه مطالعات بین رشته ای > فرآیندهای ادغام اروپایی است. دانشجویان برای کار در بخش های مختلف مدیریت دولتی و سیاست عمومی آماده می شوند. آنها > می توانند از پایگاه های اطلاعاتی بین المللی استفاده کنند و در رسانه ها به عنوان تحلیلگر عمل کنند. تا جایی که من می دانم، برنامه تحصیلی به سیاست شناسی (به ویژه انتخابات و نظرسنجی)، جامعه شناسی و روانشناسی نیز نزدیک است. با این حال من در رشته **احتمال و آمار ریاضی** فارغ التحصیل شدم و مطمئن نیستم که آیا باید به این دانش آموزان مباحث کلاسیک از احتمالات و آمار ریاضی را آموزش دهم یا چیز دیگری. آیا موضوعات دیگری وجود دارد که باید به این برنامه تحصیلی معرفی شود؟
کدام موضوعات آماری در برنامه مطالعاتی مطالعات اروپا تدریس شود؟
82018
من در تفسیر مناسب بودن مدل مشکل دارم. در زیر عصاره‌ای از برخی خروجی‌ها از R است. (پارامتر پراکندگی برای خانواده دوجمله‌ای 1 گرفته شده است) انحراف صفر: 3946.2 در 2999 درجه آزادی انحراف باقی‌مانده: 3924.3 در 2991 درجه آزادی AIC: 3942.3 تعداد Fisher Scoring >4 1 - pchisq(mylogit$null.deviance - mylogit$deviance، mylogit$df.null - mylogit$df.residual) [1] 0.004985122 بنابراین، از آنجایی که p-value کم است، این نشان می‌دهد که مدل مناسب است. قابل توجه است درست است؟ با تشکر فراوان
رگرسیون لجستیک، حسن تعبیر مناسب
50905
در بسیاری از ادبیاتی که من در حال مطالعه آن هستم، این یکی از آن اصطلاحاتی است که مکرراً استفاده می شود، اما تعریف دقیقی برای آن یافت نمی شود. به طور خاص، به من گفته می شود: > برای متغیرهای تصادفی شاخص شده با زمان (RVs) $\\{X_t\\}$، **افزودنی > مدل تجزیه** به صورت > > $X_t = {ll}(X_{ t-1}، X_{t-2}، \ldots) + {fc}(X_{t-1}، X_{t-2}، \ldots، > \varepsilon_t، \varepsilon_{t-1}، \ldots)$$ > > جایی که > > * $ll$ **سطح بلندمدت** است، که یک فرآیند تصادفی است و می‌توان آن را به عنوان یک نسخه هموار تجسم کرد. از $\\{X_t\\}$، نباید با > ** روندها** که الگوهای قطعی هستند اشتباه گرفته شود > * $fc$ جزء **نوسانات** است. که نشان دهنده تغییرات در > **سطح محلی** است، فرض شده **ایستا** و با **سطح میانگین صفر** > * $\\{\varepsilon_t\\}$ **نوآوری** هستند، و میانگین IID هستند -صفر RVs > اما تفاوت معناداری بین **روند** در مقابل **سطح بلندمدت** در مقابل **سطح محلی** در مقابل **سطح میانگین** چیست؟ علاوه بر این، آیا **مولفه نوسان** و **نوآوری** مدلسازی یکسانی نیستند، که نویز مرتبط با هر مشاهده است؟ پس چرا همه چیز را با گنجاندن هر دو پیچیده کنیم؟
منظور از سطح سری زمانی چیست؟
88745
poweRlaw قادر است $x_{min}$ و $\alpha$ را برای دنباله‌های قانون توان تخمین بزند، اما من باید x_{max}$ و $\alpha$ را برای سر قانون قدرت تخمین بزنم. آیا می توانم متقابل را برای هر نقطه داده بگیرم و $x_{min}$ و $\alpha$ را برای توزیع متقابل تخمین بزنم؟ آیا این رویکرد مشکلی دارد؟
Xmax را برای سرهای قانون قدرت تخمین بزنید
12562
من با یادگیری ماشینی جدید هستم و سعی می کنم خودم آن را یاد بگیرم. اخیراً در حال خواندن چند یادداشت سخنرانی بودم و یک سوال اساسی داشتم. اسلاید 13 می گوید که تخمین حداقل مربعات با تخمین حداکثر درستنمایی در مدل گاوسی یکسان است. به نظر می رسد چیز ساده ای است، اما من نمی توانم این را ببینم. میشه لطفا یکی توضیح بده اینجا چه خبره؟ من علاقه مند به دیدن ریاضی هستم. من بعداً سعی خواهم کرد دیدگاه احتمالی رگرسیون ریج و کمند را نیز ببینم، بنابراین اگر پیشنهادی وجود داشته باشد که به من کمک کند، بسیار مورد قدردانی قرار خواهد گرفت. پیشاپیش ممنون
هم ارزی بین حداقل مربعات و MLE در مدل گاوسی
12567
در مقاله ویکی‌پدیا در مورد فاصله اعتباری، آمده است: > در مورد یک پارامتر و داده‌ای که بتوان آن را در یک > آمار کافی خلاصه کرد، می‌توان نشان داد که بازه معتبر و > بازه اطمینان در صورت مجهول منطبق می‌شوند. پارامتر یک مکان > پارامتر است (یعنی تابع احتمال رو به جلو به شکل Pr(x | μ) = > f(x - μ) است)، با یک پیشین که یکنواخت است. توزیع مسطح؛[5] و همچنین اگر > پارامتر مجهول یک پارامتر مقیاس باشد (یعنی احتمال رو به جلو > تابع به شکل Pr(x | s) = f(x/s) است)، با یک قبلی جفریز [5] — > دومی را دنبال می کنیم زیرا با گرفتن لگاریتم چنین پارامتر مقیاسی > آن را به پارامتر مکان با توزیع یکنواخت تبدیل می کند. اما این موارد > به طور مشخص موارد خاص (البته مهم) هستند. به طور کلی چنین معادلی نمی‌توان ایجاد کرد.
نمونه هایی از تطابق فاصله اطمینان و فاصله معتبر
7415
تکنیک های آماری برای ایجاد یک مجموعه نمونه که نماینده کل جامعه (با سطح اطمینان مشخص) باشد چیست؟ همچنین، * اگر نمونه با مجموعه داده کلی مطابقت دارد، چگونه اعتبار سنجی کنیم؟ * آیا بدون تجزیه کل مجموعه داده (که می تواند میلیاردها رکورد باشد) ممکن است؟
چگونه از یک مجموعه داده کلی بزرگ مجموعه نمونه نماینده بسازیم؟
19524
من در حال کار بر روی صفحه فرض آزمون رتبه‌بندی علامت‌دار Wilcoxon (آزمون زوجی wilcox) در ویکی‌پدیا هستم. من توانستم مرجعی را برای فرضی که در آنجا نوشتم پیدا کنم، که عبارتند از: اجازه دهید $Z_i=X_i – Y_i$ برای $i = 1، \ldots، n$. 1. تفاوت $Z_i$ مستقل فرض می شود. 2. هر $Z_i$ از جمعیت پیوسته یکسانی می آید و در مورد یک میانه مشترک θ متقارن است. 3. مقادیری که $X_i$ و $Y_i$ نشان می‌دهند مرتب شده‌اند (حداقل سطح ترتیبی اندازه‌گیری)، بنابراین مقایسه‌های بیشتر از، کمتر از و برابر با مفید هستند. با این حال، من این احساس آزاردهنده را دارم که در اینجا چیزی را از دست داده ام. آیا کسی می تواند این موضوع را تصحیح/توسعه دهد؟ با تشکر
مفروضات (و H0) برای آزمون رتبه علامت دار Wilcoxon چیست؟
65730
من می‌خواهم توزیع احتمال داده‌هایم را با استفاده از R بررسی کنم. در برخی از سایت‌ها، تابع «fitdistr» در بسته «MASS» می‌تواند این کار را انجام دهد. برای بررسی اینکه 105 عدد پواسون تصادفی تولید کرده‌ام و تابع fitdistr را اجرا کنید تا بررسی کنید که آیا قادر به شناسایی است یا خیر. من از کتابخانه کد زیر (MASS) zpois=rpois(105,0.1) fitdistr(zpois، 't')$loglik fitdistr(zpois، 'نرمال')$loglik fitdistr(zpois، 'لجستیک')$loglik fitdistr(zpois, 'weibull')$loglik fitdistr(zpois، 'گاما')$loglik fitdistr(zpois, 'lognormal')$loglik fitdistr(zpois، 'نمایی')$loglik fitdistr(zpois، 'Poisson')$loglik fitdistr(zpois، 'دو جمله ای منفی')$loglik دریافتم که کمترین مقدار را برای توزیع نرمال می دهد. من می دانم که تقریب نمونه بزرگ توزیع پواسون توزیع نرمال است، اما من تقریب نمونه بزرگ را نمی خواهم. من می خواهم توزیع دقیق را ببینم. آیا می توانید به من کمک کنید تا تابع مناسب در R را با استفاده از آن که بتوانم تناسب توزیع دقیق را بدست بیاورم راهنمایی کنم؟
بررسی توزیع با استفاده از R
28813
من شروع به بازی با تابع 'naiveBayes' از بسته e1071 کردم. در نمونه های کوچک آزمون ساده به نظر می رسد. اما در وظیفه واقعی من ضعیف عمل می کند. من 4000 مشاهده دارم که متعلق به 2 کلاس است و با 19000 متغیر عددی توصیف شده است. کل مجموعه داده بر روی مجموعه های آموزشی و آزمایشی تقسیم شد و مدل ساده بیس برای مجموعه آموزشی تولید شده است. عملکرد پیش‌بینی مدل در مجموعه‌های آموزشی و آزمایشی ضعیف (~55%)، بسیار کمتر از مدل Random Forest برای مثال (~80%) بود. تقریباً تمام مشاهدات به عنوان کلاس 2 طبقه بندی شدند، در حالی که مجموعه داده متعادل است و نسبت کلاس 1 به کلاس 2 تقریباً 1:1 است. دلیل چنین عملکرد بدی چه می تواند باشد؟ چگونه می توانم نتایج مدل و پیش بینی را بهبود بخشم؟ از آنجایی که من در رویکرد Bayes نسبتاً جدید هستم، هر پیشنهادی مفید خواهد بود. همانطور که فهمیدم فرض اولیه رویکرد بیز استقلال متغیرها است. اما من مطمئن هستم که بسیاری از متغیرهای مجموعه داده من به شدت همبستگی دارند. آیا می تواند منشا مشکل باشد؟ آیا باید از انتخاب متغیر با Naive Bayes استفاده کنم؟
عملکرد ضعیف طبقه‌بندی با ساده‌لوحان
65732
تکنیک های زیادی وجود دارد که می توان از آنها برای کار رگرسیون استفاده کرد. برخی از آمار (به عنوان مثال حداقل مربعات تعمیم یافته) و برخی از یادگیری ماشین (مانند MLP)، برخی خطی و برخی غیرخطی، برخی پارامتری و برخی ناپارامتریک هستند. آیا طرح های طبقه بندی تکنیک های رگرسیون موجود است؟
طرح طبقه بندی تکنیک های رگرسیون
111647
اول از همه، اگر برخی از اصطلاحات فنی در اینجا دقیق نیستند، عذرخواهی می کنم - تجربه من با آمار نسبتاً محدود است. برای نشان دادن مشکلم، فرض کنید می‌خواستم مطالعه‌ای طراحی کنم تا یک همبستگی خطی بین IQ و دور سر (HC) را که با یک نوار اندازه‌گیری می‌شود، محاسبه کنم. خطای اندازه گیری انسان به طور متوسط ​​0.1 سانتی متر است و خطاها به طور تصادفی توزیع می شوند. چگونه می توانم تعیین کنم که چند آزمودنی باید در مطالعه ثبت نام شوند تا بتوانم ارتباط آماری معنی داری بین IQ و HC را تشخیص دهم؟ آیا می توان این را به صورت پیشینی تعیین کرد، یا این بستگی به میزان قوی بودن همبستگی دارد؟ با تشکر برای روشن کردن این!
قدرت تشخیص همبستگی قابل توجه با توجه به عدم قطعیت اندازه گیری
91347
فرض کنید که من برای بازه زمانی $t$ یک فرآیند پواسون را که دارای نرخ متوسط ​​ناشناخته $\mu>0$ است اندازه می‌گیرم و هیچ رویدادی مشاهده نمی‌کنم. برآورد معقول $\mu$ از دیدگاه بیزی چه می تواند باشد؟
قانون جانشینی لاپلاس برای فرآیند پواسون
63941
من یک طرح اندازه گیری مکرر برای مقیاس لیکرت با 10 گویه دارم. این مقیاس یک بعدی فرض می شود و این یکی از سوالات تحقیق به همراه عدم تغییر اندازه گیری مقیاس ها (MI) در طول زمان است. من تجزیه و تحلیل را به شرح زیر انجام می دهم: ارزیابی اول به طور تصادفی به دو قسمت تقسیم می شود، من PCA را در یک نیمه، CFA را در نیمه دوم اعمال می کنم و سپس می خواهم مقایسه MI را بین نیمه دوم ارزیابی اول و ارزیابی دوم انجام دهم. PCA از یک ساختار یک عاملی پشتیبانی می کند اما نه خیلی قوی (λ = 2.7، Prop: 73%) در حالی که CFA برای ارائه ساختار یک عاملی مشکل ساز است (c2/df > 3، RMSEA = 0.12، GFI = 0.87). در آن شرایط آیا اجرای و ارائه مقایسه‌های MI لازم بین دو ارزیابی منطقی است؟
اگر تحلیل عاملی تاییدی مثبت نباشد، آیا باید ناواریانس اندازه گیری را اجرا کنم؟
82019
در حالی که این ممکن است یک سوال اساسی و اساسی باشد، من باید درک دقیقی از اینکه پیش‌بینی درون‌نمونه دقیقاً چیست و مستلزم چیست، پیدا کنم. من خارج از نمونه را در نظر گرفتن دوره ای از داده های آموزشی و پیش بینی مقادیر آینده بر اساس رگرسیون داده های آن دوره می دانم. با این حال، به نظر می رسد که درون نمونه به ندرت بدون ارجاع به خارج از نمونه بودن تعریف می شود. یک سری زمانی از 1900-2000 را مثال بزنید که من برای آن مشخصات رگرسیون دارم. من می خواهم پیش بینی های نمونه ای برای سال های 1990-2000 انجام دهم. این مستلزم چه چیزی است؟
چگونه می توان پیش بینی درون نمونه ای را انجام داد؟