_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
73641
$X'X \sim Wishart(\Sigma,n)$، با این حال من برای تولید آن در R مشکل دارم. مثال: data=cbind(rnorm(100,10,5),rnorm(100,5,2 )rnorm(100,-4,3)) X=cbind(rnorm(1,10,5),rnorm(1,5,2),rnorm(1,-4,3)) t(X)%*%X rWishart(10,99,cov(داده) ) داده های تولید شده از rWishart نزدیک به X'X$ نیست. من چه غلطی می کنم؟ مستندات راهنما اشاره می‌کنند که $\Sigma$ باید یک ماتریس مقیاس‌بندی شده باشد، اما من مطمئن نیستم که این چیست.
تطبیق X'X با نمونه‌های Wishart در R
77541
من یک آمارگیر آماتور هستم. من این کار را بیشتر برای سرگرمی انجام می دهم. من در حال اتمام کلاس آمار ترم اول خود هستم که تا آزمون فرضیه را پوشش می دهد. من در حال برنامه ریزی برای شروع یادگیری تست رگرسیون ساده توسط خودم هستم، بنابراین می توانم برای کلاس سطح بعدی آماده شوم، زمانی که دوباره یک اسلات رایگان در برنامه خود داشته باشم. به هر حال، من اطلاعاتی دارم که می‌خواهم تست کنم تا ببینم طبیعی است یا نه. یا حداقل می توانم با اطمینان معقول آن را عادی فرض کنم. من به هزاران نمونه دسترسی دارم اما نمی توانم کل جمعیت را ببینم. می‌دانم که می‌توانم از هر نوع جامعه‌ای نمونه‌ای به اندازه کافی بزرگ بگیرم و توزیع نمونه‌گیری را با قضیه حد مرکزی نرمال تلقی کنم، اما در واقع سعی می‌کنم بینشی در مورد خود جامعه به دست بیاورم. با خواندن اینجا متوجه شدم که باید آزمایش فرضیه انجام دهم. با توجه به آنچه می‌دانم، باید فرضیه صفر را تنظیم کنم که جمعیت عادی نیست و سپس سعی کنم آن را رد کنم. با این حال، من نمی دانم از آنجا به کجا بروم. آیا کسی می تواند مطالعه ای را پیشنهاد کند که بتوانم قبل از انجام این کار انجام دهم؟ قدم هایی که باید بردارم؟ متشکرم!
آزمایش برای اینکه ببینیم یک جمعیت طبیعی است؟
55168
سلام به همه من سعی می کنم یک قدم جلوتر از پیش بینی انجام دهم. فرض کنید من 1000 داده دارم و یک مدل ARIMA را با آن تطبیق می دهم و سپس یک پیش بینی برای یک دوره آینده انجام می دهم. وقتی داده‌های بیشتری دریافت می‌کنم، می‌خواهم یک مرحله دیگر را با استفاده از داده‌های جدید بدون نیاز به تخمین مجدد همه ضرایب و غیره پیش‌بینی کنم... این کد من است، اما به دلایلی برای یک مجموعه داده بزرگ‌تر بسیار کند است و خیلی مطمئن نیستم که چنین باشد. انجام آنچه می خواهم: set.seed(1234) y=ts(log(35+10*rnorm(1000))) set.seed(4567) new.data=ts(log(35+10*rnorm(10))) library(forecast) model = auto.arima(y) onestep.for=forecast(model,h=1) for (i در 1:10) { data=c() data=c(y,new.data[1:i]) newfit=Arima(data, model=model) forec=forecast(newfit,h=1) onestep.for=c(onestep.for,forec) }
پیش بینی یک گام جلوتر با داده های جدید جمع آوری شده به صورت متوالی
94743
من 260 کنفرانس معلم برای نمره دادن با استفاده از یک روبریک دارم. چگونه دو ارزیاب باید اینها را برای توافق رتبه‌دهنده امتیاز دهند؟ آیا به سه ارزیاب نیاز داریم؟
دو ارزیاب چگونه ویدیوها را نمره می دهند؟
73644
در سؤال http://stackoverflow.com/questions/18153450/generating-random- variables-from-the-multivariate-t-distribution، من گیج شده ام که چرا در پاسخ باید «سیگما» را به گونه ای تغییر دهیم که ما باید ضرب کنیم در `(D-2)/D`. در اینجا سیگما برای من ماتریس کوواریانس است. در پاسخ همچنین اشاره شده است که ماتریس همبستگی زمانی تعریف می شود که df > 2 باشد، آیا نباید df>= 2 باشد؟ این به این دلیل است که ضریب همبستگی نمی تواند محاسبه شود زمانی که داده ها به خودی خود ادامه می دهند یک، باید بیش از 1 سری وجود داشته باشد. من اینو درست تفسیر میکنم؟؟
R: نمونه گیری توزیع T چند متغیره
73469
در حال حاضر من از تابع rfe در بسته caret برای انجام انتخاب ویژگی استفاده می کنم. 380 متغیر به عنوان ورودی وجود دارد. من آزمایش های زیادی انجام داده ام و متوجه شده ام که همیشه اتفاق عجیبی می افتد، زیرا rfe تمایل دارد همه متغیرهای کاندید را به عنوان بهترین زیرمجموعه خروجی دهد در حالی که من اندازه پارامتر را بین 5 تا 10 تنظیم کرده ام. مشکل هر گونه کمکی قدردانی خواهد شد. پیشاپیش از هرگونه کمکی متشکرم
حذف ویژگی بازگشتی مطابق انتظار به خروجی نمی رسد
55169
من تازه وارد رزومه هستم و در آمار خیلی خوب نیستم:) خیلی ممنون می شوم در مورد یک ANCOVA غیر پارامتری در بسته R sm کمک کنید. من یک تجزیه و تحلیل قبل از ارسال را روی مجموعه ای از متغیرهای قبل / ارسال دو گروه انجام می دهم (بنابراین «گروه» یک عامل است. متغیرهای pre و post مقادیر عددی (اندازه گیری ها) یا نسبت های اندازه گیری های عددی هستند. خروجی `sm.ancova` صرفاً یک مقدار p است و * من واقعاً نمی‌دانم مدل‌ها چیست * نمی‌گوید که آیا فاکتور تعاملی وجود دارد یا خیر. چگونه باید خروجی تابع 'sm.ancova' را در R تفسیر کنم؟ به عنوان مثال برای «var1» به «var4»، «پست» به‌عنوان پاسخ، «پیش» به‌عنوان متغیر کمکی، «گروه» به‌عنوان عامل: * مقدار p «var1»: غیر معنی‌دار برای «مدل برابری» و غیرمعنادار برای «موازی» مدل، * var2 p-value: معنی دار برای مدل برابری و غیر معنی دار برای مدل موازی، * `var3` p-value: غیر معنی دار برای مدل برابری و معنی دار برای مدل برابری مدل موازی، * مقدار p var4: برای مدل برابری معنی‌دار و برای مدل موازی معنی‌دار است. ویرایش: به نظر می رسد بسته R sm در مورد هموارسازی / شکل رابطه بین y و یک متغیر کمکی پیوسته باشد. آیا زمانی که مفروضات توزیعی برآورده نمی شوند، جایگزین های غیر پارامتری برای ANCOVA وجود دارد؟ برخی جزئیات: من 2 گورپ کوچک را با هم مقایسه می‌کنم (گروه یک عامل، طبقه‌بندی است)، **y** پس اندازه‌گیری است، و **x** پیش اندازه‌گیری است (متغییر). سوال اینجاست که آیا تاثیر درمان روی هر دو گروه یکسان است؟
چگونه نتایج حاصل از ANCOVA ناپارامتریک را تفسیر کنیم؟
28199
من پروژه ای دارم که در آن به همبستگی بین درآمد هر دو هفته و مقدار پس انداز هر دو هفته توسط کارگران کم درآمد نگاه می کنم. من اندازه اثر و فاصله اطمینان را گزارش می کنم. یکی از نتایج من به شرح زیر است: r (214) = 0.34، p <001، 95% CI [0.22، 0.45] من می دانم که پذیرفته شده است که یک فاصله اطمینان باریک بهتر از یک فاصله اطمینان گسترده است. با این حال، من مطمئن نیستم که آیا این یک فاصله اطمینان گسترده یا باریک است. آیا راهی سریع برای تعیین اینکه چه چیزی در این زمینه عریض یا باریک است وجود دارد؟
فاصله اطمینان وسیع یا باریک
73398
من دو متغیر تصادفی دارم: (1) با توزیع نرمال استاندارد. فاصله اطمینان $I_1$ که در مرکز قرار دارد و احتمال $(1-\alpha)$ (2) با توزیع T دارد. فاصله بازه اطمینان $I_2$، همچنین در مرکز و دارای پروب است. $(1-\alpha)$. ابتدا باید طول هر دو را محاسبه می‌کردم: $\mathcal{L}(I_1) = 2 \cdot z_{1-\alpha/2} \frac{\sigma}{\sqrt{n}}$ و $ دریافت کردم \mathcal{L}(I_2) = 2 \cdot t_{1-\alpha/2;n-1} \frac{S}{\sqrt{n}}$. امیدوارم این درست باشد. اکنون باید توزیع مجانبی این نسبت را محاسبه کنم: $\Lambda = \frac{\mathcal{L}(I_2)^2}{\mathcal{L}(I_1)^2}$. به عنوان یک اشاره، من $(n-1)\frac{S^2}{\sigma^2} \sim \chi_{n-1}^2$ دریافت کردم. تا اینجا من دریافت کردم: $\Lambda = \frac{z_{1-\alpha/2}^2}{t_{1-\alpha/2;n-1}^2}\cdot\frac{S^2} {\sigma^2}$. چگونه نسبت دو توزیع را بیان کنم؟ من می دانم که اگر n به بی نهایت برسد، t-Distribution به یک نرمال استاندارد می رسد، اما آیا این کمک می کند؟ و آیا $(n-1)$ را به نحوی از راهنمایی دریافت می کنم، یا این واقعاً مرتبط نیست؟
نسبت طول دو فاصله اطمینان
55161
ما یک مجموعه داده داریم که وقتی آن را رسم می کنیم شبیه یک توزیع لگ نرمال به نظر می رسد. ما می‌خواهیم توزیع را به توزیع عادی تبدیل/نرمال کنیم و ببینیم وزن ویژگی چه چیزی افزایش یافته است. آیا راهی برای انجام آن در python/java/scala وجود دارد؟
آیا راهی در پایتون/جاوا/اسکالا برای تبدیل/نرمال کردن توزیع نرمال لاگ به توزیع عادی وجود دارد؟
20053
من داده های درآمد روزانه شرکتمان را در چندین بازار دارم. ماهیت پروژه این است که ببینیم بازارهای مختلف بر اساس چند متغیر، یعنی سن بازار و جمعیت آن، چگونه با یکدیگر مقایسه می‌شوند. من ابزارهای چرخشی 30 روزه را برای هر بازار ایجاد کرده ام و آنها را ترسیم کرده ام، ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/5i3W0.png) آنچه رئیس من می خواهد راهی برای وارد کردن جمعیت است. و سن و یک عدد درآمد پیش بینی شده را دریافت کنید. بهترین راه برای انجام این کار چه خواهد بود؟ آیا باید همه داده های بازار را با هم ترکیب کنم و سپس یک مدل ARIMA با استفاده از جمعیت به عنوان یک رگرسیون خارجی ایجاد کنم؟ آیا این کار می کند؟ یا باید برای هر بازاری مدل های جداگانه ایجاد کنم؟ آیا ARIMA حتی همان چیزی است که من می خواهم انجام دهم؟ شاید فقط یک رگرسیون خطی با هر دو متغیر و آزمون برای تعامل؟ من با آمارهای حرفه ای نسبتاً تازه کار هستم، به تازگی در ماه مه از کالج فارغ التحصیل شده ام، و هر کمکی بسیار قدردانی خواهد شد! ویرایش: مجموعه داده به این صورت است: mkt days.since.تاریخ راه اندازی درآمد mkt.population برای هر بازار چند صد نقطه داده وجود دارد.
چگونه می توان داده های سری زمانی را در چند بازار جمع آوری کرد/برخورد؟
73396
مدل ترجیحی برای تجزیه و تحلیل تصمیم تحقیق و توسعه شرکت ها و شدت آن چیست؟ معمولاً پرسشنامه ها شامل دو مرحله است: 1. از شرکت ها پرسیده می شود که آیا در تحقیق و توسعه (متغیر باینری (بله/خیر)) مشارکت دارند یا خیر) (حدود 70٪ پاسخ خیر) 2. اگر بله، شرکت ها میزان سرمایه گذاری خود را گزارش می دهند. از این رو، 70٪ از همه شرکت ها 0 سرمایه گذاری را گزارش می کنند، در حالی که 30٪ > 0. من چندین مقاله را با استفاده از مدل های مختلف دیده ام. 1. OLS ساده 2. مدل انتخاب هکمن (معمولاً بدون محدودیت طرد) 3. مدل شمارش با تورم صفر (موقعیت یا دوجمله منفی) 4. مدل مانع 5. ? بهترین مدل برای این نوع داده ها چیست؟ چگونه بفهمم که این مدل خاص مناسب ترین است؟
مدل تصمیم گیری و شدت تحقیق و توسعه
74018
به عنوان بخشی از یک مطالعه گسترده تر، من 30 وب سایت را تجزیه و تحلیل می کنم که به 3 دسته تقسیم می شوند: * مصرف کننده (10 سایت) * تجاری (10 سایت) * سلامت (10 سایت) رویکردی که من استفاده کردم یک صفحه گسترده تیک و تلنگر با 24 دوقطبی بود. متغیرهایی که نشان‌دهنده ویژگی‌های وب‌سایت هستند که یا وجود ندارند یا نیستند (یعنی اگر آن ویژگی خاص را نشان دهند تیک دریافت می‌کنند). در اینجا نمونه ای از داده ها آورده شده است. اعداد نشان می دهد که چه تعداد وب سایت از هر دسته دارای هر ویژگی خاص (متغیر) هستند. من می‌خواهم بدانم که از کدام نوع آزمون آماری برای یافتن الگوهای سیستماتیکی که در مورد «دسته» وب‌سایت تمایل به ارتباط با متغیرهای خاص وجود دارد، استفاده می‌شود. به عنوان مثال، کدام وب‌سایت‌ها تمایل دارند قدرت را با کاربران برای ویرایش/مشارکت محتوای وب به اشتراک بگذارند (اندازه‌گیری شده با متغیرهای 2،3،4،5،6،7،8،13،16،19،23،24)؟ من ترجیح می‌دهم از یک رویکرد آماری قوی‌تر/ دقیق‌تر به جای شمارش مجموع، یا الگوهای «چشم‌انداز» در داده‌ها استفاده کنم. پیشاپیش از شما متشکرم.
از کدام روش آماری برای یافتن الگوهای سیستماتیک در داده ها استفاده کنیم
114076
این سوال در مورد فاصله اقلیدسی وزنی است. من سه ویژگی دارم و به صورت سه بعدی از آن استفاده می کنم. من باید 2 پروژه به نام های A و B را در این فضای 3 بعدی قرار دهم و فاصله بین آنها را اندازه بگیرم. اما مورد این است که من باید به آنها وزن جداگانه بدهم. اگر به ویژگی اول وزن 1 داده شود، ویژگی دوم باید وزن 2 و ویژگی سوم باید وزن 3 داده شود. اگر مقادیر پروژه A (4،3،2) و مقادیر پروژه B (6،2،7) باشد. آیا می توانم از مقادیر وزنی برای محاسبه فاصله بین 2 پروژه استفاده کنم؟ لطفاً کسی در حل این مشکل به من کمک کند؟ اگر این روش اشتباه است راه دیگری وجود دارد که بتوانم از آن استفاده کنم؟ چیزی که من به آن نیاز دارم این است که به آنها وزنه هایی بدهم آنچه من نیاز دارم. این فقط یک مثال است. من باید این فضا را تا یک فضای n بعدی گسترش دهم. با استفاده از فاصله اقلیدسی می توان به آن دست یافت. اما مشکل اصلی چیزی که من با آن مواجه هستم این است که به آنها وزن هایی بدهم که به دنبال آن هستم.
محاسبه فاصله اقلیدسی وزنی با وزن های داده شده
94741
از _Analysis of Financial Time Series_ Tsay، برای یک سری زمانی ضعیف ثابت و تک متغیره $r_t$، تابع همبستگی خودکار نمونه آن $\hat{\rho}_l$ به صورت زیر تعریف می شود: ![توضیح تصویر را در اینجا وارد کنید](http://i. stack.imgur.com/eU17a.png) و تست Ljung-Box > ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/hkPZM.png) برای یک سری زمانی چند متغیره ضعیف ثابت $r_t$، ماتریس کوواریانس متقاطع lag-$l$ نمونه $\hat{\Gamma}_l$ و نمونه ماتریس همبستگی $\hat{\rho}_l$ از $r_t$ به صورت ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/fjSW3.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/twLx3.png) تست Ljung-Box چند متغیره است : ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hkEeJ.png) ![شرح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/GU9aF.png) تعجب می کنم که چگونه می توان آمار آزمون را برای یک سری زمانی چند متغیره تعمیم داد که برای یک سری زمانی تک متغیره است. * چرا ضرایب $T(T+2)$ تبدیل به $T^2$ می شود؟ * چرا $\hat{\rho}_l^2$ رد چیزی می شود؟ * نمایندگی در محصول کرونکر معادل (8.7) چگونه است؟
تست Ljung–Box برای یک سری زمانی چند متغیره؟
76755
من یک مدل لاجیت شرطی اجرا می کنم و همگرا نمی شود! DV دارای 6 سطح انتخاب رأی است، اساساً احزابی که می توان به آنها رأی داد، و من یک پیش بینی کننده، درک اقتصادی سطح فردی دارم. از آنجا که متغیر مستقل در بین گزینه‌ها متفاوت نیست، من با ضرب گزینه‌ها در ادراکات اقتصادی، اصطلاحات تعاملی را ایجاد کردم. باید مشکلی در کد وجود داشته باشد، زیرا من دائماً این پیام خطا را دریافت می کنم که تکرارهای آن تمام شده است و همگرا نمی شود. فکر کردم می‌توانم یکی از عبارت‌های تشکیل‌دهنده را حذف کنم، اما مشکل را هم حل نمی‌کند... هر کمکی بسیار قدردانی می‌شود :) کدی که استفاده کردم در زیر است: option<- as.numeric(data1$voteChoice1) table( انتخاب) انتخاب <- c() econ <- c() انتخابگر <- c() c <- 1 for(i در 1:length(data1$voteChoice1)){ selection[c:(c+5)] <- as.numeric(data1$voteChoice1)[i] econ[c:(c+5)] <- data1$economy[i] انتخابگر[c:(c+5) ] <- i c <- c + 6 } econ <- data1$economy vote <- Choice == انتخاب otherecon <- na.omit(econ* as.numeric(choice=='other')) grnecon<- na.omit(econ * as.numeric(choice=='green')) cduecon <- na.omit(econ * as.numeric(choice==' cdu')) fdpecon<- na.omit(econ * as.numeric(choice=='fdp')) spdecon<- na.omit(econ * as.numeric(choice=='spd')) dlecon<- na.omit(econ * as.numeric(choice=='dl')) other <- na.omit(as.numeric( انتخاب=='سایر')) grn <- na.omit(as.numeric(choice=='green')) cdu <- na.omit(as.numeric(choice=='cdu')) fdp<-na.omit(as.numeric(choice=='fdp')) spd <- na.omit(as.numeric(choice==' spd')) dl <- na.omit(as.numeric(choice=='dl')) votechoice <- na.omit(data1$voteChoice1) modelc <- clogit( vote ~ grn + cdu + other + fdp + spd + dl + grnecon + cduecon + fdpecon + spdecon + dlecon + otherecon + strata (انتخاب کننده)، na.action=na. حذف) خلاصه (modelc)
مدل لاجیت شرطی همگرا نخواهد شد
55298
من سعی می‌کنم دو نمونه از توزیع‌های نرمال چند متغیره را با هم مقایسه کنم تا ببینم آیا توزیع‌های آنها معادل هستند (در یک ضریب اپسیلون). نسخه استاندارد این تست تست انرژی است، اما برای اهداف من مفید نیست زیرا از $P = Q$ به عنوان فرضیه صفر استفاده می کند، در حالی که من به $P \neq Q$ نیاز دارم تا صفر باشد. چند کار قبلی در این مورد انجام شده است، بیشتر در این کتاب، اما هیچ چیز برای وضعیت من. چگونه می توانم روش گنجاندن بازه ای که در این کتاب توضیح داده شده است را برای استفاده از آمار انرژی گسترش دهم؟ آیا آمار آزمونی که برای بدست آوردن فاصله اطمینان استفاده می شود، باید آمار آزمون اصلی باشد (یعنی بر اساس فرضیه صفر $P = Q$)، یا باید آمار خودم را بر اساس فرضیه صفر جدید استخراج کنم؟ من فکر می کنم استخراج خودم قطعا فراتر از توانایی های من در این مرحله است.
آزمون هم ارزی برای دو توزیع نرمال چند متغیره؟
74019
تصاویر معمولی که هنگام برخورد با توابع ضررهای مختلف می بینیم شبیه به این هستند: ما y*f(x) را در محور x با یک خطای مرتبط با آن می بینیم. فرض کنید من یک رگرسیون لجستیک دارم که در آن سعی می کنم از اعتبارسنجی متقاطع برای یافتن لامبدا بهینه استفاده کنم. من یک لیست از لامبدا ایجاد می کنم و سپس یک مدل برای هر مقدار لامبدا می سازم و بررسی می کنم که تابع ضرر در آن مقدار خاص لامبدا چه چیزی را به من می دهد. سپس لامبدا را پیدا می کنم که خطای CV را به حداقل می رساند، خواه طبقه بندی نادرست، لولا یا انحراف باشد. حال سوال من این است که این نمودارها به عنوان توابع لامبدا قرار است چگونه به نظر برسند؟ CV-Error I دریافت می کنم با توجه به لامبدا (بدیهی است) و هر تابع ضرر در مقیاس خودش است. مطمئن نیستم اشتباه کرده‌ام یا نه، زیرا نمی‌دانم توابع از دست دادن باید در چه مقیاسی باشند و معمولاً هنگام بهینه‌سازی برای پارامترهای مختلف چه شکلی به خود می‌گیرند. نکته عجیب این است که هر 3 نوع خطا به من می گویند که مقدار لامبدا 0 (بدون نظم دهی) عملکرد از دست دادن را به حداقل می رساند. من از طریق اجرای R دیگر (cv.glmnet) می دانم که اینطور نیست. یا من اعتبار متقاطع را اشتباه انجام می دهم یا مطمئن نبودم که چگونه توابع ضرر خود را به درستی تعریف کنم. هر گونه کمک در مورد هر یک از این مسائل بسیار قدردانی خواهد شد.
مقایسه انواع مختلف تلفات به عنوان توابع لامبدا؟
79492
با بازگشت به درجات آزادی برای مجذور خی، پاسخ شگفت انگیزی در اینجا پیدا کردم: چگونه درجات آزادی را درک کنیم؟ با این حال برای من سخت است که آن را در مورد خاص خود اعمال کنم. فرض کنید تعداد اجسام از 3 نوع را مشاهده کردیم: A B C 35 121 344 مدلی که فقط یک پارامتر دارد، p، می گوید که باید این اشیاء را با فرکانس های 0.01، 0.3، 0.69 مشاهده کنیم که برخی از توابع غیر خطی p هستند. ، فرض کنید f(p)، h(p)، t(p). با توجه به این فرکانس ها که با استفاده از پارامتر مدل p محاسبه می شوند، تعداد مورد انتظار و آمار مربع کای را محاسبه می کنیم. سوال: در این مورد از چند درجه آزادی برای توزیع کای دو استفاده کنیم؟
درجات آزادی برای تست مربع کای برای مدل خاص
114071
من سعی می‌کنم متغیرهای متعدد جمعیت دانش‌آموزی خود را در مورد نتایج ارزیابی تجزیه و تحلیل کنم. من نمره تغییر ارزیابی و اطلاعات جمعیت شناختی مانند (نژاد، جنس، سن، برنامه، # برنامه، زمان خدمت، # خدمات) را دارم. من سعی می کنم مشخص کنم که کدام متغیرها برای امتیازات تغییر مهم هستند و چقدر مهم هستند.
اهمیت متغیر برای نتایج ارزیابی
7165
چه کتابی دقیق ترین پرداختن به مفاهیم بنیادی در آمار است؟ من کتابی در مورد جزئیات روش‌های محاسبات و رویه‌ها نمی‌خواهم، من عمدتاً به کتابی علاقه دارم که مفاهیم اساسی را به طور کامل توضیح دهد ... یک رویکرد شهودی / مصور / بصری به ایده‌های اصلی ... به جای بارگذاری از معادلات ریاضی و غیره. حجم کتاب مشکلی ندارد ... حتی یک متن بزرگ چند جلدی هم می تواند انجام دهد ... حتی یک منبع وب هم این کار را می کند.
منبعی برای مفاهیم زیربنایی آمار، نه تکنیک های مورد استفاده در آمارهای کاربردی
35540
من طرحی از یک GAM دارم که شدت جنگل زدایی را مدل می کند. ![توابع صاف مؤلفه یک GAM](http://i.stack.imgur.com/A9tXG.png) متغیرهای توضیحی با log10، معکوس و ریشه مربع تبدیل می شوند. آیا تفسیر یک گرادیان به این صورت معنادار است: «شدت جنگل زدایی با افزایش log10 (فاصله تا لبه جنگل) افزایش می‌یابد» یا «شدت جنگل‌زدایی با افزایش فاصله تا لبه جنگل افزایش می‌یابد» برای نمودار e (توجه داشته باشید، مقدار محور y کمتر می‌شود. شدت جنگل زدایی بیشتر است). اگر نه، چگونه می توانم توابع صاف کامپوننت را بدون تغییر رسم کنم؟
تفسیر توابع صاف جزء رسم شده مدل افزایشی تعمیم یافته - متغیرهای تبدیل شده
73468
امیدوارم بتوانم کسی را پیدا کنم که بتواند به این سوال پاسخ دهد. قبلی جواب نداد! Proc ucm پیاده سازی SAS (با استفاده از مفاهیم فضای حالت) برای جداسازی روند مشاهده نشده، فصلی بودن و تخمین ضرایب رگرسیورها به طور همزمان است. اسناد/تحقیقات در مورد proc ucm پراکنده است. دو سوال وجود دارد که من در تلاش برای یافتن پاسخ آنها هستم: الف. آیا قبل از اجرای proc UCM باید متغیر وابسته به دلیل ثابت بودن ضعیف (متفاوت) درمان شود؟ پاسخ http://www.iasri.res.in/sscnars/socialsci/17-Structural%20Time%20Series%20Models%20for%20Describing%20Trend%20in%20All%20India%20Sunflower%20Yield%20SAS.pdf کاغذ ضمیمه شده%2 به نظر می رسد نشان می دهد که من نیازی به نگرانی ندارم ثابت بودن در هنگام استفاده از proc ucm. با این حال، من در داده های خود وضعیتی مخالف پیدا کرده ام. در نظر بگیرید که وابسته من y است. و، t & s جزء روند هموار و فصل هستند که توسط proc ucm جدا شده اند. من انتظار داشتم سریال (y-t-s) ثابت باشد. اما، اینطور نبود. بنابراین، نتیجه می‌گیرم که proc ucm قادر به مدیریت سری‌های زمانی غیر ثابت نیست، تا زمانی که به صراحت وابسته را تفاوت/ایستایی نکنم. آیا این درست است؟ ب من همچنین رگرسیون هایی دارم که روابط یکپارچه ای با y نشان می دهند. از مقاله تحقیقاتی گرنجر، مشهود است که رگرسیون کاذب در صورت وجود سری های هم ادغام نتیجه می شود. اما، من می‌شنوم که این فقط در صورتی است که از proc reg مبتنی بر OLS استفاده کنیم. Proc UCM بر اساس برآورد حداکثر احتمال است. آیا ادغام همزمان با رگرسیون مبتنی بر برآورد حداکثر احتمال مشکلی ندارد؟ من می توانم در بیان مشکل خود در بالا مبهم باشم و در صورت نیاز می توانم توضیح دهم.
رسیدگی به مسائل ایستایی در مدل‌های سری زمانی proc ucm/state space
73395
کاوش در کار ET Jaynes، نظریه احتمالات (یازدهمین چاپ 2013) منجر به در نظر گرفتن تکنیکی شده است که او آن را به عنوان **استنتاج متوالی** (ص. 96) معرفی می کند. جایی که _شواهد_، بر حسب دسی بل، جمع می شود تا زمانی که محقق یا (1) با پذیرش متوقف شود، (2) با رد متوقف شود یا (3) با آزمایش دیگری ادامه دهد. به نظر می رسد تکنیک جینز یک مورد خاص و شاید رویکرد بیزی بیشتر از تحلیل متوالی باشد که توسط آبراهام والد ارائه شده است. اما من مطمئناً در اینجا متخصص نیستم. به نظر می رسد که این یک تکنیک فوق العاده قدرتمند است که می تواند برای بررسی ادعای انطباق/عدم انطباق به روشی مقرون به صرفه و بهینه از زمان استفاده شود. با این حال، هنگام جستجو در اینترنت و همچنین بررسی سایر متون بیزی (مانند Silvia و Skilling) عمق کمی در آن وجود دارد، اگر اصلاً ذکر شود. بنابراین این سؤالات مطرح می شود: (1) آیا در عمل استفاده می شود؟ (2) اگر چنین است، به چه صورتی، اگر نه، چرا که نه؟ (3) آیا در استفاده از آن در عمل مسائل و مشکلات حیاتی وجود دارد؟ (4) آیا مرجع(های) عمیقی با مطالعات موردی کاربرد وجود دارد؟ **ضمیمه** از زمان ارسال این مطلب قبلاً، مجموعه ای عالی از اطلاعات را در اینجا پیدا کرده ایم. ما که از یک پیشینه مهندسی می‌آییم، طبیعتاً ما تمایل داریم که داده‌ها را هدایت کنیم، و این باعث می‌شود مهندسان به‌طور محکمی در اردوگاه Frequentist قرار بگیرند. با این حال، بارها و بارها دیده‌ایم که این تحلیل‌ها باید از موضع منطق شروع شود و این همان چیزی است که با رویکرد بیزی _مناسب_ محقق می‌شود. بنابراین شکی در ذهن ما وجود ندارد که روش بیزی بر روش فرکانسیستی غلبه می کند. با این حال، آنچه ما به طور خاص به آن علاقه مندیم مفهوم _ شواهد_ در دسی بل است (به نظر می رسد که _bels_ یا شاید مقیاس_جینز (0,10] مشابه مقیاس_ریشتر_ ممکن است راه جالب تری برای در نظر گرفتن آن بوده باشد). رویکردی که برای مسائل معمولی تری که در عمل یافت می شود مورد استفاده قرار می گیرد، و آیا مطالعات موردی در این مورد وجود دارد؟
استنتاج متوالی و شواهد (جینز 2003): آیا معتبر است؟ استفاده می شود؟
114078
تلاش برای ایجاد یک مدل پیش‌بینی برای پیش‌بینی ساییدگی در میز خدمات/مرکز تماس. داده های روزانه در مورد پارامترهای زیر داشته باشید: 1. کیفیت تماس - QTM (0-100%)، 2.No. تماس ها - تماس ها (تعداد) 3. حضور و غیاب 4. بازخورد مشتری (1/0) Q1، Q2 (0-100%) برای هر دو، نمایندگانی که کار را ترک کردند و برای کسانی که هنوز آنجا هستند، برای مدت 6 ماه ها هدف: پیش بینی گرایش/احتمال ماندن/خروج عوامل بر اساس عملکرد روزانه وی. شک دارم، 1\. چگونه باید از داده ها برای آموزش مدل استفاده کنم (رگرسیون لجستیک) اگر بر اساس میانگین پارامترهای گرفته شده در مدت 6 ماه آموزش داده شود. **اگر چنین است، می‌توانیم معیارهای روزانه را بر اساس مدلی آزمایش کنیم که با استفاده از میانگین پارامترها به مدت 6 ماه آموزش داده شده است. لطفا راهنمایی کنید. این اولین تلاش من برای ساخت یک مدل پیش بینی است، من از طریق مطالعات موردی/مدل های مختلف مانند مدل بقای تایتانیک با استفاده از رگرسیون لجستیک، مدل DEWS ویسکانسین رفته ام. من تصمیم گرفتم با استفاده از مجموع هفتگی این دو جمعیت (آتریت ها و غیرسمت ها) مدل کنم. مجموعه داده‌ها (تقریباً داده‌های 5 ماهه، با مجموع‌های هفتگی دو جمعیت، یعنی ویژگی‌ها و غیر ویژگی‌ها). set](http://i.stack.imgur.com/EUMCI.png) این را ارسال کنید، من یک رگرسیون لجستیک در 80٪ این مجموعه داده اجرا کردم و 20٪ دیگر را برای آزمایش کنار گذاشتم. نتایج رگرسیون لجستیک: ![نتایج مدل رگرسیون لجستیک.](http://i.stack.imgur.com/wyB8B.png) و سپس از تابع پیش بینی بر روی 20 درصد داده ها استفاده کردم که شامل 3 بود. نقاط داده برای هر دو ویژگی و غیر اتریت، بنابراین برای اینکه مدل 100% دقیق باشد باید 3 را به عنوان ویژگی و 3 را به عنوان ویژگی پیش بینی کرده باشد. غیر اتریت اما پیش‌بینی صحیح 5/6 است که یک پیش‌بینی اشتباه از 6 است. لطفاً در تفسیر معنای نتایج مدل به من کمک کنید همه مقادیر z صفر هستند. مطمئن نیستم که نشان‌دهنده چیست. کمی در مورد مشکل z values ​​= 0 در گوگل جستجو کردم و به پست‌هایی در stackoveflow برخورد کردم که پیشنهاد می‌کردند از «bayesglm» به جای «glm» استفاده کنید، این کار را انجام داد و نتایج در نگاه اول خوب بود، اما به عنوان تازه‌کار در این زمینه، از شما می‌خواهم. تا مرا با توجه به اهمیت آماری موضوع راهنمایی کند و آیا مدل واقعاً به خوبی نتایج bayesglm است یا تصادفی است. ![نتایج با bayesglm](http://i.stack.imgur.com/Y2Cr8.png) مدل یک پیش بینی 100٪ دقیق در مجموعه آزمایشی اکنون 6/6 ارائه می دهد.
نحوه انتخاب داده ها برای آموزش یک مدل پیش بینی برای پیش بینی ساییدگی
27378
لطفا در صورت امکان یک توضیح ریاضی به من بدهید. و همچنین در کتاب Kothari 2004 می‌گوید: > همچنین در مشاهدات 'n' در یک خوشه اطلاعات زیادی وجود ندارد > همانطور که اتفاقاً در مشاهدات 'n' تصادفی ترسیم شده وجود دارد. میشه یه توضیح ریاضی هم بدین؟ سوال دوم من این است که چرا نمونه گیری تصادفی ساده بر نمونه گیری خوشه ای ارجحیت دارد؟ من به اثبات ریاضی بهتر بودن اولی از نظر تصادفی علاقه دارم.
چرا نمونه های درون یک خوشه نسبت به نمونه هایی که به طور تصادفی از کل جمعیت انتخاب شده اند، اطلاعات کمتری دارند؟
105419
من سعی در تجزیه و تحلیل داده ها برای پیش بینی تأثیر 8 پیش بینی کننده بر روی یک متغیر پاسخ دارم. من باید آن را با استفاده از R انجام دهم. 8 متغیر پیش بینی کننده (x1، x2، ...، x8) و یک متغیر پاسخ (y) وجود دارد. من می خواهم بدانم کدام پیش بینی کننده ها بیشترین تأثیر را بر متغیر پاسخ دارند. من قبلاً به مدل هایی مانند رگرسیون لاجیت و رگرسیون پروبیت نگاه کرده ام، اما همه آنها نیاز دارند که پاسخ در قالب 0/1 باشد. من نسبتاً تازه وارد R هستم. هر گونه کمکی قدردانی خواهد شد. داده‌های نمونه: x <- structure(list(S.no = 1:39, x1 = c(3.250596373, 2.450039885, 4.510736811, 2.429919206, 3.337809323, 3.337809323, 3.337809323, 1.3937, 1.4917 5.154587813، 4.245647266، 2.826065366، 2.905970969، 2.60327762، 1.707142378، 1.082110181، 1.082110181، 3.082110181، 3.082110181، 3.082110181، 3.082110181، 3.05394 1.76077728, 3.390921555, 2.717923955, 4.526982605, 3.56285367, 2.067214422, 3.4889822299, 3.4889822299, 3.4889822299, 3.51314926 4.238965876، 3.142895899، 2.594398665، 2.698489796، 3.309983984، 3.720543973، 3.67107841، 3.67107841، 3.67107841، 3.1914، 3.1915، 3.1915 دو 3.898288664, 5.143436611, 4.82215687, 9.046313251, 4.632897736, 7.179105356, 4.789607667, 4.789607667, 6.7316, 6.7316, 6.7316, 6.728 3.984776837، 6.26260718، 6.872900728، 10.19153143، 5.908181482، 6.811558747، 3.078856263، 6.5963، 6.5921 چهار 4.595705252، 4.341435526، 7.287675726، 5.305938153، 9.192668385، 7.919791579، 2.14634204، 4.2441، 4.2441, 4.2441, 4.2441. x3 = c(0.0908320519238175، 0.13266649971562، 0.258244321357115، 1.138276093، 0.0164448266821084، 0.0164448266821084، 0.0164448266821083، 0.0164448266821084، 1083، 0.0960413836822101, 0.342061911817791, 0.119450732180513, 0.0290706457259754, 0.40473820111817791, 0.40473820111242870 1.36915744, 0.0688836208234231, 1.211282801, 0.120083034038544, 0.314686886240134, 0.01560272672, 0.01560282801 . 1.824161863, 0.341704912159248, 0.0995473011086384, 0.190999270416796, 0.310999015642607, 0.499542607, 0.49685 0.180986322152118, 0.77598437447802, 0.0429616530115406, 0.346864863595271, 0.4346140854493151, 0.4346140854493151, 0.4346140854493151, 0.333510559038226، 0.0250939546773831، 0.259975278336901)، x4 = c(1.983757737، 20.50733268، 3.61443، 3.61438، 3.6238، 20.50733268، 3.614423 15.99619436، 7.489093737، 16.2062464، 9.816135606، 6.84983451، 2.912239466، 5.437503567، 35.871، 35.874 28.55887031, 24.51023709, 49.29035933, 4.492149826, 122.0338801, 3.58950992, 17.11606415, 159138, 12.888 8.181119572، 36.36132304، 6.175496541، 5.078362324، 25.86563698، 8.01586315، 6.409855682، 6.409855682، 8.0128، 8.019855682، 8.0128 3.809967237، 23.40496033، 8.041996294، 24.28479333، 2.051865304، 15.17903992، 10.56367934، 15906 = 15.5 c(7.731494033، 5.673013527، 9.645267387، 12.47397681، 8.359512774، 4.737791104، 9.552434842، 4.552434843، 4.698، 4.698، 4.698، 4.649، 4.649، 4.678 6.463094738، 13.84710176، 14.15624423، 10.31230666، 11.28808186، 6.534183339، 12.40019882، 112376، 11939، 11938، 11938، 11939، 12.400. 10.90812832, 7.321543633, 5.807470868, 9.854882389, 5.572464318, 10.28845247, 15.43592456, 15.43592456, 15.43592456, 18192455, 1816, 1816, 15.30 14.25091879, 10.75910788, 7.648387336, 9.363347563, 4.304566946, 10.30984668, 8.647368931, 8.647368931, 17.649, 18037, 18037, 18039, 18034, 1806, 17, 2013 9.3230891، 7.322386746، 11.84261719)، x6 = c(3L, 5L, 7L, 4L, 1L, 2L, 7L, 3L, 7L, 5L, 4L, 6L, 8L, 4L, 4L, 6L, 8L, 4L, 3L 0 لیتر، 0 لیتر، 6 لیتر، 3 لیتر، 7 لیتر، 2 لیتر، 4 لیتر، 7 لیتر، 3 لیتر، 0 لیتر، 1 لیتر، 9 لیتر، 4 لیتر، 2 لیتر، 6 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 4 لیتر، 4 لیتر)، x7 = c(3L، 2L، 4L ، 1 لیتر، 4 لیتر، 5 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 3 لیتر، 0 لیتر، 4 لیتر، 5 لیتر، 1 لیتر، 4 لیتر، 4 لیتر، 6 لیتر، 5 لیتر، 3 لیتر، 2 لیتر، 5 لیتر، 3 لیتر، 0 لیتر، 2 لیتر، 3 لیتر، 2 لیتر، 5 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 0 لیتر، 7L، 0L)، x8 = c(0.886405834295955، 1.055043892، 0، 1.019546273، 0، 0.363985182144308، 0.6799872315896، 0.679987315896 0.990086072391923, 0.89255222931602, 0.0010880925135689, 2.303223251, 0.68924500650167, 0.8637944 1.508676629, 0, 0, 0,633267197954753, 0, 0,352350421530178, 0,393923070064454, 0, 1,024464530178, 0, 1,024464530178 1.715032197، 0، 0.960435412665205، 0.806780641058154، 0، 1.466079364، 0.906711779133489، 1.91279، 1.91271، 1.9653 . 20.26438109, 12.95578413, 19.68995622, 31.19602354, 9.752948098, 19.01595709, 9.834666871, 9.834666871, 23.876, 23.876. 19.41198687, 17.85098018, 28.66033204, 37.11149113, 19.34762966, 19.65906474, 12.95615703, 12.95615703, 23.48, 23.74, 23.74, 23.75 8.155950489, 22.94092426, 28.25918554, 29.03745489, 13.06245528, 12.61267288, 6.605952449, 6.605952449, 16.848, 16.848, 16.16 9.73480676، 11.62296417، 23.14633388، 14.38379501، 38.58286932، 28.85006327، 4.644943375، 13.28), 13.28) .Names = c(S.no، x
تجزیه و تحلیل پیش بینی داده ها با استفاده از R
79495
سوال من ساده است. شرایط عمومی که شبیه سازی مونت کارلو می تواند برای نمایش یک سیستم آماری مورد استفاده قرار گیرد کدام است؟ یا برعکس، کدام یک از سیستم های آماری هستند که حتی اصولاً با شبیه سازی مونت کارلو قابل نمایش نیستند؟
وقتی شبیه سازی مونت کارلو نمی تواند برای شبیه سازی یک سیستم آماری استفاده شود؟
25282
من می خواهم با بسته mlogit یک رگرسیون لجستیک تو در تو در R ایجاد کنم. من می خواهم آزمایش کنم که چگونه تصمیم تولیدکننده برای ورود یا عدم ورود به سازمان ها (14 سازمان) تحت تأثیر عوامل مختلف قرار می گیرد. تولید کننده می تواند بر اساس سال در سازمان خاص و غیره باشد. به من توصیه شد که از سال به عنوان متغیرهای جداگانه در ستون ها استفاده کنم. این مشکلی ندارد. اما آیا برای سازمان های مختلف من یکسان خواهد بود؟ بنابراین اگر تولیدکننده من چندین بار (6 بار) پشت سر هم در پایگاه داده من ظاهر شود، این کار اضافی نیست؟ آیا ایده ای در مورد ساختار پایگاه داده دارید که بتوانم آن را اتخاذ کنم؟ در اینجا داده های من در R به نظر می رسد: سال عضو سازمان AGE.Member ... 1 سازمان 2005 1 عضو 1 37 2 2005 سازمان 1 عضو 2 32 3 2005 سازمان 3 عضو 3 32 4 2005 سازمان 4 عضو 4 35 5 2005 سازمان 2 عضو 5 33 6 سازمان 2005 3 عضو 6 33 'data.frame': 18 obs. از 4 متغیر: $ ANNEE : int 2005 2005 2005 2005 2005 2005 2005 2005 2005 2006 2006 2006... $ سازمان: فاکتور w/ 4 سطح سازمان 1،..: 1 1 3 4 2 3 2 3 3 2 ... $ عضو: فاکتور با 9 سطح عضو 1، عضو 2،..: 1 2 3 4 5 6 7 8 9 1 ... $ AGE. Member : int 37 32 32 35 33 33 32 32 33 37 ...
آیا می توانم سال را به عنوان یک متغیر مستقل در این طرح رگرسیون لجستیک تودرتو وارد کنم؟
27379
من در تلاش برای یافتن شباهت ها در داده های متوالی سه بعدی هستم. دنباله ها 3 تایی $(t,r,d)$ هستند که هر دنباله توسط یک موضوع طی یک دوره 6-3 ماهه ایجاد می شود: *$t$ یک شناسایی کار از 1 تا 50 است، *$r$ نتیجه به دست آمده توسط آزمودنی در اجرای کار (0 تا 100)، *$d$ سطح دشواری کار از 0 تا 4 است. هر موضوع متفاوتی را اجرا می کند. ترتیب وظایف: وظایف به هر ترتیبی اجرا می شوند و تعداد کارهای انجام شده توسط هر موضوع متفاوت است (از 50 تا 400). برخی از آزمودنی ها یک بار در هفته، برخی دو بار، برخی دیگر 3 بار، برخی از آزمودنی ها وظایف را مثلاً در طول یک یا دو هفته اجرا نمی کنند و سپس اجرا را ادامه می دهند، همه آنها به ترتیب غیر مشخص. قبل از دوره اجرا، هر آزمودنی در 6 مهارت مورد ارزیابی قرار می گیرد و پس از دوره اجرا مجدداً در همان 6 مهارت ارزیابی می شود تا پیشرفت بالقوه اندازه گیری شود، به طوری که هر دنباله با یک مهارت 6 تایی (که فقط در یک باینری خلاصه می شود) برچسب گذاری می شود. برچسب (بهبود، نه بهبود) من حدود 300 موضوع و 50،000 اعدام می تواند شبیه به مقاله Amy McGobern > McGovern, A, Rosendahl, DH, Brown, RA, and Droegemeier, KK (2011) > Identifying predictive series time: an application > برای پیش بینی آب و هوای شدید، دیسک داده ها .، 22: 232-258 اما اندازه کلمه آنها تا 50 به نظر می رسد وظایف (من می‌توانم با 15 مورد از متداول‌ترین کارها کار کنم، اما تعداد زیادی از کارها از دست رفته است) و توالی‌های من نیز از نظر طول 50 تا 400 کار متفاوت هستند، شاید خوشه‌بندی عملکردی مقاله Peng ممکن است کمک کند: > Peng, J, and Müller, H-G. 2008). حراجی ها The > Annals of Applied Statistics, 2(3): 1056-1077. با این حال، من به زمان خاصی که یک کار اجرا می‌شود علاقه‌ای ندارم، می‌توانم فرض کنم که آزمودنی‌ها وظایف را در زمان‌های ثابت اجرا می‌کنند و بدون در نظر گرفتن پراکندگی اجرای وظایف، مشکل را تحلیل می‌کنند.
توالی های چند بعدی برچسب گذاری شده
114074
فکر می کنم باید از رگرسیون خانواده پواسون یا رگرسیون دو جمله ای منفی استفاده کنم. متغیرهای من به شرح زیر هستند: Y یک مقدار صحیح است که از 0 تا 1200 متغیر است. این نشان دهنده مجموع (تعداد گونه ها در یک واحد مساحتی) است. در واقع صفرهای زیادی وجود دارد اما مقادیر منفی وجود ندارد. X1 یک متغیر طبقه‌ای است، x2 پیوسته است (که شامل چند صفر نیز می‌شود) و X3 مقوله‌ای است. همه ارزش های مثبت هستند. واریانس Y بزرگتر از میانگین است. Y X1 x2 X3 حداقل : 0.00 01:29551 دقیقه. : 0.000 2009 : 2474 1st Qu.: 5.00 02:72289 1st Qu.: 7.646 2010:28484 Medin : 23.00 Median :13.000 2011: 873:882 Mean. Qu.: 80.00 سوم سوم: 17.000 حداکثر. حداکثر :1155.00 :30.000 ![هیستوگرام Y](http://i.stack.imgur.com/y1ala.png) Y دارای انحراف منفی است (یعنی به سمت چپ کج شده است). هیستوگرام باقیمانده ها از یک مدل خطی پایه (lm) و نمودار QQ نشان می دهد که نتایج نیز دارای انحراف هستند. باقیمانده‌های رسم‌شده در برابر مقادیر برازش نشان می‌دهند که یک مدل خطی ممکن است مناسب نباشد زیرا نقاط بیشتری در بالای خط قرار دارند تا در پایین (در تمام مقادیر x). آیا استفاده از GLM با توزیع پواسون با لینک لاگ در این مورد صحیح است؟ Mydata.poisson <- glm(Y~X1 +x2 + X3 +x2:X3، خانواده=پواسون، داده=mydata) یا به طور خاص، باید از شبه پواسون استفاده کنم؟ (در پویسون معمولی، df من 31839 مجموع (یعنی Null)؛ 31833 Residual، انحراف صفر 1085000 و انحراف باقیمانده 1079000 بود). همچنین من فکر می کنم این موردی است که باید از یک مدل با باد صفر استفاده کنم؟ من در مورد نحوه تنظیم این نوع مدل گیج هستم. من خواندم که توزیع دوجمله ای منفی شبیه توزیع پواسون است و بهتر است زمانی استفاده شود که واریانس Y شما از میانگین آن بیشتر است، اما آیا زمانی که پاسخ شما باینری است از رگرسیون دو جمله ای استفاده نمی شود؟ ویرایش: من از مدل دوجمله‌ای منفی زیر استفاده کرده‌ام: Mydata.nb <- glm.nb(Y~X1 +x2 + X3 +x2:X3، data=mydata) می‌دانم که هنوز باید باقی‌مانده‌ها را بررسی کرد تا ببیند آیا این فرض خطی بودن برقرار است (به عنوان مثال، بحث را در اینجا ببینید: مفروضات رگرسیون دو جمله ای منفی چیست؟). نموداری از باقیمانده های استاندارد شده در زیر گنجانده شده است و نشان می دهد که شاید این رابطه خیلی خطی نباشد. آیا شما موافق هستید؟ چگونه می توانم این را حل کنم؟ ![نقشه باقیمانده برای مدل دوجمله ای منفی](http://i.stack.imgur.com/dZDCM.png)
رگرسیون GLM - کمک به انتخاب مشخصات مدل
48696
من در تلاش هستم تا بررسی کنم که چگونه چهار متغیر (var1 = پیوسته، var2 = عامل، var3 = عامل، var4 = پیوسته) بر تعداد آزمایش‌هایی که افراد به آنها نزدیک شده‌اند (از تعداد کل کارآزمایی‌ها --> دوجمله‌ای) در دو شرایط متفاوت تأثیر می‌گذارند. در دسترس بودن غذا (در دسترس بودن غذا 1 = 42 آزمایش، در دسترس بودن غذا 8 = 35 آزمایش) (n = 19 نفر). متغیر پاسخ دو جمله ای است زیرا تعداد آزمایش ها از تعداد کل آزمایش ها است. من از تابع 'lmer' بسته lme4 استفاده می کنم. من فکر کردم مدل افزودنی که باید اجرا کنم با شناسه فاکتور تصادفی باشد: glmer(cbind(appr_Y,appr_N) ~ Condition+Var1+Var2+Var3+Var4+(1|ID)، داده=مجموعه داده، خانواده=دوجمله ای) نتیجه ای که من دریافت می کنم نشان می دهد که هنگام کاوش داده ها، Condition فوق العاده معنی دار است (p < 2e-16) در حالی که سایر متغیرها اینطور نیستند. از نظر بصری تفاوتی در متغیر پاسخ برای Condition و متغیرهایی که اثرات قوی دارند نشان نمی دهد. زیر یک ساختگی که جدول داده‌های بزرگ را نشان می‌دهد: Con ID Var1 Var2 appr_Y appr_N Trial_total 1 1 10 y 14 6 20 1 2 4 y 10 10 20 1 3 5 n 5 15 20 1 4 32 n 2011 5 20 2 1 10 y 20 5 25 2 2 4 y 10 15 25 2 3 5 n 24 1 25 2 4 32 n 11 14 25 2 5 11 y 7 18 25 من چه غلطی می کنم؟ **به روز رسانی**: من داده ها را با GenStat تجزیه و تحلیل کردم (که مقادیر AIC را نشان نمی دهد) و خروجی کاملاً متفاوت است. در GenStat فاکتور تصادفی (در اینجا ID) و مخرج (در اینجا Trial_total) را می‌خواهد که با قرار دادن Appr_Y، Appr_N متفاوت است. **update2**: مجموعه داده فوق فقط یک ساختگی بود. من به این وسیله «خلاصه» مدل و اطلاعات مربوط به مجموعه داده را ارائه می‌دهم: > خلاصه (GLMM1) مدل ترکیبی خطی تعمیم‌یافته متناسب با فرمول تقریبی لاپلاس: cbind(Appr_Y، Appr_N) ~ Condition + Var1 + Var2 + Var3 + Var4 + (1 | ID) داده: مجموعه داده AIC BIC logLik انحراف 102.1 113.5 -44.04 88.08 اثرات تصادفی: نام گروه ها Variance Std.Dev. ID (Intercept) 0.59495 0.77133 تعداد obs: 38، گروه: ID، 19 اثرات ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (برق) -2.43536 0.60237 -4.043 5.28e-05 *** Condition8 1.14942 0.12274 9.365 < 2e-16 *** Var1 0.0401402 0.0401020 Var2Paired -0.35299 0.47970 -0.736 0.4618 Var3no 0.55914 0.44095 1.268 0.2048 Var4 0.11996 0.06282 1.909 0.0562 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) Cndt8- Var1 Var2P Var3no Cndtn8-strn -0.128 Var1 -0.294 Var.240. -0.015 -0.352 Var3no -0.178 0.016 -0.310 -0.097 Var4 -0.664 0.021 -0.078 0.467 -0.134 > str(dataset) 'data.frame': 38 obs. از 9 متغیر: $ ID : Factor w/ 19 سطح 394041،...: 1 2 3 4 5 6 7 8 9 10 ... $ Appr_Y : num 3 12 0 7 27 6 12 1 5 17 ... $ Appr_N : num 39 30 42 35 15 36 30 41 37 25 ... $ Var2 : Factor w/ 2 level paired, unpaired: 2 2 2 2 1 1 2 1 2 1 ... $ Var1 : num 2 16 19 18 13 11 14 1 8 9 ... $ Var3 : فاکتور w/ 2 سطح بله، نه: 2 2 2 1 2 2 2 1 1 2 ... $ Var4 : num 2.6 6.87 2.4 1.1 4.32 ... $ وضعیت : فاکتور w/ 2 سطح 1،8: 1 1 1 1 1 1 1 1 1 1 .. n $ : شماره 42 42 42 42 42 42 . 42 42 ... آیا ممکن است باید کاری با وزن دادن داده ها انجام دهم زیرا شماره آزمایشی در همه شرایط یکسان نیست؟ یا با استفاده از Appr_Y، تعداد کل آزمایشات به جای Appr_Y، Appr_N؟
مدل ترکیبی خطی تعمیم یافته در R با اندازه گیری های مکرر
27372
من داده هایی از آزمایشی دارم که 3 بار در شرایط مشابه تکرار شده است. هر بار 5 اندازه گیری از هر یک از 2 گروه (یک گروه کنترل و یک تیمار) انجام شد. من می‌خواهم یک آزمون t روی داده‌هایم اجرا کنم تا بفهمم آیا تفاوت معناداری بین گروه کنترل و گروه تحت درمان وجود دارد یا خیر. * چگونه باید از آزمون استفاده کنم؟ * آیا باید 15 اندازه گیری را برای هر گروه انجام دهم و آن را با الگوریتم تغذیه کنم (من از graphpad instat استفاده می کنم)؟ * آیا باید 5 اندازه گیری هر تکرار را میانگین بگیرم و میانگین و SD هر تکرار را به الگوریتم بدهم؟
هنگامی که آزمایش سه بار تکرار شده است چگونه می توان آزمون t را برای مقایسه گروه های درمان و کنترل انجام داد؟
110008
من دو پارامتر رگرسیون خطی مورد علاقه دارم، b1 و b2. هر دو پارامتر از یک مدل خطی ساخته شده از 14 نقطه داده و دارای 7 پارامتر مدل از جمله یک رهگیری هستند. علاقه به آزمایش فرضیه صفر b2 - b1 = 0 در مقابل جایگزین دو طرفه آن است. من دو سوال در مورد این آزمون دارم: اول، طبق لم اسلوتسکی، تفریق پارامترهای مدل b1 و b2 به تفریق توزیع‌های b2 و b1 همگرا می‌شود (t-توزیع با n-p=7 درجه آزادی). با این حال، من می ترسم که اجازه کار مجانبی را نداشته باشم، زیرا تعداد نقاط داده من بسیار کم است، یا می توانم؟ دوم اینکه چگونه می توانم تفریق این دو توزیع t را محاسبه کنم؟ ممنون کوئن
تفریق توزیع t
36250
من از حداقل مربعات با وزن مجدد تکراری (IRLS) برای به حداقل رساندن توابع شکل زیر استفاده کرده ام، $J(m) = \sum_{i=1}^{N} \rho \left(\left| x_i - m \right |\right)$ که $N$ تعداد نمونه‌های $x_i \in \mathbb{R}$ است، $m \in \mathbb{R}$ تخمین قوی‌ای است که من می خواهم، و $\rho$ یک تابع جریمه قوی مناسب است. فرض کنید در حال حاضر محدب است (البته نه لزوماً) و قابل تمایز است. یک مثال خوب از چنین $\rho$ تابع ضرر Huber است. کاری که من انجام داده‌ام این است که $J(m)$ را با توجه به $m$ متمایز می‌کنم (و دستکاری) برای به دست آوردن، $\frac{dJ}{dm}= \sum_{i=1}^{N} \frac {\rho'\left( \left|x_i-m\right|\right) }{\left|x_i-m\right|} \left( x_i-m \right) $ و بصورت تکراری حل این مشکل با تنظیم آن برابر با 0 و ثابت کردن وزن در تکرار $k$ به $w_i(k) = \frac{\rho'\left( \left|x_i-m{(k)}\right|\right) } {\left|x_i-m{(k)}\right|}$ (توجه داشته باشید که تکینگی درک شده در $x_i=m{(k)}$ واقعاً قابل جابجایی است تکینگی در همه $\rho$هایی که ممکن است به آنها اهمیت بدهم). سپس $\sum_{i=1}^{N} w_i(k) \left( x_i-m{(k+1)} \right)=0$ را به دست می‌آورم و برای بدست آوردن $m(k+) حل می‌کنم 1) = \frac{\sum_{i=1}^{N} w_i(k) x_i}{ \sum_{i=1}^{N} w_i(k)}$. این الگوریتم نقطه ثابت را تا همگرایی تکرار می کنم. توجه می کنم که اگر به یک نقطه ثابت برسید، بهینه هستید، زیرا مشتق شما 0 است و یک تابع محدب است. من دو سوال در مورد این روش دارم: 1. آیا این الگوریتم استاندارد IRLS است؟ پس از خواندن چندین مقاله در مورد این موضوع (و آنها در مورد چیستی IRLS بسیار پراکنده و مبهم بودند) این منسجم ترین تعریفی از الگوریتم است که می توانم پیدا کنم. اگر مردم بخواهند می‌توانم مقالات را پست کنم، اما در واقع نمی‌خواستم کسی را در اینجا سوگیری کنم. البته، می‌توانید این تکنیک اساسی را به بسیاری از انواع دیگر مسائل مربوط به بردار $x_i$ و آرگومان‌هایی غیر از $\left|x_i-m{(k)}\right|$ تعمیم دهید، مشروط بر اینکه آرگومان یک هنجار باشد. یک تابع وابسته از پارامترهای شما. هر کمک یا بینشی در این مورد عالی خواهد بود. 2. به نظر می رسد همگرایی در عمل موثر است، اما من چند نگرانی در مورد آن دارم. من هنوز مدرکی برای آن ندیده ام. پس از چند شبیه‌سازی ساده Matlab، می‌بینم که یک تکرار از آن _not acontraction mapping_ است (من دو نمونه تصادفی $m$ ایجاد کردم و $\frac{\left|m_1(k+1) - m_2(k+1)\right را محاسبه کردم. |}{\left|m_1(k)-m_2(k)\right|}$ و دیدیم که گاهی اوقات این مقدار بیشتر از 1 است). همچنین نگاشتی که توسط چندین تکرار متوالی تعریف می‌شود، صرفاً یک نگاشت انقباضی نیست، اما احتمال اینکه ثابت Lipschitz بالای 1 باشد بسیار کم می‌شود. بنابراین آیا مفهومی از _نقشه انقباضی در احتمال_ وجود دارد؟ از چه ماشینی استفاده می کنم تا ثابت کنم این همگرا است؟ اصلاً همگرا می شود؟ اصلاً هر راهنمایی مفید است. ویرایش: من مقاله IRLS را برای بازیابی پراکنده / سنجش فشاری توسط Daubechies و همکاران دوست دارم. 2008 به طور تکراری وزن حداقل مربعات حداقل برای بازیابی پراکنده در arXiv. اما به نظر می رسد که بیشتر روی وزن ها برای مسائل غیر محدب تمرکز دارد. مورد من بسیار ساده تر است.
تعریف و همگرایی حداقل مربعات با وزن مجدد تکراری
74014
سوال این است که اعداد گمشده (A-L) یک مدل رگرسیون خطی ساده را پر کنید. من با تبدیل و تفسیر جدول داده شده از نظر متغیرها مشکل دارم. آیا ممکن است کسی مواردی را برای من تأیید و روشن کند. جدول اول نشان دهنده آمار رگرسیون است![](http://i.imgur.com/qeT0u9m.jpg) مدل واقعی $$ Y_t = \beta_o + \beta_1X_t + \mu_t $$ مدل تخمینی $$ \hat Y_t = \hat \beta_0 + \hat\beta_1x_t $$ این چیزی است که من در مورد آن گیج شده ام * آیا اولین خطای استاندارد (12.8478) یعنی $\sum\hat\mu_t^2$؟ * آیا خطای استاندارد برای رهگیری در آخرین جدول (14.6208) به معنای $\sum\mu_t^2$ است؟ * آیا 3.8508 برابر $\hat\beta_1$ است؟ * برای محاسبه RSS (برای J) به $\sum \hat\mu_t^2$ نیاز دارم آیا این تأیید می کند که دو نقطه اول من نادرست است * من می دانم $G=\hat\beta_1^2\sum x_t^2$ ، چگونه می توانم $\sum x_t^2$ را پیدا کنم اگر اشتباه می کنم، آیا می توان معنی آن اعداد را از نظر متغیرها دانست؟
رگرسیون خطی ساده - درک داده شده است
55299
می‌خواهم میانگین‌های گروه را در بین 4 گروه مقایسه کنم و تغییرات در ویژگی‌های آنها را در طول زمان تجزیه و تحلیل کنم. من یک مجموعه داده پانل دارم که نامتعادل است. اندازه نمونه من برابر نیست و بنابراین مفروضات یک آنوا مدل مختلط را نقض می کند؟ آیا پیشنهادی در مورد اینکه چگونه می توانم ادامه دهم؟ همچنین من می‌خواستم تأیید کنم که آیا مدل مختلط آنووا همان مدل‌سازی چند سطحی است.
نحوه مقایسه تغییرات میانگین های گروهی در طول زمان
112785
من در تلاشم تا بفهمم چرا موارد زیر برقرار است: با توجه به $y_{i}=E[y_{i}|X_{i}]+\epsilon_{i}$ که $E[\epsilon^{2}_{i }] =E[E[\epsilon^{2}_{i}|X_{i}]] = E[V[y_{i}|X_{i}]]$ به‌طور خاص سعی می‌کنم بفهمم چرا $E[\epsilon^{2}_{i}|X_{i}] = V[y_{i}|X_{i}]$؟ واضح است که من به یک تجدید نظر در واریانس شرطی و قوانین مقادیر مورد انتظار نیاز دارم.
توضیح قضیه ANOVA
22265
من سؤالی دارم که امیدوارم پاسخ نسبتاً سریع و آسان باشد. آیا جایگزین کردن احتمالات با یک تابع هدف در فرمول آنتروپی نسبی، منطقی است؟ من شکلی از تصمیم‌گیری قوی را تصور می‌کنم که تحت آن تصمیم‌گیرنده می‌خواهد مقداری $s$ را انتخاب کند که برخی از تابع‌های $g(x,s)$ را به حداکثر می‌رساند، اما در مورد توزیع اساسی $X$ نامشخص است به جز اینکه دارای توزیع $F \in \mathcal{D}$ مثلاً، جایی که $\mathcal{D}$ ممکن است مجموعه‌ای از توابع توزیع محدود باشد (مثلاً محدودیت‌های لحظه). آن‌ها می‌خواهند مقدار $s$ را انتخاب کنند که در برابر عدم قطعیت توزیعی نسبت به بهینه واقعی، قوی‌ترین است، آن را $g(x,t)$ بگذارید. ممکن است چیزی شبیه به: $\max_{s\geq 0}\min_{F\in \mathcal{D}}\min_{t\geq 0}\int_{\Theta_X} f(x)\log\frac{ g(x,s)}{g(x,t)}\,\mathrm{d}x $ در کلمات ممکن است خود مشکل به عنوان میانگین پشیمانی نسبی لگاریتمی انتخاب باشد. $s$ بیش از $t$. اگر کسی نظری در مورد اینکه چرا ممکن است این یک ایده بد باشد یا مشکلاتی که من احتمالاً با آن مواجه خواهم شد، دارد، ممنون می‌شوم که از شما بشنوم. سوال اصلی من واقعا این است که آیا این منطقی است؟
بهینه سازی آنتروپی نسبی
25286
من یک مشکل تحلیل تصمیم نسبتاً پیچیده شامل تست قابلیت اطمینان دارم و به نظر می رسد رویکرد منطقی (به نظر من) شامل استفاده از MCMC برای پشتیبانی از تحلیل بیزی است. با این حال، پیشنهاد شده است که استفاده از روش راه‌اندازی مناسب‌تر است. آیا کسی می تواند یک مرجع (یا سه) را پیشنهاد کند که ممکن است استفاده از هر یک از تکنیک ها را بر دیگری (حتی برای موقعیت های خاص) پشتیبانی کند؟ FWIW، من داده‌هایی از منابع متعدد، متفاوت و مشاهدات نارسایی کم/صفر دارم. من همچنین داده هایی در سطح زیرسیستم و سیستم دارم. به نظر می رسد مقایسه ای مانند این باید در دسترس باشد، اما من در جستجوی مظنونین معمولی شانس نیاوردم. پیشاپیش برای هر نکته ای متشکرم
چه زمانی از تکنیک بوت استرپ در مقابل بیزی استفاده کنیم؟
77664
فرض کنید من مدل JAGS زیر را دارم، شرایط مناسب برای سه قسمت و 1/tau چیست؟ مدل{ #ترم؟؟؟ for(n in 1:Ndata){ y[n] ~ dnorm( mu[ subj[n] ], tau[ subj[n]] } #Term??? for(s in 1:Nsubj){ mu[s] ~ dnorm( muG, tauG) tau[s] ~ dgamma( 5, 5) } #Term??? muG ~ dnorm( 80, 0.01) tauG ~ dgamma( 1, 1) } هر یک از سه قسمت را چه می نامم؟ همچنین، برای پارامترها می‌گویم: * mu= میانگین سطح فردی * tau= دقت سطح فردی * muG= میانگین سطح گروه * tauG= دقت سطح گروهی حالا 1/tau را چه می‌توانم صدا کنم؟ واریانس؟
اصطلاحات مناسب برای قطعات یک مدل سلسله مراتبی بیزی چیست؟
32018
من و تیم من می خواهیم در مورد سودمندی طراحی آزمایش ها به غیر آمارگیران شرکت ارائه دهیم. این افراد غیرآمار نیز مشتریان ما هستند و معمولا قبل از جمع آوری داده های خود با ما مشورت نمی کنند. آیا نمونه‌های واقعی را می‌شناسید که می‌تواند نقل قول معروف فیشر را به خوبی نشان دهد: «صدا کردن آمارگیر پس از انجام آزمایش ممکن است چیزی بیش از درخواست از او برای انجام یک معاینه پس از مرگ نباشد: او فقط می‌تواند بگوید آزمایش چیست. درگذشت._؟ ترجیحاً ما به دنبال یک تصویر در زمینه صنعتی / دارویی / بیولوژیکی هستیم. ما به نمونه‌ای از یک تحلیل آماری غیرقطعی فکر می‌کنیم که اگر به خوبی طراحی شده بود، می‌توانست موفقیت‌آمیز باشد، اما شاید تصاویر احتمالی دیگری نیز وجود داشته باشد.
به دنبال یک تصویر واقعی از نقل قول فیشر در مورد DoE
27371
> اجازه دهید $X$ یک متغیر تصادفی یکنواخت گسسته در مجموعه $\\{000, 011, 101, > 110\\}$ از چهار عدد صحیح باینری باشد و اجازه دهید $X_{i}$ بیانگر رقم یکم > $ باشد. X$، برای $i = 1، 2، 3$. نشان دهید که $X_{1}، X_{2}، X_{3}$ مستقل > زوجی هستند، اما کاملاً مستقل نیستند. آیا می توانید این مثال را به بیش از سه متغیر تصادفی تعمیم دهید؟ کسی میتونه در این تمرین به من کمک کنه؟
دو به دو در مقابل استقلال کل تصادفی یکنواخت گسسته انحراف دارد
55833
$R^2$ واریانس توضیح داده شده را اندازه گیری می کند. در یک مدل خودرگرسیون مانند «AR(k)»، ما یک رگرسیون خطی انجام می‌دهیم، و به این ترتیب، یک $R^2$ و یک $R^2$ تعدیل شده خواهیم داشت. چرا در عمل از آنها استفاده نمی شود؟
چرا هنگام برازش یک مدل اتورگرسیو به $R^2$ توجه نمی کنیم؟
22266
من مجموعه ای از اعداد (تعداد انتشارات برای هر سال یک نفر) دارم. من توزیع دقیق را نمی دانم. اکنون مجموعه دیگری از اعداد را نیز برای مقایسه با آن (تعداد انتشارات برای هر سال از همان شخص در یک دوره زمانی دیگر) دارم. من برایم جالب است که آیا آن شخص در آن دوره دوم میزان انتشار بالاتری دارد یا خیر. آیا کسی می تواند من را به روش ساده ای راهنمایی کند که باید برای تعیین احتمال اینکه یک مجموعه از اعداد معمولاً از دیگری بالاتر است استفاده کنم؟ (در حالت ایده آل منبعی است که می توانم تمام ریاضیات را در آن پیدا کنم) آیا منطقی است که ابتدا همه اعداد انتشارات در سال را جمع آوری کنم تا یک کلی برای هر دوره به دست بیاورم یا اینطور اطلاعات را از دست می دهم؟ اگر توزیع شناخته شده را فرض کنم می توانم نتایج دقیق تری به دست بیاورم؟ آیا پیشنهادی دارید که توزیع برای نرخ انتشار منطقی است؟
مجموعه ای از اعداد از نظر آماری بالاتر از سایرین است
22264
من مدل خطی زیر را با 2 پیش بینی $x_1، x_2$ و یک تبدیل مکعبی در $x_1$ دارم: $$ \hat{Y} = c +\beta_1x_1 + \beta_2x_1^2 + \beta_3x_1^3 + \beta_4x_2 $$ جایی که $x_1$ می تواند مقادیر منفی را در نظر بگیرد. من چندین رگرسیون روی زیرمجموعه‌های جمعیت اصلی بر اساس مقدار مطلق $x_1$ اجرا کردم و متوجه شدم که $R^2$ به تدریج بهبود می‌یابد زیرا حداقل مقدار abs مورد نیاز x_1$ را افزایش می‌دهم. برای مثال، $R^2$ برای گروه فرعی که abs($x_1) > 10$ بیشتر است. زیر جمعیت abs($x_1$) > 20 دارای $R^2$ بالاتر است سپس abs($x_1$)> 10 و غیره. آیا می توانم یک تعامل بین abs($x_1$) و مجموعه کامل اصطلاحات در مدل اضافه کنم؟ یا تکنیک های بهینه سازی خطی برای حل این مشکل وجود دارد؟ **به روز رسانی** با اعمال محدودیت بر روی مقدار _مطلق_$x_1$، عملاً می گوییم هر چه اطلاعات موجود بیشتر باشد یا سیگنال قوی تر باشد، کیفیت پیش بینی بالاتر خواهد بود. من نمی دانم که آیا این هنوز موردی برای تجزیه و تحلیل تعامل است، یا اینکه آیا تکنیک های دیگری وجود دارد که می تواند به طور موثرتری مورد استفاده قرار گیرد. آیا منطقی است بین رابطه غیر خطی بین $x_1$ و $\hat{Y}$ که با تبدیل مکعبی نمایش داده می شود (بیایید آن را رابطه کیفیت بنامیم) و یک عبارت کمیت اطلاعات که توسط مقدار مطلق $x_1$؟
بهینه سازی رگرسیون خطی
27377
من تست sme را با استفاده از مدل های R و خطی انجام می دهم. این کدی است که من استفاده می کنم: > a [1] 0.10 0.05 0.02 0.04 0.09 0.05 > b [1] 0.07 0.02 0.08 0.02 0.01 0.06 > c [1] 0.03 0.09 >0.03 0.03 r.a [1] 0.10 0.15 0.17 0.21 0.30 0.35 > r.b [1] 0.07 0.09 0.17 0.19 0.20 0.26 > r.c [1] 0.03 0.06 0.06 0.09 > 1.07 > 1.07. lm(r.a ~ r.b + r.c + 0) > > mod فراخوانی: lm(فرمول = r.a ~ r.b + r.c + 0) ضرایب: r.b r.c 0.8764 0.5231 > mod$residuals 1 2 3 4 5 22953507.00 -0.01561396 -0.01929937 0.03054829 -0.01912000 > > mean(mod$residuals) [1] 0.006533791 سه سری بالا (*a, b, c** ) بازده سه سهام r.a,`c هستند. تجمعی cumsum(a) cumsum(b) cumsum(c)` اکنون همانطور که می بینید من از تابع lm برای محاسبه مدل خطی استفاده کرده ام، در انتهای کد باقیمانده های این مدل خطی وجود دارد. من باید بفهمم که این اعداد به طور موثر چه معنایی دارند. به عبارت دیگر ... من از بازده این سه سری استفاده کردم، پس آیا باقیمانده ها اختلاف درصد بازدهی هستند؟ من سعی می کنم با یک مثال توضیح دهم: به مقدار سوم هر سری نگاهی بیندازید (بازده تجمعی) مثال: r.a[3] - 0.17 r.b[3] - 0.17 r.c[3] - 0.07 و سومین باقیمانده: * *-0.01561396** یعنی 1 درصد تغییر دارد؟ (`0.01 = 1% 0.1 = 10% 1 = 100%`) و سوال دوم این است که: رابطه بین باقیمانده ها و میانگین باقیمانده ها چیست؟ مثال: \- سومین باقیمانده: **-0.01561396** \- میانگین 0.006533791 است. منظورم این است که اگر آن سه سهم (بازده آن سه سهم) در حال حرکت باشند و اسپرد به (~0.006533791) برود، کل بازده این حرکت 1٪ است؟ متشکرم!
باقی مانده ها به طور موثر در این مدل به چه معنا هستند؟
22488
فرض کنید $n$ نقاط در یک مستطیل با کران $[0,a] \times [0,b]$ داریم و این نقاط به طور یکنواخت در این صفحه توزیع شده اند. (من کاملاً با آمار آشنا نیستم، بنابراین تفاوت بین انتخاب یکنواخت گره در ناحیه $[0,a] \times [0,b]$ یا انتخاب یکنواخت $x$-axis از $ را نمی دانم. [0,a]$ و $y$-axis از $[0,b]$ به طور مستقل). با توجه به آستانه فاصله $d$، ممکن است بخواهم احتمال این را بدانم که فاصله اقلیدسی دو نقطه کمتر از $d$ باشد، یا به طور دقیق تر، فاصله چند جفت گره کمتر از $d$ خواهد بود؟ * * * شاید توضیحات زیر بدون ابهام باشد. بگذارید این مشکل را مشخص کنم. با توجه به $n$ گره ها و آستانه $d$. این نقاط $n$ به طور یکنواخت در یک مستطیل $[0,a] \times [0,b]$ توزیع شده‌اند. یک متغیر تصادفی $\xi$ را به عنوان تعداد جفت نقاط در فاصله $d$ مشخص کنید. $E[\xi]$ را پیدا کنید.
احتمال اینکه نقاط تصادفی یکنواخت در یک مستطیل فاصله اقلیدسی کمتر از یک آستانه معین داشته باشند.
22261
من از زبان برنامه نویسی R برای تجزیه و تحلیل ادغام 5 مجموعه داده استفاده می کنم. من مشخص کرده‌ام که این سری‌ها پس از در نظر گرفتن تغییرات ساختاری، با توجه به رویکرد Lutkepohl و همکاران (2004) 3 بردار هم‌انجماد دارند. سوالات من این است: 1. چگونه می توانم 3 بردار را در فرم ماتریس کامل VECM نهایی وارد کنم؟ 2. چگونه می توانم تخمین یک VECM را با یک متغیر ساختگی شیفت در R کدنویسی کنم تا شکست تشخیص داده شده توسط تست Lutkepohl و همکاران (2004) را بدست آوریم، یعنی آیا امکان گنجاندن یک ساختگی شیفت در VECM وجود دارد؟ اگر چنین است، لطفاً با یک مثال کد به من کمک کنید. به عنوان مثال، پنج مجموعه داده عبارتند از a b c d e، رتبه هم انباشتگی r=3 و تاریخ شکست Q11975. هر گونه مرجع نیز بسیار قدردانی خواهد شد.
تغییرات ساختاری
112710
من چندین جمعیت با n بزرگ دارم (100000 - 1M+ نمونه)، که مایلم آنها را با هم مقایسه کنم. من می‌دانم که تقریباً هر آزمون آماری که اعمال می‌کنم، به دلیل قدرت بسیار زیاد آزمون‌های آماری برای حل اختلافات کوچک، فرضیه صفر را رد می‌کند. من می‌توانم در هنگام مقایسه میانگین‌ها با تنظیم فرضیه صفر خود به صورت $$ H0: |\mu1 - \mu2 | > \delta $$ $$ Ha: |\mu1 - \mu2 | <= \delta $$ جایی که $\delta$ تفاوت عملی مهمی است که من به آن اهمیت می‌دهم. با این حال، من فاقد شهودی برای اعمال یک نوع تبدیل مشابه برای مقایسه واریانس (یا انحراف استاندارد) دو جمعیت هستم، زیرا فرضیه $\ H0: \sigma1=\sigma2$ به عنوان یک نسبت آزمایش می شود. فکر اولیه من این بود که $\mu$ را از هر جمعیت کم کنم (برای اینکه میانگین صفر را به آنها بدهم) و یک تست نیکویی برازش مجذور Chi را در هیستوگرام های جمعیت اعمال کنم، با این حال حتی با وجود چند صد سطل، n از مشاهدات جمعیت همچنان نتیجه می دهد. در رد فرضیه صفر برای توزیع های تقریباً یکسان. من می‌دانم که می‌توانم قدرت تست Chi2 را با موارد زیر بازی کنم: 1. نمونه‌برداری از داده‌ها؛ یا 2. تظاهر به n_مشاهدات کوچک‌تر از آن چیزی است که واقعاً هست. * یعنی هیستوگرام های مورد انتظار و مشاهده شده را عادی کنید و هر دو را در یک n دلخواه ضرب کنید که کوچکتر از اندازه نمونه مشاهده شده واقعی است. گزینه اول به نظر هدر می رود، علاوه بر این ممکن است مشکل ساز باشد زیرا داده ها از بسیاری از سایت های سراسر جهان به دست می آیند. من مطمئن نیستم که آیا دومی حتی معتبر است یا خیر، آیا کسی می‌تواند در این مورد توضیح دهد؟ چگونه می توانم N انتخابی خود را توجیه کنم؟ آیا راهی برای تعیین این مورد با اندازه اثر عملی مورد نظر وجود دارد؟ جایگزین دیگر تقسیم واریانس هر یک از جمعیت‌های مشاهده‌شده بر یک جمعیت کنترل بود، که حداقل به من اجازه می‌دهد اندازه اثر را با درصد افزایش واریانس رتبه‌بندی کنم، اما از آنجا به کجا بروم؟ من نسبت دارم، و ادبیاتی در مورد تخمین خطای یک واریانس وجود دارد، اما من هیچ n معتبری برای انجام آزمون t تفاوت نسبت ها نخواهم داشت. هر گونه پیشنهاد استقبال می شود. * * * با عرض پوزش Whubar من تصادفاً Enter را زدم و بعد خیلی طول کشید تا قبل از بسته شدن ویرایش، با شما تماس بگیرم، پاسخ زیر: ما سیستمی داریم که در چندین مکان در یک سایت اندازه گیری می کند. به دلیل تنوع در شرایط محلی، استفاده از پارامترهای اکتساب یکسان برای همه اندازه‌گیری‌ها ممکن نیست، برخی از اپراتورها: * پارامترهای اکتساب را در هر مکان اندازه‌گیری در یک سایت بهینه کرده‌اند. * دیگران پارامترهای اکتساب را یک بار در هر سایت بهینه می کنند. * اندازه گیری های مشکل ساز را حذف کنید و داده های آنها را بر اساس اندازه گیری های نزدیک قرار دهید. و * اصلاً نیازی به ایجاد هیچ تغییری ندارند. ما در ابتدا معتقد بودیم که می‌توانیم تغییرات در پارامترهای اکتساب را جبران کنیم، اما وقتی داده‌ها را با پارامترهای اکتساب مسدود کردیم، متوجه شدیم که شکل توزیع‌ها تا حدی تغییر کرده است، که انتظار می‌رود، و تفاوت میانگین زیادی دارد. ما واقعاً به قدر مطلق بین مکان‌ها اهمیت نمی‌دهیم، فقط دلتای بین اندازه‌گیری‌ها در یک سایت خاص. می‌خواهیم تعیین کنیم که آیا باید: * بهینه‌سازی‌های مبتنی بر مکان مستقل را تشویق کنیم و بر اساس بهینه‌سازی‌های اعمال‌شده، یک افست ثابت برای تفریق تعیین کنیم. و * مقایسه کنید که آیا بهتر است مقادیر گمشده را زمانی که اندازه‌گیری‌ها در دسترس نیستند، تخمین بزنیم یا یک افست ثابت را بر اساس بهینه‌سازی‌ها کم کنیم. * مشخص کنید که اگر بهینه‌سازی‌ها ضروری است، به عقب برگردند و همه مکان‌های جدید را با همان پارامترهای اکتساب اندازه‌گیری کنند. از آنجایی که ما سایت‌های مختلف زیادی داریم و انتظار داریم داده‌ها بین سایت‌ها قابل مقایسه باشند، انتظار داریم روش بهتر برای یک مکان اندازه‌گیری خاص، واریانس کمتری داشته باشد. البته تفاوت‌های واقعی بین مکان‌های اندازه‌گیری وجود دارد، بنابراین می‌خواهیم از مجموعه اندازه‌گیری بهینه‌نشده به عنوان یک کنترل استفاده کنیم.
مقایسه توزیع (یا ویژگی‌های توزیع‌ها) مجموعه داده‌های بزرگ برای تفاوت‌های عملاً معنی‌دار
114073
من فقط در مورد اندازه گیری انحراف برای رگرسیون لجستیک مطالعه کردم. ولی اون قسمتی که اسمش مدل اشباع هست برام واضح نیست. من یک جستجوی گسترده در گوگل انجام دادم اما هیچ یک از نتایج به سوال من پاسخ نداد. تا اینجا متوجه شدم که یک مدل اشباع شده دارای یک پارامتر برای هر مشاهده است که در نتیجه منجر به تناسب کامل می شود. این برای من روشن است. اما: در ادامه مقادیر برازش (یک مدل اشباع) برابر با مقادیر مشاهده شده است. از آنجایی که از دانش من، رگرسیون لجستیک برای طبقه بندی استفاده می شود، داده های مشاهده شده متغیرهای کمکی با برچسب های اضافی $y \in \\{0,1\\}$ هستند. با این حال، اندازه گیری انحراف از احتمالات استفاده می کند اما برچسب های واقعی را نه. یکی از احتمالات پیش بینی شده محاسبه شده رگرسیون لجستیک در مقابل احتمالات مشاهده شده استفاده می کند. با این حال، از آنجایی که یکی به جای احتمالات فقط برچسب‌هایی داده است، من گیج هستم که چگونه یک مدل اشباع شده از این برچسب‌ها بسازم؟
رگرسیون لجستیک: چگونه یک مدل اشباع به دست آوریم
99999
مشتریان ما تاجر هستند و از خدمات پرداخت آنلاین ما استفاده می کنند. قبل از اینکه آنها شروع به استفاده از خدمات ما کنند، میزان حجم تراکنش را در سال نشان دادند. با این حال معلوم شد که این فقط 50٪ درست است. ما دسته بندی داریم: یک مشتری: حجم بالا (1000 دلار <) مشتری B: متوسط ​​(500 هزار دلار - 1000 دلار) مشتری ج: کم (500 هزار دلار >) مشخص می شود که اگر بازرگانان ادعا کنند سالانه 1 میلیون دلار درآمد خواهند داشت، فقط 50% درست است، معمولاً آنها کمتر سود می کنند. بنابراین ما بازرگانی داریم که ادعا می‌کنند A هستند اما B,C هستند تاجرانی که ادعا می‌کنند B,C هستند اما معلوم می‌شود A هستند داده‌هایی مانند: ID، تراکنش‌های_$_year، trx_rating_pre، trx_rating_real، LOTS_OF_OTHER_DATA... 1، 1،500،000.00، B، A ... 2, 150,000.00, A, C... 3, 100,000.00, A, C... 4, 50,000.00, A, C... حال می خواهم طبقه بندی کننده ای ایجاد کنم که از داده ها یاد بگیرد تا مشتریان A را قبل از اینکه واقعاً معاملات دلاری انجام دهند شناسایی کنیم. ما در حال حاضر 50٪ حق با درخواست است. ما حدود 50 متغیر داده (هم کمیت و هم کیفیت) را جمع آوری کرده ایم که فکر می کنیم از آنها به ما کمک می کنند تا رتبه بهتر از 50 درصدی مانند الکسا را ​​در هنگام ثبت نام در فیسئوک لایک دنبال کنندگان توییتر پیش بینی کنیم کشور فرم حقوقی نوع و تعداد روش های پرداخت مورد استفاده در طراحی وب سایت ارزیابی داده‌های مختلف دیگر در مورد ساختار وب‌سایت آن‌ها، بنابراین در کل این فقط یک مدل پیش‌بینی باینری است که فکر می‌کنم: پیش‌بینی مشتریان A در مقابل مشتریان غیر A. از چه بسته ای در R برای یک مدل یادگیری استفاده می کنید؟ از کدام مدل استفاده می کنید و چرا؟ مدل های داده کاوی WIKI e1071 kernlab klaR svmpath shogun
R انتخاب رویکرد طبقه بندی مناسب برای دسته های حجم معاملات $
25285
من یک مجموعه داده از 91 متغیر دارم. این مربوط به یک تحلیل کیفی است که من برای تحلیل چند پدیده انجام دادم. به همین دلیل، سوالات در 10 خوشه دسته بندی می شوند، زیرا جنبه های مختلف تحلیل را بیان می کنند. من یک زیرمجموعه با استفاده از دستور R زیر ایجاد کردم: example1<- subset(data, select=c(a1, a2, a14, a21)) سپس یک ماتریس وابستگی ساختم تا وابستگی بین متغیرهای منفرد در هر خوشه: p1 <- stat1 <- diag(ncol(example1)) colnames(p1) <- rownames(p1) <- colnames(exemple1) colnames(stat1) <- rownames(stat1) <- colnames(example1) rn <- rownames(p1) cn <- colnames(p1) ###حلقه برای مقادیر p برای (i در 1:ncol) (example1)){ for(j in 1:ncol(example1)){ a <- example1[, rn[i]] b <- example1[, cn[j]] r <- chisq.test(a,b)$p.value p1[i, j] <- r } } ###حلقه برای آمار برای (i in 1:ncol(example1)){ for(j in 1:ncol(example1)){ a <- example1[, rn[i]] b <- example1[, cn[j]] r <- chisq.test(a,b)$statistic stat1[i, j] <- r } } ### قرار دادن مقادیر p در قطر بالای stat stat1[upper.tri(stat1 )] <- p1[upper.tri(p1)] diag(stat1) <- 1 stat1 # این برای زیرمجموعه اول است اما اکنون دو سوال دارم: 1. چگونه آیا می توانم آزمون فرضیه وابستگی را در بین متغیرها انجام دهم و آلفای خود را تنظیم کنم؟ 2. چگونه می توانم تحلیل رگرسیون را انجام دهم؟
تدوین یک آزمون فرضیه در مورد وابستگی
89725
من می خواهم نموداری از فروش در طول زمان ترسیم کنم. با این حال، دوره های زمانی که در اختیارم قرار می دهم با هم همپوشانی دارند. به عنوان مثال: * ژانویه 2012 تا ژانویه 2013: 10 میلیون * آوریل 2012 تا آوریل 2013: 12 میلیون * ژوئیه 2012 تا ژوئیه 2013: 14 میلیون * اکتبر 2012 تا اکتبر 2013: 12 میلیون روش واضح برای رسم نمودار انجام یک نمودار خطی یا میله ای ساده، با نقطه ها به عنوان برچسب در محور y: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3yZsn.png) (البته، محور y نیز باید از صفر شروع شود!) اما این به نظر درست نیست، زیرا واقعاً آنچه را که واقعاً در جریان است نشان نمی دهد - به نظر مجموعه ای مجزا از نقاط است، نه مجموعه ای از دوره های همپوشانی. آیا راه بهتری برای تجسم دوره های زمانی همپوشانی وجود دارد؟
چگونه می توانم دوره های زمانی همپوشانی را تجسم کنم؟
74012
سوال مربوط به این سوال است. در این سوال @mpiktas پاسخ می دهد که چرا بررسی همبستگی کافی نیست اما به دلیل زیر پاسخ کاملاً صحیح به نظر نمی رسد: اگر 2 سری زمانی هم انباشته شوند، یعنی یک رابطه خطی بین آنها $$y_t وجود دارد. = a + b x_t + \varepsilon_t$$ با $\varepsilon_t$ ثابت، این نشان دهنده رابطه خطی بین تفاوت های آنها است. $$\Delta y_t = b \Delta x_t + \Delta \varepsilon_t.$$ بنابراین اگر سری‌ها با هم ادغام شوند، تفاوت‌های آنها باید همبسته باشد. و این بدان معنی است که اگر بین تفاوت‌های داده‌هایمان همبستگی معنی‌داری مشاهده نکنیم، هم‌جمعی هم وجود ندارد. آیا این درست است یا چیزی را از دست داده ام؟ این سوال به این دلیل مطرح می‌شود که من به دنبال روابط بین صدها سری زمانی (عمدتاً غیر ثابت) هستم و روشی که این کار را انجام می‌دهم با در نظر گرفتن همبستگی‌های بین طرف‌های متقابل متفاوت آنهاست. و من فرض می‌کنم که اگر همبستگی بین سری‌های متفاوت ندیدم، هم‌جمعی هم وجود ندارد - کافی است فقط همبستگی‌ها را بررسی کنیم.
آیا همبستگی صفر بین 2 سری متفاوت دلالت بر عدم هم انباشتگی بین سری های اصلی دارد؟
104711
فرض کنید من دو متغیر دارم که نوعی از شدت بیماری را در مقیاس ترتیبی یکسان اندازه گیری می کند. یکی قبل از درمان و دیگری بعد از درمان اندازه گیری می شود. من می خواهم آزمایش کنم که آیا بین درمان ها بهبودی وجود دارد یا خیر. همبستگی های ناپارامتریک مناسب نیستند. آنها به من می گفتند که آیا رابطه ای بین این وضعیت قبل و بعد از درمان وجود دارد یا خیر.
آیا جایگزینی برای آزمون t زوجی دو متغیر ترتیبی چندسطحی وجود دارد؟ (مشابه تست مک نمار)
25284
این تقریباً احمقانه و کمی شرم آور است، اما نمی توانم بفهمم چگونه (یا حتی ممکن است) از بسته plm در R برای اجرای یک رگرسیون شامل جلوه های ثابت که با واحد مشاهده فردی مطابقت ندارند استفاده کنم. . به عنوان مثال، من مشاهداتی در مورد نتایج شرکت ها دارم، اما باید متغیرهای ساختگی خاص بخش را در نظر بگیرم. البته من باید اینها را تحقیر کنم (چون تعداد آنها بسیار زیاد است). آیا این امکان وجود دارد؟
استفاده از plm برای محاسبه اثرات ثابت غیر فردی در R
55832
من در حال مطالعه رگرسیون هستم. از من خواسته شد که خلاصه های گرافیکی و عددی توزیع چهار متغیر و روابط آنها را بنویسم. برای مثال در R چه روشی مناسب برای انجام آن وجود دارد؟ نقاط داده به شکل $(x_i,y_i,z_i,t_i)$ هستند که $0.5<x_i<35,\quad 0.3<y_i<14,\quad 0<z_i<9.15,\quad 0.4<t_i<19.$
خلاصه های عددی و گرافیکی توزیع و روابط داده ها
26396
هنگام ارزیابی یک برآوردگر در یک محیط مکررگرا، با استفاده از MSE و فرض کنید برای محاسبه انحراف برآوردگر، انتظارات این برآوردگر را محاسبه می‌کنیم، آیا فرض می‌کنیم که برآوردگر دارای توزیع احتمال است؟ آیا این با استدلال فراوان گرا که یک پارامتر یک متغیر تصادفی نیست، در تضاد نیست؟
انتظار یک برآوردگر؟
74013
چه سناریوهایی وجود دارد که در آن Lasso احتمالاً بهتر از Elastic Net (خارج از پیش‌بینی نمونه) عمل می‌کند؟
چه زمانی می‌توانم کمند را به شبکه الاستیک انتخاب کنم
32010
تعاملات بین اعضای دو گروه مجزا را در نظر بگیرید. اگر یک گروه به طور قابل ملاحظه ای اعضای کمتری نسبت به گروه دیگر داشته باشد، آنگاه تعاملات بین آن گروه و گروه بزرگتر به طور طبیعی بیشتر از تعاملات بین دو عضو همان گروه خواهد بود. آیا راهی برای در نظر گرفتن این موضوع هنگام تجزیه و تحلیل فعل و انفعالات از نظر فراوانی و مدت زمان تعامل وجود دارد؟ کاملاً مطمئن نیستم که با این سؤال از کجا شروع کنم. **ویرایش 1** من دو گروه مجزا دارم که می توانند با یکدیگر تعامل داشته باشند. یکی از گروه ها بسیار بزرگتر از گروه دیگر است. اعضای گروه می توانند با یکدیگر یا با اعضای گروه دیگر تعامل داشته باشند. می‌خواهم بدانم که آیا هر یک از گروه‌ها به طور خاص طرفدار تعامل با گروه دیگر هستند و آیا تعامل بین اعضای گروه‌های مختلف طولانی‌تر از تعامل بین اعضای همان گروه است؟ از آنجایی که یک گروه بسیار بزرگتر از گروه دیگر است، اگر یک عضو خاص شانس برابری برای تعامل با هر یک از اعضای هر گروهی داشته باشد، من تعاملات بسیار بیشتری را بین اعضای گروه کوچک با اعضای گروه بزرگ مشاهده خواهم کرد تا تعاملات. بین اعضای گروه کوچک این احتمالاً من را به این نتیجه می‌رساند که احتمال وقوع تعامل بین گروه‌ها بیشتر است، حتی اگر در ابتدا گفتیم که احتمال کاملاً مساوی برای تعامل بین هر یک از اعضای هر گروه وجود دارد. چگونه این را در محاسبات لحاظ کنم؟ **ویرایش 2** داده ها هنوز جمع آوری نشده اند. من می‌توانم نوع و مدت هر گونه تعامل و همچنین اینکه آیا تعامل بین گروه‌ها یا در هر دو گروه رخ داده است را ثبت کنم. من نمی توانم افراد را شناسایی کنم، فقط به کدام گروه تعلق دارند. در ابتدا من به فراوانی تعاملات علاقه مند هستم، اما در ادامه این خط ممکن است نگاهی به مدت زمان تعامل نیز مفید باشد. من قصد دارم نتیجه گیری را به جمعیت بزرگتری تعمیم دهم. من قصد دارم نتایج حاصل از این 2 گروه را با نتایجی که از 2 گروه متفاوت دریافت می کنم مقایسه کنم. من می خواهم سعی کنم عوامل موثر بر تمایل به تعامل بین گروه ها را به جای درون گروه شناسایی کنم.
چگونه می توان اندازه گروه را هنگام تجزیه و تحلیل تعاملات بین اعضای گروه تنظیم کرد؟
57471
من در حال ورود به کلاس تجسم داده ها هستم، اما پایه محکمی در آمار ندارم. در حال حاضر سعی می کنم با نمودارهای میله ای کاری اساسی انجام دهم. من اساساً می خواهم قیمت متوسط ​​​​دو نوع محصول را ترسیم کنم. من سعی می کنم ببینم شرایط یک کالا چقدر روی قیمت آن تأثیر می گذارد و آن را با نوع دیگری از کالا مقایسه می کنم. قیمت متوسط ​​(به نوعی عادی شده) | | | A B | B [] [] | [] [] [] | یک [] [] [] |____[]_[]_____[]_[]______ شرایط (فعلاً 2) A جدید استفاده شده نوع A است. به عنوان مثال، لباس را در نظر بگیرید. B نوع محصول B است. بگذارید این آمپر گیتار باشد. یک لباس معمولی از 20 تا 300 دلار به فروش می رسد. یک آمپ معمولی جدید می تواند از 100 دلار تا هزاران دلار بفروشد. همانطور که می بینید، این محصولات دارای محدوده قیمت بسیار متفاوتی هستند. برای برخی از محصولات، قیمت بین دست دوم و نو فقط کمی کاهش می یابد، زیرا فرسودگی و پارگی اهمیت زیادی ندارد. برای دیگران (مانند لباس یا ماشین)، قیمت بسیار کاهش می یابد. اگر من فقط قیمت متوسط ​​واقعی را رسم کنم، آنگاه فقط مقایسه بین کارکرده و نو از همان نوع محصول مفید خواهد بود. مقایسه آن با دسته دیگر سخت خواهد بود. چه نوع محاسباتی را می توانم روی داده ها اعمال کنم تا برای مقایسه مفید باشد؟ آیا من به روشی اشتباه به این موضوع برخورد می کنم؟ از نظر داده، در حال حاضر به قیمت تکی اقلام با شرایط فروش خاص دسترسی دارم. من قدردان هر کمکی هستم.
دو ماد را مقایسه کنید
26390
پس از خواندن نحوه مرتب سازی بر اساس میانگین رتبه بندی که با فاصله اطمینان برای پارامتر برنولی سروکار دارد، چگونه آن را به بیش از دو سطح گسترش می دهید؟ به عنوان مثال: آیتم ها بین 1 تا 5 امتیاز می گیرند (1 بدترین است 5 بهترین است). بهترین راه برای تنظیم میانگین امتیاز در هر ماده به منظور در نظر گرفتن تعداد امتیازاتی که دریافت کرده است (یک امتیاز 5 نباید به آن میانگین 5 بدهد!) چیست؟ ![شرمنده آمازون!](http://i.stack.imgur.com/k7A0J.png)
چگونه می توان میانگین امتیاز را برای حجم نمونه در سیستم های رتبه بندی با بیش از دو دسته تنظیم کرد؟
57473
من یک معادله برای حل $Ax = b$ دارم، که در آن $A$ اتفاقا ماتریس دقیق یک توزیع گاوسی چند متغیره است. من می توانم از حل کننده مستقیم یا حل کننده های تکراری برای بدست آوردن بردار x$ استفاده کنم. با این حال، من همچنین باید عناصر قطری ماتریس کوواریانس را که توسط $A^{-1}$ داده شده است را بدست بیاورم. من نمی توانم مستقیماً ماتریس دقیق پراکنده $A$ را معکوس کنم زیرا بعد بسیار زیاد است و معکوس آن پر خواهد بود. در حافظه جا نمی شود اما من می خواهم عناصر قطری ماتریس کوواریانس $A^{-1}$ را بدست بیاورم. چگونه می توانم آن را دریافت کنم؟
چگونه می توان عناصر قطری یک ماتریس کوواریانس را از ماتریس دقیق پراکنده آن بدست آورد؟
32019
من چند هیستوگرام انباشته دارم که باید آنها را از نظر شباهت یا تفاوت مقایسه / ارزیابی کنم. ![هیستوگرام انباشته تولید شده از یک مجموعه داده](http://i.stack.imgur.com/JK2GG.png) من معتقدم که به جای ارزیابی هیستوگرام ها به شرق با مجموعه داده های مورد استفاده برای رسم این هیستوگرام های انباشته کار می شود، که در فرمت: قرمز بنفش آبی خاکستری زرد 22.0640569395 16.9483985765 0 60.987544484 0 8.1850533808 8.8523131673 0 82.962633452 0 6.8505338078 6.89562777 85.4982206406 0.5338078292 6.7615658363 5.2491103203 1.6459074733 86.3434163701 0.66725978265 0.667259783265 2.1352313167 84.653024911 1.1565836299 7.8736654804 6.628113879 1.5569395018 83.9412811380 1.20121717172012. 8.1850533808 1.2455516014 83.4074733096 1.3790035587 5.5604982206 10.2758007117 1.0676156584 885 1.0231316726 7.1174377224 7.6067615658 0.7117437722 84.5640569395 0.756227758 7.8736654804 7.8736654804 3.93758 3.937504 87.5 0.3113879004 7.6512455516 7.8736654804 0.5338078292 83.9412811388 0.5338078292 7.6067654804 7.6067615658 1.4679715302 81.9395017794 0.3558718861 8.9412811388 8.0071174377 1.3790035587 81.6725978648 015 19.0836298932 9.2081850534 2.1352313167 69.5729537367 1.3790035587 14.9911032028 11.076512245514 70.7295373665 1.0676156584 15.3914590747 10.8985765125 3.024911032 70.6850533808 1.290035584872721 12.5444839858 2.4911032028 67.4822064057 1.334519573 15.8362989324 13.0338078292 2.001779312816 1.334519573 17.037366548 10.4537366548 2.4021352313 70.1067615658 1.2010676157 20.2846975089 1908 69.706405694 1.0676156584 28.7366548043 12.6334519573 0 58.6298932384 0 آیا راهی وجود دارد که بتوانم چنین مجموعه داده‌هایی را از آزمایش‌های متعدد (n=8) مقایسه کنم و این مجموعه داده‌ها را به صورت بصری نشان دهند (n=8) آیا می توان از QQplot برای ارزیابی این مجموعه داده ها استفاده کرد. در انتظار پاسخ، Atul
ارزیابی/مقایسه مجموعه داده های عددی متعدد برای اجماع یا تفاوت در R
57470
از ویکی پدیا: > پارامتر مزاحم هر پارامتری است که فوراً مورد توجه نیست، اما > ** که باید در تجزیه و تحلیل آن پارامترهایی که > مورد علاقه هستند، در نظر گرفته شود. فرض کنید در اصل پارامترها همه موارد مورد علاقه هستند. اگر پارامترهای مزاحم بعدی معرفی شوند، می خواستم بدانم که برخی از اهداف ممکن از معرفی پارامترهای مزاحم چیست؟ آیا معرفی پارامتر مزاحم برای قابل شناسایی کردن مدل است؟ با تشکر و احترام!
هدف از معرفی پارامترهای مزاحم چیست؟
112711
اگر من یک جدول مانند این داشته باشم ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ee6p8.png) که در آن، سایت = مکان های مختلف اندازه گیری (بافت یا اندام) نوع = انواع مختلف ویروس و من می خواهم چیزی در مورد داده ها بپرسم. 1. از چه آزمایشی می توانم استفاده کنم که آیا توزیع نوع در سایت 1، سایت 2، سایت 3 و غیره مشابه است. به نظر شبیه است، اما نمی دانم از نظر آماری ثابت کنید برای مقایسه بین دو سایت، فکر می‌کنم می‌توانیم از تست تناسب مربع کای استفاده کنیم، اما اگر بخواهم آن را به طور همزمان در همه سایت‌ها انجام دهم چه؟ 2. آیا راهی وجود دارد که به ما بگوید که توزیع نوع تنها تحت سلطه یک نوع است؟ برای مثال در این مجموعه داده، می‌توان مشاهده کرد که نوع ۲ غالب‌ترین نوع در همه سایت‌ها است. چگونه می توانیم آن را از نظر آماری انجام دهیم؟ با تشکر
مقایسه توزیع در درمان های مختلف
64906
من باید آزمایشی را روی یک برنامه با چند ابزار آماری اجرا کنم تا مطمئن شوم که نتایج آن از نظر آماری قابل قبول است. این برنامه دنباله هایی از اطلاعات داده ها (بردار اعداد صحیح یا نمادها با طول های مختلف) را می گیرد و از برخی معیارهای فاصله (مانند فاصله لونشتاین) برای پیدا کردن ماتریس فاصله بین این دنباله ها و سپس خوشه بندی آنها استفاده می کند. اکنون می خواهم اطلاعاتی را شبیه سازی کنم تا از نظر آماری عملکرد برنامه را ببینم. چیزی که من در ذهن دارم این است که تعدادی دنباله ایجاد کنم که از نظر آماری مشابه باشند و ببینیم برنامه چگونه آنها را خوشه بندی می کند. چه گزینه ای در اینجا برای انجام این کار دارم؟
ایجاد توالی های آماری مشابه
104713
از نظر من، به نظر می رسد که اعتبار سنجی Hold-out بی فایده است. یعنی تقسیم مجموعه داده اصلی به دو بخش (آموزش و آزمایش) و استفاده از نمره آزمون به عنوان معیار تعمیم، تا حدودی بی فایده است. به نظر می رسد K-Fold تقریب های بهتری از تعمیم ارائه می دهد (زیرا در هر نقطه تمرین و آزمایش می کند). بنابراین، چرا باید از اعتبار سنجی استاندارد Hold-out استفاده کنیم؟ یا حتی در مورد آن صحبت کنید؟ با تشکر
Hold-out Validation در مقابل K-Fold Validation؟
84128
اگر رویدادها را داشته باشیم: * A تعداد بارندگی ها در ماه در یک دوره زمانی معین است (نرخ آن در هر ماه برابر است) * B تعداد تگرگ در ماه در یک دوره زمانی معین است (میزان آن. در زمستان افزایش می یابد) آیا می توانیم از نظر آماری ثابت کنیم که احتمال رویداد A هر زمان که احتمال رویداد B افزایش می یابد افزایش می یابد؟ اگر بله، چگونه؟ ویرایش: از ورودی ارزشمند شما متشکرم. دلیل اینکه من به این سوال علاقه دارم این است که در ردیابی EEG برای تشخیص صرع، ما به Spikes نگاه می کنیم که رویدادهایی هستند که کم و بیش با سرعت ثابتی رخ می دهند (اگرچه این میزان در بیداری و خواب متفاوت است، اما من فقط به سنبله ها علاقه مند هستم. در خواب). به طور معمول، این میزان در طول خواب ثابت می ماند، اما در موارد معدودی مشاهده شده است که در حضور رویدادی به نام کمپلکس افزایش می یابد. فرض بر این است که این کمپلکس‌های k در واقع صرع زایی و در نتیجه «سنبله‌ها» را افزایش می‌دهند. بنابراین اگر در طول خواب سمی از «میخ‌های در خواب» و «کمپلکس‌ها» (رویدادهای نادرتر در یک مرحله خواب خاص) داشته باشیم، آیا می‌توانیم از نظر آماری ثابت کنیم که با افزایش تعداد k کمپلکس‌ها، سنبله‌ها افزایش می‌یابند؟
چگونه ثابت کنیم که شانس وقوع رویداد A در حضور رویداد B افزایش می‌یابد، در حالی که هر دو توزیع پواسون متفاوتی دارند؟
22489
من یک متغیر وابسته دارم و سعی می کنم ببینم که آیا هر یک از 12 متغیر مستقل من با آن ارتباط دارد یا خیر، با این حال باید همه چیز را از نظر نرمال بودن بررسی کنم. می‌دانم که باید به چولگی و کشیدگی نگاه کنم. آیا فرمول به شکل زیر است: امتیاز چولگی با میانگین شرط تقسیم بر خطای استاندارد چولگی (به همین ترتیب برای کشیدگی). همچنین آیا مقادیر مطلقی وجود دارد که تعیین می کند آیا باید از آزمون پارامتریک/ناپارامتریک استفاده کنید؟ به عنوان مثال، عدد چولگی بالای 2 = غیر پارامتریک؟ من از SPSS استفاده می کنم.
چگونه نرمال بودن متغیرها را ارزیابی کنیم تا مشخص شود که آیا از همبستگی پیرسون استفاده کنیم یا از r اسپیرمن (یا کندال)؟
57479
در تخمین مدل ARMA (با خطاهای معمولی)، آیا مطالعات یا آزمون‌های تجربی برای قضاوت در مورد حداقل تعداد مشاهدات (طول) سری‌های زمانی مورد نیاز وجود دارد، به گونه‌ای که OLS تخمین قابل قبولی از مدل باشد (برخلاف یک مقدار دقیق). احتمال)؟
طول سری های زمانی و تخمین احتمال
26395
من درک مفهومی سختی دارم که این فرمول از کجا آمده است. به نظر می رسد برای من معنایی ندارد. آیا کسی می تواند این موضوع را روشن کند: > تخمینگر طبیعی $p$ $\hat p = \frac{X}{n}$ است، همان کسری از > موفقیت. از آنجایی که $\hat p$ فقط $X$ ضرب در یک ثابت است، $\hat p$ دارای یک توزیع تقریبا نرمال است. $E(\hat p) = p$ و $\sigma_{\hat p} = > \sqrt{\frac{p(1-p)}{n}}$. استاندارد کردن، به این معنی است که: > > $$P\left(-z_{\alpha/2} \lt \frac{\hat p- p}{\sqrt{p(1-p)/n}} \lt > z_{\alpha/2}\right) \approx 1 - \alpha $$ آیا کسی می‌تواند این معادله را به‌گونه‌ای استخراج کند که برای کسی که قبلاً چنین چیزی را ندیده، منطقی باشد؟
استخراج فاصله اطمینان برای نسبت جمعیت
104716
در پایان هر ترم باید نمرات دانش آموزانم را در یک پایگاه داده وارد کنم. معمولاً این بدان معنی است که من لیست نمرات خود را یکی یکی از صفحه گسترده اکسل خود پایین می آورم و به صورت دستی نمره را در برنامه db پر می کنم. یکی از راه‌های بررسی اینکه آیا کارها را به درستی انجام داده‌ام، مقایسه میانگین و انحراف معیار نمرات از برگه اکسل من و برنامه است. متوجه شدم که این خطای مبادله دو درجه را نشان نمی دهد: یعنی برگه اکسل من دارای نمرات: 4،4،4.5،6،4 است و من 4،4.5،4،6،4 قرار داده ام. آیا معیار عددی ساده‌ای وجود دارد که ترتیب فهرست را در نظر بگیرد که مقایسه سریع آن به من اطمینان دهد که همه چیز خوب است؟ فکر می‌کنم می‌توان نوعی شماره‌گذاری گودل را انجام داد، اما من آن را بیش از حد می‌دانم.
اندازه گیری عددی برای یک لیست مرتب شده
24885
لطفاً کسی می تواند ایده ای را در مورد اینکه چگونه می توانم یک مدل TAR را که می تواند در داده های غیرخطی کنترل کند، مدل سازی کنم به اشتراک بگذارد؟ من باید چنین مدلی را با شکل کلی مدل TAR مقایسه کنم. کدام نرم افزار کامپیوتری را می توان اعمال کرد؟ متشکرم.
مدل سازی یک مدل TAR که می تواند مشکل پرت ها را در داده های غیرخطی حل کند
77660
من 11 پارامتر مقیاس برای هر یک از 218 مشاهده متعلق به آزمودنی ها دارم، PCA استاندارد شده را برای کاهش ابعاد داده ها انجام دادم و دو مؤلفه معنی دار پیدا کردم. با استفاده از فواصل اقلیدسی، تجزیه و تحلیل خوشه‌ای این دو مؤلفه (که حدود 75 درصد واریانس را توضیح می‌دهد) با رویکرد پایین به بالا با استفاده از خوشه‌بندی تجمعی سلسله مراتبی (HAC) توسط بسته R «FactoMineR» و روش پیوند وارد دنبال شد. تعداد بهینه خوشه ها 4 بود که توسط بسته پیشنهاد شده بود بر اساس به حداقل رساندن نسبت دو پارتیشن پی در پی سود اینرسی بین خوشه. این فقط تعداد مشاهدات در هر خوشه است: > جدول(df$clust) 1 2 3 4 6 21 46 145 این 4 خوشه از نظر بالینی مهم بودند و افراد دارای خوشه 1 به شدت تحت تأثیر بیماری قرار گرفتند. خوشه 4 افراد غیرواکنشی بودند، خوشه 3 واکنش نشان داد و در نهایت خوشه 2 مانند موجودیت خاصی بود که از بیماری محافظت می شد. من نمی دانم که آیا این خوشه ها می توانند نوعی رتبه بندی ترتیبی را در نظر بگیرند یا نه. قضاوت از نقطه نظر نظری مربوط به حوزه دشوار است، اما می توانم بگویم که خوشه 4->3->1 به نوعی جهت گیری را نشان می دهد و از این رو می توان آن را به صورت ترتیبی در نظر گرفت، از سوی دیگر، خوشه 2 کمی متفاوت است اما بسیار مهم است زیرا افراد دارای این خوشه از بیماری محافظت می‌شوند. بنابراین، من واقعاً گیج هستم که آیا این 4 خوشه را ترتیبی در نظر بگیرم یا نه. فرض کنید من مجموعه دیگری از 11 قرائت جدید از پارامترهای مقیاس برای یک موضوع را به عنوان داده جدید داشته باشم، چه تحلیل آماری برای پیش بینی عضویت این موضوع در آن 4 خوشه مفید خواهد بود؟ لطفا در صورت امکان به مثال مشابه با کد R اشاره کنید؟ که بسیار قابل قدردانی خواهد بود. ارائه یک پاسخ حرفه ای بسیار قابل احترام خواهد بود، اما توصیه برخی کتاب ها با استفاده از کد R نیز تشویق می شود، زیرا من در جستجوی چنین کتابی هستم که این موضوع را به طور کامل پوشش دهد، کتاب های زیادی وجود دارد، اما قضاوت در مورد کدام یک مشکل است. کار را انجام دهد ممکن است کسی باشد که تجربه بیشتری در مورد این نوع مشکلات داشته باشد و بتواند در اینجا یک کلمه راهنمایی کند.
پیگیری تحلیل خوشه ای با پیش بینی عضویت
24887
من می‌خواهم نشان دهم که داده‌های من نمی‌توانند با یک توزیع مشخص مطابقت داشته باشند (در مورد من توزیع پارتو نوع II است). من یک نمودار P-P انجام دادم، یعنی روی محور y داده های تجربی مرتب شده ام را و روی محور x عکس cdf نظری را رسم می کنم. من کد Matlab خود را در زیر اضافه کردم در صورتی که توضیحاتم واضح نباشد. بیشتر اوقات، در نمودارهای P-P، من یک خط مستقیم می بینم و گفته می شود که اگر نقطه از این خط پیروی کند، می توانید فرض کنید که داده های شما بر اساس این توزیع توزیع شده است. اما چگونه این خط مستقیم را ترسیم می کنید؟ آیا فقط y = x است؟ اگر چنین است، چرا؟ اگر نه، دقیقاً چه چیزی را باید ترسیم کنیم؟ %%% تعریف تابع چگالی احتمال، تابع چگالی تجمعی %%% و تابع چگالی معکوس pdf = @(v,x) x(2)/x(1) * (1 + v./x(1) .^(-x(2) - 1); cdf = @(v,x) 1- (1+v./x(1)).^-x(2); invcdf = @(y,x) x(1).*((1-y).^-(1./x(2))-1); %%% تابع برای کمینه کردن برای یافتن پارامترها %%% fobserved = @(x) -mean(log((pdf(islets_vol,x)))); % islets_vol = گزینه های داده تجربی من = optimset('Algorithm', 'interior-point',... 'MaxIter', 1000, ... 'MaxFunEvals', 1000); [xhat_obs,~] = fmincon(fobserved,[0.5;0.5]،-eye(2)،[0;0]،[]،[]،[]،[]،[]،گزینه ها؛ %%% P-P نمودار %%% yvals = sort(islets_vol,'ascend'); % islets_vol = داده های تجربی من xvals = invcdf((1:numel(islets_vol))/(numel(islets_vol)),xhat_obs); scatter (xvals,yval);
نمودار احتمال (نقشه P-P): خط مستقیم با چه چیزی مطابقت دارد؟
84127
معادلات ماتریسی از نوعی یا تجزیه ماتریسی اغلب در پایه بسیاری از الگوریتم‌ها نه تنها در تحلیل داده‌ها بلکه در بسیاری از زمینه‌های دیگر نهفته است. انبوه کتابخانه‌های از قبل نوشته‌شده، فرمول‌بندی مکرر مسائل استخراج مجموعه آیتم‌ها را بر حسب معادلات و/یا تجزیه‌های ماتریس وسوسه‌انگیز می‌کند، اما پس از مدتی جستجو، هیچ الگوریتمی را پیدا نکردم که بر جبر خطی تکیه کند. لطفاً برخی می توانند به من نشان دهند که آیا چنین الگوریتم هایی وجود دارند یا عدم وجود آنها را توضیح دهند؟
آیا الگوریتم های استخراج مجموعه آیتم های مکرر بر اساس جبر خطی وجود دارد؟
84125
با خواندن این صفحه وب، تعجب می کنم: * آیا تحلیل تاییدی / آمار و تحلیل استنباطی / آمار یک مفهوم هستند؟ * آیا تحلیل اکتشافی / آمار و تحلیل توصیفی / آمار یک مفهوم هستند؟
آیا تأییدی = استنباطی، و اکتشافی = تحلیل / آمار توصیفی است؟
99990
این ممکن است یک سوال احمقانه باشد، اما هنگام اجرای **اندازه گیری مکرر** GLM در SPSS، و وارد کردن نحو برای جداول میانگین (/EMMEANS)، آیا راهی برای دریافت آن جدول وجود دارد که نه تنها خطای استاندارد، بلکه خطای استاندارد را نشان دهد. انحراف معیار نیز برای همه سلول ها و فعل و انفعالات؟ من باید انحرافات استاندارد را با ابزار یک مقاله گزارش کنم. یا شاید راه بهتری برای دریافت آنها وجود دارد؟ /PRINT=DESCRIPTIVE فقط sd را برای DV در هر سطح مستقل می دهد، اما تعامل بین آنها را نمی دهد (به عنوان مثال برای a، و b، اما نه a*b). آیا بهترین راه برای انجام این کار در نحو وجود دارد؟ راه های دیگر؟
نحو برای میانگین و انحراف استاندارد در اندازه گیری های مکرر GLM در spss؟
55836
آیا نمی‌دانید هنگام حل بهینه‌سازی منظم L1 از طریق نزول مختصات با گام کوچک، نتیجه ثابتی برای نرخ همگرایی وجود دارد؟ منظور من از گام کوچک است که همیشه روی یک ثابت مثبت بسیار کوچک تنظیم می شود که شامل هیچ یک از این تکنیک های انتخاب مرحله نمی شود.
نرخ همگرایی هنگام حل بهینه سازی منظم L1 از طریق نزول مختصات با گام کوچک چقدر است؟
26027
من یک CFA با چهار عامل دارم - همه آنها به جز دو عامل به هم مرتبط هستند. آیا این مشکلی است که مدل دارای دو عامل نامرتبط است؟
آیا وجود برخی عوامل نامرتبط در CFA مشکل دارد؟
112719
من نیاز فوری به درک تخصیص دیرکله پنهان (LDA) برای مدل‌سازی موضوع دارم. من چندین منبع را امتحان کردم، اما به نظر می رسد دانش لازم برای یادگیری این را ندارم. دانش آماری من بسیار محدود است. من احتمال اولیه، احتمال شرطی و کمی توزیع احتمال را می دانم. آیا کسی می تواند یک رویکرد گام به گام پیشنهاد دهد تا بتوانم LDA را به وضوح درک کنم؟ اگر بتوانید مراحل را به قسمت های کوچکتر تقسیم کنید (می تواند ابتدایی یا خیلی احمقانه باشد)، خوشحال تر خواهم شد. برای مثال، می‌توانید به من بگویید، توزیع چندجمله‌ای را یاد بگیرید یا مواردی از این قبیل. با تشکر از کمک شما.
رویکرد گام به گام برای یادگیری LDA (تخصیص دیرکله نهفته)
104714
من تعجب می کنم که چگونه باید کارهای زیر را در SPSS انجام دهم. من یک مجموعه داده با داده های گم شده دارم (به صورت تصادفی). برخی از مقادیر خالی هستند، زیرا این سؤال برای آن شخص «قابل اجرا نیست» (مثلاً سؤالاتی درباره راه رفتن از افراد روی صندلی چرخدار پرسیده شد). من فرض می کنم که نباید بخواهم آن مقادیر با Imputations چندگانه پر شوند. چگونه می توانم آن مقادیر را حذف کنم؟ پیشاپیش ممنون
انباشته‌های چندگانه «غیر قابل اجرا» را حذف می‌کند
104712
در کتاب مقایسه‌های چندگانه با استفاده از R برتز و همکاران می‌نویسند که مولتی‌کامپ بسته R آنها قدرت را بالاتر از سایر روش‌های مقایسه چندگانه با «در نظر گرفتن همبستگی‌های ساختاری بین آمار آزمون» بهبود می‌بخشد (صفحه 41). گزینه پیش‌فرض برای این روش مقایسه چندگانه این را اجرا می‌کند و تک مرحله نامیده می‌شود. سوالات من این است: 1) منظور آنها از همبستگی های ساختاری چیست (توضیحات آنها از من دوری می کند) 2) آیا آنها یک روش استاندارد برای ارجاع یا استناد به این رویکرد هستند. Single-step چیزی است که در فراخوانی تابع R آنها نامیده می شود، اما این یک توصیف کلی از مقایسه های چندگانه است. در حوزه من، مردم عمدتاً با اصلاحات معمول بونفرونی آشنا هستند و من مایلم از نگاه انتقادی بازبینان اجتناب کنم و همچنین خوانندگان را به سمت کارهایی راهنمایی کنم که می توانند به آنها در درک آنچه در جریان است کمک کنند.
چه ارتباطی بین آمار آزمون در روش های مقایسه چندگانه وجود دارد؟
26026
من به ریسک بیز برای برخی توزیع ها علاقه مند هستم $\pi$ $$ r(\pi) = \mathbb{E}_{\pi(x)}[ \mathbb{E}_{\Pr(y|d, x)[L(x,\hat x(y|d))]]، $$ که در آن $L$ مقداری تابع ضرر است و $\hat x$ میانگین بعدی است (در اینجا: تخمین‌گر بیز). در اینجا $d$ برخی از پارامترهای طراحی آزمایشی است. اگر $L(x,\hat x) = |x-\hat x|^2$ (خطای مربع)، پس کران **Cramer-Rao خلفی** کران پایین‌تری را برای ریسک Bayes می‌دهد. ریسک بیز نیز با واریانس پسین مورد انتظار یکسان است. بنابراین برای طراحی بهینه آزمایش‌ها، می‌توانم از **واریانس انتظاری منفی** به عنوان یک تابع سودمند برای به حداکثر رساندن استفاده کنم. اکنون می‌خواهم این منطق را معکوس کنم تا تابع ضرر مؤثر و یک کران پایینی برای **به دست آوردن اطلاعات** به عنوان یک تابع ابزار جایگزین پیدا کنم. یعنی فرض کنید تابع ابزاری که من استفاده می کنم، اطلاعات بدست آمده است. سپس، 1. تابع ضرری که این بهینه سازی می کند چیست؟ 2. حد پایینی برای ریسک بیز برای این تابع ضرر چقدر است؟
نوع Cramer-Rao برای کسب اطلاعات محدود شده است
84124
در مورد برآوردگرهای واریانس از نمونه iid با اندازه $n$، کارل اووه هافهامر می گوید برآورد واریانس از یک نمونه iid: > اگر توزیع نرمال داشته باشند، تقسیم بر n+1 (sic!) کمترین میانگین را به دست می دهد. مربع خطا چرا کمترین میانگین مربعات خطا را می دهد؟ منظور او از (sic!) چیست؟ با تشکر
برآورد واریانس با کمترین میانگین مربعات خطا
72986
من مجموعه داده ای از فیلم ها دارم که باید احساسات گوینده را از آن تشخیص دهم. به همین دلیل من چند نشانگر روی صورت اسپیکر دارم. من حرکت آنها را هنگام صحبت کردن بلندگو تشخیص می دهم و برای هر فریم تغییر مختصات نشانگر را پیدا می کنم. در مجموع 65 نشانگر (نقطه آبی) روی صفحه یک بلندگو وجود دارد، بنابراین در پایان یک فریم، 130 (مختصات x و y) ذخیره شده است. من میانگین و انحراف معیار آن نقاط را در توالی ویدیو به عنوان ویژگی های خود انتخاب کرده ام (بر اساس مقاله ای که در سال 2009 منتشر شده است) سؤال من از بین این 260 ویژگی در هر ویدیو (میانگین و انحراف استاندارد هر مختصات x و y) چگونه است. من این را به چیزی قابل درک‌تر تقلیل می‌دهم یا خروجی احتمال معنی‌داری (در مورد من یک احساس) ایجاد می‌کند. در مقاله از الگوریتم plus l و take away r بر اساس معیار Bhattacharyya Distance استفاده کرد، اما من فقط نتوانستم بفهمم چگونه می توانم بر اساس آن معیار بگویم یک ویژگی بهتر از دیگری است.
وزن ویژگی ها را برای انتخاب ویژگی پیدا کنید
113319
من داده های فلورسانس را از برخی سلول های باکتری جمع آوری کرده ام. هر سلول دارای یک ژن در خود است که می تواند به فلورسانس القا شود. با این حال، حتی بدون القا، ژن همچنان کمی فلورسانس می کند. من سلول ها را در معرض یک سری از غلظت های القا کننده، از جمله القا کننده 0٪ قرار داده ام و فلورسانس حاصل را در طول زمان اندازه گیری کرده ام. فلورسانس تولید شده از سلول هایی که القا نشده اند، به طور موثر فلورسانس پس زمینه است. بنابراین، من می‌خواهم فلورسانس پس‌زمینه را از فلورسانس اندازه‌گیری شده در سلول‌هایی که القا شده‌اند کم کنم تا فلورسانس ناشی از القا را تعیین کنم. $n = 3$ برای همه اندازه گیری ها. سوال من این است که آیا می توانم میانگین فلورسانس سلول های القا نشده را بگیرم و فرض کنم که میانگین واقعی است؟ یعنی فرض کنید که $SE = 0 $ است. اگر بتوانم این کار را انجام دهم، وقتی متعاقباً میانگین فلورسانس پس زمینه را از میانگین فلورسانس القا شده کم کنم، $SE$ محاسبه شده نهایی کمتر خواهد بود. نمونه‌ای از داده‌ها در اینجا آمده است: القاء کننده: 0% 5% 1 3411 4965 2 3427 4784 3 3412 5379 میانگین 3416.666667 5042.666667 SD 7.318166133 هر آزمایش 7.318166133 برای هر آزمایش 259 تغییر خواهد کرد. فرض کنید که میانگین پس‌زمینه اندازه‌گیری شده، میانگین واقعی آن آزمایش است. درست نیست؟ باید بگویم که مهارت های ریاضی/آماری من در بهترین حالت ابتدایی هستند، بنابراین لطفاً هنگام پاسخ دادن به آن توجه داشته باشید.
با فرض میانگین واقعی
26028
من سعی می‌کنم الگوریتمی ساده‌تر از الگوریتم‌های بهینه‌سازی غیرخطی معمولی برای طبقه‌بندی کننده بردار پشتیبان خطی ارائه کنم. ایده من این است 1. وقتی طبقه‌بندی‌کننده مشخص شد، تصمیم‌گیری بردارهای پشتیبان آسان است (داده‌ها طبقه‌بندی اشتباه + داده‌ها در نزدیکی صفحه تفکیک‌کننده). بنابراین الگوریتم من برای محاسبه طبقه‌بندی کننده بردار پشتیبان خطی مراحل زیر را تا زمان همگرایی تکرار می‌کند. 1. بر اساس بردارهای پشتیبانی داده شده، یک طبقه‌بندی خطی را آموزش دهید. با توجه به این واقعیت که این یک ایده کاملا واضح است، من فکر می کنم کسی باید قبلاً چنین کاری را انجام داده باشد. من علاقه مندم که چگونه ثابت کنم که الگوریتم در واقع منجر به همگرایی می شود. کسی مرجع یا سرنخی داره؟
استفاده از بهینه سازی های شرطی در آموزش الگوریتم طبقه بندی بردار پشتیبان خطی
115173
خوب، من خیلی تلاش می کنم با این مشکل ... اما دو تا از پاسخ های من اشتباه است. لطفا آن را بررسی کنید. یک نقاش 4 نیمکت برای نقاشی دارد. او دارای رنگ های زیر است: قرمز، زرد، سفید و سیاه. اگر (الف) یک رنگ را انتخاب کند به چند روش می توان نیمکت ها را رنگ کرد پاسخ 4 (ب) حداقل یک نیمکت رنگ متفاوتی دارد من 15 دارم اما پاسخ می گوید 31؟؟؟؟؟؟؟ (ج) همه نیمکت ها رنگ های مختلف دارند پاسخ 1 (د) حداقل 2 نیمکت باید قرمز رنگ شود من 11 دارم اما جواب می گوید 10؟؟؟؟؟؟؟؟؟؟ با تشکر در اسرع وقت پاسخ دهید لطفاً اوکی خداحافظ
آمار - ترکیبات
113316
در برازش یک مدل با چندین متغیر، روشی بسیار مفید یافتم که شامل به حداقل رساندن مربع چی با استفاده از رویکرد MCMC است. به طور خاص، من این آموزش را دنبال کردم http://sciencehouse.wordpress.com/2010/06/23/mcmc-and-fitting-models-to-data/ با این حال، نمی توانم منبع دیگری را پیدا کنم. از آنجایی که من از این روش برای یک کار علمی استفاده خواهم کرد، مایلم الف) مطمئن شوم که روش از نظر نظری درست است ب) منبعی با بررسی همتایان ذکر کنم. اجرای چندین شبیه‌سازی با مدل پیچیده (6/7 پارامتر) به من نشان داد که این مدل واقعاً خوب کار می‌کند و در بیشتر مواقع پارامتر را با یک خطای کوچک بازیابی می‌کند. به طور خاص، من در مورد استفاده از $exp(-\chi^2) $ برای احتمال مطمئن نیستم. آیا این توجیه دارد؟ من همچنین سعی کردم فقط با تقسیم قدیمی Chi2 با newChi2 نسبت را محاسبه کنم و نتایج دوباره رضایت بخش بود. آیا تفاوتی بین این دو روش وجود دارد؟ متشکرم
مدل مناسب با MCMC؟
24889
من از مدل خطی scikit Learn برای انجام رگرسیون رج استفاده می کنم. رگرسیون ریج پارامترها را برای دور شدن از صفر جریمه می کند. من می‌خواهم برای دور شدن از یک پیشین خاص جریمه کنم، با هر پارامتر قبلی متفاوت. آیا این با مدل خطی scikit Learn امکان پذیر است؟ من می دانم که یک ماژول BayesianRidge در آنجا وجود دارد، اما مطمئن نیستم که چه کاری انجام می دهد.
پیشین‌های Bayesion در رگرسیون پشته با مدل خطی scikit Learn
37796
من اخیراً با وب سایتی مواجه شده ام (http://www.surveysystem.com/sscalc.htm) که حجم نمونه را با توجه به ورودی های زیر برمی گرداند: سطح اطمینان، فاصله اطمینان و جمعیت. من فرض می‌کنم این کار با تنظیم مجدد یک آزمون فرضیه تحت یک CDF انجام می‌شود، حدس می‌زنم با استفاده از توزیع نرمال استاندارد؟ اما، اگر کسی باور نداشته باشد که داده‌ها این CDF خاص را منعکس می‌کنند، چگونه می‌توانید از bootstrapping استفاده کنید تا به نسخه‌ای از اندازه نمونه برسید که مبتنی بر داده است و به توزیع ~N(0,1) محدود نمی‌شود؟ علاوه بر این، من به این روش برای طبقه بندی یک نمونه علاقه مند هستم. کمک در مورد هر کدام، به خصوص پاراگراف اول، قدردانی خواهد شد.
محاسبه حجم نمونه لازم با استفاده از بوت استرپ
24882
آیا «معیارسازی» و «پس از لایه‌بندی» دقیقاً همان فرآیند را توصیف می‌کنند؟ مقاله ویکی‌پدیا در مورد معیارهای آماری ادعا می‌کند که این است. با این حال، مقاله مربوط به نمونه‌گیری به «پس طبقه‌بندی» نیز اشاره می‌کند، اما به «معیارسازی» پیوندی نمی‌دهد. شاید بجز طبقه بندی پسا طبقه بندی، کاربردهای دیگری نیز از محک زدن وجود داشته باشد؟
آیا معیارسنجی و پس از طبقه بندی معادل هستند؟
110412
می دانم که فرض نرمال بودن برای همه مدل های ARIMA ضروری نیست. سوال من این است که اگر سری زمانی غیر عادی داشته باشیم بهتر است با تبدیل هایی مانند باکس کاکس آن را به حالت عادی تبدیل کنیم و سپس در مدل استفاده کنیم؟ جوانب مثبت و منفی این تحول در مدل های ARIMA چیست؟
مزایای فرض نرمال بودن برای مدل های AR(I)MA چیست؟
37794
**زمینه** من این سوال را به دلیل بحثی که با سوالی از user697473 در اینجا دارم مطرح کردم. عنوان سوال وی «تعریف رسمی از انتساب تصادفی» است. او در این پست ادعا می‌کند که می‌توان تخمین‌های بی‌طرفانه‌ای از تفاوت اثر درمان به دست آورد، حتی اگر یک گروه که در جامعه حضور دارد نمونه‌گیری نشود. حداقل من این ادعا را تفسیر می کنم. او در اینجا به مقاله ای اشاره می کند که توسط دان روبین در مورد مدل سازی علّی نوشته شده است. هم او و هم StasK از طریق مثال هایی استدلال می کنند که این ادعا درست است. این موضوع در سوال دیگری که ایشان در اینجا مطرح کردند نیز مطرح شد. در آن پست با عنوان تکلیف تصادفی: چرا زحمت بکشید؟ گونگ ابراز تردید می کند. در سوال اول، پاسخ من شامل بیانیه‌ای بود به این مضمون که بدون نمونه‌برداری از تمام تخصیص‌های احتمالی یک عامل مخدوش‌کننده بالقوه، نمی‌توانید تخمینی از تفاوت در اثر درمان را بدون اختصاص نمونه‌هایی به هر لایه برای عامل مداخله‌گر بسازید. **مسئله** من در مورد ادعا سردرگم هستم. همانطور که من ادعا را تفسیر می کنم، مطمئن هستم که دروغ است. این ادعا توسط دو مثال ارائه شده توسط user697473 و دیگری توسط StasK پشتیبانی می شود. مثال‌ها برای من گیج‌کننده است و در هیچ‌یک از این دو مورد، دلیل یا اثباتی برای نشان دادن صحت ادعا ارائه نشده است. من ممکن است این ادعا را اشتباه تفسیر کنم اما بر اساس استیضاح من نادرست است. برای نشان دادن نظر من، اجازه دهید به یک مثال معروف از کتاب طراحی آزمایشات پدرخوانده تصادفی سازی سر رونالد ایلمر فیشر نگاه کنیم: بانوی مزه چای. اگر مثال را نمی‌دانید، آن را شرح می‌دهم و اصلاحی برای روشن شدن مثال ارائه می‌دهم. این خانم مدعی است که او این توانایی را دارد که فقط با چشیدن یک فنجان چای تشخیص دهد که چای اول ریخته شده یا شیر اول ریخته شده است. فیشر آزمایشی را برای آزمایش ادعای خود با ارائه چند فنجان با چایی که ابتدا ریخته شده و برخی دیگر با شیر ریخته شده در ابتدا ارائه می دهد. اگر بانو تخصص لازم را داشته باشد که ادعا می کند، بهتر از فردی که به طور تصادفی حدس می زند، می تواند انواع را به درستی تشخیص دهد. بنابراین آزمایش برای این طراحی شده است که ببیند آیا احتمال طبقه بندی صحیح او بهتر از 0.5 است یا خیر. بنابراین او به طور تصادفی فنجان های هر دو گروه را در اختیار خانم قرار می دهد (در مثال 6 فنجان 3 با شیر اول ریخته شده و 3 فنجان با چای ریخته شده است. حالا اجازه دهید آزمایش را کمی تغییر دهم. فرض کنید من سه مارک چای و برای جمعیت خود دارم. این مارک ها به طور مساوی در مهمانی های چای سرو می شوند. سوالی که می خواهم بپرسم این است که وقتی یک فنجان چای در یک مهمانی چای داده می شود می تواند پیش بینی کند که آیا ابتدا شیر ریخته شده است یا خیر. ابتدا چای ریخته شد. * برای من مهم نیست که آیا او می تواند مارک ها را متمایز کند یا نه. چای اول با احتمال 0.7 و می تواند ابتدا شیر را با احتمال 0.7 پیش بینی کند **مارک B** می تواند ابتدا چای را با احتمال 0.75 پیش بینی کند. **برند C** می تواند چای را ابتدا با احتمال 0.5 پیش بینی کند و می تواند ابتدا شیر را با احتمال 0.6 پیش بینی کند. بنابراین او بهتر از شانس با نام تجاری C انجام نمی دهد، اما می تواند بهتر از شانس با مارک های A و B انجام دهد. برای آزمایش، من فقط مارک های A و B را برای او ارائه می کنم تا بچشد. تنها چیزی که می‌خواهم بدانم توانایی او در پیش‌بینی درست در شرایط معمولی مهمانی چای است. **سوالات من** 1. آیا می توانم برآوردهای بی طرفانه ای از قابلیت های پیش بینی او با این آزمایش داشته باشم؟ 2. اگر پاسخ (1) منفی است، آیا ادعای user697473 نادرست است یا من آن را اشتباه تعبیر کرده ام؟ تصادفی سازی برای جلوگیری از سوگیری که توسط متغیرهای مخدوش کننده ایجاد می شود استفاده می شود. این در هنگام تلاش برای نتیجه گیری از یک نمونه به یک جامعه مهم است. در مثال من، برندها مخدوش کننده هستند. درمان چشیدن فنجان است. در جمعیت، برند A، B و C را در هر 1/3 مواقع دریافت می‌کند. اگر من این را بدانم و از برندهایی با احتمالات نابرابر نمونه برداری کنم، ادعا می کنم که اگر از یک نمونه تصادفی طبقه بندی شده با مجموع اقشار n$_1$ استفاده کنم، می توانم با در نظر گرفتن میانگین وزنی مشخصی از تخمین های نسبت ها، تخمین بی طرفانه ای از قابلیت های پیش بینی او داشته باشم. ، n$_2$ و n$_3$ همگی بزرگتر از 0 هستند. اما اگر n$_3$ = 0 باشد نمی توانم. علاوه بر این، وجود دارد تخمین دیگری نیست که من می توانم از نمونه ای محاسبه کنم که تخصیص به برند C برابر با 0 باشد که یک تخمین بی طرفانه خواهد بود.
چرا تخصیص تصادفی در نمونه گیری طبقه ای مهم است؟
87262
مدلی با بیان دو مولفه داده می شود: $$G_R(w) = \frac{k^2 w^{2\alpha} + k w^{\alpha}cos(\frac{\alpha \pi}{2}) } {1+k^2 w^{2\alpha}+2 k w^{\alpha}cos(\frac{\alpha \pi}{2})}$$$$G_I(w) = \frac{ k w^{\alpha}sin(\frac{\alpha \pi}{2}) }{1+k^2 w^{2\alpha}+2 k w^{\alpha}cos(\frac{\alpha \ pi}{2})}$$ که در آن $p = (k، \alpha)$، پارامترهای مدل هستند که برای برازش از طریق داده‌های تجربی $(w, G^*(w))$ مورد نیاز هستند. مختلط $G^*(w)$ به صورت $G^*(w) = G_Rdata(w) + iG_Idata(w)$ بیان می شود. یکی از روش‌های استاندارد برای تخمین پارامترها، روش حداقل مربعات غیرخطی با حداقل کردن خطای $$E(p)=\sum_{i=1}^{N}\left| G_R({w}_{i};p) -{ G_Rdata}_{i}\right|^2 + \left| G_I({w}_{i};p) -{ G_Idata}_{i}\right|^2 $$. با این حال، روال دیگری برای تخمین پارامترهای مدل وجود دارد، مثلاً ما فقط به یک معادله مدل نیاز داریم، به عنوان مثال، با به حداقل رساندن خطای $$\tilde{E}(p)=\sum_{i=1}^{N}\left| G_R({w}_{i};p) -{ G_Rdata}_{i}\right|^2 $$ برای به دست آوردن تخمین پارامترها، و در بیشتر موارد، ما یک تناسب عالی با بخش مؤلفه واقعی ایجاد می‌کنیم. از داده‌ها، و پیش‌بینی تکمیلی $G_I({w}_{i};p)$ را ارائه دهید. اگر از طریق روش دوم برازش ضعیفی داشته باشیم، با روش اول بهبود نمی یابد. آیا می توان گفت که دو رویکرد برای تخمین پارامترها عملکردی معادل دارند؟ آیا نظریه ریاضی خاصی در مورد این موضوع وجود دارد؟
تخمین پارامترها از طریق مدل های دو جزء
84123
فرض کنید مجموعه ای از داده ها از طول، عرض و ارتفاع یک جعبه مستطیلی دارید. چرا باید از انتشار خطا برای محاسبه std استفاده کنیم. توسعه دهنده از حجم جعبه؟ چرا نمی‌توانیم حجم مربوط به هر l/w/h را محاسبه کنیم و std را بگیریم. توسعه دهنده از آن؟
انتشار خطا در مقابل انحراف استاندارد
113313
اغلب می‌بینم که یادگیری عمیق و ماشین یادگیری افراطی با هم بحث شده‌اند. بر اساس دانش اندک من از موضوع، تصور من این است که آنها روش های مختلفی با اهداف متفاوت هستند. پس چه رابطه ای بین یادگیری عمیق و ماشین یادگیری افراطی وجود دارد؟ آیا مقاله مهمی وجود دارد که گم شده باشم و باید آن را بخوانم؟
چه رابطه ای بین یادگیری عمیق و ماشین یادگیری افراطی وجود دارد؟