_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
111992
فرض کنید من این مدل MA(1) را دارم: $y_t = \mu + \epsilon_t + \theta \epsilon_{t-1}$ با $\epsilon_t \sim \mathcal{N}(0,\sigma^2)$ توزیع حاشیه ای $y_t$ برای همه $t$ $\mathcal{N}(\mu,\sigma^2(1 + \theta^2))$ است اما نظریه کلاسیک می گوید که از آنجایی که متغیرهای $y_t$ مستقل نیستند، احتمال نمونه حاصل ضرب چگالی های حاشیه ای نیست. به جای آن باید از چگالی های شرطی استفاده کرد (با توجه به $\epsilon_0 = 0$): $y_1 \sim \mathcal{N}(\mu,\sigma^2)$ $y_2 \sim \mathcal{N}(\mu + \ تتا \epsilon_1،\sigma^2)$ $...$ $y_t \sim \mathcal{N}(\mu + \theta \epsilon_{t-1},\sigma^2)$ و این احتمال حاصل ضرب این چگالی های شرطی است، درست است؟ اکنون، من یک برنامه کوچک در R نوشتم که فرآیند MA(1) را شبیه‌سازی می‌کند و توزیع متغیرهای $y_t$ تولید شده را نشان می‌دهد: n = 100000 mu = 5 تتا = 3 سیگما = 2 y = rep(1, n) eps. 1 = 0 برای (t در 1:n) { eps = rnorm(1، میانگین = 0، sd = سیگما) y[t] = mu + eps + تتا * eps.1 eps.1 = eps } منحنی hist(y، احتمال = TRUE) (dnorm(x، میانگین = mu، sd = سیگما * sqrt(1 + تتا^2))، col = آبی، add = TRUE) و من متوجه شدم که توزیع مشترک $y_t$ $\mathcal{N}(\mu,\sigma^2(1) است + \theta^2))$. چطور؟
توزیع یک فرآیند MA(1).
108424
بگویید من در شرف دریافت 5 جایزه نقدی هستم و احتمال دریافت هر جایزه نقدی را دارم. بیایید مجموعه ای از جوایز نقدی را با $k$ نشان دهیم. بنابراین، مجموعه جوایز نقدی و مجموعه احتمالات مربوطه در زیر آمده است: $$k=\\{65,25,30,54,30\\}$$$$p(k)=\\{0.8,0.5 ,0.25,0.2,0.4\\}$$ بنابراین، ارزش مورد انتظار جوایز نقدی من است $$E[k]=65*0.8+25*0.5+30*0.25+54*0.2+30*0.4=94.8$$ بنابراین، سوال من این است: احتمال اینکه مجموع جوایز نقدی بیشتر باشد چقدر است از 85$؟ 90 دلار؟ **تلاش**: من به چیز معناداری نرسیدم. من نمی دانم که آیا سوال در وهله اول معتبر است یا خیر. با تشکر از کمک شما.
احتمال اینکه مجموع اعداد بالقوه بزرگتر از مقداری باشد
87510
من نتایج زیر را در R از تحلیل پواسون با ضریب تصادفی به دست آورده‌ام. مدل ترکیبی خطی تعمیم یافته برازش بر اساس حداکثر احتمال ['glmerMod'] خانواده: poisson ( log ) فرمول: فرکانس ~ 1 + insgen + Ageveh + ساخت + مساحت + (1 | ID) داده: پانل AIC BIC انحراف logLik 1099.9670 1134.926978354. تصادفی اثرات: نام گروه ها Variance Std.Dev. ID (Intercept) 1.551e-11 3.939e-06 تعداد obs: 584، گروه‌ها: ID، 584 جلوه‌های ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -22.98292 8432.07738 -0.003 0.9978 insgenM 0.02616 0.08806 0.297 0.7664 ageveho 0.05088886060. -0.10447 0.04126 -2.532 0.0113 * area1 23.68571 8432.07738 0.003 0.9978 area2 23.85969 8432.07738 0.003 0.007 0.003 0.003 0.007 0.003 8432.07738 0.003 0.9978 * * * Signif. کدها: 0 « ** _» 0.001 «**» 0.01 «_» 0.05 «.» 0.1 «» 1 همبستگی اثرات ثابت: (Intr) insgnM ageveh make area1 area2 insgenM 0.000 ageveho 0.000 -0.01 0.000 -0.01 مساحت 1 -1.000 0.000 0.000 0.000 مساحت2 -1.000 0.000 0.000 0.000 1.000 مساحت3 -1.000 0.000 0.000 0.000 1.000 0.000 1.000 1.000 مساحت شامل M. سطوح (منطقه 1،2،3،4) و سن خودرو (جدید و قدیمی) و ساخت خودرو.
چگونه نتایج حاصل از تجزیه و تحلیل ضرایب تصادفی پواسون را تفسیر کنیم؟
95294
یک مشکل درسی که توسط برخی ناشناخته ها در یک انجمن بحث ارائه شده است به شرح زیر است: به یک دانش آموز داده های مربوط به سن در هنگام مرگ رمان (67 امتیاز داده)، سن در هنگام مرگ شعر (32 امتیاز داده) و سن مرگ در داستان غیرداستانی داده شده است. 24 نقطه داده). سپس استاد خواست تا از روش های گرافیکی و عددی برای توصیف داده ها استفاده کند بدون اینکه بگوید چه نوع اطلاعاتی روی داده ها می خواهد. دانش آموز چه باید بکند؟ از استاد بپرسید واقعاً چه چیزی در ذهن اوست؟ آیا نمودارهایی از داده هایی که به او آموزش داده شده است؟ آیا تمرین‌های دوره باید به خوبی تعریف شوند یا معمول است که تنها در صورتی می‌توان دروس را گذراند که حدس بزند که مدرس می‌خواهد در پاسخ چه چیزی وجود داشته باشد؟
چه نوع تحلیلی باید در یک دوره انجام داد
31934
من سعی می کنم یک توزیع گامای معکوس سه پارامتری را به داده های خود در R یا Python تطبیق دهم. من می خواهم این کار را با استفاده از تخمین حداکثر احتمال (MLE) انجام دهم. پی دی اف گامای معکوس سه پارامتر به صورت زیر ارائه می شود: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/nOrUa.jpg) _جایی که Γ تابع گاما، ρ شکل، α است. مقیاس و s پارامتر مکان است_ من یک بسته R ندیدم که بتواند مستقیماً MLE را در این توزیع انجام دهد (اگر یکی را می شناسید، لطفاً به من اطلاع دهید!). بنابراین من فکر می‌کنم این یکی از این موارد را ترک می‌کند: * _(A) کار کردن تابع log-likelihood فرمول_ * _(B) تبدیل داده‌ها به توزیع گاما. با این حال، این توزیع فقط دو پارامتر دارد، بنابراین من نمی‌دانم چگونه پارامتر سوم را محاسبه کنم (من آدم ریاضی زیادی نیستم!). داده های من بسیار قدردانی خواهد شد! پیشاپیش سپاس فراوان
برآورد حداکثر احتمال توزیع گامای معکوس در R یا RPy
31930
من در مورد SOM و همچنین در مورد شبکه های Hopfield یاد می گیرم. من هنوز نمی‌دانم چرا از «SOM» به جای «Hopfield» و بالعکس استفاده می‌کنم. چه نوع مشکلاتی را باید با SOM حل کنم و کدام را با هاپفیلد؟
تفاوت بین SOM و هاپفیلد
93302
من تازه وارد آمار هستم و باید با استفاده از SPSS تجزیه و تحلیل تحقیقاتی انجام دهم. باید بدانم هدف از حذف نقاط پرت چیست؟ من می‌خواهم مجموعه داده‌هایم را که از طریق یک نظرسنجی ملی به دست آمده‌ام عادی کنم، اما چند متغیر وجود دارد که حتی اگر داده‌هایم را تغییر داده باشم، منحنی زنگی را نشان نمی‌دهند. log، ln، sqrt و غیره. من همه چیز را امتحان کردم. چه کار دیگری می توان کرد؟ من باید تحلیل رگرسیون چندگانه روی داده ها انجام دهم تا داده های آینده را پیش بینی کنم.
موارد پرت برای عادی سازی: آیا مهم است؟
22069
این یک سؤال مختصر است زیرا استاد من امروز در کلاس به آن اشاره کرد اما من کاملاً متوجه نمی شوم. چرا سوگیری متغیر حذف شده مشکل اصلی در تحلیل سری زمانی نیست؟
بایاس متغیر حذف شده در سری های زمانی
100961
بالابر روی چه داده هایی باید محاسبه شود یعنی مجموعه تمرین یا مجموعه تست و چرا؟ ارزش بالابر 115 درصد به چه معناست
بالابر روی چه داده هایی باید محاسبه شود یعنی مجموعه تمرین یا مجموعه تست و چرا؟
77705
سؤال من اساساً به شرح زیر است: توزیع قدر مطلق توزیع Skellam چگونه است. با تشکر
آیا قدر مطلق تفاوت بین دو توزیع پواسون توزیع پواسون است؟
100968
من در حال حاضر در حال تلاش برای پیش بینی داده های بازدیدکنندگان برای فروشگاه ها هستم. مجموعه داده من شامل مجموع بازدیدکنندگان روزانه سه ساله است. توجه داشته باشید که مجموعه داده کامل نیست (فروشگاه ها می توانند برای چند روز بسته شوند و غیره). من مجموعه داده را با داده های آب و هوا در روز و اطلاعات تعطیلات افزوده ام (در هر نقطه داده حدود 18 ویژگی دارم، از جمله روزهای هفته، ماه، تعطیلات، داده های آب و هوا). سوابق علوم کامپیوتر من شامل روش‌شناسی آماری زیادی نمی‌شود، بنابراین در یافتن اینکه کدام تکنیک‌ها را می‌توانم استفاده کنم/باید بررسی کنم، مشکل دارم. تمرکز من در حال حاضر روی پیش‌بینی 1 پیش‌بینی با یک شبکه عصبی ساده در pylearn2 است، اما پیش‌بینی‌هایی که من از آن خارج می‌شوم بسیار نادرست است. من می خواهم چند تکنیک دیگر را برای مقایسه و ارزیابی ارزیابی کنم. می‌توانم از برخی نکات در جهت‌های درست استفاده کنم، بنابراین می‌پرسم: کدام تکنیک‌ها را می‌توانم برای پیش‌بینی این اعداد بررسی کنم؟ و چگونه می توانم مشکل را برای افزایش موفقیت خود ساده کنم؟
انتخاب تکنیک پیش بینی مناسب
104043
سوال من مربوط به این سوال است. من روی آزمایشی کار می کنم که شامل انتقال داده ها بین مکان های مختلف در سراسر جهان از طریق اینترنت است. از آنجایی که اینترنت ممکن است شلوغ باشد، گاهی اوقات انتقال همان مقدار داده بیشتر از زمان های دیگر طول می کشد. تفاوت می تواند قابل توجه باشد، به عنوان مثال. برای 1 مگابایت داده، معمولاً 2 ثانیه طول می کشد تا انتقال داده شود، اما گاهی اوقات (حدود 1 از 20 بار)، می تواند تا 20 ثانیه یا بیشتر طول بکشد. من در حال مقایسه تنظیمات مختلف برای یک مشکل هستم. برای هر کدام، چندین بار اجرا می کنم و میانگین نتیجه یعنی زمان حل مشکل را می گیرم. با این حال، از آنجایی که در یک راه‌اندازی می‌تواند اتفاق بیفتد اما در دیگری اتفاق نیفتد، مقایسه من تحت تأثیر قرار می‌گیرد. بنابراین، در حال حاضر، برای هر تنظیم، M بار را انجام می‌دهم اما فقط میانگین N کوچک‌ترین نتایج را دریافت می‌کنم (N <M). همچنین قصد دارم روش خود را در مقاله بیان و توجیه کنم. بنابراین، سوال من این است که آیا روش من قابل قبول است و آیا باعث می شود مقاله من کمتر قابل اعتماد باشد؟ من همچنین علاقه مندم که چگونه به طور کلی با پرت تجربی رفتار می شود. من در CS کار می کنم، اما پاسخ از سایر زمینه ها استقبال می شود.
نحوه برخورد با موارد پرت در آزمایش
95297
فرض کنید ما مشاهداتی داریم $x_1 \dots x_n$ و نوعی چارچوب بیزی داریم که می‌خواهیم توزیعی را برای میانگین $\mu$ مشاهدات خود و واریانس $\sigma^2$ مشاهدات خود تخمین بزنیم (اینها سپس توزیع ها بر اساس مشاهدات بیشتر به روز می شوند). من 2 سوال دارم: 1) با قضیه حد مرکزی، برای $n$ بزرگ، $\hat{\mu} \sim N(\mu، \frac{\sigma^2}{n})$. بنابراین من به این فکر می کردم که از این به عنوان توزیع قبلی برای $\mu$ استفاده کنم. اگر قرار بود همین کار را برای واریانس انجام دهم، توزیع محدود کننده چقدر خواهد بود؟ 2) شاید بهتر باشد که بسیاری از زیرنمونه‌های $k$ از مشاهدات خود را انتخاب کنم، میانگین نمونه را در هر مورد محاسبه کنم و از آن به عنوان توزیع قبلی تجربی برای $\mu$ استفاده کنم (و همین کار را برای واریانس انجام دهیم) ? P.S. هرگونه پیوندی به اطلاعات بیشتر در مورد موضوع، قدردانی خواهد شد.
توزیع میانگین و واریانس
4671
من از یک روش انتخاب مدل خودکار، گام استفاده می کنم. مدل خروج (بزرگترین ممکن) یک چندجمله ای است، مثلاً از درجه 4. Depart<-lm(y~x+I(x^2)+I(x^3)+I(x^4)) Final<-step(Depart) باید مدل نهایی را به یک تابع مربوطه تبدیل کنم. چگونه می توانم این کار را انجام دهم؟
پاسخ: چگونه یک تابع از یک مدل ایجاد کنیم؟
70929
این یک پست طولانی است، بنابراین امیدوارم بتوانید با من تحمل کنید و لطفاً من را در جایی که اشتباه می کنم اصلاح کنید. _هدف من تولید یک پیش بینی روزانه بر اساس داده های تاریخی 3 یا 4 هفته ای است._ داده ها داده های 15 دقیقه ای بار محلی یکی از خطوط ترانسفورماتور است. در یافتن ترتیب مدل یک فرآیند ARIMA فصلی مشکل دارم. سری زمانی تقاضای برق را در نظر بگیرید: ![Original Time Series](http://i.share.pho.to/80d86574_l.png) هنگامی که 3 هفته اول به عنوان زیرمجموعه در نظر گرفته می شود و از هم جدا می شوند، نمودارهای ACF/PACF زیر محاسبه می شوند: ![زیر مجموعه](http://i.share.pho.to/5c165aef_l.png) ![اول تفاوت](http://i.share.pho.to/b7300cc2_l.png) ![تفاوت فصلی و اولی](http://i.share.pho.to/570c5397_l.png) به نظر می رسد این سریال یک جورهایی است ثابت اما فصلی بودن نیز می‌تواند هفتگی باشد (به تفاوت‌های فصلی هفته و تفاوت‌های مرتبه دوم مراجعه کنید [اینجا]http://share.pho.to/3owoq، نظر شما چیست؟) بنابراین بیایید نتیجه بگیریم که مدل به شکل زیر است: $$ ARIMA (p,1,q)(P,1,Q)_{96} $$ در شکل آخر یک جهش مشخص در تاخیر 96 یک جزء MA(1) فصلی را نشان می‌دهد (شاید AR(1) می تواند به همان اندازه باشد که یک افزایش مشخص در PACF نیز وجود دارد). سنبله ها در تأخیر 1:4 یک جزء MA(4) را نشان می دهد که با کمی تخیل با فروپاشی نمایی در PACF مطابقت دارد. بنابراین مدل اولیه انتخاب شده به صورت دستی می تواند این باشد: $$ ARIMA(0,1,4)(0,1,1)_{96} $$ با سری: x ARIMA(0,1,4)(0,1,1 )[96] ضرایب: ma1 ma2 ma3 ma4 sma1 -0.2187 -0.2233 -0.0996 -0.0983 -0.9796 s.e. 0.0231 0.0234 0.0257 0.0251 0.0804 sigma^2 تخمین زده شده به عنوان 364612: log likelihood=-15138.91 **AIC=30289.82 AICc=30289.87 BIC=303. (با گام به گام و تقریب روی TRUE، در غیر این صورت زمان زیادی طول می کشد تا همگرا شوند): $$ ARIMA(1,1,1)(2,0,2)_{96} $$ با سری: x ARIMA(1,1, 1)(2،0،2)[96] ضرایب: ar1 ma1 sar1 sar2 sma1 sma2 0.7607 -1.0010 0.4834 0.4979 -0.3369 -0.4168 s.e. 0.0163 0.0001 0.0033 0.0116 0.0216 0.0255 sigma^2 تخمین زده شده به عنوان 406766: log likelihood=-15872.02 **AIC=31744.99 AICc=317453.05. تفاوت اعمال می شود. در اینجا باقیمانده های هر دو مدل آمده است. آمار جعبه لیونگ مقدار p بسیار کوچکی را نشان می دهد، که نشان می دهد هنوز همبستگی خودکار وجود دارد (اگر اشتباه می کنم، مرا تصحیح کنید). ## پیش‌بینی بنابراین برای تعیین اینکه کدام بهتر است، آزمون دقت خارج از نمونه بهترین است. بنابراین برای هر دو مدل یک پیش بینی 24 ساعت قبل انجام می شود که با یکدیگر مقایسه می شود. نتایج عبارتند از: ![auto.arima](http://i.share.pho.to/5d1dd934_l.png) ![مدل دستی](http://i.share.pho.to/7ca69c97_l.png) خودکار : ME RMSE MAE MPE MAPE MASE ACF1 مجموعه آموزشی Theil's U -2.586653 606.3188 439.1367 -1.284165 7.599403 0.4914563 -0.01219792 NA مجموعه تست -330.144797 896.6998 754.0080 -7.749675 13.2689 13.268 0.70219229 1.617834 Manual ME RMSE MAE MPE MAPE MASE ACF1 Theil's U Training set 2.456596e-03 589.1267 435.6571 -0.7815229 7.50247 7.5014 -0.002034122 NA مجموعه تست 2.878919e+02 919.7398 696.0593 3.4756363 10.317420 0.7789892 0.731013599 1.2817# اولین سوالی است که می توانید در سه هفته فکر کنید. یک مجموعه داده من در ذهن خود با سؤالات زیر دست و پنجه نرم می کنم: 1. چگونه می توانم بهترین مدل ARIMA را انتخاب کنم (با آزمایش همه سفارشات مختلف و بررسی بهترین MASE/MAPE/MSE؟ که در آن انتخاب اندازه گیری عملکرد می تواند بحثی باشد. خود ..) 2. اگر برای هر پیش بینی روز جدید یک مدل و پیش بینی جدید ایجاد کنم (مانند پیش بینی آنلاین)، آیا باید روند سالانه را در نظر بگیرم و چگونه؟ (همانطور که در چنین زیرمجموعه کوچکی حدس من این است که روند ناچیز است) 3. آیا انتظار دارید که ترتیب مدل در سرتاسر مجموعه داده یکسان بماند، یعنی وقتی زیرمجموعه دیگری را انتخاب می کنم، همان مدل را به من می دهد؟ 4. راه خوبی در این روش برای کنار آمدن با تعطیلات چیست؟ یا آیا ARIMAX با آدمک های تعطیلات خارجی برای این مورد نیاز است؟ 5. آیا باید از رویکرد سری فوریه برای امتحان مدل‌هایی با «فصلی=672» استفاده کنم که در دوره‌های طولانی فصلی بحث شده است؟ 6. اگر چنین است، این مانند «fit<-Arima(timeseries,order=c(0,1,4), xreg=fourier(1:n,4,672)» خواهد بود (که در آن تابع fourier همانطور که در پست وبلاگ Hyndman تعریف شده است 7. آیا مولفه های اولیه P و Q در سری فویر گنجانده شده است رگرسیون خطی (پویا) برای مقایسه ## داده https://www.dropbox.com/sh/mzx61sskya5ze6x/Zq3A7Q6htH/trafo.txt # داده کد<-read.csv(file, sep. =;) load<-data[,3] حذف می کنم
مشکل در تعریف سفارش ARIMA
87514
آیا نمونه هایی از یادگیری ماشینی در رایانه های شخصی ما وجود دارد؟ تنها موردی که می شناسم برنامه تشخیص گفتار ویندوز است. منظورم هیچ افزونه ای نیست. منظور من همه برنامه های اساسی است که در اکثر رایانه های شخصی موجود است. **ویرایش:** هر مرجعی مفید خواهد بود.
نمونه هایی از یادگیری ماشین در رایانه های شخصی
71879
من یک شبیه‌سازی سریع را برای مقایسه روش‌های مختلف خوشه‌بندی اجرا می‌کنم و در حال حاضر در تلاش برای ارزیابی راه‌حل‌های خوشه‌ای به مشکل برخوردم. من معیارهای اعتبارسنجی مختلفی را می‌شناسم (بسیاری از آنها در ()cluster.stats در R یافت می‌شوند)، اما فرض می‌کنم اگر تعداد تخمینی خوشه‌ها در واقع با تعداد واقعی خوشه‌ها برابر باشد، بهترین استفاده از آن‌ها است. من می‌خواهم توانایی اندازه‌گیری عملکرد یک راه‌حل خوشه‌بندی را وقتی که تعداد صحیح خوشه‌ها را در شبیه‌سازی اصلی مشخص نمی‌کند، حفظ کنم (به عنوان مثال، چگونه داده‌های مدل راه‌حل سه خوشه‌ای که شبیه‌سازی شده‌اند برای داشتن یک خوشه ۴ خوشه‌ای خوب است. راه حل). فقط برای اطلاع شما، خوشه ها برای داشتن ماتریس های کوواریانس یکسان شبیه سازی شده اند. من فکر می کردم که واگرایی KL بین دو مخلوط گاوسی برای پیاده سازی مفید خواهد بود، اما هیچ راه حل بسته ای وجود ندارد (Hershey and Olson (2007)) و پیاده سازی شبیه سازی مونت کارلو از نظر محاسباتی گران تمام می شود. آیا راه حل های دیگری وجود دارد که پیاده سازی آنها آسان باشد (حتی اگر فقط به صورت تقریبی باشد)؟
فاصله بین دو مخلوط گاوسی برای ارزیابی راه حل های خوشه ای
104049
من تازه وارد CV هستم، پس لطفاً هر گونه تقلبی را ببخشید. من داده‌های نمونه را از یک جامعه جمع‌آوری کرده‌ام و می‌خواهم تشخیص دهم که آیا گروه آزمایش از گروه کنترل بهتر عمل می‌کند یا خیر. فرض کنید من 10000 مشاهده در گروه آزمایشی داشتم و 4500 موفقیت دیدم. این را هم بگوییم که من 47 درصد میزان موفقیت را در گروه کنترل خود مشاهده کردم (بنابراین اگر گروه کنترل من 5 درصد از کل حجم نمونه باشد، 235 موفقیت از 500 کارآزمایی خواهد بود). آیا من در استفاده و تفسیر موارد زیر حق دارم؟: prop.test(4500,10000,.47,alt=less) داده: 4500 از 10000، احتمال صفر 0.47 X-squared = 15.9776، df = 1، p-value = 3.205e-05 فرضیه جایگزین: p واقعی کمتر از 0.47 95 درصد فاصله اطمینان: 0.0000000 0.4582455 تخمین های نمونه: p 0.45 از آنجایی که p-value بسیار کمتر از 0.05 است، می توانم با خیال راحت این فرضیه صفر را رد کنم که گروه آزمایش به خوبی یا بهتر از گروه کنترل عمل می کند. همچنین می دانم که در 95 درصد مواقع، احتمال موفقیت برای گروه آزمایش بین 0 تا 45.8 درصد کاهش می یابد. همچنین، آیا تابع «prop.test» شاخص خوبی برای اندازه کافی نمونه است؟ اگر نه، چیست؟ با تشکر
استفاده از تابع prop.test R برای مقایسه زیر مجموعه های یک جمعیت
31243
آزمون‌های منتل معمولاً برای مقایسه فواصل ژنتیکی (مثلاً بین تعدادی از افراد) با فاصله‌های منظره واقعی یا فرضی بین همان افراد استفاده می‌شوند. به عنوان مثال، آیا فاصله خطی ساده با فاصله ژنتیکی مشاهده شده بهتر از فاصله ای مبتنی بر اجتناب از برخی ویژگی های چشم انداز (مانند توده های آبی، ارتفاعات بالا) همبستگی دارد؟ اطلاعات بیشتر در مورد جزئیات آزمایش را می توانید در اینجا بیابید: تجزیه و تحلیل فضایی در اکولوژی. سوال من، با این حال، به استفاده از روش های انتخاب مدل AIC و مدل برای انتخاب بین مدل های رقیب برای فواصل منظره مربوط می شود. به عنوان مثال، اگر فواصل ژنتیکی را بدانید، ممکن است 3 مدل مختلف را برای ایجاد فواصل منظر فرض کنید: 1. فاصله خطی 2. فاصله بر اساس اجتناب از ارتفاع زیاد 3. فاصله بر اساس اجتناب از ارتفاع زیاد و توده های آبی در حال حاضر، یکی از این موارد را انتخاب کنید. مدل‌های مبتنی بر نتیجه آزمایش‌های Mantel کمی _ad hoc_ بوده است - اساساً در مقایسه با بزرگی $r$ و فواصل اطمینان Mantel برای هر مدل. من می خواهم از یک چارچوب انتخاب مدل AIC/مدل برای این کار استفاده کنم، اما به نظر می رسد چند مشکل وجود دارد: 1. به من توصیه شده است که به دلیل عدم استقلال در ساختار داده (یعنی $ وجود ندارد n(n-1)/2$ مشاهدات مستقل)، AIC مناسب نخواهد بود. یک مسئله مرتبط این است که چگونه $n$ برای AIC در این مورد محاسبه می شود؟ 2. فکر اولیه من این بود که مدل 3 دارای پارامترهای بیشتری نسبت به مدل های 2 یا 1 خواهد بود و بنابراین $K$ در محاسبه AIC منعکس کننده آن خواهد بود. اما، اکنون به نظر من واضح است که چون ورودی‌ها صرفاً دو ماتریس هستند، تعداد پارامترها در همه مدل‌ها برابر است (بدون توجه به تعداد متغیرهایی که برای ایجاد مقادیر فاصله چشم‌انداز زیرین استفاده می‌شوند)، و بنابراین احتمالاً AIC این کار را نخواهد کرد. چیزی بیشتر از مقادیر خام $r$ از آزمون Mantel به شما بگویم. بنابراین، سؤالات من این است: * آیا کسی می تواند شماره 1 (بالا) را تأیید کند؟ آیا راهی برای دور زدن این موضوع وجود دارد؟ به من توصیه شده است که نوعی AIC ممکن است توسعه یابد، اما باید عدم استقلال مشاهدات را منعکس کند. * آیا مشاهده من در شماره 2 (بالا) صحیح است؟ یعنی آیا $K$ در فرمول AIC همیشه برای یک سری از تست های Mantel یکسان خواهد بود؟ * راه حلی برای این موضوع چیست؟ یکی از مواردی که مورد استفاده قرار می گیرد رگرسیون ماتریس چندگانه با نوعی انتخاب (به عنوان مثال، گام به گام)، برای شناسایی بهترین ترکیب از متغیرها برای گنجاندن در محاسبه فاصله چشم انداز، قبل از اجرای آزمایش های نهایی Mantel است. اما، حدس می‌زنم که این رویکرد به طور کلی بسیاری از مشکلات مشابه را با رگرسیون گام به گام دارد، و اینکه چرا روش‌های AIC برای انتخاب مدل مورد استقبال قرار گرفته‌اند. می دانم که این یک پست طولانی و پیچیده بود، اما از هر نظری متشکرم!
AIC با تست های Mantel
80730
من یک مجموعه داده متشکل از 5000 جمله دارم. من باید PMI را بین 3 گرم تا 5 گرم در این مجموعه داده محاسبه کنم. به عنوان مثال: > 5 گرم است: $x_1$$x_2$$x_3$$x_4$$x_5$ > > و 3 گرم است: $x_2$$x_3$$x_4$ چگونه می توانم PMI را محاسبه کنم($ x_2$$x_3$$x_4$، $x_1$$x_2$$x_3$$x_4$$x_5$) در این مجموعه داده است؟ فرمول دقیق چیست؟ تا آنجا که من می دانم، برای محاسبه PMI(y,z)، باید این تعداد را در مجموعه داده پیگیری کرد: > Count(y,z) --> تعداد تکرارهای y و z. > > Count(i,z) --> تعداد دفعات z > > Count(y,i) --> تعداد دفعات y > > N --> حجم نمونه فرمول نهایی این است: > $ PMI(y,z) = \frac{Count(y,z)N}{Count(i,z)Count(y,i)}$ در زمینه مشکل من، این تعداد به صورت زیر فهرست شده است: > $Count_1$($x_2$$ x_3$$x_4$, $x_1$$x_2$$x_3$$x_4$$x_5$): همه موارد > دقیقاً 5 گرم $x_1$$x_2$$x_3$$x_4$$x_5$ > > $Count_2$(i, $x_1$$x_2$$x_3$$x_4$$x_5$) : همه موارد دقیقاً 5 گرم > $x_1$$x_2$$x_3$$x_4$$x_5$ !!!!! > > $Count_3$($x_2$$x_3$$x_4$, i) : همه رخدادهای 5 گرمی به شکل _ > $x_2$$x_3$$x_4$ _ ، که اولین و آخرین است کلمات با > همه کلمات ممکن در مجموعه داده جایگزین می شوند. > > $N$ : همه 3 گرم. !!!!! مشکل من با $Count_2$ و $N$ است. همانطور که می بینید، $Count_2$ برابر است با $Count_1$. آیا معقول است؟ و من در مورد نحوه شمارش $N$ مطمئن نیستم.
محاسبه اطلاعات متقابل نقطه ای بین دو رشته
5147
هنگام تلاش برای یافتن حالت یک تابع غیرمنفی $f$ (یعنی به حداکثر رساندن تابع)، یکی از راه‌های انجام آن، نمونه‌برداری از تابعی است که به‌عنوان یک چگالی غیرعادی از برخی توزیع‌ها از طریق MCMC مشاهده می‌شود. فرض کنید از طریق این روش دنباله‌ای طولانی از نمونه‌ها داشته‌ایم، می‌خواستم بدانم چگونه حالت را از نمونه‌ها تعیین کنیم؟ به طور خاص، همانطور که می دانیم قسمتی که از انتهای دنباله گرفته شده است تقریباً تابع توزیع مربوط به تابع هدف $f$ فرض می شود. تا آنجایی که قبلاً فکر کردم، ممکن است دو انتخاب برای تخمین حالت تابع وجود داشته باشد: 1. آخرین نمونه را در دنباله اصلی بگیرید، 2. یک دنباله کوچک از انتهای دنباله اصلی بگیرید و ارزیابی کنید. تابع f بر روی هر نمونه در دنباله بعدی و یکی را با حداکثر مقدار تابع انتخاب کنید. من انتخاب اول را از یادداشت کلاسم دیدم، اما دومی اولین فکر من قبل از نگاه کردن به یادداشت بود. بنابراین من فکر می کردم چه انتخابی برای حالت تابع هدف ممکن است معقول یا بهتر باشد و چرا؟ آیا ممکن است مرجعی در این مورد داشته باشید؟ لازم نیست دامنه خود را به دو موردی که قبلاً ذکر کردم محدود کنید. با تشکر و احترام!
یافتن حالت یک تابع با نمونه گیری MCMC
93303
فرض کنید یک مدل خطی «Model1» داریم و «vcov(Model1)» ماتریس زیر را به دست می دهد: (برق) عرض جغرافیایی دریا. فاصله ارتفاع (برق) 28.898100 -23.6439000 -34.1523000 0.507390606 - عرض جغرافیایی 0.507390600 19.7032500 28.4602500 -0.42471450 دریا.فاصله -34.152300 28.4602500 42.4714500 -0.62612550 ارتفاع 0.507904 - 0.507904 -1414 0.00928242 برای این مثال، این ماتریس در واقع چه چیزی را نمایش می دهد؟ چه فرضیاتی می توانیم برای مدل خود و متغیرهای مستقل آن داشته باشیم؟
تفسیر ماتریس واریانس-کوواریانس
70286
من اخیراً مقاله ردیابی بصری بازدیدکنندگان انسانی تحت شرایط نور متغیر برای نصب هنر صوتی پاسخگو را خوانده ام، A. Godbehere, A. Matsukawa, K. Goldberg, American Control Conference, مونترال, ژوئن 2012. در صفحه 4 می گوید: > با استفاده از فرض I-C5، اجازه می دهیم $p(f|F) = 1-p(f|B)$ [$f$ ویژگی محاسبه شده است و $F$ مخفف پیش زمینه، $B$ برای پس زمینه] است. فرض I-C5 در صفحه 3 آورده شده است. جمله نقل شده با هر فرضی که باشد بی معنی است. سپس $p(f|F)$ در رابطه زیر جایگزین می‌شود، از قبل در همان صفحه (که فقط قانون بیز است): > $$p(B|f) = \frac{p(f|B) p(B)}{p(f|B)p(B) + p(f|F)p(F)}$$ و نتیجه نهایی بولی از یک آستانه در فرمول بالا می آید، جایی که $p(F) $ و $p(B)$ پارامترهای قابل تنظیم هستند (اکنون واقعاً $p(F) = 1- p(B)$ است). من گمان می کنم که نویسندگان متوجه شده اند که این رویکرد کارآمد است و آن را پذیرفته اند. شاید راه درست برای ادامه، ثابت کردن یک p(f|F) ثابت باشد، زیرا توزیع یکنواخت موقعیتی را مدل می‌کند که هیچ راهی برای شناخت آن نداریم، و بنابراین تبدیل به یک پارامتر قابل تنظیم جدید خواهد شد. مانند فرضی که نویسندگان ارائه کردند، یک تابع افزایشی، $p(B|f)$، از متغیر $p(f|B)$ با چند ثابت داریم. این معادل رویکرد فوق است اما با انتخاب متفاوت پارامترها و آستانه متفاوت. نظری در مورد آن دارید؟
خطا در مقاله با احتمال شرطی؟
87300
وقتی باید پیش‌بینی کنیم، کتاب‌ها به ما می‌گویند که روش اصلی، مدل میانگین متحرک اتورگرسیو است. به نظر من ابزار بزرگ دیگری وجود دارد، شبکه عصبی پیشخور (FFNN). بنابراین من فکر می‌کنم که می‌توانیم از دو ابزار اصلی استفاده کنیم: * میانگین متحرک خود رگرسیون * شبکه عصبی پیش‌خور البته باید تفاوت‌هایی وجود داشته باشد، اما من متخصص نیستم. چه کسی با داشتن تجربه کافی در این دو روش می تواند تفاوت این دو روش در پیش بینی را برای من توضیح دهد؟
میانگین متحرک اتورگرسیو یا شبکه عصبی پیشخور
124
من یک برنامه نویس بدون پیشینه آماری هستم و در حال حاضر به دنبال روش های مختلف طبقه بندی برای تعداد زیادی اسناد مختلف هستم که می خواهم آنها را به دسته های از پیش تعریف شده طبقه بندی کنم. من در مورد kNN، SVM و NN مطالعه کرده ام. با این حال، من برای شروع کمی مشکل دارم. چه منابعی را پیشنهاد می کنید؟ من حساب دیفرانسیل و انتگرال تک متغیره و چند متغیره را به خوبی می دانم، بنابراین ریاضیات من باید به اندازه کافی قوی باشد. من همچنین صاحب کتاب بیشاپ در مورد شبکه های عصبی هستم، اما ثابت شده است که به عنوان مقدمه کمی متراکم است.
طبقه بندی آماری متن
45824
ساختار داده های من به این صورت است: 'data.frame': 50 obs. از 3 متغیر: * پروژه : فاکتور w/ 2 سطح A،B: 1 1 1 1 1 * x: int 2 2 2 6 4 4 4 6 4 ... * y: num 0.622 0.425 0.363 0.344 0.346 ... من داده ها را ضمیمه کرده ام و هر دو سطح را در خود رسم کرده ام نمودار پراکندگی با استفاده از: plot(x,y,pch=as.numeric(Project)) TSF<-x[order(x)] SD<-y[order(x)] و یک رگرسیون غیر خطی به داده nls_fit برازش داد <- nls(SD ~ a - (b*TSF)+ ((c*TSF)^(2))، start = list(a = 0.34, b = 0.017، + c = 0.0003)) خطوط (TSF، پیش بینی(nls_fit)، col = قرمز) این به خوبی کار می کند... اما چگونه می توانم این معادله را تنها با عامل A داده ها تطبیق دهم؟ من در این کار خیلی تازه کار هستم، بنابراین اگر وقت کافی دارید، خیلی خوب خواهد بود که بتوانید هر کدی که می نویسید چه کاری انجام می دهد. ممنون کریس
چگونه می توانم یک رگرسیون غیر خطی را تنها به یک سطح عامل در نمودار پراکندگی خود منطبق کنم؟
85418
من سعی می کنم مشکلی را در JMP انجام دهم، اما من تازه وارد برنامه هستم و آن را کاملاً درک نمی کنم. فکر می کنم نزدیکم، اما باید در جهت درست به من اشاره کرد. مشکل اینجاست: > یک آزمون استاندارد برای ادراک فراحسی (ESP) از آزمودنی‌ها می‌خواهد که تشخیص دهند کدام یک از چهار شکل (دایره، مربع، الماس، یا امواج) در جلوی کارت است که توسط آزمایش‌کننده مشاهده می‌شود اما نه موضوع فرض کنید که یک > آزمودنی با 20 عدد از این کارت ها امتحان می دهد (هر کارت به یک اندازه یکی از چهار شکل را نشان می دهد). در این تحقیق، ما بر تعداد > تعداد شناسایی صحیح انجام شده در 20 کارآزمایی تمرکز خواهیم کرد. > > الف از توزیع دوجمله ای استفاده کنید تا احتمال اینکه یک موضوع حدس زده 7 یا بیشتر درست شود را پیدا کنید. چگونه با استفاده از احتمال دو جمله ای در JMP، احتمال 7 یا بیشتر را بدست آورید؟ در اینجا یک اسکرین شات از کارهایی که من تاکنون در JMP انجام داده ام است. مقادیری که من استفاده کردم 20 برای N و 0.25 برای pi بود: ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/WhBCe.jpg) آیا آنچه من تا کنون درست به نظر می رسد؟ از اینجا کجا برم؟
احتمال دو جمله ای در JMP
87305
آیا مرجعی (کتاب/مقاله) می شناسید که به طور سیستماتیک رابطه بین وظایف تقریبی و رگرسیون را شرح دهد؟ من می دانم که، اگرچه این اصطلاحات از جهان های مختلف - نظریه عملکردی و آمار سرچشمه می گیرند، آنها معمولاً به جای هم استفاده می شوند، اما من واقعاً به تعاریف و تفاوت های دقیق علاقه مند هستم.
تفاوت بین وظایف رگرسیون و تقریب
5149
من مقداری داده سری زمانی دارم و می خواهم وجود و تخمین پارامترهای یک روند خطی را در یک متغیر وابسته w.r.t آزمایش کنم. زمان، یعنی زمان متغیر مستقل من است. نقاط زمانی را نمی توان تحت عنوان بدون روند در نظر گرفت. به طور خاص، عبارات خطا برای نقاط نمونه برداری شده در نزدیکی یکدیگر در زمان همبستگی مثبت دارند. شرایط خطا برای نمونه‌هایی که در زمان‌های به‌اندازه کافی متفاوت به‌دست‌آمده‌اند، می‌توانند برای همه اهداف عملی، IID در نظر گرفته شوند. من مدل مشخصی از نحوه همبستگی عبارات خطا برای نقاط نزدیک به یکدیگر در زمان ندارم. تنها چیزی که از دانش دامنه می دانم این است که آنها تا حدودی همبستگی مثبت دارند. به غیر از این موضوع، من معتقدم که مفروضات رگرسیون خطی حداقل مربعات معمولی (هماهنگی، خطی بودن، شرایط خطای معمولی توزیع شده) برآورده می شوند. ماژول موضوع خطای مرتبط، OLS مشکل من را حل می کند. من در برخورد با داده های سری زمانی کاملاً مبتدی هستم. آیا در این شرایط راه استاندارد وجود دارد؟
تعیین اهمیت روند در یک سری زمانی
87308
من می خواهم برخی از داده ها را با درخت رگرسیون تقویت شده مدل کنم تا این کار را انجام دهم، باید یک عملکرد ضرر تعریف کنم. به عنوان یک متغیر پاسخ، داده های شمارش را دارم. بنابراین من فرض می کنم که یک توزیع سم. با این حال، متغیر پاسخ من توزیع نشده است. در جایی خواندم که برای داده‌های شمارش می‌توانم توزیع گاوسی یا لاپلاسی را نیز در نظر بگیرم. کسی می تواند به من راهنمایی کند و شاید تفاوت بین هر سه تابع ضرر را توضیح دهد؟ با سلام
برای کدام تابع ضرر؟
45826
من مجموعه‌ای از مجموعه داده‌ها را به عنوان داده‌های مرجع دریافت کردم که هر کدام از 14 متغیر غیر مستقل تشکیل شده است که قرار است به عنوان مبنایی برای توسعه روشی برای محاسبه داده‌هایی از این نوع با منابع محاسباتی کمتر استفاده شود. بنابراین اساسا مجموعه ای از نقاط در فضای 14 بعدی. کاری که من باید انجام دهم این است که روش جدید خود را پارامتری کنم تا داده های خروجی، دوباره در فضای 14 بعدی، تا حد امکان با داده های مرجع مطابقت داشته باشد. من یک تجزیه و تحلیل مؤلفه اصلی انجام داده ام، که ابر نقطه 14 بعدی من را به مجموعه ای از 5 تابع خطی کاهش می دهد که شامل 98 درصد واریانس داده های مرجع من است. چیزی که اکنون به دنبال آن هستم راهی برای تولید نوعی اندازه گیری است که به من می گوید داده های جدید چقدر با داده های مرجع مطابقت دارند، چه با استفاده از مجموعه داده های اصلی یا توابع خطی مشتق شده از PCA. و این همان جایی است که دانش من در حال حاضر به پایان می رسد، بنابراین از اشاره گرهایی به سمت روش های خوب برای استخراج چنین معیاری تا چه اندازه داده های جدید با داده های مرجع مطابقت دارد از هر نوعی که بتوانم به عنوان معیار برای پارامترهای خود استفاده کنم سپاسگزار خواهم بود.
روش خوبی برای اندازه گیری میزان تناسب مجموعه ای از داده ها با مجموعه ای از توابع چیست
87304
من باید دو نمونه ($n_1=10، n_2=18$) را در طرحی تجزیه و تحلیل کنم که در آن یک عامل بین موضوعی (گروه‌ها: 2 سطح) و یک عامل درون موضوعی (محرک‌ها: 2 سطح) وجود دارد. ). نمی‌دانم در چنین شرایطی، با توجه به اندازه نمونه‌های کوچک و نامتعادل، یک ANOVA مختلط (بین/داخل) موجه است؟ قانون کلی برای ANOVA حداقل 30 موضوع برای سلول است، من می دانم، اما اغلب مقالاتی را می خوانم که در آنها از ANOVA برای نمونه های کوچکتر استفاده شده است. **آیا کسی می تواند بهترین تمرین را برای این وضعیت به من پیشنهاد دهد؟ آیا چنین تحلیلی در این زمینه در یک فرآیند انتشار قابل دفاع است؟**
ANOVA مخلوط: نمونه های کوچک و نامتعادل
49442
من اخیراً علاقه زیادی به یادگیری آمار بیزی داشته‌ام، اما فقط کمی پیشینه در آمارهای فراوانی دارم، فقط یک ترم در دانشگاه. برخی از کتاب‌هایی که من دیده‌ام، دارای گرایش بسیار ریاضی هستند، مانند: * نظریه بیزی، خوزه برناردو. احتمالات و آمار، دگروت (این در واقع کتاب خوبی است، اما بین فصل‌های مثال‌ها بیش از حد پرش می‌کند و روند خواندن را در تمام کتاب بسیار متوالی می‌کند) موضوعاتی که می‌خواهم یاد بگیرم عبارتند از: * استنتاج بیزی. * تولید نمونه های مستقل از توزیع ها. * ادغام مونت کارلو، نمونه گیری اهمیت. * توزیع خلفی با ربع عددی یا بسط لاپلاس. * روش‌های MCMC: نمونه‌گیری گیبس و متروپلیس-هیستینگ. * روش های متغیر کمکی در MCMC. * الگوریتم EM. * استنتاج چند مدل. * نظریه MCMC. من سعی کردم چیزی در Coursera پیدا کنم اما هیچ چیز. چه کتاب ها یا دوره های آنلاینی را پیشنهاد می کنید؟
توصیه هایی برای احتمال یادگیری و آمار بیزی؟
128
به زبان انگلیسی ساده، چگونه می توان طرح بلاند-آلتمن را تفسیر کرد؟ مزایای استفاده از نمودار بلند آلتمن نسبت به سایر روش های مقایسه دو روش اندازه گیری مختلف چیست؟
چگونه می توان طرح بلند-آلتمن را تفسیر کرد؟
113840
فرض کنید من یک آمار دارم (مثلاً یک شاخص قیمت) و می خواهم خطاهای استاندارد را برای آن بدست بیاورم. من شنیده ام که استفاده کور بوت استرپ ممکن است عمل خوبی نباشد. اگر درست است 1- اگر من فقط بوت استرپ ناپارامتری را اعمال کنم و خطاهای استاندارد را برای ایندکس خود به دست بیاورم چه مشکلی می تواند پیش بیاید؟ 2- اگر مشکلی ندارد، آیا خطاهای استاندارد منتج از ناهمگونی، همبستگی سریال و غیره قوی هستند؟ متشکرم
آیا در کاربرد خودسرانه بوت استرپ مشکلاتی وجود دارد؟
83189
آیا مکان خوبی برای شروع ورود به آمار بیزی وجود دارد؟ من یک دانشجوی کارشناسی ارشد علوم اجتماعی هستم، با مقدار مناسبی از کلاس های آماری، اما به دور از تسلط هستم. هر مرجعی بسیار قدردانی خواهد شد. با تشکر
ارجاعات بیزی
5144
من آزمایشی با هر تعداد ممکن (معقول) پارامتر (متغیرهای مستقل) دارم. من آزمایش را چندین بار برای هر ترکیب ممکن از متغیرهایم اجرا می کنم. داده هایی که من دریافت می کنم به طور کلی عددی خواهد بود. با این حال من چیزی نمی دانم (و هر فرضی دشوار است) در مورد توزیع داده هایم. چیزی که من به آن علاقه دارم معیاری است که نشان می دهد پارامترهای من چقدر داده هایی را که به دست می آورم پیش بینی می کنند. از کدام آمار استفاده کنم؟ چگونه آن را محاسبه کنم (با دست، پیوند به یک آموزش بسیار شیرین خواهد بود)؟ ### ویرایش من سعی می کنم این مشکل را تا حد امکان به طور کلی حل کنم (از این رو توضیحات کمی غیر خاص) برای نرم افزاری که روی آن کار می کنم. برای روشن تر شدن کمی مثال: من این پارامترها را دارم: decay: 0.1 | 0.2 | 0.3 ذرات: 10 | سرعت 100: 30 | 70 این 12 ترکیب می دهد (3 * 2 * 2) و من متغیر وابسته خود (مثلاً دما) را برای هر ترکیب پنج بار اندازه می‌گیرم. بنابراین مجموعه داده نهایی من 60 اندازه گیری دما خواهد داشت. حالا فرض کنید که درجه حرارت در واقع با: $t = K(0.3v + 0.6d + \varepsilon)$ که $t$ دما است، $K$ مقداری ثابت، $v$ سرعت است، $d$ فروپاشی است. و $\varepsilon$ نوعی اثر تصادفی است. ذرات کاملاً با دمای اندازه گیری شده ارتباطی ندارند. اکنون می‌خواهم آزمایشی انجام دهم که به من بگوید سرعت اثر 0.3 ~، فروپاشی ~ 0.6 و ذرات ~ 0 اثر دارد. با این حال ممکن است متغیرهای کم و بیش و اندازه گیری های کم و بیش داشته باشم.
آزمون مناسب برای نتیجه آزمایش چند متغیره با توزیع ناشناخته
95292
می‌خواستم ببینم آیا کسی می‌تواند توضیح دهد که چگونه می‌توانم پاسخ را محاسبه کنم. بسیار قدردانی خواهد شد.
یک آزمایش بالینی به اشتباه 50/150 مثبت کاذب و 23/150 منفی کاذب را شناسایی کرد. تعداد مثبت و منفی واقعی را محاسبه کنید.
70866
من یک مشکل مدلینگ دارم. من در حال ایجاد مدلی هستم که تلاش می کند تقاضا (سرنخ نه فروش) را بر اساس همبستگی با هزینه تبلیغات پیش بینی کند. ما می دانیم که بدون هزینه تبلیغات، تقاضا به دلیل فصلی بودن هدایت می شود. بنابراین مدل های ما شامل فاکتورهای فصلی مانند ماه سال و حتی روز هفته است. اگر من یک مدل رگرسیون خطی منظم می ساختم، یک مدل رگرسیون خطی را در مجموعه داده های آموزشی قرار می دادم تا تخمینی از ضرایب عوامل فصلی و هزینه های تبلیغاتی برای تقاضا بدست آوریم. برای به دست آوردن تخمینی از تقاضای پایه آینده، من تقاضا را با استفاده از تمام ضرایب مدل پیش‌بینی می‌کنم و سپس با تنظیم مقدار adspend برابر با صفر، یک خط پایه را تخمین می‌زنم. برای مدل های ARIMA، فاکتورهای اضافی مانند اصطلاحات AR و MA وجود دارد. آیا با تنظیم ضریب هزینه تبلیغات برابر با صفر، خط پایه خود را به همین ترتیب تخمین می زنم؟ برای هر فکری متشکرم
پیش بینی پاسخ پایه با استفاده از پیش بینی های ARIMA
87307
من از R برای تجزیه و تحلیل یک مجموعه داده بسیار بزرگ استفاده می کنم. من یک PCA را روی یک مجموعه داده انجام می‌دهم، PCA <- prcomp (فرمول = ~.، داده = قطار، مقیاس = T، na.action=na.exclude) و سپس می‌خواهم PCA را روی مجموعه داده دیگری اعمال کنم، test_rot <- داده. فریم (پیش‌بینی (PCA,test,na.action=na.omit)) این کار می‌کند اما نسبتاً حافظه فشرده است و من واقعاً فقط به اولین N مؤلفه اصلی علاقه‌مندم (مثلا: 50). آیا راهی برای پیش‌بینی 50 کامپیوتر اول در خط دوم کد وجود دارد؟
فقط اولین N جزء اصلی را در یک تجزیه و تحلیل PCA پیش بینی کنید
31240
من باید دقت مدل‌سازی سری‌های زمانی و تکنیک‌های شبکه عصبی را مقایسه کنم. همانطور که همه ما می دانیم، مجموعه داده های بزرگ برای شبکه های عصبی مورد نیاز است. از آنجایی که من در حال مقایسه هر دو تکنیک هستم، باید اندازه یکسانی را برای هر دو در نظر بگیرم. من 5 سال نرخ ارز روزانه برای آنالیز دارم. نمودار سری زمانی نرخ ارز روزانه 5 ساله که روندهای مثبت و منفی را نشان می دهد در زیر بازتولید شده است. ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/ovbST.png) بنابراین، سوال من این است: آیا می توانم یک مدل سری زمانی واحد را برای کل مجموعه داده قرار دهم؟ اگر نه، روش تطبیق مدل سری زمانی با چنین داده‌هایی چگونه است؟ من شنیده ام که یک مجموعه داده را می توان به نمونه های فرعی تقسیم کرد. اگر بله روش انجام نمونه برداری از مجموعه داده های اصلی چیست؟
چگونه یک مدل سری زمانی را برای یک مجموعه داده بزرگ مناسب کنیم؟
83811
من یک توزیع $x\sim\text{نمایی}(\lambda)$ دارم و می دانم که $\hat{\lambda}=\bar{x}$ و اطلاعات فیشر $\lambda^{-2}$ است . اکنون، باید از «R» برای تولید داده‌های این توزیع با $\hat{\lambda}=1$ استفاده کنم و پوشش CI نمونه را به عنوان تابعی از اندازه نمونه برای اندازه‌های نمونه مختلف با استفاده از 1000 رسم کنم. نمایندگان مونت کارلو تمام چیزی که تا به حال برای `R` دارم این است: x=rexp(25,1) > x [1] 0.14576099 0.78689809 0.56063641 1.70545364 0.40507393 0.2222962112 [7] 0.222296112 [7] 0.19580686 2.14139285 0.30020825 1.04155197 0.11201061 [13] 0.11249431 4.12707736 0.35781892 0.35781895 0.46469 2.35163544 [19] 0.23481295 0.54353838 0.34712200 0.71332001 0.55924596 0.50507862 [25] 0.41173838 > t. [1] 2.063899 > mu<-mean(x) > mu [1] 0.8370219 > sig<-sqrt(var(x)) > sig [1] 0.9603002 > hist(x) من نمی دانم چگونه این CI ها را ایجاد کنم در R.
رسم پوشش فاصله اطمینان به عنوان تابعی از حجم نمونه با استفاده از مونت کارلو در R
18906
به لینک زیر برخوردم http://stackoverflow.com/questions/2764116/tag-generation-from-a-small-text- content-such-as-tweets سوال این است که چگونه به طور خودکار برچسب را به توییت ها اختصاص دهیم، در پاسخ پیشنهاد می شود که از pointwise mutual استفاده کنیم. اطلاعات، با این حال، سوال من این است که آیا چگونه می توانیم به آن دست یابیم؟ اگر 1000 توییت منحصر به فرد و 100 تگ منحصر به فرد داشته باشیم، احتمال هشتگ $x$ در توییت $y$ $p(x,y) = 1$، $p(x) = 1/1000$ و $p(y ظاهر می شود. ) = 1/1000 دلار همیشه باقی می ماند، درست است؟ لطفاً کسی می تواند مرا در این مورد روشن کند؟ با تشکر با احترام، اندی.
اطلاعات متقابل نقطه‌ای برای تولید برچسب در توییتر
76429
برای داده های طولی با نتیجه عددی، می توانم از نمودارهای اسپاگتی برای تجسم داده ها استفاده کنم. به عنوان مثال چیزی شبیه به این (برگرفته از سایت UCLA Stats): tolerance<-read.table(http://www.ats.ucla.edu/stat/r/faq/tolpp.csv,sep=, , header=T) head(tolerance, n=10) interaction.plot(tolerance$time, tolerance$id, tolerance$tolerance, xlab=time, ylab=Tolerance, legend=F) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/a2E5i.png) اما اگر نتیجه من باینری 0 یا 1 باشد چه؟ به عنوان مثال، در داده‌های ohio در R، متغیر resp باینری وجود یک بیماری تنفسی را نشان می‌دهد: library(geepack) ohio2 <- ohio[2049:2148,] head(ohio2, n=12) در مقابل سن شناسه دود 2049 1 512 -2 1 2050 0 512 -1 1 2051 0 2052 0 1 2052 0 512 0 514 0 1 2060 1 514 1 1 interaction.plot(ohio2$age+9, ohio2$id, ohio2$resp, xlab=age, ylab=Wheeze status, legend=F) ![شرح تصویر را اینجا وارد کنید ](http://i.stack.imgur.com/c2M0g.png) طرح اسپاگتی شکل خوبی به دست می دهد، اما خیلی آموزنده نیست و چیز زیادی به من نمی گوید. راه مناسبی برای تجسم این نوع داده ها چیست؟ شاید چیزی که شامل یک مقدار احتمال در محور y باشد؟
تجسم داده های طولی با نتیجه باینری
33300
من می دانم که این یک موضوع نسبتاً داغ است که هیچ کس واقعاً نمی تواند پاسخ ساده ای برای آن بدهد. با این وجود من نمی دانم که آیا رویکرد زیر نمی تواند مفید باشد. روش بوت استرپ تنها در صورتی مفید است که نمونه شما کم و بیش از توزیع مشابه جمعیت اصلی پیروی کند (دقیقا بخوانید). برای اطمینان از این موضوع، باید اندازه نمونه خود را به اندازه کافی بزرگ کنید. اما چه چیزی به اندازه کافی بزرگ است؟ اگر فرض من درست باشد، هنگام استفاده از قضیه حد مرکزی برای تعیین میانگین جمعیت، همین مشکل را دارید. تنها زمانی که حجم نمونه شما به اندازه کافی بزرگ باشد، می توانید مطمئن شوید که جمعیت میانگین نمونه شما به طور معمول توزیع شده است (در حول میانگین جامعه). به عبارت دیگر، نمونه های شما باید به اندازه کافی جمعیت (توزیع) شما را نشان دهند. اما دوباره، چه چیزی به اندازه کافی بزرگ است؟ در مورد من (فرایندهای اداری: زمان مورد نیاز برای تکمیل تقاضا در مقابل مقدار تقاضا) من جمعیتی با توزیع چندوجهی دارم (همه تقاضاهایی که در سال 2011 به پایان رسید) که من 99٪ مطمئن هستم که حتی کمتر است. به طور معمول نسبت به جمعیت توزیع شده است (تمام خواسته هایی که بین روز کنونی و یک روز گذشته به پایان می رسد، در حالت ایده آل این بازه زمانی تا حد امکان کوچک است) من می خواهم تحقیق کنم. جمعیت 2011 من از تعداد واحدهای کافی برای ساختن نمونه‌های x$ با اندازه نمونه $n$ وجود دارد. من مقدار x$ را انتخاب می‌کنم، فرض کنید $10$ ($x=10$). اکنون برای تعیین حجم نمونه خوب از آزمون و خطا استفاده می کنم. من یک $n=50$ می‌گیرم، و می‌بینم که آیا میانگین جامعه نمونه من با استفاده از Kolmogorov-Smirnov توزیع شده است یا خیر. اگر چنین است، من همان مراحل را تکرار می‌کنم، اما با حجم نمونه 40 دلار، در غیر این صورت با حجم نمونه 60 دلار (و غیره) تکرار می‌کنم. پس از مدتی به این نتیجه رسیدم که $n=45$ حداقل حجم نمونه مطلق برای به دست آوردن یک نمایش کم و بیش خوب از جمعیت سال 2011 من است. از آنجایی که می‌دانم جمعیت مورد علاقه‌ام (همه خواسته‌هایی که بین روز کنونی و یک روز گذشته تکمیل می‌شوند) واریانس کمتری دارند، می‌توانم با خیال راحت از اندازه نمونه $n=45$ برای راه‌اندازی استفاده کنم. (به طور غیرمستقیم، $n=45$ اندازه بازه زمانی من را تعیین می کند: زمان مورد نیاز برای تکمیل درخواست های $45$.) به طور خلاصه، این ایده من است. اما از آنجایی که من یک آمارگیر نیستم بلکه یک مهندس هستم که درس های آمارش در روزهای گذشته برگزار شده است، نمی توانم این احتمال را رد کنم که من فقط زباله های زیادی تولید کرده ام :-). بچه ها نظرتون چیه؟ اگر فرض من منطقی باشد، آیا باید یک $x$ بزرگتر از $10$ یا کوچکتر انتخاب کنم؟ بسته به پاسخ‌های شما (آیا باید خجالت بکشم یا نه؟ :-) ایده‌های بحث بیشتری را پست خواهم کرد. پاسخ در اولین پاسخ با تشکر از پاسخ شما، پاسخ شما برای من بسیار مفید بود، به خصوص لینک های کتاب. اما می ترسم که در تلاشم برای دادن اطلاعات سوالم را کاملا مبهم کرده باشم. من می دانم که نمونه های بوت استرپ توزیع نمونه جمعیت را بر عهده می گیرند. من شما را کاملاً دنبال می‌کنم، اما... نمونه جمعیت اصلی شما باید به اندازه کافی بزرگ باشد تا مطمئن شوید که توزیع نمونه جمعیت شما با توزیع «واقعی» جامعه مطابقت (برابر) است. این صرفاً ایده ای در مورد چگونگی تعیین اینکه اندازه نمونه اصلی شما چقدر باید باشد تا به طور منطقی مطمئن شوید که توزیع نمونه با توزیع جامعه مطابقت دارد، است. فرض کنید یک توزیع جمعیت دوقله ای دارید و یکی از بالاها بسیار بزرگتر از دیگری است. اگر حجم نمونه شما 5 باشد، شانس این است که هر 5 واحد مقداری بسیار نزدیک به بالای بزرگ داشته باشند (احتمال برای ترسیم تصادفی یک واحد در آنجا بزرگترین است). در این مورد توزیع نمونه شما تک وجهی به نظر می رسد. با حجم نمونه صد، احتمال اینکه توزیع نمونه شما نیز دووجهی باشد، بسیار بزرگتر است!! مشکل راه‌اندازی این است که شما فقط یک نمونه دارید (و بیشتر روی آن نمونه می‌سازید). اگر توزیع نمونه واقعاً با توزیع جمعیت مطابقت ندارد، در مشکل هستید. این فقط ایده ای است برای اینکه شانس داشتن «توزیع نمونه بد» را تا حد امکان کم کنید بدون اینکه مجبور باشید حجم نمونه خود را بی نهایت بزرگ کنید.
تعیین حجم نمونه لازم برای روش بوت استرپ / روش پیشنهادی
30653
اگر این خیلی ساده است عذرخواهی کنید. نمی‌توانم گروه پیشرفته‌تر کمکی r را برای پاسخ دادن به آن‌ها بیاورم. من قصد دارم بارهای کاری را با اندازه گیری ضریب همبستگی دو مجموعه از مقادیر واقعی مشخص کنم، اما قبل از آن می خواهم دو مجموعه از مقادیر نمونه تولید کنم که دارای یک ضریب بالا و یک ضریب پایین هستند. من می خواهم هر دو را در یک نمودار رسم کنم تا بتوانم مقادیر بسیار همبسته را با هم ببینم (قله ها و فرورفتگی ها). من از R استفاده می کنم و در مورد rseek می دانم. اگر کتاب R خاصی وجود داشته باشد که بتواند به تلاش های برنامه ریزی ظرفیت من کمک کند، آن را می خرم. ایجاد یک متغیر تصادفی با یک همبستگی تعریف شده با یک متغیر موجود در حال حاضر برای من بسیار پیشرفته است. توجه: دو مجموعه از مقادیری که می‌خواهم رسم کنم به هم مرتبط هستند زیرا من میزان استفاده از CPU و یک عدد خروجی را ترسیم می‌کنم. بنابراین اگر تعداد بایت ها افزایش یابد، ممکن است استفاده از CPU افزایش یابد. هر دو ارزش مثبت هستند. بنابراین اگر همبستگی زیاد باشد، هر دو با هم افزایش یا کاهش می‌یابند. با تشکر
مجموعه ای از مقادیر با ضریب همبستگی بالا تولید کنید
30655
مقاله ویکی‌پدیا در مورد توزیع گاما، دو روش مختلف پارامترسازی را فهرست می‌کند، یکی از آنها اغلب در اقتصاد سنجی بیزی با $\alpha>0$ و $\beta>0$ استفاده می‌شود، $\alpha$ پارامتر شکل است، $\beta$ است. پارامتر نرخ $$X\sim \mathrm{Gamma}(\alpha,\beta).$$ در کتاب درسی اقتصاد سنجی بیزی که توسط گری کوپ نوشته شده است، پارامتر دقیق $\frac{1}{\sigma^2}=h$ از یک توزیع گاما، که **توزیع قبلی** $$h\sim است \mathrm{گاما}(\underline{s}^{-2},\underline{\nu})،$$ که در آن $\underline{s}^{-2}$ میانگین و $\underline{\nu} $ طبق ضمیمه او درجه آزادی است. همچنین $s^2$ خطای استاندارد با تعریف $$s^2=\frac{\sum(y_i-\hat{\beta}x_i)}{\nu} است.$$ بنابراین برای من، این دو تعریف از توزیع گاما کاملاً متفاوت است، زیرا میانگین و واریانس متفاوت خواهد بود. اگر از تعریف ویکی‌پدیا پیروی کنیم، میانگین $\alpha/\beta$ خواهد بود، نه $\underline{s}^{-2}$. من در اینجا به شدت گیج هستم، آیا کسی می تواند به من کمک کند تا افکار را در اینجا اصلاح کنم؟
یک سوال در مورد پارامترهای توزیع گاما در اقتصاد سنجی بیزی
83812
ما ده مدرسه با جمعیت های مختلف داریم که از 1052 در کوچکترین مدرسه تا 4833 در بزرگترین مدرسه متغیر است. هدف هر مدرسه دستیابی به 60 درصد از ثبت نام کنندگان خود است که در آزمون ها پیشرفت کرده اند. مزایا یا معایب آماری، در صورت وجود، برای مدارس بزرگتر یا کوچکتر چیست؟
مقایسه نتایج در جمعیت های بزرگتر و کوچکتر
30652
من سعی می کنم روش های مختلف تحلیل داده های عملکردی را آزمایش کنم. در حالت ایده‌آل، من می‌خواهم پانل رویکردهایی را که دارم روی داده‌های عملکردی شبیه‌سازی شده آزمایش کنم. من سعی کرده‌ام FD شبیه‌سازی‌شده را با استفاده از رویکردی مبتنی بر مجموع نویزهای گاوسی (کد زیر) تولید کنم، اما منحنی‌های حاصل در مقایسه با حالت واقعی بسیار ناهموار به نظر می‌رسند. من در تعجب بودم که آیا کسی اشاره‌گر به توابع/ایده‌ها برای تولید داده‌های عملکردی شبیه‌سازی شده واقعی‌تر دارد یا خیر. به ویژه، اینها باید صاف باشند. من در این زمینه کاملاً تازه کار هستم، بنابراین از هرگونه مشاوره استقبال می شود. library(MASS) library(caTools) VCM<-function(cont,theta=0.99){ Sigma<-matrix(rep(0,length(cont)^2),nrow=length(cont)) for( i in 1:nrow(Sigma)){ for (j in 1:ncol(Sigma)) Sigma[i,j]<-theta^(abs(cont[i]-cont[j])) } return(Sigma) } t1<-1:120 CVC<-runmean(cumsum(rnorm(length(t1)) )،k=10) VMC<-VCM(cont=t1، تتا=0.99) sig<-runif(ncol(VMC)) VMC<-diag(sig)%*%VMC%*%diag(sig) DTA<-mvrnorm(100,rep(0,ncol(VMC)),VMC) DTA<-sweep(DTA,2,CVC) DTA< -apply(DTA,2,runmean,k=5) matplot(t(DTA),type=l,col=1,lty=1)
چگونه داده های عملکردی را شبیه سازی کنیم؟
76427
این شاید یک سوال ساده لوحانه باشد، اما من دو راه برای محاسبه خطای نسبی پیدا کردم، یکی رایج است و دیگری از مقالاتی که خواندم. فرض کنید که عدد دقیق $n$ و عدد تخمینی $\tilde{n}$ باشد، دو روش برای محاسبه خطای نسبی عبارتند از: 1) خطای نسبی = $\frac{n-\tilde{n}} {E[n]}$، که تعریف استاندارد است 2) خطای نسبی = $\frac{\sqrt{Var(\tilde{n})}}{n}$، که ضریب واریانس است (I از روی کاغذ بخوانید). حالا من گیج شدم از کدام یک استفاده کنم، آیا سناریویی وجود دارد که از این دو فرمول استفاده شود؟ PS: لطفاً توجه داشته باشید که $n$ یک متغیر تصادفی است.
چگونه خطای نسبی یک متغیر تصادفی را محاسبه کنیم؟
15888
درک من این است که ما نباید اجازه دهیم همان مجموعه داده ای که در حال تجزیه و تحلیل آن هستیم را به حرکت درآورد/تعریف کند که توزیع های قبلی در تحلیل بیزی چگونه به نظر می رسند. به طور خاص، تعریف توزیع‌های قبلی برای تحلیل بیزی بر اساس آمار خلاصه از همان مجموعه داده‌ای که پس از آن می‌خواهید از پیشین‌ها برای کمک به تطبیق یک مدل استفاده کنید، نامناسب است. آیا کسی منابعی را می شناسد که به طور خاص در مورد این موضوع به عنوان نامناسب صحبت می کنند؟ برای این موضوع به چند نقل قول نیاز دارم.
به داده‌ها اجازه می‌دهید تا پیشین‌ها را دیکته کنند و سپس مدل را با استفاده از این پیشین‌ها اجرا کنید؟ (به عنوان مثال، پیشین های مبتنی بر داده از مجموعه داده های یکسان)
70868
من در جستجوی الگوریتم های طبقه بندی منبع باز هستم. من روی یک پروژه بینایی کامپیوتری کار می کنم که از طبقه بندی برای تشخیص صحنه استفاده می کند. من می خواهم طیف وسیعی از الگوریتم های یادگیری ماشین را برای مرحله طبقه بندی آزمایش کنم. پیاده سازی ها باید روی مجوزهای منبع باز و ترجیحاً به زبان C++ نوشته شوند. همه و هر کمکی بسیار قدردانی خواهد شد. پیشاپیش ممنون
الگوریتم های طبقه بندی منبع باز، ترجیحا در C++
91785
یک سوال وجود دارد که من واقعاً مطمئن نیستم که آیا آن را درست انجام داده ام یا حتی متوجه نمی شوم که می خواهد چه بگوید. > یک سکه وجود دارد که سرهایی با احتمال ناشناخته $p$ تولید می کند. چند بار باید این سکه را پرتاب کنیم اگر نسبت سرها قرار است > در 0.05$ از $p$ با احتمال حداقل $0.9$ دروغ باشد؟ نکته: اگر پاسخ به $p$ متکی باشد > کامل نیست و نگران اصلاح تداوم نباشید. این سوال از فصلی در مورد تقریب نرمال دو جمله ای می آید. تا اینجا می‌دانم که یک $\mathcal B(n,p)$ دارم و باید تعداد $n$ را پیدا کنم تا $P(c/n \le 0.05*p) \ge 0.9$ با $c$ به تعداد سرها؟ من مطمئن نیستم که آیا این درست است. به نوبه خود $P( c \le 0.05np ) \ge 0.9$ بنابراین من دوجمله ای را به گونه ای عادی می کنم که $$ P\bigg(Z \le \frac{0.05np - n*p}{np(1-p) } +0.5\bigg) \ge 0.9 $$ با $0.5$ به عنوان تصحیح پیوستگی. آیا من در مسیر درست هستم؟ من در مورد استفاده از فواصل اطمینان فکر کردم اما در این فصل یا سخنرانی در مورد آن بحث نکرده ایم.
تعداد پرتاب های سکه مورد نیاز اگر قرار است نسبت سرها در 0.05 از p با احتمال حداقل 0.9 قرار گیرد؟
109866
من نتایج خود را از تجزیه و تحلیل مسیر (با استفاده از MPlus) به دست آورده‌ام و مطمئن نیستم که چگونه یک بخش نتایج را به سبک APA بنویسم. مدل تناسب خوبی با داده‌ها نشان می‌دهد، فرضیه‌های من پشتیبانی می‌شوند، و من ایده واضحی از معنای نتیجه‌ام دارم، اما نمی‌دانم چه آماری به طور معمول در این نوع تحلیل‌ها گزارش می‌شود و چگونه آنها را ارائه کنم. . من یک کتاب پیدا کردم، Kline (2010)، و چند مقاله، McDonald & Ho (2002)، و Boomsma (2000)، اما دوباره، من مطمئن نیستم که آیا اینها ممکن است ارجاعات خوبی (یا عملی) برای انجام دادن باشند. آنچه من نیاز دارم احساس می‌کنم یک مثال نوشته شده از یک بخش نتایج که تجزیه و تحلیل مسیر را ارائه می‌کند ممکن است به من کمک کند، اما تاکنون هیچ موردی را پیدا نکرده‌ام. (این کار برای پایان نامه کارشناسی ارشد من است، بنابراین محدودیت فضا برای نوشتن نتایج نباید مشکلی ایجاد کند، اگرچه من قصد دارم نسخه دستنویسی را برای انتشار احتمالی آن بنویسم. اگر به اطلاعات بیشتری نیاز دارید که ممکن است در پاسخ به شما کمک کند، لطفاً به من اطلاع دهید. ). لطفاً کسی می تواند به من در جهت درست اشاره کند؟ با تشکر
نوشتن یافته ها از تجزیه و تحلیل مسیر
76423
من مدلی برای کاهش ضایعات ساختمانی ایجاد کرده ام، اما مطمئن نیستم که چگونه آن را برای خدمت به این هدف تأیید کنم. من دو مجموعه داده دارم: درصد زباله اندازه گیری شده از سایت ها و مقادیر پیش بینی شده به دست آمده از مدل ساخته شده. چگونه می توانم بگویم که مدل ساخته شده برای اهداف پیش بینی خوب است؟ داده ها به صورت خطی مرتبط هستند.
خطای قابل قبول در مدل های پیش بینی چیست؟
83107
من سعی می کنم با یک شبکه کانولوشن عمیق رگرسیون انجام دهم. من از کد http://deeplearning.net/tutorial/lenet.html استفاده می کنم در حال حاضر، شبکه از رگرسیون لجستیک به عنوان آخرین لایه خود استفاده می کند که می خواهم آن را حذف کنم. اگر به سادگی لایه لایه 3 = LogisticRegression (input=layer2.output, n_in=500, n_out=10) را از شبکه حذف کنم، باید هزینه ای را به جای: cost = layer3.negative_log_likelihood(y) مشخص کنم. هزینه مناسب برای انجام رگرسیون؟ هر یک از خروجی های من باید 0 تا 1 باشد، اما نه لزوماً مجموع 1.
لایه رگرسیون در شبکه عصبی کانولوشنال
83102
من دارم با همکارم در مورد سوال امتحانی بحث می کنم. فرض کنید پرسشنامه ای داریم که در آن، از جمله، اولویت برای یک حزب سیاسی خواسته شده است. چگونه این را مدل کنیم، آیا از یک اثر ثابت یا تصادفی استفاده می کنیم؟ من فکر می کنم ما باید به سمت یک اثر تصادفی برویم زیرا این یک پرسشنامه است و ما انتظار داریم که اثر با جمعیت شناسی نمونه (سن، جنس، ...) تغییر کند.
ترجیح سیاسی به عنوان متغیر مستقل - اثر ثابت یا تصادفی؟
33303
منظور من این پایان نامه بود، فیلتر گاوسی با ابعاد بالا برای عکاسی محاسباتی (یا pdf)، برای درک فیلترهای گاوسی. با این حال من یک قسمت را متوجه نشدم. فیلتر گاوسی با $$ \hat{v_i} = \sum_{j}\exp(-|p_i-p_j|^2 / 2)\,v_j $$ داده می شود اگر $p_i$ و $p_j$ بردارهای موقعیت هستند، این به سادگی تاری گاوسی است. حالا من متوجه نشدم اگر $p_i$ و $p_j$ را بر یک ثابت مشخص تقسیم کنیم، انحراف استاندارد فیلتر تغییر می کند. من متوجه نشدم که چگونه اتفاق می افتد. همچنین متوجه منظور شما از انحراف معیار فیلتر نشدم؟
انحراف معیار فیلتر گاوسی چقدر است؟
7651
من مجموعه ای از نتایج آماری را در قالب رشته های بله و خیر جمع آوری کرده ام. اکنون می‌خواهم یک سلول خلاصه داشته باشم که اگر همه این سلول‌ها برابر با YES باشند (یا خالی باشند) YES را نشان می‌دهد.
نحوه ارزیابی اینکه آیا مجموعه ای از سلول ها همه دارای یک مقدار مشخص در اکسل هستند یا خیر
45148
> **موضوع تکراری:** > باقیمانده حذف $i^{th}$ باقیمانده حذف $e_{−i}$ به صورت $e_{−i}=y_{i}−X^{⊤}B_{ تعریف می‌شود. −i}$ که $X^{⊤}$ ردیف $i^{th}$ ماتریس طراحی $X$ است و $B_{−i}$ یک ستون است بردار برآورد پارامتر حداقل مربع بدون مشاهده $i^{th}$ محاسبه شده است. زمانی که مدل خطی $y_{i}=B_{0}+B_{1}X_{i}+B_{2}X_{2i}+E_{i}$ برازش می‌شود، مقداری R کد حاشیه‌نویسی برای محاسبه باقیمانده‌های حذف بنویسید. به داده های فایل quadratic.txt. با ترسیم نمودار مناسب، در مورد توزیع این باقیمانده های حذف نظر دهید. باید بنویسم دقیقا توزیع چیست؟
حذف باقی مانده به صورت خطی
97077
من دو svms (LIBSVM) را با 15451 نمونه آموزش دادم بعد از اینکه اعتبارسنجی متقاطع 10 برابری انجام دادم و بهترین مقادیر پارامتر را برای گاما و C (هسته RBF) پیدا کردم. در یک svm من فقط از 1 ویژگی و در دومی یک ویژگی اضافی استفاده کردم (تا ببینم آیا این اضافی پیش بینی را بهبود می بخشد). بعد از CV دقت 75% (SVM با یک ویژگی) و 77% (SVM با آن ویژگی اضافی) دارم. پس از آزمایش بر روی 15451 نمونه دیگر، من به ترتیب 70 و 72 درصد دقت دارم. من می دانم که به این می گویند بیش از حد برازش، اما آیا در اینجا قابل توجه است، زیرا این تفاوت تنها 5٪ است. چه کاری می توانم انجام دهم تا بیش از حد مناسب نباشم؟ آیا حتی استفاده از یک یا دو ویژگی و یک مجموعه آموزشی نسبتا بزرگ خوب است؟ امیدوارم بتوانید به من کمک کنید
بیش از حد LIBSVM
76421
من یک داده با 15 متغیر دارم. من PCA را روی آن انجام دادم تا به 3 عامل برسم که هر کدام دارای 5 متغیر بودند که واریانس مربوطه را در آن عوامل توضیح می دادند. پس از تکمیل کل فرآیند، من رگرسیون لجستیک را اجرا کردم که این عوامل متغیرهای مستقل من بودند. وزن‌های فردی این عوامل (برای پیش‌بینی) را نیز آماده دارم. اکنون آنچه می خواهم بدانم اهمیت فردی هر متغیر در انجام پیش بینی های بعدی است؟ همانطور که هر متغیر چه نقشی (وزن) در پیش بینی متغیر وابسته دارد؟ پیشاپیش ممنون
با توجه به اهمیت متغیرها پس از اعمال PCA
8213
برای برخی از الگوریتم های بازسازی حجم که روی آن کار می کنم، باید تعداد دلخواه الگوهای دایره ای را در داده های نقطه سه بعدی (که از یک دستگاه LIDAR می آیند) شناسایی کنم. الگوها را می توان به طور دلخواه در فضا جهت داد، و فرض کرد که در صفحات نازک 2 بعدی قرار دارند (اگرچه نه کاملاً). در اینجا یک مثال با دو دایره در یک صفحه آورده شده است (اگرچه به یاد داشته باشید که این یک فضای 3 بعدی است): ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/FZxAU.png) من روش های زیادی را امتحان کردم. ساده‌ترین (اما یکی از بهترین‌ها تا کنون) خوشه‌بندی بر اساس مجموعه‌های مجزا از نزدیک‌ترین گراف همسایه است. وقتی الگوها از هم دور باشند، این کار به خوبی کار می‌کند، اما در مورد دایره‌هایی مانند نمونه‌هایی که واقعاً نزدیک به هم هستند، کمتر کار می‌کند. من K-means را امتحان کردم، اما خوب کار نمی کند: من گمان می کنم آرایش نقطه دایره ای ممکن است برای آن مناسب نباشد. بعلاوه، من این مشکل اضافی را دارم که از قبل مقدار K را نمی‌دانم. روش‌های پیچیده‌تری را بر اساس تشخیص چرخه‌ها در نمودار همسایه نزدیک‌تر امتحان کردم، اما چیزی که به دست آوردم یا خیلی شکننده بود یا از نظر محاسباتی گران بود. من همچنین در مورد بسیاری از موضوعات مرتبط (تبدیل Hough و غیره) مطالعه کردم، اما به نظر می رسد هیچ چیز در این زمینه خاص به طور کامل اعمال نمی شود. هر ایده یا الهام بخشی قابل قدردانی خواهد بود.
الگوهای دایره ای را در داده های ابر نقطه ای تشخیص دهید
108543
من یک داده کارت اعتباری دارم که شامل مقدار گردان ماهیانه و مقدار کارمزد برای هر مشتری است. به عنوان یک دیدگاه بانکی، من می‌خواهم مقدار مورد انتظار مبلغ گردان آینده و مبلغ کارمزد را در مجموع (با استفاده از ضریب تخفیف در افق زمانی نامحدود) بدست بیاورم. من می خواهم به ترتیب ارزش آتی گردان و کارمزد را دریافت کنم. یک راه ایده من این است که E (آینده) = مجموع [ {مسئله (در زمان t)*میزان چرخش در زمان t} / {(1+ تخفیف)^t} ] خیلی ساده می توانیم فکر کنیم (مورد گردان ) احتمال چرخش در زمان t = x/n (که x تعداد چرخش در داده و n کل ماه در داده است) مقدار چرخش در زمان = میانگین مقدار چرخش در داده (ثابت) در واقع من می خواهم ارزش فعلی مقادیر مورد انتظار آینده را تخمین بزنم. اما راه فوق خیلی ساده لوحانه است. آیا ایده خوبی وجود دارد که بتوانم ارزش آتی مقادیر گردان و کارمزد را با داده های سری زمانی ماهانه تخمین بزنم؟ (من متغیرهای دیگری مانند جمعیت شناسی، سابقه استفاده از کارت اعتباری و موارد دیگر دارم). با تشکر من R را برای برنامه ترجیح می دهم. پیشنهادی با پکیج R دارید؟
دریافت ارزش مورد انتظار ارزش آتی با داده‌های متغیر زمانی (اطلاعات چرخشی کارت اعتباری و داده‌های کارمزد). ارزش طول عمر مشتری
33308
من سعی می کنم بفهمم که آیا تفاوت خاصی بین IVM های اطلاعاتی و RVM های مرتبط به غیر از اصطلاحات وجود دارد یا خیر. من چیز واضحی ندیدم وقتی در مورد ماشین‌های برداری مطالعه می‌کنم، به راحتی می‌توان تفاوت IVM/RVM با ماشین‌های بردار پشتیبان (SVM) را مشاهده کرد [به‌طور محاوره‌ای، برای طبقه‌بندی، SVM آن نقاط (بردارها) را پیدا می‌کند که DMZ (منطقه غیر نظامی‌شده) را تعریف می‌کنند. ;-) بین دسته‌ها، در حالی که RVM آنهایی را می‌یابد که «وسط» جمعیت هستند، و «اندازه» جمعیت مرتبط را پیدا می‌کند. (به عنوان مثال در گلوب های گاوسی)]، اما من هیچ تفاوت خاصی بین ماشین های بردار I/R فراتر از انتخاب اصطلاحات توسط طرفداران آنها نمی بینم. آیا تفاوتی وجود دارد؟
تفاوت بین ماشین های برداری اطلاعاتی (IVM) و مرتبط (RVM) چیست؟
83109
من یک برنامه امتحانی دارم که سوالاتی از گروه‌های دشوار مختلف دارد: الف) پایه ب) استاندارد ج) پیشرفته بر اساس داده‌های تولید شده توسط کاربرانی که این سؤالات را انجام می‌دهند، سعی می‌کنم امتیازی از محبوبیت و دشواری برای سؤالات ایجاد کنم. من متوجه شدم که سه عامل در این امر مؤثر است: 1) تعداد دفعاتی که از سؤال گرفته شده است (کاربران می توانند موضوعات مختلفی را انتخاب کنند) 2) تعداد دفعاتی که سؤال به درستی پاسخ داده شده است (سوالی که پاسخ متوسطی دریافت می کند بیشتر است محبوب') 3) زمان صرف شده برای سؤال (شاخص دشواری و ارتباط برای کاربر، این فرض که کاربر زمان زیادی را برای سؤالی که می داند صرف نمی کند. هیچ چیز در مورد) 4) تعداد دفعاتی که سؤال انجام شده است (دوباره نشان می دهد که آیا سؤال واقعاً مرتبط است و باعث ایجاد علاقه در کاربر می شود) سؤال من: الف) آیا می توانم این نمرات را در گروه های دشواری به عنوان یک نمره واحد ارزیابی کنم یا خیر؟ آیا باید آن را در گروه های فردی ارزیابی کرد؟ ب) در حال حاضر میانگین درخواست **تلاش ها، زمان، تلاش های صحیح** را محاسبه می کنم و سپس میانگین زمان هر سوال را با میانگین برنامه تقسیم می کنم تا امتیاز محاسبه شود؟ چه نوع میانگین ها یا فرمول های آماری را باید برای این نوع مسائل در نظر بگیرم؟
محاسبات نمره محبوبیت و دشواری در گروه ها و زیر گروه ها
70860
من مطمئن هستم که این یک سوال واضح برای کسی است. وقتی نسبت‌ها را با هم ترکیب می‌کنیم، اما نسبت کلی نمی‌تواند در واقعیت از 100٪ تجاوز کند - به این چه می‌گویند؟ برای مثال، اگر بخواهم احتمال ابتلای فردی به بیماری را کاهش دهم و یک دارو احتمال ابتلا را تا 80 درصد کاهش دهد و پیروی از یک برنامه غذایی آن را تا 40 درصد کاهش دهد (مطالعات مستقل هیچ تداخلی اندازه‌گیری نشده است)، کاهش کلی انجام می‌شود. به شرح زیر: 80% + (40% از 20%) = 88%. من ممکن است احتمال ابتلا به این بیماری را تا 88 درصد کاهش داده باشم. چگونه می توانم این را ریاضی توضیح دهم؟ من می دانم که یک مبنای احتمالی برای این وجود دارد (آیا این جنبه رویدادهای مستقل چیزها به احتمال اولیه است، آیا این چیزی است که با مجانبی انجام می شود، آیا این چیزی است که با ریاضی پشت ANOVA ها (یعنی تعاملات و مستقل) انجام می شود؟). آیا همه اینها با هم ترکیب شده است؟! من خوشحالم که به تنهایی برای تحقیقات بیشتر حرکت می کنم. هر کمکی قابل تقدیر است.
توصیف ترکیب غیر مجموع نسبت ها
15889
من سعی می کنم یک ماتریس همبستگی را از 5 بزرگترین مقادیر ویژه و بردارهای ویژه مرتبط با ماتریس همبستگی نمونه تخمین بزنم. مشکل من این است که خروجی کد متلب زیر به میانگین همبستگی بسیار بالاتری (0.8 در 0.4) برای داده های مالی مورد نظر من منجر می شود. [V,D] = eig(InputCorr); eigvals = diag(D); eigvals(1:(پایان-5)) = 0; eigvals = eigvals*size(InputCorr,1)/sum(eigvals); BB = bsxfun(@times,V,eigvals')* V'; T = 1./ sqrt(diag(BB)); OutputCorr = 0.5*(BB+BB') .* (T*T'); آیا چنین افزایش قابل توجهی در میانگین همبستگی قابل انتظار است یا من کار اشتباهی انجام می دهم؟ به‌روزرسانی: تجزیه $A=λ_{1}v_{1}v_{1}' \+ ... + λ_{n}v_{n}v_{n}'$ پیشنهاد شده توسط @Jonathan Lisic بسیار مفید است. اگر آن را فقط به پنج عبارت اول کوتاه کنم، عناصر خارج از مورب ماتریس همان چیزی است که انتظار دارم (مشابه با عناصر متناظر ماتریس اصلی و همبستگی میانگین مشابه)، اما عناصر مورب بسیار کمتر از 1 هستند. بنابراین افزایش همبستگی با تغییر مقیاس ماتریس برای بدست آوردن عناصر قطری برابر با یک ایجاد می شود. من در واقع فقط به عناصر خارج از مورب علاقه مند هستم، آیا استفاده از آنها مستقیماً بدون انجام هیچ تغییر مقیاس مناسب است؟
چگونه می توان ماتریس همبستگی را از بزرگترین مقادیر ویژه تخمین زد؟
86166
هنگامی که راه حل بسیار پراکنده است، احتمالا سریع ترین روش برای حل رگرسیون LASSO رگرسیون حداقل زاویه است، که از یک راه حل تمام صفر شروع می شود و عناصر غیر صفر را یکی یکی به بردار پارامتر اضافه می کند. من سعی می کنم یک مشکل کمند گروهی را حل کنم: $ \min_{\beta} \frac{1}{2}||y-X\beta||+\lambda\sum_g||\beta_g||_2$ وقتی فضای پارامتر باشد بسیار بزرگ، ستون‌های ماتریس طراحی $X$ بسیار همبسته هستند (اساساً یک ماتریس کانولوشن) و بهینه $\beta$ بسیار پراکنده است. آیا روش های ست فعال برای گروه کمند مشابه LARS وجود دارد؟ من می‌دانم که مسیر منظم‌سازی کامل دیگر مانند کمند به صورت تکه‌ای خطی نیست، اما حتی یک روش تقریبی خوب نیز به خوبی جواب می‌دهد.
روش های ست فعال برای کمند گروهی؟
70867
من چندین خوشه از مسیرهای عابر پیاده را با ** خوشه بندی سلسله مراتبی ** بدست آورده ام. اکنون برای هر خوشه، مایلم تمام مسیرهای عابر پیاده را در یک مسیر مرکزی ادغام کنم. من در حال حاضر در حال پیاده سازی خوشه بندی سلسله مراتبی با Python scipy.cluster.hierarchy هستم. آیا تابع خارج از قفسه ای برای بدست آوردن مرکز یک خوشه وجود دارد؟ اگر وجود نداشته باشد، پیشنهادات کلی در مورد روش های ادغام نیز بسیار مورد استقبال قرار می گیرد.
چگونه می توان مرکز یک خوشه را بدست آورد؟
112917
در متاآنالیز، می دانم که یک فرض مهم استقلال است. واضح است که اگر بخواهیم اندازه اثر تلفیقی را تخمین بزنیم، بهترین کار این است که هر اثر از یک نمونه مستقل از ناظران باشد. در غیر این صورت، اثر خلاصه بیش از حد تحت تأثیر نمونه هایی قرار می گیرد که بیش از یک اندازه اثر را به مدل کمک می کنند. **با این حال**، به عنوان یک روانشناس تجربی، بسیاری از مقایسه هایی که من به آنها علاقه مندم در سطح آزمودنی های درونی متفاوت هستند (به عنوان مثال، نمونه مشابهی از افراد ممکن است روی دو مجموعه از انواع محرک آزمایش شده باشد). بنابراین، سؤال من این است که آیا تحلیل‌های تعدیل‌کننده را می‌توان در جایی انجام داد که k به جای نمونه‌ها، شرایط را نشان دهد. به عبارت دیگر: **اگر برای هر نمونه دو اثر داشتم، یکی برای محرک 1 و دیگری برای محرک 2 - آیا می توانم یک تحلیل تعدیل کننده بر روی نوع محرک انجام دهم، با توجه به اینکه این در سطح آزمودنی های درونی متفاوت است؟** به موارد زیر توجه کنید. چیزها- 1) من از این مدل بین شرط برای تخمین اندازه اثر ترکیبی کلی به دلیل مسائلی که در پاراگراف اول ذکر کردم استفاده نمی کنم. 2) من نمونه های منتشر شده ای از چنین تحلیل بین شرایط را دیده ام، اما پیامدها / محدودیت ها / مسائل مربوط به آن بندرت مورد بحث قرار می گیرد. علاوه بر این، اگر کسی مرجع/مثالی در مورد اینکه چرا این خوب است/خوب نیست، دارد، بسیار سپاسگزار خواهم بود. قدردان وقت شما هستم.
استقلال اثرات در متاآنالیز و متارگرسیون
83104
من در حال آموزش یک مدل طبقه بندی با Random Forest هستم تا بین 6 دسته تمایز قائل شوم. داده های تراکنش من تقریباً 60k+ مشاهدات و 35 متغیر دارد. در اینجا نمونه ای از نحوه ظاهر تقریباً آن آورده شده است. _________________________________________________ |user_id|تاریخ_اکتساب|x_var_1|x_var_2| y_vay | |-------|----------------|------|-------|-------- | |111 | 01/04/2013 | 12 | ایالات متحده | گروه 1 | |222 | 2013-04-12 | 6 | PNG | گروه 1 | |333 | 05/05/2013 | 30 | DE | گروه2 | |444 | 2013/05/10 | 78 | ایالات متحده | گروه3 | |555 | 2013/06/25 | 15 | BR | گروه 1 | |666 | 2013/06/25 | 237 | FR | گروه6 | پس از ایجاد مدل، می‌خواهم مشاهدات چند هفته گذشته را به دست بیاورم. همانطور که تغییراتی در سیستم ایجاد شده است، مشاهدات اخیر بیشتر شبیه به محیط مشاهدات فعلی است که من می خواهم پیش بینی کنم. از این رو، من می خواهم یک متغیر وزن ایجاد کنم تا جنگل تصادفی اهمیت بیشتری به مشاهدات اخیر بدهد. آیا کسی می داند که بسته تصادفی Forest در R می تواند وزن ها را در هر مشاهده انجام دهد؟ همچنین، لطفاً روش خوبی برای ایجاد متغیر وزن پیشنهاد دهید؟ به عنوان مثال، از آنجایی که اطلاعات من مربوط به سال 2013 است، به این فکر می کردم که می توانم عدد ماه را از تاریخ به عنوان وزن بگیرم. آیا کسی مشکلی در این روش می بیند؟ پیشاپیش سپاس فراوان!
وزن دادن به داده های جدیدتر در مدل جنگل تصادفی
30654
بگویید من یک پروژه دارم (شما پروژه معمولی را می شناسید که می توانید با استفاده از نمودار گانت نشان دهید) اگر می توانم یک احتمال جزئی را به هر یک از وظایف در گانت اختصاص دهم... مثلاً بگویید: * Task1 (2 روز، من هستم 75٪ از آن مطمئن هستم) * Task2 (4 روز، من 50٪ از آن مطمئن هستم) برای شروع، کار 1 بیشتر تمام شده است * Task3 (8 روز، من 25٪ هستم) مطمئن باشید) برای شروع، کار 2 بیشتر تمام شده است چگونه می توانم محاسبه کنم که چقدر احتمال دارد این پروژه 14 روزه را تمام کنم؟ (_اگر می‌پرسید چرا این را می‌پرسم، من یک توسعه‌دهنده نرم‌افزار هستم و دائماً در حال ایجاد طرح‌های پروژه هستم و می‌خواهم درباره این موضوع اطلاعات بیشتری کسب کنم تا بتوانم برآورد پروژه را بهتر انجام دهم.
محاسبه احتمال وظایف پروژه، و به احتمال زیاد تاریخ پایان؟
14426
فرض کنید من یک مدل حداقل مربعات تعمیم یافته می سازم. من رویه استاندارد را دنبال می کنم و ابتدا یک مدل LM را تخمین می زنم. سپس یک ماتریس کوواریانس پاسخ خطا بر اساس باقیمانده های این مدل ایجاد می کنم. اکنون دوباره یک مدل LM می‌سازم فقط این بار وزن‌ها را بر اساس ماتریس کوواریانس پاسخ خطا مشخص می‌کنم. حالا فرض کنید می خواهم با مدل GLS خارج از نمونه پیش بینی کنم تا پایداری مدل را آزمایش کنم. می‌خواهم تأیید کنم که می‌توانم به سادگی یک پیش‌بینی را با استفاده از ضرایب برآورد شده توسط GLS انجام دهم و دیگر نیازی به ارائه وزن نیست (مخصوصاً که در سناریوی پیش‌بینی که در آن باقیمانده‌ها در دسترس نیستند، ماتریس کوواریانس خطا-پاسخ نمی‌توان تولید کرد). سوال بعدی: ما به امتیازدهی داده های آزمون با ضرایب از داده های آموزشی اقدام می کنیم. (بعد داده های آزمون شامل مقطعی از N فرد و مشاهده T است.) ما می خواهیم خطاهای استاندارد ثابتی تولید کنیم. بنابراین، به جای محاسبه خطای استاندارد تخمین به روش OLS، ما باقیمانده ها را با بردار وزن های GLS وزن می کنیم: OLS calc از SEE: `sqrt( sum( ( باقیمانده از مدل خطی ) ^ 2 ) ) / residualDegreeFreedom )` GLS calc از SEE: `sqrt( sum( ( باقیمانده از مدل خطی) ^ 2 * glsWeight ) ) / sum ( glsWeight ) * length( glsWeight ) / residualDegreeFreedom )` gls weight برداری است که به روش معمول به عنوان معکوس واریانس باقیمانده های هر مقطع در محاسبه می شود. یک تاریخ (یعنی بردار طول T). با این حال، در اینجا من از باقیمانده‌های داده‌های _test_ بر خلاف داده‌های آموزشی استفاده می‌کنم (در واقع این مورد نیاز است، در غیر این صورت بعد باقیمانده‌های خارج از زمان با بعد بردار وزن‌های GLS مطابقت ندارد). چیزی که غیر شهودی است این است که اگر بخواهم SEE مدل GLS را خارج از نمونه بر روی _یک_فرد اندازه گیری کنم، باید _همه_ افراد را از نمونه نمره دهم (در غیر این صورت ساختن بردار وزن GLS غیرممکن خواهد بود، زیرا وجود دارد. بدون واریانس باقیمانده). سوال این است - آیا هنگام محاسبه SEE خارج از نمونه باید از وزن های GLS استفاده کنم یا می توانم به سادگی از محاسبه OLS SEE استفاده کنم؟
پیش بینی با GLS
7659
من از یک پرسشنامه همدلی 33 سوالی استفاده کرده ام. من مقیاس را از 9 امتیاز به مقیاس 4 درجه تغییر دادم تا به اجبار پاسخ داده شود و ابهام کاهش یابد. **آیا پس از این کاهش تعداد گزینه های پاسخ، باید ویژگی های مقیاس را دوباره آزمایش کنم؟**
آیا پس از کاهش تعداد گزینه های پاسخ از 9 به 4، یک مقیاس روانشناختی نیاز به اعتبار مجدد دارد؟
38082
من که از یک پیشینه دقیق در تحلیل و تئوری احتمالات مدرن سرچشمه می‌گیرم، آمار بیزی را ساده و قابل درک می‌دانم، و آمارهای متداول را فوق‌العاده گیج‌کننده و غیر شهودی می‌دانم. به نظر می‌رسد که افراد مکرر واقعاً آمار بیزی را انجام می‌دهند، مگر با «پیش‌های مخفی» که انگیزه خوبی ندارند یا به دقت تعریف نشده‌اند. از سوی دیگر، بسیاری از آماردانان بزرگ که هر دو دیدگاه را درک می کنند، به دیدگاه مکرر گرایانه نسبت می دهند، بنابراین باید چیزی وجود داشته باشد که من فقط آن را درک نمی کنم. به جای اینکه تسلیم شوم و خودم را یک بیزی معرفی کنم، می‌خواهم درباره دیدگاه مکرر گرا بیشتر بیاموزم تا واقعاً آن را بزرگ کنم. چند مرجع خوب برای یادگیری آمارهای مکرر از دیدگاهی دقیق چیست؟ در حالت ایده‌آل، من به دنبال کتاب‌هایی از نوع اثبات-تعریف یا شاید مجموعه‌های مسائل سخت هستم که با حل آن‌ها، ذهنیت درستی به دست بیاورم. من بسیاری از موارد فلسفی بیشتری را که ممکن است با جستجو در اینترنت پیدا کنید - صفحات ویکی، پی دی اف های تصادفی از سایت های .edu/~randomprof و غیره - خوانده ام و کمکی نکرده است.
ارجاعات آمار متداول برای کسی که به خوبی در نظریه احتمالات مدرن آشناست
14420
من روی چند مشکل کار می کنم که در آنها از شبه درستنمایی (با نام مستعار مرکب) به عنوان یک روش تخمین استفاده می کنم زیرا حداکثر درستنمایی کامل امکان پذیر نیست. برای ارائه پیشینه بدون وارد شدن به جزئیات بسیار خاص، در هر دو پروژه داده ها نمونه های iid از داده های باینری خوشه ای هستند به طوری که در هر خوشه وابستگی هایی وجود دارد. یعنی من مشاهدات iid $Y_{1}، ...، Y_{n}$ دارم به طوری که $Y_{k} = \\{ Y_{k1}، ...، Y_{km_{k}} \\}$ که در آن $m_{k}$ می‌تواند نسبتاً بزرگ باشد (مثلاً 100). از آنجایی که هیچ انتخاب قبلی ساده ای برای توزیع داده های باینری چند متغیره وجود ندارد، من با مدل سازی توزیع های دو متغیره و تولید شبه درستنمایی با جمع درستنمایی های زوجی به مشکل حمله می کنم. این معقول است زیرا احتمال یک بردار دوتایی دو متغیره تابعی ساده از احتمالات سلولی است و می‌تواند به راحتی با احتمالات حاشیه‌ای و نسبت شانس مجددا پارامتری شود و پارامترهای قابل تفسیر بر حسب میانگین و ساختار وابستگی را ارائه دهد. به طور خاص، من $$ {\rm CL}(\Theta) = \sum_{k=1}^{n} w_{k} \sum_{(i,j)}\log \Big(P(Y_{ki) را حداکثر می‌کنم }, Y_{kj} | \Theta) \Big ) $$ به عنوان تابعی از پارامتر $\Theta$. شاخص $(i,j)$ برای نشان دادن همه جفت مشاهدات در خوشه $k$ است. وزن‌های $w_{k} = m_{k}/\binom{m_{k}}{2}$ به‌گونه‌ای گنجانده شده‌اند که یک خوشه خاص به دلیل بسط جفتی، نفوذ مصنوعی زیادی نداشته باشد. این یک واقعیت است که برآوردگرهای شبه درستنمایی در بهترین حالت به اندازه برآوردهای حداکثر درستنمایی کامل کارآمد هستند و معمولاً کارایی کمتری دارند (به وضوح). در کارهای دیگری که خوانده‌ام، هر زمان که از روش‌های شبه احتمال استفاده می‌شود، بحث/نتیجه‌ای وجود دارد که تلاش می‌کند تا از دست دادن کارایی را کمی‌سازی کند. این من را به سؤال من هدایت می کند: از آنجایی که من نمی توانم برآورد حداکثر درستنمایی را بر حسب پارامترهای مدل خود محاسبه کنم (به جز در موارد ساده که در واقع مدل های فرعی هستند که دقیقاً توسط برآوردگر درستنمایی ترکیبی مانند استقلال گرفته شده اند)، دقیقاً چگونه است. آیا می توانم این از دست دادن کارایی را کمّی کنم؟ آیا برای کسی قانع کننده خواهد بود که اگر بخواهم نتایج تخمینی را ارائه کنم زمانی که مدل واقعی زیرمجموعه ای از فضای تحت پوشش تخمینگر احتمال ترکیبی نیست (زیرا شبیه سازی داده ها با وابستگی های مرتبه بالاتر نسبت به نمونه های گرفته شده به اندازه کافی ساده است. با احتمالات زوجی) و نشان دهید که دقت زیادی از بین نمی رود؟ فکر اولیه من محاسبه کارایی نسبی مجانبی بیشینه ساز ${\rm CL}(\Theta)$ بود. من یک عبارت تحلیلی برای ماتریس کوواریانس مجانبی تخمینگر شبه درستنمایی دارم که در صورت لزوم می توانم آن را به صورت عددی محاسبه کنم (اما برای این کار باید هسین، ugh را محاسبه کنم). اما، من نمی توانم پیشرفت زیادی با مقدار مشابه برای MLE داشته باشم، بنابراین آن در آب مرده است، مگر اینکه چیزی را از دست بدهم. برای هر فکری متشکرم
کمی کردن از دست دادن کارایی متحمل شده توسط یک برآوردگر شبه درستنمایی نسبت به برآوردگر حداکثر درستنمایی واقعی
40506
در ANOVA یک طرفه ($Y_{ij} = A_i + \epsilon_{ij}$) خطاهای استاندارد ضرایب به راحتی محاسبه می شوند: $$SE_{\widehat{A_{i}}} = \sqrt{\text {میانگین مجموع باقیمانده مربعات} \over \text{اندازه گروه i}}$$ خطاهای استاندارد ضرایب دقیقاً چگونه است (عامل سطوح) با ANOVA دو طرفه محاسبه شده است؟ آیا عبارت مشابهی وجود دارد؟ کمی تحقیق کردم اما نتیجه ای نداشتم. من سعی کرده ام بفهمم که چگونه ماتریس واریانس-کوواریانس برای مدل های خطی تعریف می شود (یک چیز کاملاً اساسی که فکر می کردم)، اما نتیجه ای نداشت! **من به شدت بیان مستقیم** را مانند موارد بالا با مجموع و شاخص به موارد ضرب ماتریس ترجیح می دهم. با تشکر :-) در اینجا نمونه کد آزمایشی برای ANOVA دو طرفه set.seed(2) y = c(rnorm(200, 20, 4), rnorm(300, 30, 4), rnorm(400, 40, 4) است. rnorm(500, 50, 4)) cat1 = as.factor(c(rep(1,200), rep(2, 300), rep(3, 400), rep(4, 500))) rand_order = sample(1:length(cat1)) cat2 = cat1[Rand_order] cat2y = c(rep(1,200), rep(-2 ، 300)، تکرار(3، 400)، تکرار(-4، 500)) y = y + خلاصه cat2y[Rand_order] (lm(y ~ 0 + cat1 + cat2))
خطاهای استاندارد ضرایب (سطوح عامل) دقیقاً چگونه در یک ANOVA دو طرفه محاسبه می شوند؟
92851
من می‌خواهم یک تحلیل خوشه‌ای چند متغیره روی داده‌های ریزنمونه PUMS (سوابق سطح فردی) در نظرسنجی جامعه آمریکا انجام دهم. من قبلاً فقط زمانی که هیچ خطایی در داده ها وجود نداشته باشد (یا تصور می شود هیچ خطایی وجود نداشته باشد) تجزیه و تحلیل خوشه ای انجام داده ام. آیا کسی سعی کرده است که بسته تجزیه و تحلیل نظرسنجی عالی توماس لوملی را برای R با هر یک از بسته های تجزیه و تحلیل خوشه ای ترکیب کند؟ برای مثال، Pvclust مقادیر p را برای شناسایی خوشه های آماری معنی دار ارائه می دهد. با این حال، من نمی دانم چگونه خطاهای استاندارد را از بسته نظرسنجی به جستجوی خوشه های چند متغیره وارد کنم. این مشکل با وجود متغیرهای طبقه‌بندی مرتبط با تحقیق من تشدید می‌شود.
یافتن خوشه های چند متغیره با داده های نظرسنجی (در R)
38085
با استفاده از الگوریتم WeakLearn از مقاله اصلی RankBoost، چگونه آستانه بهینه را برای به حداکثر رساندن AU-RPC (به جای AUC) تنظیم می کنید؟ و هنگامی که آن آستانه تنظیم شد، چگونه AU-RPC را برای استفاده در محاسبه آلفا محاسبه می کنید؟ این مقاله پیشنهاد می‌کند که محدوده زیر منحنی فراخوانی-دقت [از AUC] معیار بسیار بهتری در هنگام کار با مجموعه داده‌های بسیار کج‌شده است، که کاربرد فعلی من است. این مقاله اصلاحی از RankBoost.B را پیشنهاد می‌کند که مدعی به حداکثر رساندن AU-RPC است. با این حال، نویسندگان از یادگیرندگان بر اساس بند های مرتبه اول استفاده می کنند، در حالی که من باید از یادگیرندگان WeakLearn پیشنهادی اولیه استفاده کنم. چگونه می توانم همان ایده را با الگوریتم یادگیرنده اصلی اعمال کنم؟
چگونه RankBoost را تغییر دهیم تا به جای AUC، ناحیه زیر منحنی فراخوانی دقیق را به حداکثر برسانیم؟
38088
من باید با توزیع دو وجهی و عادی کار کنم. با شروع از مجموعه ای از توزیع دووجهی داده شده، باید مجموعه ای از بردارهای تصادفی را رسم کنم. برخی از این بردارهای تصادفی باید دارای ضرایب همبستگی باشند. من فکر کردم که یک بردار $x_1$ از مقادیر تصادفی از یکی از توزیع‌های دووجهی رسم کنم و سپس با مقداری نویز گاوسی $\epsilon$ ترکیب کنم تا یک بردار $x_2$ جدید مرتبط با اولی بدست آوریم. اما من باید ضریب همبستگی را از قبل بدانم. علاوه بر این، من فکر می کنم نمی توانم از همبستگی پیرسون استفاده کنم زیرا میانگین و واریانس برای توزیع دووجهی معنی ندارد. هر توصیه ای؟
همبستگی و توزیع های غیر نرمال
13812
یک سیستم دارای نرخ درخواست ورودی N درخواست در ثانیه است. این سیستم میزبان مجموعه ای از x کارگران است که در آن x >= N. هر کارگر می تواند یک درخواست را در حدود t ثانیه تکمیل کند. حداکثر درخواست های موازی قابل پردازش توسط سیستم x است. اما گاهی اوقات یک کارگر می تواند به طور نامحدود تاخیر داشته باشد و زمانی که از T ثانیه بیشتر شود، درخواست فعلی لغو می شود و یک درخواست جدید _(t < T)_ پردازش می شود. این ممکن است برای 1٪ - 100٪ از کارگران برای چند ثانیه اتفاق بیفتد. در طول آن T ثانیه، کارگر مسدود می شود و نمی تواند درخواست دیگری را پردازش کند. این درخواست های پردازش نشده حذف می شوند و دیگر پردازش نمی شوند. برای جلوگیری از مسدود شدن نامحدود، سیستم درخواست فعلی را برای شروع پردازش یک درخواست جدید لغو می کند. به طور متوسط ​​هر ساعت n درخواست لغو می شود. چگونه این اطلاعات را برای یافتن موارد زیر مدل می کنید؟ 1. تعداد درخواست های حذف شده به عنوان تابعی از درخواست های لغو شده. 2. تأثیر زمان تنظیم (T)، اندازه استخر کارگران (x)، میانگین زمان فرآیند (t) بر کاهش یا افزایش تعداد درخواست‌های حذف شده یا معکوس آن، تعداد درخواست‌های پردازش شده؟ 3. بدترین، متوسط ​​یا بهترین حالت ظرفیت سیستم.
مدلسازی بدترین، متوسط ​​و بهترین حالت ظرفیت یک سیستم
75045
چگونه یک منحنی فراخوان دقیق از روی ماتریس خطا و بردار برچسب ها محاسبه می شود؟ ماتریس خطا به اندازه NxN است و حاوی فواصل بین ویژگی های مرتبط با سطر و ستون مربوطه است (در نتیجه قطر 0 است). برچسب ها در یک بردار 1xN هستند و کلاس مربوط به سطرها/ستون های ماتریس خطا را توصیف می کنند، به عنوان مثال. [1 1 1 1 2 2 2 ... 20 20 20 21 21 ... C-1 C-1 ... C C C]، که در آن C تعداد کلاس ها است. من از دو معادله زیر در تمام نتایج رتبه‌بندی برای هر کلاس استفاده کرده‌ام تا به مقادیر دقت و یادآوری برای هر کلاس ختم شود. دقت = TP / (TP + FP) فراخوانی = TP / (TP + FN) سؤال من این است (اگر کاری که من انجام می‌دهم درست است): این است که چگونه همه مقادیر فراخوان دقیق کلاس با هم ترکیب می‌شوند/میانگین می‌شوند تا یک نمودار واحد به دست آید. ? آیا من فقط میانگین تمام مقادیر دقت را در یک مقدار معین فراخوانی انجام می دهم؟ یا اینکه میانگین تمام مقادیر دقت برای یک رتبه معین و میانگین همه مقادیر فراخوان برای یک رتبه معین قابل قبول است؟ برای هر بینشی بسیار متشکرم. منحنی های یادآوری دقیقی که من دریافت می کنم در این تصویر نشان داده شده است. ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/JhVkp.png) کد زیر (اما احتمالا غیر ضروری). % نقاط فراخوانی دقیق را برای رسم برمی گرداند. % 'dismat' یک ماتریس فاصله NxN است که حاوی فاصله بین هر ویژگی و هر ویژگی دیگر است. % 'labels' یک بردار N-طول است که با هر سطر و ستون تابع 'dismat' مطابقت دارد [prec,recall] = calcPrecisionRecall( dismat, labels) if size(labels, 1) ~= 1 labels = labels'; end numClasses = length(unique(labels)); [sortedDistMat, idx] = sort(dismat); % هر ستون مرتب شده است recalledClasses = labels(idx); recalledMatches = bsxfun(@eq, recalledClasses(2:end, :), labels); classMatches = صفر (اندازه (RecalledMatches, 1)، numClasses); instancesPerClass = صفر (1، numClasses); برای ii=1:numClasses classMatches(:, ii) = sum(recalledMatches(:, labels == ii), 2); instancesPerClass(ii) = sum(labels == ii); پایان % ما فقط رتبه را افزایش می دهیم تا امتیازات prec = zeros(size(classMatches)) را بدست آوریم. recall = صفر (اندازه(مطابقات کلاس)); sumClassMatches = cumsum(classMatches); rank = 1:size(classMatches, 1) for ci =1:numClasses prec(rank, ci) = sumClassMatches(rank, ci) ./ (rank' * instancesPerClass(ci)); recall(rank, ci) = sumClassMatches(rank, ci) / ((instancesPerClass(ci) - 1) * instancesPerClass(ci)); پایان % میانگین تمام مقادیر دقت و تمام مقادیر فراخوانی (بنابراین نقاط داده میانگین prec-- میانگین فراخوانی برای یک رتبه خاص خواهند بود) avgPrec = mean(prec, 2); avgRecall = mean(Recal, 2); من قبلاً این سؤال را در StackExchange پرسیدم (http://stackoverflow.com/questions/19824979/matlab-precision-recall-from-error-matrix) اما به من گفته شد که سؤالم را اینجا بیاورم.
محاسبه منحنی فراخوان دقیق از ماتریس خطا در متلب
7653
همانطور که توسط یکی از شما پیشنهاد شده بود، _Clinical Trials, a Methodologic Perspective_ (S. Piantadosi) را خواندم. به گفته نویسنده: > یک کارآزمایی باید دو طرز تفکر متفاوت را درک کند که از جنبه علمی- بالینی و آماری پشتیبانی می کند. هر دوی آنها زمینه ساز ظهور مجدد > درمان به عنوان یک علم مدرن هستند. هر یک از روش‌های استدلال به طور مستقل پدید آمدند و اگر می‌خواهند به طور مؤثر به سؤالات درمانی پاسخ دهند، باید به طرز ماهرانه‌ای ترکیب شوند. من نمی توانم بفهمم منظور نویسنده از استدلال بالینی چیست. آیا می توانید به من کمک کنید تا این مفهوم را درک کنم؟ پیشاپیش از شما متشکرم
در رابطه با کارآزمایی های بالینی، استدلال بالینی در مقابل استدلال آماری چیست؟
103082
اگر سری زمانی دارید و می خواهید پیش بینی هایی انجام دهید، از چه **ویژگی زمانی** باید استفاده کنید؟ فرض کنید می‌خواهیم پیش‌بینی کنیم _چند نفر از یک وب‌سایت خاص بازدید می‌کنند_، داده‌هایی برای بازدیدهای ۲ سال گذشته داریم، چه چیزی را باید به عنوان ویژگی زمانی در نظر بگیریم؟ و اگر از ویژگی های بیشتری استفاده کنیم ممکن است مدل ما دقت کمتری داشته باشد؟ **ویژگی هایی که می توانم به آنها فکر کنم عبارتند از:** فهرست تاریخ (1-700) شماره هفته (1-53) روز هفته (1-7) ماه (1-12) روز ماه (1- 31) روز سال (1-365) سال
اهمیت ویژگی های زمان
88900
من در حال انجام برخی تجزیه و تحلیل داده‌ها هستم که شامل برازش مجموعه داده‌ها به یک توزیع GEV است، اما نتایج عجیبی دریافت می‌کنم. من از scipy استفاده می کنم که از MLE برای برازش پارامترها استفاده می کند. داده‌های من [1.47، 0.02، 0.3، 0.01، 0.01، 0.02، 0.02، 0.12، 0.38، 0.02، 0.15، 0.01، 0.3، 0.24، 0.01، 0.01، 0.01، 0.01، 0.05، 0.01، 0.01، 0.0، 0.05، 0.0، 0.09، 0.03، 0.22، 0.0، 0.1، 0.0] با استفاده از `scipy.stats.genextreme.fit`، پارامترهای زیر را دریافت می کنم: shape = 8.39-8 = 8.21009 آزمون کولموگروف-اسمیرنوف (`scipy.stats.kstest`) D = 0.4171 p-value = 2.1576e-08 را می دهد و نمودار هیستوگرام و pdf به این صورت است: ![histogram & pdf](http://i .stack.imgur.com/ku8SP.png) اکنون مشکلات: 1. داده ها جریان های هیدرولوژیکی هستند. اگر از مدل GEV برای استخراج استفاده کنم، به عنوان مثال. جریان تکرار 50 ساله من مقدار بسیار مضحکی را دریافت می کنم، چیزی به ترتیب 1e17، بنابراین به طور شهودی مدل نادرست است. 2. مقدار p بسیار پایین است، که نشان می دهد پارامترهای مدل نادرست هستند، یا خود مدل نامناسب است. با این حال، من هیچ مورد دیگری را نمی شناسم که برای مقادیر افراطی مناسب باشد. 3. ما یک صفحه گسترده جعبه سیاه داریم که سال ها پیش توسعه یافته است که GEV را با استفاده از روش لحظه ها محاسبه می کند، و به نظر می رسد نتایج معقولی را برای فواصل عود خاص ارائه می دهد. متأسفانه شخصی که آن را توسعه داده مدتهاست از بین رفته است و من نمی توانم به محاسبات دسترسی پیدا کنم تا ببینم چه خبر است. با این حال، به این معنی است که روش گشتاورها ممکن است تناسب بهتری نسبت به MLE برای این داده ها ارائه دهد. آیا من از روش‌های اشتباهی برای این نوع داده‌ها استفاده می‌کنم یا روشی که آنها را به کار می‌برم اشکالی دارد؟
پارامترهای اشتباه برای GEV
14422
فرض کنید من یک توزیع پیش بینی چند متغیره دارم (بعد N). توزیع را نمی توان به صورت بسته با بردار mu و ماتریس کوواریانس مرتبط توصیف کرد. با این حال، من می توانم از توزیع سناریوهای مختلف با احتمالات مرتبط نمونه برداری کنم. می توان نمونه برداری از 100000 سناریو را برای ساخت یک ماتریس تصور کرد که در آن هر ردیف توزیع مشترک یک سناریو را نشان می دهد و یک احتمال با هر سناریو مرتبط است. حال فرض کنید من یک بردار وزن دارم و در حال انجام برخی بهینه‌سازی‌ها شامل توزیع (مثلاً یک بهینه‌سازی میانگین واریانس) با برخی محدودیت‌ها هستم. به طور طبیعی، برای هر قرعه کشی معینی از توزیع، می توانیم وزن های بهینه ای را جستجو کنیم که تابع میانگین واریانس را به حداکثر می رساند: وزن ها * بازده نمونه گیری - وزن ها (جابه جایی) * E * وزن ها. با این حال، وزن های بهینه برای یک قرعه کشی به طور کلی با وزنه های بهینه از قرعه کشی دیگر مطابقت نخواهد داشت. سوال - انتخاب بهینه برای بردار وزن چیست؟ من معتقدم که پاسخ ممکن است شامل یک روش بهینه‌سازی تصادفی باشد، با این حال، من با این فضا آشنا نیستم و می‌خواهم آن را تأیید کنم. همچنین ارتباطات طبیعی با ادبیات بهینه‌سازی قوی وجود دارد، اما راه‌حل‌ها در اینجا به عبارت‌های بسته برای توزیع چند متغیره نیاز دارند. من نمونه برداری مجدد را بررسی کرده ام که مشابهی با بند چکمه دارد. این شامل ساخت وزن های بهینه برای بسیاری از نمونه ها از توزیع پیش بینی و به نوعی میانگین گیری یا ترکیب وزن ها است. با این حال، این رویکرد ناقص است و فاقد مبنای نظری است. چگونه می توانم برای مقابله با این مشکل با بهینه سازی تصادفی یا برخی تکنیک های دیگر اقدام کنم؟
بهینه سازی (Stochastic) با توزیع پیش بینی چند متغیره
100868
من در حال کدنویسی یک متاآنالیز هستم و به مقاله ای برخوردم که به نظر می رسد تنوع قابل توجهی در تعداد شرکت کنندگانی که به سؤالات جمعیت شناختی خاصی پاسخ داده اند دارد. حجم کل نمونه $N = 81$ است، اما تعداد شرکت کنندگان مورد استفاده برای محاسبه و گزارش سن ($n = 72$)، سال تجربه شغلی ($n = 74$)، و جنسیت ($n = 80$) ) متفاوت است. آیا یک قاعده کلی برای اینکه آیا/چگونه این داده ها را برای تحلیل های تعدیل کننده کدگذاری کنیم وجود دارد؟ من همکاری کاکرین را بررسی کردم اما نتوانستم چیزی پیدا کنم. نگرانی من این است که با ثبت اندازه نمونه به عنوان 81 ($N$ که برای اندازه اثر استفاده می شود)، به نوعی تحلیل های تعدیل کننده من را منحرف می کند زیرا برای سن، n واقعی بسیار کمتر است. آیا باید به سادگی داده ها را به عنوان مفقود برای این مطالعه خاص فهرست کنم؟ آیا می توانم آن را تبدیل کنم، یا حتی از آن همانطور که هست استفاده کنم؟
ناهماهنگی حجم نمونه در متاآنالیز
114815
من پیش‌بینی‌های زیادی از سری‌های زمانی با استفاده از مدل ARIMA در بسته پیش‌بینی R دیده‌ام، و نتیجه همیشه قبل از رسیدن به سطح پایدار دارای برخی حرکت‌های اولیه است. چه چیزی باعث تکان دادن اولیه می شود؟ من نمی توانم تصویری را ضمیمه کنم زیرا برای ارسال تصاویر به حداقل 10 شهرت نیاز دارم. اساساً مقدار پیش‌بینی‌شده برای پیش‌بینی چند قدم اول با سطح پایدار طولانی متفاوت است، اما پس از چند مرحله به آن همگرا می‌شود. install.packages(forecast) library(forecast) install.packages(Ecdat) data(Tbrate,package=Ecdat) attach(as.list(Tbrate)) auto.arima(pi,max.P=0 ,max.Q=0,ic=bic) fit = arima(pi,order=c(1,1,1)) forecasts = predict(fit,36) plot(pi,xlim=c(1980,2006),ylim=c(-7,12)) خطوط (seq(from=1997,by=.25,length=36), forecasts$pred,col=red ) خطوط (seq(from=1997,by=.25,length=36), forecasts$pred + خطوط 1.96*forecasts$se، col=blue) (seq(from=1997,by=.25,length=36)، forecasts$pred - 1.96*forecasts$se، col=آبی)
چرا در پیش بینی مدل آریما تکان اولیه داریم؟
83101
در حال تماشای این ویدئو توسط تام مینکا در انتشار انتظارات (http://videolectures.net/mlss09uk_minka_ai/) بودم. در حدود ساعت 19:12، او می‌گوید که دلیل اینکه تکنیک تطبیق لحظه‌ای کار می‌کند این است که وقتی تعداد زیادی از عبارت‌های احتمال را با هم ضرب می‌کنید، توزیع پسین حاصل فشرده است و واریانس آن بسیار کم است و بیشتر گوسی به نظر می‌رسد (با فرض IID) . در نقطه‌ای از ویدیو، او می‌گوید این به دلیل قضیه حد مرکزی است. با این حال، من نمی توانم ببینم که چگونه CLT برای ضرب چنین احتمالاتی اعمال می شود و چرا این باید یک گاوسی فشرده را تقریب بزند. از هرگونه نظر/پیشنهاد در مورد درک این موضوع قدردانی می کنم.
قضیه حد مرکزی: ضرب احتمال
88903
من مجموعه داده ای از نوع $y;x_1، x_2، x_3، ... $ داشتم و از برخی از متغیرهایم برای انجام تحلیل خوشه ای استفاده کردم. فرض کنید یکی از آن متغیرهایی که من استفاده کردم $x_i$ سپس بود. بعد از اینکه خوشه هایم را داشتم. تصمیم گرفتم یک رگرسیون خطی ساده از نوع $y \hat{} x_1 + x_2 + ...$ ${\text{در هر یک از خوشه‌ها}}$ اجرا کنم. و جای تعجب نیست که متوجه شدم متغیر $x_i$ تقریباً یک ثابت است. این به این دلیل است که متغیر اصلی دارای محدوده $[0;10]$ بود. اما خوشه جدید دارای محدوده $[4;4.5]$ است (این فقط یک مثال است). بنابراین حدس من این است که متغیر من پس از انجام تجزیه و تحلیل خوشه ای قدرت توضیح را از دست داد. من مایلم نظراتی را در مورد چگونگی اندازه گیری میزان قدرت اطلاعاتی که از دست داده ام و اینکه آیا اصلاً باید از متغیرها پس از انجام تجزیه و تحلیل خوشه ای با آنها استفاده کنم، بشنوم.
رگرسیون خطی پس از تجزیه و تحلیل خوشه ای (چه مقدار اطلاعات را از دست دادم)
38081
اگر فرضیه کاری گسترده ای دارید که x بر اساس علّی/پیش بینی کننده بر y تأثیر می گذارد (مثلاً اگر x در زمان t بالا رود، انتظار دارید که y در زمان t+ بالا برود، برای روشن کردن سؤال کمی بیشتر). 1، با فرض صحت فرضیه کاری). در تحلیل سری‌های زمانی سنتی، مدت زمانی که دوره t برای t نشان می‌دهد و t+1 مساوی است. آیا تغییرات در دوره هایی که هر یک نشان دهنده آن هستند، می توانند به راحتی برای اهداف تجزیه و تحلیل تغییر کنند؟ همچنین اگر مثال t را یک روز در نظر بگیریم، آیا می توان تفاوت در پیش بینی را برای بازه های زمانی مختلف تشخیص داد، به عنوان مثال. x امروز بالا می رود و در طول 3 روز آینده y بالا می رود یا در طول 5 روز آینده y پایین می آید (اگر هر دو مهم باشند چه اتفاقی می افتد؟). چگونه می‌توان چارچوب زمانی پیش‌بینی را تشخیص داد، جدا از اعمال فشار بر هر ترکیب ممکن از قبل و بعد از تایم فریم‌ها (مثلاً آزمایش اینکه آیا x در طول m روز گذشته بالا رفته است، چه اتفاقی برای y در 1 تا بعدی می‌افتد؟ n روز).
چگونه بازه زمانی یک پیش بینی را برای آزمایش انتخاب می کنید؟
40505
من با داده کاوی تازه کار هستم و در حال بررسی راه هایی برای تقسیم طیف وسیعی از داده ها به سطل هستم. اگر اصطلاح علمی این شغل را بدانم (شاید رتبه بندی؟) جستجو برای الگوریتم ها بسیار ساده تر خواهد بود. در اینجا چیزی است که من می خواهم: من یک داده در یک محدوده تعریف شده دارم، یعنی [حداقل، حداکثر]. من آمار مرتبه اول داده ها مانند میانگین، واریانس، میانه و غیره را می دانم. من همچنین یک هیستوگرام آن را رسم کردم. وضعیت من به نوعی شبیه به اختصاص نمره نامه به دانش آموزان پس از امتحان با بررسی توزیع نمرات کل امتحانات است. من می‌خواهم برای داده‌ها از 1 تا 5 نمره‌هایی داشته باشم که اولین bin حاوی کوچک‌ترین مقادیر داده و 5 حاوی بالاترین مقادیر باشد. من می‌توانم این کار را به طور یکنواخت با تقسیم محدوده داده‌هایم به 5 قطعه مساوی انجام دهم، اما این رضایت‌بخش نخواهد بود. من می خواهم این کار را با بازرسی توزیع داده های خود انجام دهم. اگر بتوانید برخی از الگوریتم های شناخته شده را برای انجام این کار به من پیشنهاد دهید، خوشحال می شوم.
درجه بندی طیف وسیعی از داده ها
89366
من یک سوال در مورد نسبت پذیرش مورد استفاده در هنگام اجرای یک پیاده‌روی تصادفی M-H در نمونه‌بردار گیبس برای تولید مسیرهای نمونه یک فرآیند غیرقابل مشاهده دارم. هنگام محاسبه احتمال مجموعه ای از پارامترها، آیا این احتمال شامل احتمال هر جهش در فرآیند پنهان داده شده $ \theta $ نیز می شود؟ مثال زیر یک مثال ساده انگیز انگیز است. داده‌ها از فرآیند زیر تولید می‌شوند: $$ c_{i,t} = \alpha + \beta y_{t} + \epsilon_{i,t} $$ که $$ dy_{t} = -\kappa y_{t } + N(0,1) $$ بنابراین، $ Y $، که غیر قابل مشاهده و مستقل از جمله ثابت است، از یک فرآیند Ornstein-Uhlenbeck پیروی می کند. من سعی می‌کنم $ \theta = (\alpha، \beta، \kappa) $ را با استفاده از الگوریتم EM تخمین بزنم که در آن نمونه‌هایی از فرآیند OU از یک نمونه‌گر gibbs با استفاده از گام تصادفی M-H گرفته می‌شود. هنگام کشیدن نمونه، با $ Y^{(0)}_{t} = 0 $ برای $ t = 0,1,2...T$ شروع می کنم. من قصد دارم یک نامزد جدید $y_t$ از $ N(Y^{(n-1)}_t, 2) $ با احتمال پذیرش $$min (\dfrac{L(\theta | C, Y^{) ترسیم کنم (n-1)}_{(-t)}،Y_t = y_t)}{L(\theta | C, Y^{(n-1)}_{t})}، 1) $$ سوال من این است : آیا توابع احتمال در احتمال پذیرش یک احتمال مشترک برای مشاهده همه مقادیر C $ و احتمال رفتن از $ Y_{t-1} -> y_t -> Y_{t+1} $ هستند یا فقط مشاهده همه مقادیر دلار کانادا؟ به عبارت دیگر، آیا تابع درستنمایی بیشتر شبیه است (هنگامی که تابع درستنمایی را به مقادیر $c_{i,t}$ برای یک دوره زمانی محدود می‌کنیم) $$ \prod_{j=1}^N \phi(c_{j ,t} - \alpha - \بتا y_t) $$ یا $$ \lbrace \prod_{j=1}^N \phi(c_{j,t} - \alpha - \بتا y_t) \rbrace \cdot p(y_t | Y^{(n-1)}_{t-1}) \cdot p(Y^{(n-1)}_{t+1} | y_t)$$ من یک سوال مشابه برای تابع احتمال دارم که سعی می کنم در مرحله M الگوریتم EM حداکثر کنم. من فرض می‌کنم هنگام پیدا کردن $\kappa$ که تابع احتمال را در تمام مسیرهای نمونه به حداکثر می‌رساند، باید احتمال مشترک پرش از $y_{t-1}$ به $y_t$ را برای هر پرش در هر مسیر نمونه لحاظ کنم. ?
تابع درستنمایی مناسب در احتمال پذیرش گیبس سمپلر
43083
من می‌خواهم بهترین راه برای اعتبارسنجی یک اندازه‌گیری در مقیاس لیکرت را برای یک پزشک غیر مبتدی توضیح دهم. این متغیر یک دوز متوسط ​​را در 5 سطح از بیماران (پایین به بالاتر) توصیف می کند. ساده ترین راه برای تأیید اینکه دوز از نظر آماری از سطح 1 به سطح 2 به سطح 3 .. به سطح 5 افزایش می یابد چیست؟
ساده ترین آزمون برای سازگاری مقیاس رتبه بندی
82475
توزیع بتا را برای مجموعه ای از رتبه بندی ها در [0,1] در نظر بگیرید. پس از محاسبه میانگین: $$ \mu = \frac{\alpha}{\alpha+\beta} $$ آیا راهی برای ارائه فاصله اطمینان حول این میانگین وجود دارد؟
فاصله اطمینان برای میانگین توزیع بتا را محاسبه کنید
100644
بنابراین من داده‌ای متشکل از یک متغیر دوجمله‌ای دارم که در دوره‌های زمانی متعدد مشاهده شده است و می‌خواهم از یک آزمون آماری برای تعیین وجود تغییر در طول زمان استفاده کنم. بنابراین به نظر می رسد: دوره تعداد مشاهدات تعداد موفقیت ها تعداد شکست ها 1 10 7 3 2 30 22 8 3 25 20 5 4 20 13 7 5 4 2 2 6 1 0 1 7 10 6 4 فرض کنید می خواهم مقایسه کنم دوره 5-6-7 با 1-2-3-4. اگر 5-6-7 و 1-2-3-4 را با هم گروه بندی کنیم و به سادگی از $p_{1234}$ و $p_{567}$ استفاده کنیم، جایی که $p_{1234}$ میزان موفقیت در دوره های 1- است. 2-3-4 و $p_{567}$ مربوط به دوره های 5-6-7 است، می توانیم از $ معمول استفاده کنیم \frac{p_{1234}-p_{567}}{\sqrt{p_{1234567}(1-p_{1234567}(1/n_{1234}+1/n_{567})}} فرمول $. نشان نمی دهد که $p_5 < p_{1234}, p_6 < p_{1234}, p_7< p_{1234}دلار من به طور همزمان احساس می کنم که باید یک آزمون F مناسب بسازم، اما نمی توانم به فرمول دقیق آن دست پیدا کنم.
تغییر در نسبت - دوره های متعدد
96213
اگر داده‌ها (مقدار) از دو نوع دریافت شده‌اند (مثلاً درست یا نادرست): > str(test.df) 'data.frame': 3208 obs. از 2 متغیر: $ cond : Factor w/ 2 سطح FALSE، TRUE: 1 1 1 1 1 1 1 1 1 1 ... $ value: num 31 25 21 29 18 41 15 7 33 6 ... میانگین و واریانس (و همچنین تعداد موارد) متفاوت است: > آمار <- ddply(test.df، .(cond)، خلاصه، mean=mean(value)، var=var(value)، n=length(value)) > stats cond mean var n 1 FALSE 17.33918 141.3199 3137 2 TRUE 247.747. بنابراین واریانس های مختلف یعنی من نمیتونم از تست ویلکاکسون استفاده کنم درسته؟ اگر چگالی ها را رسم کنم، موارد زیر را می بینم: ![densities](http://i.stack.imgur.com/s4Wt8.png) آزمون Shapiro می گوید که آنها دارای توزیع نرمال نیستند. > shapiro.test(test.df[test.df$cond==TRUE, 'value']) داده‌های تست نرمال بودن Shapiro-Wilk: test.df[test.df$cond == TRUE, value] W = 0.9583 ، p-value = 0.01901 > shapiro.test(test.df[test.df$cond==FALSE، 'value']) داده‌های تست نرمال Shapiro-Wilk: test.df[test.df$cond == FALSE، value] W = 0.9348، p-value < 2.2e-16 بدون توزیع نرمال به این معنی است که نمی‌توانم استفاده کنم تست Welch، درست است؟ بنابراین چگونه می توانم آزمایش کنم که آیا تفاوت میانگین ها قابل توجه است؟
در صورت متفاوت بودن واریانس ها چگونه می توان معناداری را آزمایش کرد؟
38339
من سعی می کنم داده های یک آزمایش فاکتوریل با سلول های از دست رفته را تجزیه و تحلیل کنم. من این مرجع http://users.monash.edu.au/~murray/BDAR/ را خوانده‌ام که توصیه می‌کند آزمایش را با یک آنوای یک طرفه درمان کنید، و برای ارزیابی اثرات و تعاملات اصلی، تضاد ایجاد کنید. به دنبال نمونه‌های کتاب، کنتراست‌ها را انجام دادم (fdata$ALL) <- cbind(c(rep(1,46), rep(-1,45), rep(0,32)), c(rep(-1,46) ,rep(0,45), rep(1,32))) AnovaM(aov(resp ~ ALL, fdata), split = list(ALL = list(PIE = 1:2, PIE1 vs PIE2=1، PIE1 vs PIE3=2))) من در ایجاد کنتراست در R مشکل دارم و می دانم چگونه تضادهای صحیح را برای هر تعامل ایجاد کنم. من شش عامل دارم، پنج فاکتور با 3 سطح، و یکی با دو، آیا کسی راه سیستماتیکی برای درمان این نوع مشکل می داند؟
فاکتوریل با سلول های از دست رفته R
82474
فرض کنید دو سیگنال برداری $x$, $z$ وجود دارد. ناظر 1 نسخه خطی $x$ به اضافه نویز گاوسی را دریافت می کند. مشاهده‌گر 2 یک مجموع خطی از $x$ و $z$ به اضافه نویز گاوسی را همانطور که در زیر نشان داده شده است دریافت می‌کند. $$y_1(t)=A_1(t)x(t)+n_1(t)،$$$y_2(t)=A_2(t)x(t)+B_2(t)z(t)+n_2( t).$$ اما ناظر 2 فقط به تخمین $z$ علاقه مند است بنابراین در حالت ایده آل او مایل است کل عبارت $A_2x$ را لغو کند. علاوه بر این، $A_2$ در طول زمان به آرامی در حال تغییر است. به آرامی به این معنا که تغییرات در طول زمان همبستگی دارند. فرض کنید ناظر 1 بتواند تخمین های خود را از $x$ مثلا $x_1$ به ناظر 2 ارائه دهد. آیا راهی وجود دارد که ناظر 2 از آن اطلاعات برای تخمین بهتر $z$ استفاده کند؟ ماتریس های $A_1،A_2،B_2$ مستقل هستند. ویرایش: فرض کنید $A_2(t+1)= \sum_{n=0}^{n=t}\alpha_nA_2(n) + z_t(t+1)$ که در آن $z_(t)$ نویز گاوسی مستقل است.
برآورد از دو مشاهده