_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
111992 | فرض کنید من این مدل MA(1) را دارم: $y_t = \mu + \epsilon_t + \theta \epsilon_{t-1}$ با $\epsilon_t \sim \mathcal{N}(0,\sigma^2)$ توزیع حاشیه ای $y_t$ برای همه $t$ $\mathcal{N}(\mu,\sigma^2(1 + \theta^2))$ است اما نظریه کلاسیک می گوید که از آنجایی که متغیرهای $y_t$ مستقل نیستند، احتمال نمونه حاصل ضرب چگالی های حاشیه ای نیست. به جای آن باید از چگالی های شرطی استفاده کرد (با توجه به $\epsilon_0 = 0$): $y_1 \sim \mathcal{N}(\mu,\sigma^2)$ $y_2 \sim \mathcal{N}(\mu + \ تتا \epsilon_1،\sigma^2)$ $...$ $y_t \sim \mathcal{N}(\mu + \theta \epsilon_{t-1},\sigma^2)$ و این احتمال حاصل ضرب این چگالی های شرطی است، درست است؟ اکنون، من یک برنامه کوچک در R نوشتم که فرآیند MA(1) را شبیهسازی میکند و توزیع متغیرهای $y_t$ تولید شده را نشان میدهد: n = 100000 mu = 5 تتا = 3 سیگما = 2 y = rep(1, n) eps. 1 = 0 برای (t در 1:n) { eps = rnorm(1، میانگین = 0، sd = سیگما) y[t] = mu + eps + تتا * eps.1 eps.1 = eps } منحنی hist(y، احتمال = TRUE) (dnorm(x، میانگین = mu، sd = سیگما * sqrt(1 + تتا^2))، col = آبی، add = TRUE) و من متوجه شدم که توزیع مشترک $y_t$ $\mathcal{N}(\mu,\sigma^2(1) است + \theta^2))$. چطور؟ | توزیع یک فرآیند MA(1). |
108424 | بگویید من در شرف دریافت 5 جایزه نقدی هستم و احتمال دریافت هر جایزه نقدی را دارم. بیایید مجموعه ای از جوایز نقدی را با $k$ نشان دهیم. بنابراین، مجموعه جوایز نقدی و مجموعه احتمالات مربوطه در زیر آمده است: $$k=\\{65,25,30,54,30\\}$$$$p(k)=\\{0.8,0.5 ,0.25,0.2,0.4\\}$$ بنابراین، ارزش مورد انتظار جوایز نقدی من است $$E[k]=65*0.8+25*0.5+30*0.25+54*0.2+30*0.4=94.8$$ بنابراین، سوال من این است: احتمال اینکه مجموع جوایز نقدی بیشتر باشد چقدر است از 85$؟ 90 دلار؟ **تلاش**: من به چیز معناداری نرسیدم. من نمی دانم که آیا سوال در وهله اول معتبر است یا خیر. با تشکر از کمک شما. | احتمال اینکه مجموع اعداد بالقوه بزرگتر از مقداری باشد |
87510 | من نتایج زیر را در R از تحلیل پواسون با ضریب تصادفی به دست آوردهام. مدل ترکیبی خطی تعمیم یافته برازش بر اساس حداکثر احتمال ['glmerMod'] خانواده: poisson ( log ) فرمول: فرکانس ~ 1 + insgen + Ageveh + ساخت + مساحت + (1 | ID) داده: پانل AIC BIC انحراف logLik 1099.9670 1134.926978354. تصادفی اثرات: نام گروه ها Variance Std.Dev. ID (Intercept) 1.551e-11 3.939e-06 تعداد obs: 584، گروهها: ID، 584 جلوههای ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -22.98292 8432.07738 -0.003 0.9978 insgenM 0.02616 0.08806 0.297 0.7664 ageveho 0.05088886060. -0.10447 0.04126 -2.532 0.0113 * area1 23.68571 8432.07738 0.003 0.9978 area2 23.85969 8432.07738 0.003 0.007 0.003 0.003 0.007 0.003 8432.07738 0.003 0.9978 * * * Signif. کدها: 0 « ** _» 0.001 «**» 0.01 «_» 0.05 «.» 0.1 «» 1 همبستگی اثرات ثابت: (Intr) insgnM ageveh make area1 area2 insgenM 0.000 ageveho 0.000 -0.01 0.000 -0.01 مساحت 1 -1.000 0.000 0.000 0.000 مساحت2 -1.000 0.000 0.000 0.000 1.000 مساحت3 -1.000 0.000 0.000 0.000 1.000 0.000 1.000 1.000 مساحت شامل M. سطوح (منطقه 1،2،3،4) و سن خودرو (جدید و قدیمی) و ساخت خودرو. | چگونه نتایج حاصل از تجزیه و تحلیل ضرایب تصادفی پواسون را تفسیر کنیم؟ |
95294 | یک مشکل درسی که توسط برخی ناشناخته ها در یک انجمن بحث ارائه شده است به شرح زیر است: به یک دانش آموز داده های مربوط به سن در هنگام مرگ رمان (67 امتیاز داده)، سن در هنگام مرگ شعر (32 امتیاز داده) و سن مرگ در داستان غیرداستانی داده شده است. 24 نقطه داده). سپس استاد خواست تا از روش های گرافیکی و عددی برای توصیف داده ها استفاده کند بدون اینکه بگوید چه نوع اطلاعاتی روی داده ها می خواهد. دانش آموز چه باید بکند؟ از استاد بپرسید واقعاً چه چیزی در ذهن اوست؟ آیا نمودارهایی از داده هایی که به او آموزش داده شده است؟ آیا تمرینهای دوره باید به خوبی تعریف شوند یا معمول است که تنها در صورتی میتوان دروس را گذراند که حدس بزند که مدرس میخواهد در پاسخ چه چیزی وجود داشته باشد؟ | چه نوع تحلیلی باید در یک دوره انجام داد |
31934 | من سعی می کنم یک توزیع گامای معکوس سه پارامتری را به داده های خود در R یا Python تطبیق دهم. من می خواهم این کار را با استفاده از تخمین حداکثر احتمال (MLE) انجام دهم. پی دی اف گامای معکوس سه پارامتر به صورت زیر ارائه می شود:  _جایی که Γ تابع گاما، ρ شکل، α است. مقیاس و s پارامتر مکان است_ من یک بسته R ندیدم که بتواند مستقیماً MLE را در این توزیع انجام دهد (اگر یکی را می شناسید، لطفاً به من اطلاع دهید!). بنابراین من فکر میکنم این یکی از این موارد را ترک میکند: * _(A) کار کردن تابع log-likelihood فرمول_ * _(B) تبدیل دادهها به توزیع گاما. با این حال، این توزیع فقط دو پارامتر دارد، بنابراین من نمیدانم چگونه پارامتر سوم را محاسبه کنم (من آدم ریاضی زیادی نیستم!). داده های من بسیار قدردانی خواهد شد! پیشاپیش سپاس فراوان | برآورد حداکثر احتمال توزیع گامای معکوس در R یا RPy |
31930 | من در مورد SOM و همچنین در مورد شبکه های Hopfield یاد می گیرم. من هنوز نمیدانم چرا از «SOM» به جای «Hopfield» و بالعکس استفاده میکنم. چه نوع مشکلاتی را باید با SOM حل کنم و کدام را با هاپفیلد؟ | تفاوت بین SOM و هاپفیلد |
93302 | من تازه وارد آمار هستم و باید با استفاده از SPSS تجزیه و تحلیل تحقیقاتی انجام دهم. باید بدانم هدف از حذف نقاط پرت چیست؟ من میخواهم مجموعه دادههایم را که از طریق یک نظرسنجی ملی به دست آمدهام عادی کنم، اما چند متغیر وجود دارد که حتی اگر دادههایم را تغییر داده باشم، منحنی زنگی را نشان نمیدهند. log، ln، sqrt و غیره. من همه چیز را امتحان کردم. چه کار دیگری می توان کرد؟ من باید تحلیل رگرسیون چندگانه روی داده ها انجام دهم تا داده های آینده را پیش بینی کنم. | موارد پرت برای عادی سازی: آیا مهم است؟ |
22069 | این یک سؤال مختصر است زیرا استاد من امروز در کلاس به آن اشاره کرد اما من کاملاً متوجه نمی شوم. چرا سوگیری متغیر حذف شده مشکل اصلی در تحلیل سری زمانی نیست؟ | بایاس متغیر حذف شده در سری های زمانی |
100961 | بالابر روی چه داده هایی باید محاسبه شود یعنی مجموعه تمرین یا مجموعه تست و چرا؟ ارزش بالابر 115 درصد به چه معناست | بالابر روی چه داده هایی باید محاسبه شود یعنی مجموعه تمرین یا مجموعه تست و چرا؟ |
77705 | سؤال من اساساً به شرح زیر است: توزیع قدر مطلق توزیع Skellam چگونه است. با تشکر | آیا قدر مطلق تفاوت بین دو توزیع پواسون توزیع پواسون است؟ |
100968 | من در حال حاضر در حال تلاش برای پیش بینی داده های بازدیدکنندگان برای فروشگاه ها هستم. مجموعه داده من شامل مجموع بازدیدکنندگان روزانه سه ساله است. توجه داشته باشید که مجموعه داده کامل نیست (فروشگاه ها می توانند برای چند روز بسته شوند و غیره). من مجموعه داده را با داده های آب و هوا در روز و اطلاعات تعطیلات افزوده ام (در هر نقطه داده حدود 18 ویژگی دارم، از جمله روزهای هفته، ماه، تعطیلات، داده های آب و هوا). سوابق علوم کامپیوتر من شامل روششناسی آماری زیادی نمیشود، بنابراین در یافتن اینکه کدام تکنیکها را میتوانم استفاده کنم/باید بررسی کنم، مشکل دارم. تمرکز من در حال حاضر روی پیشبینی 1 پیشبینی با یک شبکه عصبی ساده در pylearn2 است، اما پیشبینیهایی که من از آن خارج میشوم بسیار نادرست است. من می خواهم چند تکنیک دیگر را برای مقایسه و ارزیابی ارزیابی کنم. میتوانم از برخی نکات در جهتهای درست استفاده کنم، بنابراین میپرسم: کدام تکنیکها را میتوانم برای پیشبینی این اعداد بررسی کنم؟ و چگونه می توانم مشکل را برای افزایش موفقیت خود ساده کنم؟ | انتخاب تکنیک پیش بینی مناسب |
104043 | سوال من مربوط به این سوال است. من روی آزمایشی کار می کنم که شامل انتقال داده ها بین مکان های مختلف در سراسر جهان از طریق اینترنت است. از آنجایی که اینترنت ممکن است شلوغ باشد، گاهی اوقات انتقال همان مقدار داده بیشتر از زمان های دیگر طول می کشد. تفاوت می تواند قابل توجه باشد، به عنوان مثال. برای 1 مگابایت داده، معمولاً 2 ثانیه طول می کشد تا انتقال داده شود، اما گاهی اوقات (حدود 1 از 20 بار)، می تواند تا 20 ثانیه یا بیشتر طول بکشد. من در حال مقایسه تنظیمات مختلف برای یک مشکل هستم. برای هر کدام، چندین بار اجرا می کنم و میانگین نتیجه یعنی زمان حل مشکل را می گیرم. با این حال، از آنجایی که در یک راهاندازی میتواند اتفاق بیفتد اما در دیگری اتفاق نیفتد، مقایسه من تحت تأثیر قرار میگیرد. بنابراین، در حال حاضر، برای هر تنظیم، M بار را انجام میدهم اما فقط میانگین N کوچکترین نتایج را دریافت میکنم (N <M). همچنین قصد دارم روش خود را در مقاله بیان و توجیه کنم. بنابراین، سوال من این است که آیا روش من قابل قبول است و آیا باعث می شود مقاله من کمتر قابل اعتماد باشد؟ من همچنین علاقه مندم که چگونه به طور کلی با پرت تجربی رفتار می شود. من در CS کار می کنم، اما پاسخ از سایر زمینه ها استقبال می شود. | نحوه برخورد با موارد پرت در آزمایش |
95297 | فرض کنید ما مشاهداتی داریم $x_1 \dots x_n$ و نوعی چارچوب بیزی داریم که میخواهیم توزیعی را برای میانگین $\mu$ مشاهدات خود و واریانس $\sigma^2$ مشاهدات خود تخمین بزنیم (اینها سپس توزیع ها بر اساس مشاهدات بیشتر به روز می شوند). من 2 سوال دارم: 1) با قضیه حد مرکزی، برای $n$ بزرگ، $\hat{\mu} \sim N(\mu، \frac{\sigma^2}{n})$. بنابراین من به این فکر می کردم که از این به عنوان توزیع قبلی برای $\mu$ استفاده کنم. اگر قرار بود همین کار را برای واریانس انجام دهم، توزیع محدود کننده چقدر خواهد بود؟ 2) شاید بهتر باشد که بسیاری از زیرنمونههای $k$ از مشاهدات خود را انتخاب کنم، میانگین نمونه را در هر مورد محاسبه کنم و از آن به عنوان توزیع قبلی تجربی برای $\mu$ استفاده کنم (و همین کار را برای واریانس انجام دهیم) ? P.S. هرگونه پیوندی به اطلاعات بیشتر در مورد موضوع، قدردانی خواهد شد. | توزیع میانگین و واریانس |
4671 | من از یک روش انتخاب مدل خودکار، گام استفاده می کنم. مدل خروج (بزرگترین ممکن) یک چندجمله ای است، مثلاً از درجه 4. Depart<-lm(y~x+I(x^2)+I(x^3)+I(x^4)) Final<-step(Depart) باید مدل نهایی را به یک تابع مربوطه تبدیل کنم. چگونه می توانم این کار را انجام دهم؟ | پاسخ: چگونه یک تابع از یک مدل ایجاد کنیم؟ |
70929 | این یک پست طولانی است، بنابراین امیدوارم بتوانید با من تحمل کنید و لطفاً من را در جایی که اشتباه می کنم اصلاح کنید. _هدف من تولید یک پیش بینی روزانه بر اساس داده های تاریخی 3 یا 4 هفته ای است._ داده ها داده های 15 دقیقه ای بار محلی یکی از خطوط ترانسفورماتور است. در یافتن ترتیب مدل یک فرآیند ARIMA فصلی مشکل دارم. سری زمانی تقاضای برق را در نظر بگیرید:  هنگامی که 3 هفته اول به عنوان زیرمجموعه در نظر گرفته می شود و از هم جدا می شوند، نمودارهای ACF/PACF زیر محاسبه می شوند:    به نظر می رسد این سریال یک جورهایی است ثابت اما فصلی بودن نیز میتواند هفتگی باشد (به تفاوتهای فصلی هفته و تفاوتهای مرتبه دوم مراجعه کنید [اینجا]http://share.pho.to/3owoq، نظر شما چیست؟) بنابراین بیایید نتیجه بگیریم که مدل به شکل زیر است: $$ ARIMA (p,1,q)(P,1,Q)_{96} $$ در شکل آخر یک جهش مشخص در تاخیر 96 یک جزء MA(1) فصلی را نشان میدهد (شاید AR(1) می تواند به همان اندازه باشد که یک افزایش مشخص در PACF نیز وجود دارد). سنبله ها در تأخیر 1:4 یک جزء MA(4) را نشان می دهد که با کمی تخیل با فروپاشی نمایی در PACF مطابقت دارد. بنابراین مدل اولیه انتخاب شده به صورت دستی می تواند این باشد: $$ ARIMA(0,1,4)(0,1,1)_{96} $$ با سری: x ARIMA(0,1,4)(0,1,1 )[96] ضرایب: ma1 ma2 ma3 ma4 sma1 -0.2187 -0.2233 -0.0996 -0.0983 -0.9796 s.e. 0.0231 0.0234 0.0257 0.0251 0.0804 sigma^2 تخمین زده شده به عنوان 364612: log likelihood=-15138.91 **AIC=30289.82 AICc=30289.87 BIC=303. (با گام به گام و تقریب روی TRUE، در غیر این صورت زمان زیادی طول می کشد تا همگرا شوند): $$ ARIMA(1,1,1)(2,0,2)_{96} $$ با سری: x ARIMA(1,1, 1)(2،0،2)[96] ضرایب: ar1 ma1 sar1 sar2 sma1 sma2 0.7607 -1.0010 0.4834 0.4979 -0.3369 -0.4168 s.e. 0.0163 0.0001 0.0033 0.0116 0.0216 0.0255 sigma^2 تخمین زده شده به عنوان 406766: log likelihood=-15872.02 **AIC=31744.99 AICc=317453.05. تفاوت اعمال می شود. در اینجا باقیمانده های هر دو مدل آمده است. آمار جعبه لیونگ مقدار p بسیار کوچکی را نشان می دهد، که نشان می دهد هنوز همبستگی خودکار وجود دارد (اگر اشتباه می کنم، مرا تصحیح کنید). ## پیشبینی بنابراین برای تعیین اینکه کدام بهتر است، آزمون دقت خارج از نمونه بهترین است. بنابراین برای هر دو مدل یک پیش بینی 24 ساعت قبل انجام می شود که با یکدیگر مقایسه می شود. نتایج عبارتند از:   خودکار : ME RMSE MAE MPE MAPE MASE ACF1 مجموعه آموزشی Theil's U -2.586653 606.3188 439.1367 -1.284165 7.599403 0.4914563 -0.01219792 NA مجموعه تست -330.144797 896.6998 754.0080 -7.749675 13.2689 13.268 0.70219229 1.617834 Manual ME RMSE MAE MPE MAPE MASE ACF1 Theil's U Training set 2.456596e-03 589.1267 435.6571 -0.7815229 7.50247 7.5014 -0.002034122 NA مجموعه تست 2.878919e+02 919.7398 696.0593 3.4756363 10.317420 0.7789892 0.731013599 1.2817# اولین سوالی است که می توانید در سه هفته فکر کنید. یک مجموعه داده من در ذهن خود با سؤالات زیر دست و پنجه نرم می کنم: 1. چگونه می توانم بهترین مدل ARIMA را انتخاب کنم (با آزمایش همه سفارشات مختلف و بررسی بهترین MASE/MAPE/MSE؟ که در آن انتخاب اندازه گیری عملکرد می تواند بحثی باشد. خود ..) 2. اگر برای هر پیش بینی روز جدید یک مدل و پیش بینی جدید ایجاد کنم (مانند پیش بینی آنلاین)، آیا باید روند سالانه را در نظر بگیرم و چگونه؟ (همانطور که در چنین زیرمجموعه کوچکی حدس من این است که روند ناچیز است) 3. آیا انتظار دارید که ترتیب مدل در سرتاسر مجموعه داده یکسان بماند، یعنی وقتی زیرمجموعه دیگری را انتخاب می کنم، همان مدل را به من می دهد؟ 4. راه خوبی در این روش برای کنار آمدن با تعطیلات چیست؟ یا آیا ARIMAX با آدمک های تعطیلات خارجی برای این مورد نیاز است؟ 5. آیا باید از رویکرد سری فوریه برای امتحان مدلهایی با «فصلی=672» استفاده کنم که در دورههای طولانی فصلی بحث شده است؟ 6. اگر چنین است، این مانند «fit<-Arima(timeseries,order=c(0,1,4), xreg=fourier(1:n,4,672)» خواهد بود (که در آن تابع fourier همانطور که در پست وبلاگ Hyndman تعریف شده است 7. آیا مولفه های اولیه P و Q در سری فویر گنجانده شده است رگرسیون خطی (پویا) برای مقایسه ## داده https://www.dropbox.com/sh/mzx61sskya5ze6x/Zq3A7Q6htH/trafo.txt # داده کد<-read.csv(file, sep. =;) load<-data[,3] حذف می کنم | مشکل در تعریف سفارش ARIMA |
87514 | آیا نمونه هایی از یادگیری ماشینی در رایانه های شخصی ما وجود دارد؟ تنها موردی که می شناسم برنامه تشخیص گفتار ویندوز است. منظورم هیچ افزونه ای نیست. منظور من همه برنامه های اساسی است که در اکثر رایانه های شخصی موجود است. **ویرایش:** هر مرجعی مفید خواهد بود. | نمونه هایی از یادگیری ماشین در رایانه های شخصی |
71879 | من یک شبیهسازی سریع را برای مقایسه روشهای مختلف خوشهبندی اجرا میکنم و در حال حاضر در تلاش برای ارزیابی راهحلهای خوشهای به مشکل برخوردم. من معیارهای اعتبارسنجی مختلفی را میشناسم (بسیاری از آنها در ()cluster.stats در R یافت میشوند)، اما فرض میکنم اگر تعداد تخمینی خوشهها در واقع با تعداد واقعی خوشهها برابر باشد، بهترین استفاده از آنها است. من میخواهم توانایی اندازهگیری عملکرد یک راهحل خوشهبندی را وقتی که تعداد صحیح خوشهها را در شبیهسازی اصلی مشخص نمیکند، حفظ کنم (به عنوان مثال، چگونه دادههای مدل راهحل سه خوشهای که شبیهسازی شدهاند برای داشتن یک خوشه ۴ خوشهای خوب است. راه حل). فقط برای اطلاع شما، خوشه ها برای داشتن ماتریس های کوواریانس یکسان شبیه سازی شده اند. من فکر می کردم که واگرایی KL بین دو مخلوط گاوسی برای پیاده سازی مفید خواهد بود، اما هیچ راه حل بسته ای وجود ندارد (Hershey and Olson (2007)) و پیاده سازی شبیه سازی مونت کارلو از نظر محاسباتی گران تمام می شود. آیا راه حل های دیگری وجود دارد که پیاده سازی آنها آسان باشد (حتی اگر فقط به صورت تقریبی باشد)؟ | فاصله بین دو مخلوط گاوسی برای ارزیابی راه حل های خوشه ای |
104049 | من تازه وارد CV هستم، پس لطفاً هر گونه تقلبی را ببخشید. من دادههای نمونه را از یک جامعه جمعآوری کردهام و میخواهم تشخیص دهم که آیا گروه آزمایش از گروه کنترل بهتر عمل میکند یا خیر. فرض کنید من 10000 مشاهده در گروه آزمایشی داشتم و 4500 موفقیت دیدم. این را هم بگوییم که من 47 درصد میزان موفقیت را در گروه کنترل خود مشاهده کردم (بنابراین اگر گروه کنترل من 5 درصد از کل حجم نمونه باشد، 235 موفقیت از 500 کارآزمایی خواهد بود). آیا من در استفاده و تفسیر موارد زیر حق دارم؟: prop.test(4500,10000,.47,alt=less) داده: 4500 از 10000، احتمال صفر 0.47 X-squared = 15.9776، df = 1، p-value = 3.205e-05 فرضیه جایگزین: p واقعی کمتر از 0.47 95 درصد فاصله اطمینان: 0.0000000 0.4582455 تخمین های نمونه: p 0.45 از آنجایی که p-value بسیار کمتر از 0.05 است، می توانم با خیال راحت این فرضیه صفر را رد کنم که گروه آزمایش به خوبی یا بهتر از گروه کنترل عمل می کند. همچنین می دانم که در 95 درصد مواقع، احتمال موفقیت برای گروه آزمایش بین 0 تا 45.8 درصد کاهش می یابد. همچنین، آیا تابع «prop.test» شاخص خوبی برای اندازه کافی نمونه است؟ اگر نه، چیست؟ با تشکر | استفاده از تابع prop.test R برای مقایسه زیر مجموعه های یک جمعیت |
31243 | آزمونهای منتل معمولاً برای مقایسه فواصل ژنتیکی (مثلاً بین تعدادی از افراد) با فاصلههای منظره واقعی یا فرضی بین همان افراد استفاده میشوند. به عنوان مثال، آیا فاصله خطی ساده با فاصله ژنتیکی مشاهده شده بهتر از فاصله ای مبتنی بر اجتناب از برخی ویژگی های چشم انداز (مانند توده های آبی، ارتفاعات بالا) همبستگی دارد؟ اطلاعات بیشتر در مورد جزئیات آزمایش را می توانید در اینجا بیابید: تجزیه و تحلیل فضایی در اکولوژی. سوال من، با این حال، به استفاده از روش های انتخاب مدل AIC و مدل برای انتخاب بین مدل های رقیب برای فواصل منظره مربوط می شود. به عنوان مثال، اگر فواصل ژنتیکی را بدانید، ممکن است 3 مدل مختلف را برای ایجاد فواصل منظر فرض کنید: 1. فاصله خطی 2. فاصله بر اساس اجتناب از ارتفاع زیاد 3. فاصله بر اساس اجتناب از ارتفاع زیاد و توده های آبی در حال حاضر، یکی از این موارد را انتخاب کنید. مدلهای مبتنی بر نتیجه آزمایشهای Mantel کمی _ad hoc_ بوده است - اساساً در مقایسه با بزرگی $r$ و فواصل اطمینان Mantel برای هر مدل. من می خواهم از یک چارچوب انتخاب مدل AIC/مدل برای این کار استفاده کنم، اما به نظر می رسد چند مشکل وجود دارد: 1. به من توصیه شده است که به دلیل عدم استقلال در ساختار داده (یعنی $ وجود ندارد n(n-1)/2$ مشاهدات مستقل)، AIC مناسب نخواهد بود. یک مسئله مرتبط این است که چگونه $n$ برای AIC در این مورد محاسبه می شود؟ 2. فکر اولیه من این بود که مدل 3 دارای پارامترهای بیشتری نسبت به مدل های 2 یا 1 خواهد بود و بنابراین $K$ در محاسبه AIC منعکس کننده آن خواهد بود. اما، اکنون به نظر من واضح است که چون ورودیها صرفاً دو ماتریس هستند، تعداد پارامترها در همه مدلها برابر است (بدون توجه به تعداد متغیرهایی که برای ایجاد مقادیر فاصله چشمانداز زیرین استفاده میشوند)، و بنابراین احتمالاً AIC این کار را نخواهد کرد. چیزی بیشتر از مقادیر خام $r$ از آزمون Mantel به شما بگویم. بنابراین، سؤالات من این است: * آیا کسی می تواند شماره 1 (بالا) را تأیید کند؟ آیا راهی برای دور زدن این موضوع وجود دارد؟ به من توصیه شده است که نوعی AIC ممکن است توسعه یابد، اما باید عدم استقلال مشاهدات را منعکس کند. * آیا مشاهده من در شماره 2 (بالا) صحیح است؟ یعنی آیا $K$ در فرمول AIC همیشه برای یک سری از تست های Mantel یکسان خواهد بود؟ * راه حلی برای این موضوع چیست؟ یکی از مواردی که مورد استفاده قرار می گیرد رگرسیون ماتریس چندگانه با نوعی انتخاب (به عنوان مثال، گام به گام)، برای شناسایی بهترین ترکیب از متغیرها برای گنجاندن در محاسبه فاصله چشم انداز، قبل از اجرای آزمایش های نهایی Mantel است. اما، حدس میزنم که این رویکرد به طور کلی بسیاری از مشکلات مشابه را با رگرسیون گام به گام دارد، و اینکه چرا روشهای AIC برای انتخاب مدل مورد استقبال قرار گرفتهاند. می دانم که این یک پست طولانی و پیچیده بود، اما از هر نظری متشکرم! | AIC با تست های Mantel |
80730 | من یک مجموعه داده متشکل از 5000 جمله دارم. من باید PMI را بین 3 گرم تا 5 گرم در این مجموعه داده محاسبه کنم. به عنوان مثال: > 5 گرم است: $x_1$$x_2$$x_3$$x_4$$x_5$ > > و 3 گرم است: $x_2$$x_3$$x_4$ چگونه می توانم PMI را محاسبه کنم($ x_2$$x_3$$x_4$، $x_1$$x_2$$x_3$$x_4$$x_5$) در این مجموعه داده است؟ فرمول دقیق چیست؟ تا آنجا که من می دانم، برای محاسبه PMI(y,z)، باید این تعداد را در مجموعه داده پیگیری کرد: > Count(y,z) --> تعداد تکرارهای y و z. > > Count(i,z) --> تعداد دفعات z > > Count(y,i) --> تعداد دفعات y > > N --> حجم نمونه فرمول نهایی این است: > $ PMI(y,z) = \frac{Count(y,z)N}{Count(i,z)Count(y,i)}$ در زمینه مشکل من، این تعداد به صورت زیر فهرست شده است: > $Count_1$($x_2$$ x_3$$x_4$, $x_1$$x_2$$x_3$$x_4$$x_5$): همه موارد > دقیقاً 5 گرم $x_1$$x_2$$x_3$$x_4$$x_5$ > > $Count_2$(i, $x_1$$x_2$$x_3$$x_4$$x_5$) : همه موارد دقیقاً 5 گرم > $x_1$$x_2$$x_3$$x_4$$x_5$ !!!!! > > $Count_3$($x_2$$x_3$$x_4$, i) : همه رخدادهای 5 گرمی به شکل _ > $x_2$$x_3$$x_4$ _ ، که اولین و آخرین است کلمات با > همه کلمات ممکن در مجموعه داده جایگزین می شوند. > > $N$ : همه 3 گرم. !!!!! مشکل من با $Count_2$ و $N$ است. همانطور که می بینید، $Count_2$ برابر است با $Count_1$. آیا معقول است؟ و من در مورد نحوه شمارش $N$ مطمئن نیستم. | محاسبه اطلاعات متقابل نقطه ای بین دو رشته |
5147 | هنگام تلاش برای یافتن حالت یک تابع غیرمنفی $f$ (یعنی به حداکثر رساندن تابع)، یکی از راههای انجام آن، نمونهبرداری از تابعی است که بهعنوان یک چگالی غیرعادی از برخی توزیعها از طریق MCMC مشاهده میشود. فرض کنید از طریق این روش دنبالهای طولانی از نمونهها داشتهایم، میخواستم بدانم چگونه حالت را از نمونهها تعیین کنیم؟ به طور خاص، همانطور که می دانیم قسمتی که از انتهای دنباله گرفته شده است تقریباً تابع توزیع مربوط به تابع هدف $f$ فرض می شود. تا آنجایی که قبلاً فکر کردم، ممکن است دو انتخاب برای تخمین حالت تابع وجود داشته باشد: 1. آخرین نمونه را در دنباله اصلی بگیرید، 2. یک دنباله کوچک از انتهای دنباله اصلی بگیرید و ارزیابی کنید. تابع f بر روی هر نمونه در دنباله بعدی و یکی را با حداکثر مقدار تابع انتخاب کنید. من انتخاب اول را از یادداشت کلاسم دیدم، اما دومی اولین فکر من قبل از نگاه کردن به یادداشت بود. بنابراین من فکر می کردم چه انتخابی برای حالت تابع هدف ممکن است معقول یا بهتر باشد و چرا؟ آیا ممکن است مرجعی در این مورد داشته باشید؟ لازم نیست دامنه خود را به دو موردی که قبلاً ذکر کردم محدود کنید. با تشکر و احترام! | یافتن حالت یک تابع با نمونه گیری MCMC |
93303 | فرض کنید یک مدل خطی «Model1» داریم و «vcov(Model1)» ماتریس زیر را به دست می دهد: (برق) عرض جغرافیایی دریا. فاصله ارتفاع (برق) 28.898100 -23.6439000 -34.1523000 0.507390606 - عرض جغرافیایی 0.507390600 19.7032500 28.4602500 -0.42471450 دریا.فاصله -34.152300 28.4602500 42.4714500 -0.62612550 ارتفاع 0.507904 - 0.507904 -1414 0.00928242 برای این مثال، این ماتریس در واقع چه چیزی را نمایش می دهد؟ چه فرضیاتی می توانیم برای مدل خود و متغیرهای مستقل آن داشته باشیم؟ | تفسیر ماتریس واریانس-کوواریانس |
70286 | من اخیراً مقاله ردیابی بصری بازدیدکنندگان انسانی تحت شرایط نور متغیر برای نصب هنر صوتی پاسخگو را خوانده ام، A. Godbehere, A. Matsukawa, K. Goldberg, American Control Conference, مونترال, ژوئن 2012. در صفحه 4 می گوید: > با استفاده از فرض I-C5، اجازه می دهیم $p(f|F) = 1-p(f|B)$ [$f$ ویژگی محاسبه شده است و $F$ مخفف پیش زمینه، $B$ برای پس زمینه] است. فرض I-C5 در صفحه 3 آورده شده است. جمله نقل شده با هر فرضی که باشد بی معنی است. سپس $p(f|F)$ در رابطه زیر جایگزین میشود، از قبل در همان صفحه (که فقط قانون بیز است): > $$p(B|f) = \frac{p(f|B) p(B)}{p(f|B)p(B) + p(f|F)p(F)}$$ و نتیجه نهایی بولی از یک آستانه در فرمول بالا می آید، جایی که $p(F) $ و $p(B)$ پارامترهای قابل تنظیم هستند (اکنون واقعاً $p(F) = 1- p(B)$ است). من گمان می کنم که نویسندگان متوجه شده اند که این رویکرد کارآمد است و آن را پذیرفته اند. شاید راه درست برای ادامه، ثابت کردن یک p(f|F) ثابت باشد، زیرا توزیع یکنواخت موقعیتی را مدل میکند که هیچ راهی برای شناخت آن نداریم، و بنابراین تبدیل به یک پارامتر قابل تنظیم جدید خواهد شد. مانند فرضی که نویسندگان ارائه کردند، یک تابع افزایشی، $p(B|f)$، از متغیر $p(f|B)$ با چند ثابت داریم. این معادل رویکرد فوق است اما با انتخاب متفاوت پارامترها و آستانه متفاوت. نظری در مورد آن دارید؟ | خطا در مقاله با احتمال شرطی؟ |
87300 | وقتی باید پیشبینی کنیم، کتابها به ما میگویند که روش اصلی، مدل میانگین متحرک اتورگرسیو است. به نظر من ابزار بزرگ دیگری وجود دارد، شبکه عصبی پیشخور (FFNN). بنابراین من فکر میکنم که میتوانیم از دو ابزار اصلی استفاده کنیم: * میانگین متحرک خود رگرسیون * شبکه عصبی پیشخور البته باید تفاوتهایی وجود داشته باشد، اما من متخصص نیستم. چه کسی با داشتن تجربه کافی در این دو روش می تواند تفاوت این دو روش در پیش بینی را برای من توضیح دهد؟ | میانگین متحرک اتورگرسیو یا شبکه عصبی پیشخور |
124 | من یک برنامه نویس بدون پیشینه آماری هستم و در حال حاضر به دنبال روش های مختلف طبقه بندی برای تعداد زیادی اسناد مختلف هستم که می خواهم آنها را به دسته های از پیش تعریف شده طبقه بندی کنم. من در مورد kNN، SVM و NN مطالعه کرده ام. با این حال، من برای شروع کمی مشکل دارم. چه منابعی را پیشنهاد می کنید؟ من حساب دیفرانسیل و انتگرال تک متغیره و چند متغیره را به خوبی می دانم، بنابراین ریاضیات من باید به اندازه کافی قوی باشد. من همچنین صاحب کتاب بیشاپ در مورد شبکه های عصبی هستم، اما ثابت شده است که به عنوان مقدمه کمی متراکم است. | طبقه بندی آماری متن |
45824 | ساختار داده های من به این صورت است: 'data.frame': 50 obs. از 3 متغیر: * پروژه : فاکتور w/ 2 سطح A،B: 1 1 1 1 1 * x: int 2 2 2 6 4 4 4 6 4 ... * y: num 0.622 0.425 0.363 0.344 0.346 ... من داده ها را ضمیمه کرده ام و هر دو سطح را در خود رسم کرده ام نمودار پراکندگی با استفاده از: plot(x,y,pch=as.numeric(Project)) TSF<-x[order(x)] SD<-y[order(x)] و یک رگرسیون غیر خطی به داده nls_fit برازش داد <- nls(SD ~ a - (b*TSF)+ ((c*TSF)^(2))، start = list(a = 0.34, b = 0.017، + c = 0.0003)) خطوط (TSF، پیش بینی(nls_fit)، col = قرمز) این به خوبی کار می کند... اما چگونه می توانم این معادله را تنها با عامل A داده ها تطبیق دهم؟ من در این کار خیلی تازه کار هستم، بنابراین اگر وقت کافی دارید، خیلی خوب خواهد بود که بتوانید هر کدی که می نویسید چه کاری انجام می دهد. ممنون کریس | چگونه می توانم یک رگرسیون غیر خطی را تنها به یک سطح عامل در نمودار پراکندگی خود منطبق کنم؟ |
85418 | من سعی می کنم مشکلی را در JMP انجام دهم، اما من تازه وارد برنامه هستم و آن را کاملاً درک نمی کنم. فکر می کنم نزدیکم، اما باید در جهت درست به من اشاره کرد. مشکل اینجاست: > یک آزمون استاندارد برای ادراک فراحسی (ESP) از آزمودنیها میخواهد که تشخیص دهند کدام یک از چهار شکل (دایره، مربع، الماس، یا امواج) در جلوی کارت است که توسط آزمایشکننده مشاهده میشود اما نه موضوع فرض کنید که یک > آزمودنی با 20 عدد از این کارت ها امتحان می دهد (هر کارت به یک اندازه یکی از چهار شکل را نشان می دهد). در این تحقیق، ما بر تعداد > تعداد شناسایی صحیح انجام شده در 20 کارآزمایی تمرکز خواهیم کرد. > > الف از توزیع دوجمله ای استفاده کنید تا احتمال اینکه یک موضوع حدس زده 7 یا بیشتر درست شود را پیدا کنید. چگونه با استفاده از احتمال دو جمله ای در JMP، احتمال 7 یا بیشتر را بدست آورید؟ در اینجا یک اسکرین شات از کارهایی که من تاکنون در JMP انجام داده ام است. مقادیری که من استفاده کردم 20 برای N و 0.25 برای pi بود:  آیا آنچه من تا کنون درست به نظر می رسد؟ از اینجا کجا برم؟ | احتمال دو جمله ای در JMP |
87305 | آیا مرجعی (کتاب/مقاله) می شناسید که به طور سیستماتیک رابطه بین وظایف تقریبی و رگرسیون را شرح دهد؟ من می دانم که، اگرچه این اصطلاحات از جهان های مختلف - نظریه عملکردی و آمار سرچشمه می گیرند، آنها معمولاً به جای هم استفاده می شوند، اما من واقعاً به تعاریف و تفاوت های دقیق علاقه مند هستم. | تفاوت بین وظایف رگرسیون و تقریب |
5149 | من مقداری داده سری زمانی دارم و می خواهم وجود و تخمین پارامترهای یک روند خطی را در یک متغیر وابسته w.r.t آزمایش کنم. زمان، یعنی زمان متغیر مستقل من است. نقاط زمانی را نمی توان تحت عنوان بدون روند در نظر گرفت. به طور خاص، عبارات خطا برای نقاط نمونه برداری شده در نزدیکی یکدیگر در زمان همبستگی مثبت دارند. شرایط خطا برای نمونههایی که در زمانهای بهاندازه کافی متفاوت بهدستآمدهاند، میتوانند برای همه اهداف عملی، IID در نظر گرفته شوند. من مدل مشخصی از نحوه همبستگی عبارات خطا برای نقاط نزدیک به یکدیگر در زمان ندارم. تنها چیزی که از دانش دامنه می دانم این است که آنها تا حدودی همبستگی مثبت دارند. به غیر از این موضوع، من معتقدم که مفروضات رگرسیون خطی حداقل مربعات معمولی (هماهنگی، خطی بودن، شرایط خطای معمولی توزیع شده) برآورده می شوند. ماژول موضوع خطای مرتبط، OLS مشکل من را حل می کند. من در برخورد با داده های سری زمانی کاملاً مبتدی هستم. آیا در این شرایط راه استاندارد وجود دارد؟ | تعیین اهمیت روند در یک سری زمانی |
87308 | من می خواهم برخی از داده ها را با درخت رگرسیون تقویت شده مدل کنم تا این کار را انجام دهم، باید یک عملکرد ضرر تعریف کنم. به عنوان یک متغیر پاسخ، داده های شمارش را دارم. بنابراین من فرض می کنم که یک توزیع سم. با این حال، متغیر پاسخ من توزیع نشده است. در جایی خواندم که برای دادههای شمارش میتوانم توزیع گاوسی یا لاپلاسی را نیز در نظر بگیرم. کسی می تواند به من راهنمایی کند و شاید تفاوت بین هر سه تابع ضرر را توضیح دهد؟ با سلام | برای کدام تابع ضرر؟ |
45826 | من مجموعهای از مجموعه دادهها را به عنوان دادههای مرجع دریافت کردم که هر کدام از 14 متغیر غیر مستقل تشکیل شده است که قرار است به عنوان مبنایی برای توسعه روشی برای محاسبه دادههایی از این نوع با منابع محاسباتی کمتر استفاده شود. بنابراین اساسا مجموعه ای از نقاط در فضای 14 بعدی. کاری که من باید انجام دهم این است که روش جدید خود را پارامتری کنم تا داده های خروجی، دوباره در فضای 14 بعدی، تا حد امکان با داده های مرجع مطابقت داشته باشد. من یک تجزیه و تحلیل مؤلفه اصلی انجام داده ام، که ابر نقطه 14 بعدی من را به مجموعه ای از 5 تابع خطی کاهش می دهد که شامل 98 درصد واریانس داده های مرجع من است. چیزی که اکنون به دنبال آن هستم راهی برای تولید نوعی اندازه گیری است که به من می گوید داده های جدید چقدر با داده های مرجع مطابقت دارند، چه با استفاده از مجموعه داده های اصلی یا توابع خطی مشتق شده از PCA. و این همان جایی است که دانش من در حال حاضر به پایان می رسد، بنابراین از اشاره گرهایی به سمت روش های خوب برای استخراج چنین معیاری تا چه اندازه داده های جدید با داده های مرجع مطابقت دارد از هر نوعی که بتوانم به عنوان معیار برای پارامترهای خود استفاده کنم سپاسگزار خواهم بود. | روش خوبی برای اندازه گیری میزان تناسب مجموعه ای از داده ها با مجموعه ای از توابع چیست |
87304 | من باید دو نمونه ($n_1=10، n_2=18$) را در طرحی تجزیه و تحلیل کنم که در آن یک عامل بین موضوعی (گروهها: 2 سطح) و یک عامل درون موضوعی (محرکها: 2 سطح) وجود دارد. ). نمیدانم در چنین شرایطی، با توجه به اندازه نمونههای کوچک و نامتعادل، یک ANOVA مختلط (بین/داخل) موجه است؟ قانون کلی برای ANOVA حداقل 30 موضوع برای سلول است، من می دانم، اما اغلب مقالاتی را می خوانم که در آنها از ANOVA برای نمونه های کوچکتر استفاده شده است. **آیا کسی می تواند بهترین تمرین را برای این وضعیت به من پیشنهاد دهد؟ آیا چنین تحلیلی در این زمینه در یک فرآیند انتشار قابل دفاع است؟** | ANOVA مخلوط: نمونه های کوچک و نامتعادل |
49442 | من اخیراً علاقه زیادی به یادگیری آمار بیزی داشتهام، اما فقط کمی پیشینه در آمارهای فراوانی دارم، فقط یک ترم در دانشگاه. برخی از کتابهایی که من دیدهام، دارای گرایش بسیار ریاضی هستند، مانند: * نظریه بیزی، خوزه برناردو. احتمالات و آمار، دگروت (این در واقع کتاب خوبی است، اما بین فصلهای مثالها بیش از حد پرش میکند و روند خواندن را در تمام کتاب بسیار متوالی میکند) موضوعاتی که میخواهم یاد بگیرم عبارتند از: * استنتاج بیزی. * تولید نمونه های مستقل از توزیع ها. * ادغام مونت کارلو، نمونه گیری اهمیت. * توزیع خلفی با ربع عددی یا بسط لاپلاس. * روشهای MCMC: نمونهگیری گیبس و متروپلیس-هیستینگ. * روش های متغیر کمکی در MCMC. * الگوریتم EM. * استنتاج چند مدل. * نظریه MCMC. من سعی کردم چیزی در Coursera پیدا کنم اما هیچ چیز. چه کتاب ها یا دوره های آنلاینی را پیشنهاد می کنید؟ | توصیه هایی برای احتمال یادگیری و آمار بیزی؟ |
128 | به زبان انگلیسی ساده، چگونه می توان طرح بلاند-آلتمن را تفسیر کرد؟ مزایای استفاده از نمودار بلند آلتمن نسبت به سایر روش های مقایسه دو روش اندازه گیری مختلف چیست؟ | چگونه می توان طرح بلند-آلتمن را تفسیر کرد؟ |
113840 | فرض کنید من یک آمار دارم (مثلاً یک شاخص قیمت) و می خواهم خطاهای استاندارد را برای آن بدست بیاورم. من شنیده ام که استفاده کور بوت استرپ ممکن است عمل خوبی نباشد. اگر درست است 1- اگر من فقط بوت استرپ ناپارامتری را اعمال کنم و خطاهای استاندارد را برای ایندکس خود به دست بیاورم چه مشکلی می تواند پیش بیاید؟ 2- اگر مشکلی ندارد، آیا خطاهای استاندارد منتج از ناهمگونی، همبستگی سریال و غیره قوی هستند؟ متشکرم | آیا در کاربرد خودسرانه بوت استرپ مشکلاتی وجود دارد؟ |
83189 | آیا مکان خوبی برای شروع ورود به آمار بیزی وجود دارد؟ من یک دانشجوی کارشناسی ارشد علوم اجتماعی هستم، با مقدار مناسبی از کلاس های آماری، اما به دور از تسلط هستم. هر مرجعی بسیار قدردانی خواهد شد. با تشکر | ارجاعات بیزی |
5144 | من آزمایشی با هر تعداد ممکن (معقول) پارامتر (متغیرهای مستقل) دارم. من آزمایش را چندین بار برای هر ترکیب ممکن از متغیرهایم اجرا می کنم. داده هایی که من دریافت می کنم به طور کلی عددی خواهد بود. با این حال من چیزی نمی دانم (و هر فرضی دشوار است) در مورد توزیع داده هایم. چیزی که من به آن علاقه دارم معیاری است که نشان می دهد پارامترهای من چقدر داده هایی را که به دست می آورم پیش بینی می کنند. از کدام آمار استفاده کنم؟ چگونه آن را محاسبه کنم (با دست، پیوند به یک آموزش بسیار شیرین خواهد بود)؟ ### ویرایش من سعی می کنم این مشکل را تا حد امکان به طور کلی حل کنم (از این رو توضیحات کمی غیر خاص) برای نرم افزاری که روی آن کار می کنم. برای روشن تر شدن کمی مثال: من این پارامترها را دارم: decay: 0.1 | 0.2 | 0.3 ذرات: 10 | سرعت 100: 30 | 70 این 12 ترکیب می دهد (3 * 2 * 2) و من متغیر وابسته خود (مثلاً دما) را برای هر ترکیب پنج بار اندازه میگیرم. بنابراین مجموعه داده نهایی من 60 اندازه گیری دما خواهد داشت. حالا فرض کنید که درجه حرارت در واقع با: $t = K(0.3v + 0.6d + \varepsilon)$ که $t$ دما است، $K$ مقداری ثابت، $v$ سرعت است، $d$ فروپاشی است. و $\varepsilon$ نوعی اثر تصادفی است. ذرات کاملاً با دمای اندازه گیری شده ارتباطی ندارند. اکنون میخواهم آزمایشی انجام دهم که به من بگوید سرعت اثر 0.3 ~، فروپاشی ~ 0.6 و ذرات ~ 0 اثر دارد. با این حال ممکن است متغیرهای کم و بیش و اندازه گیری های کم و بیش داشته باشم. | آزمون مناسب برای نتیجه آزمایش چند متغیره با توزیع ناشناخته |
95292 | میخواستم ببینم آیا کسی میتواند توضیح دهد که چگونه میتوانم پاسخ را محاسبه کنم. بسیار قدردانی خواهد شد. | یک آزمایش بالینی به اشتباه 50/150 مثبت کاذب و 23/150 منفی کاذب را شناسایی کرد. تعداد مثبت و منفی واقعی را محاسبه کنید. |
70866 | من یک مشکل مدلینگ دارم. من در حال ایجاد مدلی هستم که تلاش می کند تقاضا (سرنخ نه فروش) را بر اساس همبستگی با هزینه تبلیغات پیش بینی کند. ما می دانیم که بدون هزینه تبلیغات، تقاضا به دلیل فصلی بودن هدایت می شود. بنابراین مدل های ما شامل فاکتورهای فصلی مانند ماه سال و حتی روز هفته است. اگر من یک مدل رگرسیون خطی منظم می ساختم، یک مدل رگرسیون خطی را در مجموعه داده های آموزشی قرار می دادم تا تخمینی از ضرایب عوامل فصلی و هزینه های تبلیغاتی برای تقاضا بدست آوریم. برای به دست آوردن تخمینی از تقاضای پایه آینده، من تقاضا را با استفاده از تمام ضرایب مدل پیشبینی میکنم و سپس با تنظیم مقدار adspend برابر با صفر، یک خط پایه را تخمین میزنم. برای مدل های ARIMA، فاکتورهای اضافی مانند اصطلاحات AR و MA وجود دارد. آیا با تنظیم ضریب هزینه تبلیغات برابر با صفر، خط پایه خود را به همین ترتیب تخمین می زنم؟ برای هر فکری متشکرم | پیش بینی پاسخ پایه با استفاده از پیش بینی های ARIMA |
87307 | من از R برای تجزیه و تحلیل یک مجموعه داده بسیار بزرگ استفاده می کنم. من یک PCA را روی یک مجموعه داده انجام میدهم، PCA <- prcomp (فرمول = ~.، داده = قطار، مقیاس = T، na.action=na.exclude) و سپس میخواهم PCA را روی مجموعه داده دیگری اعمال کنم، test_rot <- داده. فریم (پیشبینی (PCA,test,na.action=na.omit)) این کار میکند اما نسبتاً حافظه فشرده است و من واقعاً فقط به اولین N مؤلفه اصلی علاقهمندم (مثلا: 50). آیا راهی برای پیشبینی 50 کامپیوتر اول در خط دوم کد وجود دارد؟ | فقط اولین N جزء اصلی را در یک تجزیه و تحلیل PCA پیش بینی کنید |
31240 | من باید دقت مدلسازی سریهای زمانی و تکنیکهای شبکه عصبی را مقایسه کنم. همانطور که همه ما می دانیم، مجموعه داده های بزرگ برای شبکه های عصبی مورد نیاز است. از آنجایی که من در حال مقایسه هر دو تکنیک هستم، باید اندازه یکسانی را برای هر دو در نظر بگیرم. من 5 سال نرخ ارز روزانه برای آنالیز دارم. نمودار سری زمانی نرخ ارز روزانه 5 ساله که روندهای مثبت و منفی را نشان می دهد در زیر بازتولید شده است.  بنابراین، سوال من این است: آیا می توانم یک مدل سری زمانی واحد را برای کل مجموعه داده قرار دهم؟ اگر نه، روش تطبیق مدل سری زمانی با چنین دادههایی چگونه است؟ من شنیده ام که یک مجموعه داده را می توان به نمونه های فرعی تقسیم کرد. اگر بله روش انجام نمونه برداری از مجموعه داده های اصلی چیست؟ | چگونه یک مدل سری زمانی را برای یک مجموعه داده بزرگ مناسب کنیم؟ |
83811 | من یک توزیع $x\sim\text{نمایی}(\lambda)$ دارم و می دانم که $\hat{\lambda}=\bar{x}$ و اطلاعات فیشر $\lambda^{-2}$ است . اکنون، باید از «R» برای تولید دادههای این توزیع با $\hat{\lambda}=1$ استفاده کنم و پوشش CI نمونه را به عنوان تابعی از اندازه نمونه برای اندازههای نمونه مختلف با استفاده از 1000 رسم کنم. نمایندگان مونت کارلو تمام چیزی که تا به حال برای `R` دارم این است: x=rexp(25,1) > x [1] 0.14576099 0.78689809 0.56063641 1.70545364 0.40507393 0.2222962112 [7] 0.222296112 [7] 0.19580686 2.14139285 0.30020825 1.04155197 0.11201061 [13] 0.11249431 4.12707736 0.35781892 0.35781895 0.46469 2.35163544 [19] 0.23481295 0.54353838 0.34712200 0.71332001 0.55924596 0.50507862 [25] 0.41173838 > t. [1] 2.063899 > mu<-mean(x) > mu [1] 0.8370219 > sig<-sqrt(var(x)) > sig [1] 0.9603002 > hist(x) من نمی دانم چگونه این CI ها را ایجاد کنم در R. | رسم پوشش فاصله اطمینان به عنوان تابعی از حجم نمونه با استفاده از مونت کارلو در R |
18906 | به لینک زیر برخوردم http://stackoverflow.com/questions/2764116/tag-generation-from-a-small-text- content-such-as-tweets سوال این است که چگونه به طور خودکار برچسب را به توییت ها اختصاص دهیم، در پاسخ پیشنهاد می شود که از pointwise mutual استفاده کنیم. اطلاعات، با این حال، سوال من این است که آیا چگونه می توانیم به آن دست یابیم؟ اگر 1000 توییت منحصر به فرد و 100 تگ منحصر به فرد داشته باشیم، احتمال هشتگ $x$ در توییت $y$ $p(x,y) = 1$، $p(x) = 1/1000$ و $p(y ظاهر می شود. ) = 1/1000 دلار همیشه باقی می ماند، درست است؟ لطفاً کسی می تواند مرا در این مورد روشن کند؟ با تشکر با احترام، اندی. | اطلاعات متقابل نقطهای برای تولید برچسب در توییتر |
76429 | برای داده های طولی با نتیجه عددی، می توانم از نمودارهای اسپاگتی برای تجسم داده ها استفاده کنم. به عنوان مثال چیزی شبیه به این (برگرفته از سایت UCLA Stats): tolerance<-read.table(http://www.ats.ucla.edu/stat/r/faq/tolpp.csv,sep=, , header=T) head(tolerance, n=10) interaction.plot(tolerance$time, tolerance$id, tolerance$tolerance, xlab=time, ylab=Tolerance, legend=F)  اما اگر نتیجه من باینری 0 یا 1 باشد چه؟ به عنوان مثال، در دادههای ohio در R، متغیر resp باینری وجود یک بیماری تنفسی را نشان میدهد: library(geepack) ohio2 <- ohio[2049:2148,] head(ohio2, n=12) در مقابل سن شناسه دود 2049 1 512 -2 1 2050 0 512 -1 1 2051 0 2052 0 1 2052 0 512 0 514 0 1 2060 1 514 1 1 interaction.plot(ohio2$age+9, ohio2$id, ohio2$resp, xlab=age, ylab=Wheeze status, legend=F)  طرح اسپاگتی شکل خوبی به دست می دهد، اما خیلی آموزنده نیست و چیز زیادی به من نمی گوید. راه مناسبی برای تجسم این نوع داده ها چیست؟ شاید چیزی که شامل یک مقدار احتمال در محور y باشد؟ | تجسم داده های طولی با نتیجه باینری |
33300 | من می دانم که این یک موضوع نسبتاً داغ است که هیچ کس واقعاً نمی تواند پاسخ ساده ای برای آن بدهد. با این وجود من نمی دانم که آیا رویکرد زیر نمی تواند مفید باشد. روش بوت استرپ تنها در صورتی مفید است که نمونه شما کم و بیش از توزیع مشابه جمعیت اصلی پیروی کند (دقیقا بخوانید). برای اطمینان از این موضوع، باید اندازه نمونه خود را به اندازه کافی بزرگ کنید. اما چه چیزی به اندازه کافی بزرگ است؟ اگر فرض من درست باشد، هنگام استفاده از قضیه حد مرکزی برای تعیین میانگین جمعیت، همین مشکل را دارید. تنها زمانی که حجم نمونه شما به اندازه کافی بزرگ باشد، می توانید مطمئن شوید که جمعیت میانگین نمونه شما به طور معمول توزیع شده است (در حول میانگین جامعه). به عبارت دیگر، نمونه های شما باید به اندازه کافی جمعیت (توزیع) شما را نشان دهند. اما دوباره، چه چیزی به اندازه کافی بزرگ است؟ در مورد من (فرایندهای اداری: زمان مورد نیاز برای تکمیل تقاضا در مقابل مقدار تقاضا) من جمعیتی با توزیع چندوجهی دارم (همه تقاضاهایی که در سال 2011 به پایان رسید) که من 99٪ مطمئن هستم که حتی کمتر است. به طور معمول نسبت به جمعیت توزیع شده است (تمام خواسته هایی که بین روز کنونی و یک روز گذشته به پایان می رسد، در حالت ایده آل این بازه زمانی تا حد امکان کوچک است) من می خواهم تحقیق کنم. جمعیت 2011 من از تعداد واحدهای کافی برای ساختن نمونههای x$ با اندازه نمونه $n$ وجود دارد. من مقدار x$ را انتخاب میکنم، فرض کنید $10$ ($x=10$). اکنون برای تعیین حجم نمونه خوب از آزمون و خطا استفاده می کنم. من یک $n=50$ میگیرم، و میبینم که آیا میانگین جامعه نمونه من با استفاده از Kolmogorov-Smirnov توزیع شده است یا خیر. اگر چنین است، من همان مراحل را تکرار میکنم، اما با حجم نمونه 40 دلار، در غیر این صورت با حجم نمونه 60 دلار (و غیره) تکرار میکنم. پس از مدتی به این نتیجه رسیدم که $n=45$ حداقل حجم نمونه مطلق برای به دست آوردن یک نمایش کم و بیش خوب از جمعیت سال 2011 من است. از آنجایی که میدانم جمعیت مورد علاقهام (همه خواستههایی که بین روز کنونی و یک روز گذشته تکمیل میشوند) واریانس کمتری دارند، میتوانم با خیال راحت از اندازه نمونه $n=45$ برای راهاندازی استفاده کنم. (به طور غیرمستقیم، $n=45$ اندازه بازه زمانی من را تعیین می کند: زمان مورد نیاز برای تکمیل درخواست های $45$.) به طور خلاصه، این ایده من است. اما از آنجایی که من یک آمارگیر نیستم بلکه یک مهندس هستم که درس های آمارش در روزهای گذشته برگزار شده است، نمی توانم این احتمال را رد کنم که من فقط زباله های زیادی تولید کرده ام :-). بچه ها نظرتون چیه؟ اگر فرض من منطقی باشد، آیا باید یک $x$ بزرگتر از $10$ یا کوچکتر انتخاب کنم؟ بسته به پاسخهای شما (آیا باید خجالت بکشم یا نه؟ :-) ایدههای بحث بیشتری را پست خواهم کرد. پاسخ در اولین پاسخ با تشکر از پاسخ شما، پاسخ شما برای من بسیار مفید بود، به خصوص لینک های کتاب. اما می ترسم که در تلاشم برای دادن اطلاعات سوالم را کاملا مبهم کرده باشم. من می دانم که نمونه های بوت استرپ توزیع نمونه جمعیت را بر عهده می گیرند. من شما را کاملاً دنبال میکنم، اما... نمونه جمعیت اصلی شما باید به اندازه کافی بزرگ باشد تا مطمئن شوید که توزیع نمونه جمعیت شما با توزیع «واقعی» جامعه مطابقت (برابر) است. این صرفاً ایده ای در مورد چگونگی تعیین اینکه اندازه نمونه اصلی شما چقدر باید باشد تا به طور منطقی مطمئن شوید که توزیع نمونه با توزیع جامعه مطابقت دارد، است. فرض کنید یک توزیع جمعیت دوقله ای دارید و یکی از بالاها بسیار بزرگتر از دیگری است. اگر حجم نمونه شما 5 باشد، شانس این است که هر 5 واحد مقداری بسیار نزدیک به بالای بزرگ داشته باشند (احتمال برای ترسیم تصادفی یک واحد در آنجا بزرگترین است). در این مورد توزیع نمونه شما تک وجهی به نظر می رسد. با حجم نمونه صد، احتمال اینکه توزیع نمونه شما نیز دووجهی باشد، بسیار بزرگتر است!! مشکل راهاندازی این است که شما فقط یک نمونه دارید (و بیشتر روی آن نمونه میسازید). اگر توزیع نمونه واقعاً با توزیع جمعیت مطابقت ندارد، در مشکل هستید. این فقط ایده ای است برای اینکه شانس داشتن «توزیع نمونه بد» را تا حد امکان کم کنید بدون اینکه مجبور باشید حجم نمونه خود را بی نهایت بزرگ کنید. | تعیین حجم نمونه لازم برای روش بوت استرپ / روش پیشنهادی |
30653 | اگر این خیلی ساده است عذرخواهی کنید. نمیتوانم گروه پیشرفتهتر کمکی r را برای پاسخ دادن به آنها بیاورم. من قصد دارم بارهای کاری را با اندازه گیری ضریب همبستگی دو مجموعه از مقادیر واقعی مشخص کنم، اما قبل از آن می خواهم دو مجموعه از مقادیر نمونه تولید کنم که دارای یک ضریب بالا و یک ضریب پایین هستند. من می خواهم هر دو را در یک نمودار رسم کنم تا بتوانم مقادیر بسیار همبسته را با هم ببینم (قله ها و فرورفتگی ها). من از R استفاده می کنم و در مورد rseek می دانم. اگر کتاب R خاصی وجود داشته باشد که بتواند به تلاش های برنامه ریزی ظرفیت من کمک کند، آن را می خرم. ایجاد یک متغیر تصادفی با یک همبستگی تعریف شده با یک متغیر موجود در حال حاضر برای من بسیار پیشرفته است. توجه: دو مجموعه از مقادیری که میخواهم رسم کنم به هم مرتبط هستند زیرا من میزان استفاده از CPU و یک عدد خروجی را ترسیم میکنم. بنابراین اگر تعداد بایت ها افزایش یابد، ممکن است استفاده از CPU افزایش یابد. هر دو ارزش مثبت هستند. بنابراین اگر همبستگی زیاد باشد، هر دو با هم افزایش یا کاهش مییابند. با تشکر | مجموعه ای از مقادیر با ضریب همبستگی بالا تولید کنید |
30655 | مقاله ویکیپدیا در مورد توزیع گاما، دو روش مختلف پارامترسازی را فهرست میکند، یکی از آنها اغلب در اقتصاد سنجی بیزی با $\alpha>0$ و $\beta>0$ استفاده میشود، $\alpha$ پارامتر شکل است، $\beta$ است. پارامتر نرخ $$X\sim \mathrm{Gamma}(\alpha,\beta).$$ در کتاب درسی اقتصاد سنجی بیزی که توسط گری کوپ نوشته شده است، پارامتر دقیق $\frac{1}{\sigma^2}=h$ از یک توزیع گاما، که **توزیع قبلی** $$h\sim است \mathrm{گاما}(\underline{s}^{-2},\underline{\nu})،$$ که در آن $\underline{s}^{-2}$ میانگین و $\underline{\nu} $ طبق ضمیمه او درجه آزادی است. همچنین $s^2$ خطای استاندارد با تعریف $$s^2=\frac{\sum(y_i-\hat{\beta}x_i)}{\nu} است.$$ بنابراین برای من، این دو تعریف از توزیع گاما کاملاً متفاوت است، زیرا میانگین و واریانس متفاوت خواهد بود. اگر از تعریف ویکیپدیا پیروی کنیم، میانگین $\alpha/\beta$ خواهد بود، نه $\underline{s}^{-2}$. من در اینجا به شدت گیج هستم، آیا کسی می تواند به من کمک کند تا افکار را در اینجا اصلاح کنم؟ | یک سوال در مورد پارامترهای توزیع گاما در اقتصاد سنجی بیزی |
83812 | ما ده مدرسه با جمعیت های مختلف داریم که از 1052 در کوچکترین مدرسه تا 4833 در بزرگترین مدرسه متغیر است. هدف هر مدرسه دستیابی به 60 درصد از ثبت نام کنندگان خود است که در آزمون ها پیشرفت کرده اند. مزایا یا معایب آماری، در صورت وجود، برای مدارس بزرگتر یا کوچکتر چیست؟ | مقایسه نتایج در جمعیت های بزرگتر و کوچکتر |
30652 | من سعی می کنم روش های مختلف تحلیل داده های عملکردی را آزمایش کنم. در حالت ایدهآل، من میخواهم پانل رویکردهایی را که دارم روی دادههای عملکردی شبیهسازی شده آزمایش کنم. من سعی کردهام FD شبیهسازیشده را با استفاده از رویکردی مبتنی بر مجموع نویزهای گاوسی (کد زیر) تولید کنم، اما منحنیهای حاصل در مقایسه با حالت واقعی بسیار ناهموار به نظر میرسند. من در تعجب بودم که آیا کسی اشارهگر به توابع/ایدهها برای تولید دادههای عملکردی شبیهسازی شده واقعیتر دارد یا خیر. به ویژه، اینها باید صاف باشند. من در این زمینه کاملاً تازه کار هستم، بنابراین از هرگونه مشاوره استقبال می شود. library(MASS) library(caTools) VCM<-function(cont,theta=0.99){ Sigma<-matrix(rep(0,length(cont)^2),nrow=length(cont)) for( i in 1:nrow(Sigma)){ for (j in 1:ncol(Sigma)) Sigma[i,j]<-theta^(abs(cont[i]-cont[j])) } return(Sigma) } t1<-1:120 CVC<-runmean(cumsum(rnorm(length(t1)) )،k=10) VMC<-VCM(cont=t1، تتا=0.99) sig<-runif(ncol(VMC)) VMC<-diag(sig)%*%VMC%*%diag(sig) DTA<-mvrnorm(100,rep(0,ncol(VMC)),VMC) DTA<-sweep(DTA,2,CVC) DTA< -apply(DTA,2,runmean,k=5) matplot(t(DTA),type=l,col=1,lty=1) | چگونه داده های عملکردی را شبیه سازی کنیم؟ |
76427 | این شاید یک سوال ساده لوحانه باشد، اما من دو راه برای محاسبه خطای نسبی پیدا کردم، یکی رایج است و دیگری از مقالاتی که خواندم. فرض کنید که عدد دقیق $n$ و عدد تخمینی $\tilde{n}$ باشد، دو روش برای محاسبه خطای نسبی عبارتند از: 1) خطای نسبی = $\frac{n-\tilde{n}} {E[n]}$، که تعریف استاندارد است 2) خطای نسبی = $\frac{\sqrt{Var(\tilde{n})}}{n}$، که ضریب واریانس است (I از روی کاغذ بخوانید). حالا من گیج شدم از کدام یک استفاده کنم، آیا سناریویی وجود دارد که از این دو فرمول استفاده شود؟ PS: لطفاً توجه داشته باشید که $n$ یک متغیر تصادفی است. | چگونه خطای نسبی یک متغیر تصادفی را محاسبه کنیم؟ |
15888 | درک من این است که ما نباید اجازه دهیم همان مجموعه داده ای که در حال تجزیه و تحلیل آن هستیم را به حرکت درآورد/تعریف کند که توزیع های قبلی در تحلیل بیزی چگونه به نظر می رسند. به طور خاص، تعریف توزیعهای قبلی برای تحلیل بیزی بر اساس آمار خلاصه از همان مجموعه دادهای که پس از آن میخواهید از پیشینها برای کمک به تطبیق یک مدل استفاده کنید، نامناسب است. آیا کسی منابعی را می شناسد که به طور خاص در مورد این موضوع به عنوان نامناسب صحبت می کنند؟ برای این موضوع به چند نقل قول نیاز دارم. | به دادهها اجازه میدهید تا پیشینها را دیکته کنند و سپس مدل را با استفاده از این پیشینها اجرا کنید؟ (به عنوان مثال، پیشین های مبتنی بر داده از مجموعه داده های یکسان) |
70868 | من در جستجوی الگوریتم های طبقه بندی منبع باز هستم. من روی یک پروژه بینایی کامپیوتری کار می کنم که از طبقه بندی برای تشخیص صحنه استفاده می کند. من می خواهم طیف وسیعی از الگوریتم های یادگیری ماشین را برای مرحله طبقه بندی آزمایش کنم. پیاده سازی ها باید روی مجوزهای منبع باز و ترجیحاً به زبان C++ نوشته شوند. همه و هر کمکی بسیار قدردانی خواهد شد. پیشاپیش ممنون | الگوریتم های طبقه بندی منبع باز، ترجیحا در C++ |
91785 | یک سوال وجود دارد که من واقعاً مطمئن نیستم که آیا آن را درست انجام داده ام یا حتی متوجه نمی شوم که می خواهد چه بگوید. > یک سکه وجود دارد که سرهایی با احتمال ناشناخته $p$ تولید می کند. چند بار باید این سکه را پرتاب کنیم اگر نسبت سرها قرار است > در 0.05$ از $p$ با احتمال حداقل $0.9$ دروغ باشد؟ نکته: اگر پاسخ به $p$ متکی باشد > کامل نیست و نگران اصلاح تداوم نباشید. این سوال از فصلی در مورد تقریب نرمال دو جمله ای می آید. تا اینجا میدانم که یک $\mathcal B(n,p)$ دارم و باید تعداد $n$ را پیدا کنم تا $P(c/n \le 0.05*p) \ge 0.9$ با $c$ به تعداد سرها؟ من مطمئن نیستم که آیا این درست است. به نوبه خود $P( c \le 0.05np ) \ge 0.9$ بنابراین من دوجمله ای را به گونه ای عادی می کنم که $$ P\bigg(Z \le \frac{0.05np - n*p}{np(1-p) } +0.5\bigg) \ge 0.9 $$ با $0.5$ به عنوان تصحیح پیوستگی. آیا من در مسیر درست هستم؟ من در مورد استفاده از فواصل اطمینان فکر کردم اما در این فصل یا سخنرانی در مورد آن بحث نکرده ایم. | تعداد پرتاب های سکه مورد نیاز اگر قرار است نسبت سرها در 0.05 از p با احتمال حداقل 0.9 قرار گیرد؟ |
109866 | من نتایج خود را از تجزیه و تحلیل مسیر (با استفاده از MPlus) به دست آوردهام و مطمئن نیستم که چگونه یک بخش نتایج را به سبک APA بنویسم. مدل تناسب خوبی با دادهها نشان میدهد، فرضیههای من پشتیبانی میشوند، و من ایده واضحی از معنای نتیجهام دارم، اما نمیدانم چه آماری به طور معمول در این نوع تحلیلها گزارش میشود و چگونه آنها را ارائه کنم. . من یک کتاب پیدا کردم، Kline (2010)، و چند مقاله، McDonald & Ho (2002)، و Boomsma (2000)، اما دوباره، من مطمئن نیستم که آیا اینها ممکن است ارجاعات خوبی (یا عملی) برای انجام دادن باشند. آنچه من نیاز دارم احساس میکنم یک مثال نوشته شده از یک بخش نتایج که تجزیه و تحلیل مسیر را ارائه میکند ممکن است به من کمک کند، اما تاکنون هیچ موردی را پیدا نکردهام. (این کار برای پایان نامه کارشناسی ارشد من است، بنابراین محدودیت فضا برای نوشتن نتایج نباید مشکلی ایجاد کند، اگرچه من قصد دارم نسخه دستنویسی را برای انتشار احتمالی آن بنویسم. اگر به اطلاعات بیشتری نیاز دارید که ممکن است در پاسخ به شما کمک کند، لطفاً به من اطلاع دهید. ). لطفاً کسی می تواند به من در جهت درست اشاره کند؟ با تشکر | نوشتن یافته ها از تجزیه و تحلیل مسیر |
76423 | من مدلی برای کاهش ضایعات ساختمانی ایجاد کرده ام، اما مطمئن نیستم که چگونه آن را برای خدمت به این هدف تأیید کنم. من دو مجموعه داده دارم: درصد زباله اندازه گیری شده از سایت ها و مقادیر پیش بینی شده به دست آمده از مدل ساخته شده. چگونه می توانم بگویم که مدل ساخته شده برای اهداف پیش بینی خوب است؟ داده ها به صورت خطی مرتبط هستند. | خطای قابل قبول در مدل های پیش بینی چیست؟ |
83107 | من سعی می کنم با یک شبکه کانولوشن عمیق رگرسیون انجام دهم. من از کد http://deeplearning.net/tutorial/lenet.html استفاده می کنم در حال حاضر، شبکه از رگرسیون لجستیک به عنوان آخرین لایه خود استفاده می کند که می خواهم آن را حذف کنم. اگر به سادگی لایه لایه 3 = LogisticRegression (input=layer2.output, n_in=500, n_out=10) را از شبکه حذف کنم، باید هزینه ای را به جای: cost = layer3.negative_log_likelihood(y) مشخص کنم. هزینه مناسب برای انجام رگرسیون؟ هر یک از خروجی های من باید 0 تا 1 باشد، اما نه لزوماً مجموع 1. | لایه رگرسیون در شبکه عصبی کانولوشنال |
83102 | من دارم با همکارم در مورد سوال امتحانی بحث می کنم. فرض کنید پرسشنامه ای داریم که در آن، از جمله، اولویت برای یک حزب سیاسی خواسته شده است. چگونه این را مدل کنیم، آیا از یک اثر ثابت یا تصادفی استفاده می کنیم؟ من فکر می کنم ما باید به سمت یک اثر تصادفی برویم زیرا این یک پرسشنامه است و ما انتظار داریم که اثر با جمعیت شناسی نمونه (سن، جنس، ...) تغییر کند. | ترجیح سیاسی به عنوان متغیر مستقل - اثر ثابت یا تصادفی؟ |
33303 | منظور من این پایان نامه بود، فیلتر گاوسی با ابعاد بالا برای عکاسی محاسباتی (یا pdf)، برای درک فیلترهای گاوسی. با این حال من یک قسمت را متوجه نشدم. فیلتر گاوسی با $$ \hat{v_i} = \sum_{j}\exp(-|p_i-p_j|^2 / 2)\,v_j $$ داده می شود اگر $p_i$ و $p_j$ بردارهای موقعیت هستند، این به سادگی تاری گاوسی است. حالا من متوجه نشدم اگر $p_i$ و $p_j$ را بر یک ثابت مشخص تقسیم کنیم، انحراف استاندارد فیلتر تغییر می کند. من متوجه نشدم که چگونه اتفاق می افتد. همچنین متوجه منظور شما از انحراف معیار فیلتر نشدم؟ | انحراف معیار فیلتر گاوسی چقدر است؟ |
7651 | من مجموعه ای از نتایج آماری را در قالب رشته های بله و خیر جمع آوری کرده ام. اکنون میخواهم یک سلول خلاصه داشته باشم که اگر همه این سلولها برابر با YES باشند (یا خالی باشند) YES را نشان میدهد. | نحوه ارزیابی اینکه آیا مجموعه ای از سلول ها همه دارای یک مقدار مشخص در اکسل هستند یا خیر |
45148 | > **موضوع تکراری:** > باقیمانده حذف $i^{th}$ باقیمانده حذف $e_{−i}$ به صورت $e_{−i}=y_{i}−X^{⊤}B_{ تعریف میشود. −i}$ که $X^{⊤}$ ردیف $i^{th}$ ماتریس طراحی $X$ است و $B_{−i}$ یک ستون است بردار برآورد پارامتر حداقل مربع بدون مشاهده $i^{th}$ محاسبه شده است. زمانی که مدل خطی $y_{i}=B_{0}+B_{1}X_{i}+B_{2}X_{2i}+E_{i}$ برازش میشود، مقداری R کد حاشیهنویسی برای محاسبه باقیماندههای حذف بنویسید. به داده های فایل quadratic.txt. با ترسیم نمودار مناسب، در مورد توزیع این باقیمانده های حذف نظر دهید. باید بنویسم دقیقا توزیع چیست؟ | حذف باقی مانده به صورت خطی |
97077 | من دو svms (LIBSVM) را با 15451 نمونه آموزش دادم بعد از اینکه اعتبارسنجی متقاطع 10 برابری انجام دادم و بهترین مقادیر پارامتر را برای گاما و C (هسته RBF) پیدا کردم. در یک svm من فقط از 1 ویژگی و در دومی یک ویژگی اضافی استفاده کردم (تا ببینم آیا این اضافی پیش بینی را بهبود می بخشد). بعد از CV دقت 75% (SVM با یک ویژگی) و 77% (SVM با آن ویژگی اضافی) دارم. پس از آزمایش بر روی 15451 نمونه دیگر، من به ترتیب 70 و 72 درصد دقت دارم. من می دانم که به این می گویند بیش از حد برازش، اما آیا در اینجا قابل توجه است، زیرا این تفاوت تنها 5٪ است. چه کاری می توانم انجام دهم تا بیش از حد مناسب نباشم؟ آیا حتی استفاده از یک یا دو ویژگی و یک مجموعه آموزشی نسبتا بزرگ خوب است؟ امیدوارم بتوانید به من کمک کنید | بیش از حد LIBSVM |
76421 | من یک داده با 15 متغیر دارم. من PCA را روی آن انجام دادم تا به 3 عامل برسم که هر کدام دارای 5 متغیر بودند که واریانس مربوطه را در آن عوامل توضیح می دادند. پس از تکمیل کل فرآیند، من رگرسیون لجستیک را اجرا کردم که این عوامل متغیرهای مستقل من بودند. وزنهای فردی این عوامل (برای پیشبینی) را نیز آماده دارم. اکنون آنچه می خواهم بدانم اهمیت فردی هر متغیر در انجام پیش بینی های بعدی است؟ همانطور که هر متغیر چه نقشی (وزن) در پیش بینی متغیر وابسته دارد؟ پیشاپیش ممنون | با توجه به اهمیت متغیرها پس از اعمال PCA |
8213 | برای برخی از الگوریتم های بازسازی حجم که روی آن کار می کنم، باید تعداد دلخواه الگوهای دایره ای را در داده های نقطه سه بعدی (که از یک دستگاه LIDAR می آیند) شناسایی کنم. الگوها را می توان به طور دلخواه در فضا جهت داد، و فرض کرد که در صفحات نازک 2 بعدی قرار دارند (اگرچه نه کاملاً). در اینجا یک مثال با دو دایره در یک صفحه آورده شده است (اگرچه به یاد داشته باشید که این یک فضای 3 بعدی است):  من روش های زیادی را امتحان کردم. سادهترین (اما یکی از بهترینها تا کنون) خوشهبندی بر اساس مجموعههای مجزا از نزدیکترین گراف همسایه است. وقتی الگوها از هم دور باشند، این کار به خوبی کار میکند، اما در مورد دایرههایی مانند نمونههایی که واقعاً نزدیک به هم هستند، کمتر کار میکند. من K-means را امتحان کردم، اما خوب کار نمی کند: من گمان می کنم آرایش نقطه دایره ای ممکن است برای آن مناسب نباشد. بعلاوه، من این مشکل اضافی را دارم که از قبل مقدار K را نمیدانم. روشهای پیچیدهتری را بر اساس تشخیص چرخهها در نمودار همسایه نزدیکتر امتحان کردم، اما چیزی که به دست آوردم یا خیلی شکننده بود یا از نظر محاسباتی گران بود. من همچنین در مورد بسیاری از موضوعات مرتبط (تبدیل Hough و غیره) مطالعه کردم، اما به نظر می رسد هیچ چیز در این زمینه خاص به طور کامل اعمال نمی شود. هر ایده یا الهام بخشی قابل قدردانی خواهد بود. | الگوهای دایره ای را در داده های ابر نقطه ای تشخیص دهید |
108543 | من یک داده کارت اعتباری دارم که شامل مقدار گردان ماهیانه و مقدار کارمزد برای هر مشتری است. به عنوان یک دیدگاه بانکی، من میخواهم مقدار مورد انتظار مبلغ گردان آینده و مبلغ کارمزد را در مجموع (با استفاده از ضریب تخفیف در افق زمانی نامحدود) بدست بیاورم. من می خواهم به ترتیب ارزش آتی گردان و کارمزد را دریافت کنم. یک راه ایده من این است که E (آینده) = مجموع [ {مسئله (در زمان t)*میزان چرخش در زمان t} / {(1+ تخفیف)^t} ] خیلی ساده می توانیم فکر کنیم (مورد گردان ) احتمال چرخش در زمان t = x/n (که x تعداد چرخش در داده و n کل ماه در داده است) مقدار چرخش در زمان = میانگین مقدار چرخش در داده (ثابت) در واقع من می خواهم ارزش فعلی مقادیر مورد انتظار آینده را تخمین بزنم. اما راه فوق خیلی ساده لوحانه است. آیا ایده خوبی وجود دارد که بتوانم ارزش آتی مقادیر گردان و کارمزد را با داده های سری زمانی ماهانه تخمین بزنم؟ (من متغیرهای دیگری مانند جمعیت شناسی، سابقه استفاده از کارت اعتباری و موارد دیگر دارم). با تشکر من R را برای برنامه ترجیح می دهم. پیشنهادی با پکیج R دارید؟ | دریافت ارزش مورد انتظار ارزش آتی با دادههای متغیر زمانی (اطلاعات چرخشی کارت اعتباری و دادههای کارمزد). ارزش طول عمر مشتری |
33308 | من سعی می کنم بفهمم که آیا تفاوت خاصی بین IVM های اطلاعاتی و RVM های مرتبط به غیر از اصطلاحات وجود دارد یا خیر. من چیز واضحی ندیدم وقتی در مورد ماشینهای برداری مطالعه میکنم، به راحتی میتوان تفاوت IVM/RVM با ماشینهای بردار پشتیبان (SVM) را مشاهده کرد [بهطور محاورهای، برای طبقهبندی، SVM آن نقاط (بردارها) را پیدا میکند که DMZ (منطقه غیر نظامیشده) را تعریف میکنند. ;-) بین دستهها، در حالی که RVM آنهایی را مییابد که «وسط» جمعیت هستند، و «اندازه» جمعیت مرتبط را پیدا میکند. (به عنوان مثال در گلوب های گاوسی)]، اما من هیچ تفاوت خاصی بین ماشین های بردار I/R فراتر از انتخاب اصطلاحات توسط طرفداران آنها نمی بینم. آیا تفاوتی وجود دارد؟ | تفاوت بین ماشین های برداری اطلاعاتی (IVM) و مرتبط (RVM) چیست؟ |
83109 | من یک برنامه امتحانی دارم که سوالاتی از گروههای دشوار مختلف دارد: الف) پایه ب) استاندارد ج) پیشرفته بر اساس دادههای تولید شده توسط کاربرانی که این سؤالات را انجام میدهند، سعی میکنم امتیازی از محبوبیت و دشواری برای سؤالات ایجاد کنم. من متوجه شدم که سه عامل در این امر مؤثر است: 1) تعداد دفعاتی که از سؤال گرفته شده است (کاربران می توانند موضوعات مختلفی را انتخاب کنند) 2) تعداد دفعاتی که سؤال به درستی پاسخ داده شده است (سوالی که پاسخ متوسطی دریافت می کند بیشتر است محبوب') 3) زمان صرف شده برای سؤال (شاخص دشواری و ارتباط برای کاربر، این فرض که کاربر زمان زیادی را برای سؤالی که می داند صرف نمی کند. هیچ چیز در مورد) 4) تعداد دفعاتی که سؤال انجام شده است (دوباره نشان می دهد که آیا سؤال واقعاً مرتبط است و باعث ایجاد علاقه در کاربر می شود) سؤال من: الف) آیا می توانم این نمرات را در گروه های دشواری به عنوان یک نمره واحد ارزیابی کنم یا خیر؟ آیا باید آن را در گروه های فردی ارزیابی کرد؟ ب) در حال حاضر میانگین درخواست **تلاش ها، زمان، تلاش های صحیح** را محاسبه می کنم و سپس میانگین زمان هر سوال را با میانگین برنامه تقسیم می کنم تا امتیاز محاسبه شود؟ چه نوع میانگین ها یا فرمول های آماری را باید برای این نوع مسائل در نظر بگیرم؟ | محاسبات نمره محبوبیت و دشواری در گروه ها و زیر گروه ها |
70860 | من مطمئن هستم که این یک سوال واضح برای کسی است. وقتی نسبتها را با هم ترکیب میکنیم، اما نسبت کلی نمیتواند در واقعیت از 100٪ تجاوز کند - به این چه میگویند؟ برای مثال، اگر بخواهم احتمال ابتلای فردی به بیماری را کاهش دهم و یک دارو احتمال ابتلا را تا 80 درصد کاهش دهد و پیروی از یک برنامه غذایی آن را تا 40 درصد کاهش دهد (مطالعات مستقل هیچ تداخلی اندازهگیری نشده است)، کاهش کلی انجام میشود. به شرح زیر: 80% + (40% از 20%) = 88%. من ممکن است احتمال ابتلا به این بیماری را تا 88 درصد کاهش داده باشم. چگونه می توانم این را ریاضی توضیح دهم؟ من می دانم که یک مبنای احتمالی برای این وجود دارد (آیا این جنبه رویدادهای مستقل چیزها به احتمال اولیه است، آیا این چیزی است که با مجانبی انجام می شود، آیا این چیزی است که با ریاضی پشت ANOVA ها (یعنی تعاملات و مستقل) انجام می شود؟). آیا همه اینها با هم ترکیب شده است؟! من خوشحالم که به تنهایی برای تحقیقات بیشتر حرکت می کنم. هر کمکی قابل تقدیر است. | توصیف ترکیب غیر مجموع نسبت ها |
15889 | من سعی می کنم یک ماتریس همبستگی را از 5 بزرگترین مقادیر ویژه و بردارهای ویژه مرتبط با ماتریس همبستگی نمونه تخمین بزنم. مشکل من این است که خروجی کد متلب زیر به میانگین همبستگی بسیار بالاتری (0.8 در 0.4) برای داده های مالی مورد نظر من منجر می شود. [V,D] = eig(InputCorr); eigvals = diag(D); eigvals(1:(پایان-5)) = 0; eigvals = eigvals*size(InputCorr,1)/sum(eigvals); BB = bsxfun(@times,V,eigvals')* V'; T = 1./ sqrt(diag(BB)); OutputCorr = 0.5*(BB+BB') .* (T*T'); آیا چنین افزایش قابل توجهی در میانگین همبستگی قابل انتظار است یا من کار اشتباهی انجام می دهم؟ بهروزرسانی: تجزیه $A=λ_{1}v_{1}v_{1}' \+ ... + λ_{n}v_{n}v_{n}'$ پیشنهاد شده توسط @Jonathan Lisic بسیار مفید است. اگر آن را فقط به پنج عبارت اول کوتاه کنم، عناصر خارج از مورب ماتریس همان چیزی است که انتظار دارم (مشابه با عناصر متناظر ماتریس اصلی و همبستگی میانگین مشابه)، اما عناصر مورب بسیار کمتر از 1 هستند. بنابراین افزایش همبستگی با تغییر مقیاس ماتریس برای بدست آوردن عناصر قطری برابر با یک ایجاد می شود. من در واقع فقط به عناصر خارج از مورب علاقه مند هستم، آیا استفاده از آنها مستقیماً بدون انجام هیچ تغییر مقیاس مناسب است؟ | چگونه می توان ماتریس همبستگی را از بزرگترین مقادیر ویژه تخمین زد؟ |
86166 | هنگامی که راه حل بسیار پراکنده است، احتمالا سریع ترین روش برای حل رگرسیون LASSO رگرسیون حداقل زاویه است، که از یک راه حل تمام صفر شروع می شود و عناصر غیر صفر را یکی یکی به بردار پارامتر اضافه می کند. من سعی می کنم یک مشکل کمند گروهی را حل کنم: $ \min_{\beta} \frac{1}{2}||y-X\beta||+\lambda\sum_g||\beta_g||_2$ وقتی فضای پارامتر باشد بسیار بزرگ، ستونهای ماتریس طراحی $X$ بسیار همبسته هستند (اساساً یک ماتریس کانولوشن) و بهینه $\beta$ بسیار پراکنده است. آیا روش های ست فعال برای گروه کمند مشابه LARS وجود دارد؟ من میدانم که مسیر منظمسازی کامل دیگر مانند کمند به صورت تکهای خطی نیست، اما حتی یک روش تقریبی خوب نیز به خوبی جواب میدهد. | روش های ست فعال برای کمند گروهی؟ |
70867 | من چندین خوشه از مسیرهای عابر پیاده را با ** خوشه بندی سلسله مراتبی ** بدست آورده ام. اکنون برای هر خوشه، مایلم تمام مسیرهای عابر پیاده را در یک مسیر مرکزی ادغام کنم. من در حال حاضر در حال پیاده سازی خوشه بندی سلسله مراتبی با Python scipy.cluster.hierarchy هستم. آیا تابع خارج از قفسه ای برای بدست آوردن مرکز یک خوشه وجود دارد؟ اگر وجود نداشته باشد، پیشنهادات کلی در مورد روش های ادغام نیز بسیار مورد استقبال قرار می گیرد. | چگونه می توان مرکز یک خوشه را بدست آورد؟ |
112917 | در متاآنالیز، می دانم که یک فرض مهم استقلال است. واضح است که اگر بخواهیم اندازه اثر تلفیقی را تخمین بزنیم، بهترین کار این است که هر اثر از یک نمونه مستقل از ناظران باشد. در غیر این صورت، اثر خلاصه بیش از حد تحت تأثیر نمونه هایی قرار می گیرد که بیش از یک اندازه اثر را به مدل کمک می کنند. **با این حال**، به عنوان یک روانشناس تجربی، بسیاری از مقایسه هایی که من به آنها علاقه مندم در سطح آزمودنی های درونی متفاوت هستند (به عنوان مثال، نمونه مشابهی از افراد ممکن است روی دو مجموعه از انواع محرک آزمایش شده باشد). بنابراین، سؤال من این است که آیا تحلیلهای تعدیلکننده را میتوان در جایی انجام داد که k به جای نمونهها، شرایط را نشان دهد. به عبارت دیگر: **اگر برای هر نمونه دو اثر داشتم، یکی برای محرک 1 و دیگری برای محرک 2 - آیا می توانم یک تحلیل تعدیل کننده بر روی نوع محرک انجام دهم، با توجه به اینکه این در سطح آزمودنی های درونی متفاوت است؟** به موارد زیر توجه کنید. چیزها- 1) من از این مدل بین شرط برای تخمین اندازه اثر ترکیبی کلی به دلیل مسائلی که در پاراگراف اول ذکر کردم استفاده نمی کنم. 2) من نمونه های منتشر شده ای از چنین تحلیل بین شرایط را دیده ام، اما پیامدها / محدودیت ها / مسائل مربوط به آن بندرت مورد بحث قرار می گیرد. علاوه بر این، اگر کسی مرجع/مثالی در مورد اینکه چرا این خوب است/خوب نیست، دارد، بسیار سپاسگزار خواهم بود. قدردان وقت شما هستم. | استقلال اثرات در متاآنالیز و متارگرسیون |
83104 | من در حال آموزش یک مدل طبقه بندی با Random Forest هستم تا بین 6 دسته تمایز قائل شوم. داده های تراکنش من تقریباً 60k+ مشاهدات و 35 متغیر دارد. در اینجا نمونه ای از نحوه ظاهر تقریباً آن آورده شده است. _________________________________________________ |user_id|تاریخ_اکتساب|x_var_1|x_var_2| y_vay | |-------|----------------|------|-------|-------- | |111 | 01/04/2013 | 12 | ایالات متحده | گروه 1 | |222 | 2013-04-12 | 6 | PNG | گروه 1 | |333 | 05/05/2013 | 30 | DE | گروه2 | |444 | 2013/05/10 | 78 | ایالات متحده | گروه3 | |555 | 2013/06/25 | 15 | BR | گروه 1 | |666 | 2013/06/25 | 237 | FR | گروه6 | پس از ایجاد مدل، میخواهم مشاهدات چند هفته گذشته را به دست بیاورم. همانطور که تغییراتی در سیستم ایجاد شده است، مشاهدات اخیر بیشتر شبیه به محیط مشاهدات فعلی است که من می خواهم پیش بینی کنم. از این رو، من می خواهم یک متغیر وزن ایجاد کنم تا جنگل تصادفی اهمیت بیشتری به مشاهدات اخیر بدهد. آیا کسی می داند که بسته تصادفی Forest در R می تواند وزن ها را در هر مشاهده انجام دهد؟ همچنین، لطفاً روش خوبی برای ایجاد متغیر وزن پیشنهاد دهید؟ به عنوان مثال، از آنجایی که اطلاعات من مربوط به سال 2013 است، به این فکر می کردم که می توانم عدد ماه را از تاریخ به عنوان وزن بگیرم. آیا کسی مشکلی در این روش می بیند؟ پیشاپیش سپاس فراوان! | وزن دادن به داده های جدیدتر در مدل جنگل تصادفی |
30654 | بگویید من یک پروژه دارم (شما پروژه معمولی را می شناسید که می توانید با استفاده از نمودار گانت نشان دهید) اگر می توانم یک احتمال جزئی را به هر یک از وظایف در گانت اختصاص دهم... مثلاً بگویید: * Task1 (2 روز، من هستم 75٪ از آن مطمئن هستم) * Task2 (4 روز، من 50٪ از آن مطمئن هستم) برای شروع، کار 1 بیشتر تمام شده است * Task3 (8 روز، من 25٪ هستم) مطمئن باشید) برای شروع، کار 2 بیشتر تمام شده است چگونه می توانم محاسبه کنم که چقدر احتمال دارد این پروژه 14 روزه را تمام کنم؟ (_اگر میپرسید چرا این را میپرسم، من یک توسعهدهنده نرمافزار هستم و دائماً در حال ایجاد طرحهای پروژه هستم و میخواهم درباره این موضوع اطلاعات بیشتری کسب کنم تا بتوانم برآورد پروژه را بهتر انجام دهم. | محاسبه احتمال وظایف پروژه، و به احتمال زیاد تاریخ پایان؟ |
14426 | فرض کنید من یک مدل حداقل مربعات تعمیم یافته می سازم. من رویه استاندارد را دنبال می کنم و ابتدا یک مدل LM را تخمین می زنم. سپس یک ماتریس کوواریانس پاسخ خطا بر اساس باقیمانده های این مدل ایجاد می کنم. اکنون دوباره یک مدل LM میسازم فقط این بار وزنها را بر اساس ماتریس کوواریانس پاسخ خطا مشخص میکنم. حالا فرض کنید می خواهم با مدل GLS خارج از نمونه پیش بینی کنم تا پایداری مدل را آزمایش کنم. میخواهم تأیید کنم که میتوانم به سادگی یک پیشبینی را با استفاده از ضرایب برآورد شده توسط GLS انجام دهم و دیگر نیازی به ارائه وزن نیست (مخصوصاً که در سناریوی پیشبینی که در آن باقیماندهها در دسترس نیستند، ماتریس کوواریانس خطا-پاسخ نمیتوان تولید کرد). سوال بعدی: ما به امتیازدهی داده های آزمون با ضرایب از داده های آموزشی اقدام می کنیم. (بعد داده های آزمون شامل مقطعی از N فرد و مشاهده T است.) ما می خواهیم خطاهای استاندارد ثابتی تولید کنیم. بنابراین، به جای محاسبه خطای استاندارد تخمین به روش OLS، ما باقیمانده ها را با بردار وزن های GLS وزن می کنیم: OLS calc از SEE: `sqrt( sum( ( باقیمانده از مدل خطی ) ^ 2 ) ) / residualDegreeFreedom )` GLS calc از SEE: `sqrt( sum( ( باقیمانده از مدل خطی) ^ 2 * glsWeight ) ) / sum ( glsWeight ) * length( glsWeight ) / residualDegreeFreedom )` gls weight برداری است که به روش معمول به عنوان معکوس واریانس باقیمانده های هر مقطع در محاسبه می شود. یک تاریخ (یعنی بردار طول T). با این حال، در اینجا من از باقیماندههای دادههای _test_ بر خلاف دادههای آموزشی استفاده میکنم (در واقع این مورد نیاز است، در غیر این صورت بعد باقیماندههای خارج از زمان با بعد بردار وزنهای GLS مطابقت ندارد). چیزی که غیر شهودی است این است که اگر بخواهم SEE مدل GLS را خارج از نمونه بر روی _یک_فرد اندازه گیری کنم، باید _همه_ افراد را از نمونه نمره دهم (در غیر این صورت ساختن بردار وزن GLS غیرممکن خواهد بود، زیرا وجود دارد. بدون واریانس باقیمانده). سوال این است - آیا هنگام محاسبه SEE خارج از نمونه باید از وزن های GLS استفاده کنم یا می توانم به سادگی از محاسبه OLS SEE استفاده کنم؟ | پیش بینی با GLS |
7659 | من از یک پرسشنامه همدلی 33 سوالی استفاده کرده ام. من مقیاس را از 9 امتیاز به مقیاس 4 درجه تغییر دادم تا به اجبار پاسخ داده شود و ابهام کاهش یابد. **آیا پس از این کاهش تعداد گزینه های پاسخ، باید ویژگی های مقیاس را دوباره آزمایش کنم؟** | آیا پس از کاهش تعداد گزینه های پاسخ از 9 به 4، یک مقیاس روانشناختی نیاز به اعتبار مجدد دارد؟ |
38082 | من که از یک پیشینه دقیق در تحلیل و تئوری احتمالات مدرن سرچشمه میگیرم، آمار بیزی را ساده و قابل درک میدانم، و آمارهای متداول را فوقالعاده گیجکننده و غیر شهودی میدانم. به نظر میرسد که افراد مکرر واقعاً آمار بیزی را انجام میدهند، مگر با «پیشهای مخفی» که انگیزه خوبی ندارند یا به دقت تعریف نشدهاند. از سوی دیگر، بسیاری از آماردانان بزرگ که هر دو دیدگاه را درک می کنند، به دیدگاه مکرر گرایانه نسبت می دهند، بنابراین باید چیزی وجود داشته باشد که من فقط آن را درک نمی کنم. به جای اینکه تسلیم شوم و خودم را یک بیزی معرفی کنم، میخواهم درباره دیدگاه مکرر گرا بیشتر بیاموزم تا واقعاً آن را بزرگ کنم. چند مرجع خوب برای یادگیری آمارهای مکرر از دیدگاهی دقیق چیست؟ در حالت ایدهآل، من به دنبال کتابهایی از نوع اثبات-تعریف یا شاید مجموعههای مسائل سخت هستم که با حل آنها، ذهنیت درستی به دست بیاورم. من بسیاری از موارد فلسفی بیشتری را که ممکن است با جستجو در اینترنت پیدا کنید - صفحات ویکی، پی دی اف های تصادفی از سایت های .edu/~randomprof و غیره - خوانده ام و کمکی نکرده است. | ارجاعات آمار متداول برای کسی که به خوبی در نظریه احتمالات مدرن آشناست |
14420 | من روی چند مشکل کار می کنم که در آنها از شبه درستنمایی (با نام مستعار مرکب) به عنوان یک روش تخمین استفاده می کنم زیرا حداکثر درستنمایی کامل امکان پذیر نیست. برای ارائه پیشینه بدون وارد شدن به جزئیات بسیار خاص، در هر دو پروژه داده ها نمونه های iid از داده های باینری خوشه ای هستند به طوری که در هر خوشه وابستگی هایی وجود دارد. یعنی من مشاهدات iid $Y_{1}، ...، Y_{n}$ دارم به طوری که $Y_{k} = \\{ Y_{k1}، ...، Y_{km_{k}} \\}$ که در آن $m_{k}$ میتواند نسبتاً بزرگ باشد (مثلاً 100). از آنجایی که هیچ انتخاب قبلی ساده ای برای توزیع داده های باینری چند متغیره وجود ندارد، من با مدل سازی توزیع های دو متغیره و تولید شبه درستنمایی با جمع درستنمایی های زوجی به مشکل حمله می کنم. این معقول است زیرا احتمال یک بردار دوتایی دو متغیره تابعی ساده از احتمالات سلولی است و میتواند به راحتی با احتمالات حاشیهای و نسبت شانس مجددا پارامتری شود و پارامترهای قابل تفسیر بر حسب میانگین و ساختار وابستگی را ارائه دهد. به طور خاص، من $$ {\rm CL}(\Theta) = \sum_{k=1}^{n} w_{k} \sum_{(i,j)}\log \Big(P(Y_{ki) را حداکثر میکنم }, Y_{kj} | \Theta) \Big ) $$ به عنوان تابعی از پارامتر $\Theta$. شاخص $(i,j)$ برای نشان دادن همه جفت مشاهدات در خوشه $k$ است. وزنهای $w_{k} = m_{k}/\binom{m_{k}}{2}$ بهگونهای گنجانده شدهاند که یک خوشه خاص به دلیل بسط جفتی، نفوذ مصنوعی زیادی نداشته باشد. این یک واقعیت است که برآوردگرهای شبه درستنمایی در بهترین حالت به اندازه برآوردهای حداکثر درستنمایی کامل کارآمد هستند و معمولاً کارایی کمتری دارند (به وضوح). در کارهای دیگری که خواندهام، هر زمان که از روشهای شبه احتمال استفاده میشود، بحث/نتیجهای وجود دارد که تلاش میکند تا از دست دادن کارایی را کمیسازی کند. این من را به سؤال من هدایت می کند: از آنجایی که من نمی توانم برآورد حداکثر درستنمایی را بر حسب پارامترهای مدل خود محاسبه کنم (به جز در موارد ساده که در واقع مدل های فرعی هستند که دقیقاً توسط برآوردگر درستنمایی ترکیبی مانند استقلال گرفته شده اند)، دقیقاً چگونه است. آیا می توانم این از دست دادن کارایی را کمّی کنم؟ آیا برای کسی قانع کننده خواهد بود که اگر بخواهم نتایج تخمینی را ارائه کنم زمانی که مدل واقعی زیرمجموعه ای از فضای تحت پوشش تخمینگر احتمال ترکیبی نیست (زیرا شبیه سازی داده ها با وابستگی های مرتبه بالاتر نسبت به نمونه های گرفته شده به اندازه کافی ساده است. با احتمالات زوجی) و نشان دهید که دقت زیادی از بین نمی رود؟ فکر اولیه من محاسبه کارایی نسبی مجانبی بیشینه ساز ${\rm CL}(\Theta)$ بود. من یک عبارت تحلیلی برای ماتریس کوواریانس مجانبی تخمینگر شبه درستنمایی دارم که در صورت لزوم می توانم آن را به صورت عددی محاسبه کنم (اما برای این کار باید هسین، ugh را محاسبه کنم). اما، من نمی توانم پیشرفت زیادی با مقدار مشابه برای MLE داشته باشم، بنابراین آن در آب مرده است، مگر اینکه چیزی را از دست بدهم. برای هر فکری متشکرم | کمی کردن از دست دادن کارایی متحمل شده توسط یک برآوردگر شبه درستنمایی نسبت به برآوردگر حداکثر درستنمایی واقعی |
40506 | در ANOVA یک طرفه ($Y_{ij} = A_i + \epsilon_{ij}$) خطاهای استاندارد ضرایب به راحتی محاسبه می شوند: $$SE_{\widehat{A_{i}}} = \sqrt{\text {میانگین مجموع باقیمانده مربعات} \over \text{اندازه گروه i}}$$ خطاهای استاندارد ضرایب دقیقاً چگونه است (عامل سطوح) با ANOVA دو طرفه محاسبه شده است؟ آیا عبارت مشابهی وجود دارد؟ کمی تحقیق کردم اما نتیجه ای نداشتم. من سعی کرده ام بفهمم که چگونه ماتریس واریانس-کوواریانس برای مدل های خطی تعریف می شود (یک چیز کاملاً اساسی که فکر می کردم)، اما نتیجه ای نداشت! **من به شدت بیان مستقیم** را مانند موارد بالا با مجموع و شاخص به موارد ضرب ماتریس ترجیح می دهم. با تشکر :-) در اینجا نمونه کد آزمایشی برای ANOVA دو طرفه set.seed(2) y = c(rnorm(200, 20, 4), rnorm(300, 30, 4), rnorm(400, 40, 4) است. rnorm(500, 50, 4)) cat1 = as.factor(c(rep(1,200), rep(2, 300), rep(3, 400), rep(4, 500))) rand_order = sample(1:length(cat1)) cat2 = cat1[Rand_order] cat2y = c(rep(1,200), rep(-2 ، 300)، تکرار(3، 400)، تکرار(-4، 500)) y = y + خلاصه cat2y[Rand_order] (lm(y ~ 0 + cat1 + cat2)) | خطاهای استاندارد ضرایب (سطوح عامل) دقیقاً چگونه در یک ANOVA دو طرفه محاسبه می شوند؟ |
92851 | من میخواهم یک تحلیل خوشهای چند متغیره روی دادههای ریزنمونه PUMS (سوابق سطح فردی) در نظرسنجی جامعه آمریکا انجام دهم. من قبلاً فقط زمانی که هیچ خطایی در داده ها وجود نداشته باشد (یا تصور می شود هیچ خطایی وجود نداشته باشد) تجزیه و تحلیل خوشه ای انجام داده ام. آیا کسی سعی کرده است که بسته تجزیه و تحلیل نظرسنجی عالی توماس لوملی را برای R با هر یک از بسته های تجزیه و تحلیل خوشه ای ترکیب کند؟ برای مثال، Pvclust مقادیر p را برای شناسایی خوشه های آماری معنی دار ارائه می دهد. با این حال، من نمی دانم چگونه خطاهای استاندارد را از بسته نظرسنجی به جستجوی خوشه های چند متغیره وارد کنم. این مشکل با وجود متغیرهای طبقهبندی مرتبط با تحقیق من تشدید میشود. | یافتن خوشه های چند متغیره با داده های نظرسنجی (در R) |
38085 | با استفاده از الگوریتم WeakLearn از مقاله اصلی RankBoost، چگونه آستانه بهینه را برای به حداکثر رساندن AU-RPC (به جای AUC) تنظیم می کنید؟ و هنگامی که آن آستانه تنظیم شد، چگونه AU-RPC را برای استفاده در محاسبه آلفا محاسبه می کنید؟ این مقاله پیشنهاد میکند که محدوده زیر منحنی فراخوانی-دقت [از AUC] معیار بسیار بهتری در هنگام کار با مجموعه دادههای بسیار کجشده است، که کاربرد فعلی من است. این مقاله اصلاحی از RankBoost.B را پیشنهاد میکند که مدعی به حداکثر رساندن AU-RPC است. با این حال، نویسندگان از یادگیرندگان بر اساس بند های مرتبه اول استفاده می کنند، در حالی که من باید از یادگیرندگان WeakLearn پیشنهادی اولیه استفاده کنم. چگونه می توانم همان ایده را با الگوریتم یادگیرنده اصلی اعمال کنم؟ | چگونه RankBoost را تغییر دهیم تا به جای AUC، ناحیه زیر منحنی فراخوانی دقیق را به حداکثر برسانیم؟ |
38088 | من باید با توزیع دو وجهی و عادی کار کنم. با شروع از مجموعه ای از توزیع دووجهی داده شده، باید مجموعه ای از بردارهای تصادفی را رسم کنم. برخی از این بردارهای تصادفی باید دارای ضرایب همبستگی باشند. من فکر کردم که یک بردار $x_1$ از مقادیر تصادفی از یکی از توزیعهای دووجهی رسم کنم و سپس با مقداری نویز گاوسی $\epsilon$ ترکیب کنم تا یک بردار $x_2$ جدید مرتبط با اولی بدست آوریم. اما من باید ضریب همبستگی را از قبل بدانم. علاوه بر این، من فکر می کنم نمی توانم از همبستگی پیرسون استفاده کنم زیرا میانگین و واریانس برای توزیع دووجهی معنی ندارد. هر توصیه ای؟ | همبستگی و توزیع های غیر نرمال |
13812 | یک سیستم دارای نرخ درخواست ورودی N درخواست در ثانیه است. این سیستم میزبان مجموعه ای از x کارگران است که در آن x >= N. هر کارگر می تواند یک درخواست را در حدود t ثانیه تکمیل کند. حداکثر درخواست های موازی قابل پردازش توسط سیستم x است. اما گاهی اوقات یک کارگر می تواند به طور نامحدود تاخیر داشته باشد و زمانی که از T ثانیه بیشتر شود، درخواست فعلی لغو می شود و یک درخواست جدید _(t < T)_ پردازش می شود. این ممکن است برای 1٪ - 100٪ از کارگران برای چند ثانیه اتفاق بیفتد. در طول آن T ثانیه، کارگر مسدود می شود و نمی تواند درخواست دیگری را پردازش کند. این درخواست های پردازش نشده حذف می شوند و دیگر پردازش نمی شوند. برای جلوگیری از مسدود شدن نامحدود، سیستم درخواست فعلی را برای شروع پردازش یک درخواست جدید لغو می کند. به طور متوسط هر ساعت n درخواست لغو می شود. چگونه این اطلاعات را برای یافتن موارد زیر مدل می کنید؟ 1. تعداد درخواست های حذف شده به عنوان تابعی از درخواست های لغو شده. 2. تأثیر زمان تنظیم (T)، اندازه استخر کارگران (x)، میانگین زمان فرآیند (t) بر کاهش یا افزایش تعداد درخواستهای حذف شده یا معکوس آن، تعداد درخواستهای پردازش شده؟ 3. بدترین، متوسط یا بهترین حالت ظرفیت سیستم. | مدلسازی بدترین، متوسط و بهترین حالت ظرفیت یک سیستم |
75045 | چگونه یک منحنی فراخوان دقیق از روی ماتریس خطا و بردار برچسب ها محاسبه می شود؟ ماتریس خطا به اندازه NxN است و حاوی فواصل بین ویژگی های مرتبط با سطر و ستون مربوطه است (در نتیجه قطر 0 است). برچسب ها در یک بردار 1xN هستند و کلاس مربوط به سطرها/ستون های ماتریس خطا را توصیف می کنند، به عنوان مثال. [1 1 1 1 2 2 2 ... 20 20 20 21 21 ... C-1 C-1 ... C C C]، که در آن C تعداد کلاس ها است. من از دو معادله زیر در تمام نتایج رتبهبندی برای هر کلاس استفاده کردهام تا به مقادیر دقت و یادآوری برای هر کلاس ختم شود. دقت = TP / (TP + FP) فراخوانی = TP / (TP + FN) سؤال من این است (اگر کاری که من انجام میدهم درست است): این است که چگونه همه مقادیر فراخوان دقیق کلاس با هم ترکیب میشوند/میانگین میشوند تا یک نمودار واحد به دست آید. ? آیا من فقط میانگین تمام مقادیر دقت را در یک مقدار معین فراخوانی انجام می دهم؟ یا اینکه میانگین تمام مقادیر دقت برای یک رتبه معین و میانگین همه مقادیر فراخوان برای یک رتبه معین قابل قبول است؟ برای هر بینشی بسیار متشکرم. منحنی های یادآوری دقیقی که من دریافت می کنم در این تصویر نشان داده شده است.  کد زیر (اما احتمالا غیر ضروری). % نقاط فراخوانی دقیق را برای رسم برمی گرداند. % 'dismat' یک ماتریس فاصله NxN است که حاوی فاصله بین هر ویژگی و هر ویژگی دیگر است. % 'labels' یک بردار N-طول است که با هر سطر و ستون تابع 'dismat' مطابقت دارد [prec,recall] = calcPrecisionRecall( dismat, labels) if size(labels, 1) ~= 1 labels = labels'; end numClasses = length(unique(labels)); [sortedDistMat, idx] = sort(dismat); % هر ستون مرتب شده است recalledClasses = labels(idx); recalledMatches = bsxfun(@eq, recalledClasses(2:end, :), labels); classMatches = صفر (اندازه (RecalledMatches, 1)، numClasses); instancesPerClass = صفر (1، numClasses); برای ii=1:numClasses classMatches(:, ii) = sum(recalledMatches(:, labels == ii), 2); instancesPerClass(ii) = sum(labels == ii); پایان % ما فقط رتبه را افزایش می دهیم تا امتیازات prec = zeros(size(classMatches)) را بدست آوریم. recall = صفر (اندازه(مطابقات کلاس)); sumClassMatches = cumsum(classMatches); rank = 1:size(classMatches, 1) for ci =1:numClasses prec(rank, ci) = sumClassMatches(rank, ci) ./ (rank' * instancesPerClass(ci)); recall(rank, ci) = sumClassMatches(rank, ci) / ((instancesPerClass(ci) - 1) * instancesPerClass(ci)); پایان % میانگین تمام مقادیر دقت و تمام مقادیر فراخوانی (بنابراین نقاط داده میانگین prec-- میانگین فراخوانی برای یک رتبه خاص خواهند بود) avgPrec = mean(prec, 2); avgRecall = mean(Recal, 2); من قبلاً این سؤال را در StackExchange پرسیدم (http://stackoverflow.com/questions/19824979/matlab-precision-recall-from-error-matrix) اما به من گفته شد که سؤالم را اینجا بیاورم. | محاسبه منحنی فراخوان دقیق از ماتریس خطا در متلب |
7653 | همانطور که توسط یکی از شما پیشنهاد شده بود، _Clinical Trials, a Methodologic Perspective_ (S. Piantadosi) را خواندم. به گفته نویسنده: > یک کارآزمایی باید دو طرز تفکر متفاوت را درک کند که از جنبه علمی- بالینی و آماری پشتیبانی می کند. هر دوی آنها زمینه ساز ظهور مجدد > درمان به عنوان یک علم مدرن هستند. هر یک از روشهای استدلال به طور مستقل پدید آمدند و اگر میخواهند به طور مؤثر به سؤالات درمانی پاسخ دهند، باید به طرز ماهرانهای ترکیب شوند. من نمی توانم بفهمم منظور نویسنده از استدلال بالینی چیست. آیا می توانید به من کمک کنید تا این مفهوم را درک کنم؟ پیشاپیش از شما متشکرم | در رابطه با کارآزمایی های بالینی، استدلال بالینی در مقابل استدلال آماری چیست؟ |
103082 | اگر سری زمانی دارید و می خواهید پیش بینی هایی انجام دهید، از چه **ویژگی زمانی** باید استفاده کنید؟ فرض کنید میخواهیم پیشبینی کنیم _چند نفر از یک وبسایت خاص بازدید میکنند_، دادههایی برای بازدیدهای ۲ سال گذشته داریم، چه چیزی را باید به عنوان ویژگی زمانی در نظر بگیریم؟ و اگر از ویژگی های بیشتری استفاده کنیم ممکن است مدل ما دقت کمتری داشته باشد؟ **ویژگی هایی که می توانم به آنها فکر کنم عبارتند از:** فهرست تاریخ (1-700) شماره هفته (1-53) روز هفته (1-7) ماه (1-12) روز ماه (1- 31) روز سال (1-365) سال | اهمیت ویژگی های زمان |
88900 | من در حال انجام برخی تجزیه و تحلیل دادهها هستم که شامل برازش مجموعه دادهها به یک توزیع GEV است، اما نتایج عجیبی دریافت میکنم. من از scipy استفاده می کنم که از MLE برای برازش پارامترها استفاده می کند. دادههای من [1.47، 0.02، 0.3، 0.01، 0.01، 0.02، 0.02، 0.12، 0.38، 0.02، 0.15، 0.01، 0.3، 0.24، 0.01، 0.01، 0.01، 0.01، 0.05، 0.01، 0.01، 0.0، 0.05، 0.0، 0.09، 0.03، 0.22، 0.0، 0.1، 0.0] با استفاده از `scipy.stats.genextreme.fit`، پارامترهای زیر را دریافت می کنم: shape = 8.39-8 = 8.21009 آزمون کولموگروف-اسمیرنوف (`scipy.stats.kstest`) D = 0.4171 p-value = 2.1576e-08 را می دهد و نمودار هیستوگرام و pdf به این صورت است:  اکنون مشکلات: 1. داده ها جریان های هیدرولوژیکی هستند. اگر از مدل GEV برای استخراج استفاده کنم، به عنوان مثال. جریان تکرار 50 ساله من مقدار بسیار مضحکی را دریافت می کنم، چیزی به ترتیب 1e17، بنابراین به طور شهودی مدل نادرست است. 2. مقدار p بسیار پایین است، که نشان می دهد پارامترهای مدل نادرست هستند، یا خود مدل نامناسب است. با این حال، من هیچ مورد دیگری را نمی شناسم که برای مقادیر افراطی مناسب باشد. 3. ما یک صفحه گسترده جعبه سیاه داریم که سال ها پیش توسعه یافته است که GEV را با استفاده از روش لحظه ها محاسبه می کند، و به نظر می رسد نتایج معقولی را برای فواصل عود خاص ارائه می دهد. متأسفانه شخصی که آن را توسعه داده مدتهاست از بین رفته است و من نمی توانم به محاسبات دسترسی پیدا کنم تا ببینم چه خبر است. با این حال، به این معنی است که روش گشتاورها ممکن است تناسب بهتری نسبت به MLE برای این داده ها ارائه دهد. آیا من از روشهای اشتباهی برای این نوع دادهها استفاده میکنم یا روشی که آنها را به کار میبرم اشکالی دارد؟ | پارامترهای اشتباه برای GEV |
14422 | فرض کنید من یک توزیع پیش بینی چند متغیره دارم (بعد N). توزیع را نمی توان به صورت بسته با بردار mu و ماتریس کوواریانس مرتبط توصیف کرد. با این حال، من می توانم از توزیع سناریوهای مختلف با احتمالات مرتبط نمونه برداری کنم. می توان نمونه برداری از 100000 سناریو را برای ساخت یک ماتریس تصور کرد که در آن هر ردیف توزیع مشترک یک سناریو را نشان می دهد و یک احتمال با هر سناریو مرتبط است. حال فرض کنید من یک بردار وزن دارم و در حال انجام برخی بهینهسازیها شامل توزیع (مثلاً یک بهینهسازی میانگین واریانس) با برخی محدودیتها هستم. به طور طبیعی، برای هر قرعه کشی معینی از توزیع، می توانیم وزن های بهینه ای را جستجو کنیم که تابع میانگین واریانس را به حداکثر می رساند: وزن ها * بازده نمونه گیری - وزن ها (جابه جایی) * E * وزن ها. با این حال، وزن های بهینه برای یک قرعه کشی به طور کلی با وزنه های بهینه از قرعه کشی دیگر مطابقت نخواهد داشت. سوال - انتخاب بهینه برای بردار وزن چیست؟ من معتقدم که پاسخ ممکن است شامل یک روش بهینهسازی تصادفی باشد، با این حال، من با این فضا آشنا نیستم و میخواهم آن را تأیید کنم. همچنین ارتباطات طبیعی با ادبیات بهینهسازی قوی وجود دارد، اما راهحلها در اینجا به عبارتهای بسته برای توزیع چند متغیره نیاز دارند. من نمونه برداری مجدد را بررسی کرده ام که مشابهی با بند چکمه دارد. این شامل ساخت وزن های بهینه برای بسیاری از نمونه ها از توزیع پیش بینی و به نوعی میانگین گیری یا ترکیب وزن ها است. با این حال، این رویکرد ناقص است و فاقد مبنای نظری است. چگونه می توانم برای مقابله با این مشکل با بهینه سازی تصادفی یا برخی تکنیک های دیگر اقدام کنم؟ | بهینه سازی (Stochastic) با توزیع پیش بینی چند متغیره |
100868 | من در حال کدنویسی یک متاآنالیز هستم و به مقاله ای برخوردم که به نظر می رسد تنوع قابل توجهی در تعداد شرکت کنندگانی که به سؤالات جمعیت شناختی خاصی پاسخ داده اند دارد. حجم کل نمونه $N = 81$ است، اما تعداد شرکت کنندگان مورد استفاده برای محاسبه و گزارش سن ($n = 72$)، سال تجربه شغلی ($n = 74$)، و جنسیت ($n = 80$) ) متفاوت است. آیا یک قاعده کلی برای اینکه آیا/چگونه این داده ها را برای تحلیل های تعدیل کننده کدگذاری کنیم وجود دارد؟ من همکاری کاکرین را بررسی کردم اما نتوانستم چیزی پیدا کنم. نگرانی من این است که با ثبت اندازه نمونه به عنوان 81 ($N$ که برای اندازه اثر استفاده می شود)، به نوعی تحلیل های تعدیل کننده من را منحرف می کند زیرا برای سن، n واقعی بسیار کمتر است. آیا باید به سادگی داده ها را به عنوان مفقود برای این مطالعه خاص فهرست کنم؟ آیا می توانم آن را تبدیل کنم، یا حتی از آن همانطور که هست استفاده کنم؟ | ناهماهنگی حجم نمونه در متاآنالیز |
114815 | من پیشبینیهای زیادی از سریهای زمانی با استفاده از مدل ARIMA در بسته پیشبینی R دیدهام، و نتیجه همیشه قبل از رسیدن به سطح پایدار دارای برخی حرکتهای اولیه است. چه چیزی باعث تکان دادن اولیه می شود؟ من نمی توانم تصویری را ضمیمه کنم زیرا برای ارسال تصاویر به حداقل 10 شهرت نیاز دارم. اساساً مقدار پیشبینیشده برای پیشبینی چند قدم اول با سطح پایدار طولانی متفاوت است، اما پس از چند مرحله به آن همگرا میشود. install.packages(forecast) library(forecast) install.packages(Ecdat) data(Tbrate,package=Ecdat) attach(as.list(Tbrate)) auto.arima(pi,max.P=0 ,max.Q=0,ic=bic) fit = arima(pi,order=c(1,1,1)) forecasts = predict(fit,36) plot(pi,xlim=c(1980,2006),ylim=c(-7,12)) خطوط (seq(from=1997,by=.25,length=36), forecasts$pred,col=red ) خطوط (seq(from=1997,by=.25,length=36), forecasts$pred + خطوط 1.96*forecasts$se، col=blue) (seq(from=1997,by=.25,length=36)، forecasts$pred - 1.96*forecasts$se، col=آبی) | چرا در پیش بینی مدل آریما تکان اولیه داریم؟ |
83101 | در حال تماشای این ویدئو توسط تام مینکا در انتشار انتظارات (http://videolectures.net/mlss09uk_minka_ai/) بودم. در حدود ساعت 19:12، او میگوید که دلیل اینکه تکنیک تطبیق لحظهای کار میکند این است که وقتی تعداد زیادی از عبارتهای احتمال را با هم ضرب میکنید، توزیع پسین حاصل فشرده است و واریانس آن بسیار کم است و بیشتر گوسی به نظر میرسد (با فرض IID) . در نقطهای از ویدیو، او میگوید این به دلیل قضیه حد مرکزی است. با این حال، من نمی توانم ببینم که چگونه CLT برای ضرب چنین احتمالاتی اعمال می شود و چرا این باید یک گاوسی فشرده را تقریب بزند. از هرگونه نظر/پیشنهاد در مورد درک این موضوع قدردانی می کنم. | قضیه حد مرکزی: ضرب احتمال |
88903 | من مجموعه داده ای از نوع $y;x_1، x_2، x_3، ... $ داشتم و از برخی از متغیرهایم برای انجام تحلیل خوشه ای استفاده کردم. فرض کنید یکی از آن متغیرهایی که من استفاده کردم $x_i$ سپس بود. بعد از اینکه خوشه هایم را داشتم. تصمیم گرفتم یک رگرسیون خطی ساده از نوع $y \hat{} x_1 + x_2 + ...$ ${\text{در هر یک از خوشهها}}$ اجرا کنم. و جای تعجب نیست که متوجه شدم متغیر $x_i$ تقریباً یک ثابت است. این به این دلیل است که متغیر اصلی دارای محدوده $[0;10]$ بود. اما خوشه جدید دارای محدوده $[4;4.5]$ است (این فقط یک مثال است). بنابراین حدس من این است که متغیر من پس از انجام تجزیه و تحلیل خوشه ای قدرت توضیح را از دست داد. من مایلم نظراتی را در مورد چگونگی اندازه گیری میزان قدرت اطلاعاتی که از دست داده ام و اینکه آیا اصلاً باید از متغیرها پس از انجام تجزیه و تحلیل خوشه ای با آنها استفاده کنم، بشنوم. | رگرسیون خطی پس از تجزیه و تحلیل خوشه ای (چه مقدار اطلاعات را از دست دادم) |
38081 | اگر فرضیه کاری گسترده ای دارید که x بر اساس علّی/پیش بینی کننده بر y تأثیر می گذارد (مثلاً اگر x در زمان t بالا رود، انتظار دارید که y در زمان t+ بالا برود، برای روشن کردن سؤال کمی بیشتر). 1، با فرض صحت فرضیه کاری). در تحلیل سریهای زمانی سنتی، مدت زمانی که دوره t برای t نشان میدهد و t+1 مساوی است. آیا تغییرات در دوره هایی که هر یک نشان دهنده آن هستند، می توانند به راحتی برای اهداف تجزیه و تحلیل تغییر کنند؟ همچنین اگر مثال t را یک روز در نظر بگیریم، آیا می توان تفاوت در پیش بینی را برای بازه های زمانی مختلف تشخیص داد، به عنوان مثال. x امروز بالا می رود و در طول 3 روز آینده y بالا می رود یا در طول 5 روز آینده y پایین می آید (اگر هر دو مهم باشند چه اتفاقی می افتد؟). چگونه میتوان چارچوب زمانی پیشبینی را تشخیص داد، جدا از اعمال فشار بر هر ترکیب ممکن از قبل و بعد از تایم فریمها (مثلاً آزمایش اینکه آیا x در طول m روز گذشته بالا رفته است، چه اتفاقی برای y در 1 تا بعدی میافتد؟ n روز). | چگونه بازه زمانی یک پیش بینی را برای آزمایش انتخاب می کنید؟ |
40505 | من با داده کاوی تازه کار هستم و در حال بررسی راه هایی برای تقسیم طیف وسیعی از داده ها به سطل هستم. اگر اصطلاح علمی این شغل را بدانم (شاید رتبه بندی؟) جستجو برای الگوریتم ها بسیار ساده تر خواهد بود. در اینجا چیزی است که من می خواهم: من یک داده در یک محدوده تعریف شده دارم، یعنی [حداقل، حداکثر]. من آمار مرتبه اول داده ها مانند میانگین، واریانس، میانه و غیره را می دانم. من همچنین یک هیستوگرام آن را رسم کردم. وضعیت من به نوعی شبیه به اختصاص نمره نامه به دانش آموزان پس از امتحان با بررسی توزیع نمرات کل امتحانات است. من میخواهم برای دادهها از 1 تا 5 نمرههایی داشته باشم که اولین bin حاوی کوچکترین مقادیر داده و 5 حاوی بالاترین مقادیر باشد. من میتوانم این کار را به طور یکنواخت با تقسیم محدوده دادههایم به 5 قطعه مساوی انجام دهم، اما این رضایتبخش نخواهد بود. من می خواهم این کار را با بازرسی توزیع داده های خود انجام دهم. اگر بتوانید برخی از الگوریتم های شناخته شده را برای انجام این کار به من پیشنهاد دهید، خوشحال می شوم. | درجه بندی طیف وسیعی از داده ها |
89366 | من یک سوال در مورد نسبت پذیرش مورد استفاده در هنگام اجرای یک پیادهروی تصادفی M-H در نمونهبردار گیبس برای تولید مسیرهای نمونه یک فرآیند غیرقابل مشاهده دارم. هنگام محاسبه احتمال مجموعه ای از پارامترها، آیا این احتمال شامل احتمال هر جهش در فرآیند پنهان داده شده $ \theta $ نیز می شود؟ مثال زیر یک مثال ساده انگیز انگیز است. دادهها از فرآیند زیر تولید میشوند: $$ c_{i,t} = \alpha + \beta y_{t} + \epsilon_{i,t} $$ که $$ dy_{t} = -\kappa y_{t } + N(0,1) $$ بنابراین، $ Y $، که غیر قابل مشاهده و مستقل از جمله ثابت است، از یک فرآیند Ornstein-Uhlenbeck پیروی می کند. من سعی میکنم $ \theta = (\alpha، \beta، \kappa) $ را با استفاده از الگوریتم EM تخمین بزنم که در آن نمونههایی از فرآیند OU از یک نمونهگر gibbs با استفاده از گام تصادفی M-H گرفته میشود. هنگام کشیدن نمونه، با $ Y^{(0)}_{t} = 0 $ برای $ t = 0,1,2...T$ شروع می کنم. من قصد دارم یک نامزد جدید $y_t$ از $ N(Y^{(n-1)}_t, 2) $ با احتمال پذیرش $$min (\dfrac{L(\theta | C, Y^{) ترسیم کنم (n-1)}_{(-t)}،Y_t = y_t)}{L(\theta | C, Y^{(n-1)}_{t})}، 1) $$ سوال من این است : آیا توابع احتمال در احتمال پذیرش یک احتمال مشترک برای مشاهده همه مقادیر C $ و احتمال رفتن از $ Y_{t-1} -> y_t -> Y_{t+1} $ هستند یا فقط مشاهده همه مقادیر دلار کانادا؟ به عبارت دیگر، آیا تابع درستنمایی بیشتر شبیه است (هنگامی که تابع درستنمایی را به مقادیر $c_{i,t}$ برای یک دوره زمانی محدود میکنیم) $$ \prod_{j=1}^N \phi(c_{j ,t} - \alpha - \بتا y_t) $$ یا $$ \lbrace \prod_{j=1}^N \phi(c_{j,t} - \alpha - \بتا y_t) \rbrace \cdot p(y_t | Y^{(n-1)}_{t-1}) \cdot p(Y^{(n-1)}_{t+1} | y_t)$$ من یک سوال مشابه برای تابع احتمال دارم که سعی می کنم در مرحله M الگوریتم EM حداکثر کنم. من فرض میکنم هنگام پیدا کردن $\kappa$ که تابع احتمال را در تمام مسیرهای نمونه به حداکثر میرساند، باید احتمال مشترک پرش از $y_{t-1}$ به $y_t$ را برای هر پرش در هر مسیر نمونه لحاظ کنم. ? | تابع درستنمایی مناسب در احتمال پذیرش گیبس سمپلر |
43083 | من میخواهم بهترین راه برای اعتبارسنجی یک اندازهگیری در مقیاس لیکرت را برای یک پزشک غیر مبتدی توضیح دهم. این متغیر یک دوز متوسط را در 5 سطح از بیماران (پایین به بالاتر) توصیف می کند. ساده ترین راه برای تأیید اینکه دوز از نظر آماری از سطح 1 به سطح 2 به سطح 3 .. به سطح 5 افزایش می یابد چیست؟ | ساده ترین آزمون برای سازگاری مقیاس رتبه بندی |
82475 | توزیع بتا را برای مجموعه ای از رتبه بندی ها در [0,1] در نظر بگیرید. پس از محاسبه میانگین: $$ \mu = \frac{\alpha}{\alpha+\beta} $$ آیا راهی برای ارائه فاصله اطمینان حول این میانگین وجود دارد؟ | فاصله اطمینان برای میانگین توزیع بتا را محاسبه کنید |
100644 | بنابراین من دادهای متشکل از یک متغیر دوجملهای دارم که در دورههای زمانی متعدد مشاهده شده است و میخواهم از یک آزمون آماری برای تعیین وجود تغییر در طول زمان استفاده کنم. بنابراین به نظر می رسد: دوره تعداد مشاهدات تعداد موفقیت ها تعداد شکست ها 1 10 7 3 2 30 22 8 3 25 20 5 4 20 13 7 5 4 2 2 6 1 0 1 7 10 6 4 فرض کنید می خواهم مقایسه کنم دوره 5-6-7 با 1-2-3-4. اگر 5-6-7 و 1-2-3-4 را با هم گروه بندی کنیم و به سادگی از $p_{1234}$ و $p_{567}$ استفاده کنیم، جایی که $p_{1234}$ میزان موفقیت در دوره های 1- است. 2-3-4 و $p_{567}$ مربوط به دوره های 5-6-7 است، می توانیم از $ معمول استفاده کنیم \frac{p_{1234}-p_{567}}{\sqrt{p_{1234567}(1-p_{1234567}(1/n_{1234}+1/n_{567})}} فرمول $. نشان نمی دهد که $p_5 < p_{1234}, p_6 < p_{1234}, p_7< p_{1234}دلار من به طور همزمان احساس می کنم که باید یک آزمون F مناسب بسازم، اما نمی توانم به فرمول دقیق آن دست پیدا کنم. | تغییر در نسبت - دوره های متعدد |
96213 | اگر دادهها (مقدار) از دو نوع دریافت شدهاند (مثلاً درست یا نادرست): > str(test.df) 'data.frame': 3208 obs. از 2 متغیر: $ cond : Factor w/ 2 سطح FALSE، TRUE: 1 1 1 1 1 1 1 1 1 1 ... $ value: num 31 25 21 29 18 41 15 7 33 6 ... میانگین و واریانس (و همچنین تعداد موارد) متفاوت است: > آمار <- ddply(test.df، .(cond)، خلاصه، mean=mean(value)، var=var(value)، n=length(value)) > stats cond mean var n 1 FALSE 17.33918 141.3199 3137 2 TRUE 247.747. بنابراین واریانس های مختلف یعنی من نمیتونم از تست ویلکاکسون استفاده کنم درسته؟ اگر چگالی ها را رسم کنم، موارد زیر را می بینم:  آزمون Shapiro می گوید که آنها دارای توزیع نرمال نیستند. > shapiro.test(test.df[test.df$cond==TRUE, 'value']) دادههای تست نرمال بودن Shapiro-Wilk: test.df[test.df$cond == TRUE, value] W = 0.9583 ، p-value = 0.01901 > shapiro.test(test.df[test.df$cond==FALSE، 'value']) دادههای تست نرمال Shapiro-Wilk: test.df[test.df$cond == FALSE، value] W = 0.9348، p-value < 2.2e-16 بدون توزیع نرمال به این معنی است که نمیتوانم استفاده کنم تست Welch، درست است؟ بنابراین چگونه می توانم آزمایش کنم که آیا تفاوت میانگین ها قابل توجه است؟ | در صورت متفاوت بودن واریانس ها چگونه می توان معناداری را آزمایش کرد؟ |
38339 | من سعی می کنم داده های یک آزمایش فاکتوریل با سلول های از دست رفته را تجزیه و تحلیل کنم. من این مرجع http://users.monash.edu.au/~murray/BDAR/ را خواندهام که توصیه میکند آزمایش را با یک آنوای یک طرفه درمان کنید، و برای ارزیابی اثرات و تعاملات اصلی، تضاد ایجاد کنید. به دنبال نمونههای کتاب، کنتراستها را انجام دادم (fdata$ALL) <- cbind(c(rep(1,46), rep(-1,45), rep(0,32)), c(rep(-1,46) ,rep(0,45), rep(1,32))) AnovaM(aov(resp ~ ALL, fdata), split = list(ALL = list(PIE = 1:2, PIE1 vs PIE2=1، PIE1 vs PIE3=2))) من در ایجاد کنتراست در R مشکل دارم و می دانم چگونه تضادهای صحیح را برای هر تعامل ایجاد کنم. من شش عامل دارم، پنج فاکتور با 3 سطح، و یکی با دو، آیا کسی راه سیستماتیکی برای درمان این نوع مشکل می داند؟ | فاکتوریل با سلول های از دست رفته R |
82474 | فرض کنید دو سیگنال برداری $x$, $z$ وجود دارد. ناظر 1 نسخه خطی $x$ به اضافه نویز گاوسی را دریافت می کند. مشاهدهگر 2 یک مجموع خطی از $x$ و $z$ به اضافه نویز گاوسی را همانطور که در زیر نشان داده شده است دریافت میکند. $$y_1(t)=A_1(t)x(t)+n_1(t)،$$$y_2(t)=A_2(t)x(t)+B_2(t)z(t)+n_2( t).$$ اما ناظر 2 فقط به تخمین $z$ علاقه مند است بنابراین در حالت ایده آل او مایل است کل عبارت $A_2x$ را لغو کند. علاوه بر این، $A_2$ در طول زمان به آرامی در حال تغییر است. به آرامی به این معنا که تغییرات در طول زمان همبستگی دارند. فرض کنید ناظر 1 بتواند تخمین های خود را از $x$ مثلا $x_1$ به ناظر 2 ارائه دهد. آیا راهی وجود دارد که ناظر 2 از آن اطلاعات برای تخمین بهتر $z$ استفاده کند؟ ماتریس های $A_1،A_2،B_2$ مستقل هستند. ویرایش: فرض کنید $A_2(t+1)= \sum_{n=0}^{n=t}\alpha_nA_2(n) + z_t(t+1)$ که در آن $z_(t)$ نویز گاوسی مستقل است. | برآورد از دو مشاهده |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.