_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
10444
به طور کلی ، من متغیرهای مستقل خود را در رگرسیون استاندارد می کنم تا به درستی ضرایب را مقایسه کنم (از این طریق آنها واحدهای یکسانی دارند: انحراف استاندارد). با این حال، با داده های پانل/طولی، مطمئن نیستم که چگونه باید داده های خود را استاندارد کنم، به خصوص اگر یک مدل سلسله مراتبی را تخمین بزنم. برای دیدن اینکه چرا می تواند یک مشکل بالقوه باشد ، فرض کنید شما $ i = 1 ، \ ldots ، n $ افراد در طول $ t = 1 ، \ ldots ، دوره t $ اندازه گیری شده و شما یک متغیر وابسته را اندازه گیری کرده اید ، $ y_ {i ، t اندازه گیری کرده اید }$ و یک متغیر مستقل $x_{i,t}$. اگر یک رگرسیون کامل جمع آوری را اجرا کنید ، خوب است که داده های خود را از این طریق استاندارد کنید: $ x.z = (x- \ text {میانگین} (x))/\ text {sd} (x) $ ، زیرا تغییر نخواهد کرد آمار t از طرف دیگر ، اگر یک رگرسیون غیر مسخره ، یعنی یک رگرسیون برای هر فرد متناسب باشید ، پس باید داده های خود را فقط به صورت فردی استاندارد کنید ، نه کل مجموعه داده (در کد R): برای (من در 1: n) {برای ( t در 1:T) x.z[i] = (x[i,t] - mean(x[i,]))/sd(x[i,]) } با این حال، اگر یک سلسله مراتب ساده را متناسب کنید مدل با یک رهگیری متفاوت توسط افراد، سپس شما از یک برآوردگر انقباض استفاده می کنید، به عنوان مثال، شما یک مدل را بین رگرسیون ادغام شده و unpooled تخمین می زنید. چگونه باید داده های خود را استاندارد کنم؟ استفاده از کل داده ها مانند یک رگرسیون ترکیبی؟ استفاده فقط از افراد، مانند مورد unpooled؟
آیا استانداردسازی داده های خود در یک رگرسیون با داده های پانل/طولی عمل خوبی است؟
46580
من یک ربات دارم که دارای GPS و سنسورهای سرعت است. GPS تقریباً هر 1-2 ثانیه به روز می شود. من با یک فیلتر کالمن که خیلی خوب کار می کند بازی کرده ام. من تازه یاد گرفتم و در نهایت فکر می‌کنم فیلترهای ذرات را می‌فهمم، بنابراین می‌پرسم آیا فیلتر ذرات برای پیگیری موقعیت ربات در بین به‌روزرسانی‌های GPS به جای فیلتر کالمن مفید است یا خیر. طرح من چیزی شبیه به این خواهد بود: 1. شروع مختصات GPS. 2. ایجاد N ذره تصادفی توزیع شده در اطراف مختصات شروع (2 متر دقت معمول اکثر سنسورهای GPS است) 3. ربات داده های سرعت را از حسگرها حرکت می دهد و ثبت می کند. 4. همه ذرات را بر اساس یک مدل خطی، داده های سرعت حرکت می دهد. و نویز 5. با سنسور GPS بعدی وزن ذرات بر اساس یک گاوسی از مختصات به روز شده است. آیا من در مسیر درستی هستم یا ارزش کدنویسی را دارد یا باید از فیلتر کالمن استفاده کنم زیرا این یک سیستم خطی است؟
استفاده از فیلتر ذرات برای مکان یابی ربات
63122
من در مورد این مطمئن نیستم: در حالت دو بعدی، اگر کوپول گاوسی را در نظر بگیرم، آیا این با توزیع نرمال دو متغیره یکسان است، در صورتی که توزیع نرمال را برای حاشیه ها انتخاب کنم؟ آیا این برای چند جمعیتی بودن صدق می کند؟ بنابراین آیا یک جفت گاوسی d بعدی با حاشیه های نرمال با توزیع نرمال چند متغیره یکسان است؟
آیا جفت گاوسی (برای d=2) با حاشیه های نرمال با دو متغیره نرمال یکسان است؟
26925
قبلاً در stackexchange پرسیده شد، این مکان احتمالاً مناسب‌تر است، اگر کسی بتواند پست قدیمی را حذف کند، ممنون می‌شوم. من یک معادله رگرسیون خطی از مدرسه دارم، که مقداری بین 1 و -1 نشان می دهد که نشان می دهد مجموعه ای از نقاط داده به اندازه کافی به یک تابع خطی نزدیک هستند یا نه![توضیح تصویر را اینجا وارد کنید](http://i.stack .imgur.com/sgzA5.gif) و معادله داده شده در اینجا http://people.hofstra.edu/stefan_waner/realworld/calctopic1/regression.html تحت بهترین تناسب یک خط. من می‌خواهم از اینها برای تشخیص ژست‌های ساده بر اساس یک نقطه در 3 فاصله (x,y,z) استفاده کنم - جلو، عقب، چپ، راست، بالا، پایین. ابتدا می دیدم که آیا آنها روی یک خط در 2 بعد از 3 بعد می افتند، سپس می دیدم که آیا شیب آن خط به صفر نزدیک می شود یا بی نهایت. آیا این سرعت برای تشخیص ژست عملکردی کافی است؟ اگر نه، آیا کسی می تواند یک الگوریتم جایگزین پیشنهاد کند؟
سرعت مدلسازی خطی
99754
من می‌خواهم یک طبقه‌بندی نظارت‌شده بر روی داده‌ها بسازم که بسته به مشاهده، تعداد متفاوتی از پیش‌بینی‌کننده‌ها را شامل می‌شود، و من به دنبال بهترین رویکرد برای استفاده هستم. به عنوان مثال (که کاملاً مجموعه داده واقعی من نیست - مال من زیست شناسی است)، تصور کنید من می خواهم یک یادگیرنده برای خطر تصادف جاده ای افراد بر اساس ویژگی های ماشین آنها بسازم. واضح است که مردم می توانند بیش از یک ماشین داشته باشند (و تعداد ماشین ها به خودی خود می تواند یک پیش بینی کننده باشد)، و من نمی دانم که چه رویکردهایی برای استفاده از ویژگی های هر یک از ماشین های آنها به عنوان پیش بینی وجود دارد. البته من فقط می‌توانم از نوعی استراتژی ادغام برای ویژگی‌ها استفاده کنم (مثلاً شمارش تعداد کل خوشبوکننده‌های هوا و داشتن یک متغیر باینری که توضیح می‌دهد حداقل یک ماشین اسپویلر دارد یا نه)، اما اگر مثلاً، افرادی که کمتر تصادف می کنند، یک ماشین کانورتیبل و یکی ون خانوادگی دارند که در هر کدام مجموعه ای از ویژگی ها متفاوت است؟ استراتژی های ادغام این وضعیت را به طور دقیق توصیف نمی کنند، و منجر به رقیق شدن بهترین مجموعه از پیش بینی ها می شود. استراتژی دیگری که به ذهن می رسد مدل هایی با داده های از دست رفته است - در این صورت من می توانم برای هر ویژگی هر نوع ماشین یک متغیر داشته باشم که می تواند برای افرادی که نوع خاصی را ندارند روی NA تنظیم شود. اما اگر کسی دو خودرو از یک نوع داشته باشد و این به نوبه خود با داشتن یک خودرو از نظر خطر تصادف متفاوت باشد، چه؟ علاوه بر این، برای مثال، جنگل‌های تصادفی، در حالی که داده‌های از دست رفته را می‌دهند، توانایی ارزیابی اهمیت متغیر را در صورت وجود از دست می‌دهند - که در شرایط من عالی نیست. مطمئناً افراد در سراسر رشته ها - از جمله علم اکچوئری فکر می کنم - با این نوع مشکلات مواجه شده اند؟ اگر بتوانید برخی از مقالات/کتاب های مرتبط را به من معرفی کنید بسیار سپاسگزار خواهم بود.
طبقه بندی نظارت شده با تعداد مختلف پیش بینی کننده در هر مشاهده
49910
با توجه به یک ماتریس مجاورت A برای یک گراف وزن دار و جهت دار (بنابراین عناصر ماتریس فقط 0/1 نیستند و ماتریس متقارن نیست)، آیا روش های خوبی برای پیش بینی یال های جدید وجود دارد؟ من یک مجموعه داده بسیار بزرگ (میلیاردها گره) با لبه های شناخته شده برای برخی از اتصالات و مقادیر NULL برای اتصالات مشاهده نشده دارم، و می خواهم از لبه های شناخته شده برای پیش بینی موارد مشاهده نشده استفاده کنم. اگر روش دقیق نباشد، خوب است - در واقع، من می‌خواهم لبه‌ها را NULL یا 0 را در صورتی که پیش‌بینی زیر مقداری آستانه باشد، نگه دارم، فقط برای اینکه ماتریس را تا حد ممکن برای اندازه داده و سرعت پردازش کم نگه دارم. هر فکری؟
چگونه می توان لبه ها / پیوندها / اتصالات را در یک شبکه گراف جهت دار وزنی پیش بینی کرد؟
16843
آیا اثبات/ قضیه ای وجود دارد که بیان کند $$\mathrm{Var}(X_{kn}) \leq \mathrm{Var}(X)$$ که $X$ یک متغیر تصادفی پیوسته با توزیع $F$ است، و $X_{kn}$، $k^{th}$ آمار سفارش $n$ از نمونه‌ای با اندازه $n$ از $F$ است؟
واریانس توزیع سفارش حاشیه ای کمتر از واریانس توزیع کامل؟
115343
من یک رگرسیون خطی در R با استفاده از تابع glm انجام داده ام. وقفه محاسبه شده 0.98 را می گوید، اما وقتی آن را رسم می کنم، به نظر نمی رسد که به وقفه تخمینی در محور Y برخورد کند. خیلی پایین تره داده ها و تابع من در اینجا هستند: رویداد = c(2.2، 6.4، 3.4، 10.2، 4.45، 2.65، 8.25، 4.65، 3، 6.5، 5.25، 8.65، 7.25، 6.4، 7.75، 6.4، 7.75، 6.4، 7.75، 8، 7.4، 7.4 316617, 1531919, 576869, 270148, 1090947, 562643, 439885, 745741, 666454, 1078175, 924429, 789649) fit=glm(event~size) Call: glm(formula = chr.co.count.wt ~ size) ضرایب: (Intercept) size 9.783e-01 6.528e-06 Degrees of Freedom: 15 Total (i.e. Null); 14 انحراف تهی باقیمانده: 83.08 انحراف باقیمانده: 2.849 AIC: 23.8 نمودار(size,events,col=blue,pch=16,xlab=size,ylab=events,ylim=c(0,12), frame.plot=FALSE,xlim=c(0,2000000),axes = F) axis(side = 1,at = c(0,0.5e6,1e6,1.5e6), برچسب ها = c(0,0.5e6,1e6,1.5e6)) محور (سمت = 2, at = دنباله (از = 0 تا = 12 ,by = 0.5)، برچسب ها = seq (از = 0، تا = 12، by = 0.5)) abline(fit.wt) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/iqDK2.png) چرا این تناقض است؟ آیا من اینجا چیزی را از دست داده ام؟ std رو هم چک کردم. err که 0.27 است، همچنان بالاتر از آنچه در نمودار مشاهده می شود. متشکرم.
قطع رگرسیون خطی مطابقت ندارد
109212
من با داده های بالینی با 7 گروه کار می کنم که متغیر مستقل من و یک متغیر وابسته به طور معمول توزیع نشده را تشکیل می دهند. می دانم که باید از آزمون KW برای بررسی تفاوت های قابل توجه بین گروه هایم استفاده کنم. مشکل این است که 3 گروه از 7 گروه n=1 دارند. من می دانم که KW به اندازه آزمون های پارامتریک به اندازه نمونه های نابرابر حساس نیست، اما آیا n=1 حتی ممکن است؟ آیا اگر KW را اجرا کنم، یکی از مفروضات (همان فاصله کلی داده ها بین گروه ها) را نقض می کنم؟ من نمی توانم مقادیر 3 گروه را ترکیب کنم زیرا هر گروه با گروه دیگر بسیار متفاوت است. من همچنین نمی دانم که آیا حذف این 3 گروه برای آزمون KW امکان پذیر است یا خیر زیرا من واقعیت چیزها را نادرست معرفی می کنم لطفاً نظر خود را به من بگویید. متشکرم.
گروه های متغیر مستقل w/n=1 برای Kruskal Wallis ممکن است؟
80439
من اطلاعات فروش چهار سال گذشته را دارم. من می خواهم داده های خود را به دو قسمت تقسیم کنم تا بتوانم حجم پایه و حجم تبلیغاتی داشته باشم. من در نظر دارم از رویکرد تجزیه سری های زمانی استفاده کنم که حجم پایه جزء روند و جزء فصلی و خطا حجم تبلیغاتی باشد. آیا این روش خوب خواهد بود؟ آیا روش/روش دیگری برای تجزیه داده ها به دو قسمت وجود دارد؟ P.S: حجم تبلیغاتی حجمی است که از تبلیغات در فصول جشنواره به دست می آید. پیشاپیش ممنون... لطفا جواب بدید......
آیا روش تجزیه سری زمانی درست است؟
21775
من در حال حاضر در حال انجام چند تحلیل همبستگی بزرگ هستم: فرض کنید من هر همبستگی کندال را می‌خواستم و آن را با مقدار p از 20x30 آیتم‌ها در یک ماتریس منظم مرتبط می‌کردم - مثلاً آیا برای مقایسه‌های متعدد، اصلاح مقدار p را انجام می‌دهم. holm (هیچ چیز قابل توجهی نیست) یا باید فقط از گزینه passthrough adjustment=none (بسیاری از اهمیت) استفاده کنم و با آن کار تمام شود؟ اندازه نمونه بسته به حذف دوتایی 145-153 است، همبستگی ها بسیار کم هستند (-.14/+28)، با استفاده از R با corr.test از بسته روانی هدف کاوش در روابط ارتباطی احتمالی بین موارد است پیشاپیش متشکرم! JS
تعدیل P-value در تحلیل همبستگی
59318
من در حال اندازه گیری زمان یک عملیات کامپیوتری هستم. هر بار که آن را اندازه‌گیری می‌کنم، عملیات باید تقریباً در یک زمان انجام شود. چند بار باید اندازه بگیرم تا میانگین و انحراف معیار خوب بگیرم؟ ابتدا در اینجا ارسال شد: http://physics.stackexchange.com/questions/64917/how- many-measurements-should-be-done , اما فکر می کنم این انجمن برای سوال من مناسب تر است
چند اندازه گیری باید انجام شود؟
50358
من مدل زیر را دارم و از بسته اثرات برای ترسیم احتمالات پیش بینی شده و خطوط فاصله اطمینان استفاده کرده ام. با این حال، من در تعجب بودم که چگونه می توانم یک قاب داده را در R که دارای مقدار پاسخ، مقادیر ci پایین و بالا و مقادیر پیش بینی شده است، بیرون بیاورم. نوعی شبیه به mod1 زیر = glm(won_ping ~ our_bid, data=ndat, family=binomial(link=probit)) summary(mod1) library(effects) plot(effect(our_bid, mod1), rescale.axis =FALSE, multiline=TRUE, xlim=c(0,2000), main=129- AH - Bid Model) خروجی دلخواه با متغیر پاسخ ما و فواصل اطمینان برای احتمالات پیش‌بینی‌شده: قیمت پیشنهادی ما low_ci hi_ci prob 1 0.15 0.21 0.17 2 0.18 0.23 0.20 3 0.20 0.30 0.25 4 0.21 0.20 0.25 در مورد من نتیجه می‌شود. موارد زیر را امتحان کرد اما آن طور که من احتمالات را می خواهم و نه مقادیر log-odds کار نمی کند. > as.data.frame(effect(our_bid، mod1)) our_bid متناسب با قسمت پایین بالا 1 25 -2.3549908 0.04598536 -2.44512045 -2.2648612 2 238 -2.0297137714940. -1.9554065 3 451 -1.7045635 0.03724233 -1.77755712 -1.6315699 4 664 -1.3793498 0.04422870 -1.466032626 -1.466032649 -1.466032626 -1.0541362 0.05610148 -1.16409305 -0.9441793 6 1090 -0.7289225 0.07043143 -0.86696557 -0.5908795 - 7 140.5908793 7 0.08599888 -0.57226356 -0.2351541 8 1516 -0.0784952 0.10224011 -0.27888213 0.1218917 9 1729 0.246718 0.246718 0.01371934 0.4797176 10 1942 0.5719321 0.13577018 0.30582746 0.8380368
دریافت یک چارچوب داده از احتمالات لاجیت و فواصل اطمینان آنها
26927
من دو مجموعه داده از پایگاه داده FRED دارم: GDP واقعی (y) و GDP deflator (p) و می خواهم بتوانم از R برای تخمین یک فرآیند VAR(p) (p تعیین شده توسط AIC) استفاده کنم و مجموعه ای از توابع پاسخ ضربه ای با مفروضات کوتاه مدت (Sims، 1980) که از تجزیه Cholesky استفاده می کند. از آنجایی که این یک وب سایت برای یادگیری است، این یک توضیح مفصل در مورد این فرآیند است تا این پست بتواند در واقع چیزی را به برخی از شما آموزش دهد. اگر می توانید به من کمک کنید و از قبل می دانید که چگونه این کار را انجام دهید، پاراگراف اول در واقع همان چیزی است که من به دنبال آن هستم. تحلیل واکنش ضربه ای، تجزیه و تحلیل واکنش پویا یک متغیر اقتصادی مورد علاقه (به عنوان مثال تولید ناخالص داخلی واقعی) به شوک های موجود در سایر متغیرهای اقتصادی مانند شوک های تقاضا (مانند تورم) یا شوک های عرضه (مثلاً فناوری) است. برای انجام این کار، ممکن است بخواهیم از یک فرآیند خودرگرسیون بردار شکل کاهش یافته (RVAR) استفاده کنیم: ![RVAR\(1\)](http://latex.codecogs.com/gif.latex?Y_%7Bt%7D%20%3D%20B_%7B1%7DY_%7Bt -1%7D%20+%20B_%7Bt-2%7D%20+%20...%20+%20B_%7Bt-p%7D%20+%20%5Cvarepsilon%20_%7Bt%7D) کجا: ![](http://latex.codecogs.com/gif.latex?Y_%7Bt%7D%20%3D%20%5Cbegin%7Bbmatrix%7D %20Y_%7B1%2Ct%7D%5C%5C%20...%5C%5C%20Y_%7Bk%2Ct%7D%5C%5C%20%5Cend%7Bbmatrix%7D) ![](http://latex.codecogs.com/gif.latex?B%20%3D%20%5Cbegin%7Bbmatrix%7D%20b_%7B11%7D%20%26%20...%20%26 %20b_%7B1k% 7D%5C%5C%20...%20%26%20...%20%26%20...%20%5C%5C%20b_%7Bk1%7D%20%26%20...% 20%26%20b_%7Bkk%7D%20%5Cend%7Bbmatrix%7D) ![](http://latex.codecogs.com/gif.latex?%5Cvarepsilon%20_%7Bt%7D%20%3D%20%5Cbegin%7Bbmatrix%7D%20%5Cv arepsilon%20_%7B1%2Ct%7D%5C%5C%20...%5C%5C%20%5Cvarepsilon%20_%7Bk%2Ct%7D%5C%5C%20%5Cend%7Bbmatrix%7D) ماتریس واریانس کوواریانس این فرآیند به شرح زیر است: ![ماتریس واریانس کوواریانس](http://latex.codecogs.com/gif.latex?E%5Cvarepsilon%20_%7Bt%7D%5Cvarepsilon%20_%7Bt% 7D%5E%7B%27%7D%20%3D%20%5Csum) و آن یک ماتریس قطعی متقارن و مثبت است که مقادیر خارج از قطر آن غیر صفر است، به این معنی که عبارات خطا با یکدیگر همبستگی دارند. در نتیجه، تلاش ما برای ردیابی پاسخ های پویا متغیر مورد علاقه مان مانع خواهد شد. یک راه حل برای این مشکل استفاده از فرآیند خودرگرسیون بردار ساختاری (SVAR): ![Variance-covariance ماتریس](http://latex.codecogs.com/gif.latex?A_%7B0%7DY_%7Bt%7D%20%3D%20A_%7B1%7DY_%7Bt -1%7D%20+%20A_%7B2%7DY_%7Bt-2%7D%20+%20...%20+%20A_%7Bp%7DY_%7Bt-p%7D%20+%20u_%7Bt% 7D) جایی که A0 روابط همزمان بین k متغیر است. ما می توانیم هر دو طرف این معادله را در معکوس اثر همزمان ضرب کنیم: ![شکل ساختاری VAR](http://latex.codecogs.com/gif.latex?Y_%7Bt%7D%20%3D%20A_%7B0%7D%5E%7B-1%7DA_%7B1%7DY_%7Bt-1%7D %20+%20A_%7B0%7D%5E%7 B-1%7DA_%7B2%7DY_%7Bt-2%7D%20+%20...%20+%20A_%7B0%7D%5E%7B-1%7DA_%7Bp%7DY_%7Bt-p%7D %20+%20A_%7B0%7D%5E%7B-1%7Du_%7Bt%7D) کجا: ![](http://latex.codecogs.com/gif.latex?%5Cvarepsilon%20_%7Bt%7D%20%3D%20A_%7B0%7D%5E%7B-1%7Du_%7Bt%7D ) ![](http://latex.codecogs.com/gif.latex?A_%7Bj%7D%20%3D%20A_%7B0%7DB_%7Bj%7D) ![](http://latex.codecogs.com/gif.latex?E%5Cvarepsilon%20_%7Bt%7D%5Cvarepsilon%20_%7Bt%7D%5E%7B%27%7D%20%3D%20I) بنابراین در اینجا، برای توصیف کامل باید A0 را تخمین بزنیم (که فرض می شود یک ماتریس مثلثی پایین تر است) SVAR یکی از روش های رایج توسط سیمز (1980) پیشنهاد شد و شامل مفروضات کوتاه مدت با استفاده از تجزیه Cholesky ماتریس واریانس-کوواریانس است به طوری که: ![](http://latex.codecogs.com/gif.latex?%5Csum% 20%3D%20PP%5E%7B%27%7D) کجا: ![](http://latex.codecogs.com/gif.latex?P%20%3D%20A_%7B0%7D%5E%7B-1%7D) با جایگزینی بازگشتی فرآیند VAR(1): ![](http://latex.codecogs.com/gif.latex?Y_%7Bt+j%7D%20%3D%20B_%7B1%7D%5E%7Bj+1%7D%20+%20 Pu_%7Bt+j%7D%20+%20B_%7B1%7DPu_%7Bt+j-1%7D%20+%20...%20+%20B_%7B1%7D%5E%7Bj%7DPu_%7Bt% 7D) و در نهایت، تابع واکنش تکانه Y_t+j این است: ![](http://latex.codecogs.com/gif.latex?%5Cpsi%20_%7Bj%7D%20%3D%20B_%7B1%7D %5E%7Bj%7DP) * * * همانطور که می بینید، من فرآیند را کاملاً درک می کنم و می خواهم بتوانم آن را با استفاده از R انجام دهم. من سعی می کنم این کار را انجام دهم: (i): فرآیند نهایی VAR(p) را برآورد کنید (p تعیین شده توسط AIC) (ii): ایجاد تابع واکنش ضربه ای بسیار متشکرم.
SVAR، تجزیه کولسکی و تابع واکنش-پاسخ در R
60080
من در تلاش بودم تا مشخص کنم کدام یک از مفروضات گاوس-مارکوف به ما اجازه می دهد تا ببینیم که $b_1$ یک برآوردگر بی طرفانه $\beta_1$ است. من این احساس را دارم که $X_{i}$ تصادفی نیست، اما آیا چیز دیگری وجود دارد که از دست داده باشم؟
فرضیات گاوس مارکوف
29201
در یک امتحان اخیر، از ما خواسته شد که استفاده از توزیع $\chi^2(1)$ را در اجرای آزمون نمره Wald یا Rao توجیه کنیم. فقط 1 نمره برای این وجود داشت (تقریباً 2.5 دقیقه ارزش زمان). پاسخ من این بود > آمار آزمون والد و نمره بر اساس تقریب های مختلف > نسبت log-lihood است، که در نمونه های بزرگ معتبر و معادل هستند > زمانی که $H_0$ درست باشد. به عنوان مثال، تقریب برای آمار Wald 2 > > $$ 2\log(LR)\simeq > (\hat{\theta}_n-\theta_0)^2E\\{-\ell''(\theta است. )\\}|_{\theta_0} > =(\hat{\theta}_n-\theta_0)^2I(\theta_0) $$ > > کجا $I(\theta_0)$ اطلاعات فیشر در $\theta_0$ است. سپس با استفاده از > نرمال مجانبی، > > $$\hat{\theta}_n\approx N \left ( \theta_0,\frac{1}{ni(\theta_0)}\right )=N > \left ( \theta_0 ,\frac{1}{I(\theta_0)}\right )$$ > > که نتیجه می دهد $(\hat{\theta}_n-\theta_0)\sqrt{I(\theta_0)} \approx N(0,1)$ > > از آنجایی که $2\log(LR)$ تقریباً برابر است با مربع LHS از این > وقتی $n$ بزرگ است، تقریباً به عنوان مربع یک > متغیر تصادفی معمولی استاندارد توزیع می شود، یعنی به عنوان $\chi^2(1)$ نشانگر ناکافی را نوشته است. و من برای این صفر گرفتم. از آنجایی که این یک آزمون جمع‌بندی است، آنها هیچ بازخوردی نمی‌دهند و در مورد آن بحث نمی‌کنند. می خواستم بدانم آیا کسی اینجا می تواند توضیح دهد که چه چیزی را از دست داده ام یا کجا اشتباه کرده ام. من با لاتکس زیاد خوب نیستم امیدوارم در تایپ اشتباه نکرده باشم! این برای یک ماژول انتخابی در تئوری آماری در سال آخر مدرک کارشناسی ریاضی است. با تشکر ویرایش: رویه‌ای رسمی وجود دارد که فیلمنامه من را یادداشت می‌کنند، اما به خاطر 1 نمره، و از آنجایی که من کاملاً راحت عبور کردم، واقعاً نمی‌خواهم قایق را تکان دهم.
توجیه استفاده از $\chi^2(1)$ در آزمون والد و نمره
49911
فرض کنید i.i.d داریم. $x_1$، $\ldots$، $x_n$ را برای یک متغیر تصادفی (بالقوه غیر عادی) $X$ با گشتاورهای محدود نمونه می‌گیرید. ما می‌توانیم از این نمونه‌ها برای ایجاد تخمین‌های بی‌طرفانه از میانگین جمعیت و واریانس جمعیت $$ \bar{x} = n^{-1} \sum_{i=1}^n x_i \qquad\text{and}\qquad استفاده کنیم. s^2 = \frac{1}{n-1} \sum_{i=1}^n (x_i - \bar{x})^2 \enspace. $$ بدون هیچ گونه فرضی در مورد توزیع $X$، می توان با استفاده از نابرابری چبیشف (به عنوان مثال، ویکی پدیا یا مقاله اصلی را ببینید) مرزهای احتمالی را روی میانگین جمعیت ایجاد کرد. سوال من این است: آیا چنین مرزهای احتمالی برای واریانس جمعیت وجود دارد؟ به عبارت دیگر، آیا می توان گفت که با احتمال $\delta$ واریانس جمعیت $\sigma^2$ در یک بازه $[L(\delta,\\{x_i\\}),U(\delta,\ خواهد بود. \{x_i\\})]$؟ و اگر چنین است، توابع $L$ و $U$ که کران پایین و بالایی را توصیف می کنند کدامند؟ برای توزیع های نرمال، واریانس نمونه از توزیع $\sigma^2 \chi^2_{n-1} (n-1)^{-1}$ پیروی می کند. از این می توان برای ایجاد فاصله های اطمینان استفاده کرد. با این حال، من به دنبال محدودیت های کلی تر هستم که در مورد تنظیمات غیر عادی نیز اعمال شود.
مرزهای واریانس جمعیت؟
63124
در این منبع در مورد جفت کلایتون در صفحه 18 می نویسند: > برای مطالعه خطرات مرتبط استفاده شده است زیرا وابستگی شدید به چپ > دم و وابستگی نسبتاً ضعیف دم راست را نشان می دهد. شواهد تجربی و حکایتی نشان می‌دهد که نکول وام‌ها در زمان‌های رکود اقتصادی بسیار همبستگی دارند. به طور مشابه، محققان «سندرم قلب شکسته» را مطالعه کرده‌اند که در آن سن همسران هنگام مرگ با هم مرتبط است. هنگامی که ارتباط بین دو رویداد، مانند عملکرد دو صندوق یا سن همسر در هنگام مرگ، در انتهای سمت چپ توزیع مشترک قوی‌تر است، کلایتون یک انتخاب مدل‌سازی مناسب است. حالا من نمی فهمم چرا این مثال ها به این معنی است که دم چپ همبسته است؟ چرا سن همسران هنگام مرگ دم چپ است؟ و چرا رکود بار دم چپ است؟ آیا به این دلیل است که در زمان‌های برگشتی بازدهی منفی رخ می‌دهد و این نشان دهنده دم چپ است؟
چرا این نشان دهنده دم چپ است؟
67716
من یک مجموعه داده 2 کلاسه نامتعادل دارم که از دو بخش تشکیل شده است - داده های ایجاد مدل و داده های پیش بینی. داده های ایجاد مدل به داده های قطار و آزمایش تقسیم می شود. مدل با استفاده از داده های آموزشی آموزش داده می شود و طبق معمول بر روی داده های آزمون آزمایش می شود. من این کار را چندین بار انجام می دهم تا مطمئن شوم که فضای داده به طور کامل پوشانده شده است. دقتی که من بر روی هر یک از داده‌های آزمایشی از مدل بر اساس داده‌های قطار مربوطه (تولید شده توسط روش اعتبارسنجی متقابل) به دست می‌آورم، کاملاً رضایت‌بخش است. با این حال، وقتی هر یک از این مدل‌ها را روی داده‌های پیش‌بینی اعمال می‌کنم، عملکرد پیش‌بینی مدلی که دریافت می‌کنم نسبتاً ضعیف است. من مطمئن نیستم که چه خبر است. مشخصات آماری داده‌های پیش‌بینی مشابه داده‌های آموزش/آزمون است و من انتظار دارم که دقت پیش‌بینی مشابهی به دست بیاورم. یک تفاوت بین داده‌های قطار و پیش‌بینی این است که آنها از دوره‌های زمانی متفاوت، اما پیوسته هستند، اما هیچ متغیر مرتبط با زمان در مدل وجود ندارد. چگونه این مشکل را حل کنم؟ هر گونه کمک از طرف جامعه بسیار قابل قدردانی است. با تشکر
عملکرد پیش‌بینی ضعیف از طبقه‌بندی‌کننده‌های (WEKA).
99782
من قصد دارم یک GAM یا GAMM مناسب کنم. یک متغیر طبقه بندی وجود دارد که فکر می کنم برای توضیح Y (یا Y*) مهم است، اما در مجموعه داده من نیست - قابل اندازه گیری است اما اندازه گیری نشده است. آیا می توانم از یک مدل مخلوط (GAMM) برای جبران حذف این متغیر استفاده کنم؟ اگر من این متغیر را داشتم، فقط از یک GAM استفاده می کردم. آیا می توانید نرم افزاری را به من معرفی کنید تا از آن استفاده کنم؟ آیا نمونه هایی دارید؟ آیا بسته gamm4 R راهی برای رفتن است؟ سایر جزئیات: Y داده های شمارش است، بنابراین من قصد دارم از یک مدل دوجمله ای منفی یا خانواده استفاده کنم. هدف از این بررسی ها بررسی روابط بین متغیرها است. اگرچه مجموعه داده با N ردیف در حافظه دستگاه من قرار می گیرد، ماتریسی با ردیف های NxN در حافظه جا نمی گیرد.
آیا می توانم برای زمانی که یک متغیر حذف شده دارم از یک مدل مخلوط استفاده کنم؟
21771
من می خواهم انتخاب مدل را برای معادلات برآورد تعمیم یافته (GEE) انجام دهم. Pan (2001) اغلب برای توسعه روشی با استفاده از QIC ذکر شده است. می‌خواهم کسی راهی برای انجام این کار در R می‌شناسد؟ من در حال حاضر از بسته geepack برای تجزیه و تحلیل GEE خود استفاده می کنم. من در مورد 'yags' شنیدم اما برای نسخه R 2.13 یا 2.14 در دسترس نیست و به دلیل کارهای دیگری که انجام می دهم، ترجیح نمی دهم به نسخه قدیمی R برگردم. ممنون، دن
نحوه انجام انتخاب مدل در GEE در R
54920
Lehmann و Romano در Th 3.7.1 خود نشان می دهند (Lehmann and Romano 2005, p81) زمانی که یک آزمون هم ارزی UMP $\phi_1$ وجود دارد و دارای قدرتی است که در نقطه ای $\theta^\star$ در داخل معادل به حداکثر می رسد. منطقه $[\theta_1، \theta_2]$. حالا فرض کنید یک آزمایش دوم $\phi_2$ داریم که فقط در نقطه بالایی منطقه معادل $[\theta_1, \theta_3]$ با $\theta_3>\theta_2$ متفاوت است. سپس من فکر می‌کنم که توان آزمون دوم باید در نقطه‌ای به حداکثر برسد. آمار آزمون (فرض شده STP3 در Th 3.7.1). آیا کسی راهنمایی یا پیشنهادی برای اثبات این موضوع دارد؟
تست های هم ارزی برای STP3 - محل حداکثر توان
78321
من یک مجموعه داده دارم که نشان دهنده 1000 سند و همه کلماتی است که در آن ظاهر می شود. بنابراین ردیف ها نشان دهنده اسناد و ستون ها بیانگر کلمات هستند. به عنوان مثال، مقدار سلول $(i,j)$ نشان دهنده دفعاتی است که کلمه $j$ در سند $i$ رخ می دهد. اکنون، من باید با استفاده از روش tf/idf وزن کلمات را پیدا کنم، اما در واقع نمی دانم چگونه این کار را انجام دهم. کسی میتونه لطفا کمکم کنه؟
فرکانس مدت/فرکانس معکوس سند (TF/IDF): وزن دهی
62836
متغیر وابسته من تصمیم افراد برای مقدار بین 1 تا 8 در یک آزمایش اقتصادی است. هر فردی این تصمیم را 20 بار تکرار کرد. من می خواهم ویژگی های فردی را در آن انتخاب عقب نشینی کنم. من انتظار دارم که تصمیمات یک فرد با یکدیگر مرتبط باشد. بنابراین من به نوعی مدل پانل نیاز دارم. آیا باید به دنبال اثرات تصادفی یا تخمین خوشه ای قوی باشم؟ به نظر می رسد RE در ادبیات رایج است، اما خوشه ای قوی پیشنهادی از سوی سرپرست من بود، اما این به سادگی شهود او بود. دلایل هر کدام چیست؟ چه چیزی را انتخاب کنم؟
تخمین خوشه ای قوی در مقابل برآورد اثرات تصادفی
49918
من دو گروه را دنبال کرده و تعدادی متغیر را اندازه گیری کرده ام. برخی از متغیرها را می توان برای محاسبه معیارهای جدید استفاده کرد. آیا میانگین‌گیری دو گروه و تجزیه و تحلیل محاسبات از میانگین‌ها (یعنی هر گروه به عنوان یک موجودیت واحد برای ارائه اندازه‌گیری جدید عمل می‌کند) با آزمون‌های جداگانه درست است یا باید همه تحلیل‌ها شامل تمام داده‌های پایه از هر فرد باشد؟
آیا میانگین دو گروه و تجزیه و تحلیل محاسبات از میانگین ها یا باید همه تجزیه و تحلیل ها شامل تمام داده های پایه از هر فرد باشد؟
49915
با توجه به آنچه که من درک می کنم، می توان از AUC منحنی ROC به عنوان یک آمار خلاصه از منحنی کامل استفاده کرد. **Q1.** آیا آمار خلاصه مشابهی وجود دارد که بتوان از آن در یک منحنی فراخوان دقیق استفاده کرد؟ **Q2.** تا آنجایی که من می‌دانم، امتیاز $F$ ($F_1$ یا $F_\beta$)، در یک رژیم فراخوان دقیق عملیاتی اندازه‌گیری می‌شود. به عنوان مثال، برای به دست آوردن نرخ دقیق، باید یک نقطه در منحنی فراخوانی دقیق تثبیت کرد و نرخ فراخوان مربوط به آن را برای به دست آوردن نتیجه در فرمول‌ها: $F_1 = 2 \cdot \frac{\mathrm{precision} \cdot \mathrm{ recall}}{\mathrm{precision} + \mathrm{recall}}$F_\beta = (1 + \beta^2) \cdot \frac{\mathrm{precision} \cdot \mathrm{recall}}{(\beta^2 \cdot \mathrm{precision}) + \mathrm{recall}}$ اگر چنین است، چگونه می‌توان چنین نقطه‌ای را انتخاب کرد منحنی؟
آمار خلاصه منحنی فراخوان دقیق
99759
من سعی می کنم تغییرپذیری یک اندازه گیری خاص را ثبت کنم. من از هر بیمار 9 اندازه گیری دارم – 3 اندازه گیری در فواصل 1 ساعته در 3 روز متوالی. بنابراین به نظر می رسد این است: شخص | Day1Trial1 Day1Trial2 Day1Trial3 Day2Trial1 ... Day3Trial3 1 2 ... با توجه به پیشینه بسیار کمی در آمار، مطمئن نیستم که چگونه از اینجا ادامه دهم. آیا من فقط واریانس کلی همه مشاهدات را محاسبه کنم؟ چگونه می توانم خطای دستگاهی که استفاده کرده ام یا تغییرپذیری اندازه گیری های بیمار را در نظر بگیرم؟ آیا کسی می‌تواند مرا به ادبیاتی که می‌توانم بخوانم مرتبط با این موضوع معرفی کند؟ آیا روش یا تکنیک خاصی وجود دارد که در این شرایط مناسب به نظر برسد؟
بهترین تخمین برای تغییرپذیری یک اندازه گیری چیست؟
95636
من می دانم که برآوردگر بهینه GMM قابل اجرا سازگار و مجانبی کارآمد است. من همچنین می‌دانم که برآوردگر MLE کاملاً پارامتریک کارآمدتر از GMM است، مشروط بر اینکه توزیع داده‌ها را بدانیم. آیا این بدان معناست که در دنیای ایده آل، برای به دست آوردن تخمین های بهینه برای یک مدل غیرخطی با متغیرهای ابزاری، باید از رویکرد MLE استفاده کرد (به شرطی که توزیع داده های مربوطه را بدانیم)؟ اگر چنین است، اگر ابزار بیشتری نسبت به متغیرهای درون زا داشته باشیم، آیا باز هم می توانیم از روش MLE استفاده کنیم؟ با تشکر
برآوردگر غیر خطی IV بهینه
95637
شاید این سوال خیلی کلی باشد، اما فکر می‌کنم شایسته است پستی بگذارم تا برخی از روش‌های استاندارد در تجزیه و تحلیل بقا را برایم روشن کند. همانطور که می دانیم، فهرستی از روش ها و مدل هایی مانند روش های پارامتریک (exp، weibull، AFT)، ناپارامتریک (KW، NA) و نیمه پارامتریک (cox prop, prop) در تحلیل بقا وجود دارد. فرض کنید من یک قاب داده مانند این دارم: set.seed(123) require(survival) df<-data.frame(time=as.integer(rnorm(100,50,5))، status=rbinom(100,1, 0.7)، سن = rnorm (100،60، 5)، جنسیت = rbinom (100،1،0.5)) df$time<-ifelse(df$time>=50,50,df$time) وضعیت زمان df سن جنسیت 1 47 1 63.94 0 2 48 0 63.85 0 3 50 1 61.66 0 ... 98 50 1 53.20 1 56.68 1 100 44 0 62.43 0 می‌خواهم بدانم روش مناسبی برای بررسی اینکه از کدام مدل برای این تحلیل بقا استفاده کنم چیست.
چگونه یک مدل بقای مناسب را بررسی کنیم؟
115341
در مورد علوم شناختی این سوال را مطرح کردم که کدام آزمون آماری می تواند برای تجزیه و تحلیل نتایج TLX ناسا استفاده شود. در اینجا من یک سوال مشابه، اما کلی تر می پرسم. یک متغیر فاصله ای را فرض کنید که ممکن است کاملاً ثابت اسکالر نباشد: 1. چگونه می توان بررسی کرد که نتایج ثابت اسکالر چقدر هستند؟ 2. آیا هنوز هم می توان از آزمون t دانشجویی یا آنالیز واریانس برای تجزیه و تحلیل اینکه آیا گروه های داده ها به طور قابل توجهی متفاوت هستند یا اینکه این موضوع کاملاً منتفی است، استفاده کرد؟ 3. چگونه/تا چه حدی عدم تغییر اسکالر بر سودمندی این آزمون ها تأثیر می گذارد؟ اگر من یک سؤال کاملاً اشتباه می‌پرسم، اشاره به اینکه چرا چنین است نیز پاسخ مفیدی خواهد بود. ;)
آیا می توان از t و آنالیز واریانس دانشجویی برای تجزیه و تحلیل یک متغیر فاصله ثابت غیر اسکالر استفاده کرد؟
54927
داشتم مقاله ویکی‌پدیا در مورد رگرسیون خطی را می‌خواندم و متوجه شدم که برای معادله عادی دقیقاً همان نتیجه را نمی‌گیرم: $$\beta = (X^{T}X)^{-1}X^{T}{ \bf{y}} = (\frac{1}{n}\sum {\bf{x}}_{i}{\bf{x}}_{i}^{T})^{-1}(\frac{1}{n}\sum {\bf{x}} _{i}{{y}}_{i})$$ جایی که: $${\bf{y}}=\begin{pmatrix}y_{1}\\\y_{2}\\\ ... \\\ y_{n}\end{pmatrix}$$ $${\bf{X}}=\begin{pmatrix}{\bf{x}}_{1}^{T}\\\\{\bf{x }}_{2}^{T}\\\ ...\\\ {\bf{x}}_{n}^{T}\end{pmatrix}$$ $${\bf{\beta}}=\begin{pmatrix}\beta_{1}\\\\\beta_{2}\\\ ...\\\ \beta_{p}\end{pmatrix}$ $ فرض کنید می خواهیم یک تابع خطای $E_{D}$ را در پارامترهای $\beta$ به حداقل برسانیم: $$E_{D} = \frac{1}{2} \sum_{n=1}^{N} \\{y_{n}-\beta^{T}x_{n}\\}^{2}$$ بنابراین ما از گرادیان روی $\beta$ استفاده می‌کنیم تا به: $$\nabla E_{D} = \sum_{n=1}^{N} \\{y_{n}-\beta^{T}x_{n}\\}x_{n}^{T}=0$$ و حل برای $\ بتا دلار $$\beta^{T}=\frac{\sum_{n=1}^{N}y_{n}x_{n}^{T}}{\sum_{n=1}^{N}x_{ n}x_{n}^{T}}$$ با گرفتن $\bf{X}$ همانطور که قبلاً توضیح داده شد، مخرج صحیح را پیدا می‌کنیم زیرا $${\bf{X}}^{T}{\bf{X} }=( \bf{x}_{1} \thinspace \bf{x}_{2} ... \bf{x}_{N} ) \begin{pmatrix}{\bf{x}}_{1}^ {T}\\\\{\bf{x}}_{2}^{T}\\\ ...\\\ {\bf{x}}_{n}^{T}\end{pmatrix}=\sum_{n=1}^{N}x_{n}x_{n}^{T}$$ با این حال، در مخرج محاسبه من یک بردار ردیف به جای بردار ستون تولید می کند. چه اشتباهی کردم؟
رگرسیون خطی در نمادگذاری ماتریسی
26920
من یک اسکریپت برای ترسیم یک ماتریس همبستگی با استفاده از دایره های رنگی دانلود کرده ام. این اسکریپت امکان سفارش متغیرها را با استفاده از PCA می دهد، اما من مطمئن نیستم که چگونه کار می کند. کد مسئول سفارش در زیر است: if (order) { if(!n==m){ stop(اگر سفارش درست است، ماتریس باید مربع باشد!) } x.eigen <- eigen(corr)$vectors[ , 1:2] e1 <- x.eigen[، 1] e2 <- x.eigen[، 2] آلفا <- ifelse(e1 > 0، atan(e2/e1), atan(e2/e1) + pi) corr <- corr[order(alpha), order(alpha)] } **سوال**: تفسیر چنین ترتیبی چیست و چه نظریه ای در پس آن نهفته است. آن را؟
سفارش متغیر با استفاده از PCA
115348
در بازی بریج 52 کارت به صورت تصادفی بین 4 بازیکن تقسیم می شود که هر بازیکن با 13 کارت پایان می یابد. من یک مولد اعداد تصادفی را با استفاده از RNGCryptoServiceProvider از Microsoft .Net Framerowk اجرا کردم تا ابتدا یک عدد از محدوده 1-52، سپس از محدوده 1-51 و به همین ترتیب تا محدوده 1-2 رسم کنم. برای اینکه ببینم آیا در یک محدوده معین از 1 تا x، که در آن 2>= x <=52، هر عددی در این محدوده به یک اندازه احتمال دارد انتخاب شود، آزمایش زیر را اجرا کردم: * 52* 10 میلیون بار از محدوده 1 ترسیم کنید. -52 و پیگیری کنید که هر چند وقت یک عدد از این محدوده بالا می آید. برای هر عدد یک تست خوب تناسب در برابر فرکانس مورد انتظار 10 میلیون استفاده کنید. * 51* 10 میلیون بار از محدوده 1 تا 51 بکشید و تعداد دفعات بالا آمدن عددی از این محدوده را پیگیری کنید. برای هر عدد یک تست خوب تناسب در برابر فرکانس مورد انتظار 10 میلیون استفاده کنید. و به همین ترتیب تا زمانی که به محدوده 1-2 برسیم. در زیر مقادیر p را برای هر تعداد کارت پیدا می کنید، زمانی که کمتر از 0.05 باشد، تعداد قرعه کشی مشاهده شده برای هر عدد در محدوده چاپ می شود. در نمونه زیر برای دو محدوده مقدار p در واقع کمتر از 0.05 بود. آیا اکنون باید به این نتیجه برسم که RNGCryptoServiceProvider قادر به تولید توزیع برابر برای همه محدوده ها در محدوده 1-52، 1-51، ... 1-2 نیست؟ نام آزمون: CardChances نتیجه آزمایش: نتیجه پاس شده خروجی استاندارد: ردیابی اشکال زدایی: مقدار P برای 52 کارت = 0.79474227840984 مقدار P برای 51 کارت = 0.497191145912234 مقدار P برای 50 کارت = 0.3315189 کارت = 0.988683559265785 مقدار P برای 48 کارت = 0.153114936344037 مقدار P برای 47 کارت = 0.927327644547415 مقدار P برای 46 کارت = 0.49370883911374 کارت = 0.35952495612322 مقدار P برای 44 کارت = 0.979430525949886 مقدار P برای 43 کارت = 0.192281134864909 مقدار P برای 42 کارت = 0.53964228753539 P کارت = 0.175093762735034 مقدار P برای 40 کارت = 0.801225853918414 مقدار P برای 39 کارت = 0.156440626522907 مقدار P برای 38 کارت = 0.186908882012237 کارت = 0.0828295408060195 مقدار P برای 36 کارت = 0.81408556973856 مقدار P برای 35 کارت = 0.805491467886622 مقدار P برای 34 کارت = 0.3367414133363 کارت = 0.498471084831715 مقدار P برای 32 کارت = 0.8249249333331495 مقدار P برای 31 کارت = 0.163033897868359 مقدار P برای 30 کارت = 0.0967583951496 cards=0.369476297712753 مقدار P برای 28 کارت=0.0243850151443583 کارت شماره 1 10000359 بار کشیده شده است. کارت شماره 2 9998315 بار کشیده شد. کارت شماره 3 10004012 بار کشیده شد. کارت شماره 4 9988701 بار کشیده شده است. کارت شماره 5 9997630 بار کشیده شد. کارت شماره 6 9996076 بار کشیده شد. کارت شماره 7 10003135 بار کشیده شد. کارت شماره 8 9997429 بار کشیده شد. کارت شماره 9 9999151 بار کشیده شد. کارت شماره 10 10001832 بار کشیده شده است. کارت شماره 11 10001967 بار کشیده شد. کارت شماره 12 9994442 بار کشیده شد. کارت شماره 13 9999789 بار کشیده شد. کارت شماره 14 9996959 بار کشیده شده است. کارت شماره 15 9998547 بار کشیده شده است. کارت شماره 16 10005698 بار کشیده شده است. کارت شماره 17 10006844 بار کشیده شده است. کارت شماره 18 10001617 بار کشیده شده است. کارت شماره 19 10001233 بار کشیده شده است. کارت شماره 20 9999269 بار کشیده شده است. کارت شماره 21 10005547 بار کشیده شد. کارت شماره 22 9994631 بار کشیده شد. کارت شماره 23 10006450 بار کشیده شد. کارت شماره 24 10001226 بار کشیده شد. کارت شماره 25 9997165 بار کشیده شده است. کارت شماره 26 10000925 بار کشیده شد. کارت شماره 27 9999416 بار کشیده شد. کارت شماره 28 10001635 بار کشیده شد. مقدار P برای 27 کارت = 0.614170487404118 مقدار P برای 26 کارت = 0.880271821699275 P کارت = 0.463782431271392 مقدار P برای 22 کارت = 0.0918275795728352 مقدار P برای 21 کارت = 0.848413464526898 مقدار P برای 20 کارت = 0.4373031551929 cards=0.605302075922096 مقدار P برای 18 کارت=0.0293628427079152 کارت شماره 1 9999153 بار کشیده شده است. کارت شماره 2 10004923 بار کشیده شد. کارت شماره 3 9993127 بار کشیده شد. کارت شماره 4 10001637 بار کشیده شد. کارت شماره 5 10000355 بار کشیده شد. کارت شماره 6 9999963 بار کشیده شد. کارت شماره 7 10002201 بار کشیده شد. کارت شماره 8 9999522 بار کشیده شد. کارت شماره 9 9997863 بار کشیده شد. کارت شماره 10 10004625 بار کشیده شده است. کارت شماره 11 10001398 بار کشیده شد. کارت شماره 12 10005456 بار کشیده شده است. کارت شماره 13 10001133 بار کشیده شده است. کارت شماره 14 9997193 بار کشیده شده است. کارت شماره 15 9992970 بار کشیده شد. کارت شماره 16 10007465 بار کشیده شده است. کارت شماره 17 9996850 بار کشیده شده است. کارت شماره 18 9994166 بار کشیده شده است. مقدار P برای 17 کارت = 0.463159193420478 مقدار P برای 16 کارت = 0.901074254855155 P کارت = 0.39322339086841 مقدار P برای 12 کارت = 0.239425750163672 مقدار P برای 11 کارت = 0.465057310698378 مقدار P برای 10 کارت = 0.14791060284535 کارت = 0.223291445001854 مقدار P برای 8 کارت = 0.567005883891805 مقدار P برای 7 حدود
لطفا به من کمک کنید تا این تست تناسب را تفسیر کنم
49916
من سعی داشتم داده های آزمایشی برای رگرسیون لجستیک ایجاد کنم و این پست را پیدا کردم چگونه داده های مصنوعی را برای رگرسیون لجستیک شبیه سازی کنیم؟ پاسخ خوبی است اما فقط متغیرهای پیوسته ایجاد می کند. در مورد یک متغیر طبقه‌بندی x3 با 5 سطح (A B C D E) مرتبط با y برای همان مثالی که در پیوند وجود دارد، چطور؟
شبیه سازی داده ها برای رگرسیون لجستیک با یک متغیر طبقه بندی
26696
من به دنبال مرجعی برای مقاله ای هستم که در آن اعتبارسنجی متقاطع k-fold معرفی شده است (به جای یک مرجع آکادمیک خوب برای موضوع). شاید برای شناسایی بدون ابهام اولین مقاله در مه زمان بسیار دور باشد، بنابراین هر مقاله اولیه ای که در آن ایده مورد استفاده قرار گرفته باشد، جالب خواهد بود. اولین موردی که من از آنها مطلع هستم P. A. Lachenbruch and M. R. Mickey، Estimation of error rates in discriminant analysis، Technometrics، vol. 10، نه 1، صفحات 1-12، فوریه 1968. و A. Luntz و V. Brailovsky، در مورد تخمین شخصیت های به دست آمده در روش آماری تشخیص (به زبان روسی)، Techicheskaya Kibernetica، جلد. 3، 1969. اما تا آنجا که من می توانم بگویم آنها فقط تأیید متقابل ترک یک خارج را پوشش می دهند (روسی فنی من تمام آن چیزی نیست که می تواند باشد ;o).
چه کسی اعتبار متقاطع k-fold را اختراع کرد؟
15052
من یک تست AB را در صفحه ای اجرا می کنم که فقط 5 هزار بازدید در ماه دریافت می کند. رسیدن به سطوح ترافیکی که برای اندازه‌گیری اختلاف +1٪ بین تست و کنترل لازم است، خیلی طول می‌کشد. من شنیده ام که می توانم از آمار بیزی استفاده کنم تا شانس خوبی برای تعیین اینکه آیا تست بهتر عمل کرده است یا خیر. چگونه می توانم از آمار بیزی برای تجزیه و تحلیل داده های فعلی خود استفاده کنم؟ کنترل تبدیل بازدیدکنندگان 1345 1165 تست A 961 298 تست B 1274 438
تست بیزی AB
112615
من حیوانات علامت گذاری شده زیادی دارم که گهگاه دیده می شوند. بنابراین من یک جدول با ستون های زیر دارم: Animal DateTime Lat Lon هر حیوان (حدود 500) بارها دیده شده است، بنابراین این جدول حدود 60 هزار ردیف دارد. من می خواهم یک تحلیل چند متغیره را اعمال کنم، که در آن هر حیوان به یک نقطه در طرح تبدیل می شود، و نزدیکی دو نقطه از این قبیل به من ایده ای از نزدیکی این دو حیوان در مکان و زمان می دهد (یعنی آنها تا حدودی با هم حرکت می کنند). برای رسیدن به این هدف، هر ردیف از یک جدول جدید نشان دهنده یک حیوان است. برای ستون ها، هر یک باید حداقل یک روز (یا بخشی از یک روز) را نشان دهد. و مقادیر موجود در جدول باید مکان را نشان دهند، اما: آیا راهی برای نمایش lat/lon در یک مقدار وجود دارد؟ یا برای هر بار دو ستون بگذارم؟ یا هر چیز دیگری؟ پیشاپیش متشکرم
تجزیه و تحلیل چند متغیره برای زمان/مکانی که حیوانات در آن دیده می شوند
49917
برای ارزیابی تناسب یک مدل خطر متناسب کاکس با داده‌های پیمایش پیچیده، از چه نوع آمار خوبی می‌توان استفاده کرد؟
مدل خطر متناسب کاکس متناسب با داده های پیمایش پیچیده است
115340
من برای اولین بار در محل کار روی درختان تصمیم کار می کنم. من تحقیقات زیادی روی الگوریتم‌های CHAID و CART انجام داده‌ام، اما پاسخ‌های متفاوتی برای یک سوال بسیار ساده که در زیر ارائه شده است پیدا کرده‌ام: **CART چه نوع متغیرهای هدفی می‌تواند داشته باشد؟** می‌دانم که CART می‌تواند هم در پیش‌بینی و هم در طبقه‌بندی کمک کند. من تأیید می کنم که متغیر هدف درخت رگرسیون پیوسته است. من در مقالات تحقیقاتی مختلف با توجه به متغیر هدف درخت طبقه بندی پاسخ های مختلفی دریافت می کنم. کسی می تواند در این مورد به من کمک کند؟ علاوه بر این، من نیاز به تجزیه و تحلیل در مورد موارد زیر دارم: 1) شناسایی تقلب ها: من قصد دارم از درخت های طبقه بندی CART/CHAID/رگرسیون لجستیک استفاده کنم 2) پیش بینی ضرر: قصد دارم از رگرسیون خطی یا درخت رگرسیون CART استفاده کنم 3) شناسایی چک مشتریان پرش: من قصد دارم از درختان طبقه بندی CART/CHAID یا استفاده کنم رگرسیون لجستیک لطفاً پیشنهاد دهید که آیا این راه درستی است .... ممنون quants_mum
پرس و جو در Quants
21776
من یک سری تقاضای پایه دارم که از فرآیند MA(1) پیروی می کند، رویکرد تجمیع غیر همپوشانی و سپس SES را روی هر دو سری پایه و انبوه برای به دست آوردن پیش بینی ها اعمال کرده ام، و سپس پیش بینی های حاصل از سری های انباشته را تفکیک کرده و در نهایت نسبت را محاسبه می کنم. از MSEbasic/MSEdagg، که در آن MSEbasic=Var(dt-ft) و MSEdagg=Var(dt-(FT/m)، dt سری های پایه در زمان t، ft پیش بینی سری های پایه، FT پیش بینی تجمیع و m سطح تجمیع و آلفا ثابت هموار است این نسبت نشان می دهد که برای مقدار بسیار منفی تتا، رویکرد پایه بهتر عمل می کند روش انباشته شده با پارامتر تتا بهتر عمل می کند، من سعی می کنم بفهمم که چرا تجمع برای تتاهای منفی بالا کار نمی کند، می خواستم بدانم آیا بهترین ها را راهنمایی می کنید روجی![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/1jq9d.jpg)
نسبت، MSE تقاضای پایه به MSE تقاضای کل برای فرآیند MA(1).
68720
تا آنجا که من می دانم، نظریه پاسخ آیتم عمدتاً در روانشناسی برای تجزیه و تحلیل داده های نظرسنجی، پرسشنامه های شخصیت یا در محیط آموزشی استفاده می شود. * آیا حوزه های دیگری (احتمالاً خارج از روانشناسی) وجود دارد که از IRT استفاده می شود؟ * و اگر بله، آنها چه هستند؟
کاربردهای نظریه پاسخ آیتم
58408
من یک مدل درخت تصمیم J48 دارم که با WEKA آموزش دیده است. من می خواهم به قوانین درخت در J48 دسترسی داشته باشم تا بتوانم به نحوی از آنها در کد خود استفاده کنم، چه با عبارات if-else یا به عنوان جدول تصمیمی که می توانم در کد خود به آن دسترسی داشته باشم. آیا این امکان پذیر است؟ اگر بله، چگونه؟
تبدیل J48 به قوانین if-then در Weka
29200
در مسائل رگرسیون خطی ساده، فرض می‌شود که باقیمانده‌های خودهمبسته به تخمین‌های مغرضانه برای پارامترهای رگرسیون منجر نشوند. آیا می توان همین را برای رگرسیون تکه ای نیز گفت؟ فرض کنید من می خواهم یک تابع خطی پیوسته و تکه تکه از یک متغیر منفرد را جا بزنم. فرض کنید برای مثال ما داده هایی در مورد هزینه حمل و نقل و وزن حمل و نقل داریم. عملکرد به صورت تکه ای است زیرا با افزایش وزن، در برخی موارد به یک واگن ریلی اضافی نیاز است. ما می خواهیم نقاط شکست و شیب تک تک قطعات را پیدا کنیم. مدل مناسب است و به هر دلیلی، باقیمانده ها به صورت سریال در زمان همبستگی پیدا می کنند. آیا پارامترهای رگرسیون می توانند بایاس باشند؟ من برخی از داده ها را در یک صفحه گسترده Google در این پیوند پست کرده ام: http://goo.gl/LrTv3 فرض کنید مشخص است که دو نقطه شکست در نقاط (ناشناخته) x1 و x2 وجود دارد. ما می‌خواهیم داده‌ها را با مدل f(x) که توسط: x <x1: f(x) = a + m1*x x1 < x <x2: f(x) = a + m1*x1 + m2*( x - x1) x > x2: f(x) = a + m1*x1 + m2*(x2 - x1) + m3*(x - x2) من از تابع nlm در R برای یافتن پارامترهای مجهول استفاده می کنم. x1، x2، m1، m2 و m3: sqerr <- تابع(prm,y,x) { a <- prm[1] x1 <- prm[2] x2 <- prm[3] m1 <- prm[4] m2 <- prm[5] m3 <- prm[6] sqerr <- sum((y-(a+ifelse(x<x1,m1*x, m1*x1+ifelse(x<x2,m2*(x-x1), m2*(x2-x1)+m3*(x-x2)))))^2) } data <- read.table(data .txt,header=T) ai <- 0.4; x1i <- 0.4; x2i <- 0.7; m1i <- 0.0; m2i <- 0.8; m3i <- 3 prm <- c(ai,x1i,x2i,m1i,m2i,m3i) uu <- nlm(sqerr,prm,data$Y,data$X) سپس باقیمانده ها را در مقابل باقیمانده های تاخیر-1 رسم می کنم : y <- data$Y x <- data$X a <- uu$est[1] x1 <- uu$est[2] x2 <- uu$est[3] m1 <- uu$est[4] m2 <- uu$est[5] m3 <- uu$est[6] باقی مانده <- (y-(a+ifelse(x<x1 ,m1*x,m1*x1+ifelse(x<x2,m2*(x-x1),m2*(x2-x1)+m3*(x-x2)))) طرح (resid[1:149]~resid[2:150]) به وضوح یک همبستگی متوالی وجود دارد. بنابراین سوال من این است که آیا پارامترهای رگرسیون به این دلیل سوگیری دارند؟ من یک مقاله قدیمی از Kadiyala دارم (تغییر مورد استفاده برای دور زدن مشکل خودهمبستگی، Econometrica جلد 36، شماره 1، ژانویه 1968) که می گوید: > به خوبی شناخته شده است (رجوع کنید به واتسون [7] و واتسون و هانان [8]) که برآوردگرهای ساده > حداقل مربعات، هر چند بی طرفانه (زمانی که متغیرهای مستقل > ثابت هستند متغیر)، به طور کلی در حضور > خود همبستگی بین اختلالات ناکارآمد هستند. به نظر می رسد منظور او از «کمترین مربعات ساده» معادلات خطی به شکل y = a + bx باشد (مثال استفاده شده در مقاله). اما من مقالات دیگری را دیده ام که به نظر می رسد نشان می دهد که برآوردگرها (یعنی پارامترهای رگرسیون) بدون توجه به نوع مدلی که دارید، بی طرف هستند. به نظر من در کل درست نیست.
آیا خودهمبستگی باعث سوگیری در پارامترهای رگرسیون در رگرسیون تکه‌ای می‌شود؟
26924
اجازه دهید $X_1,X_2$,....,یک نمونه تصادفی از $N(q,w^2)$ باشد. $q,w$ ناشناخته هستند. اجازه دهید $S_n$ نمونه انحراف استاندارد باشد. یعنی $S_n^2=\frac{1}{n-1}\sum(X_i-\bar{X})^2$ $Var(S_n^2)$ چیست؟ و چگونه می توان نشان داد که $S_n^2$ به طور مجانبی نرمال است؟ من سعی کردم قسمت Variance را با استفاده از توابع تولید لحظه انجام دهم اما عبارات بسیار پیچیده می شوند.
واریانس و نرمال بودن مجانبی واریانس نمونه توزیع نرمال
1430
آیا کسی مثال خوبی از یک فرآیند تصادفی دارد که مرتبه دوم ثابت است، اما کاملاً ثابت نیست؟
مثالی از یک فرآیند ثابت مرتبه دوم، اما نه کاملاً ثابت
68725
چگونه می توانم یک فاصله اطمینان مجانبی برای یک پارامتر واقعی ایجاد کنم، که از MLE برای آن پارامتر شروع می شود؟
برآوردگر حداکثر احتمال - فاصله اطمینان
112614
فرض کنید من دو نقطه $(p_1,x_1)$ و $(p_2,x_2)$ دارم که $p_i$ یک احتمال در CDF بتا و $x_i$ یک مقدار در همان CDF است. چگونه می توانم پارامترهای شکل توزیع بتا $\alpha$ و $\beta$ را تنها با این دو نقطه تعیین کنم؟ برای روشن شدن، فرض می‌کنم که کران‌های پایین و بالایی توزیع L و U را می‌دانم.
تعیین پارامترهای توزیع بتا $\alpha$ و $\beta$ از دو نقطه دلخواه
26926
من در نصب ARIMA مشکلاتی داشتم - داده ها FTSE هستند <-log(EuStockMarkets[FTSE]) لینک زیر مشکل را توضیح می دهد و راه حل را ارائه می دهد http://www.stat.pitt.edu/stoffer/tsa3/ Rissues.htm#Issue2 راه حل موثر به نظر می رسید، تا اینکه مقداری $ARIMA(p,d,q)$ غیر از $ARIMA(1,1,0)$: با $ARIMA(1,1,1)$, $ARIMA(2,1,1)$ و $ARIMA(1,1,2)$ رویه (1+) و رویه (2) ضرایب متفاوتی را ارائه می دهد، به ویژه با رویه (1+) می گوید که بخش AR ثابت نیست (در واقع تغییر روش از 'css' به 'ml' ضریب $AR$ است. 1 یا بالاتر). اینها کدهای $ARIMA(1,1,1)$ هستند: dFTSE<-diff(FTSE) model2<-Arima(dFTSE, order = c(1, 0, 1)) model2 model1pluscss<-Arima(FTSE,order =c(1،1،1)، xreg=1:length(FTSE)) model1plusml<-Arima(FTSE,order=c(1,1,1), xreg=1:length(FTSE), method='ML') model1plusml از طرف دیگر این دو رویه خروجی یکسانی را نیز در $ARIMA( 0,1,1)$ و $ARIMA(0,1,2)$. آیا توضیح نظری وجود دارد که من نمی توانم ببینم یا چیز دیگری؟
نصب ARIMA با دریفت در R
62831
در مدل خطی تعمیم یافته، توزیع متغیر تصادفی $Y$ یک توزیع خانواده نمایی فرض می شود و بر حسب متغیر توضیحی $X$ و پارامتر $\theta$ نوشته می شود. می خواستم بدانم که آیا $X$ به عنوان پارامتری از توزیع $Y$، یا یک متغیر تصادفی در نظر گرفته می شود و توزیع $Y$ که قبلا ذکر شد، در واقع یک توزیع شرطی است که $X$ داده شده است؟ اگر $X$ را بتوان به عنوان یک متغیر تصادفی مشاهده کرد، به نظر من مشکلی در اینجا وجود دارد. در مدل خطی تعمیم یافته، توزیع متغیر تصادفی $Y$ یک توزیع خانواده نمایی فرض می شود. اما از آنجایی که توزیع $Y$ به $X$ بستگی دارد، در واقع $P(Y|X=x)$ یک توزیع خانواده نمایی است. $X$ می تواند هر توزیعی داشته باشد، و توزیع بدون قید و شرط $Y$ ممکن است یک توزیع خانواده نمایی نباشد. پس چگونه باید مشکل را درک کنیم؟ با تشکر
آیا متغیر توضیحی در مدل خطی تعمیم یافته به عنوان یک متغیر یا پارامتر تصادفی در نظر گرفته می شود؟
1437
به نظر شما به جای k معنی میشه ازش استفاده کرد؟ من یک همبستگی با 2 جزء اول به دست آوردم زیرا آنها بیش از 90٪ وزن را حمل می کنند. آیا در مورد تکنیک موافق هستید؟
آیا می توان از تجزیه و تحلیل مؤلفه اصلی به تنهایی برای استنباط الگوهای اصلی در داده ها به جای k به معنای خوشه بندی استفاده کرد؟
24209
من سعی می‌کنم نمونه‌گیری گیبس را با چگالی زیر، $$p(y_1,y_2,y_3)\propto \exp [-({{y}_{1}}+{{y}_{2}}+{) پیشنهاد کنم. {y}_{3}}+{{\theta}_{12}{y_1}{y_2}}+{{\theta }_{13}{y_3}{y_1}}+{{\theta }_{23}{y_2}{y_3}})]$$ کجا، $({{y}_{1}}،{{y }_{2}}،{{y}_{3}})\در R_{+}^{3}$ و ${{\theta }_{ij}}=i+j$ چگونه می‌توانم توزیع مشروط کامل؟ و سپس، نمونه $\\{(y_{1}^{i},y_{2}^{i},y_{3}^{i})\\}$ را برای $i=1، ...n$. من نمونه‌گیری گیبس را می‌دانم، یک متغیر را نمونه‌گیری می‌کنم و بقیه را ثابت نگه می‌دارم.
نمونه‌بردار گیبس از توزیع شرطی
50351
سوال من در مورد تایید مشروعیت ارائه یک AR(1) به عنوان یک فرآیند MA($\infty $) است. در یادداشت‌های من، این کار با نشان دادن هم‌گرایی در میانگین مربع انجام می‌شود، و می‌گویند: $\mathbb{E}[(\sum_{i=0}^{n-1}\phi^i\epsilon_{t-i}-Y_t)^ 2]=\mathbb{E}[\phi^{2n}Y_{t-n}^2]$ و سپس توجه داشته باشید که: $\phi^{2n}\gamma_0 \rightarrow 0$ as $n \rightarrow \infty$ مرحله دوم خوب است. آیا کسی می تواند نشان دهد که چگونه اولین برابری ایجاد می شود؟ من احساس می کنم این نباید خیلی سخت باشد، اما من آن را نمی بینم. [برای زمینه، به 3.5.1 از این یادداشت ها، که مشابه هستند، مراجعه کنید]
همگرایی در میانگین مربع - گام از دست رفته
24202
فرض کنید یک متغیر $T$ (دما) به صورت زیر کد شده است: $T = 1$ اگر دما < 10، $T = 2$ اگر 10 < دما < 40، و $T=3$ اگر دما > 40 باشد. آیا بهتر است برای اینکه $T$ را به عنوان یک متغیر طبقه بندی کنیم؟
تلقی یک متغیر به عنوان طبقه بندی یا پیوسته
72002
من با دو توزیع بسیار کج برنولی کار می کنم که 96-99+٪ از نمونه ها در رده نادرست و بقیه در دسته درست هستند (نوعی صحبت کردن). من به دنبال تست دو طرفه تفاوت نسبت بین دو نمونه هستم. من اغلب می‌توانم به بیش از 500 «درست» و ده‌ها یا صدها هزار «نادرست» در یک زمان معقول دست پیدا کنم، اما مطمئن نیستم که آیا تقریب به توزیع نرمال می‌تواند این چولگی شدید را تحمل کند. من در ابتدا فکر کردم ممکن است به چیزی غیر پارامتری نیاز داشته باشم، اما در اینجا، من در واقع توزیع را می دانم. من از آزمون t دانشجویی استفاده می‌کردم، در حالی که به تخمین حجم نمونه توجه می‌کردم، اما تجربه گذشته باعث شده است که نسبت به نتایج آن تردید داشته باشم. با تشکر از کمک شما.
آزمون اهمیت برای توزیع برنولی بسیار اریب
26699
نام متغیرهای خوب عبارتند از: الف) کوتاه / آسان برای تایپ، ب) آسان به خاطر سپردن، ج) قابل درک / ارتباطی. آیا چیزی را فراموش می کنم؟ سازگاری چیزی است که باید به دنبال آن بود. روشی که من می گویم این است که قراردادهای نامگذاری ثابت به کیفیت های بالا کمک می کند. سازگاری به (ب) سهولت یادآوری و (ج) قابل درک بودن کمک می کند، اگرچه سایر عوامل اغلب مهمتر هستند. بین (الف) طول نام / سهولت تایپ (به عنوان مثال همه حروف کوچک) و (ج) قابل درک بودن یک مبادله واضح وجود دارد. من کمی روی این مسائل سرمایه گذاری می کنم زیرا هزاران نفر از داده ها استفاده می کنند و امیدوارم بسیاری از کد من برای تهیه داده ها و تسهیل برخی از انواع تجزیه و تحلیل استفاده کنند. داده های حاصل از مطالعه طولی سلامت نوجوانان به مجموعه داده های متعددی تقسیم می شوند. اولین قدم من این بود که 227 متغیر را در رایج ترین مجموعه داده مورد استفاده قرار دهم، آنها را مجدداً کدنویسی کنم و نام های معنادارتری برای آنها بگذارم. نام متغیرهای اصلی چیزهایی مانند aid، s1، s2 هستند که نام آنها را aid2، age و male.is تغییر دادم. هزاران متغیر دیگر در مجموعه داده های دیگر وجود دارد که بسته به اهداف محقق ممکن است ادغام شوند. تا زمانی که نام متغیرها را تغییر می‌دهم، می‌خواهم آنها را تا حد امکان مفید کنم. در اینجا برخی از مسائلی است که من در نظر گرفته ام. تا کنون، من فقط از حروف کوچک استفاده کرده ام و از استفاده از هر گونه خط تیره یا زیرخط اجتناب کرده ام، و من فقط از نقطه برای یک هدف بسیار خاص استفاده کرده ام. این ویژگی سادگی و سازگاری را دارد و برای اکثر متغیرها مشکلی ایجاد نمی کند. اما وقتی همه چیز پیچیده تر می شود، وسوسه می شوم که ثبات خود را بشکنم. به عنوان مثال، متغیر من talkprobmsum را در نظر بگیرید، خواندن آن به عنوان talkProbMSum یا بهتر است talk.prob.m.sum آسان تر است، اما اگر قرار باشد از حروف بزرگ یا نقطه برای جدا کردن کلمات استفاده کنم، پس آیا نباید آن را برای همه متغیرها انجام دهم؟ برخی از متغیرها در بیش از یک زمان ثبت می شوند، به عنوان مثال. متغیرهای نژاد، بنابراین من .is یا .ih را ضمیمه کردم تا نشان دهد که آیا آنها از پرسشنامه داخل مدرسه یا خانه آمده اند. اما مطمئناً چندین تکرار وجود دارد که من هنوز از آنها آگاه نیستم، آیا بهتر است یک مرجع به مجموعه داده به نام هر متغیر اضافه شود؟ من باید بسیاری از متغیرها را در مرکز گروه قرار داده و استاندارد کنم، روشی که من این کار را انجام دادم با اضافه کردن .zms به معنای z-score توسط مرد و مدرسه است. هر گونه افکار یا منابع عمومی یا خاص بسیار قدردانی می شود. این مخزن را برای برخی از کدهای من و آمار توصیفی با لیستی از نام متغیرها ببینید. من به طور خلاصه دلیل اشتراک گذاری این کد را در اینجا توضیح دادم و کمی در اینجا عمومی شد، اما این دو پیوند آخر واقعاً به موضوع قراردادهای نامگذاری متغیرها مربوط نیستند. **اضافه شد:** من این را به آرامی ویرایش کردم، بیشتر فقط یک پاراگراف را جابجا کردم تا سعی کنم از سردرگمی مشهود در نظرات جلوگیری کنم. با تشکر از افکار!
بهبود نام متغیرهای من
72006
برای مدل $Y_i=B_1+u_i,i = 1, 2, …, n$ (این مدل متغیر مستقل ندارد)، چگونه می‌توانید: * برآوردگر OLS $B_1$ را استخراج کنید * ثابت کنید که $B_1$ یک برآوردگر خطی است. * ثابت کنید که $B_1$ یک برآوردگر بی طرفانه است. * یک عبارت برای واریانس $B_1$ استخراج کنید * ثابت کنید که مقدار میانگین باقیمانده ها برای این مدل صفر است.
خواص تخمینگر b1 در مدل فقط رهگیری
87141
من در حال یادگیری در مورد PCA هستم، در مورد PCA باید بدانم که با توجه به یک مجموعه داده، آیا همیشه استفاده از مرکز دادن ضروری است؟ اگر متغیرهای مورد استفاده در PCA را در مرکز قرار ندهم چه؟
مرکز کردن متغیرها قبل از اجرای PCA
34231
من از طریق استاندارد ISO 16269 راه حلی را برای مشکلی که روی آن کار می کردم پیدا کرده ام. بر اساس چند نمونه مستقل از یک جمعیت معمولی توزیع شده، می‌خواهم حدی را تعیین کنم که تمام نمونه‌های باقی‌مانده در جامعه با سطح اطمینان معین بالاتر از آن قرار بگیرند. با این حال، این استاندارد تئوری زیربنایی کافی برای من ارائه نمی کند تا بتوانم درک رضایت بخشی از آمار داشته باشم. **از استاندارد زیر:** > یک نمونه تصادفی از n مشاهدات از یک جمعیت به طور معمول توزیع شده با میانگین ناشناخته $\mu$ و انحراف استاندارد ناشناخته $\sigma$ استخراج شده است. > میانگین نمونه $\bar{x}$ و انحراف استاندارد نمونه $s$ است. > > برای مقادیر داده شده $n$، $m$ و $\alpha$ کوچکترین عامل $k$ > لازم است به طوری که ممکن است حداقل $100(1-\alpha)%$ مطمئن باشد که > هیچکدام از $m وجود ندارد. $ مشاهدات بیشتر از $\bar{x}+ks$ بیشتر خواهد شد. > > $k$ توسط > $$\int_0^\infty{g\left(s\right)\int_{-\infty}^\infty{\Phi^m\left(\bar{x}+ks) داده می‌شود \right)f\left(\bar{x}\right)d\bar{x}ds}}\geq1-\alpha > $$ > > Where > $$f(\bar{x})=\sqrt{\frac{n}{2\pi}}\exp\left(-\frac{n}{2}\bar{x}^2\راست)، > -\infty\lt\bar{x}\lt\infty $$ $$ g(s)= > \frac{\nu^{\nu/2}s^{\nu-1}}{2^{(\nu/2)-1}\Gamma(\frac{\nu}{2})}\exp \left(-\nu > s^2/2\right),s\geq0 $$ $$ > \Phi(t)=\int_{-\infty}^t{\frac{1}{\sqrt{2\pi}}\exp\left(-\frac{1}{2}u^2\right) du} > $$ and $$ \Gamma\left(\frac{\nu}{2}\right)= > \int_0^\infty{x^{\frac{\nu}{2}-1}\exp\left(-x\right)dx}$$ $$ \nu=n-1 $$ من شباهت را با $\chi^2$، ناشی از عدم قطعیت واریانس، و همچنین سهم توزیع شده به طور معمول از عدم قطعیت میانگین است. ولی نمیتونم جمعش کنم من به دنبال راهنماها/راهنماهایی هستم که به من کمک کند تا درک بهتری از عبارتی که $k$ را تعریف می کند داشته باشم؟ اگر هیچ کمکی در اینجا یافت نمی شود، شاید کسی بتواند یک مرجع خوب در مورد موضوع را توصیه کند؟ من منابع استاندارد را جستجو کردم، متاسفانه هیچ کدام از طریق دانشگاه من در دسترس نیستند.
استخراج فواصل پیش‌بینی برای یک جمعیت به طور معمول توزیع شده با انحراف معیار جمعیت ناشناخته
35184
من درک اولیه ای از اثرات تصادفی در مقابل ثابت و نحوه کدنویسی مدل های جلوه های تصادفی در SAS دارم. با این حال، من در پیچیدن سرم در مورد مشتق‌سازی عبارات اثرات تصادفی و اینکه چگونه یک مدل رهگیری تصادفی، برای مثال، می‌تواند تغییر در وقفه‌های $k$ را با یک پارامتر منفرد ($\sigma^2$ برای یک) توصیف کند، مشکل دارم. dbn معمولی) به جای پارامترهای $k-1$، که می تواند باعث صرفه جویی زیادی در درجه آزادی شود. آیا این تقلب نیست؟ ;) روش قدیمی مدرسه استفاده از روش حداکثر احتمال برای حل پارامترهای $k-1$ برای هر دسته است. * چگونه یک مدل رهگیری تصادفی با استفاده از یک پارامتر از این امر جلوگیری می کند؟ * آیا نتیجه نهایی یکسان نیست - هر دو مدل اثر تصادفی و ثابت شرایط رهگیری $k-1$ را تخمین می زنند؟
چرا محاسبه وقفه‌های k-1 با تنها 1 پارامتر قطع تصادفی معتبر است؟
79051
من سعی می کنم نوسانات طلا و نفت را مدل کنم اما نتایج کاملا گیج کننده ای دریافت می کنم. من از بسته rugarch استفاده می کنم و از GARCH و EGARCH استاندارد برای مدل سازی نوسانات استفاده می کنم. به نظر می رسد نتایج من نشان می دهد که مدل استاندارد GARCH با نوآوری های معمولی بهترین است، اما من تمایلی به این باور ندارم که به عنوان آمار توصیفی در واقع نشان می دهد که بازده ها به طور معمول توزیع نمی شوند. چیزی که به نظر من گیج کننده است این است که هنگام استفاده از توزیع t به جای توزیع نرمال، مقدار p برای آزمون همبستگی من کاهش می یابد. انتظار داشتم عملکرد EGARCH با اختلاف زیادی را ببینم اما به نظر نمی رسد که اینطور باشد. امیدوارم کسی بتواند آن را برای من روشن کند. در اینجا خلاصه ای از نتایج من است.![Summary](http://i.stack.imgur.com/XGuY9.png) آیا کسی می تواند به من توضیح دهد که چرا چنین نتایج غیرقطعی دریافت می کنم؟
آیا نوآوری های معمولی GARCH می توانند از نوآوری های GARCH دانشجویی بهتر عمل کنند؟
58407
من فکر می کنم این یک سوال اساسی است، اما شاید من مفاهیم را اشتباه گرفته ام. فرض کنید من یک مدل ARIMA را به یک سری زمانی با استفاده از تابع auto.arima() در بسته پیش بینی R برازم. مدل واریانس ثابت را فرض می کند. چگونه آن واریانس را بدست بیاورم؟ آیا این واریانس باقیمانده است؟ اگر از مدل برای پیش بینی استفاده کنم، می دانم که میانگین شرطی را به من می دهد. من می خواهم واریانس (ثابت) را نیز بدانم. متشکرم. برونو * * * ## به روز رسانی 1: کدی را در زیر اضافه کردم. واریانس ارائه شده توسط sigma2 به واریانس محاسبه شده از مقادیر برازش نزدیک نیست. من هنوز در تعجب هستم که آیا sigma2 گزینه مناسبی است یا خیر. برای نمودار سری زمانی شکل زیر را ببینید. demand.train <- c(10.06286، 9.56286، 10.51914، 12.39571، 14.72857، 15.89429، 15.89429، 17.06143، 17.716.12856، 17.716.142. 15.39571، 13.06286، 15.39571، 15.39571، 16.56286، 16.21765، 15.93449، 14.74856، 14.46465، 15.39571، 15.38 دقیقه c(Q12006، Q22006، Q32006، Q12007، Q22007، Q32007، Q12008، Q22008, Q32008، Q12009, Q22009، Q32009، Q12010، Q22010، «Q32010»، «Q12011»، «Q22011»، «Q32011»، «Q12012»، «Q22012»، «Q32012») plot(1:length(timePoints.train)، request.train، type=o، xaxt =n, ylim=c(0, max(demand.train) + 2), ylab=Demand, xlab=Quadrimestre) title(main=تقاضای سری زمانی محصول C, font.main=4) axis(1, at=1:length(timePoints.train), labels=timePoints.train) box() # ## کتابخانه ARIMA Fit (پیش‌بینی) # سری زمانی requestts.freq <- 3 requestts.train <- ts(demand.train, Frequency=demandts.freq, start=c(2006, 1)) # Model fitting requestts.train.arima <- auto.arima(demandts.train, max.p=10, max.q=10, max.P=10 , max.Q=10, max.order=10) print(demandts.train.arima) خلاصه (demandts.train.arima) requestts.train.arima.fit <- fitted(demandts.train.arima) # پیش بینی ARIMA (معنی شرطی) requestts.arima.forecast <- forecast(demandts.train.arima, h = 3, level=95) print(demandts .arima.forecast) # واریانس ثابت از ARIMA requestts.arima.var <- requestts.train.arima$sigma2 print(demandts.arima.var) # انحراف از مقادیر متناسب print(var(demandts.train.arima.fit)) ![Time Series Plot](http://i.stack.imgur.com/E5gv0.png)
واریانس یک سری زمانی متناسب با مدل ARIMA
79055
فرض کنید من رگرسیون خطی چند متغیره زیر را دارم: y = A **x** \+ _b_، **x** بردار بسیاری از متغیرها است. آیا می توان یک متغیر _x_ خاص را با ضریب غیر صفر حذف کرد، به گونه ای که مدل به دست آمده به گونه ای باشد که هرگز آن متغیر را از ابتدا یاد نگرفته بود؟ من می‌خواهم در رابطه با روش آموزشی آگنوستیک باشم، بنابراین نمی‌خواهم مدل را با یک متغیر کمتر آموزش دهم. گمان من این است که اگر میانگین متغیر صفر باشد، فقط حذف آن کار می کند، در غیر این صورت بایاس _b_ باید به نحوی اصلاح شود.
چگونه می توانم یک متغیر را از رگرسیون خطی حذف کنم؟
24203
فرض کنید از $\alpha = 0.01$ به عنوان سطح معناداری استفاده می کنید. اگر نتایج قابل توجهی دریافت نمی کنید، آیا بهتر است سطح معنی داری را به $\alpha = 0.05$ افزایش دهید؟
آیا افزایش سطح معناداری همیشه خوب است؟
58403
من یک متغیر پیش بینی کننده از نوع عامل دارم که حاوی تاریخ تولد است. با توجه به تجربه شما (هنگامی که با رگرسیون لجستیک سروکار دارید)، بهترین راه برای درمان تاریخ تولد (یا انواع مشابه) چیست؟ به عنوان یک متغیر پیوسته یا شاید یا شاید به عنوان یک متغیر طبقه بندی که بخش های سنی مختلف را ذخیره می کند؟
برخورد با تاریخ تولد در پیش بینی
95669
من سعی کردم روش Leave One Out Cross Validation (LOOCV) را پیاده سازی کنم تا بهترین ترکیب از 4 نقطه داده را برای آموزش مدل خود به دست بیاورم که به این شکل است: Y= a + b X1 + c X2. که در آن a، b و c ضرایب بر اساس رگرسیون هستند. من مجموعه ای از 20 نقطه داده در کل برای آموزش مدل خود دارم، اما می خواهم مدل خود را محدود کنم تا از مجموعه 4 نقطه داده آموزش ببیند و بتوانم سایر نقاط داده را به خوبی پیش بینی کنم. بنابراین من از روش LOOCV استفاده کردم تا با شروع با 19 نقطه داده به عنوان مجموعه آموزشی و 1 نقطه داده باقی مانده به عنوان مجموعه آزمایشی و محاسبه خطا، به آن دست پیدا کنم. سپس نقطه داده را حذف کردم (از مجموعه داده های آموزشی و آزمایشی) که منجر به حداقل خطا شد زیرا این نقطه داده به بهترین وجه توسط مدل پیش بینی شده است. سپس به تکرار ادامه دادم تا اینکه به 4 نقطه داده رسیدم. اما مشکل اینجاست که وقتی سعی کردم نقطه داده ای را که از هر تکرار حذف شده است را اضافه کنم و با اعمال مدل به کل مجموعه نقاط داده در هر تکرار، مقدار خطای ریشه میانگین مربع را محاسبه کنم، فرض می کنم که باید داشته باشد. زمانی که من مقدار میانگین مربع ریشه در مقابل تعداد نقاط داده را رسم می‌کنم، یک شکل مجانبی است، یعنی RMSE بالاتر در شماره پایین‌تر. از نقاط داده و همگرایی به کمترین مقادیر RMSE در تعداد بالاتر. از نقاط داده اما این نموداری است که من برای مجموعه داده دریافت می کنم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/xDTnJ.jpg) من نمی دانم چرا طرح این نوع رفتار را نشان می دهد. همچنین، آیا استفاده از روش Leave One Out Cross Validation همانطور که من از آن استفاده کرده ام معتبر است؟ لطفا شفاف سازی کنید
Leave One Out Cross Validation
26694
من به یک دوست در پروژه داده کمک می کنم. او علاقه مند به ساخت یک سیستم هشدار قناری در معدن زغال سنگ برای وب سایت خود است که به او می گوید چه زمانی تعداد کاربران به زیر یک حد پایینی بحرانی می رسد. تعداد کاربران بر اساس زمان روز و روز هفته متفاوت است. من 550 روز داده‌های لحظه‌ای دارم، اگرچه احتمالاً می‌توانیم آن‌ها را در سطل‌های 5 دقیقه‌ای جمع کنیم تا به قیمت هشدارهای اولیه، نویز کمتری داشته باشیم. پیشنهاد در مورد نحوه انتخاب سطل اندازه مناسب مفید خواهد بود. این چیزی است که نوسانات روزانه **هموار شده** توسط DOW به نظر می رسد:![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/HPGeR.png) به نظر می رسد هر روز دو چرخه وجود دارد معمولاً شیب زیادی بین آنها وجود ندارد. همچنین یک روند مثبت در طول زمان وجود دارد که باید آن را در نظر بگیرم:![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/XBpT2.png) بدیهی است که دوره 4 صبح تا 9 بعد از ظهر در نمودار اول باید در طول زمان یکسان به نظر برسند، اما بقیه منحنی‌ها به سمت بالا تغییر کرده و تندتر شده‌اند. من در درست کردن شکل منحنی روزانه مشکل دارم. من فکر می‌کنم که این به نوعی اسپلاین با 4-6 گره نیاز دارد، اما مطمئن نیستم که چگونه می‌توان آن را با جنبه سری زمانی ادغام کرد. از جهتی دیگر به آن نزدیک می‌شوم، سعی کرده‌ام این را در یک مدل مؤلفه‌های مشاهده‌نشده (UCM) در Stata قرار دهم، اما در مورد چگونگی مشخص کردن روند، فصلی بودن، و چرخه‌ای بودن، و نحوه رفتار با متغیرهای برون‌زا گم شده‌ام. . چیزهای کمی که من امتحان کرده ام یا به نظر می رسند یا در مدت زمان معقولی به هم نزدیک نشده اند. مسئله دیگر این است که چگونه می توان RMSE پیش بینی UCM را به یک فاصله زمانی یا حداقل انتهای سمت چپ یک ترجمه کرد. این بسیار پیچیده‌تر از هر مدل سری زمانی است که من قبلاً ساخته‌ام، بنابراین هرگونه توصیه مدل‌سازی قابل قدردانی است.
پیش‌بینی سری‌های زمانی با فرکانس بالا با کران پایین‌تر
68893
من در مورد ناحیه زیر منحنی (AUC) ROC و دقت کلی کمی گیج هستم. 1. آیا AUC متناسب با دقت کلی خواهد بود؟ به عبارت دیگر، وقتی دقت کلی بیشتری داشته باشیم، آیا قطعاً AUC بزرگتری خواهیم داشت؟ یا قطعاً همبستگی مثبت دارند؟ 2. اگر همبستگی مثبت دارند، چرا ما هر دو را در برخی از نشریات گزارش می کنیم؟ 3. در حالت واقعی، من برخی از وظایف طبقه بندی را انجام دادم و نتایجی مانند: طبقه بندی A دقت 85٪ و AUC 0.98 و طبقه بندی B دقت 93٪ و AUC 0.92 را به دست آورد. پس کدام طبقه بندی بهتر است؟ یا ممکن است نتایجی مانند این بدست آورید (منظورم این است که ممکن است اشکالی در اجرای من وجود داشته باشد)؟
ناحیه زیر منحنی ROC در مقابل دقت کلی
49919
من می خواهم شبیه سازی مونت کارلو را برای یک مدل مالی اجرا کنم که نیاز به پیش بینی فروش دارد. اگر فرض کنم اندازه متوسط ​​سفارش به طور معمول توزیع شده است (مثلاً در 80) و دارای یک انحراف استاندارد (مثلا 30) باشد، من تا حدودی این کار را با موفقیت انجام داده ام. با این حال، مشکل این است که البته حداقل فروش نمی تواند کمتر از 0 باشد. آیا کسی می تواند یک توزیع جایگزین خوب (یا تکنیک برای کار با توزیع معمولی) برای حل این مشکل پیشنهاد کند (من مطمئن هستم که باید به اندازه کافی رایج باشد. سناریو!). با تشکر
توزیع خوب برای مدل سازی میانگین فروش چیست
73750
اگر مجموعه داده داریم، متغیر X و Y. بگویید، ما تجزیه و تحلیل همبستگی انجام می دهیم و مقداری ضریب همبستگی را می گیریم. علاوه بر این، پس از مشاهده رابطه آنها به یک واقعیت مهم پی می بریم: یعنی نمودار پراکندگی X و Y شکل مثلثی دارد. به این معنی که (به عنوان مثال) هنگامی که مقادیر X در حال افزایش هستند، مقادیر Y برای تمام مقادیر X افزایش می‌یابند، در حالی که برعکس درست نیست. وقتی مقدار Y در حال افزایش است، مقادیر X برای همه مقادیر Y هر چیزی هستند. برای بررسی این موضوع چه نوع تحلیلی باید انجام دهم؟ * * * ( _به روز رسانی در پاسخ به_ @Penguin_Knight) نمودار شما دقیقاً همان چیزی است که من توضیح دادم. فقط مقادیر منفی را با یک خط فرضی y=0 بردارید. همانطور که می بینید نقاط داده زیادی وجود دارد که X آنها 0 یا بسیار کوچک است و Y ارزش بسیار بالایی دارد. با این حال هیچ نقطه داده ای وجود ندارد که y=0 داشته باشد و x مقدار بسیار بالایی داشته باشد. و همانطور که می بینید باعث می شود پراکندگی داده ها یک مثلث زاویه قائمه شکل بگیرد. بنابراین می توان گفت که مقادیر X بالا مستلزم مقادیر Y بالا هستند اما مقادیر Y بالا همیشه دارای مقادیر X بالا نیستند. به نظرم خیلی جالبه در عمل به عنوان مثال من پیچیدگی و اندازه موجودیت های داده شده را اندازه گیری می کنم. و تجزیه و تحلیل من نشان می دهد که همه موجودات پیچیده دارای اندازه بزرگ هستند اما همه موجودات با اندازه بزرگ پیچیده نیستند. سپس نتیجه می‌گیرم که مقدار معینی از پیچیدگی به اندازه مشخصی نیاز دارد. شما نمی توانید پیچیدگی بیشتری را در یک اندازه معین قرار دهید. این کمی انتزاعی است، اما متوجه منظور من هستید؟ این بسیار جالب است و من می خواهم در مورد چگونگی بحث یا توصیف رسمی این نوع روابط در آمار کمک بگیرم.
آیا تکنیک های آماری وجود دارد که چنین روابطی را بررسی کند؟
79059
من باید یک رگرسیون خطی به شکل y=a*x1+b*x2+c انجام دهم که در آن b=(1-a) خطاهایی هم در متغیر وابسته y و هم در پیش بینی کننده های x1,x2 دارم. من مطمئن نیستم که چگونه محدودیت ضریب دوم و خطاهای متغیر وابسته را کنترل کنم. هر ایده ای؟
رگرسیون خطی با ضریب محدود
77237
> دقت قضیه حد مرکزی برای میانگین بستگی به چولگی > متغیرهای تصادفی در حال جمع شدن دارد. کسی می تواند آن را برای من توضیح دهد؟ یا کسی می تواند کتابی برای خواندن پیشنهاد دهد؟ متشکرم.
چرا دقت قضیه حد مرکزی برای میانگین بستگی به چولگی متغیرهای تصادفی در حال جمع شدن دارد؟
34237
من به دنبال نام یک روش برازش هستم که حتی اگر نقاطی از چندین سری داده با هم ترکیب شوند، کار کند. تا آنجا که من متوجه شدم دو روش عمده وجود دارد، _ حداقل مربعات_ و _ حداقل خطای مطلق_. روشی که من به دنبال آن هستم گام بعدی در جهت LS به LAE خواهد بود: * **کمترین مربعات** برازش: مجذور فواصل تمام نقاط داده را به یک تابع به حداقل برسانید. **هر چه یک نقطه بیشتر باشد، انحراف آن قوی تر می شود**. ممکن است به شدت تحت تأثیر عوامل پرت باشد. همیشه به یک راه‌حل منحصربه‌فرد در سطح جهانی (حداقل برای منحنی‌های ساده) همگرا می‌شود، که با روش‌های نزول گرادیان به راحتی می‌توان آن را پیدا کرد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/E73dX.png) * * * * **حداقل انحراف مطلق**: مجموع فواصل تمام نقاط داده را به حداقل برسانید. **همه انحرافات برابر وزن هستند**. نسبت به موارد دورافتاده قوی تر، ممکن است به راه حل های بالقوه بی نهایت همگرا شود که همگی دارای انحراف کلی یکسان هستند! دقیق باشید) * * * * ** حداقل ریشه مربع ** ??? (گوگل واقعاً تعداد بازدیدهای زیادی برای این نام ندارد). من به دنبال تابعی هستم که ممکن است به سمت _مینیممهای محلی چندگانه همگرا شود، و **انحرافات وزنی _ قویتر هر چه یک نقطه نزدیکتر باشد_**. اینکه کدام راه حل همگرا می شود به پارامترهای شروع بستگی دارد. من فکر می‌کنم که حداقل ریشه مربع از همه انحرافات این کار را انجام می‌دهد، اما من نمی‌توانم مرجعی برای این نوع تناسب پیدا کنم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mwPOK.png) آیا نام رسمی برای روشی مانند این وجود دارد و نام آن چیست؟ یا آیا این نوع تناسب اساساً با روش های برازش منحنی امکان پذیر نیست؟ من به دنبال روشی نیستم که تمام حداقل های محلی را پیدا کند، یک حداقل محلی بسته به پارامترهای شروع کافی است. * * * (توجه داشته باشید که در تصاویر مثال، توابع همه خطوط بودند، اما در حالت ایده آل، من به دنبال روشی هستم که بتواند به طور تکراری نقاط را به سمت توابع n بعدی دلخواه منطبق کند)
برازش حداقل ریشه مربع؟ یک روش برازش با حداقل های چندگانه
68724
من تعدادی آزمایش برای تشخیص وجود خودهمبستگی در سری بازده ماهانه خود انجام داده ام. نتایج آزمون تأیید می کند که خطاهای استاندارد مستقل نیستند. نتیجه آزمون دوربین-واتسون یک نقض کران بالایی با آماره d 2.16 را نشان می‌دهد که نشان دهنده همبستگی منفی (رتبه اول) است. آزمون دوم، بروش-گادفری، که برای بررسی همبستگی مرتبه بالاتر انجام شد، به این نکته اشاره می‌کند که برای 12 تاخیر اول، آزمون‌ها در رد تهی هیچ همبستگی سریالی شکست می‌خورند. آیا این عجیب نیست زیرا نتایج آزمایش با یکدیگر در تناقض هستند؟ برای درک بهتر همبستگی در متغیر (وابسته) من یک corrgram را نیز اجرا کردم. نتایج آماره Q در این مورد، داده‌های خودهمبستگی قابل‌توجهی را پس از اولین تاخیر نشان می‌دهد (تصویر را ببینید). نتایج آماره Q متغیر مستقل اضافی نشان دهنده هیچ همبستگی حضوری نیست. ![Corrgram_Results](http://i.stack.imgur.com/BXG6B.jpg) آنچه من تا کنون هنگام جستجو در اینترنت برای راه حل هایی برای حل همبستگی خودکار به آن برخوردم، تعداد زیادی راه حل است. برای به دست آوردن نتایج معنی‌دار از رگرسیون OLS، فکر کردم بهترین کار این است که یک متغیر وابسته تاخیری را در رگرسیون لحاظ کنم و خطاهای استاندارد نیوی وست را ایجاد کنم. این احتمالاً یک رویکرد نسبتاً ساده اما در دسترس برای آماردانان بی تجربه مانند من است. **سوال من این است؛** آیا این یک رویکرد صحیح و کافی برای مقابله با این مشکل خودهمبستگی خاص در داده های من است یا باید به مدل های پیشرفته تری فکر کنم؟ پیوندی به فایل سری زمانی؛ داده های_سری_زمانی
سری زمانی: تصحیح خطاهای استاندارد برای همبستگی خودکار
91631
من می‌خواستم یک نمایش کلاسی انجام دهم که در آن یک بازه t را با یک بازه بوت استرپ مقایسه کنم و احتمال پوشش هر دو را محاسبه کنم. من می‌خواستم داده‌ها از یک توزیع اریب تهیه شوند، بنابراین انتخاب کردم که داده‌ها را به صورت «exp(rnorm(10، 0، 2)) + 1» تولید کنم، نمونه‌ای به اندازه 10 از یک lognormal تغییر یافته. من یک اسکریپت برای رسم 1000 نمونه نوشتم و برای هر نمونه، هر دو 95% فاصله t و 95% فاصله صدک بوت استرپ را بر اساس 1000 تکرار محاسبه کردم. وقتی اسکریپت را اجرا می کنم، هر دو روش فواصل بسیار مشابهی را ارائه می دهند و هر دو دارای احتمال پوشش 50-60٪ هستند. من تعجب کردم زیرا فکر می کردم فاصله بوت استرپ بهتر است. سوال من این است که آیا من * در کد اشتباه کرده ام؟ * در محاسبه فواصل اشتباه کردید؟ * با انتظار اینکه فاصله بوت استرپ ویژگی های پوشش بهتری داشته باشد، اشتباه کرد؟ همچنین آیا راهی برای ایجاد یک CI قابل اعتمادتر در این شرایط وجود دارد؟ tCI.total <- 0 bootCI.total <- 0 متر <- 10 # اندازه نمونه true.mean <- exp(2) + 1 for (i در 1:1000){ samp <- exp(rnorm(m,0, 2)) + 1 tCI <- میانگین (نمونه) + c(1,-1)*qt(0.025,df=9)*sd(samp)/sqrt(10) boot.means <- rep(0,1000) برای (j در 1:1000) boot.means[j ] <- mean(sample(samp,m,replace=T)) bootCI <- sort(boot.means)[c(0.025*length(boot.means)، 0.975*length(boot.means))] if (true.mean > min(tCI) & true.mean < max(tCI)) tCI. مجموع <- tCI.total + 1 if (true.mean > min(bootCI) & true.mean < max(bootCI)) bootCI.total <- bootCI.total + 1 } tCI.total/1000 # تخمین احتمال پوشش بازه t bootCI.total/1000 # تخمین احتمال پوشش بازه راه‌انداز
چرا فاصله بوت استرپ من پوشش دهی وحشتناکی دارد؟
34238
## ساختار داده > str(data) 'data.frame': 6138 obs. از 10 متغیر: $ RT : int 484 391 422 516 563 531 406 500 516 578 ... $ ASCORE : num 5.1 4 3.8 2.6 2.7 6.5 4.9 2.7 6.5 4.9 2.9 2.9 $ 7.9 1 6.9 8.9 8.2 3.6 1.7 8.6 ... $ MVMNT : Factor w/ 2 level _Withd,Appr: 2 2 1 1 2 1 2 1 1 2 ... $ STIM : Factor w/ 123 level arti Cele،...: 16 23 82 42 105 4 93 9 34 25 ... $ DRUG : فاکتور w/ 2 سطح غیر فعال، Pharm: 1 1 1 1 1 1 1 1 1 1 ... $ FULLNSS: فاکتور w/ 2 سطح Fasted, Fed: 2 2 2 2 2 2 2 2 2 ... $ PATIENT: Factor w/ 25 سطح Subj01،Subj02،..: 1 1 1 1 1 1 1 1 1 1 ... $ SESSION: Factor w/ 4 level Sess1،Sess2،...: 1 1 1 1 1 1 1 1 1 1 ... $ TRIAL : Factor w/ 6138 level T0001, T0002،..: 1 2 3 4 5 6 7 8 9 10 ... ## مدل کامل کاندید model.loaded.fit <- lmer(RT ~ ASCORE*HSCORE*MVMNT*DRUG*FULLNSS + (1|بیمار) + (1|جلسه)، داده، REML = TRUE) * زمان واکنش از کارآزمایی ها دسته بندی شده در جلسات، که به نوبه خود در بیماران گروه بندی می شوند. دارونما یا دارونما فعال) و با سیری (ناشتا یا از قبل تغذیه شده) ## مدلسازی و R Syntax؟ من سعی می کنم یک مدل _full_ مناسب با ساختار میانگین بارگذاری شده را مشخص کنم که بتواند به عنوان نقطه شروع در استراتژی انتخاب مدل از بالا به پایین استفاده شود. مسائل خاص: * آیا نحو به درستی افکت های خوشه بندی و تصادفی را مشخص می کند؟ * فراتر از نحو، آیا این مدل برای طراحی درون موضوعی فوق مناسب است؟ * آیا مدل کامل باید تمام فعل و انفعالات اثرات ثابت را مشخص کند یا فقط آنهایی را که واقعاً به آنها علاقه مند هستم؟ * من عامل STIM را در مدل وارد نکرده ام، که نوع محرک خاص مورد استفاده در یک آزمایش را مشخص می کند، اما به هیچ وجه علاقه ای به تخمین زدن آن ندارم - آیا باید مشخص کنم که به عنوان یک عامل تصادفی با توجه به آن دارای 123 سطح و بسیار است. چند نقطه داده در هر نوع محرک؟
سوالاتی در مورد تعیین مدل های خطی مختلط در R برای داده های اندازه گیری مکرر با ساختار تودرتوی اضافی
79584
آیا کسی می تواند به من کمک کند تصمیم بگیرم کدام روش بهتر است؟ من سه گروه دارم که هر کدام پاسخ‌های بله یا خیر دارند. سعی می‌کنم از بین 3 گروه بهترین را انتخاب کنم آیا باید از 3 تست t با تنظیم بونفرونی استفاده کنم؟ یا از تست مجذور کای استفاده کنید. چگونه بهترین گروه را در آزمون مربع چی از چند گروه انتخاب می کنید با تشکر
آزمون تی در تناسبات در مقابل مربع چی، 3 گروه
73752
چه می شود اگر N سیگنال صوتی با طول های مختلف داشته باشیم و برای هر کدام جمله مربوطه را بدانیم. چگونه می توانیم طبقه بندی کننده را برای سیگنال های صوتی-> جمله آموزش دهیم؟ و شاید بتوان از مدل Hidden Markov در اینجا استفاده کرد؟ به طور کلی سؤال من این است که آیا تکنیکی وجود دارد که بتوان آن را با سیگنال صوتی آموزش داد که با دست از حروف یا واج جدا نمی شود، بلکه فقط با ارائه جمله ای که در آن وجود دارد، همان رشته های دست نویس یا می تواند قیاسی باشد که می دهیم. طبقه‌بندی کننده تصویر و اطلاعاتی است که چه شیء را روی تصویر نشان می‌دهد، اما موقعیت‌های مستقیم آنها را مشخص نمی‌کند
تشخیص گفتار مدل مخفی مارکوف
73756
من سعی کردم ماتریس دقیق را در یک تنظیمات بیزی سلسله مراتبی با Wishart که قبلاً d.f داده شده بود، مدل کنم. و ماتریس مقیاس معکوس، و احتمال عادی ماتریس، از آنجایی که مزدوج قبلی است، پسین من در ماتریس دقیق $K$ به این شکل ختم می شود: $$ K \sim \text{Wishart}(\text{df}, \Lambda ^{-1}) $$ از آنجایی که بعد $\Lambda$ بسیار بزرگ است، نمی‌خواهم معکوس ماتریس را بگیرم و از نمونه بردار داخلی من به کد منبع wishrnd Matlab نگاه کردم، آنها از تجزیه بارتلت برای ابعاد بزرگ (81+n) استفاده کردند، که باید برای ابعاد کوچکتر نیز کار کند، هرچند ناکارآمد. تکه های کد: [n,m] = size(Lambda); [d,p] = cholcov(Lambda,1); % در غیر این صورت از روش اسمیت و هوکینگ استفاده کنید d = eye(size(d)) / d; % بارگذاری عناصر مورب با ریشه مربع chi-square a = diag(sqrt(chi2rnd(df-(0:n-1)))); % بار مثلث بالایی با عادی مستقل (0, 1) متغیر است a(itriu(n)) = randn(n*(n-1)/2,1); % ماتریس مورد نظر D'(A'A)D x = a(:,1:size(d,1))*d; a = x' * x; % --------- دریافت شاخص های مثلث بالایی تابع ماتریس p-by-p d=itriu(p) d=ones(p*(p-1)/2,1); d(1+cumsum(0:p-2))=p+1:-1:3; d = cumsum(d); برای برآوردن نیازهایم، یعنی. وارد کردن درجه آزادی $df$ و ماتریس مقیاس معکوس $\Lambda$ بعد از خط دوم d = d \ eye(size(d)) را اضافه کردم، به طوری که معکوس cholesky decomp ماتریس مقیاس معکوس را داشته باشم. به عبارت دیگر، تجزیه کلسکی ماتریس مقیاس. سپس همه چیز باید از آنجا خوب باشد (امید داشتم). من این را ابتدا با ایجاد یک ماتریس قطعی مثبت 3 در 3 آزمایش کردم: >> test = rand(190, 3); Lambda = test'*test; >> لامبدا لامبدا = 62.7642 46.4970 45.6662 46.4970 61.9178 45.4114 45.6662 45.4114 59.1070b تنظیم $df = 6$، 000 تصادفی، 0 نمونه بود. مقایسه با لحظه اول توزیع >> df = 6; >> sam = 0; برای حلقه = 1:100000 sam = sam + mywishrnd(Lambda,df); پایان >> sam/100000 ans = 0.0956 -0.1069 -0.0689 -0.1069 0.3380 -0.0286 -0.0689 -0.0286 0.3872 >> inv(Lambda)*df ans = -0.2118 -0.2114 -0.1118 0.2692 -0.1205 -0.1187 -0.1205 0.2857 تفاوت های بسیار زیادی در برخی از ورودی های نتایج وجود دارد، اما من از لحاظ نظری هیچ اشتباهی در این نمی بینم. آیا ممکن است به دلیل خطای عددی باشد؟ کسی میتونه منو در مورد این مشکل روشن کنه؟ متشکرم!
نمونه ای از توزیع Wishart با ماتریس مقیاس معکوس
91630
پس از تلاش قبلی برای دریافت پاسخ در اینجا به آنچه متوجه شدم یک سوال مزخرف است، من به دنبال منابع خوبی هستم که بتوانم از آنها برای شروع به درک این منطقه استفاده کنم. اکثر کتاب‌های آزمایش روان‌شناسی در کتابخانه ما بر آمار، تجزیه و تحلیل داده‌ها، روش‌شناسی تحقیق کیفی و طراحی آزمایش تمرکز دارند. اما به نظر می رسد روش ها و تکنیک های تعیین حجم نمونه با مثال های عملی، به خصوص در سطح مبتدی، بسیار اندک باشد. من چند کتاب پیدا کرده‌ام که فکر می‌کنم به صورت آنلاین مفید هستند، اما بسیار گران هستند و ترجیح می‌دهم بازخورد دریافت کنم که ارزش پول را داشتند و هیچ چیز بهتری وجود نداشت. * تعیین و توان اندازه نمونه - توماس پی رایان * محاسبات اندازه نمونه: روش های عملی برای مهندسان و دانشمندان. Paul Mathews بنابراین آیا کسی می تواند کتاب یا منابع دیگری را در آن منطقه توصیه کند، به ویژه برای تعیین حجم نمونه برای آزمون فرضیه میانگین؟ * * * مروری کوتاه بر حوزه تحقیقاتی من: من در حال انجام تحقیق هستم تا مشخص کنم کدام ویژگی های خاص یک وب سایت یا رابط نرم افزاری بر درک کاربران با استفاده از معیارهایی مانند اعتماد، انصاف، تخصص و غیره تأثیر می گذارد. هر شرکت کننده به 9 طرح جداگانه، هر کدام امتیاز می دهد. با یک اعوجاج متفاوت که سپس با کنترل مقایسه خواهم کرد. شرکت‌کنندگان به صورت آنلاین جمع‌سپاری می‌شوند. امیدوارم این کمک کند.
توصیه کتاب: تعیین حجم نمونه برای آزمون فرضیه میانگین
74233
یک سوال کلی دارم فرض کنید به شما دو خط رگرسیون از متغیرهای x و y داده شده است: Say- 4x-6y+50=0 و 15x-6y-120=0. سپس چگونه می توان از بین این دو معادله رگرسیونی، یکی که Y روی X و دیگری که X روی Y است، شناسایی کرد؟
چگونه معادله رگرسیون Y را روی X و X را روی Y شناسایی کنیم؟
91638
من در مورد فقر و رشد تحقیق می کنم. من مدلی برای فقر ساختم که شامل 11 متغیر است که به لحاظ نظری بر آن تأثیر می گذارد. اینها تورم، رشد کشاورزی، جینی، نرخ رشد تولید ناخالص داخلی و غیره هستند. فقر و جینی در واقع مقادیر شاخص هستند. من به نوعی توانستم همه آنها را در نرخ رشد تغییر دهم. نویسندگان این متغیرها را پیشنهاد کردند، به همین دلیل است که من متغیرهای خود را به آن‌ها محدود کردم، اما r sq من خیلی کم کمتر از 1 است، برای مثال وقتی رگرسیون تلفیقی را اجرا می‌کنم، آزمون f نیز ناچیز است. من واقعا گیج شدم. من از stata 10 استفاده می کنم، لطفاً در این مورد نظر دهید.
رگرسیون تلفیقی و اثرات تصادفی و ثابت
114120
من سعی می‌کردم یک آزمایش جایگشت روی مقدار زیادی از مشاهدات دما در R انجام دهم. تقریباً 1700 مشاهده دما ('g1') از یک مکان و 2 برابر 1700 مشاهده از دو مکان دیگر ('g2'). من می خواهم فرضیه بدنه $\mu_1-\mu_2 = 0$ را در برابر فرضیه جایگزین $\mu_1-\mu_2 <0$ آزمایش کنم. من محاسبات زیر را انجام می دهم: k <– 10000 perms <- replicate(k, sample(c(g1, g2))) my.mean.difs <- application(perms[1:length(g1), ], 2, میانگین) - application(perms[(length(g1)+1):(length(g1)+length(g2)), ], 2, mean) p <- sum(my.mean.difs < (mean(g1) - mean(g2))) / k مقدار p، `p`، به من 0 می دهد، مستقیم. من نمی فهمم چرا هیچ تفاوتی در میانگین (my.mean.difs) که کوچکتر از تفاوت در میانگین واقعی است، دریافت نمی کنم. حدس فوری من این است که من از نمونه های مجدد بسیار کمی استفاده می کنم، اما از آنجایی که مجموعه داده ها بسیار بزرگ هستند (1700 و 3400 نقطه داده)، انجام نمونه های مجدد بسیار زمان بر خواهد بود. من می‌توانم به‌طور تصادفی مجموعه‌های داده کوچک‌تری ایجاد کنم و آنها را آزمایش کنم، اما مطمئن نیستم که روش خوبی باشد. آیا کسی می‌تواند به من توضیح دهد که چرا من یک مقدار p 0 را مستقیماً دریافت می‌کنم، و آیا انجام جایگشت در مجموعه‌های داده بزرگ مانند این ایده بدی است؟ ## اطلاعات جایزه: ### دما در گروه 1 (`g1`) * $\mu_1 = 24.14$ °C * $\sigma_1 = 0.96$ ### دما در گروه 2 (`g2`) * $\mu_2 = 24.95$ °C * $\sigma_2 = 1.01$ ## ویرایش: بر اساس @whuber's نظر و قضیه حد مرکزی من سعی کردم یک آزمون Z دو نمونه ای از میانگین ها بسازم که اگر فرض واریانس های مساوی درست باشد، استفاده از آن در اینجا خوب است، درست است؟ من محاسبات زیر را انجام دادم: (mean(g1)-mean(g2)) / sqrt(var(g1)/length(g1) + var(g2)/length(g2)) این یک مقدار Z بسیار کوچک به من می دهد -28.25. آیا این مقدار Z-value واقع بینانه است؟ با عرض پوزش برای سؤال احتمالاً بسیار ابتدایی، اما من با آمار کاملاً تازه کار هستم، و از دوره مقدماتی آمار خود، روی اندازه های نمونه بسیار کوچکتر و Z-values ​​بسیار نزدیک به 0 کار کردیم. اما حدس می زنم که حجم نمونه بزرگ باعث شود ممکن است تفاوت معنی‌داری در میانگین نشان داده شود، حتی اگر تفاوت واقعی آنقدر بزرگ نباشد. درست است؟
جایگشت برای اندازه های نمونه بزرگ (و آزمون z)
91636
من اقتصاد سنجی خود را در مقطع کارشناسی فراموش کرده ام و امیدوار بودم که کسی بتواند به تجدید حافظه ام کمک کند. اگر من یک رگرسیون $\ln y=a+bX+e$ داشته باشم و بخواهم کشش $y$ را با توجه به $X$ (در میانگین $X$) ارزیابی کنم، چگونه این کار را انجام دهم؟
نحوه به دست آوردن کشش از رگرسیون در سطح لگ
79583
تخمین فاصله رایج است. با این حال، به نظر می رسد برآورد نقطه ای بر اساس قضیه ساده قضیه حد مرکزی است.
آیا بین تخمین نقطه ای و تخمین فاصله ای از نظر مفروضات برای انجام چنین برآوردهایی تفاوت قائل می شوید؟
58406
> اجازه دهید $F$ یک تابع توزیع در $\mathbb{R}$ باشد که $F(0)=1$ و $\mu$ > میانگین آن باشد. نشان دهید که $$G(x)=\frac{1} {\mu}\int_{0}^{x}[1-F(t)]dt$$ یک تابع توزیع > است. همچنین میانگین آن را پیدا کنید. آزمایشی: برای $x_1>x_2$، $G(x_1)>G(x_2)$ داریم. بنابراین، در حال افزایش است. دوباره $G(\infty)=\frac{1}{\mu}\int_{0}^{\infty}[1-F(t)]dt=\frac{1}{\mu}\cdot\mu =1$ اما چگونه $G(-\infty)=\frac{1}{\mu}\int_{0}^{-\infty}[1-F(t)]dt=0$ را نشان می‌دهم در نهایت به من کمک کنید به معنی پیدا کن لطفا کمک کنید.
نشان دهید که $G(x)$ یک تابع توزیع است و میانگین را پیدا کنید
114128
در «glmnet» در R، تفاوت بین «dfmax» و «pmax» هنگام ایجاد یک مدل با هر دو پنالتی ریج و کمند چیست؟ آیا تفسیر زیر صحیح است؟ فرض کنید یک شبکه الاستیک «glmnet» با 500 پیش‌بینی‌کننده اجرا کرده‌ایم و فقط می‌خواهیم 3 پیش‌بینی‌کننده را در مدل نهایی وارد کنیم. یعنی ما می خواهیم کمند 497 پیش بینی کننده را حذف کند. برای انجام این کار، آیا dfmax = 500 و pmax = 3 را تنظیم می کنیم؟
GLMNET در R: تفاوت بین DFMAX و PMAX
91639
از مقدمه کتاب تئوری احتمالات: احتمال اینکه یک عدد صحیح مثبت به طور تصادفی انتخاب شده باشد، عددی را که به 1 ختم می شود در صورت مجذور بودن آن چقدر است؟ نکته: کافی است اعداد 1 رقمی را در نظر بگیرید. پاسخ: 0.2 من نمی فهمم چرا فقط باید اعداد یک رقمی را در نظر بگیریم. من می بینم که 1 و 9 اعداد یک رقمی هستند که مربعی را تولید می کنند که به 1 ختم می شود و احتمال 2/10 انتخاب تصادفی آنها را می دهد، اما چگونه می توانیم این را به همه اعداد صحیح مثبت تعمیم دهیم؟
احتمال اینکه مربع یک عدد صحیح تصادفی به 1 ختم شود
93678
من از ClassificationTree.fit Matlab برای ایجاد درخت طبقه بندی برای داده های خود استفاده می کنم. فرض کنید من تایپ می کنم: load fisheriris t = ClassificationTree.fit(meas,species,'PredictorNames',{'SL' 'SW' 'PL' 'PW'})} این به من یک متغیر کلاس ClassificationTree 't' می دهد. از این متغیر کلاس، چگونه می توانم قوانین منطقی را استخراج کنم که من را به یک کلاس _خاصی می رساند. به عنوان مثال، قانون برای دریافت کلاس 'versicolor' در 'fisheriris' این است: PL >= 2.45 و PW < 1.75 و PL <4.95 و PW <1.65. توجه: 1. من نمی خواهم هیچ قانونی برای کلاس های دیگر نشان دهم. 2. من خروجی view(t) را نمی خواهم.
استخراج قوانین از درخت طبقه بندی Matlab
93670
من در این تاپیک سوالی در رابطه با تفسیر تعاملات دو و سه طرفه در این لینک مطرح کرده ام: چگونه تعامل دو و سه طرفه را در lmer تفسیر کنیم؟ DV ارتفاع است. خطوط پایه اینجا هستند (همه طبقه بندی شده اند): •حیوان: شیر •رنگ:سفید •جنس: ماده که برای تعامل سه طرفه است. با این حال، من تعجب کردم که آیا مدل من فقط دو سطح دارد: اثرات ثابت: برآورد Std. خطای t مقدار (Intercept) 164.6888 7.8180 21.065 rat -14.1342 8.2889 -1.705 جنسیتی -16.0883 10.0071 -1.608 رنگی 0.5776 6.21924 - 6.21924 رنگی 6.1025 -2.360 rat:sexmale 15.3645 11.8567 1.296 rat:colorred 12.5258 4.4028 2.845 rat:coloryellow 10.3136 4.3196 4.3196 2.3027male: رنگارنگ 0.384 sexmale:coloryellow 5.7643 5.1669 1.116 من نمی دانم که آیا تفسیر دو سطحی مانند تعامل سه طرفه خواهد بود. به عنوان مثال، rat:sexmale = من باید به عنوان تفاوت قد بین موش و شیر برای نرها بیشتر از ماده ها تعبیر کنم. این بدان معناست که وقتی قد نر و ماده را مقایسه می کنیم، نرها بین موش و شیر اختلاف معنی داری بیشتری خواهند داشت در حالی که در ماده ها این تفاوت معنی دار نیست. آیا تعبیر من درست است؟
تعامل دو طرفه: خروجی LMM را در lmer تفسیر کنید
34584
من در حال تجزیه و تحلیل یک آزمایش اکولوژی جنگل هستم که در آن تعداد درختان را در 5 جفت قطعه در یک جنگل شمارش کردیم. یکی از اعضای هر جفت چندین سال پیش حصارکشی شد تا گوزن‌ها را حذف کنند (درمان حذف) و دیگری را ترک کردند تا گوزن بتواند به آن دسترسی داشته باشد (کنترل). در یک جفت معین، 2 قطعه در مجاورت یکدیگر و در شرایط محیطی مشابه قرار دارند، اما تعداد، اندازه و گونه‌های درختان در هر قطعه زمانی که آزمایش شروع شد کمی متفاوت است. ما علاقه مندیم که آیا حذف آهوها باعث افزایش فراوانی درختان در جنگل می شود؟ ما به ویژه علاقه مندیم که آیا آهوها از طریق کشتن مستقیم درختان کوچک یا کاهش تعداد نهال ها و نهالی هایی که تا مرحله درخت کوچک زنده می مانند، تعداد درختان کوچک را _کاهش داده اند. (ما یک درخت را هر چیزی بلندتر از 2 متر در نظر می گیریم، صرف نظر از اینکه قطر ساقه چقدر ضخیم است؛ درختان کوچک هر چیزی کمتر از 2 سانتی متر ضخامت دارند). با این حال، از زمان شروع آزمایش، سرنوشت تک تک درختان را دنبال نکرده ایم. آنچه ما داریم **شمارش** تعداد درختان در هر ده قطعه و اندازه هر درخت است. داده‌ها، در تمام کرت‌ها برای هر یک از دو تیمار جمع‌آوری شده و در کلاس‌های اندازه‌بندی شده سازمان‌دهی شده‌اند، در زیر آمده است. از آنجایی که آهوها فقط بر سرنوشت درختان کوچک تأثیر می گذارند، انتظار داریم که درختان کوچک بیشتری در زمین های حصارکشی شده ما وجود داشته باشند. با این حال، تعداد درختان بزرگ نباید تحت تأثیر قرار گیرد زیرا آزمایش به اندازه کافی طولانی انجام نشده است که منجر به تغییر در تعداد درختان بزرگ شود. بنابراین ما فرض می کنیم که توزیع اندازه کلی درختان باید بین تیمارها متفاوت باشد، اما این تفاوت باید بر اساس کوچکترین کلاس های اندازه باشد. توسط همکارانم پیشنهاد شده است که داده ها را به عنوان یک جدول احتمالی با استفاده از آزمون g تجزیه و تحلیل کنم. یک دانشجوی کارشناسی که روی این پروژه کار می‌کرد، قبلاً یک آزمون g را برای هر ردیف جدول اعمال کرده بود و یک اثر درمانی را برای دو کلاس کوچک‌ترین اندازه گزارش کرده بود، اما بقیه را نه. با این حال، این یک استفاده معتبر از آزمون g نیست، زیرا، همانطور که در ابتدا این را ارسال کردم، هر درخت یک نقطه داده مستقل نیست. من سؤالات زیر را در مورد چگونگی تجزیه و تحلیل صحیح این داده ها دارم: 1\. آیا درست است که جدولی مانند جدول زیر برای _هر_ از پنج جفت پلات ایجاد کنیم و آزمون خوبی از برازش مانند آزمون g را اعمال کنیم؟ متأسفانه، هنگامی که به نمودارهای جداگانه تقسیم می شوند، بسیاری از سلول های جداول احتمالی 0 یا <5\ هستند. 2\. برای انجام چنین تحلیلی، آیا باید یک توزیع زیربنایی (مثلاً poisson) از کلاس‌های اندازه را برای تولید مقادیر پیش‌بینی‌شده فرض کنیم؟ 3\. آیا تحلیل این نوع داده های شمارش با یک مدل خطی تعمیم یافته با توزیع پواسون منطقی تر است؟ من معتقدم که این نیاز به تجزیه و تحلیل هر کلاس اندازه جداگانه دارد. همکاران من می‌خواهند همه چیز را تا حد ممکن ساده نگه دارند، اما من با اجرای GLM کاملاً راحت هستم. باز هم، داده ها نسبتاً کم هستند، که ممکن است این نوع تجزیه و تحلیل را دشوار کند. **داده:** SIZE_CLASS CONTROL_trt EXCLOSE_trt 1 1_یا_کمتر 15 60 2 1_to_2 29 30 3 2_to_3 11 10 4 3_to_5 11 15 5 5_یا_بزرگتر 45
آیا آزمون g برای داده های شمارش مناسب است؟
58409
من دو مجموعه داده متشکل از معیارهای چند آزمایش دارم. مجموعه داده 1 مجموعه ای از نتایج آزمایشات E است که توسط کاربر A بر روی محصول A انجام شده است، N بار تکرار شده است. مجموعه داده 2 مجموعه ای از نتایج آزمایش های مشابه E است که توسط همان کاربر A بر روی محصول B انجام شده است و همان N بار تکرار شده است. N بزرگ نیست و به دلیل محدودیت های عملی نمی تواند بزرگ باشد (معمولاً حدود 15-20). داده ها را نمی توان گاوسی فرض کرد. در برخی موارد، قطعاً طبیعی نیست و در برخی موارد ما به طور قطع نمی دانیم. این فقط یک توزیع ناشناخته است. می دانیم که معیارها نمی توانند منفی باشند. این تقریباً تنها اطلاعات قطعی است که ما می دانیم. با استفاده از این داده ها، چگونه می توانیم محصول A و محصول B را با هم مقایسه کنیم و نتیجه ای با مقداری معنادار آماری به دست دهیم؟ چگونه یک آزمون فرضیه طراحی کنیم تا بررسی کنیم که آیا A > B با اطمینان x% وجود دارد؟ ویرایش کنید
چگونه دو مجموعه داده را با استفاده از معیارهای استخراج شده از توزیع های ناشناخته و با حجم نمونه کوچک مقایسه کنیم؟
79052
من دو گروه از افراد دارم که تحت یک روش پزشکی قرار می گیرند، یک گروه عود کننده و یک گروه بدون عود. تابع احتمال این است: $$f_n({\bf x}; \theta) = \theta^{n_u} \exp[-\theta(\sum_{i \in C} x_i* + \sum_{i \in C ^C} x_i)] $$ C گروه بدون عود است، C^C تعریف آن است. N_u تعداد بیماران در C_C است. داده ها برای دو نوع انجام عمل پزشکی جمع آوری شده است. > x1 <\- c(28، 32، 49، 84، 357، *933، *1078، *1183، *1560، *2114،*2144) > > x2 <\- c(42، 53، 57، 63 ، 81، 140، 176، -210، 252، *476، 524، *1037) جایی که ستاره ها نشان می دهند که بیمار در گروه C است. هر دو نوع روش پزشکی با استفاده از احتمال داده شده مدل می شوند. ما می خواهیم پارامترها را در دو نوع رویه مقایسه کنیم. من در حال آزمایش فرضیه زیر هستم: $$ H_0: \theta_1 = \theta_2 \text{ در مقابل } H_1:\theta_1 \neq \theta_2$$ آیا فکر می‌کنم باید از آزمون نسبت درستنمایی تعمیم‌یافته استفاده کنم درست است؟ من مطمئن نیستم که چگونه این آزمایش را اجرا کنم زیرا تا به حال $$ \lambda = \lambda_0 \text{ در مقابل } \lambda \neq \lambda_0 $$ را آزمایش کرده‌ام که $$\lambda = \lambda_0$$ یک مقدار خاص است. هر گونه کمکی قدردانی خواهد شد.
کمک به آزمون فرضیه و آزمون نسبت احتمال تعمیم یافته
73755
من سعی می کنم تفاوت بین سال ها (2008، 2009) و بین فصل ها (زمستان، بهار، تابستان) را ببینم، زیرا یک متغیر کمی (وابسته) در این مورد تعداد تخم ها است. این متغیر با یک متغیر پیوسته مانند اندازه مادر (متغیر کمکی) متغیر است. برای مشاهده اثرات زمانی در طول فصل تولید مثل، که 3 فصل را پوشش می دهد، باید اثر اندازه ماده را حذف کنم. یک ANCOVA انتخاب خواهد بود، با این حال، فاقد سطحی از فصل عامل، تابستان 2009، زیرا نمی تواند نمونه برداری را انجام دهد. داده ها تقریبا 30 نفر در هر فصل **اندازه نمونه بر اساس سطح عامل** سال فصل 2008 2009 زمستان 31 30 بهار 31 32 تابستان 25 NA نرمال بودن و همگنی واریانس بین فصول، سال و فصل: سال وجود دارد. من از R برای تجزیه و تحلیل آماری استفاده می کنم. مسئله من این است که من از ANCOVA استفاده کرده‌ام و هیچ تفاوتی بین سال‌ها یافت نشد، اما تفاوت‌های قابل توجهی بین فصل‌ها و فصل: سال وجود داشت. و من مطمئن نیستم که آیا این نوع تجزیه و تحلیل و همانطور که من اعمال کردم صحیح است یا خیر. اگر از نوع II یا III تنظیم شده SS یا نوع دیگری از آنالیز استفاده کنم. احتمالات دیگه؟ log (اندازه) 1 17.136 17.136 1217.228 < فصل دوم 143 2.013 0.014 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 پیشاپیش متشکرم.
چگونه می توان آنکوا را با متغیر کمکی با عوامل تو در تو و نامتعادل انجام داد؟ آیا این تحلیل مناسب است؟
93671
من معتقدم که داده ای که دارم از توزیع دوجمله ای منفی (پواسون بیش از حد پراکنده) پیروی می کند. می دانیم که دوجمله ای منفی یک توزیع ترکیبی گاما پواسون است. واریانس این توزیع گاما در واقع واریانسی است که من به آن علاقه دارم. آیا می توانم واریانس توزیع گامای ترکیب را فقط از روی داده های دوجمله ای منفی خود تخمین بزنم. اگر $X|\lambda ~ \sim پواسون (\lambda)$ $\lambda \sim گاما(شکل = r، مقیاس = p/(1 - p))$، پس توزیع حاشیه ای X از $NB(r) پیروی می کند، p)$, $var(X) = \frac{pr}{(1-p)^2}$$mean(X) = \frac{pr}{1-p}$ $var(\lambda) = r \cdot \frac{p}{1-p}$ بنابراین، $var(\lambda) = var(X) - mean(X) = \frac{pr}{(1-p )^2} - \frac{pr}{1-p} = \frac{rp}{1-p}$ همچنین می‌توانیم X و $\lambda$ را دو متغیر تصادفی در نظر بگیریم، سپس $Var(X) = E(Var(X|\lambda))+ Var(E(X|\lambda))$ $Var(X) = E(\lambda)+ Var(\lambda)$Var(\lambda) = Var(X ) - mean(\lambda)$ $E(X) = E(E(X|\lambda)) = E(\lambda)$ از مشتقات، به نظر می رسد می توانم واریانس را تخمین بزنم توزیع گاما در مخلوط با $Var(X)-mean(X)$. از طرف دیگر، اگر دو جمله ای منفی X را با استفاده از $\mu$ و اندازه پارامتر کنیم، $var(X) = \mu + \mu^2/size$. بنابراین $var(\lambda) = \mu^2/size$.
آیا می توانم واریانس گاما را از داده های توزیع شده توزیع دوجمله ای منفی تخمین بزنم، با توجه به اینکه NB ترکیب گاما-پواسون است؟
34583
من به دنبال ایده هایی در مورد بهترین روش برای نزدیک شدن به یک مجموعه داده و انتخاب مدل مناسب برای پیش بینی قیمت دست دوم ویجت ها هستم. ## پیشینه ای در مورد ویژگی های این ویجت ها: * ویجت ها در مدل ها، اندازه ها، رنگ ها و چند ویژگی دیگر قابل دسته بندی هستند، همراه با سطح سایش و پارگی که برای هر ویجت منحصر به فرد است (اما قابل اندازه گیری است. به طور دقیق). * ارزش ویجت ها در طول زمان کاهش می یابد (نمایه استهلاک آن شبیه به 1/x است) تا مقداری ثابت که برابر با ارزش ضایعات آنها باشد. مقدار ضایعات در طول زمان ثابت نیست، بلکه > 0 است. * قیمت ویجت ها یک بار در یک دوره زمانی مشاهده می شود و همراه با ویژگی های دیگر برای هر ویجت ثبت می شود. قیمت دوباره به روز نمی شود. * جریان دائمی ویجت‌های جدید در بازار وجود دارد و داده‌ها تقریباً یکنواخت می‌شوند، بنابراین تعداد ویجت‌های جدیدی که به بازار دست دوم می‌آیند تقریباً در حدود k ویجت در روز ثابت است. سهام در زمان t+10 سهام در زمان t به علاوه 10*k خواهد بود. ## سوالاتی در مورد نحوه رسیدگی به داده ها: * از آنجایی که قیمت فقط یک بار مشاهده می شود، چه رویکردی برای تعیین حد بالایی که داده های قیمت را می توان در تحلیل در نظر گرفت، چگونه باید باشد؟ چه نوع تحلیل اولیه ای باید برای تعیین چنین برش هایی استفاده شود؟ * همچنین آیا در مدل سازی قیمت باید به تازگی نقطه داده قیمت وزنی داده شود؟ ## چگونه بهترین مدل را انتخاب کنیم؟ * قبل از انتخاب مدل مناسب (درمان موارد پرت و غیره) چه مواردی را باید در مورد داده های اساسی در نظر گرفت؟ * آیا رگرسیون چند متغیره راه درستی برای نزدیک شدن به این داده هاست یا از قبل روشی برای نزدیک شدن به چنین مواردی از پیش بینی قیمت وجود دارد؟
انتخاب بهترین مدل برای پیش بینی قیمت ویجت دست دوم
34582
در سایت ریاضیات، یک کارشناس که تازه در حال یادگیری آمار است، توضیحات خود را از تفاوت بین رگرسیون خطی و ANOVA ارائه کرد و از او پرسید که آیا تفسیر او درست است یا خیر. من پاسخ دادم که رگرسیون خطی چگونگی ارتباط مجموعه‌ای از متغیرهای کمکی با یک پاسخ را در یک فرم تابعی در نظر می‌گیرد (می‌توانست که در پارامترها خطی است را اضافه کند) در حالی که ANOVA پاسخ را به یک کلاس یا کلاس‌هایی از گروه(ها) طبقه‌بندی می‌کند و آزمایش می‌کند. تفاوت بین معنی های گروهی یکی از اعضا به پاسخ من رأی منفی داد و گفت که ANOVA می تواند شامل پیش بینی کننده های پیوسته نیز باشد. پاسخ خود او نشان داد که او اصطلاح ANOVA را به معنای آزمایش عبارات معنی‌دار از تجزیه واریانس در مدل خطی عمومی در نظر می‌گیرد. هر دوی ما توضیحاتی از رگرسیون خطی ارائه کردیم که موافق بودند. سوال من این است: به نظر شما بهترین پاسخ چیست؟ پاسخ او؟ پاسخ من؟ توضیحی که دو معنی ANOVA را ارائه می دهد؟ چیز دیگری؟ پیوند: http://math.stackexchange.com/questions/183704
رگرسیون خطی در مقابل تحلیل واریانس: چگونه تفاوت را توضیح دهیم؟
35183
فرض کنید من یک $p(z، \theta | y، \eta)$ با $y$ داده های مشاهده شده دارم، $z$ متغیرهای پنهان و $\theta$ پارامترها هستند، و $\eta$ بردار فراپارامترها است. . من یک تقریب میدان میانگین به عقب با استفاده از صعود مختصات می‌سازم، یعنی $$ q(z) \gets \exp\left\\{E_q(\log p(z, \theta | y, \eta) | z) + \ mbox{const}\right\\} \\\ q(\theta) \gets \exp\left\\{E_q(\log p(z, \theta | y، \eta) |. \theta) + \mbox{const}\right\\} $$ که $\mbox{const}$ باعث می‌شود هر کدام به $1 ادغام شوند. تکرار تا همگرایی. سوال من این است که اگر بخواهم بیز تجربی انجام دهم، و (تقریبا) نمایه $\eta$ را مشخص کنم، آیا درست است که فقط با یک مرحله EM این را تقویت کنم $$ \eta \gets \arg \max_\eta E_q \log( p(z، \theta | y، \eta))؟ $$ بر اساس شواهد کران پایین $$ \log p(y | \eta) \ge E_q \log(p(z، \theta | y، \eta)) - E_q \log(q(z، \theta) ) $$ به نظر می رسد که من باید بتوانم از این موضوع خلاص شوم. بهینه سازی کران پایین بر روی $\eta$ دقیقاً مرحله EM پیشنهادی است، بنابراین من همچنان در حال انجام صعود مختصات در کران پایین هستم. من گمان می کنم که اگر این کار موثر باشد، برای افرادی که به طور منظم استنتاج تغییرات انجام می دهند، کار بدیهی است. از آنجایی که روش‌های متغیر سریع هستند، فکر من این است که شاید بتوانم این کار را برای تنظیم فراپارامترها قبل از راه‌اندازی به نمونه‌گر گیبس برای استنتاج دقیق (تا خطای MCMC) انجام دهم. **به روز رسانی:** من کمی با این موضوع بازی کردم و متوجه شدم که افزودن مرحله EM می تواند کار خوبی داشته باشد، اما در برخی شرایط به نظر می رسد حساسیت به بهینه محلی بد در الگوریتم تغییرات را افزایش می دهد. مقداردهی اولیه پارامترهای متغیر که معمولاً به نظر می رسد خوب کار می کنند، انجام نمی شود. اگر به جای آن فقط هر چند تکرار مرحله EM را وارد کنم، بهتر کار می کند، اما مطمئناً همگرایی را کاهش می دهم. یکی از روش‌هایی که به خوبی کار می‌کند این است که الگوریتم تغییرات را با استفاده از روشی که من به آن اعتماد دارم رایت کنیم و سپس هر تکرار مرحله EM را اضافه کنم. من یک جایزه اضافه می کنم زیرا هنوز به دنبال توصیه های عمومی خوب هستم.
ترکیبی از روش های متغیر و بیز تجربی
34586
آزمایش‌های یک وضعیت پزشکی را می‌توان به دو دسته طبقه‌بندی کرد: 1. آزمایش‌های روی یک بیمار بدون علامت (بدون دلیل برای مشکوک بودن وضعیت) که در آن نتیجه یک یافته غیرمستقیم است. و 2. آزمایشات روی یک بیمار علامت دار (دلیل قبلی برای مشکوک بودن وضعیت) که در آن نتیجه یک یافته تشخیصی است. در حالت اول، تاکید هر آزمونی باید بر حداکثر ویژگی باشد. برای مورد دوم، تاکید هر آزمونی باید بر حداکثر حساسیت باشد. به طور شهودی می فهمم چرا. با این حال، آیا کسی می تواند به من یک بررسی رسمی، ترجیحاً از دیدگاه بیزی، به من بدهد که چرا چنین است؟ منابع: ارائه اسلاید، Categorizing variants after whole genome sequencing، J.S. برگ لانگ، ای.، نراقی، ر. (2005) رابطه عصبی عروقی در ناحیه ورودی ریشه سه قلو در درد صورت ایدیوپاتیک مداوم: یافته‌های تجسم سه بعدی MRI. _J Neurol Neurosurg Psychiatry 76_: 1506-1509. متن کامل
چرا ویژگی را برای یافته های شرایطی به حداکثر می رسانید؟
55381
همه، من داده‌هایی دارم که می‌خواهم پیش‌بینی ساده‌ای روی آن‌ها انجام دهم. غیر ثابت است و به نمودار زمانی و آزمایشات ADF و KPSS نگاه می کند. بعد از تفاوت، اکنون یک سریال ثابت دارم. من می خواهم از میانگین متحرک برای پیش بینی برخی از مقادیر آینده استفاده کنم. آیا توصیه می شود این کار را روی سری ثابت انجام دهم و سپس از آن پیش بینی برای اعمال مجدد به نسخه اصلی من استفاده کنم؟ یا می توانم بروم و از نسخه اصلی استفاده کنم؟ همچنین، دلیل خوبی برای این باور است که اصطلاحات جدیدتر تأثیر بیشتری دارند، آیا باید از EWMA استفاده کنم؟ با تشکر فراوان
MA در یک سری زمانی غیر ثابت
22718
ضریب همبستگی پیرسون x و y یکسان است، چه پیرسون (x، y) را محاسبه کنید یا پیرسون (y، x). این نشان می دهد که انجام یک رگرسیون خطی از y با دادن x یا x با توجه به y باید یکسان باشد، اما من فکر نمی کنم که اینطور باشد. آیا کسی می تواند روشن کند که رابطه متقارن نیست، و چگونه این رابطه با ضریب همبستگی پیرسون (که همیشه فکر می کنم بهترین خط مناسب را خلاصه می کند) مرتبط است؟
تفاوت بین رگرسیون خطی روی y با x و x با y چیست؟