_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
27283
رگرسیون لجستیک دو جمله ای دارای مجانب بالایی و پایینی به ترتیب 1 و 0 است. با این حال، داده‌های دقت (فقط به عنوان مثال) ممکن است مجانب بالایی و پایین‌تری داشته باشند که بسیار متفاوت از 1 و/یا 0 هستند. من می‌توانم سه راه‌حل بالقوه برای این موضوع ببینم: 1. اگر به تناسب‌های خوبی در این زمینه می‌پردازید نگران نباشید. منطقه مورد علاقه اگر تناسب خوبی دریافت نمی کنید، پس: 2. داده ها را به گونه ای تغییر دهید که حداقل و حداکثر تعداد پاسخ های صحیح در نمونه، نسبت های 0 و 1 (به جای مثلاً 0 و 0.15) را نشان دهد. _یا_ 3. از رگرسیون غیر خطی استفاده کنید تا بتوانید مجانبی را مشخص کنید یا از برازنده بخواهید این کار را برای شما انجام دهد. به نظر من گزینه های 1 و 2 بیشتر به دلایل سادگی نسبت به گزینه 3 ارجحیت دارند، در این صورت شاید گزینه 3 گزینه بهتری باشد زیرا می تواند اطلاعات بیشتری به دست دهد؟ _edit_ در اینجا یک مثال است. کل صحت ممکن برای دقت 100 است، اما حداکثر دقت در این مورد ~ 15 است. دقت <- c(0,0,0,0,0,1,3,5,9,13,14,15,14, 15،16،15،14،14،15) x<-1:طول(دقت) glmx<-glm(cbind(دقت، 100-دقت) ~ x، خانواده=دوجمله ای) ndf<- data.frame(x=x) ndf$fit<-predict(glmx, newdata=ndf, type=response) نمودار (دقت/100 ~ x) با (ndf، خطوط (مناسب ~ x)) گزینه 2 (طبق نظرات و برای روشن شدن معنای من) مدل خواهد بود glmx2<-glm(cbind(دقت، 16-دقت) ~ x، خانواده=دوجمله ای) گزینه 3 (برای کامل بودن) چیزی شبیه به: fitnls<-nls (دقت ~ upAsym + (y0 - upAsym)/(1 + (x/midPoint)^slope)، start = list (upAsym = حداکثر (دقت)، y0 = 0، midPoint = 10، slope = 5)، پایین = list(upAsym = 0، y0 = 0، midPoint = 1، slope = 0)، بالا = list(upAsym = 100، y0 = 0، midPoint = 19، hillslope = Inf)، کنترل = nls.control(warnOnly = TRUE، maxiter=1000)، الگوریتم = پورت)
مجانب رگرسیون دو جمله ای
23994
من مجموعه داده ای از 100 نمونه دارم که هر کدام بیش از 10000 ویژگی دارد که برخی از آنها بسیار همبستگی دارند. این چیزی است که من در حال حاضر انجام می دهم. 1. مجموعه داده را به سه قسمت تقسیم کنید. 2. برای هر چین، 2.1 توری الاستیک را برای 100 مقدار لامبدا اجرا کنید. (این ماتریس nfeatures x 100 را برمی‌گرداند) 2.2 اتحادی از تمام وزن‌های غیر صفر را در نظر بگیرید. (برگردان nfeatures x 1 را برمی گرداند) 3. ویژگی های مربوط به وزن های غیر صفر بازگشتی از 2.2 را انتخاب کنید. 4. از این ویژگی ها برای آموزش و آزمایش SVM استفاده کنید. مشکل من این است که در مرحله 3، برای هر فولد مجموعه‌ای از ویژگی‌ها را دریافت می‌کنم. چگونه می توانم یک مدل نهایی را از این موضوع بدست بیاورم؟ یک لیست نهایی از ویژگی های مرتبط؟ آیا می توانم یک تقاطع از ویژگی های انتخاب شده در مرحله 3 برای همه تاها داشته باشم؟ به نظر می رسد ویژگی هایی که در هر سه قسمت انتخاب می شوند پایدارترین/مهم ترین باشند. آیا می توانم این کار را انجام دهم یا تقلب است؟
چگونه مدل نهایی را با انتخاب ویژگی خالص الاستیک، اعتبار متقاطع و SVM انتخاب کنیم؟
92308
من مجموعه ای از داده ها، شمارش در برابر زمان را دارم. کل داده ها به این شکل است ![data](http://i.imgur.com/XpBbkab.png) در اینجا یک نمونه x y [ -0.9 0. ] [ -0.8 4. ] [ -0.7 5. ] [ - 0.6 1. ] [ -0.5 9. ] [ -0.4 8. ] [ -0.3 10. ] [ -0.2 9. ] [ 0.1 - 18. ] [ 0. 25. ] [ 0.1 24. ] [ 0.2 26. ] [ 0.3 18. ] [ 0.4 32. ] [ 0.5 25. [ 0.8 23. ] [ 0.9 16. ] من می خواهم نوارهای خطای مناسبی را برای محور y در این داده ایجاد کنم. برخی از افراد در منطقه تحقیقاتی من از موارد زیر استفاده می کنند: $$y \pm \sqrt{y}$$ یا $$y \pm y\sqrt{\frac{1}{y} + \frac{1}{\bar{ y}}}$$ چون قرار است داده‌ها پواسون باشند، اما این برای من منطقی نیست زیرا مطمئناً برای مقادیر y بزرگ‌تر، بیشتر به حساب می‌آید... خطا باید کوچک‌تر شود، نه بزرگ‌تر.
نوار خطا برای داده های شمارش پواسون
78438
من سعی می کنم تجزیه و تحلیل LCGA و GMM را در R اجرا کنم، اما مطمئن نیستم که چگونه آن را انجام دهم. داده های من بسیار ساده است، بنابراین اجازه دهید ابتدا آن را توضیح دهم. مجموعه داده توسط تعدادی از بیماران ارائه شده است که به برخی از آیتم های پرسشنامه در پنج زمان مختلف پاسخ گویه (در مقیاس لیکرت از 0 تا 4) داده اند. بنابراین داده های ما توسط Time ID Response داده می شود --------------------- 1 1 2 2 1 1 3 1 2 4 1 1 5 1 3 1 2 4 2 2 1 3 2 3 4 2 2 5 2 1 و به همین ترتیب، برای مجموع $n = 64 $ فردی. من بسته lcmm را کشف کرده ام، اما مطمئن نیستم که چگونه از آن به درستی استفاده کنم. به طور خاص، من در تعجب هستم که چگونه آرگومان های تابع lcmm() را به درستی تنظیم کنم. آیا اگر بگویم که اگر «lcgm» (ثابت = پاسخ ~ زمان، ng = k، موضوع = «ID»)» را اجرا کنم، تجزیه و تحلیل رشد کلاس پنهان انجام می‌دهم و اگر «lcgm» را اجرا کنم، یک تجزیه و تحلیل مخلوط رشد انجام می‌دهم، درست است. تصادفی = پاسخ ~ زمان، ng = k، موضوع = ID)` برای تعداد معینی از کلاس ها $k$؟ من کمی گیج هستم زیرا به نظر می رسد استدلال ثابت اجباری است، اما مطمئن نیستم که چگونه تجزیه و تحلیل مخلوط را انجام دهم. حدس می‌زنم چیزی که می‌پرسم این است که چگونه مدل‌ها را با تابع «lcmm()» به درستی مشخص کنیم. یا، آیا ممکن است راه راحت‌تر دیگری برای انجام کاری که می‌خواهم در R انجام دهم وجود دارد؟ پیشاپیش ممنون
انجام یک تجزیه و تحلیل ساده مخلوط رشد و کلاس رشد نهفته در R
112506
بنجامینی و هوچبرگ (1995) برای پرداختن به تست های چندگانه فرض می کنند که آزمون ها مستقل هستند. بنجامینی و یکوتیلی (2001) نشان می‌دهند که (1) نتیجه 1995 نیز تحت شرایط ضعیف‌تر (من فکر می‌کنم) و (2) از جمله فاکتور $\Sigma^m_{i=1}\frac{1}{i}$ نیز وجود دارد. این روش را برای هر ساختار وابستگی قابل اجرا می کند (به قضیه 1.3 مراجعه کنید). از آنجایی که این جمع بزرگتر یا مساوی 1 است، این روش را محافظه کارانه تر می کند. سوال من این است که چرا آزمون های مستقل بدترین فرض نیست؟ آیا مثال ساده ای برای نشان دادن وجود دارد که چرا نه؟ آیا به نوعی ساختار وابستگی منفی را شامل می شود؟ شاید درک من اشتباه باشد، اما فکر کردم که تعدیل بونفرونی (برای خطای خانوادگی) برای هر نوع وابستگی کارآمد است و استقلال بدترین فرض است. شاید این درست نباشد و از این رو سردرگمی من با BH است.
شهود برای فرض وابستگی در بنجامینی و هوچبرگ (1995) چیست؟
61191
من با داده های زیر کار می کنم (تصویر را ببینید) سعی می کنم مقادیر محور Y آینده را از مقادیر X پیش بینی کنم. همانطور که از تصویر می توانید متوجه شوید و همانطور که من کشف کردم، پیش بینی تنها بر اساس داده ها وحشتناک خواهد بود. اکنون سعی می کنم ردیف به ردیف داده ها را مرور کنم و هر نقطه را به عنوان مهم یا غیر مهم طبقه بندی کنم و ببینم آیا می توانم چیز جالبی در طبقه بندی پیدا کنم. من الگوریتم خود را چیزی شبیه به این می‌خواهم: 1. قدر مطلق هر عنصر را در ستون‌های داده‌های محور Y و X بگیرید. یا شاید 1٪ (با این کمانچه) با یک پرچم 4. فقط 5٪ بالا را رسم کنید و ببینید آیا مدل خطی (یا برخی از مدل ها) بهتر است R^2 . /renrN.png) دو موردی که من به یک اشاره گر نیاز دارم عبارتند از: * نحوه گام به گام عنصر به عنصر از طریق داده ها، ایجاد تغییرات در طول مسیر * چه نوع تجزیه و تحلیل طبقه بندی وجود دارد که ممکن است مفید باشد، هدف این است که آینده کدام طبقه بندی را پیش بینی کنیم. عناصر نمونه قرار می گیرند. با تشکر
تکرار در ردیف ها و فیلتر کردن داده ها در R
73082
من یک سوال بسیار ساده دارم که می توانم بپرسم، اما به تنهایی نمی توانم این را بفهمم. من دو نمونه دارم: نمونه A فقط با سه نقطه داده و نمونه B با صدها نقطه. برای هر نمونه، میانه کمیت معین را اندازه می‌گیرم. حال سوال من این است که خطای مربوط به میانه چیست؟ من می توانم چارک ها را در نظر بگیرم، اما اگر نمونه A فقط از 1 نقطه تشکیل شده باشد چه؟ این عملاً هیچ خطایی را به مقدار میانه اختصاص نمی دهد. من انتظار دارم اندازه گیری من برای نمونه B دقیق تر باشد.
نحوه تخمین خطا در نمونه با نقاط داده بسیار کم
112502
من یک سری ماهانه میانگین متحرک دارم و می خواهم سری اصلی آنها را از میانگین متحرک ساده ای که دارم بازسازی کنم. من اتفاقا پنجره میانگین گیری را می شناسم. آیا می توانم سری اصلی را از میانگین متحرک آنها بازسازی کنم یا تخمین بزنم؟ و در صورتی که من تمام اطلاعات لازم برای بازسازی کامل آن را ندارم، چگونه می توانم آن را تخمین بزنم؟
تخمین سریال های اصلی از میانگین متحرک آنها
51285
من یک سری زمانی دارم که از آن یک نقطه تصادفی را انتخاب می کنم. من به طور تصادفی یک جهت بالا یا پایین را انتخاب می کنم و دو هدف را قرار می دهم. وقتی به هر یک از این اهداف می‌رسم، شمارنده «هدف 1 رسیده» یا «هدف 2 به دست آمده» را افزایش می‌دهم، بسته به اینکه به کدامیک اول رسیده‌اید. هدف 1 همیشه با 1 +/- مقدار در نقطه انتخاب شده به طور تصادفی تنظیم می شود. هدف 2 دارای مقادیر متفاوتی است: 1،2،4،6،8،10 ... مقدار +/- در نقطه انتخاب شده به طور تصادفی. به عنوان مثال با فرض نقطه انتخاب تصادفی 2 = 4 نقطه انتخاب شده به طور تصادفی = 20 جهت = بالا هدف 1 = 20 + 1 = 21 هدف 2 = 20 - 4 = 16 یا نقطه انتخاب تصادفی = 18 جهت = پایین هدف 1 = 18 - 1 = 17 هدف 2 = 18 + 4 = 22 اگر تمایل به وجود داشت سری‌های زمانی برای محلی‌سازی در اطراف مقادیر قبلی، اگر اندازه هدف 2 را دوبرابر کنم، آیا تعداد هدف 2 رسیده بیش از نصف کاهش نمی‌یابد؟ آیا راه‌های بهتری برای بررسی اینکه آیا یک سری زمانی حول مقادیر معینی محلی می‌ماند یا خیر وجود دارد؟
گرایش غیر برگشتی؟
78854
من یک رگرسیون چندگانه به شکل _Y_ = $\beta_0$ + $\beta_1$*$X_1$ + $\beta_2$*$X^2_1$ + $\beta_3$*$X_2$ + $\beta_4$* اجرا می‌کنم $X_3$ در مجموعه داده سری زمانی. من می خواهم رابطه بین _Y_ و X_1$ را بر اساس این معادله رسم کنم به طوری که پس از در نظر گرفتن اثرات X_2$ و $X_3$ (یا به عبارت دیگر، پس از اثرات X_2$ و $X_3$ از _Y_ حذف می شود. مناسب ترین راه برای این کار چیست؟
سوال رگرسیون خطی چندگانه
54637
با توجه به یک سری زمانی، سعی می کنم تعیین کنم که آیا فرآیند تصادفی زیربنایی یک مارتینگل است یا خیر. تا کنون استنباط کرده ام که از آنجایی که می دانم این روند همیشه پس از یک زمان قطعی محدود است، اگر بتوانم ثابت کنم که یک حرکت براونی است، کارم تمام می شود. آیا تست استانداردی برای این کار وجود دارد؟
تست مارتینگل
58396
این سوال دنباله سوال قبلی من در اینجاست. با تشکر از @Glen_b، @gung و @rbatt که دیروز چیزهای جدید زیادی به من آموختند. قبلاً ذکر شد که توزیع مخلوط ممکن است امکان پذیر باشد، بنابراین فکر کردم که در مورد آنها یاد خواهم گرفت. من چند مقاله در مورد نحوه تطبیق توزیع مخلوط با داده ها دیده ام و بسیار جالب به نظر می رسند. برای تطبیق دو لگ نرمال در داده‌هایم، موارد زیر را انجام دادم: library(mixtools) x <- c(1528L, 285L, 87138L, 302L, 115L, 416L, 8940L, 19438L, 165820L, 165820L, 540 974 لیتر، 12999 لیتر، 226 لیتر، 190 لیتر، 306 لیتر، 189 لیتر، 138542 لیتر، 3049 لیتر، 129067 لیتر، 21806 لیتر، 456 لیتر، 22745 لیتر، 198 لیتر، 5L، 44515 294 لیتر، 4218 لیتر، 3672 لیتر، 10100 لیتر، 290 لیتر، 8341 لیتر، 128 لیتر، 11263 لیتر، 1495243 لیتر، 1699 لیتر، 247 لیتر، 249 لیتر، 300 لیتر، 386 لیتر، 386 لیتر، 386 لیتر، 524026L, 1392L, 396L, 298L, 1063L, 11102L, 6684L, , 6546L, 289L, 465L, 261L, 175L, 356L, 61636L, , 356L, 61636L, 356L, 61636L, 356L, 61636L, 356L, 61636L , 298L , 61652L, 7 294 لیتر، 95221 لیتر، 322 لیتر، 38892 لیتر، 2146 لیتر، 59347 لیتر، 2118 لیتر، 310801 لیتر، 277964 لیتر، 205679 لیتر، 5980 لیتر، 66102 لیتر، 76102 لیتر، 7602 لیتر، 7602 لیتر 509 لیتر، 21795 لیتر، 21795 لیتر، 301 لیتر، 617 لیتر، 331 لیتر، 250 لیتر، 123501 لیتر، 144 لیتر، 347 لیتر، 121443 لیتر، 211 لیتر، 232 لیتر، 445713، 445713، 1921 لیتر، 178 لیتر، 168 لیتر، 291 لیتر، 6915 لیتر، 6735 لیتر، 1008478 لیتر، 274 لیتر، 20 لیتر، 3287 لیتر، 591208 لیتر، 797 لیتر، 586 لیتر، 17093213 لیتر، 17093213 لیتر، 1497L, 24L, 1407L, 1217L, 1323L, 272L, 443L, 49466L, 323L, 323L, 784L, 900L, 26814L, 2452L, 3L, 214, 214 20439L, 12304L, 261L, 137L, 379L, , 2273L, 274L, 17760L, 920699L, 13L, 485644L, 1243L, 226L, 2038L, 226L, 2038 1477 لیتر، 242 لیتر، 280 لیتر، 253 لیتر، 17964 لیتر، 7073 لیتر، 308 لیتر، 260692 لیتر، 155 لیتر، 58136 لیتر، 16644 لیتر، 29353 لیتر، 543 لیتر، 2328 لیتر، 2328 لیتر، 2328 لیتر، 272 لیتر، 480 لیتر، 219 لیتر، 60 لیتر، 2285 لیتر، 2676 لیتر، 256 لیتر، 234 لیتر، 1240 لیتر، 219714 لیتر، 102174 لیتر، 258 لیتر، 266 لیتر، 33043 لیتر، 794 لیتر، 33043 لیتر، 793 لیتر 293L, 536L, 48557L, 4141L, 39079L, , 23259L, 2235L, 17673L, 28268L, 112L, 64824L, 127992L, 5296L, 5296L, 5296L 1070735L, 179L, 189L, 157L, 157L, 122L, 1045L, 1317L, 186L, 57901L, 456126L, 674L, 2375L, 2375L, 2382L, 12582L 216 لیتر، 114 لیتر، 11662 لیتر، 107890 لیتر، 203022 لیتر، 513 لیتر، 2549 لیتر، 146 لیتر، 53331 لیتر، 1690 لیتر، 10752 لیتر، 1648611، 1648611 لیتر، 1183 لیتر، 1114 لیتر، 10061 لیتر، 720 لیتر، 10 لیتر، 24 لیتر، 220 لیتر، 38 لیتر، 453 لیتر، 10066 لیتر، 115774 لیتر، 97713 لیتر، 7234 لیتر، 773 لیتر، 90154 لیتر، 151 لیتر، 90154 لیتر، 151 لیتر، 125 لیتر، 125 لیتر 214 لیتر، 948 لیتر، 208 لیتر، 1127 لیتر، 221 لیتر، 169 لیتر، 1528 لیتر، 78959 لیتر، 61566 لیتر، 88049 لیتر، 780 لیتر، 6196 لیتر، 633 لیتر، 214 لیتر، 219 لیتر، 211، 211 561 لیتر، 112 لیتر، 17557 لیتر، 101086 لیتر، 244 لیتر، 257 لیتر، 94483 لیتر، 6189 لیتر، 236 لیتر، 248 لیتر، 966 لیتر، 117 لیتر، 333 لیتر، 278 لیتر، 333 لیتر، 278 لیتر، 568 لیتر، 568 لیتر، 568 لیتر 25258L, 127931L, 7735L, 112717L, 395L, 12960L, 11383L, 16L, 229067L, 259076L, 311L, 366L, 22256L, 22560L 3551 لیتر، 7782 لیتر، 4256 لیتر، 87121 لیتر، 4971 لیتر، 4706 لیتر، 245 لیتر، 34457 لیتر، 4971 لیتر، 4706 لیتر، 245 لیتر، 34457 لیتر، 258 لیتر، 32301 لیتر، 32301 لیتر 2231L, 247L, 537L, 301L, 2214L, 230L, 1076L, 1881L, 266L, 4371L, 88304L, 50056L, 50056L, 2861L, 50056L, 2861L, 2831L, 2831L, 2831L, 50056L. 48200L، 48200L، 6236L، 82158L، 6236L، 82158L، 1331L، 713L، 89106L، 46315L، 220L، 5634L، 170126.23L، 1705828.1.1. 247 لیتر، 804 لیتر، 125 لیتر، 5507 لیتر، 1271 لیتر، 2567 لیتر، 441 لیتر، 6623 لیتر، 64781 لیتر، 1545 لیتر، 240 لیتر، 2921 لیتر، 777 لیتر، 697 لیتر، 2019 لیتر، 2019 لیتر 183 لیتر، 297 لیتر، 9010 لیتر، 16304 لیتر، 930 لیتر، 6522 لیتر، 5717 لیتر، 17 لیتر، 20 لیتر، 364418 لیتر، 58246 لیتر، 7976 لیتر، 304 لیتر، 4814 لیتر، 304 لیتر، 4814 لیتر، 29 لیتر، 4814 لیتر، 49 لیتر 6972 لیتر، 15 لیتر، 40922 لیتر، 471 لیتر، 2342 لیتر، 2248 لیتر، 23 لیتر، 2434 لیتر، 23342 لیتر، 807 لیتر، 21 لیتر، 345568 لیتر، 324 لیتر، 188 لیتر، 189 لیتر، 189 لیتر، 189 لیتر، 195L, 187L, 185L, 33968L, 1375L, 121L, 56872L, 35970L, 929L, 151L, 5526L, 156L, 2687L, 4870L, 2687L, 4870L, 2687L, 48703L, 26L, 4870L, 2687L, 2683L, 269L, 35970L. 265 لیتر، 261 لیتر، 30501 لیتر، 5435 لیتر، 9849 لیتر، 5496 لیتر، 1753 لیتر، 847 لیتر، 265 لیتر، 280 لیتر، 1840 لیتر، 1107 لیتر، 2174 لیتر، 18907 لیتر، 2174 لیتر، 18907، 2174 لیتر، 18907، 2174 لیتر، 18907، 2174 لیتر، 18907 لیتر، 5496 لیتر، 1753 لیتر، 847 لیتر، 265 لیتر، 1080L, 45L, 6453L, 136351L, 521L, 715L, 668L, 14550L, 1381L, 13294L, 13100L, 6354L, 6319L, 6319L, 84847, 6319L, 84847 2126 لیتر، 36 لیتر، 572 لیتر، 1448 لیتر، 215 لیتر، 12 لیتر، 7105 لیتر، 758 لیتر، 4694 لیتر، 29369 لیتر، 7579 لیتر، 709 لیتر، 121 لیتر، 781 لیتر، 1266 لیتر، 781 لیتر، 1266 لیتر، 781 لیتر، 11914 لیتر، 1933L, 320L, 1628L, 2346L, 2955L, 204852L, 206277L, 2408L, 2162L, 312L, 280L, 243L, 84050L, 84050L, 1290L 119392L, 182960L, 261791L, 92L, 415L, 144L, 2006L, 1172L, 1886L, 233L, 36123L, 7855L, 554L, 229L, 2292L, 234L 142L, 3848L, 3847L, 3965L, 3431L, 2465L, 1717L, , 3952L, 854L, 854L, 834L, 14608L, 172L, 78833L, 75L, 75L 5478L, 782L, 9066L, 6733L, 568L, 611L, 533L, 1022L, 334L, 21628L, 295362L, 34L, 486L, 279L, , 257L, 250L, 250L 293 لیتر، 258 لیتر، 1854 لیتر، 209 لیتر، 152 لیتر، 1139 لیتر، 398 لیتر، 3275 لیتر، 284178 لیتر، 284127 لیتر، 826 لیتر، 751 لیتر، 1814 لیتر، 3917 لیتر، 1814 لیتر، 3917 لیتر، 15 43 لیتر، 1463 لیتر، 385 لیتر، 64 لیتر، 5279 لیتر، 885 لیتر، 1193 لیتر، 190 لیتر، 451 لیتر، 1093 لیتر، 322 لیتر، 453 لیتر، 680 لیتر، 452 لیتر، 677 لیتر، 128 لیتر، 120 لیتر، 128 لیتر، 120 لیتر 1165 لیتر، 476 لیتر، 211 لیتر، 4437 لیتر، 7310 لیتر، 778 لیتر، 260 لیتر، 855 لیتر، 353 لیتر، 97 لیتر، 34 لیتر، 87 لیتر، 137 لیتر، 101 لیتر، 416 لیتر، 416 لیتر، 148 لیتر، 148 لیتر، 291 لیتر، 4050 لیتر، 14569 لیتر، 271 لیتر، 1968 لیتر، 6553 لیتر، 2535 لیتر، 227 لیتر، 202 لیتر، 647 لیتر، 266 لیتر، 2681 لیتر، 106 لیتر، 158 لیتر، 234 لیتر، 234 لیتر، 234 لیتر، 465 لیتر، 436 لیتر، 245 لیتر، 245 لیتر، 2790 لیتر، 104 لیتر، 1283 لیتر، 44416 لیتر، 142 لیتر، 13617 لیتر، 232 لیتر، 171 لیتر، 221 لیتر، 719 لیتر، 1838 لیتر، 1838 لیتر، 12214 لیتر، 3780 لیتر، 5556 لیتر، 5368 لیتر، 106 لیتر، 246 لیتر، 101 لیتر، 158 لیتر، 10743 لیتر، 5 لیتر، 46478 لیتر، 5286 لیتر، 9866 لیتر، 32594 لیتر، 78 لیتر، 32594 لیتر، 79 لیتر، 100 لیتر 19350L, 230L, 78449L, 78414L, 78413L, 78413L, 6260L, 6260L, 209L, 2552L, 522L, 178L, 140L, 6L, 1726L, 1725 132360 لیتر، 132252 لیتر، 4821 لیتر، 4755 لیتر، 197 لیتر، 567 لیتر، 113 لیتر، 30314 لیتر، 7006 لیتر، 10 لیتر، 30 لیتر، 55281 لیتر،
برازش توزیع های مخلوط و محاسبه خوبی از تناسب؟
92303
من دو تصویر دارم و سعی می کنم نابرابری بین آنها را با استفاده از مجموع فواصل مجذور محاسبه کنم و نابرابری را در فضای سه بعدی بازسازی کنم. آیا باید قبل از محاسبه نابرابری تصویر را اصلاح کنم؟ در زیر مراحلی وجود دارد که من تاکنون برای محاسبه نقشه نابرابری انجام داده‌ام (من با اصلاح و بدون اصلاح امتحان کردم اما هر دو ماتریس نابرابری صفرها را برمی‌گردانند). برای هر پیکسل در تصویر سمت چپ X، پیکسل های همان ردیف را در تصویر سمت راست بگیرید. ردیف در تصویر سمت راست را از ویندوز جدا کنید. برای هر پنجره، نابرابری هر پیکسل در آن پنجره را با X محاسبه کنید پیکسلی را در پنجره ای که حداقل SSD را با X می دهد انتخاب کنید پیکسلی را با حداقل اختلاف بین تمام پنجره ها به عنوان بهترین تطابق با X پیدا کنید آیا آن را به درستی انجام می دهم؟ چگونه می توانم بازسازی سه بعدی نابرابری را به صورت نمودار پراکندگی در متلب تجسم کنم؟
چگونه تفاوت دو تصویر را در متلب محاسبه کنیم؟
78918
آیا $E(E(Y|A) | B) = E(Y|A,B)$؟ چگونه این را نشان می دهد؟ به طور شهودی، منطقی است که شرطی کردن در یک زمان به همان چیزی منجر شود که شرطی کردن یکباره.
نشان می دهد که E(E(Y|A))|B) = E(Y|A,B)؟
93901
من می خواهم در مورد منحنی های گیرنده-اپراتور-ویژگی ها و معیارها بیاموزم. من صفحات وب آنلاین را با برخی اصول اولیه مطالعه کرده ام و از MATLAB داخلی برای ایجاد نمودارهای ROC استفاده کرده ام. در مورد مبالغ مساحت به من می گوید. من همچنین به ماژول JMP برای طبقه بندی و برای نمودار لجستیک که نمودارهای ROC را می سازد نگاه کرده ام. قانون اینجا چیست؟ یک کتاب درسی عالی با اصول عمیق و تئوری کار شده چیست؟ MATLAB و R ترجیح داده می شوند. چه کسی میدان را ساخت؟ چه زمانی؟ چرا؟ من به دنبال مراجع خوب هستم. با تشکر
من می خواهم در مورد منحنی ROC بیاموزم -- کتاب درسی متعارف چیست؟
8800
من با استفاده از برنامه آزمایش می کنم. 5000 مجموعه داده برچسب‌گذاری شده. من الگوریتم ML نظارت شده متفاوتی را برای ارزیابی نتایج امتحان می‌کنم. اندازه برداری با برچسب‌ها 13 است (در مجموع 12 ویژگی + 1 برچسب) و من 15 بردار از کلاس گل برچسب‌گذاری شده دارم. آزمایش‌ها شامل تمام مجموعه داده‌ها با استفاده از اعتبارسنجی متقابل 10k است. همه ویژگی ها پیوسته هستند. 1 آزمایش با استفاده از ویژگی‌های «خالص» همه مجموعه داده‌ها. 2 آزمایش با استفاده از تنها یک ویژگی (از 12) تغییر کلاس گل. من ساده بیس، C4.5 را اعمال کردم، اما همه نتایج 1 و 2 یکسان است، با این حال رگرسیون لجستیک نتایج متفاوتی می دهد و بیشتر طول می کشد. 1- با توجه به بهترین تجربیات شما، چه چیزی باعث تفاوت بین ساده لوح، c.45 و رگرسیون لجستیک می شود، چگونه باید نتایج را ارزیابی کنم تا مخاطبان راضی شوند؟ 2- اگر عملکرد یک معیار مهم است و برای سیستم های IDS از طبقه بندی کننده استفاده می شود، کدام الگوریتم ML را پیشنهاد می کنید؟ **ویرایش: توضیحات بیشتر برای روشن شدن سوال:** ما 8 برچسب کلاس مختلف داریم. گل + 7 برچسب دیگر. در آزمایش 2 ما تنها یک ویژگی کلاس گل را از 12 ویژگی تغییر می دهیم (15 کلاس با برچسب گل ثابت می ماند اما تنها یک ویژگی تغییر می کند.). همه مجموعه داده های دیگر یکسان می مانند. بنابراین ما آزمایش‌هایی را با استفاده از رگرسیون لجستیک، خلیج‌های ساده و c4.5 به طور جداگانه با دو مجموعه داده متفاوت انجام می‌دهیم. (1- با 5000 مجموعه داده، 2- مجموعه داده های دیگر در یک ویژگی کلاس گل تفاوت تغییر دارند، همه کلاس های دیگر ثابت می مانند). مقایسه: ما نتایج وضعیت شماره 1 و 2 را داریم، در C4.5 و بایزهای ساده، چیزی تغییر نمی کند، FP و FN. اما رگرسیون لجستیک نتایج جالبی می دهد. 12 0.4 0.4 0.5 2.333 434 12.2 10 2 10 12 12 گل ...................................... ...... گل .......................................... ...................................... گل (مجموع 15 کلاس گل. ) // یک ویژگی تغییر ویژگی دوم. 12 0.8 0.4 0.5 2.333 434 12.2 10 2 10 12 12 گل ...................................... ...... گل .......................................... ...................................... گل (مجموع 15 کلاس گل، ویژگی دوم همه تغییر کردند.) > برای مثال می‌توانم نظر بدهم: چون C4.5 از حداکثر > تعداد کلاس در گره‌های برگ استفاده می‌کند، تغییر یک ویژگی در کلاس گل > خواهد بود. نه تاثیر/تغییر کلاس های گره برگ با این حال، رگرسیون لجستیک > استفاده می کند ... بنابراین ما این نوع تفاوت ها را مشاهده می کنیم.؟؟؟
تفسیر تغییر ویژگی یک در طبقه بندی کننده نظارت شده
61190
آیا تفاوتی بین مدل انتخاب باینری و مشکل طبقه بندی وجود دارد؟ به عنوان مثال، مدل انتخاب دودویی ممکن است از رگرسیون لجستیک استفاده کند، که همچنین یک رویکرد پرکاربرد در طبقه بندی است.
مدل انتخاب باینری و طبقه بندی
32303
من علاقه مند به مقایسه میزان تنوع در 8 نمونه مختلف (هر یک از یک جمعیت متفاوت) هستم. من می دانم که این کار را می توان با چندین روش با داده های نسبت انجام داد: F-test برابری واریانس، آزمون Levene، و غیره. با این حال، داده های من دایره ای/جهتی است... من تحقیقاتی انجام داده ام و یک آزمون را در بسته CircStats در R - تست واتسون برای همگنی. یکی از کاستی ها این است که این تست فقط دو نمونه را با هم مقایسه می کند، به این معنی که من باید چندین مقایسه را روی 8 نمونه خود انجام دهم (و سپس از اصلاح Bonferonni استفاده کنم). سؤالات من این است: 1) آیا آزمون بهتری وجود دارد که بتوانم از آن استفاده کنم؟ 2) اگر نه، مفروضات آزمون واتسون چیست؟ آیا پارامتریک/غیر پارامتریک است؟ 3) با چه الگوریتمی می توانم این تست را انجام دهم؟ داده‌های من در Matlab هستند و ترجیح می‌دهم برای اجرای آزمایشم مجبور نباشم آن‌ها را به R منتقل کنم. من ترجیح می دهم فقط تابع خودم را بنویسم.
چگونه برابری واریانس ها را با داده های دایره ای آزمایش کنیم
73089
من از آموزش معروف جفت های ادغام شده فقط برای سهام های مختلف برای یکپارچه سازی استفاده می کنم. adf.test یک هم انباشتگی کامل را به دست می دهد، که به نظر من باید نادرست باشد. دلیلش این است: وقتی adf.test() را روی مجموع یک سری تصادفی اجرا می‌کنم، طرح به این شکل است:![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/KqWda.png) و خروجی adf.test زیر را به دست می دهد: داده های آزمایش دیکی-فولر افزوده شده: sp Dickey-Fuller = -2.8333، ترتیب تاخیر = 4، **p-value = 0.2314** فرضیه جایگزین: ثابت در اینجا یک گسترش است که من ساختم، توجه کنید که چگونه به نظر می رسد شبیه به پیاده روی تصادفی است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ Q9FZs.png) که خروجی adf.test() زیر را به دست می دهد: داده های تست Dickey-Fuller Augmented: sprd3 Dickey-Fuller = 3.719، ترتیب تاخیر = 7، **p-value = 0.99** فرضیه جایگزین: ثابت پیام هشدار: در adf.test(sprd3): p-value بیشتر از p-value چاپ شده. چرا مقدار p بین این دو مورد بسیار متفاوت است؟ من به سختی می توانم باور کنم که گسترشی که در نمودار ایجاد کردم کاملاً ثابت است... با تشکر.
تست ADF در R که هم انباشتگی کامل را به دست می دهد. این چگونه ممکن است؟
55900
می‌خواهم مطالعه‌ای انجام دهم تا بررسی کنم که آیا بین اعتماد به نفس و رضایت دانشجویان پرستاری و شهودی آن‌ها همبستگی وجود دارد یا خیر. من دو ابزار دارم، پرسشنامه رضایت و اعتماد به نفس دانشجویی در یادگیری، یک ابزار 13 سوالی است که از مقیاس پنج نقطه ای برای سنجش اعتماد به نفس و رضایت در دانشجویان پرستاری و پرسشنامه شهودی میلر که یک ابزار 18 سوالی است استفاده می کند. مقیاس شش نقطه ای از چه آزمون آماری می توانم استفاده کنم تا ببینم آیا ارتباطی بین این دو وجود دارد؟ ویرایش: من به سمت همبستگی مرتبه رتبه اسپیرمن متمایل هستم، لطفاً کسی می تواند تأیید کند که این مناسب است؟
برای اینکه ببینم بین دو ابزار مختلف همبستگی وجود دارد به چه آزمون آماری نیاز دارم؟
8808
هنگام کار با توزیع یکنواخت در بازه $[-\theta,\theta]$ چگونه عبارت بازه اطمینان بیزی $100(1-\alpha)$% را استخراج می کنید؟
استخراج فاصله اطمینان بیزی
111432
من برخی از داده های درصدی به دست آمده از تجزیه و تحلیل حضور و عدم حضور دانه در خوشه های گندمی دارم که تحت دو تیمار (کنترل و تنش گرمایی) قرار گرفته اند. به عنوان مثال، داده ها ممکن است مانند 10٪، 15٪، 20٪ برای استرس و 80٪، 85٪، 90٪ برای کنترل باشد. من می‌دانم (نه حداقل از پیوند زیر) که باید داده‌هایم را به arcsin تبدیل کنم و سپس آن‌ها را مانند هر مجموعه داده دیگری تجزیه و تحلیل کنم. این درست است، اینطور نیست؟ http://archive.bio.ed.ac.uk/jdeacon/statistics/tress4.html#تبدیل سوال اصلی من این است که وقتی این داده ها را تغییر دادم و بیان کردم که در روش خود این کار را انجام داده ام (مثلاً همه درصدهای دیگر تحت تبدیل زاویه ای قرار گرفت و این داده ها به همراه بقیه داده ها با روش های آماری پارامتریک مورد تجزیه و تحلیل قرار گرفتند، آیا همچنان به داده های نمودارها و جداول به عنوان درصد اشاره می کنم؟ به عنوان مثال، آیا 8٪ پس از تبدیل شدن، تبدیل به کمان 16.48 می شود یا هنوز هم می توانم آن را به عنوان 16.48٪ توصیف کنم و در محور y یک نمودار داشته باشم؟
تغییر درصد (و نمایش نهایی)
25666
من درخت تصمیم را بر اساس راسل و نورویگ AIMA (در ویرایش سوم، ص 704) اجرا کردم. ## فرض فرمول داده شده برای محاسبه آنتروپی برای مواردی که همه مثال‌های مثبت یا همه موارد منفی را دارید، کار نمی‌کند. برای نتایج باینری: $$B(q) = -(q * lg_2(q)+(1-q) * lg_2(1-q))$$ $$q=\frac{p}{p+n}$ $ > 'p' نشان دهنده تعداد مثبت، 'n' منفی است بنابراین من اصلاحی انجام دادم که در چنین مواردی چیزی محاسبه نمی شود و به سادگی صفر (ترتیب کل) برگردانده می شود. ## مشکل تناسب دقیق فرض کنید اطلاعاتی در مورد جمعیت در ایالات متحده دارید و می‌خواهید همه افرادی که در بوستون زندگی می‌کنند را فیلتر کنید. با این حال، اگر در ویژگی‌های خود شماره اجتماعی دارید، می‌توانید «بوستون» (یا «نه بوستون») را با دقت نقطه‌ای تعیین کنید. بنابراین وقتی DT بهره را برای هر ویژگی محاسبه می‌کند، وقتی نوبت به عدد اجتماعی می‌رسد، تمام سود ناگهانی حداکثر است، زیرا هر مقدار مشخصه (عدد اجتماعی خاص) نتیجه فوری در مورد مکان می‌دهد. بیایید نگاهی به معادله بیندازیم (من معادله را برای باقیمانده بازنویسی می‌کنم، حداکثر بهره = حداقل باقیمانده): $$ Remainder(A) = \sum_{k=1}^d \frac{p_k+n_k}{p+n}B (\frac{p_k}{p_k+n_k}) $$ > B نشان‌دهنده آنتروپی است، «k» نشان‌دهنده کلاس داده شده (مقدار ویژگی) است، بنابراین، داشتن افراد «n» DT کل جمعیت را به «n» زیرمجموعه تقسیم کرد که هر کدام 1 نفر بودند. این امکان وجود داشت زیرا آنتروپی چنین زیرمجموعه ای صفر است، در نتیجه حاصلضرب نیز صفر است، و مجموع موجود صفر است. من لبه های 'n' از گره ریشه خواهم داشت (یک overkill و overfit همزمان)، اما برای DT بهینه است. ## سوال چگونه می توان از چنین تأثیری جلوگیری کرد؟ AIMA این مشکل را برای من خیلی ساده لمس می کند (p.707). ### حدس من هر ویژگی چند ارزشی به مجموعه ای از ویژگی ها با ارزش باینری تبدیل می شود. به عنوان مثال برای رنگ ها -- تبدیل: color = { قرمز، نارنجی، آبی } به is_red = { true، false } is_orange = { true, false } is_blue = { true, false } به این ترتیب می توانم از مشکل آنتروپی صفر جلوگیری کنم و اگر بالاخره به چنین موقعیتی رسیدم دلیل خوبی خواهد بود. دوم، من می‌توانم در مورد تعداد یال‌ها مطمئن باشم، بنابراین به طور ضمنی این عامل در پیاده‌سازی تعبیه می‌شود (در AIMA این خارج از کنترل است، به معادله بالا نگاه کنید، تعداد یال‌ها -- `k` \-- به عنوان یک مورد استفاده نمی‌شود. عامل). روش دیگر افزودن «k» به عنوان ضریب آنتروپی یال ها است. با این حال من هیچ سرنخی ندارم که چگونه آن را با اطمینان انجام دهم.
چگونه از تناسب دقیق در سطح ورودی در درخت تصمیم جلوگیری کنیم؟
112500
من مقداری رگرسیون را با استفاده از شبکه عصبی انجام می‌دهم (با استفاده از پیاده‌سازی MLP از http://deeplearning.net/tutorial/mlp.html، از خودم استفاده کردم اما قبل از اینکه این یکی را انتخاب کنم همان نتایج را ایجاد کرد)، SGD استاندارد با انتشار پس‌انداز ، نرخ یادگیری 0.01، کاهش وزن 0.01، تابع فعال سازی برای واحدهای پنهان - $\tanh$، واحد خروجی خطی است، 10 000 نمونه آموزشی تابعی که من بهینه سازی می کنم فقط $\cos{(x)}$ است. بنابراین مشکل مربوط به دامنه x است. اگر $[-0.5,0.5]$ باشد، شبکه فقط خط مستقیم را یاد می گیرد: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/9qT2R.png) (این مزخرفات پیش بینی کننده را نادیده بگیرید، خطوط جدا از غیر کاربردی باید شبیه تابع هدف باشند). اگر چیزی جز دامنه را به $[-2, 2]$ تغییر دهم، این را دریافت می کنیم: ![توضیح تصویر را در اینجا وارد کنید. -no](http://i.stack.imgur.com/UJH13.png) چیزی که ما می خواستیم. چرا این اتفاق می افتد؟ من فرض می‌کنم که به دلیل تأثیر واحدهای $tanh$، وزن ورودی آنها به سرعت آنقدر کوچک می‌شود که تمام فعال‌سازی‌ها را کاملاً خطی نشان دهد (با توجه به اینکه $tanh$ این بخش خطی را در حدود صفر دارد). اما چرا؟ به نظر می رسد من چیزی را از دست داده ام.
دامنه تابع به عنوان یک مسئله برای واحد خروجی خطی
92307
من یک مجموعه داده با 1206 نماینده از دو اتاق مختلف (به ترتیب 1998 و 2002) دارم. علاوه بر این، 18 حزب وجود دارد و برخی از نمایندگان در هر دو مجلس (آنهایی که مجدداً انتخاب شدند) حضور دارند. من به رابطه بین نظم و انضباط حزبی (در مقیاس 0 تا 100) و احتمال انتصاب به عنوان رهبر حزب (0 یا 1) علاقه مند هستم، اما همچنین علاقه مند به تخمین های جداگانه برای هر حزب هستم. یکی از همکلاسی‌ها به من گفت که مدل جلوه ترکیبی زیر مناسب است، اما نمی‌دانم با همبستگی درون موضوعات چه کنم: مدل <- glmer(رهبر ~ رشته + (1 + رشته | محفظه: مهمانی)، داده، خانواده = دوجمله ای) ساختار این داده ها چیست و کدام مدل در این مورد (با استفاده از R) مناسب است؟
داده های چند سطحی با همبستگی درون آزمودنی ها
73084
من در حال تجزیه و تحلیل داده ها در مورد رویدادهایی هستم که آنها را به گروه های دسته بندی کرده ام. بنابراین، به عنوان مثال، بگویید من 3000 رویداد دارم که در 5 گروه طبقه بندی شده اند، که آنها را از A تا E می نامیم. من چیزی شبیه رویداد | گروه | زمان --------+-------+------- 1 | A | 0 2 | A | 5 3 | ج | 7 4 | D | 16 ... | | 3000 | B | 6000 اکنون، می‌خواهم ببینم آیا نوعی توالی زمانی طولانی n-رویداد وجود دارد که به طور مکرر ظاهر می‌شود (بالاتر از شانس). بنابراین برای مثال یک الگوی طولانی 4 رویدادی ممکن است این باشد: **A** \- _3 ثانیه_ \- **A** \- _2 ثانیه_ \- **D** \- _5 ثانیه_ \- **C** من این مقاله را پیدا کردم که روش جالبی را پیشنهاد می کند (من در واقع روی قطارهای سنبله کار نمی کنم، اما موضوع به اندازه کافی مشابه است)، اما قبل از اجرای آن می خواهم ببینم آیا کسی از روش ها/آمارهای دیگری که می تواند برای این مورد استفاده شود اطلاع دارد یا خیر. نوعی مشکلات
تجزیه و تحلیل الگوهای زمانی
51284
من سعی می کنم راهی برای پیوند دادن حروف از یک متن به موقعیتی بین 1 تا 255 ایجاد کنم. به عنوان مثال، متن این است: stackexchange من می خواهم هر حرف را به عددی بین 1 و 255 پیوند دهم. همان کلمه باید خروجی یکسانی داشته باشد و کلی باید یکنواخت باشد (اگر ورودی زیادی بدهم، دوست دارم توزیع یکنواختی داشته باشم.) // و البته، من می خواهم که stackexchange همیشه یکسان باشد. خروجی // به عنوان مثال s=>12 || t=>88 || a=>65 || c=>214 || ... || c=>142 ||... می توانید به من کمک کنید؟ با تشکر
توزیع یکنواخت روی 255 از متن
104660
یکی از متغیرهای مستقل برای رگرسیون لاجیت دو جمله ای من سن است. برای اینکه سن را نرمال کنم، با استفاده از گزینه های نردبانی آن را به سن ریشه دوم تبدیل می کنم. چگونه می توانم سن ریشه دوم تبدیل شده را با استفاده از نسبت فرد تفسیر کنم. متشکرم!
تفسیر نسبت شانس داده های تبدیل شده در یک مدل لاجیت
51287
از آنجایی که مدتی است که به ماشین‌های بردار پشتیبان نگاه می‌کردم و اکنون برای پیاده‌سازی مرحله طبقه‌بندی یک مدل svm آموزش دیده مواجه هستم، می‌خواهم بپرسم آیا کسی می‌تواند به نحوه انجام مرحله طبقه‌بندی واقعی اشاره کند (با فرض اینکه من این کار را انجام دهم. دوست دارم آن مرحله را به زبان سطح پایین منتقل کنم) از مدل آموزش دیده Matlab SVM من اینها را دارم: پشتیبانی از بردارها (n * #features) بایاس (1x1) alpha (n * 1) shift (1 x n) scaleFactor (1 x n) سیگما برای rbf (1x1) با توجه به یک نمونه جدید (1 x #ویژگی ها) مرحله طبقه بندی را به صورت زیر انجام می دهم: مقیاس و جابجایی هر ویژگی در نمونه: نمونه = scaleFactor * (نمونه + shift) نگاشت هسته را با RBF با هسته = exp(-1/(2*sigma^2) محاسبه کنید * ||x-y_i||^2) جایی که x نمونه جدید من است و y هر بردار پشتیبان (؟) حالا من متحیر هستم، هر فاصله بین x و y_i در آلفای مناسب ضرب می شود؟ همه این مقادیر جمع می شوند و سپس بایاس اضافه می شود و پس از آن یک علامت () ساده اضافه می شود؟ بنابراین: sign(sum(exp(-1/(2*sigma^2) * ||x-y_i||^2) * alpha_i) + bias) آیا این درست است؟ اگر چنین است، برای صرفه جویی در حافظه در زمان اجرا - آیا راهی برای تقسیم محاسبات هسته به گونه ای وجود دارد که همه بردارهای پشتیبانی در حافظه ذخیره نشوند؟ ممنون از وقتی که گذاشتید :) با سلام
مرحله طبقه بندی SVM در سیستم تعبیه شده با هسته RBF
60827
من یک دیتافریم (از قیمت ها) دارم که در زیر داده شده است dat <- data.frame(company = rep(c(A، B، C، D، index)، هر = 5)، قیمت ها = c(runif(5، 10، 12)، runif(5، 108، 112)، runif(5، 500، 510)، runif(5، 40، 50)، runif(5، 1000، 1020))) من باید بتای شاخص A، B، C و D w.r.t را پیدا کنم. بتای بین دو متغیر X و Y (که در آن Y وابسته است) توسط بتا داده می شود <- coef(lm(Y~ X))[2] هر گونه راهنمایی قابل تقدیر است.
چگونه بتا را پیدا کنیم؟
55907
آیا کسی می تواند به من کمک کند تا پاسخ من به این سؤال را تأیید کنم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/CwlLR.png) پاسخ های من از ردیف اول می آیند، که در آن معنی 0.0002، 0.0011 است. و به ترتیب 0.0005. از آنجایی که همه آنها زیر 5٪ هستند، پس نتیجه گیری باید درست باشد، درست است؟ آیا من به اشتباه به این موضوع فکر می کنم؟
اعتبارسنجی برای سوال ANOVA
60826
فرض کنید $X_1,\ldots,X_n$ یک نمونه تصادفی از تابع چگالی است $$f(x,\theta)=\displaystyle\frac{1}{2\theta}e^{\displaystyle-\frac{|x |}{\theta}}، \quad -\infty<x<\infty\,\text{.}$$ If $T_1=\sum_{i=1}^{n} a_i X_i\، $ و $T_2=\sum_{i=1}^{n} |X_i|$، چگونه $cov(T_1,T_2) را محاسبه کنم دلار؟
چگونه می توانم $cov(T_1,T_2)$ را محاسبه کنم
51280
من سعی دارم خروجی های الگوریتم k-means کد شده توسط من و خروجی های **`kmeans`** را مقایسه کنم. از آنجایی که هدف الگوریتم به حداقل رساندن مجموع مجموع مربع‌های درون خوشه‌ای (WCSS) است، من باید به خروجی ininss **kmeans** و WCSS خود نگاه کنم. چیزی که من نمی توانم بفهمم این است که چقدر باید اجازه دهم که این مقادیر چقدر باید نزدیک باشند تا بتوانم بگویم نزدیک هستند. (می‌دانم که می‌توانم با استفاده از سانتروئیدها نیز تأیید کنم، اما وقتی داده‌ها به خوبی خوشه‌بندی نشده‌اند، مرکزها می‌توانند بسیار متفاوت باشند اما کل WCSS می‌تواند نزدیک باشد، و از این رو من به WCSS نگاه می‌کنم.)
مقایسه خروجی خوشه بندی k-means
59447
من یک سوال در مورد ضرایب مدل های VAR مورد استفاده در داده های منتسب شده چندگانه دارم (عدم خطا در برخی از متغیرها: تا 40٪). به ویژه می خواهم بدانم که ضرایب چگونه با واریانس توضیح داده شده مرتبط هستند. من از خودرگرسیون برداری بر روی داده های چندگانه (m=10) استفاده کرده ام و سپس ضریب تخمین زده شده را با قانون روبین ترکیب کرده ام. با این حال، چیزی که من را گیج می کند این واقعیت است که واریانس انتساب من در رابطه با تخمین ها و واریانس ضرایب بسیار کوچک است، اما تفاوت بین واریانس توضیح داده شده بین مدل ها بسیار زیاد است (17٪ تا 0.04٪). ایده من این است که از آنجایی که بالاترین واریانس انتساب در همه سیستم‌ها ثابت است (حدود یک سوم مقدار واریانس اما 3-4 برابر بیشتر از سایر ضرایب) و این به شدت بر واریانس توضیح‌داده شده تأثیر می‌گذارد. اما این فقط یک حدس است. خیلی خوشحال میشم اگه کسی اینجا کمکم کنه
واریانس انتساب و واریانس توضیح داده شده (در خودرگرسیون برداری)
25660
من باید توزیع های نمونه را با توزیع های نظری مقایسه کنم، که معمولاً با آزمون کای دو انجام می شود. مشکل این است که من توزیع هایی دارم که در آن یک یا چند سلول مقادیر پایینی دارند و در نتیجه آزمون کای دو مقادیر p بسیار کوچک را گزارش می کند. به عنوان مثال، یک فرکانس معمولی مورد انتظار و مشاهده شده [152 2 9] و [140 5 18]، با مقدار p 0.0007 است. بر اساس دانش حوزه، این دو توزیع تفاوت معناداری با هم ندارند. چه آزمایشی را می توان به جای خی دو استفاده کرد، که می تواند سوگیری را که در سلول های با ارزش کوچک رخ می دهد، از بین ببرد؟ **ویرایش: افزودن برخی اطلاعات پس زمینه برای این مشکل.** من تعدادی فرآیند دارم که به عنوان خروجی پارامترهای فنی خاصی را تولید می کنند که به صورت سری زمانی ثبت می شوند. من حدود 4000 مورد از این فرآیندها را دارم که هر کدام حدود 150 سری زمانی از این دست تولید می‌کنند (تعداد سری‌های زمانی یک فرآیند از قانون توان پیروی می‌کند). من می خواهم پیدا کنم که کدام یک از این فرآیندها غیرعادی هستند، یعنی خروجی تولید می کنند که به طور قابل توجهی با سایر فرآیندها متفاوت است. برای انجام این کار، سری‌های زمانی را با استفاده از k-means خوشه‌بندی می‌کنم، و سپس بر اساس خوشه‌ها، توزیع «مورد انتظار» (میانگین در تمام سری‌های زمانی) و توزیع خوشه‌ها را برای هر فرآیند تولید می‌کنم. به عنوان مثال، پس از خوشه بندی، ممکن است 4 خوشه با اندازه های زیر داشته باشم. شماره خوشه | اندازه خوشه ----------------------------- 1 | 100 2 | 200 3 | 300 4 | 400 توزیع خوشه ها در بین فرآیندها ممکن است به شرح زیر باشد | خوشه 1 | خوشه 2 | خوشه 3 | خوشه 4 ----------------------------------------------- ---------- فرآیند 1 | 11 | 19 | 35 | 42 فرآیند 2 | 3 | 10 | 14 | 19 فرآیند 3 | 30 | 8 | 12 | 12 <----ناهنجاری .... در این حالت، فرآیند 1 و فرآیند 2 به اندازه کافی به آنچه انتظار می رود نزدیک هستند، در حالی که فرآیند 3 توزیع متفاوتی با میانگین دارد. من می خواهم یک تست خوب برای اندازه گیری این اختلاف پیدا کنم. (هر پیشنهاد دیگری برای تشخیص ناهنجاری نیز پذیرفته می شود)
مقایسه دو توزیع گسسته (با تعداد سلول های کوچک)
25667
من برای امتحان آماده می شوم، تست نسبت احتمال را خوانده ام، اما آن را نگیرید. مثال 8.2.3 (صفحه 376 در استنتاج آماری Casella and Berg) اجازه دهید ${{x}_{1}}،...{{x}_{n}}$ یک نمونه تصادفی از یک جامعه نمایی با pdf $$f(x|\theta )=\left\\{ \begin{array}{*{35}{l}} {{e}^{-(x-\theta )}} & x\ge \theta \\\ 0 & x<\theta \\\ \end{array} \right.$$ ${{H}_{0}}_{{}}:\theta \ le \theta $ در مقابل ${{H}_{1}}:\theta >{{\theta }_{0}}$ تابع Likelihood است، $$L(\theta |x)=\left\\{ \begin{array}{*{35}{l}} {{e}^{-\Sigma {{x}_{i}}+n\theta }} & \theta \ge {{x}_{( 1)}} \\\ 0 & \theta <{{x}_{(1)}} \\\ \end{array} \right.$$ کتاب می‌گوید: واضح است که $L(\theta |x) $ یک تابع افزایشی است از $\theta$ در $-\infty < \theta \le {{x}_{(1)}}$. (آیا این حتی مهم است؟). بنابراین، مخرج $\lambda(x)$، حداکثر نامحدود $L(\theta|x)$، $$L({{x}_{1}}|x)={{e}^ است. {-\Sigma{{x}_{i}}+n{{x}_{(1)}}}}$$ اگر ${x}_{1}\le{\theta}_{0}$ ، شمارنده از $\lambda(x)$ نیز $L({x}_{(1)}|x)$ است. اما از آنجایی که ما $L(\theta|x)$ را بیش از $\theta\le{\theta}_{0}$ به حداکثر می‌رسانیم، صورت‌گر $\lambda(x)$ $L({\theta}_{ است. 0})$ اگر ${x}_{1}>{\theta}_{0}$. بنابراین، آمار آزمون نسبت درستنمایی $$\lambda (x)=\left\\{ \begin{array}{*{35}{l}} 1 & {{x}_{(1)}}\ge است. {{\theta }_{0}} \\\ {{e}^{-n\left( {{x}_{(1)}}-{{\theta }_{0}} \راست)} } & {{x}_{(1)}}<{{\theta }_{0}} \\\ \end{array} \right.$$ منطقه رد $$\\{x:{{x}_ {(1)}}\ge {{\theta }_{0}}-\frac{\log c}{n}\\}$$ کل مطلب را خواندم، طولانی و خسته کننده بود دنبال کردن، من من کاملا گم شده ام یکی دیگه میتونه اینو توضیح بده؟ شاید با یک مثال اسباب بازی بهتر/ساده؟ من می خواهم این را بفهمم، نه اینکه فقط دنبالش کنم! آیا این یک مفهوم ساده است، من بیش از حد آن را پیچیده می کنم؟
چگونه می توان آزمون نسبت درستنمایی / توان را در آزمون فرضیه محاسبه کرد؟
78430
من سعی می کنم مقدار y خاص مدل رگرسیون برازش را با استفاده از مقدار x خاص پیدا کنم. به عنوان مثال، در مدل رگرسیون چندگانه مانند زیر، > y~ aX+bZ+cW +خطا **من مدل را با داده تطبیق دادم** و نتیجه مدل glm برازش شده را دارم مانند > y = 3.142X+2.94Z+ 4.16W + 2.194 من سعی می کنم وقتی X 2 و X 5 است 'y' را بدست بیاورم. آیا در R ممکن است؟
مقدار y خاص را در رگرسیون چندگانه خطی با استفاده از R تخمین بزنید
105395
مقدار مربع R تنظیم شده خوب برای هر مدل رگرسیون چندگانه چیست یا به آن بستگی دارد؟ اگر بستگی دارد پس شرایط چیست؟
مربع r تنظیم شده خوب
55901
من یک ماتریس 10x10 دارم که از دو متغیر با 10 مارک تشکیل شده است. یک متغیر برند خریداری شده است و دیگری برند در نظر گرفته شده است. ماتریس من یک جدول متقاطع بین این دو را نشان می دهد. من به یک روش مؤثر برای تجسم واضح این داده ها نیاز دارم تا نزدیکی ها شباهت بین دسته ها و فاصله ها را نشان دهد. من یک تجزیه و تحلیل مکاتبات انجام دادم، اما از نمودار تحت تأثیر قرار نگرفتم. آیا تکنیک جایگزینی برای در نظر گرفتن وجود دارد؟
چگونه داده های crosstab را به بهترین شکل نمایش دهیم؟
15522
فرض کنید که $X$ و $Y$ دو i.i.d هستند. متغیرهای تصادفی یکنواخت در بازه $[0,1]$ اجازه دهید $Z=X/Y$، من cdf $Z$ را پیدا می کنم، یعنی $ \Pr(Z\leq z) $. حالا دو راه برای انجام این کار پیدا کردم. یکی پاسخ صحیح مطابق با پی دی اف در اینجا تولید می کند: http://mathworld.wolfram.com/UniformRatioDistribution.html، دیگری پاسخ نمی دهد. چرا روش دوم اشتباه است؟ **روش اول** $\newcommand{\rd}{\mathrm{d}} \Pr(Z\leq z) = \Pr(X/Y\leq z) = \Pr(X\leq zY) = \ int^{1}_{0}\int^{\min(1,zy)}_{0} \rd x \rd y = \int^{1}_{0}\min(1,zy)\ \rd y$ $ = \left\\{ \begin{array}{lr} \int^{1/z}_{0}zy\ \rd y + \int^{1}_{1/z} \rd y& : z > 1\\\ \int^{1}_{0}zy\ \rd y & : z \leq 1 \end{array} \right. $ $ = \left\\{ \begin{array}{lr} 1 - \frac{1}{2z} & : z > 1\\\ \frac{z}{2} & : z \leq 1 \end {آرایه} \راست. $ این درست به نظر می رسد. **روش دوم** $\Pr(X/Y\leq z) = \Pr(X \leq zY\ |\ zY \geq 1)\Pr(zY \geq 1) + \Pr(X \leq zY\ |\ zY < 1)\Pr(zY < 1) $ با احتمال کل $ = \Pr(X \leq zY\ |\ zY \geq 1)\Pr(Y \geq 1/z) + \Pr(X \leq zY\ |\ zY < 1)\Pr(Y < 1/z)$ با گرفتن $z>1$ $ (1) (1-\frac{1}) {z}) + (\int^{1/z}_{0}\int^{zy}_{0} \rd x \rd y)(\frac{1}{z}) = 1-\frac{1}{z} + (\int^{1/z}_{0}zy\ \rd y)(\frac{1}{z}) = 1-\frac{1}{z } + \frac{1}{2z^{2}}$ این قبلاً متفاوت است. چرا این اشتباه است؟ با تشکر
توزیع نسبت لباس فرم: چه اشکالی دارد؟
61195
این یک سوال تا حدی تصادفی است: آیا می توان خطاهای استاندارد خوشه ای را برای رگرسیون های تفاوت اول پیدا کرد؟ (چه از لحاظ نظری و چه عملی در R یا Stata). با تشکر
خطاهای استاندارد خوشه ای برای رگرسیون های اول تفاوت
60828
من به دنبال برخی اطلاعات در مورد روابط منحنی (به طور دقیق تابع درجه دوم) در رگرسیون لجستیک آنلاین بودم، و واقعاً نتوانستم چیز زیادی در مورد آن پیدا کنم. من علاقه مند هستم که آیا می توان این کار را انجام داد، و اگر چنین است، چگونه می توانم آن را در SPSS انجام دهم؟ آیا فقط متغیری را که می خواهم برای یک رابطه منحنی آزمایش کنم مربع می کنم و مانند هر متغیر دیگری به مدل اضافه می کنم؟ یا راه خاصی برای انجام آن وجود دارد؟
چگونه یک رابطه منحنی را در یک رگرسیون لجستیک آزمایش کنیم
106289
من در حال یادگیری نمونه گیری تصادفی طبقه ای هستم و برای حل این مشکل مشکل دارم. جمعیت شش واحد زیر را در نظر بگیرید: x1=1، x2=2، x3=2، x4=4 x5=4 x6=5 فرض کنید واحدهای 2 3 4 و 5 در یک طبقه و واحدهای 1 و 6 در یک طبقه دوم هستند. . یک نمونه تصادفی ساده 2 واحدی از طبقه اول و یک نمونه تصادفی ساده 1 واحدی از طبقه دوم. توزیع دقیق برآوردگر طبقه بندی شده برای میانگین جمعیت چگونه است؟ بنابراین، میانگین احتمالی نمونه از طبقه اول 2، 3 یا 4 و از طبقه دوم 1 یا 5 است. میانگین کل نمونه 2/3 * 2 + 1/3 * 1 = 5/3 2/2 * 2 + 1 است. /3 * 1 = 7/3 2/3 * 4 + 1/3 * 1 = 3 2/3 * 2 + 1/3 * 5 = 3 2/3 * 3 + 1/3 * 5 = 11/3 2/3 * 4 + 1/3 * 5 = 13/3 و هر احتمال '1/12، 4/12، 1/12، 1/12 است. ، 4/12، 1/12`. حالا برای یافتن توزیع دقیق چه باید بکنم؟
نمونه گیری تصادفی طبقه ای و توزیع آن
32309
تاس‌های x$ را پرتاب کنید، که هر کدام دارای ضلع‌های $z$ هستند، بالاترین مقادیر $y$ را در حالت قرار دهید و مجموع $s$ آنها را پیدا کنید. در بازی‌های نقش‌آفرینی، به این کار «مکانیک تاس ریختن و نگه‌داری» می‌گویند و با علامت «$x$d$z$k$y$» یا شاید فقط «$x$k$y$» اگر تعداد اضلاع $z$ باشد. درک می شود. فرض کنید (سرخ) $S$ متغیر تصادفی برای مجموع بالاترین تاس $y$ باشد و اجازه دهید (حروف کوچک) $s$ مجموع مشاهده شده $y$ بالاترین تاس باشد. یک فرمول ترکیبی برای تابع جرم احتمالی $f$ برای این توزیع توسط کاربری به نام تکنولوژیست در PhysicsForums استخراج شد: مسئله گیج کننده پرتاب X تاس، انتخاب Y بالاترین است. pmf $ f(s) = $$\sum_{r=1}^{z}\sum_{i=0}^{x-y}\sum_{j=x-y-i+1}^{x-i}{ x \انتخاب i,j,x-i-j}(r-1)^i N(s+i+j-x-ry؛ x-i-j, z-r-1) $$ که در آن $N$ تعداد راه‌های توپ های غیر قابل تشخیص $B$ را بین سلول های $C$ توزیع کنید به طوری که هر سلول بین 0 تا $D$ توپ داشته باشد، یعنی $$ N(B;C,D) = \sum_{k=0}^{\lطبقه B/ (D+1) \rfloor} (-1)^k \binom{C}{k} \binom{B-k(D+1) + C-1}{C-1} $$ شهود من این است که ممکن است راه ساده تری برای بیان این مکانیک با استفاده از آمار سفارش وجود داشته باشد. اجازه دهید $Z_1,Z_2,\ldots,Z_x$ متغیرهای تصادفی نامرتب برای پرتاب‌های تاس $x$ iid باشند که هر کدام توزیع‌های یکنواخت گسسته روی مقادیر عدد صحیح $\\{1, 2, \ldots, z \\} هستند. $. و اجازه دهید $1 \leq Z_{1:x} \leq Z_{2:x} \leq \ldots \leq Z_{x:x} \leq z$ آمار سفارش باشد، به‌طور مثال، $Z_{x: x}$ r.v است. نشان دهنده حداکثر ریختن تاس $x$. در حمایت از شهود من، می توان نشان داد که $ E(S) = E(Z_{(x-y+1):x} + Z_{(x-y+2):x} + \ldots + Z_{ (x-1):x} + Z_{x:x}) $ برای مثال، برای توزیع 4d6k3، میانگین 15869/1296 (یا 12.2446) است. و این را می توان (به راحتی در Mathematica) با استفاده از فرمول ترکیبی فن شناسان یا با استفاده از مقدار مورد انتظار از مجموع سه آمار بالاترین مرتبه نشان داده شده در بالا یا با برشمردن همه نتایج یا با شبیه سازی تعداد زیادی پرتاب تاس تأیید کرد. با این حال، $ S \not= Z_{(x-y+1):x} + Z_{(x-y+2):x} + \ldots + Z_{(x-1):x} + Z_{x :x} $ ( اشتباه به راحتی با گرفتن اختلاط pmfs از آمار مرتبه دوم تا چهارم محاسبه می شود، زیرا آمار سفارش RV های مستقل نیستند. و این منجر به یک سوال بعدی می شود: در موردی مانند این، با توجه به اینکه آمار سفارش RV مستقل نیست، چگونه پیچیدگی pmfs آمار سفارش در RHS را پیدا می کنید؟ من به روش بهتری برای بیان این سوال فکر خواهم کرد و آن را جداگانه ارسال خواهم کرد. بازم ممنون سوال این است که آیا شهود من درست است: **آیا راهی برای بیان pmf $f$ از $S$ بر حسب pmfs آمار سفارش وجود دارد؟ و اگر نه، شهود من چه اشکالی دارد که باید راه آسانی برای محاسبه pmf $f$ از روی pmf آمار سفارش وجود داشته باشد؟** BTW، این تکلیف نیست. من فقط یک نقش آفرین هستم، نه آماردان، و سعی می کنم کنجکاوی خود را برآورده کنم که آیا این مکانیک تاس را می توان با استفاده از آمار سفارش به سادگی تحلیل و بیان کرد. با تشکر
ارتباط آمار سفارش با مکانیک تاس انداختن و نگه داشتن؟
94350
من در حال انجام یک مطالعه شخصی در مورد توزیع نمایی هستم و به یک نمایی روی متن خود اشاره کردم که به این معناست: CDF توزیع نمایی $$ F(x) = 1 - e^{-λx} , $$ PDF توزیع نمایی $$ f( x) = λe^{-(λx)} . $$ با این حال، من فکر می کردم که در چه شرایطی از چه چیزی استفاده کنم؟ با توجه به آنچه که من درک می کنم، اگر من سعی می کردم زمان بین رویدادهای متوالی را در یک بازه زمانی مشخص پیدا کنم، ممکن است از CDF استفاده کنم. با این حال، من نمی توانم در مورد PDF. قدردان هر راهنمایی لطفا.
زمان استفاده از CDF و PDF برای توزیع نمایی
105732
یک متغیر نتیجه را در نظر بگیرید که دارای چهار دسته بندی منظم و واضح است. به نظر می رسد این استفاده خوبی از رگرسیون لجستیک ترتیبی برای تخمین نسبت شانس برای تأثیر متغیرهای کمکی بر حرکت یک موضوع یک «پله» از نردبان است. اما موضوعات به طور خاص به طور مساوی در سراسر دسته ها پراکنده شده اند، بنابراین یک سوال مطرح می شود: * آیا فرض نادر نتیجه برای یک OR برای تقریب ریسک نسبی هنوز در رگرسیون لجستیک ترتیبی صادق است؟ * اگر چنین است، آیا می‌توان تابع پیوند را برای برآورد مستقیم یک ریسک نسبی تغییر داد و آیا هنوز هم می‌توان از چیزی مانند تقریب پواسون با خطاهای استاندارد قوی برای مقابله با مسائل همگرایی در چنین موردی استفاده کرد؟
رگرسیون لجستیک ترتیبی با تابع پیوند متفاوت
26485
معمولا $r$ به Fisher $z$ تبدیل می شود تا تفاوت بین دو مقدار $r$ را آزمایش کند. اما وقتی قرار است متاآنالیز انجام شود، چرا باید دست به چنین اقدامی بزنیم؟ آیا خطای اندازه گیری یا خطای غیر نمونه برداری درست است و چرا باید فرض کنیم که $r$ برآورد ناقصی از همبستگی جمعیت است؟
آیا تبدیل r به فیشر z برای یک متاآنالیز مفید است؟
79810
من 2 متغیر دسته بندی دارم که می خواهم آنها را به یک متغیر با عنوان مصرف ناسالم اضافه کنم: > مصرف غذای سریع (1=هرگز، 2=یک بار در ماه، 3= 1-2 روز در هفته، 4= 3-4/هفته، > 5 = 4-5 در هفته، 6 = هر روز)، > > مصرف میان وعده (1=هرگز، 2=یک بار در ماه، 3= کمتر از یک بار در هفته، 4= 1-2 > روز/هفته، 5=3-4/هفته، 6=4-5/هفته، 7=هر روز). من می دانم که اگر حداکثر فرکانس بین این دو را انجام دهم ممکن است بهترین راه حل نباشد؟ من به دفعات مصرف علاقه دارم. بهترین راه برای جمع آوری اینها چه خواهد بود؟ متشکرم
تجمیع دو متغیر طبقه بندی شده
105392
من در حال تلاش برای کشف اشتقاق قانون به روز رسانی اقلیدسی برای NMF در صفحه 2 از http://sig.umd.edu/publications/Tjoa_ICASSP2_201003.pdf هستم، اما به نظر نمی رسد که آن را به نتیجه برسانم. نتیجه نهایی که آنها به دست می آورند این است: $$ \frac{\partial}{\partial \textbf{S}} d_{EUC}(\textbf{Q}, \textbf{S}\textbf{S}^{T} ) \propto \textbf{S}\textbf{S}^{T}\textbf{S} - \textbf{Q}\textbf{S} $$ کار من این بود که اجازه بدهم $\textbf{X} = \textbf{Q} - \textbf{S}\textbf{S}^{T}$ و بنابراین $$ \frac{\partial \textbf{X}} {\partial \textbf{S}} = -(\textbf{S}^T + \textbf{S}) $$ بنابراین با استفاده از قانون زنجیره $$ \frac{\partial}{\partial \textbf{S}} d_{EUC}(\textbf{Q}, \textbf{S}\textbf{S}^{T}) = \frac{\partial}{\ جزئی \textbf{S}} \text{tr}((\textbf{Q} - \textbf{S}\textbf{S}^T)^T(\textbf{Q} - \textbf{S}\textbf{S}^T)) = \frac{\partial}{\partial \textbf{X }} \cdot \frac{\partial \textbf{X}}{\partial \textbf{S}} \text{tr}(\textbf{X}^T \textbf{X}) $$ و از آنجایی که $\frac{\partial}{\partial \textbf{X}}\text{tr}(\textbf{X} ^T \textbf{X}) = 2\textbf{X} $ این به: $$ \frac{\partial}{\partial \textbf{S}} کاهش می‌یابد d_{EUC}(\textbf{Q}، \textbf{S}\textbf{S}^{T}) \propto (\textbf{S}^T + \textbf{S})(\textbf{S}\ textbf{S}^T-\textbf{Q}) $$ که به وضوح اشتباه است. من خیلی مطمئن نیستم که کجا همه چیز خراب می شود، فکر می کنم احتمالاً ریاضیات بسیار بحث انگیزی در آن وجود دارد. اگر کسی بتواند مرا در مسیر درست هدایت کند بسیار سپاسگزار خواهم بود!
کمک به قانون به روز رسانی اقلیدسی
25599
مشخصات رگرسیون این است: $y=\delta_{1}D_{1}+\delta_{2}D_{2}+\delta_{3}D_{3}+\beta_{1}D_{1} \cdot X+ \beta_{2}D_{2} \cdot X+\beta_{3}D_{3} \cdot X+\epsilon$ که در آن $D_{i}$ نشان می‌دهد ساختگی برای هر یک از سه گروه، تعامل $D_{i} \cdot X$ بین $D_{i}$ و متغیر مستقل $X$. هر گروه حجم نمونه متفاوتی دارد. تعداد نمونه های گروه 1 بسیار بیشتر از گروه 2 و گروه 2 بیشتر از گروه 3 است. اگر بتوانم برخی از این گروه ها را بگنجانم، مشکل کوچک بودن حجم نمونه در گروه 2 و 3 را تا حدودی برطرف خواهم کرد. بنابراین می‌خواهم $\hat{\beta_{1}}=\hat{\beta_{2}}=\hat{\beta_{3}}$ را آزمایش کنم. $\hat{\beta_{i}}$ ضریب تخمینی $D_{i} \cdot X$ است. پس از آزمون، من برای گروه هایی که ضرایب متفاوتی را نشان نمی دهند، اصطلاحات تعامل را ترکیب می کنم. سؤالات عبارتند از: 1. آیا باید از آزمون مشترک $\hat{\beta_{1}}=\hat{\beta_{2}}=\hat{\beta_{3}}$ استفاده کنم؟ اگر این آزمون را نتوان رد کرد به عنوان مثال. سطح 5%، من گروه 1، 2 و 3 را وارد خواهم کرد. درست است؟ 2. اگر بخواهم از تست مشترک استفاده کنم، چون گروه 2 و 3 نمونه های بسیار کمی دارند، $\hat{\beta_{2}}$ و $\hat{\beta_{3}}$ ممکن است حتی با داشتن علامت اشتباه ناچیز باشند ( منظورم این است که آنها باید مثبت باشند، اما برآوردها منفی هستند.) آیا استفاده از آزمایش مشترک $\hat{\beta_{1}}=\hat{\beta_{2}}=\hat{\beta_{3} درست است }$ اینجا؟ 3. یا باید از تست های زوجی استفاده کنم؟ اگر از تست‌های زوجی برای پیدا کردن اینکه $\hat{\beta_{1}}=\hat{\beta_{2}}$ و $\hat{\beta_{2}}=\hat{\beta_{3}} استفاده کنم $ را نمی توان رد کرد، اما $\hat{\beta_{1}}=\hat{\beta_{3}}$ رد شد، چگونه این گروه ها را ترکیب کنیم؟
چگونه می توان گروه های نمونه را ترکیب کرد؟
25591
من ANOVA یک طرفه Kruskal-Wallis را بر اساس رتبه بندی بر روی پنج گروه داده با استفاده از نرم افزار Dataplot انجام دادم. نرم افزار پیوندها را تصحیح می کند و از رویه Conover برای انجام مقایسه های چندگانه به صورت زوجی استفاده می کند. نتیجه آزمون $H=5.62$ و $p=.229$ است، بنابراین نتایج قابل توجه نیستند ($p$ کمتر از $.05$ نیست). با این حال، مقایسه‌های چندگانه زوجی نشان می‌دهد که داده‌های گروه 1 به طور قابل‌توجهی (0.05$p<) با داده‌های گروه 2 متفاوت است. من گزارش می دهم که تفاوت معنی داری در پنج گروه وجود ندارد (زیرا $p=.229$). سوال من این است: من از نمودارهای جعبه برای نمایش گرافیکی نتایج استفاده می کنم. آیا باید نشان دهم که داده های گروه 1 و داده های گروه 2 به طور قابل توجهی با هم تفاوت دارند حتی اگر آزمون H می گوید تفاوت معنی داری در پنج گروه داده وجود ندارد؟
اهمیت گزارش در آزمون کروسکال والیس
63848
مدل من یک متغیر وابسته دو جمله ای با فضای ویژگی غنی از 20000 متغیر مستقل را پیش بینی می کند. من از رگرسیون لجستیک جریمه شده از بسته glmnet استفاده می کنم که برای نوع مجموعه داده ای که دارم کار می کند. من از اعتبارسنجی متقاطع 10 برابری استفاده می کنم و خطای اعتبارسنجی متقاطع فقط 2.4٪ است. به من گفته شد که با چنین خطای اعتبارسنجی متقاطع کوچک (به عبارت دیگر دقت بسیار بالای 97.6٪) احتمال زیادی وجود دارد که مدل من بیش از حد مناسب باشد. آیا حقیقت دارد؟ اگر بله، پس یک رویکرد جایگزین برای این چیست؟ در اینجا کدی وجود دارد که من از آن استفاده می کنم: data library('glmnet') <- read.csv('datafile.csv', header=T) mat = as.matrix(data) X = mat[,1:ncol(mat )-1] y = mat[,ncol(mat)] fit <- cv.glmnet(X,y, family=binomial, type.measure = class) betacoeff = as.matrix(fit$glmnet.fit$beta[,ncol(fit$glmnet.fit$beta)])
آیا در رویکرد مدل‌سازی من با وجود وایداسیون متقابل، بیش از حد برازش وجود دارد؟
25593
من می‌خواهم نقاط داده‌ای را با ضرایب رگرسیون داده شده ایجاد کنم، جایی که برخی از متغیرها ممکن است گسسته و برخی پیوسته باشند، و من هر دو رگرسیون مستقیم و معکوس را انجام می‌دهم. برای مثال، من می‌خواهم نقاط داده‌ای متشکل از سه‌گانه $(x,y,z)$ تولید کنم که در آن $x$ یا 0 یا 1 است و $y$ و $z$ واقعی هستند، به‌طوری که وقتی یک (خطی) پسرفت می‌کند. $z$ روی دو متغیر دیگر ($z_i=\alpha x_i+\beta y_i+\epsilon_i$)، من برخی از ضرایب رگرسیون داده شده ($\alpha$ و $\beta$). به طور همزمان، من می خواهم ضرایب را زمانی که یکی y روی دو متغیر دیگر رگرسیون می کند، مشخص کنم. (به عنوان یک عارضه اضافه، من همچنین می خواهم ضرایب رگرسیون $z$ و $y$ را مشروط به مقادیر مختلف $x$ مشخص کنم.) طبیعتاً به دلیل این واقعیت است که من می خواهم کنترل را کنترل کنم، مشکل به وجود می آید. هر دوی این رگرسیون ها به طور همزمان. چگونه می توانم این کار را به طور سیستماتیک انجام دهم؟
تولید داده با ضرایب رگرسیون داده شده
97268
اجازه دهید $X$ هر توزیعی با میانگین تعریف شده، $\mu$، و انحراف استاندارد، $\sigma$ باشد. قضیه حد مرکزی می گوید که $$ \sqrt{n}\frac{\bar{X} - \mu}{\sigma} $$ در توزیع به یک توزیع نرمال استاندارد همگرا می شود. اگر $\sigma$ را با نمونه انحراف استاندارد $S$ جایگزین کنیم، آیا قضیه ای وجود دارد که بیان کند $$ \sqrt{n}\frac{\bar{X} - \mu}{S} $$ در توزیع به همگرا می شود یک توزیع t؟ از آنجایی که برای $n$ بزرگ، یک توزیع t به یک نرمال نزدیک می شود، این قضیه، در صورت وجود، ممکن است بیان کند که حد، یک توزیع نرمال استاندارد است. از این رو، به نظر من می‌رسد که توزیع‌های t خیلی مفید نیستند - فقط زمانی مفید هستند که X$$ تقریباً عادی باشد. آیا این مورد است؟ اگر ممکن است، آیا زمانی که $\sigma$ با $S$ جایگزین می‌شود، به منابعی اشاره می‌کنید که حاوی اثبات این CLT باشد؟ چنین مرجعی ترجیحاً می تواند از مفاهیم نظریه اندازه گیری استفاده کند. اما در این مرحله هر چیزی برای من عالی خواهد بود.
آیا قضیه ای وجود دارد که بگوید $\sqrt{n}\frac{\bar{X} - \mu}{S}$ در توزیع به یک نرمال همگرا می شود زیرا $n$ به بی نهایت می رود؟
107925
این مدتی است که من را آزار می دهد و به نظر می رسد نمی توانم پاسخی فراتر از افکار مبهم در مورد توزیع پواسون به دست بیاورم. من فکر می کنم این یک مشکل ساده است و من یک چیز واضح را از دست داده ام. هر گونه فکری قدردانی می شود، به ویژه در مورد قطعه های R :) آزمایش کریس: 2 آزمایش تکراری از هر یک از 50 بافت. در 100 نمونه، یک رویداد باینری (0،1) را فراخوانی کنید (بدون استفاده از بافت مبدا؛ من 1 نتیجه را موفقیت بنام کنوانسیون آزمایشی برنولی). سپس بافت ها را برای تطابق نمره دهید (اگر هر دو تکرار موفقیت آمیز باشند 2، اگر فقط یک تکرار، 0 در غیر این صورت). اگر آزمون کار می‌کند، با توجه به تعداد کل موفقیت‌های S، انتظار داریم اعداد غیر تصادفی همخوانی = 2 برای بافت‌ها (یعنی اثر باید تکرار شود). چگونه می‌توانم توزیع (0،1،2) را در _بافت____ یا شاید نسبت (1،2) _بافت___ از انتظار منحرف شود؟ با تشکر
تست تجمیع رویدادها/موفقیت های باینری (دوجمله ای/glm??)
26486
من از پاسخ دهندگان نظرسنجی در مورد دو نقطه از زمان پرسیدم و از شرکت کنندگان درجه موافقت را پرسیدم، یک سوال معمولی به سبک لیکرت. مثلاً مثل اینکه «قبل از اینکه اوباما رئیس جمهور شود، زندگی خوب بود» و یک سؤال جداگانه پرسیده بودم «بعد از اینکه اوباما رئیس جمهور شد، زندگی خوب بوده است». به طور معمول، یک آزمون t فرض می‌شود، و در ابتدا به یک آزمون t زوجی فکر می‌کردم، زیرا این دو مجموعه جداگانه از پاسخ‌ها هستند که می‌خواهم مقایسه کنم (مثلاً زمان 1/زمان 2، درست است؟). با این حال، چندین بار توسط افرادی که دارای آماری هستند رد شده ام، هیچ یک از آنها نمی توانند به من بگویند که آزمون درست چیست. پس آیا کسی می تواند به من بگوید اگر در مورد دو نقطه از زمان بپرسم (در دوران کودکی، رابطه شما با مادرتان چگونه بود؟ حالا، رابطه شما با مادرتان چگونه بود؟)، چگونه آنها را مقایسه کنم؟
چگونه پاسخ به سؤال مشابهی را که در مقاطع زمانی مختلف پرسیده شده است مقایسه کنیم؟
97269
میانگین مربعات خطای برآوردگر $\hat{\theta}$ با توجه به پارامتر ناشناخته $\theta$ به صورت $$ MSE(\hat{\theta})=E[(\hat{\theta}- تعریف می‌شود. \theta)^{2}]. $$ به خوبی شناخته شده است که تجزیه بایاس-واریانس زیر وجود دارد: $$ MSE(\hat{\theta})=Var(\hat{\theta})+\left(Bias(\hat{\theta}, \theta)\right)^{2}. $$ **سوال من**: آیا میانگین خطای انحراف مطلق $$ MADE(\hat{\theta})=E(|\hat{\theta}-\theta|) $$ تجزیه مشابهی دارد؟
تجزیه واریانس تعصب برای میانگین خطای مطلق
25596
من داده‌های فراوانی دوجمله‌ای برای یک آلل مرتبط با جمعیت‌های ساکن در کوهستان دارم. این کوه‌ها از شمال به جنوب می‌آیند که در آن مکان‌ها تقریباً برای این آلل ثابت هستند و مکان‌های پست در شرق که فاقد آلل هستند. در انتهای جنوبی کوه ها یک منطقه هیبریدی قرار دارد. علیرغم اینکه کوه ها از طریق منطقه هیبریدی به سمت جنوب ادامه می دهند، فرکانس آلل از تقریباً ثابت به تقریباً وجود ندارد تغییر می کند. این نشان می دهد که علیرغم سود فرضی برای این صفت در کوهستان، مانعی برای آن در ناحیه هیبریدی وجود دارد که مانع گسترش آن به سمت جنوب در کوهستان می شود. من از یک رویکرد glm ساده در R استفاده کرده‌ام تا مشخص کنم که ارتفاع پیش‌بینی‌کننده مهمی برای فراوانی آلل شمال منطقه هیبریدی است. اگر سایت های منطقه هیبریدی را در مدل لحاظ کنم، ارتفاع کمتر قابل توجه است. اگر یک متغیر ساختگی منطقه هیبریدی به مدل اضافه کنم، آن نیز قابل توجه است. من می‌خواهم یک رویکرد آماری برای شناسایی این مکان‌های کوهستانی «پیش‌تر» در منطقه ترکیبی هم از نظر آماری و هم از نظر گرافیکی پیدا کنم.
شناسایی موارد پرت
63842
من روی یک مشکل طبقه‌بندی باینری با نمونه‌های نسبتاً کمی کار می‌کنم (مثلاً 30 مورد که از این تعداد 7 مورد مثبت هستند). من متوجه شده ام که هنگام استفاده از 2 برابر، میانگین عملکرد طبقه بندی بهترین مدل بهتر از مدل با بهترین عملکرد با 5 برابر است. در واقع، * بهترین مدل در رزومه 2 برابری امتیازهای زیر را در این دو برابر دریافت می‌کند: «[0.82، 0.82]» (*میانگین = 0.82**). * آن مدل **متفاوت** با بهترین مدلی است که من با CV 5 برابر دریافت می کنم، که امتیازهای AUC زیر را به دست می دهد: «[0.4 , 1. , 0.75، 0.75، 0.25]» ( **متوسط ​​= 0.64** ). این من را به سؤال زیر می برد: از کدام مدل استفاده کنم؟ و چرا زمانی که با داده **کمتر** تمرین می کنم، باید مدل بهتری دریافت کنم؟
چرا CV 2 برابر نتایج بهتری نسبت به CV 5 برابر می دهد؟
4814
من دو مدل LME با تعامل یکسان دارم، یکی شامل هر دو جلوه اصلی و دیگری حاوی تنها یک جلوه اصلی است، مثلاً: $$ H\\_CE = Season + Crownlevel + Season:Crownlevel، تصادفی = 1|CollectorID $$ و $$ H\\_CE = Season + Season:Crownlevel , random = 1|CollectorID $$ 4 سطح از هر کدام وجود دارد و هر ترکیبی از Season، Crownlevel و CollectorID احتمال AIC، BIC و log هر دو مدل کاملاً برابر است. با توجه به اینکه فرمول AIC $$ \mathit{AIC} = 2k - 2\ln(L)\ $$ است، می‌توان انتظار داشت که این حالت متفاوت باشد، حتی اگر احتمالات دقیقاً یکسان باشد. در نهایت، آنها تعداد متفاوتی از پارامترها دارند. یا اینطور فکر کردم... امتحان این مثال اسباب بازی در R : library(nlme) Season <- rep(as.factor(rep(letters[1:4],each=4)),4) Crownlevel <-rep(as .factor(rep(حروف[11:14]،4))، 4) CollectorID <-rep(حروف[20:23],each=16) X <- model.matrix(~Season+Crownlevel+Season:Crownlevel) B <- c(1,1,-2,2,0.3,0.4,0.4,2,3,1,-2,-3,-4,2, 1،2) H_CE <- X %*% B + rnorm(16*4) KBM <- data.frame(Season,Crownlevel,H_CE,CollectorID) model1 <- lme(H_CE~Season+Crownlevel+Season:Crownlevel,data=KBM, method=ML,random=~1|CollectorID) model1e <- lme(H_CE ~Season+Season:Crownlevel,data=KBM, method=ML,random=~1|CollectorID) دریافت می‌کنم: anova(model1,model1e) Model df AIC BIC logLik model1 1 18 174.1834 213.0433 -69.09168 model1e 2 18 174.1831.1831. اینجا؟ چرا اعداد کاملاً برابر هستند؟ این باید با مشخصات مدل ربطی داشته باشد، اما من واقعاً نمی توانم ببینم چیست. مشخصات مدل به خودی خود معیوب است، من این را می دانم. اما نمی توانم توضیح دهم که چه چیزی باعث می شود مجموعه پارامترهای متفاوتی را برگرداند، اما دقیقا همان باقیمانده ها، احتمال و درجات آزادی: > all.equal(residuals(model1),residuals(model1e)) [1] TRUE * * * همانطور که فابیان ها به درستی اشاره کردند، هر دو مدل کاملاً معادل هستند. با این حال، من متوجه نمی شوم که چرا در محاسبه AIC از همان مقدار برای تعداد پارامترهای `k` استفاده می شود. k در AIC از df استفاده می کند که همه چیز را توضیح می دهد.
چرا AIC، BIC و احتمال ورود به سیستم برای مدل های مختلف در چارچوب LME برابر است؟
109368
من می خواهم میزان دریافت مواد مغذی مردانه را با زنان مقایسه کنم. یکی از مفروضات آزمون U آزمون من ویتنی این است که دو متغیر نباید به طور عادی توزیع شوند. دریافت مواد مغذی در مردان طبیعی است اما در زنان نه. آیا این یک مشکل خواهد بود؟ همچنین، داده ها در مورد دریافت هفت ماده مغذی است. برای انجام مقایسه، آیا من نباید تست من ویتنی را 7 بار انجام دهم؟ آیا جایگزین دیگری وجود دارد؟ در زیر نمودارهای qq که من به ترتیب برای زنان و مردان به دست آوردم آمده است. ![ نمودار چی مربع qq برای دریافت مواد مغذی برای زنان](http://i.stack.imgur.com/Sxjhh.jpg) ![ نمودار چی مربع qq برای مصرف مواد مغذی مردانه](http://i.stack.imgur. com/VhWfp.jpg)
تست من ویتنی U
76430
یک متغیر تصادفی چند متغیره $x$ با تابع چگالی $P_x(\theta)$ برای پارامتر اسکالر $\theta$ در نظر بگیرید. فرض کنید اطلاعات فیشر $J_x(\theta)$ شناخته شده است. حال، برای تبدیل (نقشه‌برداری قطعی) $y=F(x)$ آیا می‌توانید $J_y(\theta)$ را بر حسب $J_x(\theta)$ و $F$ بیان کنید؟
اطلاعات فیشر $J_y(\theta)$ برای تبدیل $y=F(x)$
107923
من در حال انجام برخی کارها با جنگل‌های تصادفی در R با استفاده از بسته «randomForest» هستم و به چیزی که به نظرم عجیب می‌رسد برخورد کرده‌ام. حتی زمانی که داده ها کاملا تصادفی هستند، AUC هرگز کمتر از 0.5 نیست. به عنوان مثال، وقتی موارد زیر را اجرا می کنم: library(randomForest) df.sanity <- data.frame(A=sample(1:100, 2000, replace=T), B=sample(126:159, 2000, replace=T )، C=نمونه (10:2000، 1000، جایگزین=T)، D=نمونه (1:2، 2000، جایگزین=T)، E=sample(30:40، 2000، جایگزین=T)، Class=as.factor(نمونه(0:1، 2000، جایگزین=T))) rf <- randomForest(x=df.sanity[1:1000، c(A، B، C، D، E)]، y=df.sanity[1:1000، Class]) preds <- predict(rf, newdata=df.sanity[1001:2000,], type=prob) auc(obs=df.sanity[1001:2000, Class], pred=preds[,2]) مهم نیست چگونه بارها که آن را اجرا می کنم، AUC هرگز کمتر از 0.5 نیست. اغلب کمی بیشتر است (تا 0.54 از آنچه من دیده ام)، اما هرگز کمتر. تنها پیاده سازی AUC دیگری که من استفاده کرده ام Weka's است و AUC های کمتر از 0.5 را در آنجا دیده ام. اگر AUC کمتر از 0.5 باشد، بسته «randomForest» به‌طور خودکار پیش‌بینی‌ها را معکوس می‌کند، یا چیز دیگری وجود دارد که من در اینجا اشتباه می‌فهمم؟
R AUC هرگز کمتر از 0.5؟
58853
چرا خاصیت ضربی فقط برای هموارسازی نمایی با فصلی و روند (مدل های ضربی زمستان و مدل های ضربی زمستان) وجود دارد و برای هموارسازی نمایی فقط با فصلی (بدون روند) وجود ندارد؟ همانطور که در نرم‌افزار پیش‌بینی دیده‌ام، مدل هموارسازی نمایی تنها به صورت فصلی وجود دارد. چرا به صورت ضربی نیز وجود نداشته باشد؟ آیا این فرم مشکل فنی دارد (یعنی در ادبیات وجود ندارد) یا نقص نرم افزار است (یعنی پیاده سازی نشده است اگرچه می توان آن را پیاده سازی کرد)؟
هموارسازی نمایی فصلی بدون روند
4817
من نتوانستم یکی از آن ها را در گوگل پیدا کنم و می خواستم بدانم آیا وجود دارد یا نه...
آیا یک نسخه بدون جفت از آزمون علامت وجود دارد؟
60823
جامعه آماری عزیز، برای درک جنگل مفاهیم نظریه احتمال از شما کمک می خواهم. من در حال تلاش برای ایجاد درک منسجمی از عباراتی مانند _ تابع جرم احتمال_، _ توزیع احتمال_، _ تابع احتمال_، مفاهیمی در مورد متغیرهای تصادفی و نماد مبهم پیرامون آنها هستم. به عنوان مثال ویکی‌پدیای آلمانی و انگلیسی هر دو از توضیح رابطه بین 1. توابع نگاشت رویدادهای یک فضای احتمال (این تقریباً به طور ثابت تعریف شده است) با اعداد اجتناب می‌کنند و گاهی آن اعداد را احتمال می‌نامند و 2. مفهوم توزیع احتمال. آیا رویدادهای نگاشت تابع (که توسط en Wiki اندازه‌گیری احتمالی نامیده می‌شود) به اعداد یک توزیع احتمالی است؟ اگر نه توزیع احتمال چیست؟
اندازه گیری احتمال و توزیع احتمال را توضیح دهید
105393
من تعدادی کد قدیمی را به ارث برده‌ام که برای حل مشکل زیر طراحی شده است - مجموعه‌ای از متغیرهای باینری قابل مشاهده $Y_1، \dots، Y_N$ به ما داده می‌شود که معتقدیم به مجموعه ثابتی از متغیرهای ورودی $X_1،\dots، X_M$ مربوط می‌شوند. (بعد بالا، $M \sim 100$). برای یک ورودی داده شده، می خواهیم پیش بینی کنیم که کدام رویداد $Y_i$ محتمل ترین است. برنامه فعلی سعی می کند این را به صورت زیر پیش بینی کند - با توجه به داده های آموزشی، ما یک مدل برای هر $Y_i$ به طور جداگانه می سازیم (با استفاده از رگرسیون لجستیک + انتخاب ویژگی). سپس با یک ورودی، به تمام امتیازات لاجیت نگاه می کنیم و بالاترین را انتخاب می کنیم. این کار نمی کند زیرا برخی از طبقه بندی کننده های رگرسیون لجستیک می توانند بیش از حد آموزش ببینند، که منجر به امتیازات لاجیت شدید می شود که اغلب بر سایر امتیازات غالب است. تجزیه و تحلیل نشان می دهد که تابع لجستیک نیز ممکن است انتخاب خوبی نباشد. من دو سوال دارم: * آیا این راه برای یافتن محتمل ترین رویداد معقول / قابل نجات است؟ من ترجیح می دهم در صورت امکان مجبور نباشم کل این چیز را از ابتدا بازسازی کنم. * اگر چنین است، آیا روش معقول تری برای مقایسه نمرات دو طبقه بندی کننده وجود دارد به گونه ای که منصفانه تر باشد؟ فکر من این است که می‌توانیم نوعی پسین بیزی را مقایسه کنیم تا ارزیابی منصفانه‌ای برای وضعیت دانش خود داشته باشیم، اما احساس می‌کنم اگر بخواهم این کار را انجام دهم باید مدل رگرسیون لجستیک را از دست بدهم، و مطمئن نیستم که باید جایگزین آن شود.
مقایسه خروجی های رگرسیون برای متغیرهای مختلف پاسخ
18459
با فکر کردن به یک مشکل ظاهراً ساده اما جالب، می‌خواهم کدی بنویسم تا با توجه به تاریخچه کامل خریدهای قبلی‌ام، مواد مصرفی را که در آینده نزدیک به آن‌ها نیاز خواهم داشت، پیش‌بینی کنم. من مطمئن هستم که این نوع مشکل تعریف عمومی تر و به خوبی مطالعه شده دارد (کسی پیشنهاد کرد که این به برخی از مفاهیم در سیستم های ERP و موارد مشابه مربوط می شود). اطلاعاتی که من دارم تاریخچه کامل خریدهای قبلی است. فرض کنید من به منابع کاغذی نگاه می کنم، داده های من به نظر می رسد (تاریخ، ورق): 2007-05-10 500 2007-11-11 1000 2007-12-18 1000 2008-03-25 500 2008-2005 2008-10-31 1500 2009-03-20 1500 2009-06-30 1000 2009-09-29 500 2009-12-16 1500 2010-05-31 500 2010-06-3001 2010-06-3001 2011-05-31 1000 در فواصل زمانی منظم «نمونه برداری» نمی شود، بنابراین فکر می کنم به عنوان داده سری زمانی واجد شرایط نیست. من هر بار اطلاعاتی در مورد سطح واقعی سهام ندارم. من می‌خواهم از این داده‌های ساده و محدود برای پیش‌بینی میزان کاغذ مورد نیاز (مثلاً) 3،6،12 ماه استفاده کنم. تا اینجا فهمیدم چیزی که دنبالش هستم Extrapolation نام داره نه خیلی بیشتر :) در چنین شرایطی از چه الگوریتمی میشه استفاده کرد؟ و چه الگوریتمی، اگر با الگوریتم قبلی متفاوت باشد، می‌تواند از برخی نقاط داده بیشتر که سطوح عرضه فعلی را نشان می‌دهند (به عنوان مثال، اگر بدانم در تاریخ X برگه‌های Y باقی مانده‌ام) نیز استفاده کند؟ لطفاً اگر اصطلاحات بهتری برای این کار می دانید، سؤال، عنوان و برچسب ها را ویرایش کنید. ویرایش: برای آنچه ارزش دارد، سعی خواهم کرد این را در پایتون کدنویسی کنم. می دانم که کتابخانه های زیادی وجود دارند که کم و بیش هر الگوریتمی را در آنجا پیاده سازی می کنند. در این سوال می‌خواهم مفاهیم و تکنیک‌هایی را که می‌توان مورد استفاده قرار داد، بررسی کنم و پیاده‌سازی واقعی را به عنوان تمرینی به خواننده واگذار کنیم.
چه الگوریتمی می تواند برای پیش بینی استفاده از مواد مصرفی داده های خریدهای گذشته استفاده شود؟
18453
من دنباله ای از مشاهدات دارم و می خواهم تعیین کنم که آیا مشاهدات در این دنباله مستقل از یکدیگر هستند یا خیر. Wald-Wolfowitz یک آزمون ناپارامتریک است که می تواند برای بررسی تصادفی بودن توالی مورد استفاده قرار گیرد. فکر می‌کنم یک ایده کلی از نحوه فرمول‌بندی مشکل دارم، اما اگر قبلاً انجام شده باشد، نمی‌خواهم مغزم را رگ به رگ بزنم. [جستجوهای ادبیات من و جستجوهای گوگل چیزی پیدا نکردند، اما ممکن است سوال را به درستی مطرح نکرده باشم.] پیشاپیش متشکرم.
آیا معادل بیزی برای تست اجراهای Wald-Wolfowitz وجود دارد؟
26153
من در حال توسعه ابزاری برای انجام استنباط های متخصص از دانشمندان هستم. از آنجایی که پاسخ به سؤالات حدس و گمان است، ما دوست داریم کارشناسان به ما کمک کنند تا دامنه پاسخ هایی را که آنها معقول می دانند، درک کنیم تا تصوری از عدم قطعیت داشته باشیم. برای یک نوع سؤال، از آنها می خواهیم کران پایین، کران بالا، صدک 25، صدک 50 و میانه را وارد کنند (در اصل خلاصه عدد 5). در آزمایش متوجه شدیم که برخی از دانشمندان این داده‌ها را بصری می‌دانند و برخی دیگر تجسم آن را در قالب PDF آسان‌تر می‌دانند. من سعی می کنم یک الگوریتم ساده را برای ارائه تصویری به سبک PDF از این خلاصه 5 عدد پیدا کنم. من توزیع Skew Normal را در نظر گرفته ام، آیا این انتخاب خوبی است؟ به عبارت دیگر: با توجه به یک چارک + میانه، ساده ترین عملکرد برای ارائه یک PDF برای توزیعی با آن ویژگی ها چیست؟ پیشنهادی دارید؟ من می دانم که این در بهترین حالت شلخته است، اما پاسخ به این سؤالات خود حدس و گمان است و اگر بتوانیم از هر دو طریق ارتباط برقرار کنیم، پاسخ های بهتری دریافت خواهیم کرد.
چگونه باید یک PDF قابل قبول از Quartiles+Median تولید کنم؟
18456
من می خواهم مدل $A$ را با 5 متغیر و مدل $B$ را با 3 متغیر مقایسه کنم. من می خواهم از آزمون نسبت احتمال برای این کار استفاده کنم. توجه داشته باشید که این رگرسیون لجستیک است. چگونه این کار را در SAS انجام دهم؟
چگونه تست نسبت احتمال را در SAS انجام می دهید؟
4812
من در حال حاضر به عنوان دستیار تدریس در دانشگاه خود در یک دوره آمار مقدماتی (برای دانشجویان پزشکی) مشغول به کار هستم. آفلاین، کتاب های زیادی با اطلاعات برای کمک به معلم در دسترس است. با این حال، چیزی که من علاقه مند به دانستن آن هستم این است که آیا ممکن است مرا به سوی هر **منابعی (خوب) راهنمایی کنید که تمرین هایی (با راه حل) در آمار ارائه می دهد که به صورت آنلاین در دسترس هستند؟** (به عنوان مثال: یادداشت های معلمان). مطالب موضوعی می تواند بین آمار توصیفی، احتمال و استنتاج آماری پارامتریک/ناپارامتریک باشد.
منابع برای یادگیری آمار - تمرینات (با راه حل)، در دسترس آنلاین؟
25594
سوال من اینجوریه مشخصات رگرسیون این است: $y=\delta_{1}D_{1}+\delta_{2}D_{2}+\delta_{3}D_{3}+\beta_{1}x_{1}+\beta_ {2}x_{2}+\beta_{3}x_{3}+\epsilon$ که $D_{i}$ نشان‌دهنده ساختگی برای هر یک از سه دسته است، تعامل $x_{i}$ بین $D_{i}$ و متغیر مستقل $x$. من می‌خواهم $b_{1}=b_{2}=b_{3}$ را آزمایش کنم. $b_{i}$ ضریب تخمینی $x_{i}$ است. پس از آزمون، من عبارات تعاملی را برای دسته‌هایی که ضرایب متفاوتی را نشان نمی‌دهند ترکیب می‌کنم. هر دسته دارای حجم نمونه متفاوتی است. رده 1 دارای نمونه های بسیار بیشتری نسبت به دسته 2 و دسته 2 بیشتر از دسته 3 است. برآوردها نشان می دهد که $b_{1}$ و $b_{2}$ قابل توجه است (از صفر)، اما $b_{3}$ نه. فکر می کنم حجم نمونه کوچک دسته 3 می تواند بی اهمیت بودن $b_{3}$ را توضیح دهد. سوال من: آیا انجام آزمایش مشترک $b_{1}=b_{2}=b_{3}$ زمانی که $b_{3}$ ناچیز است، معنادار (یا درست) است؟ اگر آزمون $b_{1}=b_{2}=b_{3}$ را نمی توان در سطح مثلاً 5٪ رد کرد، اما $b_{1}$ و $b_{3}$ به طور قابل توجهی متفاوت است، می توانم بگویم نه تفاوت قابل توجهی بین $x_{1}$، $x_{2}$ و $x_{3}$ وجود دارد؟
آیا آزمون برابری دو ضریب، یکی معنی دار و دیگری ناچیز معنادار است؟
60825
در یک آزمون معنی‌داری آماری با رتبه‌های امضاشده Wilcoxon، با داده‌هایی مواجه شدیم که ارزش p$$0.04993$ را تولید می‌کنند. با آستانه $p < 0.05$، آیا این نتیجه برای رد فرضیه صفر کافی است، یا مطمئن‌تر است که بگوییم آزمون بی‌نتیجه بوده است، زیرا اگر مقدار p را به 3 رقم اعشار گرد کنیم، تبدیل به $0.050 می‌شود؟
آیا مقدار p 0.04993 برای رد فرضیه صفر کافی است؟
58855
من در مورد k-means تحقیق کردم و اینها چیزی است که به دست آوردم: k-means یکی از ساده ترین الگوریتم هایی است که از روش یادگیری بدون نظارت برای حل مسائل شناخته شده خوشه بندی استفاده می کند. با مجموعه داده های بزرگ واقعاً خوب کار می کند. با این حال، معایب K-Means نیز وجود دارد که عبارتند از: * حساسیت زیاد به نقاط پرت و نویز * با شکل خوشه ای غیر دایره ای خوب کار نمی کند - تعداد خوشه و مقدار اولیه دانه باید از قبل مشخص شود * قابلیت کم بهینه محلی را پاس کند. آیا چیز خوبی در مورد k-means وجود دارد، زیرا به نظر می رسد که معایب آن فراتر از چیزهای خوب در مورد k-means است. لطفا به من یاد بدهید
چرا به جای الگوریتم های دیگر از k-means استفاده می کنیم؟
57500
من 10 داده کیفیت هوای منتسب شده با استفاده از 7 روش مختلف تلفیق دارم. آیا کسی می تواند نحوه محاسبه MSE، RMSE، PA و MAE را برای داده های من، بدون تایپ دستی معادله در r نشان دهد. * دقت پیش بینی (PA) * ضریب تعیین * میانگین خطای مطلق (MAE) * میانگین مربع خطا. (RMSE) متشکرم.
شاخص عملکرد برای روش انتساب با استفاده از R
57506
من به دنبال یک عبارت تحلیلی برای مقدار مورد انتظار ابزار پنهان در یک رگرسیون لجستیک هستم. **تنظیم:** دو گزینه وجود دارد که با $i \in \\{0، 1\\}$ با ابزارهای مرتبط $u_i = w_i + \epsilon_i$، با $\epsilon_i$ i.i.d نمایه شده است. Gumbel (0، 1)، با نام نوع I Extreme Value با مکان 0 و مقیاس 1. $w_i$ ثابت هستند. (همان تنظیمات http://en.wikipedia.org/wiki/Logistic_regression#As_a_two-way_latent-variable_model) اجازه دهید $Z \equiv \max\\{u_0, u_1\\}$، یعنی $Z$ ابزاری باشد که شما هنگام انتخاب جایگزین ترجیحی دریافت کنید. **سوال:** آیا یک عبارت بسته برای مقدار مورد انتظار $Z$ وجود دارد؟ اگر چنین است، چیست و چگونه مشتق شده است؟ **اطلاعات اضافی:** اگر پاسخ را می دانید، از این بخش رد شوید:-) $\epsilon_i$ دارای CDF $F(x) = e^{-e^{-x}}$ و مقدار مورد انتظار $\gamma است. \تقریباً 0.5772$، ثابت اویلر–ماسکرونی -- در اینجا من از http://en.wikipedia.org/wiki/Gumbel_distribution کپی می کنم این برای هر کسی که این سوال را می خواند مفید است. من کمی جستجو کردم، و چیزی پیدا کردم که می‌گوید $\mathbb{E}[Z] = \ln(\Sigma_i(e^{w_i})) +$ ثابت. آیا این درست است؟ من مقداری کد R نوشتم تا بررسی کنم، و به نظر می رسد $\mathbb{E}[Z] = \ln(\Sigma_i(e^{w_i})) + \gamma \approx \ln(\Sigma_i(e^{w_i })) + 0.5772$. آیا این درست است؟ کد اینجاست: # انتخاب باینری # w_i + \epsilon_i با \epsilon_i ~ Gumbel # آیا Emax{w_i + \epsilon_i} = log(sum(exp(w_i))) + \gamma است؟ rgumbel <- function(n) { # کندتر از Runuran، اما از نصب بسته جدید اجتناب می‌کند u <- runif(n) return(-log(-log(u))) } library(Runuran) # Gumbel rgumbel <- function( n) { توزیع <- udgumbel() generator <- pinvd.new(distribution) return(ur(generator, n))} گاما <- 0.57722 # ثابت اویلر–ماسکرونی GetError <- تابع (w=c(5, 10), n=100000) { epsilon <- matrix(nrow=n, ncol=2, data=rgumbel(2*n)) ابزار <- pmax(epsilon[, 1] + w[1], epsilon[, 2] + w[2] emax <- mean(uility) emax.analytical <- log(sum(exp(w))) + gamma # درست است؟ return(emax - emax.analytical) } تابع GetError تفاوت بین میانگین نمونه و عبارت تحلیلی نامزد من را برمی‌گرداند. من بازی کردم و تمایل داشتم مقادیر بسیار نزدیک به صفر را ببینم. این تلاش بسیار ضعیف من برای بدست آوردن یک عبارت تحلیلی برای $\mathbb{E}[Z]$ است: $G(z) \equiv Pr[Z \leq z] = Pr[w_0 + \epsilon_0 \leq z] Pr[w_1 + \epsilon_1 \leq z | w_0 + \epsilon_0 \leq z]$G(z) = F(z - w_0) F(z - w_1) = e ^ {-e^{-z + w_0} -e^{-z + w_1}} $g(z) \equiv G^\prime(z) = e ^ {-e^{-z + w_0} -e^{-z + w_1}} (e^{-z + w_0} + e^{-z + w_1})$ $\mathbb{E}[Z] = \int z g(z) dz$ بنابراین، با فرض اینکه هیچ اشتباهی تا اینجا وجود نداشته باشد، باید محاسبه کنم: $\ int z e ^ {-e^{-z + w_0} -e^{-z + w_1}} e^{-z + w_0} dz$ به علاوه یک عبارت دوم مشابه، اما مطمئن نیستم چگونه با این انتگرال مقابله کنید. با تشکر فراوان برای هر کمکی، آدریان
ارزش مورد انتظار مطلوبیت نهفته در رگرسیون لجستیک
58859
$X_1، X_2، \dots X_n$ و $Y_1، Y_2، \dots Y_n؛ n = 1000$ دو نمونه از کمیت های فیزیکی هستند که از کاربرد دو مدل ریاضی مختلف برای برخی از داده های مستقل و توزیع شده یکسان (iid) بدست می آیند. مدل ریاضی مورد استفاده برای تولید $Y_i%$ یک نسخه ساده شده (تنظیم شده توسط پارامتر $r$) از مدل ریاضی مورد استفاده برای تولید $X_i$ است. هدف من یافتن مقدار $r$ است که باعث می‌شود توزیع تجربی $F_Y(y)$ تا حد ممکن شبیه به توزیع $F_X(x)$ باشد. من تصمیم گرفتم از آزمون دو نمونه کولموگروف-اسمیرنوف (در R) برای مقادیر مختلف $r$ در بازه‌ای خاص استفاده کنم. آیا این انتخاب صحیح است؟ من می دانم که فرضیه صفر برای آزمون K-S این است که دو توزیع یکسان هستند. با این حال، من مطمئناً می دانم که دو توزیع متفاوت هستند زیرا دو مدل ریاضی متفاوت هستند. آیا ارزیابی بهترین مقدار $r$ با نگاه کردن به p-value و آمار D حاصل از آزمون K-S صحیح است؟
استفاده از آزمون کولموگروف-اسمیرنوف دو نمونه ای برای ارزیابی شباهت بین دو توزیع مختلف
57502
آیا کسی می تواند مرا راهنمایی کند تا رابطه بین تجزیه ارزش واحد (SVD) و رگرسیون مؤلفه اصلی (PCR) را بفهمم؟ من می‌دانم که می‌توانیم اجزای اصلی (PC) را با استفاده از SVD بسازیم، اما نمی‌دانم بارگذاری‌هایی که در SVD تعریف شده‌اند با بارگذاری‌های PCR یکسان هستند یا خیر. اگر $X = (x1,...,xn)$، SVD از $X = UDV^T$، $U$ رایانه‌های شخصی با طول واحد و ستون‌های $V$ بارگیری‌های مربوط به رایانه‌های شخصی هستند. در PCR داریم: $X=Pt_i+e_i$ که $T=(t_1,...,t_k)$ ماتریس مولفه پنهان و $P$ ماتریس بارگذاری ها است. سوالات من: آیا $V$ در SVD برابر است با $P$ در PCR؟ منظورم این است که آیا می توانیم برای هر دو از یک نماد استفاده کنیم، $V=P$؟ همچنین، آیا $U=T$ است؟ (توجه داشته باشید که $n$: تعداد مشاهدات، $p$= تعداد پیش‌بینی‌کننده‌ها و $k$ = تعداد اجزا است.)
تجزیه ارزش منفرد و PCR
79817
شبیه سازی یک مدل پواسون: set.seed(1) predictor <- rnorm(100000, 2.5, 0.5) # describe(predictor) lam <- 0.98 * predictor # describe(lam) rp <- function(lambda){rpois(1, lambda)} vrp <- پاسخ برداری (rp) <- vrp(lam) # describe(response) fit <- glm(response ~ 1, offset=log(predictor), family=poisson) summary(fit) رگرسیون: فراخوانی: glm(فرمول = پاسخ ~ 1، خانواده = poisson، offset = log (پیش‌بینی‌کننده)) باقیمانده‌های انحراف: حداقل 1Q میانه 3Q Max -2.8188 -0.8334 -0.1146 0.5777 4.3871 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -0.017707 0.002018 -8.773 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده poisson برابر با 1) انحراف صفر: 111501 در 99999 درجه آزادی انحراف باقیمانده: 1115 99999 درجه آزادی AIC: 361334 تعداد تکرارهای امتیازدهی فیشر: 5 > pchisq(111501، 99999) [1] 1 این بالا باید دقیقاً تناسب داشته باشد، نمی‌دانم چرا «pchisq» اینقدر به من عدد فوق‌العاده می‌دهد. پیوند مرجع: وقتی کسی می گوید که انحراف باقیمانده/df باید ~ 1 برای یک مدل پواسون باشد، چقدر تقریبی است؟ ### به‌روزرسانی من این http://pj.freefaculty.org/guides/stat/Regression- GLM/GLM2-SigTests/ را پیدا کردم و پیشنهاد می‌کند که از باقیمانده پیرسون به جای انحراف برای انجام یک تناسب خوب استفاده کنید... خیلی بهتر کار میکنه ssr <- sum(residuals(fit, type=pearson)^2) pchisq(ssr, 99999)
چرا خوب بودن تناسب از طریق انحراف و chisq برای رگرسیون poisson (glm) ضعیف است؟
105531
ببینید من تحت تأثیر قرار گرفتم که هنگام محاسبه خطا با توجه به وزن های اتصال آخرین لایه پنهان به لایه خروجی، فرض می کنیم که خطای لایه خروجی را با مشتق سیگموئید ضرب می کنیم، وزن های فعلی و خروجی آخرین لایه پنهان اما اگر دوره Andrew NG را در Coursera طی کنید، خواهید دید که او مشتق سیگموئید را برای آخرین لایه ضرب نمی کند. این حتی در pdf ارائه شده در صفحه 9 نیز ذکر شده است. همچنین متوجه می‌شوم که وقتی آن را با مشتق سیگموئید ضرب می‌کنم، پیک‌های متعددی در نمودار نظم‌دهی در مقابل خطای آموزشی دریافت می‌کنم، NN به مقادیر بسیار بالای خطاهای آموزشی در چند تکرار همگرا می‌شود. در مجموعه داده ارقام دست نویس MNSIT. بدون مشتق سیگموئید، نظم در مقابل خطا، یک طرح پیک منفرد صاف است و تا 1000 تکرار کاهش می‌یابد! آیا من اینجا چیزی را از دست داده ام؟ چون از محاسباتی که آموختم بدیهی به نظر می رسد که مشتق سیگموئید باید ضرب شود!
آیا هنگام محاسبه خطاهای وزنه های اتصال آخرین لایه پنهان به لایه خروجی، مشتق تابع سیگموید را ضرب می کنیم؟
4818
من فقط متوجه شدم که چگونه آزمون غیر دقیق مک نمار از توزیع مجانبی مجذور کای استفاده می کند. اما از آنجایی که آزمون دقیق (برای جدول دو موردی) بر توزیع دوجمله‌ای متکی است، چگونه می‌توان تقریب نرمال را برای توزیع دو جمله‌ای پیشنهاد کرد؟ با تشکر
چرا آزمون مک نمار از مجذور کای استفاده می کند و از توزیع نرمال استفاده نمی کند؟
18455
من داده‌هایی از یک نظرسنجی تحقیقات بازار دارم که رفتار گروه‌های مختلف مشتریان را پوشش می‌دهد. به طور خاص، من به تعداد کانال هایی که مشتری قبل از خرید محصول از آنها بازدید می کند، نگاه می کنم. می‌خواهم بدانم آیا ارزش مشتری (که با ارزش محصولی که خریداری می‌کند اندازه‌گیری می‌شود) روش معناداری برای تقسیم داده‌ها است یا خیر. من میانگین تعداد کانال‌های بازدید شده را برای کل نمونه (بیایید آن را X بنامیم) و سپس برای مشتریانی که فقط گران‌ترین محصولات (Y) را خریداری کرده‌اند و به‌طور جداگانه برای مشتریانی که فقط ارزان‌ترین محصولات (Z) را خریداری کرده‌اند، محاسبه کرده‌ام. اکنون می خواهم بررسی کنم که آیا Y و Z از نظر آماری معنی دار هستند یا خیر. یعنی احتمال اینکه در کل جمعیت من مشتری را پیدا کنم که یک محصول ارزان را خریداری کرده باشد که از قبل از کانال Y یا بیشتر بازدید کرده باشد. تعدادی از توابع آماری در اکسل وجود دارد که مرتبط به نظر می رسند (CONFIDENCE.NORM، CONFIDENCE.T، T.TEST، و غیره...). از کدام یک استفاده کنم؟
اهمیت آماری در اکسل
4816
اجازه دهید $X \sim \chi^2_k$ یک متغیر تصادفی توزیع‌شده با مجذور کای با درجه آزادی $k$ باشد. واضح ترین مرزهای شناخته شده برای احتمالات زیر چیست $$ \mathbb{P}[X > t] \leq 1 - \delta_1(t, k) $$ و $$ \mathbb{P}[X < z] \leq 1 - \delta_2(z, k) $$ که در آن $\delta_1$ و $\delta_2$ برخی از توابع هستند. اشاره گر به مقالات مرتبط قدردانی می شود.
واضح ترین مرزهای دم شناخته شده برای متغیرهای توزیع شده $\chi_k^2$ چیست؟
102627
من در چند مقاله مانند کریژفسکی، الکس، و جفری ای. هینتون اصطلاح _عضو رمزگذارهای خودکار را دیده ام. استفاده از رمزگذارهای خودکار بسیار عمیق برای بازیابی تصویر مبتنی بر محتوا. ESANN. 2011. تفاوت بین Autoencoder و Autoencoder عمیق چیست؟
تفاوت بین رمزگذارهای خودکار و رمزگذارهای خودکار عمیق چیست؟
102620
با توجه به یک نمونه $\\{x_1,\dots,x_n\\}$, $z_1$ و $z_2$ دو تحقق بوت استرپ از میانگین نمونه هستند، یعنی $z_1 = \frac{1}{n}\sum \\{x\in\text{نمونه بوت استرپ 1}\\}$$ $$z_2 = \frac{1}{n}\sum\\{x\in\text{نمونه راه‌اندازی 2}\\}$$، چگونه $corr(z_1، z_2)$ را محاسبه کنیم؟ **به روز رسانی** برای اطمینان از اینکه مشکل را به درستی درک کرده ام، این چیزی است که سعی می کنم حل کنم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/1AN3N.png) اینجاست آنچه من امتحان کردم، همانطور که @probabilityislogic پیشنهاد کرد، $$z = \frac{1}{n}\sum(x_ik_i) ;k_1+k_2+\cdots+k_n = n$$ از آنجایی که این یک نمونه بوت استرپ است، بنابراین $x_i$ همگی ثابت هستند و $k_i$ متغیرهای تصادفی هستند که $$(k_1,k_2,\cdots,k_n) \sim Mult(k_1k_2\cdots k_n|n, p_1,p_2, \cdots,p_n)$$ . من سعی کردم میانگین و واریانس را به این صورت محاسبه کنم، \begin{align*} E(z) &= \sum_k\begin{pmatrix}n\\\ k\end{pmatrix}p^kz\\\ &= \sum_k \begin{pmatrix}n\\\ k\end{pmatrix}p^k(\frac{1}{n}\sum_{i=1}^n x_ik_i)\\\ &= \frac{1}{n}\left[\sum_k\begin{pmatrix}n\\\ k\end{pmatrix}p^k(x_1k_1+\cdots+x_nk_n)\right]\\ \ &= \frac{1}{n}[np_1x_1+\cdots+np_nx_n]\\\ &= p_1x_1+\cdots+p_nx_n \end{align*}، و از آنجایی که هر $k_i$ می‌تواند هر عددی در $[0,n]$ باشد، پس $p_i = \frac{1}{n+1}$، درست است؟ اگر چنین است، $$E(z) = \frac{n}{n+1}\bar x$$ . برای محاسبه کوواریانس، \begin{align*} Cov(z_1, z_2) = \sum_{k_{z1}, k_{z2}}\left[\text{Pr}(k_{z1},k_{z2})( z_1 - E(z))(z_2 - E(z))\right] \end{align*}، جایی که $\text{Pr}(k_{z1}، k_{z2})$ احتمال مشترک $k$ برای $z_1,z_2$ است. آیا در اینجا برای کوواریانس $z_1$ و $z_2$ راه درستی را طی می کنم؟ به نظر نمی رسد که این موضوع را اینجا بفهمم، به نظرم خیلی پیچیده است.
همبستگی میانگین های نمونه بوت استرپ
57509
![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/Ecpme.png) فکر می کنم درست است زیرا از قانون پیروی می کند که K(x1,x2) = f(x1)f(x2) همچنین هر دو به ترتیب تابعی از تنها یکی از نقاط هسته هستند. در نهایت حاصل ضرب دو هسته معتبر، یک هسته مناسب است. میخواستم بدونم استدلالم درسته؟
آیا این هسته مناسب است؟
57507
من در حال طراحی یک تحقیق هستم و می خواهم احتمال تطابق دو پاسخ منحصر به فرد را نقل کنم. 10 سوال، برای هر پاسخ دهنده باید a،b یا c را انتخاب کنید. بنابراین، اگر به صورت تصادفی انتخاب شود، 33.33٪ احتمال وجود دارد که همان را بیان کنید. احتمال کلی پاسخگویی به 10 سوال یکسان چقدر خواهد بود؟ آیا 33.33 X 33.33 x 33.33 X 33.33 x33.33 X 33.33 x33.33 X 33.33 x 33.33 X 33.33 است؟ چگونه می توان این را به عنوان درصد شانس بیان کرد؟
محاسبه احتمال در پاسخ پرسشنامه
79814
سوال من در مورد یک مطالعه پزشکی گذشته نگر است که در آن تفاوت معنی داری بین دو درمان مختلف یافت نشد. منظور از عدم وجود تفاوت معنی دار به دلیل قدرت نامشخص آزمون های آماری به معنی هم ارزی نیست چیست؟
قدرت نامشخص و مطالعه گذشته نگر
53375
من سعی می کنم آزمایش کنم که آیا 4 شیب مختلف از یک تعامل 3 طرفه در رگرسیون چندگانه تفاوت قابل توجهی با صفر دارند یا خیر. چهار خط در 2 سطح از هر یک از 2 تعدیل کننده (lo-lo، hi-lo، lo-hi، hi-hi) رسم شده است. در اینجا نحوه آزمایش شیب های اهمیت در یک مدل تعامل دو طرفه آمده است. من می خواهم این روش را برای آزمایش اهمیت شیب ها در یک مدل تعامل 3 طرفه در رگرسیون چندگانه گسترش دهم. یک برهمکنش دو طرفه در رگرسیون چندگانه به شکل زیر است: y = a + b1(X) + b2(Z) + b3(X)(Z) با یک برهمکنش دو طرفه، می توان بررسی کرد که آیا شیب ها در سطوح مختلف از تعدیل کننده، Z، با استفاده از معادلات زیر به طور قابل توجهی با صفر متفاوت است: b1 در Z = b1 + b3 (Z) که در آن b1 شیب اثرات پیش بینی شده X است. Y در هر مقدار خاص از Z SE(b1 در Z) = (var(b1) + (Z^2)(var(b3) + (2Z)(cov(b1,b3))^(1/2) که در آن var (b1) واریانس ضریب رگرسیون b1، var(b3) واریانس ضریب رگرسیون b3، cov(b1،b3) کوواریانس بین b1 است، ضرایب رگرسیون b3 t = (b1 در Z)/SE(b1 در Z) df = N - k - 1 که در آن _N_ = اندازه نمونه و _k_ = تعداد پیش‌بینی‌کننده‌ها سپس می‌توان اهمیت هر شیب را با استفاده از آزمون t آزمایش کرد. سوال من این است که چگونه می توانم این را به اهمیت شیب ها در یک مدل تعامل 3 طرفه تعمیم دهم. پیش‌بینی‌کننده set.seed(123) <- rnorm(1000، 10، 5) moderator1 <- rnorm(1000، 100، 25) moderator2 <- rnorm(1000، 50، 20) نتیجه <- پیش‌بینی‌کننده*moderator1*moderator(2*rnorm 20، 30)/10000 mydata <- data.frame (پیش‌بینی‌کننده، تعدیل‌کننده1، تعدیل‌کننده2، نتیجه) مدل <- lm(نتیجه ~ پیش‌بینی‌کننده + تعدیل‌کننده1 + تعدیل‌کننده2 + پیش‌بینی‌کننده*مدیرکننده1 + پیش‌بینی‌کننده*مدیرگر2 + تعدیل‌کننده1*مدیرگر2 + پیش‌بینی‌کننده*مدیرکننده1*مدیرگر2، داده=mydata) plotData <- expand.grid( پیش بینی کننده = beautiful(qnorm(pnorm(c(-1, 1))، میانگین = میانگین (mydata$predictor، na.rm = TRUE)، sd = sd(mydata$predictor، na.rm = TRUE)))، moderator1 = qnorm (pnorm(c(-1, 1))، mean = mean(mydata$moderator1، na.rm = TRUE)، sd = sd(mydata$moderator1، na.rm = TRUE))، moderator2 = qnorm(pnorm(c(-1, 1))، mean = mean(mydata$moderator2، na.rm = TRUE)، sd = sd(mydata$ moderator2, na.rm = TRUE)) ) plotData$نتیجه <- پیش بینی(مدل، داده جدید = plotData، سطح = 0) plotData$mod1 <- factor(plotData$moderator1، labels = c(Lo mod1، Hi mod1)) plotData$mod2 <- factor(plotData$moderator2، labels = c(Lo mod2، سلام mod2)) mod1Lo_mod2Lo <- plotData[plotData$mod1==Lo mod1 & plotData$mod2==Lo mod2,] mod1Hi_mod2Lo <- plotData[plotData$mod1==Hi mod1 & plotData$mod2==Lo mod2,] mod1Lo_mod2Hi <- plotData[plotData$mod1==Lo mod1 & plotData$mod2==سلام mod2،] mod1Hi_mod2Hi <- plotData[plotData$mod1==Hi mod1 & plotData$mod2==Hi mod2] #Generate Plot plot(mod1Lo_mod2Lo$predictor, mod1Lo_mod2Lo$outcome, lty=1, lwd=2, type='l', xlab = پیش بینی، ylab = نتیجه، ylim=c(min(plotData$نتیجه)، max(plotData$outcome))) خطوط (mod1Hi_mod2Lo$predictor، mod1Hi_mod2Lo$outcome، lty=2، lwd=2) خطوط (mod1Lo_mod2Hi$_mod2Hi$_out2، mod1$l ، lwd=2, col=grey) lines(mod1Hi_mod2Hi$predictor, mod1Hi_mod2Hi$outcome, lty=2, lwd=2, col=grey) legend(topleft, legend=c(lo Mod1, lo Mod2 hi Mod1، lo Mod2، lo Mod1، hi Mod2، hi Mod1، hi Mod2)، lty=c(1،2،1،2)، lwd=c(2،2،2،2)، col=c(سیاه، سیاه، خاکستری، خاکستری)) چگونه می توانم آزمایش کنم که آیا شیب هر یک از این چهار خط، به طور جداگانه، با صفر متفاوت است؟ پیشاپیش سپاس فراوان!
آزمایش کنید که آیا شیب های ساده با برهمکنش سه طرفه صفر در رگرسیون چندگانه متفاوت است یا خیر
106137
من یک نتیجه و یک $\chi^2$ مرتبط را از طریق یک فرآیند تکرار شونده محاسبه می‌کنم که از 3 عدد تصادفی (نمونه‌گیری تصادفی یک گاوسی) در یک معادله استفاده می‌کند، و به عنوان نتیجه نهایی خود را انتخاب می‌کنم که کمترین مقدار را داشته باشد. $\chi^2$. من سعی می کنم با توجه به تعداد تکرارهایی که استفاده می کنم احتمال پایان دادن به این مقدار $\chi^2$ را محاسبه کنم (با این انتظار که با استفاده از تکرارهای بیشتر در نهایت مقدار کمتری برای $ داشته باشم. \chi^2_{min}$ با توجه به اینکه تلاش‌های بیشتری وجود خواهد داشت، سعی می‌کنم این کار را انجام دهم: $احتمال = \frac{e^{-\chi^2_{min}}}{\sum_i^{N_{trials}}e^{-\chi^2_{i}}}$ بنابراین اساساً احتمال نمایی از کمترین است محاسبه شده $-\chi^2_{min}$، تقسیم بر مجموع مقادیر exp($-\chi^2$) محاسبه شده من انتظار داشتم که برای آزمایش های بیشتر مقدار کمتری دریافت کنم $\chi^2_{min}$ و احتمال آن به 1 نزدیک می‌شود (با این فرض که مقدار در صورت‌گر بر مجموع مخرج غالب باشد، به طوری که آنها تقریباً برابر هستند، در واقع برای آزمایش‌های بیشتر I). با افزایش مخرج به دلیل مجموع، مقدار کمتری برای احتمال دریافت کنید مخرج می تواند (و می شود) بزرگتر از 1 شود، آزمایش های بیشتر به سادگی به مقدار کمتری برای احتمال منجر می شود. برای من روشن نیست که چگونه این مشکل را برطرف کنم و هر بینشی بسیار خوشایند خواهد بود! با تشکر
احتمال مقدار معین $\chi^2$ با توجه به تعدادی آزمایش
106132
من در کلاس استنباط خود در حال یادگیری MLE هستم و این مشکلی است که با آن برخورد کردم. دو مدل خطی ساده را در نظر بگیرید. $y_{1j}=\alpha _1+\beta_{1}x_{1j}+\epsilon_{1j}$ و $y_{2j}=\alpha _2+\beta_{2}x_{2j}+\epsilon_{2j} $ , $ j=1,2,...,n>2$ جایی که $ \epsilon_{ij}$~$N(0,\sigma^2)$ ، $\epsilon$ مستقل هستند و به طور یکسان توزیع می شوند. ** برآوردگرهای حداکثر درستنمایی ** $\sigma^2$ را بدست آورید. برای این کار می توانم فقط از **یک** معادله این دو استفاده کنم. آیا می توانم تنها با استفاده از $y_{1j}=\alpha _1+\beta_{1}x_{1j}+\epsilon_{1j}$ پیدا کنم و آیا اگر از معادله دیگر استفاده کنم، همان پاسخی خواهد بود که می‌گیرم؟
برآوردگر حداکثر درستنمایی برای واریانس در دو مدل خطی
106135
به گفته آرمسترانگ شواهد تجربی فراوانی وجود دارد که نشان می‌دهد کاهش روندهای پیش‌بینی بلندمدت نامشخص و پیچیده به بهبود دقت/کاهش خطاهای پیش‌بینی کمک می‌کند. چیزی که من نمی توانم پیدا کنم یک فرمول یا اجرای روندهای کاهش دهنده است. من می دانم که روندهای کاهشی در هموارسازی نمایی وجود دارد که آن چیزی نیست که من به دنبال آن هستم. من به دنبال یک فرمول ساده بودم که به صورت بازگشتی مقادیر پیش بینی شده را بر اساس **ضریب میرایی ارائه شده توسط کاربر** کاهش دهد. فرض کنید مجموعه داده زیر را دارم، 8 مقدار اول واقعی هستند و بقیه پیش بینی می شوند، چگونه می توانید مقادیر پیش بینی شده را با عوامل کاهش دهنده ارائه شده توسط کاربر که روند را به صورت بازگشتی کاهش می دهد، کاهش دهید، به عنوان مثال، با پیشروی زمان، میرایی بیشتری وجود دارد. عدم اطمینان در بلندمدت افزایش می یابد؟ من به طور مصنوعی مقادیر _dapening_ را ارائه کرده ام و مقادیر پیش بینی شده را تعدیل کرده ام، آیا یک فرمول فرآیند مکانیکی برای ایجاد _dampening value_ وجود دارد؟ هر گونه پیشنهاد/توصیه از مقالات/صفحه‌گسترده فرمول اجرای روندهای میرایی بسیار قدردانی می‌شود. با احترام ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/xpvz4.png) ویرایش: می‌خواهم آنچه را که می‌خواهم به آن دست یابم، از نظر یک مثال گویا روشن کنم. فرض کنید اگر یک پیش‌بینی روند داریم همانطور که در زیر نشان داده شده است، stl.ap <-stl(AirPassengers,s.window=periodic) ## استخراج جزء Trend trend.ap <- stl.ap$time.series[,2] plot(trend.ap) ## داده‌های فصلی را نادیده بگیرید زیرا این مثالی است برای تعیین ## نحوه کاهش روند linear.ap <- tslm(trend.ap~+ trend + I(trend^2)) forecast.ap <- forecast(linear.ap, h=36) plot(forecast.ap) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ IRnTE.jpg) همانطور که در بالا مشاهده می شود، این یک طرح غیرواقعی از روند است، آیا فرمولی وجود دارد که به صورت بازگشتی این روند را کاهش دهد. من می خواهم با افزایش افق زمانی، روند را به شدت کاهش دهم.
چگونه می توان پیش بینی را برای بهبود دقت کاهش داد؟
107467
من فهمیدم که پیش‌بینی زمستان Holt ممکن است به دلیل روند، منجر به مقادیر منفی شود. من مقدار مولفه روند را کاهش دادم، اما همچنان مقادیر پیش‌بینی شده قلمرو منفی هستند. مجموعه داده های ما هرگز در مقادیر منفی نخواهد بود (مانند مجموعه داده های برق که هرگز زیر صفر نمی افتد). چه نوع تکنیک‌های الگوریتم پستی را می‌توانیم اعمال کنیم تا این مقدار را به عنوان مقدار غیر منفی تبدیل کنیم؟ هر گونه کمکی قدردانی خواهد شد. این پیاده‌سازی در جاوا است، بنابراین من نمی‌توانم از بسته «ets()» در این نقطه از زمان استفاده کنم (و فرض می‌کنم که «ets()» نیز نمی‌تواند از مقادیر منفی اجتناب کند). ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/7DJ5z.png)
از نتایج منفی در پیش بینی زمستان هالت اجتناب کنید
106286
درست است که تبدیل لاپلاس یک متغیر تصادفی (مثبت) آن متغیر تصادفی را دقیقاً مانند چگالی آن مشخص می کند؟ ($L_X(z) = E(exp(-Xz))$)
تبدیل لاپلاس و چگالی
58856
فرض کنید من سعی می کنم توزیع طول عمر لامپ ها را بررسی کنم. نکته مهم این است که من فقط می‌توانم هر لامپ را حداکثر واحدهای زمانی $T$ مشاهده کنم. بنابراین اگر لامپ قبل از $T$ منفجر نشود، من نمی دانم ارزش طول عمر آن لامپ خاص چقدر خواهد بود، فقط عمر آن بزرگتر از $T$ بود. بنابراین، سؤالات: 1. آیا نام شناخته شده ای برای این نوع سوگیری وجود دارد؟ 2. آیا ارجاعات استانداردی به تکنیک هایی برای مقابله با این مشکل وجود دارد؟
ادبیات در مورد این نوع تعصب
99080
من از این ماشین حساب آنلاین برای انجام تست مک نمار روی این مجموعه داده استفاده می کردم: ![توضیح تصویر را اینجا وارد کنید](http://i.imgur.com/DFsziOx.png) نتایج را دریافت می کنم: > مقدار P دو دنباله معادل 0.1859 > > مربع چی برابر با 1.750 با 1 درجه آزادی است. اکنون می‌دانم که چگونه مجذور چی را محاسبه کنم، اما نمی‌دانم این مقدار P از کجا آمده است. همچنین چگونه مقدار P به اینکه آیا تفاوت قابل توجهی بین طبقه‌بندی‌کننده‌ها وجود دارد، مرتبط است؟ اگر کسی می توانست این را مانند یک برنامه در جاوا اسکریپت یا چیزی توضیح دهد، خیلی واضح تر می شد. هر توضیحی که می بینم، اصطلاحات تخصصی را در همه جا پرتاب می کند.
مقدار p در آزمون مک نمار از کجا می آید؟
70227
من می خواهم نرخ آلودگی در زنبورها را بر اساس شرایط آب و هوایی مدل کنم. متغیرهای آب و هوا وسیله‌ای چرخشی برای دوره‌های زمانی و مدت‌های مختلف هستند. داده‌های وابسته سطوح آلودگی است که در ماه مارس جمع‌آوری شده‌اند و متغیرهای مستقل مجموع آب و هوا (به عنوان مثال از دوره 30 روزه از 1 ژانویه تا 30 ژانویه، دوره 90 روزه از دسامبر 1 تا 28 فوریه)، چند هزار مورد از آنها و همبستگی بالایی دارند. تکنیک‌های PCA کار نمی‌کنند، زیرا عفونت‌ها چندان به آب و هوا مرتبط نیستند. من همچنین درختان میانگین‌گیری مدل بیزی و رگرسیون تقویت‌شده را امتحان کرده‌ام، زیرا متغیرها را می‌توان بر اساس اهمیت متغیری که محاسبه می‌کنند انتخاب کرد. اما از آنجایی که داده‌های من طولی هستند و زنبورستان‌های من مکان ثابتی دارند، فکر می‌کنم مدل‌های ترکیبی انتخاب خوبی هستند. آیا راهی برای انتخاب متغیر بر اساس مدل های ترکیبی وجود دارد؟ کاری که من الان انجام دادم به 1\ است. 'glmer' را برای هر یک از متغیرهای مستقل به طور جداگانه اجرا کنید، 2\. آن متغیرهایی را حذف کنید که مقادیر p برای برآوردهای اثر ثابت کمتر از 0.05 است (مطمئن نیستم که آیا این چیز درستی است - اگر تخمین یک متغیر مهم نیست، آن متغیر تنها متغیر در مدل است، درست است که حذف شود. آن متغیر است؟) 3\. از بین متغیرهای باقیمانده، همبستگی بین متغیرهای 4\ را آزمایش کنید. متغیرهایی را که همبستگی بالایی دارند حذف کنید و به متغیری که کمترین AIC را دارد ترجیح دهید. یا باید در این مرحله نگران p-values ​​Intercepts نباشم و فقط روی AIC (یا BIC) تمرکز کنم؟ از آنجایی که برخی از متغیرها دارای p-value بالا هستند اما AIC کمتر از متغیرهایی با p-value پایین هستند. من سعی کردم زیاد بخوانم، و هیچ راه حل احمقانه ای برای انتخاب متغیر وجود ندارد، اما می خواهم بدانم آیا در روش من مشکلی وجود دارد یا خیر. از آنجایی که من آمارگیر نیستم، معادلات اغلب شبیه خوشنویسی های زیبای عربی هستند و در آنجا بن بست من نهفته است.
انتخاب متغیر با استفاده از مدل های ترکیبی (lme4)
18450
آیا آزمون آماری پارامتریک و ناپارامتریک وجود دارد؟ این سوال توسط یک پانل مصاحبه پرسیده شد. آیا سوال معتبر است؟
آیا آزمون آماری پارامتریک و ناپارامتریک وجود دارد؟
58850
مرزهای خطا در پیش‌بینی سری‌های زمانی واقعاً به چه معناست؟ به عنوان مثال، زمانی که من یک پیش بینی دریافت می کنم، مرزهای خطای بالا و پایین 85٪ و 95٪ را دریافت می کنم. من همچنین می‌توانم مرزهای خطای خود را برای محاسبه تعیین کنم، اما مطمئن نیستم که محدودیت خطا از نظر پیش‌بینی سری‌های زمانی به چه معناست.
مرزهای خطا در پیش بینی چه چیزی را نشان می دهد؟