_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
27283 | رگرسیون لجستیک دو جمله ای دارای مجانب بالایی و پایینی به ترتیب 1 و 0 است. با این حال، دادههای دقت (فقط به عنوان مثال) ممکن است مجانب بالایی و پایینتری داشته باشند که بسیار متفاوت از 1 و/یا 0 هستند. من میتوانم سه راهحل بالقوه برای این موضوع ببینم: 1. اگر به تناسبهای خوبی در این زمینه میپردازید نگران نباشید. منطقه مورد علاقه اگر تناسب خوبی دریافت نمی کنید، پس: 2. داده ها را به گونه ای تغییر دهید که حداقل و حداکثر تعداد پاسخ های صحیح در نمونه، نسبت های 0 و 1 (به جای مثلاً 0 و 0.15) را نشان دهد. _یا_ 3. از رگرسیون غیر خطی استفاده کنید تا بتوانید مجانبی را مشخص کنید یا از برازنده بخواهید این کار را برای شما انجام دهد. به نظر من گزینه های 1 و 2 بیشتر به دلایل سادگی نسبت به گزینه 3 ارجحیت دارند، در این صورت شاید گزینه 3 گزینه بهتری باشد زیرا می تواند اطلاعات بیشتری به دست دهد؟ _edit_ در اینجا یک مثال است. کل صحت ممکن برای دقت 100 است، اما حداکثر دقت در این مورد ~ 15 است. دقت <- c(0,0,0,0,0,1,3,5,9,13,14,15,14, 15،16،15،14،14،15) x<-1:طول(دقت) glmx<-glm(cbind(دقت، 100-دقت) ~ x، خانواده=دوجمله ای) ndf<- data.frame(x=x) ndf$fit<-predict(glmx, newdata=ndf, type=response) نمودار (دقت/100 ~ x) با (ndf، خطوط (مناسب ~ x)) گزینه 2 (طبق نظرات و برای روشن شدن معنای من) مدل خواهد بود glmx2<-glm(cbind(دقت، 16-دقت) ~ x، خانواده=دوجمله ای) گزینه 3 (برای کامل بودن) چیزی شبیه به: fitnls<-nls (دقت ~ upAsym + (y0 - upAsym)/(1 + (x/midPoint)^slope)، start = list (upAsym = حداکثر (دقت)، y0 = 0، midPoint = 10، slope = 5)، پایین = list(upAsym = 0، y0 = 0، midPoint = 1، slope = 0)، بالا = list(upAsym = 100، y0 = 0، midPoint = 19، hillslope = Inf)، کنترل = nls.control(warnOnly = TRUE، maxiter=1000)، الگوریتم = پورت) | مجانب رگرسیون دو جمله ای |
23994 | من مجموعه داده ای از 100 نمونه دارم که هر کدام بیش از 10000 ویژگی دارد که برخی از آنها بسیار همبستگی دارند. این چیزی است که من در حال حاضر انجام می دهم. 1. مجموعه داده را به سه قسمت تقسیم کنید. 2. برای هر چین، 2.1 توری الاستیک را برای 100 مقدار لامبدا اجرا کنید. (این ماتریس nfeatures x 100 را برمیگرداند) 2.2 اتحادی از تمام وزنهای غیر صفر را در نظر بگیرید. (برگردان nfeatures x 1 را برمی گرداند) 3. ویژگی های مربوط به وزن های غیر صفر بازگشتی از 2.2 را انتخاب کنید. 4. از این ویژگی ها برای آموزش و آزمایش SVM استفاده کنید. مشکل من این است که در مرحله 3، برای هر فولد مجموعهای از ویژگیها را دریافت میکنم. چگونه می توانم یک مدل نهایی را از این موضوع بدست بیاورم؟ یک لیست نهایی از ویژگی های مرتبط؟ آیا می توانم یک تقاطع از ویژگی های انتخاب شده در مرحله 3 برای همه تاها داشته باشم؟ به نظر می رسد ویژگی هایی که در هر سه قسمت انتخاب می شوند پایدارترین/مهم ترین باشند. آیا می توانم این کار را انجام دهم یا تقلب است؟ | چگونه مدل نهایی را با انتخاب ویژگی خالص الاستیک، اعتبار متقاطع و SVM انتخاب کنیم؟ |
92308 | من مجموعه ای از داده ها، شمارش در برابر زمان را دارم. کل داده ها به این شکل است  در اینجا یک نمونه x y [ -0.9 0. ] [ -0.8 4. ] [ -0.7 5. ] [ - 0.6 1. ] [ -0.5 9. ] [ -0.4 8. ] [ -0.3 10. ] [ -0.2 9. ] [ 0.1 - 18. ] [ 0. 25. ] [ 0.1 24. ] [ 0.2 26. ] [ 0.3 18. ] [ 0.4 32. ] [ 0.5 25. [ 0.8 23. ] [ 0.9 16. ] من می خواهم نوارهای خطای مناسبی را برای محور y در این داده ایجاد کنم. برخی از افراد در منطقه تحقیقاتی من از موارد زیر استفاده می کنند: $$y \pm \sqrt{y}$$ یا $$y \pm y\sqrt{\frac{1}{y} + \frac{1}{\bar{ y}}}$$ چون قرار است دادهها پواسون باشند، اما این برای من منطقی نیست زیرا مطمئناً برای مقادیر y بزرگتر، بیشتر به حساب میآید... خطا باید کوچکتر شود، نه بزرگتر. | نوار خطا برای داده های شمارش پواسون |
78438 | من سعی می کنم تجزیه و تحلیل LCGA و GMM را در R اجرا کنم، اما مطمئن نیستم که چگونه آن را انجام دهم. داده های من بسیار ساده است، بنابراین اجازه دهید ابتدا آن را توضیح دهم. مجموعه داده توسط تعدادی از بیماران ارائه شده است که به برخی از آیتم های پرسشنامه در پنج زمان مختلف پاسخ گویه (در مقیاس لیکرت از 0 تا 4) داده اند. بنابراین داده های ما توسط Time ID Response داده می شود --------------------- 1 1 2 2 1 1 3 1 2 4 1 1 5 1 3 1 2 4 2 2 1 3 2 3 4 2 2 5 2 1 و به همین ترتیب، برای مجموع $n = 64 $ فردی. من بسته lcmm را کشف کرده ام، اما مطمئن نیستم که چگونه از آن به درستی استفاده کنم. به طور خاص، من در تعجب هستم که چگونه آرگومان های تابع lcmm() را به درستی تنظیم کنم. آیا اگر بگویم که اگر «lcgm» (ثابت = پاسخ ~ زمان، ng = k، موضوع = «ID»)» را اجرا کنم، تجزیه و تحلیل رشد کلاس پنهان انجام میدهم و اگر «lcgm» را اجرا کنم، یک تجزیه و تحلیل مخلوط رشد انجام میدهم، درست است. تصادفی = پاسخ ~ زمان، ng = k، موضوع = ID)` برای تعداد معینی از کلاس ها $k$؟ من کمی گیج هستم زیرا به نظر می رسد استدلال ثابت اجباری است، اما مطمئن نیستم که چگونه تجزیه و تحلیل مخلوط را انجام دهم. حدس میزنم چیزی که میپرسم این است که چگونه مدلها را با تابع «lcmm()» به درستی مشخص کنیم. یا، آیا ممکن است راه راحتتر دیگری برای انجام کاری که میخواهم در R انجام دهم وجود دارد؟ پیشاپیش ممنون | انجام یک تجزیه و تحلیل ساده مخلوط رشد و کلاس رشد نهفته در R |
112506 | بنجامینی و هوچبرگ (1995) برای پرداختن به تست های چندگانه فرض می کنند که آزمون ها مستقل هستند. بنجامینی و یکوتیلی (2001) نشان میدهند که (1) نتیجه 1995 نیز تحت شرایط ضعیفتر (من فکر میکنم) و (2) از جمله فاکتور $\Sigma^m_{i=1}\frac{1}{i}$ نیز وجود دارد. این روش را برای هر ساختار وابستگی قابل اجرا می کند (به قضیه 1.3 مراجعه کنید). از آنجایی که این جمع بزرگتر یا مساوی 1 است، این روش را محافظه کارانه تر می کند. سوال من این است که چرا آزمون های مستقل بدترین فرض نیست؟ آیا مثال ساده ای برای نشان دادن وجود دارد که چرا نه؟ آیا به نوعی ساختار وابستگی منفی را شامل می شود؟ شاید درک من اشتباه باشد، اما فکر کردم که تعدیل بونفرونی (برای خطای خانوادگی) برای هر نوع وابستگی کارآمد است و استقلال بدترین فرض است. شاید این درست نباشد و از این رو سردرگمی من با BH است. | شهود برای فرض وابستگی در بنجامینی و هوچبرگ (1995) چیست؟ |
61191 | من با داده های زیر کار می کنم (تصویر را ببینید) سعی می کنم مقادیر محور Y آینده را از مقادیر X پیش بینی کنم. همانطور که از تصویر می توانید متوجه شوید و همانطور که من کشف کردم، پیش بینی تنها بر اساس داده ها وحشتناک خواهد بود. اکنون سعی می کنم ردیف به ردیف داده ها را مرور کنم و هر نقطه را به عنوان مهم یا غیر مهم طبقه بندی کنم و ببینم آیا می توانم چیز جالبی در طبقه بندی پیدا کنم. من الگوریتم خود را چیزی شبیه به این میخواهم: 1. قدر مطلق هر عنصر را در ستونهای دادههای محور Y و X بگیرید. یا شاید 1٪ (با این کمانچه) با یک پرچم 4. فقط 5٪ بالا را رسم کنید و ببینید آیا مدل خطی (یا برخی از مدل ها) بهتر است R^2 . /renrN.png) دو موردی که من به یک اشاره گر نیاز دارم عبارتند از: * نحوه گام به گام عنصر به عنصر از طریق داده ها، ایجاد تغییرات در طول مسیر * چه نوع تجزیه و تحلیل طبقه بندی وجود دارد که ممکن است مفید باشد، هدف این است که آینده کدام طبقه بندی را پیش بینی کنیم. عناصر نمونه قرار می گیرند. با تشکر | تکرار در ردیف ها و فیلتر کردن داده ها در R |
73082 | من یک سوال بسیار ساده دارم که می توانم بپرسم، اما به تنهایی نمی توانم این را بفهمم. من دو نمونه دارم: نمونه A فقط با سه نقطه داده و نمونه B با صدها نقطه. برای هر نمونه، میانه کمیت معین را اندازه میگیرم. حال سوال من این است که خطای مربوط به میانه چیست؟ من می توانم چارک ها را در نظر بگیرم، اما اگر نمونه A فقط از 1 نقطه تشکیل شده باشد چه؟ این عملاً هیچ خطایی را به مقدار میانه اختصاص نمی دهد. من انتظار دارم اندازه گیری من برای نمونه B دقیق تر باشد. | نحوه تخمین خطا در نمونه با نقاط داده بسیار کم |
112502 | من یک سری ماهانه میانگین متحرک دارم و می خواهم سری اصلی آنها را از میانگین متحرک ساده ای که دارم بازسازی کنم. من اتفاقا پنجره میانگین گیری را می شناسم. آیا می توانم سری اصلی را از میانگین متحرک آنها بازسازی کنم یا تخمین بزنم؟ و در صورتی که من تمام اطلاعات لازم برای بازسازی کامل آن را ندارم، چگونه می توانم آن را تخمین بزنم؟ | تخمین سریال های اصلی از میانگین متحرک آنها |
51285 | من یک سری زمانی دارم که از آن یک نقطه تصادفی را انتخاب می کنم. من به طور تصادفی یک جهت بالا یا پایین را انتخاب می کنم و دو هدف را قرار می دهم. وقتی به هر یک از این اهداف میرسم، شمارنده «هدف 1 رسیده» یا «هدف 2 به دست آمده» را افزایش میدهم، بسته به اینکه به کدامیک اول رسیدهاید. هدف 1 همیشه با 1 +/- مقدار در نقطه انتخاب شده به طور تصادفی تنظیم می شود. هدف 2 دارای مقادیر متفاوتی است: 1،2،4،6،8،10 ... مقدار +/- در نقطه انتخاب شده به طور تصادفی. به عنوان مثال با فرض نقطه انتخاب تصادفی 2 = 4 نقطه انتخاب شده به طور تصادفی = 20 جهت = بالا هدف 1 = 20 + 1 = 21 هدف 2 = 20 - 4 = 16 یا نقطه انتخاب تصادفی = 18 جهت = پایین هدف 1 = 18 - 1 = 17 هدف 2 = 18 + 4 = 22 اگر تمایل به وجود داشت سریهای زمانی برای محلیسازی در اطراف مقادیر قبلی، اگر اندازه هدف 2 را دوبرابر کنم، آیا تعداد هدف 2 رسیده بیش از نصف کاهش نمییابد؟ آیا راههای بهتری برای بررسی اینکه آیا یک سری زمانی حول مقادیر معینی محلی میماند یا خیر وجود دارد؟ | گرایش غیر برگشتی؟ |
78854 | من یک رگرسیون چندگانه به شکل _Y_ = $\beta_0$ + $\beta_1$*$X_1$ + $\beta_2$*$X^2_1$ + $\beta_3$*$X_2$ + $\beta_4$* اجرا میکنم $X_3$ در مجموعه داده سری زمانی. من می خواهم رابطه بین _Y_ و X_1$ را بر اساس این معادله رسم کنم به طوری که پس از در نظر گرفتن اثرات X_2$ و $X_3$ (یا به عبارت دیگر، پس از اثرات X_2$ و $X_3$ از _Y_ حذف می شود. مناسب ترین راه برای این کار چیست؟ | سوال رگرسیون خطی چندگانه |
54637 | با توجه به یک سری زمانی، سعی می کنم تعیین کنم که آیا فرآیند تصادفی زیربنایی یک مارتینگل است یا خیر. تا کنون استنباط کرده ام که از آنجایی که می دانم این روند همیشه پس از یک زمان قطعی محدود است، اگر بتوانم ثابت کنم که یک حرکت براونی است، کارم تمام می شود. آیا تست استانداردی برای این کار وجود دارد؟ | تست مارتینگل |
58396 | این سوال دنباله سوال قبلی من در اینجاست. با تشکر از @Glen_b، @gung و @rbatt که دیروز چیزهای جدید زیادی به من آموختند. قبلاً ذکر شد که توزیع مخلوط ممکن است امکان پذیر باشد، بنابراین فکر کردم که در مورد آنها یاد خواهم گرفت. من چند مقاله در مورد نحوه تطبیق توزیع مخلوط با داده ها دیده ام و بسیار جالب به نظر می رسند. برای تطبیق دو لگ نرمال در دادههایم، موارد زیر را انجام دادم: library(mixtools) x <- c(1528L, 285L, 87138L, 302L, 115L, 416L, 8940L, 19438L, 165820L, 165820L, 540 974 لیتر، 12999 لیتر، 226 لیتر، 190 لیتر، 306 لیتر، 189 لیتر، 138542 لیتر، 3049 لیتر، 129067 لیتر، 21806 لیتر، 456 لیتر، 22745 لیتر، 198 لیتر، 5L، 44515 294 لیتر، 4218 لیتر، 3672 لیتر، 10100 لیتر، 290 لیتر، 8341 لیتر، 128 لیتر، 11263 لیتر، 1495243 لیتر، 1699 لیتر، 247 لیتر، 249 لیتر، 300 لیتر، 386 لیتر، 386 لیتر، 386 لیتر، 524026L, 1392L, 396L, 298L, 1063L, 11102L, 6684L, , 6546L, 289L, 465L, 261L, 175L, 356L, 61636L, , 356L, 61636L, 356L, 61636L, 356L, 61636L, 356L, 61636L , 298L , 61652L, 7 294 لیتر، 95221 لیتر، 322 لیتر، 38892 لیتر، 2146 لیتر، 59347 لیتر، 2118 لیتر، 310801 لیتر، 277964 لیتر، 205679 لیتر، 5980 لیتر، 66102 لیتر، 76102 لیتر، 7602 لیتر، 7602 لیتر 509 لیتر، 21795 لیتر، 21795 لیتر، 301 لیتر، 617 لیتر، 331 لیتر، 250 لیتر، 123501 لیتر، 144 لیتر، 347 لیتر، 121443 لیتر، 211 لیتر، 232 لیتر، 445713، 445713، 1921 لیتر، 178 لیتر، 168 لیتر، 291 لیتر، 6915 لیتر، 6735 لیتر، 1008478 لیتر، 274 لیتر، 20 لیتر، 3287 لیتر، 591208 لیتر، 797 لیتر، 586 لیتر، 17093213 لیتر، 17093213 لیتر، 1497L, 24L, 1407L, 1217L, 1323L, 272L, 443L, 49466L, 323L, 323L, 784L, 900L, 26814L, 2452L, 3L, 214, 214 20439L, 12304L, 261L, 137L, 379L, , 2273L, 274L, 17760L, 920699L, 13L, 485644L, 1243L, 226L, 2038L, 226L, 2038 1477 لیتر، 242 لیتر، 280 لیتر، 253 لیتر، 17964 لیتر، 7073 لیتر، 308 لیتر، 260692 لیتر، 155 لیتر، 58136 لیتر، 16644 لیتر، 29353 لیتر، 543 لیتر، 2328 لیتر، 2328 لیتر، 2328 لیتر، 272 لیتر، 480 لیتر، 219 لیتر، 60 لیتر، 2285 لیتر، 2676 لیتر، 256 لیتر، 234 لیتر، 1240 لیتر، 219714 لیتر، 102174 لیتر، 258 لیتر، 266 لیتر، 33043 لیتر، 794 لیتر، 33043 لیتر، 793 لیتر 293L, 536L, 48557L, 4141L, 39079L, , 23259L, 2235L, 17673L, 28268L, 112L, 64824L, 127992L, 5296L, 5296L, 5296L 1070735L, 179L, 189L, 157L, 157L, 122L, 1045L, 1317L, 186L, 57901L, 456126L, 674L, 2375L, 2375L, 2382L, 12582L 216 لیتر، 114 لیتر، 11662 لیتر، 107890 لیتر، 203022 لیتر، 513 لیتر، 2549 لیتر، 146 لیتر، 53331 لیتر، 1690 لیتر، 10752 لیتر، 1648611، 1648611 لیتر، 1183 لیتر، 1114 لیتر، 10061 لیتر، 720 لیتر، 10 لیتر، 24 لیتر، 220 لیتر، 38 لیتر، 453 لیتر، 10066 لیتر، 115774 لیتر، 97713 لیتر، 7234 لیتر، 773 لیتر، 90154 لیتر، 151 لیتر، 90154 لیتر، 151 لیتر، 125 لیتر، 125 لیتر 214 لیتر، 948 لیتر، 208 لیتر، 1127 لیتر، 221 لیتر، 169 لیتر، 1528 لیتر، 78959 لیتر، 61566 لیتر، 88049 لیتر، 780 لیتر، 6196 لیتر، 633 لیتر، 214 لیتر، 219 لیتر، 211، 211 561 لیتر، 112 لیتر، 17557 لیتر، 101086 لیتر، 244 لیتر، 257 لیتر، 94483 لیتر، 6189 لیتر، 236 لیتر، 248 لیتر، 966 لیتر، 117 لیتر، 333 لیتر، 278 لیتر، 333 لیتر، 278 لیتر، 568 لیتر، 568 لیتر، 568 لیتر 25258L, 127931L, 7735L, 112717L, 395L, 12960L, 11383L, 16L, 229067L, 259076L, 311L, 366L, 22256L, 22560L 3551 لیتر، 7782 لیتر، 4256 لیتر، 87121 لیتر، 4971 لیتر، 4706 لیتر، 245 لیتر، 34457 لیتر، 4971 لیتر، 4706 لیتر، 245 لیتر، 34457 لیتر، 258 لیتر، 32301 لیتر، 32301 لیتر 2231L, 247L, 537L, 301L, 2214L, 230L, 1076L, 1881L, 266L, 4371L, 88304L, 50056L, 50056L, 2861L, 50056L, 2861L, 2831L, 2831L, 2831L, 50056L. 48200L، 48200L، 6236L، 82158L، 6236L، 82158L، 1331L، 713L، 89106L، 46315L، 220L، 5634L، 170126.23L، 1705828.1.1. 247 لیتر، 804 لیتر، 125 لیتر، 5507 لیتر، 1271 لیتر، 2567 لیتر، 441 لیتر، 6623 لیتر، 64781 لیتر، 1545 لیتر، 240 لیتر، 2921 لیتر، 777 لیتر، 697 لیتر، 2019 لیتر، 2019 لیتر 183 لیتر، 297 لیتر، 9010 لیتر، 16304 لیتر، 930 لیتر، 6522 لیتر، 5717 لیتر، 17 لیتر، 20 لیتر، 364418 لیتر، 58246 لیتر، 7976 لیتر، 304 لیتر، 4814 لیتر، 304 لیتر، 4814 لیتر، 29 لیتر، 4814 لیتر، 49 لیتر 6972 لیتر، 15 لیتر، 40922 لیتر، 471 لیتر، 2342 لیتر، 2248 لیتر، 23 لیتر، 2434 لیتر، 23342 لیتر، 807 لیتر، 21 لیتر، 345568 لیتر، 324 لیتر، 188 لیتر، 189 لیتر، 189 لیتر، 189 لیتر، 195L, 187L, 185L, 33968L, 1375L, 121L, 56872L, 35970L, 929L, 151L, 5526L, 156L, 2687L, 4870L, 2687L, 4870L, 2687L, 48703L, 26L, 4870L, 2687L, 2683L, 269L, 35970L. 265 لیتر، 261 لیتر، 30501 لیتر، 5435 لیتر، 9849 لیتر، 5496 لیتر، 1753 لیتر، 847 لیتر، 265 لیتر، 280 لیتر، 1840 لیتر، 1107 لیتر، 2174 لیتر، 18907 لیتر، 2174 لیتر، 18907، 2174 لیتر، 18907، 2174 لیتر، 18907، 2174 لیتر، 18907 لیتر، 5496 لیتر، 1753 لیتر، 847 لیتر، 265 لیتر، 1080L, 45L, 6453L, 136351L, 521L, 715L, 668L, 14550L, 1381L, 13294L, 13100L, 6354L, 6319L, 6319L, 84847, 6319L, 84847 2126 لیتر، 36 لیتر، 572 لیتر، 1448 لیتر، 215 لیتر، 12 لیتر، 7105 لیتر، 758 لیتر، 4694 لیتر، 29369 لیتر، 7579 لیتر، 709 لیتر، 121 لیتر، 781 لیتر، 1266 لیتر، 781 لیتر، 1266 لیتر، 781 لیتر، 11914 لیتر، 1933L, 320L, 1628L, 2346L, 2955L, 204852L, 206277L, 2408L, 2162L, 312L, 280L, 243L, 84050L, 84050L, 1290L 119392L, 182960L, 261791L, 92L, 415L, 144L, 2006L, 1172L, 1886L, 233L, 36123L, 7855L, 554L, 229L, 2292L, 234L 142L, 3848L, 3847L, 3965L, 3431L, 2465L, 1717L, , 3952L, 854L, 854L, 834L, 14608L, 172L, 78833L, 75L, 75L 5478L, 782L, 9066L, 6733L, 568L, 611L, 533L, 1022L, 334L, 21628L, 295362L, 34L, 486L, 279L, , 257L, 250L, 250L 293 لیتر، 258 لیتر، 1854 لیتر، 209 لیتر، 152 لیتر، 1139 لیتر، 398 لیتر، 3275 لیتر، 284178 لیتر، 284127 لیتر، 826 لیتر، 751 لیتر، 1814 لیتر، 3917 لیتر، 1814 لیتر، 3917 لیتر، 15 43 لیتر، 1463 لیتر، 385 لیتر، 64 لیتر، 5279 لیتر، 885 لیتر، 1193 لیتر، 190 لیتر، 451 لیتر، 1093 لیتر، 322 لیتر، 453 لیتر، 680 لیتر، 452 لیتر، 677 لیتر، 128 لیتر، 120 لیتر، 128 لیتر، 120 لیتر 1165 لیتر، 476 لیتر، 211 لیتر، 4437 لیتر، 7310 لیتر، 778 لیتر، 260 لیتر، 855 لیتر، 353 لیتر، 97 لیتر، 34 لیتر، 87 لیتر، 137 لیتر، 101 لیتر، 416 لیتر، 416 لیتر، 148 لیتر، 148 لیتر، 291 لیتر، 4050 لیتر، 14569 لیتر، 271 لیتر، 1968 لیتر، 6553 لیتر، 2535 لیتر، 227 لیتر، 202 لیتر، 647 لیتر، 266 لیتر، 2681 لیتر، 106 لیتر، 158 لیتر، 234 لیتر، 234 لیتر، 234 لیتر، 465 لیتر، 436 لیتر، 245 لیتر، 245 لیتر، 2790 لیتر، 104 لیتر، 1283 لیتر، 44416 لیتر، 142 لیتر، 13617 لیتر، 232 لیتر، 171 لیتر، 221 لیتر، 719 لیتر، 1838 لیتر، 1838 لیتر، 12214 لیتر، 3780 لیتر، 5556 لیتر، 5368 لیتر، 106 لیتر، 246 لیتر، 101 لیتر، 158 لیتر، 10743 لیتر، 5 لیتر، 46478 لیتر، 5286 لیتر، 9866 لیتر، 32594 لیتر، 78 لیتر، 32594 لیتر، 79 لیتر، 100 لیتر 19350L, 230L, 78449L, 78414L, 78413L, 78413L, 6260L, 6260L, 209L, 2552L, 522L, 178L, 140L, 6L, 1726L, 1725 132360 لیتر، 132252 لیتر، 4821 لیتر، 4755 لیتر، 197 لیتر، 567 لیتر، 113 لیتر، 30314 لیتر، 7006 لیتر، 10 لیتر، 30 لیتر، 55281 لیتر، | برازش توزیع های مخلوط و محاسبه خوبی از تناسب؟ |
92303 | من دو تصویر دارم و سعی می کنم نابرابری بین آنها را با استفاده از مجموع فواصل مجذور محاسبه کنم و نابرابری را در فضای سه بعدی بازسازی کنم. آیا باید قبل از محاسبه نابرابری تصویر را اصلاح کنم؟ در زیر مراحلی وجود دارد که من تاکنون برای محاسبه نقشه نابرابری انجام دادهام (من با اصلاح و بدون اصلاح امتحان کردم اما هر دو ماتریس نابرابری صفرها را برمیگردانند). برای هر پیکسل در تصویر سمت چپ X، پیکسل های همان ردیف را در تصویر سمت راست بگیرید. ردیف در تصویر سمت راست را از ویندوز جدا کنید. برای هر پنجره، نابرابری هر پیکسل در آن پنجره را با X محاسبه کنید پیکسلی را در پنجره ای که حداقل SSD را با X می دهد انتخاب کنید پیکسلی را با حداقل اختلاف بین تمام پنجره ها به عنوان بهترین تطابق با X پیدا کنید آیا آن را به درستی انجام می دهم؟ چگونه می توانم بازسازی سه بعدی نابرابری را به صورت نمودار پراکندگی در متلب تجسم کنم؟ | چگونه تفاوت دو تصویر را در متلب محاسبه کنیم؟ |
78918 | آیا $E(E(Y|A) | B) = E(Y|A,B)$؟ چگونه این را نشان می دهد؟ به طور شهودی، منطقی است که شرطی کردن در یک زمان به همان چیزی منجر شود که شرطی کردن یکباره. | نشان می دهد که E(E(Y|A))|B) = E(Y|A,B)؟ |
93901 | من می خواهم در مورد منحنی های گیرنده-اپراتور-ویژگی ها و معیارها بیاموزم. من صفحات وب آنلاین را با برخی اصول اولیه مطالعه کرده ام و از MATLAB داخلی برای ایجاد نمودارهای ROC استفاده کرده ام. در مورد مبالغ مساحت به من می گوید. من همچنین به ماژول JMP برای طبقه بندی و برای نمودار لجستیک که نمودارهای ROC را می سازد نگاه کرده ام. قانون اینجا چیست؟ یک کتاب درسی عالی با اصول عمیق و تئوری کار شده چیست؟ MATLAB و R ترجیح داده می شوند. چه کسی میدان را ساخت؟ چه زمانی؟ چرا؟ من به دنبال مراجع خوب هستم. با تشکر | من می خواهم در مورد منحنی ROC بیاموزم -- کتاب درسی متعارف چیست؟ |
8800 | من با استفاده از برنامه آزمایش می کنم. 5000 مجموعه داده برچسبگذاری شده. من الگوریتم ML نظارت شده متفاوتی را برای ارزیابی نتایج امتحان میکنم. اندازه برداری با برچسبها 13 است (در مجموع 12 ویژگی + 1 برچسب) و من 15 بردار از کلاس گل برچسبگذاری شده دارم. آزمایشها شامل تمام مجموعه دادهها با استفاده از اعتبارسنجی متقابل 10k است. همه ویژگی ها پیوسته هستند. 1 آزمایش با استفاده از ویژگیهای «خالص» همه مجموعه دادهها. 2 آزمایش با استفاده از تنها یک ویژگی (از 12) تغییر کلاس گل. من ساده بیس، C4.5 را اعمال کردم، اما همه نتایج 1 و 2 یکسان است، با این حال رگرسیون لجستیک نتایج متفاوتی می دهد و بیشتر طول می کشد. 1- با توجه به بهترین تجربیات شما، چه چیزی باعث تفاوت بین ساده لوح، c.45 و رگرسیون لجستیک می شود، چگونه باید نتایج را ارزیابی کنم تا مخاطبان راضی شوند؟ 2- اگر عملکرد یک معیار مهم است و برای سیستم های IDS از طبقه بندی کننده استفاده می شود، کدام الگوریتم ML را پیشنهاد می کنید؟ **ویرایش: توضیحات بیشتر برای روشن شدن سوال:** ما 8 برچسب کلاس مختلف داریم. گل + 7 برچسب دیگر. در آزمایش 2 ما تنها یک ویژگی کلاس گل را از 12 ویژگی تغییر می دهیم (15 کلاس با برچسب گل ثابت می ماند اما تنها یک ویژگی تغییر می کند.). همه مجموعه داده های دیگر یکسان می مانند. بنابراین ما آزمایشهایی را با استفاده از رگرسیون لجستیک، خلیجهای ساده و c4.5 به طور جداگانه با دو مجموعه داده متفاوت انجام میدهیم. (1- با 5000 مجموعه داده، 2- مجموعه داده های دیگر در یک ویژگی کلاس گل تفاوت تغییر دارند، همه کلاس های دیگر ثابت می مانند). مقایسه: ما نتایج وضعیت شماره 1 و 2 را داریم، در C4.5 و بایزهای ساده، چیزی تغییر نمی کند، FP و FN. اما رگرسیون لجستیک نتایج جالبی می دهد. 12 0.4 0.4 0.5 2.333 434 12.2 10 2 10 12 12 گل ...................................... ...... گل .......................................... ...................................... گل (مجموع 15 کلاس گل. ) // یک ویژگی تغییر ویژگی دوم. 12 0.8 0.4 0.5 2.333 434 12.2 10 2 10 12 12 گل ...................................... ...... گل .......................................... ...................................... گل (مجموع 15 کلاس گل، ویژگی دوم همه تغییر کردند.) > برای مثال میتوانم نظر بدهم: چون C4.5 از حداکثر > تعداد کلاس در گرههای برگ استفاده میکند، تغییر یک ویژگی در کلاس گل > خواهد بود. نه تاثیر/تغییر کلاس های گره برگ با این حال، رگرسیون لجستیک > استفاده می کند ... بنابراین ما این نوع تفاوت ها را مشاهده می کنیم.؟؟؟ | تفسیر تغییر ویژگی یک در طبقه بندی کننده نظارت شده |
61190 | آیا تفاوتی بین مدل انتخاب باینری و مشکل طبقه بندی وجود دارد؟ به عنوان مثال، مدل انتخاب دودویی ممکن است از رگرسیون لجستیک استفاده کند، که همچنین یک رویکرد پرکاربرد در طبقه بندی است. | مدل انتخاب باینری و طبقه بندی |
32303 | من علاقه مند به مقایسه میزان تنوع در 8 نمونه مختلف (هر یک از یک جمعیت متفاوت) هستم. من می دانم که این کار را می توان با چندین روش با داده های نسبت انجام داد: F-test برابری واریانس، آزمون Levene، و غیره. با این حال، داده های من دایره ای/جهتی است... من تحقیقاتی انجام داده ام و یک آزمون را در بسته CircStats در R - تست واتسون برای همگنی. یکی از کاستی ها این است که این تست فقط دو نمونه را با هم مقایسه می کند، به این معنی که من باید چندین مقایسه را روی 8 نمونه خود انجام دهم (و سپس از اصلاح Bonferonni استفاده کنم). سؤالات من این است: 1) آیا آزمون بهتری وجود دارد که بتوانم از آن استفاده کنم؟ 2) اگر نه، مفروضات آزمون واتسون چیست؟ آیا پارامتریک/غیر پارامتریک است؟ 3) با چه الگوریتمی می توانم این تست را انجام دهم؟ دادههای من در Matlab هستند و ترجیح میدهم برای اجرای آزمایشم مجبور نباشم آنها را به R منتقل کنم. من ترجیح می دهم فقط تابع خودم را بنویسم. | چگونه برابری واریانس ها را با داده های دایره ای آزمایش کنیم |
73089 | من از آموزش معروف جفت های ادغام شده فقط برای سهام های مختلف برای یکپارچه سازی استفاده می کنم. adf.test یک هم انباشتگی کامل را به دست می دهد، که به نظر من باید نادرست باشد. دلیلش این است: وقتی adf.test() را روی مجموع یک سری تصادفی اجرا میکنم، طرح به این شکل است: و خروجی adf.test زیر را به دست می دهد: داده های آزمایش دیکی-فولر افزوده شده: sp Dickey-Fuller = -2.8333، ترتیب تاخیر = 4، **p-value = 0.2314** فرضیه جایگزین: ثابت در اینجا یک گسترش است که من ساختم، توجه کنید که چگونه به نظر می رسد شبیه به پیاده روی تصادفی است:  که خروجی adf.test() زیر را به دست می دهد: داده های تست Dickey-Fuller Augmented: sprd3 Dickey-Fuller = 3.719، ترتیب تاخیر = 7، **p-value = 0.99** فرضیه جایگزین: ثابت پیام هشدار: در adf.test(sprd3): p-value بیشتر از p-value چاپ شده. چرا مقدار p بین این دو مورد بسیار متفاوت است؟ من به سختی می توانم باور کنم که گسترشی که در نمودار ایجاد کردم کاملاً ثابت است... با تشکر. | تست ADF در R که هم انباشتگی کامل را به دست می دهد. این چگونه ممکن است؟ |
55900 | میخواهم مطالعهای انجام دهم تا بررسی کنم که آیا بین اعتماد به نفس و رضایت دانشجویان پرستاری و شهودی آنها همبستگی وجود دارد یا خیر. من دو ابزار دارم، پرسشنامه رضایت و اعتماد به نفس دانشجویی در یادگیری، یک ابزار 13 سوالی است که از مقیاس پنج نقطه ای برای سنجش اعتماد به نفس و رضایت در دانشجویان پرستاری و پرسشنامه شهودی میلر که یک ابزار 18 سوالی است استفاده می کند. مقیاس شش نقطه ای از چه آزمون آماری می توانم استفاده کنم تا ببینم آیا ارتباطی بین این دو وجود دارد؟ ویرایش: من به سمت همبستگی مرتبه رتبه اسپیرمن متمایل هستم، لطفاً کسی می تواند تأیید کند که این مناسب است؟ | برای اینکه ببینم بین دو ابزار مختلف همبستگی وجود دارد به چه آزمون آماری نیاز دارم؟ |
8808 | هنگام کار با توزیع یکنواخت در بازه $[-\theta,\theta]$ چگونه عبارت بازه اطمینان بیزی $100(1-\alpha)$% را استخراج می کنید؟ | استخراج فاصله اطمینان بیزی |
111432 | من برخی از داده های درصدی به دست آمده از تجزیه و تحلیل حضور و عدم حضور دانه در خوشه های گندمی دارم که تحت دو تیمار (کنترل و تنش گرمایی) قرار گرفته اند. به عنوان مثال، داده ها ممکن است مانند 10٪، 15٪، 20٪ برای استرس و 80٪، 85٪، 90٪ برای کنترل باشد. من میدانم (نه حداقل از پیوند زیر) که باید دادههایم را به arcsin تبدیل کنم و سپس آنها را مانند هر مجموعه داده دیگری تجزیه و تحلیل کنم. این درست است، اینطور نیست؟ http://archive.bio.ed.ac.uk/jdeacon/statistics/tress4.html#تبدیل سوال اصلی من این است که وقتی این داده ها را تغییر دادم و بیان کردم که در روش خود این کار را انجام داده ام (مثلاً همه درصدهای دیگر تحت تبدیل زاویه ای قرار گرفت و این داده ها به همراه بقیه داده ها با روش های آماری پارامتریک مورد تجزیه و تحلیل قرار گرفتند، آیا همچنان به داده های نمودارها و جداول به عنوان درصد اشاره می کنم؟ به عنوان مثال، آیا 8٪ پس از تبدیل شدن، تبدیل به کمان 16.48 می شود یا هنوز هم می توانم آن را به عنوان 16.48٪ توصیف کنم و در محور y یک نمودار داشته باشم؟ | تغییر درصد (و نمایش نهایی) |
25666 | من درخت تصمیم را بر اساس راسل و نورویگ AIMA (در ویرایش سوم، ص 704) اجرا کردم. ## فرض فرمول داده شده برای محاسبه آنتروپی برای مواردی که همه مثالهای مثبت یا همه موارد منفی را دارید، کار نمیکند. برای نتایج باینری: $$B(q) = -(q * lg_2(q)+(1-q) * lg_2(1-q))$$ $$q=\frac{p}{p+n}$ $ > 'p' نشان دهنده تعداد مثبت، 'n' منفی است بنابراین من اصلاحی انجام دادم که در چنین مواردی چیزی محاسبه نمی شود و به سادگی صفر (ترتیب کل) برگردانده می شود. ## مشکل تناسب دقیق فرض کنید اطلاعاتی در مورد جمعیت در ایالات متحده دارید و میخواهید همه افرادی که در بوستون زندگی میکنند را فیلتر کنید. با این حال، اگر در ویژگیهای خود شماره اجتماعی دارید، میتوانید «بوستون» (یا «نه بوستون») را با دقت نقطهای تعیین کنید. بنابراین وقتی DT بهره را برای هر ویژگی محاسبه میکند، وقتی نوبت به عدد اجتماعی میرسد، تمام سود ناگهانی حداکثر است، زیرا هر مقدار مشخصه (عدد اجتماعی خاص) نتیجه فوری در مورد مکان میدهد. بیایید نگاهی به معادله بیندازیم (من معادله را برای باقیمانده بازنویسی میکنم، حداکثر بهره = حداقل باقیمانده): $$ Remainder(A) = \sum_{k=1}^d \frac{p_k+n_k}{p+n}B (\frac{p_k}{p_k+n_k}) $$ > B نشاندهنده آنتروپی است، «k» نشاندهنده کلاس داده شده (مقدار ویژگی) است، بنابراین، داشتن افراد «n» DT کل جمعیت را به «n» زیرمجموعه تقسیم کرد که هر کدام 1 نفر بودند. این امکان وجود داشت زیرا آنتروپی چنین زیرمجموعه ای صفر است، در نتیجه حاصلضرب نیز صفر است، و مجموع موجود صفر است. من لبه های 'n' از گره ریشه خواهم داشت (یک overkill و overfit همزمان)، اما برای DT بهینه است. ## سوال چگونه می توان از چنین تأثیری جلوگیری کرد؟ AIMA این مشکل را برای من خیلی ساده لمس می کند (p.707). ### حدس من هر ویژگی چند ارزشی به مجموعه ای از ویژگی ها با ارزش باینری تبدیل می شود. به عنوان مثال برای رنگ ها -- تبدیل: color = { قرمز، نارنجی، آبی } به is_red = { true، false } is_orange = { true, false } is_blue = { true, false } به این ترتیب می توانم از مشکل آنتروپی صفر جلوگیری کنم و اگر بالاخره به چنین موقعیتی رسیدم دلیل خوبی خواهد بود. دوم، من میتوانم در مورد تعداد یالها مطمئن باشم، بنابراین به طور ضمنی این عامل در پیادهسازی تعبیه میشود (در AIMA این خارج از کنترل است، به معادله بالا نگاه کنید، تعداد یالها -- `k` \-- به عنوان یک مورد استفاده نمیشود. عامل). روش دیگر افزودن «k» به عنوان ضریب آنتروپی یال ها است. با این حال من هیچ سرنخی ندارم که چگونه آن را با اطمینان انجام دهم. | چگونه از تناسب دقیق در سطح ورودی در درخت تصمیم جلوگیری کنیم؟ |
112500 | من مقداری رگرسیون را با استفاده از شبکه عصبی انجام میدهم (با استفاده از پیادهسازی MLP از http://deeplearning.net/tutorial/mlp.html، از خودم استفاده کردم اما قبل از اینکه این یکی را انتخاب کنم همان نتایج را ایجاد کرد)، SGD استاندارد با انتشار پسانداز ، نرخ یادگیری 0.01، کاهش وزن 0.01، تابع فعال سازی برای واحدهای پنهان - $\tanh$، واحد خروجی خطی است، 10 000 نمونه آموزشی تابعی که من بهینه سازی می کنم فقط $\cos{(x)}$ است. بنابراین مشکل مربوط به دامنه x است. اگر $[-0.5,0.5]$ باشد، شبکه فقط خط مستقیم را یاد می گیرد:  (این مزخرفات پیش بینی کننده را نادیده بگیرید، خطوط جدا از غیر کاربردی باید شبیه تابع هدف باشند). اگر چیزی جز دامنه را به $[-2, 2]$ تغییر دهم، این را دریافت می کنیم:  چیزی که ما می خواستیم. چرا این اتفاق می افتد؟ من فرض میکنم که به دلیل تأثیر واحدهای $tanh$، وزن ورودی آنها به سرعت آنقدر کوچک میشود که تمام فعالسازیها را کاملاً خطی نشان دهد (با توجه به اینکه $tanh$ این بخش خطی را در حدود صفر دارد). اما چرا؟ به نظر می رسد من چیزی را از دست داده ام. | دامنه تابع به عنوان یک مسئله برای واحد خروجی خطی |
92307 | من یک مجموعه داده با 1206 نماینده از دو اتاق مختلف (به ترتیب 1998 و 2002) دارم. علاوه بر این، 18 حزب وجود دارد و برخی از نمایندگان در هر دو مجلس (آنهایی که مجدداً انتخاب شدند) حضور دارند. من به رابطه بین نظم و انضباط حزبی (در مقیاس 0 تا 100) و احتمال انتصاب به عنوان رهبر حزب (0 یا 1) علاقه مند هستم، اما همچنین علاقه مند به تخمین های جداگانه برای هر حزب هستم. یکی از همکلاسیها به من گفت که مدل جلوه ترکیبی زیر مناسب است، اما نمیدانم با همبستگی درون موضوعات چه کنم: مدل <- glmer(رهبر ~ رشته + (1 + رشته | محفظه: مهمانی)، داده، خانواده = دوجمله ای) ساختار این داده ها چیست و کدام مدل در این مورد (با استفاده از R) مناسب است؟ | داده های چند سطحی با همبستگی درون آزمودنی ها |
73084 | من در حال تجزیه و تحلیل داده ها در مورد رویدادهایی هستم که آنها را به گروه های دسته بندی کرده ام. بنابراین، به عنوان مثال، بگویید من 3000 رویداد دارم که در 5 گروه طبقه بندی شده اند، که آنها را از A تا E می نامیم. من چیزی شبیه رویداد | گروه | زمان --------+-------+------- 1 | A | 0 2 | A | 5 3 | ج | 7 4 | D | 16 ... | | 3000 | B | 6000 اکنون، میخواهم ببینم آیا نوعی توالی زمانی طولانی n-رویداد وجود دارد که به طور مکرر ظاهر میشود (بالاتر از شانس). بنابراین برای مثال یک الگوی طولانی 4 رویدادی ممکن است این باشد: **A** \- _3 ثانیه_ \- **A** \- _2 ثانیه_ \- **D** \- _5 ثانیه_ \- **C** من این مقاله را پیدا کردم که روش جالبی را پیشنهاد می کند (من در واقع روی قطارهای سنبله کار نمی کنم، اما موضوع به اندازه کافی مشابه است)، اما قبل از اجرای آن می خواهم ببینم آیا کسی از روش ها/آمارهای دیگری که می تواند برای این مورد استفاده شود اطلاع دارد یا خیر. نوعی مشکلات | تجزیه و تحلیل الگوهای زمانی |
51284 | من سعی می کنم راهی برای پیوند دادن حروف از یک متن به موقعیتی بین 1 تا 255 ایجاد کنم. به عنوان مثال، متن این است: stackexchange من می خواهم هر حرف را به عددی بین 1 و 255 پیوند دهم. همان کلمه باید خروجی یکسانی داشته باشد و کلی باید یکنواخت باشد (اگر ورودی زیادی بدهم، دوست دارم توزیع یکنواختی داشته باشم.) // و البته، من می خواهم که stackexchange همیشه یکسان باشد. خروجی // به عنوان مثال s=>12 || t=>88 || a=>65 || c=>214 || ... || c=>142 ||... می توانید به من کمک کنید؟ با تشکر | توزیع یکنواخت روی 255 از متن |
104660 | یکی از متغیرهای مستقل برای رگرسیون لاجیت دو جمله ای من سن است. برای اینکه سن را نرمال کنم، با استفاده از گزینه های نردبانی آن را به سن ریشه دوم تبدیل می کنم. چگونه می توانم سن ریشه دوم تبدیل شده را با استفاده از نسبت فرد تفسیر کنم. متشکرم! | تفسیر نسبت شانس داده های تبدیل شده در یک مدل لاجیت |
51287 | از آنجایی که مدتی است که به ماشینهای بردار پشتیبان نگاه میکردم و اکنون برای پیادهسازی مرحله طبقهبندی یک مدل svm آموزش دیده مواجه هستم، میخواهم بپرسم آیا کسی میتواند به نحوه انجام مرحله طبقهبندی واقعی اشاره کند (با فرض اینکه من این کار را انجام دهم. دوست دارم آن مرحله را به زبان سطح پایین منتقل کنم) از مدل آموزش دیده Matlab SVM من اینها را دارم: پشتیبانی از بردارها (n * #features) بایاس (1x1) alpha (n * 1) shift (1 x n) scaleFactor (1 x n) سیگما برای rbf (1x1) با توجه به یک نمونه جدید (1 x #ویژگی ها) مرحله طبقه بندی را به صورت زیر انجام می دهم: مقیاس و جابجایی هر ویژگی در نمونه: نمونه = scaleFactor * (نمونه + shift) نگاشت هسته را با RBF با هسته = exp(-1/(2*sigma^2) محاسبه کنید * ||x-y_i||^2) جایی که x نمونه جدید من است و y هر بردار پشتیبان (؟) حالا من متحیر هستم، هر فاصله بین x و y_i در آلفای مناسب ضرب می شود؟ همه این مقادیر جمع می شوند و سپس بایاس اضافه می شود و پس از آن یک علامت () ساده اضافه می شود؟ بنابراین: sign(sum(exp(-1/(2*sigma^2) * ||x-y_i||^2) * alpha_i) + bias) آیا این درست است؟ اگر چنین است، برای صرفه جویی در حافظه در زمان اجرا - آیا راهی برای تقسیم محاسبات هسته به گونه ای وجود دارد که همه بردارهای پشتیبانی در حافظه ذخیره نشوند؟ ممنون از وقتی که گذاشتید :) با سلام | مرحله طبقه بندی SVM در سیستم تعبیه شده با هسته RBF |
60827 | من یک دیتافریم (از قیمت ها) دارم که در زیر داده شده است dat <- data.frame(company = rep(c(A، B، C، D، index)، هر = 5)، قیمت ها = c(runif(5، 10، 12)، runif(5، 108، 112)، runif(5، 500، 510)، runif(5، 40، 50)، runif(5، 1000، 1020))) من باید بتای شاخص A، B، C و D w.r.t را پیدا کنم. بتای بین دو متغیر X و Y (که در آن Y وابسته است) توسط بتا داده می شود <- coef(lm(Y~ X))[2] هر گونه راهنمایی قابل تقدیر است. | چگونه بتا را پیدا کنیم؟ |
55907 | آیا کسی می تواند به من کمک کند تا پاسخ من به این سؤال را تأیید کنم:  پاسخ های من از ردیف اول می آیند، که در آن معنی 0.0002، 0.0011 است. و به ترتیب 0.0005. از آنجایی که همه آنها زیر 5٪ هستند، پس نتیجه گیری باید درست باشد، درست است؟ آیا من به اشتباه به این موضوع فکر می کنم؟ | اعتبارسنجی برای سوال ANOVA |
60826 | فرض کنید $X_1,\ldots,X_n$ یک نمونه تصادفی از تابع چگالی است $$f(x,\theta)=\displaystyle\frac{1}{2\theta}e^{\displaystyle-\frac{|x |}{\theta}}، \quad -\infty<x<\infty\,\text{.}$$ If $T_1=\sum_{i=1}^{n} a_i X_i\، $ و $T_2=\sum_{i=1}^{n} |X_i|$، چگونه $cov(T_1,T_2) را محاسبه کنم دلار؟ | چگونه می توانم $cov(T_1,T_2)$ را محاسبه کنم |
51280 | من سعی دارم خروجی های الگوریتم k-means کد شده توسط من و خروجی های **`kmeans`** را مقایسه کنم. از آنجایی که هدف الگوریتم به حداقل رساندن مجموع مجموع مربعهای درون خوشهای (WCSS) است، من باید به خروجی ininss **kmeans** و WCSS خود نگاه کنم. چیزی که من نمی توانم بفهمم این است که چقدر باید اجازه دهم که این مقادیر چقدر باید نزدیک باشند تا بتوانم بگویم نزدیک هستند. (میدانم که میتوانم با استفاده از سانتروئیدها نیز تأیید کنم، اما وقتی دادهها به خوبی خوشهبندی نشدهاند، مرکزها میتوانند بسیار متفاوت باشند اما کل WCSS میتواند نزدیک باشد، و از این رو من به WCSS نگاه میکنم.) | مقایسه خروجی خوشه بندی k-means |
59447 | من یک سوال در مورد ضرایب مدل های VAR مورد استفاده در داده های منتسب شده چندگانه دارم (عدم خطا در برخی از متغیرها: تا 40٪). به ویژه می خواهم بدانم که ضرایب چگونه با واریانس توضیح داده شده مرتبط هستند. من از خودرگرسیون برداری بر روی داده های چندگانه (m=10) استفاده کرده ام و سپس ضریب تخمین زده شده را با قانون روبین ترکیب کرده ام. با این حال، چیزی که من را گیج می کند این واقعیت است که واریانس انتساب من در رابطه با تخمین ها و واریانس ضرایب بسیار کوچک است، اما تفاوت بین واریانس توضیح داده شده بین مدل ها بسیار زیاد است (17٪ تا 0.04٪). ایده من این است که از آنجایی که بالاترین واریانس انتساب در همه سیستمها ثابت است (حدود یک سوم مقدار واریانس اما 3-4 برابر بیشتر از سایر ضرایب) و این به شدت بر واریانس توضیحداده شده تأثیر میگذارد. اما این فقط یک حدس است. خیلی خوشحال میشم اگه کسی اینجا کمکم کنه | واریانس انتساب و واریانس توضیح داده شده (در خودرگرسیون برداری) |
25660 | من باید توزیع های نمونه را با توزیع های نظری مقایسه کنم، که معمولاً با آزمون کای دو انجام می شود. مشکل این است که من توزیع هایی دارم که در آن یک یا چند سلول مقادیر پایینی دارند و در نتیجه آزمون کای دو مقادیر p بسیار کوچک را گزارش می کند. به عنوان مثال، یک فرکانس معمولی مورد انتظار و مشاهده شده [152 2 9] و [140 5 18]، با مقدار p 0.0007 است. بر اساس دانش حوزه، این دو توزیع تفاوت معناداری با هم ندارند. چه آزمایشی را می توان به جای خی دو استفاده کرد، که می تواند سوگیری را که در سلول های با ارزش کوچک رخ می دهد، از بین ببرد؟ **ویرایش: افزودن برخی اطلاعات پس زمینه برای این مشکل.** من تعدادی فرآیند دارم که به عنوان خروجی پارامترهای فنی خاصی را تولید می کنند که به صورت سری زمانی ثبت می شوند. من حدود 4000 مورد از این فرآیندها را دارم که هر کدام حدود 150 سری زمانی از این دست تولید میکنند (تعداد سریهای زمانی یک فرآیند از قانون توان پیروی میکند). من می خواهم پیدا کنم که کدام یک از این فرآیندها غیرعادی هستند، یعنی خروجی تولید می کنند که به طور قابل توجهی با سایر فرآیندها متفاوت است. برای انجام این کار، سریهای زمانی را با استفاده از k-means خوشهبندی میکنم، و سپس بر اساس خوشهها، توزیع «مورد انتظار» (میانگین در تمام سریهای زمانی) و توزیع خوشهها را برای هر فرآیند تولید میکنم. به عنوان مثال، پس از خوشه بندی، ممکن است 4 خوشه با اندازه های زیر داشته باشم. شماره خوشه | اندازه خوشه ----------------------------- 1 | 100 2 | 200 3 | 300 4 | 400 توزیع خوشه ها در بین فرآیندها ممکن است به شرح زیر باشد | خوشه 1 | خوشه 2 | خوشه 3 | خوشه 4 ----------------------------------------------- ---------- فرآیند 1 | 11 | 19 | 35 | 42 فرآیند 2 | 3 | 10 | 14 | 19 فرآیند 3 | 30 | 8 | 12 | 12 <----ناهنجاری .... در این حالت، فرآیند 1 و فرآیند 2 به اندازه کافی به آنچه انتظار می رود نزدیک هستند، در حالی که فرآیند 3 توزیع متفاوتی با میانگین دارد. من می خواهم یک تست خوب برای اندازه گیری این اختلاف پیدا کنم. (هر پیشنهاد دیگری برای تشخیص ناهنجاری نیز پذیرفته می شود) | مقایسه دو توزیع گسسته (با تعداد سلول های کوچک) |
25667 | من برای امتحان آماده می شوم، تست نسبت احتمال را خوانده ام، اما آن را نگیرید. مثال 8.2.3 (صفحه 376 در استنتاج آماری Casella and Berg) اجازه دهید ${{x}_{1}}،...{{x}_{n}}$ یک نمونه تصادفی از یک جامعه نمایی با pdf $$f(x|\theta )=\left\\{ \begin{array}{*{35}{l}} {{e}^{-(x-\theta )}} & x\ge \theta \\\ 0 & x<\theta \\\ \end{array} \right.$$ ${{H}_{0}}_{{}}:\theta \ le \theta $ در مقابل ${{H}_{1}}:\theta >{{\theta }_{0}}$ تابع Likelihood است، $$L(\theta |x)=\left\\{ \begin{array}{*{35}{l}} {{e}^{-\Sigma {{x}_{i}}+n\theta }} & \theta \ge {{x}_{( 1)}} \\\ 0 & \theta <{{x}_{(1)}} \\\ \end{array} \right.$$ کتاب میگوید: واضح است که $L(\theta |x) $ یک تابع افزایشی است از $\theta$ در $-\infty < \theta \le {{x}_{(1)}}$. (آیا این حتی مهم است؟). بنابراین، مخرج $\lambda(x)$، حداکثر نامحدود $L(\theta|x)$، $$L({{x}_{1}}|x)={{e}^ است. {-\Sigma{{x}_{i}}+n{{x}_{(1)}}}}$$ اگر ${x}_{1}\le{\theta}_{0}$ ، شمارنده از $\lambda(x)$ نیز $L({x}_{(1)}|x)$ است. اما از آنجایی که ما $L(\theta|x)$ را بیش از $\theta\le{\theta}_{0}$ به حداکثر میرسانیم، صورتگر $\lambda(x)$ $L({\theta}_{ است. 0})$ اگر ${x}_{1}>{\theta}_{0}$. بنابراین، آمار آزمون نسبت درستنمایی $$\lambda (x)=\left\\{ \begin{array}{*{35}{l}} 1 & {{x}_{(1)}}\ge است. {{\theta }_{0}} \\\ {{e}^{-n\left( {{x}_{(1)}}-{{\theta }_{0}} \راست)} } & {{x}_{(1)}}<{{\theta }_{0}} \\\ \end{array} \right.$$ منطقه رد $$\\{x:{{x}_ {(1)}}\ge {{\theta }_{0}}-\frac{\log c}{n}\\}$$ کل مطلب را خواندم، طولانی و خسته کننده بود دنبال کردن، من من کاملا گم شده ام یکی دیگه میتونه اینو توضیح بده؟ شاید با یک مثال اسباب بازی بهتر/ساده؟ من می خواهم این را بفهمم، نه اینکه فقط دنبالش کنم! آیا این یک مفهوم ساده است، من بیش از حد آن را پیچیده می کنم؟ | چگونه می توان آزمون نسبت درستنمایی / توان را در آزمون فرضیه محاسبه کرد؟ |
78430 | من سعی می کنم مقدار y خاص مدل رگرسیون برازش را با استفاده از مقدار x خاص پیدا کنم. به عنوان مثال، در مدل رگرسیون چندگانه مانند زیر، > y~ aX+bZ+cW +خطا **من مدل را با داده تطبیق دادم** و نتیجه مدل glm برازش شده را دارم مانند > y = 3.142X+2.94Z+ 4.16W + 2.194 من سعی می کنم وقتی X 2 و X 5 است 'y' را بدست بیاورم. آیا در R ممکن است؟ | مقدار y خاص را در رگرسیون چندگانه خطی با استفاده از R تخمین بزنید |
105395 | مقدار مربع R تنظیم شده خوب برای هر مدل رگرسیون چندگانه چیست یا به آن بستگی دارد؟ اگر بستگی دارد پس شرایط چیست؟ | مربع r تنظیم شده خوب |
55901 | من یک ماتریس 10x10 دارم که از دو متغیر با 10 مارک تشکیل شده است. یک متغیر برند خریداری شده است و دیگری برند در نظر گرفته شده است. ماتریس من یک جدول متقاطع بین این دو را نشان می دهد. من به یک روش مؤثر برای تجسم واضح این داده ها نیاز دارم تا نزدیکی ها شباهت بین دسته ها و فاصله ها را نشان دهد. من یک تجزیه و تحلیل مکاتبات انجام دادم، اما از نمودار تحت تأثیر قرار نگرفتم. آیا تکنیک جایگزینی برای در نظر گرفتن وجود دارد؟ | چگونه داده های crosstab را به بهترین شکل نمایش دهیم؟ |
15522 | فرض کنید که $X$ و $Y$ دو i.i.d هستند. متغیرهای تصادفی یکنواخت در بازه $[0,1]$ اجازه دهید $Z=X/Y$، من cdf $Z$ را پیدا می کنم، یعنی $ \Pr(Z\leq z) $. حالا دو راه برای انجام این کار پیدا کردم. یکی پاسخ صحیح مطابق با پی دی اف در اینجا تولید می کند: http://mathworld.wolfram.com/UniformRatioDistribution.html، دیگری پاسخ نمی دهد. چرا روش دوم اشتباه است؟ **روش اول** $\newcommand{\rd}{\mathrm{d}} \Pr(Z\leq z) = \Pr(X/Y\leq z) = \Pr(X\leq zY) = \ int^{1}_{0}\int^{\min(1,zy)}_{0} \rd x \rd y = \int^{1}_{0}\min(1,zy)\ \rd y$ $ = \left\\{ \begin{array}{lr} \int^{1/z}_{0}zy\ \rd y + \int^{1}_{1/z} \rd y& : z > 1\\\ \int^{1}_{0}zy\ \rd y & : z \leq 1 \end{array} \right. $ $ = \left\\{ \begin{array}{lr} 1 - \frac{1}{2z} & : z > 1\\\ \frac{z}{2} & : z \leq 1 \end {آرایه} \راست. $ این درست به نظر می رسد. **روش دوم** $\Pr(X/Y\leq z) = \Pr(X \leq zY\ |\ zY \geq 1)\Pr(zY \geq 1) + \Pr(X \leq zY\ |\ zY < 1)\Pr(zY < 1) $ با احتمال کل $ = \Pr(X \leq zY\ |\ zY \geq 1)\Pr(Y \geq 1/z) + \Pr(X \leq zY\ |\ zY < 1)\Pr(Y < 1/z)$ با گرفتن $z>1$ $ (1) (1-\frac{1}) {z}) + (\int^{1/z}_{0}\int^{zy}_{0} \rd x \rd y)(\frac{1}{z}) = 1-\frac{1}{z} + (\int^{1/z}_{0}zy\ \rd y)(\frac{1}{z}) = 1-\frac{1}{z } + \frac{1}{2z^{2}}$ این قبلاً متفاوت است. چرا این اشتباه است؟ با تشکر | توزیع نسبت لباس فرم: چه اشکالی دارد؟ |
61195 | این یک سوال تا حدی تصادفی است: آیا می توان خطاهای استاندارد خوشه ای را برای رگرسیون های تفاوت اول پیدا کرد؟ (چه از لحاظ نظری و چه عملی در R یا Stata). با تشکر | خطاهای استاندارد خوشه ای برای رگرسیون های اول تفاوت |
60828 | من به دنبال برخی اطلاعات در مورد روابط منحنی (به طور دقیق تابع درجه دوم) در رگرسیون لجستیک آنلاین بودم، و واقعاً نتوانستم چیز زیادی در مورد آن پیدا کنم. من علاقه مند هستم که آیا می توان این کار را انجام داد، و اگر چنین است، چگونه می توانم آن را در SPSS انجام دهم؟ آیا فقط متغیری را که می خواهم برای یک رابطه منحنی آزمایش کنم مربع می کنم و مانند هر متغیر دیگری به مدل اضافه می کنم؟ یا راه خاصی برای انجام آن وجود دارد؟ | چگونه یک رابطه منحنی را در یک رگرسیون لجستیک آزمایش کنیم |
106289 | من در حال یادگیری نمونه گیری تصادفی طبقه ای هستم و برای حل این مشکل مشکل دارم. جمعیت شش واحد زیر را در نظر بگیرید: x1=1، x2=2، x3=2، x4=4 x5=4 x6=5 فرض کنید واحدهای 2 3 4 و 5 در یک طبقه و واحدهای 1 و 6 در یک طبقه دوم هستند. . یک نمونه تصادفی ساده 2 واحدی از طبقه اول و یک نمونه تصادفی ساده 1 واحدی از طبقه دوم. توزیع دقیق برآوردگر طبقه بندی شده برای میانگین جمعیت چگونه است؟ بنابراین، میانگین احتمالی نمونه از طبقه اول 2، 3 یا 4 و از طبقه دوم 1 یا 5 است. میانگین کل نمونه 2/3 * 2 + 1/3 * 1 = 5/3 2/2 * 2 + 1 است. /3 * 1 = 7/3 2/3 * 4 + 1/3 * 1 = 3 2/3 * 2 + 1/3 * 5 = 3 2/3 * 3 + 1/3 * 5 = 11/3 2/3 * 4 + 1/3 * 5 = 13/3 و هر احتمال '1/12، 4/12، 1/12، 1/12 است. ، 4/12، 1/12`. حالا برای یافتن توزیع دقیق چه باید بکنم؟ | نمونه گیری تصادفی طبقه ای و توزیع آن |
32309 | تاسهای x$ را پرتاب کنید، که هر کدام دارای ضلعهای $z$ هستند، بالاترین مقادیر $y$ را در حالت قرار دهید و مجموع $s$ آنها را پیدا کنید. در بازیهای نقشآفرینی، به این کار «مکانیک تاس ریختن و نگهداری» میگویند و با علامت «$x$d$z$k$y$» یا شاید فقط «$x$k$y$» اگر تعداد اضلاع $z$ باشد. درک می شود. فرض کنید (سرخ) $S$ متغیر تصادفی برای مجموع بالاترین تاس $y$ باشد و اجازه دهید (حروف کوچک) $s$ مجموع مشاهده شده $y$ بالاترین تاس باشد. یک فرمول ترکیبی برای تابع جرم احتمالی $f$ برای این توزیع توسط کاربری به نام تکنولوژیست در PhysicsForums استخراج شد: مسئله گیج کننده پرتاب X تاس، انتخاب Y بالاترین است. pmf $ f(s) = $$\sum_{r=1}^{z}\sum_{i=0}^{x-y}\sum_{j=x-y-i+1}^{x-i}{ x \انتخاب i,j,x-i-j}(r-1)^i N(s+i+j-x-ry؛ x-i-j, z-r-1) $$ که در آن $N$ تعداد راههای توپ های غیر قابل تشخیص $B$ را بین سلول های $C$ توزیع کنید به طوری که هر سلول بین 0 تا $D$ توپ داشته باشد، یعنی $$ N(B;C,D) = \sum_{k=0}^{\lطبقه B/ (D+1) \rfloor} (-1)^k \binom{C}{k} \binom{B-k(D+1) + C-1}{C-1} $$ شهود من این است که ممکن است راه ساده تری برای بیان این مکانیک با استفاده از آمار سفارش وجود داشته باشد. اجازه دهید $Z_1,Z_2,\ldots,Z_x$ متغیرهای تصادفی نامرتب برای پرتابهای تاس $x$ iid باشند که هر کدام توزیعهای یکنواخت گسسته روی مقادیر عدد صحیح $\\{1, 2, \ldots, z \\} هستند. $. و اجازه دهید $1 \leq Z_{1:x} \leq Z_{2:x} \leq \ldots \leq Z_{x:x} \leq z$ آمار سفارش باشد، بهطور مثال، $Z_{x: x}$ r.v است. نشان دهنده حداکثر ریختن تاس $x$. در حمایت از شهود من، می توان نشان داد که $ E(S) = E(Z_{(x-y+1):x} + Z_{(x-y+2):x} + \ldots + Z_{ (x-1):x} + Z_{x:x}) $ برای مثال، برای توزیع 4d6k3، میانگین 15869/1296 (یا 12.2446) است. و این را می توان (به راحتی در Mathematica) با استفاده از فرمول ترکیبی فن شناسان یا با استفاده از مقدار مورد انتظار از مجموع سه آمار بالاترین مرتبه نشان داده شده در بالا یا با برشمردن همه نتایج یا با شبیه سازی تعداد زیادی پرتاب تاس تأیید کرد. با این حال، $ S \not= Z_{(x-y+1):x} + Z_{(x-y+2):x} + \ldots + Z_{(x-1):x} + Z_{x :x} $ ( اشتباه به راحتی با گرفتن اختلاط pmfs از آمار مرتبه دوم تا چهارم محاسبه می شود، زیرا آمار سفارش RV های مستقل نیستند. و این منجر به یک سوال بعدی می شود: در موردی مانند این، با توجه به اینکه آمار سفارش RV مستقل نیست، چگونه پیچیدگی pmfs آمار سفارش در RHS را پیدا می کنید؟ من به روش بهتری برای بیان این سوال فکر خواهم کرد و آن را جداگانه ارسال خواهم کرد. بازم ممنون سوال این است که آیا شهود من درست است: **آیا راهی برای بیان pmf $f$ از $S$ بر حسب pmfs آمار سفارش وجود دارد؟ و اگر نه، شهود من چه اشکالی دارد که باید راه آسانی برای محاسبه pmf $f$ از روی pmf آمار سفارش وجود داشته باشد؟** BTW، این تکلیف نیست. من فقط یک نقش آفرین هستم، نه آماردان، و سعی می کنم کنجکاوی خود را برآورده کنم که آیا این مکانیک تاس را می توان با استفاده از آمار سفارش به سادگی تحلیل و بیان کرد. با تشکر | ارتباط آمار سفارش با مکانیک تاس انداختن و نگه داشتن؟ |
94350 | من در حال انجام یک مطالعه شخصی در مورد توزیع نمایی هستم و به یک نمایی روی متن خود اشاره کردم که به این معناست: CDF توزیع نمایی $$ F(x) = 1 - e^{-λx} , $$ PDF توزیع نمایی $$ f( x) = λe^{-(λx)} . $$ با این حال، من فکر می کردم که در چه شرایطی از چه چیزی استفاده کنم؟ با توجه به آنچه که من درک می کنم، اگر من سعی می کردم زمان بین رویدادهای متوالی را در یک بازه زمانی مشخص پیدا کنم، ممکن است از CDF استفاده کنم. با این حال، من نمی توانم در مورد PDF. قدردان هر راهنمایی لطفا. | زمان استفاده از CDF و PDF برای توزیع نمایی |
105732 | یک متغیر نتیجه را در نظر بگیرید که دارای چهار دسته بندی منظم و واضح است. به نظر می رسد این استفاده خوبی از رگرسیون لجستیک ترتیبی برای تخمین نسبت شانس برای تأثیر متغیرهای کمکی بر حرکت یک موضوع یک «پله» از نردبان است. اما موضوعات به طور خاص به طور مساوی در سراسر دسته ها پراکنده شده اند، بنابراین یک سوال مطرح می شود: * آیا فرض نادر نتیجه برای یک OR برای تقریب ریسک نسبی هنوز در رگرسیون لجستیک ترتیبی صادق است؟ * اگر چنین است، آیا میتوان تابع پیوند را برای برآورد مستقیم یک ریسک نسبی تغییر داد و آیا هنوز هم میتوان از چیزی مانند تقریب پواسون با خطاهای استاندارد قوی برای مقابله با مسائل همگرایی در چنین موردی استفاده کرد؟ | رگرسیون لجستیک ترتیبی با تابع پیوند متفاوت |
26485 | معمولا $r$ به Fisher $z$ تبدیل می شود تا تفاوت بین دو مقدار $r$ را آزمایش کند. اما وقتی قرار است متاآنالیز انجام شود، چرا باید دست به چنین اقدامی بزنیم؟ آیا خطای اندازه گیری یا خطای غیر نمونه برداری درست است و چرا باید فرض کنیم که $r$ برآورد ناقصی از همبستگی جمعیت است؟ | آیا تبدیل r به فیشر z برای یک متاآنالیز مفید است؟ |
79810 | من 2 متغیر دسته بندی دارم که می خواهم آنها را به یک متغیر با عنوان مصرف ناسالم اضافه کنم: > مصرف غذای سریع (1=هرگز، 2=یک بار در ماه، 3= 1-2 روز در هفته، 4= 3-4/هفته، > 5 = 4-5 در هفته، 6 = هر روز)، > > مصرف میان وعده (1=هرگز، 2=یک بار در ماه، 3= کمتر از یک بار در هفته، 4= 1-2 > روز/هفته، 5=3-4/هفته، 6=4-5/هفته، 7=هر روز). من می دانم که اگر حداکثر فرکانس بین این دو را انجام دهم ممکن است بهترین راه حل نباشد؟ من به دفعات مصرف علاقه دارم. بهترین راه برای جمع آوری اینها چه خواهد بود؟ متشکرم | تجمیع دو متغیر طبقه بندی شده |
105392 | من در حال تلاش برای کشف اشتقاق قانون به روز رسانی اقلیدسی برای NMF در صفحه 2 از http://sig.umd.edu/publications/Tjoa_ICASSP2_201003.pdf هستم، اما به نظر نمی رسد که آن را به نتیجه برسانم. نتیجه نهایی که آنها به دست می آورند این است: $$ \frac{\partial}{\partial \textbf{S}} d_{EUC}(\textbf{Q}, \textbf{S}\textbf{S}^{T} ) \propto \textbf{S}\textbf{S}^{T}\textbf{S} - \textbf{Q}\textbf{S} $$ کار من این بود که اجازه بدهم $\textbf{X} = \textbf{Q} - \textbf{S}\textbf{S}^{T}$ و بنابراین $$ \frac{\partial \textbf{X}} {\partial \textbf{S}} = -(\textbf{S}^T + \textbf{S}) $$ بنابراین با استفاده از قانون زنجیره $$ \frac{\partial}{\partial \textbf{S}} d_{EUC}(\textbf{Q}, \textbf{S}\textbf{S}^{T}) = \frac{\partial}{\ جزئی \textbf{S}} \text{tr}((\textbf{Q} - \textbf{S}\textbf{S}^T)^T(\textbf{Q} - \textbf{S}\textbf{S}^T)) = \frac{\partial}{\partial \textbf{X }} \cdot \frac{\partial \textbf{X}}{\partial \textbf{S}} \text{tr}(\textbf{X}^T \textbf{X}) $$ و از آنجایی که $\frac{\partial}{\partial \textbf{X}}\text{tr}(\textbf{X} ^T \textbf{X}) = 2\textbf{X} $ این به: $$ \frac{\partial}{\partial \textbf{S}} کاهش مییابد d_{EUC}(\textbf{Q}، \textbf{S}\textbf{S}^{T}) \propto (\textbf{S}^T + \textbf{S})(\textbf{S}\ textbf{S}^T-\textbf{Q}) $$ که به وضوح اشتباه است. من خیلی مطمئن نیستم که کجا همه چیز خراب می شود، فکر می کنم احتمالاً ریاضیات بسیار بحث انگیزی در آن وجود دارد. اگر کسی بتواند مرا در مسیر درست هدایت کند بسیار سپاسگزار خواهم بود! | کمک به قانون به روز رسانی اقلیدسی |
25599 | مشخصات رگرسیون این است: $y=\delta_{1}D_{1}+\delta_{2}D_{2}+\delta_{3}D_{3}+\beta_{1}D_{1} \cdot X+ \beta_{2}D_{2} \cdot X+\beta_{3}D_{3} \cdot X+\epsilon$ که در آن $D_{i}$ نشان میدهد ساختگی برای هر یک از سه گروه، تعامل $D_{i} \cdot X$ بین $D_{i}$ و متغیر مستقل $X$. هر گروه حجم نمونه متفاوتی دارد. تعداد نمونه های گروه 1 بسیار بیشتر از گروه 2 و گروه 2 بیشتر از گروه 3 است. اگر بتوانم برخی از این گروه ها را بگنجانم، مشکل کوچک بودن حجم نمونه در گروه 2 و 3 را تا حدودی برطرف خواهم کرد. بنابراین میخواهم $\hat{\beta_{1}}=\hat{\beta_{2}}=\hat{\beta_{3}}$ را آزمایش کنم. $\hat{\beta_{i}}$ ضریب تخمینی $D_{i} \cdot X$ است. پس از آزمون، من برای گروه هایی که ضرایب متفاوتی را نشان نمی دهند، اصطلاحات تعامل را ترکیب می کنم. سؤالات عبارتند از: 1. آیا باید از آزمون مشترک $\hat{\beta_{1}}=\hat{\beta_{2}}=\hat{\beta_{3}}$ استفاده کنم؟ اگر این آزمون را نتوان رد کرد به عنوان مثال. سطح 5%، من گروه 1، 2 و 3 را وارد خواهم کرد. درست است؟ 2. اگر بخواهم از تست مشترک استفاده کنم، چون گروه 2 و 3 نمونه های بسیار کمی دارند، $\hat{\beta_{2}}$ و $\hat{\beta_{3}}$ ممکن است حتی با داشتن علامت اشتباه ناچیز باشند ( منظورم این است که آنها باید مثبت باشند، اما برآوردها منفی هستند.) آیا استفاده از آزمایش مشترک $\hat{\beta_{1}}=\hat{\beta_{2}}=\hat{\beta_{3} درست است }$ اینجا؟ 3. یا باید از تست های زوجی استفاده کنم؟ اگر از تستهای زوجی برای پیدا کردن اینکه $\hat{\beta_{1}}=\hat{\beta_{2}}$ و $\hat{\beta_{2}}=\hat{\beta_{3}} استفاده کنم $ را نمی توان رد کرد، اما $\hat{\beta_{1}}=\hat{\beta_{3}}$ رد شد، چگونه این گروه ها را ترکیب کنیم؟ | چگونه می توان گروه های نمونه را ترکیب کرد؟ |
25591 | من ANOVA یک طرفه Kruskal-Wallis را بر اساس رتبه بندی بر روی پنج گروه داده با استفاده از نرم افزار Dataplot انجام دادم. نرم افزار پیوندها را تصحیح می کند و از رویه Conover برای انجام مقایسه های چندگانه به صورت زوجی استفاده می کند. نتیجه آزمون $H=5.62$ و $p=.229$ است، بنابراین نتایج قابل توجه نیستند ($p$ کمتر از $.05$ نیست). با این حال، مقایسههای چندگانه زوجی نشان میدهد که دادههای گروه 1 به طور قابلتوجهی (0.05$p<) با دادههای گروه 2 متفاوت است. من گزارش می دهم که تفاوت معنی داری در پنج گروه وجود ندارد (زیرا $p=.229$). سوال من این است: من از نمودارهای جعبه برای نمایش گرافیکی نتایج استفاده می کنم. آیا باید نشان دهم که داده های گروه 1 و داده های گروه 2 به طور قابل توجهی با هم تفاوت دارند حتی اگر آزمون H می گوید تفاوت معنی داری در پنج گروه داده وجود ندارد؟ | اهمیت گزارش در آزمون کروسکال والیس |
63848 | مدل من یک متغیر وابسته دو جمله ای با فضای ویژگی غنی از 20000 متغیر مستقل را پیش بینی می کند. من از رگرسیون لجستیک جریمه شده از بسته glmnet استفاده می کنم که برای نوع مجموعه داده ای که دارم کار می کند. من از اعتبارسنجی متقاطع 10 برابری استفاده می کنم و خطای اعتبارسنجی متقاطع فقط 2.4٪ است. به من گفته شد که با چنین خطای اعتبارسنجی متقاطع کوچک (به عبارت دیگر دقت بسیار بالای 97.6٪) احتمال زیادی وجود دارد که مدل من بیش از حد مناسب باشد. آیا حقیقت دارد؟ اگر بله، پس یک رویکرد جایگزین برای این چیست؟ در اینجا کدی وجود دارد که من از آن استفاده می کنم: data library('glmnet') <- read.csv('datafile.csv', header=T) mat = as.matrix(data) X = mat[,1:ncol(mat )-1] y = mat[,ncol(mat)] fit <- cv.glmnet(X,y, family=binomial, type.measure = class) betacoeff = as.matrix(fit$glmnet.fit$beta[,ncol(fit$glmnet.fit$beta)]) | آیا در رویکرد مدلسازی من با وجود وایداسیون متقابل، بیش از حد برازش وجود دارد؟ |
25593 | من میخواهم نقاط دادهای را با ضرایب رگرسیون داده شده ایجاد کنم، جایی که برخی از متغیرها ممکن است گسسته و برخی پیوسته باشند، و من هر دو رگرسیون مستقیم و معکوس را انجام میدهم. برای مثال، من میخواهم نقاط دادهای متشکل از سهگانه $(x,y,z)$ تولید کنم که در آن $x$ یا 0 یا 1 است و $y$ و $z$ واقعی هستند، بهطوری که وقتی یک (خطی) پسرفت میکند. $z$ روی دو متغیر دیگر ($z_i=\alpha x_i+\beta y_i+\epsilon_i$)، من برخی از ضرایب رگرسیون داده شده ($\alpha$ و $\beta$). به طور همزمان، من می خواهم ضرایب را زمانی که یکی y روی دو متغیر دیگر رگرسیون می کند، مشخص کنم. (به عنوان یک عارضه اضافه، من همچنین می خواهم ضرایب رگرسیون $z$ و $y$ را مشروط به مقادیر مختلف $x$ مشخص کنم.) طبیعتاً به دلیل این واقعیت است که من می خواهم کنترل را کنترل کنم، مشکل به وجود می آید. هر دوی این رگرسیون ها به طور همزمان. چگونه می توانم این کار را به طور سیستماتیک انجام دهم؟ | تولید داده با ضرایب رگرسیون داده شده |
97268 | اجازه دهید $X$ هر توزیعی با میانگین تعریف شده، $\mu$، و انحراف استاندارد، $\sigma$ باشد. قضیه حد مرکزی می گوید که $$ \sqrt{n}\frac{\bar{X} - \mu}{\sigma} $$ در توزیع به یک توزیع نرمال استاندارد همگرا می شود. اگر $\sigma$ را با نمونه انحراف استاندارد $S$ جایگزین کنیم، آیا قضیه ای وجود دارد که بیان کند $$ \sqrt{n}\frac{\bar{X} - \mu}{S} $$ در توزیع به همگرا می شود یک توزیع t؟ از آنجایی که برای $n$ بزرگ، یک توزیع t به یک نرمال نزدیک می شود، این قضیه، در صورت وجود، ممکن است بیان کند که حد، یک توزیع نرمال استاندارد است. از این رو، به نظر من میرسد که توزیعهای t خیلی مفید نیستند - فقط زمانی مفید هستند که X$$ تقریباً عادی باشد. آیا این مورد است؟ اگر ممکن است، آیا زمانی که $\sigma$ با $S$ جایگزین میشود، به منابعی اشاره میکنید که حاوی اثبات این CLT باشد؟ چنین مرجعی ترجیحاً می تواند از مفاهیم نظریه اندازه گیری استفاده کند. اما در این مرحله هر چیزی برای من عالی خواهد بود. | آیا قضیه ای وجود دارد که بگوید $\sqrt{n}\frac{\bar{X} - \mu}{S}$ در توزیع به یک نرمال همگرا می شود زیرا $n$ به بی نهایت می رود؟ |
107925 | این مدتی است که من را آزار می دهد و به نظر می رسد نمی توانم پاسخی فراتر از افکار مبهم در مورد توزیع پواسون به دست بیاورم. من فکر می کنم این یک مشکل ساده است و من یک چیز واضح را از دست داده ام. هر گونه فکری قدردانی می شود، به ویژه در مورد قطعه های R :) آزمایش کریس: 2 آزمایش تکراری از هر یک از 50 بافت. در 100 نمونه، یک رویداد باینری (0،1) را فراخوانی کنید (بدون استفاده از بافت مبدا؛ من 1 نتیجه را موفقیت بنام کنوانسیون آزمایشی برنولی). سپس بافت ها را برای تطابق نمره دهید (اگر هر دو تکرار موفقیت آمیز باشند 2، اگر فقط یک تکرار، 0 در غیر این صورت). اگر آزمون کار میکند، با توجه به تعداد کل موفقیتهای S، انتظار داریم اعداد غیر تصادفی همخوانی = 2 برای بافتها (یعنی اثر باید تکرار شود). چگونه میتوانم توزیع (0،1،2) را در _بافت____ یا شاید نسبت (1،2) _بافت___ از انتظار منحرف شود؟ با تشکر | تست تجمیع رویدادها/موفقیت های باینری (دوجمله ای/glm??) |
26486 | من از پاسخ دهندگان نظرسنجی در مورد دو نقطه از زمان پرسیدم و از شرکت کنندگان درجه موافقت را پرسیدم، یک سوال معمولی به سبک لیکرت. مثلاً مثل اینکه «قبل از اینکه اوباما رئیس جمهور شود، زندگی خوب بود» و یک سؤال جداگانه پرسیده بودم «بعد از اینکه اوباما رئیس جمهور شد، زندگی خوب بوده است». به طور معمول، یک آزمون t فرض میشود، و در ابتدا به یک آزمون t زوجی فکر میکردم، زیرا این دو مجموعه جداگانه از پاسخها هستند که میخواهم مقایسه کنم (مثلاً زمان 1/زمان 2، درست است؟). با این حال، چندین بار توسط افرادی که دارای آماری هستند رد شده ام، هیچ یک از آنها نمی توانند به من بگویند که آزمون درست چیست. پس آیا کسی می تواند به من بگوید اگر در مورد دو نقطه از زمان بپرسم (در دوران کودکی، رابطه شما با مادرتان چگونه بود؟ حالا، رابطه شما با مادرتان چگونه بود؟)، چگونه آنها را مقایسه کنم؟ | چگونه پاسخ به سؤال مشابهی را که در مقاطع زمانی مختلف پرسیده شده است مقایسه کنیم؟ |
97269 | میانگین مربعات خطای برآوردگر $\hat{\theta}$ با توجه به پارامتر ناشناخته $\theta$ به صورت $$ MSE(\hat{\theta})=E[(\hat{\theta}- تعریف میشود. \theta)^{2}]. $$ به خوبی شناخته شده است که تجزیه بایاس-واریانس زیر وجود دارد: $$ MSE(\hat{\theta})=Var(\hat{\theta})+\left(Bias(\hat{\theta}, \theta)\right)^{2}. $$ **سوال من**: آیا میانگین خطای انحراف مطلق $$ MADE(\hat{\theta})=E(|\hat{\theta}-\theta|) $$ تجزیه مشابهی دارد؟ | تجزیه واریانس تعصب برای میانگین خطای مطلق |
25596 | من دادههای فراوانی دوجملهای برای یک آلل مرتبط با جمعیتهای ساکن در کوهستان دارم. این کوهها از شمال به جنوب میآیند که در آن مکانها تقریباً برای این آلل ثابت هستند و مکانهای پست در شرق که فاقد آلل هستند. در انتهای جنوبی کوه ها یک منطقه هیبریدی قرار دارد. علیرغم اینکه کوه ها از طریق منطقه هیبریدی به سمت جنوب ادامه می دهند، فرکانس آلل از تقریباً ثابت به تقریباً وجود ندارد تغییر می کند. این نشان می دهد که علیرغم سود فرضی برای این صفت در کوهستان، مانعی برای آن در ناحیه هیبریدی وجود دارد که مانع گسترش آن به سمت جنوب در کوهستان می شود. من از یک رویکرد glm ساده در R استفاده کردهام تا مشخص کنم که ارتفاع پیشبینیکننده مهمی برای فراوانی آلل شمال منطقه هیبریدی است. اگر سایت های منطقه هیبریدی را در مدل لحاظ کنم، ارتفاع کمتر قابل توجه است. اگر یک متغیر ساختگی منطقه هیبریدی به مدل اضافه کنم، آن نیز قابل توجه است. من میخواهم یک رویکرد آماری برای شناسایی این مکانهای کوهستانی «پیشتر» در منطقه ترکیبی هم از نظر آماری و هم از نظر گرافیکی پیدا کنم. | شناسایی موارد پرت |
63842 | من روی یک مشکل طبقهبندی باینری با نمونههای نسبتاً کمی کار میکنم (مثلاً 30 مورد که از این تعداد 7 مورد مثبت هستند). من متوجه شده ام که هنگام استفاده از 2 برابر، میانگین عملکرد طبقه بندی بهترین مدل بهتر از مدل با بهترین عملکرد با 5 برابر است. در واقع، * بهترین مدل در رزومه 2 برابری امتیازهای زیر را در این دو برابر دریافت میکند: «[0.82، 0.82]» (*میانگین = 0.82**). * آن مدل **متفاوت** با بهترین مدلی است که من با CV 5 برابر دریافت می کنم، که امتیازهای AUC زیر را به دست می دهد: «[0.4 , 1. , 0.75، 0.75، 0.25]» ( **متوسط = 0.64** ). این من را به سؤال زیر می برد: از کدام مدل استفاده کنم؟ و چرا زمانی که با داده **کمتر** تمرین می کنم، باید مدل بهتری دریافت کنم؟ | چرا CV 2 برابر نتایج بهتری نسبت به CV 5 برابر می دهد؟ |
4814 | من دو مدل LME با تعامل یکسان دارم، یکی شامل هر دو جلوه اصلی و دیگری حاوی تنها یک جلوه اصلی است، مثلاً: $$ H\\_CE = Season + Crownlevel + Season:Crownlevel، تصادفی = 1|CollectorID $$ و $$ H\\_CE = Season + Season:Crownlevel , random = 1|CollectorID $$ 4 سطح از هر کدام وجود دارد و هر ترکیبی از Season، Crownlevel و CollectorID احتمال AIC، BIC و log هر دو مدل کاملاً برابر است. با توجه به اینکه فرمول AIC $$ \mathit{AIC} = 2k - 2\ln(L)\ $$ است، میتوان انتظار داشت که این حالت متفاوت باشد، حتی اگر احتمالات دقیقاً یکسان باشد. در نهایت، آنها تعداد متفاوتی از پارامترها دارند. یا اینطور فکر کردم... امتحان این مثال اسباب بازی در R : library(nlme) Season <- rep(as.factor(rep(letters[1:4],each=4)),4) Crownlevel <-rep(as .factor(rep(حروف[11:14]،4))، 4) CollectorID <-rep(حروف[20:23],each=16) X <- model.matrix(~Season+Crownlevel+Season:Crownlevel) B <- c(1,1,-2,2,0.3,0.4,0.4,2,3,1,-2,-3,-4,2, 1،2) H_CE <- X %*% B + rnorm(16*4) KBM <- data.frame(Season,Crownlevel,H_CE,CollectorID) model1 <- lme(H_CE~Season+Crownlevel+Season:Crownlevel,data=KBM, method=ML,random=~1|CollectorID) model1e <- lme(H_CE ~Season+Season:Crownlevel,data=KBM, method=ML,random=~1|CollectorID) دریافت میکنم: anova(model1,model1e) Model df AIC BIC logLik model1 1 18 174.1834 213.0433 -69.09168 model1e 2 18 174.1831.1831. اینجا؟ چرا اعداد کاملاً برابر هستند؟ این باید با مشخصات مدل ربطی داشته باشد، اما من واقعاً نمی توانم ببینم چیست. مشخصات مدل به خودی خود معیوب است، من این را می دانم. اما نمی توانم توضیح دهم که چه چیزی باعث می شود مجموعه پارامترهای متفاوتی را برگرداند، اما دقیقا همان باقیمانده ها، احتمال و درجات آزادی: > all.equal(residuals(model1),residuals(model1e)) [1] TRUE * * * همانطور که فابیان ها به درستی اشاره کردند، هر دو مدل کاملاً معادل هستند. با این حال، من متوجه نمی شوم که چرا در محاسبه AIC از همان مقدار برای تعداد پارامترهای `k` استفاده می شود. k در AIC از df استفاده می کند که همه چیز را توضیح می دهد. | چرا AIC، BIC و احتمال ورود به سیستم برای مدل های مختلف در چارچوب LME برابر است؟ |
109368 | من می خواهم میزان دریافت مواد مغذی مردانه را با زنان مقایسه کنم. یکی از مفروضات آزمون U آزمون من ویتنی این است که دو متغیر نباید به طور عادی توزیع شوند. دریافت مواد مغذی در مردان طبیعی است اما در زنان نه. آیا این یک مشکل خواهد بود؟ همچنین، داده ها در مورد دریافت هفت ماده مغذی است. برای انجام مقایسه، آیا من نباید تست من ویتنی را 7 بار انجام دهم؟ آیا جایگزین دیگری وجود دارد؟ در زیر نمودارهای qq که من به ترتیب برای زنان و مردان به دست آوردم آمده است.   | تست من ویتنی U |
76430 | یک متغیر تصادفی چند متغیره $x$ با تابع چگالی $P_x(\theta)$ برای پارامتر اسکالر $\theta$ در نظر بگیرید. فرض کنید اطلاعات فیشر $J_x(\theta)$ شناخته شده است. حال، برای تبدیل (نقشهبرداری قطعی) $y=F(x)$ آیا میتوانید $J_y(\theta)$ را بر حسب $J_x(\theta)$ و $F$ بیان کنید؟ | اطلاعات فیشر $J_y(\theta)$ برای تبدیل $y=F(x)$ |
107923 | من در حال انجام برخی کارها با جنگلهای تصادفی در R با استفاده از بسته «randomForest» هستم و به چیزی که به نظرم عجیب میرسد برخورد کردهام. حتی زمانی که داده ها کاملا تصادفی هستند، AUC هرگز کمتر از 0.5 نیست. به عنوان مثال، وقتی موارد زیر را اجرا می کنم: library(randomForest) df.sanity <- data.frame(A=sample(1:100, 2000, replace=T), B=sample(126:159, 2000, replace=T )، C=نمونه (10:2000، 1000، جایگزین=T)، D=نمونه (1:2، 2000، جایگزین=T)، E=sample(30:40، 2000، جایگزین=T)، Class=as.factor(نمونه(0:1، 2000، جایگزین=T))) rf <- randomForest(x=df.sanity[1:1000، c(A، B، C، D، E)]، y=df.sanity[1:1000، Class]) preds <- predict(rf, newdata=df.sanity[1001:2000,], type=prob) auc(obs=df.sanity[1001:2000, Class], pred=preds[,2]) مهم نیست چگونه بارها که آن را اجرا می کنم، AUC هرگز کمتر از 0.5 نیست. اغلب کمی بیشتر است (تا 0.54 از آنچه من دیده ام)، اما هرگز کمتر. تنها پیاده سازی AUC دیگری که من استفاده کرده ام Weka's است و AUC های کمتر از 0.5 را در آنجا دیده ام. اگر AUC کمتر از 0.5 باشد، بسته «randomForest» بهطور خودکار پیشبینیها را معکوس میکند، یا چیز دیگری وجود دارد که من در اینجا اشتباه میفهمم؟ | R AUC هرگز کمتر از 0.5؟ |
58853 | چرا خاصیت ضربی فقط برای هموارسازی نمایی با فصلی و روند (مدل های ضربی زمستان و مدل های ضربی زمستان) وجود دارد و برای هموارسازی نمایی فقط با فصلی (بدون روند) وجود ندارد؟ همانطور که در نرمافزار پیشبینی دیدهام، مدل هموارسازی نمایی تنها به صورت فصلی وجود دارد. چرا به صورت ضربی نیز وجود نداشته باشد؟ آیا این فرم مشکل فنی دارد (یعنی در ادبیات وجود ندارد) یا نقص نرم افزار است (یعنی پیاده سازی نشده است اگرچه می توان آن را پیاده سازی کرد)؟ | هموارسازی نمایی فصلی بدون روند |
4817 | من نتوانستم یکی از آن ها را در گوگل پیدا کنم و می خواستم بدانم آیا وجود دارد یا نه... | آیا یک نسخه بدون جفت از آزمون علامت وجود دارد؟ |
60823 | جامعه آماری عزیز، برای درک جنگل مفاهیم نظریه احتمال از شما کمک می خواهم. من در حال تلاش برای ایجاد درک منسجمی از عباراتی مانند _ تابع جرم احتمال_، _ توزیع احتمال_، _ تابع احتمال_، مفاهیمی در مورد متغیرهای تصادفی و نماد مبهم پیرامون آنها هستم. به عنوان مثال ویکیپدیای آلمانی و انگلیسی هر دو از توضیح رابطه بین 1. توابع نگاشت رویدادهای یک فضای احتمال (این تقریباً به طور ثابت تعریف شده است) با اعداد اجتناب میکنند و گاهی آن اعداد را احتمال مینامند و 2. مفهوم توزیع احتمال. آیا رویدادهای نگاشت تابع (که توسط en Wiki اندازهگیری احتمالی نامیده میشود) به اعداد یک توزیع احتمالی است؟ اگر نه توزیع احتمال چیست؟ | اندازه گیری احتمال و توزیع احتمال را توضیح دهید |
105393 | من تعدادی کد قدیمی را به ارث بردهام که برای حل مشکل زیر طراحی شده است - مجموعهای از متغیرهای باینری قابل مشاهده $Y_1، \dots، Y_N$ به ما داده میشود که معتقدیم به مجموعه ثابتی از متغیرهای ورودی $X_1،\dots، X_M$ مربوط میشوند. (بعد بالا، $M \sim 100$). برای یک ورودی داده شده، می خواهیم پیش بینی کنیم که کدام رویداد $Y_i$ محتمل ترین است. برنامه فعلی سعی می کند این را به صورت زیر پیش بینی کند - با توجه به داده های آموزشی، ما یک مدل برای هر $Y_i$ به طور جداگانه می سازیم (با استفاده از رگرسیون لجستیک + انتخاب ویژگی). سپس با یک ورودی، به تمام امتیازات لاجیت نگاه می کنیم و بالاترین را انتخاب می کنیم. این کار نمی کند زیرا برخی از طبقه بندی کننده های رگرسیون لجستیک می توانند بیش از حد آموزش ببینند، که منجر به امتیازات لاجیت شدید می شود که اغلب بر سایر امتیازات غالب است. تجزیه و تحلیل نشان می دهد که تابع لجستیک نیز ممکن است انتخاب خوبی نباشد. من دو سوال دارم: * آیا این راه برای یافتن محتمل ترین رویداد معقول / قابل نجات است؟ من ترجیح می دهم در صورت امکان مجبور نباشم کل این چیز را از ابتدا بازسازی کنم. * اگر چنین است، آیا روش معقول تری برای مقایسه نمرات دو طبقه بندی کننده وجود دارد به گونه ای که منصفانه تر باشد؟ فکر من این است که میتوانیم نوعی پسین بیزی را مقایسه کنیم تا ارزیابی منصفانهای برای وضعیت دانش خود داشته باشیم، اما احساس میکنم اگر بخواهم این کار را انجام دهم باید مدل رگرسیون لجستیک را از دست بدهم، و مطمئن نیستم که باید جایگزین آن شود. | مقایسه خروجی های رگرسیون برای متغیرهای مختلف پاسخ |
18459 | با فکر کردن به یک مشکل ظاهراً ساده اما جالب، میخواهم کدی بنویسم تا با توجه به تاریخچه کامل خریدهای قبلیام، مواد مصرفی را که در آینده نزدیک به آنها نیاز خواهم داشت، پیشبینی کنم. من مطمئن هستم که این نوع مشکل تعریف عمومی تر و به خوبی مطالعه شده دارد (کسی پیشنهاد کرد که این به برخی از مفاهیم در سیستم های ERP و موارد مشابه مربوط می شود). اطلاعاتی که من دارم تاریخچه کامل خریدهای قبلی است. فرض کنید من به منابع کاغذی نگاه می کنم، داده های من به نظر می رسد (تاریخ، ورق): 2007-05-10 500 2007-11-11 1000 2007-12-18 1000 2008-03-25 500 2008-2005 2008-10-31 1500 2009-03-20 1500 2009-06-30 1000 2009-09-29 500 2009-12-16 1500 2010-05-31 500 2010-06-3001 2010-06-3001 2011-05-31 1000 در فواصل زمانی منظم «نمونه برداری» نمی شود، بنابراین فکر می کنم به عنوان داده سری زمانی واجد شرایط نیست. من هر بار اطلاعاتی در مورد سطح واقعی سهام ندارم. من میخواهم از این دادههای ساده و محدود برای پیشبینی میزان کاغذ مورد نیاز (مثلاً) 3،6،12 ماه استفاده کنم. تا اینجا فهمیدم چیزی که دنبالش هستم Extrapolation نام داره نه خیلی بیشتر :) در چنین شرایطی از چه الگوریتمی میشه استفاده کرد؟ و چه الگوریتمی، اگر با الگوریتم قبلی متفاوت باشد، میتواند از برخی نقاط داده بیشتر که سطوح عرضه فعلی را نشان میدهند (به عنوان مثال، اگر بدانم در تاریخ X برگههای Y باقی ماندهام) نیز استفاده کند؟ لطفاً اگر اصطلاحات بهتری برای این کار می دانید، سؤال، عنوان و برچسب ها را ویرایش کنید. ویرایش: برای آنچه ارزش دارد، سعی خواهم کرد این را در پایتون کدنویسی کنم. می دانم که کتابخانه های زیادی وجود دارند که کم و بیش هر الگوریتمی را در آنجا پیاده سازی می کنند. در این سوال میخواهم مفاهیم و تکنیکهایی را که میتوان مورد استفاده قرار داد، بررسی کنم و پیادهسازی واقعی را به عنوان تمرینی به خواننده واگذار کنیم. | چه الگوریتمی می تواند برای پیش بینی استفاده از مواد مصرفی داده های خریدهای گذشته استفاده شود؟ |
18453 | من دنباله ای از مشاهدات دارم و می خواهم تعیین کنم که آیا مشاهدات در این دنباله مستقل از یکدیگر هستند یا خیر. Wald-Wolfowitz یک آزمون ناپارامتریک است که می تواند برای بررسی تصادفی بودن توالی مورد استفاده قرار گیرد. فکر میکنم یک ایده کلی از نحوه فرمولبندی مشکل دارم، اما اگر قبلاً انجام شده باشد، نمیخواهم مغزم را رگ به رگ بزنم. [جستجوهای ادبیات من و جستجوهای گوگل چیزی پیدا نکردند، اما ممکن است سوال را به درستی مطرح نکرده باشم.] پیشاپیش متشکرم. | آیا معادل بیزی برای تست اجراهای Wald-Wolfowitz وجود دارد؟ |
26153 | من در حال توسعه ابزاری برای انجام استنباط های متخصص از دانشمندان هستم. از آنجایی که پاسخ به سؤالات حدس و گمان است، ما دوست داریم کارشناسان به ما کمک کنند تا دامنه پاسخ هایی را که آنها معقول می دانند، درک کنیم تا تصوری از عدم قطعیت داشته باشیم. برای یک نوع سؤال، از آنها می خواهیم کران پایین، کران بالا، صدک 25، صدک 50 و میانه را وارد کنند (در اصل خلاصه عدد 5). در آزمایش متوجه شدیم که برخی از دانشمندان این دادهها را بصری میدانند و برخی دیگر تجسم آن را در قالب PDF آسانتر میدانند. من سعی می کنم یک الگوریتم ساده را برای ارائه تصویری به سبک PDF از این خلاصه 5 عدد پیدا کنم. من توزیع Skew Normal را در نظر گرفته ام، آیا این انتخاب خوبی است؟ به عبارت دیگر: با توجه به یک چارک + میانه، ساده ترین عملکرد برای ارائه یک PDF برای توزیعی با آن ویژگی ها چیست؟ پیشنهادی دارید؟ من می دانم که این در بهترین حالت شلخته است، اما پاسخ به این سؤالات خود حدس و گمان است و اگر بتوانیم از هر دو طریق ارتباط برقرار کنیم، پاسخ های بهتری دریافت خواهیم کرد. | چگونه باید یک PDF قابل قبول از Quartiles+Median تولید کنم؟ |
18456 | من می خواهم مدل $A$ را با 5 متغیر و مدل $B$ را با 3 متغیر مقایسه کنم. من می خواهم از آزمون نسبت احتمال برای این کار استفاده کنم. توجه داشته باشید که این رگرسیون لجستیک است. چگونه این کار را در SAS انجام دهم؟ | چگونه تست نسبت احتمال را در SAS انجام می دهید؟ |
4812 | من در حال حاضر به عنوان دستیار تدریس در دانشگاه خود در یک دوره آمار مقدماتی (برای دانشجویان پزشکی) مشغول به کار هستم. آفلاین، کتاب های زیادی با اطلاعات برای کمک به معلم در دسترس است. با این حال، چیزی که من علاقه مند به دانستن آن هستم این است که آیا ممکن است مرا به سوی هر **منابعی (خوب) راهنمایی کنید که تمرین هایی (با راه حل) در آمار ارائه می دهد که به صورت آنلاین در دسترس هستند؟** (به عنوان مثال: یادداشت های معلمان). مطالب موضوعی می تواند بین آمار توصیفی، احتمال و استنتاج آماری پارامتریک/ناپارامتریک باشد. | منابع برای یادگیری آمار - تمرینات (با راه حل)، در دسترس آنلاین؟ |
25594 | سوال من اینجوریه مشخصات رگرسیون این است: $y=\delta_{1}D_{1}+\delta_{2}D_{2}+\delta_{3}D_{3}+\beta_{1}x_{1}+\beta_ {2}x_{2}+\beta_{3}x_{3}+\epsilon$ که $D_{i}$ نشاندهنده ساختگی برای هر یک از سه دسته است، تعامل $x_{i}$ بین $D_{i}$ و متغیر مستقل $x$. من میخواهم $b_{1}=b_{2}=b_{3}$ را آزمایش کنم. $b_{i}$ ضریب تخمینی $x_{i}$ است. پس از آزمون، من عبارات تعاملی را برای دستههایی که ضرایب متفاوتی را نشان نمیدهند ترکیب میکنم. هر دسته دارای حجم نمونه متفاوتی است. رده 1 دارای نمونه های بسیار بیشتری نسبت به دسته 2 و دسته 2 بیشتر از دسته 3 است. برآوردها نشان می دهد که $b_{1}$ و $b_{2}$ قابل توجه است (از صفر)، اما $b_{3}$ نه. فکر می کنم حجم نمونه کوچک دسته 3 می تواند بی اهمیت بودن $b_{3}$ را توضیح دهد. سوال من: آیا انجام آزمایش مشترک $b_{1}=b_{2}=b_{3}$ زمانی که $b_{3}$ ناچیز است، معنادار (یا درست) است؟ اگر آزمون $b_{1}=b_{2}=b_{3}$ را نمی توان در سطح مثلاً 5٪ رد کرد، اما $b_{1}$ و $b_{3}$ به طور قابل توجهی متفاوت است، می توانم بگویم نه تفاوت قابل توجهی بین $x_{1}$، $x_{2}$ و $x_{3}$ وجود دارد؟ | آیا آزمون برابری دو ضریب، یکی معنی دار و دیگری ناچیز معنادار است؟ |
60825 | در یک آزمون معنیداری آماری با رتبههای امضاشده Wilcoxon، با دادههایی مواجه شدیم که ارزش p$$0.04993$ را تولید میکنند. با آستانه $p < 0.05$، آیا این نتیجه برای رد فرضیه صفر کافی است، یا مطمئنتر است که بگوییم آزمون بینتیجه بوده است، زیرا اگر مقدار p را به 3 رقم اعشار گرد کنیم، تبدیل به $0.050 میشود؟ | آیا مقدار p 0.04993 برای رد فرضیه صفر کافی است؟ |
58855 | من در مورد k-means تحقیق کردم و اینها چیزی است که به دست آوردم: k-means یکی از ساده ترین الگوریتم هایی است که از روش یادگیری بدون نظارت برای حل مسائل شناخته شده خوشه بندی استفاده می کند. با مجموعه داده های بزرگ واقعاً خوب کار می کند. با این حال، معایب K-Means نیز وجود دارد که عبارتند از: * حساسیت زیاد به نقاط پرت و نویز * با شکل خوشه ای غیر دایره ای خوب کار نمی کند - تعداد خوشه و مقدار اولیه دانه باید از قبل مشخص شود * قابلیت کم بهینه محلی را پاس کند. آیا چیز خوبی در مورد k-means وجود دارد، زیرا به نظر می رسد که معایب آن فراتر از چیزهای خوب در مورد k-means است. لطفا به من یاد بدهید | چرا به جای الگوریتم های دیگر از k-means استفاده می کنیم؟ |
57500 | من 10 داده کیفیت هوای منتسب شده با استفاده از 7 روش مختلف تلفیق دارم. آیا کسی می تواند نحوه محاسبه MSE، RMSE، PA و MAE را برای داده های من، بدون تایپ دستی معادله در r نشان دهد. * دقت پیش بینی (PA) * ضریب تعیین * میانگین خطای مطلق (MAE) * میانگین مربع خطا. (RMSE) متشکرم. | شاخص عملکرد برای روش انتساب با استفاده از R |
57506 | من به دنبال یک عبارت تحلیلی برای مقدار مورد انتظار ابزار پنهان در یک رگرسیون لجستیک هستم. **تنظیم:** دو گزینه وجود دارد که با $i \in \\{0، 1\\}$ با ابزارهای مرتبط $u_i = w_i + \epsilon_i$، با $\epsilon_i$ i.i.d نمایه شده است. Gumbel (0، 1)، با نام نوع I Extreme Value با مکان 0 و مقیاس 1. $w_i$ ثابت هستند. (همان تنظیمات http://en.wikipedia.org/wiki/Logistic_regression#As_a_two-way_latent-variable_model) اجازه دهید $Z \equiv \max\\{u_0, u_1\\}$، یعنی $Z$ ابزاری باشد که شما هنگام انتخاب جایگزین ترجیحی دریافت کنید. **سوال:** آیا یک عبارت بسته برای مقدار مورد انتظار $Z$ وجود دارد؟ اگر چنین است، چیست و چگونه مشتق شده است؟ **اطلاعات اضافی:** اگر پاسخ را می دانید، از این بخش رد شوید:-) $\epsilon_i$ دارای CDF $F(x) = e^{-e^{-x}}$ و مقدار مورد انتظار $\gamma است. \تقریباً 0.5772$، ثابت اویلر–ماسکرونی -- در اینجا من از http://en.wikipedia.org/wiki/Gumbel_distribution کپی می کنم این برای هر کسی که این سوال را می خواند مفید است. من کمی جستجو کردم، و چیزی پیدا کردم که میگوید $\mathbb{E}[Z] = \ln(\Sigma_i(e^{w_i})) +$ ثابت. آیا این درست است؟ من مقداری کد R نوشتم تا بررسی کنم، و به نظر می رسد $\mathbb{E}[Z] = \ln(\Sigma_i(e^{w_i})) + \gamma \approx \ln(\Sigma_i(e^{w_i })) + 0.5772$. آیا این درست است؟ کد اینجاست: # انتخاب باینری # w_i + \epsilon_i با \epsilon_i ~ Gumbel # آیا Emax{w_i + \epsilon_i} = log(sum(exp(w_i))) + \gamma است؟ rgumbel <- function(n) { # کندتر از Runuran، اما از نصب بسته جدید اجتناب میکند u <- runif(n) return(-log(-log(u))) } library(Runuran) # Gumbel rgumbel <- function( n) { توزیع <- udgumbel() generator <- pinvd.new(distribution) return(ur(generator, n))} گاما <- 0.57722 # ثابت اویلر–ماسکرونی GetError <- تابع (w=c(5, 10), n=100000) { epsilon <- matrix(nrow=n, ncol=2, data=rgumbel(2*n)) ابزار <- pmax(epsilon[, 1] + w[1], epsilon[, 2] + w[2] emax <- mean(uility) emax.analytical <- log(sum(exp(w))) + gamma # درست است؟ return(emax - emax.analytical) } تابع GetError تفاوت بین میانگین نمونه و عبارت تحلیلی نامزد من را برمیگرداند. من بازی کردم و تمایل داشتم مقادیر بسیار نزدیک به صفر را ببینم. این تلاش بسیار ضعیف من برای بدست آوردن یک عبارت تحلیلی برای $\mathbb{E}[Z]$ است: $G(z) \equiv Pr[Z \leq z] = Pr[w_0 + \epsilon_0 \leq z] Pr[w_1 + \epsilon_1 \leq z | w_0 + \epsilon_0 \leq z]$G(z) = F(z - w_0) F(z - w_1) = e ^ {-e^{-z + w_0} -e^{-z + w_1}} $g(z) \equiv G^\prime(z) = e ^ {-e^{-z + w_0} -e^{-z + w_1}} (e^{-z + w_0} + e^{-z + w_1})$ $\mathbb{E}[Z] = \int z g(z) dz$ بنابراین، با فرض اینکه هیچ اشتباهی تا اینجا وجود نداشته باشد، باید محاسبه کنم: $\ int z e ^ {-e^{-z + w_0} -e^{-z + w_1}} e^{-z + w_0} dz$ به علاوه یک عبارت دوم مشابه، اما مطمئن نیستم چگونه با این انتگرال مقابله کنید. با تشکر فراوان برای هر کمکی، آدریان | ارزش مورد انتظار مطلوبیت نهفته در رگرسیون لجستیک |
58859 | $X_1، X_2، \dots X_n$ و $Y_1، Y_2، \dots Y_n؛ n = 1000$ دو نمونه از کمیت های فیزیکی هستند که از کاربرد دو مدل ریاضی مختلف برای برخی از داده های مستقل و توزیع شده یکسان (iid) بدست می آیند. مدل ریاضی مورد استفاده برای تولید $Y_i%$ یک نسخه ساده شده (تنظیم شده توسط پارامتر $r$) از مدل ریاضی مورد استفاده برای تولید $X_i$ است. هدف من یافتن مقدار $r$ است که باعث میشود توزیع تجربی $F_Y(y)$ تا حد ممکن شبیه به توزیع $F_X(x)$ باشد. من تصمیم گرفتم از آزمون دو نمونه کولموگروف-اسمیرنوف (در R) برای مقادیر مختلف $r$ در بازهای خاص استفاده کنم. آیا این انتخاب صحیح است؟ من می دانم که فرضیه صفر برای آزمون K-S این است که دو توزیع یکسان هستند. با این حال، من مطمئناً می دانم که دو توزیع متفاوت هستند زیرا دو مدل ریاضی متفاوت هستند. آیا ارزیابی بهترین مقدار $r$ با نگاه کردن به p-value و آمار D حاصل از آزمون K-S صحیح است؟ | استفاده از آزمون کولموگروف-اسمیرنوف دو نمونه ای برای ارزیابی شباهت بین دو توزیع مختلف |
57502 | آیا کسی می تواند مرا راهنمایی کند تا رابطه بین تجزیه ارزش واحد (SVD) و رگرسیون مؤلفه اصلی (PCR) را بفهمم؟ من میدانم که میتوانیم اجزای اصلی (PC) را با استفاده از SVD بسازیم، اما نمیدانم بارگذاریهایی که در SVD تعریف شدهاند با بارگذاریهای PCR یکسان هستند یا خیر. اگر $X = (x1,...,xn)$، SVD از $X = UDV^T$، $U$ رایانههای شخصی با طول واحد و ستونهای $V$ بارگیریهای مربوط به رایانههای شخصی هستند. در PCR داریم: $X=Pt_i+e_i$ که $T=(t_1,...,t_k)$ ماتریس مولفه پنهان و $P$ ماتریس بارگذاری ها است. سوالات من: آیا $V$ در SVD برابر است با $P$ در PCR؟ منظورم این است که آیا می توانیم برای هر دو از یک نماد استفاده کنیم، $V=P$؟ همچنین، آیا $U=T$ است؟ (توجه داشته باشید که $n$: تعداد مشاهدات، $p$= تعداد پیشبینیکنندهها و $k$ = تعداد اجزا است.) | تجزیه ارزش منفرد و PCR |
79817 | شبیه سازی یک مدل پواسون: set.seed(1) predictor <- rnorm(100000, 2.5, 0.5) # describe(predictor) lam <- 0.98 * predictor # describe(lam) rp <- function(lambda){rpois(1, lambda)} vrp <- پاسخ برداری (rp) <- vrp(lam) # describe(response) fit <- glm(response ~ 1, offset=log(predictor), family=poisson) summary(fit) رگرسیون: فراخوانی: glm(فرمول = پاسخ ~ 1، خانواده = poisson، offset = log (پیشبینیکننده)) باقیماندههای انحراف: حداقل 1Q میانه 3Q Max -2.8188 -0.8334 -0.1146 0.5777 4.3871 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -0.017707 0.002018 -8.773 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده poisson برابر با 1) انحراف صفر: 111501 در 99999 درجه آزادی انحراف باقیمانده: 1115 99999 درجه آزادی AIC: 361334 تعداد تکرارهای امتیازدهی فیشر: 5 > pchisq(111501، 99999) [1] 1 این بالا باید دقیقاً تناسب داشته باشد، نمیدانم چرا «pchisq» اینقدر به من عدد فوقالعاده میدهد. پیوند مرجع: وقتی کسی می گوید که انحراف باقیمانده/df باید ~ 1 برای یک مدل پواسون باشد، چقدر تقریبی است؟ ### بهروزرسانی من این http://pj.freefaculty.org/guides/stat/Regression- GLM/GLM2-SigTests/ را پیدا کردم و پیشنهاد میکند که از باقیمانده پیرسون به جای انحراف برای انجام یک تناسب خوب استفاده کنید... خیلی بهتر کار میکنه ssr <- sum(residuals(fit, type=pearson)^2) pchisq(ssr, 99999) | چرا خوب بودن تناسب از طریق انحراف و chisq برای رگرسیون poisson (glm) ضعیف است؟ |
105531 | ببینید من تحت تأثیر قرار گرفتم که هنگام محاسبه خطا با توجه به وزن های اتصال آخرین لایه پنهان به لایه خروجی، فرض می کنیم که خطای لایه خروجی را با مشتق سیگموئید ضرب می کنیم، وزن های فعلی و خروجی آخرین لایه پنهان اما اگر دوره Andrew NG را در Coursera طی کنید، خواهید دید که او مشتق سیگموئید را برای آخرین لایه ضرب نمی کند. این حتی در pdf ارائه شده در صفحه 9 نیز ذکر شده است. همچنین متوجه میشوم که وقتی آن را با مشتق سیگموئید ضرب میکنم، پیکهای متعددی در نمودار نظمدهی در مقابل خطای آموزشی دریافت میکنم، NN به مقادیر بسیار بالای خطاهای آموزشی در چند تکرار همگرا میشود. در مجموعه داده ارقام دست نویس MNSIT. بدون مشتق سیگموئید، نظم در مقابل خطا، یک طرح پیک منفرد صاف است و تا 1000 تکرار کاهش مییابد! آیا من اینجا چیزی را از دست داده ام؟ چون از محاسباتی که آموختم بدیهی به نظر می رسد که مشتق سیگموئید باید ضرب شود! | آیا هنگام محاسبه خطاهای وزنه های اتصال آخرین لایه پنهان به لایه خروجی، مشتق تابع سیگموید را ضرب می کنیم؟ |
4818 | من فقط متوجه شدم که چگونه آزمون غیر دقیق مک نمار از توزیع مجانبی مجذور کای استفاده می کند. اما از آنجایی که آزمون دقیق (برای جدول دو موردی) بر توزیع دوجملهای متکی است، چگونه میتوان تقریب نرمال را برای توزیع دو جملهای پیشنهاد کرد؟ با تشکر | چرا آزمون مک نمار از مجذور کای استفاده می کند و از توزیع نرمال استفاده نمی کند؟ |
18455 | من دادههایی از یک نظرسنجی تحقیقات بازار دارم که رفتار گروههای مختلف مشتریان را پوشش میدهد. به طور خاص، من به تعداد کانال هایی که مشتری قبل از خرید محصول از آنها بازدید می کند، نگاه می کنم. میخواهم بدانم آیا ارزش مشتری (که با ارزش محصولی که خریداری میکند اندازهگیری میشود) روش معناداری برای تقسیم دادهها است یا خیر. من میانگین تعداد کانالهای بازدید شده را برای کل نمونه (بیایید آن را X بنامیم) و سپس برای مشتریانی که فقط گرانترین محصولات (Y) را خریداری کردهاند و بهطور جداگانه برای مشتریانی که فقط ارزانترین محصولات (Z) را خریداری کردهاند، محاسبه کردهام. اکنون می خواهم بررسی کنم که آیا Y و Z از نظر آماری معنی دار هستند یا خیر. یعنی احتمال اینکه در کل جمعیت من مشتری را پیدا کنم که یک محصول ارزان را خریداری کرده باشد که از قبل از کانال Y یا بیشتر بازدید کرده باشد. تعدادی از توابع آماری در اکسل وجود دارد که مرتبط به نظر می رسند (CONFIDENCE.NORM، CONFIDENCE.T، T.TEST، و غیره...). از کدام یک استفاده کنم؟ | اهمیت آماری در اکسل |
4816 | اجازه دهید $X \sim \chi^2_k$ یک متغیر تصادفی توزیعشده با مجذور کای با درجه آزادی $k$ باشد. واضح ترین مرزهای شناخته شده برای احتمالات زیر چیست $$ \mathbb{P}[X > t] \leq 1 - \delta_1(t, k) $$ و $$ \mathbb{P}[X < z] \leq 1 - \delta_2(z, k) $$ که در آن $\delta_1$ و $\delta_2$ برخی از توابع هستند. اشاره گر به مقالات مرتبط قدردانی می شود. | واضح ترین مرزهای دم شناخته شده برای متغیرهای توزیع شده $\chi_k^2$ چیست؟ |
102627 | من در چند مقاله مانند کریژفسکی، الکس، و جفری ای. هینتون اصطلاح _عضو رمزگذارهای خودکار را دیده ام. استفاده از رمزگذارهای خودکار بسیار عمیق برای بازیابی تصویر مبتنی بر محتوا. ESANN. 2011. تفاوت بین Autoencoder و Autoencoder عمیق چیست؟ | تفاوت بین رمزگذارهای خودکار و رمزگذارهای خودکار عمیق چیست؟ |
102620 | با توجه به یک نمونه $\\{x_1,\dots,x_n\\}$, $z_1$ و $z_2$ دو تحقق بوت استرپ از میانگین نمونه هستند، یعنی $z_1 = \frac{1}{n}\sum \\{x\in\text{نمونه بوت استرپ 1}\\}$$ $$z_2 = \frac{1}{n}\sum\\{x\in\text{نمونه راهاندازی 2}\\}$$، چگونه $corr(z_1، z_2)$ را محاسبه کنیم؟ **به روز رسانی** برای اطمینان از اینکه مشکل را به درستی درک کرده ام، این چیزی است که سعی می کنم حل کنم:  اینجاست آنچه من امتحان کردم، همانطور که @probabilityislogic پیشنهاد کرد، $$z = \frac{1}{n}\sum(x_ik_i) ;k_1+k_2+\cdots+k_n = n$$ از آنجایی که این یک نمونه بوت استرپ است، بنابراین $x_i$ همگی ثابت هستند و $k_i$ متغیرهای تصادفی هستند که $$(k_1,k_2,\cdots,k_n) \sim Mult(k_1k_2\cdots k_n|n, p_1,p_2, \cdots,p_n)$$ . من سعی کردم میانگین و واریانس را به این صورت محاسبه کنم، \begin{align*} E(z) &= \sum_k\begin{pmatrix}n\\\ k\end{pmatrix}p^kz\\\ &= \sum_k \begin{pmatrix}n\\\ k\end{pmatrix}p^k(\frac{1}{n}\sum_{i=1}^n x_ik_i)\\\ &= \frac{1}{n}\left[\sum_k\begin{pmatrix}n\\\ k\end{pmatrix}p^k(x_1k_1+\cdots+x_nk_n)\right]\\ \ &= \frac{1}{n}[np_1x_1+\cdots+np_nx_n]\\\ &= p_1x_1+\cdots+p_nx_n \end{align*}، و از آنجایی که هر $k_i$ میتواند هر عددی در $[0,n]$ باشد، پس $p_i = \frac{1}{n+1}$، درست است؟ اگر چنین است، $$E(z) = \frac{n}{n+1}\bar x$$ . برای محاسبه کوواریانس، \begin{align*} Cov(z_1, z_2) = \sum_{k_{z1}, k_{z2}}\left[\text{Pr}(k_{z1},k_{z2})( z_1 - E(z))(z_2 - E(z))\right] \end{align*}، جایی که $\text{Pr}(k_{z1}، k_{z2})$ احتمال مشترک $k$ برای $z_1,z_2$ است. آیا در اینجا برای کوواریانس $z_1$ و $z_2$ راه درستی را طی می کنم؟ به نظر نمی رسد که این موضوع را اینجا بفهمم، به نظرم خیلی پیچیده است. | همبستگی میانگین های نمونه بوت استرپ |
57509 |  فکر می کنم درست است زیرا از قانون پیروی می کند که K(x1,x2) = f(x1)f(x2) همچنین هر دو به ترتیب تابعی از تنها یکی از نقاط هسته هستند. در نهایت حاصل ضرب دو هسته معتبر، یک هسته مناسب است. میخواستم بدونم استدلالم درسته؟ | آیا این هسته مناسب است؟ |
57507 | من در حال طراحی یک تحقیق هستم و می خواهم احتمال تطابق دو پاسخ منحصر به فرد را نقل کنم. 10 سوال، برای هر پاسخ دهنده باید a،b یا c را انتخاب کنید. بنابراین، اگر به صورت تصادفی انتخاب شود، 33.33٪ احتمال وجود دارد که همان را بیان کنید. احتمال کلی پاسخگویی به 10 سوال یکسان چقدر خواهد بود؟ آیا 33.33 X 33.33 x 33.33 X 33.33 x33.33 X 33.33 x33.33 X 33.33 x 33.33 X 33.33 است؟ چگونه می توان این را به عنوان درصد شانس بیان کرد؟ | محاسبه احتمال در پاسخ پرسشنامه |
79814 | سوال من در مورد یک مطالعه پزشکی گذشته نگر است که در آن تفاوت معنی داری بین دو درمان مختلف یافت نشد. منظور از عدم وجود تفاوت معنی دار به دلیل قدرت نامشخص آزمون های آماری به معنی هم ارزی نیست چیست؟ | قدرت نامشخص و مطالعه گذشته نگر |
53375 | من سعی می کنم آزمایش کنم که آیا 4 شیب مختلف از یک تعامل 3 طرفه در رگرسیون چندگانه تفاوت قابل توجهی با صفر دارند یا خیر. چهار خط در 2 سطح از هر یک از 2 تعدیل کننده (lo-lo، hi-lo، lo-hi، hi-hi) رسم شده است. در اینجا نحوه آزمایش شیب های اهمیت در یک مدل تعامل دو طرفه آمده است. من می خواهم این روش را برای آزمایش اهمیت شیب ها در یک مدل تعامل 3 طرفه در رگرسیون چندگانه گسترش دهم. یک برهمکنش دو طرفه در رگرسیون چندگانه به شکل زیر است: y = a + b1(X) + b2(Z) + b3(X)(Z) با یک برهمکنش دو طرفه، می توان بررسی کرد که آیا شیب ها در سطوح مختلف از تعدیل کننده، Z، با استفاده از معادلات زیر به طور قابل توجهی با صفر متفاوت است: b1 در Z = b1 + b3 (Z) که در آن b1 شیب اثرات پیش بینی شده X است. Y در هر مقدار خاص از Z SE(b1 در Z) = (var(b1) + (Z^2)(var(b3) + (2Z)(cov(b1,b3))^(1/2) که در آن var (b1) واریانس ضریب رگرسیون b1، var(b3) واریانس ضریب رگرسیون b3، cov(b1،b3) کوواریانس بین b1 است، ضرایب رگرسیون b3 t = (b1 در Z)/SE(b1 در Z) df = N - k - 1 که در آن _N_ = اندازه نمونه و _k_ = تعداد پیشبینیکنندهها سپس میتوان اهمیت هر شیب را با استفاده از آزمون t آزمایش کرد. سوال من این است که چگونه می توانم این را به اهمیت شیب ها در یک مدل تعامل 3 طرفه تعمیم دهم. پیشبینیکننده set.seed(123) <- rnorm(1000، 10، 5) moderator1 <- rnorm(1000، 100، 25) moderator2 <- rnorm(1000، 50، 20) نتیجه <- پیشبینیکننده*moderator1*moderator(2*rnorm 20، 30)/10000 mydata <- data.frame (پیشبینیکننده، تعدیلکننده1، تعدیلکننده2، نتیجه) مدل <- lm(نتیجه ~ پیشبینیکننده + تعدیلکننده1 + تعدیلکننده2 + پیشبینیکننده*مدیرکننده1 + پیشبینیکننده*مدیرگر2 + تعدیلکننده1*مدیرگر2 + پیشبینیکننده*مدیرکننده1*مدیرگر2، داده=mydata) plotData <- expand.grid( پیش بینی کننده = beautiful(qnorm(pnorm(c(-1, 1))، میانگین = میانگین (mydata$predictor، na.rm = TRUE)، sd = sd(mydata$predictor، na.rm = TRUE)))، moderator1 = qnorm (pnorm(c(-1, 1))، mean = mean(mydata$moderator1، na.rm = TRUE)، sd = sd(mydata$moderator1، na.rm = TRUE))، moderator2 = qnorm(pnorm(c(-1, 1))، mean = mean(mydata$moderator2، na.rm = TRUE)، sd = sd(mydata$ moderator2, na.rm = TRUE)) ) plotData$نتیجه <- پیش بینی(مدل، داده جدید = plotData، سطح = 0) plotData$mod1 <- factor(plotData$moderator1، labels = c(Lo mod1، Hi mod1)) plotData$mod2 <- factor(plotData$moderator2، labels = c(Lo mod2، سلام mod2)) mod1Lo_mod2Lo <- plotData[plotData$mod1==Lo mod1 & plotData$mod2==Lo mod2,] mod1Hi_mod2Lo <- plotData[plotData$mod1==Hi mod1 & plotData$mod2==Lo mod2,] mod1Lo_mod2Hi <- plotData[plotData$mod1==Lo mod1 & plotData$mod2==سلام mod2،] mod1Hi_mod2Hi <- plotData[plotData$mod1==Hi mod1 & plotData$mod2==Hi mod2] #Generate Plot plot(mod1Lo_mod2Lo$predictor, mod1Lo_mod2Lo$outcome, lty=1, lwd=2, type='l', xlab = پیش بینی، ylab = نتیجه، ylim=c(min(plotData$نتیجه)، max(plotData$outcome))) خطوط (mod1Hi_mod2Lo$predictor، mod1Hi_mod2Lo$outcome، lty=2، lwd=2) خطوط (mod1Lo_mod2Hi$_mod2Hi$_out2، mod1$l ، lwd=2, col=grey) lines(mod1Hi_mod2Hi$predictor, mod1Hi_mod2Hi$outcome, lty=2, lwd=2, col=grey) legend(topleft, legend=c(lo Mod1, lo Mod2 hi Mod1، lo Mod2، lo Mod1، hi Mod2، hi Mod1، hi Mod2)، lty=c(1،2،1،2)، lwd=c(2،2،2،2)، col=c(سیاه، سیاه، خاکستری، خاکستری)) چگونه می توانم آزمایش کنم که آیا شیب هر یک از این چهار خط، به طور جداگانه، با صفر متفاوت است؟ پیشاپیش سپاس فراوان! | آزمایش کنید که آیا شیب های ساده با برهمکنش سه طرفه صفر در رگرسیون چندگانه متفاوت است یا خیر |
106137 | من یک نتیجه و یک $\chi^2$ مرتبط را از طریق یک فرآیند تکرار شونده محاسبه میکنم که از 3 عدد تصادفی (نمونهگیری تصادفی یک گاوسی) در یک معادله استفاده میکند، و به عنوان نتیجه نهایی خود را انتخاب میکنم که کمترین مقدار را داشته باشد. $\chi^2$. من سعی می کنم با توجه به تعداد تکرارهایی که استفاده می کنم احتمال پایان دادن به این مقدار $\chi^2$ را محاسبه کنم (با این انتظار که با استفاده از تکرارهای بیشتر در نهایت مقدار کمتری برای $ داشته باشم. \chi^2_{min}$ با توجه به اینکه تلاشهای بیشتری وجود خواهد داشت، سعی میکنم این کار را انجام دهم: $احتمال = \frac{e^{-\chi^2_{min}}}{\sum_i^{N_{trials}}e^{-\chi^2_{i}}}$ بنابراین اساساً احتمال نمایی از کمترین است محاسبه شده $-\chi^2_{min}$، تقسیم بر مجموع مقادیر exp($-\chi^2$) محاسبه شده من انتظار داشتم که برای آزمایش های بیشتر مقدار کمتری دریافت کنم $\chi^2_{min}$ و احتمال آن به 1 نزدیک میشود (با این فرض که مقدار در صورتگر بر مجموع مخرج غالب باشد، به طوری که آنها تقریباً برابر هستند، در واقع برای آزمایشهای بیشتر I). با افزایش مخرج به دلیل مجموع، مقدار کمتری برای احتمال دریافت کنید مخرج می تواند (و می شود) بزرگتر از 1 شود، آزمایش های بیشتر به سادگی به مقدار کمتری برای احتمال منجر می شود. برای من روشن نیست که چگونه این مشکل را برطرف کنم و هر بینشی بسیار خوشایند خواهد بود! با تشکر | احتمال مقدار معین $\chi^2$ با توجه به تعدادی آزمایش |
106132 | من در کلاس استنباط خود در حال یادگیری MLE هستم و این مشکلی است که با آن برخورد کردم. دو مدل خطی ساده را در نظر بگیرید. $y_{1j}=\alpha _1+\beta_{1}x_{1j}+\epsilon_{1j}$ و $y_{2j}=\alpha _2+\beta_{2}x_{2j}+\epsilon_{2j} $ , $ j=1,2,...,n>2$ جایی که $ \epsilon_{ij}$~$N(0,\sigma^2)$ ، $\epsilon$ مستقل هستند و به طور یکسان توزیع می شوند. ** برآوردگرهای حداکثر درستنمایی ** $\sigma^2$ را بدست آورید. برای این کار می توانم فقط از **یک** معادله این دو استفاده کنم. آیا می توانم تنها با استفاده از $y_{1j}=\alpha _1+\beta_{1}x_{1j}+\epsilon_{1j}$ پیدا کنم و آیا اگر از معادله دیگر استفاده کنم، همان پاسخی خواهد بود که میگیرم؟ | برآوردگر حداکثر درستنمایی برای واریانس در دو مدل خطی |
106135 | به گفته آرمسترانگ شواهد تجربی فراوانی وجود دارد که نشان میدهد کاهش روندهای پیشبینی بلندمدت نامشخص و پیچیده به بهبود دقت/کاهش خطاهای پیشبینی کمک میکند. چیزی که من نمی توانم پیدا کنم یک فرمول یا اجرای روندهای کاهش دهنده است. من می دانم که روندهای کاهشی در هموارسازی نمایی وجود دارد که آن چیزی نیست که من به دنبال آن هستم. من به دنبال یک فرمول ساده بودم که به صورت بازگشتی مقادیر پیش بینی شده را بر اساس **ضریب میرایی ارائه شده توسط کاربر** کاهش دهد. فرض کنید مجموعه داده زیر را دارم، 8 مقدار اول واقعی هستند و بقیه پیش بینی می شوند، چگونه می توانید مقادیر پیش بینی شده را با عوامل کاهش دهنده ارائه شده توسط کاربر که روند را به صورت بازگشتی کاهش می دهد، کاهش دهید، به عنوان مثال، با پیشروی زمان، میرایی بیشتری وجود دارد. عدم اطمینان در بلندمدت افزایش می یابد؟ من به طور مصنوعی مقادیر _dapening_ را ارائه کرده ام و مقادیر پیش بینی شده را تعدیل کرده ام، آیا یک فرمول فرآیند مکانیکی برای ایجاد _dampening value_ وجود دارد؟ هر گونه پیشنهاد/توصیه از مقالات/صفحهگسترده فرمول اجرای روندهای میرایی بسیار قدردانی میشود. با احترام  ویرایش: میخواهم آنچه را که میخواهم به آن دست یابم، از نظر یک مثال گویا روشن کنم. فرض کنید اگر یک پیشبینی روند داریم همانطور که در زیر نشان داده شده است، stl.ap <-stl(AirPassengers,s.window=periodic) ## استخراج جزء Trend trend.ap <- stl.ap$time.series[,2] plot(trend.ap) ## دادههای فصلی را نادیده بگیرید زیرا این مثالی است برای تعیین ## نحوه کاهش روند linear.ap <- tslm(trend.ap~+ trend + I(trend^2)) forecast.ap <- forecast(linear.ap, h=36) plot(forecast.ap)  همانطور که در بالا مشاهده می شود، این یک طرح غیرواقعی از روند است، آیا فرمولی وجود دارد که به صورت بازگشتی این روند را کاهش دهد. من می خواهم با افزایش افق زمانی، روند را به شدت کاهش دهم. | چگونه می توان پیش بینی را برای بهبود دقت کاهش داد؟ |
107467 | من فهمیدم که پیشبینی زمستان Holt ممکن است به دلیل روند، منجر به مقادیر منفی شود. من مقدار مولفه روند را کاهش دادم، اما همچنان مقادیر پیشبینی شده قلمرو منفی هستند. مجموعه داده های ما هرگز در مقادیر منفی نخواهد بود (مانند مجموعه داده های برق که هرگز زیر صفر نمی افتد). چه نوع تکنیکهای الگوریتم پستی را میتوانیم اعمال کنیم تا این مقدار را به عنوان مقدار غیر منفی تبدیل کنیم؟ هر گونه کمکی قدردانی خواهد شد. این پیادهسازی در جاوا است، بنابراین من نمیتوانم از بسته «ets()» در این نقطه از زمان استفاده کنم (و فرض میکنم که «ets()» نیز نمیتواند از مقادیر منفی اجتناب کند).  | از نتایج منفی در پیش بینی زمستان هالت اجتناب کنید |
106286 | درست است که تبدیل لاپلاس یک متغیر تصادفی (مثبت) آن متغیر تصادفی را دقیقاً مانند چگالی آن مشخص می کند؟ ($L_X(z) = E(exp(-Xz))$) | تبدیل لاپلاس و چگالی |
58856 | فرض کنید من سعی می کنم توزیع طول عمر لامپ ها را بررسی کنم. نکته مهم این است که من فقط میتوانم هر لامپ را حداکثر واحدهای زمانی $T$ مشاهده کنم. بنابراین اگر لامپ قبل از $T$ منفجر نشود، من نمی دانم ارزش طول عمر آن لامپ خاص چقدر خواهد بود، فقط عمر آن بزرگتر از $T$ بود. بنابراین، سؤالات: 1. آیا نام شناخته شده ای برای این نوع سوگیری وجود دارد؟ 2. آیا ارجاعات استانداردی به تکنیک هایی برای مقابله با این مشکل وجود دارد؟ | ادبیات در مورد این نوع تعصب |
99080 | من از این ماشین حساب آنلاین برای انجام تست مک نمار روی این مجموعه داده استفاده می کردم:  نتایج را دریافت می کنم: > مقدار P دو دنباله معادل 0.1859 > > مربع چی برابر با 1.750 با 1 درجه آزادی است. اکنون میدانم که چگونه مجذور چی را محاسبه کنم، اما نمیدانم این مقدار P از کجا آمده است. همچنین چگونه مقدار P به اینکه آیا تفاوت قابل توجهی بین طبقهبندیکنندهها وجود دارد، مرتبط است؟ اگر کسی می توانست این را مانند یک برنامه در جاوا اسکریپت یا چیزی توضیح دهد، خیلی واضح تر می شد. هر توضیحی که می بینم، اصطلاحات تخصصی را در همه جا پرتاب می کند. | مقدار p در آزمون مک نمار از کجا می آید؟ |
70227 | من می خواهم نرخ آلودگی در زنبورها را بر اساس شرایط آب و هوایی مدل کنم. متغیرهای آب و هوا وسیلهای چرخشی برای دورههای زمانی و مدتهای مختلف هستند. دادههای وابسته سطوح آلودگی است که در ماه مارس جمعآوری شدهاند و متغیرهای مستقل مجموع آب و هوا (به عنوان مثال از دوره 30 روزه از 1 ژانویه تا 30 ژانویه، دوره 90 روزه از دسامبر 1 تا 28 فوریه)، چند هزار مورد از آنها و همبستگی بالایی دارند. تکنیکهای PCA کار نمیکنند، زیرا عفونتها چندان به آب و هوا مرتبط نیستند. من همچنین درختان میانگینگیری مدل بیزی و رگرسیون تقویتشده را امتحان کردهام، زیرا متغیرها را میتوان بر اساس اهمیت متغیری که محاسبه میکنند انتخاب کرد. اما از آنجایی که دادههای من طولی هستند و زنبورستانهای من مکان ثابتی دارند، فکر میکنم مدلهای ترکیبی انتخاب خوبی هستند. آیا راهی برای انتخاب متغیر بر اساس مدل های ترکیبی وجود دارد؟ کاری که من الان انجام دادم به 1\ است. 'glmer' را برای هر یک از متغیرهای مستقل به طور جداگانه اجرا کنید، 2\. آن متغیرهایی را حذف کنید که مقادیر p برای برآوردهای اثر ثابت کمتر از 0.05 است (مطمئن نیستم که آیا این چیز درستی است - اگر تخمین یک متغیر مهم نیست، آن متغیر تنها متغیر در مدل است، درست است که حذف شود. آن متغیر است؟) 3\. از بین متغیرهای باقیمانده، همبستگی بین متغیرهای 4\ را آزمایش کنید. متغیرهایی را که همبستگی بالایی دارند حذف کنید و به متغیری که کمترین AIC را دارد ترجیح دهید. یا باید در این مرحله نگران p-values Intercepts نباشم و فقط روی AIC (یا BIC) تمرکز کنم؟ از آنجایی که برخی از متغیرها دارای p-value بالا هستند اما AIC کمتر از متغیرهایی با p-value پایین هستند. من سعی کردم زیاد بخوانم، و هیچ راه حل احمقانه ای برای انتخاب متغیر وجود ندارد، اما می خواهم بدانم آیا در روش من مشکلی وجود دارد یا خیر. از آنجایی که من آمارگیر نیستم، معادلات اغلب شبیه خوشنویسی های زیبای عربی هستند و در آنجا بن بست من نهفته است. | انتخاب متغیر با استفاده از مدل های ترکیبی (lme4) |
18450 | آیا آزمون آماری پارامتریک و ناپارامتریک وجود دارد؟ این سوال توسط یک پانل مصاحبه پرسیده شد. آیا سوال معتبر است؟ | آیا آزمون آماری پارامتریک و ناپارامتریک وجود دارد؟ |
58850 | مرزهای خطا در پیشبینی سریهای زمانی واقعاً به چه معناست؟ به عنوان مثال، زمانی که من یک پیش بینی دریافت می کنم، مرزهای خطای بالا و پایین 85٪ و 95٪ را دریافت می کنم. من همچنین میتوانم مرزهای خطای خود را برای محاسبه تعیین کنم، اما مطمئن نیستم که محدودیت خطا از نظر پیشبینی سریهای زمانی به چه معناست. | مرزهای خطا در پیش بینی چه چیزی را نشان می دهد؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.