_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
100955
من از SPSS AMOS برای انجام یک تحلیل عاملی استفاده می کنم و آمار مربوط به نرمال بودن تک متغیره و چند متغیره را تولید می کند. p35 از راهنمای کاربران AMOS بیان می کند که [T] متغیرهای مشاهده شده باید برخی از الزامات توزیعی را برآورده کنند. اگر متغیرهای مشاهده شده دارای یک توزیع نرمال چند متغیره باشند، کافی است. همچنین شخصاً توسط یکی از دوستان به من گفته شده که نرمال بودن تک متغیره نیز باید گزارش شود. علاوه بر آن، این مقاله در صفحه 19 بیان می کند که [A]ارزیابی نرمال بودن تک متغیره و چند متغیره باید ارائه شود. آیا این چنین است که اگر من با نرمال بودن تک متغیره مشکل داشته باشم، در آمار نرمال بودن چند متغیره نیز منعکس می شود؟ اگر اینطور است، آیا این استدلال خوبی برای من است که فقط نرمال بودن چند متغیره را گزارش کنم؟
هنگام گزارش CFA، آیا ارزیابی نرمال بودن تک متغیره علاوه بر نرمال بودن چند متغیره، مطلوب است؟
100952
من حدود 500 هزار رکورد از یک مجموعه داده دارم که شامل تعداد است (بنابراین هر رکورد یک تعداد چیزی است، مانند تعداد تلاش های یک آدرس IP برای اتصال به یک وب سایت). من به طور پیشینی می دانم که هر رکورد متعلق به یکی از دو گروه است (به عنوان مثال IP های مخرب و IP های قانونی)، اما نمی دانم کدام یک بدون بازرسی دستی رکورد و تعیین گروه بندی. من همچنین می‌دانم که توزیع شمارش‌ها بسیار طولانی است (هم به نمونه 500K من نگاه می‌کنم و هم دانش پیشین). نمونه کوچکی از رکوردها (مثلاً بیش از 1000) برای بررسی دستی. با توجه به اینکه یک نمونه تصادفی ساده دم را از دست می دهد، راه صحیح نمونه گیری از این داده ها چیست؟
نمونه برداری از توزیع دم بلند
51107
با توجه به تلنگرهای $N$ از یک سکه که منجر به وقوع $k$ از 'هدها' می شود، تابع چگالی احتمال سر-احتمال سکه چیست؟
احتمال وجود سر در یک سکه مغرضانه
51103
هدف یک مطالعه تعیین این است که آیا یک برنامه آموزشی جدید (روش 1) بهتر از برنامه مقدماتی استاندارد (روش 2) برای آماده کردن دانش آموزان برای SAT است یا خیر. این نسبت دانش آموزانی که در سه ماهه برتر آزمون دهندگان نمره می گیرند اندازه گیری می کند. یافته ها: 53 درصد از دانش آموزان نمونه با استفاده از برنامه استاندارد (روش 2) در سه ماهه برتر آزمون شوندگان نمره کسب کردند، در حالی که 45 درصد از دانش آموزان نمونه با استفاده از برنامه جدید (روش 1) در سه ماهه برتر آزمون شوندگان نمره کسب کردند. آزمون فرضیه با استفاده از سطح معناداری 5 درصد انجام خواهد شد. 1.آمار تست مثبت خواهد بود یا منفی؟ 2. درست یا غلط: در سطح معنی داری 5 درصد، نتایج از نظر آماری معنی دار هستند. من منفی را برای # 1 و نادرست را برای # 2 قرار دادم، اما هر دو را اشتباه گرفتم. آیا کسی می تواند توضیح دهد که چگونه این نوع سوال را در آینده حل کنم و مهمتر از همه از انتخاب اشتباه خودداری کنم؟
چند گزینه ای ساده برای آماره آزمون و سطح معناداری
25542
من باید از ANCOVA برای تجزیه و تحلیل اثر عملکردهای اجرایی (EF-covariate) بر نمرات جمع آوری شده در طول یک آزمون استفاده کنم. من می خواهم این تأثیر را بین گروه کنترل و اسکیزوفرنی (تشخیص متغیر) مقایسه کنم. من یک تحلیل کوواریانس انجام دادم و چند سوال دارم. این خروجی SPSS برای مدل ANCOVA من است: ![](http://i.imgur.com/xA1jg.jpg) آیا این مشکل است که اثر EF قابل توجه نیست؟ آیا می توانم این نتیجه را به صورت زیر تفسیر کنم: هنگامی که اثر EF کنترل می شود، تفاوت معنی داری در MIE بین گروه ها وجود دارد؟
چگونه اثر غیر معنی دار یک متغیر کمکی را در ANCOVA تفسیر کنیم؟
175
اغلب اوقات به یک تحلیلگر آماری مجموعه داده ای داده می شود و از آن خواسته می شود تا با استفاده از تکنیکی مانند رگرسیون خطی، مدلی را برازش کند. معمولاً مجموعه داده با سلب مسئولیتی شبیه به اوه بله، ما جمع آوری برخی از این نقاط داده را به هم زدیم - هر کاری می توانید انجام دهید همراه است. این وضعیت منجر به برازش های رگرسیونی می شود که به شدت تحت تأثیر وجود نقاط پرت قرار می گیرد که ممکن است داده های اشتباه باشند. با توجه به موارد زیر: * از نظر علمی و اخلاقی خطرناک است که داده ها را بدون دلیل دیگری به جز اینکه تناسب را بد جلوه می دهد خطرناک است. * در زندگی واقعی، افرادی که داده‌ها را جمع‌آوری می‌کنند اغلب برای پاسخ به سؤالاتی مانند هنگام تولید این مجموعه داده، دقیقاً کدام یک از نکات را به هم ریخته‌اید؟ در دسترس نیستند؟ چه آزمون های آماری یا قوانین سرانگشتی می تواند به عنوان مبنایی برای حذف نقاط پرت در تحلیل رگرسیون خطی استفاده شود؟ آیا ملاحظات خاصی برای رگرسیون چند خطی وجود دارد؟
در تحلیل رگرسیون خطی چگونه باید با موارد پرت برخورد کرد؟
93352
من سعی می کنم نتایج مدل اول این مقاله را تکرار کنم: > هالتمن، لیزا، جیکوب کاتمن و مگان شانون. 2013. «سازمان ملل متحد > حفظ صلح و حفاظت از غیرنظامیان در جنگ داخلی». _American Journal of > Political Science_ 57(4): 875–91. مطالب تکراری را می توان در اینجا یافت: http://thedata.harvard.edu/dvn/dv/ajps/faces/study/StudyPage.xhtml?studyId=87987&tab=files کد Stata ارائه شده در فایل do بدون مشکل اجرا می شود. با این حال، وقتی سعی می‌کنم مدل را در R تکرار کنم. خطا به شدت شبیه به آنچه در این سؤال CV است. این کد R است که برای تکرار نتایج نوشته ام: library(MASS) library(خارجی) pko <- read.dta(HKS_AJPS_2013.dta) pko_model1 <- glm.nb(osvAll ~ troopLag + policeLag + ushtarakobserversLag +Lagll + osvAllLagDum + incomp + epduration + lntpop، داده = pko، پیوند = log) این خطای زیر را ایجاد می کند: خطا در glm.fitter(x = X, y = Y, w = w, etastart = eta, offset = offset, : NA/NaN/ Inf در x اگر گزینه control=glm.control(trace=10,maxit=100) را وارد کنم `glm.nb` خروجی زیر را تولید می کند: انحراف = 75787029 تکرار - 1 انحراف = 28247900 تکرار - 2 انحراف = 11043902 تکرار - 3 انحراف = 4952253 تکرار - 4 انحراف = 6 انحراف = 2 2286069 تکرار - 6 انحراف = 2152722 تکرار - 7 انحراف = 2135621 تکرار - 8 انحراف = 2134804 تکرار - 9 انحراف = 2134801 تکرار - 10 انحراف = 2135621 تکرار = 0.000609' teta.ml: iter1 تتا = 0.00120256 theta.ml: iter2 تتا = 0.00234778 theta.ml: iter3 تتا = 0.00449211 تتا. میلی لیتر: iter4 تتا = 0.0082914 تتا = 0.0082914 iter2 تتا = 0.0082914 تتا. theta.ml: iter6 تتا =0.0225089 theta.ml: iter7 تتا =0.0302781 theta.ml: iter8 تتا = 0.0342821 تتا.ml: iter9 تتا = 0.0349533 تتا. میلی‌لیتر: iter10 تتا = 0.0349 تتا = 0.034 تکرار من متغیر 'epduration' یا 'incomp' را حذف می کنم متغیر، خطا ناپدید می شود و من تقریباً می توانم نتایج مقاله را تکرار کنم، اما تخمین پارامترها البته متفاوت است زیرا من همه متغیرها را در مدل لحاظ نمی کنم (و از خطاهای استاندارد قوی و خوشه ای در R استفاده نمی کنم). دو سوال: 1. چرا این در Stata بدون هیچ شکایتی اجرا می شود، اما در R نه؟ 2. چگونه می توانم این کار را در R ایجاد کنم؟ پاسخ به این سوال یک راه حل ممکن را با تخمین رگرسیون پواسون و سپس وارد کردن نتایج به عنوان مقادیر پارامترهای اولیه در یک تخمین MLE پیشنهاد می کند. با این حال، من نتوانستم این کار را در R انجام دهم. متوجه شدم که این ممکن است تکراری برای سؤال CrossValidated موجود باشد، اما از آنجایی که من مشکل مشابهی با داده های مختلف دارم، ممکن است این یک مشکل کلی تری باشد.
خطا در برازش مدل رگرسیون دو جمله ای منفی در R هنگام تکرار نتایج منتشر شده (در Stata کار می کند)
173
من اخیراً در یک کلینیک سل شروع به کار کردم. ما به طور دوره ای برای بحث در مورد تعداد موارد سل که در حال حاضر تحت درمان هستیم، تعداد آزمایش های انجام شده و غیره صحبت می کنیم. متأسفانه، من آموزش بسیار کمی در سری های زمانی داشته ام، و بیشتر در معرض مدل هایی برای داده های بسیار مداوم (قیمت سهام) یا تعداد بسیار زیاد (آنفولانزا) بوده است. اما ما با 0-18 مورد در ماه سر و کار داریم (میانگین 6.68، میانه 7، var 12.3) که به این صورت توزیع می شوند: ![alt text](http://img827.imageshack.us/img827/1927/activetbcases.png ) ![alt text](http://img827.imageshack.us/img827/4348/tbcasedistribution.png) من چند مقاله پیدا کرده ام که به مدل هایی از این دست می پردازند، اما بسیار خوشحال می شوم پیشنهاداتی را از شما بشنوم - هم برای رویکردها و هم برای بسته های R که می توانستم برای پیاده سازی آن رویکردها استفاده کنم. **ویرایش:** پاسخ mbq مرا وادار کرد که با دقت بیشتری در مورد آنچه در اینجا میپرسم فکر کنم. من بیش از حد به شمارش ماهانه قطع کردم و تمرکز واقعی سوال را از دست دادم. آنچه من می خواهم بدانم این است: آیا کاهش (نسبتا قابل مشاهده) از مثلاً 2008 به بعد نشان دهنده روند نزولی در تعداد کلی موارد است؟ به نظر من تعداد موارد ماهانه از سال 2001 تا 2007 نشان دهنده یک روند پایدار است. شاید فصلی باشد، اما در کل پایدار است. از سال 2008 تا کنون، به نظر می رسد که این روند در حال تغییر است: تعداد کلی موارد در حال کاهش است، حتی اگر شمارش ماهانه ممکن است به دلیل تصادفی و فصلی بالا و پایین شود. چگونه می توانم آزمایش کنم که آیا تغییر واقعی در روند وجود دارد؟ و اگر بتوانم کاهشی را شناسایی کنم، چگونه می‌توانم از آن روند و هر فصلی که ممکن است وجود داشته باشد برای تخمین تعداد مواردی که ممکن است در ماه‌های آینده ببینیم استفاده کنم؟ وای از اینکه با من تحمل کردید متشکرم
سری زمانی برای داده های شمارش، با شمارش < 20
25548
من در حال تجزیه و تحلیل داده‌های آزمایشی هستم که در آن شرکت‌کنندگان باید در سریع‌ترین زمان ممکن به دو نوع سؤال بله/خیر پاسخ دهند. از این رو، دو متغیر وابسته وجود دارد: زمان پاسخ و صحت پاسخ. برای هر شرکت کننده در هر یک از شرایط 80 پاسخ وجود دارد. فرضیه من این است که یک نوع سوال منجر به پاسخ های کندتر یا کمتر درست می شود. **آیا کسی می تواند دلیلی بیاندیشد که چرا تحلیل زیر ممکن است ناقص باشد؟** من برای هر شرکت کننده احتمال دادن یک پاسخ صحیح را قبل از یک نقطه زمانی مشخص، یعنی $P(RT < t_n \wedge پاسخ تعیین کردم) ~درست)$. تا آنجا که من می بینم، این مربوط به ECDF ضرب در نسبت پاسخ های صحیح است. من تمام نقاط داده‌ای را که برابر با 0 بودند حذف کردم و با یک مدل خطی جلوه‌های ترکیبی با مشخصات زیر (در lme4) مطابقت داشت: $logit(P_{corrRT}) \sim time + شرط + زمان: شرط + (1|شرکت‌کننده)$ به عنوان تا آنجا که من می بینم، یک اثر اصلی شرط یا یک تعامل بین شرایط و زمان به این معنی است که تفاوت هایی در RT یا دقت وجود دارد. آیا من فرضیات ضمنی نادرستی می‌کنم یا این تحلیل منطقی است؟
تجزیه و تحلیل مبادله سرعت-دقت در lmer
170
آیا کتاب های درسی آماری رایگان موجود است؟
کتاب های آماری رایگان
74225
با توجه به دو نقطه $p_1=(x_1,y_1,t_1)$ و $p_2=(x_2,y_2,t_2)$، که $x$ و $y$ به مختصات جغرافیایی در هواپیما و $t$ به برخی مقدار اندازه گیری شده دو معیار فاصله برای ارزیابی شباهت بین این دو نقطه به ذهن من می رسد: $$d_1(p_1,p_2) = \sqrt{ (x_1-x_2)^2+(y_1-y_2)^2+(t_1-t_2)^ 2 }$$ $$d_2(p_1,p_2) = \sqrt{ (x_1-x_2)^2+(y_1-y_2)^2 }+ \sqrt{ (t_1-t_2)^2 }$$ اندازه گیری $d_1$ به سادگی فاصله اقلیدسی در فضای سه بعدی است، در حالی که $d_2$ مجموع است بین فاصله مکانی و فاصله ویژگی. کدام معیار منطقی تر است و باید برای مثال اعمال شود. خوشه بندی؟
اندازه گیری شباهت/فاصله نقاط داده در فضای جغرافیایی
74222
یکی از دوستان دکتر پرسیده است که آیا می توانم برنامه نویسی اولیه را به آنها آموزش دهم، زیرا فکر می کنند زمانی که در آینده شروع به تحقیق کنند مفید خواهد بود. برای ارائه پیشینه - آنها نمی دانند همتایان آزمایشگاهشان از چه زبانی استفاده خواهند کرد (زیرا نمی دانند به چه آزمایشگاهی می پیوندند) اما دوست دارند چیزی یاد بگیرند که به طور کلی مفید باشد. آنها علاقه ای به انجام تحقیقات آماری ندارند، بلکه بیشتر به استفاده از تکنیک های آماری در داده های پزشکی علاقه مند هستند. چند گزینه واضح وجود دارد (من به اندازه کافی در مورد همه اینها می دانم تا به آنها آموزش دهم) * Python * R * MATLAB و چند گزینه کمتر واضح (من چیزی در مورد آنها نمی دانم) * Stata * SAS * SPSS من می خواهم می دانید چه زبان هایی بیشتر در آمار پزشکی استفاده می شود - آیا مردم از زبان های عمومی مانند پایتون یا زبان های تخصصی تر مانند R و MATLAB یا نرم افزارهای آماری مانند Stata/SAS/SPSS استفاده می کنند؟ باید توضیح دهم که من به کسی فکر می کنم که شغل اصلی او به عنوان یک پزشک/محقق پزشکی است که آمار را اعمال می کند، نه کسی که یک آماردان حرفه ای یا توسعه دهنده نرم افزار است که اتفاقاً در پزشکی کار می کند (بنابراین به عنوان مثال فکر می کنم که C /C++/Java همگی انتخاب های ضعیفی خواهند بود).
چه زبان هایی معمولا در آمار پزشکی استفاده می شود؟
85421
من می‌خواهم یک مدل ARMA را با متغیرهای کمکی در یک سری زمانی غیر ثابت برازش دهم. من برای 4 ایستگاه (S1-S4) اندازه گیری روزانه برای جریان آب دارم و سری زمانی ثابت نیست، بنابراین باید اول تفاوت را بگیرم. من می خواهم یک مدل ARMA پیدا کنم که 3 ایستگاه دیگر را به عنوان متغیرهای کمکی در نظر بگیرد. کاری که من انجام داده ام: a) m1 = auto.arima(S1, d=1, max.p, max.q, xreg=data.frame(S2,S3,S4)) b) m2 = auto.arima(diff( S1)، d=0، max.p، max.q، xreg=data.frame(diff(S2)،diff(S3)،diff(S4))) سوال من: کدام مدل با توجه به اینکه سریال ها ثابت نیستند درست است؟ من از هر پیشنهادی قدردانی خواهم کرد. متشکرم، پاتریشیا
R auto.arima() با متغیرهای کمکی غیر ثابت
74220
این سوال/موضوع در بحث با یکی از همکاران مطرح شد و من به دنبال نظراتی در این مورد بودم: من برخی از داده ها را با استفاده از رگرسیون لجستیک اثرات تصادفی، به طور دقیق تر رگرسیون لجستیک رهگیری تصادفی مدل می کنم. برای اثرات ثابت من 9 متغیر دارم که مورد توجه هستند و مورد توجه قرار می گیرند. من می‌خواهم نوعی انتخاب مدل انجام دهم تا متغیرهای مهم را پیدا کنم و بهترین مدل را ارائه کنم (فقط اثرات اصلی). اولین ایده من استفاده از AIC برای مقایسه مدل‌های مختلف بود، اما با 9 متغیر، برای مقایسه 2^9=512 مدل مختلف (کلمه کلیدی: لایروبی داده) خیلی هیجان‌انگیز نبودم. من این موضوع را با یکی از همکارانم در میان گذاشتم و او به من گفت که مطالعه استفاده از انتخاب مدل گام به گام (یا رو به جلو) با GLMM را به خاطر آورده است. اما به جای استفاده از یک مقدار p (به عنوان مثال بر اساس آزمون نسبت احتمال برای GLMM)، باید از AIC به عنوان معیار ورود/خروج استفاده کرد. من این ایده را بسیار جالب دیدم، اما هیچ مرجعی پیدا نکردم که بیشتر در این مورد بحث کند و همکارم به خاطر نداشت کجا آن را خوانده است. بسیاری از کتاب‌ها استفاده از AIC را برای مقایسه مدل‌ها پیشنهاد می‌کنند، اما من هیچ بحثی در مورد استفاده از آن همراه با روش انتخاب مدل به‌صورت گام به گام یا رو به جلو پیدا نکردم. بنابراین من اساساً دو سؤال دارم: 1. آیا استفاده از AIC در روش انتخاب مدل گام به گام به عنوان معیار ورود/خروج اشکالی دارد؟ اگر بله، چه جایگزینی وجود دارد؟ 2. آیا شما منابعی دارید که رویه فوق را مورد بحث قرار دهد که (همچنین به عنوان مرجع گزارش نهایی؟ بهترین، امیلیا
مدل های ترکیبی خطی تعمیم یافته: انتخاب مدل
36307
جلوه های ثابت: نسبت ~ ADF + CP + FCM + DMI + DIM Value Std.Error DF t-value p-value (Intercept) 3.1199808 0.16237303 158 19.214896 0.0000 ADF 2650606060.0. 158 -6.526603 0.0000 CP -0.0534021 0.00539108 158 -9.905636 0.0000 FCM -0.0149314 0.00353524 1550 -4.2030. 0.0072318 0.00498779 158 1.449894 0.1491 DIM -0.0008994 0.00019408 158 -4.634076 0.0000 0.0000 همبستگی: (Intr) ADF002 - ADF2 CPMI -0.515 0.089 FCM -0.299 0.269 -0.203 DMI -0.229 -0.145 0.083 -0.624 DIM -0.113 0.127 -0.061 0.010 -0.047 این مقدار را از مدل ترکیبی به دست آوردم. با این حال، من متعجبم که چرا مقادیر همبستگی اثر ثابت ارائه شده در اینجا با آنچه من با استفاده از تابع cor.test بدست می‌آورم متفاوت است (همبستگی پیرسون)
چرا همبستگی به دست آمده از nlme با همبستگی پیرسون متفاوت است؟
43405
1292
سمت ضعیف درختان تصمیم چیست؟
1293
مطالب ضروری برای افراد علاقه مند به علم اکچوئری و اکچوئری
72857
$$Y|X=x \sim N(x,1)\\\X\sim N(\mu,\sigma^2 )$$ $X|Y=y$ از چه توزیعی پیروی می کند؟ شروع اولیه من این بود که $f_{Y|X}f_X=f_{X,Y}$ و برای $f_{X|Y}=f_{X,Y}/f_{Y}$ . با محاسبه برای $f_{X,Y}$، موارد زیر را دریافت می کنم: $$f_{X,Y}=\frac{1}{\sqrt{2\pi\sigma^2}}\exp\left\\{-\frac{(x-\mu)^2}{2\ sigma^2}\right\\}\frac{1}{\sqrt{2\pi}}\exp\left\\{-\frac{(y-x)^2}{2}\right\\}$$ و در تلاش برای محاسبه $f_{Y}$، سعی می کردم بالاتر از w.r.t $x$ را ادغام کنم، اما گیر کردم. من مطمئن نیستم که آیا این یکپارچه سازی است یا خیر، و آیا این یک رویکرد درست برای حل این سوال است. من کنجکاو هستم که آیا نوعی ترفند / بینش وجود دارد که از دست داده باشم.
اشتقاق توزیع شرطی از دو توزیع دیگر
87370
وضعیت واقعی زندگی من داده‌هایی از شهرهای مختلف دارم که می‌گویند به طور متوسط ​​چقدر سریع خانه می‌سازند. من می خواهم این را با میزان فعالیت ساخت و ساز و تعداد خانه های ساخته شده به ازای هر پرسنل ساختمانی مرتبط کنم. من همچنین داده هایی دارم که می گوید تعداد کل پرسنل ساخت و ساز و کل هزینه ساخت در شهرهای مربوطه می باشد. من همه اینها را در JMP و Excel اجرا کرده ام و همبستگی تا 0.20 را دریافت می کنم، و اگر موارد پرت را خارج کنم، همبستگی هایی تا 0.60 دارم. سوال من این است: در صورت امکان چگونه می توانم همبستگی تا 0.75 یا بالاتر را دریافت کنم؟ من همچنین سعی می کنم با رگرسیون چند متغیره کار کنم و ببینم آیا می توانم نتایج بهتری بگیرم.
همبستگی با استفاده از JMP و Excel
21096
** اصل سوال** اجازه دهید $q \sim F$ با پشتیبانی $[0,1]$. فرض کنید $q_j$ آمار سفارش $j$th $N$ قرعه کشی از $F$ باشد. اجازه دهید $z_j \sim \text{برنولی}(q_j)$. ببینید که این قرعه کشی ها مستقل هستند، با توجه به احتمالات $q$. ما باید $$\begin{معادله*}\Pr(z_{1} = 0, \dots, z_{j-1} = 0 | q_{j} = x);\end{معادله*}$$ را بدانیم. به عبارت دیگر، با توجه به اینکه احتمال موفقیت در آزمون j$th $x$ است، شانس شکست $j-1$ چقدر است؟ برای یک $F$ شناخته شده، دنباله $z_1، \dots z_{j-1}$، و یک $x$ خاص، چگونه می توانیم این احتمال را پیدا کنیم؟ نوعی شبیه‌سازی ممکن است این کار را انجام دهد، اما من این احتمال را روی $x$ مستمر ادغام می‌کنم و ظاهراً استراتژی شبیه‌سازی را رد می‌کنم (این احتمال جزء کاربرد قانون بیز است --- به زیر مراجعه کنید). **زمینه** سناریو: من از طریق صفحه ای از نتایج جستجو نگاه می کنم، روی اولی، سپس دومی، و به همین ترتیب در لیست کلیک می کنم تا زمانی که اطلاعاتی را که به دنبال آن هستم پیدا کنم. می‌خواهم احتمال اینکه سایت بعدی که بازدید می‌کنم درست باشد را تخمین بزنم، با توجه به اینکه بقیه‌هایی که بازدید کرده‌ام اینطور نبوده‌اند. هر سایت احتمال خاصی دارد که برای من مناسب باشد $q_j$. می‌توانیم به این فکر کنیم که کسری $q_j$ از جمعیت آنچه را که به دنبال آن هستند در یک سایت خاص پیدا می‌کنند. ممکن است سایت های زیادی وجود داشته باشند که نیازهای یک بیننده را برآورده کنند، بنابراین این احتمالات با 1 جمع نمی شوند. اجازه دهید $z_j$ یک نشانگر برای سایت $j$ باشد که نیازهای من را برآورده می کند. پس از بازدید از سایت $j$، من فقط $z_j$ را یاد می‌گیرم، نه $q_j$. تصور کنید هر سایتی به یک توزیع $F$ برسد تا $q_j$ خود را پیدا کند. سپس، سایت ها به ترتیب نزولی $q$ قرار می گیرند. از این رو، $q_j$ آمار سفارش $j$th پس از برداشت $N$ از $F$ است. من می خواهم $$ \begin{align*} \bar{q}_{j} &= \text{E}[q_{j} را محاسبه کنم | z_{1} = 0، \dots، z_{j-1} = 0] \\\ &= \int_0^1{x\Pr(q_{j} = x | z_{1} = 0، \dots، z_{j-1} = 0) \,\text{d}x} \\\ &= \int_0^1{x\frac{\Pr(z_{1} = 0، \dots, z_{j-1} = 0 |. q_{j} = x)\Pr(q_{j} = x)}{\Pr(z_{1} = 0، \dots، z_{j-1} = 0) } \,\text{d}x} \\\ &= \frac{\int_0^1{x\Pr(z_{1} = 0, \dots, z_{j-1} = 0 | q_{j} = x)\Pr(q_{j} = x)\،\text{d}x}}{\Pr(z_{i1} = 0، \dots، z_{j-1} = 0) } \\\ &= \frac{\int_0^1{x\Pr(z_{1} = 0، \dots، z_{j-1} = 0 | q_{j} = x)\Pr(q_{j} = x)\,\text{d}x}}{\int_0^1{\Pr(z_{1} = 0, \dots, z_{j-1} = 0 | q_{j} = x)\Pr(q_{j} = x)\,\text{d}x}}. \end{align*}$$ این یک برنامه استاندارد از تکنیک‌های به‌روزرسانی بیزی است. اما مشکل این است که هیچ پارامتر واحدی برای به روز رسانی وجود ندارد ---$q$ در سایت ها متفاوت است. دو راه برای حل مشکل استفاده از روش های اکتشافی است: برای محاسبه، (الف) $q$ در سراسر سایت ها یکسان فرض می شود یا (ب) فرض می شود $q$ به روشی قابل پیش بینی تغییر می کند، به عنوان مثال، $q_j = q_1 - a(j-1)$ با $a$ شناخته شده، که از طریق یک پارامتر $q_1$ به‌روزرسانی می‌شود. مورد (الف) تخمینی می دهد که همیشه خیلی بزرگ است. در هر صورت، توزیع قبلی $\Pr(q_j=x)$ می تواند از ویژگی های آماری سفارش $F$ استفاده کند. روش دیگر این است که فرض کنیم من $F$ را می دانم و از این واقعیت استفاده کنم که آمار سفارش داریم. اما، برای یک $x$ معین در این انتگرال، مجموعه ای منحصر به فرد از احتمالات برای سایت های 1 تا $j-1$ وجود ندارد. به عنوان مثال، در مورد $j=2$ و در محاسبه انتگرال برای مورد $q_2=x$، $\Pr(z_1=0)$ می‌تواند بین 0 تا $1-x$ باشد. سوال این است که کدام یک از این مقادیر را باید وصل کرد؟ یک پاسخ واضح، ارزش مورد انتظار هر آمار سفارش است. این به نظر من کار نمی کند. ممکن است بتوانیم کمیت داخل انتگرال را برای هر مقدار $x$ شبیه سازی کنیم، اما به نظر می رسد ادغام در $x$ پیوسته این رویکرد را به یک استراتژی بسیار فشرده تبدیل می کند.
93868
من با استفاده از matlab روی حدود 5000 نقطه لینک کامل را بدون مشکل اعمال کردم. من می خواهم این روش را به عناصر بسیار بیشتری گسترش دهم. پردازش داده‌هایم برای آزمایش آن‌ها زمان زیادی طول می‌کشد، بنابراین می‌خواهم بدانم آیا کسی قبلاً این الگوریتم را روی matlab با این همه داده اعمال کرده است یا خیر.
66999
این بیشتر یک سوال بیشتر در مورد موضوع قبلی است، بنابراین اگر راهی برای پیوند دادن آنها وجود داشت که من پیدا نکردم عذرخواهی می کنم. اساساً این همان مشکل نحوه محاسبه مجدد تغییر از خط پایه از مقدار p برای آزمون t زوجی است. یعنی من باید انحراف معیار تغییر را محاسبه کنم. با این حال، در مطالعه من، دو نمونه مستقل هستند، و بنابراین نویسندگان قبلاً یک مقدار p را با استفاده از آزمون مجموع رتبه دو طرفه Wilcoxon محاسبه کرده‌اند. به طور خاص: > نمونه 1: n=86، mean=0.58، sd = +/- 0.12 > > نمونه 2: n=69، mean = 0.41 sd = +/- 0.108 > > نویسندگان از رتبه Wilcoxon دو طرفه استفاده کرده اند. آزمون مجموع برای بدست آوردن مقدار p > 0.51. آیا می توان انحراف معیار تغییر را نسبت داد؟ این برای یک متاآنالیز که دارم می نویسم ضروری است. با تشکر فراوان برای هر گونه اشاره.
41358
چرا یک چند جمله ای درجه $>2$ نمی تواند تابع تولید تجمعی باشد؟ جایی خواندم که این غیر ممکن است اما نمی توان منبع را بازیابی کرد. پاسخ StasK به تعمیم مرتبه بالاتر توزیع نرمال چند متغیره، بیانیه مرتبطی را ذکر می کند: «وقتی از تجمع کننده سوم صفر خارج می شوید، همه تجمع کننده های مرتبه بالاتر نیز باید غیر صفر باشند، هیچ توزیعی وجود ندارد که برای آن $\kappa_4 باشد. =0$ if $\kappa_3\ne 0$، اما هیچ منبعی نیز ارائه نمی دهد.
چرا یک چند جمله ای درجه $>2$ نمی تواند تابع تولید تجمعی باشد؟
20758
8483
طرح تحلیل با استفاده از رگرسیون لجستیک
41356
من مطالعه‌ای دارم که توسط تیمی از پزشکان انجام شده است: دو گروه از افراد برای بی‌اختیاری استرسی ادرار به دو روش درمان شدند: TVT و abbrevo. هر گروه شامل 23 نفر بود. فرضیه به شرح زیر است: **هیچ روش بهتر از دیگری نیست.** برای شروع، می خواهم مقایسه گروه ها را بررسی کنم. یعنی بررسی کنیم که آیا این دو نمونه یک نمونه تصادفی از یک جامعه هستند یا خیر. **از کدام معیار بهتر است استفاده شود؟** دوم اینکه **چگونه یک آزمون فرضیه کاملاً آماری را فرموله کنم و چه روشی؟** در ابتدا به آزمون من ویتنی U تمایل داشتم، اما ویکی پدیا می گوید که این معیار نمی تواند باشد. در موارد تکراری زیاد استفاده می شود. ما اطلاعاتی در مورد 1. سن بیمار 2. بیماران زن هستند 3. تعداد تولد و حاملگی 4. شاخص توده 5. یائسگی (بله/خیر) 6. **UDI-6 (قبل از عمل)** 7. ** IIQ-7 (قبل از عمل)** 8. **درد (بله/خیر، قبل از عمل)** 9. تشخیص (استرس ادراری) بی اختیاری، بی اختیاری مکرر، یا فرم مختلط) 10. پرولاپس در طول عمل. (بله/خیر) 11. عوارض حین عمل 12. عوارض بعد از عمل 13. عارضه (بعد از 6 ماه) 14. تست سرفه (بعد از 6 ماه) 15. **درد (بله/خیر)** 16. **UDI-6 ** 17. **IIQ-7**
تعیین اینکه آیا دو نمونه از یک جامعه هستند و کدام آزمون فرضیه مناسب است
45874
بسیاری از ماه‌های پیش، از من پرسیدم که چگونه می‌توان بین دو تناسب غیرخطی بسیار مشابه تفاوت قائل شد و کدام بهتر است. سرانجام پس از سردردهای زیاد و سه بسته نرم افزاری مختلف - محاسبه AIC، AICc، و BIC همه اینها درست شد و همگی یک نتیجه ثابت را ارائه می دهند. اکنون سعی می کنم یک تغییر جزئی در داده ها اعمال کنم و دوباره جاسازی کنم. سوال این است که از آنجایی که $\chi^2$ در مدل های بسیار غیر خطی نسبتاً بی فایده است، آیا می توانم از AIC استفاده کنم تا به من بگویم که آیا داده های اصلی یا داده های جدید با آن مدل مطابقت دارند؟ همانطور که در اینجا وجود دارد، من از یک مدل $f(x)$ استفاده می‌کنم، آن را با مجموعه داده 1 برازش می‌دهم، و سپس مدل SAME را در مجموعه داده 2 قرار می‌دهم، و AIC/AICc/BIC هر دو تناسب را محاسبه می‌کنم. آیا این مقایسه معنی‌داری است یا می‌توان از آنها فقط برای رتبه‌بندی بین دو تناسب مختلف با داده‌های مشابه استفاده کرد؟
آیا AIC می‌تواند تعیین کند که کدام داده بهتر با همان مدل مطابقت دارد؟
46638
41352
من یک مجموعه داده با 853 واحد دارم. در زیر، نمونه کوچکی از آن: > y [1] 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 6.751283 0.000000 0.000000 11.927481 0.000000 0.000000 0.000000 0.000000 [19] 0.000000 0.000000000000 0.000000 0.000000 0.000000 0.000000 0.000000 [28] 0.000000 0.000000 0.000000 0.000000 0.000000000000. 0.000000 0.000000 [37] 0.000000 0.000000 0.000000 0.000000 5.342471 2.286760 0.000000 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 0.000000 16.030779 17.942967 0.000000 0.000000 > head(x) gdp.cap bf.cap 1 8.789771 0.03911118 2 10.204732 0.02312620.07 0.04160150 4 9.178957 0.03892352 5 9.384171 0.03880186 6 9.562188 0.04165802 من JAGS را از R فراخوانی می‌کنم تا کد زیر را اجرا کنم: مدل JAGS در #1: Lormali #1) ( j در 1:K) { # b تعداد بتاهایی هستند که بتا[j] ~ dnorm(m[j]، prec[j]) } # قبل از دقت Y tau ~ dgamma(tau.a, tau.b) sigma <- 1/sqrt(tau) } 2) در R: dt <- read.csv(data.csv , header=T, sep=',') dt <- na.omit(dt) # سازماندهی داده y <- dt[,30] x <- as.matrix(dt[,c(31,46)]) # داده: داده <- لیست(N=طول(y)، K=2، y=y، x=x، m=c(-2،2)، prec=c(.20، 0.20)، tau.a=1، tau.b=2، mbeta0=0، precbeta0=.01) شروع <- rep(list(list(beta0=0, beta=c(1,1), tau=1)),5) param <- c(beta0, beta, sigma) # نمونه کتابخانه پسین (rjags ) sim <- jags.model(file=Bayesian/lognormal.bug, data=data, inits=inits, n.chains=5, n.adapt=1000) نمی دانم چرا خطای زیر را دریافت می کنم: کامپایل نمودار مدل حل کردن متغیرهای اعلام نشده تخصیص گره ها اندازه نمودار: 39212 مدل اولیه حذف خطای مدل در jags.model(file = Bayesian/lognormal.bug, داده = داده، inits = inits، : خطا در گره y[1] گره مشاهده شده ناسازگار با والدین مشاهده نشده در زمان اولیه سازی است. لطفاً کمکی دارید؟
مشکل کد در مدل بیزی Lognormal در JAGS/WinBUGS
45871
من یه سوال خیلی اساسی دارم یک مشتری مجموعه داده ای با ده ها هزار موضوع به من داده است. هر موضوع از یک تا حدود ده رکورد جداگانه دارد. این سوابق دوره های زمانی متوالی غیر همپوشانی با مدت زمان متغیر، تا یک سال را پوشش می دهند. یک متغیر پاسخ وجود دارد، Y >= 0. مشتری علاقه مند است، در میان چیزهای دیگر، ببیند که آیا پاسخ غیر صفر در سه سال گذشته دارای ارزش پیش بینی / همبستگی با پاسخ در سال جاری است یا خیر. ما تصمیم گرفته‌ایم یک متغیر باینری، A، با مقدار 1 اگر Y > 0 برای هر رکورد در سه سال گذشته (برای هر موضوع جداگانه) و در غیر این صورت 0 ایجاد کنیم. توجه داشته باشید که قدیمی‌ترین رکورد برای هر موضوع همیشه دارای A = 0 خواهد بود. اگر بیشتر سوژه‌های من مسیرهای تاریخی طولانی داشتند، پس من حاضرم سه سال اول را برای هر موضوع حذف کنم و فقط تجزیه و تحلیل Y در مقابل A را انجام دهم. برای تمام رکوردهایی که سابقه سه ساله کامل دارند. با این حال، برای این مجموعه داده، بیشتر افراد سه سال سابقه ندارند، بنابراین بسیاری از مقادیر متغیر A تا حدی کوتاه شده اند. البته، این می تواند تحلیل را مغرضانه کند. بهترین راه برای انجام این تحلیل چیست؟ با تشکر
افزودن یک متغیر پرچم تاریخ به داده های پانل با امکان همبستگی خودکار
114788
فرض کنید دو ارزیاب مجموعه ای از محرک ها را قضاوت کردند. سپس کاپا کوهن به عنوان معیار توافق بین ارزیاب محاسبه شد ($\kappa_{پیش آموزش}$). حالا فرض کنید بعد از یک جلسه تمرین، همان دو ارزیاب یک سری محرک ها را قضاوت کنند. سپس کاپا کوهن محاسبه شد ($\kappa_{پس از آموزش}$). سوال من به این نکته اشاره کرد که آیا جلسه آموزشی در بهبود توافق بین ارزیاب موثر است یا خیر. آیا آزمونی برای مقایسه آماری (تکرار شده) کوهن کاپا وجود دارد تا مشخص کند که آیا جلسه آموزشی بر بهبود فرضی توافق بین دو ارزیاب موثر بوده است؟
57044
من در حال اجرای یک مدل خطی تعمیم یافته هستم که باید خانواده ای متفاوت از خانواده معمولی را مشخص کنم. * توزیع مورد انتظار باقیمانده ها چگونه است؟ * مثلاً باقیمانده ها باید به صورت عادی توزیع شود؟
74487
ارزیابی مدل های موضوعی در Gensim
48897
$N$ نمونه های مستقل $S$ را در نظر بگیرید که از یک متغیر تصادفی $X$ بدست آمده است که فرض می شود از یک توزیع کوتاه (مثلاً یک توزیع نرمال کوتاه شده) با مقادیر حداقل و حداکثر شناخته شده (محدود) $a$ و $b$ پیروی می کند. پارامترهای ناشناخته $\mu$ و $\sigma^2$. اگر $X$ از توزیع غیرقطعی پیروی کند، برآوردگرهای حداکثر احتمال $\widehat\mu$ و $\widehat\sigma^2$ برای $\mu$ و $\sigma^2$ از $S$ نمونه خواهد بود. میانگین $\widehat\mu = \frac{1}{N} \sum_i S_i$ و واریانس نمونه $\widehat\sigma^2 = \frac{1}{N} \sum_i (S_i - \widehat\mu)^2$. با این حال، برای یک توزیع کوتاه، واریانس نمونه تعریف شده به این ترتیب با $(b-a)^2$ محدود می شود، بنابراین همیشه یک تخمینگر ثابت نیست: برای $\sigma^2 > (b-a)^2$، نمی تواند همگرا شود. به احتمال زیاد $\sigma^2$ همانطور که $N$ به بی نهایت می رود. بنابراین به نظر می رسد که $\widehat\mu$ و $\widehat\sigma^2$ برآوردگرهای حداکثر احتمال $\mu$ و $\sigma^2$ برای توزیع کوتاه شده نیستند. البته، این قابل انتظار است زیرا پارامترهای $\mu$ و $\sigma^2$ یک توزیع نرمال کوتاه شده میانگین و واریانس آن نیستند. بنابراین، حداکثر برآوردگرهای احتمال پارامترهای $\mu$ و $\sigma$ یک توزیع کوتاه از مقادیر حداقل و حداکثر شناخته شده چیست؟
83860
من قصد دارم تحلیل عاملی اکتشافی اولیه را در یک نمونه و سپس تاییدی را در نمونه دیگر اجرا کنم. شاخص های من ترتیبی هستند و بنابراین من برنامه ریزی کردم که یک ماتریس همبستگی چند کوریک تولید کنم و از آن در هنگام تخمین مدل ها در R و openMx استفاده کنم. با این حال، من می دانم که همبستگی های چند کوریک توزیع نرمال زیربنایی را فرض می کنند. اکثر متغیرهای من بسیار کج هستند (به عنوان مثال، من رفتارهای فرکانس پایین را اندازه می‌گیرم و بنابراین برتری زیادی از صفر وجود دارد) و برخی از متغیرها دارای سانسور درست واضح هستند (یعنی دسته آخر اغلب چیزی شبیه بیش از x بار است) . من نمی دانم آیا توصیه ای برای مقابله با این موضوع وجود دارد؟ من یک نمونه عظیم (15000) دارم، آیا استفاده از قضیه حد مرکزی و عدم نگرانی در مورد توزیع مشاهده شده شاخص ها (و فقط استفاده از همبستگی های چند کوریک) قابل توجیه است؟ اگر به هر حال فقط از همبستگی های پلی کوریک استفاده کنم، تخمین پارامترهای مغرضانه یا نامعتبر خواهم داشت (آیا می توانم از آن دفاع کنم؟). من تمایلی به استفاده از IRT ندارم زیرا معتقدم داده ها چند بعدی هستند و عواملی که حداقل به طور منطقی همبستگی دارند. من همچنین پیش بینی می کنم که یک عامل مرتبه دوم وجود دارد که همه عوامل فرعی مرتبط را توضیح می دهد. من همچنین هیچ پیش‌بینی قطعی پیشینی در مورد نحوه بارگیری آیتم‌ها بر روی عوامل تک بعدی ندارم (این درک من از IRT است، به‌عنوان مثال، یک‌بعدی بودن را فرض می‌کند اما خوشحالم که دستورالعمل دیگری به آن داده می‌شود). هر گونه راهنمایی یا اصلاح استدلال من بسیار قدردانی خواهد شد. آیا راه حلی برای این در R وجود دارد؟ به سلامتی
تجزیه و تحلیل عاملی با داده‌های ترتیبی بسیار منحرف و داده‌های ترتیبی سانسور شده
82196
چگونه تعیین می کنید که آیا یک متغیر ابزاری به طور تصادفی اختصاص داده شده است؟
48894
اعداد تصادفی توزیع شده نرمال در زمان - رفتار مورد انتظار - توزیع های انحرافی؟
111530
استفاده از درخت تصمیم برای تصمیم گیری باینری
69727
پارامتر تکرار در مدل تخصیص دیریکله نهفته
109617
83861
فرض کنید من داده‌های زیر را در مورد سرنخ‌ها، هزینه‌های رسانه‌ای ماهانه، و کلیک‌ها دارم. رسانه ها و کلیک ها این خوب است، من روابط بین این متغیرها را می دانم و می توانم برای تولید پیش بینی ها تاخیر ایجاد کنم. اما اگر 500 (یا 2000 یا 0) برای رسانه ها خرج می کردم، چه اتفاقی می افتاد. چگونه می توانم این نوع تجزیه و تحلیل «ضد واقعیت» را انجام دهم که در آن سعی می کنم نتایج یک مدل را بیابم اگر مقدار واقعی یک یا دو پیش بینی کمتر یا بیشتر بود؟ رویکرد استاندارد (معروف به رویکرد آماری مناسب) چیست؟ آیا فقط تنظیم داده ها با عدد جدید و اجرای مجدد رگرسیون مهم است؟ یا شاید شبیه سازی یک رگرسیون 100+ بار با 100+ مقادیر مختلف برای رسانه؟
نحوه آزمایش واقعیت های ضد واقعیت
108639
مقدار C من بسیار پایین است (نزدیک به 0). **آیا این بدان معناست که ویژگی (ابعاد) من هیچ ارزش جداکننده (و در نتیجه پیش بینی) واقعی ندارد؟** (از آنجایی که SVM اساساً داده های آموزشی را نادیده می گیرد زیرا C تقریباً صفر است و بنابراین طبقه بندی های اشتباه را جریمه نمی کند)؟ PS: اگر مربوط به پاسخ شما باشد: * چندین C (2^-10 تا 20^10) روی یک مجموعه داده اعتبارسنجی آزمایش شدند و مدلی با بهترین دقت برای اجرای مجموعه داده آزمایشی انتخاب شد. * مقادیر ویژگی من (ابعاد) به دلیل ماهیت داده ها کوچک است (بین -1 و +1). * وزن آنها (_w مقادیر_) نیز کم است.
74489
من روی چالش Netflix در R کار می کنم و کنجکاو هستم که آیا راهی برای ایجاد محدودیت برای پاسخ های احتمالی وجود دارد که الگوریتم softImpute می تواند پیش بینی کند. به نظر نمی رسد که یک عملکرد داخلی برای آن وجود داشته باشد، اما شاید کسی در اینجا بتواند به من پیشنهاد دهد. دلیل اینکه من به یک مرز نیاز دارم این است که سعی می کنم داده های اضافی (نوع فیلم، سن و غیره) را با هم ترکیب کنم و این متغیرها وقتی مجموعه داده را مدلسازی کنم، همه 1 و 0 هستند. هنگامی که مجموعه داده را به شکل مرتب (مشاهدات روی ردیف‌ها، متغیرها روی ستون‌ها) درآورم با فرم کاربر x فیلم که در ابتدا در آن قرار داشت متفاوت می‌شود. از ردیف ها) بنابراین من در بازی کردن موثر با آن مشکل دارم. من قبلاً با softImpute صرفاً روی قاب داده های کاربران x فیلم بازی کرده ام و احساس نمی کنم می توانم بدون ترکیب داده های اضافی پیشرفت زیادی داشته باشم.
109299
من روی مجموعه داده های مسکن برای یک پروژه برای دوره های سری زمانی کارشناسی کار می کنم. من سعی می کنم ببینم که آیا فصلی در داده ها وجود دارد یا خیر. من از دستورات زیر استفاده کردم اما نمی دانم چگونه نمودارها را بخوانم تا ببینم فصلی وجود دارد یا خیر. spec.pgram(data) #تخمین غیر پارامتری طیف spec.pgram(data, log=no) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/t1o8m.png) این مجموعه داده ای است که من با آن کار می کنم. http://www.quandl.com/FRED/HOUST- Housing-Starts-Total-New-Privately-Owned-Housing-Units-Started-
بررسی فصلی بودن در مجموعه داده ها
68178
بازسازی ماتریس SVD کوتاه شده: معنای مقادیر واقعی چیست؟
57000
114257
8487
92088
انواع روش های گزارش بدهی قدیمی
25069
92081
با افزایش حجم نمونه، مربع R تنظیم شده چه اتفاقی می‌افتد؟
90641
نحوه تجزیه و تحلیل داده های آزمایش دو لایه
100376
مقایسه نسبت بیماران بین یک اورژانس و میانگین ملی
90644
چگونه دو نمونه غیرعادی توزیع شده با اندازه های بسیار متفاوت را مقایسه کنیم؟ (Mann-Whitney vs Randomization/Bootstrap)
77283
چگونه یک مدل را با استفاده از رگرسیون خطی تجزیه کنیم؟
77287
تجزیه و تحلیل همبستگی متعارف بدون داده های خام
24702
آزمایش اینکه آیا نسبت دو مجموع برابر با مقدار معینی است یا خیر
100379
آزمایش حضور یک نتیجه بر نتیجه دیگر
31904
الگوریتم رگرسیون مرحله به جلو چیست؟
79395
تحلیل عاملی اکتشافی چندسطحی
28730
آیا منطقی است که یک عبارت درجه دوم و نه عبارت خطی را به یک مدل اضافه کنیم؟
22015
مقایسه ورودی ها در ماتریس های همبستگی
94694
من باید یک مجموعه داده واحد را از طریق یک مقدار عددی طبقه بندی کنم. من یک مجموعه داده ساده را در زیر اضافه کردم تا آنچه را که نیاز دارم توضیح دهم. **محدودیت:** دسته دارای دو مقدار است: 1 یا 2 سوال این است **بهترین امتیاز T برای طبقه بندی رکوردهای جدید از طریق امتیاز T چیست.** داده های نمونه: -- ----------------------------- امتیاز رده برنامه T ------------------------------- X 1 180 Y 1 75 Z 2 220 A 2 120 B 1 180
83867
از ویکی‌پدیا http://en.wikipedia.org/wiki/Ergodic_process > می‌توان درباره ارگودیکی بودن ویژگی‌های مختلف یک فرآیند تصادفی بحث کرد. برای مثال، یک فرآیند ثابت با حس گسترده $x(t)$ دارای معنی > $m_x(t)= E[x(t)]$ و اتوکوواریانس $r_x(\tau) = E[(x(t)-m_x است. (t)) > (x(t+\tau)-m_x(t+\tau))]$ که با گذشت زمان تغییر نمی کنند. یکی از راه‌های برآورد > میانگین، انجام میانگین زمانی است: $$ \hat{m}_x(t)_{T} = \frac{1}{2T} > \int_{-T}^{T} x (t) \، dt.$$ > > اگر $\hat{m}_x(t)_{T}$ در میانگین مربع به $m_x(t)$ به عنوان $T همگرا شود > > \rightarrow \infty$، سپس فرآیند x(t) گفته می‌شود که در لحظه اول میانگین ارگودیک[1] یا > میانگین مربع ارگودیک است.[2] > > به همین ترتیب، می توان با انجام میانگین زمانی، اتوکوواریانس $r_x(\tau)$ را تخمین زد: $$ \hat{r}_x(\tau) = \frac{1}{2T} \int_{-T} ^{T} > [x(t+\tau)-m_x(t+\tau)] [x(t)-m_x(t)] \, dt.$$ > > اگر این عبارت در میانگین مربع به اتوکوواریانس واقعی همگرا می شود > $r_x(\tau) = E[(x(t+\tau)-m_x(t+\tau)) (x(t)-m_x(t))]$، سپس فرآیند گفته می شود که در لحظه > دوم اتوکوواریانس-ارگودیک یا میانگین مربع ارگودیک است.[2] > > فرآیندی که در لحظه های اول و دوم ارگودیک است، گاهی به معنای وسیع، ارگودیک نامیده می شود. من نمی دانم که آیا $m_x$ باید به جای $\hat{m}_x$ در تعریف $\hat{r}_x(\tau)$ باشد، یعنی $$ \hat{r}_x(\tau) = \frac {1}{2T} \int_{-T}^{T} [x(t+\tau)-m_x(t+\tau)] [x(t)-m_x(t)] \, dt$$ باید $$ \hat{r}_x(\tau) = \frac{1}{2T} \int_{-T}^{T} [x(t+\tau)-\hat{m}_x باشد (t+\tau)] [x(t)-\hat{m}_x(t)] \, dt$$ با تشکر!
برآوردگر اتوکوواریانس در یک فرآیند ثابت با حس گسترده
25068
من سعی می‌کنم داده‌ها را با یک GLM (رگرسیون پواسون) در R برازش کنم. وقتی باقی‌مانده‌ها را در مقابل مقادیر برازش رسم کردم، نمودار چندین «خط» (تقریباً خطی با یک منحنی مقعر خفیف) ایجاد کرد. این به چه معناست؟ کتابخانه (دور) modl <- glm(doctorco ~ جنس + سن + سن + درآمد + levyplus + freepoor + freerepa + بیماری + actdays + hscore + chcond1 + chcond2, family=poisson, data=dvisits) plot(modl) ![ وارد کنید توضیحات تصویر اینجا](http://i.stack.imgur.com/7gwmX.png)
65502
نوع نمونه گیری
8486
من می‌خواهم شیب‌های پیشرفت متغیری را که بر حسب درصد اندازه‌گیری می‌شود در مقابل متغیری که بر حسب دسی بل اندازه‌گیری می‌شود، مقایسه کنم. روش خوبی برای مقایسه چیست؟
4620
مثلاً بگویید من می خواهم از طریق نظرسنجی سهم بازار یا محبوبیت نسبی قهوه خانه ها را در یک جمعیت خاص مشخص کنم. بهترین راه برای نوشتن سوالی که این را به دقت اندازه گیری کند چیست؟ برخی از مسائلی که به آنها فکر می کنم: نمی خواهم یک سوال تک گزینه ای بپرسم (کدام قهوه خانه می روی؟)، زیرا قهوه خانه ها متقابل نیستند. من ممکن است از بیش از یک به همان اندازه لذت ببرم. اگر من یک سوال چند گزینه ای بپرسم، واقعاً نمی توانم یک سهم بازار واقعی بدست بیاورم، زیرا مجموع نسبت افرادی که به هر قهوه خانه می روند بیش از 100٪ است. فقط می توانم بگویم «x درصد از افراد این جمعیت به این قهوه خانه می روند». آیا می توان یک سری سوال پرسید (کدام قهوه خانه را بیشتر ترجیح می دهید؟ کدام قهوه خانه را بیشتر ترجیح می دهید؟ یا رتبه قهوه خانه های زیر)؟ آیا می توانم یک سوال چند گزینه ای بپرسم و سپس نسبت به تعداد کل پاسخ ها را تغییر دهم؟ به عنوان مثال، اگر من 100 پاسخگو داشته باشم، اما آنها 200 قهوه خانه را انتخاب کرده اند (چون هر پاسخگو گفته است که به دو قهوه خانه رفته است، شاید)، آیا می توانم به جای تعداد انتخاب، جدول فراوانی را بر اساس 200 تعداد انتخاب ها محاسبه کنم. پاسخ دهندگان؟
تعیین سهم بازار از سؤالات چند گزینه ای در یک نظرسنجی
51101
من به هیچ وجه یک ریاضیدان نیستم (من یک توسعه دهنده نرم افزار هستم)، اما سعی می کنم بفهمم که آیا رابطه ای بین دو مجموعه داده وجود دارد یا خیر. من منابع ارجاعی دارم که در اختیار ما مشتریان قرار می‌دهد و سعی می‌کنم بفهمم آیا بین تعداد تماس‌هایی که با منبع ارجاع می‌دهیم و تعداد مشتریانی که به ما می‌دهند ارتباطی وجود دارد یا خیر، و اگر چنین است، بهترین شماره کدام است. از تماس هایی که باید برای ارائه بیشترین تعداد بیمار انجام شود. من یک سال تماس و داده های مشتری برای استفاده دارم، اما مطمئن نیستم چگونه ادامه دهم. اگر کسی بتواند مرا در مسیر درست راهنمایی کند، بسیار سپاسگزار خواهم بود. با تشکر
مشخص کنید که آیا رابطه ای بین دو مجموعه داده وجود دارد یا خیر
100951
من به تازگی در کوهی از ریاضیات و مقالات دفن شده ام و خیلی گیج شده ام. بنابراین اساساً، من داده‌هایی دارم (QPE احتمالی) که از آن‌ها 99 چندک (1٪، 2٪ ... 100٪) برای نمونه‌برداری از CDF QPE برای هر نقطه استخراج کرده‌ام. من می خواهم از Copula (هر کدام) برای تولید گروه استفاده کنم. و من مطمئن نیستم که چگونه ادامه دهم. من شادی کوپلاس را خوانده ام و هنوز پیشرفتی ندارم. من نمونه هایی را دیده ام که در آنها کوپولا را با مقادیر مطلق مطابقت می دهند. میشه لطفا راهنماییم کنید که چطور باید ادامه بدم؟ TLDR: من می خواهم یک کوپول گاوسی چند متغیره n بعدی را به CDF برازش دهم.
چگونه می توانم با استفاده از Copula مجموعه تولید کنم؟
74227
من یک رگرسیون لجستیک با یک متغیر وابسته باینری و 5 متغیر مستقل کلاس اجرا می کنم. یکی از اطلاعاتی که نرم‌افزاری که من استفاده می‌کنم برمی‌گرداند، موارد زیر است: Effect / DF / Wald / Pr > ChiSq Var1 / 1 / 150 / <.0001 Var2 / 3 / 119 / <.0001 Var3 / 8 / 157 / <.0001 Var4 / 6 / 1553 / <.0001 Var5 / 4 / 15975 / <.0001 در مورد داده های بالا دو سوال دارم: I) چگونه می توانم این واقعیت را تفسیر کنم که برای var5 مقدار والد کای اسکوئر بسیار بالاتر از مقادیر متغیرهای باقی مانده است؟ و آیا نشانگر بدی برای کیفیت رگرسیون است؟ II) تأثیر یک متغیر رگرسیون را دیدم که به عنوان تقسیم بین مقدار والد خی دو متغیر و مجموع کل همه متغیرها مقادیر کای والد محاسبه می شود (نشان داده شده در درصد ... آیا این مثال var5 نشان دهنده 88.9 است. درصد احتمال ناشی از رگرسیون لجستیک)، اما هیچ دلیل آماری برای این روش یافت نشد. کسی این روش یا سایر روش ها را می شناسد؟ هر راهنمایی مفید خواهد بود
رگرسیون لجستیک: والد کای اسکوئر
74221
در ابتدا در Stack Overflow ارسال شد، اما پیشنهاد شد به اینجا منتقل شوید... من در یادگیری ماشینی تازه کار هستم، اما سعی کرده ام یک طبقه بندی جنگل تصادفی (بسته جنگل تصادفی در R) روی برخی از داده های متابولومیک با نتایج بد انجام دهم. رویکرد عادی من در این مورد استفاده از استراتژی PLS-DA است. با این حال، تصمیم گرفتم هم RF و هم SVM را امتحان کنم، زیرا برخی از نشریات وجود دارند که این رویکردهای یادگیری ماشینی را برای داده‌های Omics توصیه می‌کنند. در مورد من، 'X' یک قاب داده 16*100 است (16 فرد با 100 ویژگی/پیش‌بینی‌کننده ضبط شده) که از یک فایل CSV خوانده می‌شود. 'Y' یک بردار ضریب (طول = 16) با 8 'بالا' و 8 'کم' است. در هر دو PLS-DA و SVM (هم هسته خطی و هم هسته شعاعی) من جداسازی عالی را دریافت می کنم. با این حال، من 3 طبقه بندی اشتباه از 16 در مدل RF دریافت می کنم. مدل RF به نظر می رسد: RFA1=randomForest(X,Y) ## فایل را خوانده و قاب داده را اصلاح کنید in.data = read.csv2(file='Indata.csv', header = FALSE, skip=5)[,-4 ] # Col 1-3 شناسه ها هستند. ویژگی‌ها/پیش‌بینی‌کننده‌ها از col 4 names(in.data)=names(read.csv2(file='Indata.csv',header=T)[,-4]) # str(in.data) # ID $: Factor w / 27 سطح 2، 3، 4، 5،...: 2 3 4 6 8 10 20 23 5 11 ... دوره # $ : ضریب w/ 2 سطح A,B: 1 1 1 1 1 1 1 1 1 1 ... # $ مصرف : ضریب w/ 2 سطح بالا، کم: 1 1 1 1 1 1 1 1 2 2 ... # $ ویژگی ها... ## مرتب سازی DF به X (ویژگی ها) و Y (طبقه بندی بر اساس مصرف) y = in.data$consumption # طبقه‌بندی‌کننده بر اساس مصرف زیاد در مقابل کم x = in.data[,-1:-3] # 100 ویژگی/پیش‌بینی‌کننده در X NB حاوی تعداد زیادی NA nr=nrow(x) nc=ncol(x) x .na = as.data.frame(is.na(x)) # یافتن NA در X col.min=apply(x,2,min,na.rm=T) # مقدار حداقل به ازای هر ویژگی را بیابید (با حذف NA) ## با موقعیت داده‌ای صفر/فقدان برخورد کنید x2=x # محاسبه ماتریس x2 جدید بدون NA برای (i در 1:nc) { x2[x.na[,i],i] =col.min[i] # داده های از دست رفته را با col.min جایگزین کنید } ## طبقه بندی کننده ها را بر اساس دوره (A در مقابل B) بسازید a.ind = in.data$period=='A' b.ind = in.data$period=='B' ## داده‌ها را فقط از دوره A انتخاب کنید و تبدیل/مقیاس X x2a=x2[a.ind,] # داده اصلی x2a .scale=scale(x2a) # Scaled x2a.log=log(x2a) # Log-transformed x2a.logscale=scale(log(x2a)) # log-transformed and scaled ya=y[a.ind] ## انجام تجزیه و تحلیل برای کتابخانه دوره A (randomForest) (rfa1=randomForest(x2a,ya)) (rfa2=randomForest(x2a.scale,ya)) (rfa3=randomForest(x2a.log ,ya)) (rfa4=randomForest(x2a.logscale,ya)) این خروجی مانند: Call: randomForest(x = x2a, y = ya) نوع جنگل تصادفی: طبقه بندی تعداد درخت: 500 تعداد متغیرهای امتحان شده در هر تقسیم: 10 تخمین OOB میزان خطا: 18.75% ماتریس سردرگمی: بالا کلاس پایین.خطا زیاد 6 2 0.250 کم 1 7 0.125 من با هر دو mtry (5-50) و ntree (500-2000) بدون موفقیت ظاهری. من همچنین ترکیبی از تبدیل ها و مقیاس بندی X را امتحان کرده ام. اما همانطور که می فهمم، RF یک روش ناپارامتریک است و به این ترتیب، تبدیل و مقیاس بندی هیچ کاری برای نتایج انجام نمی دهد. برای مقایسه، با استفاده از همان داده‌ها، PLS-DA با استفاده از SIMCA13 جداسازی عالی را از قبل در مولفه اول فراهم می‌کند. SVM با استفاده از بسته kernlab در R خطای آموزشی 0 را ارائه می دهد. در این مرحله من به اعتبارسنجی یا استفاده از مجموعه های آزمایشی نگاه نمی کنم. می‌خواهم ابتدا مطمئن شوم که در مجموعه تمرینی‌ام طبقه‌بندی خوبی کسب کرده‌ام. من مطمئنم که چیزی را از دست داده ام، اما نمی دانم چیست. امیدوارم اطلاعات کافی برای توصیف مشکل ارائه کرده باشم. پیشاپیش برای هر کمکی متشکرم! با احترام، کال
طبقه بندی تصادفی جنگل در R - بدون جدایی در مجموعه آموزشی
57297
آیا می‌توانید به من کمک کنید تا توضیحی بیابم که چرا LASSO در انتخاب بهتر است، در حالی که از نظر تخمین بسیار بد است. به عبارت دیگر محدودیت های LASSO چیست؟ متشکرم
109694
من در حال انجام تجزیه و تحلیل مطالعه مورد-شاهدی با 2500 مورد و 2500 شاهد هستم. من علاقه مندم که بدانم آیا موارد دارای شانس بالاتری برای ابتلا به یک بیماری خاص نسبت به گروه شاهد هستند، بنابراین من نسبت شانس را برای هر یک از 1000 بیماری با استفاده از یک مدل رگرسیون لجستیک محاسبه می کنم. من می‌خواهم بدانم کدام نسبت شانس > 1 واقعاً به اندازه کافی قابل توجه است تا جایی که بتوانم بگویم که مورد در معرض خطر بیشتری نسبت به گروه کنترل قرار دارد. برای انجام این کار، من از روش افرون برای تخمین توزیع صفر تجربی و مقادیر FDR محلی استفاده کردم (پیوند: http://www.uni-leipzig.de/~strimmer/lab/courses/ss06/seminar/papers/B/efron2004. pdf). بیشتر نسبت‌های شانس باید 1 باشند (بتاها 0 هستند)، که مربوط به z-value 0 است. وقتی من توزیع صفر تجربی را تخمین می‌زنم، این توزیع ~ N(0, 1) نیست، بلکه N(mu، sigma) توزیع می‌شود. بنابراین این به من اجازه می دهد تا نسبت های شانس قابل توجهی را شناسایی کنم. با این حال، می‌خواهم بدانم آیا می‌توانم نسبت‌های شانس را با استفاده از توزیع تهی تجربی تبدیل کنم: * مقدار z برای ضرایب بتا برابر با ضریب/خطای استاندارد است. * مقادیر z N(mu، sigma) توزیع می شوند. * مقادیر z را عادی کنید: (z - mu)/sigma. * مقادیر z جدید را در خطای استاندارد ضرب کنید. اکنون، شما ضرایب و نسبت‌های شانس جدیدی دارید که توزیع دقیق‌تری از نسبت‌های شانس دارند (بیشتر آنها حدود 1 هستند). آیا این یک رویکرد معتبر است؟ پیشاپیش از شما متشکرم.
16251
من تناسب مدل میانجی خود را در AMOS تست می کنم و آمار برازش مدل بسیار عجیب است. برای مثال، CFI 0.000 است و RMSEA بسیار بزرگ است (14.774). به نظر می رسد اشتباهی در داده ها یا محاسبات وجود داشته است، اما هیچ نشانه ای از این وجود ندارد. این نتایج عجیب معمولا چه چیزی را پیشنهاد می کنند؟
94150
من سعی می کنم یک همبستگی پیرسون بین 6 متغیر مختلف (که توسط ستون های ماتریس زیر نشان داده شده اند) با دو نقطه داده (ردیف) به دست بیاورم. این ماتریس است: scer bay par mik glab lac var1 2.2273444 2.0923416 2.044007 1.7664921 1.3832924 2.4294228 var2 0.3000878 0.2796.2792. 0.3246768 0.4946222 0.3083171 وقتی کد R استاندارد را برای همبستگی اعمال می کنم: cor(mat) نتیجه زیر را به دست می آورم: scer bay par mik glab lac scer 1 1 1 1 1 bay 1 1 1 1 1 1 1 par 111 mik 1 1 1 1 1 1 1 glab 1 1 1 1 1 1 lac 1 1 1 1 1 1 اگر دو ردیف دیگر را به ماتریس اصلی اضافه کنم: scer bay par mik glab lac var1 2.2273444 2.0923416 2.0440068 1.766492222429241. 0.3000878 0.2792936 0.2869280 0.3246768 0.4946222 0.3083171 var3 1.1399738 1.2899311 1.1071462 1.1071480 1.1071480 1.1071480 1.1071480 1.1071480 1.1071480 1.1071480 1.1071480 1.1071480 1.1071480 0.3083178 2.4078977 var4 0.7107440 0.6415944 0.7197905 0.7357125 0.4571745 0.3173547 و مجدداً کد بالا را با ماتریس جدید اجرا می کنم، نتیجه آشناتر bayer par g10 la00 را بدست می آوریم: sclaber 0.9895959 0.9991065 0.9967358 0.7860344 0.8246286 bay 0.9895959 1.0000000 0.9916464 0.9890492 0.9890492 0.9890492 0.9890492 0.489 0.9895959 0.9991065 0.9916464 1.0000000 0.9991332 0.7928330 0.8310776 mik 0.9967358 0.9890492 0.9991330 1.000 1.000 0.8235245 glab 0.7860344 0.8647974 0.7928330 0.7845007 1.0000000 0.9978420 lac 0.8246286 0.89583193 70 0.9978420 1.0000000 چرا اگر من از 2 مقدار استفاده کنم، تابع همبستگی ماتریسی از 1s را برمی گرداند؟
105008
من سعی می کنم با محاسبه عددی پیک با استفاده از روش سانتروئید، پیک را در یک مجموعه داده تعیین کنم. چگونه می توانم خطای مربوط به این تعیین اوج را تخمین بزنم؟
24708
من از تابع glmfit در متلب استفاده می کنم. تابع فقط انحراف و نه احتمال گزارش را برمی گرداند. من می‌دانم که انحراف اساساً دو برابر تفاوت بین احتمال‌های گزارش مدل‌ها است، اما چیزی که من دریافت نمی‌کنم این است که فقط از «glmfit» برای ایجاد یک مدل استفاده می‌کنم، اما به‌نوعی انحراف دریافت می‌کنم. * آیا محاسبه احتمال -2 Log نیاز به 2 مدل ندارد؟ * وقتی فقط یک مدل وجود دارد چگونه می توان انحراف را تحلیل کرد؟ سوال دیگری که دارم این است که بگویم من دو مدل داشتم و آنها را با استفاده از آزمون احتمال ورود به سیستم مقایسه کردم. فرضیه صفر مدل اول و فرضیه جایگزین مدل دوم خواهد بود. آیا پس از دریافت آمار آزمون احتمال ورود به سیستم، آن را با cdf مربع chi بررسی می کنم تا مقدار p را تعیین کنم؟ آیا من درست می گویم که اگر کمتر از سطح آلفا باشد، تهی را رد می کنم و اگر بزرگتر باشد، نول را رد می کنم؟
100959
اگر فقط از من بخواهند d کوهن را محاسبه کنم، چه کار کنم؟ آیا میانگین نمونه را از میانگین جامعه بگیرم و سپس آن را بر انحراف std نمونه تقسیم کنم؟
73073
(عنوان من احتمالاً خیلی واضح نیست، اما نمی دانم چگونه واضح تر بیان کنم. پس با خیال راحت آن را ویرایش کنید. ممنون!) من یک طرح 3 در 2 دارم که در کل 6 شرط دارد. نتیجه باینری است (0 یا 1). در زیر یک مجموعه داده نمونه تولید شده در `R` است: set.seed(2) mockdata<-data.frame(outcome=sample(1:0, 48, prob=c(0.5, 0.5), replace=TRUE), f1= rep(حروف[1:2]، هر=24)، f2=rep(حروف[1:3]، هر=8)) head(mockdata) # نتیجه f1 f2 #1 0 a a #2 1 a #3 1 a #4 0 a #5 1 a #6 1 a a _یکی از مواردی که من می خواهم به آن نگاه کنم این است که آیا شانس نتایج برای هر یک از 6 شرط وجود دارد یا خیر. تفاوت قابل توجهی با 0._ من می توانم یک متغیر شرط جدید به صورت زیر ایجاد کنم: mockdata$f12 <- paste(mockdata$f1, mockdata$f2, sep=.) سپس، من می توانم رگرسیون لجستیک را با استفاده از متغیر تازه ایجاد شده انجام دهم (برای خروجی به زیر مراجعه کنید). رهگیری زیر به من می گوید که برای شرایطی که به عنوان شرط پایه در نظر گرفته می شود، شانس ورود به سیستم 0 تفاوت معنی داری ندارد. **سوالات من عبارتند از:** **(1). برای بررسی سایر شرایط، باید به سادگی شرایط پایه را تغییر دهم و پس از آزمایش هر 6 شرایط، مقادیر p را مطابق با آن تنظیم کنم؟** **(2). آیا راه‌های بهتری برای آزمایش آنچه می‌خواهم آزمایش کنم وجود دارد؟** خلاصه (glm(نتیجه ~f12، خانواده = binomial، داده = mockdata)) تماس بگیرید: glm (فرمول = نتیجه ~ f12، خانواده = دوجمله‌ای، داده = mockdata) انحراف باقیمانده: حداقل 1Q میانه 3Q Max -1.6651 -1.1774 -0.5168 1.0215 2.0393 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -0.1412 0.3281 -0.430 0.6669 f121 0.6520 0.6806 0.958 0.3380 f122 0.1412 0.66136 0.2360. 0.6806 -0.543 0.5871 f124 -1.8047 0.9325 -1.935 0.0530. f125 1.2398 0.7430 1.669 0.0952. --- **ویرایش** من همچنین می خواهم بررسی کنم که چگونه شانس ورود در شرایط مختلف متفاوت است. برای این کار، من فقط یک رگرسیون لجستیک منظم با اثرات اصلی f1 و f2 و تعامل این دو را اجرا می‌کردم و مقایسه‌های چندگانه اضافی را بسته به نوع نتیجه‌ای که از آزمون omnibus بدست می‌آورم انجام می‌دادم.
51844
من در حال شروع با مشکلات معکوس در آمار هستم. با این حال، من چیزی مربوط به آن نیست. من داشتم این مقاله را می خواندم http://math.uni- heidelberg.de/studinfo/reiss/CavalierInvProb.pdf. می گوید > مشکل کلاسیک به شرح زیر است: اجازه دهید A یک عملگر از فضای > هیلبرت H در G باشد: > > با توجه به g ∈ G، f ∈ H را به گونه ای بیابید که Af = g. > > این واقعاً یک مشکل معکوس است به این معنا که باید عملگر > A را معکوس کرد. یک مورد جالب توجه، مورد مشکلات بدی است که > عملگر معکوس نیست. مشکل این است که این وارونگی را مدیریت کنیم تا بتوانیم بازسازی دقیقی را بدست آوریم. > > یک مسئله به خوبی مطرح می شود اگر > > 1. راه حلی برای مسئله (وجود) وجود داشته باشد > > 2. حداکثر یک راه حل برای مشکل وجود داشته باشد (یکتا بودن) > > 3. راه حل به طور مداوم به داده ها بستگی دارد ( ثبات) > > > > به مشکلی که به خوبی مطرح نشده باشد، نامناسب می گویند. > > اگر فضای داده به عنوان مجموعه ای از راه حل ها تعریف شود، وجود واضح است. > با این حال، اگر داده ها توسط نویز مختل شوند، این می تواند اصلاح شود. > نشان دادن منحصر به فرد بودن راه حل آسان نیست. در صورتی که توسط داده ها تضمین نشده باشد، مجموعه راه حل های پیشینی را می توان محدود کرد، و سپس مشکل دوباره فرموله می شود. با این وجود، مسئله اصلی > معمولاً ثبات است. در واقع، فرض کنید $A^{−1}$ وجود دارد اما محدود نشده است. با توجه به > یک نسخه پر سر و صدا از g به نام $g_ε$، بازسازی $f_ε$ = $A^{−1}g_ε$ > ممکن است با f واقعی فاصله داشته باشد. در واقع متوجه نشدم می توانید چند مثال بزنید تا من را روشن کنم. من منظور آنها از $A^{-1}$ موجود است اما محدود نیست را متوجه نشدم. و چه در مورد منحصر به فرد راه حل. آیا می توانید مثالی بزنید که راه حل منحصر به فرد نیست. من نمی توانم مفهوم را درک کنم.
2688
من یک مجموعه داده دارم که در آن باید رگرسیون خطی انجام دهم. متأسفانه مشکل ناهمسانی وجود دارد. من تجزیه و تحلیل را با استفاده از رگرسیون قوی با برآوردگر HC3 برای واریانس اجرا کردم و همچنین بوت استرپینگ را با تابع bootcov در Hmisc برای R انجام دادم. نتایج کاملاً نزدیک هستند. به طور کلی چه چیزی توصیه می شود؟
68172
اجازه دهید $X$ یک توزیع دو جمله ای با پارامتر $n=5$ و $P\in [p:p=\frac{1}{4},\frac{1}{2}]$ داشته باشد. فرضیه صفر $H_{0}:P=\frac{1}{4}$ رد شد و فرضیه جایگزین $H_a:P=\frac{1}{2}$ پذیرفته شد. اگر مقدار مشاهده شده $X_1$، نمونه تصادفی اندازه یک، کمتر یا مساوی $3 باشد. اندازه «خطای نوع 1»، «خطای نوع 2» و «قدرت تست» را پیدا کنید. ایده ای برای حل سوال ندارم من فقط می دانم که ### اندازه خطای نوع 1 = Pr[رد کردن$H_0|H_0 $درست است] ### اندازه خطای نوع 2 = Pr[رد نکردن$H_0|H_0 $نادرست است] علامت $ |$ نشان دهنده با توجه به آن است.
90648
رگرسیون جریمه شده L1 (معروف به کمند) در دو فرمول ارائه شده است. بگذارید دو تابع هدف $$ Q_1 = \frac{1}{2}||Y - X\beta||_2^2 \\\ Q_2 =\frac{1}{2}||Y - X\beta باشند ||_2^2 + \lambda ||\beta||_1. $$ سپس دو فرمول متفاوت $$ \text{argmin}_\beta \; Q_1 $$ منوط به $$ ||\beta||_1 \leq t، $$ و معادل $$ \text{argmin}_\beta \; Q_2. $$ با استفاده از شرایط Karush-Kuhn-Tucker (KKT)، به راحتی می توان مشاهده کرد که چگونه شرایط ایستایی برای فرمول اول معادل است با گرفتن گرادیان فرمول دوم و تنظیم آن برابر با 0. چیزی که من نمی توانم پیدا کنم، و نه بفهمید، شرایط سستی مکمل برای اولین فرمول چگونه است، $\lambda\left(||\beta||_1 - t\right) = 0$، تضمین شده است که توسط راه حل فرمول دوم برآورده می شود.
9526
من روی پروژه ای کار می کنم که دلار آمریکا را به ارزهای دیگر تبدیل می کند. این سیستم به دلیل محدودیت‌های موجود از میانگین نرخ‌های مبادله ماهانه به جای روزانه استفاده می‌کند. من باید تخمینی از میزان خطای استفاده از میانگین ماهانه را محاسبه کنم. ایده من این است که 1. دانلود نرخ های ارز روزانه تاریخی برای چندین سال 2. محاسبه میانگین ماهانه برای هر ماه 3. تفریق میانگین ماهانه از هر مقدار روزانه آن ماه. به عنوان مقدار خطای مورد انتظار آیا این یک رویکرد معتبر است؟
113723
من سوالاتی را در اینجا مطالعه می کردم تا پاسخی برای سوال خود پیدا کنم اما پاسخ رضایت بخشی پیدا نکردم. سناریوی من این است: من سیستمی دارم که الگوریتمی را بر روی هر یک از 100 واحد محاسبه می‌کند (بنابراین اساساً، سیستم 100 مقدار تولید می‌کند که هر کدام مربوط به یک واحد است). من دو الگوریتم مختلف برای پیش بینی مقداری که سیستم برای یک واحد معین ایجاد می کند، دارم. من به طور تصادفی 120 زیر مجموعه از 100 واحد تولید کردم. برای یک الگوریتم پیش‌بینی، من پیش‌بینی‌های هر زیر مجموعه را محاسبه کردم و سپس ضریب همبستگی پیرسون را بین مقادیر واقعی و پیش‌بینی‌شده برای هر زیر مجموعه محاسبه کردم. در نهایت، من 120 همبستگی r برای هر یک از الگوریتم‌های پیش‌بینی به دست آوردم. سؤالات من این است: 1. آیا محاسبه همبستگی میانگین برای هر الگوریتم پیش‌بینی در 120 همبستگی معنی‌دار است؟ من از فیشر Z برای محاسبه میانگین همانطور که در اینجا توضیح داده شده است استفاده می کنم. بنابراین آیا می توانم با خیال راحت بگویم که برای این 100 واحد، الگوریتم X موفق شد مقدار را با همبستگی = همبستگی متوسط ​​پیش بینی کند؟ 2. من باید اهمیت تفاوت در قدرت پیش بینی دو الگوریتم را در چنین سناریویی مقایسه کنم، چگونه می توانم این کار را با داشتن 120 مقدار همبستگی در هر الگوریتم انجام دهم؟ آیا می توانم به طور معمول از آزمون t در چنین مواردی استفاده کنم؟ پیشاپیش ممنون
62882
هنگام انجام اعتبار سنجی متقاطع K-fold، متوجه می شوم که معیارهای دقت را با نشان دادن همه تاها به جز یکی در آن یک تا و پیش بینی انجام می دهید و سپس این فرآیند را K بار تکرار می کنید. سپس می‌توانید معیارهای دقت را روی همه نمونه‌های خود اجرا کنید (دقت، یادآوری، ٪ طبقه‌بندی صحیح)، که باید همان باشد که اگر هر بار آنها را محاسبه کرده‌اید و سپس نتیجه را میانگین می‌دهید (اگر اشتباه می‌کنم، مرا تصحیح کنید.) نتیجه نهایی شما یک مدل است. آیا مدل‌های به‌دست‌آمده را برای انجام مجموعه پیش‌بینی‌های K خود میانگین می‌دهید تا به مدلی برسید که معیارهای دقت به‌دست‌آمده از روش بالا را دارد؟ اگر چیزی واقعاً، واقعاً اشتباه است یا به وضوح آشکار است، عذرخواهی می کنیم - فقط آن را اصلاح کنید. با تشکر
113722
من سعی می کنم با استفاده از عملکرد glmer موجود در بسته R's lme4 GLMM را با داده های خود تطبیق دهم. داده ها با نام block1and2 در دسترس هستند: https://onedrive.live.com/redir?resid=1B727FC7180E87DF%21119 من دائماً پیام های خطا یا هشدار دریافت می کنم. آیا کسی می تواند به من کمک کند تا از شر آنها خلاص شوم. احتمالاً تعداد کم نمونه های ویروس مثبت مشکل دارد. آیا می توان این مشکلات را با استفاده از GLMM حل کرد یا باید به آزمایش های آماری دیگری فکر کنم؟ N.B. این مشکل مشابهی است که در مورد یک مجموعه داده مشابه و تجزیه و تحلیل مشابه پست کرده بودم (پس از آزمایش بهینه سازهای مختلف، ساده سازی مدل با تکرارهای بیشتری اجرا می شود، در هنگام نصب GLMM، R همچنان پیام های هشدار تولید می کند) سعی کردم مدل را برازش کنم: `Line.glmer<-glmer(Virus_DNA~Line+(1|Block/Day_of_Analyses),family=binomial,data=data)` فقط برای دریافت پیام خطا `خطا: (maxstephalfit) PIRLS step-halvings نتوانست انحراف را در pwrssUpdate کاهش دهد. هنگام اجرای کد، با تکرارهای بیشتر: `Line.glmer<-glmer(Virus_DNA~Line+(1|Block/Day_of_Analyses),family=binomial,data=data,control=glmerControl(optCtrl=list(maxfun=1e9)))` همان پیام را دریافت می کنم. هنگام اجرای کد با بهینه ساز bobyqa: `Line.glmer<-glmer(Virus_DNA~Line+(1|Block/Day_of_Analyses),family=binomial,data=data,control=glmerControl(optimizer=bobyqa,optCtrl=list( maxfun=1e9)))` پیام های هشدار را دریافت می کنم: `پیام های هشدار: 1: در checkConv(attr(opt، مشتقات)، opt$par، ctrl = control$checkConv، : مدل با max|grad| = 0.00163126 همگرا نشد (tol = 0.001، جزء 5) 2: در checkConv(attr (opt، مشتقات)، opt$par، ctrl = control$checkConv، : مدل همگرا نشد: Hessian degenerate با 2 مقدار ویژه منفی` هنگام اجرای کد با بهینه ساز Nelder_Mead: 'Line.Nelder_Mead.glmer<-glmer(Virus_DNA~Line+(1|Block/Day_of_Analyses),family=binomial,data=data,control=glmerControl(optimizer=Nelder_Mead,optCtrl=list(maxfun=1e9)) من پیام خطا را دریافت می کنم: `خطا: (maxstephalfit) PIRLS step-halvings نتوانست انحراف را در pwrssUpdate کاهش دهد. ,خانواده=دوجمله ای,داده=داده, control=glmerControl(optimizer=optimx,optCtrl=list(method=nlminb)))` دریافت پیام های هشدار: `پیام های هشدار: 1: در optimx.check(par, optcfg$ufn, optcfg$ugr, optcfg $uhess، lowter، : به نظر می‌رسد پارامترها یا کران‌ها مقیاس‌بندی‌های متفاوتی دارند. این می تواند باعث عملکرد ضعیف در بهینه سازی شود. برای روش های بدون مشتق مانند BOBYQA، UOBYQA، NEWUOA مهم است. 2: در checkConv(attr(opt، مشتقات)، opt$par، ctrl = control$checkConv، : مدل با max|grad| = 0.00184741 همگرا نشد (tol = 0.001، جزء 5) 3: در checkConv(attr (opt، مشتقات)، opt$par، ctrl = control$checkConv، : مدل موفق به همگرایی نشد: Hessian degenerate با 2 مقدار ویژه منفی` به طور مشابه با بهینه ساز nlminb از بسته optimx: `Line.LBFGSB.glmer<-glmer(Virus_DNA~Line+(1|Block/Day_of_Analyses),fami دو جمله ای، داده = داده، control=glmerControl(optimizer=optimx,optCtrl=list(method=L-BFGS-B)))` پیام های هشدار را تولید می کند: `پیام های هشدار: 1: در optimx.check(par, optcfg$ufn, optcfg $ugr، optcfg$uhess، lowter، : به نظر می‌رسد که پارامترها یا کران‌ها مقیاس‌بندی متفاوتی دارند. این امر می‌تواند باعث عملکرد ضعیف در بهینه‌سازی شود. همگرا با max|grad| = 0.00330343 (tol = 0.001، جزء 5) 3: در checkConv(attr(opt، مشتقات)، opt$par، ctrl = control$checkConv، : مدل تقریباً غیرقابل شناسایی است: نسبت مقدار ویژه بزرگ - متغیرها مقیاس مجدد؟`
17336
در اینجا مقاله ای است که انگیزه این سوال را ایجاد کرده است: آیا بی حوصلگی ما را چاق می کند؟ من این مقاله را دوست داشتم، و به خوبی مفهوم کنترل سایر متغیرها (IQ، شغل، درآمد، سن، و غیره) را نشان می دهد تا بتوان رابطه واقعی بین 2 متغیر مورد بحث را به بهترین نحو جدا کرد. آیا می توانید به من توضیح دهید **_how_** واقعاً برای متغیرهای یک مجموعه داده معمولی کنترل می کنید؟ به عنوان مثال، اگر 2 نفر با سطح بی حوصلگی و BMI یکسان، اما درآمد متفاوت دارید، چگونه با این داده ها رفتار می کنید؟ آیا آنها را در زیرگروه های مختلفی دسته بندی می کنید که درآمد، صبر و BMI مشابهی دارند؟ اما، در نهایت ده‌ها متغیر برای کنترل وجود دارد (IQ، شغل، درآمد، سن، و غیره) چگونه می‌توانید این 100 زیر گروه (به طور بالقوه) را جمع آوری کنید؟ در واقع، من احساس می کنم که این رویکرد در حال پارس کردن درخت اشتباه است، حالا که من آن را به زبان آوردم. متشکرم برای روشن کردن چیزی که چند سالی است قصد داشتم به آن بپردازم...!
دقیقاً چگونه یک متغیرهای دیگر را کنترل می کند؟
24707
من روی یک پایگاه داده بزرگ کار می کنم. می‌خواهم بررسی کنم که آیا کارهای دسته‌ای خاص پس از تغییر در زمان کمتر یا بیشتر از قبل از تغییر اجرا می‌شوند یا خیر. حدود 90 کار دسته ای مجزا وجود دارد. آنها طبق جدول زمانی مختلف اجرا می شوند، بنابراین برخی از آنها فقط یک بار در هفته و برخی صدها بار در روز فراخوانی می شوند. من اطلاعات یک دوره سه ماهه قبل از ایجاد تغییر و یک دوره یک هفته ای از آن زمان را دارم. هر کار دسته ای مجزا، قبل و بعد از تغییر مورد بررسی، تعداد دفعات متفاوتی اجرا شده است. در حال حاضر من از یک آزمون z دو نمونه ای استفاده می کنم، همانطور که در اینجا توضیح داده شده است: http://www.stat.ucla.edu/~cochran/stat10/winter/lectures/lect21.html برای هر کار دسته ای مجزا، اندازه نمونه دارم. ، میانگین زمان اجرا و انحراف معیار، قبل و بعد از تغییر. بنابراین من یک مقدار z را بر اساس یک فرضیه صفر محاسبه می کنم که دو جمعیت میانگین و s.d یکسان دارند. مقادیر z حاصل از -35 تا +10 متغیر است. سوال من این است که آیا این آزمون آماری مناسبی برای این وضعیت است؟ من معتقدم که مقادیر z به من می‌گویند که با توجه به فرضیه صفر، جمعیت جدید من (پس از تغییر) چند انحراف استاندارد از یک نتیجه متوسط ​​دارد. من معتقدم که می‌توانم از این اطلاعات برای شناسایی کارهای دسته‌ای که بیشتر تحت تأثیر این تغییر قرار گرفته‌اند استفاده کنم (پذیرفتن آن همبستگی! => علیت). آیا آزمایش را درست انجام می دهم؟ آیا معنی داده ها را به درستی درک کرده ام و چه چیزی می توانم از آن استنباط کنم؟
107532
من تعداد زیادی مدل توری الاستیک را نصب می کنم، به طور همزمان $\lambda$ و $\alpha$ را تنظیم می کنم. من اغلب به نتایج زیر می رسم: * خطای اعتبارسنجی متقاطع به تغییرات $\lambda$ بسیار حساس تر از $\alpha$ است * در واقع، تفاوت در خطای اعتبار متقاطع بین $L_1$، $L_2 ناچیز است. $ و $\alpha$ = 0.5 بدون اینکه به داده های من نگاه کنم یا چیزی در مورد آن بدانم، حتی خانواده GLM که استفاده می کنم، آیا نتایج قابل تعمیم در مورد شرایط وجود دارد. چه زمانی این مورد خواهد بود؟ متشکرم.
22019
من می‌خواهم مقیاس‌گذاری چند بعدی (MDS) را با استفاده از «cmdscale()» در R انجام دهم. خوانده‌ام که با امتحان کردن مقادیر مختلف _k_، آزمایش چند بعد مناسب برای داده‌ها مفید است و سپس ببینید چه نسبتی از واریانس در نتیجه MDS با نگاه کردن به مقدار مربع R محاسبه می شود. مقادیر R-square کوچکتر از 0.6 معمولاً برای تناسب خوب بین داده ها و تعداد ابعاد قابل قبول هستند. با این حال، چگونه می توانم R-square را از MDS تولید شده توسط «cmdscale()» محاسبه کنم؟
93354
ما می دانیم که $X$، $Y$ عادی هستند تضمین نمی کند که $(X, Y)$ بطور مشترک عادی است. یک مثال معمولی این است: $X=Z$، و $Y=ZU$، که $Z$ استاندارد معمولی، $P(U=1)=P(U=-1)=1/2$، و $Z، U$ مستقل هستند. سوال من این است: با توجه به اینکه هم $X$ و هم $Y$ عادی هستند، چه شرطی وجود دارد که $(X, Y)$ بطور مشترک نرمال باشد؟
چه زمانی $(X, Y)$ بطور مشترک نرمال هستند با توجه به اینکه هر دو $X$ و $Y$ نرمال هستند؟
24705
من از Spotfire (S++) برای تجزیه و تحلیل آماری در پروژه خود استفاده می کنم و باید رگرسیون لجستیک چند جمله ای را برای یک مجموعه داده بزرگ اجرا کنم. می دانم که بهترین الگوریتم mlogit بود، اما متأسفانه در s++ در دسترس نیست. با این حال، من گزینه ای برای استفاده از الگوریتم glm برای این رگرسیون دارم. من می خواهم دو چیز را در اینجا روشن کنم: 1. آیا درک من درست است که glm نیز می تواند برای اجرای رگرسیون لجستیک چند جمله ای استفاده شود؟ 1. اگر پاسخ سوال قبلی مثبت است، پس از چه پارامترهایی باید در glm algo استفاده کرد؟ با تشکر
87376
من یک مجموعه Z از مقادیر دارم، یکی برای هر ترکیبی از (X,Y) که روی یک شبکه داده شده است. من می خواهم مکان حداکثر Z را تخمین بزنم (انتظار می رود نزدیک مرکز پیکسل های آبی تیره باشد). ماکزیمم نباید روی یکی از جفت های گسسته (x,y) تعریف شده توسط بردارها قرار گیرد. آرایه طوری ایجاد شد که واقعاً راه مستقیمی برای تعریف تابع تحلیلی برای Z(X,Y) وجود ندارد. در حال حاضر، تنها کاری که می‌دانم انجام دهم این است که به ترتیب X و Y را به حاشیه برسانم، یک تابع 1-D (شاید یک گاوسی) را برای هر کدام به منظور به دست آوردن یک عبارت تحلیلی صریح، کوچک کردن در امتداد هر جهت به طور مستقل، و سپس فقط از x^ و y^ از مقادیر حداقل برای هر یک از اینها به عنوان مختصات حداقل دو بعدی استفاده کنید. آیا راه بهتری برای انجام این کار (از لحاظ مفهومی) وجود دارد؟ آیا راهی برای انجام این کار با استفاده از آرایه Z به طور مستقیم وجود دارد که بر تقریب X و Y به عنوان توزیع های خاص متکی نباشد؟ حتی در این مورد، حداقل لازم نیست بر روی شبکه تعریف شده توسط X و Y بیفتد. متشکرم! * * * _**اطلاعات اضافی در مورد Z_**: * Z اساساً یک آرایه دو بعدی از مقادیر log-relihood است و نباید صفر داشته باشد. همه عناصر Z کمتر از صفر هستند.
یافتن حداکثر داده های 2 بعدی بدون پارامتر
103277
من سعی می کنم مختصر و دقیق باشم: **مشکل**: کشش درآمد را برای محصولات مختلف از داده های نظرسنجی خانوار برآورد کنید. **با توجه**: من باید مجموعه داده های پیمایشی بزرگ خانوار را که از نمونه گیری طبقه ای دو مرحله ای استفاده می کنند، داشته باشم. با این حال، من طرح مشخص شده (متغیر لایه) را فقط برای یکی و وزن‌های تکراری را برای مجموعه داده دیگر دارم. **ایده**: تخمین مقداری برای یک رگرسیون «هزینه_برای_محصول ~ درآمد خانوار» و سپس استفاده از ضرایب برای تخمین کشش آن است. S.E. باید به درستی طراحی پیمایش را در نظر گرفت (مخصوصاً برای برآورد واریانس). اما من مطمئن نیستم که اگر اصلاً نیاز به تنظیم آن در مورد رگرسیون خود داشته باشم، چگونه است زیرا بررسی ادبیات در واقع پاسخ روشنی را ارائه نمی دهد (آیا وزن ها (و به تبع آن طرح نظرسنجی) باید در مورد رگرسیون من استفاده شوند) * *نرم افزار**: در واقع یک بسته R بررسی وجود دارد که می تواند طراحی نظرسنجی را در رگرسیون ها (دقیقاً مطمئن نیست که چگونه، زیرا فایل های راهنما مشخص نمی کند یا نمی توانم مکان آن را پیدا کنم) را ترکیب کند. البته به این معنی نیست که من واقعاً باید آن را در مورد خودم انجام دهم. **یک انحراف کوچک**: برای مثال، بگویید که «log(expenditure_for_product) ~ log (درآمد خانوار)» رابطه را به خوبی نشان می دهد. در آن صورت، ضریب رگرسیون تمام چیزی است که من نیاز دارم. با این حال، از آنجایی که تعداد زیادی خرید صفر توسط خانوارها برای کالا گزارش شده است، من نمی توانم آن را در گزارش ها مدل کنم. من فکر کردم داده‌ها را در صدک‌ها تجمیع کنم تا 100 امتیاز با «(متوسط ​​درآمد صدک x، متوسط ​​هزینه برای برخی از محصول صدک x)» وجود داشته باشد. اما چگونه می توان اگر اصلاً باید این ایده را برای طراحی نظرسنجی تنظیم کرد تا برآوردهای صحیحی بدست آورد؟ **در اصل**: در اصل من به دنبال روشی از لحاظ نظری صحیح برای محاسبه کشش های درآمدی با توجه به داده های پیچیده نظرسنجی خانوار هستم و بنابراین ارجاع به این موضوع یا پیشنهادات بسیار مفید خواهد بود. *توجه داشته باشید، من نمی توانم اثرات قیمت را وارد کنم زیرا اطلاعات قیمت را در دسترس ندارم، بنابراین متوجه می شوم که خیلی دقیق نخواهد بود. متشکرم
کشش درآمد + رگرسیون + داده های نظرسنجی خانوار
101020
من به خوبی می دانم که چگونه می توانم خلاصه مدل را در R برای یک مدل رگرسیون بخوانم وقتی یک عامل گنجانده شده است. سطح اول از نظر ABC به عنوان سطح پایه ای در نظر گرفته می شود که تمام سطوح بعدی آن عامل با آن مقایسه می شود. در یک مدل به سبک ANOVA، مقدار پایه در وقفه یافت می شود (برابر مقدار میانگین پاسخ برای کلاس سطح پایه). با این حال، اگر یک یا چند عامل با پیش‌بینی‌کننده‌های پیوسته مخلوط شوند، چگونه می‌توانم مقادیر سطح پایه را ببینم؟ با چه چیزی مقایسه کنم؟ در خروجی مدل زیر، دو عامل وجود دارد: 1. LandUse (4 سطح) 2. Type_LU (4 سطح) من اکنون می بینم که «LandUseLow» 0.35 واحد بالاتر از خط پایه «LandUseHigh» است. آیا اکنون به سادگی می توان به پاسخ میانگین برای کلاس «LandUseHigh» نگاه کرد و مقایسه کرد؟ به همین سادگی است؟ My_model: Estimate Std. خطا تنظیم شده SE مقدار z Pr(>|z|) (برق) 4.6086772 1.7754606 1.7773711 2.593 0.00951 ** DiTempRange -0.1409464 0.0764874606 0.06575. LandUseLow 0.3520743 0.5989777 0.5997903 0.587 0.55721 LandUseMedium 0.2741413 0.3668149 0.3675811 0.746 0.4018 -0.4014N - LandUse 0.5735342 0.5744652 1.763 0.07787 . MAP 0.0048810 0.0009128 0.0009142 5.339 1e-07 *** Rivier 0.3502782 0.2252743 0.2257546 1.552 0.12041 0.12076 0.120706 TempRange 0.0607942 1.354 0.17560 Tmean -0.1762862 0.0994486 0.0996353 1.769 0.07684 . TYPE_LUconserva -0.9312487 0.4770681 0.4781244 1.948 0.05145. TYPE_LUprivate -0.4839229 0.3289011 0.3296201 1.468 0.14207 TYPE_LUstate 0.0004062 0.4079678 0.4089744 0.0089744 0.0089744 0.0096201 1.468 0.0004062 0.1140166 0.1142342 1.200 0.23008 logTWI -0.0735540 0.4195267 0.4202589 0.175 0.86106 logDAH 1.713528396. 0.476 0.63441
نحوه تفسیر عوامل متعدد در خروجی مدل در R
51105
به عنوان یک سوال آماری کلی: هنگام استفاده از BRT باید از استفاده از متغیرهای همبسته قوی به روشی که مثلاً GLM یا رگرسیون خطی چندگانه استفاده می‌کنید اجتناب کنید؟ هر مرجع مفیدی بسیار قدردانی خواهد شد. به سلامتی، اسرائیل
درختان رگرسیون تقویت شده در R
25540
من توزیع مشترک شبکه بیزی را دارم که به صورت $P(CERFD)=P(C)\times P(R)\times P(E|CR) \times P(F|E) \times P(D|F) تعریف شده است. )$ و من سعی می کنم $P(D=d|C=c)$ را محاسبه کنم، در زیر عملکرد من است و در آخرین مرحله گیر کرده ام: $P(D=d|C=c)= \frac{P(D=d,C=c)}{P(C=c)} $=\frac{\sum_{ERF}P(C=c)\times P(R)\بار P(E |C=c,R) \times P(F|E) \times P(D=d|F)} {\sum_{DERF}P(C=c)\times P(R)\times P(E| C=c,R) \بار P(F|E) \بار P(D|F)}$$=\frac{\sum_{ERF}P(C=c)\بار P(R)\بار P(E|C=c، رای ) \ بار \sum_F P(F|E) \times \sum_D P(D|F)}$ $=\frac{\sum_{ERF}P(C=c)\بار P(R)\بار P(E|C= c,R) \times P(F|E) \times P(D=d|F)} {\sum_{ER}P(C=c)\times \sum_R P(R)\times \sum_E P(E|C=c,R) \times 1}$$=\frac{\sum_{ERF}P(C=c)\بار P(R)\بار P(E|C=c,R) \ بار P(F|E) \times P(D=d|F)} {P(C=c)\times 1}$ اصلاً نمی‌دانم چگونه شماره‌گر را ساده کنم... این تکلیف نیست. ، در حال یادگیری هستم مدل گرافیکی احتمالی از coursera و من در حال آزمایش درک خودم هستم.
جمع احتمال شرطی در شبکه بیزی