_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
113256
من در مورد 48 مورد که جذابیت کارفرما را می سنجند، پاسخ دریافت کرده ام. هدف تحلیل من خوشه‌بندی پاسخ‌دهندگان بر اساس این ابعاد جذابیت کارفرماست. من قصد دارم ابعاد را با PCA کاهش دهم و همچنین ساختار را با CFA قبل از رسیدن به تحلیل خوشه ای تأیید کنم. 48 گویه در مقیاس لیکرت 4 درجه ای اجباری اندازه گیری شد، اما داده هایی که برای تجزیه و تحلیل به دست آوردم توسط تحقیق دیگری به سطح دو جمله ای - مهم یا غیر مهم (مقادیر 0 یا 1) تبدیل شد. من متعجب بودم که چه تأثیری بر PCA و تجزیه و تحلیل خوشه ای که این داده ها دو جمله ای هستند، داشته باشد. آیا می توان این تکنیک های تحلیل را روی داده های دوجمله ای اجرا کرد؟
داده های دوجمله ای و PCA و تجزیه و تحلیل خوشه ای
95660
در زمینه طبقه بندی در مجموعه داده های تا حدودی بزرگ (مثلاً حداقل 50Kx50K)، من متعجبم که در چه مواردی مدل های غیر خطی نسبت به مدل های خطی برتری دارند تا پیچیدگی اضافه را تضمین کنند. من اغلب در تحقیقات خود می بینم که برای این مجموعه داده های بزرگتر، مجموعه داده های غیر خطی نمی توانند از داده های خطی بهتر عمل کنند (مثلاً برای SVM هسته خطی و SVM هسته RBF). اما این ممکن است به دلیل انتخاب مخزن من از مجموعه داده هایی که همگی پراکنده هستند و از داده های تراکنش گرفته شده اند، مغرضانه باشد. شهود من می گوید که به طور خاص برای یک هسته RBF، یک هسته خطی باید یک کران پایین برای عملکردی باشد که می توانید با یک هسته RBF به دست آورید، اما امید من برای دستیابی به عملکرد بالاتر از این کرن پایین کامل نیست زیرا در نهایت آنها همه کم و بیش عملکرد یکسانی دارند. به طور خاص سؤال من این است: آیا با موقعیت‌هایی مواجه شده‌اید که در آن مدل‌های غیرخطی ارزش تلاش را داشته باشند؟ یا شاید در مورد تحقیقاتی که مشاهدات من را تأیید یا رد می کند، می دانید؟
113253
من سعی می کنم این فرضیه را آزمایش کنم که رابطه (شیب) بین اندازه دندان مولر دوم و اندازه دندان مولر کلی 0.33 است (در گونه های جوندگان)، با استفاده از رگرسیون حداقل مربعات تعمیم یافته در `R`. من این کار را در حالی انجام می‌دهم که برای باقیمانده‌های همبسته خودکار که به دلیل روابط تکاملی بین گونه‌ها رخ می‌دهند (با استفاده از تابع «Gls» در بسته «rms») «کنترل» می‌کنم. هر دو متغیر من (M2_area و Total_area) کاملاً دارای انحراف راست هستند. هنگام استفاده از متغیرهای مقیاس حسابی، باقیمانده‌های مدل من ناهمگونی متمایز را نشان می‌دهند («مدل 1» در زیر). سپس من این مدل را با استفاده از وزن‌های واریانس معکوس برای بهبود این وضعیت ('model2') دوباره نصب کردم، که به میزان محدودی انجام شد. از آنجایی که متغیرها دارای انحراف راست هستند و واریانس باقیمانده با اندازه مقادیر برازش افزایش می‌یابد، تصمیم گرفتم یک تبدیل گزارش طبیعی را هم برای پیش‌بینی‌کننده و هم برای پاسخ ('model3') امتحان کنم. به نظر من این بهترین نمودارهای تشخیصی را ایجاد کرد. اما، مطمئن نیستم که چگونه فرضیه فوق را با استفاده از مدل log-log آزمایش کنم. من می دانم که نمی توانم ضرایب ورود به سیستم را تغییر دهم. من مقادیر پیش بینی شده را محاسبه کرده و آنها را به همراه فواصل اطمینان آنها تغییر داده ام. نمودار نشان می دهد که شیب 0.33 در این فاصله های اطمینان قرار نمی گیرد. **سوال من: آیا راهی برای آزمایش رسمی وجود دارد که شیب 0.33 در بازه های پیش بینی تغییر شکل برگشتی قرار نگیرد؟** (یک نکته: من نمی توانم از هیچ روش بوت استرپ استفاده کنم، زیرا امکان نمونه برداری با آن وجود ندارد. جایگزینی از یک درخت تکاملی، که بخشی ضروری از مدل GLS است) من برخی از داده ها و کد R را در زیر اضافه می کنم (من ساختار همبستگی را حذف می کنم. مختصر). # داده داده <- ساختار(list(M2_area = c(3.52، 3.66، 3.3، 2.65، 2.83، 3.39، 2.94، 2.74، 3.65، 3.02، 3.55، 3.46، 3.07، 3.46، 3.01، 3.6، .2. 4.87، 1.46، 5.12، 4.61، 4.25، 5.28، 4.52، 3.41، 3.11، 2.81، 4.18، 2.54، 3.11، 2.58، 4.35، 6.11، 4.35، 6.15، 4.35، 6.59، 3.82، 3.73، 3.64، 4.37، 3.79، 5.89، 6.31، 4.6، 4.18، 6.72، 5.63، 5.81، 5.19، 6.1، 5.58، 5.2، 5.58، 5.2، 6.31، 4.8. 12.05، 11.63، 12.94، 9.31، 12.16، 13.73، 11.35، 25.02، 11.24، 8.99، 12.24، 11.51، 16.07، 16.16، 16.07، 16.12، 3.33. 3.59، 3.43، 3.96، 6.07، 4.53، 4.21، 4.33، 4.96، 4.86، 2.55، 2.51، 4.55، 3.15، 0.35، 0.19، 0.36، 0.36، 0.19، 0.36، 0.69، 0.9، 1.85، 1.75، 0.54، 0.56، 1.81، 1.08، 1.11، 1.19، 1.22)، total_area = c(9.39، 10.17، 9.05، 7.23، 7.38، 7.65، 7.23، 7.38، 7. 9.89، 8.16، 9.8، 9.33، 8.17، 7.88، 7.4، 9.98، 13.03، 3.95، 16.89، 14.95، 13.8، 17.52، 15.03، 15.03، 19.8. 12.35، 8، 9.7، 8.54، 14.31، 20.65، 18.44، 13.81، 14.02، 12.43، 11.37، 11.16، 13.42، 12.32، 18.2، 16.2 12.78، 21.4، 17.11، 18.61، 16.42، 19.82، 17.69، 16.87، 14.48، 12.49، 20.15، 19.61، 36.74، 320.23، 320.23، 36.74، 320.23، 35.23. 43.86، 37.17، 69.6، 33.99، 24.69، 33.71، 32.56، 45.63، 46.62، 13.44، 9.68، 8.13، 10.31، 10.41، 10.31، 10.41، 39.6. 12.96، 13.29، 14.27، 14.5، 7.27، 7.17، 12.89، 8.58، 0.86، 0.44، 1.55، 0.85، 0.88، 1.03، 2.55، 1.03، 2.55، 1.6، 5.5. 5.09، 3.01، 3.1، 3.42، 3.57))، .Names = c(M2_area، total_area)، row.names = c(NA, -101L)، class = data.frame) # گزارش های طبیعی از متغیرهای dat$ln_M2_area <- log(dat$M2_area) dat$ln_total_area <- log(dat$total_area) # کتابخانه مدل (rms) # مدل خطی (بدون ساختار درخت تکاملی) model1 <- Gls(M2_area ~ total_area, data = dat) model1 confint(model1) qqnorm(model1) (model1) # مدل خطی (با حداقل مربعات وزنی و بدون corStruct برای درخت) model1fitted <- fitted(model1) model2 <- Gls(M2_area ~ total_area, weights = varFixed(~ model1fitted), data = dat) model2 confint(model2) qqnorm(model2) plot(model2) # log-log model (بدون corStruct برای درخت) model3 <- Gls(ln_M2_area ~ ln_total_area، data = dat) model3 confint(model3) qqnorm(model3) plot(model3) # ایجاد فاصله پیش بینی برای مدل log-log newdat <- data.frame(ln_total_area = seq(min(dat$ln_total_area), max(dat$ ln_total_area)، توسط = 0.01)) pred_model3 <- data.frame(newdat, predict(model3, newdata = newdat, type = lp, se.fit = TRUE, conf.int = 0.95, conf.type = mean)) colnames(pred_model3)[2 ] <- ln_M2_area # بازه زمانی پیش‌بینی ثبت‌شده تبدیل برگشتی smearing_estimate <- mean(exp(residuals(model3))) pred_model3_back <- exp(pred_model3$ln_M2_area) * smearing_estimate pred_model3_logci <- pred_model3$ln_M2_area + (pred_model3%c.q.0% 0.975))) pred_model3_ci <- exp(pred_model3_logci) pred_model3_ci <- data.frame(exp(pred_model3$ln_total_area)، pred_model3_ci) colnames(pred_model3_ci) <- c(2_are ) head(pred_model3_ci) # کتابخانه طرح (ggplot2) ggplot(dat، aes(x = total_are
آزمایش کنید که آیا شیب در بازه پیش‌بینی برگشتی (log) قرار می‌گیرد یا خیر
113258
من در حال کار بر روی یک پروپوزال هستم و نیاز به طراحی نظرسنجی دارد. سوال اساسی به این صورت است: این مطالعه به دنبال بررسی عوامل (به عنوان مثال، درآمد) مرتبط با استفاده از خدمات چکاپ سلامت کارگران در یک شرکت است (آنها باید برای این خدمات از جیب خود بپردازند). در میان کسانی که معاینه می کنند، برخی از آنها مشکلات سلامتی دارند و برخی دیگر ندارند. این مطالعه همچنین می‌خواهد عوامل مؤثر بر استفاده از خدمات و درمان‌های پیشرفته‌تر را در گروهی که با مسائل بهداشتی مواجه می‌شوند، بررسی کند. بنابراین دو نتیجه وجود دارد و یک جمعیت برای تجزیه و تحلیل (کارگران چکاپ) زیرمجموعه ای از جمعیت بزرگتر (کارگران شرکت) است. من با روش‌های نمونه‌گیری کاملاً تازه کار هستم، بنابراین نمی‌دانم که آیا می‌توانید در این شرایط، مطالب مفیدی برای استراتژی نمونه‌گیری ارائه کنید. منظورم این است که نمونه کتاب های درسی زیادی وجود دارد، اما می خواهم بدانم که باید روی چه موضوعات و کلمات کلیدی تمرکز کنم و بخوانم.
نحوه محاسبه نمونه نظرسنجی با بیش از یک متغیر نتیجه
109698
آماردانان اغلب به آزمایش فرضیه صفر نقطه علاقه مند هستند، مانند: $$H_0: \mu =0 \,\,\, در مقابل \,\,\, H_1:\mu\neq0.$$ همانطور که خود جفریس گفت، این در واقع با برخی از پیش فرض ها مطابقت دارد که $\mu$ نسبتاً کوچک است. سوال من این است: فرمول جایگزین دارد: $$H_0: \vert\mu\vert \leq \epsilon \,\,\, در مقابل \,\,\, H_1:\vert\mu\vert>\epsilon,$ $ برای برخی $\epsilon>0$ در نظر گرفته شده است؟ اگر بله، لطفاً چند مرجع ارائه دهید؟
57901
بگوییم که ما یک سری زمانی ساده ماهانه داریم: > ldeaths Jan Feb Mar Apr May Jun Jul Aug سپتامبر اکتبر نوامبر دسامبر 1974 3035 2552 2704 2554 2014 1655 1721 1524 1596 2074 2074 2074 219 2074 219 2889 2938 2497 1870 1726 1607 1545 1396 1787 2076 2837 1976 2787 3891 3179 2011 1636 1580 140136 1401615 2823 1977 3102 2294 2385 2444 1748 1554 1498 1361 1346 1564 1640 2293 1978 2815 3137 2679 19651 19691 1357 1570 1535 2491 1979 3084 2605 2573 2143 1693 1504 1461 1354 1333 1492 1781 1915 یک بعدی است یا دو بعدی؟ مقادیر البته یک بعدی هستند، اما از آنجایی که ما اطلاعاتی در مورد زمان داریم، آیا یک سری زمانی ساده مانند این را به عنوان **داده های دو بعدی** در نظر می گیریم؟
57904
مدل مارکوف پنهان و معناداری آماری
31443
**زمینه:** قبل از شروع درمان، 180 شرکت‌کننده یک مقیاس رتبه‌بندی افسردگی همیلتون (HDRS)، که یک مقیاس لیکرت است، 17 گزینه‌ای را تکمیل کردند. به دلیل درمان، نیمی از آنها دچار افسردگی شدند و نیمی دیگر دچار افسردگی نشدند. بنابراین من دو گروه دارم. افسرده و غیر افسرده **تحلیل:** می خواهم بدانم که آیا ساختار عاملی HDRS پایه بین دو گروه متفاوت است یا خیر. بنابراین، من تحلیل عاملی تاییدی چندگانه گروهی (CFA) را انجام دادم. من از یک مدل فاکتور HDRS معتبر و مرتبط نظری به عنوان مبنای MGCFA برای مقایسه معیارهای برازش خوب و تعیین عدم تغییر اندازه‌گیری بین گروه‌ها استفاده کردم. با این حال، CFA اولیه من نشان داد که مدل ضعیفی برای هر دو گروه من مناسب است. من توجه دارم که اندازه نمونه من ممکن است برای این کار خیلی کوچک باشد. ### سوالات * آیا CFA چند گروهی برای مقایسه مدل اندازه گیری دو گروه من مناسب است؟ * با توجه به تناسب ضعیف مدل CFA در هر دو گروه چه باید بکنم؟ * آیا اندازه کل نمونه 180 برای این CFA چند گروهی بسیار کوچک است؟
آیا تحلیل عاملی تاییدی چند گروهی برای مقایسه مدل اندازه گیری در دو گروه مناسب است؟
34282
پارامترهای تصادفی با رگرسیون های درون زا توسط Stata SEM یا GLLAMM؟
37410
من به روشی در ارتباطات تحقیقاتی برخورد کردم که در آن درصدهای متفاوتی از تغییرات برای مجموعه ای از مقادیر نسبت برای برخی پروتئین ها محاسبه می شد. همانطور که در شکل مشاهده می‌شود، فراوانی نسبت‌های (پروتئین) که در درصد معینی از تغییرات قرار می‌گیرند، در برابر خود تغییرات درصد رسم می‌شوند. ![http://i.stack.imgur.com/RgXkC.jpg](http://i.stack.imgur.com/5u3DR.jpg) کسی می تواند به من بگوید این درصد تغییر چگونه محاسبه می شود؟
نحوه محاسبه درصد تغییرات
41333
من به لحظه‌ها علاقه‌مندم، برای مثال، میانگین $\mathrm{E}(X)$ و $\mathrm{E}(X^2)$ را داریم. در مورد مقادیری مانند $\mathrm{E}(X^{1.5})$ یا $\mathrm{E}(X^{-1})$ چطور؟ آیا آنها بررسی شده اند؟
لحظه n، برای 0 < n < 1 یا n <0، آیا آنها وجود دارند؟
41338
من به دنبال این هستم که ببینم آیا رکود بر نرخ بیکاری در پایتخت‌ها تأثیر متفاوتی نسبت به کل ایالت می‌گذارد یا خیر. من داده‌های نرخ بیکاری هر ماه از ژانویه 2007 تا ژوئیه 2008 را در تمام 50 ایالت، پایتخت‌های آنها و منطقه شهری پایتخت در اختیار دارم. من در درجه اول به دنبال این هستم که ببینم آیا یکی از دیگری عقب است (مثلاً نرخ بیکاری سرمایه به طور متوسط ​​کندتر از ایالت ها کاهش می یابد)، یا اینکه آیا یکی تغییرات شدیدتری نسبت به دیگری دارد (نرخ بیکاری ایالتی به طور متوسط ​​بیشتر از پایتخت ها کاهش می یابد). همانطور که احتمالاً از واژگان من می توانید بگویید، من یک آماتور کامل در آمار هستم، اما هر کمکی در جهت راهنمایی من در جهت درست قابل قدردانی خواهد بود. همچنین آیا می توان چنین تحلیلی را با استفاده از اکسل انجام داد؟ پیشاپیش ممنون اگر کسی را گیج کنم، اطلاعات من چگونه به نظر می رسد: Jan-07 Feb-07 Mar-07 Apr-07 Arizona 3.8 3.7 3.7 3.5 Arizona Capital 4.3 3.8 3.6 3.4 Arizona Capital M 3.7 3.3 3.1 2.5 Arkanaspital252. 5.3 5.4 4.9 4.8 Arkansas Capital M 4.9 5.0 4.5 4.4
مقایسه سری های زمانی بیکاری
34289
برای تجزیه و تحلیل تأثیر یک مداخله ورزشی بر اندازه‌گیری فشار خون، یک آزمایش t-test زوجی انجام دادم. آزمون یک مقدار p قابل توجهی را نشان داد. با این حال، وقتی فواصل اطمینان 95% را برای میانگین تفاوت بین اندازه‌گیری‌های قبل و بعد محاسبه کردم، نتیجه نشان داد که تفاوت معنی‌داری بین معیارهای قبل و بعد وجود ندارد، یعنی سطح پایین منهای و سطح بالا مثبت. آیا این امکان پذیر است؟
89464
72050
چگونه می توان یک برآورد جغرافیایی را از مجموعه داده ای از افراد محاسبه کرد؟
79087
اکثر روش‌های آماری داده‌های همگن (بدون پرت) را فرض می‌کنند که در آن تمام نقاط داده یک مدل را برآورده می‌کنند. با این حال، داده های واقعی (نه) هرگز همگن نیستند. و شناسایی دقیق نقاط پرت نقش مهمی در تجزیه و تحلیل آماری دارد. علاوه بر این، رگرسیون کلاسیک OLS باید بسیاری از مفروضات را برآورده کند (نرمال بودن، همسویی بودن باقیمانده ها، خطی بودن تابع رگرسیون...). و با رگرسیون OLS، باید به مشکل (چند) همخطی بین متغیرهای توضیحی نیز رسیدگی کنیم (اندازه گیری شده با ضریب تورم واریانس (VIF)). 2 سوال من به شرح زیر است: 1) وقتی ما به رگرسیون ناپارامتریک MARS (خط های رگرسیون تطبیقی ​​چند متغیره) پی بردیم، آیا باید به مسئله پرت ها و مسئله همخطی (چند متغیری) اهمیت دهیم؟ و آیا باید مانند رگرسیون OLS به مفروضات مختلف (نرمال بودن، همسویی بودن باقیمانده ها و خطی بودن تابع رگرسیون...) اهمیت بدهیم؟ یا وقتی ما رگرسیون مریخ را تمرین می کنیم، لازم نیست به همه اینها اهمیت بدهیم؟ 2) در صورت وجود، شرایط استفاده از مریخ چیست؟ من خوانده ام که باید مشاهدات زیادی وجود داشته باشد؟ به عنوان مثال، اگر حجم نمونه n=33 کشور و 1 متغیر وابسته و 3 متغیر توضیحی داشته باشم، آیا برای رگرسیون MARS کافی است؟ با احترام، مشتاقانه منتظر خواندن شما هستم.
95153
![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0PBg0.png) در اینجا Rank متغیر وابسته من از سطح است (کاملاً مخالفم تا کاملاً موافقم) و Pre_Sales_support یکی از متغیرهای مستقل است. با توجه به حجم نمونه کوچکتر 15، من برای بررسی نرمال بودن آزمون شاپیرو ویلک را در نظر می گیرم، اما فرضیه صفر من برای یک سطح رد می شود (مقدار p برای کاملاً موافق 0.007) و برای سطح دیگر پذیرفته می شود (مقدار p برای توافق شده 0.101) در همان متغیر چگونه می توان این را دور زد.
چگونه آزمون KS یا آزمون Shapiro wilk را برای متغیر معیار ترتیبی تفسیر کنیم؟
112475
86448
من یک بیزی جهت دار دارم که در شکل زیر ارائه شده است. در شکل دایره ها متغیرهای تصادفی هستند و دایره های سایه دار مشاهده می شوند. گره های مستطیلی ثابت هایی هستند که پارامترهای هایپر را در توزیع های قبلی نشان می دهند. ![مدل گرافیکی احتمالی](http://i.stack.imgur.com/9Spyz.png) اکنون سعی کردم نمودار عامل مربوطه را برای مسئله آماده کنم، که امیدوارم همان توزیع مشترک حاصلضرب را نشان دهد. عوامل (که با گره های مستطیلی مشخص می شوند). متغیرهای تصادفی به طور مشابه با استفاده از دایره ها نشان داده می شوند. این در تصویر زیر نشان داده شده است. آیا کسی می تواند در مورد اینکه آیا آن را به درستی انجام داده ام یا خیر نظر دهد؟ ![گراف عامل مربوطه](http://i.stack.imgur.com/yQxDb.png) بنابراین، تا جایی که فکر می کنم، موارد زیر را دارم: $$ f_1 = P(\lambda) \\\ f_2 = P(w|\lambda) \\\ f_3 = P(y|w، \phi، x) \\\ f_4 = P(\phi) $$ بنابراین، محصول نشان دهنده $P(\lambda) \times P(w|\lambda) \times P(y|w, \phi, x) \times P(\phi)$، که توزیع مشترک مشخص شده توسط نمودار عامل اصلی یعنی $ است. $ f(\lambda, \phi, w) = f_1(\lambda) f_2(w, \lambda) f_3(w, \phi) f_4(\phi) $$ همچنین، اکنون اگر بخواهم حاشیه را در $w$ محاسبه کنم، می توانم آن را به صورت زیر بنویسم: $$ P(w) = \sum_{\lambda}f_2(w, \lambda)f_1(\lambda) \sum_ {phi}f_3(w, \phi) f_4(\phi) $$ ایده این است که من این توزیع مشترک را محاسبه کنم و سپس می‌توانم با جمع و حاصل ضرب عوامل به نحوی حاشیه‌سازی کنم.
شبکه بیزی هدایت شده و نمودارهای عاملی
80486
ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -57.6004 9.2337 -6.238 3.84e-09 *** InMichelin 1.9931 2.6357 0.756 0.451 Food 0.2006 0.6364030.2006 0.6364030. 0.3930 5.610 8.76e-08 *** Service 3.0598 0.5705 5.363 2.84e-07 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 در بالا خروجی رگرسیون خطی در R است. چگونه می توانم «Std. خطا، مقادیر «t value» و «Pr(>|t|)» در زبان مردمی (کسی با دانش بسیار ابتدایی آمار)؟ مهمتر از آن، چگونه «اهمیت آماری» را برای اوزان تفسیر کنم.
105686
106144
انتظار را می توان به صورت $\mathrm{E}_X[nf(X+n)] = \int_{-\infty}^\infty nf(x+n)f(x)\,\mathrm{d}x نوشت $. انتظار متکی بر سرعت دم $f(x+n)$ به $0$ می رود. من یک سوال مرتبط را در این لینک مطرح کردم.
بگذارید $f(x)$ چگالی X$ باشد. $\lim_{n\rightarrow \infty}\mathrm{E}_X[nf(X+n)]$ چیست؟
72581
مشکل: مثال واقعی تابع توان چیست؟ سعی کردم به آن فکر کنم اما موفق نشدم. کسی میدونه؟
واقعی بر اساس تابع قدرت
59250
چگونه خروجی روش خلاصه را برای یک شی lm در R تفسیر کنیم؟
106146
از دوره احتمالات edX MIT - ابزارک ها و جعبه ها: * * * اجازه دهید $X_i$ تعداد ویجت ها در یک جعبه خاص $i$ باشد. اجازه دهید $N$ تعداد جعبه های یک جعبه باشد. فرض کنید $X$ و $N$ مستقل هستند، هر دو با مقدار مورد انتظار برابر با 10 و واریانس برابر با 16. مقدار مورد انتظار $T$ را ارزیابی کنید، که در آن $T$ کل ویجت ها در یک جعبه است. * * * آیا اتخاذ رویکرد زیر اشتباه است؟ (1) قانون انتظارات تکراری: $$E[T] = E(E[T|N])$$ (2) از آنجایی که در یک جعبه ویجت‌های $X.N$ وجود دارد، با هر دو $X$ و $N$ تصادفی، $$E[E(T|N)]= E[N.X]$$ (3) از آنجایی که $X$ و $N$ مستقل هستند، $$E[X.N] = E[X].E[N]=10^2=100$$ پیشاپیش متشکرم، SB
قانون انتظارات تکراری - یک تمرین کوچک
106140
من یک مدل ARIMA(p,d,q) ساخته‌ام، m با استفاده از say, m <- Arima(ts.data, c(p,d,q)) با توجه به برخی مقادیر شروع، می‌خواهم مقادیر آینده را بر اساس مدل m. من می توانم به صورت دستی آن را کدنویسی کنم اما باید راهی برای شبیه سازی آن وجود داشته باشد. در `arima.sim` به نظر نمی رسد راهی برای تعیین مقادیر شروع وجود داشته باشد.
R: چگونه می توان ARIMA را با استفاده از مقادیر شروع شبیه سازی کرد؟
19264
93766
مسئله این است که ما می‌توانیم مجموعه‌ای از مدل‌های رگرسیون برای پیش‌بینی مجموعه تست داشته باشیم. برای یک داده آزمایشی خاص، برخی عملکرد خوب و برخی بد دارند. چگونه می توانم از روش موجود استفاده کنم یا یک تقدم همگرایی طراحی کنم تا **پیش بینی بتواند پس از استفاده از بخشی از مدل ها به بهترین پاسخ همگرا شود**؟ به عنوان مثال، هنگام اعمال جنگل تصادفی، درختان تصمیم فرعی زیادی داریم. در جنگل تصادفی، از تمام درختان فرعی برای انجام پیش‌بینی استفاده می‌شود، سپس به بهترین پاسخ رأی داده می‌شود. اگر بتوانیم فرآیند همگرایی داشته باشیم، شاید فقط به برخی از آنها نیاز داشته باشیم و در نهایت به بهترین پاسخ همگرا شویم. کمک ~
همگرایی برآورد
108280
من می دانم که در حال حاضر تعداد زیادی سؤال در مورد طرح های تودرتو وجود دارد، اما بسیاری از آنها پاسخ داده نشده اند یا از حوزه های بیولوژیکی می آیند که گاهی اوقات انتقال آنها به دامنه خود دشوار است. در حال حاضر سعی می کنم داده های یک مطالعه روانشناختی را تجزیه و تحلیل کنم. شرکت‌کنندگان چهار عبارت را خواندند و نشان دادند که هر کدام را در مقیاس 5 درجه‌ای لیکرت چقدر مناسب می‌دانند. اما من فقط متغیر نتیجه را out می نامم و بنابراین محتوا از مشکل آماری موجود منحرف نخواهد شد. دو IV وجود دارد، یکی که در سه سطح بین آزمودنی‌ها متفاوت بود (بیایید آن را «بین» و سطوح 1، 2 و 3 بنامیم) و یکی در دو سطح درون آزمودنی‌ها («داخل» با سطوح a و b آن). عامل درون موضوعات به گونه ای تحقق می یابد که دو عبارت از چهار گزاره با یکی از سطوح و دو گزاره دیگر با دیگری مطابقت دارد. به همین ترتیب، برای هر شرکت‌کننده، من اکنون چهار نقطه داده «خارج» دارم، دو نقطه برای عبارات a و دو نقطه برای عبارات b، مانند این (در قالب طولانی): موضوع بین آیتم 123 1 a1 3 123 1 a a2 4 123 1 b b1 1 123 1 b b2 2 124 2 a a1 5 124 2 a a2 4 124 2 b b1 2 124 2 b b2 3 125 3 a a1 1 125 3 a a2 1 125 3 b b1 2 125 3 b b2 3 و غیره راه درست برای تحلیل تأثیر و تعامل بین و درون چیست؟ من فرض می‌کنم که دو عبارت متفاوت a و دو عبارت مختلف b به طور سیستماتیک با هم تفاوت ندارند، بلکه فقط دو نمونه از یک چیز هستند. یا آیا به یک عامل اضافی نیاز دارم که به R بگوید کدام یک از چهار عبارت است تا بتوان آن خطا را مجاز دانست؟ به هر حال، من این گزینه ها را امتحان کرده ام: m1 <- aov(out~between*within+Error(subj/within)) summary(m1) m2 <- lm(out~between*within+within/subj) anova(m2) m3 <- lmer(out~between*within+(between|subj)) Anova(m3) نتایج متفاوتی تولید می کنند اما من کاملاً مطمئن نیستم که کدام یک درست است یا چه تفاوت هایی وجود دارد. آیا کسی می تواند مرا در این مورد روشن کند؟ من فرض می کنم این در مورد اثرات ثابت و تصادفی است که همیشه ذهن من را درگیر می کند. من پست های دیگری را در مورد طرح های تو در تو خوانده ام و فکر می کنم این یکی نزدیک تر است. اما متأسفانه به شناسه سؤال که گروه های تو در تو بود پاسخ داده نشد. هر گونه کمکی بسیار قدردانی خواهد شد! **ویرایش:** من تا اینجای کار از پاسخ ها بسیار قدردانی می کنم! نظرات من را بر آن داشت تا چند آموزش بیشتر در مورد مدل های جلوه های ترکیبی و همچنین پاسخ به سوالات مشابه را مطالعه کنم. این من را قادر می‌سازد تا سؤالم را روشن کنم: می‌دانم که حداقل برای آزمودنی‌ها و احتمالاً چهار مورد مختلف که دو سطح از عوامل درونی را نشان می‌دهند، باید رهگیری‌های تصادفی را مشخص کنم. با این حال، من در مورد ساختار خاصی از اثرات ثابت/تصادفی که باید مدل کنم، و مشخصاً مدل حداکثر در مورد من چه شکلی خواهد بود، مطمئن نیستم. در حال حاضر، من کدی را امتحان کرده ام که تقریباً شبیه این است: m1 <- lmer(خارج ~ بین * درون + (بین|subj) + (بین|subj) + (بین|داخل/مورد)) این احتمالاً در مورد اشتباه است چندین سطح، بنابراین هر گونه بازخورد بسیار قدردانی می شود! فقط برای وضوح: عامل آیتم معنای ذاتی ندارد، اما هر دو سطح عامل درون هر کدام با دو آیتم (که هر شرکت کننده می بیند) تحقق می یابد و من مطمئن نیستم که آیا این به مدل مربوط است یا خیر. جدا از مشخصات مدل، من هنوز در مورد مفاهیم تودرتو و متقاطع و اینکه کدام یک برای راه اندازی من اعمال می شود گیج می شوم. در نهایت، بیشتر مدل‌های من به هم نزدیک نمی‌شوند، اما احتمالاً این موضوع مربوط به سؤال دیگری است (و در اینجا به طور مفصل مورد بحث قرار گرفته است.)
روش صحیح تحلیل طرح تو در تو در R چیست؟
70893
من مجموعه‌ای از هیستوگرام‌های مختلف دارم که می‌خواهم برخی از تکنیک‌های طبقه‌بندی (مانند PCA، LDA (تحلیل متمایز خطی)) را روی آنها اعمال کنم تا آنها را خوشه‌بندی کنم. بنابراین، روش های رایج و توصیه شده چیست؟ علاوه بر این، از آنجایی که من در این زمینه مبتدی هستم، کجا می توانم آموزش و توضیحات خوبی در مورد روش های توصیه شده پیدا کنم؟
تکنیک های طبقه بندی در هیستوگرام
102657
من می خواهم رابطه بین تغییر در یک متغیر در سه ماه پس از بیماری و زمان بقا را بدانم. من در سه ماه اول تغییر در متغیر دارم. اما من مطمئن نیستم که از کجا باید «شمارش» زمان در معرض خطر را شروع کنم. بنابراین متغیر مستقل من تغییر در تعداد داروها از 0-3 ماه است و نتیجه من زمانی است که آنها رویدادهایی داشته باشند. من می خواهم رویدادها را از 0-3 ماه حذف کنم، زیرا اکثر برنامه های دارویی در مشاوره 3 ماهه تنظیم می شوند. نادیده گرفتن اینکه احتمالاً عوامل مخدوش کننده ای وجود دارد که بر انتخاب شدت دارو تأثیر می گذارد: ** از آنجایی که افرادی که در 3 ماه اول حوادثی داشته اند از مطالعه خارج می شوند، آیا باید زمان به رویداد را از سه ماه شروع کنم؟** فکر من این است که زمان در معرض خطر است. از 3 ماهگی شروع می شود، زیرا من رویدادها را 0-3 ماهه حذف کردم، اما به نظر می رسد برای تجزیه و تحلیل حساسیت RCTها، رویدادها بلافاصله پس از مداخله حذف شوند، بدون بازنشانی زمان به رویداد از مداخله تا حدی که آنها را کنار گذاشتند.
بهترین زمان برای تنظیم نقطه مبدا (زمان = 0) در تحلیل تغییر مدل خطر متناسب با کاکس است
65699
من در حال بررسی تکنیک‌های مختلف مورد استفاده در خوشه‌بندی اسناد هستم و می‌خواهم برخی از تردیدها را در مورد PCA (تحلیل مؤلفه‌های اصلی) و LSA (تحلیل معنایی پنهان) برطرف کنم. اولین چیز - چه تفاوت هایی بین آنها وجود دارد؟ من می دانم که در PCA، تجزیه SVD به ماتریس کوواریانس اصطلاحی اعمال می شود، در حالی که در LSA ماتریس سند مدت است. آیا چیز دیگری وجود دارد؟ دوم - نقش آنها در روش خوشه بندی اسناد چیست؟ از آنچه تاکنون خوانده ام، استنباط می کنم که هدف آنها کاهش ابعاد، کاهش نویز و گنجاندن روابط بین اصطلاحات در نمایش است. پس از اجرای PCA یا LSA، الگوریتم‌های سنتی مانند k-means یا روش‌های انباشته‌ای بر روی فضای مدت کاهش‌یافته اعمال می‌شوند و از معیارهای تشابه معمولی مانند فاصله کسینوس استفاده می‌شود. لطفا اگر اشتباه می کنم اصلاح کنید. سوم - آیا مهم است که بردارهای ترم TF/IDF قبل از اعمال PCA/LSA نرمال شده باشند یا خیر؟ و آیا بعد از آن دوباره باید عادی شوند؟ چهارم - فرض کنید من مقداری خوشه بندی در مورد فضای اصطلاح کاهش یافته توسط LSA/PCA انجام داده ام. حال، چگونه باید برچسب ها را به خوشه های نتیجه اختصاص دهم؟ از آنجایی که ابعاد با کلمات واقعی مطابقت ندارد، این یک مسئله دشوار است. تنها ایده ای که به ذهن من می رسد این است که مرکزها را برای هر خوشه با استفاده از بردارهای عبارت اصلی و انتخاب عبارت هایی با وزن های برتر محاسبه کنم، اما چندان کارآمد به نظر نمی رسد. آیا راه حل های خاصی برای این مشکل وجود دارد؟ من نتونستم چیزی پیدا کنم برای روشن شدن این موضوعات بسیار سپاسگزار خواهم بود.
LSA در مقابل PCA (خوشه‌بندی اسناد)
100998
هر ماتریس کوواریانس $A$ باید قطعی غیر منفی یا قطعی نیمه مثبت باشد. این بدان معنی است که تعیین کننده آن همیشه باید $|A|\ge0$ باشد. در صورت $|A|=0$، چه اتفاقی خواهد افتاد؟ یا این برای وابستگی متغیرهای تصادفی مربوطه به چه معناست؟ میلیون ها سپاس از پاسخ ها و نکات شما
چه زمانی تعیین کننده یک ماتریس کوواریانس 0 است؟
15818
من یک برنامه نویس بدون سابقه آمار هستم. من اخیراً برای طبقه‌بندی اسناد با NLP کار کرده‌ام و با مفاهیم NLP کاملاً آشنا هستم. من به نقطه ای رسیده ام که نرم افزار NLP احتمالات طبقه بندی را برای هر دسته برمی گرداند و احتمالات کاملاً دقیق هستند. کار بعدی نحوه استفاده از احتمالات نتیجه برای اختصاص دسته(های) به هر سند بدون برچسب است. به طور خاص، مجموعه داده من دارای موارد زیر است: * عنوان * بدنه دسته بندی انجام شده برای هر کدام عبارت است از: 1. 30 دسته، که در آن هر سند باید به یک دسته و حداکثر دو دسته تعلق داشته باشد. اگر هیچ دسته‌ای مطابقت قوی نداشته باشد، سند به دسته «ناشناخته» اختصاص داده می‌شود. 2. 10 دسته دیگر، که در آن هر سند فقط در صورت وجود تطابق قوی با یک دسته مرتبط است، و هر سند می تواند به تعداد دسته بندی ها تعلق داشته باشد. 3. 4 دسته دیگر، که در آن هر سند باید فقط به یک دسته تعلق داشته باشد، و اگر تطابق قوی وجود نداشته باشد، سند به یک دسته پیش فرض اختصاص داده می شود. عنوان و بدنه را جداگانه دسته بندی می کنم. The Body دقیق‌ترین طبقه‌بندی‌ها را تولید می‌کند، اما عنوان می‌تواند در برخی موارد به بهبود دقت کمک کند. نمونه‌هایی از احتمالات نتیجه ممکن است: * * * سند 1 ---------- عنوان: رده 1 0.950 رده 2 0.030 دسته 3 0.020 رده 4 0.005 رده 5 0.005 رده: رده 0.005 بدنه: رده 0.950 3 0.020 رده 4 0.020 رده 5 0.010 * * * سند 2 ---------- عنوان: رده 1 0.572 رده 2 0.185 رده 3 0.092 رده 4 0.0510eg. 0.129 رده 2 0.785 دسته 3 0.052 رده 4 0.032 رده 5 0.002 * * * سند 3 ---------- عنوان: دسته 1 0.455 رده 2 0.432 رده 0.425 رده 0.002 5 0.008 بدنه: رده 1 0.462 رده 2 0.449 رده 3 0.081 رده 4 0.006 رده 5 0.002 * * * به عنوان یک انسان، به راحتی می توانم نتایج را تجزیه و تحلیل کنم و ببینم کدام دسته(های) باید به یک دسته بندی قوی اختصاص داده شود. مسابقه، و غیره ** سوال این است، ** چگونه می توان این کار را در یک راه خودکار؟ تقریباً احساس می کنم باید نتایج را از طریق موتور پیش بینی دیگری بازگردانم تا ببینم آیا یک دسته خاص باید اختصاص داده شود یا خیر. یا در هنگام اجرای تعداد زیادی آزمایش با پارامترهای مختلف، ببینید کدامیک دقیق ترین نتایج را تولید می کند. پارامترهای مربوط به وزن عنوان و احتمالات توصیف به نظر کاندیدهای واضحی هستند. من یک مجموعه داده آموزشی بسیار بزرگ و همچنین یک مجموعه داده آزمایشی بزرگ دارم که در آموزش استفاده نشده است. راهنمایی در مورد بهترین راه برای رسیدگی به این موضوع، و/یا این مشکل خاص اگر نامی داشته باشد، چه نامی دارد؟ **ویرایش:** به نظر می رسد این مشکل طبقه بندی چند برچسبی نامیده می شود. یک PDF بسیار جامع در مورد موضوع وجود دارد. این شامل فهرستی از استراتژی های آستانه است که می توان از آنها استفاده کرد. نویسندگان افزونه‌ای برای Weka به نام Mulan ایجاد کرده‌اند که تعدادی از استراتژی‌های یادگیری و آستانه‌گذاری چند برچسبی را پیاده‌سازی می‌کند. در این مرحله، یا باید Weka و Mulan را امتحان کنم، یا یکی از استراتژی های آستانه را با استفاده از نتایج ابزار NLP فعلی خود اجرا کنم.
مدیریت نتایج احتمال NLP
102651
من یک سوال در مورد استفاده از مدل های BATS/TBATS دارم که در بسته _forecast_ برای R پیاده سازی شده اند. آیا استفاده از این مدل ها به این شکل مشکلی ندارد؟ آیا حداقل نباید تأیید شود که باقیمانده‌ها نویز سفید گاوسی هستند، که یک فرض برای مدل‌های BATS/TBATS است؟ با تشکر فراوان
تایید مفروضات در مدل TBATS
70898
راه اندازی دوربین: ما چند دوربین استریو را در یک آپارتمان نشیمن راه اندازی کرده ایم. یعنی محیط داخلی نظارت می شود. در دوربین‌های استریو، از لنز واید (3.5 میلی‌متر) برای پوشش حجم زیاد استفاده می‌شود. ارتفاع از کف حدود 2.8 متر است. اجسام (مانند لیوان، بطری، تلفن) حداقل 3 متر دورتر هستند. به عنوان مثال، یک شی (75mmx102mm)، که در فاصله 3 متری از دوربین قرار دارد، با 15x20px در تصویر دوربین نشان داده می شود. بنابراین، تصاویر در میدان دور کوچکتر می شوند. من حدود 30 شی مختلف دارم که باید شناسایی شوند. من از اطلاعات عمق استفاده نمی کنم، زیرا آنقدرها دقیق نیست. من فقط از مقادیر RGB از یک دوربین استفاده می کنم. وضوح تصویر 1360x1024 پیکسل است. رویکردها: 1. آشکارسازها/توصیف‌کننده‌های نقطه، مطابقت‌ها (برخی مدل‌ها در پایگاه داده، و تطابق را یکی یکی بررسی کنید) 2. کیسه‌ای از جهان‌های بصری + طبقه‌بندی SVM (5 دسته شی) من تجربیاتی با Haar-Cascade داشتم اما هرگز امتحان نکردم. برای موضوع فعلی من برای بررسی چه روش ها/رویکردهایی باید تلاش کنم؟ پیشاپیش ممنونم
تشخیص اشیاء خانگی (پردازش تصویر، تشخیص الگو) با استفاده از لنز واید؟
92572
در MATLAB، در حالی که SVD یک ماتریس مورب S از مقادیر منفرد در حال کاهش را ارائه می دهد، PCA یک بردار ستونی LATENT از مقادیر مؤلفه اصلی کاهش می دهد. 1. چگونه می توان از S برای به دست آوردن زیرمجموعه ای از ویژگی هایی استفاده کرد که داده ها را به بهترین شکل توصیف می کند؟ 2. چگونه می توان از LATENT برای به دست آوردن زیرمجموعه ای از ویژگی هایی استفاده کرد که داده ها را به بهترین شکل توصیف می کند؟ توجه: تجزیه QR در MATLAB یک بردار جایگشت E می دهد که موارد فوق را فعال می کند.
15815
با یک مثال بسیار ساده شروع کنید، یک توزیع دووجهی، با این حال، در نظر داشته باشید که این احتمالاً در موارد پیچیده‌تری که مدالیته به‌اندازه آشکار نیست و به 2 قله محدود نمی‌شود، اعمال می‌شود. اگرچه، این مرحله ساده است. `x <- c(1,2,2,3,2,1,2,2,5,2,4,2,2,1,3,2,4,3,5,3,5,4, 5,4,7,5,4,4,3,2,1,2,4,3)` `dx <- density(x)` `plot(dx)` این نمودار را می دهد: ![مثال ساده bi چگالی مودال plot](http://i.stack.imgur.com/pUkED.png) با این حال، من می خواهم نموداری مانند آنچه در زیر می آید ایجاد کنم. با این حال، R من محدود است، من می‌دانم، par(mfrow=c(2,1)) می‌تواند به من بیش و کمتر را بدهد. اما من نمی دانم چگونه مقادیر نمودار پایین را محاسبه کنم. من R را دوست دارم و دوست دارم به استفاده از آن ادامه دهم، اما توانایی های من محدود است. ![نسخه رنگ خام آنچه می خواهم.](http://i.stack.imgur.com/p0W6p.png)
چگونه می توانم هیستوگرام ها را با نمودار چگالی در R ترکیب کنم؟
102658
کریستوفر بیشاپ در کتاب خود (تشخیص الگو و یادگیری ماشین) اثباتی می نویسد که هر جزء اصلی متوالی واریانس طرح ریزی را تا یک بعد به حداکثر می رساند، پس از اینکه داده ها در فضای متعامد به اجزای انتخاب شده قبلی نمایش داده شدند. دیگران شواهد مشابهی را نشان می دهند. با این حال، این تنها ثابت می‌کند که هر جزء متوالی از نظر به حداکثر رساندن واریانس، بهترین پیش‌بینی برای یک بعد است. چرا این نشان می دهد که واریانس یک طرح ریزی برای گفتن 5 بعد به حداکثر می رسد و اولین چنین اجزایی را انتخاب می کنیم؟
چرا PCA واریانس طرح ریزی را به حداکثر می رساند؟
103476
فرض کنید یک مدل رهگیری تصادفی قرار است برازش شود، مانند: $$y_{ij}=\beta_0 + \beta_1x_{1ij} + \beta_2x_{2ij} + \beta_3x_{3ij}+ u_{0j} + \epsilon_{ij} $$ که در آن $x_{1ij}$ و $x_{2ij}$ متغیرهای پیوسته هستند، $x_{3ij}$ فقط می‌تواند مقادیر 1 و 0 را در نظر بگیرید، در حالی که $u_{0j}$، $\epsilon_{ij}$ متقابلا مستقل و عادی هستند. در مقاله ای دیدم که چنین مدلی با استفاده از دو دستور زیر در Stata مناسب است: xtmixed y x1 x2 x3 || groupid:, mle xtmixed y x1 x2 x3 || groupid:, mle, residuals(independent, by(x3)) دستور دوم نسبت به اولی چه چیزی اضافه می کند؟ ضرایب تخمین زده شده در بین مدل ها متفاوت است و خروجی اضافی برای پارامترهای اثر تصادفی وجود دارد.
مشخصات باقیمانده برای xtmixed
108437
آیا متغیر وابسته برای PLS می تواند بر اساس مقیاس لیکرت باشد؟ همانطور که فهمیدم، متغیر وابسته باید پیوسته باشد. می‌خواهم فرکانس (یعنی عدد صحیح 3) را با رتبه‌بندی از مقیاس لیکرت (مثلا 5) ضرب کنم تا مقدار Y را به 15 برسانم. آیا این به عنوان یک متغیر پیوسته قابل قبول است؟ اگر نه، از هر رویکرد جایگزین برای محاسبه Y قدردانی کنید. پیشاپیش از حمایت شما سپاسگزاریم
تحلیل رگرسیون PLS بر اساس مقیاس لیکرت
92578
تفاوت بین داده های سانسور شده به تنهایی و سانسور تدریجی در تجزیه و تحلیل بقا چیست؟
66212
من دو مجموعه داده از برهمکنش های پروتئین-پروتئین در یک ماتریس دارم با عنوان: s1m و s2m. هر جفت DB و AD یک برهمکنش ایجاد می‌کنند و یک ماتریس به نظر می‌رسد: > head(s1m) DB_num AD_num [1,] 2 8153 [2,] 7 3553 [3,] 8 4812 [4,] 13 7838 [5,] 24 3315 [6,] 24 6012 سپس می توانم چگالی را رسم کنم از نقاطی که اساساً نشان می‌دهند که نقاط بیشترین تمرکز را دارند: s1m: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ZX50C.png) s2m: ![توضیح تصویر را اینجا وارد کنید](http ://i.stack.imgur.com/FDWBJ.png) کدی که در R برای ساختن این نمودارها استفاده کردم این بود: z <- kde2d(s1m[,1], s1m[,2], n=50) filled.contour(z) z <- kde2d(s2m[,1], s2m[,2], n=50) filled.contour(z) من می خواهم به نحوی بتوانم مقایسه کنید که این توطئه ها چقدر شبیه به هم هستند نه اینکه فقط با چشم به آنها نگاه کنید. آیا راهی برای انجام این کار وجود دارد؟ در ضمن، من اطلاعات کمی در مورد آمار دارم. اینها همچنین مجموعه داده های بسیار بزرگی هستند، چیزی حدود 10000 امتیاز در میان ماتریس 15k در 15k.
92579
> یک کانال باینری با احتمالات شرطی زیر توصیف می شود: > > $p(y_1|x_1)=1, \quad p(y_1|x_2)=p(y_2|x_2)=\frac{1}{2}$ > > علاوه بر این، می دانیم که 1 13 برابر بیشتر از 0 در > خروجی ظاهر می شود. ظرفیت کانال چقدر است؟ سوال من این است که آیا اطلاعات اضافی واقعاً مرتبط هستند زیرا من دو راه حل مختلف با و بدون استفاده از آن دریافت می کنم (من $p(y=1)=13 \cdot p(y=0)$ قرار داده ام؟ P.S. پاسخ صحیح زمانی است که نکته را حذف کنید.
66172
آیا ابزاری وجود دارد که بتواند مقدار AUC را از روی منحنی ROC محاسبه کند اگر من قبلاً مقادیر مثبت واقعی، منفی واقعی، مثبت کاذب، منفی کاذب داشته باشم.
108438
الگوریتم متروپلیس-هیستینگ یک روش مونت کارلوی زنجیره مارکوف (MCMC) برای به دست آوردن دنباله ای از نمونه های تصادفی از یک توزیع احتمال است که نمونه گیری مستقیم برای آن دشوار است. آیا کسی نمونه های واقعی و ملموسی دارد که نمونه برداری مستقیم برای آنها دشوار است و روش M-H آسان است؟
MCMC: نمونه هایی از زمانی که نمونه گیری مستقیم دشوار است (اما متروپلیس هاستینگ آسان است)
50305
فرض کنید سری زمانی $X$ حالت مخفی گاوسی راهپیمایی تصادفی است و ما $Y = X + e$ را مشاهده می کنیم که $e$ نویز سفید گاوسی مستقل از $X$ است. تخمین‌گر کالمن $X$ در این مورد دارای راه‌حل شکل بسته حالت پایدار است و مربوط به یک نرم‌کننده میانگین متحرک نمایی با پارامتر هموارسازی ثابت است. پارامتر هموارسازی بهینه شبیه $\lambda = \frac{p}{1-p}$ است که $p$ فرمول درجه دوم نسبت سیگنال به نویز بین $e$ و $\Delta{x}$ است. فرمول فرم بسته را ببینید (با جستجوی ' _kalman solu‌tion random walk noise_ '). اگر به جای آن مشاهدات _چندین مستقل_$Y_1، Y_2،...$، یعنی $e_1، e_2،...$ مستقل داشته باشیم، آیا راه حل شکل بسته ای برای برآوردگر بهینه X$ وجود دارد؟ چه شکلی خواهد بود؟ اگر $e_1، e_2$ مستقل _و_ به طور یکسان توزیع شده بودند (همان انحراف استاندارد)، من می توانم تصور کنم که بهترین تخمینگر برای $X$ این است که به سادگی میانگین برآوردگرهای به دست آمده با تلقی مسئله به عنوان تک متغیره برای هر $Y$ باشد. اگر $e_1,e_2,...$ واریانس متفاوتی داشته باشند، برخی از سری‌های $Y$ باید وزن‌های پایینی در برآوردگر کلی داشته باشند زیرا نسبت سیگنال به نویز آنها ضعیف‌تر است. شاید راه حل شکل بسته با ضرایب متناسب با هر نسبت سیگنال $Y$ به نویز خطی باشد. آیا راه حل شکل بسته شناخته شده ای وجود دارد؟ به نظر می رسد گوگل برای این مشکل خیلی مفید نیست.
26648
تعیین ضرایب مدل چند جمله ای شیب اجباری = 1 و قطع = 0
50306
روش موثر برای سرعت بخشیدن به مسئله انبوه تک متغیره (یعنی مجموعه بزرگی از مسائل بهینه سازی در هر نقطه)
33919
من تعدادی مطالعه دارم که خانواده ها را برای یک بیماری ژنتیکی آزمایش کرده اند. برای هر مطالعه داده های زیر شرح داده شده است: * $n_p$، تعداد probands (proband اولین فردی در یک خانواده است که با بیماری ژنتیکی تشخیص داده می شود، بنابراین معمولاً با تعداد خانواده ها برابر است) * $n_r$ ، تعداد بستگان شناسایی شده (این تعداد کل افراد شناسایی شده در بین خانواده ها منهای تعداد probands است) * $n_c$، تعداد بستگانی که مشاوره ژنتیک داده شده است * $n_t$، تعداد اقوام تحت آزمایش ژنتیک بستگان باید قبل از مشاوره ژنتیک شناسایی شوند و قبل از انجام آزمایش ژنتیک باید به آنها مشاوره ژنتیک داده شود. اگر فرض کنم که $n_r \sim r \times n_p$، $n_c \sim p_c \times n_r$ و $n_t \sim p_t \times n_c$ چگونه می توانم $r$، $p_c$ و $p_t$ را استنتاج کنم. برخی از مقادیر $n_p$، $n_r$، $n_c$ و $n_t$ وجود ندارند (گزارش نشده اند)؟ من خوشحالم که در WinBUGS، Stata، R و شاید دیگران کار می کنم! با تشکر
استنباط نسبت های متعدد و نسبت های دو جمله ای با داده های از دست رفته
18339
چگونه می توانم از مدل GARCH برای تشخیص ثابت بودن نوسانات در تمام سری ها (سری های زمانی) استفاده کنم؟ من نمی توانم یک بررسی بصری انجام دهم، باید تشخیص دهم که آیا نوسانات **ثابت** است با استفاده از تابع R و GARCH بسته tseries
چگونه نوسانات را با GARCH تجزیه و تحلیل کنیم؟
14354
**ویرایش**: پس از انجام برخی تحقیقات بیشتر، به نظر می رسد نمونه برداری برش می تواند راه حلی باشد. من دیده‌ام که در زمینه نحوه نمونه‌برداری از توزیع‌های تک متغیره مورد نیاز برای نمونه‌برداری گیبس بسیار ذکر شده است. نظر/نظری در این مورد دارید؟ آیا الگوریتم دیگری که ممکن است بهتر کار کند؟ این یک سوال نیمه آماری و نیمه روش شناختی است، بنابراین لطفاً در مورد هر نوع راه حلی ذهن خود را باز نگه دارید. من اخیراً از Gibbs Sampling برای اجرای مدل‌های بیزی و نمونه‌برداری از توزیع‌های پیش‌بینی پسین آنها استفاده زیادی کرده‌ام. به طور معمول، من از توزیع های مزدوج استفاده کرده ام، به عنوان مثال. یک رگرسیون خطی با $\beta$ توزیع شده گاوسی با یک پیشین گاوسی و یک عبارت نویز توزیع شده گاما $\epsilon_t$. اما به ذهنم رسید که بخشی از ارزش واقعی MCMC قرار است این باشد که برخلاف الگوریتم‌های ارسال پیام و تغییرات، توزیع‌ها لزوماً نیازی به مزدوج ندارند. از نظر تئوری، من باید بتوانم از هر توزیعی استفاده کنم و نمونه برداری گیبس همچنان باید کار کند. بنابراین، وقتی توزیع $P(\theta | D) = P(D | \theta)P(\theta)$ را داشتم، کاری که قبلا انجام داده‌ام این است که شکل توزیع را روی کاغذ کار کرده، آن را به یک تبدیل می‌کنم. توزیع را می شناسم و پارامترهای آن را مشخص می کنم تا بتوانم از آن نمونه برداری کنم. سوالات من این است: 1. در چنین شرایطی بهتر است از Metropolis-Hastings معمولی به جای Gibbs Sampling استفاده شود؟ 2. آیا کتابخانه خوبی برای انجام این نوع دستکاری نمادین می شناسید، بنابراین مجبور نیستم این کار را با دست انجام دهم؟ 3. اگر توزیع مزدوج پیدا نشود، برای مثال اگر از توزیع دیوانه‌واری استفاده می‌کنم که خودم اختراع کرده‌ام، چه الگوریتم‌هایی می‌توانند به بهترین شکل از $P(\theta | D)$ نمونه‌برداری کنند، با وجود این واقعیت که من این کار را نمی‌کنم. ثابت نرمال شدن آن را می دانید؟ علاقه اصلی من به شماره 3 است، زیرا به نوعی یک راه حل جامع است -- من از خانواده الگوریتم های نمونه گیری رد اطلاع دارم، اما دیوانه کننده به نظر می رسد که در حین اجرای یک الگوریتم نمونه گیری باید نمونه دیگری را ایجاد کنم. الگوریتم کارآمدترین راه برای این کار چیست؟ خیلی ممنون جیسون
کارآمدترین روش محاسباتی برای نمونه برداری از چگالی غیرعادی چیست؟
14497
فرض کنید فایل CSV من دارای زمان و ستون های مختلف داده در مقابل زمان است. من می‌خواهم بتوانم نقشه‌برداری را خودکار کنم. حداقل به یک فایل؛ فرمت های متعدد یا روی صفحه نمایش نیز یک مزیت است. توطئه های زیادی وجود خواهد داشت. نمودارهای متعدد روی محورهای مشابه، به عنوان مثال. مانند یک نمودار پراکنده صفحه گسترده با چندین ستون. تغییر دستورات نمودار باید برای افراد غیر متخصص امکان پذیر باشد. باید امکان کنترل هنری مانند رنگ ها، نقاط، خطوط یا هر دو، شاید نماد وجود داشته باشد. در اینجا چیزی است که من در نظر گرفته ام: صفحات گسترده مانند OpenOffice یا Excel: نمی توانند به راحتی خودکار شوند. از نظر ظاهری، کنترل هنری، و انتخاب ستون‌ها از CSV تا نمودار خوب است. بد در اتوماسیون، و زمان برای طرح. R: خواندن csv چند ستونی در دیتافریم آسان است، اما تولید نمودارهای مورد نیاز چندان آسان نیست. برای سری های زمانی منفرد آسان است، اما هیچ مثال ساده ای برای رسم ستون های متعدد داده بر روی همان محورهای X و Y ندیده اید، همانطور که یک نمودار پراکنده صفحه گسترده انجام می دهد. Gnuplot: ممکن است نیاز به قالب بندی مجدد داده ها داشته باشد. برای خواندن CSV چند ستونی برای Scatterplot چندان شهودی نیست. سایرین که باید در نظر بگیرم؟
رسم خودکار فایل های CSV به سرعت و با سطحی از کنترل هنری
86241
وقتی هیستوگرام یک متغیر را رسم کردم تا ببینم آیا از نرمال بودن پیروی می کند یا خیر، یک نمودار اریب بسیار مثبت دریافت کردم، بیشتر شبیه به توزیع پواسون/نمایی. حال، چه نوع تبدیلی باید روی متغیر انجام دهم تا از نرمال بودن آن پیروی کند؟
47294
نحوه انجام تبدیل boxcox بر روی داده ها در ابزار R
33912
من سابقه زیادی در مورد آمار ندارم. من روی مورفومتریک چند متغیره نمونه ای از قورباغه کار می کنم. من یک ماتریس داده از 19 متغیر (ویژگی های پیوسته) برای حدود 250 نمونه دارم. نمونه ها در 4 گروه مختلف (مورفوتیپ) قرار می گیرند. آیا PCA بهترین راه برای دیدن اینکه آیا نمونه های متعلق به یک گروه با هم خوشه می شوند یا خیر؟ چگونه می توان متغیرهایی را که بیشترین سهم را در جداسازی خوشه ها دارند شناسایی کرد؟ چه روش های دیگری می تواند در مطالعه ای مانند این کمک کند؟
چگونه متغیرهایی را که چندین گروه را از هم جدا می کنند شناسایی می کنید؟
18330
من یک آزمایشی با 8 گروه دارم. هر گروه یکی از دو درمان را تجربه کردند - چهار گروه درمان A و 4 گروه B دریافت کردند. در هر گروه، متغیر وابسته 4 بار اندازه‌گیری شد. متأسفانه، متغیر وابسته به طور معمول توزیع نشده است (یا در جایی نزدیک). با توجه به اندازه گیری های مکرر، من نمی توانم آزمایش من ویتنی را روی 32 اندازه گیری که دارم انجام دهم. می‌توانم منظورم 4 معیار در هر گروه باشد و من ویتنی را بر روی میانگین انجام دهم، اما پیشنهادهایی برای محاسبه رتبه‌ها و انجام مدل‌سازی چند سطحی در آن رتبه‌ها دیده‌ام. به نظر شما مناسب است؟ اگر چنین است، می‌شود: MIXED rank_d بر اساس گروه درمان /CRITERIA=CIN(95) MXITER(100) MXSTEP(10) SCORING(1) SINGULAR(0.000000000001) HCONVERGE(0، ABSOLUTE) LCONVERGE(0.CONVERGE(0. ABSOLUTE) /FIXED=درمان | SSTYPE(3) /METHOD=REML /RANDOM=گروه | COVTYPE (VC). یک تحلیل مناسب در SPSS باشد؟
تجزیه و تحلیل چند سطحی ناپارامتریک در SPSS
54733
من یک ترکیب گاوسی را با داده های مالی تطبیق می دهم. چگالی مخلوط من به صورت زیر داده می شود: $f(l)=πφ(l;μ_1,σ^2_1)+(1−π)φ(l;μ_2,σ_2^2)$ چولگی داده ها را قبلا محاسبه کردم. اکنون، من می خواهم به چولگی مخلوط گاوسی نصب شده نگاه کنم. از آنجایی که من از ML (الگوریتم EM) استفاده کردم و نه از روش لحظه ها، لحظه ها یکسان نخواهند بود. من این را می دانم. اما من نمی دانم چولگی گاوسین مختلط را چگونه محاسبه کنم؟ من می خواهم یک فرمول مشتق شده نظری داشته باشم، بنابراین منظورم این است که نمی خواهم این فرمول تجربی را با گرفتن مقادیر برازش محاسبه کنم و به عنوان مثال انجام دهم. skew(...) در R. برای کنترل خودم این کار را انجام می دهم، اما ابتدا می خواهم فرمول نظری آن را داشته باشم. من نتوانستم آن را پیدا کنم (برای چگالی مخلوط چولگی در گوگل جستجو کردم.) می دانم که چولگی با $ \gamma_1 = \operatorname{E}\Big[\big(\tfrac{X-\mu}{\ داده می شود. sigma}\big)^{\\!3}\, \Big] = \frac{\mu_3}{\sigma^3} = \frac{\operatorname{E}\big[(X-\mu)^3\big]}{\ \ \ ( \operatorname{E}\big[ (X-\mu)^2 \big] )^{ 3/2}} $ بنابراین چولگی گاوسی مخلوط چیست؟ چگونه می توانم آن را استخراج کنم؟ یک مشتق ریاضی عالی خواهد بود. من هر دو چگالی را تخمین زده ام و تخمین های μ و σ را دارم. من یک فرمول می خواهم که بتوانم آن مقادیر را وارد کنم تا چگالی مخلوط را بدست بیاورم. سپس آن را به صورت تجربی با skew(...) در R کنترل خواهم کرد. برای چولگی و - این عالی خواهد بود - اشتقاقی از آن؟
چولگی تراکم مخلوط
68843
یادگیری ماشینی برای کشف کلاهبرداری
23035
آزمایش‌های رگرسیون مکی-گلس
76498
من یک رویداد را با استفاده از توزیع دوجمله‌ای مدل‌سازی می‌کنم $y \sim \text{Binomial}(n,p)$: $$p(y) \sim \binom{n}{y}p^y(1-p)^ {n-y}$$ با این حال، در صورتی که من مدل سازی می کنم، تعداد آزمایشات، $n,$ لزوما یک عدد صحیح نیست. $n$ نیز کوچک است (اغلب بین 1 و 3) و به شدت بزرگتر یا مساوی 0 است. با توجه به این ملاحظات، من نمی خواهم با توزیع نرمال تقریب بزنم. سوال من به شرح زیر است: آیا یک فرمت استاندارد برای توزیع Binomial وجود دارد که به من اجازه دهد این نوع رویداد را مدل کنم؟ و اگر نه، این نوع توزیع چگونه می تواند باشد؟
گسترش به توزیع دو جمله ای با تعداد مداوم آزمایش
76499
خطای ریشه میانگین مربع (خطای RMS) بین دو سیگنال را می توان به صورت زیر محاسبه کرد: ${\text{RMS}(x_\textrm{ actual}(t)-x_\textrm{ مرجع}(t))}$ وقتی شما می خواهید در یک پنجره کشویی محاسبه کنید، معادله بالا را در یک حلقه تکرار می کنید. با این حال، این بسیار گران است. آیا راهی برای محاسبه خطای RMS به روشی کم هزینه وجود دارد؟
آیا روش محاسباتی کمتری برای محاسبه خطای RMS بین دو سیگنال وجود دارد؟
1441
این سؤال از سؤال قبلی من ناشی می شود، جایی که رابین در مورد فرآیندهای ثابت ضعیف به سؤال پاسخ داد. در اینجا، من یک سوال مشابه را برای فرآیندهای ثابت (قوی؟) می پرسم. من معنی این را تعریف می کنم (تعریف را می توانید در اینجا پیدا کنید). اجازه دهید $X(t)$ یک فرآیند تصادفی باشد. می‌گوییم که $X(t)$ مرتبه N ثابت است اگر برای هر $t_1، t_2، \dots، t_N$ داشته باشیم که چگالی تجمعی مشترک تابع $$F_{X(t_1)، X(t_2) است. \dots,X(t_N)} = F_{X(t_1 + \tau),X(t_2 + \tau),\dots,X(t_N + \tau)}$$ برای همه $\tau$. این یک شرط کاملاً قوی است، می گوید که با جابجایی زمان، آمار مشترک به هیچ وجه تغییر نمی کند. برای مثال، یک فرآیند ثابت مرتبه اول به این صورت است که $F_{X(t_1)} = F_{X(t_2)}$ برای همه $t_1$ و $t_2$. یعنی $X(t)$ همه به طور یکسان توزیع شده اند. به راحتی می توان فهمید که یک فرآیند ثابت مرتبه 1 نیازی نیست که مرتبه دوم ثابت باشد. به سادگی یک ساختار همبستگی برای گفتن $X(t)$، $X(t+1)$، $X(t+2)$ اختصاص دهید که با یک ماتریس Toeplitz (متقارن) مطابقت ندارد. یعنی در شکل برداری، ماتریس کوواریانس $[X(t)، X(t+1)، X(t+3)]$ را می توان به صورت $$\left[\begin{array}{cc} ارائه کرد. \sigma^2 & a & b \nwline a & \sigma^2 & c \newline b & c& \sigma^2 \end{array}\right]$$ برای $a,b,c$ متمایز. اکنون این مرتبه دوم ثابت نیست زیرا $E[X(t)X(t+1)] = a$ و با جابجایی زمان 1، داریم $E[X(t+1)X(t+2)] = c \neq a$. به روشی مشابه (احتمالاً) فرآیندی که مرتبه 1 و 2 ثابت است، نیازی به ثابت بودن مرتبه 3 ندارد و این منجر به سوال من می شود: > آیا کسی مثال خوبی از یک فرآیند تصادفی دارد که هم مرتبه 1 و هم مرتبه 2 ثابت باشد؟ اما نه ثابت مرتبه 3؟
76497
من یک مدل رگرسیون لجستیک در R ساخته‌ام و اگرچه نتیجه تا حدی رضایت‌بخش به نظر می‌رسد، یک سوال وجود دارد که نمی‌توانم به آن بپردازم. من مطمئن نیستم که آیا رویکرد من اصلا درست است یا خیر. من می دانم که هدف کلی مدل لجستیک پیش بینی احتمال موفقیت برای یک متغیر تصادفی باینری است. آیا از همان مدل لجستیک می توان احتمال یک نسبت معین را دانست؟ مثلاً بگویید که ما علاقه مندیم احتمال پذیرش در یک مدرسه را بررسی کنیم، و از یک رگرسیون لجستیک برای تخمین این احتمال استفاده می کنیم، که بدیهی است به برخی از متغیرهای مستقل بستگی دارد. سوال من این است که با همین مدل آیا می توان نسبت دانش آموزی را که در آن مدرسه پذیرش می شود تخمین زد؟ من سعی کردم از احتمال دوجمله ای برای پاسخ به آن استفاده کنم اما به دلایلی جواب درستی به من نمی دهد. چگونه به آن رفتم. اگر احتمال موفقیت را بدانیم، همچنین می دانیم که متغیر وابسته از توزیع دوجمله ای با پارامتر N و P پیروی می کند، که در آن N تعداد آزمایشات و P احتمال موفقیت است که می توان از مدل لجستیک تخمین زد. بنابراین اگر بخواهم احتمال کمتر یا مساوی بودن نسبت را بگوییم p، آنگاه فکر می‌کنم که این معادل احتمالی است که در آزمایش‌های N موفقیت N*p کمتر یا برابر با احتمال موفقیت P است. PS من می دانم که احتمال موفقیت یک نرخ / نسبت کلی است، اما چیزی که به آن علاقه دارم این است که احتمال یک گروه خاص را پیدا کنم. ویژگی گروه می تواند در مدل گنجانده شود، اما در مورد من محدود کننده خواهد بود. در واقع من بیشتر علاقه مند به یافتن احتمال نسبتی از مدل لجستیک هستم تا موفقیت یک گروه خاص. با تشکر
احتمالات از رگرسیون لجستیک
22344
این یک روش معمول است که عملکرد یک مدل SVM را با محاسبه **MSE** (میانگین مربع خطا) اندازه گیری کنید. چرا از ** میانگین خطای مطلق ** (میانگین مقادیر مطلق خطاها به جای مقادیر مربع) استفاده نمی کنید؟
33917
من علاقه مند به تعیین تعداد الگوهای مهمی هستم که از تجزیه و تحلیل مؤلفه اصلی (PCA) یا تحلیل تابع متعامد تجربی (EOF) بیرون می آیند. من به ویژه علاقه مند به اعمال این روش برای داده های آب و هوایی هستم. فیلد داده یک ماتریس MxN است که M بعد زمانی (به عنوان مثال روز) و N بعد فضایی (به عنوان مثال مکان های lon/lat) است. من در مورد یک روش بوت استرپ احتمالی برای تعیین رایانه های شخصی مهم خوانده ام، اما نتوانستم توضیحات دقیق تری پیدا کنم. تا به حال، من از قانون شست نورث (North _et al_., 1982) برای تعیین این برش استفاده می‌کردم، اما نمی‌دانستم که آیا روش قوی‌تری در دسترس است. به عنوان مثال: ###تولید داده x <- -10:10 y <- -10:10 grd <- expand.grid(x=x, y=y) #3 الگوی فضایی sp1 <- grd$x^3 +grd$y^2 tmp1 <- ماتریس(sp1، طول(x)، طول(y)) تصویر(x,y,tmp1) sp2 <- grd$x^2+grd$y^2 tmp2 <- ماتریس(sp2، طول(x)، طول(y)) تصویر(x,y,tmp2) sp3 <- 10*grd$y tmp3 <- ماتریس(sp3 , طول(x)، طول(y)) تصویر(x,y,tmp3) #3 الگوهای زمانی مربوطه T <- 1:1000 tp1 <- scale(sin(seq(0,5*pi,,length(T)))) plot(tp1, t=l) tp2 <- scale(sin(seq(0,3*pi,,length(T) )) + cos(seq(1,6*pi,,length(T)))) plot(tp2, t=l) tp3 <- مقیاس (sin(seq(0,pi,,length(T))) - 0.2*cos(seq(1,10*pi,,length(T)))) plot(tp3, t=l) #make فیلد داده - سری زمانی برای هر شبکه مکانی (الگوی مکانی ضرب در الگوی زمانی به اضافه خطا) set.seed(1) F <- as.matrix(tp1) %*% t(به عنوان. rnorm(length(T)*dim(grd)[1]، mean=0، sd=200)، nrow=length(T)، ncol=dim(grd)[1]) # اصطلاح خطا dim(F) image(F) ###تعداد تابع متعامد تجربی (EOF) تجزیه و تحلیل #فیلد مقیاس Fsc <- scale(F, center=TRUE, scale=FALSE) ساخت ماتریس کوواریانس C <- cov(Fsc) تصویر(C) #تجزیه ویژه E <- ویژه (C) #EOFs (U) و لامبدا (L) U <- E$بردارها L <- E$ارزش #طرح‌کردن داده‌ها بر روی EOFs (U) برای استخراج مؤلفه‌های اصلی (A) A <- Fsc %*% U dim(U ) dim(A) #نقشه 10 نمودار لامبدا برتر (L[1:10]، log=y) #نقشه واریانس توضیح داده شده (explvar، %) توسط هر EOF explvar <- L/sum(L) * 100 plot(explvar[1:20], log=y) #plot الگوهای اصلی در مقابل آنهایی که با طرح EOF شناسایی شده اند(ماتریس(1:12، nrow=4، ncol =3، byrow=TRUE)، عرض=c(1،1،1)، ارتفاع=c(1،0.5،1،0.5)) layout.show(12) par(mar=c(4,4,3,1)) image(tmp1, main=pattern 1) image(tmp2, main=pattern 2) image(tmp3, main= الگوی 3) par(mar=c(4,4,0,1)) plot(T, tp1, t=l, xlab=, ylab=) plot(T, tp2, t= ل xlab=, ylab=) plot(T, tp3, t=l, xlab=, ylab=) par(mar=c(4,4,3,1)) تصویر(ماتریس (U[,1]، طول(x)، طول(y))، main=eof 1) تصویر(ماتریس(U[,2]، طول(x)، طول(y))، main=eof 2) تصویر(ماتریس(U[,3]، length(x), length(y)), main=eof 3) par(mar=c(4,4,0,1)) plot(T, A[,1], t=l, xlab =, ylab=) plot(T, A[,2], t=l, xlab=, ylab=) plot(T, A[,3], t=l , xlab=, ylab=) ![توضیحات تصویر را وارد کنید اینجا] (http://i.stack.imgur.com/NhWKf.png) و، در اینجا روشی است که من برای تعیین اهمیت رایانه شخصی استفاده کرده‌ام. اساساً قاعده کلی این است که تفاوت بین لامبداهای همسایه باید بیشتر از خطای مربوط به آنها باشد. ###تعیین EOFهای قابل توجه #قاعده شست شمال Lambda_err <- sqrt(2/dim(F)[2])*L upper.lim <- L+Lambda_err low.lim <- L-Lambda_err NORTHok=0*L برای (i in seq(L)){ Lambdas <- L Lambdas[i] <- NaN نزدیکترین <- which.min(abs(L[i]-Lambdas)) if(nearest > i){ if(lower.lim[i] > upper.lim[nearest]) NORTHok[i] <- 1} if(نزدیکترین < i ){ if(upper.lim[i] < bottom.lim[نزدیکترین]) NORTHok[i] <- 1 } } n_sig <- min(which(NORTHok==0))-1 نمودار(L[1:10],log=y, ylab=Lambda (نقطه) و خطا (خطوط عمودی)، xlab=EOF) بخش ها( x0=seq(L)، y0=L-Lambda_err، x1=Seq(L)، y1=L+Lambda_err) abline(v=n_sig+0.5, col=2, lty=2) text(x=n_sig, y=mean(L[1:10]), labels=قاعده شست شمال، srt=90، col=2 ) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gE90Y.png) بخش فصل را توسط Björnsson و Venegas (1997) در مورد آزمون‌های معناداری برای مفید بودن - آنها به سه دسته آزمون اشاره می‌کنند، که احتمالاً من امیدوار هستم از آن‌ها نوع _واریانس غالب_ استفاده کنم. اشاره به نوعی رویکرد مونت کارلو برای به هم زدن بعد زمانی و محاسبه مجدد لامبداها بر روی بسیاری از جایگشت ها است. فون استورچ و زوایرز (1999) همچنین به آزمایشی اشاره می‌کنند که طیف لامبدا را با طیف «نویز» مرجع مقایسه می‌کند. در هر دو مورد، من کمی ناموفق هستم
چگونه می توان اجزای اصلی مهم را با استفاده از روش بوت استرپینگ یا مونت کارلو تعیین کرد؟
89040
من در حال اجرای یک تجزیه و تحلیل درخت تصمیم هستم، و همان پیش بینی کننده ای که اولین شاخه اصلی را تشکیل می دهد، دوباره به عنوان یک شاخه دیگر در پایین تر از درخت ظاهر می شود. کسی می تواند به من توضیح دهد که چگونه این امکان وجود دارد؟ یا چگونه باید این را تفسیر کنم؟ با تشکر
تجزیه و تحلیل درخت - CHAID
91895
اجازه دهید $X_1,X_2,\dots$ دنباله ای از متغیرهای تصادفی از یک توزیع نوع پیوسته باشد و $m$ و $n$ دو عدد صحیح باشند به طوری که $m<n$ و $2\le n-m$. چگونه می توانم این احتمال را نشان دهم که آمار مرتبه سوم $X_1,\ldots,X_m$ برابر است با آمار مرتبه پنجم $X_1,\dots,X_n$ 6$\cdot\displaystyle\frac{n-5 \choose m-3}{n\choose m}$?
یک سوال به ترتیب آمار توزیع نوع پیوسته
77266
در رگرسیون خطی می‌توانیم چیزی شبیه به این $$ y' = resid(y \sim \beta_0 + \beta_1 c1 + \beta_2 c2) $$ که در آن $c1، c2$ متغیرهای کمکی هستند، انجام دهیم و سپس $y'$ را در دیگری برازش دهیم. مدل: $$ y' \sim b_0 + b_1 x_1 $$ مزیت این روش زمانی است که شما متغیرهای مستقل زیادی مانند $x_1، x_2 دارید، \cdots x_n$ (به عنوان مثال، تعداد زیادی از سایت های جهش DNA)، و همه آنها متغیرهای کمکی یکسانی دارند (مانند سن، جنس، وزن و غیره)، می توانید کارها را ساده کنید و محاسبات را کاهش دهید. اما به نظر می رسد که این فقط با متغیرهای پیوسته مانند قد، فشار خون و غیره کار می کند، اگر من یک متغیر باینری مانند تومور/بدون تومور، عفونی/غیر عفونی و غیره داشته باشم، آیا هنوز هم می توان کاری مشابه انجام داد؟
77269
مقایسه آماری 2 ds کوهن مستقل
89044
من هم یک اثر تصادفی پواسون و هم مدل پواسون را به داده‌هایم برازش داده‌ام، با این حال برخی از تخمین‌ها نشانه‌های متفاوتی دارند و SE برای هر دو مدل کاملاً مشابه است. احتمال ورود به سیستم برای تصادفی پواسون -669.723 و مدل پواسون -756.396 است. چگونه می توانم تعیین کنم که کدام مدل را انتخاب کنم؟ با تشکر پواسون کلاسیک و مدل‌های رگرسیون اثرات تصادفی پواسون مدل کلاسیک پواسون مدل اثرات تصادفی پواسون تخمین مقدار z ارزش تخمین SE مقدار z Intercept 0.81345 0.14438 5.634 -0.12224 0.46203 -0.26203 -0.263 -0.265 -0.265 - 0.265 -0.265 make 0.81345 -0.4753 0.20696 -2.297 make 3 -0.1502 0.21120 -0.711 -0.31749 0.21425 -1.482 را 4 -0.4758 0.13438 -3.543 -3.543 -0.2924 -0.2920 -3.543 -0.2920 -0.2920 -0.31749 -0.2041 0.08613 -2.370 0.02868 0.09034 0.318 maritalUM -0.8184 0.12471 -6.563 0.34105 0.20314 1.679 1.679 insage3309 -0. -0.20463 0.14363 -1.425 insageY 0.56995 0.12463 4.573 -0.38022 0.19435 -1.956
چگونه از بین مدل اثر تصادفی پواسون و پواسون انتخاب کنیم؟
77265
چگونه می توانم یک مدل رگرسیون را با متغیری که به صورت معکوس ظاهر می شود تفسیر کنم؟
28618
اجازه دهید $Q_p$ یک کلاس از توزیع‌های احتمال بر روی واقعی‌های غیرمنفی باشد که با $p$ پارامتر شده است، به طوری که $$ Q_p([0,\infty)) = 1. حداکثر و، یعنی اگر $X_1\sim Q_{p_1}$ و $X_2\sim Q_{p_2}$ مستقل باشند، پس $\max(X_1,X_2)\sim Q_{p_3}$.
103014
این یک مثال عالی از تخمین‌گر متغیر ابزاری است: https://www.youtube.com/watch?v=NLgB2WGGKUw در دوره ما، با این حال، آنها در مورد مثال‌ها بسیار مبهم می‌مانند، و صادقانه بگوییم، ما واقعاً به استفاده از آن شک داریم (مطمئناً پس از آن خواندن چند کتاب طالب). آیا نمونه های دیگری می شناسید که بتواند ما را در مورد مفید بودن مدل متقاعد کند؟
نمونه های عالی از برآوردگرهای متغیر ابزاری
85939
من در حال یادگیری PCA با استفاده از R هستم. من از بسته Factorminer استفاده می کنم. برای هدف یادگیری، از داده‌های کتابخانه کد زیر ('FactoMineR') (decathlon) استفاده کردم. نمودار با نگاهی به این مشخص می شود که مؤلفه اصلی اول و دوم 52.73 درصد تنوع داده ها را توضیح می دهند. اما من مطمئن نیستم که چگونه می توان همبستگی متغیرها را با دیدن این نمودار تفسیر کرد. آیا می توانید متخصص لطفا به من کمک کنید تا بفهمم چگونه این نمودار همبستگی را تفسیر کنم؟
چگونه نمودار همبستگی را تفسیر کنیم؟
79606
احتمال مشترک و مشروط
28612
تعجب می کنم که این نمودار تجزیه و تحلیل نمودار لوبیا به چه معناست
79553
من در زمینه مهندسی مقالاتی را دیده ام (یک مثال) که از توزیع های نرمال یا لگ نرمال برای مدل سازی نتایج گسسته استفاده می کنند. به طور معمول، متغیر توضیحی (به فواصل مساوی) درج می‌شود تا به هر نقطه اجازه دهد تا احتمال تعلق به یک نتیجه معین را نشان دهد (یعنی تعداد نقاط در bin/total، برای هر bin). سپس مجموعه احتمالات به‌دست‌آمده به‌صورت زیر متعلق به یک توزیع نرمال (lognormal) فرض می‌شود: $$ P(Y) = \phi[((\log)X-\mu) / \sigma]، $$ بنابراین $$ X = \sigma\phi^{-1} + \mu. $$ که به آنها اجازه می دهد تا پارامترهای توزیع را با استفاده از رگرسیون OLS ارزیابی کنند. به دلیل رفتار معکوس تابع توزیع نرمال در 0 یا 1، آنها همچنین باید تمام نقاطی را که چنین احتمالاتی دارند رد کنند، که بدیهی است که منجر به عدم استفاده از داده های زیادی می شود و این یک موضوع است. نتایج گسسته بعلاوه باید با استفاده از توزیع های مناسب، یعنی دو جمله ای و چند جمله ای، مدل سازی شوند. اما من نمی توانم از سایر کاستی های استفاده از چنین روشی برای نتایج گسسته خلاص شوم، احساس می کنم باید بسیاری از آنها وجود داشته باشد. آیا کسی می تواند بینش بیشتری ارائه دهد؟
89049
من در محاسبه احتمال یک سری زمانی با خطاهای AR(1) مشکل دارم. من ماتریس کوواریانس خود را مطابق صفحه 2 (http://cran.r-project.org/doc/contri...regression.pdf) با استفاده از کتابخانه mvtnorm و تابع چگالی نرمال چند متغیره dmvnorm() ایجاد می کنم. در اینجا چند کد مثال آورده شده است: library(mvtnorm) # ایجاد یک سری زمانی پایه با AR(1) خطاها: t <- 1:100 error <- as.numeric(arima.sim(n = length(t), list(ar = c(0.8897))، sd = 10)) سری <- 5*t + خطا # مجموعه را با استفاده از یک مدل خطی پایه با فرض اینکه خطاها IID هستند مطابقت دهید Normal naive.model <- lm(series ~ t -1) # باقیمانده باقیمانده را بررسی و مدل کنید. ، include.mean=F) # ماتریس کوواریانس را بسازید، با فرض اینکه واریانس فرآیند (10^2) سیگما شناخته شده است <- diag(length(t)) sigma[(abs(row(sigma)-col(sigma)) == 1)] = as.numeric(coef(residual.model)) sigma <- sigma*10^2 # محاسبه تراکم MVN... dmvnorm(سری، t*coef(nive.model)، سیگما، log=T) بدون شکست، پیغام خطای زیر را دریافت می کنم: پیام هشدار: در log(eigen(sigma, symmetric = TRUE, only.values ​​= TRUE)$values) : NaNs تولید شده است. شایان ذکر است که ماتریس زیر (https://stat.ethz.ch/pipermail/r-hel...ay/131728.html) کار می کند، اما فکر می کنم در واقع برای یک فرآیند MA(1) است. به جای یک فرآیند AR(1). من این پیام را جمع‌آوری کردم به این معنی است که ماتریس کوواریانس پیشنهادی ممکن است معکوس نباشد. این گفت که من در مورد چگونگی ادامه کار گیر کرده ام و از هر فکری بسیار قدردان خواهم بود. خیلی ممنون،
خطا در محاسبه احتمال سری زمانی MVN با خطاهای AR(1) در R
92397
تبدیل همبستگی اسپیرمن به عدم تشابه اقلیدسی
47590
من به تازگی شنیده ام که انتخاب وزن اولیه یک شبکه عصبی از محدوده $(\frac{-1}{\sqrt d} , \frac{1}{\sqrt d})$ ایده خوبی است که در آن $ d$ تعداد ورودی های یک نورون معین است. فرض بر این است که مجموعه ها نرمال شده اند - میانگین 0، واریانس 1 (نمی دانم که آیا این مهم است). چرا این ایده خوبی است؟
وزن اولیه خوب در یک شبکه عصبی چیست؟
47597
من می‌خواهم احتمال باران را بر اساس پارامترهای آب و هوای اندازه‌گیری‌شده مانند دما، رطوبت و غیره پیش‌بینی کنم. اجازه دهید به این نپردازیم که چرا می‌خواهم این کار را انجام دهم، علی‌رغم اینکه وب‌سایت‌های هواشناسی قبلاً احتمال باران را منتشر کرده‌اند. من می خواهم این را با استفاده از رگرسیون لجستیک پیاده سازی کنم. من داده های آب و هوای سال 2012 را دارم، هر 15 دقیقه برای هر روز. همچنین تاریخ و ساعت بارندگی را می دانم (برچسب بله/خیر). بردار ویژگی شامل ترکیبی از پارامترهای آب و هوا (دما، فشار اتمسفر، سرعت باد، رطوبت) برای t0، t0-15 دقیقه و t0-30m در صورت بارندگی در t0 است. بنابراین، من می توانم مجموعه داده های یادگیری تحت نظارت خود را با مثال های مثبت ایجاد کنم. با این حال، من در مورد چند مثال منفی که باید انتخاب کنم سردرگم هستم؟ بردار ویژگی منفی به روشی مشابه به دست می آید اما زمانی که t0 باران نداشته باشد. سؤالات من این است: 1. آیا باید تعداد مساوی مثال مثبت و منفی را انتخاب کنم؟ آیا یادگیری من به چند نمونه از هر دسته در مجموعه آموزشی خود بستگی دارد؟ 2. اگر یادگیری به تعداد مثال های مثبت و منفی بستگی دارد، چند مثال منفی را باید انتخاب کنم؟ من می‌دانم که راه‌های زیادی برای انجام این پیش‌بینی وجود دارد، اما لطفاً سعی کنید فقط به سؤالات مربوط به رگرسیون لجستیک پاسخ دهید. من به دنبال رویکردهای دیگر نیستم.
رگرسیون لجستیک: نحوه انتخاب نمونه های منفی برای مجموعه آموزشی
91891
من از یک مدل Lin-log استفاده می‌کنم و در حال حاضر در حال انجام تست‌هایی برای برازش رگرسیون هستم. من قبلا از آزمون R-squared، Q-Q plot و تست Shapiro استفاده کردم. آیا تست دیگری وجود دارد که بتوانم در R برای مدل خود استفاده کنم؟ با تشکر
تست های خوب بودن تناسب در یک مدل خطی (lin-log)
47040
> مدل رگرسیون را در نظر بگیرید > > $$ Y_i = ax_i^3 + \epsilon_i, \hspace{1cm} i = 1,...,n$$ > > با $\epsilon_i \sim N(0, \sigma^2 )$ و $\epsilon_i، \epsilon_j$ > مستقل برای $i \neq j$. تابع log likelihood را برای این مدل > بنویسید. $a$ متغیر دیگری است، نه یک متغیر. به دلایلی در پاسخ ها از PDF برای توزیع عادی برای این کار استفاده می کنند. چرا؟ چگونه می دانید که این همان چیزی است که استفاده می کنید و نه فقط مدل رگرسیون؟ ویرایش: این یک بازنگری است، یک سوال در مقاله گذشته. (یعنی با توضیحات برچسب، این تکلیف است.)
تابع log-likelihood را برای این مدل بنویسید
83192
پس از اتمام دوره یادگیری ماشینی Coursera، می خواهم تئوری ها را در عمل پیاده کنم. پیشاپیش از راهنمایی یک مبتدی متشکرم! به طور خاص، من مشتاقانه منتظر راهنمایی هایی هستم که چگونه: 1. برخی از داده های طولی نمونه که گروه بندی k-means را نشان می دهد. 2. چگونه بعد زمانی را در تجزیه و تحلیل لحاظ کنیم؟ بگویید اگر من داده‌های 10 روزه را جمع‌آوری کنم و هر 5 دقیقه یک بار طولانی/لات را ضبط کنم، انتظار می‌رود در ساعت x هر روز یک الگو وجود داشته باشد. ممنون، سیمون
طولی k به معنای داده های نمونه است
83191
به نظر عاقلانه است که معمولاً شیب‌های تصادفی را علاوه بر شیب‌های ثابت برای پیش‌بینی‌کننده‌های سطح پایین‌تر، همانطور که در برخی از سؤالات قبلی توضیح داده شد، اضافه کنیم: چه زمانی نباید *نباید* اجازه دهم یک اثر ثابت در سطوح یک اثر تصادفی در یک مدل اثرات مختلط متفاوت باشد؟ متغیر ضرایب گروه در lme4 سوال من تفسیر اهمیت اثر ثابت است زمانی که بسیار معنی دار است بدون اینکه شیب ها تغییر کنند اما وقتی شیب ها تغییر کنند اهمیت خود را از دست می دهد. این پیش‌بینی‌کننده آشکارا مهم است، اما آیا فقط برای برخی از اثرات سطح بالایی مهم است و نباید به جمعیت مورد علاقه تعمیم داده شود؟
شیب های مختلف در یک مدل اثرات مختلط و اهمیت
47041
سوال این است: > یک شرکت در حال آزمایش 3 سیستم گرمایشی نصب شده در 3 انبار یکسان > یک کارخانه جدید است. سیستم ها به مدت 5 روز مورد آزمایش قرار گرفتند و افزایش دما پس از 3 ساعت مجدداً کدگذاری شد. یک جدول ANOVA برای داده های داده شده ایجاد کنید. من فکر میکردم چون 3 سیستم گرمایشی رو تست میکردیم از 3 way anova استفاده کنیم ولی در جوابها میگه 1 way. آیا این یک راه است زیرا ما فقط سیستم های گرمایشی را آزمایش می کنیم. اگه گرمایش و عایق رو تست میکردیم (مثلا) دو طرفه میشد؟
چگونه تشخیص دهیم که آنالیز واریانس یک طرفه، دو طرفه یا سه طرفه است؟
47045
من مجموعه داده پانلی از پاسخ‌های نظرسنجی را دارم که توسط بانک جهانی در مصر در سال‌های 2004، 2006 و 2008 جمع‌آوری شده است. . مشخصات کلی در این مورد چه خواهد بود؟ من می خواهم بدانم که آیا من موظف به استفاده از اثرات ثابت کشور در اینجا حتی در مورد یک کشور هستم.
تجزیه و تحلیل داده های تابلویی با مدل پروبیت مرتب
83194
من سعی کردم از میانگین متحرک غیرمتمرکز استفاده کنم، یعنی فقط از مقادیر گذشته با تنظیم گزینه center = FALSE استفاده کنید، اما متأسفانه شما نتایج متمرکز را دریافت می کنید. آیا کسی می تواند شکست را در اینجا در تابع ma تشخیص دهد؟ > getAnywhere(ma) یک شیء منطبق با 'ma' یافت شد که در > پکیج مکان های زیر یافت شد: فضای نام پیش بینی:پیش بینی با تابع مقدار (x, order, center = TRUE) { tt <- 1:length(x) if (order%%2) { temp1 <- ts(ksmooth(tt، x، x.points = tt، پهنای باند = سفارش - 1)$y) j <- trunc(order/2) temp1[c(1:j، طول(x) - (1:j) + 1)] <- NA } else { temp1 <- ts(ksmooth(tt، x، x.points = tt + 0.5، پهنای باند = سفارش - 1)$y) j <- trunc(order/2) temp1[c(1:(j - 1)، طول(x) - (1:j) + 1)] <- NA if (مرکز) { temp2 <- ksmooth(tt، x، x.points = tt - 0.5، پهنای باند = سفارش - 1)$y temp2[c(1:j، طول(x) - ( 1:(j - 1)) + 1)] <- NA temp1 <- ts((temp1 + temp2)/2) } } tsp(temp1) <- tsp(x) return(temp1)}
استفاده از هموارسازی میانگین متحرک در بسته پیش بینی
15448
مشکل: دو نفر باید بین ساعت 15 تا 16 به یک مکان برسند. هر دو در زمان‌های تصادفی در یک ساعت می‌رسند و فقط ده دقیقه می‌مانند. از آنجایی که آنها فقط یک بار می روند، احتمال اینکه در آن ساعت ملاقات کنند چقدر است؟ من پاسخ صحیح این مشکل را اینجا پیدا کردم (فرمول دوم P2 = ...): http://www.mathpages.com/home/kmath124/kmath124.htm وصل کردن (1/6) برای هر دو w1 و w2 11/36 است که پاسخ صحیح است. اما من نمی فهمم آنها چگونه به این نتیجه رسیدند و از چه فرمولی آن را استخراج کردند. هر گونه کمکی در توضیح این موضوع بسیار قدردانی خواهد شد!
احتمال ملاقات دو نفر
83195
بر اساس تعریف ویکی‌پدیا، من معتقدم که _مدل آماری_ به نوع خاصی از توزیع‌ها، مانند توزیع‌های گاوسی تک متغیره به طور کلی اشاره دارد. آیا اصطلاحات آماری خاصی برای نتیجه اعمال پارامترهای خاص در یک مدل مشخص وجود دارد؟ برای مثال، اگر $\mu = 5.48$ و $\sigma = 0.3$، آنگاه این یک توزیع گاوسی خاص است. من فرض می‌کنم که مدل آماری نامیده نمی‌شود، اگرچه ممکن است تلاشی برای خلاصه کردن یا «مدل‌سازی» (به معنای غیرمعمول) برخی از مجموعه داده‌ها باشد. به طور شهودی به نظر می رسد که این یک مدل نمونه است، اگرچه من به دنبال اختراع اصطلاحات خود نیستم مگر اینکه مجبور باشم.
اصطلاحات مدل سازی آماری
47048
من یک فرمول دارم که می گوید برای بررسی DF برای باقیمانده ها، باید (n-1)IJ را انجام دهم. در اینجا I و J تعداد سطوح در دو فاکتور وجود دارد، اما من سرنخی ندارم که n چیست. فکر می کردم حجم نمونه کل است اما وقتی این کار را انجام می دهم پاسخ اشتباهی دریافت می کنم. سپس فکر کردم ممکن است تعداد افراد در هر گروه باشد، اما باز هم این پاسخ اشتباهی به من می دهد. کسی میتونه کمکم کنه؟
نحوه محاسبه درجات آزادی برای باقیمانده در آنووا 2 طرفه
35628
استاندارد/عادی کردن توزیع قانون توان برای یادگیری ماشین
114172
فرض کنید $X_1,X_2,\ldots, X_n$ دنباله ای از متغیرهای تصادفی مستقل برنولی با (مثلا) $$X_i\sim \begin{cases} \mathrm{Ber}(0.1) و 1\leq i\leq an \ \\ \mathrm{Ber}(0.2) & an+1\leq i\leq n\end{موارد},$$ برای برخی $a$ که برای ما ناشناخته است و رضایت بخش است، مثلاً $0.1\leq a\leq 0.9.$ چقدر دقیق می توانیم نقطه تغییر $a$ را با استفاده از دانش تحقق دنباله $X_1,X_2,\ldots, X_n$ شناسایی کنیم؟ هر مرجعی مفید خواهد بود. با تشکر
47594
من سعی می‌کنم یک رگرسیون OLS با چندین متغیر مستقل انجام دهم و می‌خواهم نحوه تفسیر مقادیر p را از انجام آزمون‌های t روی متغیرهای مستقل درون رگرسیونم بهتر درک کنم. به عنوان مثال، نتیجه من این است: نتایج رگرسیون OLS ====================================== ======================================= واحد متغیر: y R-squared: 0.612 مدل: OLS Adj. R-squared: 0.497 روش: حداقل مربعات F-آمار: 5.353 تاریخ: جمعه، 11 ژانویه 2013 مشکل (آمار F): 0.00390 زمان: 16:12:03 Log-Likelihood: -239.61 - شماره مشاهدات: 29 AIC: 23 A. Df باقیمانده: 17 BIC: 498.0 Df مدل: 5 ========================================== =================================== coef std err t P>|t| [95.0% Conf. داخلی] ---------------------------------------------- ------------------------------- const 4.268e+05 1.85e+04 23.092 0.000 3.88e+05 4.66e+05 x1 -70.4536 2230.755 -0.032 0.975 -4776.936 4636.028 x2 -2.384e+04 1.25e+04 -1.905 -1.905 -50.50. x3 -3821.8439 3848.891 -0.993 0.335 -1.19e+04 4298.607 x4 4030.8183 2295.228 1.756 0.097 -811.683 -8585. 1.73e+04 -2.282 0.036 -7.61e+04 -2977.451 =================================== ========================================== Omnibus: 2.870 Durbin-Watson: 1.674 Prob(Omnibus): 0.238 Jarque-Bera (JB): 1.326 Skew: -0.227 Prob(JB): 0.515 Kurtosis: 4.085 Cond. شماره 21.8 ============================================== ===============================================================. (به عنوان مثال p-value > 0.05) همانطور که در مورد pvalue=0.975 متغیر x1 است، می توان گفت که این رگرسیون خاص هیچ اطلاعات اضافی را از وجود این متغیر در آنجا به دست نمی آورد. اگر دچار سوءتفاهم یا تعمیم بیش از حد هستم، به من اطلاع دهید. چیز دیگری که من را گیج می کند همان متغیر x1 است، زمانی که من یک رگرسیون را فقط با x1 و x5 اجرا می کنم، مقدار p-value = 0.05 x1 است. من حدس می‌زنم که من این را اینطور تفسیر می‌کنم که x1 اطلاعات مفیدی دارد، اما وقتی با اطلاعاتی که توسط x2، x2 و x4 با هم مقایسه می‌شوند، x1 مفید نیست. **در رابطه با انتخاب ویژگی**، آیا درست است که تمام زیرمجموعه های مختلف x1 تا x5 را امتحان کنید، آنهایی را که حاوی متغیر مستقلی هستند که مقدار p-value آن > 0.05 است را حذف کنید، و _سپس از ترکیب های باقیمانده با اعتبار متقاطع برای یافتن مقدار استفاده کنید. بهترین پارامترهای مدل هدف نهایی من این است که انتخاب ویژگی را از مجموعه بزرگی از متغیرها انجام دهم، و شاید p-value بهترین چیزی برای استفاده برای این کار نباشد. در هر صورت، من دوست دارم این مقادیر p را بهتر درک کنم، و اگر روش انتخاب ویژگی مورد علاقه ای دارید، مایلم آن را نیز بشنوم. با تشکر
چگونه باید مقادیر p (به عنوان مثال t-test) را در رگرسیون ها تفسیر کنم و آیا می توانم از آنها برای انتخاب ویژگی استفاده کنم؟
91899
![leptokurtic](http://i.stack.imgur.com/bgosi.png) من داده های دو توزیع لپتوکورتیک را دارم. من می‌خواهم از آزمون f برابری واریانس‌ها استفاده کنم، اما همانطور که می‌دانم باید این فرض را برآورده کند که «دو جمعیت به طور معمول توزیع شده‌اند». آیا توزیع لپتوکورتیک هنوز به عنوان توزیع نرمال در نظر گرفته می شود؟ آیا هنوز هم می توانم از آزمون f استفاده کنم؟ با تشکر
اگر توزیع من لپتوکورتیک باشد می توانم از آزمون F برای آزمایش برابری واریانس ها استفاده کنم؟
41492
استفاده از نقشه های گرما/کنتور هنگام ارائه یافته های EEG فرکانس زمانی بسیار رایج است. طرح رنگی که اغلب انتخاب می شود (و موردی که من دوست دارم و از آن استفاده می کنم) طرح رنگ جت است (به عنوان مثال، جستجوی تصویر گوگل با فرکانس زمانی EEG را ببینید). من نمی‌دانم که آیا طرح‌های رنگی بهتری برای ارائه این طرح‌ها و/یا دستورالعمل‌هایی برای ارائه چنین نقشه‌هایی وجود دارد. به عنوان مثال، از کتابخانه پایه R #Volcano x <- 10*(1:nrow(volcano)) y <- 10*(1:ncol(volcano)) image(x, y, volcano, col = terrain.colors(100) , axes = FALSE) # با رنگ جت jet.colors <- colorRampPalette(c(آبی نیمه شب، آبی، فیروزه‌ای، سبز1، زرد، نارنجی، قرمز، تیره)، فضا = آزمایشگاه) تصویر (x، y، آتشفشان ، col = jet.colors (100)، محور = FALSE)
موثرترین استفاده از رنگ در نقشه های گرما/کانتور
47049
من مطمئنم که استادم این سوال را در امتحان بعدی از من خواهد پرسید، اما در یادداشت های او چیزی در این مورد وجود ندارد. تنها چیزی که می‌دانم این است که این تابع پیوند با مدل چندجمله‌ای متفاوت است (در مورد نسخه سفارش‌داده شده او هیچ نظری ندارم). من حتی متوجه نشدم که آیا این مدل خطر متناسب به یک نسخه مرتب یا نامرتب اشاره دارد، صادقانه بگویم یادداشت‌ها کاملا گیج‌کننده هستند.
خطر تناسبی چند جمله ای GLM -- تابع پیوند متعارف چیست؟
109747
من از تجزیه و تحلیل تشخیص خطی (LDA) از کتابخانه یادگیری ماشینی (Python) برای کاهش ابعاد استفاده می کردم و در مورد نتایج کمی کنجکاو بودم. **من الان متعجبم که LDA در scikit-learn چه کاری انجام می دهد تا نتایج متفاوت به نظر برسند، به عنوان مثال، یک رویکرد دستی یا یک LDA انجام شده در R.** اگر کسی بتواند اطلاعاتی در اینجا به من بدهد عالی است. ** آنچه اساساً بیشتر نگران کننده است این است که نمودار اسکیت همبستگی بین دو متغیر را نشان می دهد که در آن باید همبستگی 0** وجود داشته باشد. برای آزمایش، از مجموعه داده عنبیه استفاده کردم و 2 متمایز کننده خطی اول به این شکل به نظر می‌رسند: ## IMG-1 LDA از طریق scikit-learn ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Wgd2J .png) این اساساً با نتایجی که در اسناد scikit-learn اینجا یافتم مطابقت دارد. اکنون، مرحله به مرحله LDA را مرور کردم و یک طرح متفاوت دریافت کردم. من روش‌های مختلفی را امتحان کردم تا بفهمم چه خبر است: ## IMG-2 LDA روی داده‌های خام (بدون مرکز، بدون استانداردسازی) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ 4OBlZ.png) و اگر ابتدا داده ها را استانداردسازی کنم (نرمال سازی امتیاز z؛ واریانس واحد) در اینجا رویکرد گام به گام خواهد بود. من همین کار را فقط با میانگین وسط انجام دادم، که باید به تصویر نسبی یکسانی منجر شود (و واقعاً انجام شد). ## IMG-3 گام به گام LDA پس از میانگین مرکزی یا استانداردسازی ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bTfKH.png) ## IMG-4 LDA در R (تنظیمات پیش‌فرض) WLDA در IMG-3 که در آن داده‌ها را در مرکز قرار دادم (که رویکرد ترجیحی است) نیز دقیقاً مشابه چیزی است که در یک پست پیدا کردم. کسی که LDA را در R انجام داده است ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/XGtPH.png) ## کد برای مرجع من نمی‌خواستم همه کدها را اینجا بچسبانم، اما دارم آن را به عنوان یک **نوت بوک IPython** در اینجا به چندین مرحله که من استفاده کردم (به پایین مراجعه کنید) برای طرح LDA آپلود کرد. ### مرحله 1: محاسبه بردارهای میانگین d بعدی ### مرحله 2: محاسبه ماتریس های پراکندگی ### 2.1 ماتریس پراکندگی درون کلاس $S_W$ ماتریس **پراکندگی درون کلاس** ماتریس $S_W$ محاسبه می شود با معادله زیر: $S_W = \sum\limits_{i=1}^{c} S_i$ که در آن $S_i = \sum\limits_{\pmb x \در D_i}^n (\pmb x - \pmb m_i)\;(\pmb x - \ pmb m_i)^T$ (ماتریس پراکندگی برای هر کلاس) ### 2.1 ماتریس پراکندگی بین کلاس $S_B$ و $\pmb m_i$ بردار میانگین $\pmb m_i = \frac{1}{n_i} \sum\limits_{\pmb x \in D_i}^n \; \pmb x_k$ **ماتریس پراکندگی بین کلاس** $S_B$ با معادله زیر محاسبه می شود: $S_B = \sum\limits_{i=1}^{c} (\pmb m_i - \pmb m) ( \pmb m_i - \pmb m)^T$ که در آن $\pmb m$ میانگین کلی است. ### مرحله 3. حل مسئله مقدار ویژه تعمیم یافته برای ماتریس $S_{W}^{-1}S_B$ ### 3.1. مرتب سازی بردارهای ویژه با کاهش مقادیر ویژه ### 4.2. انتخاب بردارهای ویژه _k_ با بزرگترین مقادیر ویژه با ترکیب دو بردار ویژه با بالاترین مقادیر ویژه برای ساخت ماتریس بردار ویژه $d \times k$-بعدی $\pmb W$ ### مرحله 5: تبدیل نمونه ها به فضای فرعی جدید $\pmby = \pmb W^T \times \pmb x$.
چرا نتایج LDA یادگیری اسکیت پایتون با LDA در R یا رویکرد گام به گام متفاوت است
109745
من جدولی دارم که شبیه این است: روش نتیجه 3 2 1 0 1 x_11 2 x_21 .... 3 x_31 4 x_41 x_44 هر x_ij نشان دهنده یک تعداد است. همچنین برای هر روش 140 تست وجود داشت. بنابراین \sum_j (x_ij) = 140. می خواهم ببینم کدام روش بهترین است. نتیجه 3 بهتر از نتیجه 2 است که بهتر از نتیجه 1 و غیره است. اولین کاری که فکر کردم انجام دهم تست کای اسکوئر استقلال بود. این به من می گوید که آیا ارتباطی بین نتیجه و روش وجود دارد یا خیر. البته، من می‌توانم، برای هر روش، نتیجه را به دو گروه تقسیم کنم (مثلاً گروه 1 شامل فقط نتیجه 3 و گروه 2 شامل نتایج 2-0 است) و سپس درصدها را رتبه‌بندی کرده و آزمایش کنم تا ببینم تفاوت دارند یا خیر. با این حال، آنچه من واقعاً به دنبال آن هستم این است که به نوعی بفهمم کدام روش بهترین است. یکی از فکرهایی که داشتم این بود که برای هر روش برای رسیدن به میانگین وزنی، چندین نتیجه را بشمارم. به عنوان مثال، برای روش 1، من x_11 *3 + x_12 *2 +...+x_14*0 را ضرب می کنم. با این حال، چگونه می توانم آن مقادیر را مقایسه کنم؟ استفاده از نوعی تست جایگشت؟ با تشکر
نحوه ارزیابی 4 روش با 4 نتیجه ممکن