_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
74153
من از چارچوب فیلتر متوالی برای تخمین میانگین سرعت در بخش های مختلف آزادراه از سرعت های نقطه ای به دست آمده از چندین وسیله نقلیه استفاده می کنم. یک طول مایل از یک بزرگراه و یک فاصله زمانی 2 دقیقه ای را در نظر بگیرید. اندازه‌گیری سرعت را از $n$ وسایل نقلیه (از برنامه‌ای مانند Waze) در این بخش در این بازه زمانی دریافت می‌کنم. من میانگین سرعت در بخش را به عنوان میانگین این اندازه گیری $n$ تخمین می زنم. اجازه دهید این تخمین را $\bar{v}$ بنامیم. من، به نوعی، در گذشته، میانگین سرعت واقعی $v$ در بخش را می دانم. بنابراین، من یک مدل مشاهده را به صورت $$ \bar{v} = \alpha v + \beta + \mathcal{N}(0,\sigma^2)$$ تعریف کردم در اینجا $\alpha$ و $\beta$ اسکالر هستند. تعیین می شود، همانطور که $\sigma$ است. این فقط یک مدل رگرسیون خطی بین $\bar{v}$ و $v$ است و بنابراین من می‌توانم این پارامترها را تخمین بزنم. تا الان مشکلی نیست! BTW، روشی که سیستم من پیاده‌سازی می‌شود، **باید** $\bar{v}$ را پیدا کنم و سپس از آن به عنوان یک مشاهده برای تخمین $v$ استفاده کنم. من نمی توانم مستقیماً از اندازه گیری سرعت $n$ برای تخمین $v$ استفاده کنم. اکنون، می دانم که $\bar{v}$ از اندازه گیری های $n$ محاسبه شده است. بنابراین مهم است که $n = 5$ یا $n = 30$. من به مقدار $\bar{v}$ که از 30 اندازه گیری به دست می آید بیشتر از فقط 5 اندازه گیری اطمینان دارم. من می خواهم از این اطلاعات در مدل مشاهده خود استفاده کنم. به عبارت دیگر، اکنون می‌خواهم $\bar{v}$ را به‌عنوان یک اندازه‌گیری _غیر دقیق در نظر بگیرم. بنابراین به جای یک مقدار برای $\bar{v}$، مقدار و همچنین یک انحراف استاندارد $\delta$ را دریافت می‌کنم (از این رو فرض می‌کنیم که $\bar{v}$ معمولاً با واریانس $\delta^2$ توزیع می‌شود. ). مقدار $\delta$ مشخص است. چگونه می توانم این اطلاعات را در مدل مشاهده بگنجانم و چگونه می توانم $\alpha$، $\beta$ و $\sigma$ را محاسبه کنم؟
اندازه گیری های نادقیق و مدل مشاهده
25451
من چهار مجموعه داده دارم: D1، D2، D3 و D4. هر مجموعه داده حاوی عناصر ( ** _اندازه نمونه متفاوت در هر مجموعه داده_**) است که می توان آن را با 100 دسته توصیف کرد (1 نشان دهنده این است که عنصر به آن دسته تعلق دارد و 0 نشان دهنده غیر آن است). بنابراین به عنوان مثال، عنصر D1 رده 1 رده 2 رده 3 .... 1 1 0 1 2 0 1 1 3 1 1 1 .. .. عنصر D2 رده 1 رده 2 رده 3 .... 0 1 3 1 0 1 .. .. دسته D3 عنصر 1 رده 2 رده 3 .... 1 1 0 1 2 0 1 0 3 0 1 1 .. .. می خواهم برای هر گونه تفاوت آماری در فرکانس دسته ها در هر مجموعه داده آزمایش کنم. آیا کسی می تواند راهنمایی کند که چگونه باید به این موضوع برخورد کرد؟ فکر اولیه من این است که فرکانس های هر دسته را به دست بیاورم و یک ردیف به دست بیاورم که مجموعه داده ای مانند این را نشان می دهد: مجموعه داده f (دسته 1) f (رده 2) f (رده 3) .... D1 20 30 10 D2 10 10 40 D3 20 40 15 و سپس بررسی کنید تا هر گونه اهمیت آماری را ببینید اما هنوز مشخص نیست که چه چیزی مفید خواهد بود در درک سوال من به زبان انگلیسی ساده درک تفاوت بین مجموعه داده ها است. پیشنهادی دارید؟
مشخص کردن مجموعه داده ها و تخمین تفاوت های آماری معنی دار؟
84042
من از دو روش مختلف برای به دست آوردن فراوانی چندین رویداد استفاده می کنم. آیا می توانم از نمودار پراکندگی برای ترسیم فراوانی یک رویداد به دست آمده با روش A در برابر رویداد به دست آمده توسط روش B استفاده کنم؟ و پس از آن، ضریب همبستگی را گزارش کنید تا بیان کنید که از آنجایی که آنها به شدت همبستگی دارند، بسته به منابع موجود می توان آنها را به جای یکدیگر مورد استفاده قرار داد؟ یا باید از نمودار بلند-آلتمن یا تحلیل رگرسیون حداقل محصولات استفاده کنم؟
چگونه باید دو روش را برای به دست آوردن فراوانی چندین رویداد مقایسه کنم؟
33064
من از یک GAM در R برای مقایسه داده های سری زمانی از 3 کشور استفاده می کنم. مجموعه داده ها اندازه گیری ساعتی برای یک سال است. هدف اصلی در اینجا این است که نشان دهیم داده ها در چه زمانی از روز و روز سال به خوبی با سری میانگین مطابقت دارند. اسکریپت زیر تلاش من را نشان می‌دهد: ## اندازه‌گیری ازن برای سه کشور در اروپا ## شباهت‌های بین سری‌های زمانی نیاز(plyr) require(lattice) require(mgcv) TopFolder <- list(http://www.nilu.no /projects/ccc/onlinedata/ozone/CZ03_2009.dat http://www.nilu.no/projects/ccc/onlinedata/ozone/CY02_2009.dat http://www.nilu.no/projects/ccc/onlinedata/ozone/BE35_2009.dat) # # ایجاد متغیر برای داده های داده = ldply (TopFolder, header = TRUE, read.table, sep = , skip = 3) ## تعریف سطوح ازن ازن <- data$Value Ozone[Ozone==-999] <- NA Ozone <- data.frame(Ozone) ## define Datetime - نیاز به الحاق آرایه ها DateTime <- paste(data $Date,data$Hour, sep = ) تاریخ <- as.POSIXct(DateTime, قالب = %d.%m.%Y %H:%M) ## تعریف کشورها Countries <- c(Czech, Cyprus,Belgium) Country <- data.frame(Country = rep(Countries, هر = 8760)) ## به یکدیگر متصل شوند Dat <- cbind(Ozone, Country = Country) Dat <- transform(Dat, Doy = as.numeric(format(Date,format = %j))، Tod = as.numeric(format(Date,format = %H))، DecTime = rep(seq(1,365, length = 8760),by = 3)) ## نمودار xyplot داده اوزون (Ozone~DecTime | کشور، داده = داده، نوع = l، col = 1، نوار = تابع(bg = 'سفید'،...)strip.default(bg = 'سفید'،...)) ## مدل افزایشی تعمیم یافته mod1 <- gam(Ozone ~ Country + s(Doy,bs = cc, k = 20) + s(Doy, by = Country, bs = cc, k = 20) + s(Tod,bs = cc، k=7) + s(Tod،by = کشور، bs = cr، k=7)، داده = داده، روش = ML) نمودار (mod1، pages= 1,scale=0,shade=TRUE) xyplot(resid(mod1) ~ Doy | Country, data = Dat, type = c(l,mooth)) mod2 <- gamm(Ozone ~ کشور + s(Doy,bs = cc، k = 20) + s(Doy، توسط = کشور، bs = cc، k = 20) + s(Tod,bs = cc، k=7 ) + s(Tod،by = کشور، bs = cr، k=7)، داده = داده، روش = ML، همبستگی = corAR1(فرم = ~ DecTime | کشور)) یکی از مشکلات این است که من من از یک مدل افزایشی با خطاهای همبسته استفاده می‌کنم، یعنی در هر سری زمانی اندازه‌گیری‌های ساعتی، غلظت بالا با غلظت بالایی دیگر دنبال می‌شود. این را می توان با افزودن یک ماتریس همبستگی به GAM برطرف کرد: با این حال، R یک خطا را نشان می دهد زیرا قادر به دریافت رم بیشتری از سیستم عامل نیست. بنابراین، برای مقابله با این موضوع باید: (1) از mod1 - متناسب کردن یک مدل سری زمانی (mod3) به باقیمانده ها (2) acf(1) را از mod3 (2) بدست آوریم (2) از acf(1) برای ایجاد کوواریانس استفاده کنیم. ماتریسی که سپس می‌توانیم آن را به mod2 منتقل کنیم، بنابراین ماتریس همبستگی را ساده می‌کنیم. هر گونه راهنمایی در مورد نحوه انجام برخی یا همه سه مرحله فوق بسیار قدردانی خواهد شد. اگرچه فکر می کنم اولین نکته ای که مطمئن نیستم این است که چگونه می توان باقی مانده ها را برای کشورهای مختلف در mod1 استخراج کرد؟
یک ماتریس کوواریانس برای GAM بسازید
41242
من در حال تجزیه و تحلیل داده هایم در مورد رابطه بین معنویت و حالات عاطفی منفی (افسردگی، اضطراب و استرس) با استفاده از یک رگرسیون خطی چندگانه سلسله مراتبی هستم. همه چیز با نتایج خوب به نظر می رسید تا اینکه علائم ضرایب رگرسیون را بررسی کردم!! نتایج حاکی از رابطه مثبت بین افسردگی و یک عامل معنویت است که شامل دلیل برای زندگی کردن است. تقریباً تمام تحقیقات در این زمینه نشان می دهد که باید بین این دو عامل رابطه منفی وجود داشته باشد، یعنی سطوح بالاتر افسردگی با سطوح پایین تر دلیل برای زندگی (بدون هیچ گونه اصطلاح تعاملی یا متغیرهای تعدیل کننده) همبستگی دارد. در اینجا مراحلی را که تا به حال در این تجزیه و تحلیل داده های سه قسمتی انجام داده ام (تحلیل اول داده ها - تجزیه و تحلیل مؤلفه های اصلی / قسمت دوم - EFA (تحلیل عامل اکتشافی) / تجزیه و تحلیل داده های دوم - رگرسیون خطی چندگانه سلسله مراتبی انجام داده ام): 1. معنویت ایجاد شده پرسشنامه و داده ها از نمونه جمع آوری شد (189=n). 2. از تجزیه و تحلیل مولفه های اصلی برای شناسایی چند عامل برای استخراج در EFA استفاده کرد. 3. چهار عامل را از EFA استخراج کرد. 4. عوامل شامل سؤالات تغییر شکل یافته بود که جهت پرسشنامه را تغییر داد (یعنی سؤالاتی که «مثبت» بودند به صورت منفی در آمدند). 5. تمام سوالات پرسشنامه استاندارد شده (تبدیل به z-score) برای تصحیح مشکل جهت یابی. 6. حالات عاطفی منفی از نظر نرمال بودن مورد بررسی قرار گرفت. دو حالت از سه حالت عاطفی منفی باید تغییر شکل دهند. 7. 3 رگرسیون خطی چندگانه سلسله مراتبی را با DV = یا افسردگی log، اضطراب گزارش، یا استرس و IVs = سن («بلوک» اول)، چهار عامل معنوی («بلوک» دوم) با استفاده از روش enter اجرا کرد. 8. متوجه شدم که علائم نادرست هستند، بنابراین نسخه‌های تبدیل‌شده ثبت‌شده DVs را با نسخه‌های غیر تبدیل‌شده و نسخه‌های استاندارد شده DV (امتیاز z) مقایسه کردم (به این مقاله مراجعه کنید: The Independent Sign Bias: Gaining Insight from Multiple Linear Regression [PDF] - -> صفحه 1) 9. IV که با معنای زندگی ارتباط دارد، در نسخه غیرتغییر یافته افسردگی نشانه درستی داشت با این حال به نظر می رسد که بین دو IV معنویت با نسخه غیر تبدیل شده یک مشکل خطی وجود دارد که ممکن است علائم را تحت تأثیر قرار دهد!!! (شاخص وضعیت > 15 و نسبت‌های واریانس: 0.81 و 0.40) 10. به همبستگی‌های دو متغیره نگاه کرد تا ببیند آیا نشانه‌ها درست هستند یا خیر، و به طرز عجیبی نشانه‌ها دقیق بودند (این فقط برای نسخه‌های تغییر نیافته سلسله مراتبی صادق بود. رگرسیون خطی چندگانه). هیچ یک از همبستگی ها بالاتر از 0.6 نبود. 11. Age را به عنوان IV حذف کرد تا ببیند آیا تفاوتی ایجاد کرده است یا خیر. این کار را نکرد. 12. IVهای معنویت را یکی یکی با روش گام به گام به جای اینتر حذف کرد و این فقط باعث افزایش میزان همخطی بین متغیرهای باقی مانده در مدل نهایی شد. از هر گونه پیشنهادی در مورد چگونگی تصحیح علائم اشتباه و/یا اگر در تجزیه و تحلیل داده های سه قسمتی خود هر کاری را اشتباه انجام دادم بسیار قدردانی می کنم.
علامت اشتباه در ضرایب رگرسیون - رگرسیون خطی چندگانه سلسله مراتبی
35763
بنابراین من روی یک پروژه جدید کار می کنم که به شبکه های رسمی و غیر رسمی بین مشاغل در همان صنعت می پردازد. یعنی، من به سرمایه گذاری های مشترک، خریدهای کسری، مالکیت سهام اقلیت و روابط هیئت مدیره بین شرکت ها نگاه می کنم. می‌خواهم ببینم آیا می‌توانم وقوع «پیوندهای ضعیف» را شناسایی کنم (Granovetter، 1973)، به معنای پیوندهای بین خوشه‌های به هم پیوسته متراکم. با این حال، مطمئن نبودم که آیا نرم افزاری برای انجام آن نوع خوشه و سپس شناسایی کراوات ضعیف در دسترس است یا خیر؟ من با مدل‌های ERGM و بسته‌های Statnet کاملاً آشنا هستم، اما عملکردی برای این در آن بسته‌ها ندیده‌ام. من ممکن است بتوانم از یک مدل فضای پنهان استفاده کنم (هندکوک، 2006) برای شناسایی خوشه ها و سپس پیوندهای ضعیف چشم، اما این کمی خودسرانه به نظر می رسید - اگرچه ممکن است مجبور شوم به آن متوسل شوم. آیا کسی بسته نرم افزاری یا کد بهتری برای تشخیص خوشه/جامعه و سپس شناسایی پیوندهای ضعیف می شناسد؟
یافتن پیوندهای ضعیف در داده های شبکه
114614
اجازه دهید $H$~$\mathcal{N}(\mu_H,{\sigma_H}^2)$ و $S$~$\mathcal{N}(\mu_S,{\sigma_S}^2)$. $H$ و $S$ به یکدیگر وابسته هستند و کوواریانس آنها ناشناخته است. فرض کنید $G = H - S$ و میانگین و واریانس $G$~$\mathcal{N}(\mu_G,{\sigma_G}^2)$ مشخص باشد. آیا راهی برای تخمین توزیع نرمال چند متغیره بردار $(H,S)$ وجود دارد؟ ببخشید مزاحم شدم، اگر این سوال بی اهمیت است، اما ممنون می شوم کمک کنید. جبشیر
تخمین توزیع چند متغیره متغیرهای وابسته
33069
من با یک موضوع طبقه بندی باینری نظارت شده سروکار دارم. من می خواهم از بسته GBM برای طبقه بندی افراد به عنوان غیر آلوده/آلوده استفاده کنم. من 15 برابر افراد غیر آلوده دارم. می خواستم بدانم که آیا مدل های GBM در مورد اندازه های کلاس نامتعادل آسیب می بینند؟ من هیچ مرجعی برای پاسخ به این سوال پیدا نکردم. سعی کردم با تعیین وزن 1 برای افراد غیر آلوده و وزن 15 برای افراد آلوده، وزن ها را تنظیم کنم، اما نتایج ضعیفی به دست آوردم.
طبقه بندی با GBM در R و اندازه های کلاس نامتعادل
18862
آیا دلیلی آماری وجود دارد که چرا نظریه تحلیل/پاسخ به طور گسترده‌تری به کار گرفته نمی‌شود؟ به عنوان مثال، اگر معلمی یک آزمون چند گزینه ای 25 سوالی بدهد و متوجه شود که همه به 10 سوال پاسخ صحیح داده اند، 10 سوال با کسر بسیار پایین (مثلا 10٪) پاسخ داده شده است و 5 سوال باقی مانده توسط تقریبا 50٪ از افراد پاسخ داده شده است. . آیا منطقی نیست که نمرات را دوباره وزن کنیم تا به سوالات سخت وزن بیشتری داده شود؟ و با این حال، در آزمون های دنیای واقعی تقریباً همیشه همه سؤالات به یک اندازه وزن دارند. چرا؟ پیوند زیر شاخص‌های تبعیض و سایر معیارهای دشواری را برای انتخاب بهترین سؤال مورد بحث قرار می‌دهد: http://fcit.usf.edu/assessment/selected/responsec.html به نظر می‌رسد که روش تعیین شاخص تمایز سؤالات این است. فقط به روشی آینده نگر استفاده می شود (مثلاً اگر سؤالی به خوبی تمایز ندارد، آن را پرتاب کنید). چرا آزمایش‌ها برای جمعیت فعلی وزن‌گذاری مجدد نمی‌شوند؟
چرا همه آزمون ها از طریق تئوری تجزیه و تحلیل/پاسخ نمره گذاری نمی شوند؟
33067
من 21 متغیر کلان اجتماعی-اقتصادی و نگرشی دارم (مانند درصد مادران 24 تا 54 ساله شاغل، درصد کودکان 3 تا 5 ساله در مهدکودک ها و غیره). من همچنین اطلاعاتی در مورد نسبت پدربزرگ ها و مادربزرگ ها دارم که مراقبت های ویژه از کودک را ارائه می دهند. بسیاری از متغیرهای اجتماعی-اقتصادی که من انتخاب کردم با ارائه مراقبت از کودک همبستگی زیادی دارند (به عنوان مثال، یک همبستگی منفی بین نسبت مادرانی که به صورت پاره وقت کار می کنند و ارائه مراقبت از کودک پدربزرگ و مادربزرگ وجود دارد). در حالت ایده آل، من می خواهم یک گونه شناسی از انواع مختلف کشورها ایجاد کنم. امیدوارم از نوعی تکنیک کاهش ابعاد استفاده کنم که مؤلفه‌ها یا عوامل آن حس شهودی داشته باشند (مانند نگرش نسبت به خانواده و جنسیت، ساختار بازار کار، سیاست‌های خانواده). یا، به طور متناوب، ارزیابی کنید که کدام یک از 21 شاخص سطح کلان، تنوع در ارائه مراقبت از کودکان را در کشورهای مختلف توضیح می دهد. مشکل اصلی من این است که فقط 12 کشور اروپایی دارم. من فکر می کنم که PCA و تجزیه و تحلیل عاملی تکنیک های مناسبی با موارد کم نیستند. درست میگم؟ به من گفته شد که سعی کنم از تحلیل مقایسه کیفی یا تجزیه و تحلیل تطابق چندگانه استفاده کنم، اگرچه طبق درک من، تکنیک‌های دوم برای شاخص‌های سطح کلان باینری (یا طبقه‌بندی) مناسب‌تر هستند (در حالی که من درصدها یا متغیرهای پیوسته هستند).
تکنیک های کاهش ابعاد برای اندازه های نمونه بسیار کوچک
74152
فرض کنید 4 گروه از حیوانات (خوک، سگ، خرگوش، گربه) داریم. در هر گروه 10 حیوان وجود دارد. وزن و نبض هر حیوان را اندازه گیری می کنیم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0ramF.jpg) رویه زیر را در SAS در نظر بگیرید: proc discrim data=animals pool=test crossvalidate testdata=animals testout=a; گروه کلاس؛ نبض وزن var; اجرا؛ چرا توابع تفکیک خطی در SAS برگردانده نمی شوند؟
امتیازهای تشخیص خطی
15744
برای مدتی می‌خواستم کپی پیست کردن نتایج R را در word متوقف کنم، اما به نظر می‌رسید که بالا رفتن از کوه لاتکس ارزشش را داشته باشد. اخیراً، LyX را کشف کردم، به عنوان یک راه حل غیرمستقیم برای افرادی مانند من که مایل به کدنویسی متن خود نیستند، اما مایلند تجزیه و تحلیل R را با متن ترکیب کنند. با این حال، متوجه شدم اسناد بسیار کمی **به روز شده** در مورد LyX+R وجود دارد - که من را به نوشتن سوالم سوق می دهد: 1. چه ابزارهایی را در گردش کار R+LyX خود ترکیب می کنید؟ (آیا ویرایشگرهای متن را در بالای LyX ترکیب می کنید؟ کدام؟ و چرا؟) 2. ساختار پوشه رایج شما برای یک پروژه تحلیلی چیست؟ 3. ترتیب مراحلی که برای ساخت تحلیل خود برمی دارید چگونه است؟ چه کدی را در file.r نگه می دارید؟ و در انواع دیگر فایل ها چیست؟ (تصاویر، پشتیبان گیری RData، .TeX، و غیره) 4. آیا از استراتژی های کاری متفاوت برای انواع مختلف پروژه استفاده می کنید (به دلیل اندازه پروژه یا اندازه مجموعه داده ها) 5. چه بسته های R را در کار خود ترکیب می کنید؟ و چگونه 6. لینک های پیشنهادی؟ با تشکر از شما برای هر ورودی!
گردش کار برای استفاده از R با LyX برای تجزیه و تحلیل آماری؟
41246
من در حال مدل‌سازی یک شبکه Bayes با OpenBUGS هستم و مشکلاتی برای مشخص کردن برخی از پارامترها و پیشین‌های آنها پیدا می‌کنم. هدف این مدل شناسایی گروه‌های پنهان در داده‌های نمونه‌ای از شرکت‌کنندگان انسانی است. در نهایت، من به توزیع باور در محدوده 5 گروه پنهان ممکن برای هر فرد، مشروط به داده های مشاهده شده نیاز دارم. در مدل من، داده‌های مشاهده‌شده «D» از توزیع نرمال با میانگین «تتا» می‌آیند. مقدار تتا ثابت است و به وضعیت متغیر سوم، G بستگی دارد که نشان دهنده گروه های نهفته است. این به گونه ای عمل می کند که اگر متغیر «G» دارای مقدار 1 باشد، «تتا» برابر با «x» است، اگر «G=2»، «تتا=y» و غیره، تا تعداد دلخواه و کم پنهان از پیش تعریف شده است. گروه ها (در واقع در مشکل فعلی من 5 گروه است). توجه داشته باشید که تعداد گروه‌های پنهان و مقادیر مربوط به آن‌ها برای تتا توسط آزمایش‌کننده تعریف می‌شود، بنابراین این یک مشکل خوشه‌بندی معمولی نیست. در واقع، هر گروه نهفته با پیش‌بینی یک نظریه متفاوت در مورد وضعیت تجربی مطابقت دارد. من نمی دانم چگونه مشخصات تتا را در مدل BUGS لحاظ کنم. که باید در کد زیر اضافه شود (من آن را برای پست کردن در اینجا بسیار ساده کردم): model { for (i in 1:NumberOfParticipants){ D[i] ~ dnorm(theta[i],lambda[i]) lambda[i ] ~ dgamma(.01،.01) p<-1/5 G[i] ~ dcat(p[]) # فرض کنید که همه پنهان آیا گروه ها پیش از این یکسان هستند؟ } } باید در این کد نشان دهم که چگونه یک مقدار معین «تتا» توسط گروه پنهانی که شرکت‌کننده فعلی بی‌صدا به آن تعلق دارد، تعیین می‌شود. اعتراف می کنم که رویکرد من به مشکل می تواند کاملاً اشتباه باشد.
گروه های نهفته در شبکه Bayes با BUGS
70704
من از رگرسیون RandomForest روی داده های خود استفاده می کنم و می توانم ببینم که امتیاز oob 0.83 به دست آمده است. من مطمئن نیستم که چگونه به این شکل درآمد. منظورم این است که اهداف من مقادیر بالایی در محدوده 10^7 هستند. بنابراین اگر MSE باشد پس باید خیلی بالاتر می بود. من نمی فهمم 0.83 در اینجا نشان دهنده چیست. من از RandomForestRegressor پایتون از جعبه ابزار sklearn استفاده می کنم. من مدل = RandomForestRegressor(max_depth=7, n_estimators=100, oob_score=True, n_jobs=-1) model.fit(trainX, trainY ) را انجام می دهم سپس model.oob_score_ را می بینم و مقادیری مانند 0.8380902621520 را دریافت می کنم.
تفسیر برآورد خطای خارج از کیف برای RandomForestRegressor
87226
My dependent variable is mostly continuous and positive, but has a modest number of zeros (10% of the sample). نتایج حاصل از توبیت و اولز بسیار مشابه است. How can I formally compare the tobit and ols results? I think that I should be using ols, because tobit doesn't change anything.
سوال توبیت یا OLS
41241
من علاقه مند به مدل سازی تاثیر برخی پارامترهای محیطی بر غلظت رنگدانه فیتوپلانکتون اندازه گیری شده هستم. غلظت رنگدانه به گونه‌ای کج می‌شود که غلظت‌های پایین بیشتر از غلظت‌های زیاد باشد و مواردی با غلظت صفر (صفر) وجود داشته باشد. من امیدوار بودم که از یک مدل GLM با توزیع گاما استفاده کنم، اما مقادیر صفر از چنین برازشی جلوگیری می کند. سوال من این است که آیا گزینه های دیگری برای من وجود دارد؟ من فکر کردم که به سادگی یک عدد بسیار کوچک را به همه غلظت ها اضافه کنم (مثلاً 0.00001) و ادامه دهم، اما شاید این توصیه نادرست باشد. با توجه به اینکه متغیر پاسخ پیوسته است، من مطمئن نیستم که گزینه های من چیست - توزیع های پواسون و دوجمله ای منفی فقط برای داده های شمارش هستند؟ هر توصیه ای بسیار قدردانی خواهد شد.
آیا توزیع مناسبی برای یک متغیر پیوسته که به سمت صفر انحراف دارد و قادر به گنجاندن صفر است وجود دارد؟
84041
من داده هایی دارم که با واریانس ناشناخته در تعدادی میانگین ترکیبی جمع شده اند. این داده‌ها از سنجش‌های تلفیقی، مانند بار ویروسی HIV در ترکیبی از 10 ویال خون، یا غلظت پروتئین فیبروز کیستیک در ترکیبی از 10 بیوپسی 0.01cc از بافت ریه، تولید می‌شوند. ما گروه‌هایی را درمان و کنترل کرده‌ایم و علاقه‌مندیم آزمایش کنیم که آیا تفاوتی وجود دارد یا خیر. ما باید توان را بر اساس نتایج اولیه (اندازه اثر شناخته شده/تفاوت میانگین فرضی) محاسبه کنیم تا هزینه های سنجش را توجیه کنیم و مقرون به صرفه ترین سطح تجمع را پیدا کنیم (مثلاً 10 نمونه در هر سنجش در مقابل 20 نمونه در هر سنجش). برای تجزیه و تحلیل اولیه، ما فقط از آزمون t استفاده می کنیم تا مشخص کنیم که آیا تفاوت هایی در نقطه پایانی بین گروه ها وجود دارد یا خیر. همانطور که گفتم، ما تخمینی از واریانس سطح فردی در هر کامپوزیت نداریم، بنابراین وزن دهی واریانس معکوس یک گزینه نیست. با این حال، ما می دانیم که چند نمونه در کامپوزیت وجود دارد، بنابراین می توانیم از وزن دهی فرکانسی استفاده کنیم. چگونه می توانم پارامتر غیر مرکزیت را برای آماره آزمون t با واریانس مجهول محاسبه کنم؟ همچنین درجات مؤثر آزادی چیست؟ شبیه سازی یادداشت یک گزینه نیست، من به توزیع دقیق آمار تست نیاز دارم تا از روال های بهینه سازی برای یافتن حداکثر توان تحت هزینه ثابت استفاده کنم.
قدرت آزمون t برای داده های کل
33063
فرض کنید ما N رای دهنده از یک گروه داریم (N متغیر دوجمله ای). هر رای دهنده ای ترجیحی برای رای دادن در مورد موضوعی دارد (احتمال موفقیت p) که به ترجیحات رای دهندگان دیگر بستگی دارد. با توجه به نمونه ای از آرا برای هر رای دهنده (تخمین ترجیح آنها در مورد آن موضوع) و تخمین ماتریس همبستگی بین هر دو رای دهنده. آیا می توانیم تخمین بهتری از خطای استاندارد میانگین نسبت ها ارائه دهیم (از آنچه که توسط استاندارد $ \ sqrt {\ frac {p (1-p)} {n}} $ ارائه شده است؟
تخمین خطای استاندارد متغیرهای همبسته (دوجمله ای).
113418
من به دنبال مقالات یا نمونه های دیگری از تحقیقات هستم که در آن تجزیه و تحلیل آماری انجام شده در اختیار کسی باشد که یک دوره مقدماتی آمار را انجام داده است. در حالت ایده آل، مجموعه داده ها به صورت آنلاین نیز در دسترس خواهند بود. ایده این است که اینها را به دانش‌آموزان و نمونه‌هایی که می‌توانند دنبال کنند و بازتولید کنند، منتقل کنیم.
مقالات خوب با تجزیه و تحلیل قابل تکرار که فقط به اصول اولیه نیاز دارند
84045
می‌خواهم بدانم آیا راهی برای ساخت یک مدل طبقه‌بندی در R وجود دارد که به من اجازه دهد وزن کلاس‌ها را در زمان پیش‌بینی تغییر دهم. سناریویی که می خواهم این کار را انجام دهم: من گروهی از محصولات را دارم که یکی از سه نوع مختلف (A، B، و C) هستند. انواع در فرکانس‌های مشاهده‌شده 50% A، 30% B، 20% C رخ می‌دهند. من یک مدل طبقه‌بندی را آموزش می‌دهم تا نوع را بر اساس مجموعه‌ای از ویژگی‌های مشترک برای هر سه نوع تشخیص دهد. مدل طبقه بندی کامل نیست، اما دقت مناسبی دارد. اگر مشاهدات جدیدی از یک محصول داشته باشم، می‌توانم آنها را از طریق مدل طبقه‌بندی اجرا کنم و یک نوع پیش‌بینی‌شده (یا در واقع احتمال وجود هر یک از نوع A، B یا C) را دریافت کنم. پس از آموزش مدل، متوجه می شوم که هر محصول از یکی از 10 ماشین مختلف (M1 ... M10) تولید شده است. هر ماشین قادر به تولید بیش از یک نوع آیتم است، اما این کار را با مجموعه ای از احتمالات خاص انجام می دهد. به عنوان مثال * M1 = (50٪ A، 25٪ B، 25٪ C) * M2 = (33٪ A، 33٪ B، 34٪ C) * M3 = (0٪ A، 50٪ B، 50٪ C) * M4 = (10% A، 85% B، 5% C) ماشین‌ها اقلامی را با نرخ‌های مختلف تولید می‌کنند که به فرکانس کلی جمعیت پایدار کمک می‌کند. 50/30/20. اگر نمی دانم کدام دستگاه محصول تازه مشاهده شده را تولید کرده است، می توانم مانند قبل از مدل موجود استفاده کنم. اما اگر من همچنین بدانم که محصول جدید توسط مثلاً ماشین M4 تولید شده است، مایلم بتوانم احتمالات بعدی مدل را برای محاسبه اولویت های کلاس M1 تنظیم کنم. از نظر مفهومی، چیزی شبیه به: پیش بینی (model, newdata=new.observation, new.class.weights=c(0.1, 0.85, 0.05)) آیا بسته R وجود دارد که به من امکان می دهد یک مدل طبقه بندی بسازم که در آن بتوانم یک مدل متفاوت را مشخص کنم. مجموعه ای از اولویت ها در زمان پیش بینی، به جای زمانی که مدل ساخته می شود؟ یا راهی برای تنظیم احتمالات از مدل برای محاسبه احتمالات قبلی تازه شناخته شده وجود دارد؟ من برای هر الگوریتم طبقه بندی یا بسته R، اگر مهم باشد، باز هستم.
مدل طبقه‌بندی که امکان تغییر پیشین‌ها را در زمان پیش‌بینی فراهم می‌کند
71254
من یک سوال در مورد ترفند هسته پشتیبان ماشین بردار (SVM) دارم. چگونه مرزهای مجموعه داده های آموزشی را در فضای پیش بینی شده هسته پیدا می کنید؟ آیا این همان مرزهایی است که می توانید در فضای ورودی اصلی بدست آورید؟ آیا نقشه برداری هسته توزیع داده ها را تغییر می دهد؟ من با SVM تازه کار هستم، لطفاً کسی می تواند یک توضیح ساده یا پیوندهایی به اطلاعات مرتبط به من بدهد؟
نقشه برداری هسته SVM، یافتن مرزها در فضای پیش بینی شده
113414
من مدتی قبل ارتباط بین دو متغیر طبقه‌بندی را اندازه‌گیری کرده بودم. اکنون، من اطلاعات بیشتری نسبت به دفعه قبل دارم. من متوجه شدم که مقادیر _V_ Cramér اکنون کاهش یافته است. آیا این به دلیل افزایش تعداد نقاط داده است؟ آیا اصلاً می توانیم این تغییر را در _V_ کرامر به دلیل افزایش نقاط داده نسبت دهیم؟ دلیل افزایش/کاهش مقدار _V_ کرامر چه می تواند باشد؟
اندازه گیری ارتباط با استفاده از $V$ Cramér
41249
من سعی می کنم نگرانی های خود را در مورد یک زباله سوز پیشنهادی در جامعه خود کمی بیان کنم. این شرکت پتانسیل خود را برای انتشار دیوکسین ها (یک کلاس از ترکیبات آلی کلردار با دوز مرجع 1.7E-8 گرم به ازای هر 150 پوند نفر در سال) بر اساس سه اندازه گیری انتشار (mg/m^3 اگزوز): 0.0002139; 0.0000014; 0.00000186 شرکت پتانسیل انتشار خود را به عنوان میانگین این سه مقدار ارائه کرده است که نزدیک به حدود قانونی است. اگر کارخانه ساخته شود، ممکن است از آن ها خواسته شود که دیوکسین ها را فقط یک بار پس از اتمام، یا احتمالاً هر سال پس از آن اندازه گیری کنند. افکار اولیه من این بود که این احتمال را پیدا کنم که این نمونه ها از توزیعی با میانگین بالاتر از یک آستانه خاص (مثلاً حد قانونی) گرفته شده اند. به عنوان اندازه‌گیری‌های نمونه، من یک توزیع نرمال را فرض می‌کنم، اگرچه حدس می‌زنم با مقداری چولگی غیر صفر. من هیچ دانش قبلی در مورد واریانس غیر از نمونه ها ندارم. اما، من اکنون با تعداد نامتناهی از توزیع‌های ممکن مواجه هستم و مطمئن نیستم که چگونه ادامه دهم. من گمان می کنم که این یک حوزه آماری است که به خوبی مطالعه شده است (تجزیه و تحلیل ریسک؟)، و هر گونه اشاره در روش های رایج بسیار قدردانی می شود. من یک بیوشیمیست هستم و آمار زبان اول من نیست.
چگونه می توان احتمال اینکه میانگین یک توزیع مجهول بیش از یک آستانه با توجه به حجم نمونه کوچک باشد، تخمین زد
86579
آیا می توانم داده های گمشده را در برخی از متغیرهایی که به دلایلی در یک زمان اندازه گیری نشده اند ضرب کنم؟ به عنوان مثال، برای تولید، داده‌های سری زمانی 1961-2011 را دارم: با این حال، برخی از متغیرهای پیش‌بینی‌کننده (باران، دما، رطوبت و تعداد کمی دیگر) که گمان می‌کنم می‌توانند بر تولید برنج نپال تأثیر بگذارند، تنها پس از سال 1975 اندازه‌گیری شدند. بنابراین داده های 1961-1974 از دست رفته است! آیا انتساب چندگانه می تواند در این مورد کمک کند یا گزینه دیگری وجود دارد؟
داده های از دست رفته (چند انتساب)
86570
آیا درست است که اگر یک متغیر تصادفی $$X$$ از توزیعی تبعیت کند، یکی از اینها را بگویید * دو جمله ای * پواسون * نمایی * عادی * یکنواخت سپس $$\frac{X}{20}$$ همان توزیع را دنبال می کند. X$؟
توزیع X و X/20 یکسان است؟
113411
**توضیح کلی مشکل** نموداری وجود دارد که در آن برخی از گره ها نوع خاصی دارند (حدود 3-4 نوع وجود دارد). برای سایر گره ها، نوع آن مشخص نیست. من می‌خواهم، بر اساس نمودارم، برای گره‌های با نوع ناشناخته، نوع محتمل‌ترین آنها را پیش‌بینی کنم. **چارچوب احتمالی** حدس می‌زنم چارچوب کلی برای چنین وظایفی «الگوریتم انتشار برچسب» نامیده می‌شود. با توجه به ادبیات موضوع Here are some examples: one, two Another often mentioned topic is `Frequent Subgraph Mining`, which includes algorithms like `SUBDUE`,`SLEUTH`, and `gSpan`. **در R یافت شد** تنها الگوریتم انتشار برچسبی که من موفق شدم در R پیدا کنم، label.propagation.community() از کتابخانه igraph است. با این حال همانطور که از نام پیداست بیشتر برای یافتن جوامع است نه طبقه بندی گره ها. همچنین به نظر می رسد چندین مرجع به کتابخانه «subgraphMining» (برای مثال در اینجا) وجود دارد، اما به نظر می رسد در CRAN وجود ندارد. **سوال** اگر کسی بتواند کتابخانه ها/چارچوب هایی را برای کار توضیح داده شده پیشنهاد دهد، بسیار سپاسگزار خواهم بود. سوال را تا جایی که می توانستم مشخص کردم، امیدوارم انجام شود)
کتابخانه‌هایی برای (الگوریتم‌های انتشار برچسب/کاوش فرعی مکرر) برای نمودارها در R
82162
من در حال خواندن یک کتاب داده کاوی هستم و در آن آمار کاپا به عنوان وسیله ای برای ارزیابی عملکرد پیش بینی طبقه بندی کننده ها ذکر شده است. با این حال من فقط نمی توانم این را درک کنم. ویکی پدیا را هم چک کردم اما فایده ای نداشت. کاپا چگونه به ارزیابی عملکرد پیش‌بینی طبقه‌بندی‌کننده‌ها کمک می‌کند؟ چی میگه؟!! من درک می کنم که 100% کاپا به این معنی است که طبقه بندی کننده با یک طبقه بندی کننده تصادفی مطابقت کامل دارد، اما نمی دانم چگونه این به ارزیابی عملکرد طبقه بندی کننده کمک می کند! کاپا 40 درصد به چه معناست؟ یعنی 40 درصد مواقع طبقه بندی کننده با طبقه بندی تصادفی همخوانی دارد؟ اگر چنین است، چه چیزی به من می گوید یا در ارزیابی طبقه بندی کننده به من کمک می کند؟!!
آمار کاپا به زبان انگلیسی ساده؟
3214
در آزمایش‌های حیوانی‌ام، من مطالعات بقا را انجام می‌دهم، که منحنی‌های بقای Kaplan-Meier را برای هر گروه ایجاد می‌کند، و سپس آن را با یک آزمون رتبه‌بندی مناسب مقایسه می‌کنم. سوال من این است: اگر من یک آزمایش بقا را با متغیرهای یکسان انجام داده باشم، مثلاً پنج بار، و نتیجه نهایی (به زبان ساده) هر بار کمی متفاوت باشد، آیا آزمونی وجود دارد که بتوانم آن را تخمین بزنم (تغییرپذیری) واریانس) اجراهای آزمایشی من؟ یکی از عوامل مخدوش کننده اصلی این واقعیت است که بقا یک متغیر پیوسته در طول زمان است. بنابراین، کاهش آن به یک آمار واحد (که می توان آن را با یک آزمون مقایسه کرد) دشوار است. بسیاری از مردم از میانگین بقا (بیان شده بر حسب واحد زمان) به عنوان یک آمار جایگزین برای بقا استفاده می کنند، اما اغلب می تواند گمراه کننده باشد - بسته به شیب منحنی بقا، و ممکن است ماهیت واقعی نتیجه بقا را نشان ندهد. . کسی اینجا میتونه کمک کنه؟ لطفا در صورت نیاز به توضیحات بیشتر به من اطلاع دهید.
تنوع بین تجربی در آزمایش بقا - چگونه می توان تنوع را تخمین زد؟
84043
من در حال مقایسه 2 مجموعه داده های مختلف هستم. من هر مجموعه را به ربع تقسیم کرده ام. من به درصد افزایش بین چارک ها نگاه می کنم (به عنوان مثال برای یک مجموعه داده 125 درصد افزایش بین چارک 2 و 3 و افزایش 123 درصد بین افزایش 2 و 3 مجموعه داده دیگر وجود دارد) آیا می توانم بگویم که اگر درصد افزایش بین تمام چارک ها بین دو مجموعه داده تقریباً یکسان باشد، تنوع برای هر دو گروه یکسان است؟
آیا می توانید تعیین کنید که آیا واریانس ها در زمانی که چارک ها مشابه هستند برابر هستند؟
86681
من می دانم که چگونه از تبدیل جعبه کاکس در R استفاده کنم و چگونه نمودار و لامبدا را بدست آوریم. اینها چیزهایی است که من را گیج می کند. برای سادگی این مثال را فرض کنید: وزن = جنسیت + قد + سن + جنسیت درآمد = متغیر طبقه بندی 1 = مرد، 0 = متغیرهای پیوسته زن - وزن، قد، سن، درآمد. من این کار را انجام دادم: مدل = lm (وزن ~ جنسیت + قد + سن + درآمد) و جعبه کاکس را روی این مدل اعمال کردم که تقریباً 1 است بنابراین هیچ تغییری برای وزن لازم نیست. سؤالات عبارتند از: 1. چگونه می توانم Box-Cox را برای متغیرهای 'x' اعمال کنم تا ببینم آیا آنها نیاز به تبدیل دارند یا خیر (من خواندم که آنها را می توان برای همه متغیرهای x اعمال کرد، تنها عیب آن زمان بر بودن آن است، اما اینطور نیست. برای من یک مسئله نیست). 2. چگونه می توانم بدانم که آیا آنها به طور قطع نیاز به تغییر دارند یا خیر. اگر لامبدا 0.4 باشد باید از تبدیل ریشه مربع استفاده کنم یا باید 0.5 باشد؟ لامبدا 2 چیست؟ 3. اگر یک یا دو یا همه متغیرها نیاز به تبدیل دارند، چگونه فرمول مدل اصلی را تنظیم کنم؟
تبدیل جعبه کاکس در R
81591
من مدل رگرسیون خطی \begin{equation} Y_{i} = A t_{i} + B + \varepsilon_{i} \tag{$1$} \end{معادله} را در نظر می‌گیرم که در آن $A$ و $B$ هستند. پارامترهای واقعی ناشناخته و $(\varepsilon_{i})_{1 \leq i \leq n}$ مقادیر مشاهده شده گاوسی مستقل و توزیع شده یکسان هستند متغیرهای تصادفی با میانگین $0$ و واریانس $\sigma^{2}$ ($\sigma^{2}$ ناشناخته است). در شکل ماتریسی، $(1)$ می‌نویسد: \begin{equation} Y=X\alpha + \varepsilon \tag{2} \end{equation} که در آن $X = \begin{bmatrix} t_{1} و 1 \ \ \vdots & \vdots \\ t_{n} & 1 \end{bmatrix}$, $\alpha = \begin{bmatrix} A \\ B \end{bmatrix}$ و $\varepsilon \sim \mathcal{N}(0,\sigma^{2}\mathrm{I}_{n})$. با استفاده از Matlab، من برخی از داده ها را به صورت مصنوعی تولید کردم: $n=100$، $A=3$، $B=-1$ و $\sigma^{2} = 0.64$ گرفتم و برآورد پارامترهایی که به دست می‌آورم عبارتند از: $\ Widehat{A}=3.0096$، $\widehat{B}=-0.9260$ و $\widehat{\sigma^{2}}=0.6337$. احتمال ورود به سیستم $(2)$ تابع $$ \ell(A,B,\sigma^{2}) = -n \log(\sigma) - \frac{1}{2\sigma^{ است. 2}} \Vert Y-X\alpha \Vert^{2} $$ این ممکن است یک سوال احمقانه باشد اما من نمی دانم چرا مقادیر _true_ پارامترها حداکثر نمی شود احتمال ورود به سیستم در مورد من. آیا به این دلیل است که تخمین هایی که با استفاده از Matlab به دست آوردم، مقادیر مشاهده شده از متغیرهای تصادفی است که به طور مجانبی به مقادیر واقعی پارامترها همگرا می شوند و در اینجا، $n$ به اندازه کافی بزرگ نیست؟
(log) احتمال در پارامترهای واقعی
52244
تقریباً مطمئن هستم که یک اصطلاح فنی برای توصیف تبدیل‌ها وجود دارد/هستند (مانند $x^2$ یا $log(x)$ برای اعداد مثبت) که تبدیل‌های غیرخطی متغیر $x$ هستند، اما حفظ می‌شوند. ترتیب رتبه x اما من یک جای خالی می کشم و جستجوهای من در گوگل بی اثر بوده است. چه اصطلاحات فنی برای این نوع تبدیل ها اعمال می شود؟
چه اصطلاحات فنی برای تبدیل های غیر خطی که مرتبه رتبه را حفظ می کنند، اعمال می شود؟
113415
درک من این است که با نسبت شانس (OR) که CI 95% حاوی 1 باشد به این معنی است که هیچ تفاوتی بین شانس وقوع چیزی بین گروه ها وجود ندارد. من تعجب کردم که آیا این برای نسبت های نرخ حادثه (IRR) صادق است؟ خیلی ممنون، ایون
آیا و 95% CI حاوی 1 به معنای عدم تفاوت در محاسبات IRR در همان محاسبات OR است؟
83068
من اخیراً در حال خواندن و تلاش برای درک پارادایم بیزی بوده ام و به روش های مختلفی نگاه می کنم که مردم برای تخمین توزیع پسین از آنها استفاده می کنند. اکنون، به نظر می‌رسد که بیشتر حل نشدنی‌ها از این واقعیت ناشی می‌شود که اصطلاحات احتمال شکل پیچیده‌ای دارند یا ادغام‌های پیچیده‌ای برای حل وجود دارد. من در تعجب بودم که چه اتفاقی می‌افتد وقتی اصطلاحات از خانواده‌های توزیع به خوبی تعریف شده باشند. یکی از مشکلاتی که به عنوان مثال دنبال می‌کردم، تنظیمات زیر است: بنابراین، می‌خواهیم پارامترهای توزیع یک متغیر تصادفی $w$ را تخمین بزنیم و مقداری داده $d$ را مشاهده می‌کنیم و یک الگوی $x$ داریم، بنابراین ما می خواهیم $p(w|d)$ را تخمین بزنیم. حال فرض کنید که داده ها IID مشاهده شده اند و ما یک احتمال گاوسی داریم، بنابراین می توانیم احتمال را به صورت زیر بنویسیم: $$ p(d|x,w,\phi) = \prod_i{\sqrt{\frac{\phi}{ 2\pi}}\exp^{-0.5(y_i-x_i)\phi(y_i- x_i)}} $$ که $\phi$ مقداری جهانی است دقت نویز همچنین، فرض کنید که قبلی در $w$ یک صفر میانگین نرمال چند متغیره قبل از $\it{N}(w; 0, \Sigma)$ باشد. بنابراین، اکنون توزیع پسین به صورت زیر است: $$ p(w|d,x,\phi) = \frac{p(d|x,w,\phi)p(w)}{\int p(d) } $$ حال، سوال من این است که از آنجایی که ما یک احتمال گاوسی و گاوسی قبلی داریم، آیا این پسین قابل حمل است و آیا می توانیم در مورد چند حالت آن چیزی بگوییم. همچنین، آیا کسی می تواند به من کمک کند تا به طور شهودی بفهمم که چرا ممکن است چنین باشد یا نباشد. من واقعاً از هرگونه فکری در مورد این موضوع سپاسگزارم.
شکل توزیع خلفی
105951
من تقاضای ماهانه کالا دارم و سعی می کنم این سریال را برای 5 سال آینده پیش بینی کنم. در اینجا یک طرح وجود دارد: ![Plot](http://i.imgur.com/ccoci40.jpg) البته، رویکرد طبیعی برای پیش‌بینی این فصلی نوعی هموارسازی تصاعدی خواهد بود (مثلاً Holt Winters). اما مشتری من از من می خواهد که اطلاعات مربوط به وضعیت اقتصاد (به عنوان مثال تولید صنعتی، درآمد خانوار) ​​و همچنین سایر متغیرها (مانند شرایط آب و هوایی) را در پیش بینی لحاظ کنم. چیزی که من نیاز دارم نوعی مدل ترکیبی است که پیش‌بینی سری‌های زمانی را با اطلاعات برون‌زا ترکیب می‌کند. من فکر کردم ARMAX ممکن است روش مناسبی باشد (من با R کار می کنم) اما شاید مدل ساده تری وجود داشته باشد. با تشکر از شما برای هر گونه پیشنهاد! ویرایش: در اینجا مجموعه داده در R است: ساختار(لیست(Demand = c(7381.08, 6902.08, 7107.08, 5797.08, 4778.08, 4330.08, 4065.08, 3743.08, 3743.08, 4378, 3743.08, 4378 5726.08, 6167.08, 8497, 7299, 6565, 4746, 4224, 3755, 3398, 3656, 3634, 4948, 7052, 6268, 6268, 7512, 7607. 5494.75، 3707.75، 3711.75، 3643.75، 3406.75، 4387.75، 5133.75، 6210.75، 6963.75، 9158، 7362، 514، 7362، 514، 7362 3647, 3713, 3965, 5451, 6674, 7419, 7198.42, 7387.42, 7402.42, 5556.42, 4204.42, 4092.42, 4092.42, 3824.42,3882. 5330.42, 7458.42, 7653.42, 7999, 7012, 6063, 5811, 4993, 4299, 3795, 3888, 4395, 5806, 7524, 7524, 826, 7524, 826 6702.42، 5713.42، 4137.42، 3878.42، 3624.42، 3699.42، 5033.42، 6061.42، 7363.42، 8571.42، 8571.42، 87886.888. 6040.08, 5353.08, 4047.08, 3038.08, 3134.08, 3719.08, 6310.08, 8257.08, 9153.08, 9292, 7998, 7998, 7998, 756 3393، 3025، 4063، 6886، 7606، 8823، 8161.83، 8618.83، 7522.83، 6153.83، 4093.83، 3660.83، 3660.83، 3832.83، 3462.83. 6860.83، 8874.83، 9304.83، 9147.42، 9182.42، 7315.42، 6579.42، 4707.42، 4033.42، 3640.42، 3640.42، 3624.24، 3624.42. 8039.42، 9411.42، 10957.42، 8023.42، 9125.42، 6218.42، 5482.42، 4306.42، 3408.42، 3664.42، 3664.42، 4756.424، 4756. 12294.42، 11093.67، 10030.67، 10320.67، 6067.67، 5065.67، 5841.67، 4453.67، 3228.67، 5381.68، 5381.68، 5381.68، 5381.67، 5381.67، 67.67 12187.67، 12044.58، 9240.58، 8378.58، 6899.58، 6250.58، 4336.58، 2446.58، 4370.58، 3699.58، 3699.58، 7849. 10180.58، 10594.67، 9046.67، 9480.67، 7074.67، 4808.67، 3983.67، 4307.67، 4114.67، 5306.67، 5306.68، 7867. 11193.67، 10881.33، 10884.33، 9474.33، 6932.33، 4884.33، 4264.33، 4011.33، 4144.33، 4029.33، 4029.33، 76. 11586.33، 11636.58، 10192.58، 9839.58، 6800.58، 4806.58، 4402.58، 4900.58، 3963.58، 4528.58، 4528.58، 705 10715.58، 11931.92، 10158.92، 9172.92، 7805.92، 5314.92، 3846.92، 5080.92، 4067.92، 5220.92، 5220.95، 657. 12055.92، 12324.92، 9260.92، 8769.92، 8536.92، 4985.92، 3573.92، 3908.92، 4825.92، 5335.92، 7837، 5335.90، 7837. 12087.92, 12492.42, 11627.42, 9152.42, 6915.42, 5407.42, 4093.42, 3237.42, 3162.42, 4995.42, 4995.42, 765 11165.42، 12057.42، 10179.42، 10732.42، 6444.42، 5920.42، 4211.42، 3583.42، 3553.42، 4747.452، 4747.45، 4747.42، 4747.42، 4749.42، 4749.42، 47.42. 11077.42، 11465.67، 11612.67، 10513.67، 6298.67، 5507.67، 4535.67، 4099.67، 4135.67، 4607.68، 4607.68، 4607.67، 67.67. 12012.67، 15081.5، 12394.5، 11656.5، 6847.5، 5725.5، 3865.5، 3646.5، 4590.5، 4737.5، 6302.5، 6302.5، 6847.5، 831 10294.75، 9161.75، 8754.75، 5898.75، 5236.75، 4521.75، 4892.75، 4051.75، 6163.75، 7932.75، 7932.75، 10898. 10801.17، 9011.17، 10266.17، 8102.17، 5678.17، 5000.17، 4732.17، 4763.17، 6525.17، 7826.17، 7826.17، 9317، 9317. 10931.75، 9485.75، 8388.75، 6467.75، 4432.75، 4873.75، 5822.75، 4701.75، 4487.75، 7133.75، 7133.75، 81915، 81919. 12690.08، 10770.08، 9304.08، 7196.08، 6567.08، 5117.08، 4208.08، 4414.08، 5102.08، 7019.08، 7019.08، 9009 11287.58، 10241.58، 9757.58، 6152.58، 6034.58، 4787.58، 4481.58، 4139.58، 4115.58، 6271.58، 6271.56، 8968 10222.33، 12102.33، 7783.33، 7708.33، 5416.33، 4264.33، 4523.33، 3762.33، 5482.33، 6843.33، 6843.33، 8289. 11292.33، 10816.33، 13084.33، 8347.33، 5733.33، 4946.33، 4759.33، 5288.33، 6281.33، 5076.30، 5076.30، 32.33، 80. c(NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA، NA, NA, NA, 836.6924493, 864.3506976, 581.6976848, 517.7491028, 262.9073017, 125.8485446, 6.3728750 224.2027809, 564.7883676, 534.5681729, 804.9532423, 1008.232273, 661.7460732, 797.811819, 473,424, 473,424 196.7520236, 3.349023044, 66.17021767, 255.3949123,
چه مدل اقتصادسنجی برای پیش‌بینی تقاضای فصلی کالا در حالی که اطلاعات برون‌زا را در بر می‌گیرد؟
3212
می خواستم بدونم تفاوت بین Mode، Class و Type اشیاء R چیست؟ نوع یک شیء R را می توان با تابع typeof، mode توسط mode() و کلاس توسط class() بدست آورد. همچنین آیا توابع و مفاهیم مشابه دیگری که من از دست داده ام؟ با تشکر و احترام!
حالت، کلاس و نوع اشیاء R
6856
از آنجایی که مدل‌سازی رگرسیون اغلب بیشتر «هنر» است تا علم، اغلب تکرارهای زیادی از ساختار رگرسیون را آزمایش می‌کنم. چند راه کارآمد برای خلاصه کردن اطلاعات این مدل‌های چندگانه در تلاش برای یافتن بهترین مدل چیست؟ یکی از روش‌هایی که من استفاده کرده‌ام این است که همه مدل‌ها را در یک لیست قرار داده و «summary()» را در آن فهرست اجرا کنیم، اما تصور می‌کنم روش‌های کارآمدتری برای مقایسه وجود دارد؟ کد و مدل های نمونه: ctl <- c(4.17,5.58,5.18,6.11,4.50,4.61,5.17,4.53,5.33,5.14) trt <- گروه c(4.81,4.17,4.41,3.59,5.87,3.83,6.03,4.89,4.32,4.69) <- gl(2,10,20, labels=c(Ctl,Trt)) وزن <- c (ctl، trt) lm1 <- lm (وزن ~ گروه) lm2 <- lm(وزن ~ گروه - 1) lm3 <- lm(log(وزن) ~ گروه - 1) #مقایسه بین مدل های 1 - 3 بکشید؟ مدل‌ها <- لیست (lm1، lm2، lm3) lapply (مدل‌ها، خلاصه)
تجمیع نتایج حاصل از مدل خطی R
6851
آیا آزمون KS3D2 همانطور که توسط فاسانو و فرانس اسکینی (1987) پیشنهاد شده است می تواند زمانی که یکی از سه متغیر مقادیر گسسته بین 0-40 می گیرد استفاده شود؟ دو متغیر دیگر پیوسته هستند.
تست سه بعدی کولموگروف اسمیرنوف
86680
من می خواهم به مشکل درون زایی در مدل خود بپردازم. بذار قدم به قدم برم من داده پانل برای 19 کشور، 1995-2010 دارم. مدل رگرسیونی من: `reg gge et (+متغیرهای کنترل)` متغیر مستقل من این است: مالیات بر انرژی (کد: et). متغیر وابسته من این است: انتشار CO2 (معادل) از فرآیندهای صنعتی (کد gge). تئوری متغیرهای ابزاری را پیشنهاد می کند: بدهی عمومی، کسری بودجه، مالیات حمل و نقل زیر (Wooldridge 2003) من استفاده کردم: اولین تفاوت برای متغیرهای مستقل و وابسته من در معادله من. سپس متغیرهای ابزاری را پیدا کردم: بدهی عمومی (کد: pdeb)، کسری عمومی (کد: pdef، مالیات حمل و نقل (tt). ابتدا می‌خواهم آزمایش کنم که آیا ابزار ضعیف یا قوی دارم. مثلاً در اسلایدهایی از چارلی گیبون (ص. 8)، می‌گوید باید با انجام یک تست F، محدودیت گنجاندن را بررسی کنم تا اطمینان حاصل کنم که چگونه باید محدودیت درج را بررسی کنم تا F را دریافت کنم تست از نظر دستور Stata و SPSS - به سادگی با قرار دادن IV من به جای متغیر وابسته در یک مدل رگرسیونی یا به عنوان مثال، reg gge et (متغیرهای کنترلی).
تست ابزارهای ضعیف - تست F
33685
فرض کنید $\Delta_{K}$ سیمپلکس احتمال بعد $K-1$ باشد، یعنی $x \in \Delta_{K}$ به گونه‌ای است که $x_i \ge 0$ و $\sum_i x_i = 1$. چه توزیع هایی که اغلب (یا شناخته شده یا در گذشته تعریف شده اند) بیش از $\Delta_{K}$ وجود دارند؟ واضح است که توزیع دیریکله و توزیع نرمال لجستیک وجود دارد. آیا توزیع های دیگری وجود دارد که به طور طبیعی در این زمینه ایجاد شود؟
چند توزیع بر روی سیمپلکس احتمال چیست؟
86573
فرض کنید $c>0،\sigma>0$ و $\tau>0$ ثابت های واقعی ثابت هستند. سپس می‌خواهم ثابت کنم که تابع $g_c:(-1,1)\mapsto\mathbb{R}$ توسط \begin{equation} g_c(\rho)=\int_{-\infty}^\infty تعریف شده است. \int_{-\infty}^\infty\frac{ \{(-c)\vee x \wedge c\} \{(-c)\vee y \wedge c\}}{\sqrt{2\pi(1-\rho^2)}\sigma\tau} e^{\frac{\sigma^2x-2\rho\sigma\tau xy+\tau^2y^2 {2(1-\rho^2)\sigma^2\tau^2}}dxdy \end{equation} به شدت در حال افزایش است. من سعی کردم با متمایز کردن $g_c$ w.r.t ثابت کنم. $\rho$. اما، این کمکی نمی کند زیرا نتیجه بسیار زشت است. کسی میتونه کمکم کنه؟ پیشاپیش متشکرم PS: تابع $g_c$ را می توان به صورت $g_c(\rho)=E( (-c)\vee [(X_{\sigma,\rho}Y_{\tau,\rho})\wedge بازنویسی کرد. c])$ برای برخی از متغیرهای تصادفی $(X_{\sigma,\rho},Y_{\tau,\rho})^T\sim N_2(0,\Sigma)$ جایی که $$ \Sigma= \begin{pmatrix} \sigma^2 & \rho\sigma\tau \\ \rho\sigma\tau & \tau^2 \end{pmatrix}. $$ اما، من همچنین نمی دانم چگونه با استفاده از این واقعیت مشکل خود را ببینم.
تابع افزایشی به عنوان دو متغیره کوواریانس نرمال تعریف شده است
86576
ما می دانیم که $X$ به دنبال $\mathrm{Bin}(n_1,p_1)$ است، $Y$ از $\mathrm{Bin}(n_2,p_2)$، $X$ و $Y$ مستقل هستند. $X+Y$ چه چیزی را دنبال می کند؟ من پاسخ را می‌دانم که اگر $p_1=p_2=p$، $X+Y$ از $\mathrm{Bin}(n_1+n_2,p)$ پیروی می‌کند، اما کاملاً متوجه نمی‌شوم. من سعی کردم $X+Y$ را با معیار توزیع Bin مطابقت دهم: * موفقیت/شکست * استقلال، بله زیرا Y و X مستقل هستند و همه X$ها مستقل از خودشان هستند و همه Yها مستقل از خودشان هستند. . *همان ص بله، اگر اجازه داشته باشیم این را فرض کنیم. همچنین، چه چیز بیشتری می توانیم در مورد $X+Y$ بگوییم؟
X به صورت دو جمله ای توزیع می شود و Y به صورت دو جمله ای توزیع می شود. X+Y چه توزیعی را دنبال می کند؟
113416
من در حال توسعه خوشه بندی مبتنی بر مدل هستم. ابتدا، من خوشه‌بندی مبتنی بر مدل را در R با استفاده از mclust توسعه دادم. در مرحله بعد، من می‌خواستم 75 درصد نمونه را انتخاب کنم، خوشه‌بندی مبتنی بر مدل را دوباره اجرا کنم و نتایج را با نتایج کل مجموعه داده با استفاده از تنوع اطلاعات یا شاخص رند مقایسه کنم. با این حال، من با کدها گیر کردم. در اینجا کدهایی وجود دارد که برای تغییر اطلاعات در CRAN در دسترس هستند. cl1 <-نمونه(1:30، 10، جایگزین=صحیح) cl2 <- c(cl1[1:5]، نمونه (1:3، 5، جایگزین=درست)) vi.dist(cl1،cl2) vi. dist(cl1,cl2, parts=TRUE) راه‌حل‌های خوشه‌بندی خود را چگونه توسعه دادم: مدل <-Mclust(data[,18:22]) راه‌حل خوشه‌بندی مبتنی بر مدل استفاده از کل مجموعه داده و داده نام مجموعه داده من است با استفاده از ستون های 18 تا 22 تصادفی <- data[rbinom(nrow(data), 1,.75)==1,] یک مدل تصادفی نمونه تصادفی ایجاد کرده است <-Mclust(random[, 18:22]) خوشه‌بندی مبتنی بر مدل با استفاده از نمونه تصادفی cl1 <- (model$ طبقه‌بندی) cl2 <- (randommodel$ طبقه بندی) vi.dist(cl1,cl2) تلاش من برای تغییر اطلاعات با استفاده از کدهای R، نتیجه ناموفق بود زیرا «cl1 و cl2 طول یکسانی ندارند». بنابراین، با توجه به اینکه دو راه حل تعداد مشاهدات متفاوتی دارند، چگونه می توانم طول دو راه حل را یکسان کنم؟ یا، آیا سعی می کنم از تنوع اطلاعات به اشتباه استفاده کنم؟
کدهای R برای تغییر معیار اطلاعات با استفاده از mclust
113419
من در حال انجام یک تحلیل خطی اثرات مختلط هستم که در آن واقعاً فقط به یکی از جلوه های ثابت علاقه دارم. من چندین اثر ثابت دیگر و یک عبارت رهگیری تصادفی دارم، اما هیچ‌کدام از آنها مرتبط نیستند، و نه خوب بودن کلی مدل (به جز این واقعیت که افزودن رگرسیون علاقه من (ROI) آن را به طور قابل توجهی بهبود می‌بخشد). بنابراین ، اکنون می خواهم اندازه اثر ثابت جالب خود را به روشی بصری گزارش دهم. در یک تحلیل رگرسیون چندگانه ساده، من همبستگی جزئی بین ROI خود و اندازه گیری نتیجه را با رگرسیون همه عوامل دیگر از ROI و معیار نتیجه محاسبه می کنم و سپس همبستگی بین باقیمانده های این دو رگرسیون مزاحم را محاسبه می کنم. . یا به طور معادل، ضریب بتا را روی ROI در نظر بگیرید و آن را در نسبت انحراف استاندارد باقیمانده‌ها از رگرسیون‌های مزاحم ضرب کنید، یعنی SD(ROI_res)/SD (Outcome_res). من می خواهم در اینجا کاری مشابه (با جلوه های مختلط خطی) انجام دهم ، اما در یافتن رویکرد درست مشکل دارم. مطمئناً به نظر نمی رسد که فقط کپی پیست رویکرد از رگرسیون چندگانه نتایج معقولی به همراه داشته باشد (چون دو روش انجام این کار که قبلاً معادل بودند اکنون پاسخ های متفاوتی می دهند). بنابراین همه اینها به 2 سوال خلاصه می شود: 1) آیا راهی برای به دست آوردن ضرایب همبستگی جزئی برای اثرات ثابت در یک مدل مختلط خطی وجود دارد؟ 2) اگر اینگونه نباشد ، پس روش مناسب برای گزارش تأثیر علاقه من چیست؟ گزارش ضریب اثر ثابت تخمینی معتبر به نظر می رسد اما از نظر اندازه اثر/قدرت ارتباط چندان روشنگر نیست (زیرا کاملاً به مقیاس دو متغیر بستگی دارد)، بنابراین حدس من این است که باید راه بهتری وجود داشته باشد...
گزارش اثرات ثابت به عنوان همبستگی (جزئی)؟
18284
با توجه به یک سری زمانی، می توان تابع همبستگی خودکار را تخمین زد و آن را رسم کرد، برای مثال همانطور که در زیر مشاهده می شود: ![سری زمانی](http://i.stack.imgur.com/gp9Vp.png) ![ACF]( http://i.stack.imgur.com/5sxja.png) از این تابع همبستگی خودکار چه چیزی را می توان درباره سری زمانی خواند؟ آیا برای مثال می توان در مورد ثابت بودن سری زمانی استدلال کرد؟ **ویرایش**: در اینجا ACF سری های متفاوت را با تأخیرهای بیشتر قرار داده ام![ACF بعد از تفاوت](http://i.stack.imgur.com/SKtnq.png)
از تابع همبستگی خودکار یک سری زمانی چه چیزی بخوانیم؟
14703
من سعی می کنم یک پروتکل داده ای را که روی یک پیوند RF 5 مگابیت بر ثانیه اجرا می شود شبیه سازی کنم. دیتاشیت تراشه RF نمودار لگاریتمی BER در مقابل SNR را ارائه می دهد (BER := نرخ خطای بیت؛ SNR := نسبت سیگنال به نویز)، اما برای ساده تر، من BER را به همان مقداری که بسیاری از ویژگی های RF تثبیت می کنم، انتخاب می کنم. اندازه گیری می شود: BER = 10^-4. چگونه می توانم موفقیت لحظه ای یک انتقال بسته با اندازه N بیت (N := { 36000، 18000، 9000، 4500}) را تعیین کنم؟ من به دنبال احتمال موفقیت نیستم (اما ممکن است به عنوان یک محاسبه موقت مورد نیاز باشد). من باید بتوانم در مورد هر بسته با نزدیک شدن زمان شبیه سازی، یک تصمیم منطقی بگیرم. من همچنین یک مولد اعداد تصادفی به عنوان ورودی در دسترس دارم و در صورت لزوم می توانم تاریخچه انتقال بسته را نگه دارم. من از بسته SimPy برای شبیه سازی یکنواخت استفاده می کنم.
نحوه شبیه سازی موفقیت یک انتقال بسته RF با دانستن اندازه بسته و BER
82889
من کتابی خوانده ام که می گوید تعیین ویژگی های آماری حالت و میانه در مقایسه با میانگین دشوار است. من کاملاً مطمئن نیستم که چرا اینطور است. آیا درست است که چون میانگین را می توان در مقایسه با حالت و میانه راحتتر در توابع ریاضی قرار داد؟ منظور از ویژگی های آماری چیست؟ منظور از تعیین ویژگی های آماری چیست؟ اگه کسی میتونه توضیحات یا مثال های بیشتری ارائه کنه با تشکر از همه کمک!
چرا تعیین ویژگی های آماری مد و میانه دشوار است؟
18287
من یک سری دارم و باید بررسی کنم که آیا مقادیر با توجه به میانگین نامتقارن هستند یا نه (کمتر یا بیشتر). از چه آزمایشی استفاده کنم؟
چگونه عدم تقارن را آزمایش کنیم؟
33686
من دانشجوی بوم شناسی هستم و باید با 10 یا 20 متغیر میدانی از جمله فراوانی گونه ها سر و کار داشته باشم. من باید بررسی کنم که چه متغیرهایی در بروز گونه های پرنده بیشترین اهمیت را دارند. چه کتابی روش های انجام این کار را به من می گوید؟
کتابهای انتخاب مدل در اکولوژی
83064
ما در حال تلاش برای بهبود نتایج جستجو هستیم و در تلاشیم تا مشخص کنیم آیا تغییرات خاصی (افزودن یک کلمه به لیست مترادف، حذف آن از پرس و جو و غیره) از نظر آماری بهبود قابل توجهی در نتایج جستجوهای آینده دارند یا خیر. ما در حال حاضر داده هایی برای پرس و جوهای گذشته و نتایج صحیح مطابق آنها داریم. ما همچنین آزمایش هایی برای نمونه گیری از آن پرس و جوهای گذشته، انجام دوباره آنها و بررسی درصد تطابق خوب داریم. یک تطابق خوب آن است که نتیجه صحیح شناخته شده آن در بهترین توصیه های موتور جستجو باشد. برای مثال عینی: می‌خواهیم بدانیم که آیا افزودن مترادف برای نمایش->نمایش نتایج را بهبود می‌بخشد. جستجوهای گذشته را بررسی می کنیم و همه موارد حاوی کلمه نمایش را پیدا می کنیم، سپس تعداد منطبقات خوب را پیدا می کنیم. سپس نقشه مترادف را اضافه می کنیم و دوباره برای همان نمونه پرس و جو آزمایش می کنیم. نتایج به ما اطلاع می‌دهند که چه تعداد از پرس‌و‌جوها بهبود یافته‌اند، چه تعداد از آنها بدتر شده‌اند، چه تعداد از آنها ثابت مانده‌اند، تعداد کل نمونه‌ها و تعداد کل موارد منطبق خوب (قبل و بعد از آزمون). برای دریافت ایده ای از اعداد، ما حدود 260000 پرس و جوهای گذشته داریم و برای اکثر کلمات کمتر از 10000 پرس و جو وجود دارد که حاوی آن کلمات است (و بنابراین می توانیم کل نمونه را آزمایش کنیم). برای این مثال، نتایج عبارتند از: حجم نمونه حاوی نمایش: 5250 منطبق خوب (پایه): 3212 منطبق خوب (تست): 3208 بهبود یافته: 8 بدتر شده: 12 کل تغییر: -4 سوال این است که کدام تست در تعیین اینکه آیا این تغییر احتمالاً نشان دهنده تغییر در جستارهای ناشناخته آینده است یا خیر، مفیدترین است؟ (با استفاده از سطح اطمینان 95 درصد) مواردی که من روی R امتحان کرده‌ام و نتایج آن‌ها به شرح زیر است: * آزمون T دو نمونه بر روی هر دو مجموعه داده (که توسط بردارهای 1 و 0 ارائه می‌شوند) - معنی دار نیست * آزمون T بر روی تفاوت مجموعه ها - معنی دار نیست * بوت استرپ کردن بر روی تفاوت میانگین هر مجموعه و انجام تست T از آن نتیجه - معنی دار * بوت استرپ کردن هر نمونه بر روی میانگین آنها، سپس T-test دو نمونه t-test نتایج - معنی دار * بوت استرپ هر نمونه بر روی میانگین آنها، سپس t-test تفاوت در نتایج - معنی دار * آزمون مک نمار - معنی دار
تعیین کنید که آیا یک عمل نسبت 1 ها را در داده های باینری با جمعیت ناشناخته افزایش می دهد یا خیر
47972
من یک PCA بر روی برخی از داده‌های مربوط به زیستگاه (انواع مختلف پوشش گیاهی، آب خاک و غیره) انجام دادم، اما برخی از متغیرها بودند که در PCA لحاظ نکردم زیرا با هیچ یک از متغیرهای دیگر همبستگی قوی نداشتند. من سه جزء اصلی اول را از PCA انتخاب کردم که مقادیر ویژه آنها بالای 1 بود. اکنون می خواهم یک رگرسیون چندگانه برای تجزیه و تحلیل این که چه متغیرهایی تراکم پرنده را پیش بینی می کنند، اجرا کنم. آیا گنجاندن سه مؤلفه اصلی من و همچنین متغیرهایی که در PCA وارد نکردم در این رگرسیون معتبر است؟
رگرسیون مؤلفه اصلی و شامل متغیرهایی که در PCA نیستند
113721
من یک پروژه یادگیری ماشینی دارم که از تعدادی ویژگی برای پیش‌بینی کلاسی استفاده می‌کند که مقادیر طبقه‌بندی دارد. مقادیر ممکن عبارتند از: 1، 2، 3، 4، و 5. برای من جالب است که آیا کلاس مقدار 1 را دارد یا خیر. بنابراین من یک متغیر باینری جدید اضافه کردم که در صورت 1 بودن کلاس 1 و در غیر این صورت 0 است. تا اینجای کار خیلی خوبه. مشکل در حال حاضر این است که مجموعه داده‌های من بسیار کوچک 200 مشاهده است و ویژگی‌های مقادیری که کلاس دارد بسیار نزدیک به یکدیگر است. یعنی تشخیص 1 و 2 بسیار سخت است، اما تشخیص برای مثال بین 1 و 5 بسیار ساده تر است. آیا کاری وجود دارد که بتوانم انجام دهم تا نتایجم را بهبود بخشد؟ برای مثال، من واقعاً علاقه‌ای ندارم که آیا وقتی نمونه‌ای که می‌خواهم پیش‌بینی کنم، مقدار 3 داشته باشد یا خیر. من فقط طبقه‌بندی‌کننده‌ای می‌خواهم که در تشخیص 1 رویداد خوب باشد.
یادگیری ماشینی با داده های طبقه بندی شده: آیا می توانم نمونه ها را حذف کنم؟
564
تفاوت در تفاوت‌ها مدت‌هاست که به‌عنوان یک ابزار غیرتجربی، به‌ویژه در علم اقتصاد رایج بوده است. لطفاً کسی می تواند پاسخ روشن و غیر فنی به سؤالات زیر در مورد تفاوت در تفاوت ها ارائه دهد. برآوردگر تفاوت در تفاوت چیست؟ چرا برآوردگر تفاوت در تفاوت کاربرد دارد؟ آیا واقعاً می توانیم به برآوردهای تفاوت در تفاوت اعتماد کنیم؟
تفاوت در تفاوت ها چیست؟
86689
من یک مجموعه داده بازده (مالی) با 3 عامل دارم که هر کدام دارای 3 سطح است: صنعت (بانکداری، خرده فروشی، سایرین)، سال (2010، 2011، 2012)، و اندازه (کوچک، متوسط، بزرگ). هر عامل به‌عنوان گروهی از دروغ‌ها کدگذاری شده است (مانند IND_BANK، IND_RETAIL، IND_OTHERS). نمونه من نامتعادل است، یعنی برخی از سلول ها اصلا داده ندارند. چگونه می توانم آن را به عنوان یک رگرسیون خطی با متغیرهای ساختگی و تعاملات کدگذاری کنم؟ در اینجا تجزیه و تحلیل یک مجموعه داده مشابه است. blob:http%3A//stats.stackexchange.com/b56e0691-09b7-41c8-a708-37e6c8c95944 من در فکر مدل سازی آن به عنوان 3x3 dummies و 3x3x3=27 تعامل هستم. با این حال، من به وضوح نیاز به حذف برخی از اصطلاحات برای جلوگیری از همخطی کامل دارم. همچنین، باید آن عبارات تعاملی را که هیچ داده سلولی ندارند حذف کنم. کسی میتونه راهنماییم کنه که چطور این کار رو انجام بدم؟
چگونه یک مجموعه داده نامتعادل را با استفاده از متغیرهای ساختگی تجزیه و تحلیل می کنید؟
14701
من به مشکلی برخوردم که در آن می‌خواهم یک GEE در R با خطوط رگرسیون مکعبی (یا هر نوع اسپلاین دیگری) برای مجموعه داده‌های طولی و نیاز فوری به گروه‌بندی و ساختارهای همبستگی چندگانه بسازم. با این حال، من هیچ بسته ای را پیدا نکردم که این امکان را داشته باشد. اگه کسی میتونه یه پکیج مناسب پیشنهاد بده واقعا ممنون میشم.
آیا بسته ای برای R وجود دارد که امکان صاف کردن خطوط در GEE را فراهم کند؟
47974
من در حال انجام یک آزمایش علوم غذایی برای جایگزینی تخم مرغ با جایگزین های دیگر در کاربردهای پخت هستم. * متغیر مستقل: سه فرمول مختلف (درصد جایگزینی) * متغیرهای وابسته: نمایه بافت، رطوبت و ارزیابی حسی از نظر رویه، من می‌خواهم جدایی انجام دهم، مطالعه من باید برخی از پارامترهای تجزیه و تحلیل بافت را در بر بگیرد. فرض کنید هر مافین باید با استفاده از یک تحلیلگر بافت اندازه گیری شود. سپس باید یک پانل برای رتبه بندی پذیرش کلی، بافت و غیره راه اندازی کنم. هر آزمودنی باید نمونه ها را امتحان کند و یک مقدار (مقیاس لیکرت) تعیین کند. **بهترین طراحی در این مورد چه خواهد بود؟**
چگونه می توان سه جایگزین مختلف برای تخم مرغ را در پخت مقایسه کرد؟
97043
فرض کنید من یک مجموعه داده نقطه دوبعدی دارم و می‌خواهم جهت همه ماکزیمم‌های محلی واریانس در داده‌ها را شناسایی کنم، برای مثال: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/OB1Mz. png) PCA در این شرایط کمکی نمی کند زیرا تجزیه متعامد است و بنابراین نمی تواند هر دو خطی را که من به رنگ آبی نشان دادم تشخیص دهد، بلکه خروجی آن ممکن است شبیه آنچه با خطوط سبز نشان داده شده باشد. لطفا هر تکنیکی را که ممکن است برای این منظور مناسب باشد توصیه کنید. با تشکر
تکنیک غیر متعامد مشابه PCA
562
این یک سؤال نسبتاً کلی است: من معمولاً دریافته‌ام که استفاده از چندین مدل مختلف هنگام تلاش برای پیش‌بینی یک سری زمانی خارج از نمونه، عملکرد بهتری از یک مدل دارد. آیا مقالات خوبی وجود دارد که نشان دهد ترکیب مدل ها از یک مدل واحد بهتر عمل می کند؟ آیا بهترین روش در مورد ترکیب چند مدل وجود دارد؟ برخی از منابع: * Hui Zoua، Yuhong Yang ترکیب مدل های سری زمانی برای پیش بینی مجله بین المللی پیش بینی 20 (2004) 69-84
چه زمانی از چندین مدل برای پیش بینی استفاده کنیم؟
86688
من با آرایه‌ای به اندازه 265 x 5000 کار می‌کنم. هر ستون یک سری زمانی است و ردیف‌ها نقاطی در یک سری حجم هستند (وکسل در fMRI). من این داده ها را به چندین روش از قبل پردازش کردم، که اکثر آنها نوعی مکانیسم فیلتر دارند. وظیفه من محاسبه ضریب همبستگی بین تمام وکسل ها، محاسبه آزمون T، یافتن مقادیر p و تصحیح ضرایب برای مقادیر بالای یک آستانه است. سپس مراحل بیشتری وجود دارد، اما تا آنجا که من می دانم آنها مرتبط نیستند. من می دانم که چگونه آزمون T ضرایب corr را محاسبه کنم، اما در DOF نامشخص است. import numpy به عنوان np # roi متغیر من است که داده‌های 265 x 5000 را نگه می‌دارد. ... با این فکر که ممکن است مفید باشد، رتبه آرایه corr را با این روش محاسبه کردم: np.linalg.matrix_rank(corr) >>>225 رتبه آرایه سری زمانی: np.linalg.matrix_rank(roi.T) # the transpose >>>236 من واقعاً نمی دانم اینجا چه کار می کنم و امیدواریم راه روشنی برای تخمین DOF این آرایه وجود داشته باشد. متشکرم! ویرایش: من با محاسبه رتبه احساس می‌کنم احمقانه است. هیچ‌کدام از ماتریس‌ها سیستمی از معادلات خطی نیستند...بنابراین احتمالاً معنایی نداشت... فکر می‌کنم آنچه من دنبال آن بودم چیزی شبیه به محاسبه مقادیر ویژه آرایه همبستگی متقابل است. من در یک مقاله تحقیقاتی ژنتیکی که با ماتریس های همبستگی متقاطع بزرگ سروکار دارد، خوانده ام که یک مقدار ویژه کسری به این معنی است که وابستگی وجود دارد و اعداد صحیح مستقل هستند. به طوری که e.v. = 1.45 به معنای 1 مستقل و 0.45 ارزش الکترونیکی مستقل دیگر است. من نتوانستم این را تأیید کنم. به روز رسانی: شاید من اشتباه نکردم که رتبه Roi بالا را محاسبه کردم. از آنجایی که هر col یک بردار است، اگر اسکالرهای a و b وجود داشته باشد که نتیجه آن a*c_1 + b*c_2 = 0 است، پس c_1 و c_2 وابسته هستند. اگر roi دارای رتبه 236 باشد، Corr دارای DOF = 236**2 .... است؟
برآورد DOF برای آزمون t ضرایب همبستگی دوره های زمانی هموار
31682
من از نرم افزار minitab برای تناسب مدل سری های زمانی و پیش بینی استفاده کرده ام. برای برخی از مدل ها پیام خطای زیر را دریافت کردم. مدل برازش شده ممکن است غیر ثابت یا غیر معکوس باشد. تکمیل محاسبات غیرممکن است. با استفاده از پکیج دیگری مدل های مربوطه نصب شد. دلیل این نوع پیام خطا چیست و آیا راه حلی برای رفع آن وجود دارد؟
راه حل پیام خطا در minitab
31687
من در حال تماشای سمینار (حدود 20 دقیقه) از سرن در مورد کشف بوزون هیگز هستم. آنها به سرعت به طبقه بندی رویدادها می پردازند و در مورد تقویت درختان تصمیم صحبت می کنند. من واقعاً از آنچه آنها باید طبقه بندی کنند آگاه نیستم - حدس می زنم آنها فرض می کنند که مخاطب به اندازه کافی پروژه را عمیقاً می شناسد. نمی‌دانم که آیا کسی کل فرآیند تشخیص و طبقه‌بندی در موضوع را می‌داند؟ بیان مسئله برای من برای درک آن اساسی است. _Update_ من در حال بررسی این هستم که چه ویژگی‌ها، کلاس‌ها و معیارهای آماری در آزمایش فیزیک استفاده شده‌اند و سپس به درخت‌های تصمیم‌گیری و تجزیه و تحلیل چند متغیره تغذیه می‌شوند.
طبقه بندی رویداد در کشف بوزون هیگز
76705
من سعی می کنم یک مدل چند حالته را تخمین بزنم و تنظیم در کتاب میلز (2011) را دنبال می کنم. واحدهای تحقیق می توانند از حالت های مختلف a، b، c و d عبور کنند. واحدهای تحقیقاتی می توانند بین هر یک از چهار حالت در هر جهت حرکت کنند. مشکل من این است که چگونه داده های خود را برای انجام این کار تنظیم کنم. من در ابتدا با مجموعه داده در این قالب شروع کردم: ID سال وضعیت v1 v2 1 2000 a 1 2001 a 1 2003 b 2 1990 a 2 1995 a کتاب In Mills در صفحه 206، فرمت پیشنهادی این است: ID from to trans Tstart Tstop وضعیت زمانی v1 v2 که در آن از برای نشان دادن تمام حرکات ممکن بین حالت‌ها، یک دنباله از انتقال به ازای هر شناسه را انتقال دهید، Tstart و Tstop و Time متغیرهای زمانی هستند، وضعیت نشان می دهد که آیا یک حالت را تجربه کرده است یا نه (سانسور شده) و v1,v2 متغیرهای کمکی هستند. من شک دارم که چگونه چارچوب داده را تنظیم کنم، زیرا در مورد من حرکات زیادی بین حالت ها در جهات مختلف وجود دارد. من با اضافه کردن یک ستون به داده های اصلی خود شروع کردم، به طوری که داده هایی از نوع SPELL را همانطور که در کتابچه راهنمای Traminer به آن اشاره شده است داشته باشم. با این حال، با انجام این کار و تغییر آن به فرمت STS، متغیرهای کمکی خود را نیز که باید برای مدل چند حالته نگه دارم، از دست می‌دهم. ویرایش: در مجموع، چگونه می توانم از قالب بالا به فرمت مورد نیاز بسته mstate بروم؟
تبدیل داده برای تجزیه و تحلیل چند حالته با استفاده از traminer/mstate
18281
متغیر وابسته من بر اساس مبدا، باقیمانده مطلق* است که پس از مقداری رگرسیون باقی مانده است. به صورت نیمه نرمال توزیع می شود. اکنون قصد دارم از مدل خطی تعمیم یافته در SPSS (GENLIN) برای رگرسیون آن بر روی برخی از پیش بینی کننده ها (کاملاً متفاوت از آنهایی که باقیمانده ها را تولید می کنند) استفاده کنم. از چه نوع توزیعی برای DV استفاده کنم؟ برای داده های پیوسته، GENLIN توزیع های گاما، گاوسی معکوس و تویدی را ارائه می دهد. کدام را برای مدل سازی نیمه نرمال انتخاب کنیم؟ یا باید قبلاً تبدیل های خاصی را اعمال کنم؟ و کدام تابع پیوند مناسب‌تر است؟ در این مورد چه راهنمایی می توانید بکنید؟ با تشکر *به طور دقیق تر، من باقی مانده های مثبت را جداگانه و باقی مانده های منفی را جداگانه تجزیه و تحلیل می کنم.
DV توزیع شده نیمه نرمال در مدل خطی تعمیم یافته
563
متغیرهای ابزاری به طور فزاینده ای در اقتصاد کاربردی و آمار رایج می شوند. برای افراد ناآشنا، آیا می‌توانیم پاسخ‌های غیرفنی برای سؤالات زیر داشته باشیم: 1. متغیر ابزاری چیست؟ 2. چه زمانی می خواهید از یک متغیر ابزاری استفاده کنید؟ 3. چگونه می توان یک متغیر ابزاری را پیدا کرد یا انتخاب کرد؟
متغیر ابزاری چیست؟
97280
به عنوان مثال، ما مشاهده کردیم که $n$ پرتاب یک سکه مغرضانه با احتمال $\theta$ بودن سرها. چگونه می توانم این پارامتر را از طریق حداکثر احتمال محاسبه کنم؟ چگونه می توانم فرمول log-likelihood و تخمین حداکثر احتمال درست $\theta$ را استخراج کنم؟
چگونه پارامتر مجهول را از طریق حداکثر احتمال تخمین بزنیم؟
76701
من امیدوار هستم برای درک مفهوم RV ها با توجه به استفاده از آنها در نظریه استنتاج بر روی یک جمعیت از یک نمونه، کمک شود. برای استنباط از یک جامعه با استفاده از یک نمونه گفته می شود که مشاهدات باید i.i.d باشند. RV ها من مثالی از قالب وزن دار را در نظر می گیرم. اگر می‌خواهید وزن یک قالب را آزمایش کنید، می‌توانید آن را بخرید و 1000 بار آن را بغلتانید. در هر رول می توانید عدد تولید شده را به منظور درک توزیع احتمال قالب ثبت کنید. نتیجه یک بار چرخاندن قالب را می توان به عنوان یک RV نشان داد که از نتیجه چرخش به یک عدد صحیح در مجموعه $\{1,2,3,4,5,6\}$ نگاشت می شود. من می دانم که یک RV $X=f(x)$ یک تابع با ارزش واقعی است که از دامنه خود به زیر مجموعه ای از اعداد واقعی نگاشت می شود، بنابراین اگر بخواهم این آزمایش را قبل از انجام آن توصیف کنم، می توانم بردار $ را یادداشت کنم. [X_{1},X_{2},…,X_{1000}]$ که $X_{i} \,\, \forall \,\, i\in[1,1000]$ هستند i.i.d. RVs. می‌توانیم تصور کنیم که قالب را 1000 بار بچرخانیم و سپس نتایج را برای هر آزمایش بنویسیم، و به دست آوردن $[x_{1},x_{2},…,x_{1000}]$، تحقق RVs است. اگرچه $[X_{1}،…,X_{1000}]$ یکسان هستند، اما به نظر می‌رسد در متون به‌عنوان RVهای متمایز در نظر گرفته می‌شوند، و من نمی‌دانم چرا؟ اگر تشخیص دهیم که $X_{i}=f(x) \,\, \forall \,\, i$ (یعنی هر $X_{i}$ دقیقاً همان تابع است) و دلیل اینکه $X_{i }$ لازم نیست برابر $X_{j} $ برای $i\neq j$ به این دلیل است که ما ورودی متفاوتی را به $f(x)$ وارد کرده‌ایم، پس آیا گفتن آن به همان اندازه معتبر نیست $X_{1},X_{2},…,X_{1000}$ نشان دهنده چندین مشاهدات در یک RV است؟ در واقع، اگر شما دو متغیر تصادفی $f(x)$ و $g(x)$ داشته باشید، اما $f(x)=g(x)$ و دامنه‌های یکسان و محدوده‌های یکسان داشته باشند، به نظر گیج کننده است که استدلال کنیم. $f(x)$ و $g(x)$ متفاوت هستند؟ چیزی که به نظر می‌رسد در واقع اتفاق می‌افتد این است که شما یک RV دارید، $f(x)$، که راهی برای توصیف نتایج احتمالی انداختن یک تاس است، و در هر بار ریختن یک عنصر متفاوت از دامنه را به تابع وارد می‌کنید و بنابراین یک خروجی متمایز دریافت کنید. بنابراین آیا کسی می تواند شهود توصیف این فرآیند را به صورت i.i.d برای من توضیح دهد. RVها، برخلاف مشاهدات مختلف از یک RV؟
چرا یک نمونه را i.i.d توصیف می کنیم؟
13952
من منطق استانداردسازی داده‌های خام را که بر اساس مقیاس‌های مختلف در نمره‌های z است، می‌دانم تا بتوان آنها را با هم مقایسه کرد، برای مثال مقایسه نمره 75 از 100 در یک آزمون در مقابل 65 از 120 در آزمون دیگر. * آیا می توانم آزمون همبستگی اسپیرمن را روی نمرات z اجرا کنم؟ (یعنی داده های خام را فراموش کنید). * چگونه می توانم نتیجه را به داده های خام مرتبط کنم؟
آیا می توان همبستگی اسپیرمن را بر روی نمرات z اجرا کرد؟
13953
من یک رگرسیون چندگانه با یک عبارت تعاملی دارم و می‌خواهم آن را روی دو DV مجزا اجرا کنم. این دو DV کاملاً به هم مرتبط هستند (اما از نظر مفهومی متفاوت). چگونه می توانم آن همبستگی را کنترل کنم؟
دو DV همبسته در یک رگرسیون چندگانه
72930
من از پکیج R's 'astsa' استفاده می کنم و خروجی زیر را از ساریما دریافت می کنم. از کدام مقدار AIC برای مقایسه این مدل (بیایید آن را A بنامیم) با سایرین استفاده کنم؟ وقتی مدل دیگری (B) را امتحان می‌کنید، مناسب AIC مدل A (858.19) بیشتر از مدل B است، اما AIC مدل A (12.38841) کمتر از مدل B است، بنابراین من مطمئن نیستم که کدام مدل را انتخاب کنم. تفاوت بین دو AIC، AICc و BIC چیست؟ من سایت های زیر را در میان سایر موارد بررسی کرده ام، اما نتوانسته ام آن را بفهمم. هر گونه کمک بسیار قدردانی می شود. http://stat.ethz.ch/R-manual/R-patched/library/stats/html/arima.html http://www.inside-r.org/packages/cran/astsa/docs/sarima $fit سری: xdata ARIMA(0,1,1)(1,1,1)[12] ضرایب: ma1 sar1 sma1 -0.3282 0.5529 -0.8835 s.e. 0.3290 0.4751 0.8635 sigma^2 تخمین زده شده به عنوان 82513: log likelihood=-425.1 AIC=858.19 AICc=858.93 BIC=866.5 $AIC [1] 12.38841 [8.38841 $12 AICc 4.1] 11.48327
کدام مقدار AIC از تابع sarima() R برای مقایسه مدل استفاده شود
47977
آیا کسی می تواند به من کمک کند تا قسمت «به جلو به صورت مرحله ای» در الگوریتم LARS را بفهمم؟ من داشتم کد R را می خواندم و نمی توانستم بفهمم «updateR» و «downdateR» چه کار می کند.
گزینه Forward Stagewise در الگوریتم LARS
89758
من یک مجموعه داده با تعداد معینی از چند ویژگی چندگانه دارم. هر یک از مقادیر مشخصه یک متغیر تصادفی پیوسته است. من می‌خواهم هر تاپل (و نه هر ویژگی از تاپل) را با یک تابع توزیع احتمال مدل کنم. هدف نهایی این است که تاپل ها را خوشه بندی کنیم. آیا کسی می تواند بهترین روش را برای نشان دادن توزیع احتمال هر یک از مجموعه داده ها به من پیشنهاد دهد.
نحوه یافتن توزیع احتمال یک نقطه داده چند ویژگی در یک مجموعه داده
13954
من مجموعه داده های خود را با استفاده از یک مدل لجستیک امتیاز می دهم. برای بدست آوردن بتای (ضرایب) از «proc logistic y = x1 x2 x3» استفاده کردم. برای اینکه به مدل بگویم که کدام متغیرهای کلاس هستند، از دستور کلاس استفاده می کنم. حال، اجازه دهید بگوییم که اگر من یک متغیر طبقه بندی داشته باشم (با نام ppsc)، که دارای 4 دسته باشد، بتا برای 3 دسته برتر (ppsc1، ppsc2، ppsc3) تولید می شود و حدس می زنم دسته چهارم به عنوان مرجع در نظر گرفته شود. اکنون برای امتیاز دادن، از «proc score» برای امتیاز استفاده می‌کنم، بنابراین باید 3 متغیر باینری ppsc1 ppsc2 و ppsc3 تولید کنم به طوری که اگر ppsc = 1 باشد، ppsc1 = 1 other ppsc1 = 0. ... و برای ppsc2 و 3 یکسان است. اکنون سؤالات من عبارتند از: 1. اگر دسته 4 من از همه مهمتر است (شماره شماره) و لجستیک بتای تولید می کند. ppsc1، ppsc2 و ppsc3، چه کار کنم؟ بنابراین برای دسته چهارم logit(p) من برای آن متغیر صفر خواهد بود اگر مقدار ppsc 4 باشد؟ چگونه با این مشکل برخورد کنم؟ آیا این برای سایر متغیرهای طبقه بندی نیز صادق است؟ 2. من نمی خواهم آن متغیرهای باینری ppsc1، ppsc2 و ppsc3 را بسازم. آیا نمی توانم در زمان امتیاز دهی مشخص کنم که متغیرهای زیر من با استفاده از دستورات کلاس، متغیرهای دسته بندی هستند، درست مانند آنچه در proc logistic انجام می دهیم؟ امیدوارم مشکلات من روشن باشد... من BTW بیشتر نگران اولین مشکل هستم، زیرا این چیزی اساسی برای درک نحوه ایجاد امتیاز است.
درمان متغیرهای طبقه بندی شده در رگرسیون لجستیک در SAS
13950
همانطور که در مورد سوال قبلی ام، من به دنبال راه هایی هستم که داده های از دست رفته را در داده های سری زمانی سلسله مراتبی نسبت دهیم. با همه روش‌های دیگرم، از جمله آزمایش بسته‌های انتساب (Amelia، HoltWinters از پیش‌بینی و MICE) من فقط توانستم از داده‌های سری زمانی قبل از شکاف گمشده استفاده کنم. ژانویه فوریه مارس آوریل می ژوئن جولای اوت سپتامبر اکتبر نوامبر دسامبر 2001 220 194 238 190 217 244 242 225 242 259 267 244 2002 212 246 250 2326 2326 212 246 250 2326 267 234 246 2003 202 199 297 272 236 266 235 226 260 183 226 265 2004 211 215 219 213 240 22624 22624 2005 212 198 233 251 259 282 305 267 241 264 222 269 2006 182 220 250 287 279 281 286 332 232 200 200 2006 NA NA NA NA NA NA NA NA NA NA 2008 193 215 235 242 246 315 326 280 279 239 236 258 2009 246 189 257 242 246 246 242 257 2223 262 216 195 من سعی می‌کنم رویه انتساب ساده را انجام دهم که از تخمین‌های پیش‌بینی و پس‌کست از مدل سری زمانی استفاده می‌کند. پیش‌بینی با استفاده از داده‌های قبلی برای پیش‌بینی آینده و بازپخش با استفاده از داده‌های بعدی برای «پیش‌بینی» گذشته. سپس می‌خواهم مقدار پیش‌بینی و backcast را با هم ترکیب کنم تا به‌عنوان منتسب از آن استفاده کنم. پس از آن من به تناسب و غیره نگاه خواهم کرد. به عنوان مثال، من می توانم تعیین کنم که چه مدل SARIMA برای دوره اول 2001-2006 وجود دارد. اما نه دوره کامل (زیرا توابع اصلی من که از R می‌دانم از مقادیر NA پشتیبانی نمی‌کنند.) این فقط برای دوره 2001 تا پایان 2006 است: ARIMA(2,0,2)(1,0,1)[12] با میانگین غیر صفر فراخوانی: auto.arima(x = ts.datt) ضرایب: ar1 ar2 ma1 ma2 sar1 sma1 رهگیری 1.3610 -0.8258 -1.2407 0.9191 0.8982 -0.7560 244.8374 s.e. 0.0884 0.0960 0.0878 0.1127 0.2190 0.3335 6.1894 sigma^2 تخمین زده شده به عنوان 605.9: احتمال ورود = -335.01 AIC = 686.02 AICc = 2 دوره اول BICc = 6373 اولین دوره. پیش بینی توسط پیش بینی؛ مدل بعد پریود آخر جدا و بعد بک کست؟ چگونه این پس‌کستینگ را انجام دهم (یعنی «پیش‌بینی» گذشته)؟ **ویرایش:** آنچه می‌پرسم: 1) چگونه از داده‌های سال‌های 2008 و 2009 تا BACKCAST استفاده کنم؟ من قبلاً می دانم چگونه از 2001-2006 برای پیش بینی استفاده کنم. 2) چگونه می توانم مدل SARIMA را برای کل دوره تعیین کنم؟ (2001-2009) یعنی.
استفاده از اطلاعات در دو طرف یک شکاف در داده های سری زمانی برای انتساب
13959
من در حال مطالعه الگوریتم EM برای مدل‌های مخلوط گاوسی هستم، و ارجاع ثابتی به آمار کافی $i$th وجود دارد. این چیست و چرا با الگوریتم مرتبط است؟
آمار کافی $i$th در الگوریتم EM برای مدل های مخلوط گاوسی چیست؟
18132
من در حال کار بر روی _Applied Linear Regression Models_ (Kutner) هستم و به سختی می توانم این مشکل را کشف کنم (در واقع مشکل 6.26 است): > با توجه به یک مدل مرتبه اول با دو پیش بینی: $Y = \beta_0 + \beta_1X_1 + > \ beta_2X_2 + \epsilon$، نشان می دهد که ضریب تعیین ساده > بین $Y$ و $\hat{Y}$ برابر است با ضریب تعیین چندگانه > $R^2$. من این مشکل را در متون دیگر نیز دیده ام - به نظر می رسد این یک مشکل رایج است، اما نتوانستم هیچ نوع اثباتی را به صورت آنلاین پیدا کنم. آیا کسی پیوندی به آن دارد یا می تواند به من نشان دهد که چگونه برابر هستند؟
تعین چندگانه از نظر تعیین ساده
18133
من یک سری زمانی دارم و می خواهم بررسی کنم که آیا ریشه واحد دارد یا خیر. من می خواهم از آزمون دیکی-فولر استفاده کنم. چگونه باید معادله رگرسیون را از بین سه گزینه رگرسیون بدون ثابت و روند، با ثابت (دریفت) و با ثابت و روند انتخاب کنم؟ آیا رویه ای وجود دارد که برای انتخاب رگرسیون باید از آن پیروی کنم؟ انتخاب رگرسیون بر چه معیارهایی استوار است؟ اگر خطاهای رگرسیون انتخابی همبستگی دارند، آیا باید تست DF تقویت شده را با همان رگرسیون انتخاب شده در مرحله اول اجرا کنم؟
انتخاب نوع رگرسیون برای آزمون دیکی-فولر
18131
من روی داده های RNA-Seq کار می کنم (در پیوند جایگزین). بیایید بگوییم که من به نوع خاصی از رویداد پیوند جایگزین - _exon skipping_ نگاه می کنم. برای هر اینترون (یا اتصال)، من نگاه می‌کنم که آیا به طور معمول به هم متصل است یا یک رویداد پرش اگزون در حال وقوع است. من سه تکرار بیولوژیکی دارم (برای هر اتصال، 3 مجموعه مقدار دارم). برای جمع بندی، مجموعه داده های من به این صورت است: Junction 1: Rep1 Rep2 Rep3 exonSkip 8 0 0 normal 12 6 8 Junction 2: Rep1 Rep2 Rep3 exonSkip 5 9 8 normal 58 60 44 .... .... هدف من است، برای هر اتصال، از این تکرار، برای پیدا کردن اینکه آیا آن رویداد پرش اگزون خاص از نظر آماری معنی دار است. در ابتدا، تمام مقادیر _exonSkip_ و _normal_ را به طور جداگانه خلاصه کردم (در مورد اول، 8 و 26) و سپس به این نتیجه رسیدم که حداقل 2 رویداد exonSkip وجود دارد. با این حال، متوجه شدم که بهترین نیست و راه‌های بهتری هم وجود دارد. 1) از ادبیات (در مورد بیان ژن)، متوجه شدم که از تکرارهای بیولوژیکی باید برای به دست آوردن یک تخمین استفاده شود. از آنجایی که اینها داده های خواندنی = شمارش هستند، و اتفاقاً دارای درجه بالایی از پراکندگی در بین تکرارها هستند، یک _ توزیع دو جمله ای منفی _ پیشنهاد می شود. بنابراین، من از یک مدل «glm.nb» از کتابخانه «MASS» به شرح زیر استفاده کردم: # R-code # Junction 1 require(MASS) dat1 <- data.frame(y=as.numeric(c(8,0, 0،12،6،8))، exonSkip=as.factor(c(بله، بله، بله، نه، نه، نه))) out1 <- glm.nb( y ~ exonSkip, data=dat1) summary(out1) # Junction 2 dat2 <- data.frame(y=as.numeric(c(5,9,8,58,60,44)), exonSkip= as.factor(c(«بله»، «بله»، «بله»، «نه»، «نه»، «نه»))) out2 <- glm.nb( y ~ exonSkip، data=dat2) خلاصه (out2) برای اتصال 1: برای exonSkipyes `p=0.143` دریافت کردم. **سوال:** آیا این به این معنی است که نمی توان به مدل nb fit اعتماد کرد؟ برای Junction 2: p<2e-16 گرفتم. با این حال، آزمایش «glm.nb» یک *اخطار داد: در theta.ml ... به محدودیت تکرار رسید*. **سوال:** اشکالی ندارد؟ اکنون، از مدل، از تابع «پیش‌بینی» برای تخمین مقادیر _exonSkip_ و _normal از این 3 تکرار با برازش مدل استفاده کردم. exp(predict(out1, dat1)) # نتیجه: 2.6667 و 8.6667 = 3 و 9 exp(predict(out2, dat2)) # نتیجه: 7.333 و 54.000 = 7 و 54 **سوالات:** 1. آیا این روش از برآورد، با فرض مدل glm دو جمله ای منفی درست است؟ به ویژه، استفاده از تابع پیش بینی. 2. آیا هنوز هم می توانم از «پیش بینی» (همانطور که در بالا استفاده کردم) در صورت تناسب غیر قابل توجه استفاده کنم؟ اگر نه، پس چگونه می توانم برآورد دیگری داشته باشم؟ 2) حتی اگر بتوانم برآورد را بدست بیاورم، من دوباره 2 عدد دارم: 1 برای _exonSkip_ و دیگری برای _Normal_. از اینجا، می‌خواهم اندازه‌ای (یا p-value) از اهمیت آن به دست بیاورم. چگونه می توانم در این مورد اقدام کنم؟ من فکر می‌کنم که p-value از «glm.nb» این است که مدل چقدر با داده‌ها مطابقت دارد... یکی از راه‌هایی که به آن فکر کردم این است: اگر کاملاً رویدادهای _X+Y_ ( _X_ = total _exonSkip_ و _Y_ = total _Normal_ ) وجود داشته باشد. ، سپس از نمونه ای از رویدادهای _b_، اگر _a_ exonSkip را دریافت کنم، آنگاه از توزیع _هایپرهندسی_ پیروی می کند و می توانم مقدار p را به صورت زیر بدست بیاورم، sum(dhyper(a:b،X،Y،b)) این درست است؟ من از هر بازخورد قدردانی می کنم
استفاده از یک مدل دوجمله ای منفی برای برازش رویداد پیوند جایگزین
89754
من از ماژول statsmodels پایتون برای ترسیم یک نمودار **ویولن/قطعه** از برخی داده ها استفاده می کنم. هر زمان که یک طرح ویولن منفرد از لیستی از **نمونه های تکراری با همان تعداد** ترسیم شود، خطای _LinAlgError: singular matrix_ را در محاسبه **KDE** دریافت می کنم. جعبه های معمولی به خوبی کار می کنند. آیا این یک اشکال است یا دلیلی پشت آن وجود دارد؟ /home/me/myscript.py در plot_data_in_violinplot() 3435 plot_opts={'violin_fc':(0.8, 0.8, 0.8), 'cutoff':True, 'bean_color':'#FF6F00', 'bean_mean_color':' '، 'bean_median_color':'b', 'bean_median_marker':'+'} -> 3436 sm.graphics.beanplot(data_to_boxplot, ax=ax, jitter=jitter, plot_opts=plot_opts) /usr/local/lib/python2.7/ dist-packages/statsmodels/graphics/boxplots.py در beanplot(داده ها، تبر، برچسب ها، موقعیت ها، سمت، جیتر، طرح_انتخاب ها) 333 برای pos_data، pos در zip(داده ها، موقعیت ها): 334 # ویولن را بکشید. --> 335 xvals، violin = _single_violin (ax, pos, pos_data, عرض, side, plot_opts) 336 337 اگر از لرزش: /usr/local/lib/python2.7/dist-packages/statsmodels/graphics/boxplots.py در _single_violin (تبر، پوز، داده_پوست، عرض، کنار، طرح_انتخابها) 170 pos_data = np.asarray(pos_data) 171 # تخمین چگالی هسته برای داده‌ها در این موقعیت. --> 172 kde = gaussian_kde(pos_data) 173 174 # ویولن برای pos ایجاد کنید، به فضای موجود مقیاس‌بندی کنید. /usr/local/lib/python2.7/dist-packages/scipy/stats/kde.pyc در __init__(self, data, bw_method) 186 187 self.d, self.n = self.dataset.shape --> 188 self.set_bandwidth(bw_method=bw_method) 189 190 def ارزیابی (self, points): /usr/local/lib/python2.7/dist-packages/scipy/stats/kde.pyc in set_bandwidth(self, bw_method) 496 raise ValueError(msg) 497 --> 498 self._compute_covariance () 499 500 def _compute_covariance(self): /usr/local/lib/python2.7/dist-packages/scipy/stats/kde.pyc در _compute_covariance(self) 507 self._data_covariance = atleast_2d(np.cov(self.dataset, rowvar=1, 508 bias=F )) --> 509 self._data_inv_cov = linalg.inv(self._data_covariance) 510 511 self.covariance = self._data_covariance * self.factor**2 /usr/local/lib/python2.7/dist-packages/scipy/linalg/basic.pyc در inv( a, overwrite_a, check_finite) 381 inv_a, info = getri(lu, piv, lwork=lwork, overwrite_lu=1) 382 if info > 0: --> 383 raise LinAlgError(Singular Matrix) 384 if info < 0: 385 raise ValueError('مقدار غیر قانونی در %d-th آرگومان داخلی ' LinAlgError: ماتریس منفرد
statsmodels: خطا در kde در لیستی از مقادیر تکرار شده
31689
من یک مجموعه داده دارم که بر اساس یک فاکتور گروه بندی شده است (مانند cyl در mtcars ساخته شده در R). من توابع چگالی تخمینی (desityplot) را برای هر عامل با استفاده از بسته شبکه ترسیم کردم، به عنوان مثال. library(lattice) densityplot( ~mtcars$mpg[mtcars$cyl==4] ) densityplot(~mtcars$mpg[mtcars$cyl==6] ) densityplot(~mtcars$mpg[mtcars$cyl==8] ) اکنون می‌خواهم یک densityplot() برای کل مجموعه داده ایجاد کنم تخمین باید تعداد متفاوت نقاط داده موجود برای هر عامل را نادیده بگیرد، به عنوان مثال. densityplot(~mtcars$mpg) چیزی نیست که من می‌خواهم، زیرا نقاط داده با cyl=8 بیشتر از نقاط داده با cyl=6 است. آیا می توان چگالی را به طور جداگانه برای هر عامل تخمین زد و سپس نوعی چگالی متوسط را محاسبه کرد؟ اگر نه، روش مناسب برای هدف من چیست؟
میانگین چند تابع چگالی
5520
من نمی‌دانم که آیا راه ساده‌ای برای محاسبه مشکل زیر وجود دارد: ترسیم، با جایگزینی، توپ‌های $n$ از سطل توپ‌های رنگی مختلف $N$، با احتمال مشخصی برای ترسیم هر رنگ توپ، چه مقدار است. تعداد مورد انتظار توپ های محصول، _یعنی_ توپ هایی که هیچ توپ دیگری هم رنگ ندارند؟ _به عنوان مثال_ $P(قرمز) = 0.25$$P(آبی) = 0.3$$P(سبز) = 0.2$$P(زرد) = 0.25$ برخی از نتایج نمونه با 5 توپ: $\{قرمز، قرمز ، سبز، آبی، زرد\}$ - 3 توپ منحصر به فرد $\{قرمز، قرمز، سبز، سبز، آبی\}$ - 1 توپ منحصر به فرد $\{آبی، آبی، آبی، زرد، زرد\}$ - 0 توپ منحصر به فرد یا با 3 توپ: $\{قرمز، سبز، آبی\}$ - 3 $\{قرمز، قرمز، آبی\}$ - 1 $\{قرمز منحصر به فرد , قرمز, قرمز\}$ - 0 منحصر به فرد برای 1 توپ، به طور بی اهمیت 1 است. برای 2 توپ، 1 است - احتمال نتایج در جایی که دو توپ یک رنگ هستند * 2 توپ، پس از آن شروع به پیچیده تر شدن می کند.
تعداد مورد انتظار منحصر به فرد در یک جمعیت غیریکنواخت توزیع شده است
47973
من دو ارزیاب دارم که 93% در مورد موارد موافق هستند (دو گزینه: بله یا خیر). با این حال، هنگام محاسبه کاپا کوهن از طریق crosstabs در spss، نتایج بسیار عجیبی مانند -0.42 با یک علامت دریافت می‌کنم. از 0.677. چگونه چنین توافق بالایی در درصد می تواند منجر به چنین کاپا عجیبی شود؟ من آن را نمی فهمم.
ارزش های عجیب کاپا کوهن
5525
آیا راهی برای بدست آوردن تعداد پارامترهای یک مدل خطی مانند آن وجود دارد؟ مدل <- lm(Y~X1+X2) من می خواهم عدد 3 را به نحوی بدست بیاورم (قطع + X1 + X2). من به دنبال چیزی شبیه به این در ساختارهایی بودم که «lm»، «summary(model)» و «anova(model)» برمی‌گردند، اما متوجه نشدم. اگر جوابی دریافت نکردم، روی dim(model.matrix(model)) می مانم[2] ممنون
تعداد پارامترهای یک مدل خطی را بدست آورید
72936
من باید دو مورد زیر را پیاده سازی کنم: پیوند فرمول احتمال بازگشت منفی http://www.styleadvisor.com/content/probability-negative-return و احتمال بازگشت هدف پیوند فرمول بازگشت http://www.styleadvisor.com/content /احتمال- هدف-بازده. اگر من فقط 12 یا 24 بازده پرتفوی ماهانه داشته باشم، در محاسبه CCM یا CCV آنها E[R] می گیرند. که در حالت ایده آل به معنای بازده مورد انتظار است اما نحوه محاسبه آن. یکی از راه های ممکن این است که من 12 یا 24 بازده معیار دوره مشابه را دریافت کنم و سپس نمونه کارها بتا را با استفاده از روش واریانس کوواریانس محاسبه کنم و آن را در معادله CAPM قرار دهم تا E[R] محاسبه شود. بعداً در مورد چرا/چگونه توزیع تجمعی نرمال استاندارد باید روی آنها اعمال شود. به نظر من می توانم تابع NORMSDIST اکسل را برای نمایش نتیجه نمایشی اعمال کنم و بعداً از R/SAS برای پیاده سازی استفاده کنم. آیا کسی می تواند بگوید که روند فکر / رویکرد من صحیح است. سوال من بیشتر این است که چرا چون توزیع استاندارد معمولی تجمعی mu و sigma ثابت است، یعنی 0 و 1، بنابراین چگونه عامل انتظار/احتمال ثبت می شود. هر توضیحی عالی خواهد بود.
احتمال بازده منفی و بازده هدف
114610
رابطه بین $Y$ و $X$ در نمودار زیر چیست؟ به نظر من رابطه خطی منفی وجود دارد، اما چون ما نقاط پرت زیادی داریم، این رابطه بسیار ضعیف است. درست میگم؟ من می خواهم یاد بگیرم که چگونه می توانیم نمودارهای پراکنده را توضیح دهیم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hVoLg.jpg)
رابطه بین $Y$ و $X$ در این نمودار چیست؟
7742
فرض کنید کمیتی که می خواهیم استنباط کنیم یک توزیع احتمال است. تنها چیزی که می دانیم این است که توزیع از یک مجموعه $E$ که مثلاً توسط برخی از لحظات آن تعیین می شود، می آید و ما یک $Q$ قبلی داریم. اصل حداکثر آنتروپی (MEP) می گوید که $P^{\star}\در E$ که کمترین آنتروپی نسبی را از $Q$ دارد (یعنی $P^{\star}=\displaystyle \text{argmin}_{ P\in E}D(P\|Q)$) بهترین گزینه برای انتخاب است. در حالی که قاعده بیزی انتخاب فرآیندی برای انتخاب پسین با توجه به قبل دارد که توسط قضیه بیز پشتیبانی می شود. سوال من این است که آیا ارتباطی بین این دو روش استنتاج وجود دارد (یعنی اینکه آیا این دو روش برای یک مسئله کاربرد دارند و وجه اشتراکی دارند)؟ یا اینکه آیا در استنباط بیزی تنظیم با تنظیمات فوق متفاوت است؟ یا من عقل ندارم؟!
بیزی در مقابل آنتروپی حداکثر
18135
ساده ترین شکل فرآیند نویز سفید در جایی است که مشاهدات آن با هم ارتباطی ندارند. ما می توانیم این را با اعمال به عنوان مثال بررسی کنیم. تست پورمانتو مانند ریه - باکس یا باکس - پیرس. این سری ممکن است نویز سفید گاوسی باشد که در آن مشاهدات نامرتبط هستند و همچنین معمولاً توزیع می شوند و بنابراین مستقل هستند. ما می توانیم این را با تست نرمال بودن و تست پورمانتو تست کنیم. تا آنجا که من می دانم مورد سومی وجود دارد که مشاهدات بدون همبستگی و مستقل هستند بدون اینکه به طور معمول توزیع شوند. در این صورت چگونه می توانیم مستقل بودن مشاهدات را آزمایش کنیم؟ آیا آزمون آماری برای این موضوع وجود دارد؟
تست نرمال بودن و استقلال باقیمانده های سری زمانی
89759
من به دنبال منابعی در مورد روش های کلاسیک در خوشه بندی رگرسیون هستم. مشکل من این است: من ابری از نقاط را دارم که فرض می شود توسط توابع معکوس با ضرایب مختلف ایجاد شده اند. به طوری که من یک خانواده از توابع رگرسیون دارم. من فقط فرم مدل را می دانم و تعداد خوشه ها را نمی دانم. من می‌خواهم الگوریتمی را برای بهترین تناسب با استفاده از n تابع رگرسیون از تابع معکوس $y = \frac{c}{x}$ با $c$ مقداری ثابت پیاده‌سازی کنم. آیا محبوب ترین متدولوژی ها را می شناسید؟ آیا روش هایی را می شناسید که مخصوصاً برای این نوع از خانواده توابع رگرسیون مناسب هستند؟
خوشه بندی رگرسیون
31680
چگونه می توانم با استفاده از GARCH در STATA نوسانات را پس از تخمین نوسان شرطی پیش بینی کنم؟
پیش بینی نوسانات با استفاده از GARCH
31686
من خواندم که اگر شما یک $f(x) = ax^2+bx+c$ درجه دوم داشته باشید و ضریب اصلی $a <0$ را ارائه دهید، آنگاه $e^{f(x)}$ پی دی اف یک نرمال است. توزیع با میانگین $\mu = -\frac{b}{2a}$ و $\sigma^2 = -\frac{1}{2a}$. آیا این به $e^{f(\mathbf{x})}$ تعمیم می‌دهد که توزیع نرمال چند متغیره را تعریف می‌کند که در آن $f(\mathbf{x}) = \mathbf{x}'\mathbf{A}\mathbf{x} + \mathbf{x}'\mathbf{b} + \mathbf{c}$. اگر چنین است، چه شرایطی برای صحت این موضوع وجود دارد و میانگین و کوواریانس چیست؟ با تشکر
یک شکل درجه دوم را نشان دهید، کدام MVN؟
85889
من سعی کرده ام با استفاده از SPSS برخی از آمارها (همگی مربوط به علوم اجتماعی) را به خودم آموزش دهم. تا اینجای کار همه چیز خوب پیش می رود، من از اینکه چقدر در ریاضیات وحشتناک هستم، شگفت زده شده ام. با این حال، یک چیز وجود دارد که من کاملاً درک نمی کنم. بگویید من یک رگرسیون OLS چندگانه اجرا می کنم. سپس SPSS چیزی به نام ضریب استاندارد و دیگری به نام ضریب غیر استاندارد به من می دهد. من درک می کنم که اساساً ضریب استاندارد شده مفید است اگر می خواهید بدانید کدام یک از متغیرهای مستقل مختلف مهم تر است. از سوی دیگر، ضریب غیراستاندارد ضریب است که شما از آن استفاده می کنید تا بفهمید تغییر 1 واحد در x چه تأثیری بر y دارد. سوال عملی این است: اگر من مقاله ای را با استفاده از رگرسیون چندگانه بنویسم، باید جدولی را با تمام نتایج تکمیل کنم. مشکل این است که، در این مقاله، من می خواهم در مورد ضریب استاندارد شده (برای مقایسه اثرات متغیرها) **و همچنین ** غیر استاندارد (برای محاسبه تغییرات واحد) نظر بدهم. بنابراین اساساً، کدام ضریب را باید در مقاله ای گزارش کنم که در آن به هر دو اشاره کنم؟ آیا باید یکی را در جدول نتایج قرار دهم و دیگری را در جای دیگری؟ تا!
استاندارد یا غیر استاندارد؟
92690
من می خواهم اثر یک دارو (تعدیل کننده ایمنی) را بر روی سطح آنتی بادی در گروهی از بیماران $(n=18)$ مقایسه کنم. نمونه خون قبل و بعد از درمان در هر بیمار گرفته شد و میانگین سطوح آنتی بادی برای هر فرد مورد مطالعه مقایسه شد. در این مرحله من حدس می‌زنم که بهترین و ساده‌ترین گزینه «تست زوجی» است. با این حال، در برخی موارد، تعداد متفاوتی از نمونه خون در گروه قبل از گروه بعد از درمان دارم. به عنوان مثال، برای یک بیمار 16 نمونه قبل از درمان و 5 نمونه بعد از درمان دارم. * آیا هنوز هم می توانم از آزمون t زوجی استفاده کنم؟ * آیا باید از آزمون تی مستقل استفاده کنم؟
آیا می توانم از آزمون تی زوجی استفاده کنم که 2 گروهی که مقایسه می کنم تعداد نقاط داده متفاوتی دارند؟
110741
من یک مجموعه داده حاوی یک متغیر پاسخ باینری و چند متغیر پیش بینی عددی دارم. من می خواهم از الگوریتم درختان استنتاج شرطی در R با استفاده از تابع ctree در بسته حزب استفاده کنم. با این حال، نتایج در مجموعه داده با هم مرتبط هستند زیرا یک فرد واحد در بیش از یک رکورد در این داده ها مشارکت دارد. آیا یک فرض اساسی استقلال در ctree وجود دارد که ممکن است از استفاده از این تکنیک در مجموعه داده من جلوگیری کند؟ اگر چنین است، آیا تکنیک‌های استانداردی وجود دارد که بتوانم از طریق آن این موضوع را دور بزنم؟ لطفا توجه داشته باشید که من از GEE (PROC GENMOD در SAS با گزینه REPEATED) به عنوان یکی از گزینه های مدل سازی استفاده می کنم. همچنین می‌خواهم با استفاده از رویکرد مبتنی بر درخت، راه‌حل جایگزینی ارائه دهم و قطعاً ترجیح می‌دهم در صورت امکان از درخت‌های استنتاج شرطی نسبت به سبد خرید CHAID استفاده کنم. با تشکر * KC
درختان استنتاج شرطی در مشاهدات همبسته
72937
به طور خاص من به برآوردگر مقیاس علاقه مند هستم. امیدوارم خیلی بهتر از IQR باشد.
بازده آماری L-moments چقدر است؟
31352
من در حال مقایسه روش های مختلف برازش اعداد تصادفی توزیع شده پارتو هستم. چیزی که برای من بسیار عجیب به نظر می رسد این است که قرار دادن یک خط مستقیم در مقیاس log-log باید بدترین روش عددی باشد و در واقع هم همینطور است، اما وقتی هیستوگرام log-log را با آن خط مستقیم روی هم قرار می دهم، خیلی خوب روی هم قرار می گیرند. روش دیگر برازش بسیار بد است. چگونه ممکن است این پارادوکس؟ من اشتباهاتی انجام می دهم؟ این کد من در R برای بررسی است: pareto.MLE <- تابع(X) { n <- طول(X) m <- min(X) a <- n/sum(log(X)-log(m)) منحنی(-(a+1)*x+log(a)+a*log(m),add=T,col='black') return(c(a) } pareto.Alpha <- تابع (X) { m <- min(X) mu <- mean(X) a <- mu/(mu-m) منحنی(-(a+1)*x+log(a)+a*log(m),add=T,col= 'سبز') return( c(a) } pareto.median <- تابع (X) { m <- min(X) med <- median(X) a <- log(2.)/log(med/m ) curve(-(a+1)*x+log(a)+a*log(m),add=T,col='blue') return(c(a) } pareto.fit <- تابع (X) { dd <-hist(X,plot=F) for(i در طول (dd$counts):1) { if(dd$density[[i]]==0) { dd$density[[i]]=dd$density[[i+1]] } }cc <-lm(log(dd$density)~log(dd$mids)) منحنی(x*(ضرایب(cc)[ 2])+(ضرایب(cc)[1])،add=T،col='red') return( c(-1*(ضرایب(cc)[2]+1))) } کتابخانه (PtProcess) alpha=1. hh1<-(ماتریس(rpareto(100,alpha,0.1),ncol=1)) pp<-hist(hh1,plot=F) پارامتر نمودار(log(pp$mids),(log(pp$density))) پارامتر .1<-pareto.MLE(hh1).a <- pareto.پارامتر Alpha(hh1).m <- pareto.median(hh1) parameter.f <- pareto.fit(hh1) cat('Alpha: ',alpha,'\n') cat('MLE: ',parameter.1,'\n') cat(' میانگین: ',parameter.a,'\n') cat('میانگین: ',parameter.m,'\n') cat('مناسب: ',parameter.f,'\n')
مقایسه روش های برازش پارتو
32853
من سعی می کنم بهترین راه را برای پیش بینی مبلغ پرداخت برای آژانس مجموعه ارائه کنم. متغیر وابسته فقط زمانی غیر صفر است که پرداخت انجام شده باشد. قابل درک است که تعداد زیادی از صفرها وجود دارد زیرا نمی توان به اکثر مردم دسترسی پیدا کرد یا نمی توانند بدهی خود را بازپرداخت کنند. همچنین یک همبستگی منفی بسیار قوی بین مبلغ بدهی و احتمال پرداخت وجود دارد. به طور معمول، من یک مدل لجستیک برای پیش‌بینی احتمال پرداخت/عدم پرداخت ایجاد می‌کنم، اما این نتیجه ناگوار یافتن افرادی با کمترین موجودی است. آیا راهی برای ترکیب یک مدل پرداخت / عدم پرداخت لجستیک با یک مدل جداگانه برای پیش بینی مبلغ پرداخت وجود دارد؟
بهترین راه برای ترکیب پاسخ باینری و پیوسته
85887
من سعی می کنم نموداری را ترسیم کنم که دارای دو محور y و یک محور x باشد. سه متغیر A,B,C را در نظر بگیرید. اولین مجموعه داده من G1، دارای مقادیر A و B است. هنگام دریافت این مجموعه داده در اسکریپت، C را ثابت نگه داشتم. در مجموعه داده دوم G2، من B و C را دارم و برای مقداری ثابت A ایجاد شده است. اکنون این را با «matplotlib.pyplot» ترسیم می کنم. سوال من این است که آیا Y1=A، X=B، Y2=C را نگه دارم و این داده ها را رسم کنم. ظاهر عجیبی دارد که به نظر من به این دلیل است که برای G1، C فقط یک مقدار و برای G2 A فقط یک مقدار دارد. من دو خط مختلف در نمودار نهایی دریافت می کنم و نمی فهمم این نمودار چه چیزی را نشان می دهد؟ برای من احساس می کنم که اگر نموداری را بین متغیرهای A,B,C رسم کنم، به جای ترسیم دو خط متفاوت مستقل، باید رابطه بین آنها را به من نشان دهد. ![http://imgur.com/OahwFir](http://i.stack.imgur.com/JqK6Q.png)
مشکل در درک نمودار دو مقیاسی
89283
من باید با استفاده از داده های نظرسنجی افکار عمومی اطلاعاتی در مورد پیش بینی کننده های اصلی آرای یک نامزد ارائه دهم. من یک رگرسیون لجستیک را با استفاده از همه متغیرهایی که به آنها اهمیت می دهم اجرا کرده ام، اما نمی توانم راه خوبی برای ارائه این اطلاعات پیدا کنم. مشتری من فقط به اندازه اثر اهمیت نمی دهد، بلکه به تعامل بین اندازه اثر و اندازه جمعیت با چنین ویژگی اهمیت می دهد. چگونه می توانم با آن در یک نمودار مقابله کنم؟ پیشنهادی دارید؟ در اینجا یک مثال آورده شده است: > $\beta$ متغیر SEX (Male=1) زمانی که متغیر وابسته Vote/Not > در یک نامزد 2.3 است، که پس از قدرت گرفتن > و به عنوان نسبت شانس یا تلقی می شود، عدد بزرگی است. احتمال با این حال، جامعه ای که این نظرسنجی در آن اجرا شد، تنها 30 درصد مرد داشت. بنابراین، اگرچه انسان بسیار از این نامزد حمایت کرد، اما تعداد آنها برای نامزدی که در تلاش برای پیروزی در انتخابات اکثریتی است ناچیز است.
بهترین راه برای تجسم اثرات دسته ها و شیوع آنها در رگرسیون لجستیک چیست؟
31358
بیایید فرض کنیم دو وسیله با خطاهای استاندارد مربوطه داریم. mean_1 = 3.75، se_1 = 0.64 mean_2 = 2.90، se_2 = 0.94 من می‌خواهم میانگین میانگین را داشته باشم و خطای استاندارد را محاسبه کنم. می‌خواهم «متوسط_1» بیشتر از «میانگین_2» به میانگین کمک کند (زیرا خطای استاندارد کمتر است). یک میانگین وزنی اگر بخواهید. یکی از راه‌ها این است که وزن‌ها را به‌عنوان بزرگی نسبی خطای استاندارد مشخص کنیم (من از تابع R استفاده می‌کنم «weighted.mean» که در بسته «stats» پایه یافت می‌شود): >weighted.mean(c(3.75, 2.0)، w = c((1 -0.64/(0.64+0.94))، (1- 0.94/(0.64+0.94)))) [1] 3.041139 آیا این منطقی است؟ چگونه می توان با این مشکل برخورد کرد؟ خوشحال میشم نظرات و پیشنهادات شما رو بشنوم.
چگونه مقادیر را بر اساس خطاهای استاندارد ترکیب کنیم؟
72935
من باید احتمال $P(L,D)$ را محاسبه کنم، جایی که $L$ و $D$ مستقل نیستند. من $P(L)$ و $P(D)$ را با دو مدل متمایز تخمین زده ام و همچنین $P(L|D)$ و $P(D|L)$ را می شناسم. تا آنجا که من می توانم آن را ببینم من دو تخمین متفاوت از $P(L,D)$ دارم: $P(L,D) =P(L) * P(D|L)$ $P(L,D) = P(D) * P(L|D)$ آیا بهتر است فقط میانگین این دو تخمین را برای $P(L,D)$ مشترک بگیرم؟
محاسبه احتمالات مشترک از احتمالات مشروط
30082
من می خواهم یک ماتریس مربع تصادفی ایجاد کنم به طوری که سطرها به یک نرمال شوند و عناصر مورب حداکثر ستون آنها باشند. آیا راهی کارآمد برای نمونه برداری یکنواخت از این ماتریس ها وجود دارد؟ ایجاد ماتریس‌های $2 \ برابر 2$ ساده است. ستون اول با نمونه برداری از دو لباس مستقل از $[0,1]$ و انتقال حداکثر به اولین ورودی ایجاد می شود. سپس ستون دوم مکمل ستون اول است. تلاش‌های من برای پیروی از رویه‌ای مشابه در ابعاد بالاتر، بسیار موقتی به نظر می‌رسد، و دردسرسازتر از همه، توزیع بسیار متفاوتی را برای ستون تکمیل‌شده نهایی نسبت به بقیه می‌دهد. آیا نوعی از نمونه گیری رد بهترین گزینه برای من خواهد بود؟ انگیزه تولید ماتریس های احتمال است که ردیف ها حالت های جهان و ستون ها سیگنال های مشاهده شده هستند. هر سیگنال به احتمال زیاد در حالت مربوطه خود رخ می دهد، اما لزوما محتمل ترین سیگنال در آن حالت نیست. **ویرایش:** توزیع دقیق مهم نیست، غیر از اینکه طبیعی به نظر می رسد. من می خواهم از حداکثر بودن مورب برای ردیف ها اجتناب کنم. در اینجا تلاش ah-hoc قبلی من است. gen.likelihood.matrix <- function(T){ # T: تعداد حالت‌های mat <- matrix(runif(T^2), nrow=T) # مقداردهی اولیه با متغیرهای یکنواخت diag(mat) <- 1 # برای تضمین دیاگ حداکثر در ستون است kandidat.mat <- ماتریس(nrow=T, ncol=T) # حلقه برای بررسی رضایت محدودیت برای (k در 1:100){ وزن‌ها <- runif(T-1) وزن‌ها <- وزن‌ها / مجموع (وزن‌ها) برای (i در 1:T){ # تغییر مقیاس ستون‌ها kandidat.mat[i,-T] <- mat[i, -T] * وزن ها # جایگزین ستون آخر با متمم برای برآورده شدن محدودیت ردیف kandidat.mat[i,T] <- 1 - sum(candidate.mat[i,-T]) } # آیا آخرین ستون محدودیت حداکثری را برآورده می کند؟ if(candidate.mat[T,T] > max(candidate.mat[-T,T])){ # Shuffle برای به حداقل رساندن اعوجاج از ترتیب مجدد آخرین ستون <- sample(1:T,T) return(candidate.mat [reorder, reorder]) } } # Recurse برای دریافت مقادیر اولیه جدید در صورت لزوم بازگشت (genLikeliMatrix(T)) } این از نظر دادن ماتریس به من کار می کند به طور موثر، اما من به دلیل نحوه مدیریت ستون آخر، توزیع دووجهی عجیبی در مورب دریافت می کنم. ![توزیع عناصر مورب](http://i.stack.imgur.com/5QPuS.png)
تولید ماتریس های تصادفی با محدودیت های مجموع و حداکثر