_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
82601
من یک زیست شناس هستم و به دنبال راهنمایی در مورد اینکه از کدام آزمون آماری هنگام مقایسه واریانس داده ها استفاده کنم. من دو توزیع نظری را با داده های تجربی مقایسه می کنم. داده های موجود در توزیع ها ممکن است به طور معمول توزیع نشده باشند و ممکن است تعداد نقاط داده ای برابر وجود نداشته باشد. نمونه ای از داده های من در زیر نشان داده شده است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/zDW2d.png) بنابراین کاری که من انجام داده ام عادی سازی داده ها در محور y مشابه است. ترازو من این کار را با گرفتن میانگین هر یک از سه توزیع و رسم تفاوت آنها از میانگین انجام دادم. توزیع داده ها در زیر نشان داده شده است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bTuoy.png) محور y تفاوت از میانگین و محور x نوع است. از داده ها با استفاده از توزیع نرمال شده، من از F-Tests در R (با دستور Var.test()) برای تجزیه و تحلیل آماری واریانس داده ها استفاده کرده ام. اما F-Tests توزیع نرمال را در نظر می گیرد. آیا F-Test تست صحیحی برای استفاده در این مورد است؟ اگر نه کسی می تواند آزمایش مناسب تری را پیشنهاد دهد؟
هنگام مقایسه واریانس برای داده هایی که لزوماً به طور معمول توزیع نمی شوند، از کدام آزمون استفاده شود
65789
من سعی می کنم کلیک ها را در کمپین های گوگل ادوردز مدل کنم. این تابعی از نمایش‌ها، احتمال یک کلیک (CTR) روی آن نمایش، هزینه هر کلیک (CPC) و بودجه تبلیغ‌کننده است. اساساً $$\text{کلیک} = \text{impressions} \times \text{CTR}$$ تابع $$\text{impressions} \times \text{CPC} \times \text{CTR} \leq \ text{Budget}$$ **این محدودیت چگونه باید در مدل من گنجانده شود؟** خوشحال می‌شوم اگر مفید باشد، اطلاعات بیشتری ارائه کنید.
چگونه با استفاده از مدل سازی بیزی با محدودیت ها، احتمال یک کلیک وب را مدل کنیم؟
17216
امیدوارم کسی بتواند در این مورد کمک کند - شاید یک سوال پیش پا افتاده در مورد تفسیر فرمول زیر. این میانگین طول عمر باقیمانده (محدود به پنجره داده) در مورد زمان گسسته است. ### میانگین عمر باقیمانده محدود شده > زمان باقیمانده تا رویداد یا کران بالا - هر کدام که اول باشد $$\mu_{[\gamma]}(t|\mathbf{x})=E\left(\min(T, t+ \گاما+1)-t|T\ge t، \mathbf{x}\right)=\sum_{j=t}^{t+\gamma}\prod_{k=t}^{j}\left(1-h(k|\mathbf{x})\right )$$ سوال من این است که شما سیگما و محصول را چگونه تفسیر می کنید؟ $t$ زمان فعلی است (به عنوان مثال 5) و $\gamma$ حد بالایی از درک من است. چگونه این را محاسبه می کنید؟
میانگین عمر باقیمانده محدود: تجزیه و تحلیل بقا: گسسته
94354
من همان مدل SEM را در _sem_ و _lavaan_ اجرا کردم. من همان پارامترها و - به طور کلی - مقادیر تست بسیار نزدیک را دریافت کردم، به استثنای AIC و BIC که بین دو بسته بسیار متفاوت بودند. AIC و BIC حاصل از _sem_ به شرح زیر است: AIC = 2913.849 BIC = -1777.617 AIC و BIC حاصل از _lavaan_ است: Akaike (AIC) 37780.878 Bayesian (BIC) 38178.999 چرا این مقدار تفاوت زیادی وجود دارد؟ آیا در هر بسته متفاوت محاسبه می شود؟ ویرایش: در اینجا کدهایی وجود دارد که چگونه چنین مقادیری را دریافت کردم. در مورد بسته _sem_ از خط زیر استفاده کردم: options(fit.indices = c(GFI، AGFI، RMSEA، NFI، NNFI، CFI، RNI، IFI، «SRMR»، «AIC»، «AICc»، «BIC»، «CAIC»)) fit = sem(mymodel، cov(mydata)، nrow(mydata)، data = mydata) summary(fit) در مورد بسته _lavaan_ از خط زیر به جای آن استفاده شد: fit = sem(mymodel, data = mydata, estimator = ML) summary(fit,fit.measures=TRUE) من از _R_ نسخه 3.0 استفاده می کنم. 3 (06/03/2014) توله سگ گرم (نسخه x64)، بسته _sem_ نسخه 3.1-3 و پکیج _lavaan_ نسخه 0.5-16 . متشکرم، دوتریوم
تفاوت در مقادیر AIC و BIC بین بسته‌های sem و lavaan در R
65036
با توجه به یک مسیر نمونه از فرآیندی که قرار است ثابت باشد، دیدم که تابع خود همبستگی نمونه مسیر نمونه برای تخمین تابع خودهمبستگی فرآیند استفاده می‌شود. اما این مستلزم آن است که فرآیند ثابت ارگودیک باشد. بنابراین * آیا ارگودیسیته در مسیر نمونه قبل از تخمین تابع همبستگی بررسی می شود؟ اگر بله، ارگودیسیته چگونه بررسی می شود؟ * آیا برآورد با فرض ارگودیسیته بدون بررسی انجام می شود و پس از تخمین، آزمایش/بررسی مطابقت برآورد با داده ها انجام می شود؟ اگر بله، آزمایش چگونه انجام می شود؟ یک سوال جانبی: ایستایی چگونه برای تخمین تابع همبستگی آزمایش می شود؟ با تشکر و احترام!
آیا در تخمین تابع خودهمبستگی باید ارگودیسیته بررسی شود؟
65781
من سعی می کنم برخی از داده های مجموعه ای از بررسی های پرندگان را تجزیه و تحلیل کنم. متغیر پاسخ من فراوانی پرنده است، که تعداد پرندگان شمارش شده در یک دوره پنج دقیقه ای است. این شمارش های پنج دقیقه ای در 200 سایت انجام شد. شمارش در هر سایت سه بار تکرار شد، اگرچه حدود 20 سایت وجود دارد که تنها دو شمارش کامل شده است. من می خواهم فراوانی پرندگان را به عنوان تابعی از ویژگی های سطح سایت (کیفیت زیستگاه و غیره) و همچنین ویژگی های سطح شمارش (شرایط آب و هوا در زمان شمارش و غیره) مدل کنم. بنابراین، من ~ 200 سایت و ~ 600 تعداد فردی دارم، اما فقط 2-3 تعداد در هر سایت. سوال من این است: با توجه به اینکه من فقط 2-3 تعداد در هر سایت دارم، آیا می توانم سایت را به عنوان یک عامل تصادفی برای محاسبه عدم استقلال تعداد در سایت ها در نظر بگیرم؟ (توجه داشته باشید در صورت لزوم می توانم سایت هایی را که فقط دو عدد دارند حذف کنم). من اطلاعات متناقضی در مورد تعداد مشاهداتی که در هر سطح از عامل تصادفی نیاز دارید را خوانده ام. مقاله بن بولکر در مورد GLMM ها در گرایش های بوم شناسی و تکامل می گوید: 5-6 سطح اثر تصادفی در هر اثر تصادفی و 10-20 نمونه در هر سطح درمان یا واحد آزمایشی، اما سپس مطالبی را خواندم که پیشنهاد می کند از مدل های ترکیبی برای تکرار استفاده کنید. طرح‌هایی را اندازه‌گیری می‌کند که یک نمونه پیش‌درمان، پس از درمان و پیگیری را انجام می‌دهند - یعنی فقط سه مشاهده در هر سطح از اثر تصادفی. با تشکر از کمک! جی
به چند مشاهده در هر سطح از یک عامل تصادفی نیاز دارید تا با یک اثر تصادفی مطابقت داشته باشید؟
63787
دریافتم که اغلب در ادبیات، از مقادیر احتمال اغلب برای مقایسه روش‌های تخمین مختلف برای یک مدل استفاده می‌شود. و من این تصور را پیدا کردم که تنها راهی است که از مقادیر احتمال استفاده می شود. با این حال، نمی دانم چه چیز دیگری می توانیم در مورد تابع احتمال بگوییم. به عنوان مثال، آیا می توانیم دو تابع درستنمایی مدل کاملاً متفاوت را با هم مقایسه کنیم؟ حداقل احتمال چقدر است (بدیهی است که صفر نیست)؟ حدس خوبی در مورد حداکثر بدون پرداختن به روش تکراری تخمین چیست؟ (آیا می توانیم معادلات نابرابری بسازیم و مرزهایی را برای تابع درستنمایی ادعا کنیم؟)
در مورد تابع درستنمایی علاوه بر استفاده از آن در تخمین حداکثر درستنمایی چه می توانیم بگوییم؟
90842
زمانی که گروه کنترل وزن بیشتری نسبت به گروه آزمایشی افزایش می‌دهد، اندازه تأثیر من باید مثبت یا منفی باشد (وقتی فرض می‌شود که گروه آزمایش وزن بیشتری از دست می‌دهد، یعنی تفاوت بین گروه‌ها به دلیل افزایش وزن بیشتر در گروه کنترل است تا وزن. ضرر در گروه آزمایش)؟
جهت اندازه اثر
82602
من بردار مختصات نقاط شبکه $(x,y)$ و مقادیر احتمال مشترک، $z$ را دارم. آیا می توانید راهی برای حاشیه سازی برای توزیع مشترک زیر توصیه کنید؟ (در مشکل من، من از نقاط شبکه به طور تصادفی از توزیع مشترک نمونه برداری کرده ام. البته، اگر نقاط روی خطوط مستقیم ردیف شده باشند، این کار چندان دشوار نیست). ![شبکه های نامنظم](http://i.stack.imgur.com/GeO8m.png)
حاشیه‌سازی از شبکه‌های با فاصله تصادفی توزیع مشترک
43585
فرض کنید داده‌های ترتیبی داریم که می‌توانند مقادیر زیر را در نظر بگیرند: $0$، $1$، $2$، $3$ و $4$. همچنین فرض کنید که نقاط داده زیادی وجود دارد که در دسته $1 قرار می گیرند. آیا می توانیم از رگرسیون پواسون باد شده صفر برای مدل سازی استفاده کنیم؟
داده های ترتیبی و رگرسیون پواسون تورم صفر
80601
در روش‌های خوشه‌بندی مانند K-means، فاصله اقلیدسی معیاری است که باید استفاده شود. در نتیجه، ما فقط مقادیر میانگین را در هر خوشه محاسبه می کنیم. و سپس تنظیمات بر روی عناصر بر اساس فاصله آنها تا هر مقدار متوسط ​​انجام می شود. من تعجب کردم که چرا تابع گاوسی به عنوان متریک استفاده نمی شود؟ به جای استفاده از «xi -mean(X)»، می‌توانیم از «exp(- (xi - mean(X)).^2/std(X).^2)» استفاده کنیم. بنابراین نه تنها شباهت بین خوشه ها اندازه گیری می شود (میانگین)، بلکه شباهت درون خوشه نیز در نظر گرفته می شود (std). آیا این نیز معادل مدل مخلوط گاوسی است؟ در اینجا فراتر از سؤال من است، اما فکر می کنم تغییر میانگین ممکن است همان سؤال بالا را ایجاد کند.
چرا در روش خوشه بندی (K-means) فقط از مقدار میانگین استفاده می شود؟
90841
من از «موش» در «R» استفاده می‌کنم، یک الگوریتم معادلات زنجیره‌ای (رگرسیون متوالی)، برای منتسب کردن یک سری از متغیرهای چندتومی (مثلاً مقیاس‌های 1 تا 5 یا 1 تا 3). در نهایت، علاقه من به تخمین آمار مربوط به نسبت ساده دسته ها در این متغیرها است (مثلاً 1 و 2 در مقابل سایر متغیرها). دو گزینه برای انجام این رمزگذاری مجدد وجود دارد، یعنی قبل و بعد از imputation. رمزگذاری مجدد پس از انتساب به معنای در نظر گرفتن متغیرها به عنوان چند تومی در موش با استفاده از یک مدل رگرسیون چند جمله ای یا ترتیبی است. با این حال، در برخی از دسته ها (به عنوان مثال بالا یا پایین، 1 یا 5) داده های نمونه پراکنده هستند. بنابراین من در مورد واریانس انتساب این دسته‌ها توسط مدل‌های چندتومی مطمئن نیستم. با این حال، مدل برای داده های اصلی بسیار مناسب است. رمزگذاری مجدد قبل از انتساب ممکن است این مشکل را حل کند، زیرا دسته های کم جمعیت به متغیرهای شاخص خلاصه می شوند. علاوه بر این، رگرسیون متوالی به دسته‌های کمتری محدود می‌شود، بنابراین در بیشتر موارد 2 (به عنوان مثال، 1 و 2 در مقابل دیگر). یک مدل لجستیک با پارامترهای بسیار کمتر استفاده می شود که ممکن است دقت انتساب را افزایش دهد. اما مطمئن نیستم که آیا رمزگذاری مجدد قبل از انتساب ممکن است داده‌ها را تا حدی تغییر دهد که انتساب‌ها دیگر درست نباشند. بنابراین سوالات من این است که آیا باید قبل یا بعد از انتساب دوباره کد کنم؟ آیا این تفاوتی دارد، یکی ارجح است یا دیگری؟
انتساب با موش: متغیرها را قبل یا بعد از انتساب مجدد کدگذاری کنید؟
11788
من مجموعه بسیار کوچکی از داده‌های خلاصه را از ادبیات جمع‌آوری کرده‌ام و می‌خواهم واریانس بین جنبه‌های داده‌های مبتنی بر ادبیات و برخی از داده‌های خودم را مقایسه کنم. داده های خلاصه شامل میانگین، انحراف معیار و حجم نمونه است. در آزمون‌های قبلی، واریانس‌های یک متغیر وابسته پیوسته را در بین 2 کلاس سنی و 2 سال مقایسه کردم. من از آزمون Fligner-Killeen استفاده کردم زیرا مقادیر بسیار بالایی در داده ها دارم و مطمئن نیستم که نرمال باشد (الان یادم نمی آید!). من این آزمون گسترده را با مقایسه‌های چندگانه دوتایی با استفاده از آزمون‌های F در R`var.test(x~age) دنبال کردم. من در فایل‌های راهنما در R جستجو کردم و به این روش رسیدم، که معتقدم مجموعه‌ای تصادفی از اعداد با اندازه نمونه مشخص شده، میانگین و انحراف استاندارد ایجاد می‌کند، و سپس از آن مجموعه داده‌ها برای انجام آزمون F استفاده کردم. : herring_year1<-rnorm(10,mean=10.5,sd=0.51) herring_year2<-rnorm(15,mean=10.9,sd=0.43) var.test(herring_year1,herring_year2) آیا این رویکرد خوبی خواهد بود؟ اگر نه، می توانید پیشنهاد دهید که چه چیزی ممکن است باشد؟ اگر چنین است، چگونه می توانم این واریانس ها را با مجموعه داده های خودم مقایسه کنم؟ آیا اساساً باید از داده های خلاصه از مجموعه خودم به همان شیوه استفاده کنم؟ یا داده‌های تصادفی را برای داده‌های خلاصه از ادبیات تولید کرده و آن را در یک فایل بچسبانید تا با داده‌های خام من مقایسه شود؟ همچنین، آیا در ابتدا نیاز به یک تست گسترده دارم یا می توانم مستقیماً به مقایسه های زوجی بروم؟
چگونه می توان واریانس آمار خلاصه منتشر شده را با داده های خود مقایسه کرد؟
17366
من سعی می‌کنم با داده‌های گسسته به تشخیص الگوی دست پیدا کنم. در حال حاضر کارم را از طریق آثار کلاسیک دودا و هارت شروع کردم. آیا چیزی وجود دارد که بتوانید به خصوص برای استفاده کاربردی، ترجیحاً با R توصیه کنید. آیا حتی یک کتاب useR Springer که من هنوز پیدا نکرده ام یا آموزش خوب دیگری وجود دارد؟ چیزی که به انتخاب الگوریتم کمک می کند؟
تشخیص الگو با داده های گسسته (ترجیحا در R)
80602
چگونه می توانم روش های تعمیم یافته لحظه ها و نحوه استفاده از آن را برای یک غیر آمارگیر توضیح دهم؟ تا اینجای کار، چیزی است که برای تخمین شرایطی مانند میانگین ها و تغییرات بر اساس نمونه هایی که جمع آوری کرده ایم، استفاده می کنیم. چگونه قسمتی را که در آن بردار پارامتر را با کمینه کردن واریانس تخمین می زنید توضیح دهم
تبیین روش تعمیم لحظه ها به غیر آمارگیر
65785
داشتم این مقاله را می خواندم http://www.umiacs.umd.edu/~jags/pdfs/KSforNLP.pdf که در آن می گویند $trace(K \pi^{T} L \pi)$ یک تابع محدب $ است. \pi$ که $\pi$ یک ماتریس جایگشت است و K و L ماتریس های هسته هستند. من مطمئن نیستم که چگونه این تابع محدب است. هیچ توضیحی؟
سردرگمی مربوط به تحدب یک تابع
12789
من فکر می کردم که بارگذاری در تحلیل عاملی همبستگی بین متغیرهای مشاهده شده و عوامل پنهان است. با این حال، وقتی من تحلیل عاملی را در R با استفاده از بسته روان انجام می‌دهم، به نظر نمی‌رسد که اینطور باشد: library(psych) set.seed(1) X <- matrix(rnorm(200), ncol=10) fa1 <- fa(X, nfactors=3, rotate=none, scores=TRUE) cor(X, fa1$scores) #همبستگی بین متغیرهای اصلی و امتیازهای عامل MR2 MR1 MR3 [1،] 0.465509161 0.87299813 0.03241641 [2،] -0.010609644 -0.32714571 0.64968725 [3،] -0.219168573 -0.39132195 [4،] -0.815516983 0.22669390 0.42273446 [5،] -0.075178935 -0.40431701 -0.69661843 [6،] -0.2020.17020. 0.05508017 [7،] 0.240675941 0.13027263 0.23238220 [8،] 0.756677687 -0.05621205 0.23746738 [9،] 0.04250.0 0.55100943 [10،] 0.640507568 -0.67810600 0.18597947 fa1$loadings[1:10، 1:3] MR2 MR1 MR3 [1،] 0.433925641 0.825 0.825] -0.009889808 -0.30810366 0.54473104 [3،] -0.204780777 0.44576800 -0.32810435 [4،] -0.760186392 0.21349 0.21349 -0.070078250 -0.38078308 -0.58408054 [6،] -0.191014719 0.07037085 0.04618204 [7،] 0.224346738 0.122619 0.122619 0.705339180 -0.05294013 0.19910480 [9،] 0.004086985 0.11391248 0.46199451 [10،] 0.597050885 -0.649386355700000 cor(fa1$scores) # بررسی کنید که امتیازات فاکتور غیرهمبسته باشد MR2 MR1 MR3 MR2 1.000000e+00 4.266996e-16 -1.299606e-16 MR1 4.266996e-16 1.0000000e+00 -1.299606e-16 1.961151e-16 1.000000e+00 بارگذاری ها و همبستگی ها مشابه هستند، اما من انتظار داشتم که آنها یکسان باشند. من سعی کردم به کد منبع fa نگاه کنم اما در درک آن مشکل داشتم. لطفاً کسی می تواند به من بگوید که چگونه بارگذاری ها با همبستگی ها متفاوت است؟ به روز رسانی: برای هر عامل، همبستگی ها با متغیرهای مشاهده شده مضرب ثابت بارگذاری ها هستند: cor(X, fa1$scores)/fa1$loadings[1:10, 1:3] MR2 MR1 MR3 [1,] 1.072786 1.061804 1.192675 [2،] 1.072786 1.061804 1.192675 [3،] 1.072786 1.061804 1.192675 [4،] 1.072786 1.061804 1.192675 [5،] 1.072786 [6،201، 1.072716] 1.072786 1.061804 1.192675 [7،] 1.072786 1.061804 1.192675 [8،] 1.072786 1.061804 1.192675 [9،72675] 1.06181. 1.192675 [10،] 1.072786 1.061804 1.192675
تفاوت بین بارگذاری و همبستگی بین متغیرهای مشاهده شده و نمرات ذخیره شده عاملی در تحلیل عاملی
80604
با توجه به یک مجموعه داده با متغیر پیامد پیوسته $Y$ و دو IV اسمی $X_1$ و $X_2$ که به ترتیب دارای 4 سطح (A,B,C,D) و 3 (E,F,G) هستند، می‌توانیم تخصیص دهیم. سطح اول هر یک به عنوان سطح مرجع و ایجاد متغیرهای ساختگی یا نشانگر: $X_1: X_1B$ , $X_1C$ , $X_1D $X_2 $: X_2F$ , $X_2G$ یک رگرسیون خطی معمولی $Y$ روی این متغیرها را می توان به صورت (شامل شرایط تعامل) نوشت: $Y = \beta_0 + \beta_1X_1B + \beta_2X_1C + \beta_3X_1D + \beta_4X_2F + \beta_5X_2G + beta_6X_1B*X_2F + \beta_7X_1B*X_2G + \beta_8X_1C*X_2F + \beta_9X_1C*X_2G + \beta_{10}X_1D*X_2F + \beta_{11}X_1D*X_2G + e $ جایی که $e $~$N(0,\sigma{^2 })$، خطا معمولاً با واریانس ثابت توزیع می شود. اگر می‌خواهیم اهمیت فعل و انفعالات $X_1$ x $X_2$ را آزمایش کنیم تا مشخص کنیم که مثلاً تأثیر X_1$ روی $Y$ در سطوح مختلف X_2$ متفاوت است یا خیر، یکی از روش‌ها استفاده از کنتراست است. با ساخت ماتریس مناسب $L$ برای ضرب در برابر بردار رگرسیون بتا با فرض صفر $L\beta=0$. برای مثال اینجا را ببینید. درک من این است که (با مثال بالا) از فرضیه صفر استفاده می کنیم که فقط شامل شرایط تعامل است: $Ho:$ $\beta_{6}=0$ و $\beta_{7}=0$ و $\beta_{ 8}=0$ و $\beta_{9}=0$ و $\beta_{10}=0$ و $\beta_{11}=0$، اما چرا آزمایش نمی‌شود $\beta_{1}=0$ و $\beta_{2}=0$ گنجانده شوند زیرا اینها به طور مشترک به عنوان اثر $X_1$ روی $Y$ تفسیر می‌شوند، زمانی که $X_2= $سطح E (سطح مرجع برای $) X_2 دلار)؟ **افزودن بعد از پاسخ ahfoss:** اگر تفسیر $\beta_6$ از $\beta_{11}$ = 0 به صورت زیر باشد: تاثیر $X_1$ = B بر روی Y زمانی که $X_2$ = F متفاوت است تأثیر $X_1$ = B بر روی Y زمانی که $X_2$ = G متفاوت نیست. $X_1$ = C روی Y زمانی متفاوت نیست که $X_2$ = G تاثیر X_1$ = D روی Y متفاوت نیست زمانی که $X_2$ = F تاثیر X_1$ = D روی Y زمانی که $ متفاوت نیست X_2$ = G آیا این امکان وجود ندارد که تاثیر $X_1$ = A روی Y زمانی متفاوت باشد که $X_2$ = E باشد و این نشان دهنده یک تعامل باشد؟ من چیز بدیهی را گم کرده ام که مطمئن هستم اما برای من کاملاً کلیک نشده است. من نمی دانم که چگونه 6 عبارت بالا برای $\beta_6$ تا $\beta_{11}$ = 0 معادل معادله 1 شما است.
کنتراست برای آزمایش تعامل قابل توجه - چرا اثر اصلی را شامل نمی شود؟
43588
**مشکل** اصلی این است: من نمی توانم تخمین پارامترهای مشابهی را با EViews و R بدست بیاورم. به دلایلی که خودم نمی دانم، باید پارامترها را برای داده های خاصی با استفاده از EViews تخمین بزنم. این کار با انتخاب گزینه NLS (کمترین مربعات غیرخطی) و با استفاده از فرمول زیر انجام می شود: «indep_var c dep_var ar(1)» EViews ادعا می کند که فرآیندهای AR(1) خطی را برآورد می کند: $$ Y_t = \alpha + \ بتا X_t + u_t $$ که در آن خطاهای $u_t$ به صورت زیر تعریف می شوند: $$ u_t = \rho \cdot u_{t-1} + \varepsilon $$ با استفاده از یک معادله معادل (با چند جانشینی جبری): $$ Y_t = (1 - \rho) \alpha + \rho Y_{t - 1} + \beta X_t - \rho \beta X_{t - 1} + \varepsilon_t $$ علاوه بر این، این موضوع در انجمن EViews نشان می دهد که تخمین NLS آنها توسط الگوریتم مارکوارت تولید می شوند. اکنون، تابع رفتن به R برای تخمین فرآیندهای AR(1) «arima» است. با این حال، دو مشکل وجود دارد: 1. برآوردها برآورد حداکثر احتمال هستند. 2. برآورد رهگیری در واقع برآورد رهگیری نیست (طبق گفته R.H. Shumway & D.S. Stoffer). بنابراین، من به تابع 'nlsLM' از بسته minpack.lm روی آوردم. این تابع از الگوریتم مارکوارت برای دستیابی به تخمین‌های حداقل مربعات غیرخطی استفاده می‌کند که باید همان نتایج پیاده‌سازی EViews (یا حداقل موارد بسیار مشابه) را به همراه داشته باشد. حالا کد. من یک قاب داده (داده) با یک متغیر مستقل و یک متغیر وابسته مانند آنچه توسط کد زیر تولید می شود دارم: data <- data.frame(independent = abs(rnorm(48))، وابسته = abs(rnorm (48))) برای تخمین پارامترها در معادله ای که EViews ادعا می کند تخمین می زند (سومین مورد در این پست)، از دستورات زیر استفاده می کنم: library(minpack.lm) نتیجه <- nlsLM(وابسته B ~ ((1 - تتا1) * تتا2) + (تتا1 * وابسته A) + (تتا3 * مستقل B) - (تتا1 * تتا3 * مستقل A)، داده = لیست (وابستهB = وابسته به داده‌ها[2:48]، وابسته A = وابسته به داده[1:47]، مستقلB = مستقل از داده[2:48]، مستقلA = مستقل از داده[1:47])، شروع = لیست (theta1 = -10، theta2 = -10، theta3 = -10) متأسفانه، برآوردهای خروجی توسط `nlsLM` به برآوردهای خروجی توسط EViews نزدیک نیست. آیا هیچ ایده ای دارید که چه چیزی ممکن است باعث این شود؟ یا شاید کد من اشتباه است؟ در نهایت، می خواهم بگویم که من شخصاً یک کاربر R هستم - دقیقاً به همین دلیل است که سعی می کنم این کار را به جای EViews در R انجام دهم. من همچنین دوست دارم داده هایی را که با آنها کار می کنم به شما ارائه دهم، اما این غیرممکن است زیرا داده های محرمانه هستند.
تفاوت R و EViews در برآوردهای AR(1).
76977
من شرایطی دارم که در آن مکان‌های مختلف ژنوم (از نظر بیولوژیکی مستقل) را جستجو می‌کنم و برای هر سایت اندازه‌گیری می‌کنم. من تعدادی اندازه گیری دارم که روی ژنوم نزدیک به هم هستند و من آن را منطقه می نامم. سپس می‌خواهم اندازه‌گیری‌های یک منطقه را بین دو نمونه بیولوژیکی با استفاده از آزمون Mann Whitney U (تعداد کمی اندازه‌گیری در هر منطقه) مقایسه کنم. می‌خواهم تاکید کنم که من به طور مکرر یک چیز را اندازه‌گیری نمی‌کنم، اما تمام اندازه‌گیری‌ها مربوط به مکان‌های جداگانه روی ژنوم است. با این حال، ما می دانیم که مکان هایی که در مجاورت یکدیگر قرار دارند، اندازه گیری های همبستگی قوی نشان می دهند. یک بازبین به من اشاره کرد که این اندازه‌گیری‌ها مستقل نیستند زیرا همبستگی دارند و بنابراین آزمون بعدی معتبر نیست. با این حال، به نظر من دلیلی وجود ندارد که فرض کنیم مقدار یک مکان بر ارزش مکان های مجاور تأثیر می گذارد. بنابراین اندازه گیری ها بدون توجه به همبستگی آنها مستقل هستند. در اینترنت نظرات مختلفی پیدا کردم. اگر اندازه‌گیری‌ها بر یکدیگر تأثیر می‌گذارند، آن‌ها وابسته هستند، این خیلی واضح است. اما اصطلاح همبستگی نیز زیاد ظاهر می شود. در واقع در مورد اندازه‌گیری‌هایی که بر یکدیگر تأثیر می‌گذارند همبستگی وجود خواهد داشت، اما اگر اینطور نباشد و همچنان همبستگی وجود داشته باشد، آیا موافقید که اندازه‌گیری‌ها بدون توجه به همبستگی آنها مستقل هستند؟ پاسخ پیتر فلوم از قبل برخی از سرنخ‌ها را ارائه می‌دهد: نمونه‌های وابسته در مقابل نمونه‌های مستقل با تشکر از هرگونه بینش. با احترام
مستقل یا وابسته
80606
رگرسیون مدرس من: متغیرها: *lprice*، گزارش قیمت خانه *y81*، که ساختگی برای سال 1981 در برابر 1978 *ldist* است، گزارش فاصله از زباله سوز تا خانه ها ** اینها نظراتی است که استاد من به کمک به ارائه متن:** > * از سخنرانی می دانیم که در سال 1978 مردم درباره > نمی دانستند سایت زباله سوز > * در سال 1981 مردم در مورد سایت اطلاع داشتند. اگر ساخت زباله سوز ارزش خانه های نزدیک به سایت را کاهش دهد، ضریب y81*ln(dist)، delta_1، مثبت خواهد بود. > * اگر beta_1 مثبت باشد نشان دهنده این است که زباله سوز در منطقه ای قرار دارد که خانه ها دارای ارزش کمتری هستند. > * (اگر سیاستمداران/برنامه ریزان فرض کنند که افراد فقیرتر قدرت لابی > کمتری دارند، این شاهدی بر تصمیم گیری استراتژیک از سوی آنها خواهد بود.) > ![lprice](http://i.stack.imgur.com/phgkm .png) **بعد از انجام رگرسیون، نظر اساتید من این بود:** > * ضریب y81ldist مثبت است، اما کوچک است و تفاوت معنی داری ندارد. از صفر در سطح 10 درصد (یا سطح 5 درصد یا سطح 1 درصد). > * در مقابل ضریب ldist در سطح > 0.1% بر اساس آزمون دو دنباله مثبت و معنی دار است. > * بر اساس این تجزیه و تحلیل اولیه، من به این نتیجه رسیدم که زباله سوز هیچ تاثیری بر ارزش خانه ندارد. > **اکنون _lprice_ را به _price_ تغییر دادم تا ببینم تفاوتی ایجاد می کند یا خیر. این رگرسیونی است که من دریافت کردم:** ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/SZEuv.png) در اینجا ضریب _y81ldist_ در مقایسه با سطح 6.7% بسیار بزرگ و قابل توجه است. در رگرسیون اول به 55 درصد رسید. کنجکاو هستم که چرا استاد من به این نتیجه رسید که ساخت زباله سوز هیچ تاثیری بر قیمت ها ندارد؟ آیا من چیزی را نادیده گرفته ام؟ از رگرسیون من، نشان می دهد که ساخت زباله سوز قیمت خانه های نزدیک به آن را به طور متوسط ​​15400 دلار کاهش داد. (همچنین، آیا ضریب 19302 روی ldist به این معنی است که قبل از ساخته شدن کوره زباله سوز، قیمت خانه هایی که دورتر از محل پیشنهادی ساختمان بودند، 19302 دلار گران تر از خانه های نزدیکتر بود؟) آیا تفسیر من درست است؟ هر گونه بینش قدردانی خواهد شد.
سردرگمی در تفسیر ضرایب رگرسیون
80608
من دنباله ای از داده های باینری دارم که هر ردیف آن بیت های به ظاهر تصادفی دارد و با یک مقدار صحیح (_rank_) مرتبط است. زمانی که ما یک مبحث باینری داریم، همیشه می‌توانیم _rank_ مربوط به آن را محاسبه کنیم، اما نه داده _from_ مقدار رتبه آن را. به عنوان مثال، با طول 32 بیت و مرتب شده بر اساس رتبه آن: داده های رتبه 69538 10010110 01010100 00110101 11100000 57643 10010001 01110001 001110101001110101 01010001 11001001 10100110 11100011 278 11101000 11100000 00100100 01001000 ... سوال من این است که چگونه می توانم یک الگو در داده ها برای کاهش رتبه پیدا کنم؟ هدف نهایی بدست آوردن داده هایی است که دارای شاخص های رتبه ای کوچکتر از مقدار آستانه معین هستند. من در مورد یک شبکه عصبی فکر کردم، اما آیا روش بهتری وجود دارد؟ متشکرم.
الگوها در داده های باینری با شاخص های رتبه بندی مرتب شده اند
12781
من در یافتن نحوه گروه بندی داده ها با استفاده از محدوده های بین چارکی محاسبه شده با نمودار جعبه و سبیل و همچنین نگاه کردن به لولاهای توکی مشکل دارم. من می دانم که IQR و لولاهای Tukey یک چیز نیستند و تفسیرهای مختلفی از لولاهای Tukey وجود دارد. اساسا، من یک محاسبه را با استفاده از SPSS انجام دادم و خروجی، چارک های وزنی و زیر آن، لولاهای توکی را در اختیارم قرار داد. سوال من این است که آیا می توانید از لولاها یا مقادیر چارک وزنی در داده ها برای گروه بندی داده ها استفاده کنید یا خیر. به عنوان مثال. فرض کنید، این مجموعه داده های شماست (این مجموعه داده ای نیست که من کار می کنم، بلکه فقط یک مثال ساده برای توضیح سوال من است): 1 2 2.5 2.5 2.5 3 3 4 5 5 6 7 7.5 7.5 7.5 8 9 9 10 پس بیایید بگوییم IQR و لولاهای Tukey شما 25٪ = 2.5، 50٪ = هستند. 5، 75% = 7.5 (این فقط تصادفی است، ممکن است این مورد واقعی برای داده ها نباشد، اما من از این مقادیر فقط برای توضیح سؤالم استفاده می کنم). حال فرض کنید می خواهید داده ها را با استفاده از IQR و/یا Tukey's Henges به 4 گروه تقسیم کنید. مقادیری که لولا یا نقطه تقسیم بین گروه ها هستند به کدام گروه می روند؟ زمانی که من در حال مطالعه لولاهای توکی بودم، توکی اظهار داشت که لولا یک نقطه تقسیم در داده ها است، اما در هنگام تلاش برای گروه بندی داده ها هنوز مبهم است. بنابراین، آیا یک گروه به این صورت است: گروه A 1 2 2.5 2.5 2.5 گروه B 3 3 4 5 5 گروه C 6 7 7.5 7.5 گروه D 8 9 9 10 یا می توانید مقادیر hinge را حذف کنید و داده ها را به این صورت گروه بندی کنید. ? گروه A 1 2 گروه B 3 3 4 گروه C 6 7 گروه D 8 9 9 10 من برای یافتن توضیحات و مقالات تحقیقاتی خوب که می‌توانم از آن‌ها برای پشتیبان‌گیری چرایی انتخاب یک روش بر روش دیگر استفاده کنم، به سختی می‌گذرم. این پروژه برای دوره کارآموزی است، هیچ یک از داده هایی که در این ایمیل نوشته ام در تجزیه و تحلیل من استفاده نمی شود. من به سادگی در مورد تقسیم گروه ها بر اساس Tukey's Henges سردرگم هستم. من از افکار شما قدردانی خواهم کرد. با تشکر
لولاهای توکی: گروه بندی داده ها
80607
من اخیراً در استفاده از «Curve_fit» «Python/scipy» برای انجام رگرسیون خطی مهارت پیدا کرده‌ام. با این حال، با چند جمله ای های مرتبه بالاتر، داده های من گاهی اوقات بیش از حد مناسب هستند. **چگونه می توانم منظم سازی را برای کاهش بیش از حد برازش اضافه کنم؟**
چگونه هنگام اجرای رگرسیون خطی، منحنی_فیت Python scipy را منظم کنم؟
43586
اساساً من دارم * چهار گروه (2 در 2) با نمونه به معنای $\overline{x_{1,A}}$, $\overline{x_{2,A}}$, $\overline{x_{1, B}}$ و $\overline{x_{2,B}}$، انحرافات استاندارد $s_{1،A}$، $s_{2،A}$، $s_{1،B}$ و $s_{2,B}$ با اندازه‌های نمونه $n_A$ و $n_B$ (یعنی $n_{1,A}=n_{2,A}$ و $n_{1,B}=n_{2,B} دلار). من تفاوت بین این دو میانگین را به صورت $d_{1-2، A} = \overline{x_{1,A}}-\overline{x_{2,A}}$ و $d_{1-2, B محاسبه می‌کنم. } = \overline{x_{1,B}}-\overline{x_{2,B}}$. هدف من این است که آزمایش کنم که آیا $d_{1-2، A}$ از نظر آماری متفاوت از $d_{1-2، B}$ است که مربوط به یک آزمون دو طرفه است. پیشنهاد من این است: $\frac{d_{1-2، A}-d_{1-2، B}}{ [s_{1-2، A}^2/n_A] + [s_{1-2، B}^2/n_B] }$. مشکل این است که من نمی دانم چگونه انحراف معیار این تفاوت را محاسبه کنم، یعنی $s_{1-2، A}$ و $s_{1-2، B}$. بنابراین سؤالات من اساساً عبارتند از: 1. آیا با روش من موافق هستید؟ 2. چگونه $s_{1-2، A}$ و $s_{1-2، B}$ را محاسبه کنم؟ p.s. من $s_{1-2, A} = \sqrt{s_{1,A}^2 + s_{2,A}^2}$ را امتحان کردم اما جواب نداد. * * * **در اینجا یک مثال با اعداد آمده است** $\overline{x_{1,A}} = 2.310$; $s_{1,A}=0.865$; $n_A = 16753$ $\overline{x_{1,B}} = 2.403$; $s_{1,B}=0.897$; $n_B = 5378$ $\overline{x_{2,A}} = 2.993$; $s_{2,A}=1.002$; $n_A = 16753$ $\overline{x_{2,B}} = 3.108$; $s_{2,B}=1.042$; $n_B = 5378$ هدف این است که یک مقدار p برای معناداری بین $d_{1-2، A}$ و $d_{1-2، B}$ از **$0.032$** تکرار شود (دوطرفه خواهد بود حدس من).
چگونه می توان آزمایش کرد که آیا تفاوت تفاوت بین میانگین ها به طور قابل توجهی متفاوت است؟ (با مثال)
12783
در مقاله آکلی و هینتون الگوریتم یادگیری برای ماشین های بولتزمن، آنها می نویسند که > یک واحد پنهان مورد نیاز است، برای مثال، اگر محیط ایجاب کند که > حالت های سه واحد مرئی باید دارای برابری حتی یک نظم باشند که > نمی تواند تنها با تعاملات زوجی اعمال شود. آیا کسی می تواند توضیح دهد که چگونه یک واحد پنهان این محدودیت برابری را اعمال می کند؟ من برای دیدن ساختار و وزن شبکه مشکل دارم. (به طور کلی، من به طور مستقیم می بینم که چرا واحدهای پنهان قدرت اضافه می کنند، اما درک دقیقی ندارم.)
چگونه واحدهای پنهان در ماشین بولتزمن این محدودیت برابری را اعمال می کنند؟
99574
چه زمانی روش نمونه گیری رد بر روش CDF معکوس برای نمونه برداری از متغیرهای تصادفی کوتاه شده ترجیح داده می شود؟ و چه زمانی روش CDF معکوس به روش نمونه گیری رد برای نمونه برداری از متغیرهای تصادفی کوتاه شده ترجیح داده می شود؟
بیزی: نمونه برداری از توزیع های کوتاه شده
16945
در اینجا، وزن شواهد (WOE) یک اصطلاح رایج در ادبیات علمی و سیاست‌گذاری منتشر شده است، که اغلب در زمینه ارزیابی ریسک دیده می‌شود، که توسط: $$w(e:h) = \log\frac تعریف می‌شود. {p(e|h)}{p(e|\overline{h})}$$ که $e$ مدرک است، $h$ فرضیه است. حالا می خواهم بدانم تفاوت اصلی با PMI (اطلاعات متقابل نقطه ای) چیست $$pmi(e,h)=\log\frac{p(e,h)}{p(e)*p(h)} $$
چرا مردم از اصطلاح وزن شواهد استفاده می کنند و چه تفاوتی با اطلاعات متقابل نقطه ای دارد؟
97712
پس از پرسیدن 16 سوال (بله یا خیر) از 75 نفر، جدولی از پاسخ های آنها با کد 00110011110101010 (0 = خیر و 1 = بله) دارم. اکنون می خواهم گروه هایی از افرادی را پیدا کنم که به همان روش پاسخ دهند (در حالت ایده آل برای یافتن همه گروه های ممکن با شبیه سازی از 16/16 تا 12/16). چگونه این کار را در SPSS انجام دهیم؟
یافتن گروه هایی از افراد مشابه
69000
ویرایش شده: من می‌خواهم یک مدل رگرسیون (رگرسیون وزن‌دار جغرافیایی در مقابل OLS) را بر اساس شبه R2 انتخاب کنم که مقادیر پیش‌بینی‌شده و واقعی را مقایسه می‌کند. من قصد دارم مقادیر پیش‌بینی‌شده را به مقادیر واقعی بازگردانم. مدل های من یک متغیر پاسخ ثبت شده دارند. سوالات من به شرح زیر است: 1) آیا لازم است قبل از محاسبه شبه R2، پاسخ را به عقب تبدیل کنیم؟ 2) در صورت وجود، آیا باید واریانس را فقط در خروجی رگرسیون در نظر گرفت یا در متغیر ورودی لاگ شده؟ کد R من به این شکل است: lm( exp(predict(regressionmodel)+var(predict(regressionmodel))*0.5) ~ exp(data$loggedinput), data=data) از پاسخ شما بسیار سپاسگزارم. پیشاپیش متشکرم
انتخاب مدل رگرسیون، تبدیل برگشتی یک پاسخ ثبت شده
17367
** شرطی کردن فرآیند نقطه ای مفهومی است که در این پست بررسی می شود. ** فرآیندهای نقطه علامت گذاری شده مورد توجه هستند. شکل **A** پدیده ای را نشان می دهد که برای مدل سازی مورد بررسی قرار گرفته است. ما مشخصه ای را تشخیص می دهیم که می تواند با یک نقطه به عنوان مرکز و یک زاویه مدل شود (شکل های **B** و **C**). بنابراین ما یک فرآیند نقطه ای را بر اساس نقاط مرکزی می سازیم (شکل **C**). سپس مدل خود را با افزودن یک علامت به عنوان نماینده زاویه توسعه می‌دهیم (شکل‌های **C** و **D**). شکل **(i)** میدانی را نشان می دهد که در حال مطالعه است که در آن فقط برخی از نمونه ها در برخی مناطق موجود است. بنابراین برخی از مناطق بدون نمونه و ناشناخته هستند. همانطور که در بالا توضیح داده شد، ما یک فرآیند نقطه مشخص را برای به دست آوردن مدلی ایجاد می کنیم که پدیده را در کل فضا توصیف می کند. شکل **(ii)** نتیجه است. همانطور که مشاهده می شود سمت چپ (ii) با نمونه های موجود مطابقت ندارد. در واقع به صورت تصادفی تولید می شوند. شکل **(iii)** هدف نهایی را نشان می دهد که در آن یک نقشه کامل از پدیده در کل فضا مدل سازی شده است که با نمونه های موجود در سمت چپ شرطی شده است. **سوال: چگونه می توانیم این کار را انجام دهیم؟** **نکته:** مدل سازی مشروط به شبیه سازی های مشروط که در زمین آمار رایج هستند، حداقل برای این مورد به طور مستقیم قابل اعمال نیست. به عنوان مثال، یک تخمین درجه که توسط Kriging یا IDW انجام شده است، قبلاً به نمونه های موجود مشروط شده است. این به این دلیل است که از درون یابی (میانگین وزنی) برای تخمین استفاده می شود که برای درجه منطقی است. با این حال، برای موردی که در اینجا مورد مطالعه قرار می گیرد، چنین درکی برای تغییر زاویه (به عنوان یکی از متغیرهای مورد علاقه) وجود ندارد. علاوه بر این، خروجی تخمین ها/شبیه سازی ها در زمین آمار و غیره اغلب یک شبکه کامل است که به این معنی است که شما نقطه ای بسیار نزدیک به نقطه نمونه برداری دارید. در واقع مکان به خودی خود به عنوان متغیر در نظر گرفته نمی شود در حالی که برای PP مکان های ایجاد شده تصادفی پایه هستند. علائم همچنین با استفاده از مدل‌های تصادفی ایجاد می‌شوند که دوباره نمی‌توان آنها را با توجه به نمونه‌های نزدیک تنظیم کرد. **به روز رسانی:** البته اگر مشکلی ندارید یک پاسخ جالب است! ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/rd2BY.jpg)
چگونه فرآیندهای نقطه مشخص شده را شرطی کنیم؟
16947
من نمی دانم چه تفاوت هایی بین آزمون t و ANOVA در رگرسیون خطی وجود دارد؟ 1. آیا آزمون t برای آزمایش اینکه آیا هر یک از شیب ها و وقفه ها میانگین صفر دارند یا خیر، در حالی که ANOVA برای آزمایش اینکه آیا همه شیب ها میانگین صفر دارند یا خیر؟ آیا این تنها تفاوت آنهاست؟ 2. در رگرسیون خطی ساده یعنی جایی که فقط یک متغیر پیش‌بینی‌کننده وجود دارد، فقط یک شیب برای تخمین وجود دارد. بنابراین آیا آزمون t و ANOVA معادل هستند و اگر بله، چگونه با توجه به اینکه آنها از آمارهای مختلف استفاده می کنند (آزمون t از آماره t استفاده می کند و ANOVA از آماره F استفاده می کند)؟ با تشکر و احترام!
تفاوت بین آزمون t و ANOVA در رگرسیون خطی
12787
خیلی ساده، من مقداری توزیع احتمال p(x) دارم، چگونه می توانم اندازه گیری کنم که آیا یک چگالی تجربی (مجموعه ای از جرم های دلتا) تقریبی بهتر از دیگری است یا خیر. من می‌دانم که واگرایی KL یک معیار پذیرفته‌شده بین دو چگالی پیوسته است، اما نحوه اعمال آن در مجموعه‌ای از نمونه‌ها مشخص نیست.
چگونه می توانم تعیین کنم که یک مجموعه داده چقدر یک توزیع را تقریب می کند؟
52371
من یک مجموعه داده به شرح زیر دارم: ni-xi 76 48 38 19 20 14 26 29 39 45 38 36 32 34 26 21 23 12 24 18 14 61 35 21 32 20 84 306 301 23 19 24 16 16 19 0 0 0 6 8 3 5 9 5 0 34 17 13 0 1 11 13 22 من می خواهم این مجموعه داده را به عنوان توزیع دوجمله ای بتا مدل کنم: xi ~ دو جمله ای(p, ni) که در آن p ~ بتا( α، β). من از بسته VGAM برای جدا کردن اتصالات استفاده می کنم. fit=vglm(cbind(ni-xi, xi) ~ 1, betabinomial.ab, trace = TRUE) coef(fit) حلقه خطی VGLM 1 : loglikelihood = -95.9867 VGLM حلقه خطی 2 : loglikelihood = -95.63M:Linear VGL احتمال منطقی = -95.6483 VGLM حلقه خطی 4 : loglikelihood = -95.6477 VGLM حلقه خطی 5 : loglikelihood = -95.6477 VGLM حلقه خطی 6 : loglikelihood = -95.6477 با این حال، من نتایج را به صورت زیر دریافت می کنم:01 (Incept) :01 (Incept) به شرح زیر است: -0.3794863 آیا کسی می تواند به من بگوید که چرا پارامترهای منفی را دریافت می کنم؟ چگونه می توانم این مشکل را حل کنم.
تخمین توزیع دو جمله ای بتا
52372
من با Hidden Markov Models کار می کنم و مجموعه داده ای دارم که از عبارات مستقل تشکیل شده است، که در آن هر کلمه یک مشاهده است. از این رو، بهترین راه برای تنظیم پارامترهای من (از طریق الگوریتم Baum-Welch) در نظر گرفتن هر عبارت در هر زمان است و نه همه عبارات به هم پیوسته. می خواهم بدانم آیا الگوریتمی وجود دارد که آموزش را به این شکل انجام دهد؟ اگر نه، استراتژی برای جلوگیری از انتقال ایجاد شده توسط الحاق (کلمه آخر به کلمه اول) چیست.
آموزش مدل های مارکوف پنهان برای مشاهدات ورودی چندگانه
52373
برای ساده نگه داشتن آن، من مجموعه ای از داده ها را دارم که در آنها یک نمونه کنترل و یک نمونه درمان شده دارم. داده ای که من به دست می آورم بله یا خیر (0 یا 1) برای یک رفتار خاص است. من 150 نقطه داده برای هر شرایط دارم (150 نقطه برای کنترل، 150 مورد درمان)، که در 3 مرحله آزمایشی به دست آمده است، که قصد دارم آنها را جمع آوری کنم. آنها به هیچ وجه جفت نمی شوند. کدام تست را پیشنهاد می کنید؟ من در حال حاضر فکر می کنم که رگرسیون لجستیک باینری بهترین انتخاب است، اما مطمئن نیستم. من یک زیست شناس هستم و نه ریاضیدان، پس لطفا این را در نظر داشته باشید :)
کدام آزمون برای تجزیه و تحلیل پاسخ های بله-خیر برای شرایط کنترل در مقابل شرایط درمان شده
16946
من می‌خواهم یک توزیع گاوسی سابق (که دارای سه پارامتر است: $\mu$، $\sigma$، و $\nu$) در داده‌های زمان واکنش قرار دهم. ** حداقل چند نقطه داده برای تناسب منطقی با این توزیع مورد نیاز است؟** من می دانم که پاسخ به این سوال به عوامل زیادی بستگی دارد (به عنوان مثال، چقدر داده در واقع از توزیع نظری منحرف می شود) و اینکه بیشتر است به طور کلی بهتر است. به هر حال، آیا قوانین سرانگشتی یا انتشاراتی وجود دارد که بتواند به من به حداقل اطلاعات مورد نیاز اشاره کند؟
چند نقطه داده متناسب با توزیع گاوسی سابق است؟
99579
داشتم آنلاین می خواندم، و متوجه شدم که اگر واریانس X افزایش یابد، مقدار R-squared افزایش می یابد، اگر واریانس باقیمانده افزایش یابد، مقدار R-squared کاهش می یابد، آیا کسی می تواند شهود پشت این دو عبارت را توضیح دهد. من به طور کلی در مورد تأثیر واریانس X یا باقیمانده ها بر قدرت توضیحی رگرسیون سردرگم هستم.
تغییرات در R-squared
21180
کدام توزیع‌ها تبدیل فوریه خودشان هستند، علاوه بر توزیع _عادی_و_توزیع آرکسین تعمیم‌یافته؟
تبدیل فوریه توزیع ها
99575
![Binned Residual Plot](http://i.stack.imgur.com/jgduc.png) نمودار باقیمانده binned من ظاهر بسیار عجیبی دارد، خطوط اطمینان 95% بسیار ناهموار هستند، با نقاط بین. من این درون فاصله اطمینان 95٪ را رنگ آمیزی کرده ام، زیرا در غیر این صورت تشخیص اینکه کدام نقاط داخل و کدام نقاط بیرون هستند، واقعا سخت است. این نمودار در R ساخته شده است. این از یک رگرسیون معادله-لجستیک برآورد تعمیم یافته، با بسیاری از خوشه های همبسته و یک ساختار همبستگی AR-1 است. من مطمئن نیستم که آیا این یک راه معقول برای این طرح است یا اینکه من کار اشتباهی انجام داده ام. آیا کس دیگری طرحی شبیه به این داشته است؟ پیشاپیش ممنون جسی
طرح باقیمانده مخروطی با ظاهر عجیب
99572
من یک مجموعه داده دارم که در آن سعی می کنم بر اساس مجموعه ای از نشانگرهای زیستی پیش بینی کنم که چه زمانی یک فرد به بیماری خاصی مبتلا می شود. من می توانم یک مدل مناسب مناسب پیدا کنم، اما دارای درجه بالایی از هتروسکداستیکی است. با این حال، این هتروسکداستیکی مورد انتظار است - منطقی است که با نزدیک شدن فرد به تشخیص، مدل باقیمانده‌های کوچک‌تری داشته باشد. شروع کردم به فکر کردن در مورد اصلاح های مختلف، اما مطمئن نبودم که باید آن را برطرف کنم یا خیر. نظری در این مورد دارید؟
زمانی که انتظار می رود هتروسکداستیکی وجود داشته باشد چه باید کرد؟
90159
من به دنبال یک کتاب/دوره مقدماتی خوب در مورد ماشین‌های بردار پشتیبانی هستم. سابقه آماری من تقریبا وجود ندارد، بنابراین هر چه مقدماتی بیشتر باشد بهتر است.
مقدمه ای بر پشتیبانی از ماشین های برداری
12784
این بیشتر یک سوال کلی در مورد یادگیری ماشین به طور کلی است، اما من دو مجموعه داده ~75000 ردیف از بیماران و 100 ستون دارم (آن را آموزش و تست نامید) - هر ستون یا یک پیش بینی عددی است که با چند بار مطابقت دارد. آنها به یک پزشک خاص یا یک عامل مراجعه کرده اند (دو نمونه از آنها جنسیت و سن 10 ساله هستند). همچنین دو آرایه نتیجه training.obs و testing.obs وجود دارد که مربوط به چند روز است که هر بیمار در بیمارستان سپری کرده است. فرض کنید من می‌خواستم یک مدل خطی «model <\- lm(training.obs ~ ., data=training)» را آموزش دهم و آن را با مجموعه آزمایشی با testing.pred <- predict(model, testing) و تأیید متقاطع آن را با مجموعه آزمایشی انجام دهم. RMSE «testing.pred» و «testing.obs» را بگیرید. دو مجموعه داده از نظر نسبت عامل (یعنی نسبت بیشتری از مردان در مجموعه آموزشی) و توزیع پیش بینی کننده های عددی بسیار متفاوت هستند. آیا منطقی است که این دو مجموعه داده را با نمونه‌برداری از «آموزش» مطابقت دهیم، یا به دلیل حذف ردیف‌ها، دقت مدل را از دست خواهم داد؟ چگونه می توانم این کار را انجام دهم؟
تطبیق آموزش و آزمایش مجموعه داده ها
17096
مسلماً در حال انجام تکالیف هستم، اما دو مشکل به گونه ای بیان شده است که من را گیج می کند. بخش (ب) می‌پرسد، احتمال اینکه فردی که برای بازنشستگی پس‌انداز کرده است، کمتر از 50000 دلار پس‌انداز کرده است، تعیین کنید. از فرکانس‌های نسبی استفاده کنید. بخش (ج) می‌پرسد: احتمال این که یک فرد به‌طور تصادفی انتخاب شده کمتر از 50000 دلار برای بازنشستگی پس‌انداز کرده است را تعیین کنید. تا جایی که من می توانم بگویم، هر دو بخش از من می خواهند که دقیقاً همان کار را انجام دهم. اما این نمی تواند درست باشد ....
محاسبه فرکانس نسبی ساده، جمله بندی گیج کننده
92649
![regression](http://upload.wikimedia.org/math/8/d/e/8def8df3d62ea70cbf10a6e2b2b3127a.png) من سعی می کنم ببینم چرا اینطور است. من LHS را گرفتم و $X\hat{\beta}$ اضافه کردم و $X\hat{\beta}$ را کم کردم. از این طریق می‌توانم هر دو عبارت را در سمت راست دریافت کنم، اما در نهایت با یک عبارت متقابل $2(y-X\hat{\beta})^T(X\hat{\beta} - X\beta)$ مواجه می‌شوم که نمی‌توانم ثابت کنید برابر با صفر است. فکر می‌کنم ترفندی وجود دارد که از قلم افتاده‌ام، کسی آن را به خاطر می‌آورد؟
عبارت ضربدری در رگرسیون خطی چرا صفر است؟
7976
آیا می توانیم این کار را انجام دهیم؟ اگر بله، پس چه شرایطی باید رعایت شود؟ با تشکر
آیا می توانیم دو متغیره را از توزیع های حاشیه ای محاسبه کنیم؟
20854
من از اینجا خوانده‌ام و می‌دانم که چگونه می‌توان لاجیت تخمینی را از یک مدل رگرسیون لجستیک برازش محاسبه کرد، اما چگونه روی فاصله اطمینان کار کنیم؟ از آنجایی که شامل یک ماتریس واریانس-کوواریانس است و فکر می‌کنم بهتر است برنامه‌ای برای انجام محاسبات داشته باشیم، نه اینکه خودم آن را انجام دهم. با تشکر ### ویرایش 01 من یک اسکریپت اینجا اضافه کردم: chdage.dummy <- data.frame(chd=c(rep(1,50),rep(0,50)), race=c(rep(سفید، 5)، rep (سیاه، 20)، rep (اسپانیایی، 15)، rep (سایر، 10)، rep(سفید، 20)، rep (سیاه، 10)، rep (اسپانیایی، 10)، rep (دیگر، 10))، stringsAsFactors=FALSE) chdage.dummy[race] <- factor(chdage.dummy[race],levels=c(سفید،سیاه،اسپانیایی،دیگر)) chdage.lr.02 <- glm(chd~race,data=chdage.dummy,family=binomial) predict(chdage.lr.02,newdata=data.frame(race=white)) پیش بینی تابع می تواند تخمینی به من بدهد، اما من نمی توانم از confint خارج از پیش بینی استفاده کنم، بنابراین چه کاری می توانم انجام دهم؟
محاسبه فاصله اطمینان برای لاجیت تخمینی در رگرسیون لجستیک در R
17091
چگونه ماتریس سه بعدی ایجاد کنیم؟ به عنوان مثال: A = ماتریس 4 * 5 (4 ردیف، 5 ستون) B = ماتریس 4 * 10 (4 ردیف، 10 ستون) چگونه این دو ماتریس را به یک ماتریس سه بعدی تبدیل کنیم؟
چگونه یک ماتریس سه بعدی در متلب ایجاد کنیم؟
52375
تفاوت بین احتمال H داده شده E همانطور که توسط قضیه بیز محاسبه می شود و مقدار پیش بینی مثبت E چیست؟
سوال قضیه بیز گنگ
17368
احتمالاً ترفند فیلم The Prestige را می دانید: **[MOVIE SPOILER]** یک شعبده باز یک ترفند جادویی چشمگیر پیدا کرده است: او به داخل دستگاه می رود، در را می بندد و سپس ناپدید می شود و دوباره در طرف دیگر اتاق ظاهر می شود. . اما دستگاه کامل نیست: به جای اینکه فقط او را از راه دور منتقل کند، او را کپی می کند. شعبده باز در جایی که هست می ماند و یک کپی در آن طرف اتاق ایجاد می شود. سپس، شعبده باز در دستگاه به طور محتاطانه در یک مخزن آب زیر زمین می افتد و غرق می شود. **ویرایش:** احتمال غرق شدن نسخه جدید شعبده باز 1/2 است (به عبارت دیگر، کپی جدید 1/2 احتمال غرق شدن و 1/2 احتمال دارد که در اتاق ظاهر شود). همچنین، مخزن آب هرگز خراب نمی شود و احتمال اینکه شعبده باز در مخزن بیفتد، 1 است. بنابراین شعبده باز واقعاً دوست ندارد این حقه را انجام دهد، زیرا هرگز نمی دانید کجا قرار است باشید، آن طرف اتاق یا غرق شوید. حال، پارادوکس به شرح زیر است: ** تصور کنید شعبده باز این حقه را 100 بار انجام دهد. شانس زنده ماندن او چقدر است؟** ویرایش، سوال تکمیلی: **چقدر شانس شعبده باز است که مغز فیزیکی خود را حفظ کند و مغز جدیدی نداشته باشد؟** * * * تجزیه و تحلیل سریع: یک دست، یکی است جادوگر زنده است و 100 شعبده باز غرق شده است، بنابراین شانس او ​​1 از 100 است. از طرف دیگر، هر بار که این حقه را انجام می دهد، 1/2 شانس ماندن دارد. زنده است، بنابراین شانس او ​​برای زنده ماندن $(1/2)^{100}=1/(2^{100})$ است. پاسخ صحیح چیست و چرا؟
پارادوکس شعبده باز پرستیژ
17090
من سعی می کنم با اجرای مثال هایی بفهمم که تجزیه و تحلیل مولفه اصلی و تحلیل عاملی چگونه کار می کنند. اگرچه من در اینجا عمدتاً از Python و Numpy استفاده می‌کنم، اما این مختص پایتون نیست، زیرا می‌خواهم بدانم چگونه می‌توانم به طور کلی به نتیجه صحیح برسم. یک مثال در فصل 16 آمار به طور خلاصه وجود دارد، اما من نمی توانم بفهمم که چگونه برخی از مقادیر حاصل به دست می آیند. مطمئن نیستم که (الف) در پیاده سازی/محاسبات من مشکلی وجود دارد یا (ب) «پرش» از PCA به FA را اشتباه متوجه شده ام. (نمونه‌ها در صفحه 300-303 هستند. بازتولید مطالب از کتاب مناسب نیست، اما امیدوارم مثال عددی کوتاه آن منطقی باشد.) از جدول مثال (نتایج آزمون روان‌سنجی) در ماتریس داده‌های زیر : وارد کردن numpy به عنوان np # (جدول 16-1 در کتاب) # ستون ها عبارتند از: # خواندن، موسیقی، Arith.، Verbal، داده های ورزشی، املا، هندسه = np.array( [[ 8، 9، 6، 8، 5، 9، 10]، [5، 6، 5، 5، 6، 5، 5]، [2، 3، 2 ، 6، 8، 6، 4]، [8، 9، 10، 9، 8، 10، 6]، [ 10، 7، 1، 10، 5، 10، 2]، [9، 8، 4، 9، 1، 7، 2]، [3، 9، 10، 2، 6، 4، 9]، [8، 10، 3، 8، 5، 7، 2]، [ 10، 9، 3، 10، 6، 10، 3]، [7، 10، 1، 9، 6، 10، 2]]) # انتقال برای داده‌های np.corrcoef = داده. با موارد موجود در کتاب مطابقت دهید (جدول 16-2 برای کسانی که آن را دارند). در اینجا همان داده ورودی برای R است: داده <- ماتریس(c(8، 9، 6، 8، 5، 9، 10، 5، 6، 5، 5، 6، 5، 5، 2، 3، 2، 6، 8، 6، 4، 8، 9، 10، 9، 8، 10، 6، 10، 7، 1، 10، 5، 10، 2، 9، 8، 4، 9، 1، 7، 2، 3، 9، 10، 2، 6، 4، 9، 8، 10، 3، 8، 5، 7، 2، 10، 9، 3، 10، 6، 10، 3، 7، 10، 1، 9، 6، 10، 2)، ncol=7، byrow=T) pc = prcomp(داده، مقیاس. = T) خروجی NumPy برای ماتریس همبستگی این است: [[ 1. 0.76225482، -0.38632342]، [ 0.53484056، 1. 0.24875809، 1.، -0.50102461، 0.20615027، -0.30668865، 0.75803231]، [ 0.86021546، 0.26248971، 0.26248971، -0.501. -0.23649405، 0.89522479، -0.56880086]، [-0.46870501، -0.26308503، 0.20615027، -0.23649405، 1. , 0.2204، 1. 0.76225482، 0.38020761، -0.30668865، 0.89522479، 0.05436758، 1. -0.56880086، 0.26604241، -0.29078439، 1. ]] من از موارد زیر برای انجام PCA استفاده می کنم. ماتریس 'داده' به ماتریس 'pca_output' تبدیل می شود. درصد تجمعی نیز با مثال کتاب مطابقت دارد (جدول 16-4). مقادیر ویژه، بردارهای ویژه = np.linalg.eig(corrmat) # مقادیر ویژه را با کاهش مقدار # مرتب کنید (و سپس بردارهای ویژه را مرتب کنید). evals_order = np.argsort(-eigenvalues) eigenvalues ​​= eigenvalues[evals_order] eigenvectors = eigenvectors[:, eval_order] # pca_output: ستون ها # مولفه اصلی هستند، پس از جابجایی (در اینجا استفاده می شود) pca_outputt (np,Tveigen). ).T cummulative_perc_variance = 100 * np.array( [ eigenvalues[:i].sum()/eigenvalues.sum() برای i در محدوده(1, eigenvalues.shape[0] + 1)]) 3 بردار ویژه که دریافت می کنم عبارتند از: [[-0.48310951، -0.2554222، -0.08049741]، [-0.20665755، -0.60274754، -0.16463817]، [ 0.31165047، -0.56586657، 0.02618752]، 0.02618752-]، [-0.502,0.511 . 0.12258562]] من همان نتایج را با استفاده از «prcomp» R به دست می‌آورم: > pc انحرافات استاندارد: [1] 1.8676341 1.2850439 1.0568965 0.6517665 0.4837756 0.4837756 0.25824 PC11. PC3 PC4 PC5 PC6 PC7 [1،] -0.4831095 0.255422196 -0.08049741 0.2324959 -0.1897195 0.76737470 -0.12638483 -0.12638483 [2،] 65756566. -0.16463817 -0.6995409 0.2296628 -0.05498277 0.14750200 [3،] 0.3116505 0.565866565 0.02618752 0.02618752 0.14750200 - 0.1601 -0.22419271 -0.06802832 [4،] -0.5112334 0.006900293 0.19728832 0.2433956 -0.1357962 -0.28997811 - 0.28997811 0.7015, 0.7011, 0.7334. -0.045695275 0.83434948 -0.3293147 -0.1060965 0.33662557 0.14908327 [6،] -0.4387807 0.182612983 0.4064 0.43612983 0.1812280 -0.38481239 -0.59798379 [7،] 0.3554688 0.464507012 0.12258562 0.4932350 0.5892964 0.5892964 0.111021 و سپس این جدول را تولید کنید. (جدول 16-3: اجتماعات) و می گوید: اولین گام پس از محاسبه PCA این است که بررسی کنیم که چه نسبتی از واریانس توسط ساختار عاملی محاسبه می شود. این کار با بررسی جوامع [.
مثال PCA و FA - محاسبه اجتماعات
7973
تصور کنید مجموعه ای از چهار عنصر (A-D) با مقادیر عددی یک ویژگی اندازه گیری شده دارید (چند مشاهده برای هر عنصر): A: 26 25 29 21 B: 24 17 16 C: 32 34 29 19 25 27 28 D: 23 29 26 20 14 باید تشخیص دهم که آیا تفاوت های قابل توجهی در میانگین وجود دارد یا خیر سطوح بنابراین من یک ANOVA یک طرفه را برای تعیین اینکه آیا تفاوت‌ها پیدا شده‌اند اجرا می‌کنم. خوب کار می کند، اما وقتی نمونه جدیدی دریافت می کنم، باید ANOVA را فقط برای یک نمونه جدید دوباره اجرا کنم. آیا راهی برای انجام ANOVA یک طرفه افزایشی وجود دارد که **بدون انجام مجدد کل محاسبات** کار کند؟ من داده های زیادی دارم و پروسه آن از نظر زمان و مصرف حافظه گران است.
ANOVA یک طرفه افزایشی
97714
تا جایی که من می دانم برای تست های رگرسیون خطی دو گزینه دارم. تست $F$ برای مدل (اگر واریانس بیشتری را توضیح می دهد تا واریانس خطا) و $t$-test (برای دیدن اینکه آیا شیب صفر نیست). با بیش از یک پیش‌بینی‌کننده، می‌توانم ببینم چرا هر دو آزمون وجود دارد. اما در مورد من، من فقط یک پیش بینی کننده دارم. به نظر من، تست $F$ و تست $t$-تست در این مورد همین کار را انجام می دهند زیرا اگر شیب صفر باشد، دقیقاً مدلی است که در تست $F$ با آن مقایسه شده است. نقص منطق من کجاست؟
آزمون معناداری در رگرسیون خطی تنها با یک پیش بینی کننده
7975
من که تا کنون بیشتر با داده‌های مقطعی کار کرده‌ام و اخیراً در حال مرور، جستجو در میان مجموعه‌ای از ادبیات سری‌های زمانی مقدماتی بوده‌ام، نمی‌دانم که متغیرهای توضیحی چه نقشی در تحلیل سری‌های زمانی ایفا می‌کنند. من می‌خواهم به جای ترندزدایی، یک روند را توضیح دهم. بیشتر مطالبی که من به عنوان مقدمه می خوانم این فرض را بر این می گذارند که این مجموعه از یک فرآیند تصادفی نشات می گیرد. من در مورد فرآیندهای AR(p) و MA و همچنین مدل سازی ARIMA مطالعه کردم. من که می‌خواستم با اطلاعات بیشتری به‌جز فرآیندهای خودبازگشتی بپردازم، VAR/VECM را پیدا کردم و نمونه‌هایی را اجرا کردم، اما هنوز نمی‌دانم که آیا موردی وجود دارد که نزدیک‌تر به آنچه توضیح‌دهنده‌ها در مقاطع مختلف انجام می‌دهند مرتبط باشد. انگیزه پشت این کار این است که تجزیه سریال من نشان می دهد که این روند سهم عمده ای دارد در حالی که باقی مانده و اثر فصلی به سختی نقشی ایفا می کنند. من می خواهم این روند را توضیح دهم. آیا می توانم / باید سریال خود را در چندین سری مختلف رگرسیون کنم؟ من به طور مستقیم از gls به دلیل همبستگی سریال استفاده می کنم (در مورد ساختار cor چندان مطمئن نیستم). من در مورد رگرسیون جعلی شنیدم و فهمیدم که این یک دام است، با این وجود من به دنبال راهی برای توضیح یک روند هستم. آیا این کاملا اشتباه است یا غیر معمول؟ یا تا الان فصل مناسب را از دست داده ام؟
از توضیحات در سری های زمانی چه باید کرد؟
7979
فرض کنید $X \sim \mathcal{N}(\mu_x, \sigma^2_x)$ و $Y \sim \mathcal{N}(\mu_y, \sigma^2_y)$ من به $z = \min( \mu_x، \mu_y)$. آیا یک برآوردگر بی طرفانه برای $z$ وجود دارد؟ تخمین‌گر ساده $\min(\bar{x}, \bar{y})$ که در آن $\bar{x}$ و $\bar{y}$ میانگین‌های نمونه $X$ و $Y$ هستند، برای به عنوان مثال، مغرضانه است (هر چند سازگار). تمایل به کمتر از z$$ دارد. من نمی‌توانم تخمین‌گر بی‌طرفانه‌ای برای z$$ فکر کنم. آیا یکی وجود دارد؟ برای هر کمکی متشکرم
برآوردگر بی طرفانه برای کوچکتر از دو متغیر تصادفی
81599
من داده های 10K از فرم `(Y ، X1 ، X2) را دارم که متغیرهای وابسته و` x1 ، x2` متغیرهای مستقل هستند. من یک مدل موجود M دارم ، که در آن `M (x1 ، x2) به PDF` y می دهد. بنابراین «M(x1,x2,y)» چگالی را در «y» می‌دهد حال، من می‌خواهم مدل را با ارائه چند تبدیل ساده آرگومان آن، مانند: «M2(x1، x2) = M(a*) بهبود دهم. x1 + b*x2 + e ، c*x1 + d*x2 + f) `من پارامترهای` a ~ f` را بر اساس حداکثر loglik انتخاب کردم (`sum log m2 (x1 ، x2، y)`) از مجموع 10k مجموعه داده. آیا این روش استفاده از MLE معتبر است؟ (در این مرحله نیازی به اعتبار سنجی متقاطع ندارم) به نظر می رسد رگرسیون غیرخطی، کمی متفاوت به نظر می رسد. توزیع «a^ ~ f^» تقریباً چقدر است؟ آیا می توانم یک فاصله اطمینان از هر پارامتر پیدا کنم تا بدانم آیا آنها با 0 یا 1 متفاوت هستند تا بتوانم مدل را ساده کنم؟ (با توجه به M به طور مداوم قابل تمایز است و من Jacobian و Hessian آن را دریافت کرده ام. همچنین می توانم Jacobian و Hessian از loglik را از M2 w.r.t. a ~ f بدست بیاورم)
آیا می توانم از MLE در اینجا استفاده کنم و SE تقریبی چقدر است؟
99573
**زمینه** من یک مدل تولیدی برای یک فرآیند دارم که می تواند به صورت زیر توصیف شود: $$ y = t(x, w) + e $$ که در آن $x$ و $y$ مشاهدات مجموعه ای از متغیرهای تصادفی توسط یک تابع تبدیل غیرخطی $t$ مرتبط هستند، که توسط پارامترهای ناشناخته که با $w$ تخمین زده می شوند، پارامتر می شوند. $e$ عبارت خطای معمولی توزیع شده با میانگین 0 و یک ماتریس کوواریانس مورب است که توسط $\sigma^{-1} I$ ارائه شده است که $I$ ماتریس هویت و $\sigma$ دقت نویز سراسری است. بنابراین، با فرض استقلال در امتداد هر پیکسل از تصویر، عبارت احتمال زیر را به عنوان یک محصول بر روی پیکسل‌های منفرد $i$ دارم: $$ P(y|x, w, \sigma) = \prod_{i} (\frac {\sigma}{2\pi})^{\frac{1}{2}} \exp^{-\frac{1}{2}e_i \sigma e_i} $$ هر $w_i$ پارامتر یک پارامتر 3 بعدی (برای هر بعد فضایی) است که باید تخمین زده شود. **KL-Divergence و M-Projections:** من از انتشار انتظار (EP) برای تخمین توزیع پسین استفاده می کنم و EP دارای یک مرحله M-projection است که توزیع را بر روی یک توزیع تقریبی ساده تر ارائه می دهد که در مورد من یک نرمال چند متغیره است. توزیع بر روی پارامترهای من $w$. روش کار EP با بهره‌برداری از شکل عاملی عبارت احتمال است، یعنی با توزیع تقریبی $Q$ (عادی چند متغیره بر $w$) شروع می‌شود و سپس هر یکمین عامل را با عبارت دقیق جایگزین می‌کند و این توزیع را بر روی تخمین فعلی پیش‌بینی می‌کند. از Q. به عنوان مثال، در این مشکل من یک جمله یکم را از عبارت درستنمایی خود جایگزین می‌کنم تا توزیع را به صورت پروژه درآورم: $P(y|x_i، w_i، \sigma) q_{j \neq i}(w_j)$ که در آن جمله اول عامل دقیق است و $q_{j \neq i}(w_j)$ توزیع تقریبی با تأثیر عبارت i حذف شده است. اجازه دهید این توزیع را $U$ بنامیم طبق ادبیات، من باید لحظات $E_U[w]$ را پیدا کنم. بنابراین، من باید لحظات مرتبه اول و دوم را مطابقت دهم، یعنی این انتظارات را برای پارامترهای خود با استفاده از توزیع $U$ محاسبه کنم. با این حال، من کاملاً در مورد نحوه انجام این کار گم شده ام. آیا کسی می تواند به من پیشنهاد دهد که چگونه باید ادامه دهم؟
محاسبه واگرایی KL: پیش بینی های M برای توزیع های دلخواه
21183
فرض کنید من یک لیست از 100 پارچ MLB و 5 آمار برای هر یک از آنها دارم. به عنوان مثال، تفاوت بین یک ERA 3.5 و 3.1 ممکن است برای یک الگوریتم شباهت ساده به نظر زیاد نباشد، اما در بیسبال بسیار زیاد است. با توجه به اینکه بسیاری از آمار بازیکنانی که من به آنها نگاه می کنم دارای این واریانس اندک هستند، واریانس بسیار کمی مانند این، بهترین راه برای محاسبه شباهت بین دو بازیکن چیست؟ نمونه ای از داده ها ممکن است به این صورت باشد: Player | عصر | برد | استرایک اوت -------------------------------- A | 3.5 | 15 | 180 B | 3.1 | 12 | 210 درجه سانتیگراد | 3.4 | 13 | 150 من از شباهت کسینوس استفاده کرده ام، و نتایج بسیار شبیه به یک هزارم رقم اعشار هستند.
روش خوبی برای مقایسه شباهت بین مجموعه داده ها با واریانس کم چیست؟
17098
اعتراف می کنم که من در آمار وحشتناک هستم. من می دانم که احتمال اینکه فردی که برای بازنشستگی پس انداز کرده باشد، کمتر از 50000 دلار پس انداز کرده است، طبق داده های نمونه من 16.4٪ است، اما تنها 69٪ از کارگران می گویند که برای بازنشستگی پس انداز کرده اند. بنابراین احتمال اینکه یک فرد تصادفی انتخاب شده از کل جمعیت کمتر از 50000 دلار پس انداز کرده باشد چقدر است؟ بنابراین، این بدان معناست که 31٪ از جمعیت اعتراف می کنند که چیزی پس انداز نکرده اند (که کمتر از 50000 دلار است)، بنابراین احتمال اینکه یک فرد تصادفی انتخاب شده از کل جمعیت کمتر از 50000 دلار برای بازنشستگی پس انداز کرده باشد در واقع بیشتر از 16.4٪ است - اما نمیدونم چجوری دقیق تر حساب کنم این تکلیف است، اما من خیلی گم شدم... هر کمکی قابل تقدیر است.
من احتمال یک نتیجه را در یک نمونه می دانم، چگونه برای جامعه اعمال شود؟
77929
من اکنون دو عدد متوسط ​​دارم، مثلاً $a$ و $b$. $a=1.1$ با فاصله اطمینان 95% $\pm0.2$ و $b=1.0$ با فاصله اطمینان 95% $\pm0.1$. آیا منطقی است که اختلاف درصد آنها را با ارزش $b$ به عنوان $$\%\ diff=\frac{1.1-1.0}{1.0}=10\%$$ محاسبه کنیم، از درک من، به دلیل همپوشانی CI، ما واقعا نمی توانیم بگوییم که $b$ و $a$ متفاوت هستند. اما اگر بخواهم میزان تفاوت آنها را تعیین کنم، چگونه می توانم با در نظر گرفتن CI این کار را به طور منطقی انجام دهم؟
چگونه می توان درصد اختلاف را با در نظر گرفتن 95٪ CI محاسبه کرد؟
50073
من در مورد تمرین زیر تردید دارم: با توجه به دنباله متغیرهای تصادفی مستقل برنولی (0,1/2) $x(n)$, $n\ge 1$، میانگین تابع و همبستگی خودکار (زمان تاخیر) را تعیین کنید. فرآیند: $z(n)=\sum_{m=1}^n y(m)،\quad n\ge1$ با $y(m)=2x(m) -1 $ برای مقادیر قابل توجه از زمان و تاخیر * * * سپس تابع میانگین را محاسبه کردم: $E[z(n)]= n-1 $، آیا درست است؟ من مشکلی برای همبستگی خودکار دارم: $E[z(n)z(n-k)]=E[\sum_{m=1}^n y(m) \sum_{m=1}^{n-k} y(m) ]=...$ آیا ادامه دادن به این شکل درست است؟ یعنی با $z(n-k)$ در جمع بندی چه کار باید بکنم؟
خود همبستگی یک دنباله برنولی
35336
من روی یک مجموعه داده تصویربرداری تشدید مغناطیسی کار می کنم که شامل حدود 100 مشاهده (= موضوع) و 20000 پیش بینی کننده (= وکسل) است. من می خواهم طبقه بندی را در R با استفاده از روش هایی مانند ماشین های بردار پشتیبان یا جنگل های تصادفی انجام دهم. من معتقدم که تجزیه و تحلیل مجموعه‌های داده بزرگ نیاز به تنظیم خاصی دارد و می‌خواهم درباره توصیه‌ها بدانم، اگر این امکان در R وجود دارد و چه سخت‌افزاری توصیه می‌شود.
توصیه‌هایی برای طبقه‌بندی MRI در R مجموعه داده‌های بزرگ (100=n، p=20000)
7977
من نمی دانم چگونه می توان نقاط توزیع شده یکنواخت را در سطح کره واحد 3 بعدی ایجاد کرد؟ همچنین پس از ایجاد آن نقاط، بهترین راه برای تجسم و بررسی اینکه آیا واقعاً روی سطح یکنواخت هستند یا خیر، $x^2+y^2+z^2=1$ چیست؟
چگونه نقاط توزیع شده یکنواخت را روی سطح کره واحد 3 بعدی ایجاد کنیم؟
90151
من باید گاما مناسب برای داده ها را در پایتون 3.2 پیدا کنم. param = gamma.fit(samp) // samp لیستی از اعداد ممیز شناور است که من با خطا مواجه شدم: `TypeError: نمی تواند کاهش را با نوع انعطاف پذیر انجام دهد` هر گونه کمکی قابل قدردانی است.
خطای برازش داده ها توسط gamma.fit() در پایتون
17094
توضیح ساده با تمرکز بر سوالات زیر در حال بررسی است. قدردانی پیشاپیش برای کسانی است که **علمی** --*ساده** --**عملی** توضیح می دهند. با داشتن مساحت **A** که **N** تعداد نقاط را در بر می گیرد، چگالی را می توان به صورت زیر نوشت: $$D=N/A$$ **سوال 1:** تفاوت بین **تراکم* چیست؟ * و **شدت**؟ **سوال 2:** چگونه چگالی یک الگوی نقطه ای را تخمین بزنیم؟ من از روش های KDE آگاه هستم اما متوجه شدم که در عمل مشکلات جدی در رابطه با تنظیم پهنای باند و غیره وجود دارد که در تخمین بسیار موثر هستند. برای نام بردن، تابع **mass**، هیستوگرام دو بعدی و غیره را نیز امتحان کردم اما هنوز از آنها راضی نیستم. یک رویکرد قوی، قابل اعتماد و عملی در حال جستجو است. **سوال 3:** شکل زیر یک سوال دیگر را نشان می دهد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/T8N46.png) قسمت **B** همان است که **A** تعدادی را در گوشه حذف کرد. آیا تراکم کل منطقه را تغییر می دهد؟ * * * خطاب به مدیر محترم: آیا «سوال در 2 روز واجد شرایط جایزه است» نمره خوبی است؟ یا! من بلافاصله پس از آپلود آن را دریافت می کنم!
چگالی و شدت الگوی نقطه چیست؟
95406
من چندین روز است که در این مشکل گیر کرده ام: در نمونه ای با اندازه $I$، هر عضو نمونه $i=1,\ldots,I$، با ویژگی $m(i)$ توصیف می شود. مقدار $B$ تابع معینی از $\mbox{avg}(m(i))$ است که می‌توان آن را با: $B=1/\mbox{avg}(m(i))$ تقریب زد. اکنون باید عبارت زیر را تحلیل کنم: ![](http://i.stack.imgur.com/ERwh3.png) اگر $m(i)$ یک اسکالر باشد، این عبارت برابر است با $B*\mbox{ Var}(m(i))$، که $\mbox{Var}(\cdot)$ یک واریانس نمونه است. اما اگر $m(i)$ یک بردار ردیف $1 \times K$ باشد (که مورد دومی است که باید در نظر بگیرم) و $B$ برابر است با معکوس ماتریس مورب با $\mbox{avg}(m) (j))$، برای $j=1،\ldots، K$ در مورب و در جاهای دیگر صفر است، یعنی $B$ ماتریس قطعی مثبت است، بنابراین وجود دارد جذر منحصر به فرد $B$. اما نمی‌دانم چگونه می‌توان آن را با استفاده از واریانس $m(i)$ یا چیزی از این نوع بیان کرد. چیزی که من امیدوار بودم این بود که آن را به صورت یک فرم درجه دوم با مقداری ماتریس واریانس کوواریانس مرتبط با آن بیان کنم، شبیه به بیان استاندارد برای مثال. واریانس نمونه کارها، فقط با آرگومان های دیگر. یا اینکه بتوانیم آن را به عنوان یک شکل درجه دوم نشان دهیم. اگر کسی واقعاً بتواند در این مورد به من کمک کند بسیار متشکرم خواهد بود!
واریانس نمونه متغیر برداری
90150
قبل از برازش یک مدل مختلط خطی، آیا می توان از هر نموداری برای نشان دادن یک برش/شیب تصادفی در مدل استفاده کرد؟ یعنی این نمودارها ممکن است الگوی متفاوتی را برای هر فرد در طول زمان نشان دهند. پس از برازش یک مدل مختلط خطی، چه تشخیصی را می توان انجام داد تا ببینیم آیا نیاز به اصلاح مدل است؟
چه نمودارهایی برای تشخیص مدل مختلط خطی باید استفاده شود؟
20584
از آنجایی که پاسخی برای بخش دوم این سوال نداشتم، می‌خواهم دوباره آن را بپرسم و اطلاعات بیشتری را که در این مدت جمع‌آوری کردم، ارائه کنم. **زمینه** ما در حال طراحی یک کارآزمایی کامل تصادفی در یک جنگل هستیم. نمودارها (واحدهای آزمایشی) تنوع طبیعی را در متغیرهای پاسخ نشان می دهند. از آنجایی که ما 3 تکرار را برای هر یک از 3 تیمار تنظیم خواهیم کرد، فقط 9 پلات داریم و بسته به پیکربندی تصادفی تخصیص تیمارها به آنها، شرایط اولیه، تا آنجا که به متغیرهای پاسخ مربوط می شود، می تواند به طور قابل توجهی متفاوت باشد. در تلاشی برای تضمین شرایط اولیه مشابه، ANOVAها را برای تمام پیکربندی‌های اولیه ممکن محاسبه کرده‌ایم و زیرمجموعه‌ای از آن‌هایی را انتخاب کرده‌ایم که $F$ آمار $\approx1$ دارند، بنابراین واریانس کل بین و درون گروه‌ها را به طور مساوی تقسیم می‌کنیم. در ED ما، برای $F\approx1$، $p\approx0.42$: بسیار بالاتر از حد معمولی $\alpha=0.05$ مورد نیاز برای رد هیفوتز تهی بدون تفاوت بین درمان‌ها. سپس پیکربندی واقعی به طور تصادفی از زیر مجموعه تنظیمات $F\حدود 1$ انتخاب می شود. **سوال** $F\approx1$ یک آستانه دلخواه است اما بسیار منطقی تر از به حداقل رساندن $F$ است، استراتژی ای که واریانس را در گروه هایی شبیه به طرح بلوک کامل تصادفی، بدون بلوک به حداکثر می رساند! آیا تجربیات خاصی در تضمین شرایط اولیه مشابه بین واحدهای آزمایشی وجود دارد؟ آیا به نظر شما _criterium_$F\approx1$ امکان پذیر است؟ متشکرم.
شرایط اولیه واحدهای آزمایشی در طرح کاملا تصادفی
45603
من با مدل‌های ناپارامتریک، مانند فرآیند دیریکله سلسله مراتبی، فرآیندهای پیتمن-یور، و غیره نسبتاً تازه کار هستم، اما خوانده‌ام که روش‌های غیر پارامتری مبتنی بر داده‌ها هستند و می‌توانند قوی‌تر از ضد پارامتری خود باشند. قطعات من به دنبال شواهد و توضیحی هستم که چرا چنین است. شاید به طور خلاصه تر، مزایا و معایب مدل های ناپارامتریک چیست (و چه شواهدی در این مورد وجود دارد). غیررسمی تر، آیا می توان استدلال کرد که روند معقولی برای حرکت به سمت مدل های ناپارامتریک در ادبیات یادگیری ماشین / آمار وجود دارد؟
موردی برای مدل های ناپارامتریک
46953
من در حال خواندن مقاله ای هستم که در آن تفاوت آماری بین دو گروه درمانی برای متغیر A (0.05=p) یافت شده است، اما برای متغیرهای B (0.06=p) و C (0.06=p) تفاوت آماری وجود دارد. A=B-C. آیا این امکان پذیر است و اگر چنین است چگونه؟ در این مقاله آمده است که تمام داده ها با استفاده از آزمون t مستقل دانشجویی به شرط توزیع نرمال داده ها مورد تجزیه و تحلیل آماری قرار گرفتند. در غیر این صورت از آزمون دو نمونه ای Wilcoxon استفاده شد.
تفاوت های معنی دار و متغیرهای مرتبط
7972
من تعدادی شطرنجی از داده های محیطی دارم (~10) که ممکن است پیش بینی های مهمی برای مدل سازی حضور و فراوانی گونه ها در ~ 10 مکان مختلف باشد. من می خواهم بدانم کدام یک از شطرنج ها در توضیح واریانس نتایج مشاهده شده مهم هستند. آیا جستجوی اجزای اصلی رسترها مناسب است؟ آیا این کار در کل محدوده انجام می شود یا فقط با توجه به سایت های مشاهده شده من؟ هر گونه اشاره در این مورد قدردانی می شود. ویرایش: معلوم می شود که رایانه های شخصی در این مورد مفید نیستند. حتی اگر دو شطرنجی ممکن است همبستگی بسیار زیادی در سراسر چشم انداز داشته باشند، اگر در محدوده باریکی از مکان های اشغال شده توسط گونه های مدل شده متفاوت باشند، این چیزی است که واقعاً اهمیت دارد.
اجزای اصلی متغیرهای فضایی
110127
من با داده‌های غیرزیست خاک مانند چگالی ظاهری، سطوح رطوبت و شیمی خاک به عنوان داده‌های پاسخ (بعضی کمی برخی به عنوان درصد) و ترکیبی از داده‌های غیرزیست و زنده به عنوان داده‌های محیطی کار می‌کنم. برای مقایسه سایت های مختلف می خواهم از آمار چند متغیره استفاده کنم. برای این PCA یک روش پذیرفته شده در این زمینه است، اما با PCA من یک افکت قوس/نعل اسبی در پلات‌های تعیین‌کننده‌ام دریافت می‌کنم. من به مقیاس‌گذاری چند بعدی غیر متریک nMDS به عنوان یک روش تنظیم غیرمستقیم جایگزین مورد استفاده در اکولوژی اشاره شده‌ام. من قصد دارم از تابع metaMDS از بسته گیاهی در R استفاده کنم که با تنظیمات استاندارد نتایج معقولی به من می دهد. اما چند سوال وجود دارد که نتوانستم پاسخ روشنی برای آنها بیابم: راهنما می گوید که metaMDS برای استفاده با داده های جامعه طراحی شده است. آیا در این زمینه فقط داده های زیستی منظور می شود؟ داده های دیگر در این زمینه چه معنایی دارند؟ و داده های خاک من در چه چیزی قرار می گیرند؟ در صورتی که داده‌های خاک من داده‌های جامعه نباشد، طیفی از تنظیمات باید تغییر کند. این شامل شاخص عدم تشابه است. از آنجایی که من با داده‌های غیر زنده سروکار دارم، معمولاً یک گرادیان خطی (در مقابل تک‌وجهی) را فرض می‌کنم، آیا در این مورد باید فاصله اقلیدسی را به عنوان شاخص عدم تشابه انتخاب کنم؟ رتبه بندی (env، خاک، c(euc، man، bray، jac، kul)) کمترین امتیاز را برای اقلیدسی به من می دهد (مانند و بری بالاترین). **ویرایش** من چندین نشریه پیدا کردم که به استفاده از شاخص عدم تشابه متریک Gower برای داده های شیمیایی خاک اشاره دارد. برای اطلاعات بیشتر به صفحه 320 کتاب زیر مراجعه کنید: Legendre، Pierre، و Loic FJ Legendre. اکولوژی عددی جلد 20. Elsevier، 2012. **END EDIT** آیا اگر از فاصله اقلیدسی استفاده کنم، باید نام را از nMDS به MDS تغییر دهم، زیرا اقلیدسی یک روش متریک است؟). آیا داده ها باید قبل از محاسبات تبدیل شوند؟ آیا تبدیل خودکار = TRUE کافی است؟
nMDS در وگان برای داده های خاک
7528
یک معادله رگرسیون ساده شده $ES=\frac{a+b}{n_1+n_2}$ به عنوان جایگزینی برای معادله رگرسیون ایگر $\frac{ES}{SE}=\frac{a+b}{SE} پیشنهاد شده است. $، که در آن ES=اندازه اثر، $n_1$=اندازه نمونه بیماران، $n_2$=اندازه نمونه کنترل‌ها، SE=خطای استاندارد. این آزمون جایگزین، که توسط پیترز و همکاران ارائه شد. در مقاله 2006 خود در JAMA، قرار است بهتر از تست Egger باشد، زمانی که ES lnOR است. این آزمون جایگزین همچنین می تواند در مواردی که خطای استاندارد (SE) قابل محاسبه نباشد، ارزشمند باشد، زیرا SE در معادله شرکت نمی کند. آیا می توان از این تست جایگزین Egger با انواع دیگر Effect Size استفاده کرد؟ وقتی ES SMD است؟ وقتی ES RR است؟ چه زمانی ES ضریب همبستگی پیرسون است؟
آزمون ایگر جایگزین، بدون استفاده از خطای استاندارد
95407
![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/upzR9.jpg) در سوال 5، من 10 عامل را دارم که می تواند بر تصمیم خرید تاثیر بگذارد. اکنون می‌خواستم ارتباط بین 10 عامل را که به عنوان عوامل مستقل در نظر می‌گیرم و تصمیم خرید که قصد دارم به عنوان یک متغیر وابسته استفاده کنم، پیدا کنم، اما نمی‌توانم آن را با هیچ چیزی کمیت کنم. اکنون برای اعمال رگرسیون، به یک متغیر وابسته واقعی نیاز دارم که بتوان از آن برای ارتباط با عوامل دیگر استفاده کرد. چگونه می توانم این مشکل را برطرف کنم یا تست دیگری وجود دارد که بتوانم از آن استفاده کنم.
چگونه یک متغیر وابسته در رگرسیون ایجاد کنیم که در داده ها وجود ندارد؟
77928
من با تست کای دو خوب بودن تناسب و همچنین تست کای دو استقلال آشنا هستم. نمونه‌ای از خوبی تناسب مجذور کای جایی است که ما فرکانس‌هایی برای سه گروه مختلف داریم و می‌خواهیم بدانیم آیا نسبت‌های مشاهده شده با نسبت‌های مورد انتظار متفاوت است یا خیر. نمونه‌ای از آزمون مجذور کای استقلال جایی است که ما 2 یا چند دسته داریم که در 2 یا چند دسته دیگر اندازه‌گیری می‌شوند و می‌خواهیم بدانیم کدام دسته‌ها مرتبط هستند. با این حال، من مرتباً نوع سومی از آزمون مجذور کای به نام تست همگنی را می بینم. به عنوان مثال stattrek یک صفحه در مورد آزمون مجذور کای همگنی دارد: http://stattrek.com/chi-square-test/homogeneity.aspx آیا کسی می تواند توضیح دهد که آزمون مجذور کای همگنی چه تفاوتی با دو آزمون دیگر دارد؟
آزمون کای دو همگنی
99486
من یک سوال ابتدایی در مورد نحوه عادی سازی مجموعه ای از داده های سری زمانی دارم و از نظرات شما سپاسگزارم. برای ساده تر، وضعیت فرضی به شرح زیر است: فرض کنید ما محصولات A و B را داریم که هر دو ماهیت و عملکرد مشابهی دارند و می توانند به عنوان جایگزین یکدیگر استفاده شوند. ما داده های فروش هفتگی هر محصول را داریم. 10 محصول رقیب در بازار وجود دارد که مشابه محصولات A و B ما هستند و اطلاعات کلی بازار هفتگی برای آن 10 محصول رقیب نیز موجود است. ما می خواهیم بدانیم که محصولات A و B ما تا چه اندازه تمایل به آدمخواری یکدیگر دارند و می خواهیم بر اساس داده های فروش هفتگی آنها، ارتباط بین این دو را بدانیم. با این حال، حجم کلی فروش در بازار (برای 2 محصول ما و 10 محصول رقیب در مجموع) از یک هفته به هفته دیگر در نوسان است و نوسانات ما را ملزم می کند قبل از محاسبه همبستگی بین محصولات A و B آنها را تعدیل یا عادی کنیم. فرض کنید که نوسانات هفتگی بازار به صورت زیر نمایه می شود: بازار: Wk1 100 (=پایه) Wk2 109 Wk3 103 Wk4 101 Wk5 96 Wk6 108 Wk7 117 Wk8 147 Wk9 135 Wk10 115 سپس برای عادی سازی یا تعدیل حجم فروش هفتگی محصول A و B به طوری که ظاهراً اعداد فروش را با نوسانات کلی بازار نشان می دهند، محاسبه می کنیم. فروش هفتگی تعدیل شده توسط این شاخص. برای مثال، فرض کنید داده‌های فروش خام WK2 برای محصول A 36 است، و سپس فروش WK2 تعدیل‌شده برای محصول A 33 است، که از 36 تقسیم بر 109 ضربدر 100 به دست می‌آید. آیا این منطقی است؟ یا راه های بهتر یا مناسب تری برای مقابله با موقعیت ها داریم؟ از اینکه این سوال ابتدایی را خواندید متشکرم و از نظرات شما سپاسگزارم. من بسیار از افکار شما قدردانی می کنم.
عادی سازی نوسانات فروش هفتگی در کل بازار
20588
آیا استفاده از نسبت شانس برای گروه هایی که زیر مجموعه یکدیگر هستند نامناسب است؟ به عنوان مثال، مقایسه معدل دانش آموزان دختر با معدل کل دانش آموزان. (این فقط یک مثال است، نه چیزی که من واقعاً مقایسه می کنم) این بخشی از یک پروژه بزرگتر است و علاقه اصلی من در انجام این کار این است که نشان دهم نتیجه به دلیل گروه های مورد استفاده متفاوت خواهد بود. و بر اساس ادبیات قبلی است که من احساس کردم قبل از اینکه به تحلیل خود ادامه دهم، باید تمایز بین دو گروه را نشان دهم. به نظر من، نسبت شانس فقط یک آمار توصیفی برای مقایسه شانس بین دو گروه است و من واقعاً نمی دانم که چرا اشتباه است. با این حال، Stata به من اجازه این کار را نداد و بنابراین به این بحث منجر می شود. سوال اصلی: چرا گروه ها باید دوقطبی باشند؟
نسبت شانس بین گروه های همپوشانی
8891
من سعی می کنم قیمت های فروش املاک را پیش بینی کنم. * در مجموعه داده من متغیرهای مستقلی وجود دارد که هم اسمی و هم عددی هستند (متر مربع، قیمت ها و غیره) * قبل از تغذیه داده ها به هر الگوریتم رگرسیونی، می خواهم آن را به درستی از قبل پردازش کنم (binning، عادی سازی میانگین / انحراف std، گسسته سازی و غیره .) * من تحت تأثیر بسیاری از روش های ذکر شده در کتاب های درسی مختلف قرار گرفته ام و سعی می کنم بفهمم چه چیزی در عمل خوب عمل می کند، اگرچه منطقی ترین پاسخ به این سؤال احتمالاً این بستگی دارد، شاید شما قوانین سرانگشتی / داستان های جنگ / توصیه های کلی را به من بدهید؟ * معمولاً چگونه داده ها را برای رگرسیون پیش پردازش می کنید؟ * معمولا از چه روش هایی استفاده می کنید؟ * کدام الگوریتم های رگرسیون نیاز به درمان خاصی دارند؟ به عنوان ابزار من از weka و R استفاده می کنم. با تشکر فراوان!
آماده سازی داده ها برای رگرسیون
68669
ماهیت LDA همزمانی کلمه است. می خواهم بدانم چرا؟ و آیا همزمانی کلمه به معنای ظاهر شدن دو کلمه با هم در یک سند خاص است یا فقط در مجموعه اسناد با هم ظاهر می شود؟ پیشاپیش از همه شما سپاسگزارم.
چگونه همزمانی کلمه به دو کلمه از یک موضوع اجازه می دهد در مدل موضوع LDA به یکدیگر پیوند بخورند؟
45609
من در حال حاضر در حال اجرای یک مدل برای پیش بینی نتایج فوتبال در JAGS هستم. در واقع، من چندین مورد را اجرا کرده ام، اما به سخت ترین چالش خود رسیده ام: مدلی که توسط Rue & Salvesen در مقاله خود پیش بینی و تحلیل گذشته نگر مسابقات فوتبال در یک لیگ توصیف شده است. مدل آنها از یک مدل ترکیبی برای کوتاه کردن توزیع پواسون مشروط به قدرت حمله / دفاع پس از 5 گل استفاده می کند. آنها همچنین قانون دیکسون و کولز (1997) را برای افزایش احتمال نتایج 0-0 و 1-1 در بازی های کم امتیاز اقتباس کرده اند. مشکل من به شرح زیر است، من سعی می کنم مدل ترکیبی را پیاده سازی کنم: $$ \pi_{g1}(x_{A,B},y_{A,B}|\lambda_{A,B}^{(x) },\lambda_{A,B}^{(y)}) = \kappa(x_{A,B},y_{A,B}|\lambda_{A,B}^{(x)},\lambda_{A,B}^{(y)})Po(x_{A ,B}|\lambda_{A,B}^{(x)})Po(y_{A,B}|\lambda_{A,B}^{(y)}) $$ کجا $x_{A,B}$ نشان‌دهنده تعداد گل‌های زده شده توسط تیم میزبان در بازی بین تیم‌های A و B است و $log(\lambda_{A,B}^{(x)})$ نشان‌دهنده تیم‌ها است. قدرت من سعی کرده‌ام این دو قانون را در JAGS با استفاده از ترفند صفر-یک‌ها پیاده‌سازی کنم، اما تاکنون موفق نشده‌ام (خطا: مقادیر غیرقانونی والد). مدل JAGS من تاکنون: داده { C <- 10000 برای (i در 1:noGames) { صفر[i] <- 0 } homeGoalAvg <- 0.395 awayGoalAvg <- 0.098 rho <- 0.1 } مدل { ### مدل زمان - دقت حرکت براونی تاو ~ dgamma (10، 0.1). ~ dgamma(0.1، 1) for(t در 1:noTeams) { حمله[t، 1] ~ dnorm(0، دقت) دفاع[t، 1] ~ dnorm(0، دقت) برای(ها در 2:noTimeslices) { attack[t, s] ~ dnorm(attack[t, (s-1)], (tau * دقت) / (abs(days[t,s]-days[t,s-1]))) defence[t, s] ~ dnorm(defence[t, (s-1)], (tau * دقت) / (abs(days[t,s]-days[t,s-1]))) } } ### گاما مدل هدف ~ dunif(0, 0.1) for(i در 1:noGames) { delta[i] <- ( حمله[team[i, 1]، timelice[i, 1]] + دفاع[تیم[i, 1]، timelice[i, 1]] - حمله[تیم[i، 2]، تایم لایس[i، 2]] - دفاع[تیم[i، 2]، تایم لایس[i، 2]] ) / 2 log(homeLambda[i]) <- ( homeGoalAvg + ( حمله[team[i, 1]، timelice[i, 1]] - defence[team[i, 2]، timelice[i, 2]] - گاما * دلتا [i] ) log(awayLambda[i]) <- ( awayGoalAvg + ( attack[team[i, 2], تایم لایس[i, 2]] - دفاع[تیم[i, 1]، تایم لایس[i, 1]] + گاما * دلتا[i] ) گلهای زده شده[i، 1] ~ dpois( homeLambda[i] ) گلهای زده شده[i ، 2] ~ dpois( awayLambda[i] ) is0X[i] <- ifelse(goalsScored[i, 1]==0, 1, 0) isX0[i] <- ifelse(goalsScored[i, 2]==0, 1, 0) is1X[i] <- ifelse(goalsScored[i, 1]==1، 1، 0) isX1[i] <- ifelse(goalsScored[i, 2]==1, 1, 0) is00[i] <- is0X[i] * isX0[i] is01[i] <- is0X[i] * isX1[i] is10[i] <- is1X[i] * isX0[i] is11 [i] <- is1X[i] * isX1[i] kappa[i] <- ( is00[i] * ( 1 + (خانه Lambda[i] * awayLambda[i] * rho) ) + is01[i] * ( 1 - (homeLambda[i] * rho ) ) + is10[i] * ( 1 - (awayLambda[i] * rho ) ) + is11[i] * ( 1 + rho ) + 1 - ( is00[i] + is01[i] + is10[i] + is11[i] ) ) # این کار نمی کند! zeros[i] ~ dpois(-log(kappa[i]) + C) } }
مدل سازی یک مدل ترکیبی در JAGS/BUGS
46959
فرض کنید این مدل را با «systemfit()» از بسته systemfit R مطابقت دهیم. $y = \beta_1 x + \gamma_1 z + u$ $z = \beta_2 w + \gamma_2 y + v$ اکنون می‌توانم تخمینی از $Cor(u,v)$ دریافت کنم. من می دانم که یکی از علل درون زایی این است که همبستگی قابل توجهی بین $u$ و $v$ وجود دارد. اما آیا این بدان معناست که من باید به ماتریس همبستگی ارائه شده توسط خروجی «systemfit()» نگاه کنم تا به این نتیجه برسم که آیا شواهدی وجود دارد که این همبستگی ممکن است دلیل درون زایی باشد؟ علاوه بر این، اگر من درون زایی را کنترل کنم و همبستگی بین $u$ و $v$ کاهش یابد، آیا این به این معنی است که برخی از متغیرهای حذف شده اکنون به گونه ای کنترل می شوند که خطای باقیمانده فقط نویز باقی مانده باشد؟
ماتریس همبستگی بین باقیمانده ها در یک SEM برازش شده توسط تابع R systemfit
100175
در مدل های خطی باید بررسی کنیم که آیا رابطه ای بین متغیرهای توضیحی وجود دارد یا خیر. اگر آنها بیش از حد همبستگی داشته باشند، همخطی وجود دارد (یعنی متغیرها تا حدی یکدیگر را توضیح می دهند). من در حال حاضر فقط به همبستگی زوجی بین هر یک از متغیرهای توضیحی نگاه می کنم. ** سوال 1: ** چه چیزی به عنوان همبستگی بیش از حد طبقه بندی می شود؟ به عنوان مثال، آیا همبستگی پیرسون 0.5 خیلی زیاد است؟ **سوال 2:** آیا می توانیم به طور کامل تعیین کنیم که آیا بر اساس ضریب همبستگی بین دو متغیر همخطی وجود دارد یا به عوامل دیگر بستگی دارد؟ **سوال 3:** آیا بررسی گرافیکی نمودار پراکندگی دو متغیر چیزی به آنچه ضریب همبستگی نشان می دهد اضافه می کند؟
چه زمانی می توانیم از هم خطی بودن صحبت کنیم
8898
یک دوست آسیب شناس برای کمک به سؤال زیر برای یک پروژه تحقیقاتی به من مراجعه کرد. هدف مقایسه اثربخشی سه روش تشخیصی مختلف است. مجموعه داده ها به شرح زیر است: 50 نمونه مختلف وجود دارد، هر نمونه توسط 4 پاتولوژیست، و 3 ابزار مختلف (یعنی 600 تشخیص در کل) مورد ارزیابی قرار گرفت. هر مورد دارای تشخیص احتمالی مثبت یا منفی است و نتایج واقعی شناخته شده است ، همانطور که به طور مستقل مشخص شده است. میزان موفقیت هم به کیفیت ابزار و هم به مهارت پاتولوژیست بستگی دارد و نمی توانیم فرض کنیم که چهار پاتولوژیست مهارت یکسانی دارند. سرانجام ، حتی اگر هر شخص 3 بار نمونه مشابه را اندازه گیری کند ، می توان آنها را به عنوان اندازه گیری مستقل درمان کرد. تست های مناسب برای مقایسه اثربخشی بین ابزارها چیست؟ با تشکر اضافه شده: بسیاری از اطلاعات خوب در پاسخ ها ، به لطف هر دو. آیا فکری در مورد اینکه چگونه ROC و بلوک تصادفی مقایسه/تضاد دارند؟ مطمئن نیستم آنقدر آن را هضم کرده باشم که بدانم کدام روش بهتر است. از آنجایی که نتایج باید به یک مخاطب خاص منتقل شود، احتمالاً بستگی به این دارد که کدام یک در بین آن مخاطبان بیشتر مورد استفاده قرار گیرد.
چگونه می توان اثربخشی تکنیک های تشخیص پزشکی را مقایسه کرد؟
99487
فقط می خواستم مطمئن شوم که اینجا هستم. من شرایطی دارم که باید ثابت کنم در روزهایی که بیش از 10 کالا می فروشیم، حاشیه ما (قیمت فروش در مقابل قیمت پیشنهادی) بالا می رود. من واقعاً مطمئن نیستم که بتوان این را ثابت کرد، اما این چیزی است که با آن کار می کنم. جدول بالا لیستی از هر فروش است که ما هر روز انجام می‌دهیم. متوجه شدم که اگر مجموع ستون R را در روزهای با بیش از 10 فروش (بنابراین 5/1/2011 و 5/4/2011) بگیرم و آن را بر مجموع مربوطه در ستون Q (36,018 دلار / 73,920 دلار) تقسیم کنم، 48.7 دریافت می کنم. ٪ (سپس کل همه چیز را در هر ستون می گیرم و مجموع مربوطه را کم می کنم، آن را بر کل قیمت پیشنهادی مناسب تقسیم می کنم - این در پایین ستون R نشان داده شده است. آیا این رویکرد درستی در این مورد است؟ فقط باید مطمئن باشم جدول پایین جدول جداگانه ای است که من دارم که تمام اطلاعات جدول بالا را جمع می کند. قبلاً میانگین درصدهای مربوطه را می‌گرفتم (بنابراین میانگین 44.2٪ و 56.3٪) اما متوجه شدم که این احتمالاً بسیار نادرست است. دلیلش را کاملاً روشن نیستم، اما از میانگین گرفتن میانگین ها اجتناب می کنم و این وضعیت به نظر من بسیار شبیه بود، به همین دلیل است که برای بررسی مجدد اینجا پست می گذارم. این محاسبه نتایج بسیار متفاوتی به من می دهد (در ستون W نشان داده شده است). چرا این راه اشتباه است؟ امیدوارم همه اینها منطقی باشد. من می دانم که این یکی از آن قوانین اساسی ریاضی است، با این حال مغز من در حال حاضر سرخ شده است، بنابراین باید به طور کامل بفهمم که چرا روش دوم اشتباه است. من واقعاً هیچ نمونه مشابهی را آنلاین نمی بینم. (*لطفاً توجه داشته باشید که این فقط زیرمجموعه ای از داده های من است. مجموعه داده واقعی شامل بیش از 3 سال سابقه و چند نقطه داده دیگر است، اما این مورد اصلی بود که از من خواسته شد به آن نگاه کنم، اگرچه من اینطور نیستم. متقاعد شده است که یک رابطه علّی را می توان تنها از این داده ها ثابت کرد.) متشکرم. ![مثال](http://i.stack.imgur.com/SO0ob.png)
میانگین درصدها / اثبات رابطه علی بین تاریخ فروش و حاشیه فروش
20858
با توجه به مجموعه‌ای از داده‌های $(x,y)$، می‌توان یک رگرسیون غیرپارامتری $y$ روی $x$ انجام داد تا نحوه پیش‌بینی $E(Y|X)$ را درک کند. به طور مشابه، اگر کسی داده کافی داشته باشد، ممکن است مفید باشد که یک برش عمودی باریک از داده ها (محدوده کوچکی از $x$) گرفته و سعی کنید pdf $Y$ را در آن نقطه درک کنید. با این حال، من داده های خیلی متراکم ندارم، بنابراین می خواهم این دو تکنیک را با هم ترکیب کنم. آنچه من می خواهم بدانم، برای هر مقدار $x$، توزیع کامل $Y|X$ است. من تصور می کنم که اگر چگالی ها به سرعت به عنوان تابعی از $x$ تغییر کنند، این واقعاً ممکن نیست، اما من مایلم برخی فرضیات را بکنم و برخی از میانبرها را انجام دهم (من احساس می کنم که چگالی در حال افزایش است. با افزایش $x$، و باید یک وجهی باشد، هرچند متقارن نباشد) - من هنوز در تلاشم تا درک درستی از آنچه باید فرض کنم را بدست بیاورم. هر گونه توصیه یا مرجع قدردانی می شود. تنها ایده من تا کنون این است که آن را به طور مکرر انجام دهم - پسرفت، یافتن میانگین شرطی، تخمین چگالی، تکرار. هرچند به نظر می رسد که کاستی هایی نیز وجود دارد.
رگرسیون ناپارامتریک و تخمین چگالی ناپارامتریک همزمان
48279
من رفتار برخی از پیاده‌سازی‌های رویکردهای بیزی و مکرر را برای تشخیص ناهنجاری پارامتری مقایسه می‌کنم و در حال حاضر سعی می‌کنم زمانی که مجموعه نمونه واقعاً کوچک است، تفاوت‌ها را کشف کنم. مورد بیزی نسبتاً ساده به نظر می رسد - می توان احتمال یک آیتم معین را از توزیع مشابه داده های به دست آمده تخمین زد و آن را در آستانه معینی کاهش داد. با این حال، مورد مکرر برای من چندان واضح نیست. من احساس می کنم که رویکرد مکرر گرا این است که از پاسخ دادن به غیرعادی بودن یا نبودن یک آیتم امتناع کنیم تا زمانی که داده های کافی برای رد فرضیه صفر مبنی بر اینکه یک آیتم عادی است به دست آوریم. به عنوان مثال، چگونه یک آمارشناس مکرر به مشکل زیر برخورد می کند: > با توجه به مجموعه داده [0، 0.5، -0.5] و دانستن اینکه داده ها از توزیع نرمال می آیند، آیا می توان تخمین زد که آیا هر یک از عناصر > زیر [10، 5، 2] با سطح معنی داری 0.05 با استفاده از > رویکرد فراوان گرا غیرعادی هستند؟ چه اتفاقی می افتد زمانی که مجموعه داده های آموزشی > از 3 مثلاً به 100 مورد بزرگتر می شود - در چه مرحله ای امکان ارزیابی موارد آزمون داده شده در بالا وجود خواهد داشت؟
اطمینان پیش‌بینی ناهنجاری برای استنتاج پارامتر فرکانس‌گرا در مقابل بیزی
20586
من تعجب کردم: آیا بسته ای در R برای انتخاب خودکار مدل GARCH وجود دارد؟ من به چیزی شبیه آنچه که بسته پیش بینی برای مدل های ARIMA انجام می دهد فکر می کنم. اگر من خودم این را پیاده سازی کنم، آیا مناسب است که فقط یک جست و جوی شبکه ای روی پارامترهای احتمالی قسمت های GARCH و ARIMA مدل (با استفاده از بسته rugarch) انجام دهم و یکی را با کمترین AIC (یا BIC) انتخاب کنم؟
انتخاب پارامتر خودکار برای یک مدل GARCH، به روشی مشابه بسته پیش بینی
44559
آیا شرایطی برای اندازه گیری تغییرات حول میانه وجود دارد؟ من می دانم که ما از واریانس برای میانگین داده ها استفاده می کنیم، اما چگونه می توان واریانس را برای میانه تعریف کرد؟ آیا آمار مشابهی برای میانه وجود دارد؟
اندازه گیری تغییرات حول میانه
90157
من می خواهم یک مدل ARMA را با استفاده از MATLAB R2012b بر روی یک سری زمانی (بازده گزارش سه ماهه یک اوراق قرضه 10 ساله) قرار دهم. این بخشی از یک تمرین است. من با کد و تفسیر یک نتیجه مشکل دارم. این کدی است که من استفاده می کنم: % آخرین عنصر جدیدترین عنصر است، اولین عنصر قدیمی ترین یک timeSeries = ... [0.0327; 0.0386; 0.0375; 0.0147; 0.0417; -0.0319; -0.0278; ... -0.0693; 0.0328; -0.0721; -0.0727; 0.0645; -0.0301; -0.0301; -0.0261; ... 0.0313; -0.0912; -0.0235; 0.0436; -0.0714; 0.0128; 0.0506; 0.1451; ... 0.0387; -0.0190; 0.0822; -0.0009; -0.0094; 0.0408; 0.0324; 0.0661; ... 0.1519; 0.0713; 0.2015; 0.0353; -0.0800; 0.0079; 0.0119; -0.1376; 0.0345; ... 0.0568; -0.3770; 0.0516; 0.0563; 0.0849; 0.0484; 0.0148; 0.0991; 0.0796; ... 0.0872; 0.0754; -0.0473; -0.3189; 0.0478; 0.0457; 0.0183; -0.0422; ... -0.0528; 0.0632; -0.0287; -0.1751; 0.0238; 0.0733; -0.0177; 0.0933; ... 0.1358; -0.0631; -0.0542; -0.0166; 0.0194; -0.0868; 0.0742; 0.0260; ... 0.0122; 0.0634; 0.0277; 0.0171; 0.0509; 0.1551; 0.0875; 0.0535; 0.0058; ... 0.1711; 0.1028; -0.2364; 0.0991; -0.0061; 0.0768; -0.0444; 0.2470; ... 0.0935; -0.0983; -0.0428; -0.0852; -0.0977; 0.0094; -0.3146; 0.1685; ... 0.0379; -0.1846; -0.3769; 0.0353; -0.1330; 0.2245; 0.0255; 0.1483; ... -0.0051; 0.0255; -0.0407; 0.0779; 0.0305; 0.0353; 0.0931; 0.0520; 0.1156; ... -0.0712; 0.0579; 0.0879]; p = 1; q = 1; % اولین راه: garchfit spec = garchset('R', p, 'M', q, 'VarianceModel', 'Constant'); [coeff, coeffErrors, llf, innovation, sigma, summary] = garchfit(spec, timeSeries); garchdisp(coeff، coeffErrors)؛ % راه دوم: کلاس arima [model, varCov, llf2, info2] = برآورد(arima(p,0,q), timeSeries); من نتایج زیر را با استفاده از garchfit به دست می‌آورم (ضرایب برابر با 1 یا -1 دارای مقدار مطلق بسیار نزدیک به 1 هستند، مانند 0.999999998): آمار خطای مقدار پارامتر T استاندارد ----------- ----- ------ ------------ ----------- C 0.0063979 0.022847 0.2800 AR (1) -1 0.025306 -39.5159 کارشناسی ----------- ------------ ----------- ثابت 0.00381023 0.0235065 0.162092 AR{1} 0.638413 2.19145 0.29132 MA{1} 0.617482 2.26535 -0.272577 واریانس 0.0107181 0.00103327 10.373 **سوال 1**. من معتقدم که دو راه برای برازش مدل باید به یک مدل منتهی شود: یک مدل ARMA را می توان به عنوان یک مدل GARCH با واریانس ثابت نشان داد (این چیزی است که حداقل به من آموزش داده شد، من متخصص مدل های GARCH نیستم). آیا درست است؟ **سوال 2**. با فرض اینکه هر دو راه باید به یک مدل منتهی شوند، چرا مقادیر بسیار متفاوتی برای ضرایب AR{1} و MA{1} دریافت می کنم؟ آیا این فقط به روش بهینه سازی مورد استفاده برای محاسبه آنها مربوط می شود؟ **سوال 3**. فرض: نتایج garchfit صحیح است. در واقع، این نتایج قابل توجه هستند، در حالی که نتایج محاسبه شده با کلاس arima قابل توجه نیستند. بنابراین، مدل تک متغیره من تبدیل به $$ y_{t} = 0.0063979 - y_{t-1} + \epsilon_{t-1} + \epsilon_t $$ می‌شود که در آن $\epsilon$ باقیمانده‌ها هستند. بنابراین، $$ y_{t} + y_{t-1} = 0.0063979 + \epsilon_{t-1} + \epsilon_t $$ است آیا می‌توانید به من کمک کنید معنی آن را بفهمم؟ من فکر می کنم باید به این معنی باشد که سری زمانی برابر با باقیمانده های آن است، بنابراین سری زمانی طبق تئوری مدل های ARMA یک نویز سفید است. آیا صحیح است؟ خیلی ممنون.
تطبیق مدل ARMA با MATLAB R2012b
68663
مدل رگرسیون خطی $${\bf y} = {\bf X}\beta + {\bf e}،$$ را در نظر بگیرید که در آن ${\bf y}$ یک بردار $n\ برابر 1$ است، $\beta $ یک بردار $p\times 1$ است، ${\bf e}$ یک بردار $n\times 1$ است. همچنین فرض کنید که $e_j\stackrel{ind.}{\sim} N(0,\sigma)$. جفریز قبل از پارامترهای $(\beta,\sigma)$ چیست؟ من اساساً به دنبال مرجعی هستم که بتوانم این را پیدا کنم.
جفریز قبل برای مدل رگرسیون خطی
12258
اعداد $n$ را بدون جایگزینی از مجموعه $\{1,2,...,m\}$ انتخاب کنید و مجموعه $S=\{a_1,a_2,...,a_n\}$ را ایجاد کنید. من می‌خواهم انتظار واریانس را برای مجموعه نمونه‌برداری $\mathbb{E}[Var(S)]$ و حداکثر واریانس را در بین همه نمونه‌ها محاسبه کنم: $\max{Var(S)}$. علاوه بر این، توزیع واریانس نمونه چگونه است؟
انتظار واریانس مجموعه نمونه برداری بدون جایگزینی
26863
من از ریشه میانگین مربعات خطا (RMSE) برای اندازه گیری دقت مقادیر پیش بینی شده با استفاده از یک مدل استفاده کرده ام. می دانم که مقدار بازگشتی از واحدهای اندازه گیری من استفاده می کند (به جای درصد). با این حال، من می خواهم مقادیر خود را به صورت درصد ذکر کنم. رویکردی که من اتخاذ کرده‌ام این است که «RMSE» را با مقدار میانگین مشاهداتم عادی کنم. آیا اصطلاحی برای «RMSE/mean» وجود دارد؟
RMSE نرمال شده توسط میانگین مقدار مشاهده شده چیست؟
13126
من دانشجوی جدید آمار هستم :) چند سوال در مورد رگرسیون خطی دارم، من از R برای انجام چند تست استفاده می کنم. من دو لیست ساده دارم، مانند: > a <- c(1،2،3،4) > b <- c(5،6،7،8) سپس انجام می دهم > مدل <- lm(a ~ b) نتیجه (ضریب) این است: > coef(model) (Intercept) b -4 1 رابطه کامل است (1). اما من مقدار رهگیری را متوجه نشدم، چرا -4 است؟ سپس اگر آزمون R خود را با: > b <- c(5,6,7,80) > a <- c(1,2,3,40) > مدل <- lm(a ~ b) > coef( مدل) (Intercept) b -1.0868825 0.5137503 > مدل <- lm(b ~ a) > coef(model) (مقطع) a 2.125346 1.945622 بدیهی است **lm(a ~ b) != lm(b ~ a)** اما، چه معیارهایی برای انتخاب لیستی که در وهله اول قرار گیرد وجود دارد؟
درک وقفه در رگرسیون خطی ساده و اینکه چرا یک متغیر پیش بینی و دیگری متغیر نتیجه است
20580
تصور کنید که به مجموعه ای از مطالعات دسترسی دارید که در آن محدوده سنی، حجم نمونه و یک «اثر» (مثلاً سیگار در روز) گزارش شده است. بهترین راه برای ایجاد متا رگرسیون سیگار در روز بر اساس سن چیست؟ بخش سخت در اینجا این است که به درستی بین این مطالعات با اندازه نمونه های مختلف و محدوده سنی مختلف درون یابی شود. اول، توزیع سنی گزارش نخواهد شد. دوم، من فقط میانگین و واریانس اثر را برای کل مطالعه دارم. در حد، منطقی به نظر می رسد که مطالعات کافی با محدوده سنی کافی تخمین مناسبی از رابطه بین سن و سیگار در روز به من بدهد. آیا می دانید که آیا این نوع تجزیه و تحلیل قبلا انجام شده است و آیا آزمون های آماری مناسب استخراج شده است؟
متررگرسیون با سن به عنوان متغیر کمکی
100173
من این سوال را از روی کنجکاوی می پرسم، معلمم نتوانست آن را توضیح دهد. اگر از رگرسیون لجستیک با متغیرهای طبقه‌بندی استفاده می‌کنم، آنها مانند {1،2،3} کدگذاری می‌شوند. حدس می‌زنم اگر از {4،5،6} استفاده می‌کردم، نتایج من را تغییر نمی‌داد. اما اگر خطی بودن کدگذاری حفظ نمی شد چه؟ (بگویید {4،10،99})؟ چیزی که من با آن سر و کار دارم فقط روش کدگذاری متغیرهای عامل است، اما آیا ممکن است استنتاج آماری به این ترتیب تحریف شود؟ یا، در بدترین حالت، آیا می‌توانم از داده‌های طبقه‌بندی نتیجه‌گیری بیهوده بگیرم، فقط به این دلیل که به نوعی کدگذاری شده‌اند؟
متغیرهای توضیحی ممکن است پیش بینی ها را سوگیری کنند
68664
من با داده های حاوی ژنوتیپ های SNP برای هزاران نفر کار می کنم. یکی از وظایف من انجام IBD بین افراد برای یافتن ارتباط فردی بود. من تجزیه و تحلیل IBD را با PLINK (http://pngu.mgh.harvard.edu/~purcell/plink/ibdibs.shtml) انجام می دهم. با این حال، من همیشه تعجب می کردم که چگونه از نظر ریاضی به روشی ملموس کار می کند. من سعی کردم در اینترنت پیدا کنم، اما تنها چیزی که به دست می‌آورم از نظر تئوری اطلاعات است، اما نه اینکه شما چگونه پارامترهای IBD را عملاً تخمین می‌زنید. بنابراین، شاید کسی اینجا بتواند آن را برای من توضیح دهد؟ برای مثال، فرض کنید می‌خواهم ارتباط بین فرد 1 و 2 را با ژنوتیپ‌های SNP پیدا کنم: Ind1: A/G A/A G/C T/G T/T Ind2: A/G A/G G/G T/G A/T چگونه می‌توانم IBD را با توجه به آن ژنوتیپ ها بین Ind1 و Ind2 تخمین بزنید؟ با تشکر
نحوه تخمین IBD (هویت بر اساس نسب) بین دو فرد از نظر ریاضی
28478
من در سری های زمانی چند متغیره مشکل دارم. داده ها شامل سه سری زمانی مربوط به تجارت خارجی است. اگرچه مشتری من هنوز در حال تحقیق است و سعی می کند داده های ماهانه هر سه سری را بیابد، ممکن است فقط داده های فصلی برای برخی از سریال ها داشته باشد. او داده های 10 ساله دارد. من در حال بررسی درون یابی داده های ماهانه از داده های سه ماهه هستم، و می خواستم بدانم آیا این رویکرد خوبی است و چه اشکالاتی وجود دارد. با تشکر
درون یابی در سری های زمانی چند متغیره
58586
در مجموعه داده‌هایم، 3 متغیر کمکی ($V_1، V_2، V_3$) و پاسخ ($V_4$) دارم که توسط برنامه‌ای که به‌طور خاص برای تولید متغیرهای تصادفی با استفاده از توزیع گاوسی معکوس نوشته شده است، تولید شده‌اند که در آن $ \sigma^2 = است. 1 $ و $ \mu = \frac{1}{(\beta_0 + \beta_1 \cdot V_1 + \beta_2 \cdot V_2 + \beta_3 \cdot V_3)^\frac{1}{2}} $، که $ \boldsymbol \beta $ بردار ضریب است. وقتی از دستور fit <\- glm(V4 ~ V1 + V2 + V3، خانواده = inverse.gaussian) استفاده می‌کنم، R 2 خطا می‌دهد: خطا: هیچ مجموعه معتبری از ضرایب یافت نشد: لطفاً مقدار شروع را اضافه کنید. : پیام هشدار: در sqrt(eta): NaNs تولید شده اولین مورد به نظر می رسد چیزی خاص برای خانواده Inverse Gaussian برای GLM باشد، زیرا من این کار را نکرده ام. وقتی از همین دستور برای خانواده های دیگر استفاده می کنم، این خطا را دریافت کردم. نمی‌دانم چرا دومی پرتاب می‌شود، زیرا همه این $ \eta = \boldsymbol \beta^T {\bf V} $ در بازه $ (0، 8) $ قرار دارند. اگر به صورت دستی از «start = c(1، 1، 1، 1)» استفاده کنم، بدون خطا پیش می رود اما راه حل $ \hat{\boldsymbol \beta} = [2.491 \ 0.156 \ 0.572 \ 1.170 ]$ دارد که قطعاً درست نیست زیرا من از $ \boldsymbol \beta = [0.759 \ 0.825 \ 0.916 استفاده کردم \ 0.972] $ برای تولید داده ها. مجموعه داده شامل 1000 تاپل است، بنابراین تصادفی بودن تولید نباید اجازه دهد که راه حل $ \hat{\boldsymbol \beta} $ تا این حد تغییر کند. وقتی این کار را برای خانواده‌های دیگر انجام دادم، تفاوت بین هر عنصر $ \hat{\boldsymbol \beta} $ و $ \boldsymbol \beta $ برای مجموعه داده‌های 1000 تاپلی بیشتر از 0.05 دلار نبود. برای اصلاح این مورد و تخمین مناسب $ \hat{\boldsymbol \beta }$ چه باید بکنم؟ برای کسانی که کنجکاو هستند، من یک GLM را روی مجموعه داده ای اجرا می کنم که قبلاً $ \boldsymbol \beta $ را برای آزمایش یک برنامه می شناسم.
خطا در نحو برای GLM با خانواده inverse.gaussian در R
55245
من مجموعه بزرگی از داده های مکان را از یک شبکه اجتماعی دارم و می خواهم با آن یک مطالعه تحرک انجام دهم. برای هر _object_، من تا چندین هزار _locations_ دارم که این شی از آنجا پست شده است. من به سرعت ویژگی های اشیاء را خلاصه کردم که عبارتند از * تعداد مکان (به سادگی تعداد مکان هایی که من از این شی دارم) * مسافت طی شده (تمام فواصل بین مکان های متوالی خلاصه می شود) * شعاع چرخش (انحراف استاندارد از مکان میانگین که مرکز ثقل نیز نامیده می شود) * سرعت متوسط ​​(خود توضیح می دهد) اکنون، برای مطالعه تحرک، من واقعاً به داشتن تنها اشیاء انسان نما در مجموعه داده وابسته هستم. مشکل این است که در شبکه اجتماعی خاص، اشیاء غیر انسان نما نیز وجود دارد (مثلاً یک ایستگاه رادیویی که همیشه از یک مکان پخش می شود یا یک سرویس نظارت بر زلزله که از کل جهان پخش می شود). بنابراین، در پایان، من چندین کلاس از اشیاء را در مجموعه داده خود دارم، به عنوان مثال. انسان‌ها، ربات‌های ثابت، ربات‌های پویا، و غیره. فرض قوی من این است که این کلاس‌های مختلف مقادیر بسیار متفاوتی را در فضای ویژگی نشان می‌دهند، یعنی یک سرویس مانیتورینگ زلزله باید دارای تعداد مکان بالا، مسافت طی شده زیاد، شعاع چرخش بالا و غیره باشد. بر اساس این فرض، من می‌خواستم از یک طبقه‌بندی کننده نظارت شده ساده (مانند Naive Bayes) برای طبقه‌بندی کل مجموعه داده‌ام استفاده کنم تا بتوانم **غیر انسان‌نما را حذف کنم. اشیاء**. مجموعه آموزشی شامل حدود 200 شیء است که با مشاهده نمایه های شبکه اجتماعی مربوطه اشیاء به دست می آیند. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gTy3Y.png) **N~2000** اما همانطور که در شکل بالا مشاهده می کنید، توزیع متغیرهای فوق به صورت بسیار بلند، یعنی برخی نقاط پرت شدید وجود دارد، اما آنها پراکنده هستند، و قطعاً توزیع ها نرمال نیستند، که برای NB معمولی لازم است. وقتی متغیرها را log10 تبدیل می کنم، به نظر می رسد برخی به یک توزیع نرمال نزدیک می شوند (یعنی تعداد مکان و مسافت طی شده)، اما شعاع چرخش و سرعت متوسط ​​هنوز گوسی نیستند: ![توضیح تصویر را اینجا وارد کنید](http://i.stack .imgur.com/Tb4uo.png) **N~2000** بنابراین مشکل آشکار این است که به سختی در یک مجموعه آموزشی فقط هیچ چیز دور از ذهنی وجود نخواهد داشت. 10^2 شی (و دستیابی به مجموعه آموزشی بزرگتر به راحتی امکان پذیر نیست). بنابراین احتمال _priori_ یک کلاس پرت بسیار کوچک خواهد بود. * آیا این حتی با این مجموعه داده منطقی است؟ یعنی آیا طبقه بندی کننده ای وجود دارد که بتواند با این نوع داده ها مقابله کند یا نسبت کلاس ها نابرابر است؟ * یکی از الزامات عملی این است که این تکنیک قبلاً در برخی از نرم افزارها (ترجیحاً R) پیاده سازی شده باشد زیرا حذف این موارد پرت فقط یک گام کوچک در روند عظیم کار من است ...
حذف نقاط پرت شدید مبتنی بر داده با Naive Bayes یا تکنیک مشابه
3559
من یک خروجی SPSS برای رگرسیون لجستیک دارم. این خروجی دو معیار را برای تناسب مدل گزارش می‌کند، «Cox & Snell» و «Nagelkerke». بنابراین به عنوان یک قاعده کلی، کدام یک از این معیارهای R² را به عنوان مدل مناسب گزارش می کنید؟ یا اینکه کدام یک از این شاخص های برازش معمولاً در مجلات گزارش می شود؟ * * * برخی زمینه ها: رگرسیون سعی می کند حضور یا عدم حضور برخی پرنده (کاپرکایلی) را از روی برخی متغیرهای محیطی (مانند شیب زیاد، پوشش گیاهی، ...) پیش بینی کند. متأسفانه، پرنده اغلب ظاهر نمی شود (35 ضربه به 468 از دست دادن) بنابراین رگرسیون نسبتاً ضعیف عمل می کند. Cox & Snell 0.09، Nagelkerke، 0.23 است. موضوع علوم محیطی یا بوم شناسی است.
کدام معیار شبه$R^2$ برای رگرسیون لجستیک گزارش می شود (کاکس و اسنل یا ناگلکرکه)؟