_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
82601 | من یک زیست شناس هستم و به دنبال راهنمایی در مورد اینکه از کدام آزمون آماری هنگام مقایسه واریانس داده ها استفاده کنم. من دو توزیع نظری را با داده های تجربی مقایسه می کنم. داده های موجود در توزیع ها ممکن است به طور معمول توزیع نشده باشند و ممکن است تعداد نقاط داده ای برابر وجود نداشته باشد. نمونه ای از داده های من در زیر نشان داده شده است:  بنابراین کاری که من انجام داده ام عادی سازی داده ها در محور y مشابه است. ترازو من این کار را با گرفتن میانگین هر یک از سه توزیع و رسم تفاوت آنها از میانگین انجام دادم. توزیع داده ها در زیر نشان داده شده است:  محور y تفاوت از میانگین و محور x نوع است. از داده ها با استفاده از توزیع نرمال شده، من از F-Tests در R (با دستور Var.test()) برای تجزیه و تحلیل آماری واریانس داده ها استفاده کرده ام. اما F-Tests توزیع نرمال را در نظر می گیرد. آیا F-Test تست صحیحی برای استفاده در این مورد است؟ اگر نه کسی می تواند آزمایش مناسب تری را پیشنهاد دهد؟ | هنگام مقایسه واریانس برای داده هایی که لزوماً به طور معمول توزیع نمی شوند، از کدام آزمون استفاده شود |
65789 | من سعی می کنم کلیک ها را در کمپین های گوگل ادوردز مدل کنم. این تابعی از نمایشها، احتمال یک کلیک (CTR) روی آن نمایش، هزینه هر کلیک (CPC) و بودجه تبلیغکننده است. اساساً $$\text{کلیک} = \text{impressions} \times \text{CTR}$$ تابع $$\text{impressions} \times \text{CPC} \times \text{CTR} \leq \ text{Budget}$$ **این محدودیت چگونه باید در مدل من گنجانده شود؟** خوشحال میشوم اگر مفید باشد، اطلاعات بیشتری ارائه کنید. | چگونه با استفاده از مدل سازی بیزی با محدودیت ها، احتمال یک کلیک وب را مدل کنیم؟ |
17216 | امیدوارم کسی بتواند در این مورد کمک کند - شاید یک سوال پیش پا افتاده در مورد تفسیر فرمول زیر. این میانگین طول عمر باقیمانده (محدود به پنجره داده) در مورد زمان گسسته است. ### میانگین عمر باقیمانده محدود شده > زمان باقیمانده تا رویداد یا کران بالا - هر کدام که اول باشد $$\mu_{[\gamma]}(t|\mathbf{x})=E\left(\min(T, t+ \گاما+1)-t|T\ge t، \mathbf{x}\right)=\sum_{j=t}^{t+\gamma}\prod_{k=t}^{j}\left(1-h(k|\mathbf{x})\right )$$ سوال من این است که شما سیگما و محصول را چگونه تفسیر می کنید؟ $t$ زمان فعلی است (به عنوان مثال 5) و $\gamma$ حد بالایی از درک من است. چگونه این را محاسبه می کنید؟ | میانگین عمر باقیمانده محدود: تجزیه و تحلیل بقا: گسسته |
94354 | من همان مدل SEM را در _sem_ و _lavaan_ اجرا کردم. من همان پارامترها و - به طور کلی - مقادیر تست بسیار نزدیک را دریافت کردم، به استثنای AIC و BIC که بین دو بسته بسیار متفاوت بودند. AIC و BIC حاصل از _sem_ به شرح زیر است: AIC = 2913.849 BIC = -1777.617 AIC و BIC حاصل از _lavaan_ است: Akaike (AIC) 37780.878 Bayesian (BIC) 38178.999 چرا این مقدار تفاوت زیادی وجود دارد؟ آیا در هر بسته متفاوت محاسبه می شود؟ ویرایش: در اینجا کدهایی وجود دارد که چگونه چنین مقادیری را دریافت کردم. در مورد بسته _sem_ از خط زیر استفاده کردم: options(fit.indices = c(GFI، AGFI، RMSEA، NFI، NNFI، CFI، RNI، IFI، «SRMR»، «AIC»، «AICc»، «BIC»، «CAIC»)) fit = sem(mymodel، cov(mydata)، nrow(mydata)، data = mydata) summary(fit) در مورد بسته _lavaan_ از خط زیر به جای آن استفاده شد: fit = sem(mymodel, data = mydata, estimator = ML) summary(fit,fit.measures=TRUE) من از _R_ نسخه 3.0 استفاده می کنم. 3 (06/03/2014) توله سگ گرم (نسخه x64)، بسته _sem_ نسخه 3.1-3 و پکیج _lavaan_ نسخه 0.5-16 . متشکرم، دوتریوم | تفاوت در مقادیر AIC و BIC بین بستههای sem و lavaan در R |
65036 | با توجه به یک مسیر نمونه از فرآیندی که قرار است ثابت باشد، دیدم که تابع خود همبستگی نمونه مسیر نمونه برای تخمین تابع خودهمبستگی فرآیند استفاده میشود. اما این مستلزم آن است که فرآیند ثابت ارگودیک باشد. بنابراین * آیا ارگودیسیته در مسیر نمونه قبل از تخمین تابع همبستگی بررسی می شود؟ اگر بله، ارگودیسیته چگونه بررسی می شود؟ * آیا برآورد با فرض ارگودیسیته بدون بررسی انجام می شود و پس از تخمین، آزمایش/بررسی مطابقت برآورد با داده ها انجام می شود؟ اگر بله، آزمایش چگونه انجام می شود؟ یک سوال جانبی: ایستایی چگونه برای تخمین تابع همبستگی آزمایش می شود؟ با تشکر و احترام! | آیا در تخمین تابع خودهمبستگی باید ارگودیسیته بررسی شود؟ |
65781 | من سعی می کنم برخی از داده های مجموعه ای از بررسی های پرندگان را تجزیه و تحلیل کنم. متغیر پاسخ من فراوانی پرنده است، که تعداد پرندگان شمارش شده در یک دوره پنج دقیقه ای است. این شمارش های پنج دقیقه ای در 200 سایت انجام شد. شمارش در هر سایت سه بار تکرار شد، اگرچه حدود 20 سایت وجود دارد که تنها دو شمارش کامل شده است. من می خواهم فراوانی پرندگان را به عنوان تابعی از ویژگی های سطح سایت (کیفیت زیستگاه و غیره) و همچنین ویژگی های سطح شمارش (شرایط آب و هوا در زمان شمارش و غیره) مدل کنم. بنابراین، من ~ 200 سایت و ~ 600 تعداد فردی دارم، اما فقط 2-3 تعداد در هر سایت. سوال من این است: با توجه به اینکه من فقط 2-3 تعداد در هر سایت دارم، آیا می توانم سایت را به عنوان یک عامل تصادفی برای محاسبه عدم استقلال تعداد در سایت ها در نظر بگیرم؟ (توجه داشته باشید در صورت لزوم می توانم سایت هایی را که فقط دو عدد دارند حذف کنم). من اطلاعات متناقضی در مورد تعداد مشاهداتی که در هر سطح از عامل تصادفی نیاز دارید را خوانده ام. مقاله بن بولکر در مورد GLMM ها در گرایش های بوم شناسی و تکامل می گوید: 5-6 سطح اثر تصادفی در هر اثر تصادفی و 10-20 نمونه در هر سطح درمان یا واحد آزمایشی، اما سپس مطالبی را خواندم که پیشنهاد می کند از مدل های ترکیبی برای تکرار استفاده کنید. طرحهایی را اندازهگیری میکند که یک نمونه پیشدرمان، پس از درمان و پیگیری را انجام میدهند - یعنی فقط سه مشاهده در هر سطح از اثر تصادفی. با تشکر از کمک! جی | به چند مشاهده در هر سطح از یک عامل تصادفی نیاز دارید تا با یک اثر تصادفی مطابقت داشته باشید؟ |
63787 | دریافتم که اغلب در ادبیات، از مقادیر احتمال اغلب برای مقایسه روشهای تخمین مختلف برای یک مدل استفاده میشود. و من این تصور را پیدا کردم که تنها راهی است که از مقادیر احتمال استفاده می شود. با این حال، نمی دانم چه چیز دیگری می توانیم در مورد تابع احتمال بگوییم. به عنوان مثال، آیا می توانیم دو تابع درستنمایی مدل کاملاً متفاوت را با هم مقایسه کنیم؟ حداقل احتمال چقدر است (بدیهی است که صفر نیست)؟ حدس خوبی در مورد حداکثر بدون پرداختن به روش تکراری تخمین چیست؟ (آیا می توانیم معادلات نابرابری بسازیم و مرزهایی را برای تابع درستنمایی ادعا کنیم؟) | در مورد تابع درستنمایی علاوه بر استفاده از آن در تخمین حداکثر درستنمایی چه می توانیم بگوییم؟ |
90842 | زمانی که گروه کنترل وزن بیشتری نسبت به گروه آزمایشی افزایش میدهد، اندازه تأثیر من باید مثبت یا منفی باشد (وقتی فرض میشود که گروه آزمایش وزن بیشتری از دست میدهد، یعنی تفاوت بین گروهها به دلیل افزایش وزن بیشتر در گروه کنترل است تا وزن. ضرر در گروه آزمایش)؟ | جهت اندازه اثر |
82602 | من بردار مختصات نقاط شبکه $(x,y)$ و مقادیر احتمال مشترک، $z$ را دارم. آیا می توانید راهی برای حاشیه سازی برای توزیع مشترک زیر توصیه کنید؟ (در مشکل من، من از نقاط شبکه به طور تصادفی از توزیع مشترک نمونه برداری کرده ام. البته، اگر نقاط روی خطوط مستقیم ردیف شده باشند، این کار چندان دشوار نیست).  | حاشیهسازی از شبکههای با فاصله تصادفی توزیع مشترک |
43585 | فرض کنید دادههای ترتیبی داریم که میتوانند مقادیر زیر را در نظر بگیرند: $0$، $1$، $2$، $3$ و $4$. همچنین فرض کنید که نقاط داده زیادی وجود دارد که در دسته $1 قرار می گیرند. آیا می توانیم از رگرسیون پواسون باد شده صفر برای مدل سازی استفاده کنیم؟ | داده های ترتیبی و رگرسیون پواسون تورم صفر |
80601 | در روشهای خوشهبندی مانند K-means، فاصله اقلیدسی معیاری است که باید استفاده شود. در نتیجه، ما فقط مقادیر میانگین را در هر خوشه محاسبه می کنیم. و سپس تنظیمات بر روی عناصر بر اساس فاصله آنها تا هر مقدار متوسط انجام می شود. من تعجب کردم که چرا تابع گاوسی به عنوان متریک استفاده نمی شود؟ به جای استفاده از «xi -mean(X)»، میتوانیم از «exp(- (xi - mean(X)).^2/std(X).^2)» استفاده کنیم. بنابراین نه تنها شباهت بین خوشه ها اندازه گیری می شود (میانگین)، بلکه شباهت درون خوشه نیز در نظر گرفته می شود (std). آیا این نیز معادل مدل مخلوط گاوسی است؟ در اینجا فراتر از سؤال من است، اما فکر می کنم تغییر میانگین ممکن است همان سؤال بالا را ایجاد کند. | چرا در روش خوشه بندی (K-means) فقط از مقدار میانگین استفاده می شود؟ |
90841 | من از «موش» در «R» استفاده میکنم، یک الگوریتم معادلات زنجیرهای (رگرسیون متوالی)، برای منتسب کردن یک سری از متغیرهای چندتومی (مثلاً مقیاسهای 1 تا 5 یا 1 تا 3). در نهایت، علاقه من به تخمین آمار مربوط به نسبت ساده دسته ها در این متغیرها است (مثلاً 1 و 2 در مقابل سایر متغیرها). دو گزینه برای انجام این رمزگذاری مجدد وجود دارد، یعنی قبل و بعد از imputation. رمزگذاری مجدد پس از انتساب به معنای در نظر گرفتن متغیرها به عنوان چند تومی در موش با استفاده از یک مدل رگرسیون چند جمله ای یا ترتیبی است. با این حال، در برخی از دسته ها (به عنوان مثال بالا یا پایین، 1 یا 5) داده های نمونه پراکنده هستند. بنابراین من در مورد واریانس انتساب این دستهها توسط مدلهای چندتومی مطمئن نیستم. با این حال، مدل برای داده های اصلی بسیار مناسب است. رمزگذاری مجدد قبل از انتساب ممکن است این مشکل را حل کند، زیرا دسته های کم جمعیت به متغیرهای شاخص خلاصه می شوند. علاوه بر این، رگرسیون متوالی به دستههای کمتری محدود میشود، بنابراین در بیشتر موارد 2 (به عنوان مثال، 1 و 2 در مقابل دیگر). یک مدل لجستیک با پارامترهای بسیار کمتر استفاده می شود که ممکن است دقت انتساب را افزایش دهد. اما مطمئن نیستم که آیا رمزگذاری مجدد قبل از انتساب ممکن است دادهها را تا حدی تغییر دهد که انتسابها دیگر درست نباشند. بنابراین سوالات من این است که آیا باید قبل یا بعد از انتساب دوباره کد کنم؟ آیا این تفاوتی دارد، یکی ارجح است یا دیگری؟ | انتساب با موش: متغیرها را قبل یا بعد از انتساب مجدد کدگذاری کنید؟ |
11788 | من مجموعه بسیار کوچکی از دادههای خلاصه را از ادبیات جمعآوری کردهام و میخواهم واریانس بین جنبههای دادههای مبتنی بر ادبیات و برخی از دادههای خودم را مقایسه کنم. داده های خلاصه شامل میانگین، انحراف معیار و حجم نمونه است. در آزمونهای قبلی، واریانسهای یک متغیر وابسته پیوسته را در بین 2 کلاس سنی و 2 سال مقایسه کردم. من از آزمون Fligner-Killeen استفاده کردم زیرا مقادیر بسیار بالایی در داده ها دارم و مطمئن نیستم که نرمال باشد (الان یادم نمی آید!). من این آزمون گسترده را با مقایسههای چندگانه دوتایی با استفاده از آزمونهای F در R`var.test(x~age) دنبال کردم. من در فایلهای راهنما در R جستجو کردم و به این روش رسیدم، که معتقدم مجموعهای تصادفی از اعداد با اندازه نمونه مشخص شده، میانگین و انحراف استاندارد ایجاد میکند، و سپس از آن مجموعه دادهها برای انجام آزمون F استفاده کردم. : herring_year1<-rnorm(10,mean=10.5,sd=0.51) herring_year2<-rnorm(15,mean=10.9,sd=0.43) var.test(herring_year1,herring_year2) آیا این رویکرد خوبی خواهد بود؟ اگر نه، می توانید پیشنهاد دهید که چه چیزی ممکن است باشد؟ اگر چنین است، چگونه می توانم این واریانس ها را با مجموعه داده های خودم مقایسه کنم؟ آیا اساساً باید از داده های خلاصه از مجموعه خودم به همان شیوه استفاده کنم؟ یا دادههای تصادفی را برای دادههای خلاصه از ادبیات تولید کرده و آن را در یک فایل بچسبانید تا با دادههای خام من مقایسه شود؟ همچنین، آیا در ابتدا نیاز به یک تست گسترده دارم یا می توانم مستقیماً به مقایسه های زوجی بروم؟ | چگونه می توان واریانس آمار خلاصه منتشر شده را با داده های خود مقایسه کرد؟ |
17366 | من سعی میکنم با دادههای گسسته به تشخیص الگوی دست پیدا کنم. در حال حاضر کارم را از طریق آثار کلاسیک دودا و هارت شروع کردم. آیا چیزی وجود دارد که بتوانید به خصوص برای استفاده کاربردی، ترجیحاً با R توصیه کنید. آیا حتی یک کتاب useR Springer که من هنوز پیدا نکرده ام یا آموزش خوب دیگری وجود دارد؟ چیزی که به انتخاب الگوریتم کمک می کند؟ | تشخیص الگو با داده های گسسته (ترجیحا در R) |
80602 | چگونه می توانم روش های تعمیم یافته لحظه ها و نحوه استفاده از آن را برای یک غیر آمارگیر توضیح دهم؟ تا اینجای کار، چیزی است که برای تخمین شرایطی مانند میانگین ها و تغییرات بر اساس نمونه هایی که جمع آوری کرده ایم، استفاده می کنیم. چگونه قسمتی را که در آن بردار پارامتر را با کمینه کردن واریانس تخمین می زنید توضیح دهم | تبیین روش تعمیم لحظه ها به غیر آمارگیر |
65785 | داشتم این مقاله را می خواندم http://www.umiacs.umd.edu/~jags/pdfs/KSforNLP.pdf که در آن می گویند $trace(K \pi^{T} L \pi)$ یک تابع محدب $ است. \pi$ که $\pi$ یک ماتریس جایگشت است و K و L ماتریس های هسته هستند. من مطمئن نیستم که چگونه این تابع محدب است. هیچ توضیحی؟ | سردرگمی مربوط به تحدب یک تابع |
12789 | من فکر می کردم که بارگذاری در تحلیل عاملی همبستگی بین متغیرهای مشاهده شده و عوامل پنهان است. با این حال، وقتی من تحلیل عاملی را در R با استفاده از بسته روان انجام میدهم، به نظر نمیرسد که اینطور باشد: library(psych) set.seed(1) X <- matrix(rnorm(200), ncol=10) fa1 <- fa(X, nfactors=3, rotate=none, scores=TRUE) cor(X, fa1$scores) #همبستگی بین متغیرهای اصلی و امتیازهای عامل MR2 MR1 MR3 [1،] 0.465509161 0.87299813 0.03241641 [2،] -0.010609644 -0.32714571 0.64968725 [3،] -0.219168573 -0.39132195 [4،] -0.815516983 0.22669390 0.42273446 [5،] -0.075178935 -0.40431701 -0.69661843 [6،] -0.2020.17020. 0.05508017 [7،] 0.240675941 0.13027263 0.23238220 [8،] 0.756677687 -0.05621205 0.23746738 [9،] 0.04250.0 0.55100943 [10،] 0.640507568 -0.67810600 0.18597947 fa1$loadings[1:10، 1:3] MR2 MR1 MR3 [1،] 0.433925641 0.825 0.825] -0.009889808 -0.30810366 0.54473104 [3،] -0.204780777 0.44576800 -0.32810435 [4،] -0.760186392 0.21349 0.21349 -0.070078250 -0.38078308 -0.58408054 [6،] -0.191014719 0.07037085 0.04618204 [7،] 0.224346738 0.122619 0.122619 0.705339180 -0.05294013 0.19910480 [9،] 0.004086985 0.11391248 0.46199451 [10،] 0.597050885 -0.649386355700000 cor(fa1$scores) # بررسی کنید که امتیازات فاکتور غیرهمبسته باشد MR2 MR1 MR3 MR2 1.000000e+00 4.266996e-16 -1.299606e-16 MR1 4.266996e-16 1.0000000e+00 -1.299606e-16 1.961151e-16 1.000000e+00 بارگذاری ها و همبستگی ها مشابه هستند، اما من انتظار داشتم که آنها یکسان باشند. من سعی کردم به کد منبع fa نگاه کنم اما در درک آن مشکل داشتم. لطفاً کسی می تواند به من بگوید که چگونه بارگذاری ها با همبستگی ها متفاوت است؟ به روز رسانی: برای هر عامل، همبستگی ها با متغیرهای مشاهده شده مضرب ثابت بارگذاری ها هستند: cor(X, fa1$scores)/fa1$loadings[1:10, 1:3] MR2 MR1 MR3 [1,] 1.072786 1.061804 1.192675 [2،] 1.072786 1.061804 1.192675 [3،] 1.072786 1.061804 1.192675 [4،] 1.072786 1.061804 1.192675 [5،] 1.072786 [6،201، 1.072716] 1.072786 1.061804 1.192675 [7،] 1.072786 1.061804 1.192675 [8،] 1.072786 1.061804 1.192675 [9،72675] 1.06181. 1.192675 [10،] 1.072786 1.061804 1.192675 | تفاوت بین بارگذاری و همبستگی بین متغیرهای مشاهده شده و نمرات ذخیره شده عاملی در تحلیل عاملی |
80604 | با توجه به یک مجموعه داده با متغیر پیامد پیوسته $Y$ و دو IV اسمی $X_1$ و $X_2$ که به ترتیب دارای 4 سطح (A,B,C,D) و 3 (E,F,G) هستند، میتوانیم تخصیص دهیم. سطح اول هر یک به عنوان سطح مرجع و ایجاد متغیرهای ساختگی یا نشانگر: $X_1: X_1B$ , $X_1C$ , $X_1D $X_2 $: X_2F$ , $X_2G$ یک رگرسیون خطی معمولی $Y$ روی این متغیرها را می توان به صورت (شامل شرایط تعامل) نوشت: $Y = \beta_0 + \beta_1X_1B + \beta_2X_1C + \beta_3X_1D + \beta_4X_2F + \beta_5X_2G + beta_6X_1B*X_2F + \beta_7X_1B*X_2G + \beta_8X_1C*X_2F + \beta_9X_1C*X_2G + \beta_{10}X_1D*X_2F + \beta_{11}X_1D*X_2G + e $ جایی که $e $~$N(0,\sigma{^2 })$، خطا معمولاً با واریانس ثابت توزیع می شود. اگر میخواهیم اهمیت فعل و انفعالات $X_1$ x $X_2$ را آزمایش کنیم تا مشخص کنیم که مثلاً تأثیر X_1$ روی $Y$ در سطوح مختلف X_2$ متفاوت است یا خیر، یکی از روشها استفاده از کنتراست است. با ساخت ماتریس مناسب $L$ برای ضرب در برابر بردار رگرسیون بتا با فرض صفر $L\beta=0$. برای مثال اینجا را ببینید. درک من این است که (با مثال بالا) از فرضیه صفر استفاده می کنیم که فقط شامل شرایط تعامل است: $Ho:$ $\beta_{6}=0$ و $\beta_{7}=0$ و $\beta_{ 8}=0$ و $\beta_{9}=0$ و $\beta_{10}=0$ و $\beta_{11}=0$، اما چرا آزمایش نمیشود $\beta_{1}=0$ و $\beta_{2}=0$ گنجانده شوند زیرا اینها به طور مشترک به عنوان اثر $X_1$ روی $Y$ تفسیر میشوند، زمانی که $X_2= $سطح E (سطح مرجع برای $) X_2 دلار)؟ **افزودن بعد از پاسخ ahfoss:** اگر تفسیر $\beta_6$ از $\beta_{11}$ = 0 به صورت زیر باشد: تاثیر $X_1$ = B بر روی Y زمانی که $X_2$ = F متفاوت است تأثیر $X_1$ = B بر روی Y زمانی که $X_2$ = G متفاوت نیست. $X_1$ = C روی Y زمانی متفاوت نیست که $X_2$ = G تاثیر X_1$ = D روی Y متفاوت نیست زمانی که $X_2$ = F تاثیر X_1$ = D روی Y زمانی که $ متفاوت نیست X_2$ = G آیا این امکان وجود ندارد که تاثیر $X_1$ = A روی Y زمانی متفاوت باشد که $X_2$ = E باشد و این نشان دهنده یک تعامل باشد؟ من چیز بدیهی را گم کرده ام که مطمئن هستم اما برای من کاملاً کلیک نشده است. من نمی دانم که چگونه 6 عبارت بالا برای $\beta_6$ تا $\beta_{11}$ = 0 معادل معادله 1 شما است. | کنتراست برای آزمایش تعامل قابل توجه - چرا اثر اصلی را شامل نمی شود؟ |
43588 | **مشکل** اصلی این است: من نمی توانم تخمین پارامترهای مشابهی را با EViews و R بدست بیاورم. به دلایلی که خودم نمی دانم، باید پارامترها را برای داده های خاصی با استفاده از EViews تخمین بزنم. این کار با انتخاب گزینه NLS (کمترین مربعات غیرخطی) و با استفاده از فرمول زیر انجام می شود: «indep_var c dep_var ar(1)» EViews ادعا می کند که فرآیندهای AR(1) خطی را برآورد می کند: $$ Y_t = \alpha + \ بتا X_t + u_t $$ که در آن خطاهای $u_t$ به صورت زیر تعریف می شوند: $$ u_t = \rho \cdot u_{t-1} + \varepsilon $$ با استفاده از یک معادله معادل (با چند جانشینی جبری): $$ Y_t = (1 - \rho) \alpha + \rho Y_{t - 1} + \beta X_t - \rho \beta X_{t - 1} + \varepsilon_t $$ علاوه بر این، این موضوع در انجمن EViews نشان می دهد که تخمین NLS آنها توسط الگوریتم مارکوارت تولید می شوند. اکنون، تابع رفتن به R برای تخمین فرآیندهای AR(1) «arima» است. با این حال، دو مشکل وجود دارد: 1. برآوردها برآورد حداکثر احتمال هستند. 2. برآورد رهگیری در واقع برآورد رهگیری نیست (طبق گفته R.H. Shumway & D.S. Stoffer). بنابراین، من به تابع 'nlsLM' از بسته minpack.lm روی آوردم. این تابع از الگوریتم مارکوارت برای دستیابی به تخمینهای حداقل مربعات غیرخطی استفاده میکند که باید همان نتایج پیادهسازی EViews (یا حداقل موارد بسیار مشابه) را به همراه داشته باشد. حالا کد. من یک قاب داده (داده) با یک متغیر مستقل و یک متغیر وابسته مانند آنچه توسط کد زیر تولید می شود دارم: data <- data.frame(independent = abs(rnorm(48))، وابسته = abs(rnorm (48))) برای تخمین پارامترها در معادله ای که EViews ادعا می کند تخمین می زند (سومین مورد در این پست)، از دستورات زیر استفاده می کنم: library(minpack.lm) نتیجه <- nlsLM(وابسته B ~ ((1 - تتا1) * تتا2) + (تتا1 * وابسته A) + (تتا3 * مستقل B) - (تتا1 * تتا3 * مستقل A)، داده = لیست (وابستهB = وابسته به دادهها[2:48]، وابسته A = وابسته به داده[1:47]، مستقلB = مستقل از داده[2:48]، مستقلA = مستقل از داده[1:47])، شروع = لیست (theta1 = -10، theta2 = -10، theta3 = -10) متأسفانه، برآوردهای خروجی توسط `nlsLM` به برآوردهای خروجی توسط EViews نزدیک نیست. آیا هیچ ایده ای دارید که چه چیزی ممکن است باعث این شود؟ یا شاید کد من اشتباه است؟ در نهایت، می خواهم بگویم که من شخصاً یک کاربر R هستم - دقیقاً به همین دلیل است که سعی می کنم این کار را به جای EViews در R انجام دهم. من همچنین دوست دارم داده هایی را که با آنها کار می کنم به شما ارائه دهم، اما این غیرممکن است زیرا داده های محرمانه هستند. | تفاوت R و EViews در برآوردهای AR(1). |
76977 | من شرایطی دارم که در آن مکانهای مختلف ژنوم (از نظر بیولوژیکی مستقل) را جستجو میکنم و برای هر سایت اندازهگیری میکنم. من تعدادی اندازه گیری دارم که روی ژنوم نزدیک به هم هستند و من آن را منطقه می نامم. سپس میخواهم اندازهگیریهای یک منطقه را بین دو نمونه بیولوژیکی با استفاده از آزمون Mann Whitney U (تعداد کمی اندازهگیری در هر منطقه) مقایسه کنم. میخواهم تاکید کنم که من به طور مکرر یک چیز را اندازهگیری نمیکنم، اما تمام اندازهگیریها مربوط به مکانهای جداگانه روی ژنوم است. با این حال، ما می دانیم که مکان هایی که در مجاورت یکدیگر قرار دارند، اندازه گیری های همبستگی قوی نشان می دهند. یک بازبین به من اشاره کرد که این اندازهگیریها مستقل نیستند زیرا همبستگی دارند و بنابراین آزمون بعدی معتبر نیست. با این حال، به نظر من دلیلی وجود ندارد که فرض کنیم مقدار یک مکان بر ارزش مکان های مجاور تأثیر می گذارد. بنابراین اندازه گیری ها بدون توجه به همبستگی آنها مستقل هستند. در اینترنت نظرات مختلفی پیدا کردم. اگر اندازهگیریها بر یکدیگر تأثیر میگذارند، آنها وابسته هستند، این خیلی واضح است. اما اصطلاح همبستگی نیز زیاد ظاهر می شود. در واقع در مورد اندازهگیریهایی که بر یکدیگر تأثیر میگذارند همبستگی وجود خواهد داشت، اما اگر اینطور نباشد و همچنان همبستگی وجود داشته باشد، آیا موافقید که اندازهگیریها بدون توجه به همبستگی آنها مستقل هستند؟ پاسخ پیتر فلوم از قبل برخی از سرنخها را ارائه میدهد: نمونههای وابسته در مقابل نمونههای مستقل با تشکر از هرگونه بینش. با احترام | مستقل یا وابسته |
80606 | رگرسیون مدرس من: متغیرها: *lprice*، گزارش قیمت خانه *y81*، که ساختگی برای سال 1981 در برابر 1978 *ldist* است، گزارش فاصله از زباله سوز تا خانه ها ** اینها نظراتی است که استاد من به کمک به ارائه متن:** > * از سخنرانی می دانیم که در سال 1978 مردم درباره > نمی دانستند سایت زباله سوز > * در سال 1981 مردم در مورد سایت اطلاع داشتند. اگر ساخت زباله سوز ارزش خانه های نزدیک به سایت را کاهش دهد، ضریب y81*ln(dist)، delta_1، مثبت خواهد بود. > * اگر beta_1 مثبت باشد نشان دهنده این است که زباله سوز در منطقه ای قرار دارد که خانه ها دارای ارزش کمتری هستند. > * (اگر سیاستمداران/برنامه ریزان فرض کنند که افراد فقیرتر قدرت لابی > کمتری دارند، این شاهدی بر تصمیم گیری استراتژیک از سوی آنها خواهد بود.) >  **بعد از انجام رگرسیون، نظر اساتید من این بود:** > * ضریب y81ldist مثبت است، اما کوچک است و تفاوت معنی داری ندارد. از صفر در سطح 10 درصد (یا سطح 5 درصد یا سطح 1 درصد). > * در مقابل ضریب ldist در سطح > 0.1% بر اساس آزمون دو دنباله مثبت و معنی دار است. > * بر اساس این تجزیه و تحلیل اولیه، من به این نتیجه رسیدم که زباله سوز هیچ تاثیری بر ارزش خانه ندارد. > **اکنون _lprice_ را به _price_ تغییر دادم تا ببینم تفاوتی ایجاد می کند یا خیر. این رگرسیونی است که من دریافت کردم:**  در اینجا ضریب _y81ldist_ در مقایسه با سطح 6.7% بسیار بزرگ و قابل توجه است. در رگرسیون اول به 55 درصد رسید. کنجکاو هستم که چرا استاد من به این نتیجه رسید که ساخت زباله سوز هیچ تاثیری بر قیمت ها ندارد؟ آیا من چیزی را نادیده گرفته ام؟ از رگرسیون من، نشان می دهد که ساخت زباله سوز قیمت خانه های نزدیک به آن را به طور متوسط 15400 دلار کاهش داد. (همچنین، آیا ضریب 19302 روی ldist به این معنی است که قبل از ساخته شدن کوره زباله سوز، قیمت خانه هایی که دورتر از محل پیشنهادی ساختمان بودند، 19302 دلار گران تر از خانه های نزدیکتر بود؟) آیا تفسیر من درست است؟ هر گونه بینش قدردانی خواهد شد. | سردرگمی در تفسیر ضرایب رگرسیون |
80608 | من دنباله ای از داده های باینری دارم که هر ردیف آن بیت های به ظاهر تصادفی دارد و با یک مقدار صحیح (_rank_) مرتبط است. زمانی که ما یک مبحث باینری داریم، همیشه میتوانیم _rank_ مربوط به آن را محاسبه کنیم، اما نه داده _from_ مقدار رتبه آن را. به عنوان مثال، با طول 32 بیت و مرتب شده بر اساس رتبه آن: داده های رتبه 69538 10010110 01010100 00110101 11100000 57643 10010001 01110001 001110101001110101 01010001 11001001 10100110 11100011 278 11101000 11100000 00100100 01001000 ... سوال من این است که چگونه می توانم یک الگو در داده ها برای کاهش رتبه پیدا کنم؟ هدف نهایی بدست آوردن داده هایی است که دارای شاخص های رتبه ای کوچکتر از مقدار آستانه معین هستند. من در مورد یک شبکه عصبی فکر کردم، اما آیا روش بهتری وجود دارد؟ متشکرم. | الگوها در داده های باینری با شاخص های رتبه بندی مرتب شده اند |
12781 | من در یافتن نحوه گروه بندی داده ها با استفاده از محدوده های بین چارکی محاسبه شده با نمودار جعبه و سبیل و همچنین نگاه کردن به لولاهای توکی مشکل دارم. من می دانم که IQR و لولاهای Tukey یک چیز نیستند و تفسیرهای مختلفی از لولاهای Tukey وجود دارد. اساسا، من یک محاسبه را با استفاده از SPSS انجام دادم و خروجی، چارک های وزنی و زیر آن، لولاهای توکی را در اختیارم قرار داد. سوال من این است که آیا می توانید از لولاها یا مقادیر چارک وزنی در داده ها برای گروه بندی داده ها استفاده کنید یا خیر. به عنوان مثال. فرض کنید، این مجموعه داده های شماست (این مجموعه داده ای نیست که من کار می کنم، بلکه فقط یک مثال ساده برای توضیح سوال من است): 1 2 2.5 2.5 2.5 3 3 4 5 5 6 7 7.5 7.5 7.5 8 9 9 10 پس بیایید بگوییم IQR و لولاهای Tukey شما 25٪ = 2.5، 50٪ = هستند. 5، 75% = 7.5 (این فقط تصادفی است، ممکن است این مورد واقعی برای داده ها نباشد، اما من از این مقادیر فقط برای توضیح سؤالم استفاده می کنم). حال فرض کنید می خواهید داده ها را با استفاده از IQR و/یا Tukey's Henges به 4 گروه تقسیم کنید. مقادیری که لولا یا نقطه تقسیم بین گروه ها هستند به کدام گروه می روند؟ زمانی که من در حال مطالعه لولاهای توکی بودم، توکی اظهار داشت که لولا یک نقطه تقسیم در داده ها است، اما در هنگام تلاش برای گروه بندی داده ها هنوز مبهم است. بنابراین، آیا یک گروه به این صورت است: گروه A 1 2 2.5 2.5 2.5 گروه B 3 3 4 5 5 گروه C 6 7 7.5 7.5 گروه D 8 9 9 10 یا می توانید مقادیر hinge را حذف کنید و داده ها را به این صورت گروه بندی کنید. ? گروه A 1 2 گروه B 3 3 4 گروه C 6 7 گروه D 8 9 9 10 من برای یافتن توضیحات و مقالات تحقیقاتی خوب که میتوانم از آنها برای پشتیبانگیری چرایی انتخاب یک روش بر روش دیگر استفاده کنم، به سختی میگذرم. این پروژه برای دوره کارآموزی است، هیچ یک از داده هایی که در این ایمیل نوشته ام در تجزیه و تحلیل من استفاده نمی شود. من به سادگی در مورد تقسیم گروه ها بر اساس Tukey's Henges سردرگم هستم. من از افکار شما قدردانی خواهم کرد. با تشکر | لولاهای توکی: گروه بندی داده ها |
80607 | من اخیراً در استفاده از «Curve_fit» «Python/scipy» برای انجام رگرسیون خطی مهارت پیدا کردهام. با این حال، با چند جمله ای های مرتبه بالاتر، داده های من گاهی اوقات بیش از حد مناسب هستند. **چگونه می توانم منظم سازی را برای کاهش بیش از حد برازش اضافه کنم؟** | چگونه هنگام اجرای رگرسیون خطی، منحنی_فیت Python scipy را منظم کنم؟ |
43586 | اساساً من دارم * چهار گروه (2 در 2) با نمونه به معنای $\overline{x_{1,A}}$, $\overline{x_{2,A}}$, $\overline{x_{1, B}}$ و $\overline{x_{2,B}}$، انحرافات استاندارد $s_{1،A}$، $s_{2،A}$، $s_{1،B}$ و $s_{2,B}$ با اندازههای نمونه $n_A$ و $n_B$ (یعنی $n_{1,A}=n_{2,A}$ و $n_{1,B}=n_{2,B} دلار). من تفاوت بین این دو میانگین را به صورت $d_{1-2، A} = \overline{x_{1,A}}-\overline{x_{2,A}}$ و $d_{1-2, B محاسبه میکنم. } = \overline{x_{1,B}}-\overline{x_{2,B}}$. هدف من این است که آزمایش کنم که آیا $d_{1-2، A}$ از نظر آماری متفاوت از $d_{1-2، B}$ است که مربوط به یک آزمون دو طرفه است. پیشنهاد من این است: $\frac{d_{1-2، A}-d_{1-2، B}}{ [s_{1-2، A}^2/n_A] + [s_{1-2، B}^2/n_B] }$. مشکل این است که من نمی دانم چگونه انحراف معیار این تفاوت را محاسبه کنم، یعنی $s_{1-2، A}$ و $s_{1-2، B}$. بنابراین سؤالات من اساساً عبارتند از: 1. آیا با روش من موافق هستید؟ 2. چگونه $s_{1-2، A}$ و $s_{1-2، B}$ را محاسبه کنم؟ p.s. من $s_{1-2, A} = \sqrt{s_{1,A}^2 + s_{2,A}^2}$ را امتحان کردم اما جواب نداد. * * * **در اینجا یک مثال با اعداد آمده است** $\overline{x_{1,A}} = 2.310$; $s_{1,A}=0.865$; $n_A = 16753$ $\overline{x_{1,B}} = 2.403$; $s_{1,B}=0.897$; $n_B = 5378$ $\overline{x_{2,A}} = 2.993$; $s_{2,A}=1.002$; $n_A = 16753$ $\overline{x_{2,B}} = 3.108$; $s_{2,B}=1.042$; $n_B = 5378$ هدف این است که یک مقدار p برای معناداری بین $d_{1-2، A}$ و $d_{1-2، B}$ از **$0.032$** تکرار شود (دوطرفه خواهد بود حدس من). | چگونه می توان آزمایش کرد که آیا تفاوت تفاوت بین میانگین ها به طور قابل توجهی متفاوت است؟ (با مثال) |
12783 | در مقاله آکلی و هینتون الگوریتم یادگیری برای ماشین های بولتزمن، آنها می نویسند که > یک واحد پنهان مورد نیاز است، برای مثال، اگر محیط ایجاب کند که > حالت های سه واحد مرئی باید دارای برابری حتی یک نظم باشند که > نمی تواند تنها با تعاملات زوجی اعمال شود. آیا کسی می تواند توضیح دهد که چگونه یک واحد پنهان این محدودیت برابری را اعمال می کند؟ من برای دیدن ساختار و وزن شبکه مشکل دارم. (به طور کلی، من به طور مستقیم می بینم که چرا واحدهای پنهان قدرت اضافه می کنند، اما درک دقیقی ندارم.) | چگونه واحدهای پنهان در ماشین بولتزمن این محدودیت برابری را اعمال می کنند؟ |
99574 | چه زمانی روش نمونه گیری رد بر روش CDF معکوس برای نمونه برداری از متغیرهای تصادفی کوتاه شده ترجیح داده می شود؟ و چه زمانی روش CDF معکوس به روش نمونه گیری رد برای نمونه برداری از متغیرهای تصادفی کوتاه شده ترجیح داده می شود؟ | بیزی: نمونه برداری از توزیع های کوتاه شده |
16945 | در اینجا، وزن شواهد (WOE) یک اصطلاح رایج در ادبیات علمی و سیاستگذاری منتشر شده است، که اغلب در زمینه ارزیابی ریسک دیده میشود، که توسط: $$w(e:h) = \log\frac تعریف میشود. {p(e|h)}{p(e|\overline{h})}$$ که $e$ مدرک است، $h$ فرضیه است. حالا می خواهم بدانم تفاوت اصلی با PMI (اطلاعات متقابل نقطه ای) چیست $$pmi(e,h)=\log\frac{p(e,h)}{p(e)*p(h)} $$ | چرا مردم از اصطلاح وزن شواهد استفاده می کنند و چه تفاوتی با اطلاعات متقابل نقطه ای دارد؟ |
97712 | پس از پرسیدن 16 سوال (بله یا خیر) از 75 نفر، جدولی از پاسخ های آنها با کد 00110011110101010 (0 = خیر و 1 = بله) دارم. اکنون می خواهم گروه هایی از افرادی را پیدا کنم که به همان روش پاسخ دهند (در حالت ایده آل برای یافتن همه گروه های ممکن با شبیه سازی از 16/16 تا 12/16). چگونه این کار را در SPSS انجام دهیم؟ | یافتن گروه هایی از افراد مشابه |
69000 | ویرایش شده: من میخواهم یک مدل رگرسیون (رگرسیون وزندار جغرافیایی در مقابل OLS) را بر اساس شبه R2 انتخاب کنم که مقادیر پیشبینیشده و واقعی را مقایسه میکند. من قصد دارم مقادیر پیشبینیشده را به مقادیر واقعی بازگردانم. مدل های من یک متغیر پاسخ ثبت شده دارند. سوالات من به شرح زیر است: 1) آیا لازم است قبل از محاسبه شبه R2، پاسخ را به عقب تبدیل کنیم؟ 2) در صورت وجود، آیا باید واریانس را فقط در خروجی رگرسیون در نظر گرفت یا در متغیر ورودی لاگ شده؟ کد R من به این شکل است: lm( exp(predict(regressionmodel)+var(predict(regressionmodel))*0.5) ~ exp(data$loggedinput), data=data) از پاسخ شما بسیار سپاسگزارم. پیشاپیش متشکرم | انتخاب مدل رگرسیون، تبدیل برگشتی یک پاسخ ثبت شده |
17367 | ** شرطی کردن فرآیند نقطه ای مفهومی است که در این پست بررسی می شود. ** فرآیندهای نقطه علامت گذاری شده مورد توجه هستند. شکل **A** پدیده ای را نشان می دهد که برای مدل سازی مورد بررسی قرار گرفته است. ما مشخصه ای را تشخیص می دهیم که می تواند با یک نقطه به عنوان مرکز و یک زاویه مدل شود (شکل های **B** و **C**). بنابراین ما یک فرآیند نقطه ای را بر اساس نقاط مرکزی می سازیم (شکل **C**). سپس مدل خود را با افزودن یک علامت به عنوان نماینده زاویه توسعه میدهیم (شکلهای **C** و **D**). شکل **(i)** میدانی را نشان می دهد که در حال مطالعه است که در آن فقط برخی از نمونه ها در برخی مناطق موجود است. بنابراین برخی از مناطق بدون نمونه و ناشناخته هستند. همانطور که در بالا توضیح داده شد، ما یک فرآیند نقطه مشخص را برای به دست آوردن مدلی ایجاد می کنیم که پدیده را در کل فضا توصیف می کند. شکل **(ii)** نتیجه است. همانطور که مشاهده می شود سمت چپ (ii) با نمونه های موجود مطابقت ندارد. در واقع به صورت تصادفی تولید می شوند. شکل **(iii)** هدف نهایی را نشان می دهد که در آن یک نقشه کامل از پدیده در کل فضا مدل سازی شده است که با نمونه های موجود در سمت چپ شرطی شده است. **سوال: چگونه می توانیم این کار را انجام دهیم؟** **نکته:** مدل سازی مشروط به شبیه سازی های مشروط که در زمین آمار رایج هستند، حداقل برای این مورد به طور مستقیم قابل اعمال نیست. به عنوان مثال، یک تخمین درجه که توسط Kriging یا IDW انجام شده است، قبلاً به نمونه های موجود مشروط شده است. این به این دلیل است که از درون یابی (میانگین وزنی) برای تخمین استفاده می شود که برای درجه منطقی است. با این حال، برای موردی که در اینجا مورد مطالعه قرار می گیرد، چنین درکی برای تغییر زاویه (به عنوان یکی از متغیرهای مورد علاقه) وجود ندارد. علاوه بر این، خروجی تخمین ها/شبیه سازی ها در زمین آمار و غیره اغلب یک شبکه کامل است که به این معنی است که شما نقطه ای بسیار نزدیک به نقطه نمونه برداری دارید. در واقع مکان به خودی خود به عنوان متغیر در نظر گرفته نمی شود در حالی که برای PP مکان های ایجاد شده تصادفی پایه هستند. علائم همچنین با استفاده از مدلهای تصادفی ایجاد میشوند که دوباره نمیتوان آنها را با توجه به نمونههای نزدیک تنظیم کرد. **به روز رسانی:** البته اگر مشکلی ندارید یک پاسخ جالب است!  | چگونه فرآیندهای نقطه مشخص شده را شرطی کنیم؟ |
16947 | من نمی دانم چه تفاوت هایی بین آزمون t و ANOVA در رگرسیون خطی وجود دارد؟ 1. آیا آزمون t برای آزمایش اینکه آیا هر یک از شیب ها و وقفه ها میانگین صفر دارند یا خیر، در حالی که ANOVA برای آزمایش اینکه آیا همه شیب ها میانگین صفر دارند یا خیر؟ آیا این تنها تفاوت آنهاست؟ 2. در رگرسیون خطی ساده یعنی جایی که فقط یک متغیر پیشبینیکننده وجود دارد، فقط یک شیب برای تخمین وجود دارد. بنابراین آیا آزمون t و ANOVA معادل هستند و اگر بله، چگونه با توجه به اینکه آنها از آمارهای مختلف استفاده می کنند (آزمون t از آماره t استفاده می کند و ANOVA از آماره F استفاده می کند)؟ با تشکر و احترام! | تفاوت بین آزمون t و ANOVA در رگرسیون خطی |
12787 | خیلی ساده، من مقداری توزیع احتمال p(x) دارم، چگونه می توانم اندازه گیری کنم که آیا یک چگالی تجربی (مجموعه ای از جرم های دلتا) تقریبی بهتر از دیگری است یا خیر. من میدانم که واگرایی KL یک معیار پذیرفتهشده بین دو چگالی پیوسته است، اما نحوه اعمال آن در مجموعهای از نمونهها مشخص نیست. | چگونه می توانم تعیین کنم که یک مجموعه داده چقدر یک توزیع را تقریب می کند؟ |
52371 | من یک مجموعه داده به شرح زیر دارم: ni-xi 76 48 38 19 20 14 26 29 39 45 38 36 32 34 26 21 23 12 24 18 14 61 35 21 32 20 84 306 301 23 19 24 16 16 19 0 0 0 6 8 3 5 9 5 0 34 17 13 0 1 11 13 22 من می خواهم این مجموعه داده را به عنوان توزیع دوجمله ای بتا مدل کنم: xi ~ دو جمله ای(p, ni) که در آن p ~ بتا( α، β). من از بسته VGAM برای جدا کردن اتصالات استفاده می کنم. fit=vglm(cbind(ni-xi, xi) ~ 1, betabinomial.ab, trace = TRUE) coef(fit) حلقه خطی VGLM 1 : loglikelihood = -95.9867 VGLM حلقه خطی 2 : loglikelihood = -95.63M:Linear VGL احتمال منطقی = -95.6483 VGLM حلقه خطی 4 : loglikelihood = -95.6477 VGLM حلقه خطی 5 : loglikelihood = -95.6477 VGLM حلقه خطی 6 : loglikelihood = -95.6477 با این حال، من نتایج را به صورت زیر دریافت می کنم:01 (Incept) :01 (Incept) به شرح زیر است: -0.3794863 آیا کسی می تواند به من بگوید که چرا پارامترهای منفی را دریافت می کنم؟ چگونه می توانم این مشکل را حل کنم. | تخمین توزیع دو جمله ای بتا |
52372 | من با Hidden Markov Models کار می کنم و مجموعه داده ای دارم که از عبارات مستقل تشکیل شده است، که در آن هر کلمه یک مشاهده است. از این رو، بهترین راه برای تنظیم پارامترهای من (از طریق الگوریتم Baum-Welch) در نظر گرفتن هر عبارت در هر زمان است و نه همه عبارات به هم پیوسته. می خواهم بدانم آیا الگوریتمی وجود دارد که آموزش را به این شکل انجام دهد؟ اگر نه، استراتژی برای جلوگیری از انتقال ایجاد شده توسط الحاق (کلمه آخر به کلمه اول) چیست. | آموزش مدل های مارکوف پنهان برای مشاهدات ورودی چندگانه |
52373 | برای ساده نگه داشتن آن، من مجموعه ای از داده ها را دارم که در آنها یک نمونه کنترل و یک نمونه درمان شده دارم. داده ای که من به دست می آورم بله یا خیر (0 یا 1) برای یک رفتار خاص است. من 150 نقطه داده برای هر شرایط دارم (150 نقطه برای کنترل، 150 مورد درمان)، که در 3 مرحله آزمایشی به دست آمده است، که قصد دارم آنها را جمع آوری کنم. آنها به هیچ وجه جفت نمی شوند. کدام تست را پیشنهاد می کنید؟ من در حال حاضر فکر می کنم که رگرسیون لجستیک باینری بهترین انتخاب است، اما مطمئن نیستم. من یک زیست شناس هستم و نه ریاضیدان، پس لطفا این را در نظر داشته باشید :) | کدام آزمون برای تجزیه و تحلیل پاسخ های بله-خیر برای شرایط کنترل در مقابل شرایط درمان شده |
16946 | من میخواهم یک توزیع گاوسی سابق (که دارای سه پارامتر است: $\mu$، $\sigma$، و $\nu$) در دادههای زمان واکنش قرار دهم. ** حداقل چند نقطه داده برای تناسب منطقی با این توزیع مورد نیاز است؟** من می دانم که پاسخ به این سوال به عوامل زیادی بستگی دارد (به عنوان مثال، چقدر داده در واقع از توزیع نظری منحرف می شود) و اینکه بیشتر است به طور کلی بهتر است. به هر حال، آیا قوانین سرانگشتی یا انتشاراتی وجود دارد که بتواند به من به حداقل اطلاعات مورد نیاز اشاره کند؟ | چند نقطه داده متناسب با توزیع گاوسی سابق است؟ |
99579 | داشتم آنلاین می خواندم، و متوجه شدم که اگر واریانس X افزایش یابد، مقدار R-squared افزایش می یابد، اگر واریانس باقیمانده افزایش یابد، مقدار R-squared کاهش می یابد، آیا کسی می تواند شهود پشت این دو عبارت را توضیح دهد. من به طور کلی در مورد تأثیر واریانس X یا باقیمانده ها بر قدرت توضیحی رگرسیون سردرگم هستم. | تغییرات در R-squared |
21180 | کدام توزیعها تبدیل فوریه خودشان هستند، علاوه بر توزیع _عادی_و_توزیع آرکسین تعمیمیافته؟ | تبدیل فوریه توزیع ها |
99575 |  نمودار باقیمانده binned من ظاهر بسیار عجیبی دارد، خطوط اطمینان 95% بسیار ناهموار هستند، با نقاط بین. من این درون فاصله اطمینان 95٪ را رنگ آمیزی کرده ام، زیرا در غیر این صورت تشخیص اینکه کدام نقاط داخل و کدام نقاط بیرون هستند، واقعا سخت است. این نمودار در R ساخته شده است. این از یک رگرسیون معادله-لجستیک برآورد تعمیم یافته، با بسیاری از خوشه های همبسته و یک ساختار همبستگی AR-1 است. من مطمئن نیستم که آیا این یک راه معقول برای این طرح است یا اینکه من کار اشتباهی انجام داده ام. آیا کس دیگری طرحی شبیه به این داشته است؟ پیشاپیش ممنون جسی | طرح باقیمانده مخروطی با ظاهر عجیب |
99572 | من یک مجموعه داده دارم که در آن سعی می کنم بر اساس مجموعه ای از نشانگرهای زیستی پیش بینی کنم که چه زمانی یک فرد به بیماری خاصی مبتلا می شود. من می توانم یک مدل مناسب مناسب پیدا کنم، اما دارای درجه بالایی از هتروسکداستیکی است. با این حال، این هتروسکداستیکی مورد انتظار است - منطقی است که با نزدیک شدن فرد به تشخیص، مدل باقیماندههای کوچکتری داشته باشد. شروع کردم به فکر کردن در مورد اصلاح های مختلف، اما مطمئن نبودم که باید آن را برطرف کنم یا خیر. نظری در این مورد دارید؟ | زمانی که انتظار می رود هتروسکداستیکی وجود داشته باشد چه باید کرد؟ |
90159 | من به دنبال یک کتاب/دوره مقدماتی خوب در مورد ماشینهای بردار پشتیبانی هستم. سابقه آماری من تقریبا وجود ندارد، بنابراین هر چه مقدماتی بیشتر باشد بهتر است. | مقدمه ای بر پشتیبانی از ماشین های برداری |
12784 | این بیشتر یک سوال کلی در مورد یادگیری ماشین به طور کلی است، اما من دو مجموعه داده ~75000 ردیف از بیماران و 100 ستون دارم (آن را آموزش و تست نامید) - هر ستون یا یک پیش بینی عددی است که با چند بار مطابقت دارد. آنها به یک پزشک خاص یا یک عامل مراجعه کرده اند (دو نمونه از آنها جنسیت و سن 10 ساله هستند). همچنین دو آرایه نتیجه training.obs و testing.obs وجود دارد که مربوط به چند روز است که هر بیمار در بیمارستان سپری کرده است. فرض کنید من میخواستم یک مدل خطی «model <\- lm(training.obs ~ ., data=training)» را آموزش دهم و آن را با مجموعه آزمایشی با testing.pred <- predict(model, testing) و تأیید متقاطع آن را با مجموعه آزمایشی انجام دهم. RMSE «testing.pred» و «testing.obs» را بگیرید. دو مجموعه داده از نظر نسبت عامل (یعنی نسبت بیشتری از مردان در مجموعه آموزشی) و توزیع پیش بینی کننده های عددی بسیار متفاوت هستند. آیا منطقی است که این دو مجموعه داده را با نمونهبرداری از «آموزش» مطابقت دهیم، یا به دلیل حذف ردیفها، دقت مدل را از دست خواهم داد؟ چگونه می توانم این کار را انجام دهم؟ | تطبیق آموزش و آزمایش مجموعه داده ها |
17096 | مسلماً در حال انجام تکالیف هستم، اما دو مشکل به گونه ای بیان شده است که من را گیج می کند. بخش (ب) میپرسد، احتمال اینکه فردی که برای بازنشستگی پسانداز کرده است، کمتر از 50000 دلار پسانداز کرده است، تعیین کنید. از فرکانسهای نسبی استفاده کنید. بخش (ج) میپرسد: احتمال این که یک فرد بهطور تصادفی انتخاب شده کمتر از 50000 دلار برای بازنشستگی پسانداز کرده است را تعیین کنید. تا جایی که من می توانم بگویم، هر دو بخش از من می خواهند که دقیقاً همان کار را انجام دهم. اما این نمی تواند درست باشد .... | محاسبه فرکانس نسبی ساده، جمله بندی گیج کننده |
92649 |  من سعی می کنم ببینم چرا اینطور است. من LHS را گرفتم و $X\hat{\beta}$ اضافه کردم و $X\hat{\beta}$ را کم کردم. از این طریق میتوانم هر دو عبارت را در سمت راست دریافت کنم، اما در نهایت با یک عبارت متقابل $2(y-X\hat{\beta})^T(X\hat{\beta} - X\beta)$ مواجه میشوم که نمیتوانم ثابت کنید برابر با صفر است. فکر میکنم ترفندی وجود دارد که از قلم افتادهام، کسی آن را به خاطر میآورد؟ | عبارت ضربدری در رگرسیون خطی چرا صفر است؟ |
7976 | آیا می توانیم این کار را انجام دهیم؟ اگر بله، پس چه شرایطی باید رعایت شود؟ با تشکر | آیا می توانیم دو متغیره را از توزیع های حاشیه ای محاسبه کنیم؟ |
20854 | من از اینجا خواندهام و میدانم که چگونه میتوان لاجیت تخمینی را از یک مدل رگرسیون لجستیک برازش محاسبه کرد، اما چگونه روی فاصله اطمینان کار کنیم؟ از آنجایی که شامل یک ماتریس واریانس-کوواریانس است و فکر میکنم بهتر است برنامهای برای انجام محاسبات داشته باشیم، نه اینکه خودم آن را انجام دهم. با تشکر ### ویرایش 01 من یک اسکریپت اینجا اضافه کردم: chdage.dummy <- data.frame(chd=c(rep(1,50),rep(0,50)), race=c(rep(سفید، 5)، rep (سیاه، 20)، rep (اسپانیایی، 15)، rep (سایر، 10)، rep(سفید، 20)، rep (سیاه، 10)، rep (اسپانیایی، 10)، rep (دیگر، 10))، stringsAsFactors=FALSE) chdage.dummy[race] <- factor(chdage.dummy[race],levels=c(سفید،سیاه،اسپانیایی،دیگر)) chdage.lr.02 <- glm(chd~race,data=chdage.dummy,family=binomial) predict(chdage.lr.02,newdata=data.frame(race=white)) پیش بینی تابع می تواند تخمینی به من بدهد، اما من نمی توانم از confint خارج از پیش بینی استفاده کنم، بنابراین چه کاری می توانم انجام دهم؟ | محاسبه فاصله اطمینان برای لاجیت تخمینی در رگرسیون لجستیک در R |
17091 | چگونه ماتریس سه بعدی ایجاد کنیم؟ به عنوان مثال: A = ماتریس 4 * 5 (4 ردیف، 5 ستون) B = ماتریس 4 * 10 (4 ردیف، 10 ستون) چگونه این دو ماتریس را به یک ماتریس سه بعدی تبدیل کنیم؟ | چگونه یک ماتریس سه بعدی در متلب ایجاد کنیم؟ |
52375 | تفاوت بین احتمال H داده شده E همانطور که توسط قضیه بیز محاسبه می شود و مقدار پیش بینی مثبت E چیست؟ | سوال قضیه بیز گنگ |
17368 | احتمالاً ترفند فیلم The Prestige را می دانید: **[MOVIE SPOILER]** یک شعبده باز یک ترفند جادویی چشمگیر پیدا کرده است: او به داخل دستگاه می رود، در را می بندد و سپس ناپدید می شود و دوباره در طرف دیگر اتاق ظاهر می شود. . اما دستگاه کامل نیست: به جای اینکه فقط او را از راه دور منتقل کند، او را کپی می کند. شعبده باز در جایی که هست می ماند و یک کپی در آن طرف اتاق ایجاد می شود. سپس، شعبده باز در دستگاه به طور محتاطانه در یک مخزن آب زیر زمین می افتد و غرق می شود. **ویرایش:** احتمال غرق شدن نسخه جدید شعبده باز 1/2 است (به عبارت دیگر، کپی جدید 1/2 احتمال غرق شدن و 1/2 احتمال دارد که در اتاق ظاهر شود). همچنین، مخزن آب هرگز خراب نمی شود و احتمال اینکه شعبده باز در مخزن بیفتد، 1 است. بنابراین شعبده باز واقعاً دوست ندارد این حقه را انجام دهد، زیرا هرگز نمی دانید کجا قرار است باشید، آن طرف اتاق یا غرق شوید. حال، پارادوکس به شرح زیر است: ** تصور کنید شعبده باز این حقه را 100 بار انجام دهد. شانس زنده ماندن او چقدر است؟** ویرایش، سوال تکمیلی: **چقدر شانس شعبده باز است که مغز فیزیکی خود را حفظ کند و مغز جدیدی نداشته باشد؟** * * * تجزیه و تحلیل سریع: یک دست، یکی است جادوگر زنده است و 100 شعبده باز غرق شده است، بنابراین شانس او 1 از 100 است. از طرف دیگر، هر بار که این حقه را انجام می دهد، 1/2 شانس ماندن دارد. زنده است، بنابراین شانس او برای زنده ماندن $(1/2)^{100}=1/(2^{100})$ است. پاسخ صحیح چیست و چرا؟ | پارادوکس شعبده باز پرستیژ |
17090 | من سعی می کنم با اجرای مثال هایی بفهمم که تجزیه و تحلیل مولفه اصلی و تحلیل عاملی چگونه کار می کنند. اگرچه من در اینجا عمدتاً از Python و Numpy استفاده میکنم، اما این مختص پایتون نیست، زیرا میخواهم بدانم چگونه میتوانم به طور کلی به نتیجه صحیح برسم. یک مثال در فصل 16 آمار به طور خلاصه وجود دارد، اما من نمی توانم بفهمم که چگونه برخی از مقادیر حاصل به دست می آیند. مطمئن نیستم که (الف) در پیاده سازی/محاسبات من مشکلی وجود دارد یا (ب) «پرش» از PCA به FA را اشتباه متوجه شده ام. (نمونهها در صفحه 300-303 هستند. بازتولید مطالب از کتاب مناسب نیست، اما امیدوارم مثال عددی کوتاه آن منطقی باشد.) از جدول مثال (نتایج آزمون روانسنجی) در ماتریس دادههای زیر : وارد کردن numpy به عنوان np # (جدول 16-1 در کتاب) # ستون ها عبارتند از: # خواندن، موسیقی، Arith.، Verbal، داده های ورزشی، املا، هندسه = np.array( [[ 8، 9، 6، 8، 5، 9، 10]، [5، 6، 5، 5، 6، 5، 5]، [2، 3، 2 ، 6، 8، 6، 4]، [8، 9، 10، 9، 8، 10، 6]، [ 10، 7، 1، 10، 5، 10، 2]، [9، 8، 4، 9، 1، 7، 2]، [3، 9، 10، 2، 6، 4، 9]، [8، 10، 3، 8، 5، 7، 2]، [ 10، 9، 3، 10، 6، 10، 3]، [7، 10، 1، 9، 6، 10، 2]]) # انتقال برای دادههای np.corrcoef = داده. با موارد موجود در کتاب مطابقت دهید (جدول 16-2 برای کسانی که آن را دارند). در اینجا همان داده ورودی برای R است: داده <- ماتریس(c(8، 9، 6، 8، 5، 9، 10، 5، 6، 5، 5، 6، 5، 5، 2، 3، 2، 6، 8، 6، 4، 8، 9، 10، 9، 8، 10، 6، 10، 7، 1، 10، 5، 10، 2، 9، 8، 4، 9، 1، 7، 2، 3، 9، 10، 2، 6، 4، 9، 8، 10، 3، 8، 5، 7، 2، 10، 9، 3، 10، 6، 10، 3، 7، 10، 1، 9، 6، 10، 2)، ncol=7، byrow=T) pc = prcomp(داده، مقیاس. = T) خروجی NumPy برای ماتریس همبستگی این است: [[ 1. 0.76225482، -0.38632342]، [ 0.53484056، 1. 0.24875809، 1.، -0.50102461، 0.20615027، -0.30668865، 0.75803231]، [ 0.86021546، 0.26248971، 0.26248971، -0.501. -0.23649405، 0.89522479، -0.56880086]، [-0.46870501، -0.26308503، 0.20615027، -0.23649405، 1. , 0.2204، 1. 0.76225482، 0.38020761، -0.30668865، 0.89522479، 0.05436758، 1. -0.56880086، 0.26604241، -0.29078439، 1. ]] من از موارد زیر برای انجام PCA استفاده می کنم. ماتریس 'داده' به ماتریس 'pca_output' تبدیل می شود. درصد تجمعی نیز با مثال کتاب مطابقت دارد (جدول 16-4). مقادیر ویژه، بردارهای ویژه = np.linalg.eig(corrmat) # مقادیر ویژه را با کاهش مقدار # مرتب کنید (و سپس بردارهای ویژه را مرتب کنید). evals_order = np.argsort(-eigenvalues) eigenvalues = eigenvalues[evals_order] eigenvectors = eigenvectors[:, eval_order] # pca_output: ستون ها # مولفه اصلی هستند، پس از جابجایی (در اینجا استفاده می شود) pca_outputt (np,Tveigen). ).T cummulative_perc_variance = 100 * np.array( [ eigenvalues[:i].sum()/eigenvalues.sum() برای i در محدوده(1, eigenvalues.shape[0] + 1)]) 3 بردار ویژه که دریافت می کنم عبارتند از: [[-0.48310951، -0.2554222، -0.08049741]، [-0.20665755، -0.60274754، -0.16463817]، [ 0.31165047، -0.56586657، 0.02618752]، 0.02618752-]، [-0.502,0.511 . 0.12258562]] من همان نتایج را با استفاده از «prcomp» R به دست میآورم: > pc انحرافات استاندارد: [1] 1.8676341 1.2850439 1.0568965 0.6517665 0.4837756 0.4837756 0.25824 PC11. PC3 PC4 PC5 PC6 PC7 [1،] -0.4831095 0.255422196 -0.08049741 0.2324959 -0.1897195 0.76737470 -0.12638483 -0.12638483 [2،] 65756566. -0.16463817 -0.6995409 0.2296628 -0.05498277 0.14750200 [3،] 0.3116505 0.565866565 0.02618752 0.02618752 0.14750200 - 0.1601 -0.22419271 -0.06802832 [4،] -0.5112334 0.006900293 0.19728832 0.2433956 -0.1357962 -0.28997811 - 0.28997811 0.7015, 0.7011, 0.7334. -0.045695275 0.83434948 -0.3293147 -0.1060965 0.33662557 0.14908327 [6،] -0.4387807 0.182612983 0.4064 0.43612983 0.1812280 -0.38481239 -0.59798379 [7،] 0.3554688 0.464507012 0.12258562 0.4932350 0.5892964 0.5892964 0.111021 و سپس این جدول را تولید کنید. (جدول 16-3: اجتماعات) و می گوید: اولین گام پس از محاسبه PCA این است که بررسی کنیم که چه نسبتی از واریانس توسط ساختار عاملی محاسبه می شود. این کار با بررسی جوامع [. | مثال PCA و FA - محاسبه اجتماعات |
7973 | تصور کنید مجموعه ای از چهار عنصر (A-D) با مقادیر عددی یک ویژگی اندازه گیری شده دارید (چند مشاهده برای هر عنصر): A: 26 25 29 21 B: 24 17 16 C: 32 34 29 19 25 27 28 D: 23 29 26 20 14 باید تشخیص دهم که آیا تفاوت های قابل توجهی در میانگین وجود دارد یا خیر سطوح بنابراین من یک ANOVA یک طرفه را برای تعیین اینکه آیا تفاوتها پیدا شدهاند اجرا میکنم. خوب کار می کند، اما وقتی نمونه جدیدی دریافت می کنم، باید ANOVA را فقط برای یک نمونه جدید دوباره اجرا کنم. آیا راهی برای انجام ANOVA یک طرفه افزایشی وجود دارد که **بدون انجام مجدد کل محاسبات** کار کند؟ من داده های زیادی دارم و پروسه آن از نظر زمان و مصرف حافظه گران است. | ANOVA یک طرفه افزایشی |
97714 | تا جایی که من می دانم برای تست های رگرسیون خطی دو گزینه دارم. تست $F$ برای مدل (اگر واریانس بیشتری را توضیح می دهد تا واریانس خطا) و $t$-test (برای دیدن اینکه آیا شیب صفر نیست). با بیش از یک پیشبینیکننده، میتوانم ببینم چرا هر دو آزمون وجود دارد. اما در مورد من، من فقط یک پیش بینی کننده دارم. به نظر من، تست $F$ و تست $t$-تست در این مورد همین کار را انجام می دهند زیرا اگر شیب صفر باشد، دقیقاً مدلی است که در تست $F$ با آن مقایسه شده است. نقص منطق من کجاست؟ | آزمون معناداری در رگرسیون خطی تنها با یک پیش بینی کننده |
7975 | من که تا کنون بیشتر با دادههای مقطعی کار کردهام و اخیراً در حال مرور، جستجو در میان مجموعهای از ادبیات سریهای زمانی مقدماتی بودهام، نمیدانم که متغیرهای توضیحی چه نقشی در تحلیل سریهای زمانی ایفا میکنند. من میخواهم به جای ترندزدایی، یک روند را توضیح دهم. بیشتر مطالبی که من به عنوان مقدمه می خوانم این فرض را بر این می گذارند که این مجموعه از یک فرآیند تصادفی نشات می گیرد. من در مورد فرآیندهای AR(p) و MA و همچنین مدل سازی ARIMA مطالعه کردم. من که میخواستم با اطلاعات بیشتری بهجز فرآیندهای خودبازگشتی بپردازم، VAR/VECM را پیدا کردم و نمونههایی را اجرا کردم، اما هنوز نمیدانم که آیا موردی وجود دارد که نزدیکتر به آنچه توضیحدهندهها در مقاطع مختلف انجام میدهند مرتبط باشد. انگیزه پشت این کار این است که تجزیه سریال من نشان می دهد که این روند سهم عمده ای دارد در حالی که باقی مانده و اثر فصلی به سختی نقشی ایفا می کنند. من می خواهم این روند را توضیح دهم. آیا می توانم / باید سریال خود را در چندین سری مختلف رگرسیون کنم؟ من به طور مستقیم از gls به دلیل همبستگی سریال استفاده می کنم (در مورد ساختار cor چندان مطمئن نیستم). من در مورد رگرسیون جعلی شنیدم و فهمیدم که این یک دام است، با این وجود من به دنبال راهی برای توضیح یک روند هستم. آیا این کاملا اشتباه است یا غیر معمول؟ یا تا الان فصل مناسب را از دست داده ام؟ | از توضیحات در سری های زمانی چه باید کرد؟ |
7979 | فرض کنید $X \sim \mathcal{N}(\mu_x, \sigma^2_x)$ و $Y \sim \mathcal{N}(\mu_y, \sigma^2_y)$ من به $z = \min( \mu_x، \mu_y)$. آیا یک برآوردگر بی طرفانه برای $z$ وجود دارد؟ تخمینگر ساده $\min(\bar{x}, \bar{y})$ که در آن $\bar{x}$ و $\bar{y}$ میانگینهای نمونه $X$ و $Y$ هستند، برای به عنوان مثال، مغرضانه است (هر چند سازگار). تمایل به کمتر از z$$ دارد. من نمیتوانم تخمینگر بیطرفانهای برای z$$ فکر کنم. آیا یکی وجود دارد؟ برای هر کمکی متشکرم | برآوردگر بی طرفانه برای کوچکتر از دو متغیر تصادفی |
81599 | من داده های 10K از فرم `(Y ، X1 ، X2) را دارم که متغیرهای وابسته و` x1 ، x2` متغیرهای مستقل هستند. من یک مدل موجود M دارم ، که در آن `M (x1 ، x2) به PDF` y می دهد. بنابراین «M(x1,x2,y)» چگالی را در «y» میدهد حال، من میخواهم مدل را با ارائه چند تبدیل ساده آرگومان آن، مانند: «M2(x1، x2) = M(a*) بهبود دهم. x1 + b*x2 + e ، c*x1 + d*x2 + f) `من پارامترهای` a ~ f` را بر اساس حداکثر loglik انتخاب کردم (`sum log m2 (x1 ، x2، y)`) از مجموع 10k مجموعه داده. آیا این روش استفاده از MLE معتبر است؟ (در این مرحله نیازی به اعتبار سنجی متقاطع ندارم) به نظر می رسد رگرسیون غیرخطی، کمی متفاوت به نظر می رسد. توزیع «a^ ~ f^» تقریباً چقدر است؟ آیا می توانم یک فاصله اطمینان از هر پارامتر پیدا کنم تا بدانم آیا آنها با 0 یا 1 متفاوت هستند تا بتوانم مدل را ساده کنم؟ (با توجه به M به طور مداوم قابل تمایز است و من Jacobian و Hessian آن را دریافت کرده ام. همچنین می توانم Jacobian و Hessian از loglik را از M2 w.r.t. a ~ f بدست بیاورم) | آیا می توانم از MLE در اینجا استفاده کنم و SE تقریبی چقدر است؟ |
99573 | **زمینه** من یک مدل تولیدی برای یک فرآیند دارم که می تواند به صورت زیر توصیف شود: $$ y = t(x, w) + e $$ که در آن $x$ و $y$ مشاهدات مجموعه ای از متغیرهای تصادفی توسط یک تابع تبدیل غیرخطی $t$ مرتبط هستند، که توسط پارامترهای ناشناخته که با $w$ تخمین زده می شوند، پارامتر می شوند. $e$ عبارت خطای معمولی توزیع شده با میانگین 0 و یک ماتریس کوواریانس مورب است که توسط $\sigma^{-1} I$ ارائه شده است که $I$ ماتریس هویت و $\sigma$ دقت نویز سراسری است. بنابراین، با فرض استقلال در امتداد هر پیکسل از تصویر، عبارت احتمال زیر را به عنوان یک محصول بر روی پیکسلهای منفرد $i$ دارم: $$ P(y|x, w, \sigma) = \prod_{i} (\frac {\sigma}{2\pi})^{\frac{1}{2}} \exp^{-\frac{1}{2}e_i \sigma e_i} $$ هر $w_i$ پارامتر یک پارامتر 3 بعدی (برای هر بعد فضایی) است که باید تخمین زده شود. **KL-Divergence و M-Projections:** من از انتشار انتظار (EP) برای تخمین توزیع پسین استفاده می کنم و EP دارای یک مرحله M-projection است که توزیع را بر روی یک توزیع تقریبی ساده تر ارائه می دهد که در مورد من یک نرمال چند متغیره است. توزیع بر روی پارامترهای من $w$. روش کار EP با بهرهبرداری از شکل عاملی عبارت احتمال است، یعنی با توزیع تقریبی $Q$ (عادی چند متغیره بر $w$) شروع میشود و سپس هر یکمین عامل را با عبارت دقیق جایگزین میکند و این توزیع را بر روی تخمین فعلی پیشبینی میکند. از Q. به عنوان مثال، در این مشکل من یک جمله یکم را از عبارت درستنمایی خود جایگزین میکنم تا توزیع را به صورت پروژه درآورم: $P(y|x_i، w_i، \sigma) q_{j \neq i}(w_j)$ که در آن جمله اول عامل دقیق است و $q_{j \neq i}(w_j)$ توزیع تقریبی با تأثیر عبارت i حذف شده است. اجازه دهید این توزیع را $U$ بنامیم طبق ادبیات، من باید لحظات $E_U[w]$ را پیدا کنم. بنابراین، من باید لحظات مرتبه اول و دوم را مطابقت دهم، یعنی این انتظارات را برای پارامترهای خود با استفاده از توزیع $U$ محاسبه کنم. با این حال، من کاملاً در مورد نحوه انجام این کار گم شده ام. آیا کسی می تواند به من پیشنهاد دهد که چگونه باید ادامه دهم؟ | محاسبه واگرایی KL: پیش بینی های M برای توزیع های دلخواه |
21183 | فرض کنید من یک لیست از 100 پارچ MLB و 5 آمار برای هر یک از آنها دارم. به عنوان مثال، تفاوت بین یک ERA 3.5 و 3.1 ممکن است برای یک الگوریتم شباهت ساده به نظر زیاد نباشد، اما در بیسبال بسیار زیاد است. با توجه به اینکه بسیاری از آمار بازیکنانی که من به آنها نگاه می کنم دارای این واریانس اندک هستند، واریانس بسیار کمی مانند این، بهترین راه برای محاسبه شباهت بین دو بازیکن چیست؟ نمونه ای از داده ها ممکن است به این صورت باشد: Player | عصر | برد | استرایک اوت -------------------------------- A | 3.5 | 15 | 180 B | 3.1 | 12 | 210 درجه سانتیگراد | 3.4 | 13 | 150 من از شباهت کسینوس استفاده کرده ام، و نتایج بسیار شبیه به یک هزارم رقم اعشار هستند. | روش خوبی برای مقایسه شباهت بین مجموعه داده ها با واریانس کم چیست؟ |
17098 | اعتراف می کنم که من در آمار وحشتناک هستم. من می دانم که احتمال اینکه فردی که برای بازنشستگی پس انداز کرده باشد، کمتر از 50000 دلار پس انداز کرده است، طبق داده های نمونه من 16.4٪ است، اما تنها 69٪ از کارگران می گویند که برای بازنشستگی پس انداز کرده اند. بنابراین احتمال اینکه یک فرد تصادفی انتخاب شده از کل جمعیت کمتر از 50000 دلار پس انداز کرده باشد چقدر است؟ بنابراین، این بدان معناست که 31٪ از جمعیت اعتراف می کنند که چیزی پس انداز نکرده اند (که کمتر از 50000 دلار است)، بنابراین احتمال اینکه یک فرد تصادفی انتخاب شده از کل جمعیت کمتر از 50000 دلار برای بازنشستگی پس انداز کرده باشد در واقع بیشتر از 16.4٪ است - اما نمیدونم چجوری دقیق تر حساب کنم این تکلیف است، اما من خیلی گم شدم... هر کمکی قابل تقدیر است. | من احتمال یک نتیجه را در یک نمونه می دانم، چگونه برای جامعه اعمال شود؟ |
77929 | من اکنون دو عدد متوسط دارم، مثلاً $a$ و $b$. $a=1.1$ با فاصله اطمینان 95% $\pm0.2$ و $b=1.0$ با فاصله اطمینان 95% $\pm0.1$. آیا منطقی است که اختلاف درصد آنها را با ارزش $b$ به عنوان $$\%\ diff=\frac{1.1-1.0}{1.0}=10\%$$ محاسبه کنیم، از درک من، به دلیل همپوشانی CI، ما واقعا نمی توانیم بگوییم که $b$ و $a$ متفاوت هستند. اما اگر بخواهم میزان تفاوت آنها را تعیین کنم، چگونه می توانم با در نظر گرفتن CI این کار را به طور منطقی انجام دهم؟ | چگونه می توان درصد اختلاف را با در نظر گرفتن 95٪ CI محاسبه کرد؟ |
50073 | من در مورد تمرین زیر تردید دارم: با توجه به دنباله متغیرهای تصادفی مستقل برنولی (0,1/2) $x(n)$, $n\ge 1$، میانگین تابع و همبستگی خودکار (زمان تاخیر) را تعیین کنید. فرآیند: $z(n)=\sum_{m=1}^n y(m)،\quad n\ge1$ با $y(m)=2x(m) -1 $ برای مقادیر قابل توجه از زمان و تاخیر * * * سپس تابع میانگین را محاسبه کردم: $E[z(n)]= n-1 $، آیا درست است؟ من مشکلی برای همبستگی خودکار دارم: $E[z(n)z(n-k)]=E[\sum_{m=1}^n y(m) \sum_{m=1}^{n-k} y(m) ]=...$ آیا ادامه دادن به این شکل درست است؟ یعنی با $z(n-k)$ در جمع بندی چه کار باید بکنم؟ | خود همبستگی یک دنباله برنولی |
35336 | من روی یک مجموعه داده تصویربرداری تشدید مغناطیسی کار می کنم که شامل حدود 100 مشاهده (= موضوع) و 20000 پیش بینی کننده (= وکسل) است. من می خواهم طبقه بندی را در R با استفاده از روش هایی مانند ماشین های بردار پشتیبان یا جنگل های تصادفی انجام دهم. من معتقدم که تجزیه و تحلیل مجموعههای داده بزرگ نیاز به تنظیم خاصی دارد و میخواهم درباره توصیهها بدانم، اگر این امکان در R وجود دارد و چه سختافزاری توصیه میشود. | توصیههایی برای طبقهبندی MRI در R مجموعه دادههای بزرگ (100=n، p=20000) |
7977 | من نمی دانم چگونه می توان نقاط توزیع شده یکنواخت را در سطح کره واحد 3 بعدی ایجاد کرد؟ همچنین پس از ایجاد آن نقاط، بهترین راه برای تجسم و بررسی اینکه آیا واقعاً روی سطح یکنواخت هستند یا خیر، $x^2+y^2+z^2=1$ چیست؟ | چگونه نقاط توزیع شده یکنواخت را روی سطح کره واحد 3 بعدی ایجاد کنیم؟ |
90151 | من باید گاما مناسب برای داده ها را در پایتون 3.2 پیدا کنم. param = gamma.fit(samp) // samp لیستی از اعداد ممیز شناور است که من با خطا مواجه شدم: `TypeError: نمی تواند کاهش را با نوع انعطاف پذیر انجام دهد` هر گونه کمکی قابل قدردانی است. | خطای برازش داده ها توسط gamma.fit() در پایتون |
17094 | توضیح ساده با تمرکز بر سوالات زیر در حال بررسی است. قدردانی پیشاپیش برای کسانی است که **علمی** --*ساده** --**عملی** توضیح می دهند. با داشتن مساحت **A** که **N** تعداد نقاط را در بر می گیرد، چگالی را می توان به صورت زیر نوشت: $$D=N/A$$ **سوال 1:** تفاوت بین **تراکم* چیست؟ * و **شدت**؟ **سوال 2:** چگونه چگالی یک الگوی نقطه ای را تخمین بزنیم؟ من از روش های KDE آگاه هستم اما متوجه شدم که در عمل مشکلات جدی در رابطه با تنظیم پهنای باند و غیره وجود دارد که در تخمین بسیار موثر هستند. برای نام بردن، تابع **mass**، هیستوگرام دو بعدی و غیره را نیز امتحان کردم اما هنوز از آنها راضی نیستم. یک رویکرد قوی، قابل اعتماد و عملی در حال جستجو است. **سوال 3:** شکل زیر یک سوال دیگر را نشان می دهد.  قسمت **B** همان است که **A** تعدادی را در گوشه حذف کرد. آیا تراکم کل منطقه را تغییر می دهد؟ * * * خطاب به مدیر محترم: آیا «سوال در 2 روز واجد شرایط جایزه است» نمره خوبی است؟ یا! من بلافاصله پس از آپلود آن را دریافت می کنم! | چگالی و شدت الگوی نقطه چیست؟ |
95406 | من چندین روز است که در این مشکل گیر کرده ام: در نمونه ای با اندازه $I$، هر عضو نمونه $i=1,\ldots,I$، با ویژگی $m(i)$ توصیف می شود. مقدار $B$ تابع معینی از $\mbox{avg}(m(i))$ است که میتوان آن را با: $B=1/\mbox{avg}(m(i))$ تقریب زد. اکنون باید عبارت زیر را تحلیل کنم:  اگر $m(i)$ یک اسکالر باشد، این عبارت برابر است با $B*\mbox{ Var}(m(i))$، که $\mbox{Var}(\cdot)$ یک واریانس نمونه است. اما اگر $m(i)$ یک بردار ردیف $1 \times K$ باشد (که مورد دومی است که باید در نظر بگیرم) و $B$ برابر است با معکوس ماتریس مورب با $\mbox{avg}(m) (j))$، برای $j=1،\ldots، K$ در مورب و در جاهای دیگر صفر است، یعنی $B$ ماتریس قطعی مثبت است، بنابراین وجود دارد جذر منحصر به فرد $B$. اما نمیدانم چگونه میتوان آن را با استفاده از واریانس $m(i)$ یا چیزی از این نوع بیان کرد. چیزی که من امیدوار بودم این بود که آن را به صورت یک فرم درجه دوم با مقداری ماتریس واریانس کوواریانس مرتبط با آن بیان کنم، شبیه به بیان استاندارد برای مثال. واریانس نمونه کارها، فقط با آرگومان های دیگر. یا اینکه بتوانیم آن را به عنوان یک شکل درجه دوم نشان دهیم. اگر کسی واقعاً بتواند در این مورد به من کمک کند بسیار متشکرم خواهد بود! | واریانس نمونه متغیر برداری |
90150 | قبل از برازش یک مدل مختلط خطی، آیا می توان از هر نموداری برای نشان دادن یک برش/شیب تصادفی در مدل استفاده کرد؟ یعنی این نمودارها ممکن است الگوی متفاوتی را برای هر فرد در طول زمان نشان دهند. پس از برازش یک مدل مختلط خطی، چه تشخیصی را می توان انجام داد تا ببینیم آیا نیاز به اصلاح مدل است؟ | چه نمودارهایی برای تشخیص مدل مختلط خطی باید استفاده شود؟ |
20584 | از آنجایی که پاسخی برای بخش دوم این سوال نداشتم، میخواهم دوباره آن را بپرسم و اطلاعات بیشتری را که در این مدت جمعآوری کردم، ارائه کنم. **زمینه** ما در حال طراحی یک کارآزمایی کامل تصادفی در یک جنگل هستیم. نمودارها (واحدهای آزمایشی) تنوع طبیعی را در متغیرهای پاسخ نشان می دهند. از آنجایی که ما 3 تکرار را برای هر یک از 3 تیمار تنظیم خواهیم کرد، فقط 9 پلات داریم و بسته به پیکربندی تصادفی تخصیص تیمارها به آنها، شرایط اولیه، تا آنجا که به متغیرهای پاسخ مربوط می شود، می تواند به طور قابل توجهی متفاوت باشد. در تلاشی برای تضمین شرایط اولیه مشابه، ANOVAها را برای تمام پیکربندیهای اولیه ممکن محاسبه کردهایم و زیرمجموعهای از آنهایی را انتخاب کردهایم که $F$ آمار $\approx1$ دارند، بنابراین واریانس کل بین و درون گروهها را به طور مساوی تقسیم میکنیم. در ED ما، برای $F\approx1$، $p\approx0.42$: بسیار بالاتر از حد معمولی $\alpha=0.05$ مورد نیاز برای رد هیفوتز تهی بدون تفاوت بین درمانها. سپس پیکربندی واقعی به طور تصادفی از زیر مجموعه تنظیمات $F\حدود 1$ انتخاب می شود. **سوال** $F\approx1$ یک آستانه دلخواه است اما بسیار منطقی تر از به حداقل رساندن $F$ است، استراتژی ای که واریانس را در گروه هایی شبیه به طرح بلوک کامل تصادفی، بدون بلوک به حداکثر می رساند! آیا تجربیات خاصی در تضمین شرایط اولیه مشابه بین واحدهای آزمایشی وجود دارد؟ آیا به نظر شما _criterium_$F\approx1$ امکان پذیر است؟ متشکرم. | شرایط اولیه واحدهای آزمایشی در طرح کاملا تصادفی |
45603 | من با مدلهای ناپارامتریک، مانند فرآیند دیریکله سلسله مراتبی، فرآیندهای پیتمن-یور، و غیره نسبتاً تازه کار هستم، اما خواندهام که روشهای غیر پارامتری مبتنی بر دادهها هستند و میتوانند قویتر از ضد پارامتری خود باشند. قطعات من به دنبال شواهد و توضیحی هستم که چرا چنین است. شاید به طور خلاصه تر، مزایا و معایب مدل های ناپارامتریک چیست (و چه شواهدی در این مورد وجود دارد). غیررسمی تر، آیا می توان استدلال کرد که روند معقولی برای حرکت به سمت مدل های ناپارامتریک در ادبیات یادگیری ماشین / آمار وجود دارد؟ | موردی برای مدل های ناپارامتریک |
46953 | من در حال خواندن مقاله ای هستم که در آن تفاوت آماری بین دو گروه درمانی برای متغیر A (0.05=p) یافت شده است، اما برای متغیرهای B (0.06=p) و C (0.06=p) تفاوت آماری وجود دارد. A=B-C. آیا این امکان پذیر است و اگر چنین است چگونه؟ در این مقاله آمده است که تمام داده ها با استفاده از آزمون t مستقل دانشجویی به شرط توزیع نرمال داده ها مورد تجزیه و تحلیل آماری قرار گرفتند. در غیر این صورت از آزمون دو نمونه ای Wilcoxon استفاده شد. | تفاوت های معنی دار و متغیرهای مرتبط |
7972 | من تعدادی شطرنجی از داده های محیطی دارم (~10) که ممکن است پیش بینی های مهمی برای مدل سازی حضور و فراوانی گونه ها در ~ 10 مکان مختلف باشد. من می خواهم بدانم کدام یک از شطرنج ها در توضیح واریانس نتایج مشاهده شده مهم هستند. آیا جستجوی اجزای اصلی رسترها مناسب است؟ آیا این کار در کل محدوده انجام می شود یا فقط با توجه به سایت های مشاهده شده من؟ هر گونه اشاره در این مورد قدردانی می شود. ویرایش: معلوم می شود که رایانه های شخصی در این مورد مفید نیستند. حتی اگر دو شطرنجی ممکن است همبستگی بسیار زیادی در سراسر چشم انداز داشته باشند، اگر در محدوده باریکی از مکان های اشغال شده توسط گونه های مدل شده متفاوت باشند، این چیزی است که واقعاً اهمیت دارد. | اجزای اصلی متغیرهای فضایی |
110127 | من با دادههای غیرزیست خاک مانند چگالی ظاهری، سطوح رطوبت و شیمی خاک به عنوان دادههای پاسخ (بعضی کمی برخی به عنوان درصد) و ترکیبی از دادههای غیرزیست و زنده به عنوان دادههای محیطی کار میکنم. برای مقایسه سایت های مختلف می خواهم از آمار چند متغیره استفاده کنم. برای این PCA یک روش پذیرفته شده در این زمینه است، اما با PCA من یک افکت قوس/نعل اسبی در پلاتهای تعیینکنندهام دریافت میکنم. من به مقیاسگذاری چند بعدی غیر متریک nMDS به عنوان یک روش تنظیم غیرمستقیم جایگزین مورد استفاده در اکولوژی اشاره شدهام. من قصد دارم از تابع metaMDS از بسته گیاهی در R استفاده کنم که با تنظیمات استاندارد نتایج معقولی به من می دهد. اما چند سوال وجود دارد که نتوانستم پاسخ روشنی برای آنها بیابم: راهنما می گوید که metaMDS برای استفاده با داده های جامعه طراحی شده است. آیا در این زمینه فقط داده های زیستی منظور می شود؟ داده های دیگر در این زمینه چه معنایی دارند؟ و داده های خاک من در چه چیزی قرار می گیرند؟ در صورتی که دادههای خاک من دادههای جامعه نباشد، طیفی از تنظیمات باید تغییر کند. این شامل شاخص عدم تشابه است. از آنجایی که من با دادههای غیر زنده سروکار دارم، معمولاً یک گرادیان خطی (در مقابل تکوجهی) را فرض میکنم، آیا در این مورد باید فاصله اقلیدسی را به عنوان شاخص عدم تشابه انتخاب کنم؟ رتبه بندی (env، خاک، c(euc، man، bray، jac، kul)) کمترین امتیاز را برای اقلیدسی به من می دهد (مانند و بری بالاترین). **ویرایش** من چندین نشریه پیدا کردم که به استفاده از شاخص عدم تشابه متریک Gower برای داده های شیمیایی خاک اشاره دارد. برای اطلاعات بیشتر به صفحه 320 کتاب زیر مراجعه کنید: Legendre، Pierre، و Loic FJ Legendre. اکولوژی عددی جلد 20. Elsevier، 2012. **END EDIT** آیا اگر از فاصله اقلیدسی استفاده کنم، باید نام را از nMDS به MDS تغییر دهم، زیرا اقلیدسی یک روش متریک است؟). آیا داده ها باید قبل از محاسبات تبدیل شوند؟ آیا تبدیل خودکار = TRUE کافی است؟ | nMDS در وگان برای داده های خاک |
7528 | یک معادله رگرسیون ساده شده $ES=\frac{a+b}{n_1+n_2}$ به عنوان جایگزینی برای معادله رگرسیون ایگر $\frac{ES}{SE}=\frac{a+b}{SE} پیشنهاد شده است. $، که در آن ES=اندازه اثر، $n_1$=اندازه نمونه بیماران، $n_2$=اندازه نمونه کنترلها، SE=خطای استاندارد. این آزمون جایگزین، که توسط پیترز و همکاران ارائه شد. در مقاله 2006 خود در JAMA، قرار است بهتر از تست Egger باشد، زمانی که ES lnOR است. این آزمون جایگزین همچنین می تواند در مواردی که خطای استاندارد (SE) قابل محاسبه نباشد، ارزشمند باشد، زیرا SE در معادله شرکت نمی کند. آیا می توان از این تست جایگزین Egger با انواع دیگر Effect Size استفاده کرد؟ وقتی ES SMD است؟ وقتی ES RR است؟ چه زمانی ES ضریب همبستگی پیرسون است؟ | آزمون ایگر جایگزین، بدون استفاده از خطای استاندارد |
95407 |  در سوال 5، من 10 عامل را دارم که می تواند بر تصمیم خرید تاثیر بگذارد. اکنون میخواستم ارتباط بین 10 عامل را که به عنوان عوامل مستقل در نظر میگیرم و تصمیم خرید که قصد دارم به عنوان یک متغیر وابسته استفاده کنم، پیدا کنم، اما نمیتوانم آن را با هیچ چیزی کمیت کنم. اکنون برای اعمال رگرسیون، به یک متغیر وابسته واقعی نیاز دارم که بتوان از آن برای ارتباط با عوامل دیگر استفاده کرد. چگونه می توانم این مشکل را برطرف کنم یا تست دیگری وجود دارد که بتوانم از آن استفاده کنم. | چگونه یک متغیر وابسته در رگرسیون ایجاد کنیم که در داده ها وجود ندارد؟ |
77928 | من با تست کای دو خوب بودن تناسب و همچنین تست کای دو استقلال آشنا هستم. نمونهای از خوبی تناسب مجذور کای جایی است که ما فرکانسهایی برای سه گروه مختلف داریم و میخواهیم بدانیم آیا نسبتهای مشاهده شده با نسبتهای مورد انتظار متفاوت است یا خیر. نمونهای از آزمون مجذور کای استقلال جایی است که ما 2 یا چند دسته داریم که در 2 یا چند دسته دیگر اندازهگیری میشوند و میخواهیم بدانیم کدام دستهها مرتبط هستند. با این حال، من مرتباً نوع سومی از آزمون مجذور کای به نام تست همگنی را می بینم. به عنوان مثال stattrek یک صفحه در مورد آزمون مجذور کای همگنی دارد: http://stattrek.com/chi-square-test/homogeneity.aspx آیا کسی می تواند توضیح دهد که آزمون مجذور کای همگنی چه تفاوتی با دو آزمون دیگر دارد؟ | آزمون کای دو همگنی |
99486 | من یک سوال ابتدایی در مورد نحوه عادی سازی مجموعه ای از داده های سری زمانی دارم و از نظرات شما سپاسگزارم. برای ساده تر، وضعیت فرضی به شرح زیر است: فرض کنید ما محصولات A و B را داریم که هر دو ماهیت و عملکرد مشابهی دارند و می توانند به عنوان جایگزین یکدیگر استفاده شوند. ما داده های فروش هفتگی هر محصول را داریم. 10 محصول رقیب در بازار وجود دارد که مشابه محصولات A و B ما هستند و اطلاعات کلی بازار هفتگی برای آن 10 محصول رقیب نیز موجود است. ما می خواهیم بدانیم که محصولات A و B ما تا چه اندازه تمایل به آدمخواری یکدیگر دارند و می خواهیم بر اساس داده های فروش هفتگی آنها، ارتباط بین این دو را بدانیم. با این حال، حجم کلی فروش در بازار (برای 2 محصول ما و 10 محصول رقیب در مجموع) از یک هفته به هفته دیگر در نوسان است و نوسانات ما را ملزم می کند قبل از محاسبه همبستگی بین محصولات A و B آنها را تعدیل یا عادی کنیم. فرض کنید که نوسانات هفتگی بازار به صورت زیر نمایه می شود: بازار: Wk1 100 (=پایه) Wk2 109 Wk3 103 Wk4 101 Wk5 96 Wk6 108 Wk7 117 Wk8 147 Wk9 135 Wk10 115 سپس برای عادی سازی یا تعدیل حجم فروش هفتگی محصول A و B به طوری که ظاهراً اعداد فروش را با نوسانات کلی بازار نشان می دهند، محاسبه می کنیم. فروش هفتگی تعدیل شده توسط این شاخص. برای مثال، فرض کنید دادههای فروش خام WK2 برای محصول A 36 است، و سپس فروش WK2 تعدیلشده برای محصول A 33 است، که از 36 تقسیم بر 109 ضربدر 100 به دست میآید. آیا این منطقی است؟ یا راه های بهتر یا مناسب تری برای مقابله با موقعیت ها داریم؟ از اینکه این سوال ابتدایی را خواندید متشکرم و از نظرات شما سپاسگزارم. من بسیار از افکار شما قدردانی می کنم. | عادی سازی نوسانات فروش هفتگی در کل بازار |
20588 | آیا استفاده از نسبت شانس برای گروه هایی که زیر مجموعه یکدیگر هستند نامناسب است؟ به عنوان مثال، مقایسه معدل دانش آموزان دختر با معدل کل دانش آموزان. (این فقط یک مثال است، نه چیزی که من واقعاً مقایسه می کنم) این بخشی از یک پروژه بزرگتر است و علاقه اصلی من در انجام این کار این است که نشان دهم نتیجه به دلیل گروه های مورد استفاده متفاوت خواهد بود. و بر اساس ادبیات قبلی است که من احساس کردم قبل از اینکه به تحلیل خود ادامه دهم، باید تمایز بین دو گروه را نشان دهم. به نظر من، نسبت شانس فقط یک آمار توصیفی برای مقایسه شانس بین دو گروه است و من واقعاً نمی دانم که چرا اشتباه است. با این حال، Stata به من اجازه این کار را نداد و بنابراین به این بحث منجر می شود. سوال اصلی: چرا گروه ها باید دوقطبی باشند؟ | نسبت شانس بین گروه های همپوشانی |
8891 | من سعی می کنم قیمت های فروش املاک را پیش بینی کنم. * در مجموعه داده من متغیرهای مستقلی وجود دارد که هم اسمی و هم عددی هستند (متر مربع، قیمت ها و غیره) * قبل از تغذیه داده ها به هر الگوریتم رگرسیونی، می خواهم آن را به درستی از قبل پردازش کنم (binning، عادی سازی میانگین / انحراف std، گسسته سازی و غیره .) * من تحت تأثیر بسیاری از روش های ذکر شده در کتاب های درسی مختلف قرار گرفته ام و سعی می کنم بفهمم چه چیزی در عمل خوب عمل می کند، اگرچه منطقی ترین پاسخ به این سؤال احتمالاً این بستگی دارد، شاید شما قوانین سرانگشتی / داستان های جنگ / توصیه های کلی را به من بدهید؟ * معمولاً چگونه داده ها را برای رگرسیون پیش پردازش می کنید؟ * معمولا از چه روش هایی استفاده می کنید؟ * کدام الگوریتم های رگرسیون نیاز به درمان خاصی دارند؟ به عنوان ابزار من از weka و R استفاده می کنم. با تشکر فراوان! | آماده سازی داده ها برای رگرسیون |
68669 | ماهیت LDA همزمانی کلمه است. می خواهم بدانم چرا؟ و آیا همزمانی کلمه به معنای ظاهر شدن دو کلمه با هم در یک سند خاص است یا فقط در مجموعه اسناد با هم ظاهر می شود؟ پیشاپیش از همه شما سپاسگزارم. | چگونه همزمانی کلمه به دو کلمه از یک موضوع اجازه می دهد در مدل موضوع LDA به یکدیگر پیوند بخورند؟ |
45609 | من در حال حاضر در حال اجرای یک مدل برای پیش بینی نتایج فوتبال در JAGS هستم. در واقع، من چندین مورد را اجرا کرده ام، اما به سخت ترین چالش خود رسیده ام: مدلی که توسط Rue & Salvesen در مقاله خود پیش بینی و تحلیل گذشته نگر مسابقات فوتبال در یک لیگ توصیف شده است. مدل آنها از یک مدل ترکیبی برای کوتاه کردن توزیع پواسون مشروط به قدرت حمله / دفاع پس از 5 گل استفاده می کند. آنها همچنین قانون دیکسون و کولز (1997) را برای افزایش احتمال نتایج 0-0 و 1-1 در بازی های کم امتیاز اقتباس کرده اند. مشکل من به شرح زیر است، من سعی می کنم مدل ترکیبی را پیاده سازی کنم: $$ \pi_{g1}(x_{A,B},y_{A,B}|\lambda_{A,B}^{(x) },\lambda_{A,B}^{(y)}) = \kappa(x_{A,B},y_{A,B}|\lambda_{A,B}^{(x)},\lambda_{A,B}^{(y)})Po(x_{A ,B}|\lambda_{A,B}^{(x)})Po(y_{A,B}|\lambda_{A,B}^{(y)}) $$ کجا $x_{A,B}$ نشاندهنده تعداد گلهای زده شده توسط تیم میزبان در بازی بین تیمهای A و B است و $log(\lambda_{A,B}^{(x)})$ نشاندهنده تیمها است. قدرت من سعی کردهام این دو قانون را در JAGS با استفاده از ترفند صفر-یکها پیادهسازی کنم، اما تاکنون موفق نشدهام (خطا: مقادیر غیرقانونی والد). مدل JAGS من تاکنون: داده { C <- 10000 برای (i در 1:noGames) { صفر[i] <- 0 } homeGoalAvg <- 0.395 awayGoalAvg <- 0.098 rho <- 0.1 } مدل { ### مدل زمان - دقت حرکت براونی تاو ~ dgamma (10، 0.1). ~ dgamma(0.1، 1) for(t در 1:noTeams) { حمله[t، 1] ~ dnorm(0، دقت) دفاع[t، 1] ~ dnorm(0، دقت) برای(ها در 2:noTimeslices) { attack[t, s] ~ dnorm(attack[t, (s-1)], (tau * دقت) / (abs(days[t,s]-days[t,s-1]))) defence[t, s] ~ dnorm(defence[t, (s-1)], (tau * دقت) / (abs(days[t,s]-days[t,s-1]))) } } ### گاما مدل هدف ~ dunif(0, 0.1) for(i در 1:noGames) { delta[i] <- ( حمله[team[i, 1]، timelice[i, 1]] + دفاع[تیم[i, 1]، timelice[i, 1]] - حمله[تیم[i، 2]، تایم لایس[i، 2]] - دفاع[تیم[i، 2]، تایم لایس[i، 2]] ) / 2 log(homeLambda[i]) <- ( homeGoalAvg + ( حمله[team[i, 1]، timelice[i, 1]] - defence[team[i, 2]، timelice[i, 2]] - گاما * دلتا [i] ) log(awayLambda[i]) <- ( awayGoalAvg + ( attack[team[i, 2], تایم لایس[i, 2]] - دفاع[تیم[i, 1]، تایم لایس[i, 1]] + گاما * دلتا[i] ) گلهای زده شده[i، 1] ~ dpois( homeLambda[i] ) گلهای زده شده[i ، 2] ~ dpois( awayLambda[i] ) is0X[i] <- ifelse(goalsScored[i, 1]==0, 1, 0) isX0[i] <- ifelse(goalsScored[i, 2]==0, 1, 0) is1X[i] <- ifelse(goalsScored[i, 1]==1، 1، 0) isX1[i] <- ifelse(goalsScored[i, 2]==1, 1, 0) is00[i] <- is0X[i] * isX0[i] is01[i] <- is0X[i] * isX1[i] is10[i] <- is1X[i] * isX0[i] is11 [i] <- is1X[i] * isX1[i] kappa[i] <- ( is00[i] * ( 1 + (خانه Lambda[i] * awayLambda[i] * rho) ) + is01[i] * ( 1 - (homeLambda[i] * rho ) ) + is10[i] * ( 1 - (awayLambda[i] * rho ) ) + is11[i] * ( 1 + rho ) + 1 - ( is00[i] + is01[i] + is10[i] + is11[i] ) ) # این کار نمی کند! zeros[i] ~ dpois(-log(kappa[i]) + C) } } | مدل سازی یک مدل ترکیبی در JAGS/BUGS |
46959 | فرض کنید این مدل را با «systemfit()» از بسته systemfit R مطابقت دهیم. $y = \beta_1 x + \gamma_1 z + u$ $z = \beta_2 w + \gamma_2 y + v$ اکنون میتوانم تخمینی از $Cor(u,v)$ دریافت کنم. من می دانم که یکی از علل درون زایی این است که همبستگی قابل توجهی بین $u$ و $v$ وجود دارد. اما آیا این بدان معناست که من باید به ماتریس همبستگی ارائه شده توسط خروجی «systemfit()» نگاه کنم تا به این نتیجه برسم که آیا شواهدی وجود دارد که این همبستگی ممکن است دلیل درون زایی باشد؟ علاوه بر این، اگر من درون زایی را کنترل کنم و همبستگی بین $u$ و $v$ کاهش یابد، آیا این به این معنی است که برخی از متغیرهای حذف شده اکنون به گونه ای کنترل می شوند که خطای باقیمانده فقط نویز باقی مانده باشد؟ | ماتریس همبستگی بین باقیمانده ها در یک SEM برازش شده توسط تابع R systemfit |
100175 | در مدل های خطی باید بررسی کنیم که آیا رابطه ای بین متغیرهای توضیحی وجود دارد یا خیر. اگر آنها بیش از حد همبستگی داشته باشند، همخطی وجود دارد (یعنی متغیرها تا حدی یکدیگر را توضیح می دهند). من در حال حاضر فقط به همبستگی زوجی بین هر یک از متغیرهای توضیحی نگاه می کنم. ** سوال 1: ** چه چیزی به عنوان همبستگی بیش از حد طبقه بندی می شود؟ به عنوان مثال، آیا همبستگی پیرسون 0.5 خیلی زیاد است؟ **سوال 2:** آیا می توانیم به طور کامل تعیین کنیم که آیا بر اساس ضریب همبستگی بین دو متغیر همخطی وجود دارد یا به عوامل دیگر بستگی دارد؟ **سوال 3:** آیا بررسی گرافیکی نمودار پراکندگی دو متغیر چیزی به آنچه ضریب همبستگی نشان می دهد اضافه می کند؟ | چه زمانی می توانیم از هم خطی بودن صحبت کنیم |
8898 | یک دوست آسیب شناس برای کمک به سؤال زیر برای یک پروژه تحقیقاتی به من مراجعه کرد. هدف مقایسه اثربخشی سه روش تشخیصی مختلف است. مجموعه داده ها به شرح زیر است: 50 نمونه مختلف وجود دارد، هر نمونه توسط 4 پاتولوژیست، و 3 ابزار مختلف (یعنی 600 تشخیص در کل) مورد ارزیابی قرار گرفت. هر مورد دارای تشخیص احتمالی مثبت یا منفی است و نتایج واقعی شناخته شده است ، همانطور که به طور مستقل مشخص شده است. میزان موفقیت هم به کیفیت ابزار و هم به مهارت پاتولوژیست بستگی دارد و نمی توانیم فرض کنیم که چهار پاتولوژیست مهارت یکسانی دارند. سرانجام ، حتی اگر هر شخص 3 بار نمونه مشابه را اندازه گیری کند ، می توان آنها را به عنوان اندازه گیری مستقل درمان کرد. تست های مناسب برای مقایسه اثربخشی بین ابزارها چیست؟ با تشکر اضافه شده: بسیاری از اطلاعات خوب در پاسخ ها ، به لطف هر دو. آیا فکری در مورد اینکه چگونه ROC و بلوک تصادفی مقایسه/تضاد دارند؟ مطمئن نیستم آنقدر آن را هضم کرده باشم که بدانم کدام روش بهتر است. از آنجایی که نتایج باید به یک مخاطب خاص منتقل شود، احتمالاً بستگی به این دارد که کدام یک در بین آن مخاطبان بیشتر مورد استفاده قرار گیرد. | چگونه می توان اثربخشی تکنیک های تشخیص پزشکی را مقایسه کرد؟ |
99487 | فقط می خواستم مطمئن شوم که اینجا هستم. من شرایطی دارم که باید ثابت کنم در روزهایی که بیش از 10 کالا می فروشیم، حاشیه ما (قیمت فروش در مقابل قیمت پیشنهادی) بالا می رود. من واقعاً مطمئن نیستم که بتوان این را ثابت کرد، اما این چیزی است که با آن کار می کنم. جدول بالا لیستی از هر فروش است که ما هر روز انجام میدهیم. متوجه شدم که اگر مجموع ستون R را در روزهای با بیش از 10 فروش (بنابراین 5/1/2011 و 5/4/2011) بگیرم و آن را بر مجموع مربوطه در ستون Q (36,018 دلار / 73,920 دلار) تقسیم کنم، 48.7 دریافت می کنم. ٪ (سپس کل همه چیز را در هر ستون می گیرم و مجموع مربوطه را کم می کنم، آن را بر کل قیمت پیشنهادی مناسب تقسیم می کنم - این در پایین ستون R نشان داده شده است. آیا این رویکرد درستی در این مورد است؟ فقط باید مطمئن باشم جدول پایین جدول جداگانه ای است که من دارم که تمام اطلاعات جدول بالا را جمع می کند. قبلاً میانگین درصدهای مربوطه را میگرفتم (بنابراین میانگین 44.2٪ و 56.3٪) اما متوجه شدم که این احتمالاً بسیار نادرست است. دلیلش را کاملاً روشن نیستم، اما از میانگین گرفتن میانگین ها اجتناب می کنم و این وضعیت به نظر من بسیار شبیه بود، به همین دلیل است که برای بررسی مجدد اینجا پست می گذارم. این محاسبه نتایج بسیار متفاوتی به من می دهد (در ستون W نشان داده شده است). چرا این راه اشتباه است؟ امیدوارم همه اینها منطقی باشد. من می دانم که این یکی از آن قوانین اساسی ریاضی است، با این حال مغز من در حال حاضر سرخ شده است، بنابراین باید به طور کامل بفهمم که چرا روش دوم اشتباه است. من واقعاً هیچ نمونه مشابهی را آنلاین نمی بینم. (*لطفاً توجه داشته باشید که این فقط زیرمجموعه ای از داده های من است. مجموعه داده واقعی شامل بیش از 3 سال سابقه و چند نقطه داده دیگر است، اما این مورد اصلی بود که از من خواسته شد به آن نگاه کنم، اگرچه من اینطور نیستم. متقاعد شده است که یک رابطه علّی را می توان تنها از این داده ها ثابت کرد.) متشکرم.  | میانگین درصدها / اثبات رابطه علی بین تاریخ فروش و حاشیه فروش |
20858 | با توجه به مجموعهای از دادههای $(x,y)$، میتوان یک رگرسیون غیرپارامتری $y$ روی $x$ انجام داد تا نحوه پیشبینی $E(Y|X)$ را درک کند. به طور مشابه، اگر کسی داده کافی داشته باشد، ممکن است مفید باشد که یک برش عمودی باریک از داده ها (محدوده کوچکی از $x$) گرفته و سعی کنید pdf $Y$ را در آن نقطه درک کنید. با این حال، من داده های خیلی متراکم ندارم، بنابراین می خواهم این دو تکنیک را با هم ترکیب کنم. آنچه من می خواهم بدانم، برای هر مقدار $x$، توزیع کامل $Y|X$ است. من تصور می کنم که اگر چگالی ها به سرعت به عنوان تابعی از $x$ تغییر کنند، این واقعاً ممکن نیست، اما من مایلم برخی فرضیات را بکنم و برخی از میانبرها را انجام دهم (من احساس می کنم که چگالی در حال افزایش است. با افزایش $x$، و باید یک وجهی باشد، هرچند متقارن نباشد) - من هنوز در تلاشم تا درک درستی از آنچه باید فرض کنم را بدست بیاورم. هر گونه توصیه یا مرجع قدردانی می شود. تنها ایده من تا کنون این است که آن را به طور مکرر انجام دهم - پسرفت، یافتن میانگین شرطی، تخمین چگالی، تکرار. هرچند به نظر می رسد که کاستی هایی نیز وجود دارد. | رگرسیون ناپارامتریک و تخمین چگالی ناپارامتریک همزمان |
48279 | من رفتار برخی از پیادهسازیهای رویکردهای بیزی و مکرر را برای تشخیص ناهنجاری پارامتری مقایسه میکنم و در حال حاضر سعی میکنم زمانی که مجموعه نمونه واقعاً کوچک است، تفاوتها را کشف کنم. مورد بیزی نسبتاً ساده به نظر می رسد - می توان احتمال یک آیتم معین را از توزیع مشابه داده های به دست آمده تخمین زد و آن را در آستانه معینی کاهش داد. با این حال، مورد مکرر برای من چندان واضح نیست. من احساس می کنم که رویکرد مکرر گرا این است که از پاسخ دادن به غیرعادی بودن یا نبودن یک آیتم امتناع کنیم تا زمانی که داده های کافی برای رد فرضیه صفر مبنی بر اینکه یک آیتم عادی است به دست آوریم. به عنوان مثال، چگونه یک آمارشناس مکرر به مشکل زیر برخورد می کند: > با توجه به مجموعه داده [0، 0.5، -0.5] و دانستن اینکه داده ها از توزیع نرمال می آیند، آیا می توان تخمین زد که آیا هر یک از عناصر > زیر [10، 5، 2] با سطح معنی داری 0.05 با استفاده از > رویکرد فراوان گرا غیرعادی هستند؟ چه اتفاقی می افتد زمانی که مجموعه داده های آموزشی > از 3 مثلاً به 100 مورد بزرگتر می شود - در چه مرحله ای امکان ارزیابی موارد آزمون داده شده در بالا وجود خواهد داشت؟ | اطمینان پیشبینی ناهنجاری برای استنتاج پارامتر فرکانسگرا در مقابل بیزی |
20586 | من تعجب کردم: آیا بسته ای در R برای انتخاب خودکار مدل GARCH وجود دارد؟ من به چیزی شبیه آنچه که بسته پیش بینی برای مدل های ARIMA انجام می دهد فکر می کنم. اگر من خودم این را پیاده سازی کنم، آیا مناسب است که فقط یک جست و جوی شبکه ای روی پارامترهای احتمالی قسمت های GARCH و ARIMA مدل (با استفاده از بسته rugarch) انجام دهم و یکی را با کمترین AIC (یا BIC) انتخاب کنم؟ | انتخاب پارامتر خودکار برای یک مدل GARCH، به روشی مشابه بسته پیش بینی |
44559 | آیا شرایطی برای اندازه گیری تغییرات حول میانه وجود دارد؟ من می دانم که ما از واریانس برای میانگین داده ها استفاده می کنیم، اما چگونه می توان واریانس را برای میانه تعریف کرد؟ آیا آمار مشابهی برای میانه وجود دارد؟ | اندازه گیری تغییرات حول میانه |
90157 | من می خواهم یک مدل ARMA را با استفاده از MATLAB R2012b بر روی یک سری زمانی (بازده گزارش سه ماهه یک اوراق قرضه 10 ساله) قرار دهم. این بخشی از یک تمرین است. من با کد و تفسیر یک نتیجه مشکل دارم. این کدی است که من استفاده می کنم: % آخرین عنصر جدیدترین عنصر است، اولین عنصر قدیمی ترین یک timeSeries = ... [0.0327; 0.0386; 0.0375; 0.0147; 0.0417; -0.0319; -0.0278; ... -0.0693; 0.0328; -0.0721; -0.0727; 0.0645; -0.0301; -0.0301; -0.0261; ... 0.0313; -0.0912; -0.0235; 0.0436; -0.0714; 0.0128; 0.0506; 0.1451; ... 0.0387; -0.0190; 0.0822; -0.0009; -0.0094; 0.0408; 0.0324; 0.0661; ... 0.1519; 0.0713; 0.2015; 0.0353; -0.0800; 0.0079; 0.0119; -0.1376; 0.0345; ... 0.0568; -0.3770; 0.0516; 0.0563; 0.0849; 0.0484; 0.0148; 0.0991; 0.0796; ... 0.0872; 0.0754; -0.0473; -0.3189; 0.0478; 0.0457; 0.0183; -0.0422; ... -0.0528; 0.0632; -0.0287; -0.1751; 0.0238; 0.0733; -0.0177; 0.0933; ... 0.1358; -0.0631; -0.0542; -0.0166; 0.0194; -0.0868; 0.0742; 0.0260; ... 0.0122; 0.0634; 0.0277; 0.0171; 0.0509; 0.1551; 0.0875; 0.0535; 0.0058; ... 0.1711; 0.1028; -0.2364; 0.0991; -0.0061; 0.0768; -0.0444; 0.2470; ... 0.0935; -0.0983; -0.0428; -0.0852; -0.0977; 0.0094; -0.3146; 0.1685; ... 0.0379; -0.1846; -0.3769; 0.0353; -0.1330; 0.2245; 0.0255; 0.1483; ... -0.0051; 0.0255; -0.0407; 0.0779; 0.0305; 0.0353; 0.0931; 0.0520; 0.1156; ... -0.0712; 0.0579; 0.0879]; p = 1; q = 1; % اولین راه: garchfit spec = garchset('R', p, 'M', q, 'VarianceModel', 'Constant'); [coeff, coeffErrors, llf, innovation, sigma, summary] = garchfit(spec, timeSeries); garchdisp(coeff، coeffErrors)؛ % راه دوم: کلاس arima [model, varCov, llf2, info2] = برآورد(arima(p,0,q), timeSeries); من نتایج زیر را با استفاده از garchfit به دست میآورم (ضرایب برابر با 1 یا -1 دارای مقدار مطلق بسیار نزدیک به 1 هستند، مانند 0.999999998): آمار خطای مقدار پارامتر T استاندارد ----------- ----- ------ ------------ ----------- C 0.0063979 0.022847 0.2800 AR (1) -1 0.025306 -39.5159 کارشناسی ----------- ------------ ----------- ثابت 0.00381023 0.0235065 0.162092 AR{1} 0.638413 2.19145 0.29132 MA{1} 0.617482 2.26535 -0.272577 واریانس 0.0107181 0.00103327 10.373 **سوال 1**. من معتقدم که دو راه برای برازش مدل باید به یک مدل منتهی شود: یک مدل ARMA را می توان به عنوان یک مدل GARCH با واریانس ثابت نشان داد (این چیزی است که حداقل به من آموزش داده شد، من متخصص مدل های GARCH نیستم). آیا درست است؟ **سوال 2**. با فرض اینکه هر دو راه باید به یک مدل منتهی شوند، چرا مقادیر بسیار متفاوتی برای ضرایب AR{1} و MA{1} دریافت می کنم؟ آیا این فقط به روش بهینه سازی مورد استفاده برای محاسبه آنها مربوط می شود؟ **سوال 3**. فرض: نتایج garchfit صحیح است. در واقع، این نتایج قابل توجه هستند، در حالی که نتایج محاسبه شده با کلاس arima قابل توجه نیستند. بنابراین، مدل تک متغیره من تبدیل به $$ y_{t} = 0.0063979 - y_{t-1} + \epsilon_{t-1} + \epsilon_t $$ میشود که در آن $\epsilon$ باقیماندهها هستند. بنابراین، $$ y_{t} + y_{t-1} = 0.0063979 + \epsilon_{t-1} + \epsilon_t $$ است آیا میتوانید به من کمک کنید معنی آن را بفهمم؟ من فکر می کنم باید به این معنی باشد که سری زمانی برابر با باقیمانده های آن است، بنابراین سری زمانی طبق تئوری مدل های ARMA یک نویز سفید است. آیا صحیح است؟ خیلی ممنون. | تطبیق مدل ARMA با MATLAB R2012b |
68663 | مدل رگرسیون خطی $${\bf y} = {\bf X}\beta + {\bf e}،$$ را در نظر بگیرید که در آن ${\bf y}$ یک بردار $n\ برابر 1$ است، $\beta $ یک بردار $p\times 1$ است، ${\bf e}$ یک بردار $n\times 1$ است. همچنین فرض کنید که $e_j\stackrel{ind.}{\sim} N(0,\sigma)$. جفریز قبل از پارامترهای $(\beta,\sigma)$ چیست؟ من اساساً به دنبال مرجعی هستم که بتوانم این را پیدا کنم. | جفریز قبل برای مدل رگرسیون خطی |
12258 | اعداد $n$ را بدون جایگزینی از مجموعه $\{1,2,...,m\}$ انتخاب کنید و مجموعه $S=\{a_1,a_2,...,a_n\}$ را ایجاد کنید. من میخواهم انتظار واریانس را برای مجموعه نمونهبرداری $\mathbb{E}[Var(S)]$ و حداکثر واریانس را در بین همه نمونهها محاسبه کنم: $\max{Var(S)}$. علاوه بر این، توزیع واریانس نمونه چگونه است؟ | انتظار واریانس مجموعه نمونه برداری بدون جایگزینی |
26863 | من از ریشه میانگین مربعات خطا (RMSE) برای اندازه گیری دقت مقادیر پیش بینی شده با استفاده از یک مدل استفاده کرده ام. می دانم که مقدار بازگشتی از واحدهای اندازه گیری من استفاده می کند (به جای درصد). با این حال، من می خواهم مقادیر خود را به صورت درصد ذکر کنم. رویکردی که من اتخاذ کردهام این است که «RMSE» را با مقدار میانگین مشاهداتم عادی کنم. آیا اصطلاحی برای «RMSE/mean» وجود دارد؟ | RMSE نرمال شده توسط میانگین مقدار مشاهده شده چیست؟ |
13126 | من دانشجوی جدید آمار هستم :) چند سوال در مورد رگرسیون خطی دارم، من از R برای انجام چند تست استفاده می کنم. من دو لیست ساده دارم، مانند: > a <- c(1،2،3،4) > b <- c(5،6،7،8) سپس انجام می دهم > مدل <- lm(a ~ b) نتیجه (ضریب) این است: > coef(model) (Intercept) b -4 1 رابطه کامل است (1). اما من مقدار رهگیری را متوجه نشدم، چرا -4 است؟ سپس اگر آزمون R خود را با: > b <- c(5,6,7,80) > a <- c(1,2,3,40) > مدل <- lm(a ~ b) > coef( مدل) (Intercept) b -1.0868825 0.5137503 > مدل <- lm(b ~ a) > coef(model) (مقطع) a 2.125346 1.945622 بدیهی است **lm(a ~ b) != lm(b ~ a)** اما، چه معیارهایی برای انتخاب لیستی که در وهله اول قرار گیرد وجود دارد؟ | درک وقفه در رگرسیون خطی ساده و اینکه چرا یک متغیر پیش بینی و دیگری متغیر نتیجه است |
20580 | تصور کنید که به مجموعه ای از مطالعات دسترسی دارید که در آن محدوده سنی، حجم نمونه و یک «اثر» (مثلاً سیگار در روز) گزارش شده است. بهترین راه برای ایجاد متا رگرسیون سیگار در روز بر اساس سن چیست؟ بخش سخت در اینجا این است که به درستی بین این مطالعات با اندازه نمونه های مختلف و محدوده سنی مختلف درون یابی شود. اول، توزیع سنی گزارش نخواهد شد. دوم، من فقط میانگین و واریانس اثر را برای کل مطالعه دارم. در حد، منطقی به نظر می رسد که مطالعات کافی با محدوده سنی کافی تخمین مناسبی از رابطه بین سن و سیگار در روز به من بدهد. آیا می دانید که آیا این نوع تجزیه و تحلیل قبلا انجام شده است و آیا آزمون های آماری مناسب استخراج شده است؟ | متررگرسیون با سن به عنوان متغیر کمکی |
100173 | من این سوال را از روی کنجکاوی می پرسم، معلمم نتوانست آن را توضیح دهد. اگر از رگرسیون لجستیک با متغیرهای طبقهبندی استفاده میکنم، آنها مانند {1،2،3} کدگذاری میشوند. حدس میزنم اگر از {4،5،6} استفاده میکردم، نتایج من را تغییر نمیداد. اما اگر خطی بودن کدگذاری حفظ نمی شد چه؟ (بگویید {4،10،99})؟ چیزی که من با آن سر و کار دارم فقط روش کدگذاری متغیرهای عامل است، اما آیا ممکن است استنتاج آماری به این ترتیب تحریف شود؟ یا، در بدترین حالت، آیا میتوانم از دادههای طبقهبندی نتیجهگیری بیهوده بگیرم، فقط به این دلیل که به نوعی کدگذاری شدهاند؟ | متغیرهای توضیحی ممکن است پیش بینی ها را سوگیری کنند |
68664 | من با داده های حاوی ژنوتیپ های SNP برای هزاران نفر کار می کنم. یکی از وظایف من انجام IBD بین افراد برای یافتن ارتباط فردی بود. من تجزیه و تحلیل IBD را با PLINK (http://pngu.mgh.harvard.edu/~purcell/plink/ibdibs.shtml) انجام می دهم. با این حال، من همیشه تعجب می کردم که چگونه از نظر ریاضی به روشی ملموس کار می کند. من سعی کردم در اینترنت پیدا کنم، اما تنها چیزی که به دست میآورم از نظر تئوری اطلاعات است، اما نه اینکه شما چگونه پارامترهای IBD را عملاً تخمین میزنید. بنابراین، شاید کسی اینجا بتواند آن را برای من توضیح دهد؟ برای مثال، فرض کنید میخواهم ارتباط بین فرد 1 و 2 را با ژنوتیپهای SNP پیدا کنم: Ind1: A/G A/A G/C T/G T/T Ind2: A/G A/G G/G T/G A/T چگونه میتوانم IBD را با توجه به آن ژنوتیپ ها بین Ind1 و Ind2 تخمین بزنید؟ با تشکر | نحوه تخمین IBD (هویت بر اساس نسب) بین دو فرد از نظر ریاضی |
28478 | من در سری های زمانی چند متغیره مشکل دارم. داده ها شامل سه سری زمانی مربوط به تجارت خارجی است. اگرچه مشتری من هنوز در حال تحقیق است و سعی می کند داده های ماهانه هر سه سری را بیابد، ممکن است فقط داده های فصلی برای برخی از سریال ها داشته باشد. او داده های 10 ساله دارد. من در حال بررسی درون یابی داده های ماهانه از داده های سه ماهه هستم، و می خواستم بدانم آیا این رویکرد خوبی است و چه اشکالاتی وجود دارد. با تشکر | درون یابی در سری های زمانی چند متغیره |
58586 | در مجموعه دادههایم، 3 متغیر کمکی ($V_1، V_2، V_3$) و پاسخ ($V_4$) دارم که توسط برنامهای که بهطور خاص برای تولید متغیرهای تصادفی با استفاده از توزیع گاوسی معکوس نوشته شده است، تولید شدهاند که در آن $ \sigma^2 = است. 1 $ و $ \mu = \frac{1}{(\beta_0 + \beta_1 \cdot V_1 + \beta_2 \cdot V_2 + \beta_3 \cdot V_3)^\frac{1}{2}} $، که $ \boldsymbol \beta $ بردار ضریب است. وقتی از دستور fit <\- glm(V4 ~ V1 + V2 + V3، خانواده = inverse.gaussian) استفاده میکنم، R 2 خطا میدهد: خطا: هیچ مجموعه معتبری از ضرایب یافت نشد: لطفاً مقدار شروع را اضافه کنید. : پیام هشدار: در sqrt(eta): NaNs تولید شده اولین مورد به نظر می رسد چیزی خاص برای خانواده Inverse Gaussian برای GLM باشد، زیرا من این کار را نکرده ام. وقتی از همین دستور برای خانواده های دیگر استفاده می کنم، این خطا را دریافت کردم. نمیدانم چرا دومی پرتاب میشود، زیرا همه این $ \eta = \boldsymbol \beta^T {\bf V} $ در بازه $ (0، 8) $ قرار دارند. اگر به صورت دستی از «start = c(1، 1، 1، 1)» استفاده کنم، بدون خطا پیش می رود اما راه حل $ \hat{\boldsymbol \beta} = [2.491 \ 0.156 \ 0.572 \ 1.170 ]$ دارد که قطعاً درست نیست زیرا من از $ \boldsymbol \beta = [0.759 \ 0.825 \ 0.916 استفاده کردم \ 0.972] $ برای تولید داده ها. مجموعه داده شامل 1000 تاپل است، بنابراین تصادفی بودن تولید نباید اجازه دهد که راه حل $ \hat{\boldsymbol \beta} $ تا این حد تغییر کند. وقتی این کار را برای خانوادههای دیگر انجام دادم، تفاوت بین هر عنصر $ \hat{\boldsymbol \beta} $ و $ \boldsymbol \beta $ برای مجموعه دادههای 1000 تاپلی بیشتر از 0.05 دلار نبود. برای اصلاح این مورد و تخمین مناسب $ \hat{\boldsymbol \beta }$ چه باید بکنم؟ برای کسانی که کنجکاو هستند، من یک GLM را روی مجموعه داده ای اجرا می کنم که قبلاً $ \boldsymbol \beta $ را برای آزمایش یک برنامه می شناسم. | خطا در نحو برای GLM با خانواده inverse.gaussian در R |
55245 | من مجموعه بزرگی از داده های مکان را از یک شبکه اجتماعی دارم و می خواهم با آن یک مطالعه تحرک انجام دهم. برای هر _object_، من تا چندین هزار _locations_ دارم که این شی از آنجا پست شده است. من به سرعت ویژگی های اشیاء را خلاصه کردم که عبارتند از * تعداد مکان (به سادگی تعداد مکان هایی که من از این شی دارم) * مسافت طی شده (تمام فواصل بین مکان های متوالی خلاصه می شود) * شعاع چرخش (انحراف استاندارد از مکان میانگین که مرکز ثقل نیز نامیده می شود) * سرعت متوسط (خود توضیح می دهد) اکنون، برای مطالعه تحرک، من واقعاً به داشتن تنها اشیاء انسان نما در مجموعه داده وابسته هستم. مشکل این است که در شبکه اجتماعی خاص، اشیاء غیر انسان نما نیز وجود دارد (مثلاً یک ایستگاه رادیویی که همیشه از یک مکان پخش می شود یا یک سرویس نظارت بر زلزله که از کل جهان پخش می شود). بنابراین، در پایان، من چندین کلاس از اشیاء را در مجموعه داده خود دارم، به عنوان مثال. انسانها، رباتهای ثابت، رباتهای پویا، و غیره. فرض قوی من این است که این کلاسهای مختلف مقادیر بسیار متفاوتی را در فضای ویژگی نشان میدهند، یعنی یک سرویس مانیتورینگ زلزله باید دارای تعداد مکان بالا، مسافت طی شده زیاد، شعاع چرخش بالا و غیره باشد. بر اساس این فرض، من میخواستم از یک طبقهبندی کننده نظارت شده ساده (مانند Naive Bayes) برای طبقهبندی کل مجموعه دادهام استفاده کنم تا بتوانم **غیر انساننما را حذف کنم. اشیاء**. مجموعه آموزشی شامل حدود 200 شیء است که با مشاهده نمایه های شبکه اجتماعی مربوطه اشیاء به دست می آیند.  **N~2000** اما همانطور که در شکل بالا مشاهده می کنید، توزیع متغیرهای فوق به صورت بسیار بلند، یعنی برخی نقاط پرت شدید وجود دارد، اما آنها پراکنده هستند، و قطعاً توزیع ها نرمال نیستند، که برای NB معمولی لازم است. وقتی متغیرها را log10 تبدیل می کنم، به نظر می رسد برخی به یک توزیع نرمال نزدیک می شوند (یعنی تعداد مکان و مسافت طی شده)، اما شعاع چرخش و سرعت متوسط هنوز گوسی نیستند:  **N~2000** بنابراین مشکل آشکار این است که به سختی در یک مجموعه آموزشی فقط هیچ چیز دور از ذهنی وجود نخواهد داشت. 10^2 شی (و دستیابی به مجموعه آموزشی بزرگتر به راحتی امکان پذیر نیست). بنابراین احتمال _priori_ یک کلاس پرت بسیار کوچک خواهد بود. * آیا این حتی با این مجموعه داده منطقی است؟ یعنی آیا طبقه بندی کننده ای وجود دارد که بتواند با این نوع داده ها مقابله کند یا نسبت کلاس ها نابرابر است؟ * یکی از الزامات عملی این است که این تکنیک قبلاً در برخی از نرم افزارها (ترجیحاً R) پیاده سازی شده باشد زیرا حذف این موارد پرت فقط یک گام کوچک در روند عظیم کار من است ... | حذف نقاط پرت شدید مبتنی بر داده با Naive Bayes یا تکنیک مشابه |
3559 | من یک خروجی SPSS برای رگرسیون لجستیک دارم. این خروجی دو معیار را برای تناسب مدل گزارش میکند، «Cox & Snell» و «Nagelkerke». بنابراین به عنوان یک قاعده کلی، کدام یک از این معیارهای R² را به عنوان مدل مناسب گزارش می کنید؟ یا اینکه کدام یک از این شاخص های برازش معمولاً در مجلات گزارش می شود؟ * * * برخی زمینه ها: رگرسیون سعی می کند حضور یا عدم حضور برخی پرنده (کاپرکایلی) را از روی برخی متغیرهای محیطی (مانند شیب زیاد، پوشش گیاهی، ...) پیش بینی کند. متأسفانه، پرنده اغلب ظاهر نمی شود (35 ضربه به 468 از دست دادن) بنابراین رگرسیون نسبتاً ضعیف عمل می کند. Cox & Snell 0.09، Nagelkerke، 0.23 است. موضوع علوم محیطی یا بوم شناسی است. | کدام معیار شبه$R^2$ برای رگرسیون لجستیک گزارش می شود (کاکس و اسنل یا ناگلکرکه)؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.