_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
40372
من یک متغیر وابسته $Y$، یک متغیر مستقل $X$، و یک متغیر مستقل طبقه بندی T دارم (که می تواند 2 سطح داشته باشد). اکنون 4 مدل دارم: **MI:** شیب های مختلف، رهگیری های مختلف $$y_{i1}=\alpha_1+\beta_1x_{i1}، y_{i2}=\alpha_2+\beta_2x_{i2}; \text{یا}\; y_{ij}=\beta_0+\beta_1X_{ij}+\beta_2T_i+\beta_3X_{ij}T_j$$ **MII:** شیب یکسان، فاصله‌های مختلف $$y_{i1}=\alpha_1+\beta x_{i1}، y_{i2}=\alpha_2+\beta x_{i2}; \text{یا}\; y_{ij}=\beta_0+\beta_1X_{ij}+\beta_2T_j$$ **MIII:** یکسان، شیب های مختلف $$y_{i1}=\alpha+\beta_1x_{i1}، y_{i2}=\alpha+ \beta_2x_{i2}$$ **MIV:** یک خط رگرسیون برای هر دو $$y_{ij}=\alpha+\beta x_{ij}; \text{یا}\; y_{ij}=\beta_0+\beta_1X_i$$ اکنون سعی می کنم این مدل ها را با یکدیگر مقایسه کنم. من مطمئن نیستم که با آنچه فکر می کنم درست می گویم: مقایسه MI با تست های MII $H_0:\, \beta_1=\beta_2$ (این را می دانم)، به این معنی که $H_0$: شیب مشابهی در برابر $H_a$ دارد : شیب های مختلف (که مطمئن نیستم). اگر اینها را در R مقایسه کنم، یک مقدار p دریافت می کنم. حالا چیزی که من فکر می کنم این است که، اگر p-value < سطح آلفا باشد، می توانم $H_0$ را رد کنم، که به این معنی است که باید به مدل اول پایبند باشم. اگر مقدار زیادی باشد، نمی‌توانم فرضیه‌های صفر را رد کنم، به این معنی که باید مدل دوم را حفظ کنم (چون در آنجا هم شیب مشابهی دارم). مطمئن نیستم که با آن درست می گویم یا نه. به علاوه نمی توانم معادله دوم را برای مدل سوم بنویسم، کسی می تواند کمک کند؟
ANCOVA/ANOVA: تست مدل های مختلف در برابر یکدیگر
48962
آیا منابعی وجود دارد که بتوانم در مورد این روش اطلاعات بیشتری کسب کنم، این روش توسط یک مشتری پیشنهاد شده است و به نظر می رسد چیز زیادی در این مورد وجود ندارد. به نظر می رسد اکثر جستجوها فقط اطلاعات مربوط به k-means را به دست می آورند.
از کجا می توانم منابعی در مورد X-Means Clustering پیدا کنم؟
41027
من یک مجموعه داده دارم که شامل یک متغیر پاسخ (شمارش)، دو متغیر توضیحی طبقه‌بندی و یک متغیر کمکی است. متغیر پاسخ به حساب می آید، من یک GLM با توزیع پواسون اجرا کردم و مدل را ساده کردم. در حالی که مدل اشباع باقیمانده های نرمال و هموسکداستی را نشان می دهد، با رسیدن به حداقل مدل کافی، آنها نرمال بودن و هموسکداستیکی بودن را از دست می دهند. من کمی گیج هستم که بهترین روش چیست و/یا مهمترین فرض کدام است. اگر من فقط به دنبال ارزیابی این هستم که آیا تعاملات تأثیر قابل توجهی دارند، آیا مناسب است که به سادگی داده ها را برای انجام یک ANCOVA تغییر دهم؟ با تشکر از کمک شما.
ساده سازی مدل منجر به باقیمانده های غیر عادی می شود
94845
من دو کلاس دارم (مثلاً 1 و 0) و می خواهم یک طبقه بندی بسازم. امکان استفاده از شبکه های عصبی مصنوعی (ANN) یا هر روش طبقه بندی واقعی مانند SVM یا Random Forest وجود دارد. در مورد ANN، به راحتی می توان سطح اطمینان طبقه بندی را تخمین زد. به عنوان مثال، اگر وظیفه باینری داشته باشیم (با خروجی‌های 0 یا 1)، و نتایج ANN برای برخی از نمونه‌ها 0.92 باشد، می‌توان فرض کرد که ANN در طبقه‌بندی به کلاس 1 مطمئنا است. از طرف دیگر، اگر ANN خروجی 0.52 داشته باشد، به عنوان طبقه بندی ناپایدار به 1 flass در نظر گرفته می شود. اما اگر از Random Forest یا SVM استفاده کنیم چگونه می توان به سطح اطمینان طبقه بندی کرد؟
چگونه سطح اطمینان را برای SVM یا Random Forest تخمین بزنیم؟
84266
با استفاده از تابع «geeglm» از بسته «geepack» (معادله برآورد کلی)، شمارش را به عنوان وابسته به دو متغیر اسمی (عامل)، یک متغیر پیوسته با برهمکنش های مرتبه 3 و یک متغیر گروه بندی مدل کردم. این مدل است: m1<-geeglm(formula = dependent.var ~ cat.var1 * cat.var2 * contin.var، خانواده = poisson، id = گروه، corstr = مبادله) متغیر عامل _cat.var1_ دارای دو سطح است. (CD و WL)، متغیر عامل _cat.var2_ دارای دو سطح (SAH و SKA) است. _Group_ یک متغیر گروه‌بندی برای محاسبه خودهمبستگی بین موضوعات مرتبط است. با استفاده از تابع anova، متوجه شدم که تنها شرایط تعاملی مهم مدل **cat.var1: contin.var** و **cat.var2: contin.var** است. من می خواهم این دو تعامل را ترسیم کنم: من از کدهای زیر استفاده کرده ام، اما از خطوط مناسب راضی نیستم. **خط برای سطح CD _cat.var1_ در شکل اول همان خط برای سطح SAH از _cat.var2_ در شکل دوم است (به انجیر مراجعه کنید) – بنابراین فکر می کنم که آنها صحیح نیستند و نمی دانم چگونه این را حل کنیم ضرایب کدام مدل را برای ساختن آن خطوط باید استفاده کنم؟ ![cat.var1 : contin.var](http://i.stack.imgur.com/5omoS.jpg) ![cat.var2 : contin.var](http://i.stack.imgur.com/ e414Y.jpg) کدها: # 1st plot: cat.var1 : contin.var par(mfrow=c(1,1)) plot(contin.var, dependent.var, type=n) points(contin.var[cat.var1==WL], jitter(dependent.var[cat.var1==WL])) points(contin.var[cat.var1== CD]، jitter(dependent.var[cat.var1==CD])، pch=16) x <- seq(3,7,0.1) y1 <-exp(-0.1584 + 0.3474*x) خطوط (x,y1, lty=2) # CD y2 <-exp(-0.1584 + 3.7293 +(-0.6685 + 0.3474)*x) خطوط (x,y2, lty=1) # WL # نمودار دوم : cat.var2 : contin.var par(mfrow=c(1,1)) plot(contin.var, dependent.var, type=n) points(contin.var[cat.var2==SKA], jitter(dependent.var[cat.var2==SKA])) نقاط (contin.var[cat.var2==SAH]، jitter(dependent.var[cat.var2==SAH])، pch=16) x <- seq(3,7,0.1) y1 خطوط <-exp(-0.1584 + 0.3474*x) (x,y1, lty=2) # SAH y2 <-exp(-0.1584 + -6.9490 + (1.2249 + 0.3474)*x) خطوط (x,y2) # SKA در اینجا ضرایب مدل من است که برای تولید ارقام، خروجی ها استفاده می شود خلاصه(m1) (اصطلاحات معنی دار آماری - خروجی های anova(m1) \- با ستاره نشان داده می شوند **): ضرایب: تخمین (برق) -0.1584 cat.var1WL 3.7293 cat.var2SKA -6.9490 contin.var 0.34 * cat.var1WL: cat.var2SKA 3.9970 cat.var1WL: contin.var -0.6685 * cat.var2SKA: contin.var 1.2249 ** cat.var1WL: cat.var2SKA: contin.var -0.6860 متغیر عامل *cat.var1* دارای دو سطح (CD و WL) است. متغیر عامل *cat.var2* دو سطح دارد (SAH و SKA). داده‌ها در اینجا هستند: https://docs.google.com/file/d/0Bz8ojhHeiNclVi1oT0ZwTEtEN2s/edit
چگونه با استفاده از ضرایب مدل، یک عبارت تعاملی از مدل سه عاملی GEE با برهمکنش های مرتبه کامل (بسته جی پک) را رسم کنیم؟
29956
مدرس دوره یادگیری ماشینی که من در حال گذراندن آن بودم، این الگوریتم را بدون توضیح نحوه اعمال آن در یک مجموعه آموزشی به سرم زد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/k8jlS.png) m = تعداد مجموعه های آموزشی (3) j = زیرنویس 0 یا 1 x(i) = x از مجموعه آموزشی ith y(i) = y از iامین مجموعه آموزشی آلفا = ? h تتا = ? اگر یک مجموعه آموزشی از (1،1)، (2،2)، (3،3) داشتم، چگونه آن را وارد این الگوریتم می‌کردم؟
وارد کردن مقادیر در یک الگوریتم رگرسیون خطی / شیب نزولی
110137
من یک مجموعه داده دارم که شامل بردارهای ورودی طبقه‌ای با طول متغیر است که می‌خواهیم مقدار یک متغیر خروجی عددی را تخمین بزنیم. آیا امکان اعمال رگرسیون در این تنظیمات وجود دارد؟
رگرسیون از بردارهای ورودی با طول متغیر
94848
من مطمئن نیستم که از میانگین گیری میکرو یا کلان برای داده های خود استفاده کنم یا فقط باید هر دو را ارائه دهم؟ داده‌های کلاس‌های خاصی از ماتریس سردرگمی من بسیار بزرگتر از سایرین خواهد بود، بنابراین آیا این بدان معناست که باید از میانگین‌گیری میکرو استفاده کنم؟ به نظر می رسد این مرد چنین می گوید http://rushdishams.blogspot.co.uk/2011/08/micro-and- macro-average-of-precision.html با تشکر!
آیا در میانگین گیری کلان و میانگین گیری خرد اشتباه گرفته اید؟
114499
در فرآیند تصفیه آب، لازم است PH آب در 5/7 مثبت یا منفی 5/0 حفظ شود. دو روش درمانی در دسترس است. روش 1 میانگین pH 7.5 و انحراف استاندارد 1.0 را ارائه می دهد، در حالی که روش 2 میانگین pH 7.8 و انحراف استاندارد 0.5 را ارائه می دهد. فرض کنید PH از توزیع نرمال پیروی می کند. کدام روش از نظر به حداکثر رساندن مقادیر pH در مشخصات ارجح است؟ هر کمکی قابل تقدیر است
به حداکثر رساندن مقادیر pH بر اساس میانگین
48968
من فرآیندی دارم که به موجب آن اشیاء با عرض $W$ روی یک ژن با نرخ $F$ (در هر ثانیه، فرآیند پواسون، فرض کنیم) فرود می آیند و سپس با سرعت ثابت $V$ شروع به حرکت می کنند. من سعی می کنم سرعت رخ دادن برخوردها را تعیین کنم - یک شی قبلی به اندازه کافی سریع از مسیر خارج نشده است که جسم بعدی نمی تواند جا بگیرد (با توجه به اینکه عرض محدودی دارد) - آیا منطق زیر کار می کند؟ منطقه خطر عرض $W$ است، بنابراین شی موجود قادر خواهد بود از اتصالات بعدی برای $\tfrac{W}{V}$ ثانیه جلوگیری کند. و تعداد رسیدنهای مورد انتظار در $t$ ثانیه $F\times t$ است، بنابراین برای هر شی موجود ما انتظار داریم که $F\times \frac{W}{V}$ از اشیاء بعدی جلوگیری کند. بنابراین برای هر موفقیت، $k=F\times \frac{W}{V}$ 'fails' دریافت می‌کنیم، بنابراین نسبت تمام اشیایی که خراب می‌شوند $\frac{k}{1+k}$ است. و حدس می‌زنم می‌توانم در $F$ ضرب کنم تا نرخ شکست در ثانیه را بدست بیاورم. به طور مشکوکی ساده به نظر می رسد، و با یک شبیه سازی سریع و مسخره شده موافق نیست، اما من خیلی به مشکل نزدیک هستم که نمی توانم نقص را ببینم.
احتمال برخورد در صف های فرآیند پواسون
89571
در حال حاضر من در حال کار با یک مشکل تشخیص الگو هستم. من از یادگیری نظارت شده (شبکه عصبی و svm با یک طبقه بندی) استفاده کرده ام، اما فکر می کنم این کار را به روشی اشتباه انجام می دهم. برای ساده تر، مشکلی که در زیر توضیح خواهم داد فقط یک مثال است. برای تعیین الگو (به نام الگوی X)، داده های آموزشی زیر را دارم (4 ویژگی برای تعیین الگوی X): * 0،1،2،3،X * 1،0،4،7، X * 0، 0,6,5,X * 1,1,8,9,X و این داده های تست من است: 0,1,3,5,X ? همانطور که می بینید، دو عدد اول فقط اعداد باینری، عدد سوم فقط اعداد زوج و عدد چهارم فقط اعداد فرد را می پذیرد. با شبکه عصبی: فکر می کنم این مشکل برای شبکه عصبی مناسب نیست زیرا من فقط مقادیر واقعی را دارم. و شبکه عصبی باید با ارزش واقعی و نادرست آموزش داده شود. دیگر باید برعکس باشد؟ با طبقه‌بندی svm one: در حال حاضر از کتابخانه libsvm استفاده می‌کنم و دقت آن 0% است، نمی‌دانم آیا این مشکل از داده‌های آموزشی است یا نه... بنابراین برای پیدا کردن الگوی آن باید به یادگیری بدون سرپرست تغییر دهم. داده های آموزشی داده شده؟ خیلی ممنون
مشکل یادگیری تحت نظارت یا بدون نظارت؟
89574
معیارهای زیادی برای محاسبه تفکیک پذیری بین گروه ها وجود دارد: فاصله bhattacharya، فاصله Jeffries-Matusita، واگرایی (تبدیل شده) و اقدامات اطلاعاتی... در حالی که این معیارها میزان تفکیک گروه های داده را کمیت می کنند، آیا راهی برای می گویند اگر قابل تفکیک وجود ندارد؟
چه زمانی می توان گفت که دو گروه داده (یا بیشتر) از هم جدا نیستند؟
1637
مطمئنم که این را کاملا دور سرم پیچیده ام، اما نمی توانم آن را بفهمم. آزمون t دو توزیع نرمال را با استفاده از توزیع Z مقایسه می کند. به همین دلیل است که یک فرض عادی در داده ها وجود دارد. ANOVA معادل رگرسیون خطی با متغیرهای ساختگی است و از مجموع مربعات، درست مانند OLS استفاده می کند. به همین دلیل است که فرض نرمال بودن باقیمانده ها وجود دارد. چندین سال طول کشید، اما فکر می‌کنم بالاخره آن حقایق اساسی را درک کرده‌ام. پس چرا آزمون t معادل ANOVA با دو گروه است؟ چگونه می توانند معادل باشند، اگر آنها حتی چیزهای مشابهی را در مورد داده ها فرض نمی کنند؟
اگر آزمون t و ANOVA برای دو گروه معادل هستند، چرا مفروضات آنها معادل نیستند؟
41021
من باید برای واریانس برابر آزمایش کنم. من سعی کردم آن را بخوانم و اشاره کرد که چند تست وجود دارد که می توانم برای تست برابری واریانس استفاده کنم مانند F Test (نسبت F؟)، تست Levene، Test Bartlett و غیره. می خواستم بدانم آیا روش کیفی برای گفتن وجود دارد. آیا با استفاده از SD و میانگین دو مجموعه داده (هر دو به طور معمول توزیع شده اند) واریانس مساوی وجود دارد یا خیر؟ SD؟ نمیدونم چطوری بگم...کسی میتونه کمک کنه؟
واریانس برابر را تست کنید
114322
من به راهنمایی نیاز دارم که راه‌حل پیش‌بینی کلی برای مدل‌سازی قیمت محصولات در چنین موردی چیست: * من چندین مدل (نوع) از محصول را دارم * می‌خواهم قیمت‌های هر یک از این مدل‌ها را به‌صورت جداگانه، برای چند هفته پیش‌بینی کنم. پنجره * من داده های تاریخی بسیار خوبی برای هر مدل از 1-2 سال گذشته دارم (که **تحلیل سری زمانی** را اولین انتخاب واضح من می کند، اینطور نیست؟) * می دانم تعدادی **عوامل خارجی وجود دارد ** که ممکن است تأثیر بسیار مهم و فوری بر قیمت محصول دارند (احتمالاً برای هر مدل کم و بیش متفاوت است). سوالات من این است: 1. آیا پیش بینی سری های زمانی روش خوبی برای دنبال کردن است؟ شاید در این مورد نوعی پسرفت مناسب تر باشد؟ 2. کدام رویکرد را انتخاب کنیم تا این تأثیرات عوامل خارجی را به بهترین نحو در بر گیرد؟
پیش بینی قیمت محصول - شامل عوامل خارجی مهم است
72944
فرض کنید مشکل مدل‌سازی رگرسیون لجستیک داریم. $f(X) = Y$، که در آن $Y$ باینری است و $X$ بردار متغیرهای معمولی توزیع شده است. در صنعت گاهی اوقات اتفاق می‌افتد که پزشکان ردیف‌هایی از داده‌ها را حذف می‌کنند که در آن «هیچ چیز اتفاق نمی‌افتد» (طبق معیارهای الگوریتمی)، اغلب برای کاهش ابعاد رگرسیون (داده‌ها می‌توانند بسیار بزرگ شوند) یا به دلیل این تصور که این « هیچ اتفاقی نمی‌افتد» آن چیزی نیست که می‌خواهیم مدل کنیم - ما می‌خواهیم این مدل فقط زمانی را به تصویر بکشد که رویدادهای جالبی رخ می‌دهند. نیازی به گفتن نیست که این می‌تواند از تخمین‌های احتمال نمونه خارج شود (یعنی با توجه به X$ جدید، تخمین ما از $P(Y=1)$ مغرضانه است). یک نمایش سریع «R» این را نشان می‌دهد، جایی که فرآیند تولید داده واقعی نصف زمان $Y=1$ و نیمی دیگر از آن $Y=0$ است، اما رویکرد نمونه‌گیری فرعی ما این نسبت را به $\frac19$ دارد: پیش‌بینی‌ها <- تکرار(NA,1000) y <- c(rep(1,5000),rep(0,45000)) x <- rnorm(50000) #y <- c(rep(1,25000), rep(0,25000)) #x <- rnorm(50000) fit = glm(y~x,family=binomial(logit)) for(i در 1:1000) { newX = data.frame(x=rnorm(1)) predictions[i]=predict(fit,newX,type=response) } mean(predictions) plot(predictions) *** سوال *** آنچه می خواهم بپرسم این است که آیا تناسب ما، $\hat{f}$، به روش زیر قابل نجات است یا خیر. به ازای هر $X$ جدیدی که مشاهده می‌کنیم، فقط $\hat{P}(Y-1)$ را تخمین می‌زنیم اگر و فقط اگر از فیلتر ما عبور می‌کرد اگر این $X$ جدید بخشی از مجموعه داده‌های نمونه ما بود. به طور مستقیم می‌خواهم بگویم بله، زیرا در نمونه، فرآیند تولید داده‌ای را داریم که به طور مصنوعی ایجاد کردیم، $f_\text{intrusion}(X) = Y_\text{intrusion}$، و این همان DGP است که ما ترسیم می‌کنیم. از خارج از نمونه برای به دست آوردن تخمین های احتمال ما.
آیا می توان تخمین های رگرسیون لجستیک را که از سوء استفاده از نمونه های فرعی رنج می برند نجات داد؟
7519
جفریز قبلی را در نظر بگیرید که $p(\theta) \propto \sqrt{|i(\theta)|}$، که $i$ اطلاعات فیشر است. من مدام می بینم که این قبلی به عنوان یک پیشین غیر اطلاعاتی ذکر می شود، اما هرگز استدلالی ندیدم که چرا غیر اطلاعاتی است. از این گذشته، این یک پیشین ثابت نیست، بنابراین باید استدلال دیگری وجود داشته باشد. من می دانم که این به پارامترسازی مجدد بستگی ندارد، که من را به سؤال بعدی می کشاند. آیا عامل تعیین کننده اطلاعات فیشر به پارامترسازی مجدد بستگی ندارد؟ زیرا اطلاعات فیشر قطعا به پارامتری شدن مسئله بستگی دارد. با تشکر
چرا پیشینیان جفریز غیر اطلاعاتی در نظر گرفته می شوند؟
7511
ما با یک دستگاه اندازه گیری روبرو هستیم که توسط نویز نفرین شده است و سعی می کنیم بفهمیم که آیا یک اندازه گیری نویز بوده یا یک اندازه گیری واقعی. فرض کنید یک پرتو نور در یک آرایه مربعی از آشکارسازهای عکس داریم. شمار اندازه گیری شده در لوله های جداگانه از آمار پواسون پیروی می کند. یک پرتو معمولی نور را در 4 لوله عکس توزیع می کند که بیشتر آنها در نزدیکترین لوله به نقطه برخورد هستند. نویز بدون همبستگی توزیع می شود. می‌توانیم توزیع‌های شمارش را برای مکانی که می‌دانیم یک پرتو واقعی برخورد کرده‌ایم، و برای مکانی که می‌دانیم هیچ پرتویی وجود ندارد، اندازه‌گیری کنیم. از این اندازه‌گیری‌ها، می‌توانیم PDF شمارش تجربی برای اندازه‌گیری‌ها در لوله‌های جداگانه، $p_{i,\,\rm{true}}$ و $p_{i,\,\rm{نویز}}$ بسازیم. از آنجایی که برای اندازه‌گیری نویز، شمارش‌ها در لوله‌های مجزا همبستگی ندارند، حدس می‌زنم که $$ P_\mathrm{noise} = \prod_i p_{i,\,\mathrm{noise}} $$ حدس خوبی برای احتمال خواهد بود. که این اندازه گیری نویز بود. آیا می توانم از عبارت مشابه $$ P_\mathrm{true} = \prod_i p_{i,\,\mathrm{true}} $$ استفاده کنم حتی اگر تعداد برای حالت true مرتبط باشد؟
احتمال بسازید که اندازه گیری متعلق به یکی از دو مجموعه است
72947
من یک مجموعه داده گذشته نگر از بیمارانی دارم که با یک داروی خاص (درمان، $n=46$) یا با دارونما (کنترل $n=96$) درمان شده اند. متغیرهای ذخیره شده عبارتند از سن، جنس، مرحله بیماری. من می خواهم تأثیر درمان را بر بقای کلی با امتیاز گرایش ارزیابی کنم. در اینجا مراحلی را که دنبال کردم آمده است: 1. امتیاز تمایل را با یک مدل رگرسیون لجستیک باینری با استفاده از درمان به عنوان متغیر وابسته و سن، جنس، مرحله به عنوان متغیرهای کمکی محاسبه کردم. 2. من از تطبیق فازی برای ایجاد تطابق 1:1 با تلرانس 0.05 استفاده کردم. 3. موارد بی همتا را حذف کردم و مجموعه داده ای از 46*2 مورد (46 مورد درمان، 46 کنترل) به دست آوردم. 4. من از مدل رگرسیون متناسب کاکس با استفاده از امتیاز تمایل و درمان به عنوان متغیرهای کمکی استفاده کردم. آیا روش من صحیح است؟ من از SPSSv19 استفاده می کنم.
امتیاز تمایل و رگرسیون کاکس
110136
من در حال کار بر روی یک مدل پیش‌بینی برای یک متغیر پیوسته (میزان داروی تزریقی) هستم. من از R برای مدل‌سازی استفاده می‌کنم. جریان پروژه من این است که پیش‌بینی یک مدل glm (رگرسیون لجستیک) را ضرب کنم که برای پیش‌بینی 0/1 استفاده می‌شود. یک دارو اصلاً با مدل lm (رگرسیون خطی) تزریق شد که از آن برای پیش بینی مقدار داروی تزریق شده استفاده می شود - این مدل در R .مشکل من نسبتاً خوب عمل می کند. این است که وقتی این مدل را به MSSQL منتقل می‌کنم، مقادیر مختلفی برای پیش‌بینی دریافت می‌کنم (یعنی برای یک ردیف تصادفی، مقدار R 400 و در SQL مقدار همان ردیف 640 است. مدل در SQL با پیوست کردن آن ساخته می‌شود. ضرایب را از مدل glm مدل می کند تا مقادیر پیش بینی glm را تولید کند و سپس آن را با مقادیر پیش بینی مدل lm ضرب کند متوجه نمی شوم اگر از ضرایب یکسان استفاده کنم، این کد برای مدل های lm و glm در r است: d7_lm<-lm(Ttl_Inject~UserSource+IsNewIndividual+IsCross,data=train) d7_glm<-glm(Is_Injected~UserSource+IsNewIndividual+IsCross,data=train) در اینجا بخشی از کد r برای پیش بینی آمده است: demo$d7_lm_pred<-predict(d7_lm,newdata=demo,type='response) demo$d7_glm_pred_response<-ifelse(predict(d7_glm,newdata=demo,type='response')>0.5,1,0) demo$glm01_lm_response<-demo$d7_lm_pred*demo$d7_response از پیش نمایشی استفاده شده است مقادیر مدل در اینجا بخشی از کد SQL آمده است: TOP 1000* را انتخاب کنید، InjectionAmount_pred= (-2.213e -1.180e+00*(مورد زمانی که User='IAF' سپس 1 other 0 پایان)-1.665e+00*(مورد زمانی که UserSource ='Viral' سپس 1 other 0 end) +IsNewIndividual * 1.167e+00+IsCross ) * IIF((1 / (1 + EXP(-(-1.346e-03+1.140e-02*(مورد زمانی که UserSource='IAF' سپس 1 other 0 پایان) -2.975e-03 *(مورد زمانی که UserSource='Viral' سپس 1 other 0 به پایان برسد) -IsNewIndividual * 1.503e-04 + IsCross ))))> 0.5،1،0)
تفاوت بین پیش بینی در R و SQL
92394
این مقاله از مدل های خطی تعمیم یافته (توزیع خطای دو جمله ای و منفی) برای تجزیه و تحلیل داده ها استفاده می کند. اما سپس در بخش تجزیه و تحلیل آماری روش ها، این عبارت وجود دارد: > ... و دوم با مدل سازی داده های حضور با استفاده از رگرسیون لجستیک > مدل ها، و داده های زمان جستجو با استفاده از یک مدل خطی تعمیم یافته (GLM). توزیع دوجمله ای منفی با تابع پیوند ورود به سیستم برای مدل سازی داده های زمان جستجو (ولش و همکاران 1996) و کفایت مدل با بررسی باقیمانده ها تأیید شد (McCullagh & Nelder 1989). از آزمون‌های Shapiro-Wilk یا > Kolmogorov-Smirnov برای تست نرمال بودن بسته به اندازه نمونه استفاده شد. داده ها قبل از تجزیه و تحلیل برای پایبندی به نرمال بودن، تغییر شکل داده شدند. اگر آنها توزیع خطای دو جمله ای و منفی دو جمله ای را فرض کنند، پس مطمئناً نباید نرمال بودن باقیمانده ها را بررسی کنند؟
بررسی باقیمانده ها برای نرمال بودن در مدل های خطی تعمیم یافته
48966
من در عرصه روانشناسی رشد کار می کنم. اغلب مقالات از رگرسیون برای استخراج تابعی از سن بر روی یک امتیاز در یک گروه معمولی گزارش می‌دهند و سپس این تابع را برای یک گروه غیر معمول دوم به کار می‌برند، باقیمانده‌ها را ذخیره می‌کنند و سپس آنها را با توجه به میانگین گروه‌ها و انحراف استاندارد به امتیاز z تبدیل می‌کنند. من تابع رگرسیون intercept و شیب را استخراج کردم، برای مثال 5.5 + (0.05*سن) و آن را برای همه کودکان اعمال کردم. سپس باقیمانده (واقعی - پیش بینی شده) برای همه کودکان محاسبه شد. سپس معادله z (z = x - میانگین / sd) را با استفاده از میانگین و SD باقیمانده‌های خام گروه‌های معمولی اعمال کردم. این منجر به میانگین صفر و sd از 1 برای گروه معمولی می شود و میانگین z امتیازات بسیار کمتری (همانطور که ممکن است انتظار می رود) در گروه غیر معمولی باشد. جایگزین این بود که از میانگین و sd گروه معمولی استفاده نکنید و نمرات z را از همه کودکان گروه ایجاد کنید، به این ترتیب میانگین نمرات z گروه TD اکنون بالاتر از صفر است و نمرات z منعکس کننده فاصله از میانگین است. فقط از نمونه من سوال من این است که آیا وقتی دیگران از آن برای استانداردسازی نمونه استفاده می کنند، منظور این است و آیا در هر دو روش محاسبه این امتیازات اشتباهی وجود دارد؟ پیشاپیش ممنون
نمرات Z به دست آمده از یک معادله رگرسیون در یک گروه برای گروه های دیگر اعمال می شود
92875
من نمونه ای دارم که توسط 200000 پروژه تشکیل شده است. هر پروژه با توجه به اندازه آن ($S$) و حضور کاربران فعال ($U$) تعریف می شود. مقادیر $S$ بزرگتر از صفر است. از سوی دیگر، $U$ یک متغیر باینری است (1 اگر پروژه دارای کاربران فعال باشد، 0 در غیر این صورت). من می خواهم بررسی کنم که آیا $S$ و $U$ به یکدیگر مرتبط هستند یا خیر. از آنجایی که نتوانستم رابطه مستقیمی بین $S$ و $U$ پیدا کنم، پروژه ها را با توجه به اندازه آنها سفارش دادم (ترتیب صعودی). سپس پروژه‌ها را در 10 گروه (20000 پروژه در هر گروه) دسته‌بندی کرده‌ام و برای هر گروه، تعداد پروژه‌هایی که کاربران فعال دارند را شمارش کرده‌ام. از آنجایی که به نظر می رسد تعداد پروژه هایی که کاربران فعال دارند از یک گروه به گروه بعدی افزایش می یابد، می خواهم بدانم چگونه باید ادامه داد. منطقی است که یک تحلیل رگرسیون خطی بین مجموع اندازه پروژه در هر گروه و تعداد کاربران فعال در هر گروه اجرا شود؟ آیا باید از آزمون همبستگی استفاده کنم؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/48Kxa.png)
رگرسیون خطی بر روی داده های گروه بندی شده
111669
آیا راهی برای شناسایی زمان استفاده از تحلیل سری زمانی یا پردازش سیگنال وجود دارد؟ 1. تجزیه و تحلیل داده های سری زمانی را می توان به پردازش سیگنال و تجزیه و تحلیل سری زمانی معمولی تقسیم کرد. 2. در پردازش سیگنال داده ها در حوزه فرکانس یا زمان تجزیه و تحلیل می شوند. در حوزه فرکانس، تجزیه و تحلیل طیفی با استفاده از تحلیل فوریه یا موجک انجام می شود. 3. روش های تحلیل سری زمانی معمولی به دو روش پارامتری و غیر پارامتری تقسیم می شوند. به عنوان مثال: مدل ARIMA. چرا در برخی موارد آنالیز موجک انجام می شود؟ این به ویژه از سیگنال های داده خام از فرآیندهای مکانیکی انجام می شود. آیا نمی توانم ARIMA را روی این داده های سیگنال خام انجام دهم؟ آیا پارامترهایی وجود دارد که بتوانم تشخیص دهم که چه زمانی از تحلیل موجک یا مدل ARIMA با توجه به یک سری داده استفاده کنم؟
تجزیه و تحلیل سری زمانی در مقابل پردازش سیگنال آماری
114496
من می خواهم همبستگی بین متغیرهای تصادفی $Q$ و $R$ را استنباط کنم، با این حال، من فقط به توزیع $Q$ و توزیع $P=Q+R$ دسترسی دارم. ما می‌توانیم ببینیم که $\rho$ پیرسون در اینجا چگونه ظاهر می‌شود: $\sigma^2_P=\sigma^2_Q+\sigma^2_R+2\sigma_Q \sigma_R \rho$ اساساً مطمئن هستم که تنها با این اطلاعات، نمی‌توان تخمین زد. $\rho$. اما من به یک ترفند جالب فکر کردم. روشی برای $Q$ وجود دارد به طوری که برای توزیع اولیه $Q_0$، توزیع جدید با یک $k_Q$ ثابت مقیاس بندی می شود به طوری که $k_Q Q_0=Q_k$. می‌توانیم $k_Q$ را از نسبت $\mathrm{E}[Q_k]/\mathrm{E}[Q_0]$ محاسبه کنیم. سوال این است که آیا $R$ نیز تحت تاثیر قرار می گیرد و البته ما نمی توانیم $R$ را مستقیماً اندازه گیری کنیم. ما می توانیم اثر میانگین را روی $R$ اندازه گیری کنیم. $\mathrm{E}[R]=\mathrm{E}[Q+R]-\mathrm{E}[Q]$ برای درمان‌شده و درمان‌نشده. اگر من یک فرض را بکنم: آن درمان نیز $R$ را با یک $k_R$ ثابت تحت تاثیر قرار می دهد، به طوری که $k_R R_0=R_k$، به دست می آوریم: $\sigma^2_P=k_Q^2\sigma^2_Q+k_R\sigma^2_R +2k_Q k_R\sigma_Q \sigma_R \rho$ دو معادله و دو مجموعه اندازه گیری داریم... توزیع $Q_0$ و $Q_0+R_0$، و سپس $Q_k$ و $Q_k+R_k$، که از آن‌ها می‌توانیم دو واریانس را محاسبه کنیم، و $k_Q$، $k_R$ از تفاوت‌های میانگین‌ها. بنابراین ما می توانیم با استفاده از دو معادله واریانس، برای $\sigma_R$ و $\rho$ حل کنیم. و من این کار را انجام داده ام. و یک خروجی معقول به دست می دهد... سوال: آیا با توجه به داده هایی که باید آزمایش کنم، آیا راهی وجود دارد که آیا فرض من در مورد مقیاس بندی $R$ منطقی است؟ باز هم، این بر اساس مشاهدات تجربی است. من _نمی توانم_ توزیع مشترک را اندازه گیری کنم.
استنتاج rho پیرسون از اغتشاش توزیع
40378
من می‌خواهم بررسی کنم که آیا تفاوت قابل‌توجهی بین سلول‌های CD4 در سه نقطه زمانی مختلف پس از عفونت ویروسی وجود دارد یا خیر. من می توانم افزایش جمعیت CD4 را ببینم، اما چگونه می توانم بفهمم که این افزایش از نظر آماری معنی دار است؟ من این مطالعه را روی موش ها انجام داده ام و در هر زمان 3-6 موش داشتم.
چگونه بفهمیم که آیا تغییر در جمعیت CD4 در مقاطع زمانی مختلف قابل توجه است؟
7512
بهترین راه برای همبستگی متغیرهای شمارش تورم صفر با حجم نمونه کوچک (n=~50 و N=99) چیست؟
همبستگی تورم صفر
89570
من با داده های بیولوژیکی کار می کنم. این پروژه در مورد مقایسه ترکیب میکروبیوتا در نمونه‌های مختلف با رژیم غذایی متفاوت است. طرح آزمایشی این پروژه به شرح زیر است: 1) رژیم غذایی فاکتور -> سطوح: الف) پایه ب) نان سفید (wb) ج) نان جو (bb) 2) فاکتور پاسخ داده شده (در صورت داشتن گلوکز خون بالا) -> سطوح: الف ) پاسخ دهندگان ب) غیر پاسخ دهندگان چنین خواهد بود: خط مبنا wb bb خط مبنا wb bb |____________________| |____________________| Responders nonresponders من تفاوت زیادی بین مقدار یک باکتری در bb-responders و bb-nonResponders دیده ام. از آنجایی که داده ها معمولاً منطقه بندی نمی شوند، اگر از ttest استفاده کنم، مقدار قابل توجهی دریافت نمی کنم. یکی به من پیشنهاد کرد که از آزمون U Mann Whitney استفاده کنم اما مطمئن نیستم از چه نوع تستی استفاده کنم! میشه لطفا در این مورد به من کمک کنید؟
از چه نوع آزمون آماری برای داده های خود استفاده کنم؟
19373
من در حال خواندن مقاله ای در مورد مطالعه هستم که در آن تعدادی از پاسخ دهندگان سؤالاتی را دریافت کردند که آنها را با استفاده از مقیاس 1-5 درجه بندی کردند. در نتیجه، نویسندگان نوشتند که به مدل های رگرسیون چندگانه خطی برای متغیر وابسته تلفیقی N رسیدند. این به چه معناست؟ (افشا: من دانشجوی آمار ریاضی نیستم، پس لطفا از اصطلاحات غیرمجاز استفاده کنید)
به مدل های رگرسیون چندگانه خطی رسیدیم به چه معناست؟
92878
من تازه وارد رگرسیون لجستیک باینری هستم. من نمی دانم که آیا این آزمایش بر اساس مجموعه داده های من نتایج واقعی را به من می دهد یا خیر. متغیر وابسته من وجود STEC در نمونه های مدفوع خواهد بود (حضور = بله، عدم حضور = خیر). من 9 متغیر مستقل دارم: فصل: زمستان = 0، تابستان = 1 موقعیت جغرافیایی: شهری = 0، روستایی = 1 سیستم های تولید: حیاط خلوت / گسترده = 0، فشرده / نیمه فشرده = 1 سن: <12 ماه = o، > 12 ماه = 1 شیردهی: گاو خشک = 0، گاو شیرده = 1 درمان آنتی بیوتیکی: خیر = 0، بله = 1 برابری تعداد: بدون برابری = 0، عدد برابری > 1 = 1 خوراک: علوفه = 0، سایرین = 1 وضعیت سلامت: بیماری = 0، سالم = 1 آیا می توان همه این پیش بینی کننده ها را شامل شود؟ آیا باید از بلوک استفاده کنم؟ من کمی گیج هستم لطفا کمکم کنید؟
رگرسیون لجستیک باینری
93210
من در حال نظارت بر وب سایتی هستم که در آن دو نوع کاربر دارم (مثلاً A و B). این کاربران می توانند به روش های مختلف در این سایت مشارکت کنند و برای هر مشارکت، زمان آن ثبت می شود. چیزی که می‌خواهم مقایسه کنم که آیا تعداد روزهایی که کاربر فعال است (به نوعی مشارکت می‌کند) بین انواع کاربران متفاوت است. من وب سایت را از زمان شروع آن تا چهار ماه پیش زیر نظر دارم. نه همه کاربران به محض ایجاد سایت به آن ملحق شده اند و نه کاربرانی که در ابتدا به آن پیوسته اند هنوز هم مشارکت دارند. آیا تحلیل بقا برای این مقایسه مناسب است؟
آیا تحلیل بقا برای این مقایسه مناسب است؟
89577
کتاب درسی من می گوید که فاصله اطمینان 100$(1-\alpha)\%$ برای $p$ به شکل زیر است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ZLnDB.png) همچنین اشاره می کند که این فقط برای زمانی کار می کند که $n$ بزرگ باشد و $p$ خیلی نزدیک به 0 یا 1 نباشد. سعی شد با تمرین زیر مشکل را نشان دهد: ![توضیح تصویر را وارد کنید. اینجا] (http://i.stack.imgur.com/VQjzy.png) من نمی‌دانم تمرین می‌خواهد چه چیزی را نشان دهد. به طور خاص، به دست آوردن فواصل با اطمینان تقریباً 95٪ دشوارتر به چه معناست؟ همچنین در پاسخ می گوید اگر $p$ بین $0.1$ و $0.9$ باشد، بازه ما همیشه $p$ را پوشش می دهد. من نمی بینم که چگونه این از 8.10 درست است.
وقتی $n$ کوچک و $p$ نزدیک به 0 یا 1 باشد، مشکلی که برای فاصله اطمینان برای نسبت واحد با آن مواجه می‌شویم چیست؟
92876
من می خواهم لحظه ها و چندک های یک متغیر تصادفی را که خروجی یک حسگر است محاسبه کنم. من قصد ندارم تمام مقادیر خروجی این سنسور را ذخیره کنم (مثلاً هر 15 دقیقه یک مقدار را خروجی می‌کند)، بلکه دسته‌هایی از این مقادیر را نگه می‌دارم (مثلاً یک دسته دو هفته‌ای) که هر از گاهی دور می‌اندازم. . من در نظر داشتم تابع چگالی احتمال دسته ای از خروجی ها را با کرنل دانسیته scikit تخمین بزنم. سپس دسته را دور می اندازم و وقتی دسته جدیدی از مقادیر را بدست می آورم، تخمین چگالی احتمال را با این مقادیر جدید به روز می کنم. من می دانم که تابع چگالی احتمالی که من برای هر دسته به طور جداگانه تخمین می زنم تقریباً به طور قطع به چگالی واقعی همگرا می شود، اما نمی دانم اگر چگالی را به صورت افزایشی همانطور که در پاراگراف بالا تعریف شده محاسبه کنم، همچنان برقرار است یا خیر. آیا این راهی است که من باید انجام دهم؟
لحظه و چندک یک جریان داده را محاسبه کنید
107878
با توجه به مدل ANCOVA زیر: $Y_{ij}=\mu+\alpha_i+\beta X_{ij}+\epsilon_{ij}$, $e_{ij}\sim N(0,\sigma^2)$ i.i.d., $ \alpha_1=0$, $i=1,..., m$, $j=1,..., n$ با توجه به اینکه قبلاً محاسبه کرده ام $SC_{W}=\sum_i\sum_j(y_{ij}-\bar{y}_{i.})(x_{ij}-\bar{x}_{i.})$ و $SS_W(X )=\sum_i\sum_j(x_{ij}-\bar{x}_{i.})^2$ چگونه می توان ضریب تعیین $R^2$ را در این مدل محاسبه کرد و فرمول آن چیست انجام این کار؟
ضریب تعیین در ANCOVA چگونه محاسبه می شود؟
92872
نشان دهید که $Y_1$، آمار مرتبه اول تخمین‌گر ثابت پارامتر $\alpha $ یک توزیع یکنواخت با $\beta = \alpha+1$ است در اینجا $f_{Y(1)}(y_1)= \begin {cases} n*[1-(y_{(1)}-\alpha)]^{n-1} و {\alpha <Y_{(1)}< \beta} \\\ 0, & \text{وگرنه} \\\ \end{cases}$ طبق تعریف اگر $P[|Y_{(1)}-\alpha|<\epsilon]$ به عدد 1 نزدیک شود زیرا n برای همه $\ به بی نهایت می رود epsilon >0$ سپس $Y_1 $ یک تخمین‌گر ثابت برای $\alpha است. $ بنابراین، $P[|Y_{(1)}-\alpha|<\epsilon]$=$P[\alpha - \epsilon< Y_{(1)}<\alpha +\epsilon]$. سوال من در مورد محدودیت های ادغام است. حد پایین و بالای $\int n*[1-(y_{(1)}-\alpha)]^{n-1} dy_{(1)}$ be چیست؟ باید از $\alpha$ به $\alpha + \epsilon$ یا از $\alpha $ به $\beta$ باشد. من فکر می‌کنم باید از طرف باشد زیرا این باید برای هر مقدار $\epsilon $ کار کند و اگر محدودیتی را به عنوان $\alpha$ به $\alpha + \epsilon$ قرار دهم، آنگاه $\beta = \alpha+1$ را نقض می‌کند. یک $\epsilon$ خاص. لطفاً به من بگویید که چه حدی باید باشد تا نشان دهد که این یک برآوردگر ثابت است
نشان دادن یک برآوردگر سازگار است
7513
آیا کسی می تواند نکاتی را در مورد نحوه استفاده از آرگومان وزن در تابع lm R ارائه دهد؟ مثلاً سعی می‌کردید مدلی را بر روی داده‌های ترافیکی تطبیق دهید، و چند صد ردیف داشتید که هر کدام نشان‌دهنده یک شهر (با جمعیت متفاوت) بود. اگر می‌خواهید این مدل تأثیر نسبی هر مشاهده را بر اساس اندازه جمعیت تنظیم کند، آیا می‌توانید به سادگی «وزن‌ها=[ستون حاوی جمعیت شهر]» را مشخص کنید؟ آیا این نوعی بردار است که می تواند به وزن وارد شود؟ یا آیا باید به طور کامل از یک تابع/بسته/رویکرد R متفاوت استفاده کنید؟ کنجکاو هستم که بشنوم مردم چگونه با این یکی برخورد می کنند - در هیچ یک از آموزش های مدل سازی خطی که در آنجا دیدم، آن را پوشش ندادم. با تشکر
چگونه از وزن ها در تابع lm در R استفاده کنیم؟
108765
راجرز و کانر (2003) توضیح می‌دهند که چگونه اندازه‌گیری‌های صداگذار از راه دور را می‌توان به درستی با در نظر گرفتن تفاوت‌ها در میانگین هسته‌ها و کوواریانس‌های خطا مقایسه کرد. آنها فرض می کنند که پروفیل ها در یک شبکه عمودی نشان داده شده اند. راجرز (2000، بخش 3.1) چگونگی تبدیل بردار حالت و کوواریانس خطا را برای قرار دادن آنها در یک شبکه توضیح می دهد: > اگر قصد داریم بازیابی های MAP را در شبکه های مختلف مقایسه کنیم، باید اطمینان حاصل کنیم که > مشابه را با مشابه مقایسه می کنیم. نه تنها حالت باید به درستی تبدیل شود، بلکه کوواریانس قبلی نیز باید تغییر کند. (...) یک کوواریانس مورب با > عناصر مثلاً 100 K^2 در شبکه ای با فاصله 1 کیلومتر معادل > واریانس مشابه در شبکه ای با فاصله 2 کیلومتری نیست. (...) ... و به تشریح جزئیات چگونگی انجام این کار ادامه می دهد. با این حال، هیچ یک از این اسناد نحوه تبدیل صحیح ماتریس هسته میانگین را توضیح نمی دهد. روش صحیحی برای تبدیل میانگین ماتریس هسته $\mathbf{A}$ چیست؟ نکته ای که راجرز برای ماتریس کوواریانس بیان می کند برای ماتریس میانگین هسته نیز به همان اندازه اعمال می شود. به هر حال، تعداد درجات آزادی ($tr(\mathbf{A})$)، برای مثال، نباید تغییر کند تا ماتریس تبدیل شده با ماتریس قدیمی سازگار بماند. * * * راجرز، کلایو دی. روش‌های معکوس صداگذاری جوی: تئوری و عمل. جلد 2. سنگاپور: علمی جهانی، 2000. Rodgers, C. D. and B. J. Connor (2003), Intercomparison of remote sounding instruments, J. Geophys. Res., 108(D3), 4116, doi:10.1029/2002JD002299.
در تئوری معکوس، چگونه می توانم ماتریس میانگین هسته را به یک شبکه جدید تبدیل کنم؟
88624
در مثال ذکر شده در این سند برای تجزیه و تحلیل بقا در مورد نحوه تعریف بازه های زمانی، می گوید که منطق ایجاد متغیرهای زمانی این است که، اگر موضوعی هیچ رویدادی نداشته باشد، یک فاصله واحد از 0 تا آخرین پیگیری وجود دارد. ، با وضعیت 0. اگر رویدادهایی وجود داشته باشد، پس برای هر رویداد یک فاصله زمانی وجود دارد (0، رویداد1]، (رویداد1، رویداد2]، و غیره. هر کدام با وضعیت =1. اما اگر موضوع رویدادهای متفاوتی داشته باشد چه می شود. در بازه زمانی 1 و 2 هر دو در بازه زمانی 219 تا 373 از کار افتادند؟ از 8-241 مشاهده شد، آیا باید نگران فاصله زمانی 0-8 برای موضوع 2 باشم 0 1 rIFN-g 1 219 373 1 2 rIFN-g 1 373 414 0 3 rIFN-g 2 0 8 1 1 دارونما 2 8 26 1 2 دارونما 2 26 152 1 3 دارونما 2 152 414 <\-مکان coxph(Surv(tstart، tstop، status) ~ درمان + جنس + سن + ارث + خوشه (id)، داده = cgd)
سوال در مورد ورود دیرهنگام در آنالیز بقا
88620
من یک سری مطالعات پزشکی دارم که می خواهم خلاصه آنها را بیان کنم. هر مقاله یک جزء در خون (آن را ماده X می نامند) در بیماران مبتلا به همان بیماری اندازه گیری می کند. علاوه بر این، هر مقاله بیماران را به عنوان مبتلا به بیماری خفیف، متوسط ​​یا شدید طبقه بندی کرده است (اگرچه برخی فقط به عنوان متوسط ​​/ شدید دسته بندی می کنند). آنها اندازه گیری را برای هر بیمار ارائه نمی دهند و فقط X را به عنوان میانگین +/- S.D گزارش می کنند. فرضیه من این است که سطح X در بیماران مبتلا به بیماری شدیدتر افزایش می یابد. کاری که من می‌خواهم انجام دهم این است که یک مقدار p تولید کنم که این را نشان می‌دهد. من می‌توانم یک آنالیز واریانس یک‌طرفه ساده انجام دهم، اما فرضیه صفر من این خواهد بود که «میان X و شدت بیماری رابطه‌ای وجود ندارد»، اما اگر X در بیماری خفیف بیشترین و در بیماری شدید کوچک‌ترین باشد، باز هم به‌عنوان معنی‌دار ثبت می‌شود. چگونه می توانم ویژگی ترتیبی خفیف/متوسط/شدید را در نظر بگیرم و فقط در صورت خفیف < متوسط ​​< شدید، اهمیت داشته باشم؟
متاآنالیز آنوا یک طرفه
88628
فرض کنید $ X = X_1 + X_2،...+ X_n $، جایی که $\; X_i \sim N(0,\sigma^2)$ و مستقل. سوال من این است که چه توزیعی $$ Z = \frac{X^2}{X_1^2 + X_2^2 + ... + X_n^2} \;\;\; (1)$$ به شرح زیر است. از اینجا می‌دانم که نسبت دو متغیر تصادفی مجذور کای که به صورت $\frac{W}{W + Y}$ بیان می‌شود، از توزیع $بتا$ پیروی می‌کند. من فکر می کنم که این استقلال بین $W$ و $Y$ را فرض می کند. در مورد من (1) هر چند، مخرج $Z$ اجزای $X$ مجذور است. من فکر می‌کنم که $Z$ نیز باید از نوعی توزیع $beta$ پیروی کند، اما مطمئن نیستم. و اگر این فرض درست باشد، نمی دانم چگونه آن را ثابت کنم.
توزیع نسبت متغیرهای تصادفی کای دو وابسته
96550
من یک محقق بالینی هستم و مطالعه ای را برای یافتن عواملی که بر کیفیت تصویر یک دستگاه چشم تأثیر می گذارد، انجام داده ام. کیفیت تصویر به عنوان قابل قبول یا غیرقابل قبول (2 گروه) طبقه بندی شده است و عوامل تعیین کننده آن عبارتند از تیرگی رسانه (می تواند درجه 1، 2، یا 3)، آب مروارید (موجود/غایب)، اندازه دیافراگم چشم (1) - 10 میلی متر)، سن (20 تا 60 سال) و جنسیت (مرد / زن). چگونه باید در مورد توصیف نتایج و توصیف تأثیر این عوامل خطر اقدام کنم؟
چگونه تأثیر مجموعه ای از عوامل خطر را بر یک پاسخ توصیف می کنید؟
92874
من یک آزمایش ساده را تحت چهار شرط اجرا کرده ام: کنترل، تکنیک A، تکنیک B، و تکنیک C (که a+b است) متغیر وابسته سازگاری است (به عنوان مثال بله/خیر) این نتایج من است (25 شرکت کننده در هر گروه) : کنترل-- بله: 9 خیر: 16 فناوری A-- بله: 17 خیر: 8 فناوری B-- بله: 18 خیر: 7 فناوری C (a+b)-- بله: 24 خیر: 1 چندین فرضیه** دارم. _First_ تکنیک A را با کنترل مقایسه می کند، با استفاده از خوب بودن چی، و اهمیت را نشان می دهد. _دوم_ تکنیک B را با کنترل مقایسه می کند، با استفاده از خوب بودن چی، و اهمیت را نشان می دهد. _سوم_ تلاش می کند ثابت کند که تکنیک C به صورت مجزا از تکنیک A یا تکنیک B موثرتر است. برای انجام این کار، من از آزمون دقیق فیشر برای مقایسه A با C، و سپس B با C در دو جدول احتمالی 2×2 استفاده می‌کنم (به دلیل مقدار کم در تکنیک C، از فیشر استفاده می‌کنم). اینها نیز اهمیت خود را نشان داده اند. **پس این مختصر است!** سؤالات اصلی من (عمدتاً نظری) عبارتند از: 1) برای تست **خوبی تناسب چی، از کدام اندازه اثر استفاده می کنید**؟ به من می گویند Cramer's V، Phi، Omega و W! (به نظر می‌رسد که پاسخ‌های بیشتری برای تست تداعی چی وجود دارد، اما برای تست تناسب چی خوب نیست) 2) آیا می‌توانید از **نسبت شانس برای تمجید از تست تناسب چی استفاده کنید؟ اگر بله، این به ما چه می گوید؟ شاید شانس بله در یکی از تکنیک ها در مقایسه با کنترل اتفاق بیفتد؟ 3) برای **تست های دقیق فیشر** برای دو جدول احتمالی 2*2: من دوست دارم از برخی **تحلیل های پس از انجام** یا حتی اندازه گیری اندازه اثر/شانس استفاده کنم تا نتایج خود را جالب تر از یک فیشر ساده کنم. آزمون اهمیت - اما من نمی دانم چه چیزی می توانم استفاده کنم! 4) من نگران **تصحیح تست های متعدد در آزمون فیشر هستم.** آیا لازم است این کار را برای فرضیه 3 انجام دهم؟ شاید سطح معنی داری را بر 2 تقسیم کنید زیرا این مقدار جداول است؟ یا از نوعی تست بونفرونی استفاده کنید؟ با تشکر فراوان از آماردانان!
چی خوب و فیشر: برخی مسائل نظری پس از آزمایش
93211
من فقط به من گفته بودم که نمی توان به طور منطقی از آمارهای غیر پارامتریک استنباط کرد. این به نظر من به همان اندازه پوچ به نظر می رسد که به نظر می رسد جایگزین منطقی منطقی و منطقی برای نمونه گیری مجدد ضد واقعی/رتبه بندی جایگزین (و غیره)، معادل منطق رویکردهای مکررگرا باشد. کجا/چه تفاوتی در منطق وجود دارد؟ آیا استنباط به جامعه از آزمون های غیر پارامتری منطقی است؟
آیا استنباط به جامعه از آزمون های ناپارامتریک منطقی است؟
19377
آیا خروجی «fft()» R نرمال شده است یا خیر؟ به عبارت دیگر، آیا باید قبل از محاسبه زاویه فاز با استفاده از «atan2()» ابتدا خروجی را عادی کنم؟ در مورد یک موضوع مرتبط، آیا کسی می داند که چه تغییر فازی در تابع fft() R استفاده می شود؟
آیا برای محاسبه زاویه فاز از خروجی fft غیر نرمال یا نرمال شده از R استفاده می کنم؟
19375
من یک سری زمانی بسیار طولانی دارم (حدود یک گیگابایت با فرمت ascii) که به این صورت است: 1، 0.5 2، 0.52 3، 0.3. . . نقاط در نقاط زمانی اعداد صحیح رخ می دهند و عمدتاً 1 ثانیه از هم فاصله دارند. بخش کمی از دست رفته است. مشخص است که این سریال زمانی به اوج خود می رسد که یک پدیده خاص رخ می دهد. با این حال، برخی نویزهای اساسی وجود دارد که تشخیص پیک های واقعی از نویز تصادفی را دشوار می کند. من الگوریتمی دارم که حدود 500 نقطه را ایجاد کرده است که ممکن است پیک ها رخ دهد. من پروفایلی از 101 نقطه را استخراج کردم، 50 نقطه قبل از موقعیت اوج و 50 بعد از آن، تا ببینم در اطراف هر موقعیت اوج پیش بینی شده چه اتفاقی می افتد. با بررسی چشمی، بسیاری از پروفیل ها چندان شبیه به قله ها نبودند. (فکر می کنم این به این دلیل است که سریال سر و صدای زیادی دارد.) تصمیم گرفتم تمام پروفایل ها را با هم میانگین بگیرم. نتیجه یک سری جدید است که در آن اولین نقطه میانگین تمام نقاط -50 گام زمانی دورتر از نقطه مرکزی من است و آخرین نقطه میانگین تمام نقاط +50 قدم زمانی دورتر از نقطه مرکزی من است. امید من این بود که قله ای را نزدیک به نقطه مرکزی نیمرخ متوسط ​​ببینم که انجام دادم، تقریباً +2 گام زمانی از نقطه مرکزی. من این عدد +2 را به عنوان معیاری برای دقت الگوریتم مکانیابی اوج در نظر می‌گیرم. (اگر مشخص شود برخی از نقاط یک نمایه گم شده اند، که به ندرت اتفاق می افتد، من فقط مواردی را که هستند اضافه می کنم و مقادیر گم شده را نادیده می گیرم، بنابراین برخی از موقعیت ها در نمایه متوسط ​​از نقاط کمی بیشتر از سایرین به دست می آیند.) پروفیل متوسط ​​یک شکل کلاسیک اوج دارد که مقادیر به آرامی به اوج می‌رسند، همانطور که فرد از چپ به راست حرکت می‌کند، حدود 2 موقعیت بعد از نقطه مرکزی و دوباره کاهش می‌یابد. اگر 500 موقعیت را به طور تصادفی انتخاب کنم، یک خط نسبتاً صاف به دست می‌آورم که آن را تقریباً ثابت تفسیر می‌کنم. بنابراین، من فکر می‌کنم الگوریتم مکان‌یابی اوج در واقع توانایی تشخیص زمان اوج‌گیری سری را دارد. من یک تست آماری می‌خواهم که به من بگوید چه زمانی باید میانگین نیمرخ را به‌عنوان مسطح ارزیابی کنم و چه زمانی باید آن را فقط به عنوان یک اوج ارزیابی کنم. کسی میتونه لطفا کمک کنه؟
تشخیص یک قله در یک پروفایل متوسط
96553
چگونه چولگی را با نگاه کردن به نمودار جعبه ای که از این داده ها ساخته شده است، تعیین کنیم: 340، 300، 520، 340، 320، 290، 260، 330 یک کتاب می گوید: اگر چارک پایین از میانه دورتر از چارک بالایی باشد، پس توزیع منحرف شده است. چندین منبع دیگر نیز کمابیش همین را گفتند. من یک باکس پلات با استفاده از R ساختم. مانند شکل زیر است: ![box-plot](http://i.stack.imgur.com/1DPzv.jpg) من فکر می کنم که **منفی است**، زیرا چارک پایینی از میانه دورتر از چارک بالایی است. اما مشکل زمانی است که من از روش دیگری برای تعیین چولگی استفاده می‌کنم: میانگین (337.5) > میانه (325) این نشان می‌دهد که داده‌ها **به‌طور مثبت چوله هستند**. آیا چیزی را از دست دادم؟
چگونه می توان چولگی را از یک باکس پلات ارزیابی کرد؟
114171
چگونه می توانم یک پی دی اف دو قله (تجربی) را به 2 مثلاً lognormal یا پی دی اف مناسب دیگر به روشی ساده تجزیه کنم؟ من در Matlab ترجیح می دهم. ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/LHZ0J.jpg) به چیزی شبیه به این: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/TfPER .png) متشکرم!
یک پی دی اف با 2 پیک را به 2 پی دی اف ابتدایی تجزیه کنید
92393
من با http://mlg.eng.cam.ac.uk/duvenaud/cookbook/index.html آمدم و در واقع بسیار مفید است. در برخی موارد می گوید > اگر فقط از یک هسته خطی در یک GP استفاده می کنید، به سادگی رگرسیون خطی بیزی را انجام می دهید و خبر خوبی است! شما می توانید این کار را به موقع $O(N)$ به جای > $O(N^3)$ انجام دهید چرا اینطور است؟
هسته خطی در رگرسیون خطی بیزین
16493
برای بازه پیش‌بینی در رگرسیون خطی، همچنان از $\hat{E}[Y|x] = \hat{\beta_0}+\hat{\beta}_{1}x$ برای ایجاد بازه استفاده می‌کنید. شما همچنین از این برای ایجاد فاصله اطمینان $E[Y|x_0]$ استفاده می‌کنید. چه تفاوتی بین این دو وجود دارد؟
تفاوت بین فواصل اطمینان و فواصل پیش بینی
78611
من سعی می کنم یک تست مجذور کای روی داده های زیر انجام دهم: به دست آمد: 31 مورد انتظار: 19.87179 از مجموع: 182 آیا می توان چنین آزمایشی را فقط روی یک مورد از داده ها انجام داد؟ تمام نمونه هایی که من با آنها مواجه شده ام از مجموعه های متعدد داده استفاده می کنند. در نهایت می‌خواهم بتوانم درصد شانسی که نتیجه فوق به صورت تصادفی رخ داده است را کمیت کنم.
بهترین روش برای انجام آزمون کای دو تنها با یک مجموعه داده چیست؟
7518
اگر تابعی را در IML تعریف کنم: start func(a); ارسال یک / R; چاپ (&a); پایان ارسال پایان؛ و اجرا کنید: run func(character string); من پیغام خطا را دریافت می کنم: شی رشته کاراکتر وجود ندارد. بنابراین R یا IML رشته کاراکتر را در یک شی ارزیابی می کند. من می‌خواهم R خروجی «رشته کاراکتر» بدهد. چگونه این کار را انجام دهم؟
نحوه ارسال رشته های کاراکتر به R از استودیو IML
10964
من داشتم شواهدی از WLLN و نسخه‌ای از SLLN را ارائه می‌دادم (با فرض 4مین لحظه مرکزی محدود) که کسی پرسید که احتمال با توجه به کدام معیار است و من متوجه شدم که با تأمل، کاملاً مطمئن نبودم. به نظر می رسد که ساده است، زیرا در هر دو قانون ما دنباله ای از $X_{i}$، RV های مستقل با میانگین یکسان و واریانس محدود داریم. فقط یک متغیر تصادفی در رویت وجود دارد، یعنی $X_{i}$، بنابراین احتمال باید بدون توزیع $X_{i}$ باشد، درست است؟ اما به نظر می رسد این برای قانون قوی کاملاً درست نیست زیرا روش اثبات معمولی تعریف یک RV جدید $S_{n} := \sum_{i=1}^{n} X_{i}$ و کار است. با آن، و حد امکان _inside_ است: $ Pr \left[\lim_{n \rightarrow \infty}\frac{1}{n}\sum_{i=1}^{n} X_{i} = E[X_{i}]\right] = 1 $ بنابراین اکنون به نظر می رسد که RV مجموع بیش از $n$ عبارت است، بنابراین احتمال بیش از توزیع مجموع $S_{n} است. $، جایی که $n$ دیگر ثابت نیست. آیا این درست است؟ اگر چنین است، چگونه می‌توانیم یک اندازه‌گیری احتمال مناسب روی دنباله‌های مجموع جزئی بسازیم؟ خوشحالم از دریافت پاسخ های شهودی در مورد آنچه در حال وقوع است و همچنین پاسخ های رسمی با استفاده از مثال. تحلیل واقعی یا پیچیده، احتمال/آمار کارشناسی، نظریه اندازه گیری پایه. من همگرایی در احتمال در مقابل همگرایی تقریبا مطمئن و پیوندهای مرتبط را خوانده ام، اما هیچ کمکی در آنجا پیدا نکردم.
در همگرایی در احتمال یا a.s. همگرایی با کدام معیار احتمال است؟
88622
من مجموعه ای از داده های سری زمانی دارم و به دنبال تقسیم به دوره های زمانی مختلف برای آزمایش ناهمسانی یا عدم وجود آن در بازه های زمانی مختلف هستم. در ابتدا، من برنامه ریزی کردم که این کار را به این صورت انجام دهم: تغییر روزانه ماه گذشته، سال گذشته، 2 سال گذشته و غیره را در نظر بگیرید و با یکدیگر آزمایش کنید. یا روش زیر از نظر آماری بهتر است؟ هنوز از تغییرات روزانه استفاده می‌شود، به ماه‌ها تقسیم می‌شود و تغییرات روزانه را طی ماه‌ها در 10 سال گذشته آزمایش می‌کند. سپس با سالها، 2 سال و غیره تکرار کنید. امیدواریم این منطقی باشد.
چگونه باید این داده ها را هنگام آزمایش برای هتروسکداستیکی تقسیم کنم
64877
من یک بتای غیر استاندارد از -2.615-E5 دارم. E به چه معناست؟ من هرگز این را ندیده ام. با تشکر
بتای غیر استاندارد با E در آن
61991
من در حال کار بر روی ارتباط عوامل معلم با پیشرفت دانش آموزان هستم. چگونه باید مجموعه داده ها را در SPSS برای 130 معلم و 4000 نمره دانش آموز آماده کنم؟ من نیز همین سوال را در مورد رگرسیون دارم، آیا باید آنها را همانطور که هست وارد کنم یا باید کاری در مجموعه داده خود انجام دهم. من با SPSS تازه کار هستم و از هر کمکی ممنونم.
یافتن همبستگی بین اندازه گروه های نابرابر در SPSS
19376
من فرآیندی دارم که از آزمایشی تا آزمایشی مدت زمان متغیری طول می کشد. در طول یک آزمایش، من عکس‌های فوری از وضعیت را در فواصل زمانی ثابت می‌گیرم. من می خواهم بردار حاصل از عکس های فوری (هم مقادیر و هم ابعاد) را برای یک آزمایش خاص به عنوان نمونه ای از توزیع چند متغیره مدل کنم. آیا راه ثابتی برای انجام این کار وجود دارد؟ به عنوان یک مثال ساده، تابع $f(x) = a\cos(b x)\\!+\\!c\;\;$ را در نظر بگیرید که $a$,$b$ و $c$ همه از آن ترسیم شده‌اند. توزیع تک متغیره مربوطه آنها برای یک آزمایش خاص و در طول یک آزمایش معین ثابت می ماند. اگر مقدار $f(x)$ را در فواصل گسسته بیش از $x$ پیدا کنم تا زمانی که یک دوره کامل را مشاهده کنم و آن بردار مقادیر را به عنوان یک نمونه از یک توزیع در نظر بگیرم، چگونه می توانم آن توزیع چند متغیره را توصیف کنم؟ * * * این به نوعی با ایده فرآیند گاوسی مرتبط است. من این ایده را دوست دارم، اما مشکل طول متغیر در آن رویکرد خاص برای مدل‌سازی داده‌های من آچار می‌زند.
نمونه‌های ابعاد متغیر ناشی از فرآیندهای طول متغیر با اندازه‌گیری فاصله ثابت
2262
من در حال حاضر در شرایطی هستم که واقعاً نمی دانم چگونه خودم آن را حل کنم. من باید AUC هر قله را محاسبه کنم و سپس این مناطق را نسبت به یکدیگر مقایسه کنم. مشکل این است که قله ها کاملاً از هم جدا نیستند و تنها اطلاعاتی که من بدست آوردم میانگین و SD هر پیک است. کسی میدونه چطوری میشه اینکارو کرد؟ هر اشاره یا حدس در حال حاضر واقعا جالب خواهد بود. با تشکر
ناحیه زیر منحنی (AUC) - میانگین قله و انحراف استاندارد (SD)
10961
من سعی می کنم با استفاده از قیمت های 'brent' قیمت های 'فولاد' را با مدل زیر مدل کنم: $steel_t=\alpha + \beta steel_{t-1}+\gamma brent_t + \epsilon_t$ داده های ماهانه دارم. من مقادیر پارامتر را با `lm` (R، آیا منطقی است؟) برازش کردم. حالا می‌خواهم اثر یک «رویداد شوک» را در یک سال ببینم، مثلاً. اگر قیمت برنت در یک سال به 50 دلار برسد (امروزه حدود 100 دلار است) چه اتفاقی برای قیمت فولاد می افتد. چگونه می توانم آن را انجام دهم؟ آیا استفاده از مدل خودرگرسیون برای چنین تحلیلی منطقی است؟
مدل خودرگرسیون و رویدادهای شوک
47960
من اغلب در شرایطی قرار دارم که مجموعه‌های داده‌ای متشکل از یک متغیر مستقل، یک متغیر وابسته، و یک عامل با سطوح چندگانه داشته باشم - به عنوان مثال، منحنی‌های کالیبراسیون برای یک ابزار اندازه‌گیری شده در روزهای مختلف. می‌خواهم بدانم که آیا داده‌ها با یک خط برازش منفرد بهتر توصیف می‌شوند یا با یک خط برازش متفاوت برای هر سطح عامل. به عنوان مثال، اینکه آیا داده ها به بهترین وجه توسط یک منحنی کالیبراسیون بر اساس همه داده ها توصیف می شوند یا اینکه تفاوت های قابل توجهی در منحنی های فردی برای هر روز وجود دارد. با توجه به آنچه که من درک می کنم، ANCOVA به طور جداگانه به من می گوید که آیا این عامل با شیب تعامل دارد و سپس آیا با رهگیری تعامل دارد یا خیر. چیزی که می خواهم بدانم این است که آیا فاکتور تأثیر قابل توجهی بر شیب و قطع خط دارد یا خیر. مثالی در R: request(reshape) # برای melt() #Set up some data set.seed(0) x <- seq(from=0, to=2, length.out=50) y1 <- x + rnorm (طول(x)) + 0.3 y2 <- 1.2*x + rnorm(طول(x)) d <- data.frame(x=x، day1=y1، day2=y2)#, day3=y3, day4=y4) dm <- melt(d, id.vars=x) ggplot(dm, aes(x=x, y=value, colour=variable)) + geom_point () + geom_smooth(method=lm, se=T) ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/AzFEh.png) m <- lm(value ~ x*variable, data=dm) summary(m) ![شرح تصویر را اینجا وارد کنید](http:// i.stack.imgur.com/Gl2q2.png) در اینجا، اثر عامل و برهمکنش عامل با متغیر مستقل، هر کدام به صورت حاشیه ای معنی دار هستند - در آلفا = 0.05 ما نمی تواند این فرضیه را رد کند که عامل بر شیب یا برش اثر دارد. با این حال، در کنار هم، شاید مهم باشند. آیا روش خوبی برای ارزیابی این موضوع وجود دارد؟
تفاوت های قابل توجه بین خطوط مناسب - ANCOVA کافی نیست؟
16492
در بسیاری از کاربردها، به عنوان مثال، در مهندسی معدن، زمانی که ما نیاز به ایجاد نقشه پراکندگی یک عنصر (به عنوان مثال، مس) در زمینه مطالعه داریم، برای به تصویر کشیدن مناطق تخلیه و غلظت، باید روش های تخمین را روی نمونه های موجود اعمال کنیم. نمونه ها در همه جا پراکنده هستند: برخی از قسمت ها تصادفی تر و برخی دیگر منظم تر به نظر می رسند. در روش‌های تخمینی مانند IDW (وزن‌گذاری فاصله معکوس) و کریجینگ و غیره، ما ترجیح می‌دهیم تعداد محدودی از نمونه‌های نزدیک را در تخمین هر نقطه مرکزی بگنجانیم. اگر برای بحث بهینه سازی های محاسباتی را نادیده می گیریم، **معیار انتخاب تعداد مناسب نمونه برای تخمین چه می تواند باشد؟** **نکته:** * در مهندسی معدن و علوم زمین، انتخاب یک روش معمول است. بین 10 تا 15 نمونه برای میانگین. * ترکیب نمونه‌های بیشتر، نتایج صاف‌تری ایجاد می‌کند که در برخی موارد خروجی‌های مورد نظر هستند، اما نه برای همه موارد. * سوال به جای تصور تجسم به دنبال یک معیار آماری است که معمولاً به عنوان معیار نیز به آن اشاره می شود! **نکته مهم:** سوال کلی به نظر می رسد. Kriging یا IDW تنها نمونه هایی هستند. معیارهای مورد نظر باید برای هر روش تخمینی قابل تعمیم باشند. _Kriging:_ این روش به دلیل اصولی که دارد (حل ماتریسی) نیاز به تعداد کمی نمونه دارد تا قابل حل باشد.
چگونه می توان تعداد نمونه های نزدیک را برای تخمین فضایی تعیین کرد؟
108815
من با نتایج یک تست روانسنجی کار می کنم. دوازده عامل وجود دارد و هر کدام سه عامل فرعی دارند. مشکل من این است که یکی از عوامل فرعی بسیار زیاد 0.3 تا 0.7 با عوامل فرعی سایر عوامل در واقع با همه به جز 10 مورد از 36 همبستگی دارد. . اگرچه این را می توان با نگاه کردن به معنای این صفات توضیح داد. اما آیا باید استحکام ساختار عاملی یا ابزار را زیر سوال برد؟ علاوه بر این، همبستگی های درون عاملی نیز در بسیاری از موارد کم و ناچیز است. لطفاً توجه داشته باشید که این یک ابزار روانسنجی بسیار خوب تحقیق و شناخته شده است. برای تفسیر این اطلاعات به کمک نیاز دارید. نظری دارید، من باید از این مشاهده چه کنم؟ این را برای اطلاعات بیشتر اضافه کرد: نه واقعاً، مدل اندازه‌گیری برخی از همبستگی‌های قوی را برای زیر عامل خارج از عامل خودش نشان می‌دهد (3 همبستگی از این قبیل قوی هستند)، که هیچ یک از آنها بیشتر از o.5 نیست. در نمونه های خود من به طور مداوم دو همبستگی را در 0.7 و دو همبستگی دیگر را در 0.6 می بینم (من 23 از 36 همبستگی را بالای 0.3 می بینم). ای کاش می توانستم همبستگی ها را در اینجا به اشتراک بگذارم، اما اطلاعات اختصاصی است. و فاکتور فرعی همبستگی بسیار کمی با فاکتور فرعی دیگر درون عامل خود دارد. این موارد دیگر در مقایسه با همبستگی های ارائه شده در کتابچه راهنمای کاربر بسیار بالا هستند. ممکنه خطای نمونه برداری باشه؟ اگر این همبستگی ها اغراق آمیز باشد (بیشتر از آنچه در گروه هنجار دیده می شود) چه استنباط هایی می توانم برای نمونه ها بگیرم؟
همبستگی های درون عاملی در ابزار اندازه گیری روانسنجی
88626
بنابراین می دانم که یک سری زمانی می تواند ثابت یا غیر ثابت باشد. من همچنین می دانم که غیر ثابت ما را از استفاده از بسیاری از ابزارهای اقتصاد سنجی خود باز می دارد، زیرا واریانس های ما مغرضانه هستند. بنابراین، این یک ویژگی ناخواسته است. اما، چه رابطه ای بین فرآیندهای ثابت/غیر ثابت و مثلاً یک فرآیند AR وجود دارد؟ آیا همه فرآیندهای AR طبیعتاً ثابت نیستند؟
رابطه بین ثابت بودن، فرآیندهای MA و AR؟
46268
اجازه دهید $X_1، \dots، X_n$ از بازه $[0,1]$ i.i.d باشد. من به شرایطی علاقه دارم که واریانس نمونه $$\frac{1}{n-1} \sum_{i=1}^n (X_i - \overline{X})^2$$ (که در آن $\overline{X }$ میانگین نمونه است) به حداکثر می رسد.
حداکثر واریانس نمونه
108689
من از روش STDRATE برای بدست آوردن تخمین ها و خطاهای استاندارد برای 5 دوره زمانی مختلف بین 1980-2000 در فاصله زمانی 5 ساله (1980، 1985، 1990، 1995 و 2000) استفاده کرده ام. این به این معنی است که من تخمین نقطه ای و 95٪ CI برای X_1، X_2، X_3، X_4 دلار و X_5 دلار دارم که بین سال های 1980-2000 باز می شود. به عنوان مثال من تخمین هایی را با 95% کلر برای X1 = 22 (18 تا 25)، X2 = 30 (24 تا 33) X3 = 14 (12 تا 16) X4 = 10 (8 تا 11) X5 = 6 (2-) دارم. 7) حال اگر بخواهم تغییر مطلق را با تخمین نقطه ای و 95% فاصله اطمینان (CI) بین شروع مطالعه (یعنی X1) و پایان محاسبه کنم. (یعنی X5)، چگونه این کار را انجام دهم؟ **یک مطالعه مشابه این کار را انجام داده است و به نظر می رسد اینگونه به نظر می رسد**، متغیرهای آنها a1، a2، a3، a4 و a5 هستند. این داده های آنهاست. a1= 4.2 (3.8 تا 4.5)، a2= 3.7 (3.3 تا 4.0)، a3= 2.4 (2.3 تا 2.5) a4= 1.9 (1.8 تا 2.0) a5= 1.5 (1.4 تا 1.6). تغییر مطلق آنها -2.7 (-3.0 به -2.4) بود.
فاصله اطمینان برای تغییرات مطلق
10963
من داده‌هایی مانند Person $A$ مانند فیلم‌های ['X','Y', 'Z'] دارم و او از '['V']' متنفر است. شخص $B$ فیلم‌های «['X','L','V']' را می‌پسندد و «['Y']» را دوست ندارد. مانند بسیاری از کاربران عاقل. الگوریتم خوبی برای یافتن میانگین تفاوت سلیقه کاربران چیست؟
الگوریتم محاسبه اختلاف سلیقه کاربران
46263
آیا نرم‌افزار ساده‌ای برای پرداخت میانی ردیف‌ها و ستون‌های Tukey با مقادیر زیادی از دست رفته وجود دارد؟
نرم افزار پولیش میانی
10965
من از تابع پیش‌بینی «ets» در R استفاده می‌کنم. وقتی یک مدل را به برخی از سری‌های زمانی تنظیم می‌کنم: مدل<-ets(t1) [36 دوره] و پیش‌بینی‌های محاسبه از آن مدل: f1 <- پیش‌بینی (model,10) ) بنابراین من 10 پیش بینی برای دوره های 37-48 دریافت می کنم، بنابراین سؤال من این است که آیا این پیش بینی های 10 امتیازی یک قدم جلوتر هستند که دارای آنها هستند. دانه ها در $t,t+1,t+2$ با $t=37$ یا این پیش بینی ها با بذرشان فقط در $t=37$ با افق پیش بینی $h=1,2,3,4,... $
مشکل با ets از بسته پیش بینی R
61998
من علاقه مند به محاسبه همبستگی بین مجموعه داده های مورد انتظار و مشاهده شده هستم. من سعی می کنم مقادیر مشاهده شده (n<12) و مورد انتظار را که نسبت های کوچکی از 0 تا 7.4 هستند و به طور غیر عادی توزیع شده اند، مقایسه کنم. من تعدادی از تبدیل ها را امتحان کرده ام، اما به نظر می رسد هیچ کدام داده های مشاهده شده من را به اندازه کافی برای پاسخگویی به تست هایی که به داده های توزیع شده معمولی نیاز دارند تغییر نمی دهد. من در حال حاضر از آزمایش‌های ناپارامتریک بسته R «روکوکو» استفاده می‌کنم که به من نیاز دارد تا معیارهای شباهت را بر اساس ترتیب‌های فازی مشخص کنم. ترجمه PDF این بسته که نحوه انتخاب معیار شباهت مناسب برای داده ها را توضیح می دهد تا حدودی سخت است. آیا کسی می‌تواند به نکات/منابعی اشاره کند که از کدام معیار استفاده کنیم، به عنوان مثال، خطی، گاوس (یان) یا نمایی؟ من چندین معیار شباهت را با استفاده از معیارهای مختلف امتحان کرده ام، و آنها ضرایب همبستگی کاملاً متفاوتی را ارائه می دهند. من واقعاً قدردانی می‌کنم که بفهمم کدام معیار برای موقعیت‌های مختلف بهترین است.
چگونه تعیین کنیم که از کدام معیار شباهت هنگام محاسبه ضریب همبستگی رتبه گامای قوی استفاده کنیم؟
61997
هر شماره از ماهنامه AMS _Notices_ شامل ستون چیست... است. این ستون یک مقاله توضیحی در مورد یک موضوع معین است، به عنوان مثال. توپولوژی غیر جابجایی چیست. آیا آمارگیران چیزی مشابه دارند؟
نسخه آماری ستون‌های «چیست...» در اطلاعیه‌ها
43053
برای تعیین غلظت کربن آلی در محلول آب از طیف‌سنجی UV، من یک منحنی کالیبراسیون با غلظت‌های کربن شناخته شده ایجاد کردم و جذب UV را اندازه‌گیری کردم. من از R برای تجزیه و تحلیل داده ها استفاده کردم و داده ها در زیر یافت می شوند. سوال من اکنون این است که چگونه دقت منحنی کالیبراسیون خود را تعیین کنم. می خواهم به مردم بگویم که مثلاً می توانم غلظت ها را با دقت 15 درصد یا 4 میلی گرم در لیتر اندازه گیری کنم. چگونه می توانم با این کار ادامه دهم؟ آیا می توانم فقط از R^2$ (0.91) استفاده کنم و بگویم که عدم قطعیت 9٪ (1-0.91) دارم؟ راه صحیح انجام این کار چیست؟ غلظت <- c(27.2،32.4،16.5،11.6،11.9،9.87،46.0،73.6،75.4،73.1،59.5،49.0، 79.0،81.6،66.7،26.7) جذب <- c(0.76، 0.76، 0.76 0.373، 0.287، 0.253، 1.660، 2.331، 2.255، 2.019، 1.130، 1.858، 2.404، 2.812، 2.362، 0.636، 0.636، غلظت (جاذب = 4)، نمودار (جذب 2) ylab = غلظت (mg l-1)) fit <- lm(غلظت ~ جذب) abline(fit) lm_coef <- round(coef(fit), 3) # ضرایب استخراج myr2 <- قالب(خلاصه(مناسب)$ adj.r.squared، اعداد = 2) legend(topleft، legend = as.expression(c(bquote(paste(لین. معادله: , y == .(lm_coef[2])*x + .(lm_coef[1]))), bquote(paste(، R^2 == .(myr2)))))، cex = 0.6)
چگونه دقت کالیبراسیون/عدم قطعیت یک رگرسیون خطی را تعیین کنیم؟
16497
**عملیات مبتنی بر هسته** در کاربردهای مختلفی مانند پردازش تصویر (به عنوان مثال، محو کردن)، ایجاد نقشه های تخمینی هموار و غیره رایج هستند. یک رویکرد رایج این است که چهار سلول اطراف را انتخاب کنید (شکل زیر را ببینید: **A** سلول های سبز رنگ) سپس مقدار متوسط ​​آنها را از جمله مقدار سلول مرکزی که به عنوان تخمین اختصاص داده می شود محاسبه کنید. به نظر می رسد که برخی از سؤالات من را مورد بحث قرار دهد: **1-** من دو انتخاب سلول دیگر یعنی B و C را پیشنهاد می کنم. سؤال این است که چه نوع توجیه آماری می تواند به توصیه یکی از آنها کمک کند؟ **2-** کدام بخش از تجزیه و تحلیل آماری برای بحث در مورد چنین سؤالات مفهومی/عملی مناسب است؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/G5Vhv.png) **درک من این است:** زیرا آن سلول ها (سبزها در **A**) نزدیکترین آنها به سلول مرکزی (سلول مورد علاقه برای تخمین و غیره). برای مورد **B** در مقایسه با **A** واضح است بنابراین **B** انتخاب بهتری نیست. در مقایسه بین **A** و **C**، با این حال، مورد **A** دارای یک نقطه ضعف است، فاقد پشتیبانی مورب است، در حالی که برای مورد **C** جهت های کامل را پوشش می دهد. من فکر می‌کنم مورد **A** به دلیل محاسبات کمتر مورد نیاز است، اما با هزینه سوگیری‌های مورب. در اینجا یک مثال از اجرای این ایده ها وجود دارد: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/WH86S.png) امیدواریم که این به درک تفاوت های اعمال شده با هسته های مختلف کمک کند. میانگین تنظیمات **برنامه ها:** یک برنامه نمونه را می توان در After Kernel Averaging یافت که در آن نوع **C** اعمال شده است.
درباره برآوردهای مبتنی بر هسته
90248
من اخیراً 350 خانواده کم درآمد را بررسی کردم - آنها به طور تصادفی به دو گروه تقسیم شدند: کنترل و درمان. یکی از متغیرهایی که خیلی به آن علاقه دارم میزان پس انداز هر خانواده است. نمونه بسیار کج است (به زیر مراجعه کنید)، زیرا اکثریت قریب به اتفاق نمونه پس‌اندازی ندارند (0 دلار)، و پس‌انداز کمی وجود دارد. من می‌خواهم اطلاعاتی در مورد اینکه چه نوع آزمایش آماری می‌توانم برای مقایسه دو گروه بین یکدیگر قبل از درمان استفاده کنم تا نشان دهم میزان پس‌انداز و مقادیر یکسان است، و بعد از درمان برای مقایسه تغییر در پس‌انداز بین دو گروه گروه پس از درمان اعمال شد. ![control-treatment-savings-comparison](http://i.stack.imgur.com/ifPE1.png) پیشاپیش از هر نظری که ممکن است ارائه دهید متشکریم.
آزمون های آماری برای مقایسه یک نمونه بالینی اریب
96552
من یک مدل رگرسیون پویا را در R اجرا می کنم. چگونه می توانم به سفارشات بهینه $p$,$q$,$r$ برسم؟ من از چند مقدار متفاوت از $0$ تا $3$ برای هر یک از $p$ و $r$ و $0$ یا $1$ برای $q$ امتحان کردم. اما تا چه زمانی باید چک کنم؟ همچنین اگر AIC برای مثال $(3,1,3)$ در مقایسه با $(1,1,0)$ کمتر باشد اما در $(3,1,3)$ باشد، ضریب بخش AR معنی دار نیست. سپس باید $(3،1،3)$ را ترک کنم یا همچنان آن یکی را بگیرم؟ اساساً سؤال این است که چه چیزی بین اهمیت ضرایب و AIC اولویت دارد؟
بهینه سازی رگرسیون پویا در R
69776
من یک سوال ساده دارم. من همچنین برخی از مطالب مرتبط با PCA را در اینجا مرور کرده ام. من یک ماتریس داده بدون برچسب $M$ در $N$ دارم که از $M=1000$ امتیاز و ویژگی‌های $N=500$ تشکیل شده است. من ماتریس خود را استاندارد می‌کنم، PCA را انجام می‌دهم و تصمیم می‌گیرم از دو کامپیوتر برتر استفاده کنم. اجازه دهید فرض کنیم که آن‌ها ویژگی‌های فوق‌العاده‌ای برای استفاده هستند، و من تصمیم می‌گیرم یک (k=3)-means را اجرا کنم، فضای تصمیم‌گیری خوب خود را بدست بیاورم، و غیره، همه چیز در دنیا خوب است. **سوال:** وقتی یک نقطه داده جدید دارم که می خواهم آن را به عنوان متعلق به یکی از آن سه خوشه طبقه بندی کنم: * به نظر می رسد که باید همیشه دو ستون اول ماتریس $U$ را حفظ کنم. من برای همیشه در PCA استفاده کردم تا بتوانم همیشه نقطه جدید خود را به آنها نشان دهم. آیا این درست است؟ * وقتی PCA را انجام دادم، باید داده هایم را استاندارد می کردم، یعنی میانگین ویژگی ها را حذف می کردم و یکپارچگی std آنها را ایجاد می کردم. بنابراین، آیا اکنون که آن را دارم باید برای این نقطه داده جدید هم کاری انجام دهم؟ متشکرم.
سردرگمی جزئی در استفاده از ویژگی های رایانه شخصی برای طبقه بندی
69883
من یک چند جمله ای درجه دوم کامل 3 متغیری دارم $$ f(x,y,z) = c_0 + c_1 x + c_2 y + c_3 z + c_4 x y + c_5 x z + c_6 y z + c_7 x^2 + c_8 y^2 + c_9 z^2 $$ هر یک از ضرایب $c_i$ با یک خطای استاندارد $s_i$ شناخته می شوند. با نادیده گرفتن خطاهای استاندارد $s_i$، من یک نقطه ثابت دارم، با مقادیر $(x_0، y_0، z_0)$ (بنابراین $f'(x_0,y_0,z_0) = 0$ را برآورده می کنم)، اما تعجب می کنم: ** چگونه از خطاهای استاندارد ضرایب، خطاهای استاندارد برای $x_0$، $y_0$ و $z_0$ را استنتاج کنیم. ?** اگر کمک کند، خطاهای ضرایب (1) بسیار کوچک و (2) نامرتبط هستند. من می توانم ببینم که این مشکل را می توان به صورت انتقال خطاها از ضرایب $c_i$ به نقطه ثابت $(x_0,y_0,z_0)$ در سیستم معادلات مرتبه اول حاصل از $f'(x_0,y_0) فرموله کرد. ,z_0) = 0$: \begin{cases} c_1 + c_4 y_0 + c_5 z_0 + 2 c_7 x_0 = 0 \\\ c_2 + c_4 x_0 + c_6 z_0 + 2 c_8 y_0 = 0 \\\ c_3 + c_5 x_0 + c_6 y_0 + 2 c_9 z_0 = 0 \end{موارد} **ویرایش:** سعی کردم بیان الکو را ساده کنید، اما شروع به لرزیدن کرد و بعد از دیدن بیان از آن خارج شد. $C^{-1}$: $$ \frac{1}{2 (c_9 c_4^2-c_5 c_6 c_4+c_6^2 c_7+c_8 (c_5^2-4 c_7 c_9))} %\left( \ start{array}{ccc} c_6^2-4 c_8 c_9 & 2 c_4 c_9-c_5 c_6 & 2 c_5 c_8-c_4 c_6 \\\ 2 c_4 c_9-c_5 c_6 & c_5^2-4 c_7 c_9 & 2 c_6 c_7-c_4 c_5 \\\ 2 c_5 c_8-c_4 c_6 & 2 c_6 c_7-c_4 c_5 & c_4 c_7 c_8 \end{array} %\right) $$ کاری که من در نهایت انجام دادم این بود که بیشتر فرضیه دادم که ضرایب به طور معمول توزیع شده اند. سپس یک نمونه از 1000 ضریب برای $c_i$ از $N(c_i,s_i)$ ترسیم کردم و نقطه ثابت حاصل را با هر یک از 1000 مجموعه ضرایب محاسبه کردم. این نقاط ثابت نیز به طور معمول توزیع شده بودند و من در نهایت توانستم از توزیع آنها خطای استاندارد آنها را استنتاج کنم.
خطای استاندارد نقطه ثابت یک چند جمله ای مرتبه 2 که ضریب خطای std آن مشخص است
2264
من رتبه بندی محصولات را برای چند هزار محصول دریافت کرده ام. تعداد امتیازات برای هر محصول از صفر تا حدود پنجاه متغیر است. من می خواهم ارزش مورد انتظار رتبه بندی محصول را برای هر محصول پیدا کنم. اگر رتبه‌بندی‌های زیادی برای محصول وجود داشته باشد، انتظار می‌رود که مقدار مورد انتظار، میانگین رتبه‌بندی‌های محصول باشد، اما اگر تعداد کمی وجود داشته باشد، انتظار دارم که مقدار مورد انتظار به میانگین همه رتبه‌ها نزدیک‌تر باشد. . چگونه مقدار واقعی مورد انتظار را محاسبه کنم؟ لطفا ملایم باشید: من آماردان یا ریاضیدان نیستم. ویرایش 1: پاسخ جوریس در زیر نشان می‌دهد که من نمی‌توانم مقدار مورد انتظار را محاسبه کنم، زیرا طبق تعریف این بدان معناست که من باید کل جمعیت را داشته باشم. در این صورت لطفاً می توانید به من بگویید چگونه مقداری را محاسبه کنم که از نظر روحی مشابه ارزش مورد انتظار است، به کل جمعیت نیاز ندارد و می تواند از اطلاعات قبلی استفاده کند. ویرایش 2: من انتظار دارم که اگر رتبه‌بندی‌های هر محصول دارای رتبه‌بندی واریانس پایینی باشد، یا اگر واریانس بسیار بالایی بین رتبه‌بندی‌های محصولات مختلف وجود داشته باشد، رتبه‌بندی‌های اندازه‌گیری شده اهمیت بیشتری دارند.
ارزش مورد انتظار نمونه کوچک
79431
در زمینه پیش‌بینی، دو سری زمانی متفاوت دارم: y = {y1، y2، ..، yn} و z = {z1، z2، ...، zn}. در R، فرض کنید که دو سری به صورت زیر هستند: y <\- arima.sim(list(order = c(1,0,0), ar = 0.7), n = 100) z <\- arima.sim (list(order = c(1,0,0), ar = 0.5), n = 100) با استفاده از تابع auto.arima() در بسته R پیش بینی، من مدل‌های ARIMA که می‌توانند برای توصیف دینامیک زمانی دو سری زمانی استفاده شوند: fit.y <\- auto.arima(y) fit.z <\- auto.arima(z) سپس، من از forecast.Arima( استفاده می‌کنم. ) تابعی برای تولید پیش بینی های یک گام جلوتر و فواصل پیش بینی مرتبط برای هر سری با استفاده از روش بوت استرپ: for.y <\- forecast(fit.y, h=1, bootstrap=TRUE, npaths=5000) for.z <\- forecast(fit.z, h=1, bootstrap=TRUE, npaths=5000) تابع forecast یک پیش بینی نقطه و یک فاصله پیش بینی را برمی گرداند. با این حال، 5000 پیش‌بینی راه‌اندازی مورد استفاده برای تولید فواصل پیش‌بینی توسط تابع پیش‌بینی گزارش نمی‌شوند. علاوه بر این، به نظر می‌رسد (؟) که تابع پیش‌بینی از چندک‌های توزیع نرمال برای ساخت فاصله پیش‌بینی گزارش‌شده استفاده می‌کند، حتی اگر به نظر می‌رسد استفاده از بوت استرپینگ نیاز به استفاده از چندک‌های تجربی حاصل از توزیع «پیش‌بینی‌های راه‌انداز» دارد. علاقه من به 5000 پیش بینی بوت استرپ به دلیل نیاز به ایجاد فاصله پیش بینی برای y + z است. اگر به «پیش‌بینی‌های بوت استرپ» برای y و «پیش‌بینی‌های راه‌انداز» برای z دسترسی داشتم، می‌توانستم به سادگی آنها را جمع کنم تا توزیع بوت استرپ پیش‌بینی یک مرحله‌ای y + z را به دست بیاورم. آیا راهی وجود دارد که بتوانم 5000 پیش بینی راه انداز را از تابع ()forecast استخراج کنم؟ چیز دیگری که به نظر می رسد در استفاده از forecast() در یک مدل ARIMA که شامل یک دریفت است، چالش هایی ایجاد می کند. به نظر من افق پیش بینی استفاده شده توسط ()forecast به نوعی به پارامتر xreg متصل است. اگر مدل ARIMA شامل یک دریفت باشد، پارامتر xreg همان ابعاد سری زمانی اصلی () را خواهد داشت، بنابراین تابع پیش بینی به طور خودکار تا n مرحله جلوتر را پیش بینی می کند. اگر بخواهم فقط یک قدم جلوتر را پیش بینی کنم، چگونه می توانم این مشکل را دور بزنم؟ متشکرم!
چگونه پیش بینی های بوت استرپ را از forecast.Arima در پیش بینی بسته R استخراج کنیم؟
81625
من یک اندازه گیری فاصله دارم که بین 0 تا 1 بین چند جفت جمعیت است. من باید بفهمم که آیا هر فاصله با استفاده از جایگشت ها از نظر آماری با صفر متفاوت است یا خیر، آیا پیشنهادی برای رسیدن به آن وجود دارد؟ با تشکر
تشبیه هایی برای آزمایش اینکه آیا مقادیر متفاوت از صفر هستند؟
65472
فرض کنید من یک سری بازده سهام از 2000-2013 دارم. با نگاهی به داده ها، الگوی روند طولانی بازار صعودی دارد: 2001-2008 و 2010-2013، در حالی که در بحران مالی 2008 نیز معکوس بزرگی داشته است. بنابراین اگر سری بازگشتی روزانه را به عنوان $y_{t}$ نشان دهیم، دو ویژگی وجود دارد: (1) $y_{t}$ دارای یک قسمت متوسط ​​غیر صفر در سری بازگشتی است که با $r_{t}$ نشان داده می شود. ، که چیزی شبیه به عامل کلان است. (2) $r_{t}$ را می توان با $r_{t-1}، r_{t-2}،... $، در طول سال‌های خوب، یا همبستگی منفی در طول سال‌های بد، همبستگی داشت. معمولاً کاری که مردم با استفاده از مدل ARMA انجام می‌دهند، ابتدا $r_{t}$ را به صورت $r_{t} = (y_{t-1} + ... + y_{t-k})/N $ تخمین زده و سری را تغذیه می‌کنند. $y_t - r_t$ در جعبه ابزار شناسایی ARMA برای دریافت ضرایب. با این حال، واقعاً معلوم می‌شود که انتخاب $k$ می‌تواند کاملاً حیاتی باشد: ارزش $k$ نشان می‌دهد که چقدر به روند گذشته باور داریم، که گفتن آن واقعاً سخت است. به عنوان مثال، در سال 2008 که بحران مالی رخ داد، دلیلی ندارید که باور کنید بازار مانند سال های خوب گذشته ادامه خواهد داشت. در حالی که در سال‌های خوب، تصور می‌کنید که اقتصاد جهانی به خوبی کار می‌کند و می‌توانید از یک پنجره طولانی $k$ استفاده کنید. یا شاید بهتر است مدل را به انتخاب $k$ وابسته نکنید. بنابراین به سؤال مربوط به مدل‌سازی سری‌های زمانی بازگردیم: اگر سری زمانی میانگین غیر صفر داشته باشد، که در نقطه‌های زمانی مختلف $t$ کاملاً متفاوت است، معمولاً چه می‌کنند؟
آیا می توان از سری های زمانی برای پیش بینی سری هایی که دارای روند تغییر هستند استفاده کرد؟
104514
من MANCOVA 2 در 2 را با مجموعه داده های تجربی انجام می دهم. موارد زیر متغیرهایی هستند که من استفاده کردم. DV1، DV2، IV1، IV2 و C1 که در آن DV=متغیر وابسته، IV=متغیر مستقل و C=متغیر کمکی است. مطابق با فرضیه های من، تعامل IV1 و IV2 به طور قابل توجهی بر هر دو DV1 و DV2 تأثیر می گذارد. با این حال، این سوالی است که من برای پاسخ به آن مشکل دارم. نتایج MANCOVA نشان داد که C1 به طور قابل توجهی DV1 و DV2 را پیش‌بینی می‌کند. در این صورت چگونه می توانم C1 را تفسیر کنم؟ چندین توضیح احتمالی که به آن رسیدم به شرح زیر است. -تقابل IV1 و IV2 حتی پس از کنترل C1 قابل توجه است. -C1 قابل توجه است، به این معنی که تعامل نمی تواند به طور دقیق DV ها را توضیح دهد. کدام یک درست است؟ یا هر دو اشتباه می کنند؟ از کمک شما بسیار سپاسگزارم!
تفسیر متغیرهای کمکی در MANCOVA 2 در 2
46264
من داده‌هایی دارم که برای تحلیل بقای زمان گسسته بسیار مناسب به نظر می‌رسند، به این صورت که هر سوژه از زمان ورودش به سیستم تا خروجش، دنباله‌ای از مشاهدات متوالی دارد، و من علاقه‌مندم که احتمال خروج یک سوژه را تعیین کنم. سیستم در بازه زمانی بعدی نکته مهم این است که دوره های زمانی از نظر طول یکنواخت نیستند. چندین راه ممکن برای حل این مشکل وجود دارد. دو مورد برتری که به ذهن می رسد عبارتند از: 1\. افزایش دانه بندی با گسسته کردن بیشتر فواصل زمانی من به حداقل طول 2\. بازه‌های زمانی فردی را همانطور که هست رها می‌کنم، اما با وزن دادن به هر دوره در تحلیل بر اساس طول واقعی آن، گزینه دوم را به گزینه اول ترجیح می‌دهم. سوالات من این است: 1\. آیا گزینه دوم قابل قبول است؟ 2\. کدام یک از دو گزینه ارجح است؟ 3\. آیا گزینه سوم بهتری وجود دارد؟ متشکرم
تجزیه و تحلیل بقای زمان گسسته با پنجره های رویداد با طول های مختلف
56909
می خواستم بدانم چه رابطه و تفاوتی بین استنتاج علی و پیش بینی (طبقه بندی و رگرسیون) وجود دارد؟ به عنوان مثال، در پیش بینی، متغیرهای پیش بینی/ورودی و متغیرهای پاسخ/خروجی داریم. آیا این بدان معناست که بین متغیرهای ورودی و خروجی رابطه علی وجود دارد؟ پس آیا پیش بینی به استنتاج علی تعلق دارد؟ اگر درست متوجه شده باشم، استنتاج علی تخمین توزیع شرطی یک متغیر تصادفی را با توجه به متغیر تصادفی دیگر در نظر می گیرد و اغلب از مدل های گرافیکی برای نشان دادن استقلال شرطی بین متغیرهای تصادفی استفاده می کند. بنابراین استنتاج علی به این معنا پیش بینی نیست، اینطور است؟ با تشکر و احترام!
رابطه بین استنتاج علی و پیش بینی (طبقه بندی و رگرسیون)
61996
مجموعه داده ای که من سعی در تجزیه و تحلیل آن دارم داده های آزمون دانش آموز است. من داده ای از پاسخ ها (یا 1/پاسخ صحیح یا 0/پاسخ نادرست) در مورد برخی از سوالات مجموعه ای از دانش آموزان دارم. من یک مدل لجستیک 3 پارامتری را برای هر سوال برازش داده‌ام و سپس خوب بودن برآورد برازش و بنابراین مقادیر p مربوطه را محاسبه کردم. اکنون مشکل من این است که نمی‌دانم چگونه این تخمین‌های برازش فردی را جمع‌آوری کنم تا به خوبی برازش کلی برای کل مدل به دست بیاورم، آیا معیاری (ترجیحاً در زبان برنامه‌نویسی R) وجود دارد که بتواند بسته به کل مدل را پیشنهاد کند. بر روی مقادیر p تست های متعدد. بسته ای که من استفاده کردم ltm داخل R است.
به طور کلی خوب بودن تناسب / مقدار p برای چندین مورد مدل IRT در R (ltm)
69773
من یک سوال دارم که باید ثابت کنم آیا تابع زیر یک PMF با متغیر تصادفی پواسون است یا خیر. تابع به صورت زیر است... $f(x) = \pi \frac {\lambda_1^x}{x!} e^{-\lambda_1} + (1-\pi) \frac {\lambda_2^x} {x!}e^{-\lambda_2} $ که در آن $x\epsilon \mathrm X = \\{0,1,...\\}, \pi \epsilon (0,1)، \lambda_1, \lambda_2 > 0, \lambda_1 \neq \lambda_2$ آیا می‌توانم $f(x)$ را به 2 تابع تقسیم کنم $\sum_{x=0}^{\infty}\pi \frac {\lambda_1^x} {x!} e^{-\lambda_1}$ و $\sum_{x=0}^{\infty} (1-\pi) \frac {\lambda_2^x}{x!}e^{-\lambda_2}$ ~~ برای اثبات اینکه یک PMF است و بنابراین با استفاده از این تابع 2 فرعی به محاسبه انتظارات~~ و واریانس آن ادامه دهید؟ من انتظار $f(x)$ را دریافته‌ام، که $\mathbb E[X] = \mathbb E[X_1] + \mathbb E[X_2]؛ $ کجا، $\mathbb E[X_1] = \sum_{x=0}^{\infty}x\pi \frac{\lambda_1^x}{x!}e^{-\lambda_1} = \pi\lambda_1$ $\mathbb E[X_2]=\sum_{x=0}^{\infty} x(1-\pi)\frac{\lambda_2^x}{x!}e^{-\lambda_2 } = (1-\pi)\lambda_2$ حال سوال من این است که چگونه باید انجام دهم تا بفهمم واریانس چیست زیرا واریانسی که من دارم با انتظار متفاوت است. بالاتر رفتم برای یک متغیر تصادفی پواسون، انتظار باید همان واریانس باشد. درست میگم؟ من همچنین سعی کردم از تابع تولید لحظه استفاده کنم. برای دیفرانسیل 1 همون نتیجه ای که انتظار داشتم گرفتم. اما نمی‌توانستم بار دوم را بیشتر از هم متمایز کنم تا واریانس خود را بدست بیاورم زیرا تمام عبارت‌های باقی‌مانده عبارت‌های ثابت هستند. آیا می توانم پیشنهادی داشته باشم که چگونه باید از کجا ادامه دهم؟
آیا می توان یک تابع را به تابع فرعی تقسیم کرد تا ثابت شود که تابع جرم احتمالی است؟ و چگونه می توان واریانس چنین تابعی را پیدا کرد؟
46265
من به نمودار متغیر در مقابل پاسخ نگاه می کنم، و برای اکثر مشاهدات مقوله ای به نظر می رسد، اما برخی اینطور نیستند. در اینجا تصویری از طرح است. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/xGchN.png) آیا آستانه ای برای مقدار فرات برای تعیین اینکه آیا یک متغیر می تواند طبقه بندی شود وجود دارد؟ ویرایش: در نمودار، «x» نرخ مالیات ($\ برابر 100 دلار) مناطق مختلف است، و «y» ارزش متوسط ​​خانه‌های منطقه است.
چگونه تعیین کنیم که آیا یک متغیر طبقه بندی شده است؟
56901
من یک سوال در مورد فیلتر Kalman-Bucy دارم: توزیع قبلی $g \sim N(0,σ_g^2 )$ است، سیگنال $ds=(μ+g_t )dt+σdZ_t$ است، توزیع پسین تبدیل به $g_t \sim می شود. N((\hat{g_t},\hatσ_t^2)$. در اینجا،$σ_g,μ,σ$ ثابت هستند. حالا اگر میانگین قبلی را از 0 تا a، جایی که a ثابت است، چیزهای دیگر ثابت می مانند، آیا می توانم بدانم که چگونه توزیع پسین تغییر می کند.
فیلتر Kalman- Bucy: تغییر میانگین قبلی
11616
### زمینه من با یک محقق در موقعیت زیر صحبت می کردم. * شرکت کنندگان (500 نفر) از مدارس نمونه گیری شدند. * شرکت کنندگان از حدود 50 مدرسه مختلف بودند. * تعداد شرکت کنندگان در هر مدرسه متفاوت بود و برخی مدارس 20 یا 30 شرکت کننده را عرضه می کردند، اما چند مدرسه فقط 3 یا 4 یا 5 شرکت کننده را عرضه می کردند. * محقق در تلاش بود تا ارزیابی کند که آیا نقض اساسی فرض استقلال مشاهدات وجود دارد یا خیر. بنابراین، آنها به بررسی همبستگی درون کلاسی متغیرهای نتیجه اصلی بر اساس تأثیر مدرسه پرداختند. ### سوال * آیا گنجاندن گروه ها در تحلیل همبستگی درون کلاسی با اعداد کم در هر گروه مشکل ساز است؟ اگر چنین است، پیامدهای این کار چیست؟ قاعده کلی در مورد حداقل تعداد برای گنجاندن چه می تواند باشد؟ * برای آن را به افراطی، چه برخی از گروه ها تنها یک شرکت کننده عرضه می شود؟ * اگر گروه هایی با اندازه نمونه زیر یک آستانه مشخص وجود داشته باشد، اقدام بعدی چیست؟ حذف گروه از تجزیه و تحلیل؟ گروه های کوچک را به یک گروه دیگر تقسیم کنید؟ * هر توصیه ای که ارائه می شود چه ارتباطی با ارزیابی فرض استقلال مشاهدات دارد؟
ارزیابی استقلال مشاهدات با استفاده از همبستگی درون طبقاتی زمانی که برخی از گروه‌ها حجم نمونه گروهی کوچکی دارند
46260
من به شبیه سازی مونت کارلو اهمیت می دهم و در حال بررسی کدم برای برخی از خطاها هستم. من تازه فهمیدم (راه سخت) که برای تولید یک بردار واحد که در جهت تصادفی اشاره می کند، نمی توانم به سادگی 3 (یا هر عدد دیگری) عدد تصادفی را انتخاب کنم و آنها را نرمال کنم. من متوجه نشدم که چرا نمی توانم این کار را انجام دهم جدا از این ادعا که بردار تولید شده حتی احتمال اشاره به هر جهتی را ندارد. من نمی توانم ریاضیات پشت سر آن را پیدا کنم و گمان می کنم که این عمدتا به دلیل عدم وجود عبارت مناسب برای جستجو باشد. چه چیزی را باید جستجو کنم؟ کجا میتونم توضیح بدم؟ ترجیحا بدون پیش فرض دانش قبلی.
از کجا می توانم در مورد تبدیل توزیع تصادفی یکنواخت به توزیع دیگر بیاموزم
61994
من با مجموعه داده‌ای سروکار دارم که شامل داده‌های متنی غنی (مانند ورودی‌های وبلاگ، مقالات مجلات، مقالات، بررسی‌های کتاب، و غیره) و همچنین مجموعه‌ای از معیارهای اختصاصی، از جمله معیارهای کمی متعددی از رزونانس مصرف‌کننده است. همه داده‌های متنی به یک زبان هستند و حجم نمونه مجموعه داده‌ها تقریباً 400 است. برخی از پیش پردازش‌های انسانی از داده‌های متنی برای خلاصه کردن تقریباً 10 جنبه کلیدی هر اثر متنی طراحی شده است (این معیارها در سراسر جهان تغییر نمی‌کنند. نمونه)، و این جنبه های کلیدی می توانند مقادیر بولی، مقوله ای یا گسسته باشند. علاوه بر این، من قصد دارم از یک الگوریتم کیسه کلمات در سراسر نمونه برای تکمیل تجزیه و تحلیل تولید شده توسط انسان استفاده کنم. من در حال بررسی استفاده از یک شبکه عصبی برای تلاش برای پیش بینی رزونانس مصرف کننده با استفاده از داده های شرح داده شده در بالا هستم، اما برای من مهم است که اهمیت نسبی هر عامل را درک کنم. علاوه بر این، من انتظار دارم که از تقریباً 10 معیار متنی، برخی از آنها نقش بسیار بیشتری در تأثیرگذاری بر رزونانس مصرف کننده نسبت به سایرین ایفا کنند، و اهمیت آنها ممکن است بسته به محتوای موضوعی مقاله خاص تغییر کند. به عنوان مثال، افرادی که مقاله ای در مورد زیبایی زنان یا مسائل قرار ملاقات در شهرهای بزرگ می خوانند، ممکن است به چیزهای متفاوتی نسبت به کسانی که نقد کتاب در نیویورک تایمز می خوانند، ارزش قائل شوند. من این سوالات را دارم: * آیا می توان با استفاده از یک شبکه عصبی از این اهمیت نسبی عقب نشینی کرد؟ * آیا این داده ها به اندازه کافی بزرگ هستند که یک شبکه عصبی را به درستی آموزش دهند؟ * آیا بهتر است از یک درخت بیزی یا رویکرد SVM استفاده کنم، یا شاید از آنها در ارتباط با یک شبکه عصبی برای تکمیل تحلیل استفاده کنم؟ * من یک شبکه پس انتشار را در نظر داشتم، اما آیا نوع بالقوه معتبرتری وجود دارد که باید به آن نگاه کنم؟
راه حل های جعبه سیاه شبکه عصبی
65479
من در حال مقایسه دو نسخه از یک نظرسنجی (یک نسخه اصلی و یک اصلاح شده) هستم و نمی‌دانم که آیا آزمون مک‌نمار-بوکر مناسب است یا خیر. این نظرسنجی از پاسخ‌دهندگان می‌خواهد که نشان دهند آیا از سن 14 سالگی تجربه (در این مورد، تماس جنسی ناخواسته) داشته‌اند یا خیر. پاسخ‌دهندگان چهار گزینه پاسخ برای نشان دادن تعداد دفعات تجربه معین دارند، کدگذاری شده به روش زیر: هرگز یک بار دو بار سه بار یا چند بار فرضیه من این است که شرکت کنندگان در صورت ارائه نسخه اصلاح شده، تعداد بیشتری از تجربیات را در مقایسه با نسخه اصلی نشان خواهند داد. در این مثال، من به میزان اعتراف مردان به انجام اعمال جنسی ناخواسته نگاه می کنم. با این فرضیه که نسخه اصلاح شده باعث افزایش نرخ ارتکاب پذیرفته شده نسبت به نسخه اصلی خواهد شد. داده های من در واقع افزایش نرخ پذیرش مرد در نسخه اصلاح شده را نشان می دهد. MALE ORIGINAL (n) MALE MODIFIED (n) هرگز = 281 هرگز = 270 یک بار = 18 یک بار = 18 دو بار = 7 دو بار = 8 سه + = 7 سه + = 17 کل پذیرش = 32 کل پذیرش = 43 کل n = 313 مجموع n = 313 بنابراین، اکنون می‌خواهم تفاوت معنی‌دار بین نرخ پاسخ‌دهی در این دو نظرسنجی را آزمایش کنم تا ببینم آیا افزایش پذیرش در نسخه اصلاح‌شده از نظر آماری به‌طور معنی‌داری بیشتر است یا خیر. **_این یک طرح اندازه گیری های تکراری است، بنابراین هر شرکت کننده هر دو نسخه نظرسنجی را انجام داد. برنامه من این است که جدول را به این صورت ترتیب دهم: > > نظرسنجی اصلی > > > |هرگز | یک بار | دوبار | سه + | کل | > |________|________|_________|___________|_______| > هرگز| 261 | 7 | 2 | 0 | 270 | > |________|________|_________|___________|_______| > یک بار| 12 | 5 | 1 | 0 | 18 | > |________|________|_________|___________|_______| > دوبار| 3 | 4 | 1 | 0 | 8 | > |________|________|_________|___________|_______| > Three +| 5 | 2 | 3 | 7 | 17 | > |________|________|_________|___________|_______| > TOTAL | 281 | 18 | 7 | 7 | 313 | > |________|________|_________|___________|_______| > > > نظرسنجی اصلاح شده هنگامی که تجزیه و تحلیل فوق را در جدول های متقاطع SPSS اجرا می کنم، مقدار مربع کای مک نمار-باوکر 13.316، df = 6، p = 0.038 را دریافت می کنم. بنابراین **سوالات** من عبارتند از: 1. آیا McNemar-Bowker برای داده ها و فرضیه من مناسب است؟ 2. با مقدار p حاصل از 0.038 می توانم بگویم که نتایج حاصل از دو نظرسنجی به طور قابل توجهی متفاوت است -- با نسخه اصلاح شده که افزایش پذیرش مرد را نشان می دهد؟
آزمون مک نمار-بوکر برای مقایسه دو معیار
61990
من اخیراً شروع به مطالعه استنتاج آماری کرده ام. من با مشکلات مختلفی کار کرده ام و این یکی من را کاملاً گیج کرده است. اجازه دهید $X_1,\dots,X_n$ یک نمونه تصادفی از یک توزیع گسسته باشد که با احتمال $\frac{1}{3}$ مقادیر $\theta-1,\space\theta,\space\text{یا را اختصاص می‌دهد. }\space\theta+1$، که $\theta$ یک عدد صحیح است. نشان دهید که آمار کافی و کامل وجود ندارد. هر ایده ای؟
آمار کافی را کامل کنید
56900
من یک مجموعه داده 20 ساله از تعداد سالانه فراوانی گونه ها برای مجموعه ای از چند ضلعی ها دارم (200 چند ضلعی با شکل نامنظم و پیوسته). من از تحلیل رگرسیون برای استنتاج روندها (تغییر تعداد در سال) برای هر چند ضلعی و همچنین تجمیع داده های چند ضلعی بر اساس مرزهای مدیریت استفاده کرده ام. من مطمئن هستم که خود همبستگی مکانی در داده ها وجود دارد، که مطمئناً بر تحلیل رگرسیون برای داده های انبوه تأثیر می گذارد. سوال من این است - چگونه می توانم یک تست SAC را برای داده های سری زمانی اجرا کنم؟ آیا باید به SAC باقیمانده از رگرسیون خود برای هر سال نگاه کنم (I جهانی موران)؟ یا می توانم یک آزمون را با تمام سال ها اجرا کنم؟ هنگامی که من آزمایش کردم که بله SAC وجود دارد، آیا راه حل آسانی برای رسیدگی به این موضوع وجود دارد؟ پس‌زمینه آمار من حداقل است و هر آنچه در مدل‌سازی مکانی-زمانی خوانده‌ام بسیار پیچیده به نظر می‌رسد. من می‌دانم که R یک تابع خودکار متغییر وزنی دارد - آیا استفاده از آن اصلاً ساده است؟ من واقعاً در مورد نحوه ارزیابی/اضافه کردن SAC برای این مشکل کاملاً گیج هستم و از هرگونه پیشنهاد، پیوند یا مرجع بسیار سپاسگزارم. پیشاپیش متشکرم
خودهمبستگی مکانی برای داده های سری زمانی
9415
کوواریانس بین دو متغیر تصادفی معیاری از نزدیک بودن خطی آنها به یکدیگر را تعیین می کند. اما اگر توزیع مشترک دایره ای باشد چه؟ مطمئناً ساختاری در توزیع وجود دارد. این ساختار چگونه استخراج می شود؟
اندازه گیری وابستگی غیر خطی
43050
من یک شرطی کامل از فرم دارم: $$ p(X|...) \propto \exp(-(aX^2 +bX +c/X))، $$ همه سایر شرایط کامل من ساده‌سازی مدل به شکل ساده‌تر و برای سادگی، می‌خواهم مدل خود را با استفاده از Jags یا WinBugs نمونه‌سازی کنم (به این معنی که باید فرمی را برای $p(X|...)$ بیان کنم و آن را من نمی توانم به صراحت از یک مرحله Metropolis برای $p(X|)$ (فکر می کنم) استفاده کنم. آیا امکان انجام این کار وجود دارد؟ اگر چنین است، چگونه؟
فرم غیر متعارف برای یک شرط کامل
19019
برای ساخت یک مدل رگرسیون خطی و/یا یک مدل Splines رگرسیون چند متغیره برای هر متغیر به چند مورد نیاز است؟ همچنین، 1. آیا این یک قانون سرانگشتی است یا توجیه آماری دارد؟ 2. آیا منابع کتابشناختی وجود دارد؟
حداقل تعداد مشاهدات در هر متغیر برای رگرسیون خطی یا مدل MARS
108818
من می‌خواهم مدل‌های افزودنی تعمیم‌یافته بزرگ را برازش کنم، و می‌خواهم بدانم مقیاس تخمین چگونه انجام می‌شود، یعنی زمانی که 1. افزایش تعداد گره‌ها به میزان 1، 2. هنگام افزودن یک پیش‌بینی‌کننده صاف دیگر (با فرض پشتیبانی یکسان) چقدر طول می‌کشد تا مدل برازش کند. و تعداد گره ها به عنوان گره (های) موجود، 3. هنگام افزایش تعداد مشاهدات با 1. من گمان می کنم که مقیاس خطی نیست، اما چیزی شبیه به درجه دوم یا نمایی آیا کسی ایده یا مرجعی دارد که بتوانم بررسی کنم؟ پیشاپیش متشکرم
چگونه یک مقیاس GAM با افزایش تعداد گره ها، پیش بینی ها و مشاهدات مقیاس می شود؟
43051
فرض کنید من یک مرکز اجتماعی را اداره می‌کنم و می‌خواهم میانگین مدت زمانی را که فردی عضو مرکز جمع‌آوری است، پیدا کنم. انجام این کار با افرادی که قبلاً حساب های خود را لغو کرده اند ساده است، اما من مطمئن نیستم که چگونه با داده های افرادی که هنوز حساب دارند کار کنم. برای مثال، فرض کنید میانگین مدت افرادی که کنسل کرده اند 500 روز باشد. اما وقتی میانگین مدت‌های حساب _all_ را در نظر می‌گیرم (با فرض اینکه امروز «تاریخ پایان» برای اعضای فعلی است)، این عدد به 1000 تبدیل می‌شود. مشکل واضح در این مورد این است که ممکن است یک عضو فعلی فردا لغو کند یا ممکن است در آن عضو لغو شود. 10 سال. علاوه بر این، فردی که دیروز به آن ملحق شده است، مدت زمان 1 روز خواهد داشت که دقیق نیست. تصور من این است که این شامل پیش بینی زمان لغو عضویت فعلی است، اما به نظر می رسد که چندین لایه پیچیدگی به این سوال (به ظاهر) ساده اضافه می کند. من پیشاپیش عذرخواهی می کنم اگر این سوال مطرح شده است. من سعی کردم جستجو کنم، اما ممکن است اصطلاح درستی برای این مفهوم نمی دانم.
میانگین مدت زمان جاری
57058
من به دنبال این هستم که آیا شرکت‌های دارای پشتوانه سرمایه خطرپذیر شرکتی (1) عملکرد بهتری نسبت به شرکت‌های دارای پشتوانه سرمایه خطرپذیر مستقل (0) در عملکرد POST-IPO خود دارند یا خیر. فرض من این است که این رابطه با میزان تجربه (مداوم) یا تقویت می شود یا تضعیف می شود. پس از ایجاد یک متغیر جدید برای Corporate VC*Experience، سپس این مقادیر را در یک رگرسیون قرار دادم و به من یک VIF بیش از 23 می دهد.
نحوه حذف چند خطی بالا با یک متغیر تعدیل کننده پیوسته و یک متغیر مستقل طبقه بندی شده
114178
من یک پزشک بالینی هستم که در تفسیر کارآزمایی های بالینی به شیوه ای مکرر از حد متوسط ​​ماهرتر هستم. در این مرحله، تفسیر یک کارآزمایی به مکرر به نوعی به یک روش تبدیل شده است: بررسی اعتبار داخلی، بررسی فرضیه‌های صفر و جایگزین، بررسی مفروضات قدرت، بررسی اندازه اثر و فواصل اطمینان، نگاه به مقدار p و غیره. فلسفه بیزی جذاب است. هر چند بیشتر برای من به طور شهودی. من می‌دانم فلسفه استنتاج بیزی چیست، زیرا اپیدمیولوژی بالینی انجام داده‌ام (احتمال بیماری پیش از آزمون با نتایج آزمایش و نسبت احتمال به‌روزرسانی می‌شود تا احتمال پس‌آزمون ایجاد شود). چیزی که من هنوز نمی دانم این است که آیا روش مشابهی برای تفسیر یک کارآزمایی بالینی وجود دارد که برای یک متخصص مکرر وجود دارد یا خیر. چه اعداد/فرض/ارقامی از نویسندگان برای تفسیر یک مطالعه به عنوان بیزی نیاز دارم (مثلاً برای یک مکررگرا که مقدار p، فواصل اطمینان و غیره باشد)؟ آیا رویه خوبی برای تفسیر یک مطالعه به عنوان بیزی وجود دارد، بسیار شبیه به تفسیر مکررگرا؟ آیا نشریات خوبی وجود دارد که شما می شناسید که روند درخواستی من را توضیح دهد و پزشکان به عنوان مخاطبان مورد نظرشان باشند؟ من از کمک شما قدردانی می کنم!
استنتاج بیزی از یک کارآزمایی بالینی برای پزشکان
69882
من از یک مدل ترکیبی برای پیش‌بینی پیشرفت تومور (y) با استفاده از حجم تومور (x) به عنوان اثر ثابت و مرکز ($i=1،...10$) به عنوان قطع تصادفی استفاده می‌کنم. مدل را می توان به صورت زیر نوشت: $y_{ij}=\alpha+\beta x_{ij}+b_{i}+\epsilon_{ij}$ من از تابع lme() در R استفاده کردم: `fit1 <- lme(PD ~ log(Volume)، تصادفی = ~1 | CenterID، data=Data)` نتیجه نشان می دهد که انحراف استاندارد رهگیری تصادفی 0.079 است. بنابراین $b_{i}$ از توزیع نرمال $N(0,0.079)$ پیروی می کند. در ضمن، می توانم با اعمال ranef(fit1) وقفه تصادفی را استخراج کنم. این فهرستی از $b_{i}$ مربوط به هر مرکز را نشان می دهد. سپس استاندارد این بردار را محاسبه می کنم. `sd(ranef(fit1)[[1]])` من انتظار دارم که نتیجه مشابه 0.079 بدهد. با این حال، بسیار متفاوت است. آیا کسی می تواند به من بگوید که چرا `sd(ranef(fit1)[[1])` نتایج متفاوتی نسبت به خروجی مدل VarCorr(fit1) می دهد؟ دقیقاً چه رابطه ای بین ranef(fit1) و VarCorr(fit1) وجود دارد؟ با تشکر
چرا محاسبه واریانس اثر تصادفی استخراج شده (با استفاده از ranef) با خروجی lme یکسان نیست؟