_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
40372 | من یک متغیر وابسته $Y$، یک متغیر مستقل $X$، و یک متغیر مستقل طبقه بندی T دارم (که می تواند 2 سطح داشته باشد). اکنون 4 مدل دارم: **MI:** شیب های مختلف، رهگیری های مختلف $$y_{i1}=\alpha_1+\beta_1x_{i1}، y_{i2}=\alpha_2+\beta_2x_{i2}; \text{یا}\; y_{ij}=\beta_0+\beta_1X_{ij}+\beta_2T_i+\beta_3X_{ij}T_j$$ **MII:** شیب یکسان، فاصلههای مختلف $$y_{i1}=\alpha_1+\beta x_{i1}، y_{i2}=\alpha_2+\beta x_{i2}; \text{یا}\; y_{ij}=\beta_0+\beta_1X_{ij}+\beta_2T_j$$ **MIII:** یکسان، شیب های مختلف $$y_{i1}=\alpha+\beta_1x_{i1}، y_{i2}=\alpha+ \beta_2x_{i2}$$ **MIV:** یک خط رگرسیون برای هر دو $$y_{ij}=\alpha+\beta x_{ij}; \text{یا}\; y_{ij}=\beta_0+\beta_1X_i$$ اکنون سعی می کنم این مدل ها را با یکدیگر مقایسه کنم. من مطمئن نیستم که با آنچه فکر می کنم درست می گویم: مقایسه MI با تست های MII $H_0:\, \beta_1=\beta_2$ (این را می دانم)، به این معنی که $H_0$: شیب مشابهی در برابر $H_a$ دارد : شیب های مختلف (که مطمئن نیستم). اگر اینها را در R مقایسه کنم، یک مقدار p دریافت می کنم. حالا چیزی که من فکر می کنم این است که، اگر p-value < سطح آلفا باشد، می توانم $H_0$ را رد کنم، که به این معنی است که باید به مدل اول پایبند باشم. اگر مقدار زیادی باشد، نمیتوانم فرضیههای صفر را رد کنم، به این معنی که باید مدل دوم را حفظ کنم (چون در آنجا هم شیب مشابهی دارم). مطمئن نیستم که با آن درست می گویم یا نه. به علاوه نمی توانم معادله دوم را برای مدل سوم بنویسم، کسی می تواند کمک کند؟ | ANCOVA/ANOVA: تست مدل های مختلف در برابر یکدیگر |
48962 | آیا منابعی وجود دارد که بتوانم در مورد این روش اطلاعات بیشتری کسب کنم، این روش توسط یک مشتری پیشنهاد شده است و به نظر می رسد چیز زیادی در این مورد وجود ندارد. به نظر می رسد اکثر جستجوها فقط اطلاعات مربوط به k-means را به دست می آورند. | از کجا می توانم منابعی در مورد X-Means Clustering پیدا کنم؟ |
41027 | من یک مجموعه داده دارم که شامل یک متغیر پاسخ (شمارش)، دو متغیر توضیحی طبقهبندی و یک متغیر کمکی است. متغیر پاسخ به حساب می آید، من یک GLM با توزیع پواسون اجرا کردم و مدل را ساده کردم. در حالی که مدل اشباع باقیمانده های نرمال و هموسکداستی را نشان می دهد، با رسیدن به حداقل مدل کافی، آنها نرمال بودن و هموسکداستیکی بودن را از دست می دهند. من کمی گیج هستم که بهترین روش چیست و/یا مهمترین فرض کدام است. اگر من فقط به دنبال ارزیابی این هستم که آیا تعاملات تأثیر قابل توجهی دارند، آیا مناسب است که به سادگی داده ها را برای انجام یک ANCOVA تغییر دهم؟ با تشکر از کمک شما. | ساده سازی مدل منجر به باقیمانده های غیر عادی می شود |
94845 | من دو کلاس دارم (مثلاً 1 و 0) و می خواهم یک طبقه بندی بسازم. امکان استفاده از شبکه های عصبی مصنوعی (ANN) یا هر روش طبقه بندی واقعی مانند SVM یا Random Forest وجود دارد. در مورد ANN، به راحتی می توان سطح اطمینان طبقه بندی را تخمین زد. به عنوان مثال، اگر وظیفه باینری داشته باشیم (با خروجیهای 0 یا 1)، و نتایج ANN برای برخی از نمونهها 0.92 باشد، میتوان فرض کرد که ANN در طبقهبندی به کلاس 1 مطمئنا است. از طرف دیگر، اگر ANN خروجی 0.52 داشته باشد، به عنوان طبقه بندی ناپایدار به 1 flass در نظر گرفته می شود. اما اگر از Random Forest یا SVM استفاده کنیم چگونه می توان به سطح اطمینان طبقه بندی کرد؟ | چگونه سطح اطمینان را برای SVM یا Random Forest تخمین بزنیم؟ |
84266 | با استفاده از تابع «geeglm» از بسته «geepack» (معادله برآورد کلی)، شمارش را به عنوان وابسته به دو متغیر اسمی (عامل)، یک متغیر پیوسته با برهمکنش های مرتبه 3 و یک متغیر گروه بندی مدل کردم. این مدل است: m1<-geeglm(formula = dependent.var ~ cat.var1 * cat.var2 * contin.var، خانواده = poisson، id = گروه، corstr = مبادله) متغیر عامل _cat.var1_ دارای دو سطح است. (CD و WL)، متغیر عامل _cat.var2_ دارای دو سطح (SAH و SKA) است. _Group_ یک متغیر گروهبندی برای محاسبه خودهمبستگی بین موضوعات مرتبط است. با استفاده از تابع anova، متوجه شدم که تنها شرایط تعاملی مهم مدل **cat.var1: contin.var** و **cat.var2: contin.var** است. من می خواهم این دو تعامل را ترسیم کنم: من از کدهای زیر استفاده کرده ام، اما از خطوط مناسب راضی نیستم. **خط برای سطح CD _cat.var1_ در شکل اول همان خط برای سطح SAH از _cat.var2_ در شکل دوم است (به انجیر مراجعه کنید) – بنابراین فکر می کنم که آنها صحیح نیستند و نمی دانم چگونه این را حل کنیم ضرایب کدام مدل را برای ساختن آن خطوط باید استفاده کنم؟   کدها: # 1st plot: cat.var1 : contin.var par(mfrow=c(1,1)) plot(contin.var, dependent.var, type=n) points(contin.var[cat.var1==WL], jitter(dependent.var[cat.var1==WL])) points(contin.var[cat.var1== CD]، jitter(dependent.var[cat.var1==CD])، pch=16) x <- seq(3,7,0.1) y1 <-exp(-0.1584 + 0.3474*x) خطوط (x,y1, lty=2) # CD y2 <-exp(-0.1584 + 3.7293 +(-0.6685 + 0.3474)*x) خطوط (x,y2, lty=1) # WL # نمودار دوم : cat.var2 : contin.var par(mfrow=c(1,1)) plot(contin.var, dependent.var, type=n) points(contin.var[cat.var2==SKA], jitter(dependent.var[cat.var2==SKA])) نقاط (contin.var[cat.var2==SAH]، jitter(dependent.var[cat.var2==SAH])، pch=16) x <- seq(3,7,0.1) y1 خطوط <-exp(-0.1584 + 0.3474*x) (x,y1, lty=2) # SAH y2 <-exp(-0.1584 + -6.9490 + (1.2249 + 0.3474)*x) خطوط (x,y2) # SKA در اینجا ضرایب مدل من است که برای تولید ارقام، خروجی ها استفاده می شود خلاصه(m1) (اصطلاحات معنی دار آماری - خروجی های anova(m1) \- با ستاره نشان داده می شوند **): ضرایب: تخمین (برق) -0.1584 cat.var1WL 3.7293 cat.var2SKA -6.9490 contin.var 0.34 * cat.var1WL: cat.var2SKA 3.9970 cat.var1WL: contin.var -0.6685 * cat.var2SKA: contin.var 1.2249 ** cat.var1WL: cat.var2SKA: contin.var -0.6860 متغیر عامل *cat.var1* دارای دو سطح (CD و WL) است. متغیر عامل *cat.var2* دو سطح دارد (SAH و SKA). دادهها در اینجا هستند: https://docs.google.com/file/d/0Bz8ojhHeiNclVi1oT0ZwTEtEN2s/edit | چگونه با استفاده از ضرایب مدل، یک عبارت تعاملی از مدل سه عاملی GEE با برهمکنش های مرتبه کامل (بسته جی پک) را رسم کنیم؟ |
29956 | مدرس دوره یادگیری ماشینی که من در حال گذراندن آن بودم، این الگوریتم را بدون توضیح نحوه اعمال آن در یک مجموعه آموزشی به سرم زد.  m = تعداد مجموعه های آموزشی (3) j = زیرنویس 0 یا 1 x(i) = x از مجموعه آموزشی ith y(i) = y از iامین مجموعه آموزشی آلفا = ? h تتا = ? اگر یک مجموعه آموزشی از (1،1)، (2،2)، (3،3) داشتم، چگونه آن را وارد این الگوریتم میکردم؟ | وارد کردن مقادیر در یک الگوریتم رگرسیون خطی / شیب نزولی |
110137 | من یک مجموعه داده دارم که شامل بردارهای ورودی طبقهای با طول متغیر است که میخواهیم مقدار یک متغیر خروجی عددی را تخمین بزنیم. آیا امکان اعمال رگرسیون در این تنظیمات وجود دارد؟ | رگرسیون از بردارهای ورودی با طول متغیر |
94848 | من مطمئن نیستم که از میانگین گیری میکرو یا کلان برای داده های خود استفاده کنم یا فقط باید هر دو را ارائه دهم؟ دادههای کلاسهای خاصی از ماتریس سردرگمی من بسیار بزرگتر از سایرین خواهد بود، بنابراین آیا این بدان معناست که باید از میانگینگیری میکرو استفاده کنم؟ به نظر می رسد این مرد چنین می گوید http://rushdishams.blogspot.co.uk/2011/08/micro-and- macro-average-of-precision.html با تشکر! | آیا در میانگین گیری کلان و میانگین گیری خرد اشتباه گرفته اید؟ |
114499 | در فرآیند تصفیه آب، لازم است PH آب در 5/7 مثبت یا منفی 5/0 حفظ شود. دو روش درمانی در دسترس است. روش 1 میانگین pH 7.5 و انحراف استاندارد 1.0 را ارائه می دهد، در حالی که روش 2 میانگین pH 7.8 و انحراف استاندارد 0.5 را ارائه می دهد. فرض کنید PH از توزیع نرمال پیروی می کند. کدام روش از نظر به حداکثر رساندن مقادیر pH در مشخصات ارجح است؟ هر کمکی قابل تقدیر است | به حداکثر رساندن مقادیر pH بر اساس میانگین |
48968 | من فرآیندی دارم که به موجب آن اشیاء با عرض $W$ روی یک ژن با نرخ $F$ (در هر ثانیه، فرآیند پواسون، فرض کنیم) فرود می آیند و سپس با سرعت ثابت $V$ شروع به حرکت می کنند. من سعی می کنم سرعت رخ دادن برخوردها را تعیین کنم - یک شی قبلی به اندازه کافی سریع از مسیر خارج نشده است که جسم بعدی نمی تواند جا بگیرد (با توجه به اینکه عرض محدودی دارد) - آیا منطق زیر کار می کند؟ منطقه خطر عرض $W$ است، بنابراین شی موجود قادر خواهد بود از اتصالات بعدی برای $\tfrac{W}{V}$ ثانیه جلوگیری کند. و تعداد رسیدنهای مورد انتظار در $t$ ثانیه $F\times t$ است، بنابراین برای هر شی موجود ما انتظار داریم که $F\times \frac{W}{V}$ از اشیاء بعدی جلوگیری کند. بنابراین برای هر موفقیت، $k=F\times \frac{W}{V}$ 'fails' دریافت میکنیم، بنابراین نسبت تمام اشیایی که خراب میشوند $\frac{k}{1+k}$ است. و حدس میزنم میتوانم در $F$ ضرب کنم تا نرخ شکست در ثانیه را بدست بیاورم. به طور مشکوکی ساده به نظر می رسد، و با یک شبیه سازی سریع و مسخره شده موافق نیست، اما من خیلی به مشکل نزدیک هستم که نمی توانم نقص را ببینم. | احتمال برخورد در صف های فرآیند پواسون |
89571 | در حال حاضر من در حال کار با یک مشکل تشخیص الگو هستم. من از یادگیری نظارت شده (شبکه عصبی و svm با یک طبقه بندی) استفاده کرده ام، اما فکر می کنم این کار را به روشی اشتباه انجام می دهم. برای ساده تر، مشکلی که در زیر توضیح خواهم داد فقط یک مثال است. برای تعیین الگو (به نام الگوی X)، داده های آموزشی زیر را دارم (4 ویژگی برای تعیین الگوی X): * 0،1،2،3،X * 1،0،4،7، X * 0، 0,6,5,X * 1,1,8,9,X و این داده های تست من است: 0,1,3,5,X ? همانطور که می بینید، دو عدد اول فقط اعداد باینری، عدد سوم فقط اعداد زوج و عدد چهارم فقط اعداد فرد را می پذیرد. با شبکه عصبی: فکر می کنم این مشکل برای شبکه عصبی مناسب نیست زیرا من فقط مقادیر واقعی را دارم. و شبکه عصبی باید با ارزش واقعی و نادرست آموزش داده شود. دیگر باید برعکس باشد؟ با طبقهبندی svm one: در حال حاضر از کتابخانه libsvm استفاده میکنم و دقت آن 0% است، نمیدانم آیا این مشکل از دادههای آموزشی است یا نه... بنابراین برای پیدا کردن الگوی آن باید به یادگیری بدون سرپرست تغییر دهم. داده های آموزشی داده شده؟ خیلی ممنون | مشکل یادگیری تحت نظارت یا بدون نظارت؟ |
89574 | معیارهای زیادی برای محاسبه تفکیک پذیری بین گروه ها وجود دارد: فاصله bhattacharya، فاصله Jeffries-Matusita، واگرایی (تبدیل شده) و اقدامات اطلاعاتی... در حالی که این معیارها میزان تفکیک گروه های داده را کمیت می کنند، آیا راهی برای می گویند اگر قابل تفکیک وجود ندارد؟ | چه زمانی می توان گفت که دو گروه داده (یا بیشتر) از هم جدا نیستند؟ |
1637 | مطمئنم که این را کاملا دور سرم پیچیده ام، اما نمی توانم آن را بفهمم. آزمون t دو توزیع نرمال را با استفاده از توزیع Z مقایسه می کند. به همین دلیل است که یک فرض عادی در داده ها وجود دارد. ANOVA معادل رگرسیون خطی با متغیرهای ساختگی است و از مجموع مربعات، درست مانند OLS استفاده می کند. به همین دلیل است که فرض نرمال بودن باقیمانده ها وجود دارد. چندین سال طول کشید، اما فکر میکنم بالاخره آن حقایق اساسی را درک کردهام. پس چرا آزمون t معادل ANOVA با دو گروه است؟ چگونه می توانند معادل باشند، اگر آنها حتی چیزهای مشابهی را در مورد داده ها فرض نمی کنند؟ | اگر آزمون t و ANOVA برای دو گروه معادل هستند، چرا مفروضات آنها معادل نیستند؟ |
41021 | من باید برای واریانس برابر آزمایش کنم. من سعی کردم آن را بخوانم و اشاره کرد که چند تست وجود دارد که می توانم برای تست برابری واریانس استفاده کنم مانند F Test (نسبت F؟)، تست Levene، Test Bartlett و غیره. می خواستم بدانم آیا روش کیفی برای گفتن وجود دارد. آیا با استفاده از SD و میانگین دو مجموعه داده (هر دو به طور معمول توزیع شده اند) واریانس مساوی وجود دارد یا خیر؟ SD؟ نمیدونم چطوری بگم...کسی میتونه کمک کنه؟ | واریانس برابر را تست کنید |
114322 | من به راهنمایی نیاز دارم که راهحل پیشبینی کلی برای مدلسازی قیمت محصولات در چنین موردی چیست: * من چندین مدل (نوع) از محصول را دارم * میخواهم قیمتهای هر یک از این مدلها را بهصورت جداگانه، برای چند هفته پیشبینی کنم. پنجره * من داده های تاریخی بسیار خوبی برای هر مدل از 1-2 سال گذشته دارم (که **تحلیل سری زمانی** را اولین انتخاب واضح من می کند، اینطور نیست؟) * می دانم تعدادی **عوامل خارجی وجود دارد ** که ممکن است تأثیر بسیار مهم و فوری بر قیمت محصول دارند (احتمالاً برای هر مدل کم و بیش متفاوت است). سوالات من این است: 1. آیا پیش بینی سری های زمانی روش خوبی برای دنبال کردن است؟ شاید در این مورد نوعی پسرفت مناسب تر باشد؟ 2. کدام رویکرد را انتخاب کنیم تا این تأثیرات عوامل خارجی را به بهترین نحو در بر گیرد؟ | پیش بینی قیمت محصول - شامل عوامل خارجی مهم است |
72944 | فرض کنید مشکل مدلسازی رگرسیون لجستیک داریم. $f(X) = Y$، که در آن $Y$ باینری است و $X$ بردار متغیرهای معمولی توزیع شده است. در صنعت گاهی اوقات اتفاق میافتد که پزشکان ردیفهایی از دادهها را حذف میکنند که در آن «هیچ چیز اتفاق نمیافتد» (طبق معیارهای الگوریتمی)، اغلب برای کاهش ابعاد رگرسیون (دادهها میتوانند بسیار بزرگ شوند) یا به دلیل این تصور که این « هیچ اتفاقی نمیافتد» آن چیزی نیست که میخواهیم مدل کنیم - ما میخواهیم این مدل فقط زمانی را به تصویر بکشد که رویدادهای جالبی رخ میدهند. نیازی به گفتن نیست که این میتواند از تخمینهای احتمال نمونه خارج شود (یعنی با توجه به X$ جدید، تخمین ما از $P(Y=1)$ مغرضانه است). یک نمایش سریع «R» این را نشان میدهد، جایی که فرآیند تولید داده واقعی نصف زمان $Y=1$ و نیمی دیگر از آن $Y=0$ است، اما رویکرد نمونهگیری فرعی ما این نسبت را به $\frac19$ دارد: پیشبینیها <- تکرار(NA,1000) y <- c(rep(1,5000),rep(0,45000)) x <- rnorm(50000) #y <- c(rep(1,25000), rep(0,25000)) #x <- rnorm(50000) fit = glm(y~x,family=binomial(logit)) for(i در 1:1000) { newX = data.frame(x=rnorm(1)) predictions[i]=predict(fit,newX,type=response) } mean(predictions) plot(predictions) *** سوال *** آنچه می خواهم بپرسم این است که آیا تناسب ما، $\hat{f}$، به روش زیر قابل نجات است یا خیر. به ازای هر $X$ جدیدی که مشاهده میکنیم، فقط $\hat{P}(Y-1)$ را تخمین میزنیم اگر و فقط اگر از فیلتر ما عبور میکرد اگر این $X$ جدید بخشی از مجموعه دادههای نمونه ما بود. به طور مستقیم میخواهم بگویم بله، زیرا در نمونه، فرآیند تولید دادهای را داریم که به طور مصنوعی ایجاد کردیم، $f_\text{intrusion}(X) = Y_\text{intrusion}$، و این همان DGP است که ما ترسیم میکنیم. از خارج از نمونه برای به دست آوردن تخمین های احتمال ما. | آیا می توان تخمین های رگرسیون لجستیک را که از سوء استفاده از نمونه های فرعی رنج می برند نجات داد؟ |
7519 | جفریز قبلی را در نظر بگیرید که $p(\theta) \propto \sqrt{|i(\theta)|}$، که $i$ اطلاعات فیشر است. من مدام می بینم که این قبلی به عنوان یک پیشین غیر اطلاعاتی ذکر می شود، اما هرگز استدلالی ندیدم که چرا غیر اطلاعاتی است. از این گذشته، این یک پیشین ثابت نیست، بنابراین باید استدلال دیگری وجود داشته باشد. من می دانم که این به پارامترسازی مجدد بستگی ندارد، که من را به سؤال بعدی می کشاند. آیا عامل تعیین کننده اطلاعات فیشر به پارامترسازی مجدد بستگی ندارد؟ زیرا اطلاعات فیشر قطعا به پارامتری شدن مسئله بستگی دارد. با تشکر | چرا پیشینیان جفریز غیر اطلاعاتی در نظر گرفته می شوند؟ |
7511 | ما با یک دستگاه اندازه گیری روبرو هستیم که توسط نویز نفرین شده است و سعی می کنیم بفهمیم که آیا یک اندازه گیری نویز بوده یا یک اندازه گیری واقعی. فرض کنید یک پرتو نور در یک آرایه مربعی از آشکارسازهای عکس داریم. شمار اندازه گیری شده در لوله های جداگانه از آمار پواسون پیروی می کند. یک پرتو معمولی نور را در 4 لوله عکس توزیع می کند که بیشتر آنها در نزدیکترین لوله به نقطه برخورد هستند. نویز بدون همبستگی توزیع می شود. میتوانیم توزیعهای شمارش را برای مکانی که میدانیم یک پرتو واقعی برخورد کردهایم، و برای مکانی که میدانیم هیچ پرتویی وجود ندارد، اندازهگیری کنیم. از این اندازهگیریها، میتوانیم PDF شمارش تجربی برای اندازهگیریها در لولههای جداگانه، $p_{i,\,\rm{true}}$ و $p_{i,\,\rm{نویز}}$ بسازیم. از آنجایی که برای اندازهگیری نویز، شمارشها در لولههای مجزا همبستگی ندارند، حدس میزنم که $$ P_\mathrm{noise} = \prod_i p_{i,\,\mathrm{noise}} $$ حدس خوبی برای احتمال خواهد بود. که این اندازه گیری نویز بود. آیا می توانم از عبارت مشابه $$ P_\mathrm{true} = \prod_i p_{i,\,\mathrm{true}} $$ استفاده کنم حتی اگر تعداد برای حالت true مرتبط باشد؟ | احتمال بسازید که اندازه گیری متعلق به یکی از دو مجموعه است |
72947 | من یک مجموعه داده گذشته نگر از بیمارانی دارم که با یک داروی خاص (درمان، $n=46$) یا با دارونما (کنترل $n=96$) درمان شده اند. متغیرهای ذخیره شده عبارتند از سن، جنس، مرحله بیماری. من می خواهم تأثیر درمان را بر بقای کلی با امتیاز گرایش ارزیابی کنم. در اینجا مراحلی را که دنبال کردم آمده است: 1. امتیاز تمایل را با یک مدل رگرسیون لجستیک باینری با استفاده از درمان به عنوان متغیر وابسته و سن، جنس، مرحله به عنوان متغیرهای کمکی محاسبه کردم. 2. من از تطبیق فازی برای ایجاد تطابق 1:1 با تلرانس 0.05 استفاده کردم. 3. موارد بی همتا را حذف کردم و مجموعه داده ای از 46*2 مورد (46 مورد درمان، 46 کنترل) به دست آوردم. 4. من از مدل رگرسیون متناسب کاکس با استفاده از امتیاز تمایل و درمان به عنوان متغیرهای کمکی استفاده کردم. آیا روش من صحیح است؟ من از SPSSv19 استفاده می کنم. | امتیاز تمایل و رگرسیون کاکس |
110136 | من در حال کار بر روی یک مدل پیشبینی برای یک متغیر پیوسته (میزان داروی تزریقی) هستم. من از R برای مدلسازی استفاده میکنم. جریان پروژه من این است که پیشبینی یک مدل glm (رگرسیون لجستیک) را ضرب کنم که برای پیشبینی 0/1 استفاده میشود. یک دارو اصلاً با مدل lm (رگرسیون خطی) تزریق شد که از آن برای پیش بینی مقدار داروی تزریق شده استفاده می شود - این مدل در R .مشکل من نسبتاً خوب عمل می کند. این است که وقتی این مدل را به MSSQL منتقل میکنم، مقادیر مختلفی برای پیشبینی دریافت میکنم (یعنی برای یک ردیف تصادفی، مقدار R 400 و در SQL مقدار همان ردیف 640 است. مدل در SQL با پیوست کردن آن ساخته میشود. ضرایب را از مدل glm مدل می کند تا مقادیر پیش بینی glm را تولید کند و سپس آن را با مقادیر پیش بینی مدل lm ضرب کند متوجه نمی شوم اگر از ضرایب یکسان استفاده کنم، این کد برای مدل های lm و glm در r است: d7_lm<-lm(Ttl_Inject~UserSource+IsNewIndividual+IsCross,data=train) d7_glm<-glm(Is_Injected~UserSource+IsNewIndividual+IsCross,data=train) در اینجا بخشی از کد r برای پیش بینی آمده است: demo$d7_lm_pred<-predict(d7_lm,newdata=demo,type='response) demo$d7_glm_pred_response<-ifelse(predict(d7_glm,newdata=demo,type='response')>0.5,1,0) demo$glm01_lm_response<-demo$d7_lm_pred*demo$d7_response از پیش نمایشی استفاده شده است مقادیر مدل در اینجا بخشی از کد SQL آمده است: TOP 1000* را انتخاب کنید، InjectionAmount_pred= (-2.213e -1.180e+00*(مورد زمانی که User='IAF' سپس 1 other 0 پایان)-1.665e+00*(مورد زمانی که UserSource ='Viral' سپس 1 other 0 end) +IsNewIndividual * 1.167e+00+IsCross ) * IIF((1 / (1 + EXP(-(-1.346e-03+1.140e-02*(مورد زمانی که UserSource='IAF' سپس 1 other 0 پایان) -2.975e-03 *(مورد زمانی که UserSource='Viral' سپس 1 other 0 به پایان برسد) -IsNewIndividual * 1.503e-04 + IsCross ))))> 0.5،1،0) | تفاوت بین پیش بینی در R و SQL |
92394 | این مقاله از مدل های خطی تعمیم یافته (توزیع خطای دو جمله ای و منفی) برای تجزیه و تحلیل داده ها استفاده می کند. اما سپس در بخش تجزیه و تحلیل آماری روش ها، این عبارت وجود دارد: > ... و دوم با مدل سازی داده های حضور با استفاده از رگرسیون لجستیک > مدل ها، و داده های زمان جستجو با استفاده از یک مدل خطی تعمیم یافته (GLM). توزیع دوجمله ای منفی با تابع پیوند ورود به سیستم برای مدل سازی داده های زمان جستجو (ولش و همکاران 1996) و کفایت مدل با بررسی باقیمانده ها تأیید شد (McCullagh & Nelder 1989). از آزمونهای Shapiro-Wilk یا > Kolmogorov-Smirnov برای تست نرمال بودن بسته به اندازه نمونه استفاده شد. داده ها قبل از تجزیه و تحلیل برای پایبندی به نرمال بودن، تغییر شکل داده شدند. اگر آنها توزیع خطای دو جمله ای و منفی دو جمله ای را فرض کنند، پس مطمئناً نباید نرمال بودن باقیمانده ها را بررسی کنند؟ | بررسی باقیمانده ها برای نرمال بودن در مدل های خطی تعمیم یافته |
48966 | من در عرصه روانشناسی رشد کار می کنم. اغلب مقالات از رگرسیون برای استخراج تابعی از سن بر روی یک امتیاز در یک گروه معمولی گزارش میدهند و سپس این تابع را برای یک گروه غیر معمول دوم به کار میبرند، باقیماندهها را ذخیره میکنند و سپس آنها را با توجه به میانگین گروهها و انحراف استاندارد به امتیاز z تبدیل میکنند. من تابع رگرسیون intercept و شیب را استخراج کردم، برای مثال 5.5 + (0.05*سن) و آن را برای همه کودکان اعمال کردم. سپس باقیمانده (واقعی - پیش بینی شده) برای همه کودکان محاسبه شد. سپس معادله z (z = x - میانگین / sd) را با استفاده از میانگین و SD باقیماندههای خام گروههای معمولی اعمال کردم. این منجر به میانگین صفر و sd از 1 برای گروه معمولی می شود و میانگین z امتیازات بسیار کمتری (همانطور که ممکن است انتظار می رود) در گروه غیر معمولی باشد. جایگزین این بود که از میانگین و sd گروه معمولی استفاده نکنید و نمرات z را از همه کودکان گروه ایجاد کنید، به این ترتیب میانگین نمرات z گروه TD اکنون بالاتر از صفر است و نمرات z منعکس کننده فاصله از میانگین است. فقط از نمونه من سوال من این است که آیا وقتی دیگران از آن برای استانداردسازی نمونه استفاده می کنند، منظور این است و آیا در هر دو روش محاسبه این امتیازات اشتباهی وجود دارد؟ پیشاپیش ممنون | نمرات Z به دست آمده از یک معادله رگرسیون در یک گروه برای گروه های دیگر اعمال می شود |
92875 | من نمونه ای دارم که توسط 200000 پروژه تشکیل شده است. هر پروژه با توجه به اندازه آن ($S$) و حضور کاربران فعال ($U$) تعریف می شود. مقادیر $S$ بزرگتر از صفر است. از سوی دیگر، $U$ یک متغیر باینری است (1 اگر پروژه دارای کاربران فعال باشد، 0 در غیر این صورت). من می خواهم بررسی کنم که آیا $S$ و $U$ به یکدیگر مرتبط هستند یا خیر. از آنجایی که نتوانستم رابطه مستقیمی بین $S$ و $U$ پیدا کنم، پروژه ها را با توجه به اندازه آنها سفارش دادم (ترتیب صعودی). سپس پروژهها را در 10 گروه (20000 پروژه در هر گروه) دستهبندی کردهام و برای هر گروه، تعداد پروژههایی که کاربران فعال دارند را شمارش کردهام. از آنجایی که به نظر می رسد تعداد پروژه هایی که کاربران فعال دارند از یک گروه به گروه بعدی افزایش می یابد، می خواهم بدانم چگونه باید ادامه داد. منطقی است که یک تحلیل رگرسیون خطی بین مجموع اندازه پروژه در هر گروه و تعداد کاربران فعال در هر گروه اجرا شود؟ آیا باید از آزمون همبستگی استفاده کنم؟  | رگرسیون خطی بر روی داده های گروه بندی شده |
111669 | آیا راهی برای شناسایی زمان استفاده از تحلیل سری زمانی یا پردازش سیگنال وجود دارد؟ 1. تجزیه و تحلیل داده های سری زمانی را می توان به پردازش سیگنال و تجزیه و تحلیل سری زمانی معمولی تقسیم کرد. 2. در پردازش سیگنال داده ها در حوزه فرکانس یا زمان تجزیه و تحلیل می شوند. در حوزه فرکانس، تجزیه و تحلیل طیفی با استفاده از تحلیل فوریه یا موجک انجام می شود. 3. روش های تحلیل سری زمانی معمولی به دو روش پارامتری و غیر پارامتری تقسیم می شوند. به عنوان مثال: مدل ARIMA. چرا در برخی موارد آنالیز موجک انجام می شود؟ این به ویژه از سیگنال های داده خام از فرآیندهای مکانیکی انجام می شود. آیا نمی توانم ARIMA را روی این داده های سیگنال خام انجام دهم؟ آیا پارامترهایی وجود دارد که بتوانم تشخیص دهم که چه زمانی از تحلیل موجک یا مدل ARIMA با توجه به یک سری داده استفاده کنم؟ | تجزیه و تحلیل سری زمانی در مقابل پردازش سیگنال آماری |
114496 | من می خواهم همبستگی بین متغیرهای تصادفی $Q$ و $R$ را استنباط کنم، با این حال، من فقط به توزیع $Q$ و توزیع $P=Q+R$ دسترسی دارم. ما میتوانیم ببینیم که $\rho$ پیرسون در اینجا چگونه ظاهر میشود: $\sigma^2_P=\sigma^2_Q+\sigma^2_R+2\sigma_Q \sigma_R \rho$ اساساً مطمئن هستم که تنها با این اطلاعات، نمیتوان تخمین زد. $\rho$. اما من به یک ترفند جالب فکر کردم. روشی برای $Q$ وجود دارد به طوری که برای توزیع اولیه $Q_0$، توزیع جدید با یک $k_Q$ ثابت مقیاس بندی می شود به طوری که $k_Q Q_0=Q_k$. میتوانیم $k_Q$ را از نسبت $\mathrm{E}[Q_k]/\mathrm{E}[Q_0]$ محاسبه کنیم. سوال این است که آیا $R$ نیز تحت تاثیر قرار می گیرد و البته ما نمی توانیم $R$ را مستقیماً اندازه گیری کنیم. ما می توانیم اثر میانگین را روی $R$ اندازه گیری کنیم. $\mathrm{E}[R]=\mathrm{E}[Q+R]-\mathrm{E}[Q]$ برای درمانشده و درماننشده. اگر من یک فرض را بکنم: آن درمان نیز $R$ را با یک $k_R$ ثابت تحت تاثیر قرار می دهد، به طوری که $k_R R_0=R_k$، به دست می آوریم: $\sigma^2_P=k_Q^2\sigma^2_Q+k_R\sigma^2_R +2k_Q k_R\sigma_Q \sigma_R \rho$ دو معادله و دو مجموعه اندازه گیری داریم... توزیع $Q_0$ و $Q_0+R_0$، و سپس $Q_k$ و $Q_k+R_k$، که از آنها میتوانیم دو واریانس را محاسبه کنیم، و $k_Q$، $k_R$ از تفاوتهای میانگینها. بنابراین ما می توانیم با استفاده از دو معادله واریانس، برای $\sigma_R$ و $\rho$ حل کنیم. و من این کار را انجام داده ام. و یک خروجی معقول به دست می دهد... سوال: آیا با توجه به داده هایی که باید آزمایش کنم، آیا راهی وجود دارد که آیا فرض من در مورد مقیاس بندی $R$ منطقی است؟ باز هم، این بر اساس مشاهدات تجربی است. من _نمی توانم_ توزیع مشترک را اندازه گیری کنم. | استنتاج rho پیرسون از اغتشاش توزیع |
40378 | من میخواهم بررسی کنم که آیا تفاوت قابلتوجهی بین سلولهای CD4 در سه نقطه زمانی مختلف پس از عفونت ویروسی وجود دارد یا خیر. من می توانم افزایش جمعیت CD4 را ببینم، اما چگونه می توانم بفهمم که این افزایش از نظر آماری معنی دار است؟ من این مطالعه را روی موش ها انجام داده ام و در هر زمان 3-6 موش داشتم. | چگونه بفهمیم که آیا تغییر در جمعیت CD4 در مقاطع زمانی مختلف قابل توجه است؟ |
7512 | بهترین راه برای همبستگی متغیرهای شمارش تورم صفر با حجم نمونه کوچک (n=~50 و N=99) چیست؟ | همبستگی تورم صفر |
89570 | من با داده های بیولوژیکی کار می کنم. این پروژه در مورد مقایسه ترکیب میکروبیوتا در نمونههای مختلف با رژیم غذایی متفاوت است. طرح آزمایشی این پروژه به شرح زیر است: 1) رژیم غذایی فاکتور -> سطوح: الف) پایه ب) نان سفید (wb) ج) نان جو (bb) 2) فاکتور پاسخ داده شده (در صورت داشتن گلوکز خون بالا) -> سطوح: الف ) پاسخ دهندگان ب) غیر پاسخ دهندگان چنین خواهد بود: خط مبنا wb bb خط مبنا wb bb |____________________| |____________________| Responders nonresponders من تفاوت زیادی بین مقدار یک باکتری در bb-responders و bb-nonResponders دیده ام. از آنجایی که داده ها معمولاً منطقه بندی نمی شوند، اگر از ttest استفاده کنم، مقدار قابل توجهی دریافت نمی کنم. یکی به من پیشنهاد کرد که از آزمون U Mann Whitney استفاده کنم اما مطمئن نیستم از چه نوع تستی استفاده کنم! میشه لطفا در این مورد به من کمک کنید؟ | از چه نوع آزمون آماری برای داده های خود استفاده کنم؟ |
19373 | من در حال خواندن مقاله ای در مورد مطالعه هستم که در آن تعدادی از پاسخ دهندگان سؤالاتی را دریافت کردند که آنها را با استفاده از مقیاس 1-5 درجه بندی کردند. در نتیجه، نویسندگان نوشتند که به مدل های رگرسیون چندگانه خطی برای متغیر وابسته تلفیقی N رسیدند. این به چه معناست؟ (افشا: من دانشجوی آمار ریاضی نیستم، پس لطفا از اصطلاحات غیرمجاز استفاده کنید) | به مدل های رگرسیون چندگانه خطی رسیدیم به چه معناست؟ |
92878 | من تازه وارد رگرسیون لجستیک باینری هستم. من نمی دانم که آیا این آزمایش بر اساس مجموعه داده های من نتایج واقعی را به من می دهد یا خیر. متغیر وابسته من وجود STEC در نمونه های مدفوع خواهد بود (حضور = بله، عدم حضور = خیر). من 9 متغیر مستقل دارم: فصل: زمستان = 0، تابستان = 1 موقعیت جغرافیایی: شهری = 0، روستایی = 1 سیستم های تولید: حیاط خلوت / گسترده = 0، فشرده / نیمه فشرده = 1 سن: <12 ماه = o، > 12 ماه = 1 شیردهی: گاو خشک = 0، گاو شیرده = 1 درمان آنتی بیوتیکی: خیر = 0، بله = 1 برابری تعداد: بدون برابری = 0، عدد برابری > 1 = 1 خوراک: علوفه = 0، سایرین = 1 وضعیت سلامت: بیماری = 0، سالم = 1 آیا می توان همه این پیش بینی کننده ها را شامل شود؟ آیا باید از بلوک استفاده کنم؟ من کمی گیج هستم لطفا کمکم کنید؟ | رگرسیون لجستیک باینری |
93210 | من در حال نظارت بر وب سایتی هستم که در آن دو نوع کاربر دارم (مثلاً A و B). این کاربران می توانند به روش های مختلف در این سایت مشارکت کنند و برای هر مشارکت، زمان آن ثبت می شود. چیزی که میخواهم مقایسه کنم که آیا تعداد روزهایی که کاربر فعال است (به نوعی مشارکت میکند) بین انواع کاربران متفاوت است. من وب سایت را از زمان شروع آن تا چهار ماه پیش زیر نظر دارم. نه همه کاربران به محض ایجاد سایت به آن ملحق شده اند و نه کاربرانی که در ابتدا به آن پیوسته اند هنوز هم مشارکت دارند. آیا تحلیل بقا برای این مقایسه مناسب است؟ | آیا تحلیل بقا برای این مقایسه مناسب است؟ |
89577 | کتاب درسی من می گوید که فاصله اطمینان 100$(1-\alpha)\%$ برای $p$ به شکل زیر است:  همچنین اشاره می کند که این فقط برای زمانی کار می کند که $n$ بزرگ باشد و $p$ خیلی نزدیک به 0 یا 1 نباشد. سعی شد با تمرین زیر مشکل را نشان دهد: ![توضیح تصویر را وارد کنید. اینجا] (http://i.stack.imgur.com/VQjzy.png) من نمیدانم تمرین میخواهد چه چیزی را نشان دهد. به طور خاص، به دست آوردن فواصل با اطمینان تقریباً 95٪ دشوارتر به چه معناست؟ همچنین در پاسخ می گوید اگر $p$ بین $0.1$ و $0.9$ باشد، بازه ما همیشه $p$ را پوشش می دهد. من نمی بینم که چگونه این از 8.10 درست است. | وقتی $n$ کوچک و $p$ نزدیک به 0 یا 1 باشد، مشکلی که برای فاصله اطمینان برای نسبت واحد با آن مواجه میشویم چیست؟ |
92876 | من می خواهم لحظه ها و چندک های یک متغیر تصادفی را که خروجی یک حسگر است محاسبه کنم. من قصد ندارم تمام مقادیر خروجی این سنسور را ذخیره کنم (مثلاً هر 15 دقیقه یک مقدار را خروجی میکند)، بلکه دستههایی از این مقادیر را نگه میدارم (مثلاً یک دسته دو هفتهای) که هر از گاهی دور میاندازم. . من در نظر داشتم تابع چگالی احتمال دسته ای از خروجی ها را با کرنل دانسیته scikit تخمین بزنم. سپس دسته را دور می اندازم و وقتی دسته جدیدی از مقادیر را بدست می آورم، تخمین چگالی احتمال را با این مقادیر جدید به روز می کنم. من می دانم که تابع چگالی احتمالی که من برای هر دسته به طور جداگانه تخمین می زنم تقریباً به طور قطع به چگالی واقعی همگرا می شود، اما نمی دانم اگر چگالی را به صورت افزایشی همانطور که در پاراگراف بالا تعریف شده محاسبه کنم، همچنان برقرار است یا خیر. آیا این راهی است که من باید انجام دهم؟ | لحظه و چندک یک جریان داده را محاسبه کنید |
107878 | با توجه به مدل ANCOVA زیر: $Y_{ij}=\mu+\alpha_i+\beta X_{ij}+\epsilon_{ij}$, $e_{ij}\sim N(0,\sigma^2)$ i.i.d., $ \alpha_1=0$, $i=1,..., m$, $j=1,..., n$ با توجه به اینکه قبلاً محاسبه کرده ام $SC_{W}=\sum_i\sum_j(y_{ij}-\bar{y}_{i.})(x_{ij}-\bar{x}_{i.})$ و $SS_W(X )=\sum_i\sum_j(x_{ij}-\bar{x}_{i.})^2$ چگونه می توان ضریب تعیین $R^2$ را در این مدل محاسبه کرد و فرمول آن چیست انجام این کار؟ | ضریب تعیین در ANCOVA چگونه محاسبه می شود؟ |
92872 | نشان دهید که $Y_1$، آمار مرتبه اول تخمینگر ثابت پارامتر $\alpha $ یک توزیع یکنواخت با $\beta = \alpha+1$ است در اینجا $f_{Y(1)}(y_1)= \begin {cases} n*[1-(y_{(1)}-\alpha)]^{n-1} و {\alpha <Y_{(1)}< \beta} \\\ 0, & \text{وگرنه} \\\ \end{cases}$ طبق تعریف اگر $P[|Y_{(1)}-\alpha|<\epsilon]$ به عدد 1 نزدیک شود زیرا n برای همه $\ به بی نهایت می رود epsilon >0$ سپس $Y_1 $ یک تخمینگر ثابت برای $\alpha است. $ بنابراین، $P[|Y_{(1)}-\alpha|<\epsilon]$=$P[\alpha - \epsilon< Y_{(1)}<\alpha +\epsilon]$. سوال من در مورد محدودیت های ادغام است. حد پایین و بالای $\int n*[1-(y_{(1)}-\alpha)]^{n-1} dy_{(1)}$ be چیست؟ باید از $\alpha$ به $\alpha + \epsilon$ یا از $\alpha $ به $\beta$ باشد. من فکر میکنم باید از طرف باشد زیرا این باید برای هر مقدار $\epsilon $ کار کند و اگر محدودیتی را به عنوان $\alpha$ به $\alpha + \epsilon$ قرار دهم، آنگاه $\beta = \alpha+1$ را نقض میکند. یک $\epsilon$ خاص. لطفاً به من بگویید که چه حدی باید باشد تا نشان دهد که این یک برآوردگر ثابت است | نشان دادن یک برآوردگر سازگار است |
7513 | آیا کسی می تواند نکاتی را در مورد نحوه استفاده از آرگومان وزن در تابع lm R ارائه دهد؟ مثلاً سعی میکردید مدلی را بر روی دادههای ترافیکی تطبیق دهید، و چند صد ردیف داشتید که هر کدام نشاندهنده یک شهر (با جمعیت متفاوت) بود. اگر میخواهید این مدل تأثیر نسبی هر مشاهده را بر اساس اندازه جمعیت تنظیم کند، آیا میتوانید به سادگی «وزنها=[ستون حاوی جمعیت شهر]» را مشخص کنید؟ آیا این نوعی بردار است که می تواند به وزن وارد شود؟ یا آیا باید به طور کامل از یک تابع/بسته/رویکرد R متفاوت استفاده کنید؟ کنجکاو هستم که بشنوم مردم چگونه با این یکی برخورد می کنند - در هیچ یک از آموزش های مدل سازی خطی که در آنجا دیدم، آن را پوشش ندادم. با تشکر | چگونه از وزن ها در تابع lm در R استفاده کنیم؟ |
108765 | راجرز و کانر (2003) توضیح میدهند که چگونه اندازهگیریهای صداگذار از راه دور را میتوان به درستی با در نظر گرفتن تفاوتها در میانگین هستهها و کوواریانسهای خطا مقایسه کرد. آنها فرض می کنند که پروفیل ها در یک شبکه عمودی نشان داده شده اند. راجرز (2000، بخش 3.1) چگونگی تبدیل بردار حالت و کوواریانس خطا را برای قرار دادن آنها در یک شبکه توضیح می دهد: > اگر قصد داریم بازیابی های MAP را در شبکه های مختلف مقایسه کنیم، باید اطمینان حاصل کنیم که > مشابه را با مشابه مقایسه می کنیم. نه تنها حالت باید به درستی تبدیل شود، بلکه کوواریانس قبلی نیز باید تغییر کند. (...) یک کوواریانس مورب با > عناصر مثلاً 100 K^2 در شبکه ای با فاصله 1 کیلومتر معادل > واریانس مشابه در شبکه ای با فاصله 2 کیلومتری نیست. (...) ... و به تشریح جزئیات چگونگی انجام این کار ادامه می دهد. با این حال، هیچ یک از این اسناد نحوه تبدیل صحیح ماتریس هسته میانگین را توضیح نمی دهد. روش صحیحی برای تبدیل میانگین ماتریس هسته $\mathbf{A}$ چیست؟ نکته ای که راجرز برای ماتریس کوواریانس بیان می کند برای ماتریس میانگین هسته نیز به همان اندازه اعمال می شود. به هر حال، تعداد درجات آزادی ($tr(\mathbf{A})$)، برای مثال، نباید تغییر کند تا ماتریس تبدیل شده با ماتریس قدیمی سازگار بماند. * * * راجرز، کلایو دی. روشهای معکوس صداگذاری جوی: تئوری و عمل. جلد 2. سنگاپور: علمی جهانی، 2000. Rodgers, C. D. and B. J. Connor (2003), Intercomparison of remote sounding instruments, J. Geophys. Res., 108(D3), 4116, doi:10.1029/2002JD002299. | در تئوری معکوس، چگونه می توانم ماتریس میانگین هسته را به یک شبکه جدید تبدیل کنم؟ |
88624 | در مثال ذکر شده در این سند برای تجزیه و تحلیل بقا در مورد نحوه تعریف بازه های زمانی، می گوید که منطق ایجاد متغیرهای زمانی این است که، اگر موضوعی هیچ رویدادی نداشته باشد، یک فاصله واحد از 0 تا آخرین پیگیری وجود دارد. ، با وضعیت 0. اگر رویدادهایی وجود داشته باشد، پس برای هر رویداد یک فاصله زمانی وجود دارد (0، رویداد1]، (رویداد1، رویداد2]، و غیره. هر کدام با وضعیت =1. اما اگر موضوع رویدادهای متفاوتی داشته باشد چه می شود. در بازه زمانی 1 و 2 هر دو در بازه زمانی 219 تا 373 از کار افتادند؟ از 8-241 مشاهده شد، آیا باید نگران فاصله زمانی 0-8 برای موضوع 2 باشم 0 1 rIFN-g 1 219 373 1 2 rIFN-g 1 373 414 0 3 rIFN-g 2 0 8 1 1 دارونما 2 8 26 1 2 دارونما 2 26 152 1 3 دارونما 2 152 414 <\-مکان coxph(Surv(tstart، tstop، status) ~ درمان + جنس + سن + ارث + خوشه (id)، داده = cgd) | سوال در مورد ورود دیرهنگام در آنالیز بقا |
88620 | من یک سری مطالعات پزشکی دارم که می خواهم خلاصه آنها را بیان کنم. هر مقاله یک جزء در خون (آن را ماده X می نامند) در بیماران مبتلا به همان بیماری اندازه گیری می کند. علاوه بر این، هر مقاله بیماران را به عنوان مبتلا به بیماری خفیف، متوسط یا شدید طبقه بندی کرده است (اگرچه برخی فقط به عنوان متوسط / شدید دسته بندی می کنند). آنها اندازه گیری را برای هر بیمار ارائه نمی دهند و فقط X را به عنوان میانگین +/- S.D گزارش می کنند. فرضیه من این است که سطح X در بیماران مبتلا به بیماری شدیدتر افزایش می یابد. کاری که من میخواهم انجام دهم این است که یک مقدار p تولید کنم که این را نشان میدهد. من میتوانم یک آنالیز واریانس یکطرفه ساده انجام دهم، اما فرضیه صفر من این خواهد بود که «میان X و شدت بیماری رابطهای وجود ندارد»، اما اگر X در بیماری خفیف بیشترین و در بیماری شدید کوچکترین باشد، باز هم بهعنوان معنیدار ثبت میشود. چگونه می توانم ویژگی ترتیبی خفیف/متوسط/شدید را در نظر بگیرم و فقط در صورت خفیف < متوسط < شدید، اهمیت داشته باشم؟ | متاآنالیز آنوا یک طرفه |
88628 | فرض کنید $ X = X_1 + X_2،...+ X_n $، جایی که $\; X_i \sim N(0,\sigma^2)$ و مستقل. سوال من این است که چه توزیعی $$ Z = \frac{X^2}{X_1^2 + X_2^2 + ... + X_n^2} \;\;\; (1)$$ به شرح زیر است. از اینجا میدانم که نسبت دو متغیر تصادفی مجذور کای که به صورت $\frac{W}{W + Y}$ بیان میشود، از توزیع $بتا$ پیروی میکند. من فکر می کنم که این استقلال بین $W$ و $Y$ را فرض می کند. در مورد من (1) هر چند، مخرج $Z$ اجزای $X$ مجذور است. من فکر میکنم که $Z$ نیز باید از نوعی توزیع $beta$ پیروی کند، اما مطمئن نیستم. و اگر این فرض درست باشد، نمی دانم چگونه آن را ثابت کنم. | توزیع نسبت متغیرهای تصادفی کای دو وابسته |
96550 | من یک محقق بالینی هستم و مطالعه ای را برای یافتن عواملی که بر کیفیت تصویر یک دستگاه چشم تأثیر می گذارد، انجام داده ام. کیفیت تصویر به عنوان قابل قبول یا غیرقابل قبول (2 گروه) طبقه بندی شده است و عوامل تعیین کننده آن عبارتند از تیرگی رسانه (می تواند درجه 1، 2، یا 3)، آب مروارید (موجود/غایب)، اندازه دیافراگم چشم (1) - 10 میلی متر)، سن (20 تا 60 سال) و جنسیت (مرد / زن). چگونه باید در مورد توصیف نتایج و توصیف تأثیر این عوامل خطر اقدام کنم؟ | چگونه تأثیر مجموعه ای از عوامل خطر را بر یک پاسخ توصیف می کنید؟ |
92874 | من یک آزمایش ساده را تحت چهار شرط اجرا کرده ام: کنترل، تکنیک A، تکنیک B، و تکنیک C (که a+b است) متغیر وابسته سازگاری است (به عنوان مثال بله/خیر) این نتایج من است (25 شرکت کننده در هر گروه) : کنترل-- بله: 9 خیر: 16 فناوری A-- بله: 17 خیر: 8 فناوری B-- بله: 18 خیر: 7 فناوری C (a+b)-- بله: 24 خیر: 1 چندین فرضیه** دارم. _First_ تکنیک A را با کنترل مقایسه می کند، با استفاده از خوب بودن چی، و اهمیت را نشان می دهد. _دوم_ تکنیک B را با کنترل مقایسه می کند، با استفاده از خوب بودن چی، و اهمیت را نشان می دهد. _سوم_ تلاش می کند ثابت کند که تکنیک C به صورت مجزا از تکنیک A یا تکنیک B موثرتر است. برای انجام این کار، من از آزمون دقیق فیشر برای مقایسه A با C، و سپس B با C در دو جدول احتمالی 2×2 استفاده میکنم (به دلیل مقدار کم در تکنیک C، از فیشر استفاده میکنم). اینها نیز اهمیت خود را نشان داده اند. **پس این مختصر است!** سؤالات اصلی من (عمدتاً نظری) عبارتند از: 1) برای تست **خوبی تناسب چی، از کدام اندازه اثر استفاده می کنید**؟ به من می گویند Cramer's V، Phi، Omega و W! (به نظر میرسد که پاسخهای بیشتری برای تست تداعی چی وجود دارد، اما برای تست تناسب چی خوب نیست) 2) آیا میتوانید از **نسبت شانس برای تمجید از تست تناسب چی استفاده کنید؟ اگر بله، این به ما چه می گوید؟ شاید شانس بله در یکی از تکنیک ها در مقایسه با کنترل اتفاق بیفتد؟ 3) برای **تست های دقیق فیشر** برای دو جدول احتمالی 2*2: من دوست دارم از برخی **تحلیل های پس از انجام** یا حتی اندازه گیری اندازه اثر/شانس استفاده کنم تا نتایج خود را جالب تر از یک فیشر ساده کنم. آزمون اهمیت - اما من نمی دانم چه چیزی می توانم استفاده کنم! 4) من نگران **تصحیح تست های متعدد در آزمون فیشر هستم.** آیا لازم است این کار را برای فرضیه 3 انجام دهم؟ شاید سطح معنی داری را بر 2 تقسیم کنید زیرا این مقدار جداول است؟ یا از نوعی تست بونفرونی استفاده کنید؟ با تشکر فراوان از آماردانان! | چی خوب و فیشر: برخی مسائل نظری پس از آزمایش |
93211 | من فقط به من گفته بودم که نمی توان به طور منطقی از آمارهای غیر پارامتریک استنباط کرد. این به نظر من به همان اندازه پوچ به نظر می رسد که به نظر می رسد جایگزین منطقی منطقی و منطقی برای نمونه گیری مجدد ضد واقعی/رتبه بندی جایگزین (و غیره)، معادل منطق رویکردهای مکررگرا باشد. کجا/چه تفاوتی در منطق وجود دارد؟ آیا استنباط به جامعه از آزمون های غیر پارامتری منطقی است؟ | آیا استنباط به جامعه از آزمون های ناپارامتریک منطقی است؟ |
19377 | آیا خروجی «fft()» R نرمال شده است یا خیر؟ به عبارت دیگر، آیا باید قبل از محاسبه زاویه فاز با استفاده از «atan2()» ابتدا خروجی را عادی کنم؟ در مورد یک موضوع مرتبط، آیا کسی می داند که چه تغییر فازی در تابع fft() R استفاده می شود؟ | آیا برای محاسبه زاویه فاز از خروجی fft غیر نرمال یا نرمال شده از R استفاده می کنم؟ |
19375 | من یک سری زمانی بسیار طولانی دارم (حدود یک گیگابایت با فرمت ascii) که به این صورت است: 1، 0.5 2، 0.52 3، 0.3. . . نقاط در نقاط زمانی اعداد صحیح رخ می دهند و عمدتاً 1 ثانیه از هم فاصله دارند. بخش کمی از دست رفته است. مشخص است که این سریال زمانی به اوج خود می رسد که یک پدیده خاص رخ می دهد. با این حال، برخی نویزهای اساسی وجود دارد که تشخیص پیک های واقعی از نویز تصادفی را دشوار می کند. من الگوریتمی دارم که حدود 500 نقطه را ایجاد کرده است که ممکن است پیک ها رخ دهد. من پروفایلی از 101 نقطه را استخراج کردم، 50 نقطه قبل از موقعیت اوج و 50 بعد از آن، تا ببینم در اطراف هر موقعیت اوج پیش بینی شده چه اتفاقی می افتد. با بررسی چشمی، بسیاری از پروفیل ها چندان شبیه به قله ها نبودند. (فکر می کنم این به این دلیل است که سریال سر و صدای زیادی دارد.) تصمیم گرفتم تمام پروفایل ها را با هم میانگین بگیرم. نتیجه یک سری جدید است که در آن اولین نقطه میانگین تمام نقاط -50 گام زمانی دورتر از نقطه مرکزی من است و آخرین نقطه میانگین تمام نقاط +50 قدم زمانی دورتر از نقطه مرکزی من است. امید من این بود که قله ای را نزدیک به نقطه مرکزی نیمرخ متوسط ببینم که انجام دادم، تقریباً +2 گام زمانی از نقطه مرکزی. من این عدد +2 را به عنوان معیاری برای دقت الگوریتم مکانیابی اوج در نظر میگیرم. (اگر مشخص شود برخی از نقاط یک نمایه گم شده اند، که به ندرت اتفاق می افتد، من فقط مواردی را که هستند اضافه می کنم و مقادیر گم شده را نادیده می گیرم، بنابراین برخی از موقعیت ها در نمایه متوسط از نقاط کمی بیشتر از سایرین به دست می آیند.) پروفیل متوسط یک شکل کلاسیک اوج دارد که مقادیر به آرامی به اوج میرسند، همانطور که فرد از چپ به راست حرکت میکند، حدود 2 موقعیت بعد از نقطه مرکزی و دوباره کاهش مییابد. اگر 500 موقعیت را به طور تصادفی انتخاب کنم، یک خط نسبتاً صاف به دست میآورم که آن را تقریباً ثابت تفسیر میکنم. بنابراین، من فکر میکنم الگوریتم مکانیابی اوج در واقع توانایی تشخیص زمان اوجگیری سری را دارد. من یک تست آماری میخواهم که به من بگوید چه زمانی باید میانگین نیمرخ را بهعنوان مسطح ارزیابی کنم و چه زمانی باید آن را فقط به عنوان یک اوج ارزیابی کنم. کسی میتونه لطفا کمک کنه؟ | تشخیص یک قله در یک پروفایل متوسط |
96553 | چگونه چولگی را با نگاه کردن به نمودار جعبه ای که از این داده ها ساخته شده است، تعیین کنیم: 340، 300، 520، 340، 320، 290، 260، 330 یک کتاب می گوید: اگر چارک پایین از میانه دورتر از چارک بالایی باشد، پس توزیع منحرف شده است. چندین منبع دیگر نیز کمابیش همین را گفتند. من یک باکس پلات با استفاده از R ساختم. مانند شکل زیر است:  من فکر می کنم که **منفی است**، زیرا چارک پایینی از میانه دورتر از چارک بالایی است. اما مشکل زمانی است که من از روش دیگری برای تعیین چولگی استفاده میکنم: میانگین (337.5) > میانه (325) این نشان میدهد که دادهها **بهطور مثبت چوله هستند**. آیا چیزی را از دست دادم؟ | چگونه می توان چولگی را از یک باکس پلات ارزیابی کرد؟ |
114171 | چگونه می توانم یک پی دی اف دو قله (تجربی) را به 2 مثلاً lognormal یا پی دی اف مناسب دیگر به روشی ساده تجزیه کنم؟ من در Matlab ترجیح می دهم.  به چیزی شبیه به این:  متشکرم! | یک پی دی اف با 2 پیک را به 2 پی دی اف ابتدایی تجزیه کنید |
92393 | من با http://mlg.eng.cam.ac.uk/duvenaud/cookbook/index.html آمدم و در واقع بسیار مفید است. در برخی موارد می گوید > اگر فقط از یک هسته خطی در یک GP استفاده می کنید، به سادگی رگرسیون خطی بیزی را انجام می دهید و خبر خوبی است! شما می توانید این کار را به موقع $O(N)$ به جای > $O(N^3)$ انجام دهید چرا اینطور است؟ | هسته خطی در رگرسیون خطی بیزین |
16493 | برای بازه پیشبینی در رگرسیون خطی، همچنان از $\hat{E}[Y|x] = \hat{\beta_0}+\hat{\beta}_{1}x$ برای ایجاد بازه استفاده میکنید. شما همچنین از این برای ایجاد فاصله اطمینان $E[Y|x_0]$ استفاده میکنید. چه تفاوتی بین این دو وجود دارد؟ | تفاوت بین فواصل اطمینان و فواصل پیش بینی |
78611 | من سعی می کنم یک تست مجذور کای روی داده های زیر انجام دهم: به دست آمد: 31 مورد انتظار: 19.87179 از مجموع: 182 آیا می توان چنین آزمایشی را فقط روی یک مورد از داده ها انجام داد؟ تمام نمونه هایی که من با آنها مواجه شده ام از مجموعه های متعدد داده استفاده می کنند. در نهایت میخواهم بتوانم درصد شانسی که نتیجه فوق به صورت تصادفی رخ داده است را کمیت کنم. | بهترین روش برای انجام آزمون کای دو تنها با یک مجموعه داده چیست؟ |
7518 | اگر تابعی را در IML تعریف کنم: start func(a); ارسال یک / R; چاپ (&a); پایان ارسال پایان؛ و اجرا کنید: run func(character string); من پیغام خطا را دریافت می کنم: شی رشته کاراکتر وجود ندارد. بنابراین R یا IML رشته کاراکتر را در یک شی ارزیابی می کند. من میخواهم R خروجی «رشته کاراکتر» بدهد. چگونه این کار را انجام دهم؟ | نحوه ارسال رشته های کاراکتر به R از استودیو IML |
10964 | من داشتم شواهدی از WLLN و نسخهای از SLLN را ارائه میدادم (با فرض 4مین لحظه مرکزی محدود) که کسی پرسید که احتمال با توجه به کدام معیار است و من متوجه شدم که با تأمل، کاملاً مطمئن نبودم. به نظر می رسد که ساده است، زیرا در هر دو قانون ما دنباله ای از $X_{i}$، RV های مستقل با میانگین یکسان و واریانس محدود داریم. فقط یک متغیر تصادفی در رویت وجود دارد، یعنی $X_{i}$، بنابراین احتمال باید بدون توزیع $X_{i}$ باشد، درست است؟ اما به نظر می رسد این برای قانون قوی کاملاً درست نیست زیرا روش اثبات معمولی تعریف یک RV جدید $S_{n} := \sum_{i=1}^{n} X_{i}$ و کار است. با آن، و حد امکان _inside_ است: $ Pr \left[\lim_{n \rightarrow \infty}\frac{1}{n}\sum_{i=1}^{n} X_{i} = E[X_{i}]\right] = 1 $ بنابراین اکنون به نظر می رسد که RV مجموع بیش از $n$ عبارت است، بنابراین احتمال بیش از توزیع مجموع $S_{n} است. $، جایی که $n$ دیگر ثابت نیست. آیا این درست است؟ اگر چنین است، چگونه میتوانیم یک اندازهگیری احتمال مناسب روی دنبالههای مجموع جزئی بسازیم؟ خوشحالم از دریافت پاسخ های شهودی در مورد آنچه در حال وقوع است و همچنین پاسخ های رسمی با استفاده از مثال. تحلیل واقعی یا پیچیده، احتمال/آمار کارشناسی، نظریه اندازه گیری پایه. من همگرایی در احتمال در مقابل همگرایی تقریبا مطمئن و پیوندهای مرتبط را خوانده ام، اما هیچ کمکی در آنجا پیدا نکردم. | در همگرایی در احتمال یا a.s. همگرایی با کدام معیار احتمال است؟ |
88622 | من مجموعه ای از داده های سری زمانی دارم و به دنبال تقسیم به دوره های زمانی مختلف برای آزمایش ناهمسانی یا عدم وجود آن در بازه های زمانی مختلف هستم. در ابتدا، من برنامه ریزی کردم که این کار را به این صورت انجام دهم: تغییر روزانه ماه گذشته، سال گذشته، 2 سال گذشته و غیره را در نظر بگیرید و با یکدیگر آزمایش کنید. یا روش زیر از نظر آماری بهتر است؟ هنوز از تغییرات روزانه استفاده میشود، به ماهها تقسیم میشود و تغییرات روزانه را طی ماهها در 10 سال گذشته آزمایش میکند. سپس با سالها، 2 سال و غیره تکرار کنید. امیدواریم این منطقی باشد. | چگونه باید این داده ها را هنگام آزمایش برای هتروسکداستیکی تقسیم کنم |
64877 | من یک بتای غیر استاندارد از -2.615-E5 دارم. E به چه معناست؟ من هرگز این را ندیده ام. با تشکر | بتای غیر استاندارد با E در آن |
61991 | من در حال کار بر روی ارتباط عوامل معلم با پیشرفت دانش آموزان هستم. چگونه باید مجموعه داده ها را در SPSS برای 130 معلم و 4000 نمره دانش آموز آماده کنم؟ من نیز همین سوال را در مورد رگرسیون دارم، آیا باید آنها را همانطور که هست وارد کنم یا باید کاری در مجموعه داده خود انجام دهم. من با SPSS تازه کار هستم و از هر کمکی ممنونم. | یافتن همبستگی بین اندازه گروه های نابرابر در SPSS |
19376 | من فرآیندی دارم که از آزمایشی تا آزمایشی مدت زمان متغیری طول می کشد. در طول یک آزمایش، من عکسهای فوری از وضعیت را در فواصل زمانی ثابت میگیرم. من می خواهم بردار حاصل از عکس های فوری (هم مقادیر و هم ابعاد) را برای یک آزمایش خاص به عنوان نمونه ای از توزیع چند متغیره مدل کنم. آیا راه ثابتی برای انجام این کار وجود دارد؟ به عنوان یک مثال ساده، تابع $f(x) = a\cos(b x)\\!+\\!c\;\;$ را در نظر بگیرید که $a$,$b$ و $c$ همه از آن ترسیم شدهاند. توزیع تک متغیره مربوطه آنها برای یک آزمایش خاص و در طول یک آزمایش معین ثابت می ماند. اگر مقدار $f(x)$ را در فواصل گسسته بیش از $x$ پیدا کنم تا زمانی که یک دوره کامل را مشاهده کنم و آن بردار مقادیر را به عنوان یک نمونه از یک توزیع در نظر بگیرم، چگونه می توانم آن توزیع چند متغیره را توصیف کنم؟ * * * این به نوعی با ایده فرآیند گاوسی مرتبط است. من این ایده را دوست دارم، اما مشکل طول متغیر در آن رویکرد خاص برای مدلسازی دادههای من آچار میزند. | نمونههای ابعاد متغیر ناشی از فرآیندهای طول متغیر با اندازهگیری فاصله ثابت |
2262 | من در حال حاضر در شرایطی هستم که واقعاً نمی دانم چگونه خودم آن را حل کنم. من باید AUC هر قله را محاسبه کنم و سپس این مناطق را نسبت به یکدیگر مقایسه کنم. مشکل این است که قله ها کاملاً از هم جدا نیستند و تنها اطلاعاتی که من بدست آوردم میانگین و SD هر پیک است. کسی میدونه چطوری میشه اینکارو کرد؟ هر اشاره یا حدس در حال حاضر واقعا جالب خواهد بود. با تشکر | ناحیه زیر منحنی (AUC) - میانگین قله و انحراف استاندارد (SD) |
10961 | من سعی می کنم با استفاده از قیمت های 'brent' قیمت های 'فولاد' را با مدل زیر مدل کنم: $steel_t=\alpha + \beta steel_{t-1}+\gamma brent_t + \epsilon_t$ داده های ماهانه دارم. من مقادیر پارامتر را با `lm` (R، آیا منطقی است؟) برازش کردم. حالا میخواهم اثر یک «رویداد شوک» را در یک سال ببینم، مثلاً. اگر قیمت برنت در یک سال به 50 دلار برسد (امروزه حدود 100 دلار است) چه اتفاقی برای قیمت فولاد می افتد. چگونه می توانم آن را انجام دهم؟ آیا استفاده از مدل خودرگرسیون برای چنین تحلیلی منطقی است؟ | مدل خودرگرسیون و رویدادهای شوک |
47960 | من اغلب در شرایطی قرار دارم که مجموعههای دادهای متشکل از یک متغیر مستقل، یک متغیر وابسته، و یک عامل با سطوح چندگانه داشته باشم - به عنوان مثال، منحنیهای کالیبراسیون برای یک ابزار اندازهگیری شده در روزهای مختلف. میخواهم بدانم که آیا دادهها با یک خط برازش منفرد بهتر توصیف میشوند یا با یک خط برازش متفاوت برای هر سطح عامل. به عنوان مثال، اینکه آیا داده ها به بهترین وجه توسط یک منحنی کالیبراسیون بر اساس همه داده ها توصیف می شوند یا اینکه تفاوت های قابل توجهی در منحنی های فردی برای هر روز وجود دارد. با توجه به آنچه که من درک می کنم، ANCOVA به طور جداگانه به من می گوید که آیا این عامل با شیب تعامل دارد و سپس آیا با رهگیری تعامل دارد یا خیر. چیزی که می خواهم بدانم این است که آیا فاکتور تأثیر قابل توجهی بر شیب و قطع خط دارد یا خیر. مثالی در R: request(reshape) # برای melt() #Set up some data set.seed(0) x <- seq(from=0, to=2, length.out=50) y1 <- x + rnorm (طول(x)) + 0.3 y2 <- 1.2*x + rnorm(طول(x)) d <- data.frame(x=x، day1=y1، day2=y2)#, day3=y3, day4=y4) dm <- melt(d, id.vars=x) ggplot(dm, aes(x=x, y=value, colour=variable)) + geom_point () + geom_smooth(method=lm, se=T)  m <- lm(value ~ x*variable, data=dm) summary(m)  در اینجا، اثر عامل و برهمکنش عامل با متغیر مستقل، هر کدام به صورت حاشیه ای معنی دار هستند - در آلفا = 0.05 ما نمی تواند این فرضیه را رد کند که عامل بر شیب یا برش اثر دارد. با این حال، در کنار هم، شاید مهم باشند. آیا روش خوبی برای ارزیابی این موضوع وجود دارد؟ | تفاوت های قابل توجه بین خطوط مناسب - ANCOVA کافی نیست؟ |
16492 | در بسیاری از کاربردها، به عنوان مثال، در مهندسی معدن، زمانی که ما نیاز به ایجاد نقشه پراکندگی یک عنصر (به عنوان مثال، مس) در زمینه مطالعه داریم، برای به تصویر کشیدن مناطق تخلیه و غلظت، باید روش های تخمین را روی نمونه های موجود اعمال کنیم. نمونه ها در همه جا پراکنده هستند: برخی از قسمت ها تصادفی تر و برخی دیگر منظم تر به نظر می رسند. در روشهای تخمینی مانند IDW (وزنگذاری فاصله معکوس) و کریجینگ و غیره، ما ترجیح میدهیم تعداد محدودی از نمونههای نزدیک را در تخمین هر نقطه مرکزی بگنجانیم. اگر برای بحث بهینه سازی های محاسباتی را نادیده می گیریم، **معیار انتخاب تعداد مناسب نمونه برای تخمین چه می تواند باشد؟** **نکته:** * در مهندسی معدن و علوم زمین، انتخاب یک روش معمول است. بین 10 تا 15 نمونه برای میانگین. * ترکیب نمونههای بیشتر، نتایج صافتری ایجاد میکند که در برخی موارد خروجیهای مورد نظر هستند، اما نه برای همه موارد. * سوال به جای تصور تجسم به دنبال یک معیار آماری است که معمولاً به عنوان معیار نیز به آن اشاره می شود! **نکته مهم:** سوال کلی به نظر می رسد. Kriging یا IDW تنها نمونه هایی هستند. معیارهای مورد نظر باید برای هر روش تخمینی قابل تعمیم باشند. _Kriging:_ این روش به دلیل اصولی که دارد (حل ماتریسی) نیاز به تعداد کمی نمونه دارد تا قابل حل باشد. | چگونه می توان تعداد نمونه های نزدیک را برای تخمین فضایی تعیین کرد؟ |
108815 | من با نتایج یک تست روانسنجی کار می کنم. دوازده عامل وجود دارد و هر کدام سه عامل فرعی دارند. مشکل من این است که یکی از عوامل فرعی بسیار زیاد 0.3 تا 0.7 با عوامل فرعی سایر عوامل در واقع با همه به جز 10 مورد از 36 همبستگی دارد. . اگرچه این را می توان با نگاه کردن به معنای این صفات توضیح داد. اما آیا باید استحکام ساختار عاملی یا ابزار را زیر سوال برد؟ علاوه بر این، همبستگی های درون عاملی نیز در بسیاری از موارد کم و ناچیز است. لطفاً توجه داشته باشید که این یک ابزار روانسنجی بسیار خوب تحقیق و شناخته شده است. برای تفسیر این اطلاعات به کمک نیاز دارید. نظری دارید، من باید از این مشاهده چه کنم؟ این را برای اطلاعات بیشتر اضافه کرد: نه واقعاً، مدل اندازهگیری برخی از همبستگیهای قوی را برای زیر عامل خارج از عامل خودش نشان میدهد (3 همبستگی از این قبیل قوی هستند)، که هیچ یک از آنها بیشتر از o.5 نیست. در نمونه های خود من به طور مداوم دو همبستگی را در 0.7 و دو همبستگی دیگر را در 0.6 می بینم (من 23 از 36 همبستگی را بالای 0.3 می بینم). ای کاش می توانستم همبستگی ها را در اینجا به اشتراک بگذارم، اما اطلاعات اختصاصی است. و فاکتور فرعی همبستگی بسیار کمی با فاکتور فرعی دیگر درون عامل خود دارد. این موارد دیگر در مقایسه با همبستگی های ارائه شده در کتابچه راهنمای کاربر بسیار بالا هستند. ممکنه خطای نمونه برداری باشه؟ اگر این همبستگی ها اغراق آمیز باشد (بیشتر از آنچه در گروه هنجار دیده می شود) چه استنباط هایی می توانم برای نمونه ها بگیرم؟ | همبستگی های درون عاملی در ابزار اندازه گیری روانسنجی |
88626 | بنابراین می دانم که یک سری زمانی می تواند ثابت یا غیر ثابت باشد. من همچنین می دانم که غیر ثابت ما را از استفاده از بسیاری از ابزارهای اقتصاد سنجی خود باز می دارد، زیرا واریانس های ما مغرضانه هستند. بنابراین، این یک ویژگی ناخواسته است. اما، چه رابطه ای بین فرآیندهای ثابت/غیر ثابت و مثلاً یک فرآیند AR وجود دارد؟ آیا همه فرآیندهای AR طبیعتاً ثابت نیستند؟ | رابطه بین ثابت بودن، فرآیندهای MA و AR؟ |
46268 | اجازه دهید $X_1، \dots، X_n$ از بازه $[0,1]$ i.i.d باشد. من به شرایطی علاقه دارم که واریانس نمونه $$\frac{1}{n-1} \sum_{i=1}^n (X_i - \overline{X})^2$$ (که در آن $\overline{X }$ میانگین نمونه است) به حداکثر می رسد. | حداکثر واریانس نمونه |
108689 | من از روش STDRATE برای بدست آوردن تخمین ها و خطاهای استاندارد برای 5 دوره زمانی مختلف بین 1980-2000 در فاصله زمانی 5 ساله (1980، 1985، 1990، 1995 و 2000) استفاده کرده ام. این به این معنی است که من تخمین نقطه ای و 95٪ CI برای X_1، X_2، X_3، X_4 دلار و X_5 دلار دارم که بین سال های 1980-2000 باز می شود. به عنوان مثال من تخمین هایی را با 95% کلر برای X1 = 22 (18 تا 25)، X2 = 30 (24 تا 33) X3 = 14 (12 تا 16) X4 = 10 (8 تا 11) X5 = 6 (2-) دارم. 7) حال اگر بخواهم تغییر مطلق را با تخمین نقطه ای و 95% فاصله اطمینان (CI) بین شروع مطالعه (یعنی X1) و پایان محاسبه کنم. (یعنی X5)، چگونه این کار را انجام دهم؟ **یک مطالعه مشابه این کار را انجام داده است و به نظر می رسد اینگونه به نظر می رسد**، متغیرهای آنها a1، a2، a3، a4 و a5 هستند. این داده های آنهاست. a1= 4.2 (3.8 تا 4.5)، a2= 3.7 (3.3 تا 4.0)، a3= 2.4 (2.3 تا 2.5) a4= 1.9 (1.8 تا 2.0) a5= 1.5 (1.4 تا 1.6). تغییر مطلق آنها -2.7 (-3.0 به -2.4) بود. | فاصله اطمینان برای تغییرات مطلق |
10963 | من دادههایی مانند Person $A$ مانند فیلمهای ['X','Y', 'Z'] دارم و او از '['V']' متنفر است. شخص $B$ فیلمهای «['X','L','V']' را میپسندد و «['Y']» را دوست ندارد. مانند بسیاری از کاربران عاقل. الگوریتم خوبی برای یافتن میانگین تفاوت سلیقه کاربران چیست؟ | الگوریتم محاسبه اختلاف سلیقه کاربران |
46263 | آیا نرمافزار سادهای برای پرداخت میانی ردیفها و ستونهای Tukey با مقادیر زیادی از دست رفته وجود دارد؟ | نرم افزار پولیش میانی |
10965 | من از تابع پیشبینی «ets» در R استفاده میکنم. وقتی یک مدل را به برخی از سریهای زمانی تنظیم میکنم: مدل<-ets(t1) [36 دوره] و پیشبینیهای محاسبه از آن مدل: f1 <- پیشبینی (model,10) ) بنابراین من 10 پیش بینی برای دوره های 37-48 دریافت می کنم، بنابراین سؤال من این است که آیا این پیش بینی های 10 امتیازی یک قدم جلوتر هستند که دارای آنها هستند. دانه ها در $t,t+1,t+2$ با $t=37$ یا این پیش بینی ها با بذرشان فقط در $t=37$ با افق پیش بینی $h=1,2,3,4,... $ | مشکل با ets از بسته پیش بینی R |
61998 | من علاقه مند به محاسبه همبستگی بین مجموعه داده های مورد انتظار و مشاهده شده هستم. من سعی می کنم مقادیر مشاهده شده (n<12) و مورد انتظار را که نسبت های کوچکی از 0 تا 7.4 هستند و به طور غیر عادی توزیع شده اند، مقایسه کنم. من تعدادی از تبدیل ها را امتحان کرده ام، اما به نظر می رسد هیچ کدام داده های مشاهده شده من را به اندازه کافی برای پاسخگویی به تست هایی که به داده های توزیع شده معمولی نیاز دارند تغییر نمی دهد. من در حال حاضر از آزمایشهای ناپارامتریک بسته R «روکوکو» استفاده میکنم که به من نیاز دارد تا معیارهای شباهت را بر اساس ترتیبهای فازی مشخص کنم. ترجمه PDF این بسته که نحوه انتخاب معیار شباهت مناسب برای داده ها را توضیح می دهد تا حدودی سخت است. آیا کسی میتواند به نکات/منابعی اشاره کند که از کدام معیار استفاده کنیم، به عنوان مثال، خطی، گاوس (یان) یا نمایی؟ من چندین معیار شباهت را با استفاده از معیارهای مختلف امتحان کرده ام، و آنها ضرایب همبستگی کاملاً متفاوتی را ارائه می دهند. من واقعاً قدردانی میکنم که بفهمم کدام معیار برای موقعیتهای مختلف بهترین است. | چگونه تعیین کنیم که از کدام معیار شباهت هنگام محاسبه ضریب همبستگی رتبه گامای قوی استفاده کنیم؟ |
61997 | هر شماره از ماهنامه AMS _Notices_ شامل ستون چیست... است. این ستون یک مقاله توضیحی در مورد یک موضوع معین است، به عنوان مثال. توپولوژی غیر جابجایی چیست. آیا آمارگیران چیزی مشابه دارند؟ | نسخه آماری ستونهای «چیست...» در اطلاعیهها |
43053 | برای تعیین غلظت کربن آلی در محلول آب از طیفسنجی UV، من یک منحنی کالیبراسیون با غلظتهای کربن شناخته شده ایجاد کردم و جذب UV را اندازهگیری کردم. من از R برای تجزیه و تحلیل داده ها استفاده کردم و داده ها در زیر یافت می شوند. سوال من اکنون این است که چگونه دقت منحنی کالیبراسیون خود را تعیین کنم. می خواهم به مردم بگویم که مثلاً می توانم غلظت ها را با دقت 15 درصد یا 4 میلی گرم در لیتر اندازه گیری کنم. چگونه می توانم با این کار ادامه دهم؟ آیا می توانم فقط از R^2$ (0.91) استفاده کنم و بگویم که عدم قطعیت 9٪ (1-0.91) دارم؟ راه صحیح انجام این کار چیست؟ غلظت <- c(27.2،32.4،16.5،11.6،11.9،9.87،46.0،73.6،75.4،73.1،59.5،49.0، 79.0،81.6،66.7،26.7) جذب <- c(0.76، 0.76، 0.76 0.373، 0.287، 0.253، 1.660، 2.331، 2.255، 2.019، 1.130، 1.858، 2.404، 2.812، 2.362، 0.636، 0.636، غلظت (جاذب = 4)، نمودار (جذب 2) ylab = غلظت (mg l-1)) fit <- lm(غلظت ~ جذب) abline(fit) lm_coef <- round(coef(fit), 3) # ضرایب استخراج myr2 <- قالب(خلاصه(مناسب)$ adj.r.squared، اعداد = 2) legend(topleft، legend = as.expression(c(bquote(paste(لین. معادله: , y == .(lm_coef[2])*x + .(lm_coef[1]))), bquote(paste(، R^2 == .(myr2)))))، cex = 0.6) | چگونه دقت کالیبراسیون/عدم قطعیت یک رگرسیون خطی را تعیین کنیم؟ |
16497 | **عملیات مبتنی بر هسته** در کاربردهای مختلفی مانند پردازش تصویر (به عنوان مثال، محو کردن)، ایجاد نقشه های تخمینی هموار و غیره رایج هستند. یک رویکرد رایج این است که چهار سلول اطراف را انتخاب کنید (شکل زیر را ببینید: **A** سلول های سبز رنگ) سپس مقدار متوسط آنها را از جمله مقدار سلول مرکزی که به عنوان تخمین اختصاص داده می شود محاسبه کنید. به نظر می رسد که برخی از سؤالات من را مورد بحث قرار دهد: **1-** من دو انتخاب سلول دیگر یعنی B و C را پیشنهاد می کنم. سؤال این است که چه نوع توجیه آماری می تواند به توصیه یکی از آنها کمک کند؟ **2-** کدام بخش از تجزیه و تحلیل آماری برای بحث در مورد چنین سؤالات مفهومی/عملی مناسب است؟  **درک من این است:** زیرا آن سلول ها (سبزها در **A**) نزدیکترین آنها به سلول مرکزی (سلول مورد علاقه برای تخمین و غیره). برای مورد **B** در مقایسه با **A** واضح است بنابراین **B** انتخاب بهتری نیست. در مقایسه بین **A** و **C**، با این حال، مورد **A** دارای یک نقطه ضعف است، فاقد پشتیبانی مورب است، در حالی که برای مورد **C** جهت های کامل را پوشش می دهد. من فکر میکنم مورد **A** به دلیل محاسبات کمتر مورد نیاز است، اما با هزینه سوگیریهای مورب. در اینجا یک مثال از اجرای این ایده ها وجود دارد:  امیدواریم که این به درک تفاوت های اعمال شده با هسته های مختلف کمک کند. میانگین تنظیمات **برنامه ها:** یک برنامه نمونه را می توان در After Kernel Averaging یافت که در آن نوع **C** اعمال شده است. | درباره برآوردهای مبتنی بر هسته |
90248 | من اخیراً 350 خانواده کم درآمد را بررسی کردم - آنها به طور تصادفی به دو گروه تقسیم شدند: کنترل و درمان. یکی از متغیرهایی که خیلی به آن علاقه دارم میزان پس انداز هر خانواده است. نمونه بسیار کج است (به زیر مراجعه کنید)، زیرا اکثریت قریب به اتفاق نمونه پساندازی ندارند (0 دلار)، و پسانداز کمی وجود دارد. من میخواهم اطلاعاتی در مورد اینکه چه نوع آزمایش آماری میتوانم برای مقایسه دو گروه بین یکدیگر قبل از درمان استفاده کنم تا نشان دهم میزان پسانداز و مقادیر یکسان است، و بعد از درمان برای مقایسه تغییر در پسانداز بین دو گروه گروه پس از درمان اعمال شد.  پیشاپیش از هر نظری که ممکن است ارائه دهید متشکریم. | آزمون های آماری برای مقایسه یک نمونه بالینی اریب |
96552 | من یک مدل رگرسیون پویا را در R اجرا می کنم. چگونه می توانم به سفارشات بهینه $p$,$q$,$r$ برسم؟ من از چند مقدار متفاوت از $0$ تا $3$ برای هر یک از $p$ و $r$ و $0$ یا $1$ برای $q$ امتحان کردم. اما تا چه زمانی باید چک کنم؟ همچنین اگر AIC برای مثال $(3,1,3)$ در مقایسه با $(1,1,0)$ کمتر باشد اما در $(3,1,3)$ باشد، ضریب بخش AR معنی دار نیست. سپس باید $(3،1،3)$ را ترک کنم یا همچنان آن یکی را بگیرم؟ اساساً سؤال این است که چه چیزی بین اهمیت ضرایب و AIC اولویت دارد؟ | بهینه سازی رگرسیون پویا در R |
69776 | من یک سوال ساده دارم. من همچنین برخی از مطالب مرتبط با PCA را در اینجا مرور کرده ام. من یک ماتریس داده بدون برچسب $M$ در $N$ دارم که از $M=1000$ امتیاز و ویژگیهای $N=500$ تشکیل شده است. من ماتریس خود را استاندارد میکنم، PCA را انجام میدهم و تصمیم میگیرم از دو کامپیوتر برتر استفاده کنم. اجازه دهید فرض کنیم که آنها ویژگیهای فوقالعادهای برای استفاده هستند، و من تصمیم میگیرم یک (k=3)-means را اجرا کنم، فضای تصمیمگیری خوب خود را بدست بیاورم، و غیره، همه چیز در دنیا خوب است. **سوال:** وقتی یک نقطه داده جدید دارم که می خواهم آن را به عنوان متعلق به یکی از آن سه خوشه طبقه بندی کنم: * به نظر می رسد که باید همیشه دو ستون اول ماتریس $U$ را حفظ کنم. من برای همیشه در PCA استفاده کردم تا بتوانم همیشه نقطه جدید خود را به آنها نشان دهم. آیا این درست است؟ * وقتی PCA را انجام دادم، باید داده هایم را استاندارد می کردم، یعنی میانگین ویژگی ها را حذف می کردم و یکپارچگی std آنها را ایجاد می کردم. بنابراین، آیا اکنون که آن را دارم باید برای این نقطه داده جدید هم کاری انجام دهم؟ متشکرم. | سردرگمی جزئی در استفاده از ویژگی های رایانه شخصی برای طبقه بندی |
69883 | من یک چند جمله ای درجه دوم کامل 3 متغیری دارم $$ f(x,y,z) = c_0 + c_1 x + c_2 y + c_3 z + c_4 x y + c_5 x z + c_6 y z + c_7 x^2 + c_8 y^2 + c_9 z^2 $$ هر یک از ضرایب $c_i$ با یک خطای استاندارد $s_i$ شناخته می شوند. با نادیده گرفتن خطاهای استاندارد $s_i$، من یک نقطه ثابت دارم، با مقادیر $(x_0، y_0، z_0)$ (بنابراین $f'(x_0,y_0,z_0) = 0$ را برآورده می کنم)، اما تعجب می کنم: ** چگونه از خطاهای استاندارد ضرایب، خطاهای استاندارد برای $x_0$، $y_0$ و $z_0$ را استنتاج کنیم. ?** اگر کمک کند، خطاهای ضرایب (1) بسیار کوچک و (2) نامرتبط هستند. من می توانم ببینم که این مشکل را می توان به صورت انتقال خطاها از ضرایب $c_i$ به نقطه ثابت $(x_0,y_0,z_0)$ در سیستم معادلات مرتبه اول حاصل از $f'(x_0,y_0) فرموله کرد. ,z_0) = 0$: \begin{cases} c_1 + c_4 y_0 + c_5 z_0 + 2 c_7 x_0 = 0 \\\ c_2 + c_4 x_0 + c_6 z_0 + 2 c_8 y_0 = 0 \\\ c_3 + c_5 x_0 + c_6 y_0 + 2 c_9 z_0 = 0 \end{موارد} **ویرایش:** سعی کردم بیان الکو را ساده کنید، اما شروع به لرزیدن کرد و بعد از دیدن بیان از آن خارج شد. $C^{-1}$: $$ \frac{1}{2 (c_9 c_4^2-c_5 c_6 c_4+c_6^2 c_7+c_8 (c_5^2-4 c_7 c_9))} %\left( \ start{array}{ccc} c_6^2-4 c_8 c_9 & 2 c_4 c_9-c_5 c_6 & 2 c_5 c_8-c_4 c_6 \\\ 2 c_4 c_9-c_5 c_6 & c_5^2-4 c_7 c_9 & 2 c_6 c_7-c_4 c_5 \\\ 2 c_5 c_8-c_4 c_6 & 2 c_6 c_7-c_4 c_5 & c_4 c_7 c_8 \end{array} %\right) $$ کاری که من در نهایت انجام دادم این بود که بیشتر فرضیه دادم که ضرایب به طور معمول توزیع شده اند. سپس یک نمونه از 1000 ضریب برای $c_i$ از $N(c_i,s_i)$ ترسیم کردم و نقطه ثابت حاصل را با هر یک از 1000 مجموعه ضرایب محاسبه کردم. این نقاط ثابت نیز به طور معمول توزیع شده بودند و من در نهایت توانستم از توزیع آنها خطای استاندارد آنها را استنتاج کنم. | خطای استاندارد نقطه ثابت یک چند جمله ای مرتبه 2 که ضریب خطای std آن مشخص است |
2264 | من رتبه بندی محصولات را برای چند هزار محصول دریافت کرده ام. تعداد امتیازات برای هر محصول از صفر تا حدود پنجاه متغیر است. من می خواهم ارزش مورد انتظار رتبه بندی محصول را برای هر محصول پیدا کنم. اگر رتبهبندیهای زیادی برای محصول وجود داشته باشد، انتظار میرود که مقدار مورد انتظار، میانگین رتبهبندیهای محصول باشد، اما اگر تعداد کمی وجود داشته باشد، انتظار دارم که مقدار مورد انتظار به میانگین همه رتبهها نزدیکتر باشد. . چگونه مقدار واقعی مورد انتظار را محاسبه کنم؟ لطفا ملایم باشید: من آماردان یا ریاضیدان نیستم. ویرایش 1: پاسخ جوریس در زیر نشان میدهد که من نمیتوانم مقدار مورد انتظار را محاسبه کنم، زیرا طبق تعریف این بدان معناست که من باید کل جمعیت را داشته باشم. در این صورت لطفاً می توانید به من بگویید چگونه مقداری را محاسبه کنم که از نظر روحی مشابه ارزش مورد انتظار است، به کل جمعیت نیاز ندارد و می تواند از اطلاعات قبلی استفاده کند. ویرایش 2: من انتظار دارم که اگر رتبهبندیهای هر محصول دارای رتبهبندی واریانس پایینی باشد، یا اگر واریانس بسیار بالایی بین رتبهبندیهای محصولات مختلف وجود داشته باشد، رتبهبندیهای اندازهگیری شده اهمیت بیشتری دارند. | ارزش مورد انتظار نمونه کوچک |
79431 | در زمینه پیشبینی، دو سری زمانی متفاوت دارم: y = {y1، y2، ..، yn} و z = {z1، z2، ...، zn}. در R، فرض کنید که دو سری به صورت زیر هستند: y <\- arima.sim(list(order = c(1,0,0), ar = 0.7), n = 100) z <\- arima.sim (list(order = c(1,0,0), ar = 0.5), n = 100) با استفاده از تابع auto.arima() در بسته R پیش بینی، من مدلهای ARIMA که میتوانند برای توصیف دینامیک زمانی دو سری زمانی استفاده شوند: fit.y <\- auto.arima(y) fit.z <\- auto.arima(z) سپس، من از forecast.Arima( استفاده میکنم. ) تابعی برای تولید پیش بینی های یک گام جلوتر و فواصل پیش بینی مرتبط برای هر سری با استفاده از روش بوت استرپ: for.y <\- forecast(fit.y, h=1, bootstrap=TRUE, npaths=5000) for.z <\- forecast(fit.z, h=1, bootstrap=TRUE, npaths=5000) تابع forecast یک پیش بینی نقطه و یک فاصله پیش بینی را برمی گرداند. با این حال، 5000 پیشبینی راهاندازی مورد استفاده برای تولید فواصل پیشبینی توسط تابع پیشبینی گزارش نمیشوند. علاوه بر این، به نظر میرسد (؟) که تابع پیشبینی از چندکهای توزیع نرمال برای ساخت فاصله پیشبینی گزارششده استفاده میکند، حتی اگر به نظر میرسد استفاده از بوت استرپینگ نیاز به استفاده از چندکهای تجربی حاصل از توزیع «پیشبینیهای راهانداز» دارد. علاقه من به 5000 پیش بینی بوت استرپ به دلیل نیاز به ایجاد فاصله پیش بینی برای y + z است. اگر به «پیشبینیهای بوت استرپ» برای y و «پیشبینیهای راهانداز» برای z دسترسی داشتم، میتوانستم به سادگی آنها را جمع کنم تا توزیع بوت استرپ پیشبینی یک مرحلهای y + z را به دست بیاورم. آیا راهی وجود دارد که بتوانم 5000 پیش بینی راه انداز را از تابع ()forecast استخراج کنم؟ چیز دیگری که به نظر می رسد در استفاده از forecast() در یک مدل ARIMA که شامل یک دریفت است، چالش هایی ایجاد می کند. به نظر من افق پیش بینی استفاده شده توسط ()forecast به نوعی به پارامتر xreg متصل است. اگر مدل ARIMA شامل یک دریفت باشد، پارامتر xreg همان ابعاد سری زمانی اصلی () را خواهد داشت، بنابراین تابع پیش بینی به طور خودکار تا n مرحله جلوتر را پیش بینی می کند. اگر بخواهم فقط یک قدم جلوتر را پیش بینی کنم، چگونه می توانم این مشکل را دور بزنم؟ متشکرم! | چگونه پیش بینی های بوت استرپ را از forecast.Arima در پیش بینی بسته R استخراج کنیم؟ |
81625 | من یک اندازه گیری فاصله دارم که بین 0 تا 1 بین چند جفت جمعیت است. من باید بفهمم که آیا هر فاصله با استفاده از جایگشت ها از نظر آماری با صفر متفاوت است یا خیر، آیا پیشنهادی برای رسیدن به آن وجود دارد؟ با تشکر | تشبیه هایی برای آزمایش اینکه آیا مقادیر متفاوت از صفر هستند؟ |
65472 | فرض کنید من یک سری بازده سهام از 2000-2013 دارم. با نگاهی به داده ها، الگوی روند طولانی بازار صعودی دارد: 2001-2008 و 2010-2013، در حالی که در بحران مالی 2008 نیز معکوس بزرگی داشته است. بنابراین اگر سری بازگشتی روزانه را به عنوان $y_{t}$ نشان دهیم، دو ویژگی وجود دارد: (1) $y_{t}$ دارای یک قسمت متوسط غیر صفر در سری بازگشتی است که با $r_{t}$ نشان داده می شود. ، که چیزی شبیه به عامل کلان است. (2) $r_{t}$ را می توان با $r_{t-1}، r_{t-2}،... $، در طول سالهای خوب، یا همبستگی منفی در طول سالهای بد، همبستگی داشت. معمولاً کاری که مردم با استفاده از مدل ARMA انجام میدهند، ابتدا $r_{t}$ را به صورت $r_{t} = (y_{t-1} + ... + y_{t-k})/N $ تخمین زده و سری را تغذیه میکنند. $y_t - r_t$ در جعبه ابزار شناسایی ARMA برای دریافت ضرایب. با این حال، واقعاً معلوم میشود که انتخاب $k$ میتواند کاملاً حیاتی باشد: ارزش $k$ نشان میدهد که چقدر به روند گذشته باور داریم، که گفتن آن واقعاً سخت است. به عنوان مثال، در سال 2008 که بحران مالی رخ داد، دلیلی ندارید که باور کنید بازار مانند سال های خوب گذشته ادامه خواهد داشت. در حالی که در سالهای خوب، تصور میکنید که اقتصاد جهانی به خوبی کار میکند و میتوانید از یک پنجره طولانی $k$ استفاده کنید. یا شاید بهتر است مدل را به انتخاب $k$ وابسته نکنید. بنابراین به سؤال مربوط به مدلسازی سریهای زمانی بازگردیم: اگر سری زمانی میانگین غیر صفر داشته باشد، که در نقطههای زمانی مختلف $t$ کاملاً متفاوت است، معمولاً چه میکنند؟ | آیا می توان از سری های زمانی برای پیش بینی سری هایی که دارای روند تغییر هستند استفاده کرد؟ |
104514 | من MANCOVA 2 در 2 را با مجموعه داده های تجربی انجام می دهم. موارد زیر متغیرهایی هستند که من استفاده کردم. DV1، DV2، IV1، IV2 و C1 که در آن DV=متغیر وابسته، IV=متغیر مستقل و C=متغیر کمکی است. مطابق با فرضیه های من، تعامل IV1 و IV2 به طور قابل توجهی بر هر دو DV1 و DV2 تأثیر می گذارد. با این حال، این سوالی است که من برای پاسخ به آن مشکل دارم. نتایج MANCOVA نشان داد که C1 به طور قابل توجهی DV1 و DV2 را پیشبینی میکند. در این صورت چگونه می توانم C1 را تفسیر کنم؟ چندین توضیح احتمالی که به آن رسیدم به شرح زیر است. -تقابل IV1 و IV2 حتی پس از کنترل C1 قابل توجه است. -C1 قابل توجه است، به این معنی که تعامل نمی تواند به طور دقیق DV ها را توضیح دهد. کدام یک درست است؟ یا هر دو اشتباه می کنند؟ از کمک شما بسیار سپاسگزارم! | تفسیر متغیرهای کمکی در MANCOVA 2 در 2 |
46264 | من دادههایی دارم که برای تحلیل بقای زمان گسسته بسیار مناسب به نظر میرسند، به این صورت که هر سوژه از زمان ورودش به سیستم تا خروجش، دنبالهای از مشاهدات متوالی دارد، و من علاقهمندم که احتمال خروج یک سوژه را تعیین کنم. سیستم در بازه زمانی بعدی نکته مهم این است که دوره های زمانی از نظر طول یکنواخت نیستند. چندین راه ممکن برای حل این مشکل وجود دارد. دو مورد برتری که به ذهن می رسد عبارتند از: 1\. افزایش دانه بندی با گسسته کردن بیشتر فواصل زمانی من به حداقل طول 2\. بازههای زمانی فردی را همانطور که هست رها میکنم، اما با وزن دادن به هر دوره در تحلیل بر اساس طول واقعی آن، گزینه دوم را به گزینه اول ترجیح میدهم. سوالات من این است: 1\. آیا گزینه دوم قابل قبول است؟ 2\. کدام یک از دو گزینه ارجح است؟ 3\. آیا گزینه سوم بهتری وجود دارد؟ متشکرم | تجزیه و تحلیل بقای زمان گسسته با پنجره های رویداد با طول های مختلف |
56909 | می خواستم بدانم چه رابطه و تفاوتی بین استنتاج علی و پیش بینی (طبقه بندی و رگرسیون) وجود دارد؟ به عنوان مثال، در پیش بینی، متغیرهای پیش بینی/ورودی و متغیرهای پاسخ/خروجی داریم. آیا این بدان معناست که بین متغیرهای ورودی و خروجی رابطه علی وجود دارد؟ پس آیا پیش بینی به استنتاج علی تعلق دارد؟ اگر درست متوجه شده باشم، استنتاج علی تخمین توزیع شرطی یک متغیر تصادفی را با توجه به متغیر تصادفی دیگر در نظر می گیرد و اغلب از مدل های گرافیکی برای نشان دادن استقلال شرطی بین متغیرهای تصادفی استفاده می کند. بنابراین استنتاج علی به این معنا پیش بینی نیست، اینطور است؟ با تشکر و احترام! | رابطه بین استنتاج علی و پیش بینی (طبقه بندی و رگرسیون) |
61996 | مجموعه داده ای که من سعی در تجزیه و تحلیل آن دارم داده های آزمون دانش آموز است. من داده ای از پاسخ ها (یا 1/پاسخ صحیح یا 0/پاسخ نادرست) در مورد برخی از سوالات مجموعه ای از دانش آموزان دارم. من یک مدل لجستیک 3 پارامتری را برای هر سوال برازش دادهام و سپس خوب بودن برآورد برازش و بنابراین مقادیر p مربوطه را محاسبه کردم. اکنون مشکل من این است که نمیدانم چگونه این تخمینهای برازش فردی را جمعآوری کنم تا به خوبی برازش کلی برای کل مدل به دست بیاورم، آیا معیاری (ترجیحاً در زبان برنامهنویسی R) وجود دارد که بتواند بسته به کل مدل را پیشنهاد کند. بر روی مقادیر p تست های متعدد. بسته ای که من استفاده کردم ltm داخل R است. | به طور کلی خوب بودن تناسب / مقدار p برای چندین مورد مدل IRT در R (ltm) |
69773 | من یک سوال دارم که باید ثابت کنم آیا تابع زیر یک PMF با متغیر تصادفی پواسون است یا خیر. تابع به صورت زیر است... $f(x) = \pi \frac {\lambda_1^x}{x!} e^{-\lambda_1} + (1-\pi) \frac {\lambda_2^x} {x!}e^{-\lambda_2} $ که در آن $x\epsilon \mathrm X = \\{0,1,...\\}, \pi \epsilon (0,1)، \lambda_1, \lambda_2 > 0, \lambda_1 \neq \lambda_2$ آیا میتوانم $f(x)$ را به 2 تابع تقسیم کنم $\sum_{x=0}^{\infty}\pi \frac {\lambda_1^x} {x!} e^{-\lambda_1}$ و $\sum_{x=0}^{\infty} (1-\pi) \frac {\lambda_2^x}{x!}e^{-\lambda_2}$ ~~ برای اثبات اینکه یک PMF است و بنابراین با استفاده از این تابع 2 فرعی به محاسبه انتظارات~~ و واریانس آن ادامه دهید؟ من انتظار $f(x)$ را دریافتهام، که $\mathbb E[X] = \mathbb E[X_1] + \mathbb E[X_2]؛ $ کجا، $\mathbb E[X_1] = \sum_{x=0}^{\infty}x\pi \frac{\lambda_1^x}{x!}e^{-\lambda_1} = \pi\lambda_1$ $\mathbb E[X_2]=\sum_{x=0}^{\infty} x(1-\pi)\frac{\lambda_2^x}{x!}e^{-\lambda_2 } = (1-\pi)\lambda_2$ حال سوال من این است که چگونه باید انجام دهم تا بفهمم واریانس چیست زیرا واریانسی که من دارم با انتظار متفاوت است. بالاتر رفتم برای یک متغیر تصادفی پواسون، انتظار باید همان واریانس باشد. درست میگم؟ من همچنین سعی کردم از تابع تولید لحظه استفاده کنم. برای دیفرانسیل 1 همون نتیجه ای که انتظار داشتم گرفتم. اما نمیتوانستم بار دوم را بیشتر از هم متمایز کنم تا واریانس خود را بدست بیاورم زیرا تمام عبارتهای باقیمانده عبارتهای ثابت هستند. آیا می توانم پیشنهادی داشته باشم که چگونه باید از کجا ادامه دهم؟ | آیا می توان یک تابع را به تابع فرعی تقسیم کرد تا ثابت شود که تابع جرم احتمالی است؟ و چگونه می توان واریانس چنین تابعی را پیدا کرد؟ |
46265 | من به نمودار متغیر در مقابل پاسخ نگاه می کنم، و برای اکثر مشاهدات مقوله ای به نظر می رسد، اما برخی اینطور نیستند. در اینجا تصویری از طرح است.  آیا آستانه ای برای مقدار فرات برای تعیین اینکه آیا یک متغیر می تواند طبقه بندی شود وجود دارد؟ ویرایش: در نمودار، «x» نرخ مالیات ($\ برابر 100 دلار) مناطق مختلف است، و «y» ارزش متوسط خانههای منطقه است. | چگونه تعیین کنیم که آیا یک متغیر طبقه بندی شده است؟ |
56901 | من یک سوال در مورد فیلتر Kalman-Bucy دارم: توزیع قبلی $g \sim N(0,σ_g^2 )$ است، سیگنال $ds=(μ+g_t )dt+σdZ_t$ است، توزیع پسین تبدیل به $g_t \sim می شود. N((\hat{g_t},\hatσ_t^2)$. در اینجا،$σ_g,μ,σ$ ثابت هستند. حالا اگر میانگین قبلی را از 0 تا a، جایی که a ثابت است، چیزهای دیگر ثابت می مانند، آیا می توانم بدانم که چگونه توزیع پسین تغییر می کند. | فیلتر Kalman- Bucy: تغییر میانگین قبلی |
11616 | ### زمینه من با یک محقق در موقعیت زیر صحبت می کردم. * شرکت کنندگان (500 نفر) از مدارس نمونه گیری شدند. * شرکت کنندگان از حدود 50 مدرسه مختلف بودند. * تعداد شرکت کنندگان در هر مدرسه متفاوت بود و برخی مدارس 20 یا 30 شرکت کننده را عرضه می کردند، اما چند مدرسه فقط 3 یا 4 یا 5 شرکت کننده را عرضه می کردند. * محقق در تلاش بود تا ارزیابی کند که آیا نقض اساسی فرض استقلال مشاهدات وجود دارد یا خیر. بنابراین، آنها به بررسی همبستگی درون کلاسی متغیرهای نتیجه اصلی بر اساس تأثیر مدرسه پرداختند. ### سوال * آیا گنجاندن گروه ها در تحلیل همبستگی درون کلاسی با اعداد کم در هر گروه مشکل ساز است؟ اگر چنین است، پیامدهای این کار چیست؟ قاعده کلی در مورد حداقل تعداد برای گنجاندن چه می تواند باشد؟ * برای آن را به افراطی، چه برخی از گروه ها تنها یک شرکت کننده عرضه می شود؟ * اگر گروه هایی با اندازه نمونه زیر یک آستانه مشخص وجود داشته باشد، اقدام بعدی چیست؟ حذف گروه از تجزیه و تحلیل؟ گروه های کوچک را به یک گروه دیگر تقسیم کنید؟ * هر توصیه ای که ارائه می شود چه ارتباطی با ارزیابی فرض استقلال مشاهدات دارد؟ | ارزیابی استقلال مشاهدات با استفاده از همبستگی درون طبقاتی زمانی که برخی از گروهها حجم نمونه گروهی کوچکی دارند |
46260 | من به شبیه سازی مونت کارلو اهمیت می دهم و در حال بررسی کدم برای برخی از خطاها هستم. من تازه فهمیدم (راه سخت) که برای تولید یک بردار واحد که در جهت تصادفی اشاره می کند، نمی توانم به سادگی 3 (یا هر عدد دیگری) عدد تصادفی را انتخاب کنم و آنها را نرمال کنم. من متوجه نشدم که چرا نمی توانم این کار را انجام دهم جدا از این ادعا که بردار تولید شده حتی احتمال اشاره به هر جهتی را ندارد. من نمی توانم ریاضیات پشت سر آن را پیدا کنم و گمان می کنم که این عمدتا به دلیل عدم وجود عبارت مناسب برای جستجو باشد. چه چیزی را باید جستجو کنم؟ کجا میتونم توضیح بدم؟ ترجیحا بدون پیش فرض دانش قبلی. | از کجا می توانم در مورد تبدیل توزیع تصادفی یکنواخت به توزیع دیگر بیاموزم |
61994 | من با مجموعه دادهای سروکار دارم که شامل دادههای متنی غنی (مانند ورودیهای وبلاگ، مقالات مجلات، مقالات، بررسیهای کتاب، و غیره) و همچنین مجموعهای از معیارهای اختصاصی، از جمله معیارهای کمی متعددی از رزونانس مصرفکننده است. همه دادههای متنی به یک زبان هستند و حجم نمونه مجموعه دادهها تقریباً 400 است. برخی از پیش پردازشهای انسانی از دادههای متنی برای خلاصه کردن تقریباً 10 جنبه کلیدی هر اثر متنی طراحی شده است (این معیارها در سراسر جهان تغییر نمیکنند. نمونه)، و این جنبه های کلیدی می توانند مقادیر بولی، مقوله ای یا گسسته باشند. علاوه بر این، من قصد دارم از یک الگوریتم کیسه کلمات در سراسر نمونه برای تکمیل تجزیه و تحلیل تولید شده توسط انسان استفاده کنم. من در حال بررسی استفاده از یک شبکه عصبی برای تلاش برای پیش بینی رزونانس مصرف کننده با استفاده از داده های شرح داده شده در بالا هستم، اما برای من مهم است که اهمیت نسبی هر عامل را درک کنم. علاوه بر این، من انتظار دارم که از تقریباً 10 معیار متنی، برخی از آنها نقش بسیار بیشتری در تأثیرگذاری بر رزونانس مصرف کننده نسبت به سایرین ایفا کنند، و اهمیت آنها ممکن است بسته به محتوای موضوعی مقاله خاص تغییر کند. به عنوان مثال، افرادی که مقاله ای در مورد زیبایی زنان یا مسائل قرار ملاقات در شهرهای بزرگ می خوانند، ممکن است به چیزهای متفاوتی نسبت به کسانی که نقد کتاب در نیویورک تایمز می خوانند، ارزش قائل شوند. من این سوالات را دارم: * آیا می توان با استفاده از یک شبکه عصبی از این اهمیت نسبی عقب نشینی کرد؟ * آیا این داده ها به اندازه کافی بزرگ هستند که یک شبکه عصبی را به درستی آموزش دهند؟ * آیا بهتر است از یک درخت بیزی یا رویکرد SVM استفاده کنم، یا شاید از آنها در ارتباط با یک شبکه عصبی برای تکمیل تحلیل استفاده کنم؟ * من یک شبکه پس انتشار را در نظر داشتم، اما آیا نوع بالقوه معتبرتری وجود دارد که باید به آن نگاه کنم؟ | راه حل های جعبه سیاه شبکه عصبی |
65479 | من در حال مقایسه دو نسخه از یک نظرسنجی (یک نسخه اصلی و یک اصلاح شده) هستم و نمیدانم که آیا آزمون مکنمار-بوکر مناسب است یا خیر. این نظرسنجی از پاسخدهندگان میخواهد که نشان دهند آیا از سن 14 سالگی تجربه (در این مورد، تماس جنسی ناخواسته) داشتهاند یا خیر. پاسخدهندگان چهار گزینه پاسخ برای نشان دادن تعداد دفعات تجربه معین دارند، کدگذاری شده به روش زیر: هرگز یک بار دو بار سه بار یا چند بار فرضیه من این است که شرکت کنندگان در صورت ارائه نسخه اصلاح شده، تعداد بیشتری از تجربیات را در مقایسه با نسخه اصلی نشان خواهند داد. در این مثال، من به میزان اعتراف مردان به انجام اعمال جنسی ناخواسته نگاه می کنم. با این فرضیه که نسخه اصلاح شده باعث افزایش نرخ ارتکاب پذیرفته شده نسبت به نسخه اصلی خواهد شد. داده های من در واقع افزایش نرخ پذیرش مرد در نسخه اصلاح شده را نشان می دهد. MALE ORIGINAL (n) MALE MODIFIED (n) هرگز = 281 هرگز = 270 یک بار = 18 یک بار = 18 دو بار = 7 دو بار = 8 سه + = 7 سه + = 17 کل پذیرش = 32 کل پذیرش = 43 کل n = 313 مجموع n = 313 بنابراین، اکنون میخواهم تفاوت معنیدار بین نرخ پاسخدهی در این دو نظرسنجی را آزمایش کنم تا ببینم آیا افزایش پذیرش در نسخه اصلاحشده از نظر آماری بهطور معنیداری بیشتر است یا خیر. **_این یک طرح اندازه گیری های تکراری است، بنابراین هر شرکت کننده هر دو نسخه نظرسنجی را انجام داد. برنامه من این است که جدول را به این صورت ترتیب دهم: > > نظرسنجی اصلی > > > |هرگز | یک بار | دوبار | سه + | کل | > |________|________|_________|___________|_______| > هرگز| 261 | 7 | 2 | 0 | 270 | > |________|________|_________|___________|_______| > یک بار| 12 | 5 | 1 | 0 | 18 | > |________|________|_________|___________|_______| > دوبار| 3 | 4 | 1 | 0 | 8 | > |________|________|_________|___________|_______| > Three +| 5 | 2 | 3 | 7 | 17 | > |________|________|_________|___________|_______| > TOTAL | 281 | 18 | 7 | 7 | 313 | > |________|________|_________|___________|_______| > > > نظرسنجی اصلاح شده هنگامی که تجزیه و تحلیل فوق را در جدول های متقاطع SPSS اجرا می کنم، مقدار مربع کای مک نمار-باوکر 13.316، df = 6، p = 0.038 را دریافت می کنم. بنابراین **سوالات** من عبارتند از: 1. آیا McNemar-Bowker برای داده ها و فرضیه من مناسب است؟ 2. با مقدار p حاصل از 0.038 می توانم بگویم که نتایج حاصل از دو نظرسنجی به طور قابل توجهی متفاوت است -- با نسخه اصلاح شده که افزایش پذیرش مرد را نشان می دهد؟ | آزمون مک نمار-بوکر برای مقایسه دو معیار |
61990 | من اخیراً شروع به مطالعه استنتاج آماری کرده ام. من با مشکلات مختلفی کار کرده ام و این یکی من را کاملاً گیج کرده است. اجازه دهید $X_1,\dots,X_n$ یک نمونه تصادفی از یک توزیع گسسته باشد که با احتمال $\frac{1}{3}$ مقادیر $\theta-1,\space\theta,\space\text{یا را اختصاص میدهد. }\space\theta+1$، که $\theta$ یک عدد صحیح است. نشان دهید که آمار کافی و کامل وجود ندارد. هر ایده ای؟ | آمار کافی را کامل کنید |
56900 | من یک مجموعه داده 20 ساله از تعداد سالانه فراوانی گونه ها برای مجموعه ای از چند ضلعی ها دارم (200 چند ضلعی با شکل نامنظم و پیوسته). من از تحلیل رگرسیون برای استنتاج روندها (تغییر تعداد در سال) برای هر چند ضلعی و همچنین تجمیع داده های چند ضلعی بر اساس مرزهای مدیریت استفاده کرده ام. من مطمئن هستم که خود همبستگی مکانی در داده ها وجود دارد، که مطمئناً بر تحلیل رگرسیون برای داده های انبوه تأثیر می گذارد. سوال من این است - چگونه می توانم یک تست SAC را برای داده های سری زمانی اجرا کنم؟ آیا باید به SAC باقیمانده از رگرسیون خود برای هر سال نگاه کنم (I جهانی موران)؟ یا می توانم یک آزمون را با تمام سال ها اجرا کنم؟ هنگامی که من آزمایش کردم که بله SAC وجود دارد، آیا راه حل آسانی برای رسیدگی به این موضوع وجود دارد؟ پسزمینه آمار من حداقل است و هر آنچه در مدلسازی مکانی-زمانی خواندهام بسیار پیچیده به نظر میرسد. من میدانم که R یک تابع خودکار متغییر وزنی دارد - آیا استفاده از آن اصلاً ساده است؟ من واقعاً در مورد نحوه ارزیابی/اضافه کردن SAC برای این مشکل کاملاً گیج هستم و از هرگونه پیشنهاد، پیوند یا مرجع بسیار سپاسگزارم. پیشاپیش متشکرم | خودهمبستگی مکانی برای داده های سری زمانی |
9415 | کوواریانس بین دو متغیر تصادفی معیاری از نزدیک بودن خطی آنها به یکدیگر را تعیین می کند. اما اگر توزیع مشترک دایره ای باشد چه؟ مطمئناً ساختاری در توزیع وجود دارد. این ساختار چگونه استخراج می شود؟ | اندازه گیری وابستگی غیر خطی |
43050 | من یک شرطی کامل از فرم دارم: $$ p(X|...) \propto \exp(-(aX^2 +bX +c/X))، $$ همه سایر شرایط کامل من سادهسازی مدل به شکل سادهتر و برای سادگی، میخواهم مدل خود را با استفاده از Jags یا WinBugs نمونهسازی کنم (به این معنی که باید فرمی را برای $p(X|...)$ بیان کنم و آن را من نمی توانم به صراحت از یک مرحله Metropolis برای $p(X|)$ (فکر می کنم) استفاده کنم. آیا امکان انجام این کار وجود دارد؟ اگر چنین است، چگونه؟ | فرم غیر متعارف برای یک شرط کامل |
19019 | برای ساخت یک مدل رگرسیون خطی و/یا یک مدل Splines رگرسیون چند متغیره برای هر متغیر به چند مورد نیاز است؟ همچنین، 1. آیا این یک قانون سرانگشتی است یا توجیه آماری دارد؟ 2. آیا منابع کتابشناختی وجود دارد؟ | حداقل تعداد مشاهدات در هر متغیر برای رگرسیون خطی یا مدل MARS |
108818 | من میخواهم مدلهای افزودنی تعمیمیافته بزرگ را برازش کنم، و میخواهم بدانم مقیاس تخمین چگونه انجام میشود، یعنی زمانی که 1. افزایش تعداد گرهها به میزان 1، 2. هنگام افزودن یک پیشبینیکننده صاف دیگر (با فرض پشتیبانی یکسان) چقدر طول میکشد تا مدل برازش کند. و تعداد گره ها به عنوان گره (های) موجود، 3. هنگام افزایش تعداد مشاهدات با 1. من گمان می کنم که مقیاس خطی نیست، اما چیزی شبیه به درجه دوم یا نمایی آیا کسی ایده یا مرجعی دارد که بتوانم بررسی کنم؟ پیشاپیش متشکرم | چگونه یک مقیاس GAM با افزایش تعداد گره ها، پیش بینی ها و مشاهدات مقیاس می شود؟ |
43051 | فرض کنید من یک مرکز اجتماعی را اداره میکنم و میخواهم میانگین مدت زمانی را که فردی عضو مرکز جمعآوری است، پیدا کنم. انجام این کار با افرادی که قبلاً حساب های خود را لغو کرده اند ساده است، اما من مطمئن نیستم که چگونه با داده های افرادی که هنوز حساب دارند کار کنم. برای مثال، فرض کنید میانگین مدت افرادی که کنسل کرده اند 500 روز باشد. اما وقتی میانگین مدتهای حساب _all_ را در نظر میگیرم (با فرض اینکه امروز «تاریخ پایان» برای اعضای فعلی است)، این عدد به 1000 تبدیل میشود. مشکل واضح در این مورد این است که ممکن است یک عضو فعلی فردا لغو کند یا ممکن است در آن عضو لغو شود. 10 سال. علاوه بر این، فردی که دیروز به آن ملحق شده است، مدت زمان 1 روز خواهد داشت که دقیق نیست. تصور من این است که این شامل پیش بینی زمان لغو عضویت فعلی است، اما به نظر می رسد که چندین لایه پیچیدگی به این سوال (به ظاهر) ساده اضافه می کند. من پیشاپیش عذرخواهی می کنم اگر این سوال مطرح شده است. من سعی کردم جستجو کنم، اما ممکن است اصطلاح درستی برای این مفهوم نمی دانم. | میانگین مدت زمان جاری |
57058 | من به دنبال این هستم که آیا شرکتهای دارای پشتوانه سرمایه خطرپذیر شرکتی (1) عملکرد بهتری نسبت به شرکتهای دارای پشتوانه سرمایه خطرپذیر مستقل (0) در عملکرد POST-IPO خود دارند یا خیر. فرض من این است که این رابطه با میزان تجربه (مداوم) یا تقویت می شود یا تضعیف می شود. پس از ایجاد یک متغیر جدید برای Corporate VC*Experience، سپس این مقادیر را در یک رگرسیون قرار دادم و به من یک VIF بیش از 23 می دهد. | نحوه حذف چند خطی بالا با یک متغیر تعدیل کننده پیوسته و یک متغیر مستقل طبقه بندی شده |
114178 | من یک پزشک بالینی هستم که در تفسیر کارآزمایی های بالینی به شیوه ای مکرر از حد متوسط ماهرتر هستم. در این مرحله، تفسیر یک کارآزمایی به مکرر به نوعی به یک روش تبدیل شده است: بررسی اعتبار داخلی، بررسی فرضیههای صفر و جایگزین، بررسی مفروضات قدرت، بررسی اندازه اثر و فواصل اطمینان، نگاه به مقدار p و غیره. فلسفه بیزی جذاب است. هر چند بیشتر برای من به طور شهودی. من میدانم فلسفه استنتاج بیزی چیست، زیرا اپیدمیولوژی بالینی انجام دادهام (احتمال بیماری پیش از آزمون با نتایج آزمایش و نسبت احتمال بهروزرسانی میشود تا احتمال پسآزمون ایجاد شود). چیزی که من هنوز نمی دانم این است که آیا روش مشابهی برای تفسیر یک کارآزمایی بالینی وجود دارد که برای یک متخصص مکرر وجود دارد یا خیر. چه اعداد/فرض/ارقامی از نویسندگان برای تفسیر یک مطالعه به عنوان بیزی نیاز دارم (مثلاً برای یک مکررگرا که مقدار p، فواصل اطمینان و غیره باشد)؟ آیا رویه خوبی برای تفسیر یک مطالعه به عنوان بیزی وجود دارد، بسیار شبیه به تفسیر مکررگرا؟ آیا نشریات خوبی وجود دارد که شما می شناسید که روند درخواستی من را توضیح دهد و پزشکان به عنوان مخاطبان مورد نظرشان باشند؟ من از کمک شما قدردانی می کنم! | استنتاج بیزی از یک کارآزمایی بالینی برای پزشکان |
69882 | من از یک مدل ترکیبی برای پیشبینی پیشرفت تومور (y) با استفاده از حجم تومور (x) به عنوان اثر ثابت و مرکز ($i=1،...10$) به عنوان قطع تصادفی استفاده میکنم. مدل را می توان به صورت زیر نوشت: $y_{ij}=\alpha+\beta x_{ij}+b_{i}+\epsilon_{ij}$ من از تابع lme() در R استفاده کردم: `fit1 <- lme(PD ~ log(Volume)، تصادفی = ~1 | CenterID، data=Data)` نتیجه نشان می دهد که انحراف استاندارد رهگیری تصادفی 0.079 است. بنابراین $b_{i}$ از توزیع نرمال $N(0,0.079)$ پیروی می کند. در ضمن، می توانم با اعمال ranef(fit1) وقفه تصادفی را استخراج کنم. این فهرستی از $b_{i}$ مربوط به هر مرکز را نشان می دهد. سپس استاندارد این بردار را محاسبه می کنم. `sd(ranef(fit1)[[1]])` من انتظار دارم که نتیجه مشابه 0.079 بدهد. با این حال، بسیار متفاوت است. آیا کسی می تواند به من بگوید که چرا `sd(ranef(fit1)[[1])` نتایج متفاوتی نسبت به خروجی مدل VarCorr(fit1) می دهد؟ دقیقاً چه رابطه ای بین ranef(fit1) و VarCorr(fit1) وجود دارد؟ با تشکر | چرا محاسبه واریانس اثر تصادفی استخراج شده (با استفاده از ranef) با خروجی lme یکسان نیست؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.