_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
37619 | چگونه ثابت کنیم که برای تابع پایه شعاعی $k(x, y) = \exp(-\frac{||x-y||^2)}{2\sigma^2})$ هیچ فضای مشخصه بعدی محدودی وجود ندارد $H$ طوری که برای برخی از $\Phi: \text{R}^n \به H$، $k(x, y) = \langle \Phi(x), \Phi(y)\rangle$ داریم؟ | چگونه ثابت کنیم که برای هسته RBF گاوسی فضای مشخصی با بعد محدود وجود ندارد؟ |
30592 | من اخیراً اصطلاح تأثیر متعامد * را شنیده ام. در زمینه آزمایش پلت فرم آزمایشی استفاده شد. این به چه معناست؟ در ادبیات یا ویکی پدیا نمی توانم چیزی در مورد آن پیدا کنم. | منظور از متعامد در تست اعتبار سنجی چیست؟ |
40621 | در سخنرانیهای آماری من ذکر شده است که برای دادههای متوازن (تعداد یکسان شرکتکننده در هر بلوک)، چه مدل با فاکتور A به عنوان یک اثر ثابت یا یک اثر تصادفی برازش داده شود، نتایج یکسان خواهد بود. به عنوان مثال: lme(efort ~ Type, random = ~1|Subject) همان پاسخی را به من می دهد که lm(efort~ Type + Subject) در مقابل، ذکر شده است که با داده های نامتعادل، نتایج یکسان نخواهد بود. منظور از «پاسخ یکسان» چیست. اگر هر دو مدل را اجرا کنم، دو خروجی متفاوت دریافت می کنم. همان چیست؟ | جلوه های تصادفی در مقابل جلوه های ثابت با طرح های متعادل |
7115 | من تعجب می کنم که پردازش زبان طبیعی در تعیین فاصله معنایی بین دو گزیده متن چقدر فاصله دارد. به عنوان مثال، عبارات زیر را در نظر بگیرید 1. امروز زود بلند شدم و ماشینم را شستم. 2. امروز صبح کامیونم را تمیز کردم. 3. موز منبع عالی پتاسیم است. واضح است (برای خواننده انسانی) دو گزاره اول بسیار بیشتر از گزاره سوم به یکدیگر شباهت دارند. آیا روشی وجود دارد که به رایانه اجازه دهد همین نتیجه را بگیرد؟ (در نهایت سعی می کنم توییت های توییتر را بر اساس محتوای معنایی گروه بندی کنم.) | فاصله معنایی بین گزیده های متن |
33021 | هنگامی که من یک MANOVA 2x4x5x6 (جنس*گروه سنی*بالاترین درجه*قومیت) (با 20 متغیر وابسته) را در SPSS اجرا می کنم، آزمایش هایی از اثرات بین سوژه ها برای هر یک از IV ها و تعامل آنها پس از آمارهای MANOVA اصلی را به عنوان نوعی پست تعلیق ارائه می کند. . من فکر میکردم که این آزمایشها ANOVA فاکتوریل 2*4*5*6 برای هر یک از DVهای بررسی شده در MANOVA هستند. اما وقتی آن ANOVA های فاکتوریل را جداگانه اجرا می کنم، نتایج کاملا متفاوتی دریافت می کنم! (مقادیر F در MANOVA post hoc عموماً بالاتر از مقادیر F ناشی از ANOVAهای فاکتوریل جداگانه است.) چرا اینطور است؟ میدانم که نباید به آمارهای MANOVA اصلی (ردپای Pillai و غیره) اعتماد کنم، زیرا اندازههای نمونه سلولی بسیار کوچک است، اما من نمیدانم که چرا پستهاک از MANOVA با ANOVAهای فاکتوریل برای متفاوت است. هر یک از DV ها | تفاوت بین آزمونهای «پستحلیلی» MANOVA بین اثرات آزمودنیها و بین آزمودنیها ANOVA یک طرفه؟ |
74259 | من یک مدل رگرسیون خطی معمولی دارم مانند این y = b0 + b1*x + b2*z + b3*x*z برای آزمایش مدل از «PROC GLM» در «SAS» استفاده کردم. اکنون میخواهم ماتریس واریانس کوواریانس ضرایب ('b0'، 'b1'، 'b2'، و 'b3') را صادر کنم. با این حال، من هیچ گزینه ای برای صادرات آن پیدا نکردم. من نمیتوانم از «PROC REG» به دلیل اصطلاح تعامل استفاده نکنم. کسی میدونه چجوری بگیرمش؟ | ماتریس واریانس کوواریانس را با استفاده از PROC GLM صادر کنید |
30043 | من داده ها را از سه گروه مختلف جمع آوری خواهم کرد. من با زنان مصاحبه خواهم کرد (نمونه احتمالی) و سپس از آنها می خواهم که نامی برای ساخت دو گروه دیگر ارائه دهند (نمونه مناسب). من می خواهم بدانم بهترین روش برای تجزیه و تحلیل همه این داده ها چیست؟ مطالعه من در مورد: حمایت از شیردهی در محل کار است. من قبلاً سه گروه را برای به دست آوردن داده ها تعریف کرده ام: 1. مادران شاغل. 2. مدیران; 3. سایر کارکنان. نمونه مادران شاغل از یک پایگاه داده ارائه شده توسط بخش منابع انسانی در محیط دانشگاهی که من در آن کار می کنم به دست می آید. سپس از مادران نمونه می خواهم نام مدیر فوری خود و همچنین نزدیکترین کارمندی که با او کار می کند را توصیه کنند (مثال: دفتر مشترک). در اینجا اولین سوال من مطرح می شود: این نوع نمونه گیری چیست؟ سپس من یک پرسشنامه جداگانه برای گروه ها ارسال خواهم کرد. تیپ متفاوت برای خانم ها مدیران و همکاران تقریباً مشابهی دریافت خواهند کرد. در نهایت می خواهم بدانم چگونه می توان نتایج را در یک تجزیه و تحلیل (در صورت امکان) همپوشانی کرد. فرضیه: آیا حمایت محل کار بر قصد شیردهی و همچنین مدت شیردهی تأثیر دارد؟ بهترین رویکرد برای ادغام سه مجموعه داده در یک تحلیل چیست؟ آیا نمونه گیری پیشنهادی خوب است؟ | چگونه می توان آزمایش کرد که آیا حمایت در محل کار بر قصد و مدت شیردهی تأثیر می گذارد؟ |
71219 | متن زیر را در نظر بگیرید > حکم صادر شده است، هیئت منصفه MS را به دلیل تخلفات مجرم شناخته و جریمه هایی را به مبلغ 1.50 میلیارد دلار تعیین کرده است. این ضربه بزرگی به شهرت > ام اس خواهد بود. از سوی دیگر، متهمان، NK، خوشحال بودند. این یک حکم مهم برای آنها بود که پیروز شوند. گروه کارگزاری قبلاً سهام خود را به خرید ارتقا داده است. چگونه می توانم مشکل استنباط احساسات را از دیدگاه هر دو طرف، یعنی NK (مثبت) و MS (منفی) مدل کنم. من حتی نمی دانم چه چیزی را از طریق اینترنت جستجو کنم تا حداقل شروع کنم. | چگونه می توانم از یک دیدگاه یا یک دیدگاه خاص احساسات را دریافت کنم؟ |
7110 | تفاوت(ها) بین طرح طولی و سری زمانی چیست؟ | تفاوت بین طراحی طولی و سری زمانی |
30041 | من یک رگرسیون را روی یک مجموعه داده بزرگ انجام می دهم که نسبتاً نویز دارد. خطی که من در R اجرا می کنم این است: lmfit <- lm(predictVariable ~ dataSet[,1:10]) بنابراین من 10 متغیر درون زا دارم. نتایج تا حدودی عجیب هستند: 1. آمار t معنی دار برای همه ضرایب 2. $R^2 = 0.25$ اما وقتی دوباره یک رگرسیون روی متغیرهای برازش شده و واقعی اجرا می کنم، این را دریافت می کنم: run1 <- lm(predictVariable ~ lmfit$fitted.values) ضریب در مقابل مقادیر برازش 1.0001 و فاصله ~0 است. اما اکنون وقتی آن را به صورت معکوس اجرا می کنم: run1 <- lm(lmfit$fitted.values ~ predictVariable) ضریب اکنون 0.26 است و وقفه نیز ~0 است. چرا ضرایب در دو رگرسیون آخر اینقدر متفاوت است؟ آیا این بدان معناست که متغیرهای درون زا من خطی هستند یا برازش من ضعیف است؟ وقتی مقادیر fitted.values را در مقابل واقعی رسم می کنم، می بینم که مقادیر واقعی زیادی نزدیک به 0 وجود دارد اما مقدار برازش بیشتر و کمتر است. آیا کسی می تواند به من کمک کند تا این نتایج رگرسیون را بفهمم؟ | چرا رگرسیون مقادیر برازش شده در مقابل مشاهده شده یا مشاهده شده در مقابل مقادیر برازش نتایج متفاوتی را به همراه دارد؟ |
7112 | من 2 سوال ساده در مورد رگرسیون خطی دارم: 1. چه زمانی توصیه می شود متغیرهای توضیحی را استاندارد کنید؟ 2. هنگامی که تخمین با مقادیر استاندارد شده انجام می شود، چگونه می توان با مقادیر جدید پیش بینی کرد (چگونه باید مقادیر جدید را استاندارد کرد)؟ برخی از مراجع مفید خواهد بود. با احترام | زمان و نحوه استفاده از متغیرهای توضیحی استاندارد شده در رگرسیون خطی |
5563 | آیا یک تابع حد در R وجود دارد؟ «help(lim)» یا «help(limit)» مفید نبودند. و در کل آیا R برای محاسبات ریاضی مناسب است؟ | آیا تابع حد در R وجود دارد؟ |
30045 | در تنظیم رگرسیون چند متغیره (رگرسیون برداری و رگرسیون)، چهار آزمون اصلی برای فرضیه کلی (لامبدای ویلک، پیلای-بارتلت، هتلینگ-لاولی، و بزرگترین ریشه روی) همگی به مقادیر ویژه ماتریس $H E^ بستگی دارند. {-1}$، که در آن $H$ و $E$ توضیح داده شده و ماتریس های تنوع کل. متوجه شده بودم که آمار Pillai و Hotelling-Lawley هر دو می توانند به صورت $$\psi_{\kappa} = \mbox{Tr}\left(H\left[\kappa H + E\right]^{-1} بیان شوند. \راست)،$$ به ترتیب، $\kappa = 1، 0$. من به برنامه ای نگاه می کنم که در آن توزیع این ردیابی، که برای آنالوگ های جمعیتی $H$ و $E$ تعریف شده است، برای مورد $\kappa = 2$ مورد توجه است. (خطاهای مدول در کار من.) من کنجکاو هستم که یکپارچه سازی آمار نمونه برای $\kappa$ عمومی یا تعمیم دیگری وجود داشته باشد که دو یا بیشتر از چهار تست کلاسیک را در بر بگیرد. متوجه شدم که برای $\kappa$ که برابر با $0$ یا $1$ نیست، شمارنده دیگر شبیه Chi-square زیر عدد تهی نیست، و بنابراین تقریب F مرکزی مشکوک به نظر می رسد، بنابراین شاید این یک بن بست باشد. من امیدوارم که تحقیقاتی در مورد توزیع $\psi_{\kappa}$ در زیر صفر (_یعنی ماتریس واقعی ضرایب رگرسیون صفر است) و در زیر گزینه جایگزین انجام شده باشد. من به ویژه به مورد $\kappa = 2$ علاقه مند هستم، اما اگر روی مورد $\kappa$ عمومی کار شود، البته می توانم از آن استفاده کنم. | آیا تعمیم ردپای پیلای و ردپای هتلینگ-لاولی وجود دارد؟ |
33023 | من سعی می کنم یک تحلیل مسیر را برنامه ریزی کنم. به طور خلاصه، من فهرستی از ژن هایی دارم که حاوی 1 یا چند جهش هستند. من این ژنها را به مسیرها نگاشت کردهام و میخواهم بدانم آیا مسیرهایی بیش از حد در این نگاشتها نشان داده میشوند. رویکرد من مبتنی بر جایگشت است: من بهطور تصادفی تعداد معادلی از جهشها را در ژنوم قرار میدهم (با در نظر گرفتن طول ژن)، و سپس این کار را 10000 بار انجام میدهم و تعداد دفعاتی را که هر مسیر دارای تعداد معینی جهش است میشمارم. ترسیم یک هیستوگرام از این جایگشت ها برای هر یک از مسیرها شبیه توزیع chi sq است که در R با df=1 و ncp=0 رسم شده است.  سوال من این است که چگونه می توانم یک p-value را بر اساس این توزیع محاسبه کنم؟ هر کمکی قابل تقدیر است. | مقادیر p تجربی در تحلیل مسیر |
33029 | من نحوه اندازهگیری صافی یک سری زمانی را در R از این سوال CV قبلی پیدا کردهام و فکر میکنم آن را درک میکنم، اما به R دسترسی ندارم، فقط به اکسل دسترسی دارم. چگونه این را محاسبه کنم؟ با توجه به این فرمول برای یک نسخه نرمال شده صافی: sd(diff(x))/abs(mean(diff(x))) چگونه قسمت diff() را در اکسل محاسبه کنم، زیرا این قسمتی است که من گیر کرده ام در؟ | چگونه صافی یک سری زمانی را در اکسل اندازه گیری کنیم؟ |
72978 | من مجموعه ای از متن های طبقه بندی شده دارم. از اینها بردارها را ایجاد می کنم. هر بردار مربوط به یک سند است. اجزای برداری وزن کلمات در این سند هستند که به عنوان مقادیر TFIDF محاسبه می شوند. سپس یک مدل می سازم که در آن هر کلاس با یک بردار ارائه می شود. مدل به تعداد طبقات موجود در بدنه بردار دارد. مؤلفه یک بردار مدل به عنوان میانگین تمام مقادیر مؤلفه گرفته شده از بردارهای این کلاس محاسبه می شود. برای بردارهای طبقه بندی نشده، شباهت را با بردار مدل با محاسبه کسینوس بین این بردارها تعیین می کنم. سوال: آیا می توانم از فاصله اقلیدسی بین بردار طبقه بندی نشده و مدل برای محاسبه شباهت آنها استفاده کنم؟ اگر نه - چرا؟ با تشکر | مدل فضای برداری: شباهت کسینوس در مقابل فاصله اقلیدسی |
89799 | من تعداد زنان باردار دریافت کننده شاخص های خدمات بهداشتی خاص (زایمان، حضور در دوران بارداری و جذب پیشگیری از مالاریا) را در 14 مرکز در سه دوره زمانی خاص مقایسه کردم. قبل، حین و بعد از مداخله پروژه؛ با استفاده از مجموعه داده های قبل از مداخله به عنوان مرجع در مدل رگرسیون پواسون، نسبت های نرخ رخداد و فواصل اطمینان و مقادیر p را محاسبه کردم. اکنون از من خواسته شده است که یک آمار آزمایشی برای نشان دادن اینکه آیا مجموعه داده های قبل، حین و بعد از مداخله متفاوت هستند یا خیر، اجرا کنم. آیا نشان دادن IRR کافی نیست و آیا آمار تست دیگری فراتر از آنچه من انجام داده ام وجود دارد؟ در اینجا یک نمونه از STATA خوانده شده است که من در اجرای یک تجزیه و تحلیل به دست آوردم. چالش من در تفسیر چاپ به خصوص نتایج LR chi2(2) و prob > chi2 است. منظورشون چیه  | آیا آمار آزمایشی برای رگرسیون پواسون وجود دارد؟ |
47932 | من در حال مقایسه 4 آزمایش مختلف برای ارزیابی / شناسایی سرطان هستم. یکی یک متغیر پیوسته است که مقادیر برش را بر اساس میانگین و میانه 5 اندازه گیری متوالی در یک بیمار ارائه می دهد. 3 آزمایش دیگر آزمایشات اسمی است که ضایعات را از 0 (خوش خیم) - 4 (1-4 بدخیم بودن) مرحله بندی می کند. من میخواهم دقتها، حساسیتها، ویژگیها، ارزشهای پیشبینی pos/neg و نسبتهای احتمال را مقایسه کنم. من از بسته SPSS برای تجزیه و تحلیل آماری استفاده می کنم. مجموعه داده شامل 120 بیمار (21 با ضایعات خوش خیم و 99 با ضایعات بدخیم) است. آیا پیشنهادی در مورد نحوه ارزیابی این تست ها برای تفاوت های قابل توجه دارید؟ | مقایسه تست های مرحله بندی سرطان |
66728 | من سعی می کنم کد خودم را برای خطاهای استاندارد خوشه ای قوی (AKA panel-robust، AKA heteroskedasticity و serial-correlation-consistent) بنویسم تا بتوانم چند پسوند کوچک ایجاد کنم. اما من نمی توانم نتایج خود را با Stata (که در آن این روش معمول است) مطابقت دهم، بنابراین احتمالاً جزئیاتی را از دست داده ام. از اشاره گرهای روی کد، در زیر سپاسگزاریم. مدل $$ y_{ig} = \alpha_g + X'_{ig}\beta + \epsilon_{ig} $$ است. ترک متغیرهای غیرمعنای متغیر گروه: $$ ydm_{ig} = Xdm'_{ig}\beta + \epsilon dm_{ig} $$ واریانس $\beta$ به صورت $$ \left(\displaystyle\sum_G Xdm_g'Xdm_g\right)^{-1} \displaystyle\sum_G Xdm_g' \epsilon dm_g \epsilon dm_g' Xdm_g \left(\displaystyle\sum_G تخمین زده می شود Xdm_g'Xdm_g\right)^{-1} $$ استاندارد خطاها جذر قطر این ماتریس هستند که با $G/(G-1) \times (N-1)/(N-K)$ باد می شوند. این همه اقتصاد سنجی کتاب درسی است. استاندارد در stata، و کد برای انجام آن در R وجود دارد. (مثلاً این) من میخواهم کد من به «plm»، «lmtest» یا «ساندویچ» متکی نباشد. اسکریپت زیر قرار است ریاضیات بالا را پیادهسازی کند و یک مجموعه داده پانل را شبیهسازی کند که در آن نتایج به صورت خودکار همبسته هستند و گروهها اشکال متفاوتی از ناهمسانی دارند. تخمین نقطه درستی را ارائه می دهد اما خطاهای استاندارد بزرگتر از خطاهای داده شده توسط stata هستند: rm(list=ls()) set.seed(999) N = 1000 G = 200 x = rnorm(N) z = rexp(N) obs = N/G fe = data.frame(ID=1:G,fe = rnorm(G)+5) fe = data.frame(ID = rep(fe$ID,obs),fe = rep(fe$fe,obs)) t = rep(1,G); برای (i در 2:obs) {t = c(t,rep(i,G))} data = data.frame(y=x+z+fe$fe+x*rnorm(N,mean=0,sd =fe$fe*runif(N))، ID=fe$ID,x,z,t) write.csv(data,testdata.csv) demean = function(var,ID){ dat = data.frame(var,ID) library(doBy) means = summaryBy(var~ID,data=dat,fun=mean) d = data.frame(var,ID) a = merge(d,means,by=ID ) adm = a[,2]-a[,3] adm } xdm = demean(data$x,data$ID) ydm = demean(data$y,data$ID) zdm = demean(data$z,data$ID) mdm = lm(ydm~xdm+zdm-1) خلاصه (mdm) e = mdm$resid lpm = cbind(xdm,zdm ) نان = ماتریس (0,ncol(lpm),ncol(lpm)) توفو = ماتریس(0,ncol(lpm),ncol(lpm)) K = mdm$rank برای (i در 1:G){ X = lpm[data$ID==بیگانه(data$ID)[i],] نان = t(X)%*%X +نان r = e[data$ID==بیگانه(data$ID)[i]] tofu = t(X) %*% r %*% t(r) %*% X + توفو } نان = حل(نان) vcv = نان%*%توفو%*%نان se = G/(G-1)*(N-1)/(N-K)*sqrt(diag(vcv)) خلاصه( mdm) se با استفاده از فایل «testdata.csv»، میتوانم با Stata مقایسه کنم: با استفاده از «testdata.csv»، تمام صفحههای صفحه را با استفاده از xtset id t xtreg y پاک کنید. x z,fe cluster(id) R-code من: 1> se xdm zdm 0.16946120 0.08793485 خروجی Stata: | مقاوم y | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ x | 1.223739 .1992449 6.14 0.000 .8308371 1.616642 z | .876592 .0960943 9.12 0.000 .6870981 1.066086 مال من به طور مداوم خوشبین تر از Stata است. کسی به من کمک کند تا بفهمم چرا؟ احساس میکنم احتمالاً یک اشکال کوچک است، اما نمیتوانم مشخص کنم کجاست. **ویرایش**: پاسخ سوال اینجا و اینجاست. Stata یک برآوردگر کتاب درسی «در داخل» را اجرا نمیکند، بلکه میانگینها را دوباره به هر متغیر اضافه میکند، این چیزی است که امکان تخمین یک عبارت ثابت را فراهم میکند (که دارای تفسیر میانگین اثرات ثابت است، و اجازه می دهد تا برای پیش بینی زمانی که من کد خود را برای کپی کردن آن رویه ها، SE من تا نقطه اعشار 3 یا 4 معادل است. | چرا خطاهای استاندارد خوشه ای (پنل مقاوم) با خطاهای Stata مطابقت ندارند؟ (حل شد) |
83685 | چگونه نشان دهم که قانون تصمیم گیری خطی فیشر و نرمال با یک ثابت متفاوت است؟ از کمک شما متشکرم. | چگونه نشان دهم که قانون تصمیم گیری خطی فیشر و نرمال با یک ثابت متفاوت است؟ |
30042 | بسیاری از نویسندگان مقالاتی که خواندهام تأیید میکنند که SVM تکنیک برتری برای رویارویی با مشکل رگرسیون/طبقهبندی آنها است، زیرا آگاهند که نمیتوانند نتایج مشابهی را از طریق NN بدست آورند. غالباً در مقایسه بیان می شود که SVM ها به جای NN ها، * نظریه پایه گذاری قوی دارند * به دلیل برنامه نویسی درجه دوم به حد مطلوب جهانی می رسند * برای انتخاب تعداد مناسب پارامترها مشکلی ندارند * کمتر مستعد بیش از حد برازش هستند * به حافظه کمتری برای ذخیره سازی نیاز دارند. مدل پیشگویانه * نتایج قابل خواندن و تفسیر هندسی بیشتری به دست می دهد آیا به طور جدی یک فکر پذیرفته شده است؟ قضیه ناهار بدون رایگان یا جملات مشابه را نقل نکنید، سوال من در مورد استفاده عملی از آن تکنیک ها است. از طرف دیگر، قطعاً با چه نوع مشکل انتزاعی با NN مواجه خواهید شد؟ | شبکه های عصبی در مقابل ماشین های بردار پشتیبان: آیا دومی قطعا برتر است؟ |
71212 | همانطور که عنوان می گوید در داده های پیوسته خود جای خالی دارم. من سعی می کنم یک رگرسیون بسیار پیچیده انجام دهم. من نمیخواهم دقیقاً به کدام نوع اشاره کنم، زیرا ترجیح میدهم به خاطر تلاش برای دستیابی به یک استراتژی یا رویکرد کلیتر، آن جزئیات را کنار بگذارم (مگر اینکه کاملاً ضروری باشد). متغیرهایی که جای خالی دارند و من را بیشتر آزار میدهند، «درصد اطمینان» هستند که توسط پایگاه داده دیگری به من داده شده است که وقتی شما آدرس IP خاصی را به آن میدهید، اطلاعات مربوط به یک آدرس IP خاص را برمیگرداند. این فواصل اطمینان بدیهی است که در نوع تحلیل رگرسیونی که من انجام می دهم بسیار مهم هستند. من می دانم که خالی فقط به معنای هیچ نیست، نقطه داده خالی نیز نشانه ای است که به نوعی از واریانس اشاره می کند. اگر در یک ستون متغیر طبقه بندی مشاهدات من بود، رمزگذاری مجدد آسان خواهد بود، اما اینطور نیست... در لیست مشاهدات پیوسته است. من سعی کردم با تماس با شرکتی که پایگاه داده توسط آن اداره می شود، تحقیقات پیشینه ای بیشتری در مورد این جاهای خالی انجام دهم و در واقع مهندسین آنها را به دست آوردم (در واقع این کار را با دو شرکت مختلف انجام دادم که این نوع پایگاه داده ها را ارائه می دهند). ... پاسخ آنها به من سوال > خب، ما فقط داده ها را نداریم. > > من: اوه، آیا هر نوع زمینه ای وجود دارد که بتوانید برای من فراهم کنید > پیرامون این سلول های خالی داده ها؟ > > نه، چیزی وجود ندارد... ما فقط داده ها را نداریم. > > من: بله، همانطور که قبلاً گفتید، اما باید دلیلی وجود داشته باشد که داده ها را ندارید - به عنوان مثال، چه چیزی باعث شد که تصمیم بگیرید داده های خالی را برای > آن آدرس IP برگردانید؟ منظورم، داده های خالی است. سلولها به معنای -هیچ چیز نیستند- آنها همچنین نشانهای هستند که به درجاتی از واریانس اشاره میکند - در واقع، آنها یک > درجه زیادی از واریانس را در دادههای شما به حساب میآورند و من نمیتوانم آنها را به عنوان 0s دوباره رمزگذاری کنم، زیرا > این تغییر میکند. میزان درصد اطمینان مستمر شما با یک معامله عالی > _ (آنها از قبل می دانند که من در حال انجام چه کاری از نظر رگرسیون btw هستم - و یکی > که با خدمات آنها رقابت نمی کند، بلکه آنها را تحت تاثیر قرار می دهد و پول زیادی خرج می کند. با آنها.)_ > > خب، فقط به این دلیل است که ما هیچ داده ای برای آن نداریم. > > من: می دانم، اما فقط به سرنخ هایی نیاز دارم که چرا داده ای وجود ندارد... برای کمک به من در تدوین نوعی استراتژی. > > ما هیچ سرنخی نداریم، فقط چیزی نداریم زیرا هیچ داده ای برای آن وجود ندارد. > > من: باشه، از خدمات مشتری متشکرم. من حتی با شرکت دوم در یک کنفرانس تلفنی با حدود 5 نفر دیگر که در آنجا کار می کنند صحبت می کردم و گویی آنچه می خواستم توضیح دهم آنها را گیج کرده بود. به احتمال زیاد فکر میکنم اشتراکگذاری اطلاعاتی که میخواستم به دست بیاورم، میتوانست اختصاصی باشد... اما چه کسی میداند. به هر حال من با این جاهای خالی ماندهام - وقتی ظاهر میشوند واریانسهای زیادی در نتیجه ایجاد میکنند - اما بهعنوان متغیرهای پیوسته فهرست شدهاند، بنابراین نمیتوانم آنها را به یک دسته تبدیل کنم... و نمیتوانم آنها را 0 کنم. چون این فقط نادرست است. من به این فکر می کنم که نوعی ماتریس درختی رگرسیون را به عنوان اولین گام (یا جایی مرحله) در رگرسیون خود اضافه کنم تا بتوانم این موارد را توضیح دهم، اما دقیقاً مطمئن نیستم که این استراتژی درست باشد. همه شما به من پیشنهاد می کنید چه کار کنم؟ | کدگذاری جاهای خالی خشمگین در داده های پیوسته هنگام انجام رگرسیون |
37615 | با پیروی از این دستورالعمل R > مناسب <- lm (خرج ~ جنسیت + وضعیت + درآمد + کلامی، داده = هزینه) من می خواهم میانگین و میانه باقیمانده ها را محاسبه کنم. هم من و هم دوستم پاسخ های متفاوتی برای میانگین داده های یکسان دریافت می کنیم. > mean(resid(مناسب)) [1] -3.065293e-17 در حالی که با مدل دیگر، نتایج عبارتند از: > fit1<- lm (خرج ~ وضعیت + درآمد + جنسیت + کلامی، داده = هزینه) > mean(resid( fit1)) [1] 4.064605e-16 چرا اگر از مجموعه داده های یکسانی استفاده می کنیم، میانگین یکسان اما میانگین متفاوتی به دست آوردیم؟ | چگونه می توانیم مقادیر میانگین و میانه متفاوتی را برای باقیمانده ها هنگام کار با مجموعه داده یکسان بدست آوریم؟ |
37611 | من تازه شروع به یادگیری استفاده از Stan و `rstan` کرده ام. مگر اینکه من همیشه در مورد نحوه عملکرد JAGS/BUGS گیج شده باشم، فکر میکردم که شما همیشه باید برای هر پارامتری در مدل که از آن گرفته میشود، نوعی توزیع قبلی تعریف کنید. به نظر می رسد که لازم نیست این کار را در Stan بر اساس مستندات آن انجام دهید. در اینجا یک مدل نمونه است که آنها در اینجا ارائه می دهند. داده { int<lower=0> J; // تعداد مدارس واقعی y[J]; // برآورد اثرات درمان real<lower=0> sigma[J]; // s.e. برآوردهای اثر } پارامترها { تتا[J] واقعی; مو واقعی real<lower=0> tau; } model { theta ~ normal(mu, tau); y ~ نرمال (تتا، سیگما)؛ } نه «mu» و نه «tau» پیشینی تعریف نشده اند. در تبدیل برخی از مدلهای JAGS خود به Stan، متوجه شدهام که اگر بسیاری یا بیشتر پارامترها را با اولویتهای تعریفنشده رها کنم، کار میکنند. مشکل این است که وقتی پارامترهایی بدون پیشین تعریف شده دارم، نمی فهمم استن چه کار می کند. آیا چیزی مانند توزیع یکنواخت پیش فرض است؟ آیا این یکی از ویژگی های خاص HMC است که برای هر پارامتر به یک پیش از تعریف نیاز ندارد؟ | پارامترهای بدون پیشینهای تعریف شده در Stan |
47931 | من اغلب با حجم معقولی از داده های سری زمانی سر و کار دارم، 50 تا 200 میلیون دو برابر با مهرهای زمانی مرتبط و می خواهم آنها را به صورت پویا تجسم کنم. آیا نرم افزار موجود برای انجام موثر این کار وجود دارد؟ کتابخانه ها و قالب های داده چطور؟ Zoom-cache یکی از نمونههای کتابخانهای است که بر سریهای زمانی بزرگ تمرکز میکند. در Zoom-cache داده ها در چندین وضوح خلاصه می شوند تا مشاهده در وضوح های مختلف آسان تر شود. ویرایش: همچنین اگر جای دیگری وجود دارد که باید این سوال را بپرسم یا به دنبال پاسخ باشم لطفاً به من اطلاع دهید. | چگونه داده های سری زمانی بزرگ را به صورت تعاملی مشاهده کنیم؟ |
37613 | فرض کنید برای دو نمونه، تیمار و شاهد، هر کدام سه مولکول تشکیل دهنده وجود دارد که مقادیر متناظر آنها به شرح زیر است: Tr. Ct. 2 1 5 2 6 3 من می خواهم نسبت های فردی این سه مولکول تشکیل دهنده را پیدا کنم. اما اگر به دلایلی مقدار نمونه تیمار بیشتر به دلیل خطای تجربی بود، ممکن است نسبت Tr:Ct را به صورت مصنوعی افزایش دهد و بالعکس. آیا راهی برای جبران این اثر برای محاسبه نسبت با نرمال سازی یا هر تکنیک دیگری وجود دارد؟ | چگونه می توان خطاهای کوچکی را که می تواند نسبت های مشاهده شده را به شدت مخدوش کند جبران کرد؟ |
40622 | من از نمونه گیری چند مرحله ای (یعنی نمونه گیری خوشه ای و طبقه ای) برای انتخاب چهار واحد در یک منطقه جغرافیایی استفاده کرده ام. هر واحد به صورت تصادفی از فهرست آن واحد انتخاب شد. تنها چهار نوع واحد مختلف در منطقه جغرافیایی وجود دارد، بنابراین واحد انتخاب شده نماینده هر نوع واحد است. (من برای اطمینان از اینکه واحد انتخابی نماینده همه واحدهای یک نوع است، مثلاً از نظر اندازه، حداقل معیارهایی را تعیین کردم. به عنوان مثال، واحد انتخاب شده باید حدود 100 نفر داشته باشد زیرا اندازه همه واحدهای یک نوع خاص از 50 متغیر است. به 150 نفر، بنابراین این به نوعی میانگین است.) **توجه:** منطقه جغرافیایی معیارهای اساسی را که من تعیین کرده ام مطابقت دارد. باید شامل تمام انواع واحدهای موجود در منطقه کلی باشد. منطقه جغرافیایی بخشی از منطقه کلی است به عنوان مثال. روستایی در بخشی از کشور). سپس افراد متعلق به هر واحد را به طور تصادفی انتخاب کردم (به عنوان مثال 100 نفر از واحد 1، 100 نفر از واحد 2، 100 نفر از واحد 3، و 100 نفر از واحد 4). سپس حجم نمونه من 400 نفر (متعلق به چهار واحد نماینده در منطقه جغرافیایی) است. من این را یک نمونه نماینده بر اساس طبقه بندی از نوع واحد می دانم. مشکل من این است که مطمئن نیستم کل اعضای هر واحد از نظر جمعیت منطقه جغرافیایی چقدر نماینده هستند. یعنی ممکن است تعداد مردان در واحد 1 بیشتر باشد اما تعداد مردان در منطقه جغرافیایی کمتر باشد. یا افراد مسن تر در واحد 2 در مقایسه با منطقه جغرافیایی. در این صورت، آیا لازم است 400 نفر در نمونه من شبیه به تفکیک جمعیتی منطقه جغرافیایی باشند؟ من مطمئن نیستم که چگونه این امکان پذیر است، اما احساس می کنم که امکان پذیر نیست، زیرا نمونه 400 نفری من نماینده نوع واحد است، نه منطقه جغرافیایی. **توجه:** منظور من از نماینده این است که نمونه به طور گسترده ویژگی های جمعیت را منعکس می کند، به عنوان مثال. اگر 100 مرد و 90 زن در جامعه وجود داشته باشد، این نسبت به طور گسترده در نمونه منعکس خواهد شد. | نمونه گیری چند مرحله ای و نمایش نمونه |
40624 | من یک فرآیند AR(1) را به صورت زیر ایجاد می کنم: x=arima.sim(list(order = c(1,0,0),ar=0.67),n=1000,sd=sqrt(0.55)) وقتی آن را مربع می کنم و AR(1) را به فرآیند مربعی برازش دهید، به نظر می رسد هنوز با استفاده از مدل AR(1) به خوبی برازش داده می شود: y=x^2 fit=ar(y,order.max=1, method=ols) acf(fit$resid[2:1000]) Box.test(fit$resid,lag=round(log(length(y))),type=Ljung-Box,fitdf=1) $p.value  نمودار ACF مدل (برای فرآیند مربع) باقیمانده و مقدار p آزمون باقیمانده بزرگ (بزرگتر از 0.05) هر دو نشان می دهند که باقیمانده ها به طور مستقل توزیع شده اند. این نشان دهنده چیست؟ یکی از شبیه سازی سری های زمانی $x$ و $y$ به شرح زیر است:  | چگونه مربع یک فرآیند AR(1) را درک کنیم؟ |
14749 | من از تابع **sctest** در بسته strucchange استفاده میکنم تا بررسی کنم که آیا وقفههایی در سریهایم وجود دارد یا خیر. من میخواهم بفهمم چگونه نتیجه آن را تفسیر کنم، در مثالی که میگیرم: > g <- sctest(cars$dist~cars$speed+0) > g دادههای تست CUSUM بازگشتی: cars$dist ~ cars$speed + 0 S = 0.9147، p-value = 0.06379 یعنی چه، آیا وقفه وجود دارد؟ با تشکر | تفسیر خروجی تابع تشخیص شکست سازه |
37612 | من فرآیندی دارم که دنباله ای از رویدادها را ایجاد می کند، که در آن هر رویداد از نوع خاصی است (مثلاً $A$، $B$، و $C$). طول هر دنباله تولید شده تصادفی است. من می خواهم تعداد رویدادهای هر نوع را بشمارم و احتمال اینکه یک رویداد از نوع خاصی باشد را محاسبه کنم. برای مثال، برای دنباله $\left ( A, A, B \right )$، نسبت رویدادهای $A$ $\frac{2}{3}$ خواهد بود، نسبت رویدادهای $B$ $ خواهد بود. \frac{1}{3}$، و نسبت رویدادهای $C$ $\frac{0}{3} = 0$ خواهد بود. حال، اگر فرآیند $n$ را تکرار کنم، میتوانم میانگین نمونه را برای هر یک از احتمالات محاسبه کنم. سوال من این است: چگونه می توانم یک فاصله اطمینان برای این ابزارها محاسبه کنم؟ آیا می توانم تا زمانی که نمونه من به اندازه کافی بزرگ باشد از روش معمول معمول استفاده کنم؟ به نظر می رسد که من در معرض خطر گرفتن فاصله ای زیر 0 یا بالاتر از 1 هستم که بی معنی خواهد بود. همچنین، به طور شهودی به نظر میرسد که توالیهای طولانیتر حاوی اطلاعات بیشتری هستند (تخمین بهتری از احتمالات) و باید بر این اساس وزن شوند. | چگونه می توانم فاصله اطمینان را برای میانگین نسبت نمونه محاسبه کنم؟ |
72977 | من یک سوال نظرسنجی ساده پرسیدم و 12 گزینه دادم که یک فرد می تواند از بین 1-12 مورد انتخاب کند. من فراوانی هر مورد را با در نظر گرفتن تعداد پاسخها به یک مورد خاص بر تعداد کل افرادی که حداقل به یک گزینه پاسخ میدهند، محاسبه کردم. حال اگر از همه پاسخ دهندگان بپرسم که جنسیت آنها چیست، چگونه می توانم اهمیت مرد و زن را برای هر یک از 12 مورد آزمایش کنم؟ من تست T مستقل را برای مردان (1 یا 0) امتحان کرده ام که در مقابل زنان (1 یا 0) پاسخ داده و جواب نداده اند، اما به دلایلی این نادرست به نظر می رسد، زیرا می خواهم بدانم آیا تفاوتی بین آنها وجود دارد یا خیر. جنسیت، و اینکه آیا این تفاوت تصادفی است یا نه برای هر مورد. | کدام آزمون اهمیت باید در یک سوال نظرسنجی با چند پاسخ استفاده شود |
11219 | من در مورد معیارهای مناسب گرایش مرکزی برای داده های سطح ترتیبی مطالعه کرده ام. تا کنون آموخته ام که میانه و حالت را می توان استفاده کرد، اما دومی را فقط در برخی موارد می توان استفاده کرد. برخی منابع بیان میکنند که میانه تنها زمانی میتواند برای سؤالات لیکرت استفاده شود که تعداد نمرههای فرد وجود داشته باشد. برای من مشخص نیست که این به چه معناست و همچنین در کدام موارد نمی توان از میانه استفاده کرد. ## مثال: یک مثال ممکن است نشان دهد. * اگر سوالی وجود داشت: تغییر آب و هوا جدی ترین مشکل زیست محیطی انگلستان است در مقیاس پاسخ: 1 = کاملاً موافق 2 = موافق 3 = نامطمئن 4 = مخالف 5 = کاملاً مخالفم. آیا میانه 3 = نامطمئن خواهد بود؟ * اگر هیچ پاسخ دهنده ای مخالف یا کاملاً مخالف آن را اعلام نکرد و همه 100 پاسخ دهنده 1، 2 یا 3 را بیان کردند، آیا میانه آن 2 است؟ * اگر پاسخ دهندگان فقط 2 یا 3 را بیان کنند، چه می شود. در این مورد آیا امکان شناسایی میانه وجود ندارد؟ | مقدار میانه در مقیاس های ترتیبی |
47933 | مسئله نمونه برداری از $p(\mathbf{x}، \mathbf{y})$ را با استفاده از الگوریتم متروپلیس یا متروپلیس-هیستینگز (MH) در نظر بگیرید. من میتوانم مستقیماً نمونههایی را برای $p(\mathbf{x}، \mathbf{y})$ پیشنهاد کنم، یا میتوانم یک نسخه مسدود شده از آن را انجام دهم و به طور متناوب نمونههایی را برای $p(\mathbf{x} \mid \mathbf) پیشنهاد کنم. {y})$ و $p(\mathbf{y} \mid \mathbf{x})$ که فکر میکنم به آن _Metropolis- نیز میگویند درون-گیبز_. من سعی می کنم بهتر بفهمم که تحت چه شرایطی کارآمدتر خواهد بود (از لحاظ آماری؛ بیایید ملاحظات محاسباتی را فعلا نادیده بگیریم). به عنوان مثال، در نمونه گیری گیبس (مسدود شده)، که در آن احتمال پذیرش همیشه 1 است، همیشه بهتر است مستقیماً از $p(\mathbf{x}, \mathbf{y})$ نمونه برداری کنیم، زیرا در این صورت یک عدد کامل به دست می آوریم. نمونه در مرحله اول است، در حالی که نمونه گیری از شرطی ها ممکن است چندین بار از طریق متغیرها تکرار شود قبل از اینکه نمونه خوبی بدست آوریم. با این حال، اگر من توزیع پیشنهادی کمتر کاملی داشته باشم و فقط وابستگیهای ضعیفی بین $\mathbf{x}$ و $\mathbf{y}$ داشته باشم، ممکن است وضعیت متفاوت باشد. از نظر شهودی، اگر سعی کنم هر دوی آنها را با هم رد یا بپذیرم، هر دوی آنها باید پیشنهادهای خوبی باشند تا بتوانم آنها را بپذیرم. بنابراین ممکن است منطقی باشد که $\mathbf{x}$ پیشنهادی را بپذیریم و $\mathbf{y}$ پیشنهادی را رد کنیم. من یک آزمایش کوچک انجام دادم که در آن فرض کردم $p(\mathbf{x}, \mathbf{y}) = p(\mathbf{x})p(\mathbf{y})$ گاوسی است و توزیع پیشنهادی $q (\mathbf{x}، \mathbf{y}) = q(\mathbf{x})q(\mathbf{y})$ نیز گاوسی است. سپس یا سعی کردم هر دو نمونه را به طور همزمان بپذیرم (_مشترک_) یا _مستقل_. خطوط مختلف در شکل زیر برای واریانس های مختلف توزیع پیشنهاد است. به نظر می رسد که پذیرش آنها به طور مستقل کارآمدتر باشد. من میخواهم از شهود و آزمایشهای عددی خود با برخی نظریهها پشتیبانی کنم. چگونه می خواهید ثابت کنید که یک استراتژی نمونه گیری کارآمدتر از استراتژی دیگر است؟ اشاره به برخی از مراجع که در آن مورد بحث قرار گرفته است، قدردانی خواهد شد. با تشکر  و در اینجا بخش اساسی کد برای ایجاد شکل است (در اینجا «X» و «Y» به معنای چیزی غیر از $\mathbf{ هستند. x}$ و $\mathbf{y}$). ### JOINT ACCEPT/REJECT X = randn(کدر، تعداد_نمونه ها) برای i در محدوده (1، num_samples): # پیشنهاد مرحله X[:، i] = X[:، i - 1] + سیگما * X[:, i] # مرحله قبول/رد اگر rand() > exp(0.5 * (جمع (مربع(X[:, i - 1])، 0) - مجموع (مربع(X[:، i])، 0))): X[:، i] = X[:، i - 1] ### مستقل قبول/رد Y = randn(کم، تعداد_نمونه) برای i در range(1, num_samples): # مراحل پیشنهادی Y[:, i] = Y[:, i - 1] + سیگما * Y[:, i] # مراحل پذیرش/رد برای j در محدوده(dim): اگر rand() > exp(0.5 * (مربع(Y[j, i - 1]) - مربع(Y[j, i]))): Y[j, i] = Y [j، من - 1] | چه زمانی نمونه برداری کلانشهر مسدود شده کارآمدتر است؟ |
70153 | آیا ایده ای در مورد چند جمله ای های دیگر وجود دارد که بتوانم با موفقیت برای اعمال رگرسیون استفاده کنم؟ هدف من راه حلی است که بر اساس نویز خطای مناسب داشته باشد. آیا این امکان وجود دارد زیرا منحنی زنگ مانند است؟ دم ها می توانند بلند، کوتاه یا وجود نداشته باشند. آیا من به دنبال غیرممکن هستم؟ لطفاً توجه داشته باشید که مدتی است که من تا این حد در رگرسیون خطی فرو رفته ام. به هر حال، نقاط داده من به اندازه کافی با چند جمله ای $ax+bx^2+c$ مطابقت ندارد. من می خواهم جایگزینی برای این چند جمله ای برای اعمال رگرسیون (یا رویکرد متفاوت) شود. در مثال زیر، هر نقطه به طور متوسط 20$\%$ از محدوده $Y$ (از نقاط داده) منحنی تناسب را از دست می دهد. من به splines نگاه کردم، اما نمی دانم چگونه رگرسیون را اعمال کنم، زیرا آنها تکه ای به نظر می رسند. مثال مقادیر $Y$ (با فاصله مساوی در $X$). شبیه یک منحنی زنگ به نظر می رسد. من از 5 تا 50 نقطه داده برای تعیین ضرایب چند جمله ای استفاده می کنم. در نهایت، من بر اساس نقاط داده، به بهترین مکان X$ برای اوج علاقه مند هستم. X Y -40 -21142.1111111111 -30 -21330.1111111111 -20 -12036.1111111111 -10 7255.3888888889 0 32474.8889888 32474.8888888889 20 9060.8888888889 30 -11628.1111111111 40 -15129.6111111111 | رگرسیون خطی بهترین چند جمله ای (یا رویکرد بهتر برای استفاده)؟ |
30048 | در خواندن یادداشتهای بلیک مستر درباره سخنرانی پیتر تیل در مورد استارتآپها، به این استعاره از مرز فناوری برخوردم: > دنیا را بهگونهای تصور کنید که توسط برکهها، دریاچهها و اقیانوسها پوشیده شده است. شما در یک > قایق، در یک بدنه آبی هستید. اما به شدت مه آلود است، بنابراین نمیدانید تا آن طرف چقدر > فاصله دارد. شما نمی دانید که آیا در یک برکه، یک > دریاچه یا یک اقیانوس هستید. > > اگر در برکه هستید، ممکن است انتظار داشته باشید که عبور حدود یک ساعت طول بکشد. بنابراین اگر یک روز کامل بیرون رفته اید، یا در دریاچه یا اقیانوس هستید. اگر > یک سال است که بیرون رفته اید، در حال عبور از یک اقیانوس هستید. **هر چه [این] > سفر طولانیتر باشد، سفر باقیمانده مورد انتظار شما طولانیتر است.** درست است که هر چه زمان میگذرد به رسیدن به طرف دیگر نزدیکتر میشوید. اما در اینجا، گذر زمان نیز نشان می دهد که هنوز راه زیادی در پیش دارید. سوال من: آیا توزیع احتمال یا چارچوب آماری وجود دارد که این وضعیت را بهویژه قسمت درشت شده مدلسازی کند؟ | توزیع برای انعکاس موقعیتی که در آن مقداری انتظار باعث می شود انتظار بیشتری داشته باشیم |
14741 | این یک مشکل از مطالعه ضبط-علامت-بازپس گیری است. من مدلی را مشخص می کنم که در آن پارامترهای $c$ و $p$ دارای وقفه مساوی هستند. در MARK، یک ماتریس طراحی شبیه  خواهد بود و من آن را $c=p(.)$ می نامم. با گسترش این مدل با یک متغیر کمکی، یک ماتریس طراحی برای $c=p(.)\cdot sp$ خواهد بود I سعی می کنم با استفاده از بسته RMark این تحلیل را در R دوباره اجرا کنم. من روش زیر را امتحان کردم، اما نمی توانم روی اشتباهی که انجام می دهم انگشت بگذارم. tr.models <- function() { # specify models c.pequal.dot <- list(formula = ~ 1, share = TRUE) c.pequal.dot.sp <- list(formula = ~ sp, share = TRUE) # مدل ها را جمع آوری کنید و cml را اجرا کنید <- create.model.list(Huggins) tr.result <- mark.wrapper(cml, data = tr.process, ddl = tr.ddl، تنظیم = FALSE) بازگشت (tr.result) } نتیجه RMmark: مدل npar AICc DeltaAICc وزن انحراف 2 p(~1)c(~sp) 3 1543.523 0.000000 0.99162194 ~ 143 p. (~1) 2 1553.070 9.547451 0.00837806 2358.903 تعداد پارامترها در روش MARK به ترتیب 1 و 2 و در RMark 2 و 3 می باشد. آیا ورودی در مورد نحوه استفاده از مشخصات فرمول در RMark برای تقلید ماتریس طراحی از MARK وجود دارد؟ | تعیین مدل $c=p(.)\cdot sp$ (Huggins) در RMark |
31317 | من یک مجموعه داده پزشکی با حدود 200 متغیر دارم. یکی از متغیرها نشانگر زیستی (غلظت یک آنزیم خاص) است. توزیع آن دارای انحراف درست است و مشکل این است که مقادیر بالاتر از یک سطح معین در آن سطح سانسور/قطع می شوند. بنابراین در حالی که میانگین متغیر حدود 10 است، هر مقدار بیشتر از 50 به عنوان 50 ثبت می شود. من می خواهم مقادیر پیوسته را برای آن مقادیر سانسور شده در نظر بگیرم. من در حال حاضر از انتساب چندگانه با بسته موش در R استفاده می کنم، اگرچه سیستم های دیگری در دسترس من هستند و من برای رویکردهای دیگر آماده هستم. فکری که داشتم این بود که همه آن مقادیر سانسور شده را مجدداً رمزگذاری کنم تا گم شده باشند و سپس انتساب ها را اجرا کنم. اگر هر یک از مقادیر منتسب شده که در ابتدا سانسور شده اند، کمتر از برش باشد، سپس به آنها به عنوان مقدار قطع اختصاص داده می شود. من می خواهم نظراتی در مورد این موضوع و/یا هر روش بهتری برای مقابله با آن بدانم. | انتساب یک متغیر سانسور شده |
89797 | من می خواهم مقایسه کنم که کدام مهم ترین اثرات متقابل هستند (به روشی مبتنی بر داده، متوجه می شوم که دارای جنبه های منفی است). من متوجه هستم که برای محققین قابل توجه این منطقی نیست، اما کنجکاو به این روش هستم. تصور کنید که ما متغیرهای زیر را داریم: $X_1، X_2، X_3، X_4$، $y$ و $z$ (طول همه یکسان). میخواهم فرض کنم که ما دائماً علاقهمند به تغییر بین مدل تأثیرات اصلی و مدل تعامل هستیم (درسته؟). دو حالت: **1)** وقتی مقایسه می کنیم چه اتفاقی می افتد: $$y | X_1B_1 + X_2B_2$$ $$y | X_1B_1 + X_2B_2 + X_1X_2B_{12}$$ در برابر $$y | X_3B_3 + X_4B_4$$ $$y | X_3B_3 + X_4B_4 + X_3X_4B_{34}$$ آیا میتوانم با خیال راحت فرض کنم که یکی با تغییر مربع R بیشتر جالبتر باشد؟ **2)** تصور کنید که برای نجات جانم، باید بهترین حدس را بزنم تا به کسی توصیه کنم جالب ترین / قوی ترین اثر متقابل چیست. آیا میتوانیم مقایسه کنیم: $$y | X_1B_1 + X_2B_2$$ $$y | X_1B_1 + X_2B_2 + X_1X_2B_{12}$$ با $$z | X_3B_3 + X_4B_4$$ $$z | X_3B_3 + X_4B_4 + X_3X_4B_{34}$$ آیا هنوز هم میتوان به سادگی تغییر مربع R را مقایسه کرد؟ آیا شاید باید به تفاوت تغییر نسبی R-squared نگاه کنیم؟ در مورد آزمون F چطور؟ همچنین نمیدانم که آیا «جالب بودن» یک اثر تعاملی به قدرت اثر اصلی بستگی دارد (من حدس میزنم که آخرین اثر ذهنیتر باشد). با تشکر | مقایسه اثرات متقابل با استفاده از متغیرهای مختلف. ممکن است؟ |
5566 | من یک سکه را 20 بار تلنگر می کنم و 14 سر می گیرم. من می خواهم مقدار p فرضیه منصفانه بودن سکه من را محاسبه کنم. چه احتمالی را باید محاسبه کنم؟ در ویکی پدیا نوشته شده است که من باید احتمال بدست آوردن 14 **یا بیشتر** هد را در 20 تلنگر محاسبه کنم. چرا 14 یا بیشتر است؟ چرا 14 ** یا کمتر ** نه؟ | تست عادلانه بودن یک سکه |
97715 | آیا کسی می تواند به من نشان دهد که چگونه می توانم ماتریس اطلاعات فیشر را برای توزیع دو جمله ای منفی پیدا کنم، اگر من توزیع دو جمله ای منفی را با استفاده از پارامترهای میانگین و اندازه پارامتر کنم. متشکرم! | ماتریس اطلاعات فیشر توزیع دوجمله ای منفی |
103211 | من در دوره احتمالات جدید هستم و مفاهیم را بسیار گیج کننده می دانم. من تخمین حداکثر درستنمایی را یاد می گیرم و به عنوان نقطه شروع برای آن چگالی یا توزیع را پیدا می کنیم؟ به طور کلی توزیع را از چگالی پیدا می کنیم یا برعکس و چگونه آن را پیدا می کنیم؟ به عنوان مثال، برای توزیع گاوسی، آیا چگالی یک متغیر یا توزیع را مییابیم تا پارامتر ناشناخته A را در حالت **x[n] = A + w[n]** که w[n] گاوسی نامرتبط هستند تخمین بزنیم. سر و صدا این ممکن است خیلی پیش پا افتاده به نظر برسد اما من واقعاً گیج شده ام. در بسیاری از زمینه ها به جایی رسیده ام که pdf = prob. تابع چگالی و در برخی مناطق pdf = تابع توزیع prob را پیدا می کنم !! لطفا کمک کنید. | چگالی احتمال و تابع توزیع |
89792 | من با مشکلی روبرو هستم که در آن طبقهبندیکنندهای که در حال توسعه آن هستم، خطاهای اعتبارسنجی را در طول آموزش گزارش میدهد که طیف وسیعی از مقادیر را بدون کاهش مداوم در طول زمان در بر میگیرد. متأسفانه، من با ML و موضوعات مرتبط تازه کار هستم و به نظر نمی رسد در نتیجه مشکل را تشخیص دهم. کد پایه طبقهبندیکننده از آموزشهای theano deep_learning، بهویژه از آموزش پرسپترون چندلایه آمده است: پیوند من کد آموزش را به دو صورت تغییر دادهام: (1) تغییر دادههای مورد استفاده (2) تغییر توپوگرافی MLP برای محاسبه تعداد متفاوتی از گره های ورودی و خروجی در اینجا تصویری از نتایج معمولی وجود دارد:  دادههایی که من استفاده میکنم از یک آزمایش کیفیت شراب میآیند: پیوند **ممنون میشوم برای درک این موضوع کمک کنید:** (1) چرا این اتفاق میافتد (2) چگونه باید آن را تعمیر کنم با تشکر | خطای اعتبارسنجی بسیار پراکنده در طول تمرین با پرسپترون چند لایه |
5560 | من یک مولد رویدادهای تصادفی دارم. من از قبل مجموعه رویدادهایی را می دانم که می توان تولید کرد (در مورد من فقط سه رویداد ممکن دارم). احتمالات وقایع مشخص نیست. من باید این احتمالات را تخمین بزنم. برای آن من یک آزمایش انجام می دهم. به عنوان مثال من 20 رویداد را ایجاد می کنم. بنابراین، من دنباله ای از رویدادها دارم. به عنوان مثال: a,a,b,a,c,c,c,a,b,....c. با داشتن دنباله میتوانم برای تعداد هر رویداد حساب کنم (بنابراین، در مورد من سه عدد صحیح $n_1$، $n_2$ و $n_3$ دریافت میکنم). من می توانم احتمالات هر رویداد را به روش زیر محاسبه کنم: $\nu_1 = \frac{n_1}{n_1+n_2+n_3}$ $\nu_2 = \frac{n_2}{n_1+n_2+n_3}$ $\nu_3 = \frac{n_3}{n_1+n_2+n_3}$ اما این مقادیر تقریبی هستند. برای مثال، من میتوانم احتمال 0.25 را برای رویداد a داشته باشم، بنابراین اگر 20 رویداد ایجاد کنم، باید تقریباً 5 رویداد a داشته باشم. اما به طور تصادفی می توانم 10 یا 0 رویداد a داشته باشم. بنابراین، من می خواهم یک توزیع چگالی احتمالات داشته باشم. از آنجایی که $\nu_1$، $\nu_2$ و $\nu_3$ وابسته هستند (مجموع آنها برابر با یک است) من از $\nu_1$ و $\nu_2$ استفاده خواهم کرد. بنابراین، من می خواهم یک فرم صریح برای توزیع چگالی $\nu_1$ و $\nu_2$ داشته باشم. $\rho (\nu_1،\nu_2) = F (n_1،n_2،n_3)$. کسی میدونه از کجا میتونم تهیه کنم؟ | چگونه تابع احتمال را برای مولد تصادفی سه رویداد تخمین بزنیم؟ |
19044 | آیا روش های جایگزین بهتری برای انتخاب C و Gamma وجود دارد که عملکرد تمرینی بهتری را به همراه دارد؟ | انتخاب پارامتر SVM |
81719 | من مجموعه داده ای از 300 ترکیب شیمیایی دارم که با 100 متغیر ساختگی مستقل توصیف می شوند که حضور یک گروه شیمیایی خاص را رمزگذاری می کنند (_یعنی اگر یک گروه شیمیایی خاص وجود داشته باشد، این متغیرهای X یا 1 هستند، یا 0، در صورتی که نباشد). برای این 300 ترکیب، من دو متغیر وابسته Y دارم. 1) در مورد اول Y من یک مقدار % است، بنابراین از 0% به 100% میرسد و من میخواهم مدلی ایجاد کنم تا این Y را با پیشبینیکنندههایی که در بالا ذکر شد، مرتبط کند. . سپس می خواهم از این مدل برای پیش بینی نتایج برای ترکیبات جدید استفاده کنم. 2) در مورد دوم Y من یک دسته است (در مجموع 3 دسته دارم) و مانند قبل، می خواهم مدلی ایجاد کنم که پیش بینی کننده ها را به دسته مرتبط کند و از آن برای پیش بینی استفاده کنم. لطفا توجه داشته باشید که دو مدل به طور جداگانه تخمین زده می شوند. کدام مدل های آماری را برای استفاده در این دو مورد پیشنهاد می کنید؟ | مدلهای آماری برای استفاده از (1) برای مدلسازی مقادیر % و (2) برای طبقهبندی اشیا |
69592 | **کل جمعیت:** 30000 **مشخصات شناخته شده جمعیت:** سن، جنس، قد، وزن، **اندازه نمونه نماینده ایده آل:** ??? این برای انتخاب گروه آزمایشی لیست پستی است. **محدودیتهای مشکل:** 1. افراد خاصی را نمیتوان در نمونه گنجاند زیرا در فهرستی از ایمیلهای غیرمجاز هستند. 2. گروه نمونه باید دارای سن، جنسیت، قد و وزن مشابه با کل جمعیت باشد (مشخص است) تصور می کنم باید اعضایی را از کل جمعیت که در لیست ارسال ایمیلی نیستند به طور تصادفی انتخاب کنم و میانگین و واریانس را با هم مقایسه کنم. نمونه در مقایسه با کل جامعه. اگر میانگین و واریانس نمونه و کل جامعه مشابه باشد، پس من نمونه خوبی دارم؟ مطمئن نیستم که در مسیر درستی هستم یا راه آسان تری وجود دارد. با تشکر | یافتن نمونه ای برای نشان دادن یک جمعیت شناخته شده |
104374 | من سعی می کنم یک مدل جنگل تصادفی را در R در یک مجموعه داده ردیف + 500k آموزش دهم. تا اینجا خوب بود، اما اکنون سعی میکنم فاکتورهای person_id و company_id (غیر منحصر به فرد) را وارد کنم که هر دو سطح بسیار زیادی دارند (در هزاران، بسیار بیشتر از R میتواند از عهده آن برآید). بین آموزش و مجموعه تست برای این ویژگیها 40% و 70% همپوشانی وجود دارد، بنابراین من فکر میکنم این متغیرها میتوانند مفید باشند. من سعی می کنم موفقیت یا عدم موفقیت را (0،1) طبقه بندی کنم و بنابراین ویژگی های جدیدی مانند فراوانی شناسه ها در مجموعه آموزشی و درصد موفقیت در هر شناسه در مجموعه آموزشی ایجاد کرده ام. من این ویژگی ها را در مجموعه تست ادغام کردم. من همه شناسه های جدید را در testSet با 0 یا 1 جایگزین کردم. پس از آموزش با متغیرهای جدید، منجر به افزایش بیش از حد (به دلیل شناسه های جدید ناشناخته) می شود. آیا راهی وجود دارد که بتوانم از ویژگی هایی که فکر می کنم می توانند ارزشمند باشند بهره ببرم. با تشکر | RandomForest: نحوه استفاده از ویژگی person_id و company_id در یادگیری ماشین |
109156 | من یک فرآیند در حال آزمایش دارم (تقریباً توزیع شده عادی)، و من $C_{pk}$ (شاخص قابلیت فرآیند) را برای این فرآیند محاسبه کردهام. این مقادیر با مقادیر مرجع مقایسه می شوند که تحت شرایطی از یک فرآیند مشابه هستند و $C_{pk}$ آن موجود است. با تفریق: $C_{pk}$(test) $-\ C_{pk}$(مرجع) چه چیزی بدست میآورم؟ | $C_{pk}$(test) $-\ C_{pk}$(مرجع) چیست؟ |
103217 | من یک متغیر طبقه بندی دارم که می تواند 5 مقدار ممکن را در نظر بگیرد: 1، 2، 3، 4، 5. من مقدار متغیر را در دو نمونه با اندازه های مختلف مشاهده می کنم. اکنون می خواهم توزیع فرکانس متغیر خود را در دو نمونه مقایسه کنم. آیا آماری وجود دارد که غلظت توزیع را اندازه گیری کند (چیزی مانند ضریب جینی، اما نه تجمعی)، بنابراین اگر همه مشاهدات نمونه در یک دسته هستند، مقدار 1 و اگر به طور مساوی بین 5 توزیع شده باشند، 0 را در نظر بگیریم. دسته بندی ها با نگاهی به آمار، می توانم بگویم که یکی از نمونه ها ناهمگن تر از نمونه دیگر است. | نحوه مقایسه توزیع فرکانس |
97717 | از من خواسته شده است که حجم نمونه لازم را برای یک پروتکل نمونه برداری خوشه ای محاسبه کنم. من تجربه زیادی در مورد نمونه گیری خوشه ای ندارم، بنابراین فکر کردم که به اینجا بیایم. وضعیت به شرح زیر است: 1) خوشه ها: ما دو گروه جداگانه برای اجرای تجزیه و تحلیل داریم. یکی با 75 خوشه و یکی با 150 خوشه. 2) اندازه خوشه: اندازه خوشه یکنواخت است - 20 نفر در هر خوشه. 3) داده های مورد علاقه: آنچه ما به آن علاقه مندیم یک اندازه گیری مکرر است. یک شاخص در شروع مداخله و سپس دوباره در پایان مداخله (18 ماه بعد) محاسبه می شود. مایلیم به این سوال پاسخ دهیم: اگر فرض کنیم که بدون مداخله، مقدار نهایی 15 امتیاز (از مقیاس 100) افزایش می یابد، آیا مداخله موثرتر است؟ (این فرض منطقی دارد، من فقط در اینجا وارد آن نمی شوم). 4) آلفای مورد نظر 0.05 است، توان مورد نظر 0.8 است، ما میخواهیم اندازه اثر حداقل 0.5 SD را اندازهگیری کنیم، با این حال محدودیتهای بودجه و زمانی وجود دارد، بنابراین ممکن است آنها را برای کاهش اندازه نمونه تنظیم کنیم. ایده آل نیست، اما ممکن است باید انجام شود. طرح پیشنهادی به این صورت است که از هر خوشه با چند نفر (حداقل 2 نفر) مصاحبه می شود تا اطمینان حاصل شود که هر خوشه بازنمایی می شود، اما من معتقدم که می توان با گرفتن یک نمونه تصادفی از خوشه ها و سپس یک نمونه تصادفی از افراد درون گروه، به همان نتایج دست یافت. خوشه های انتخاب شده من فقط مطمئن نیستم که درست است یا خیر، و اگر درست است، چگونه می توان # خوشه های مورد نیاز و # افراد درون خوشه ها را برای انتخاب محاسبه کرد. با تشکر از کمک! در صورت نیاز به اطلاعات بیشتر به من اطلاع دهید. | محاسبه حجم نمونه برای نمونه گیری خوشه ای |
76290 | من از xtreg، re (مدل اثر تصادفی) استفاده میکنم و پیامی وجود دارد آمار مدل F یا chi2 بهعنوان گمشده گزارش شده است. Stata این کار را انجام داده است تا گمراهکننده نباشد، نه به این دلیل که لزوماً مشکلی در مدل شما وجود دارد. من کل std.err را گزارش کرده ام و هیچ مشکل دیگری وجود ندارد. بعد میتونم از این مدل استفاده کنم؟ | آمار مدل F یا chi2 در Stata مفقود شده است |
69594 | یا شهود من مرا گمراه می کند یا کد من اشتباه است. به طور خلاصه، من یک مدل رگرسیون لجستیک ساده دارم، و وقتی به توزیع خلفی μ نگاه می کنم، احتمال موفقیت یک واحد معین در هر آزمایش، عدم قطعیت قابل توجهی را می بینم (یعنی تغییرپذیری در توزیع پسین)، اما زمانی که من به توزیع پیشبینی پسین برای مجموع این آزمایشها نگاه میکنم، به نظر میرسد که توزیع دوجملهای که توسط تخمین نقطهای μ نشان داده میشود، یکسان است. تغییرپذیری کجا رفت؟ در اینجا جزئیات، در R. من داده ها را تولید می کنم: ilogit = تابع(x) 1 / (1 + exp(-x)) set.seed(10) N = 20 n = 5 dat = تبدیل(f = n - y، تبدیل(y = rbinom(N، n، mu)، تبدیل(mu = ilogit(1 + x1 + x2)، data.frame(x1 = rnorm(N)، x2 = rnorm(N))))) و برازش مدل: fit = glm (داده = dat، خانواده = دوجمله ای (پیوند = logit)، cbind(y, f) ~ x1 + x2) ما به استنباط هایی برای موضوع اول (ردیف اول «dat»). برای به دست آوردن یک توزیع پیشبینیکننده برای «y» تنها با استفاده از تخمین نقطهای «mu» (یعنی «fitted(fit)[1]»)، میتوانیم این کار را انجام دهیم: plot(table(rbinom(5000, n, fitted(fit )[1])))  این روش عدم قطعیت در مورد mu را به حساب نمی آورد. برای انجام این کار به روش بیزی، میتوانیم از «sim» از بسته «بازو» استفاده کنیم. library(arm) sims = sim(fit, 5000)@coef mu.post = ilogit( sims[,(Intercept)] + sims[,x1] * dat$x1[1] + sims[,x2 ] * dat$x2[1]) در اینجا یک فاصله 95٪ معتبر برای mu این موضوع وجود دارد که عدم قطعیت قابل توجهی را نشان می دهد. > quantile (mu.post, c(0.025, 0.975)) 2.5% 97.5% 0.5528186 0.7749029 اکنون میتوانیم با رسم یک نقطه از توزیع دوجملهای به ازای هر نمونه از خلفی «mu»، توزیع پیشبینی خلفی واقعی را رسم کنیم. plot(table(rbinom(5000, n, mu.post)))  که شبیه نمودار اول است! چه خبر است؟ اکنون، اگر «N» را روی چیزی کوچک، مانند 5 تنظیم کنید، این ارقام دیگر مطابقت ندارند. برای من منطقی است که آنها واقعاً باید با N بزرگ مطابقت داشته باشند، به اندازه ای بزرگ که mu.post به شدت در یک نقطه متمرکز شود. اما «N = 20» آنقدر بزرگ نیست، یعنی «چک (mu.post, c(0.025, 0.975))». | در این مدل رگرسیون لجستیک بیزی ساده، چرا عدم قطعیت در مورد میانگین افزایش عدم اطمینان در مورد پیش بینی ها وجود ندارد؟ |
82642 | من دادههایی از یک آزمایش روانشناسی دارم که در آن روش آموزشی بین آزمودنیها از طریق دو عامل دستکاری شد: پیشآموزش (3 سطح) و آموزش (2 سطح). من عملکرد شرکتکنندگان را از طریق دو آزمون، یک پیشآزمون و یک پسآزمون ارزیابی کردم، بنابراین دقت آزمون را بهعنوان dv با بخش آزمون (پیش/پست) بهعنوان یک فاکتور درون موضوعی دارم. من همچنین برخی از عوامل دیگر مورد علاقه ثانویه را دارم. من این داده ها را با استفاده از یک ANOVA مختلط تجزیه و تحلیل کردم و یک تعامل سه طرفه قابل توجه (پیش بینی شده) از پیش تمرین، آموزش و بخش آزمون را یافتم، که نشان می دهد مزایای نسبی دو شرایط تمرین، که با بهبود از پیش آزمون تا پس آزمون اندازه گیری می شود، متفاوت است. بسته به شرایط قبل از تمرین اکنون متوجه شده ام که نمره دقت در پاسخ به سؤالات در طول جلسه آموزشی که من آن را «مطالعه» می نامم، تحت تأثیر عامل پیش تمرینی نیز قرار می گیرد، یعنی یکی از شرایط پیش تمرینی، دقت مطالعه را نسبت به بقیه افزایش می دهد. میخواهم آزمایش کنم که آیا این تأثیر بر دقت مطالعه میتواند تأثیر بعدی پیشآموزش را بر تعامل بخش آموزش * توضیح دهد. در واقع من شک دارم که نمی تواند، اما من می خواهم باور خود را آزمایش کنم. چگونه می توانم این کار را انجام دهم؟ اولین فکر من این بود که از ANCOVA استفاده کنم، یعنی دقت مطالعه را به عنوان یک متغیر کمکی به ANOVA اصلی خود اضافه کنم و سپس ببینم که آیا تعامل پیشآموزش*آموزش*بخش هنوز قابل توجه است. با این حال، در یک موضوع دیگر (اینجا) به من توصیه شد زمانی که عوامل دستکاری شده تجربی من با متغیر کمکی مرتبط هستند، از ANCOVA استفاده نکنم، همانطور که قطعاً در اینجا وجود دارد (یعنی تأثیر پیشآموزش بر دقت مطالعه وجود دارد). بنابراین، به جای آن چه باید بکنم؟ # داده های نمونه: nsubj = 215; nsec = 2; nprob = 6 D = data.frame( subjid = rep( 1:nsubj, every=nsec*nprob ), pretrain = rep( نمونه (c('a','b','c'), nsubj, replace=TRUE ), every=nsec*nprob ), training = rep( نمونه (c('j','k'), nsubj, replace=TRUE ) every=nsec*nprob)، مطالعه = rep ( نمونه ( 1:6، nsubj، جایگزین = TRUE )، هر = nsec*nprob )، بخش = rep( rep( c( 'pretest', 'posttest'), every= nprob ), nsubj ), probtype = rep( c( 'v', 'w', 'x', 'y', 'z', 'z') nsec*nsubj ), accuracy = sample( c( 0.0, 0.5, 1.0 ), nsubj * nsec * nprob, replace=TRUE ) ) # مدل: library( afex ) ez.glm( subjid, accuracy, D, inside=c(section،probtype), between= c(pretrain, training), type=3 ) # مدل با متغیر کمکی: ez.glm( subjid, accuracy, D, inside=c(section,probtype), between= c(pretrain,training), covariate=study ، نوع=3) | چگونه می توان آزمایش کرد که آیا اثرات پیش بینی کننده ها در یک DV اثرات آنها را بر دیگری در یک ANOVA مختلط در R توضیح می دهد یا خیر |
38275 | من یک مجموعه داده با چهار متغیر و بیش از 3000 مشاهدات دارم که بر روی آنها یک LDA انجام دادم. میخواستم بدانم چگونه میتوانم از ضرایب مقیاسبندی شده متمایزکنندههای خطی (خروجی R به عنوان مثال در زیر نشان داده شده است) برای ترسیم مرزهای تصمیم در فضای متغیر اصلی استفاده کنم؟ LD1 LD2 LD3 [1،] 49.5077 12.3211 20.8351 [2،] 11.3597 9.5139 8.6570 [3،] 39.9696 2.3232 2.8996 [4،5] 2.8996 -18.8996 [4.6] -18.5139. | مرزهای تصمیم گیری از ضرایب ممیز خطی؟ |
17362 | من یک متغیر پاسخ پیوسته، مستقل اسمی دارم و میخواهم براساس سایت مسدود کنم، اگرچه اعداد در سایتها نابرابر هستند. آیا جایگزینی برای تست جایگشت وجود دارد؟ اگر نه، آیا کسی از یک فرآیند خودکار برای طراحی تست جایگشت برای تازهکاری مثل من اطلاعی دارد؟ خیلی ممنون | آیا آزمون ناپارامتریک، مانند کروسکال-والیس، اما با بلوک های ناهموار وجود دارد؟ |
89246 | من سعی می کنم پارامترهای تابع بسل اصلاح شده از نوع اول را برای حالت عدد صحیح تخمین بزنم. $I_n(wt) = \sum\limits_{m=0}^\infty \frac{1}{m!(m+n)!}(\frac{wt}{2})^{2m+n}$ در فرم احتمال، $P(t|w,n) = I_n(wt)*other\\_terms$ و میخواهم پارامترهای $w$ و $n$ را تخمین بزنم، که نمونههای دادهای را دریافت کردم. $t$. حداکثر احتمال ورود به سیستم می تواند یک گزینه باشد، اما از آنجایی که تابع بسل مجموع بی نهایت است، من زمان سختی را می گذرانم. کسی روش یا مقاله مرتبطی برای این مشکل میدونه؟ \----- فرم احتمال تصحیح شده را ویرایش کرد (اصل با یک جمع نمی شود. اشتباه من.) و تابع Bessel آمد زیرا من با توزیع Skellam سر و کار دارم. | تخمینگر تابع بسل؟ |
40629 | من یک سری زمانی دارم که در چرخه های زیگزاگ بالا و پایین می رود. من می خواهم یک الگوریتم ساده پیدا کنم تا آن را به بخش هایی از دنباله های بالا و دنباله های پایین تقسیم کنم. باید در برابر نویز مقاوم باشد تا یک پیچ خوردگی کوچک نباید یک دنباله را بیهوده تقسیم کند. آیا نامی برای چنین تکنیکی وجود دارد؟ **ویرایش**: چندین نفر از شما فصلی بودن را مطرح کرده اید. این چیزی است که من در آن سواد ندارم. مطمئناً چیزی برای من برای یادگیری است. در این مورد من فقط می خواهم نقاطی را که جهت تغییر می کند پیدا کنم. من مطمئن نیستم که آیا فصلی بودن، به معنای عود منظم، در داده ها در نظر گرفته شده است یا خیر. | یک سری زمانی زیگزاگ شکل را تقسیم کنید |
38276 | من به مدلسازی دادههای زمانبندی انسانی با استفاده از jags فکر میکردم که در آن دادهها از آزمایشی میآیند که در آن شرکتکنندگان با یک مترونوم بسیار کند به موقع ضربه میزنند. سپس دادهها تعدادی از اندازهگیریهایی است که نشان میدهد چقدر شیر آب با مترونوم مقایسه شده است. داده ها را می توان از یک توزیع نرمال در نظر گرفت. سپس این دادههای نمونه برای 10000 ضربه (با استفاده از R): timeing_distribution <- rnorm(10000, 0, 300)  مشکل این است که وقتی شرکت کنندگان از بازه هدف فراتر می روند، در عوض به صدای مترونوم واکنش نشان می دهند. بگوییم که زمان واکنش نیز از یک توزیع نرمال است، پس دادههای مدلسازی این خواهد بود: واکنش_time_distribution <- rnorm(10000, 250, 50)  توزیع زمان و توزیع زمان واکنش می تواند در یک توزیع مشترک مانند این ترکیب شود: joint_distribution <- pmin(timing_distribution، reaction_time_distribution) ![ توزیع مشترک] (http://i.stack.imgur.com/7p5LH.png) این همان چیزی است که ابتدا ضربه زمانبندی یا واکنش ضربه زدن پس از صدای مترونوم منجر به یک ضربه میشود. سوال من این است که چگونه می توان این را در jags/bugs مدل سازی کرد؟ چیزی که من به دنبال آن هستم چیزی شبیه به این مدل است { for( i in 1 : N ) { y[i] ~ min( dnorm( muTiming , tauTiming ), dnorm( muReaction , tauReaction )) } tauTiming ~ dgamma( 0.01 , 0 . ) muTiming ~ dnorm( 0 , 1.0E-10 ) tauReaction ~ dgamma( 0.01 , 0.01 ) muReaction ~ dnorm( 0 , 1.0E-10 ) } اما من حدس می زنم که `y[i] ~ min( dnorm( muTiming , tauaction, tauaction, tauaction) )` است واقعا در ژاکت امکان پذیر نیست ... | چگونه داده ها را در jags/اشکالات تولید شده با در نظر گرفتن حداقل دو متغیر تصادفی مدل کنیم؟ |
72972 | $X_1$، $X_2$...$X_i$ به طور مستقل و یکسان rvهایی با توزیع $X_i \sim beta(\alpha,\beta=1)$ هستند. پی دی اف $Y=\Pi_{i=1}^nX_i$ را محاسبه کنید آیا راه حل زیر صحیح است: pdf $X_i = f_{X_i}(x_i)$ = $\alpha x^{\alpha -1} , 0 \leq x \leq 1$ شروع با cdf Y: $P(Y \leq y) = P(\Pi_{i=1}^nX_i \leq y)$, $=P(\sum_{i=1}^n-\log X_i \geq - \log y)$ $-\log X \sim(\beta=\frac{1}{\alpha} ) = گاما(\alpha=1,\beta=\frac{1}{\alpha})$، نشان می دهد که $ -log X$ دارای توزیع نمایی است: اجازه دهید $U = - \log X$, $F(-\ ثبت X \leq u) = F(X\geq e^{-u}) = 1- F_X(e^{-u}) $, $f_U(u) = e^{-u}f_X(e^{-u }) = \alpha e^{-u} e^{-u(\alpha-1)} = \alpha e^{-\alpha u}$ بنابراین، $ U \sim exp(\frac{1}{\ آلفا})$ توزیع اجازه دهید $Z = \sum_{i=1}^n-\log X_i $, توزیع $ Z \sim گاما(\alpha=n,\beta=\frac{1}{\alpha})$F_Y( y)=1 - P(\sum_{i=1}^n-\log X_i \leq - \log y)$، = $1 - F_Z(-\log y)$، PDF: $f_Y(y) = -\frac{d}{dx} (-log y) f_Z(-log y)$, $=\frac{1}{y} \frac{1}{\Gamma(n)} \frac{1}{1/\alpha^{n}}e^{\alpha \log y} y^{(n-1)}$= \frac{1}{y}\frac{(\alpha^{n})}{\Gamma(n)} e^{\alpha \log y} (-\log y)^{(n-1)} $ [از آنجا که $Z$ دارای توزیع گاما است] $= \frac{\alpha^{n}}{\Gamma(n)} y^{\alpha -1}({-\log y})^{n-1 }، 0< y \leq 1 $ لطفا راهنمایی کنید. با تشکر | محاسبه pdf برای محصول rv |
13916 | فرض کنید که داده های پانل طولی داریم. ردیف ها بر اساس تاریخ و فردی منحصر به فرد هستند. ستون ها شامل ویژگی های افراد در تاریخ معین و همچنین یک متغیر وابسته است. هدف نهایی من انجام یک رگرسیون مقطعی و همچنین یک رگرسیون پانل است زیرا به نظر می رسد یک اثر سری زمانی نیز وجود دارد. ویژگی های یک فرد برای هر سه ماهه ثابت است. بنابراین اگر یک مقدار را در یک چهارم مشاهده کنم، میتوانم با موفقیت به مقادیر باقیمانده در سه ماهه اضافه کنم. با این حال، برخی از افراد وجود دارند که ارزش یک ویژگی را کاملاً از دست می دهند. وقتی یک نمودار دو متغیره با فرکانس برابر مشخصه در محور x و وابسته به محور y می سازم (به زیر مراجعه کنید)، یک رابطه یکنواخت مشاهده می کنم. همچنین، من تمام موارد گم شده را در سطل NA در سمت راست افراطی گروه بندی کرده ام.  از آنجایی که ارتفاع bin NA مشابه ارتفاع bin 6 است، میخواهم موارد از دست رفته را به مقادیر موجود در آن نسبت دهم. bin 6 (به عنوان مثال، با وارد کردن NA به مقادیر نمونه گیری شده از bin 6 اطمینان حاصل شود که انتساب در هر سه ماهه ثابت است). چیزی که این را چالش برانگیز می کند این است که ساختار وابستگی وجود دارد (یعنی ویژگی یک فرد در سه ماهه امروزی تمایل دارد تا سه ماهه بعدی نیز ادامه یابد). آیا می توانم به سادگی موارد گمشده را به مقادیر نمونه برداری شده از bin 6 (بر اساس چهارم) منتسب کنم یا باید (به نحوی) بر اساس یک چهارم و توسط ابزار برای حفظ رابطه وابستگی در مشخصه در طول زمان، منتسب کنم؟ با به نحوی مشخص نیست که چگونه می توانید یک انتساب را انجام دهید که ساختار وابستگی را حفظ کند بدون اینکه قبلاً یک مدل پانل آماده باشد. شاید بتوانم از طریق رگرسیون چندگانه با استفاده از ورودیهای دیگر برای هر برش زمانی، آن را انباشته کنم. | انتساب با داده های تابلویی که ساختار وابستگی را نشان می دهد |
82648 | من در واقع روی مدل سازی سری های زمان با auto.arima از پیش بینی های بسته کار می کنم. اما من با مشکلاتی در مورد استخراج مقادیر Lo 80، Hi 80، Lo 95، Hi 95 به صورت تکی مواجه هستم. من دادهها را برای اکسل با تابع csv بازیابی کردهام، اما خیلی طولانی است و خطراتی برای از دست دادن دادهها وجود دارد. من فقط پیش بینی میانگین یا نقطه را با تابع AA11a[[mean]] بازیابی کرده ام همانطور که می توانید روی کدهای من در R a<-ts(AA,start=1921,end=2009,frequency=1) fit11a ببینید. <-auto.arima(b,allowdrift=TRUE) AA11a<-forecast(fit11a,50) plot(AA11a) plot(AA11a[[معنی]]) میخواهم بپرسم چگونه میتوانم Lo 80، Hi 80، Lo 95، Hi 95 را به صورت تکی استخراج کنم؟ من این کد AA11a$fcst$AA[,1] را امتحان کردم اما کار نمی کند و به من بگویید: Null گزینه دیگر ارسال خروجی AA11a به excel و یافتن متغیرهای منحصر به فرد است، اما قبل از کاوش در آن مسیر، از کسی می پرسم که آیا کسی ایده ای در مورد چگونگی استخراج مقادیر مختلف دارد که در بالا با کدهایی در R ذکر کردم. با تشکر | نحوه استخراج مقادیر سری زمان های پیش بینی شده auto.arima |
110671 | بازیکنان یک TRPG مشخص دارای شخصیت هایی با 6 امتیاز توانایی هستند که هر امتیاز از 3 تا 18 متغیر است. یکی از روشهای تولید آنها با پایینترین قطره 4d6 است. این بدان معناست که چهار تاس شش وجهی ریخته می شود و سه نتیجه بالاتر اضافه می شود. احتمال اینکه با توجه به 5 بازیکن، یک بازیکن بالاترین امتیاز توانایی را برابر یا کمتر از کمترین نمره توانایی بازیکن دیگر داشته باشد چقدر است؟ سوال مرتبط در اینجا نشان می دهد که چگونه می توان توزیع افت 4d3 را به کمترین حد ممکن رساند، اما چگونه می توانم از آنجا به پاسخ سوال خود در بالا برسم؟ یک پاسخ خوب نتیجه را به گونه ای توضیح می دهد که یک تازه کار آمار می تواند دنبال کند. | احتمال آمارهای کاملاً غیرمنصفانه هنگام نمرات توانایی با استفاده از 4d6 افت کمترین برای D&D |
5817 | میخواهم بدانم آیا یک متغیر کمکی برای هر موضوع با سه نوع کارآزمایی و سختی آن کارآزماییها تعامل دارد یا خیر. معیارهای وابسته من دقت و زمان پاسخ (RT) است. برای این سوال، من می خواهم روی RT ها تمرکز کنم. به طور سنتی، افراد در رشته من متغیر کمکی مورد علاقه را دوقطبی می کنند و از ANOVA برای تجزیه و تحلیل استفاده می کنند. من می خواهم متغیر کمکی را به عنوان متغیر پیوسته ای که هست در نظر بگیرم و با افراد به عنوان اثرات تصادفی رفتار کنم. من می خواهم این را با استفاده از مدل های مختلط در `R` (`nlme`) تجزیه و تحلیل کنم. 2 نوع آزمایشی اول می تواند آسان یا سخت باشد و نوع سوم آزمایشی ترکیبی از 2 مورد اول است. این آزمایش ها می توانند آسان-آسان، آسان-سخت، سخت- آسان، سخت-سخت باشند. من انتظار دارم افرادی که نمرات بالاتری در متغیر کمکی دارند، حداقل برای 1 نوع آزمایشی، تفاوت کمتری بین RTهای سخت و آسان نشان دهند. این یک طرح با اندازه گیری های مکرر است که هر آزمودنی 3 بلوک از 40 آزمایش از هر یک از انواع آزمایشی را تکمیل می کند (برای نوع آزمایشی 1 و 2: 20 آسان، 20 سخت؛ برای نوع آزمایشی 3، 10 آسان-آسان، 10 آسان-سخت، 10 سخت. -سخت، 10 سخت-آسان). با بیان متفاوت، هر آزمودنی 3 بلوک از 120 کارآزمایی را با انواع آزمایش های مختلف به صورت تصادفی تکمیل می کند. فقط RT ها برای آزمایش های صحیح تجزیه و تحلیل خواهند شد (که منجر به طراحی نامتعادل برای داده های RT می شود). علاوه بر تعادل بین کلیدهای پاسخ، این طراحی کاملاً درون موضوعی است. بهطور خلاصه، مدل (یا مدلهایی) که به من اجازه میدهد تا تعاملات بین نوع آزمایشی، دشواری و متغیر کمکی را با استفاده از «nlme» در «R» آزمایش کنم چیست؟ | بیانیه مدل من برای مدل های مختلط (nlme) در R چیست؟ |
89793 | خطای استاندارد عبارت رهگیری ($\hat{\beta}_0$) در $y=\beta_1x+\beta_0+\varepsilon$ توسط $$SE(\hat{\beta}_0)^2 = داده می شود. \sigma^2\left[\frac{1}{n}+\frac{\bar{x}^2}{\sum_{i=1}^n(x_i-\bar{x})^2}\ راست]$$ که $\bar{x}$ میانگین $x_i$ است. با توجه به آنچه من درک می کنم، SE عدم قطعیت شما را کمی می کند - برای مثال، در 95٪ از نمونه ها، بازه $[\hat{\beta}_0-2SE,\hat{\beta}_0+2SE]$ حاوی مقدار واقعی است. $\beta_0$. من نمی دانم چگونه SE، معیار عدم قطعیت، با $\bar{x}$ افزایش می یابد. اگر من به سادگی داده های خود را جابجا کنم، به طوری که $\bar{x}=0$، عدم اطمینان من کاهش می یابد؟ این غیر منطقی به نظر می رسد. یک تفسیر مشابه این است - در نسخه بدون مرکز دادههای من، $\hat{\beta}_0$ با پیشبینی من در $x=0$ مطابقت دارد، در حالی که در دادههای مرکزی، $\hat{\beta}_0$ مطابق با پیش بینی من در $x=\bar{x}$. پس آیا این بدان معناست که عدم قطعیت من در مورد پیش بینی من در $x=0$ بیشتر از عدم اطمینان من در مورد پیش بینی من در $x=\bar{x}$ است؟ این نیز غیر منطقی به نظر می رسد، خطای $\epsilon$ برای همه مقادیر $x$ واریانس یکسانی دارد، بنابراین عدم قطعیت من در مقادیر پیش بینی شده من باید برای همه $x$ یکسان باشد. من مطمئنم که شکاف هایی در درک من وجود دارد. کسی می تواند به من کمک کند بفهمم چه خبر است؟ | چرا خطای استاندارد رهگیری هرچه بیشتر $\bar x$ از 0 باشد را افزایش می دهد؟ |
52379 | مورد من این است که من یک متغیر DV پیوسته و دو IV طبقهبندی حاوی 11 و 12 سطح مختلف (YEAR & MONTH) از 1998 تا 2008 دارم. من میخواهم استفاده کنم، زیرا ترجیح میدهم سطوح افراد در هر IV را با میانگین YEAR مقایسه کنم تا برخی از پایههای پیشفرض. نمونه ای از خروجی من در اینجا ارائه شده است: > مدل <\- lm(LN.IDEA ~ 0 + MONTH + MONTH*MONTH + YEAR + YEAR*YEAR, data = > ds) Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) -3.467431 0.031038 -111.717 < 2e-16 *** MONTH1 0.207696 0.098558 2.107 0.0375 * MONTH2 0.08080.0375 * MONTH2 0.085 0.4176 MONTH3 -0.197687 0.098558 -2.006 0.0475 * MONTH4 -0.110153 0.098558 -1.118 0.2663 MONTH5 0.039526 MONTH5 0.039526 0.0475 0.0475 -0.194322 0.098558 -1.972 0.0514. MONTH7 0.174461 0.098558 1.770 0.0797. MONTH8 0.014709 0.098558 0.149 0.8817 MONTH9 -0.025038 0.094821 -0.264 0.7923 MONTH10 -0.086207 0.094851 0.094851 -0.039 MONTH 0.060783 0.094821 0.641 0.5229 YEAR1 0.081754 0.155188 0.527 0.5995 YEAR2 0.545592 0.090489 0.090489 6.0529 6.0529-4002. 0.090489 0.487 0.6273 YEAR4 -0.103906 0.090489 -1.148 0.2535 YEAR5 0.005907 0.090489 0.065 0.9481 110406 - 0.9481 YEAR5 -1.222 0.2244 YEAR7 0.076436 0.090489 0.845 0.4003 YEAR8 0.069966 0.090489 0.773 0.4412 YEAR9 -0.2189481-0.2189489 -0.2189489 * YEAR10 -0.204054 0.090489 -2.255 0.0263 * ادعا شده است که این سؤال تکراری از پاسخ ادعا شده است. متوجه شدم که این پاسخ به سطوح رگرسیون اشاره می کند، اما سؤال در مورد آزمایش و تفسیر مقادیر p در رگرسیون است. بنابراین من استدلال می کنم که این یک تکراری نیست. | چگونه می توان رهگیری خود را در مدل رگرسیون در R تعریف کرد؟ |
11210 | من از مفید بودن بوت استرپ در به دست آوردن تخمین های عدم قطعیت قدردانی می کنم، اما چیزی که همیشه در مورد آن مرا آزار می دهد این است که توزیع مربوط به آن تخمین ها، توزیع تعریف شده توسط نمونه است. به طور کلی، به نظر میرسد ایده بدی است که باور کنیم فرکانسهای نمونه ما دقیقاً شبیه توزیع اصلی هستند، پس چرا استخراج تخمینهای عدم قطعیت بر اساس توزیعی که فرکانسهای نمونه توزیع اساسی را تعریف میکنند، صحیح/قابل قبول است؟ از سوی دیگر، این ممکن است بدتر (احتمالاً بهتر) از سایر مفروضات توزیعی که ما معمولاً میسازیم نباشد، اما من همچنان میخواهم توجیه را کمی بهتر درک کنم. | مفروضات مربوط به برآوردهای بوت استرپ عدم قطعیت |
13914 | من فهرستی از 35 مزیت اثبات شده در مورد یک موضوع را تهیه کردم و از مردم خواستم که پنج مورد را انتخاب کنند که به احتمال زیاد بر رفتار آنها تأثیر می گذارد. 43 پاسخ دهنده 215 رای دادند و سه مورد از مزایا رای بسیار بیشتری نسبت به بقیه دریافت کردند. بهترین ابزار آماری برای سنجش اهمیت این نتیجه چه خواهد بود؟ توضیحات: انگیزه این تحقیق دشواری عملی ترویج همه 35 مزیت برای عموم است تا تغییری در رفتار ایجاد شود. هدف تحقیق تعیین اولیه این بود که آیا هر مزیت احتمالاً تأثیر یکسانی بر عموم دارد یا خیر. قبل از دیدن پاسخها، انتظار داشتم توزیع نسبتاً یکنواخت بین همه مزایا وجود داشته باشد، اما اینطور نبود. سه مزیت برتر حداقل 10 رای بیشتر از چهارمین مزیت محبوب بود. چهار مزیت اصلا رای نگرفتند. من امیدوارم که نشان دهم الگوی پاسخ از نظر آماری برای تعداد x از مزایا معنیدار است و مطالب تبلیغاتی آینده باید روی این موارد بهعنوان محتملترین مزایای ایجاد تغییر تمرکز کند. هر یک از مزایا از دیگری متمایز است، اگرچه 13 مورد اول در طبقهبندی محیطزیست، 9 مورد اقتصادی و 13 مورد اجتماعی قرار میگیرند، و مطلوب است که دادههای این گروهها علاوه بر در نظر گرفتن هر مزیت فردی در نظر گرفته شود. پاسخ دهندگان پنج مزیت را از لیست 35 موردی انتخاب کردند که به احتمال زیاد بر تغییر رفتار آنها تأثیر می گذاشت، آنها پنج گزینه خود را رتبه بندی نکردند و رأی های متوالی تأثیری بر گزینه های قبلی نداشتند، به غیر از اینکه شما فقط می توانید برای هر مزیت یک بار رأی دهید. با تشکر فراوان از پاسخ های اولیه و تذکرات برای شفاف سازی و امیدوارم همه چیز را به خاطر داشته باشم! | مناسب ترین درمان آماری که در آن شرکت کنندگان پنج عبارت را از یک لیست انتخاب می کنند |
19048 | وقتی از جعبه ابزار شبکه عصبی در Matlab استفاده می کنم، این موضوع را گیج کننده دیدم. مجموعه دادههای خام را به سه بخش تقسیم میکند: 1. مجموعه آموزشی 2. مجموعه اعتبارسنجی 3. مجموعه آزمایشی در بسیاری از الگوریتمهای آموزش یا یادگیری، دادهها اغلب به 2 بخش تقسیم میشوند، مجموعه آموزشی و مجموعه تست. سوالات من این است: 1. تفاوت بین مجموعه اعتبار سنجی و مجموعه تست چیست؟ 2. آیا مجموعه اعتبارسنجی واقعا مختص شبکه عصبی است؟ یا اختیاری است. 3. برای ادامه، آیا تفاوتی بین اعتبارسنجی و آزمایش در زمینه یادگیری ماشین وجود دارد؟ | تفاوت بین مجموعه تست و مجموعه اعتبار سنجی چیست؟ |
72975 | این سوال دو بخش است: 1) وقتی عملگر backshift را به یک ثابت اعمال می کنید چه اتفاقی می افتد؟ به عنوان مثال، اگر من فرآیند AR را داشته باشم $$(1-\phi B)(y_t-\mu)=\epsilon_t$$ آیا برابر $$y_t-\mu-\phi By_t-\phi B\mu = \ epsilon_t$$ که (به اعتقاد من به کاهش مییابد) $$y_t-\mu-\phi y_{t-1}-\phi \mu = \epsilon_t\longrightarrow y_t=\mu+\phi y_{t-1}+\phi \mu+\epsilon_t $$ بنابراین آیا من در این فرض که جابهجایی یک ثابت (در مثال من $\mu$) فقط ثابت است صحیح هستم؟ 2) اگر فرض کنم که $\epsilon_t\sim N(0,v)$، پس احتمال فرآیند AR فوق در 1 چقدر است؟ | عملگر Backshift روی یک ثابت اعمال می شود |
16635 | سوالات من این است: 1. مزایای ترفند هسته چیست؟ کسی میتونه خلاصه کنه؟ 2. چیزی که در یک یادداشت سخنرانی در مورد آن خواندم این است که _ما هرگز نیازی به نمایش صریح بردارهای ویژگی نداریم. من کاملاً نمیفهمم «_صراحتاً نمایندگی_» یعنی چه. کسی میتونه توضیح بده؟ من آن را در اینجا، در صفحه 16 دیدم. PS: اگر مناسب است، لطفاً تگ _kernel trick_ را اضافه کنید. | مزایای ترفند هسته و یک سوال مرتبط |
69599 | من یک توزیع نمونه دارم که با محاسبه حداکثر در بسیاری از نمونه ها ایجاد شده است. اکنون میخواهم تخمینی برای حداکثر پارامتر واقعی در جمعیتی که از آن نمونهبرداری کردم، ایجاد کنم. چگونه می توانم این کار را انجام دهم؟ من در مورد بوت استرپ فکر کردم، اما در تخمین حداکثر کارایی خوبی نداشت. آیا کسی می تواند روشی برای تخمین حداکثر از توزیع نمونه من پیشنهاد دهد؟ | روش مناسب برای تخمین فواصل اطمینان برای یک آمار مرتبه شدید |
89240 | برای اجرای چه آزمون تحلیل آماری نیاز دارم؟ میخواهم نوع دانلودکننده (قانونی و غیرقانونی) را با نوع محتوایی که دانلود میکنند (موسیقی، فیلم و غیره) مقایسه کنم. در SPSS من نوع محتوا را به عنوان یک مجموعه پاسخ چندگانه تنظیم کرده ام زیرا هر پاسخ دهنده می تواند چندین محتوا را انتخاب کند. بهترین تست برای مقایسه این تست چیست؟ با تشکر | بررسی محتوا بر اساس نوع دانلودر |
69595 | امیدوارم این سوال خیلی ساده یا خیلی کلی نباشد. من در حال حاضر روی مشکلی کار می کنم که در آن مجموعه های مختلفی از داده ها به من داده می شود. هر مجموعه داده شامل تعدادی نمونه (نمونه برداری در نقاط نامنظم در سراسر فضای ورودی) است که از یک مقدار خروجی منفرد تشکیل شده است که با تعداد خاصی از مقادیر ورودی مرتبط است. با این حال، تعداد مقادیر ورودی در هر مجموعه داده متفاوت است (معمولاً بین 1 تا 10، اما احتمالاً بسیار بزرگتر). برای نشان دادن سریع: * * * ** مجموعه داده 1:** نمونه 1: (in0, in1, in2) -> out0 sample2: (in0, in1, in2) -> out1 ... sampleN: (in0, in1, in2) ) -> outN ** مجموعه داده 2:** نمونه 1: (in0، in1، in2، in3، in4) -> out0 sample2: (in0، in1، in2, in3, in4) -> out1 ... sampleM: (in0, in1, in2, in3, in4) -> outM * * * هدف کلی من این است که بتوانم از یک تکنیک درون یابی/رگرسیون برای هر مجموعه داده استفاده کنم. صرف نظر از تعداد ابعاد ورودی. تنها محدودیتهای من این است که تکنیک پیشبینی باید بتواند به هر تعداد از ابعاد بدون تغییر پیادهسازی اساسی مقیاسبندی کند، و باید برای دادههایی که لزوماً با فاصله یکسان نمونهبرداری نشدهاند، کار کند. تا به حال در استفاده از توابع نزدیکترین همسایه و پایه شعاعی برای درون یابی موفق بوده ام، اما به هیچ وجه در تکنیک های درون یابی چند بعدی متخصص نیستم و نمی دانم که آیا روش دیگری وجود دارد که برای این کار مناسب باشد. با تشکر | بعد روش های رگرسیون/ درون یابی مستقل؟ |
82647 | تلاش برای برنامه ریزی برای نیازهای موجودی آتی برای یک شرکت پوشاک. یک جزء فصلی قوی در داده ها وجود دارد. در ابتدای سال، فروش افزایش یافته است. در پایان، فروش کاهش یافته است. هر سال، در ابتدای سال، فروشندگان بیشتری را به دست می آورند و بنابراین هر سال بیشتر می فروشند. اما! این روند صعودی تنها یک بار در سال اتفاق می افتد. من سعی کردم تجزیه و تحلیل سری های زمانی فصلی را با یک روند انجام دهم، اما این باعث فروش بسیار بالایی در پایان سال شد. چگونه می توانم این تحلیل روند مرحله را انجام دهم؟ با تشکر | داده های فصلی با روند سالانه گام. |
16630 | ویرایش نهایی با تمام منابع به روز شده: برای یک پروژه، من از الگوریتم های یادگیری ماشین برای طبقه بندی استفاده می کنم. **چالش:** داده های برچسب دار کاملاً محدود و داده های بدون برچسب بسیار بیشتر. **اهداف:** 1. اعمال طبقه بندی نیمه نظارت شده 2. اعمال یک فرآیند برچسب گذاری نیمه نظارت شده (معروف به یادگیری فعال) من اطلاعات زیادی از مقالات تحقیقاتی پیدا کرده ام، مانند استفاده از EM، Transductive SVM یا S3VM ( SVM نیمه نظارتی)، یا به نوعی با استفاده از LDA و غیره. حتی کتابهای کمی در این زمینه وجود دارد. **سوال:** پیاده سازی ها و منابع کاربردی کجاست؟ * * * **بروزرسانی نهایی (بر اساس کمک های ارائه شده توسط mpiktas، Bayer، و Dikran Marsupial)** **آموزش نیمه نظارت شده:** * TSVM: در SVMligth و SVMlin. * EM Naive Bayes در Python * پروژه EM in LinePipe **آموزش فعال:** * **Dualist**: پیاده سازی یادگیری فعال با کد منبع در طبقه بندی متن * این صفحه وب نمای کلی فوق العاده ای از یادگیری فعال ارائه می دهد. * کارگاه طراحی تجربی: اینجا. **یادگیری عمیق:** * ویدئوی مقدماتی در اینجا. * سایت عمومی. * آموزش ویژگی های بدون نظارت و آموزش عمیق استنفورد. | یادگیری نیمه نظارتی، یادگیری فعال و یادگیری عمیق برای طبقه بندی |
38279 | فرض کنید در فلاپ بدون محدودیت هولدم دو بازیکن آل-این میروند. آنها هر دو دارای 2 کارت سوراخ هستند و در حال حاضر 3 کارت جامعه در هیئت مدیره وجود دارد. 2 کارت دیگر کشیده خواهد شد و هر بازیکن از بین 5 کارت مشترک و 2 کارت حفره خود، بهترین 5 کارت را خواهد ساخت. گاهی اوقات مردم دوست دارند بیش از یک بار آن را تمام کنند و 2 کارت نهایی را 2 بار بدهند و یا پات را تقسیم کنند یا یک نفر دو بار برنده شود و کل پات را برنده شود. همچنین تغییراتی وجود دارد که آنها آن را بیش از 2 بار تمام می کنند. آیا این به یک بازیکن بیشتر از دیگری سود می رساند؟ پی بردن به درصد شانس برنده شدن 1 بازیکن کار ساده ای برای اجرای آن فقط یک بار نیست، و من نمی دانم چگونه می توانم به این مشکل برای بیش از یک بار اجرا کردن آن نزدیک شوم. | چندین بار در پوکر بدون محدودیت هولدم اجرا کردن آن. |
16632 | من تعدادی مقوله و مجموعه ای از داده ها در مورد مقایسه های زوجی بین آن دو دسته دارم. چگونه می توانم اطلاعاتی در مورد رتبه بندی کلی / رتبه بندی / و غیره بیاموزم. از همه دسته ها؟ اجازه دهید جزئیات بیشتری ارائه دهم. من سعی میکنم با بررسی آنها بیاموزم که عموم مردم در مورد چه چیزی بیشتر نگران هستند. من حدود 20 دسته نگرانی بالقوه دارم، آنها را $A، B، ...، T$ بنامیم. من یک نمونه تصادفی از افراد را انتخاب کرده ام. برای هر فرد در نمونه موارد زیر را انجام داده ام. من یک جفت نگرانی را انتخاب کردم، به عنوان مثال، $E$ و $Q$. سپس از پاسخ دهنده پرسیدم: شما بیشتر نگران کدام هستید، $E$ یا $Q$؟ آنها می توانند یکی از سه پاسخ ممکن را انتخاب کنند: $E$، $Q$، یا حدوداً برای هر دو یکسان. من حدود 300 پاسخ دارم. هر پاسخ دهنده یک انتخاب تصادفی متفاوت و مستقل از یک جفت نگرانی دریافت کرد. چگونه باید این داده ها را تجزیه و تحلیل کنم تا بتوانم اطلاعات بیشتری را استخراج کنم؟ به عنوان مثال، آیا می توانم در مورد نگرانی هایی که مردم عموماً بیشتر نگران آن ها هستند یا کمتر نگران آن هستند چیزی بیاموزم؟ آیا می توانم برخی از رتبه بندی ها یا رتبه بندی های تقریبی یا برخی مقایسه ها را محاسبه کنم؟ و البته، من نگران محاسبه اهمیت آماری برای هر نتیجه گیری هستم. هر توصیه ای؟ P.S. با خیال راحت هر مدل معقولی را برای نحوه پاسخگویی مردم انتخاب کنید. برای مثال، میتوانید گذرا بودن را برای هر فردی فرض کنید (هر فرد یک رتبهبندی داخلی از نگرانیها دارد و بر اساس آن رتبهبندی به سؤال پاسخ میدهد؛ بنابراین اگر پاسخ دهند که اگر از او پرسیده شود بیشتر نگران $P$ هستند تا $Q$ در مورد $P$ در مقابل $Q$، و اگر از $Q$ در مقابل $R$ پرسیده شود، میگویند که بیشتر نگران $Q$ هستند تا $R$، سپس اگر در مورد $P$ در مقابل $R$ سوال شود. $R$ آنها می گویند که بیشتر نگران $P$ هستند تا $R$). | چگونه می توان رتبه بندی / رتبه بندی کلی را از بسیاری از مقایسه های زوجی محاسبه کرد؟ |
12741 | من می خواهم احتمال شرطی را در حالت زیر محاسبه کنم: به من گفته شد که یک جعبه حاوی یک توپ آبی است. این شواهد من است، احتمال قبلی من برای ترسیم آبی 0.3 است. و این پیام می تواند از طرف یک دوست (0.6) یا یک دشمن (0.4) باشد. من همچنین احتمالات را می دانم: دوستی که آبی را مشاهده می کند: 0.16 دوستی که قرمز را مشاهده می کند: 0.09 دشمنی که آبی را مشاهده می کند: 0.05 دشمنی که قرمز را مشاهده می کند: 0.17 توپ در واقع آبی است. با توجه به این اطلاعات، میخواهم بدانم احتمال آبی بودن توپ در واقع چقدر است. | محاسبه احتمال شرطی قاعده بیز |
80646 | من یک سری زمانی به شرح زیر دارم. روندی صعودی و سنی ضعیف دارد (در ACF یافت می شود). من تجزیه و تحلیل طیفی را امتحان کردم، اما خطای باقیمانده بیش از 600 باقی ماند، که برای پیش بینی به اندازه کافی کوچک نیست. هر توصیه ای؟ Thx! ts <- c(1530.040 3527.839 3327.613 3613.749 2971.990 3747.925 3352.686 5203.718 4550.774 3497.6918 3497.6918 3497.6918 1378.669 3743.931 5094.959 3998.374 3649.445 3709.277 4078.814 6663.439 5774.322 4881.767 41473250 6078.317 5398.443 3541.734 2852.284 3253.765 4716.344 5239.078 5267.733 4072.201 3796.414 3796.414 4309.735 4309.734 5627.322 3862.649 3673.138 4551.715 5904.327 5712.579 6108.412 4706.165 5230.390 3756.871 3074.871 30794.871 3194.798 3167.828 4333.597 4512.727 7609.356 7728.995 6024.994 4947.637 4491.105) | چگونه خطای باقیمانده را کاهش دهیم؟ |
70577 | کسی میدونه این چارت چیه؟ (نوعی نمودار حباب دار اما با پیوند بین حباب ها) http://en.wikipedia.org/wiki/File:PageRanks-Example.svg  | این چه نوع نموداری است؟ (نمودار حباب با لینک) |
12748 | من به دنبال مطالعه نوع خاصی از خطا در یک آزمون شناختی برای ارزیابی پیامدهای بالینی بالقوه هستم. از آنجایی که هیچ تحقیقی در مورد این متغیر وجود ندارد، من میخواهم یک ارزیابی آزمایشی بر روی مجموعه نسبتاً بزرگی از دادههای موضوعی از کلینیک خود انجام دهم (احتمالاً این تعداد حدود 200 آزمودنی است) تا ببینم آیا گرایشهایی برای هدایت آزمون فرضیهها وجود دارد یا خیر. مطالعات آتی (به عنوان مثال، آیا بیمارانی از یک جمعیت بالینی خاص بیشتر از افراد دیگر در معرض این نوع خطا هستند). داده ها به گونه ای است که یک بیمار به طور بالقوه می تواند 0-15 از این خطاها را مرتکب شود، اگرچه این احتمال وجود دارد که تمایل زیادی به محدوده 0-5 وجود داشته باشد. اساساً، من به دنبال شناسایی افراد از درون این استخر هستم که نرخ نسبتاً بالاتری از این خطاها دارند. آیا قالب شناخته شده ای برای انجام این نوع کار آزمایشی وجود دارد؟ با منع آن، توصیه شما چه خواهد بود؟ بدیهی است که این بسیار اکتشافی است، بنابراین من احساس میکنم که در تعریف آنچه که «غیرطبیعی» برای اهداف این مطالعه است، فاصله زیادی دارم، اما هرگونه مرجع یا پیشنهادی بسیار قدردانی خواهد شد. | به دنبال کمک برای شناسایی نقاط پرت در یک مطالعه آزمایشی برای هدایت آزمایش فرضیه های آینده |
97759 | 1. یک نمونه تصادفی ساده از 21 مشاهده از یک جمعیت محدود 41 نفری گرفته شده است. اگر میانگین جامعه 300 و واریانس جامعه 7 باشد، پس از اعمال ضریب تصحیح جمعیت محدود، واریانس میانگین نمونه: الف. 0.1667 ب. 0.3333 c. 0.5774 d. 7.0000 با استفاده از فرمول من: واریانس تصحیح شده=(²/n)((N-n)/(n-1)) همچنان (b) را دریافت می کنم، اما کلید می گوید که پاسخ (a) است. | ضریب تصحیح جمعیت محدود |
69597 | برای مدل ارائه شده توسط برخی از جفتهای مستقل $(x_i,y_i)$ که به طور یکسان از یک توزیع گاوسی دو متغیره تولید شدهاند، خانواده نیمه مزدوج مناسب توزیعهای قبلی Normal-Wishart وجود دارد. این عمدتاً راحت است زیرا توزیعهای خلفی به راحتی قابل شبیهسازی هستند، بدون توسل به تکنیکهای MCMC. به طور خاص، جفریز قبلی غیر اطلاعاتی در مرز خانواده نیمه کوژوگه قرار دارد و جفریز خلفی به راحتی شبیه سازی می شود. اما در موردی که واریانس برابر را برای $x_i$ و $y_i$ فرض میکنیم، آیا توزیع پسینی وجود دارد که شبیهسازی و دستیابی به یک عملکرد فرکانسی خوب مانند Jeffreys posterior آسان باشد؟ (یعنی، به طور کلی، پوشش مکرر بازههای اعتبار 95$\%$ تقریباً 95$\%$ برای پارامترهای معمول مورد علاقه است). | توزیع خلفی مناسب برای مدل گاوسی دو متغیره همگن |
82649 | من یک متغیر دارم که دارای اجزای عددی و اسمی است. منبع دارای مستنداتی است که به شناسایی کدامیک و تقسیم به اجزای مناسب کمک می کند. من بعداً (R یا WEKA) روی این داده ها مدل سازی خواهم کرد. چندین مورد وجود دارد و یکی از آنها متغیر size است: اجزای عددی 0 تا 70 و مقادیر اسمی <10، 10-20 تا 60-70 هستند. بخش اسمی مربوط به مصاحبه های نامشخص با بیمار، سوابق از دست رفته (در نتیجه عدم دقت) و سایر کاستی های پزشکی است. برنامه من این است که دو متغیر جدید ایجاد کنم - size-num و size-nom که به ترتیب دارای مجموعه های فوق به عنوان مقادیر باشند. وقتی «اندازه» را تغییر دادم، با مشکلات جدیدی روبرو می شوم: +-------+----------------------------- --------+ | شناسه | اندازه | اندازه-تعداد | size-nom | +-------+-------------------------------------+------------------------------------------- 1 | >10 | ? | >10 | | 2 | 27 | 27 | ? | | 3 | 20-30 | ? | 20-30 | | 4 | 0 | 0 | 0 | | 5 | <60 | ? | <60 | +-------+-------------------------------------+ * در متغیر عددی، چگونه می توانم اسمی های حذف شده را نشان دهم؟ اگر فقط آنها را خالی بگذارم، باید مقادیر از دست رفته را در نظر بگیرم. * در متغیر اسمی، چگونه عددی را نشان می دهم؟ من می دانم که می توانم دوباره از آنها (مقادیر عددی) استفاده کنم، اما این ویژگی پیوسته آنها را حذف می کند. | تقسیم یک متغیر با مقادیر اسمی و عددی |
7412 | من می خواهم مدل کنم که چگونه ترافیک در شبکه های واقعی (نه فقط اینترنت، همچنین مثلاً LAN داخلی اینتل) جریان می یابد. آیا جایی وجود دارد که بتوانم داده های توپولوژی شبکه واقعی را دریافت کنم که بتوانم از آن استفاده کنم؟ | از کجا می توانم داده های واقعی توپولوژی شبکه بزرگ را دریافت کنم؟ |
97751 | برای $i=1، \ldots، K$ و $j=1، \ldots,n$، مدل زیر را در نظر بگیرید. \begin{align} X_{ij} \mid \mu_i & \sim N(\mu_i, \sigma^2) \nonumber \\\ P(\mu_i, \sigma^2) & \propto 1/\sigma^2 \end{align} فرض میکنیم همه چیز مستقل است. سپس قسمت عقبی مانند زیر \begin{align*} \dfrac{\mu-\bar X_i}{s/ \sqrt{n}} \sim T_{n-1} \end{align*} با این قبل غیر اطلاعاتی است، آیا می توان توزیع حاشیه ای $\bar X_i$ را استخراج کرد؟ خیلی ممنونم! | توزیع حاشیه ای با قبل غیر اطلاعاتی |
38273 | دادهها برای انواع خاصی از متغیرها وقتی در جمعیتهای خاصی اندازهگیری میشوند، غیرطبیعی هستند (مثلاً سطوح افسردگی در جمعیتی از افراد مبتلا به اختلال افسردگی اساسی). با توجه به اینکه پیرسون نرمال بودن را فرض می کند، آمار آزمون در شرایط غیر نرمال بودن چقدر قوی است؟ من تعدادی متغیر دارم که می خواهم ضرایب همبستگی برای آنها داشته باشم، اما چولگی Z برای برخی از آن متغیرها در _p_ <.001 (و این برای نمونه نسبتاً کوچکی است) قابل توجه است. من تغییراتی را امتحان کردهام، اما پیشرفتها در توزیعها در بهترین حالت جزئی هستند. آیا باید به تحلیل های ناپارامتریک پایبند باشم؟ و نه فقط برای همبستگی، بلکه برای انواع دیگر تجزیه و تحلیل نیز؟ | ضریب همبستگی پیرسون در برابر نقض نرمال چقدر قوی است؟ |
16636 | من دو ماتریس بزرگ (پراکنده) (500000*500000) دارم و میخواهم برای اندازهگیری شباهت، تست مانتل را انجام دهم. * آیا راهی برای تقسیم این ماتریس ها به ماتریس های کوچکتر و انجام تست وجود دارد؟ * یا می توانید راهی برای انجام کارآمد آن بدون مشکل حافظه پیشنهاد دهید؟ | چگونه می توان همبستگی بین دو ماتریس بزرگ (پراکنده) را بدست آورد؟ |
52338 | با توجه به N نقطه تصادفی که به طور یکنواخت در مربع واحد توزیع شده اند، و فاصله d، می توانم یک ماتریس در قالب زیر ایجاد کنم: E V1 V2 [1,] 0.5564821 1 2 [2,] 0.3373116 1 3 [3،] 0.3973278 1 4 [4،] 0.6066518 1 5 [5،] 0.9603731 1 6 [6,] 0.3612895 1 7 # ردیف دیگر... جایی که E، راس پیوند دهنده یال V1 و V2 است. من تازه شروع به یادگیری تئوری گراف کرده ام، بنابراین می پرسم: چگونه می توانم مشخص کنم که این نمودار هندسی تصادفی به هم متصل است؟ با تشکر | اتصال نمودار هندسی تصادفی |
88110 | من یک مشکل طبقه بندی دارم که در آن دریافت مثبت های واقعی بسیار مهم تر از منفی های واقعی است. برای روشن بودن، می دانم که تقریباً 10٪ از جمعیت من مثبت هستند، اما می توانم نسبتی (مثلا 30٪) از جمعیت را بدون هزینه زیاد به عنوان مثبت طبقه بندی کنم، مهمتر از همه باید مطمئن شوم که موارد مثبت واقعی توسط این مجموعه پوشش داده می شود. متأسفانه ابزارهای طبقهبندی که من در WEKA استفاده میکنم به نظر میرسد که دقت و یادآوری را متعادل میکنند، به طوری که الف) به اندازهای که مجاز است، موارد مثبت را تخصیص نمیدهد، و ب) مقدار یادآوری بسیار بدی دریافت میکند. آیا روش استانداردی برای برخورد با این مشکل وجود دارد؟ اولین حدس من این است که به جای F-score، تابع هزینه را برای فراخوانی وزن کنم، اما راه آسانی برای انجام این کار در WEKA نمی بینم. | طبقه بندی وزن نسبت به فراخوان؟ |
9107 | من میخواهم مجموعه داده توزیع درآمد پیوست شده را (که به صورت تصویر ارائه میشود) به عنوان نمودار مساحتی رسم کنم. همانطور که می بینید، درآمد شخصی به 26 بازه با عرض متفاوت تقسیم می شود. میانگین و میانگین درآمد را هم در فواصل زمانی دارم. برای ارائه یک گرافیک منطقه واقعی از این داده ها، نمی دانم گزینه های من واقعاً چه هستند؟ رسم داده های طبقه بندی ترتیبی در دست، یک قوز بزرگ در نمودار مساحتی برای بازه 400-499 ایجاد می کند. اما این فقط به این دلیل است که آن فاصله وسیعتر است و از این رو کاربر میتواند توسط شکل گمراه شود. مسئله دیگر در مورد داده های طبقه بندی شده این است که میانگین فاصله 1000+ از 1000 (= 1644) بسیار دور است. یک گرافیک منطقه ای که این را در نظر نمی گیرد، در نشان دادن توزیع واقعی کار بدی می کند. چگونه پیش می روید و آیا راهی وجود دارد که بتوانم از میانگین/میانگین برای تبدیل مقیاس طبقه بندی به مقیاس پیوسته استفاده کنم؟ | مقیاس طبقه ای یا پیوسته برای نمودار مساحت؟ |
17320 | در شکل زیر در سمت چپ دو مورد از فرآیندهای نقطهای با چگالی (شدت) متفاوت $\lambda_1$ و $\lambda_2$ در حال اختلاط هستند که با مرکز نواحی مربوطه تطبیق داده میشوند تا فرآیند نقطهای در وسط با شدت $\lambda ساخته شود. $. سپس نقاطی را که در سمت راست نشان داده شده است به صورت تصادفی به عنوان دو مجموعه استخراج شده از آن انتخاب کنید. سوالات: آیا $\lambda=\lambda_1+\lambda_2$ است؟ و آیا $\lambda=\lambda_3+\lambda_4$ است؟ اگر دو نفر در سمت چپ پواسون PP بودند، آیا وسط یک پواسون PP است؟ در مورد دو سمت راست چطور؟  | فرآیندهای نقطه اختلاط و تقسیم |
82644 | من در حال اجرای یک آزمایش بیولوژیکی با جوندگان هستم، دو گروه (هر کدام از 26 حیوان) تشکیل شده است، که در آن یکی با یک ماده شیمیایی درمان می شود، و یکی شاهد (سالین). در یک متغیر، به نظر می رسد تفاوت زیادی بین گروه ها وجود ندارد. با این حال، هنگامی که من پرت را شناسایی می کنم، داده ها بسیار مهم می شوند ($p < 0.01$). من نمی دانم معیارهای من برای حذف آن نقاط داده معتبر است؟ من از دو روش برای شناسایی نقاط پرت استفاده کرده ام. اول از همه، من به طور جداگانه برای کنترل و درمان، موارد پرت را شناسایی می کردم، زیرا داده ها بسیار متفاوت به نظر می رسند (هیستوگرام پیوست شده برای گروه درمان را بررسی کنید) - آیا این اشتباه است یا خیر؟ به نظر من منطقی به نظر می رسد، زیرا گروه ها متفاوت هستند (به این معنا که از نظر شیمیایی به طور متفاوتی رفتار می شوند).  اولین روشی که ذکر کردم—من داده هایی را بررسی کردم که 2.5 STDEV از میانگین باشد و آن نقاط را حذف کردم. مورد دوم مشابه است: http://www.wikihow.com/Calculate-Outliers—این یکی همان نتیجه را می دهد و نقاط پرت را در گروه درمان شناسایی می کند. با این حال، از آنجایی که میخواهم نشریهای تهیه کنم، به یک آزمون واقعی پذیرفته شده توسط همتایان برای موارد پرت نیاز دارم. من تست هایی را در StatSoft Statistica پیدا کرده ام، اما نمودار سبیل جعبه ای نقاط پرت را در آنجا نشان نمی دهد. با این حال، در آزمون گرابز، من $p < 0.05$ دریافت میکنم، بنابراین از نظر تحلیلی بهعنوان یک نقطه پرت شناسایی میشود، درست است؟ بنابراین، سؤالات من این است: 1) آیا خوب است که مقادیر پرت را برای هر گروه متفاوت محاسبه کنیم، یا باید نمونه را در یک گروه جمع کنم ($N = 52$) و سپس آن را برای هر دو گروه با هم محاسبه کنم؟ 2) از کدام روش برای شناسایی (و حذف) موارد پرت استفاده کنم تا توسط یک بررسی انتقادی پذیرفته شود؟ من نقاط داده را در اینجا ضمیمه می کنم: https://www.mediafire.com/?0qdsifib0hugd9u برای من، به نظر می رسد که هر حیوانی با امتیاز بالاتر از 54، پرت است. هر گونه کمکی بسیار قدردانی خواهد شد! | مشکل در شناسایی نقاط پرت |
52333 | من میخواهم واریانس پارامتر تخمینی $\hat\theta$ تابع چگالی $f(x;\theta)$ را با توجه به تعداد محدودی از نمونههای $X_1,\cdots,X_n$ استنتاج کنم. وقتی حجم نمونه کوچک است، بوت استرپینگ عملکرد خوبی ندارد. آیا روش دیگری برای رسیدگی به پرونده وجود دارد؟ | واریانس تخمین پارامترها را با توجه به تعداد محدودی از نمونه ها محاسبه کنید |
95449 | میخواهم بدانم چگونه SPSS متغیرها را در رگرسیون لجستیک کنترل میکند تا OR صحیح «کنترلشده» را گزارش کند. مورد خاصی که من را آزار می دهد به شرح زیر است: فرض کنید من یک اندازه تومور IV دارم که یا اندازه تومور کوچک است یا اندازه تومور بزرگ. IV دیگر طبقه بندی ریسک با ریسک کم و ریسک بالا است. متغیر وابسته من عوارض است: بله یا خیر. متأسفانه افراد با خطر بالا اغلب تومور بزرگی نیز دارند. برای ارزیابی تأثیر واقعی طبقهبندی خطر، از اندازه لایه تومور استفاده کردم و یک crosstab انجام دادم، که به من OR را برای بیماران پرخطر در مقابل کم خطر زمانی که تومورهای بزرگ دارند و بیماران پرخطر در مقابل بیماران کم خطر زمانی که تومورهای کوچک دارند به من داد. . من فرض کردم که این کنترل متغیرها است. متعاقباً شنیدم که وقتی یک رگرسیون لجستیک در SPSS زیر جدول متغیرهای معادله انجام میدهد، OR $(\exp(B))$ برای هر متغیر در حالی که متغیرهای دیگر را کنترل میکند، نمایش داده میشود. متأسفانه این ORها با ORهای نسخه crosstab مطابقت ندارند. در آن صورت چه تفاوتی وجود دارد؟ خیلی ممنون، از کمک شما قدردانی می کنم! | متغیرهای کنترل رگرسیون لجستیک در مقابل لایه در crosstabs |
50904 | من مجموعه ای از مقادیر دارم، هر یک از این مقادیر میانگین و واریانس خاص خود را دارند. من میخواهم وقتی هیستوگرام میانگین را رسم میکنم بتوانم این واریانس را محاسبه کنم. چیزی شبیه نوار خطا روی سطل ها. آیا روش رایجی برای این کار وجود دارد؟ | هیستوگرام داده های نامشخص |
16633 | کدام سناریو از نظر احتمال بهتر است با موارد زیر: **سناریو 1** * من یک کلاه دارم که 5 بلیط در آن وجود دارد (یکی دارم). * یک قرعه کشی وجود دارد. * 20 درصد شانس دارم که بلیتم کشیده شود. **سناریو 2** * من یک کلاه دارم که 25 بلیط داخل آن است (یکی دارم). * 5 تساوی انجام شد. * بعد از هر قرعه کشی بلیط قبل از قرعه کشی بعدی برگردانده می شود. یعنی شانس بالقوه 5 بار تساوی. * من در هر تساوی 4 درصد شانس دارم کدام یک حداقل یک بار شانس بیشتری دارد؟ در حالت ایدهآل، من دوست دارم بدانم چگونه این موضوع را حل کنم (و چرا) تا بتوانم چیزی یاد بگیرم :-) | چگونه می توان احتمال بزرگتر کشیدن یک عنصر از یک مجموعه را زمانی که اندازه مجموعه و تعداد قرعه کشی ها با جایگزینی متفاوت است تعیین کرد؟ |
17321 | من یک جدول کوچک مانند این دارم. مجموعه ای از ویژگی ها دارند. جدول بالا نشان دهنده داده های آموزشی است. نتایج و ویژگی ها همگی مقادیر پیوسته هستند و گسسته نیستند (مقادیر 0/1/2 نیستند). حال، چگونه مجموعه آموزشی دادهها را تجزیه و تحلیل کنم تا مشخص کنم کدام یک از ویژگیها واقعاً بر خروجی تأثیر میگذارند و چگونه میتوانم ویژگیها را به ترتیب کاهش تأثیر آنها دوباره مرتب کنم؟ من میخواهم به خوبی به کاربر نهایی نشان دهم که Feature_n_Value دو برابر بیشتر از Feature_m_Value بر خروجی تأثیر میگذارد، اما Feature_n_value در مقایسه با Feature_p_Value و غیره کمتر از نصف بر خروجی تأثیر داشت. ریاضیات پشت چنین محاسبه ای چیست؟ من کمی به رگرسیون لجستیک نگاه کردم. آیا این روش درستی خواهد بود؟ اگر چنین است، پس در رگرسیون لجستیک، مجموعهای از بردارهای بتا (تعداد مقادیر خروجی)، هر کدام به اندازه ابعاد ورودی (تعداد ویژگیها) را دریافت میکنم. با بردارهای بتای خروجی چه کار کنم، اگرچه میدانم که با توجه به مجموعه جدیدی از مقادیر ویژگی و این مقادیر بتا که با استفاده از دادههای آموزشی محاسبه میشوند، میتوانید خروجی را پیشبینی کنید. مشاوره بسیار قدردانی می شود. با تشکر آبیشک اس | تعیین ویژگی های تأثیرگذار برای یک نتیجه |
12743 | میخواهم بدانم چگونه میتوان یک مدل میانگین جمعیت یک رگرسیون لجستیک سلسله مراتبی را با استفاده از بسته «جی پک» «R» تخمین زد. کد «Stata» این است: xtlogit dep ind1 ind2 ind3، i(ind4) pa من میخواهم با استفاده از «geepack» یا هر روش دیگری این را در «R» بازتولید کنم. | برآورد مدل های میانگین جمعیت در lmer یا geepack |
53068 | من تازه با کتاب هوش جمعی (نوشته توبی سگاران) کار می کنم و به نمره فاصله اقلیدسی برخوردم. در کتاب نویسنده نحوه محاسبه شباهت بین دو آرایه توصیه (یعنی $\textrm{person} \times \textrm{movie} \mapsto \textrm{score})$ را نشان میدهد. او فاصله اقلیدسی را برای دو نفر $p_1$ و $p_2$ توسط $$d(p_1, p_2) = \sqrt{\sum_{i~\in~\textrm{item}} (s_{p_1} - s_{) محاسبه میکند. p_2})^2} $$ این برای من کاملاً منطقی است. چیزی که من واقعا نمی فهمم این است که چرا او در پایان موارد زیر را محاسبه می کند تا شباهت مبتنی بر فاصله را به دست آورد: $$ \frac{1}{1 + d(p_1, p_2)} $$ بنابراین، من به نحوی آن را دریافت می کنم این باید تبدیل از فاصله به شباهت باشد (درسته؟). اما چرا فرمولار اینگونه به نظر می رسد؟ کسی می تواند آن را توضیح دهد؟ | امتیاز فاصله اقلیدسی و شباهت |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.