_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
37619
چگونه ثابت کنیم که برای تابع پایه شعاعی $k(x, y) = \exp(-\frac{||x-y||^2)}{2\sigma^2})$ هیچ فضای مشخصه بعدی محدودی وجود ندارد $H$ طوری که برای برخی از $\Phi: \text{R}^n \به H$، $k(x, y) = \langle \Phi(x), \Phi(y)\rangle$ داریم؟
چگونه ثابت کنیم که برای هسته RBF گاوسی فضای مشخصی با بعد محدود وجود ندارد؟
30592
من اخیراً اصطلاح تأثیر متعامد * را شنیده ام. در زمینه آزمایش پلت فرم آزمایشی استفاده شد. این به چه معناست؟ در ادبیات یا ویکی پدیا نمی توانم چیزی در مورد آن پیدا کنم.
منظور از متعامد در تست اعتبار سنجی چیست؟
40621
در سخنرانی‌های آماری من ذکر شده است که برای داده‌های متوازن (تعداد یکسان شرکت‌کننده در هر بلوک)، چه مدل با فاکتور A به عنوان یک اثر ثابت یا یک اثر تصادفی برازش داده شود، نتایج یکسان خواهد بود. به عنوان مثال: lme(efort ~ Type, random = ~1|Subject) همان پاسخی را به من می دهد که lm(efort~ Type + Subject) در مقابل، ذکر شده است که با داده های نامتعادل، نتایج یکسان نخواهد بود. منظور از «پاسخ یکسان» چیست. اگر هر دو مدل را اجرا کنم، دو خروجی متفاوت دریافت می کنم. همان چیست؟
جلوه های تصادفی در مقابل جلوه های ثابت با طرح های متعادل
7115
من تعجب می کنم که پردازش زبان طبیعی در تعیین فاصله معنایی بین دو گزیده متن چقدر فاصله دارد. به عنوان مثال، عبارات زیر را در نظر بگیرید 1. امروز زود بلند شدم و ماشینم را شستم. 2. امروز صبح کامیونم را تمیز کردم. 3. موز منبع عالی پتاسیم است. واضح است (برای خواننده انسانی) دو گزاره اول بسیار بیشتر از گزاره سوم به یکدیگر شباهت دارند. آیا روشی وجود دارد که به رایانه اجازه دهد همین نتیجه را بگیرد؟ (در نهایت سعی می کنم توییت های توییتر را بر اساس محتوای معنایی گروه بندی کنم.)
فاصله معنایی بین گزیده های متن
33021
هنگامی که من یک MANOVA 2x4x5x6 (جنس*گروه سنی*بالاترین درجه*قومیت) (با 20 متغیر وابسته) را در SPSS اجرا می کنم، آزمایش هایی از اثرات بین سوژه ها برای هر یک از IV ها و تعامل آنها پس از آمارهای MANOVA اصلی را به عنوان نوعی پست تعلیق ارائه می کند. . من فکر می‌کردم که این آزمایش‌ها ANOVA فاکتوریل 2*4*5*6 برای هر یک از DVهای بررسی شده در MANOVA هستند. اما وقتی آن ANOVA های فاکتوریل را جداگانه اجرا می کنم، نتایج کاملا متفاوتی دریافت می کنم! (مقادیر F در MANOVA post hoc عموماً بالاتر از مقادیر F ناشی از ANOVAهای فاکتوریل جداگانه است.) چرا اینطور است؟ می‌دانم که نباید به آمارهای MANOVA اصلی (ردپای Pillai و غیره) اعتماد کنم، زیرا اندازه‌های نمونه سلولی بسیار کوچک است، اما من نمی‌دانم که چرا پست‌هاک از MANOVA با ANOVAهای فاکتوریل برای متفاوت است. هر یک از DV ها
تفاوت بین آزمون‌های «پس‌تحلیلی» MANOVA بین اثرات آزمودنی‌ها و بین آزمودنی‌ها ANOVA یک طرفه؟
74259
من یک مدل رگرسیون خطی معمولی دارم مانند این y = b0 + b1*x + b2*z + b3*x*z برای آزمایش مدل از «PROC GLM» در «SAS» استفاده کردم. اکنون می‌خواهم ماتریس واریانس کوواریانس ضرایب ('b0'، 'b1'، 'b2'، و 'b3') را صادر کنم. با این حال، من هیچ گزینه ای برای صادرات آن پیدا نکردم. من نمی‌توانم از «PROC REG» به دلیل اصطلاح تعامل استفاده نکنم. کسی میدونه چجوری بگیرمش؟
ماتریس واریانس کوواریانس را با استفاده از PROC GLM صادر کنید
30043
من داده ها را از سه گروه مختلف جمع آوری خواهم کرد. من با زنان مصاحبه خواهم کرد (نمونه احتمالی) و سپس از آنها می خواهم که نامی برای ساخت دو گروه دیگر ارائه دهند (نمونه مناسب). من می خواهم بدانم بهترین روش برای تجزیه و تحلیل همه این داده ها چیست؟ مطالعه من در مورد: حمایت از شیردهی در محل کار است. من قبلاً سه گروه را برای به دست آوردن داده ها تعریف کرده ام: 1. مادران شاغل. 2. مدیران; 3. سایر کارکنان. نمونه مادران شاغل از یک پایگاه داده ارائه شده توسط بخش منابع انسانی در محیط دانشگاهی که من در آن کار می کنم به دست می آید. سپس از مادران نمونه می خواهم نام مدیر فوری خود و همچنین نزدیکترین کارمندی که با او کار می کند را توصیه کنند (مثال: دفتر مشترک). در اینجا اولین سوال من مطرح می شود: این نوع نمونه گیری چیست؟ سپس من یک پرسشنامه جداگانه برای گروه ها ارسال خواهم کرد. تیپ متفاوت برای خانم ها مدیران و همکاران تقریباً مشابهی دریافت خواهند کرد. در نهایت می خواهم بدانم چگونه می توان نتایج را در یک تجزیه و تحلیل (در صورت امکان) همپوشانی کرد. فرضیه: آیا حمایت محل کار بر قصد شیردهی و همچنین مدت شیردهی تأثیر دارد؟ بهترین رویکرد برای ادغام سه مجموعه داده در یک تحلیل چیست؟ آیا نمونه گیری پیشنهادی خوب است؟
چگونه می توان آزمایش کرد که آیا حمایت در محل کار بر قصد و مدت شیردهی تأثیر می گذارد؟
71219
متن زیر را در نظر بگیرید > حکم صادر شده است، هیئت منصفه MS را به دلیل تخلفات مجرم شناخته و جریمه هایی را به مبلغ 1.50 میلیارد دلار تعیین کرده است. این ضربه بزرگی به شهرت > ام اس خواهد بود. از سوی دیگر، متهمان، NK، خوشحال بودند. این یک حکم مهم برای آنها بود که پیروز شوند. گروه کارگزاری قبلاً سهام خود را به خرید ارتقا داده است. چگونه می توانم مشکل استنباط احساسات را از دیدگاه هر دو طرف، یعنی NK (مثبت) و MS (منفی) مدل کنم. من حتی نمی دانم چه چیزی را از طریق اینترنت جستجو کنم تا حداقل شروع کنم.
چگونه می توانم از یک دیدگاه یا یک دیدگاه خاص احساسات را دریافت کنم؟
7110
تفاوت(ها) بین طرح طولی و سری زمانی چیست؟
تفاوت بین طراحی طولی و سری زمانی
30041
من یک رگرسیون را روی یک مجموعه داده بزرگ انجام می دهم که نسبتاً نویز دارد. خطی که من در R اجرا می کنم این است: lmfit <- lm(predictVariable ~ dataSet[,1:10]) بنابراین من 10 متغیر درون زا دارم. نتایج تا حدودی عجیب هستند: 1. آمار t معنی دار برای همه ضرایب 2. $R^2 = 0.25$ اما وقتی دوباره یک رگرسیون روی متغیرهای برازش شده و واقعی اجرا می کنم، این را دریافت می کنم: run1 <- lm(predictVariable ~ lmfit$fitted.values) ضریب در مقابل مقادیر برازش 1.0001 و فاصله ~0 است. اما اکنون وقتی آن را به صورت معکوس اجرا می کنم: run1 <- lm(lmfit$fitted.values ​​~ predictVariable) ضریب اکنون 0.26 است و وقفه نیز ~0 است. چرا ضرایب در دو رگرسیون آخر اینقدر متفاوت است؟ آیا این بدان معناست که متغیرهای درون زا من خطی هستند یا برازش من ضعیف است؟ وقتی مقادیر fitted.values ​​را در مقابل واقعی رسم می کنم، می بینم که مقادیر واقعی زیادی نزدیک به 0 وجود دارد اما مقدار برازش بیشتر و کمتر است. آیا کسی می تواند به من کمک کند تا این نتایج رگرسیون را بفهمم؟
چرا رگرسیون مقادیر برازش شده در مقابل مشاهده شده یا مشاهده شده در مقابل مقادیر برازش نتایج متفاوتی را به همراه دارد؟
7112
من 2 سوال ساده در مورد رگرسیون خطی دارم: 1. چه زمانی توصیه می شود متغیرهای توضیحی را استاندارد کنید؟ 2. هنگامی که تخمین با مقادیر استاندارد شده انجام می شود، چگونه می توان با مقادیر جدید پیش بینی کرد (چگونه باید مقادیر جدید را استاندارد کرد)؟ برخی از مراجع مفید خواهد بود. با احترام
زمان و نحوه استفاده از متغیرهای توضیحی استاندارد شده در رگرسیون خطی
5563
آیا یک تابع حد در R وجود دارد؟ «help(lim)» یا «help(limit)» مفید نبودند. و در کل آیا R برای محاسبات ریاضی مناسب است؟
آیا تابع حد در R وجود دارد؟
30045
در تنظیم رگرسیون چند متغیره (رگرسیون برداری و رگرسیون)، چهار آزمون اصلی برای فرضیه کلی (لامبدای ویلک، پیلای-بارتلت، هتلینگ-لاولی، و بزرگترین ریشه روی) همگی به مقادیر ویژه ماتریس $H E^ بستگی دارند. {-1}$، که در آن $H$ و $E$ توضیح داده شده و ماتریس های تنوع کل. متوجه شده بودم که آمار Pillai و Hotelling-Lawley هر دو می توانند به صورت $$\psi_{\kappa} = \mbox{Tr}\left(H\left[\kappa H + E\right]^{-1} بیان شوند. \راست)،$$ به ترتیب، $\kappa = 1، 0$. من به برنامه ای نگاه می کنم که در آن توزیع این ردیابی، که برای آنالوگ های جمعیتی $H$ و $E$ تعریف شده است، برای مورد $\kappa = 2$ مورد توجه است. (خطاهای مدول در کار من.) من کنجکاو هستم که یکپارچه سازی آمار نمونه برای $\kappa$ عمومی یا تعمیم دیگری وجود داشته باشد که دو یا بیشتر از چهار تست کلاسیک را در بر بگیرد. متوجه شدم که برای $\kappa$ که برابر با $0$ یا $1$ نیست، شمارنده دیگر شبیه Chi-square زیر عدد تهی نیست، و بنابراین تقریب F مرکزی مشکوک به نظر می رسد، بنابراین شاید این یک بن بست باشد. من امیدوارم که تحقیقاتی در مورد توزیع $\psi_{\kappa}$ در زیر صفر (_یعنی ماتریس واقعی ضرایب رگرسیون صفر است) و در زیر گزینه جایگزین انجام شده باشد. من به ویژه به مورد $\kappa = 2$ علاقه مند هستم، اما اگر روی مورد $\kappa$ عمومی کار شود، البته می توانم از آن استفاده کنم.
آیا تعمیم ردپای پیلای و ردپای هتلینگ-لاولی وجود دارد؟
33023
من سعی می کنم یک تحلیل مسیر را برنامه ریزی کنم. به طور خلاصه، من فهرستی از ژن هایی دارم که حاوی 1 یا چند جهش هستند. من این ژن‌ها را به مسیرها نگاشت کرده‌ام و می‌خواهم بدانم آیا مسیرهایی بیش از حد در این نگاشت‌ها نشان داده می‌شوند. رویکرد من مبتنی بر جایگشت است: من به‌طور تصادفی تعداد معادلی از جهش‌ها را در ژنوم قرار می‌دهم (با در نظر گرفتن طول ژن)، و سپس این کار را 10000 بار انجام می‌دهم و تعداد دفعاتی را که هر مسیر دارای تعداد معینی جهش است می‌شمارم. ترسیم یک هیستوگرام از این جایگشت ها برای هر یک از مسیرها شبیه توزیع chi sq است که در R با df=1 و ncp=0 رسم شده است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/O5JUm.png) سوال من این است که چگونه می توانم یک p-value را بر اساس این توزیع محاسبه کنم؟ هر کمکی قابل تقدیر است.
مقادیر p تجربی در تحلیل مسیر
33029
من نحوه اندازه‌گیری صافی یک سری زمانی را در R از این سوال CV قبلی پیدا کرده‌ام و فکر می‌کنم آن را درک می‌کنم، اما به R دسترسی ندارم، فقط به اکسل دسترسی دارم. چگونه این را محاسبه کنم؟ با توجه به این فرمول برای یک نسخه نرمال شده صافی: sd(diff(x))/abs(mean(diff(x))) چگونه قسمت diff() را در اکسل محاسبه کنم، زیرا این قسمتی است که من گیر کرده ام در؟
چگونه صافی یک سری زمانی را در اکسل اندازه گیری کنیم؟
72978
من مجموعه ای از متن های طبقه بندی شده دارم. از اینها بردارها را ایجاد می کنم. هر بردار مربوط به یک سند است. اجزای برداری وزن کلمات در این سند هستند که به عنوان مقادیر TFIDF محاسبه می شوند. سپس یک مدل می سازم که در آن هر کلاس با یک بردار ارائه می شود. مدل به تعداد طبقات موجود در بدنه بردار دارد. مؤلفه یک بردار مدل به عنوان میانگین تمام مقادیر مؤلفه گرفته شده از بردارهای این کلاس محاسبه می شود. برای بردارهای طبقه بندی نشده، شباهت را با بردار مدل با محاسبه کسینوس بین این بردارها تعیین می کنم. سوال: آیا می توانم از فاصله اقلیدسی بین بردار طبقه بندی نشده و مدل برای محاسبه شباهت آنها استفاده کنم؟ اگر نه - چرا؟ با تشکر
مدل فضای برداری: شباهت کسینوس در مقابل فاصله اقلیدسی
89799
من تعداد زنان باردار دریافت کننده شاخص های خدمات بهداشتی خاص (زایمان، حضور در دوران بارداری و جذب پیشگیری از مالاریا) را در 14 مرکز در سه دوره زمانی خاص مقایسه کردم. قبل، حین و بعد از مداخله پروژه؛ با استفاده از مجموعه داده های قبل از مداخله به عنوان مرجع در مدل رگرسیون پواسون، نسبت های نرخ رخداد و فواصل اطمینان و مقادیر p را محاسبه کردم. اکنون از من خواسته شده است که یک آمار آزمایشی برای نشان دادن اینکه آیا مجموعه داده های قبل، حین و بعد از مداخله متفاوت هستند یا خیر، اجرا کنم. آیا نشان دادن IRR کافی نیست و آیا آمار تست دیگری فراتر از آنچه من انجام داده ام وجود دارد؟ در اینجا یک نمونه از STATA خوانده شده است که من در اجرای یک تجزیه و تحلیل به دست آوردم. چالش من در تفسیر چاپ به خصوص نتایج LR chi2(2) و prob > chi2 است. منظورشون چیه ![STATA READ OUT](http://i.stack.imgur.com/ZEt18.png)
آیا آمار آزمایشی برای رگرسیون پواسون وجود دارد؟
47932
من در حال مقایسه 4 آزمایش مختلف برای ارزیابی / شناسایی سرطان هستم. یکی یک متغیر پیوسته است که مقادیر برش را بر اساس میانگین و میانه 5 اندازه گیری متوالی در یک بیمار ارائه می دهد. 3 آزمایش دیگر آزمایشات اسمی است که ضایعات را از 0 (خوش خیم) - 4 (1-4 بدخیم بودن) مرحله بندی می کند. من می‌خواهم دقت‌ها، حساسیت‌ها، ویژگی‌ها، ارزش‌های پیش‌بینی pos/neg و نسبت‌های احتمال را مقایسه کنم. من از بسته SPSS برای تجزیه و تحلیل آماری استفاده می کنم. مجموعه داده شامل 120 بیمار (21 با ضایعات خوش خیم و 99 با ضایعات بدخیم) است. آیا پیشنهادی در مورد نحوه ارزیابی این تست ها برای تفاوت های قابل توجه دارید؟
مقایسه تست های مرحله بندی سرطان
66728
من سعی می کنم کد خودم را برای خطاهای استاندارد خوشه ای قوی (AKA panel-robust، AKA heteroskedasticity و serial-correlation-consistent) بنویسم تا بتوانم چند پسوند کوچک ایجاد کنم. اما من نمی توانم نتایج خود را با Stata (که در آن این روش معمول است) مطابقت دهم، بنابراین احتمالاً جزئیاتی را از دست داده ام. از اشاره گرهای روی کد، در زیر سپاسگزاریم. مدل $$ y_{ig} = \alpha_g + X'_{ig}\beta + \epsilon_{ig} $$ است. ترک متغیرهای غیرمعنای متغیر گروه: $$ ydm_{ig} = Xdm'_{ig}\beta + \epsilon dm_{ig} $$ واریانس $\beta$ به صورت $$ \left(\displaystyle\sum_G Xdm_g'Xdm_g\right)^{-1} \displaystyle\sum_G Xdm_g' \epsilon dm_g \epsilon dm_g' Xdm_g \left(\displaystyle\sum_G تخمین زده می شود Xdm_g'Xdm_g\right)^{-1} $$ استاندارد خطاها جذر قطر این ماتریس هستند که با $G/(G-1) \times (N-1)/(N-K)$ باد می شوند. این همه اقتصاد سنجی کتاب درسی است. استاندارد در stata، و کد برای انجام آن در R وجود دارد. (مثلاً این) من می‌خواهم کد من به «plm»، «lmtest» یا «ساندویچ» متکی نباشد. اسکریپت زیر قرار است ریاضیات بالا را پیاده‌سازی کند و یک مجموعه داده پانل را شبیه‌سازی کند که در آن نتایج به صورت خودکار همبسته هستند و گروه‌ها اشکال متفاوتی از ناهمسانی دارند. تخمین نقطه درستی را ارائه می دهد اما خطاهای استاندارد بزرگتر از خطاهای داده شده توسط stata هستند: rm(list=ls()) set.seed(999) N = 1000 G = 200 x = rnorm(N) z = rexp(N) obs = N/G fe = data.frame(ID=1:G,fe = rnorm(G)+5) fe = data.frame(ID = rep(fe$ID,obs),fe = rep(fe$fe,obs)) t = rep(1,G); برای (i در 2:obs) {t = c(t,rep(i,G))} data = data.frame(y=x+z+fe$fe+x*rnorm(N,mean=0,sd =fe$fe*runif(N))، ID=fe$ID,x,z,t) write.csv(data,testdata.csv) demean = function(var,ID){ dat = data.frame(var,ID) library(doBy) means = summaryBy(var~ID,data=dat,fun=mean) d = data.frame(var,ID) a = merge(d,means,by=ID ) adm = a[,2]-a[,3] adm } xdm = demean(data$x,data$ID) ydm = demean(data$y,data$ID) zdm = demean(data$z,data$ID) mdm = lm(ydm~xdm+zdm-1) خلاصه (mdm) e = mdm$resid lpm = cbind(xdm,zdm ) نان = ماتریس (0,ncol(lpm),ncol(lpm)) توفو = ماتریس(0,ncol(lpm),ncol(lpm)) K = mdm$rank برای (i در 1:G){ X = lpm[data$ID==بیگانه(data$ID)[i],] نان = t(X)%*%X +نان r = e[data$ID==بیگانه(data$ID)[i]] tofu = t(X) %*% r %*% t(r) %*% X + توفو } نان = حل(نان) vcv = نان%*%توفو%*%نان se = G/(G-1)*(N-1)/(N-K)*sqrt(diag(vcv)) خلاصه( mdm) se با استفاده از فایل «testdata.csv»، می‌توانم با Stata مقایسه کنم: با استفاده از «testdata.csv»، تمام صفحه‌های صفحه را با استفاده از xtset id t xtreg y پاک کنید. x z,fe cluster(id) R-code من: 1> se xdm zdm 0.16946120 0.08793485 خروجی Stata: | مقاوم y | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ x | 1.223739 .1992449 6.14 0.000 .8308371 1.616642 z | .876592 .0960943 9.12 0.000 .6870981 1.066086 مال من به طور مداوم خوشبین تر از Stata است. کسی به من کمک کند تا بفهمم چرا؟ احساس می‌کنم احتمالاً یک اشکال کوچک است، اما نمی‌توانم مشخص کنم کجاست. **ویرایش**: پاسخ سوال اینجا و اینجاست. Stata یک برآوردگر کتاب درسی «در داخل» را اجرا نمی‌کند، بلکه میانگین‌ها را دوباره به هر متغیر اضافه می‌کند، این چیزی است که امکان تخمین یک عبارت ثابت را فراهم می‌کند (که دارای تفسیر میانگین اثرات ثابت است، و اجازه می دهد تا برای پیش بینی زمانی که من کد خود را برای کپی کردن آن رویه ها، SE من تا نقطه اعشار 3 یا 4 معادل است.
چرا خطاهای استاندارد خوشه ای (پنل مقاوم) با خطاهای Stata مطابقت ندارند؟ (حل شد)
83685
چگونه نشان دهم که قانون تصمیم گیری خطی فیشر و نرمال با یک ثابت متفاوت است؟ از کمک شما متشکرم.
چگونه نشان دهم که قانون تصمیم گیری خطی فیشر و نرمال با یک ثابت متفاوت است؟
30042
بسیاری از نویسندگان مقالاتی که خوانده‌ام تأیید می‌کنند که SVM تکنیک برتری برای رویارویی با مشکل رگرسیون/طبقه‌بندی آن‌ها است، زیرا آگاهند که نمی‌توانند نتایج مشابهی را از طریق NN بدست آورند. غالباً در مقایسه بیان می شود که SVM ها به جای NN ها، * نظریه پایه گذاری قوی دارند * به دلیل برنامه نویسی درجه دوم به حد مطلوب جهانی می رسند * برای انتخاب تعداد مناسب پارامترها مشکلی ندارند * کمتر مستعد بیش از حد برازش هستند * به حافظه کمتری برای ذخیره سازی نیاز دارند. مدل پیشگویانه * نتایج قابل خواندن و تفسیر هندسی بیشتری به دست می دهد آیا به طور جدی یک فکر پذیرفته شده است؟ قضیه ناهار بدون رایگان یا جملات مشابه را نقل نکنید، سوال من در مورد استفاده عملی از آن تکنیک ها است. از طرف دیگر، قطعاً با چه نوع مشکل انتزاعی با NN مواجه خواهید شد؟
شبکه های عصبی در مقابل ماشین های بردار پشتیبان: آیا دومی قطعا برتر است؟
71212
همانطور که عنوان می گوید در داده های پیوسته خود جای خالی دارم. من سعی می کنم یک رگرسیون بسیار پیچیده انجام دهم. من نمی‌خواهم دقیقاً به کدام نوع اشاره کنم، زیرا ترجیح می‌دهم به خاطر تلاش برای دستیابی به یک استراتژی یا رویکرد کلی‌تر، آن جزئیات را کنار بگذارم (مگر اینکه کاملاً ضروری باشد). متغیرهایی که جای خالی دارند و من را بیشتر آزار می‌دهند، «درصد اطمینان» هستند که توسط پایگاه داده دیگری به من داده شده است که وقتی شما آدرس IP خاصی را به آن می‌دهید، اطلاعات مربوط به یک آدرس IP خاص را برمی‌گرداند. این فواصل اطمینان بدیهی است که در نوع تحلیل رگرسیونی که من انجام می دهم بسیار مهم هستند. من می دانم که خالی فقط به معنای هیچ نیست، نقطه داده خالی نیز نشانه ای است که به نوعی از واریانس اشاره می کند. اگر در یک ستون متغیر طبقه بندی مشاهدات من بود، رمزگذاری مجدد آسان خواهد بود، اما اینطور نیست... در لیست مشاهدات پیوسته است. من سعی کردم با تماس با شرکتی که پایگاه داده توسط آن اداره می شود، تحقیقات پیشینه ای بیشتری در مورد این جاهای خالی انجام دهم و در واقع مهندسین آنها را به دست آوردم (در واقع این کار را با دو شرکت مختلف انجام دادم که این نوع پایگاه داده ها را ارائه می دهند). ... پاسخ آنها به من سوال > خب، ما فقط داده ها را نداریم. > > من: اوه، آیا هر نوع زمینه ای وجود دارد که بتوانید برای من فراهم کنید > پیرامون این سلول های خالی داده ها؟ > > نه، چیزی وجود ندارد... ما فقط داده ها را نداریم. > > من: بله، همانطور که قبلاً گفتید، اما باید دلیلی وجود داشته باشد که داده ها را ندارید - به عنوان مثال، چه چیزی باعث شد که تصمیم بگیرید داده های خالی را برای > آن آدرس IP برگردانید؟ منظورم، داده های خالی است. سلول‌ها به معنای -هیچ چیز نیستند- آنها همچنین نشانه‌ای هستند که به درجاتی از واریانس اشاره می‌کند - در واقع، آنها یک > درجه زیادی از واریانس را در داده‌های شما به حساب می‌آورند و من نمی‌توانم آنها را به عنوان 0s دوباره رمزگذاری کنم، زیرا > این تغییر می‌کند. میزان درصد اطمینان مستمر شما با یک معامله عالی > _ (آنها از قبل می دانند که من در حال انجام چه کاری از نظر رگرسیون btw هستم - و یکی > که با خدمات آنها رقابت نمی کند، بلکه آنها را تحت تاثیر قرار می دهد و پول زیادی خرج می کند. با آنها.)_ > > خب، فقط به این دلیل است که ما هیچ داده ای برای آن نداریم. > > من: می دانم، اما فقط به سرنخ هایی نیاز دارم که چرا داده ای وجود ندارد... برای کمک به من در تدوین نوعی استراتژی. > > ما هیچ سرنخی نداریم، فقط چیزی نداریم زیرا هیچ داده ای برای آن وجود ندارد. > > من: باشه، از خدمات مشتری متشکرم. من حتی با شرکت دوم در یک کنفرانس تلفنی با حدود 5 نفر دیگر که در آنجا کار می کنند صحبت می کردم و گویی آنچه می خواستم توضیح دهم آنها را گیج کرده بود. به احتمال زیاد فکر می‌کنم اشتراک‌گذاری اطلاعاتی که می‌خواستم به دست بیاورم، می‌توانست اختصاصی باشد... اما چه کسی می‌داند. به هر حال من با این جاهای خالی مانده‌ام - وقتی ظاهر می‌شوند واریانس‌های زیادی در نتیجه ایجاد می‌کنند - اما به‌عنوان متغیرهای پیوسته فهرست شده‌اند، بنابراین نمی‌توانم آنها را به یک دسته تبدیل کنم... و نمی‌توانم آنها را 0 کنم. چون این فقط نادرست است. من به این فکر می کنم که نوعی ماتریس درختی رگرسیون را به عنوان اولین گام (یا جایی مرحله) در رگرسیون خود اضافه کنم تا بتوانم این موارد را توضیح دهم، اما دقیقاً مطمئن نیستم که این استراتژی درست باشد. همه شما به من پیشنهاد می کنید چه کار کنم؟
کدگذاری جاهای خالی خشمگین در داده های پیوسته هنگام انجام رگرسیون
37615
با پیروی از این دستورالعمل R > مناسب <- lm (خرج ~ جنسیت + وضعیت + درآمد + کلامی، داده = هزینه) من می خواهم میانگین و میانه باقیمانده ها را محاسبه کنم. هم من و هم دوستم پاسخ های متفاوتی برای میانگین داده های یکسان دریافت می کنیم. > mean(resid(مناسب)) [1] -3.065293e-17 در حالی که با مدل دیگر، نتایج عبارتند از: > fit1<- lm (خرج ~ وضعیت + درآمد + جنسیت + کلامی، داده = هزینه) > mean(resid( fit1)) [1] 4.064605e-16 چرا اگر از مجموعه داده های یکسانی استفاده می کنیم، میانگین یکسان اما میانگین متفاوتی به دست آوردیم؟
چگونه می توانیم مقادیر میانگین و میانه متفاوتی را برای باقیمانده ها هنگام کار با مجموعه داده یکسان بدست آوریم؟
37611
من تازه شروع به یادگیری استفاده از Stan و `rstan` کرده ام. مگر اینکه من همیشه در مورد نحوه عملکرد JAGS/BUGS گیج شده باشم، فکر می‌کردم که شما همیشه باید برای هر پارامتری در مدل که از آن گرفته می‌شود، نوعی توزیع قبلی تعریف کنید. به نظر می رسد که لازم نیست این کار را در Stan بر اساس مستندات آن انجام دهید. در اینجا یک مدل نمونه است که آنها در اینجا ارائه می دهند. داده { int<lower=0> J; // تعداد مدارس واقعی y[J]; // برآورد اثرات درمان real<lower=0> sigma[J]; // s.e. برآوردهای اثر } پارامترها { تتا[J] واقعی; مو واقعی real<lower=0> tau; } model { theta ~ normal(mu, tau); y ~ نرمال (تتا، سیگما)؛ } نه «mu» و نه «tau» پیشینی تعریف نشده اند. در تبدیل برخی از مدل‌های JAGS خود به Stan، متوجه شده‌ام که اگر بسیاری یا بیشتر پارامترها را با اولویت‌های تعریف‌نشده رها کنم، کار می‌کنند. مشکل این است که وقتی پارامترهایی بدون پیشین تعریف شده دارم، نمی فهمم استن چه کار می کند. آیا چیزی مانند توزیع یکنواخت پیش فرض است؟ آیا این یکی از ویژگی های خاص HMC است که برای هر پارامتر به یک پیش از تعریف نیاز ندارد؟
پارامترهای بدون پیشینهای تعریف شده در Stan
47931
من اغلب با حجم معقولی از داده های سری زمانی سر و کار دارم، 50 تا 200 میلیون دو برابر با مهرهای زمانی مرتبط و می خواهم آنها را به صورت پویا تجسم کنم. آیا نرم افزار موجود برای انجام موثر این کار وجود دارد؟ کتابخانه ها و قالب های داده چطور؟ Zoom-cache یکی از نمونه‌های کتابخانه‌ای است که بر سری‌های زمانی بزرگ تمرکز می‌کند. در Zoom-cache داده ها در چندین وضوح خلاصه می شوند تا مشاهده در وضوح های مختلف آسان تر شود. ویرایش: همچنین اگر جای دیگری وجود دارد که باید این سوال را بپرسم یا به دنبال پاسخ باشم لطفاً به من اطلاع دهید.
چگونه داده های سری زمانی بزرگ را به صورت تعاملی مشاهده کنیم؟
37613
فرض کنید برای دو نمونه، تیمار و شاهد، هر کدام سه مولکول تشکیل دهنده وجود دارد که مقادیر متناظر آنها به شرح زیر است: Tr. Ct. 2 1 5 2 6 3 من می خواهم نسبت های فردی این سه مولکول تشکیل دهنده را پیدا کنم. اما اگر به دلایلی مقدار نمونه تیمار بیشتر به دلیل خطای تجربی بود، ممکن است نسبت Tr:Ct را به صورت مصنوعی افزایش دهد و بالعکس. آیا راهی برای جبران این اثر برای محاسبه نسبت با نرمال سازی یا هر تکنیک دیگری وجود دارد؟
چگونه می توان خطاهای کوچکی را که می تواند نسبت های مشاهده شده را به شدت مخدوش کند جبران کرد؟
40622
من از نمونه گیری چند مرحله ای (یعنی نمونه گیری خوشه ای و طبقه ای) برای انتخاب چهار واحد در یک منطقه جغرافیایی استفاده کرده ام. هر واحد به صورت تصادفی از فهرست آن واحد انتخاب شد. تنها چهار نوع واحد مختلف در منطقه جغرافیایی وجود دارد، بنابراین واحد انتخاب شده نماینده هر نوع واحد است. (من برای اطمینان از اینکه واحد انتخابی نماینده همه واحدهای یک نوع است، مثلاً از نظر اندازه، حداقل معیارهایی را تعیین کردم. به عنوان مثال، واحد انتخاب شده باید حدود 100 نفر داشته باشد زیرا اندازه همه واحدهای یک نوع خاص از 50 متغیر است. به 150 نفر، بنابراین این به نوعی میانگین است.) **توجه:** منطقه جغرافیایی معیارهای اساسی را که من تعیین کرده ام مطابقت دارد. باید شامل تمام انواع واحدهای موجود در منطقه کلی باشد. منطقه جغرافیایی بخشی از منطقه کلی است به عنوان مثال. روستایی در بخشی از کشور). سپس افراد متعلق به هر واحد را به طور تصادفی انتخاب کردم (به عنوان مثال 100 نفر از واحد 1، 100 نفر از واحد 2، 100 نفر از واحد 3، و 100 نفر از واحد 4). سپس حجم نمونه من 400 نفر (متعلق به چهار واحد نماینده در منطقه جغرافیایی) است. من این را یک نمونه نماینده بر اساس طبقه بندی از نوع واحد می دانم. مشکل من این است که مطمئن نیستم کل اعضای هر واحد از نظر جمعیت منطقه جغرافیایی چقدر نماینده هستند. یعنی ممکن است تعداد مردان در واحد 1 بیشتر باشد اما تعداد مردان در منطقه جغرافیایی کمتر باشد. یا افراد مسن تر در واحد 2 در مقایسه با منطقه جغرافیایی. در این صورت، آیا لازم است 400 نفر در نمونه من شبیه به تفکیک جمعیتی منطقه جغرافیایی باشند؟ من مطمئن نیستم که چگونه این امکان پذیر است، اما احساس می کنم که امکان پذیر نیست، زیرا نمونه 400 نفری من نماینده نوع واحد است، نه منطقه جغرافیایی. **توجه:** منظور من از نماینده این است که نمونه به طور گسترده ویژگی های جمعیت را منعکس می کند، به عنوان مثال. اگر 100 مرد و 90 زن در جامعه وجود داشته باشد، این نسبت به طور گسترده در نمونه منعکس خواهد شد.
نمونه گیری چند مرحله ای و نمایش نمونه
40624
من یک فرآیند AR(1) را به صورت زیر ایجاد می کنم: x=arima.sim(list(order = c(1,0,0),ar=0.67),n=1000,sd=sqrt(0.55)) وقتی آن را مربع می کنم و AR(1) را به فرآیند مربعی برازش دهید، به نظر می رسد هنوز با استفاده از مدل AR(1) به خوبی برازش داده می شود: y=x^2 fit=ar(y,order.max=1, method=ols) acf(fit$resid[2:1000]) Box.test(fit$resid,lag=round(log(length(y))),type=Ljung-Box,fitdf=1) $p.value ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/JGBf6.png) نمودار ACF مدل (برای فرآیند مربع) باقیمانده و مقدار p آزمون باقیمانده بزرگ (بزرگتر از 0.05) هر دو نشان می دهند که باقیمانده ها به طور مستقل توزیع شده اند. این نشان دهنده چیست؟ یکی از شبیه سازی سری های زمانی $x$ و $y$ به شرح زیر است: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/LzIzh.png)
چگونه مربع یک فرآیند AR(1) را درک کنیم؟
14749
من از تابع **sctest** در بسته strucchange استفاده می‌کنم تا بررسی کنم که آیا وقفه‌هایی در سری‌هایم وجود دارد یا خیر. من می‌خواهم بفهمم چگونه نتیجه آن را تفسیر کنم، در مثالی که می‌گیرم: > g <- sctest(cars$dist~cars$speed+0) > g داده‌های تست CUSUM بازگشتی: cars$dist ~ cars$speed + 0 S = 0.9147، p-value = 0.06379 یعنی چه، آیا وقفه وجود دارد؟ با تشکر
تفسیر خروجی تابع تشخیص شکست سازه
37612
من فرآیندی دارم که دنباله ای از رویدادها را ایجاد می کند، که در آن هر رویداد از نوع خاصی است (مثلاً $A$، $B$، و $C$). طول هر دنباله تولید شده تصادفی است. من می خواهم تعداد رویدادهای هر نوع را بشمارم و احتمال اینکه یک رویداد از نوع خاصی باشد را محاسبه کنم. برای مثال، برای دنباله $\left ( A, A, B \right )$، نسبت رویدادهای $A$ $\frac{2}{3}$ خواهد بود، نسبت رویدادهای $B$ $ خواهد بود. \frac{1}{3}$، و نسبت رویدادهای $C$ $\frac{0}{3} = 0$ خواهد بود. حال، اگر فرآیند $n$ را تکرار کنم، می‌توانم میانگین نمونه را برای هر یک از احتمالات محاسبه کنم. سوال من این است: چگونه می توانم یک فاصله اطمینان برای این ابزارها محاسبه کنم؟ آیا می توانم تا زمانی که نمونه من به اندازه کافی بزرگ باشد از روش معمول معمول استفاده کنم؟ به نظر می رسد که من در معرض خطر گرفتن فاصله ای زیر 0 یا بالاتر از 1 هستم که بی معنی خواهد بود. همچنین، به طور شهودی به نظر می‌رسد که توالی‌های طولانی‌تر حاوی اطلاعات بیشتری هستند (تخمین بهتری از احتمالات) و باید بر این اساس وزن شوند.
چگونه می توانم فاصله اطمینان را برای میانگین نسبت نمونه محاسبه کنم؟
72977
من یک سوال نظرسنجی ساده پرسیدم و 12 گزینه دادم که یک فرد می تواند از بین 1-12 مورد انتخاب کند. من فراوانی هر مورد را با در نظر گرفتن تعداد پاسخ‌ها به یک مورد خاص بر تعداد کل افرادی که حداقل به یک گزینه پاسخ می‌دهند، محاسبه کردم. حال اگر از همه پاسخ دهندگان بپرسم که جنسیت آنها چیست، چگونه می توانم اهمیت مرد و زن را برای هر یک از 12 مورد آزمایش کنم؟ من تست T مستقل را برای مردان (1 یا 0) امتحان کرده ام که در مقابل زنان (1 یا 0) پاسخ داده و جواب نداده اند، اما به دلایلی این نادرست به نظر می رسد، زیرا می خواهم بدانم آیا تفاوتی بین آنها وجود دارد یا خیر. جنسیت، و اینکه آیا این تفاوت تصادفی است یا نه برای هر مورد.
کدام آزمون اهمیت باید در یک سوال نظرسنجی با چند پاسخ استفاده شود
11219
من در مورد معیارهای مناسب گرایش مرکزی برای داده های سطح ترتیبی مطالعه کرده ام. تا کنون آموخته ام که میانه و حالت را می توان استفاده کرد، اما دومی را فقط در برخی موارد می توان استفاده کرد. برخی منابع بیان می‌کنند که میانه تنها زمانی می‌تواند برای سؤالات لیکرت استفاده شود که تعداد نمره‌های فرد وجود داشته باشد. برای من مشخص نیست که این به چه معناست و همچنین در کدام موارد نمی توان از میانه استفاده کرد. ## مثال: یک مثال ممکن است نشان دهد. * اگر سوالی وجود داشت: تغییر آب و هوا جدی ترین مشکل زیست محیطی انگلستان است در مقیاس پاسخ: 1 = کاملاً موافق 2 = موافق 3 = نامطمئن 4 = مخالف 5 = کاملاً مخالفم. آیا میانه 3 = نامطمئن خواهد بود؟ * اگر هیچ پاسخ دهنده ای مخالف یا کاملاً مخالف آن را اعلام نکرد و همه 100 پاسخ دهنده 1، 2 یا 3 را بیان کردند، آیا میانه آن 2 است؟ * اگر پاسخ دهندگان فقط 2 یا 3 را بیان کنند، چه می شود. در این مورد آیا امکان شناسایی میانه وجود ندارد؟
مقدار میانه در مقیاس های ترتیبی
47933
مسئله نمونه برداری از $p(\mathbf{x}، \mathbf{y})$ را با استفاده از الگوریتم متروپلیس یا متروپلیس-هیستینگز (MH) در نظر بگیرید. من می‌توانم مستقیماً نمونه‌هایی را برای $p(\mathbf{x}، \mathbf{y})$ پیشنهاد کنم، یا می‌توانم یک نسخه مسدود شده از آن را انجام دهم و به طور متناوب نمونه‌هایی را برای $p(\mathbf{x} \mid \mathbf) پیشنهاد کنم. {y})$ و $p(\mathbf{y} \mid \mathbf{x})$ که فکر می‌کنم به آن _Metropolis- نیز می‌گویند درون-گیبز_. من سعی می کنم بهتر بفهمم که تحت چه شرایطی کارآمدتر خواهد بود (از لحاظ آماری؛ بیایید ملاحظات محاسباتی را فعلا نادیده بگیریم). به عنوان مثال، در نمونه گیری گیبس (مسدود شده)، که در آن احتمال پذیرش همیشه 1 است، همیشه بهتر است مستقیماً از $p(\mathbf{x}, \mathbf{y})$ نمونه برداری کنیم، زیرا در این صورت یک عدد کامل به دست می آوریم. نمونه در مرحله اول است، در حالی که نمونه گیری از شرطی ها ممکن است چندین بار از طریق متغیرها تکرار شود قبل از اینکه نمونه خوبی بدست آوریم. با این حال، اگر من توزیع پیشنهادی کمتر کاملی داشته باشم و فقط وابستگی‌های ضعیفی بین $\mathbf{x}$ و $\mathbf{y}$ داشته باشم، ممکن است وضعیت متفاوت باشد. از نظر شهودی، اگر سعی کنم هر دوی آنها را با هم رد یا بپذیرم، هر دوی آنها باید پیشنهادهای خوبی باشند تا بتوانم آنها را بپذیرم. بنابراین ممکن است منطقی باشد که $\mathbf{x}$ پیشنهادی را بپذیریم و $\mathbf{y}$ پیشنهادی را رد کنیم. من یک آزمایش کوچک انجام دادم که در آن فرض کردم $p(\mathbf{x}, \mathbf{y}) = p(\mathbf{x})p(\mathbf{y})$ گاوسی است و توزیع پیشنهادی $q (\mathbf{x}، \mathbf{y}) = q(\mathbf{x})q(\mathbf{y})$ نیز گاوسی است. سپس یا سعی کردم هر دو نمونه را به طور همزمان بپذیرم (_مشترک_) یا _مستقل_. خطوط مختلف در شکل زیر برای واریانس های مختلف توزیع پیشنهاد است. به نظر می رسد که پذیرش آنها به طور مستقل کارآمدتر باشد. من می‌خواهم از شهود و آزمایش‌های عددی خود با برخی نظریه‌ها پشتیبانی کنم. چگونه می خواهید ثابت کنید که یک استراتژی نمونه گیری کارآمدتر از استراتژی دیگر است؟ اشاره به برخی از مراجع که در آن مورد بحث قرار گرفته است، قدردانی خواهد شد. با تشکر ![Autocorrelation](http://i.stack.imgur.com/VXzO4.png) و در اینجا بخش اساسی کد برای ایجاد شکل است (در اینجا «X» و «Y» به معنای چیزی غیر از $\mathbf{ هستند. x}$ و $\mathbf{y}$). ### JOINT ACCEPT/REJECT X = randn(کدر، تعداد_نمونه ها) برای i در محدوده (1، num_samples): # پیشنهاد مرحله X[:، i] = X[:، i - 1] + سیگما * X[:, i] # مرحله قبول/رد اگر rand() > exp(0.5 * (جمع (مربع(X[:, i - 1])، 0) - مجموع (مربع(X[:، i])، 0))): X[:، i] = X[:، i - 1] ### مستقل قبول/رد Y = randn(کم، تعداد_نمونه) برای i در range(1, num_samples): # مراحل پیشنهادی Y[:, i] = Y[:, i - 1] + سیگما * Y[:, i] # مراحل پذیرش/رد برای j در محدوده(dim): اگر rand() > exp(0.5 * (مربع(Y[j, i - 1]) - مربع(Y[j, i]))): Y[j, i] = Y [j، من - 1]
چه زمانی نمونه برداری کلانشهر مسدود شده کارآمدتر است؟
70153
آیا ایده ای در مورد چند جمله ای های دیگر وجود دارد که بتوانم با موفقیت برای اعمال رگرسیون استفاده کنم؟ هدف من راه حلی است که بر اساس نویز خطای مناسب داشته باشد. آیا این امکان وجود دارد زیرا منحنی زنگ مانند است؟ دم ها می توانند بلند، کوتاه یا وجود نداشته باشند. آیا من به دنبال غیرممکن هستم؟ لطفاً توجه داشته باشید که مدتی است که من تا این حد در رگرسیون خطی فرو رفته ام. به هر حال، نقاط داده من به اندازه کافی با چند جمله ای $ax+bx^2+c$ مطابقت ندارد. من می خواهم جایگزینی برای این چند جمله ای برای اعمال رگرسیون (یا رویکرد متفاوت) شود. در مثال زیر، هر نقطه به طور متوسط ​​20$\%$ از محدوده $Y$ (از نقاط داده) منحنی تناسب را از دست می دهد. من به splines نگاه کردم، اما نمی دانم چگونه رگرسیون را اعمال کنم، زیرا آنها تکه ای به نظر می رسند. مثال مقادیر $Y$ (با فاصله مساوی در $X$). شبیه یک منحنی زنگ به نظر می رسد. من از 5 تا 50 نقطه داده برای تعیین ضرایب چند جمله ای استفاده می کنم. در نهایت، من بر اساس نقاط داده، به بهترین مکان X$ برای اوج علاقه مند هستم. X Y -40 -21142.1111111111 -30 -21330.1111111111 -20 -12036.1111111111 -10 7255.3888888889 0 32474.8889888 32474.8888888889 20 9060.8888888889 30 -11628.1111111111 40 -15129.6111111111
رگرسیون خطی بهترین چند جمله ای (یا رویکرد بهتر برای استفاده)؟
30048
در خواندن یادداشت‌های بلیک مستر درباره سخنرانی پیتر تیل در مورد استارت‌آپ‌ها، به این استعاره از مرز فناوری برخوردم: > دنیا را به‌گونه‌ای تصور کنید که توسط برکه‌ها، دریاچه‌ها و اقیانوس‌ها پوشیده شده است. شما در یک > قایق، در یک بدنه آبی هستید. اما به شدت مه آلود است، بنابراین نمی‌دانید تا آن طرف چقدر > فاصله دارد. شما نمی دانید که آیا در یک برکه، یک > دریاچه یا یک اقیانوس هستید. > > اگر در برکه هستید، ممکن است انتظار داشته باشید که عبور حدود یک ساعت طول بکشد. بنابراین اگر یک روز کامل بیرون رفته اید، یا در دریاچه یا اقیانوس هستید. اگر > یک سال است که بیرون رفته اید، در حال عبور از یک اقیانوس هستید. **هر چه [این] > سفر طولانی‌تر باشد، سفر باقی‌مانده مورد انتظار شما طولانی‌تر است.** درست است که هر چه زمان می‌گذرد به رسیدن به طرف دیگر نزدیک‌تر می‌شوید. اما در اینجا، گذر زمان نیز نشان می دهد که هنوز راه زیادی در پیش دارید. سوال من: آیا توزیع احتمال یا چارچوب آماری وجود دارد که این وضعیت را به‌ویژه قسمت درشت شده مدل‌سازی کند؟
توزیع برای انعکاس موقعیتی که در آن مقداری انتظار باعث می شود انتظار بیشتری داشته باشیم
14741
این یک مشکل از مطالعه ضبط-علامت-بازپس گیری است. من مدلی را مشخص می کنم که در آن پارامترهای $c$ و $p$ دارای وقفه مساوی هستند. در MARK، یک ماتریس طراحی شبیه ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/GJ0zM.jpg) خواهد بود و من آن را $c=p(.)$ می نامم. با گسترش این مدل با یک متغیر کمکی، یک ماتریس طراحی برای $c=p(.)\cdot sp$ خواهد بود![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ItNDt.jpg) I سعی می کنم با استفاده از بسته RMark این تحلیل را در R دوباره اجرا کنم. من روش زیر را امتحان کردم، اما نمی توانم روی اشتباهی که انجام می دهم انگشت بگذارم. tr.models <- function() { # specify models c.pequal.dot <- list(formula = ~ 1, share = TRUE) c.pequal.dot.sp <- list(formula = ~ sp, share = TRUE) # مدل ها را جمع آوری کنید و cml را اجرا کنید <- create.model.list(Huggins) tr.result <- mark.wrapper(cml, data = tr.process, ddl = tr.ddl، تنظیم = FALSE) بازگشت (tr.result) } نتیجه RMmark: مدل npar AICc DeltaAICc وزن انحراف 2 p(~1)c(~sp) 3 1543.523 0.000000 0.99162194 ~ 143 p. (~1) 2 1553.070 9.547451 0.00837806 2358.903 تعداد پارامترها در روش MARK به ترتیب 1 و 2 و در RMark 2 و 3 می باشد. آیا ورودی در مورد نحوه استفاده از مشخصات فرمول در RMark برای تقلید ماتریس طراحی از MARK وجود دارد؟
تعیین مدل $c=p(.)\cdot sp$ (Huggins) در RMark
31317
من یک مجموعه داده پزشکی با حدود 200 متغیر دارم. یکی از متغیرها نشانگر زیستی (غلظت یک آنزیم خاص) است. توزیع آن دارای انحراف درست است و مشکل این است که مقادیر بالاتر از یک سطح معین در آن سطح سانسور/قطع می شوند. بنابراین در حالی که میانگین متغیر حدود 10 است، هر مقدار بیشتر از 50 به عنوان 50 ثبت می شود. من می خواهم مقادیر پیوسته را برای آن مقادیر سانسور شده در نظر بگیرم. من در حال حاضر از انتساب چندگانه با بسته موش در R استفاده می کنم، اگرچه سیستم های دیگری در دسترس من هستند و من برای رویکردهای دیگر آماده هستم. فکری که داشتم این بود که همه آن مقادیر سانسور شده را مجدداً رمزگذاری کنم تا گم شده باشند و سپس انتساب ها را اجرا کنم. اگر هر یک از مقادیر منتسب شده که در ابتدا سانسور شده اند، کمتر از برش باشد، سپس به آنها به عنوان مقدار قطع اختصاص داده می شود. من می خواهم نظراتی در مورد این موضوع و/یا هر روش بهتری برای مقابله با آن بدانم.
انتساب یک متغیر سانسور شده
89797
من می خواهم مقایسه کنم که کدام مهم ترین اثرات متقابل هستند (به روشی مبتنی بر داده، متوجه می شوم که دارای جنبه های منفی است). من متوجه هستم که برای محققین قابل توجه این منطقی نیست، اما کنجکاو به این روش هستم. تصور کنید که ما متغیرهای زیر را داریم: $X_1، X_2، X_3، X_4$، $y$ و $z$ (طول همه یکسان). می‌خواهم فرض کنم که ما دائماً علاقه‌مند به تغییر بین مدل تأثیرات اصلی و مدل تعامل هستیم (درسته؟). دو حالت: **1)** وقتی مقایسه می کنیم چه اتفاقی می افتد: $$y | X_1B_1 + X_2B_2$$ $$y | X_1B_1 + X_2B_2 + X_1X_2B_{12}$$ در برابر $$y | X_3B_3 + X_4B_4$$ $$y | X_3B_3 + X_4B_4 + X_3X_4B_{34}$$ آیا می‌توانم با خیال راحت فرض کنم که یکی با تغییر مربع R بیشتر جالب‌تر باشد؟ **2)** تصور کنید که برای نجات جانم، باید بهترین حدس را بزنم تا به کسی توصیه کنم جالب ترین / قوی ترین اثر متقابل چیست. آیا می‌توانیم مقایسه کنیم: $$y | X_1B_1 + X_2B_2$$ $$y | X_1B_1 + X_2B_2 + X_1X_2B_{12}$$ با $$z | X_3B_3 + X_4B_4$$ $$z | X_3B_3 + X_4B_4 + X_3X_4B_{34}$$ آیا هنوز هم می‌توان به سادگی تغییر مربع R را مقایسه کرد؟ آیا شاید باید به تفاوت تغییر نسبی R-squared نگاه کنیم؟ در مورد آزمون F چطور؟ همچنین نمی‌دانم که آیا «جالب بودن» یک اثر تعاملی به قدرت اثر اصلی بستگی دارد (من حدس می‌زنم که آخرین اثر ذهنی‌تر باشد). با تشکر
مقایسه اثرات متقابل با استفاده از متغیرهای مختلف. ممکن است؟
5566
من یک سکه را 20 بار تلنگر می کنم و 14 سر می گیرم. من می خواهم مقدار p فرضیه منصفانه بودن سکه من را محاسبه کنم. چه احتمالی را باید محاسبه کنم؟ در ویکی پدیا نوشته شده است که من باید احتمال بدست آوردن 14 **یا بیشتر** هد را در 20 تلنگر محاسبه کنم. چرا 14 یا بیشتر است؟ چرا 14 ** یا کمتر ** نه؟
تست عادلانه بودن یک سکه
97715
آیا کسی می تواند به من نشان دهد که چگونه می توانم ماتریس اطلاعات فیشر را برای توزیع دو جمله ای منفی پیدا کنم، اگر من توزیع دو جمله ای منفی را با استفاده از پارامترهای میانگین و اندازه پارامتر کنم. متشکرم!
ماتریس اطلاعات فیشر توزیع دوجمله ای منفی
103211
من در دوره احتمالات جدید هستم و مفاهیم را بسیار گیج کننده می دانم. من تخمین حداکثر درستنمایی را یاد می گیرم و به عنوان نقطه شروع برای آن چگالی یا توزیع را پیدا می کنیم؟ به طور کلی توزیع را از چگالی پیدا می کنیم یا برعکس و چگونه آن را پیدا می کنیم؟ به عنوان مثال، برای توزیع گاوسی، آیا چگالی یک متغیر یا توزیع را می‌یابیم تا پارامتر ناشناخته A را در حالت **x[n] = A + w[n]** که w[n] گاوسی نامرتبط هستند تخمین بزنیم. سر و صدا این ممکن است خیلی پیش پا افتاده به نظر برسد اما من واقعاً گیج شده ام. در بسیاری از زمینه ها به جایی رسیده ام که pdf = prob. تابع چگالی و در برخی مناطق pdf = تابع توزیع prob را پیدا می کنم !! لطفا کمک کنید.
چگالی احتمال و تابع توزیع
89792
من با مشکلی روبرو هستم که در آن طبقه‌بندی‌کننده‌ای که در حال توسعه آن هستم، خطاهای اعتبارسنجی را در طول آموزش گزارش می‌دهد که طیف وسیعی از مقادیر را بدون کاهش مداوم در طول زمان در بر می‌گیرد. متأسفانه، من با ML و موضوعات مرتبط تازه کار هستم و به نظر نمی رسد در نتیجه مشکل را تشخیص دهم. کد پایه طبقه‌بندی‌کننده از آموزش‌های theano deep_learning، به‌ویژه از آموزش پرسپترون چندلایه آمده است: پیوند من کد آموزش را به دو صورت تغییر داده‌ام: (1) تغییر داده‌های مورد استفاده (2) تغییر توپوگرافی MLP برای محاسبه تعداد متفاوتی از گره های ورودی و خروجی در اینجا تصویری از نتایج معمولی وجود دارد: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/S6x2W.png) داده‌هایی که من استفاده می‌کنم از یک آزمایش کیفیت شراب می‌آیند: پیوند **ممنون می‌شوم برای درک این موضوع کمک کنید:** (1) چرا این اتفاق می‌افتد (2) چگونه باید آن را تعمیر کنم با تشکر
خطای اعتبارسنجی بسیار پراکنده در طول تمرین با پرسپترون چند لایه
5560
من یک مولد رویدادهای تصادفی دارم. من از قبل مجموعه رویدادهایی را می دانم که می توان تولید کرد (در مورد من فقط سه رویداد ممکن دارم). احتمالات وقایع مشخص نیست. من باید این احتمالات را تخمین بزنم. برای آن من یک آزمایش انجام می دهم. به عنوان مثال من 20 رویداد را ایجاد می کنم. بنابراین، من دنباله ای از رویدادها دارم. به عنوان مثال: a,a,b,a,c,c,c,a,b,....c. با داشتن دنباله می‌توانم برای تعداد هر رویداد حساب کنم (بنابراین، در مورد من سه عدد صحیح $n_1$، $n_2$ و $n_3$ دریافت می‌کنم). من می توانم احتمالات هر رویداد را به روش زیر محاسبه کنم: $\nu_1 = \frac{n_1}{n_1+n_2+n_3}$ $\nu_2 = \frac{n_2}{n_1+n_2+n_3}$ $\nu_3 = \frac{n_3}{n_1+n_2+n_3}$ اما این مقادیر تقریبی هستند. برای مثال، من می‌توانم احتمال 0.25 را برای رویداد a داشته باشم، بنابراین اگر 20 رویداد ایجاد کنم، باید تقریباً 5 رویداد a داشته باشم. اما به طور تصادفی می توانم 10 یا 0 رویداد a داشته باشم. بنابراین، من می خواهم یک توزیع چگالی احتمالات داشته باشم. از آنجایی که $\nu_1$، $\nu_2$ و $\nu_3$ وابسته هستند (مجموع آنها برابر با یک است) من از $\nu_1$ و $\nu_2$ استفاده خواهم کرد. بنابراین، من می خواهم یک فرم صریح برای توزیع چگالی $\nu_1$ و $\nu_2$ داشته باشم. $\rho (\nu_1،\nu_2) = F (n_1،n_2،n_3)$. کسی میدونه از کجا میتونم تهیه کنم؟
چگونه تابع احتمال را برای مولد تصادفی سه رویداد تخمین بزنیم؟
19044
آیا روش های جایگزین بهتری برای انتخاب C و Gamma وجود دارد که عملکرد تمرینی بهتری را به همراه دارد؟
انتخاب پارامتر SVM
81719
من مجموعه داده ای از 300 ترکیب شیمیایی دارم که با 100 متغیر ساختگی مستقل توصیف می شوند که حضور یک گروه شیمیایی خاص را رمزگذاری می کنند (_یعنی اگر یک گروه شیمیایی خاص وجود داشته باشد، این متغیرهای X یا 1 هستند، یا 0، در صورتی که نباشد). برای این 300 ترکیب، من دو متغیر وابسته Y دارم. 1) در مورد اول Y من یک مقدار % است، بنابراین از 0% به 100% می‌رسد و من می‌خواهم مدلی ایجاد کنم تا این Y را با پیش‌بینی‌کننده‌هایی که در بالا ذکر شد، مرتبط کند. . سپس می خواهم از این مدل برای پیش بینی نتایج برای ترکیبات جدید استفاده کنم. 2) در مورد دوم Y من یک دسته است (در مجموع 3 دسته دارم) و مانند قبل، می خواهم مدلی ایجاد کنم که پیش بینی کننده ها را به دسته مرتبط کند و از آن برای پیش بینی استفاده کنم. لطفا توجه داشته باشید که دو مدل به طور جداگانه تخمین زده می شوند. کدام مدل های آماری را برای استفاده در این دو مورد پیشنهاد می کنید؟
مدل‌های آماری برای استفاده از (1) برای مدل‌سازی مقادیر % و (2) برای طبقه‌بندی اشیا
69592
**کل جمعیت:** 30000 **مشخصات شناخته شده جمعیت:** سن، جنس، قد، وزن، **اندازه نمونه نماینده ایده آل:** ??? این برای انتخاب گروه آزمایشی لیست پستی است. **محدودیت‌های مشکل:** 1. افراد خاصی را نمی‌توان در نمونه گنجاند زیرا در فهرستی از ایمیل‌های غیرمجاز هستند. 2. گروه نمونه باید دارای سن، جنسیت، قد و وزن مشابه با کل جمعیت باشد (مشخص است) تصور می کنم باید اعضایی را از کل جمعیت که در لیست ارسال ایمیلی نیستند به طور تصادفی انتخاب کنم و میانگین و واریانس را با هم مقایسه کنم. نمونه در مقایسه با کل جامعه. اگر میانگین و واریانس نمونه و کل جامعه مشابه باشد، پس من نمونه خوبی دارم؟ مطمئن نیستم که در مسیر درستی هستم یا راه آسان تری وجود دارد. با تشکر
یافتن نمونه ای برای نشان دادن یک جمعیت شناخته شده
104374
من سعی می کنم یک مدل جنگل تصادفی را در R در یک مجموعه داده ردیف + 500k آموزش دهم. تا اینجا خوب بود، اما اکنون سعی می‌کنم فاکتورهای person_id و company_id (غیر منحصر به فرد) را وارد کنم که هر دو سطح بسیار زیادی دارند (در هزاران، بسیار بیشتر از R می‌تواند از عهده آن برآید). بین آموزش و مجموعه تست برای این ویژگی‌ها 40% و 70% همپوشانی وجود دارد، بنابراین من فکر می‌کنم این متغیرها می‌توانند مفید باشند. من سعی می کنم موفقیت یا عدم موفقیت را (0،1) طبقه بندی کنم و بنابراین ویژگی های جدیدی مانند فراوانی شناسه ها در مجموعه آموزشی و درصد موفقیت در هر شناسه در مجموعه آموزشی ایجاد کرده ام. من این ویژگی ها را در مجموعه تست ادغام کردم. من همه شناسه های جدید را در testSet با 0 یا 1 جایگزین کردم. پس از آموزش با متغیرهای جدید، منجر به افزایش بیش از حد (به دلیل شناسه های جدید ناشناخته) می شود. آیا راهی وجود دارد که بتوانم از ویژگی هایی که فکر می کنم می توانند ارزشمند باشند بهره ببرم. با تشکر
RandomForest: نحوه استفاده از ویژگی person_id و company_id در یادگیری ماشین
109156
من یک فرآیند در حال آزمایش دارم (تقریباً توزیع شده عادی)، و من $C_{pk}$ (شاخص قابلیت فرآیند) را برای این فرآیند محاسبه کرده‌ام. این مقادیر با مقادیر مرجع مقایسه می شوند که تحت شرایطی از یک فرآیند مشابه هستند و $C_{pk}$ آن موجود است. با تفریق: $C_{pk}$(test) $-\ C_{pk}$(مرجع) چه چیزی بدست می‌آورم؟
$C_{pk}$(test) $-\ C_{pk}$(مرجع) چیست؟
103217
من یک متغیر طبقه بندی دارم که می تواند 5 مقدار ممکن را در نظر بگیرد: 1، 2، 3، 4، 5. من مقدار متغیر را در دو نمونه با اندازه های مختلف مشاهده می کنم. اکنون می خواهم توزیع فرکانس متغیر خود را در دو نمونه مقایسه کنم. آیا آماری وجود دارد که غلظت توزیع را اندازه گیری کند (چیزی مانند ضریب جینی، اما نه تجمعی)، بنابراین اگر همه مشاهدات نمونه در یک دسته هستند، مقدار 1 و اگر به طور مساوی بین 5 توزیع شده باشند، 0 را در نظر بگیریم. دسته بندی ها با نگاهی به آمار، می توانم بگویم که یکی از نمونه ها ناهمگن تر از نمونه دیگر است.
نحوه مقایسه توزیع فرکانس
97717
از من خواسته شده است که حجم نمونه لازم را برای یک پروتکل نمونه برداری خوشه ای محاسبه کنم. من تجربه زیادی در مورد نمونه گیری خوشه ای ندارم، بنابراین فکر کردم که به اینجا بیایم. وضعیت به شرح زیر است: 1) خوشه ها: ما دو گروه جداگانه برای اجرای تجزیه و تحلیل داریم. یکی با 75 خوشه و یکی با 150 خوشه. 2) اندازه خوشه: اندازه خوشه یکنواخت است - 20 نفر در هر خوشه. 3) داده های مورد علاقه: آنچه ما به آن علاقه مندیم یک اندازه گیری مکرر است. یک شاخص در شروع مداخله و سپس دوباره در پایان مداخله (18 ماه بعد) محاسبه می شود. مایلیم به این سوال پاسخ دهیم: اگر فرض کنیم که بدون مداخله، مقدار نهایی 15 امتیاز (از مقیاس 100) افزایش می یابد، آیا مداخله موثرتر است؟ (این فرض منطقی دارد، من فقط در اینجا وارد آن نمی شوم). 4) آلفای مورد نظر 0.05 است، توان مورد نظر 0.8 است، ما می‌خواهیم اندازه اثر حداقل 0.5 SD را اندازه‌گیری کنیم، با این حال محدودیت‌های بودجه و زمانی وجود دارد، بنابراین ممکن است آن‌ها را برای کاهش اندازه نمونه تنظیم کنیم. ایده آل نیست، اما ممکن است باید انجام شود. طرح پیشنهادی به این صورت است که از هر خوشه با چند نفر (حداقل 2 نفر) مصاحبه می شود تا اطمینان حاصل شود که هر خوشه بازنمایی می شود، اما من معتقدم که می توان با گرفتن یک نمونه تصادفی از خوشه ها و سپس یک نمونه تصادفی از افراد درون گروه، به همان نتایج دست یافت. خوشه های انتخاب شده من فقط مطمئن نیستم که درست است یا خیر، و اگر درست است، چگونه می توان # خوشه های مورد نیاز و # افراد درون خوشه ها را برای انتخاب محاسبه کرد. با تشکر از کمک! در صورت نیاز به اطلاعات بیشتر به من اطلاع دهید.
محاسبه حجم نمونه برای نمونه گیری خوشه ای
76290
من از xtreg، re (مدل اثر تصادفی) استفاده می‌کنم و پیامی وجود دارد آمار مدل F یا chi2 به‌عنوان گمشده گزارش شده است. Stata این کار را انجام داده است تا گمراه‌کننده نباشد، نه به این دلیل که لزوماً مشکلی در مدل شما وجود دارد. من کل std.err را گزارش کرده ام و هیچ مشکل دیگری وجود ندارد. بعد میتونم از این مدل استفاده کنم؟
آمار مدل F یا chi2 در Stata مفقود شده است
69594
یا شهود من مرا گمراه می کند یا کد من اشتباه است. به طور خلاصه، من یک مدل رگرسیون لجستیک ساده دارم، و وقتی به توزیع خلفی μ نگاه می کنم، احتمال موفقیت یک واحد معین در هر آزمایش، عدم قطعیت قابل توجهی را می بینم (یعنی تغییرپذیری در توزیع پسین)، اما زمانی که من به توزیع پیش‌بینی پسین برای مجموع این آزمایش‌ها نگاه می‌کنم، به نظر می‌رسد که توزیع دوجمله‌ای که توسط تخمین نقطه‌ای μ نشان داده می‌شود، یکسان است. تغییرپذیری کجا رفت؟ در اینجا جزئیات، در R. من داده ها را تولید می کنم: ilogit = تابع(x) 1 / (1 + exp(-x)) set.seed(10) N = 20 n = 5 dat = تبدیل(f = n - y، تبدیل(y = rbinom(N، n، mu)، تبدیل(mu = ilogit(1 + x1 + x2)، data.frame(x1 = rnorm(N)، x2 = rnorm(N))))) و برازش مدل: fit = glm (داده = dat، خانواده = دوجمله ای (پیوند = logit)، cbind(y, f) ~ x1 + x2) ما به استنباط هایی برای موضوع اول (ردیف اول «dat»). برای به دست آوردن یک توزیع پیش‌بینی‌کننده برای «y» تنها با استفاده از تخمین نقطه‌ای «mu» (یعنی «fitted(fit)[1]»)، می‌توانیم این کار را انجام دهیم: plot(table(rbinom(5000, n, fitted(fit )[1]))) ![شکل 1](http://i.imgur.com/Qo5PnBn.png) این روش عدم قطعیت در مورد mu را به حساب نمی آورد. برای انجام این کار به روش بیزی، می‌توانیم از «sim» از بسته «بازو» استفاده کنیم. library(arm) sims = sim(fit, 5000)@coef mu.post = ilogit( sims[,(Intercept)] + sims[,x1] * dat$x1[1] + sims[,x2 ] * dat$x2[1]) در اینجا یک فاصله 95٪ معتبر برای mu این موضوع وجود دارد که عدم قطعیت قابل توجهی را نشان می دهد. > quantile (mu.post, c(0.025, 0.975)) 2.5% 97.5% 0.5528186 0.7749029 اکنون می‌توانیم با رسم یک نقطه از توزیع دوجمله‌ای به ازای هر نمونه از خلفی «mu»، توزیع پیش‌بینی خلفی واقعی را رسم کنیم. plot(table(rbinom(5000, n, mu.post))) ![شکل 2](http://i.imgur.com/f8DRDgy.png) که شبیه نمودار اول است! چه خبر است؟ اکنون، اگر «N» را روی چیزی کوچک، مانند 5 تنظیم کنید، این ارقام دیگر مطابقت ندارند. برای من منطقی است که آنها واقعاً باید با N بزرگ مطابقت داشته باشند، به اندازه ای بزرگ که mu.post به شدت در یک نقطه متمرکز شود. اما «N = 20» آنقدر بزرگ نیست، یعنی «چک (mu.post, c(0.025, 0.975))».
در این مدل رگرسیون لجستیک بیزی ساده، چرا عدم قطعیت در مورد میانگین افزایش عدم اطمینان در مورد پیش بینی ها وجود ندارد؟
82642
من داده‌هایی از یک آزمایش روان‌شناسی دارم که در آن روش آموزشی بین آزمودنی‌ها از طریق دو عامل دستکاری شد: پیش‌آموزش (3 سطح) و آموزش (2 سطح). من عملکرد شرکت‌کنندگان را از طریق دو آزمون، یک پیش‌آزمون و یک پس‌آزمون ارزیابی کردم، بنابراین دقت آزمون را به‌عنوان dv با بخش آزمون (پیش/پست) به‌عنوان یک فاکتور درون موضوعی دارم. من همچنین برخی از عوامل دیگر مورد علاقه ثانویه را دارم. من این داده ها را با استفاده از یک ANOVA مختلط تجزیه و تحلیل کردم و یک تعامل سه طرفه قابل توجه (پیش بینی شده) از پیش تمرین، آموزش و بخش آزمون را یافتم، که نشان می دهد مزایای نسبی دو شرایط تمرین، که با بهبود از پیش آزمون تا پس آزمون اندازه گیری می شود، متفاوت است. بسته به شرایط قبل از تمرین اکنون متوجه شده ام که نمره دقت در پاسخ به سؤالات در طول جلسه آموزشی که من آن را «مطالعه» می نامم، تحت تأثیر عامل پیش تمرینی نیز قرار می گیرد، یعنی یکی از شرایط پیش تمرینی، دقت مطالعه را نسبت به بقیه افزایش می دهد. می‌خواهم آزمایش کنم که آیا این تأثیر بر دقت مطالعه می‌تواند تأثیر بعدی پیش‌آموزش را بر تعامل بخش آموزش * توضیح دهد. در واقع من شک دارم که نمی تواند، اما من می خواهم باور خود را آزمایش کنم. چگونه می توانم این کار را انجام دهم؟ اولین فکر من این بود که از ANCOVA استفاده کنم، یعنی دقت مطالعه را به عنوان یک متغیر کمکی به ANOVA اصلی خود اضافه کنم و سپس ببینم که آیا تعامل پیش‌آموزش*آموزش*بخش هنوز قابل توجه است. با این حال، در یک موضوع دیگر (اینجا) به من توصیه شد زمانی که عوامل دستکاری شده تجربی من با متغیر کمکی مرتبط هستند، از ANCOVA استفاده نکنم، همانطور که قطعاً در اینجا وجود دارد (یعنی تأثیر پیش‌آموزش بر دقت مطالعه وجود دارد). بنابراین، به جای آن چه باید بکنم؟ # داده های نمونه: nsubj = 215; nsec = 2; nprob = 6 D = data.frame( subjid = rep( 1:nsubj, every=nsec*nprob ), pretrain = rep( نمونه (c('a','b','c'), nsubj, replace=TRUE ), every=nsec*nprob ), training = rep( نمونه (c('j','k'), nsubj, replace=TRUE ) every=nsec*nprob)، مطالعه = rep ( نمونه ( 1:6، nsubj، جایگزین = TRUE )، هر = nsec*nprob )، بخش = rep( rep( c( 'pretest', 'posttest'), every= nprob ), nsubj ), probtype = rep( c( 'v', 'w', 'x', 'y', 'z', 'z') nsec*nsubj ), accuracy = sample( c( 0.0, 0.5, 1.0 ), nsubj * nsec * nprob, replace=TRUE ) ) # مدل: library( afex ) ez.glm( subjid, accuracy, D, inside=c(section،probtype), between= c(pretrain, training), type=3 ) # مدل با متغیر کمکی: ez.glm( subjid, accuracy, D, inside=c(section,probtype), between= c(pretrain,training), covariate=study ، نوع=3)
چگونه می توان آزمایش کرد که آیا اثرات پیش بینی کننده ها در یک DV اثرات آنها را بر دیگری در یک ANOVA مختلط در R توضیح می دهد یا خیر
38275
من یک مجموعه داده با چهار متغیر و بیش از 3000 مشاهدات دارم که بر روی آنها یک LDA انجام دادم. می‌خواستم بدانم چگونه می‌توانم از ضرایب مقیاس‌بندی شده متمایزکننده‌های خطی (خروجی R به عنوان مثال در زیر نشان داده شده است) برای ترسیم مرزهای تصمیم در فضای متغیر اصلی استفاده کنم؟ LD1 LD2 LD3 [1،] 49.5077 12.3211 20.8351 [2،] 11.3597 9.5139 8.6570 [3،] 39.9696 2.3232 2.8996 [4،5] 2.8996 -18.8996 [4.6] -18.5139.
مرزهای تصمیم گیری از ضرایب ممیز خطی؟
17362
من یک متغیر پاسخ پیوسته، مستقل اسمی دارم و می‌خواهم براساس سایت مسدود کنم، اگرچه اعداد در سایت‌ها نابرابر هستند. آیا جایگزینی برای تست جایگشت وجود دارد؟ اگر نه، آیا کسی از یک فرآیند خودکار برای طراحی تست جایگشت برای تازه‌کاری مثل من اطلاعی دارد؟ خیلی ممنون
آیا آزمون ناپارامتریک، مانند کروسکال-والیس، اما با بلوک های ناهموار وجود دارد؟
89246
من سعی می کنم پارامترهای تابع بسل اصلاح شده از نوع اول را برای حالت عدد صحیح تخمین بزنم. $I_n(wt) = \sum\limits_{m=0}^\infty \frac{1}{m!(m+n)!}(\frac{wt}{2})^{2m+n}$ در فرم احتمال، $P(t|w,n) = I_n(wt)*other\\_terms$ و می‌خواهم پارامترهای $w$ و $n$ را تخمین بزنم، که نمونه‌های داده‌ای را دریافت کردم. $t$. حداکثر احتمال ورود به سیستم می تواند یک گزینه باشد، اما از آنجایی که تابع بسل مجموع بی نهایت است، من زمان سختی را می گذرانم. کسی روش یا مقاله مرتبطی برای این مشکل میدونه؟ \----- فرم احتمال تصحیح شده را ویرایش کرد (اصل با یک جمع نمی شود. اشتباه من.) و تابع Bessel آمد زیرا من با توزیع Skellam سر و کار دارم.
تخمینگر تابع بسل؟
40629
من یک سری زمانی دارم که در چرخه های زیگزاگ بالا و پایین می رود. من می خواهم یک الگوریتم ساده پیدا کنم تا آن را به بخش هایی از دنباله های بالا و دنباله های پایین تقسیم کنم. باید در برابر نویز مقاوم باشد تا یک پیچ خوردگی کوچک نباید یک دنباله را بیهوده تقسیم کند. آیا نامی برای چنین تکنیکی وجود دارد؟ **ویرایش**: چندین نفر از شما فصلی بودن را مطرح کرده اید. این چیزی است که من در آن سواد ندارم. مطمئناً چیزی برای من برای یادگیری است. در این مورد من فقط می خواهم نقاطی را که جهت تغییر می کند پیدا کنم. من مطمئن نیستم که آیا فصلی بودن، به معنای عود منظم، در داده ها در نظر گرفته شده است یا خیر.
یک سری زمانی زیگزاگ شکل را تقسیم کنید
38276
من به مدل‌سازی داده‌های زمان‌بندی انسانی با استفاده از jags فکر می‌کردم که در آن داده‌ها از آزمایشی می‌آیند که در آن شرکت‌کنندگان با یک مترونوم بسیار کند به موقع ضربه می‌زنند. سپس داده‌ها تعدادی از اندازه‌گیری‌هایی است که نشان می‌دهد چقدر شیر آب با مترونوم مقایسه شده است. داده ها را می توان از یک توزیع نرمال در نظر گرفت. سپس این داده‌های نمونه برای 10000 ضربه (با استفاده از R): timeing_distribution <- rnorm(10000, 0, 300) ![توزیع داده‌های زمان‌بندی](http://i.stack.imgur.com/BDKPD.png ) مشکل این است که وقتی شرکت کنندگان از بازه هدف فراتر می روند، در عوض به صدای مترونوم واکنش نشان می دهند. بگوییم که زمان واکنش نیز از یک توزیع نرمال است، پس داده‌های مدل‌سازی این خواهد بود: واکنش_time_distribution <- rnorm(10000, 250, 50) ![توزیع زمان واکنش](http://i.stack.imgur.com/Zatr4. png) توزیع زمان و توزیع زمان واکنش می تواند در یک توزیع مشترک مانند این ترکیب شود: joint_distribution <- pmin(timing_distribution، reaction_time_distribution) ![ توزیع مشترک] (http://i.stack.imgur.com/7p5LH.png) این همان چیزی است که ابتدا ضربه زمان‌بندی یا واکنش ضربه زدن پس از صدای مترونوم منجر به یک ضربه می‌شود. سوال من این است که چگونه می توان این را در jags/bugs مدل سازی کرد؟ چیزی که من به دنبال آن هستم چیزی شبیه به این مدل است { for( i in 1 : N ) { y[i] ~ min( dnorm( muTiming , tauTiming ), dnorm( muReaction , tauReaction )) } tauTiming ~ dgamma( 0.01 , 0 . ) muTiming ~ dnorm( 0 , 1.0E-10 ) tauReaction ~ dgamma( 0.01 , 0.01 ) muReaction ~ dnorm( 0 , 1.0E-10 ) } اما من حدس می زنم که `y[i] ~ min( dnorm( muTiming , tauaction, tauaction, tauaction) )` است واقعا در ژاکت امکان پذیر نیست ...
چگونه داده ها را در jags/اشکالات تولید شده با در نظر گرفتن حداقل دو متغیر تصادفی مدل کنیم؟
72972
$X_1$، $X_2$...$X_i$ به طور مستقل و یکسان rvهایی با توزیع $X_i \sim beta(\alpha,\beta=1)$ هستند. پی دی اف $Y=\Pi_{i=1}^nX_i$ را محاسبه کنید آیا راه حل زیر صحیح است: pdf $X_i = f_{X_i}(x_i)$ = $\alpha x^{\alpha -1} , 0 \leq x \leq 1$ شروع با cdf Y: $P(Y \leq y) = P(\Pi_{i=1}^nX_i \leq y)$, $=P(\sum_{i=1}^n-\log X_i \geq - \log y)$ $-\log X \sim(\beta=\frac{1}{\alpha} ) = گاما(\alpha=1,\beta=\frac{1}{\alpha})$، نشان می دهد که $ -log X$ دارای توزیع نمایی است: اجازه دهید $U = - \log X$, $F(-\ ثبت X \leq u) = F(X\geq e^{-u}) = 1- F_X(e^{-u}) $, $f_U(u) = e^{-u}f_X(e^{-u }) = \alpha e^{-u} e^{-u(\alpha-1)} = \alpha e^{-\alpha u}$ بنابراین، $ U \sim exp(\frac{1}{\ آلفا})$ توزیع اجازه دهید $Z = \sum_{i=1}^n-\log X_i $, توزیع $ Z \sim گاما(\alpha=n,\beta=\frac{1}{\alpha})$F_Y( y)=1 - P(\sum_{i=1}^n-\log X_i \leq - \log y)$، = $1 - F_Z(-\log y)$، PDF: $f_Y(y) = -\frac{d}{dx} (-log y) f_Z(-log y)$, $=\frac{1}{y} \frac{1}{\Gamma(n)} \frac{1}{1/\alpha^{n}}e^{\alpha \log y} y^{(n-1)}$= \frac{1}{y}\frac{(\alpha^{n})}{\Gamma(n)} e^{\alpha \log y} (-\log y)^{(n-1)} $ [از آنجا که $Z$ دارای توزیع گاما است] $= \frac{\alpha^{n}}{\Gamma(n)} y^{\alpha -1}({-\log y})^{n-1 }، 0< y \leq 1 $ لطفا راهنمایی کنید. با تشکر
محاسبه pdf برای محصول rv
13916
فرض کنید که داده های پانل طولی داریم. ردیف ها بر اساس تاریخ و فردی منحصر به فرد هستند. ستون ها شامل ویژگی های افراد در تاریخ معین و همچنین یک متغیر وابسته است. هدف نهایی من انجام یک رگرسیون مقطعی و همچنین یک رگرسیون پانل است زیرا به نظر می رسد یک اثر سری زمانی نیز وجود دارد. ویژگی های یک فرد برای هر سه ماهه ثابت است. بنابراین اگر یک مقدار را در یک چهارم مشاهده کنم، می‌توانم با موفقیت به مقادیر باقی‌مانده در سه ماهه اضافه کنم. با این حال، برخی از افراد وجود دارند که ارزش یک ویژگی را کاملاً از دست می دهند. وقتی یک نمودار دو متغیره با فرکانس برابر مشخصه در محور x و وابسته به محور y می سازم (به زیر مراجعه کنید)، یک رابطه یکنواخت مشاهده می کنم. همچنین، من تمام موارد گم شده را در سطل NA در سمت راست افراطی گروه بندی کرده ام. ![نمودار دو متغیره با مشخصه در محور x; موارد موجود در سطل سمت راست افراطی](http://i.stack.imgur.com/6FYX1.png) از آنجایی که ارتفاع bin NA مشابه ارتفاع bin 6 است، می‌خواهم موارد از دست رفته را به مقادیر موجود در آن نسبت دهم. bin 6 (به عنوان مثال، با وارد کردن NA به مقادیر نمونه گیری شده از bin 6 اطمینان حاصل شود که انتساب در هر سه ماهه ثابت است). چیزی که این را چالش برانگیز می کند این است که ساختار وابستگی وجود دارد (یعنی ویژگی یک فرد در سه ماهه امروزی تمایل دارد تا سه ماهه بعدی نیز ادامه یابد). آیا می توانم به سادگی موارد گمشده را به مقادیر نمونه برداری شده از bin 6 (بر اساس چهارم) منتسب کنم یا باید (به نحوی) بر اساس یک چهارم و توسط ابزار برای حفظ رابطه وابستگی در مشخصه در طول زمان، منتسب کنم؟ با به نحوی مشخص نیست که چگونه می توانید یک انتساب را انجام دهید که ساختار وابستگی را حفظ کند بدون اینکه قبلاً یک مدل پانل آماده باشد. شاید بتوانم از طریق رگرسیون چندگانه با استفاده از ورودی‌های دیگر برای هر برش زمانی، آن را انباشته کنم.
انتساب با داده های تابلویی که ساختار وابستگی را نشان می دهد
82648
من در واقع روی مدل سازی سری های زمان با auto.arima از پیش بینی های بسته کار می کنم. اما من با مشکلاتی در مورد استخراج مقادیر Lo 80، Hi 80، Lo 95، Hi 95 به صورت تکی مواجه هستم. من داده‌ها را برای اکسل با تابع csv بازیابی کرده‌ام، اما خیلی طولانی است و خطراتی برای از دست دادن داده‌ها وجود دارد. من فقط پیش بینی میانگین یا نقطه را با تابع AA11a[[mean]] بازیابی کرده ام همانطور که می توانید روی کدهای من در R a<-ts(AA,start=1921,end=2009,frequency=1) fit11a ببینید. <-auto.arima(b,allowdrift=TRUE) AA11a<-forecast(fit11a,50) plot(AA11a) plot(AA11a[[معنی]]) می‌خواهم بپرسم چگونه می‌توانم Lo 80، Hi 80، Lo 95، Hi 95 را به صورت تکی استخراج کنم؟ من این کد AA11a$fcst$AA[,1] را امتحان کردم اما کار نمی کند و به من بگویید: Null گزینه دیگر ارسال خروجی AA11a به excel و یافتن متغیرهای منحصر به فرد است، اما قبل از کاوش در آن مسیر، از کسی می پرسم که آیا کسی ایده ای در مورد چگونگی استخراج مقادیر مختلف دارد که در بالا با کدهایی در R ذکر کردم. با تشکر
نحوه استخراج مقادیر سری زمان های پیش بینی شده auto.arima
110671
بازیکنان یک TRPG مشخص دارای شخصیت هایی با 6 امتیاز توانایی هستند که هر امتیاز از 3 تا 18 متغیر است. یکی از روش‌های تولید آن‌ها با پایین‌ترین قطره 4d6 است. این بدان معناست که چهار تاس شش وجهی ریخته می شود و سه نتیجه بالاتر اضافه می شود. احتمال اینکه با توجه به 5 بازیکن، یک بازیکن بالاترین امتیاز توانایی را برابر یا کمتر از کمترین نمره توانایی بازیکن دیگر داشته باشد چقدر است؟ سوال مرتبط در اینجا نشان می دهد که چگونه می توان توزیع افت 4d3 را به کمترین حد ممکن رساند، اما چگونه می توانم از آنجا به پاسخ سوال خود در بالا برسم؟ یک پاسخ خوب نتیجه را به گونه ای توضیح می دهد که یک تازه کار آمار می تواند دنبال کند.
احتمال آمارهای کاملاً غیرمنصفانه هنگام نمرات توانایی با استفاده از 4d6 افت کمترین برای D&D
5817
می‌خواهم بدانم آیا یک متغیر کمکی برای هر موضوع با سه نوع کارآزمایی و سختی آن کارآزمایی‌ها تعامل دارد یا خیر. معیارهای وابسته من دقت و زمان پاسخ (RT) است. برای این سوال، من می خواهم روی RT ها تمرکز کنم. به طور سنتی، افراد در رشته من متغیر کمکی مورد علاقه را دوقطبی می کنند و از ANOVA برای تجزیه و تحلیل استفاده می کنند. من می خواهم متغیر کمکی را به عنوان متغیر پیوسته ای که هست در نظر بگیرم و با افراد به عنوان اثرات تصادفی رفتار کنم. من می خواهم این را با استفاده از مدل های مختلط در `R` (`nlme`) تجزیه و تحلیل کنم. 2 نوع آزمایشی اول می تواند آسان یا سخت باشد و نوع سوم آزمایشی ترکیبی از 2 مورد اول است. این آزمایش ها می توانند آسان-آسان، آسان-سخت، سخت- آسان، سخت-سخت باشند. من انتظار دارم افرادی که نمرات بالاتری در متغیر کمکی دارند، حداقل برای 1 نوع آزمایشی، تفاوت کمتری بین RTهای سخت و آسان نشان دهند. این یک طرح با اندازه گیری های مکرر است که هر آزمودنی 3 بلوک از 40 آزمایش از هر یک از انواع آزمایشی را تکمیل می کند (برای نوع آزمایشی 1 و 2: 20 آسان، 20 سخت؛ برای نوع آزمایشی 3، 10 آسان-آسان، 10 آسان-سخت، 10 سخت. -سخت، 10 سخت-آسان). با بیان متفاوت، هر آزمودنی 3 بلوک از 120 کارآزمایی را با انواع آزمایش های مختلف به صورت تصادفی تکمیل می کند. فقط RT ها برای آزمایش های صحیح تجزیه و تحلیل خواهند شد (که منجر به طراحی نامتعادل برای داده های RT می شود). علاوه بر تعادل بین کلیدهای پاسخ، این طراحی کاملاً درون موضوعی است. به‌طور خلاصه، مدل (یا مدل‌هایی) که به من اجازه می‌دهد تا تعاملات بین نوع آزمایشی، دشواری و متغیر کمکی را با استفاده از «nlme» در «R» آزمایش کنم چیست؟
بیانیه مدل من برای مدل های مختلط (nlme) در R چیست؟
89793
خطای استاندارد عبارت رهگیری ($\hat{\beta}_0$) در $y=\beta_1x+\beta_0+\varepsilon$ توسط $$SE(\hat{\beta}_0)^2 = داده می شود. \sigma^2\left[\frac{1}{n}+\frac{\bar{x}^2}{\sum_{i=1}^n(x_i-\bar{x})^2}\ راست]$$ که $\bar{x}$ میانگین $x_i$ است. با توجه به آنچه من درک می کنم، SE عدم قطعیت شما را کمی می کند - برای مثال، در 95٪ از نمونه ها، بازه $[\hat{\beta}_0-2SE,\hat{\beta}_0+2SE]$ حاوی مقدار واقعی است. $\beta_0$. من نمی دانم چگونه SE، معیار عدم قطعیت، با $\bar{x}$ افزایش می یابد. اگر من به سادگی داده های خود را جابجا کنم، به طوری که $\bar{x}=0$، عدم اطمینان من کاهش می یابد؟ این غیر منطقی به نظر می رسد. یک تفسیر مشابه این است - در نسخه بدون مرکز داده‌های من، $\hat{\beta}_0$ با پیش‌بینی من در $x=0$ مطابقت دارد، در حالی که در داده‌های مرکزی، $\hat{\beta}_0$ مطابق با پیش بینی من در $x=\bar{x}$. پس آیا این بدان معناست که عدم قطعیت من در مورد پیش بینی من در $x=0$ بیشتر از عدم اطمینان من در مورد پیش بینی من در $x=\bar{x}$ است؟ این نیز غیر منطقی به نظر می رسد، خطای $\epsilon$ برای همه مقادیر $x$ واریانس یکسانی دارد، بنابراین عدم قطعیت من در مقادیر پیش بینی شده من باید برای همه $x$ یکسان باشد. من مطمئنم که شکاف هایی در درک من وجود دارد. کسی می تواند به من کمک کند بفهمم چه خبر است؟
چرا خطای استاندارد رهگیری هرچه بیشتر $\bar x$ از 0 باشد را افزایش می دهد؟
52379
مورد من این است که من یک متغیر DV پیوسته و دو IV طبقه‌بندی حاوی 11 و 12 سطح مختلف (YEAR & MONTH) از 1998 تا 2008 دارم. من می‌خواهم استفاده کنم، زیرا ترجیح می‌دهم سطوح افراد در هر IV را با میانگین YEAR مقایسه کنم تا برخی از پایه‌های پیش‌فرض. نمونه ای از خروجی من در اینجا ارائه شده است: > مدل <\- lm(LN.IDEA ~ 0 + MONTH + MONTH*MONTH + YEAR + YEAR*YEAR, data = > ds) Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) -3.467431 0.031038 -111.717 < 2e-16 *** MONTH1 0.207696 0.098558 2.107 0.0375 * MONTH2 0.08080.0375 * MONTH2 0.085 0.4176 MONTH3 -0.197687 0.098558 -2.006 0.0475 * MONTH4 -0.110153 0.098558 -1.118 0.2663 MONTH5 0.039526 MONTH5 0.039526 0.0475 0.0475 -0.194322 0.098558 -1.972 0.0514. MONTH7 0.174461 0.098558 1.770 0.0797. MONTH8 0.014709 0.098558 0.149 0.8817 MONTH9 -0.025038 0.094821 -0.264 0.7923 MONTH10 -0.086207 0.094851 0.094851 -0.039 MONTH 0.060783 0.094821 0.641 0.5229 YEAR1 0.081754 0.155188 0.527 0.5995 YEAR2 0.545592 0.090489 0.090489 6.0529 6.0529-4002. 0.090489 0.487 0.6273 YEAR4 -0.103906 0.090489 -1.148 0.2535 YEAR5 0.005907 0.090489 0.065 0.9481 110406 ​​- 0.9481 YEAR5 -1.222 0.2244 YEAR7 0.076436 0.090489 0.845 0.4003 YEAR8 0.069966 0.090489 0.773 0.4412 YEAR9 -0.2189481-0.2189489 -0.2189489 * YEAR10 -0.204054 0.090489 -2.255 0.0263 * ادعا شده است که این سؤال تکراری از پاسخ ادعا شده است. متوجه شدم که این پاسخ به سطوح رگرسیون اشاره می کند، اما سؤال در مورد آزمایش و تفسیر مقادیر p در رگرسیون است. بنابراین من استدلال می کنم که این یک تکراری نیست.
چگونه می توان رهگیری خود را در مدل رگرسیون در R تعریف کرد؟
11210
من از مفید بودن بوت استرپ در به دست آوردن تخمین های عدم قطعیت قدردانی می کنم، اما چیزی که همیشه در مورد آن مرا آزار می دهد این است که توزیع مربوط به آن تخمین ها، توزیع تعریف شده توسط نمونه است. به طور کلی، به نظر می‌رسد ایده بدی است که باور کنیم فرکانس‌های نمونه ما دقیقاً شبیه توزیع اصلی هستند، پس چرا استخراج تخمین‌های عدم قطعیت بر اساس توزیعی که فرکانس‌های نمونه توزیع اساسی را تعریف می‌کنند، صحیح/قابل قبول است؟ از سوی دیگر، این ممکن است بدتر (احتمالاً بهتر) از سایر مفروضات توزیعی که ما معمولاً می‌سازیم نباشد، اما من همچنان می‌خواهم توجیه را کمی بهتر درک کنم.
مفروضات مربوط به برآوردهای بوت استرپ عدم قطعیت
13914
من فهرستی از 35 مزیت اثبات شده در مورد یک موضوع را تهیه کردم و از مردم خواستم که پنج مورد را انتخاب کنند که به احتمال زیاد بر رفتار آنها تأثیر می گذارد. 43 پاسخ دهنده 215 رای دادند و سه مورد از مزایا رای بسیار بیشتری نسبت به بقیه دریافت کردند. بهترین ابزار آماری برای سنجش اهمیت این نتیجه چه خواهد بود؟ توضیحات: انگیزه این تحقیق دشواری عملی ترویج همه 35 مزیت برای عموم است تا تغییری در رفتار ایجاد شود. هدف تحقیق تعیین اولیه این بود که آیا هر مزیت احتمالاً تأثیر یکسانی بر عموم دارد یا خیر. قبل از دیدن پاسخ‌ها، انتظار داشتم توزیع نسبتاً یکنواخت بین همه مزایا وجود داشته باشد، اما اینطور نبود. سه مزیت برتر حداقل 10 رای بیشتر از چهارمین مزیت محبوب بود. چهار مزیت اصلا رای نگرفتند. من امیدوارم که نشان دهم الگوی پاسخ از نظر آماری برای تعداد x از مزایا معنی‌دار است و مطالب تبلیغاتی آینده باید روی این موارد به‌عنوان محتمل‌ترین مزایای ایجاد تغییر تمرکز کند. هر یک از مزایا از دیگری متمایز است، اگرچه 13 مورد اول در طبقه‌بندی محیط‌زیست، 9 مورد اقتصادی و 13 مورد اجتماعی قرار می‌گیرند، و مطلوب است که داده‌های این گروه‌ها علاوه بر در نظر گرفتن هر مزیت فردی در نظر گرفته شود. پاسخ دهندگان پنج مزیت را از لیست 35 موردی انتخاب کردند که به احتمال زیاد بر تغییر رفتار آنها تأثیر می گذاشت، آنها پنج گزینه خود را رتبه بندی نکردند و رأی های متوالی تأثیری بر گزینه های قبلی نداشتند، به غیر از اینکه شما فقط می توانید برای هر مزیت یک بار رأی دهید. با تشکر فراوان از پاسخ های اولیه و تذکرات برای شفاف سازی و امیدوارم همه چیز را به خاطر داشته باشم!
مناسب ترین درمان آماری که در آن شرکت کنندگان پنج عبارت را از یک لیست انتخاب می کنند
19048
وقتی از جعبه ابزار شبکه عصبی در Matlab استفاده می کنم، این موضوع را گیج کننده دیدم. مجموعه داده‌های خام را به سه بخش تقسیم می‌کند: 1. مجموعه آموزشی 2. مجموعه اعتبارسنجی 3. مجموعه آزمایشی در بسیاری از الگوریتم‌های آموزش یا یادگیری، داده‌ها اغلب به 2 بخش تقسیم می‌شوند، مجموعه آموزشی و مجموعه تست. سوالات من این است: 1. تفاوت بین مجموعه اعتبار سنجی و مجموعه تست چیست؟ 2. آیا مجموعه اعتبارسنجی واقعا مختص شبکه عصبی است؟ یا اختیاری است. 3. برای ادامه، آیا تفاوتی بین اعتبارسنجی و آزمایش در زمینه یادگیری ماشین وجود دارد؟
تفاوت بین مجموعه تست و مجموعه اعتبار سنجی چیست؟
72975
این سوال دو بخش است: 1) وقتی عملگر backshift را به یک ثابت اعمال می کنید چه اتفاقی می افتد؟ به عنوان مثال، اگر من فرآیند AR را داشته باشم $$(1-\phi B)(y_t-\mu)=\epsilon_t$$ آیا برابر $$y_t-\mu-\phi By_t-\phi B\mu = \ epsilon_t$$ که (به اعتقاد من به کاهش می‌یابد) $$y_t-\mu-\phi y_{t-1}-\phi \mu = \epsilon_t\longrightarrow y_t=\mu+\phi y_{t-1}+\phi \mu+\epsilon_t $$ بنابراین آیا من در این فرض که جابه‌جایی یک ثابت (در مثال من $\mu$) فقط ثابت است صحیح هستم؟ 2) اگر فرض کنم که $\epsilon_t\sim N(0,v)$، پس احتمال فرآیند AR فوق در 1 چقدر است؟
عملگر Backshift روی یک ثابت اعمال می شود
16635
سوالات من این است: 1. مزایای ترفند هسته چیست؟ کسی میتونه خلاصه کنه؟ 2. چیزی که در یک یادداشت سخنرانی در مورد آن خواندم این است که _ما هرگز نیازی به نمایش صریح بردارهای ویژگی نداریم. من کاملاً نمی‌فهمم «_صراحتاً نمایندگی_» یعنی چه. کسی میتونه توضیح بده؟ من آن را در اینجا، در صفحه 16 دیدم. PS: اگر مناسب است، لطفاً تگ _kernel trick_ را اضافه کنید.
مزایای ترفند هسته و یک سوال مرتبط
69599
من یک توزیع نمونه دارم که با محاسبه حداکثر در بسیاری از نمونه ها ایجاد شده است. اکنون می‌خواهم تخمینی برای حداکثر پارامتر واقعی در جمعیتی که از آن نمونه‌برداری کردم، ایجاد کنم. چگونه می توانم این کار را انجام دهم؟ من در مورد بوت استرپ فکر کردم، اما در تخمین حداکثر کارایی خوبی نداشت. آیا کسی می تواند روشی برای تخمین حداکثر از توزیع نمونه من پیشنهاد دهد؟
روش مناسب برای تخمین فواصل اطمینان برای یک آمار مرتبه شدید
89240
برای اجرای چه آزمون تحلیل آماری نیاز دارم؟ می‌خواهم نوع دانلودکننده (قانونی و غیرقانونی) را با نوع محتوایی که دانلود می‌کنند (موسیقی، فیلم و غیره) مقایسه کنم. در SPSS من نوع محتوا را به عنوان یک مجموعه پاسخ چندگانه تنظیم کرده ام زیرا هر پاسخ دهنده می تواند چندین محتوا را انتخاب کند. بهترین تست برای مقایسه این تست چیست؟ با تشکر
بررسی محتوا بر اساس نوع دانلودر
69595
امیدوارم این سوال خیلی ساده یا خیلی کلی نباشد. من در حال حاضر روی مشکلی کار می کنم که در آن مجموعه های مختلفی از داده ها به من داده می شود. هر مجموعه داده شامل تعدادی نمونه (نمونه برداری در نقاط نامنظم در سراسر فضای ورودی) است که از یک مقدار خروجی منفرد تشکیل شده است که با تعداد خاصی از مقادیر ورودی مرتبط است. با این حال، تعداد مقادیر ورودی در هر مجموعه داده متفاوت است (معمولاً بین 1 تا 10، اما احتمالاً بسیار بزرگتر). برای نشان دادن سریع: * * * ** مجموعه داده 1:** نمونه 1: (in0, in1, in2) -> out0 sample2: (in0, in1, in2) -> out1 ... sampleN: (in0, in1, in2) ) -> outN ** مجموعه داده 2:** نمونه 1: (in0، in1، in2، in3، in4) -> out0 sample2: (in0، in1، in2, in3, in4) -> out1 ... sampleM: (in0, in1, in2, in3, in4) -> outM * * * هدف کلی من این است که بتوانم از یک تکنیک درون یابی/رگرسیون برای هر مجموعه داده استفاده کنم. صرف نظر از تعداد ابعاد ورودی. تنها محدودیت‌های من این است که تکنیک پیش‌بینی باید بتواند به هر تعداد از ابعاد بدون تغییر پیاده‌سازی اساسی مقیاس‌بندی کند، و باید برای داده‌هایی که لزوماً با فاصله یکسان نمونه‌برداری نشده‌اند، کار کند. تا به حال در استفاده از توابع نزدیکترین همسایه و پایه شعاعی برای درون یابی موفق بوده ام، اما به هیچ وجه در تکنیک های درون یابی چند بعدی متخصص نیستم و نمی دانم که آیا روش دیگری وجود دارد که برای این کار مناسب باشد. با تشکر
بعد روش های رگرسیون/ درون یابی مستقل؟
82647
تلاش برای برنامه ریزی برای نیازهای موجودی آتی برای یک شرکت پوشاک. یک جزء فصلی قوی در داده ها وجود دارد. در ابتدای سال، فروش افزایش یافته است. در پایان، فروش کاهش یافته است. هر سال، در ابتدای سال، فروشندگان بیشتری را به دست می آورند و بنابراین هر سال بیشتر می فروشند. اما! این روند صعودی تنها یک بار در سال اتفاق می افتد. من سعی کردم تجزیه و تحلیل سری های زمانی فصلی را با یک روند انجام دهم، اما این باعث فروش بسیار بالایی در پایان سال شد. چگونه می توانم این تحلیل روند مرحله را انجام دهم؟ با تشکر
داده های فصلی با روند سالانه گام.
16630
ویرایش نهایی با تمام منابع به روز شده: برای یک پروژه، من از الگوریتم های یادگیری ماشین برای طبقه بندی استفاده می کنم. **چالش:** داده های برچسب دار کاملاً محدود و داده های بدون برچسب بسیار بیشتر. **اهداف:** 1. اعمال طبقه بندی نیمه نظارت شده 2. اعمال یک فرآیند برچسب گذاری نیمه نظارت شده (معروف به یادگیری فعال) من اطلاعات زیادی از مقالات تحقیقاتی پیدا کرده ام، مانند استفاده از EM، Transductive SVM یا S3VM ( SVM نیمه نظارتی)، یا به نوعی با استفاده از LDA و غیره. حتی کتابهای کمی در این زمینه وجود دارد. **سوال:** پیاده سازی ها و منابع کاربردی کجاست؟ * * * **بروزرسانی نهایی (بر اساس کمک های ارائه شده توسط mpiktas، Bayer، و Dikran Marsupial)** **آموزش نیمه نظارت شده:** * TSVM: در SVMligth و SVMlin. * EM Naive Bayes در Python * پروژه EM in LinePipe **آموزش فعال:** * **Dualist**: پیاده سازی یادگیری فعال با کد منبع در طبقه بندی متن * این صفحه وب نمای کلی فوق العاده ای از یادگیری فعال ارائه می دهد. * کارگاه طراحی تجربی: اینجا. **یادگیری عمیق:** * ویدئوی مقدماتی در اینجا. * سایت عمومی. * آموزش ویژگی های بدون نظارت و آموزش عمیق استنفورد.
یادگیری نیمه نظارتی، یادگیری فعال و یادگیری عمیق برای طبقه بندی
38279
فرض کنید در فلاپ بدون محدودیت هولدم دو بازیکن آل-این می‌روند. آنها هر دو دارای 2 کارت سوراخ هستند و در حال حاضر 3 کارت جامعه در هیئت مدیره وجود دارد. 2 کارت دیگر کشیده خواهد شد و هر بازیکن از بین 5 کارت مشترک و 2 کارت حفره خود، بهترین 5 کارت را خواهد ساخت. گاهی اوقات مردم دوست دارند بیش از یک بار آن را تمام کنند و 2 کارت نهایی را 2 بار بدهند و یا پات را تقسیم کنند یا یک نفر دو بار برنده شود و کل پات را برنده شود. همچنین تغییراتی وجود دارد که آنها آن را بیش از 2 بار تمام می کنند. آیا این به یک بازیکن بیشتر از دیگری سود می رساند؟ پی بردن به درصد شانس برنده شدن 1 بازیکن کار ساده ای برای اجرای آن فقط یک بار نیست، و من نمی دانم چگونه می توانم به این مشکل برای بیش از یک بار اجرا کردن آن نزدیک شوم.
چندین بار در پوکر بدون محدودیت هولدم اجرا کردن آن.
16632
من تعدادی مقوله و مجموعه ای از داده ها در مورد مقایسه های زوجی بین آن دو دسته دارم. چگونه می توانم اطلاعاتی در مورد رتبه بندی کلی / رتبه بندی / و غیره بیاموزم. از همه دسته ها؟ اجازه دهید جزئیات بیشتری ارائه دهم. من سعی می‌کنم با بررسی آن‌ها بیاموزم که عموم مردم در مورد چه چیزی بیشتر نگران هستند. من حدود 20 دسته نگرانی بالقوه دارم، آنها را $A، B، ...، T$ بنامیم. من یک نمونه تصادفی از افراد را انتخاب کرده ام. برای هر فرد در نمونه موارد زیر را انجام داده ام. من یک جفت نگرانی را انتخاب کردم، به عنوان مثال، $E$ و $Q$. سپس از پاسخ دهنده پرسیدم: شما بیشتر نگران کدام هستید، $E$ یا $Q$؟ آنها می توانند یکی از سه پاسخ ممکن را انتخاب کنند: $E$، $Q$، یا حدوداً برای هر دو یکسان. من حدود 300 پاسخ دارم. هر پاسخ دهنده یک انتخاب تصادفی متفاوت و مستقل از یک جفت نگرانی دریافت کرد. چگونه باید این داده ها را تجزیه و تحلیل کنم تا بتوانم اطلاعات بیشتری را استخراج کنم؟ به عنوان مثال، آیا می توانم در مورد نگرانی هایی که مردم عموماً بیشتر نگران آن ها هستند یا کمتر نگران آن هستند چیزی بیاموزم؟ آیا می توانم برخی از رتبه بندی ها یا رتبه بندی های تقریبی یا برخی مقایسه ها را محاسبه کنم؟ و البته، من نگران محاسبه اهمیت آماری برای هر نتیجه گیری هستم. هر توصیه ای؟ P.S. با خیال راحت هر مدل معقولی را برای نحوه پاسخگویی مردم انتخاب کنید. برای مثال، می‌توانید گذرا بودن را برای هر فردی فرض کنید (هر فرد یک رتبه‌بندی داخلی از نگرانی‌ها دارد و بر اساس آن رتبه‌بندی به سؤال پاسخ می‌دهد؛ بنابراین اگر پاسخ دهند که اگر از او پرسیده شود بیشتر نگران $P$ هستند تا $Q$ در مورد $P$ در مقابل $Q$، و اگر از $Q$ در مقابل $R$ پرسیده شود، می‌گویند که بیشتر نگران $Q$ هستند تا $R$، سپس اگر در مورد $P$ در مقابل $R$ سوال شود. $R$ آنها می گویند که بیشتر نگران $P$ هستند تا $R$).
چگونه می توان رتبه بندی / رتبه بندی کلی را از بسیاری از مقایسه های زوجی محاسبه کرد؟
12741
من می خواهم احتمال شرطی را در حالت زیر محاسبه کنم: به من گفته شد که یک جعبه حاوی یک توپ آبی است. این شواهد من است، احتمال قبلی من برای ترسیم آبی 0.3 است. و این پیام می تواند از طرف یک دوست (0.6) یا یک دشمن (0.4) باشد. من همچنین احتمالات را می دانم: دوستی که آبی را مشاهده می کند: 0.16 دوستی که قرمز را مشاهده می کند: 0.09 دشمنی که آبی را مشاهده می کند: 0.05 دشمنی که قرمز را مشاهده می کند: 0.17 توپ در واقع آبی است. با توجه به این اطلاعات، می‌خواهم بدانم احتمال آبی بودن توپ در واقع چقدر است.
محاسبه احتمال شرطی قاعده بیز
80646
من یک سری زمانی به شرح زیر دارم. روندی صعودی و سنی ضعیف دارد (در ACF یافت می شود). من تجزیه و تحلیل طیفی را امتحان کردم، اما خطای باقیمانده بیش از 600 باقی ماند، که برای پیش بینی به اندازه کافی کوچک نیست. هر توصیه ای؟ Thx! ts <- c(1530.040 3527.839 3327.613 3613.749 2971.990 3747.925 3352.686 5203.718 4550.774 3497.6918 3497.6918 3497.6918 1378.669 3743.931 5094.959 3998.374 3649.445 3709.277 4078.814 6663.439 5774.322 4881.767 41473250 6078.317 5398.443 3541.734 2852.284 3253.765 4716.344 5239.078 5267.733 4072.201 3796.414 3796.414 4309.735 4309.734 5627.322 3862.649 3673.138 4551.715 5904.327 5712.579 6108.412 4706.165 5230.390 3756.871 3074.871 30794.871 3194.798 3167.828 4333.597 4512.727 7609.356 7728.995 6024.994 4947.637 4491.105)
چگونه خطای باقیمانده را کاهش دهیم؟
70577
کسی میدونه این چارت چیه؟ (نوعی نمودار حباب دار اما با پیوند بین حباب ها) http://en.wikipedia.org/wiki/File:PageRanks-Example.svg ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com /bhjcQ.png)
این چه نوع نموداری است؟ (نمودار حباب با لینک)
12748
من به دنبال مطالعه نوع خاصی از خطا در یک آزمون شناختی برای ارزیابی پیامدهای بالینی بالقوه هستم. از آنجایی که هیچ تحقیقی در مورد این متغیر وجود ندارد، من می‌خواهم یک ارزیابی آزمایشی بر روی مجموعه نسبتاً بزرگی از داده‌های موضوعی از کلینیک خود انجام دهم (احتمالاً این تعداد حدود 200 آزمودنی است) تا ببینم آیا گرایش‌هایی برای هدایت آزمون فرضیه‌ها وجود دارد یا خیر. مطالعات آتی (به عنوان مثال، آیا بیمارانی از یک جمعیت بالینی خاص بیشتر از افراد دیگر در معرض این نوع خطا هستند). داده ها به گونه ای است که یک بیمار به طور بالقوه می تواند 0-15 از این خطاها را مرتکب شود، اگرچه این احتمال وجود دارد که تمایل زیادی به محدوده 0-5 وجود داشته باشد. اساساً، من به دنبال شناسایی افراد از درون این استخر هستم که نرخ نسبتاً بالاتری از این خطاها دارند. آیا قالب شناخته شده ای برای انجام این نوع کار آزمایشی وجود دارد؟ با منع آن، توصیه شما چه خواهد بود؟ بدیهی است که این بسیار اکتشافی است، بنابراین من احساس می‌کنم که در تعریف آنچه که «غیرطبیعی» برای اهداف این مطالعه است، فاصله زیادی دارم، اما هرگونه مرجع یا پیشنهادی بسیار قدردانی خواهد شد.
به دنبال کمک برای شناسایی نقاط پرت در یک مطالعه آزمایشی برای هدایت آزمایش فرضیه های آینده
97759
1. یک نمونه تصادفی ساده از 21 مشاهده از یک جمعیت محدود 41 نفری گرفته شده است. اگر میانگین جامعه 300 و واریانس جامعه 7 باشد، پس از اعمال ضریب تصحیح جمعیت محدود، واریانس میانگین نمونه: الف. 0.1667 ب. 0.3333 c. 0.5774 d. 7.0000 با استفاده از فرمول من: واریانس تصحیح شده=(²/n)((N-n)/(n-1)) همچنان (b) را دریافت می کنم، اما کلید می گوید که پاسخ (a) است.
ضریب تصحیح جمعیت محدود
69597
برای مدل ارائه شده توسط برخی از جفت‌های مستقل $(x_i,y_i)$ که به طور یکسان از یک توزیع گاوسی دو متغیره تولید شده‌اند، خانواده نیمه مزدوج مناسب توزیع‌های قبلی Normal-Wishart وجود دارد. این عمدتاً راحت است زیرا توزیع‌های خلفی به راحتی قابل شبیه‌سازی هستند، بدون توسل به تکنیک‌های MCMC. به طور خاص، جفریز قبلی غیر اطلاعاتی در مرز خانواده نیمه کوژوگه قرار دارد و جفریز خلفی به راحتی شبیه سازی می شود. اما در موردی که واریانس برابر را برای $x_i$ و $y_i$ فرض می‌کنیم، آیا توزیع پسینی وجود دارد که شبیه‌سازی و دستیابی به یک عملکرد فرکانسی خوب مانند Jeffreys posterior آسان باشد؟ (یعنی، به طور کلی، پوشش مکرر بازه‌های اعتبار 95$\%$ تقریباً 95$\%$ برای پارامترهای معمول مورد علاقه است).
توزیع خلفی مناسب برای مدل گاوسی دو متغیره همگن
82649
من یک متغیر دارم که دارای اجزای عددی و اسمی است. منبع دارای مستنداتی است که به شناسایی کدامیک و تقسیم به اجزای مناسب کمک می کند. من بعداً (R یا WEKA) روی این داده ها مدل سازی خواهم کرد. چندین مورد وجود دارد و یکی از آنها متغیر size است: اجزای عددی 0 تا 70 و مقادیر اسمی <10، 10-20 تا 60-70 هستند. بخش اسمی مربوط به مصاحبه های نامشخص با بیمار، سوابق از دست رفته (در نتیجه عدم دقت) و سایر کاستی های پزشکی است. برنامه من این است که دو متغیر جدید ایجاد کنم - size-num و size-nom که به ترتیب دارای مجموعه های فوق به عنوان مقادیر باشند. وقتی «اندازه» را تغییر دادم، با مشکلات جدیدی روبرو می شوم: +-------+----------------------------- --------+ | شناسه | اندازه | اندازه-تعداد | size-nom | +-------+-------------------------------------+------------------------------------------- 1 | >10 | ? | >10 | | 2 | 27 | 27 | ? | | 3 | 20-30 | ? | 20-30 | | 4 | 0 | 0 | 0 | | 5 | <60 | ? | <60 | +-------+-------------------------------------+ * در متغیر عددی، چگونه می توانم اسمی های حذف شده را نشان دهم؟ اگر فقط آنها را خالی بگذارم، باید مقادیر از دست رفته را در نظر بگیرم. * در متغیر اسمی، چگونه عددی را نشان می دهم؟ من می دانم که می توانم دوباره از آنها (مقادیر عددی) استفاده کنم، اما این ویژگی پیوسته آنها را حذف می کند.
تقسیم یک متغیر با مقادیر اسمی و عددی
7412
من می خواهم مدل کنم که چگونه ترافیک در شبکه های واقعی (نه فقط اینترنت، همچنین مثلاً LAN داخلی اینتل) جریان می یابد. آیا جایی وجود دارد که بتوانم داده های توپولوژی شبکه واقعی را دریافت کنم که بتوانم از آن استفاده کنم؟
از کجا می توانم داده های واقعی توپولوژی شبکه بزرگ را دریافت کنم؟
97751
برای $i=1، \ldots، K$ و $j=1، \ldots,n$، مدل زیر را در نظر بگیرید. \begin{align} X_{ij} \mid \mu_i & \sim N(\mu_i, \sigma^2) \nonumber \\\ P(\mu_i, \sigma^2) & \propto 1/\sigma^2 \end{align} فرض می‌کنیم همه چیز مستقل است. سپس قسمت عقبی مانند زیر \begin{align*} \dfrac{\mu-\bar X_i}{s/ \sqrt{n}} \sim T_{n-1} \end{align*} با این قبل غیر اطلاعاتی است، آیا می توان توزیع حاشیه ای $\bar X_i$ را استخراج کرد؟ خیلی ممنونم!
توزیع حاشیه ای با قبل غیر اطلاعاتی
38273
داده‌ها برای انواع خاصی از متغیرها وقتی در جمعیت‌های خاصی اندازه‌گیری می‌شوند، غیرطبیعی هستند (مثلاً سطوح افسردگی در جمعیتی از افراد مبتلا به اختلال افسردگی اساسی). با توجه به اینکه پیرسون نرمال بودن را فرض می کند، آمار آزمون در شرایط غیر نرمال بودن چقدر قوی است؟ من تعدادی متغیر دارم که می خواهم ضرایب همبستگی برای آنها داشته باشم، اما چولگی Z برای برخی از آن متغیرها در _p_ <.001 (و این برای نمونه نسبتاً کوچکی است) قابل توجه است. من تغییراتی را امتحان کرده‌ام، اما پیشرفت‌ها در توزیع‌ها در بهترین حالت جزئی هستند. آیا باید به تحلیل های ناپارامتریک پایبند باشم؟ و نه فقط برای همبستگی، بلکه برای انواع دیگر تجزیه و تحلیل نیز؟
ضریب همبستگی پیرسون در برابر نقض نرمال چقدر قوی است؟
16636
من دو ماتریس بزرگ (پراکنده) (500000*500000) دارم و می‌خواهم برای اندازه‌گیری شباهت، تست مانتل را انجام دهم. * آیا راهی برای تقسیم این ماتریس ها به ماتریس های کوچکتر و انجام تست وجود دارد؟ * یا می توانید راهی برای انجام کارآمد آن بدون مشکل حافظه پیشنهاد دهید؟
چگونه می توان همبستگی بین دو ماتریس بزرگ (پراکنده) را بدست آورد؟
52338
با توجه به N نقطه تصادفی که به طور یکنواخت در مربع واحد توزیع شده اند، و فاصله d، می توانم یک ماتریس در قالب زیر ایجاد کنم: E V1 V2 [1,] 0.5564821 1 2 [2,] 0.3373116 1 3 [3،] 0.3973278 1 4 [4،] 0.6066518 1 5 [5،] 0.9603731 1 6 [6,] 0.3612895 1 7 # ردیف دیگر... جایی که E، راس پیوند دهنده یال V1 و V2 است. من تازه شروع به یادگیری تئوری گراف کرده ام، بنابراین می پرسم: چگونه می توانم مشخص کنم که این نمودار هندسی تصادفی به هم متصل است؟ با تشکر
اتصال نمودار هندسی تصادفی
88110
من یک مشکل طبقه بندی دارم که در آن دریافت مثبت های واقعی بسیار مهم تر از منفی های واقعی است. برای روشن بودن، می دانم که تقریباً 10٪ از جمعیت من مثبت هستند، اما می توانم نسبتی (مثلا 30٪) از جمعیت را بدون هزینه زیاد به عنوان مثبت طبقه بندی کنم، مهمتر از همه باید مطمئن شوم که موارد مثبت واقعی توسط این مجموعه پوشش داده می شود. متأسفانه ابزارهای طبقه‌بندی که من در WEKA استفاده می‌کنم به نظر می‌رسد که دقت و یادآوری را متعادل می‌کنند، به طوری که الف) به اندازه‌ای که مجاز است، موارد مثبت را تخصیص نمی‌دهد، و ب) مقدار یادآوری بسیار بدی دریافت می‌کند. آیا روش استانداردی برای برخورد با این مشکل وجود دارد؟ اولین حدس من این است که به جای F-score، تابع هزینه را برای فراخوانی وزن کنم، اما راه آسانی برای انجام این کار در WEKA نمی بینم.
طبقه بندی وزن نسبت به فراخوان؟
9107
من می‌خواهم مجموعه داده توزیع درآمد پیوست شده را (که به صورت تصویر ارائه می‌شود) به عنوان نمودار مساحتی رسم کنم. همانطور که می بینید، درآمد شخصی به 26 بازه با عرض متفاوت تقسیم می شود. میانگین و میانگین درآمد را هم در فواصل زمانی دارم. برای ارائه یک گرافیک منطقه واقعی از این داده ها، نمی دانم گزینه های من واقعاً چه هستند؟ رسم داده های طبقه بندی ترتیبی در دست، یک قوز بزرگ در نمودار مساحتی برای بازه 400-499 ایجاد می کند. اما این فقط به این دلیل است که آن فاصله وسیع‌تر است و از این رو کاربر می‌تواند توسط شکل گمراه شود. مسئله دیگر در مورد داده های طبقه بندی شده این است که میانگین فاصله 1000+ از 1000 (= 1644) بسیار دور است. یک گرافیک منطقه ای که این را در نظر نمی گیرد، در نشان دادن توزیع واقعی کار بدی می کند. چگونه پیش می روید و آیا راهی وجود دارد که بتوانم از میانگین/میانگین برای تبدیل مقیاس طبقه بندی به مقیاس پیوسته استفاده کنم؟
مقیاس طبقه ای یا پیوسته برای نمودار مساحت؟
17320
در شکل زیر در سمت چپ دو مورد از فرآیندهای نقطه‌ای با چگالی (شدت) متفاوت $\lambda_1$ و $\lambda_2$ در حال اختلاط هستند که با مرکز نواحی مربوطه تطبیق داده می‌شوند تا فرآیند نقطه‌ای در وسط با شدت $\lambda ساخته شود. $. سپس نقاطی را که در سمت راست نشان داده شده است به صورت تصادفی به عنوان دو مجموعه استخراج شده از آن انتخاب کنید. سوالات: آیا $\lambda=\lambda_1+\lambda_2$ است؟ و آیا $\lambda=\lambda_3+\lambda_4$ است؟ اگر دو نفر در سمت چپ پواسون PP بودند، آیا وسط یک پواسون PP است؟ در مورد دو سمت راست چطور؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/aAtiG.jpg)
فرآیندهای نقطه اختلاط و تقسیم
82644
من در حال اجرای یک آزمایش بیولوژیکی با جوندگان هستم، دو گروه (هر کدام از 26 حیوان) تشکیل شده است، که در آن یکی با یک ماده شیمیایی درمان می شود، و یکی شاهد (سالین). در یک متغیر، به نظر می رسد تفاوت زیادی بین گروه ها وجود ندارد. با این حال، هنگامی که من پرت را شناسایی می کنم، داده ها بسیار مهم می شوند ($p < 0.01$). من نمی دانم معیارهای من برای حذف آن نقاط داده معتبر است؟ من از دو روش برای شناسایی نقاط پرت استفاده کرده ام. اول از همه، من به طور جداگانه برای کنترل و درمان، موارد پرت را شناسایی می کردم، زیرا داده ها بسیار متفاوت به نظر می رسند (هیستوگرام پیوست شده برای گروه درمان را بررسی کنید) - آیا این اشتباه است یا خیر؟ به نظر من منطقی به نظر می رسد، زیرا گروه ها متفاوت هستند (به این معنا که از نظر شیمیایی به طور متفاوتی رفتار می شوند). ![هیستوگرام برای گروه درمان شده](http://i.stack.imgur.com/6vTZp.png) اولین روشی که ذکر کردم—من داده هایی را بررسی کردم که 2.5 STDEV از میانگین باشد و آن نقاط را حذف کردم. مورد دوم مشابه است: http://www.wikihow.com/Calculate-Outliers—این یکی همان نتیجه را می دهد و نقاط پرت را در گروه درمان شناسایی می کند. با این حال، از آنجایی که می‌خواهم نشریه‌ای تهیه کنم، به یک آزمون واقعی پذیرفته شده توسط همتایان برای موارد پرت نیاز دارم. من تست هایی را در StatSoft Statistica پیدا کرده ام، اما نمودار سبیل جعبه ای نقاط پرت را در آنجا نشان نمی دهد. با این حال، در آزمون گرابز، من $p < 0.05$ دریافت می‌کنم، بنابراین از نظر تحلیلی به‌عنوان یک نقطه پرت شناسایی می‌شود، درست است؟ بنابراین، سؤالات من این است: 1) آیا خوب است که مقادیر پرت را برای هر گروه متفاوت محاسبه کنیم، یا باید نمونه را در یک گروه جمع کنم ($N = 52$) و سپس آن را برای هر دو گروه با هم محاسبه کنم؟ 2) از کدام روش برای شناسایی (و حذف) موارد پرت استفاده کنم تا توسط یک بررسی انتقادی پذیرفته شود؟ من نقاط داده را در اینجا ضمیمه می کنم: https://www.mediafire.com/?0qdsifib0hugd9u برای من، به نظر می رسد که هر حیوانی با امتیاز بالاتر از 54، پرت است. هر گونه کمکی بسیار قدردانی خواهد شد!
مشکل در شناسایی نقاط پرت
52333
من می‌خواهم واریانس پارامتر تخمینی $\hat\theta$ تابع چگالی $f(x;\theta)$ را با توجه به تعداد محدودی از نمونه‌های $X_1,\cdots,X_n$ استنتاج کنم. وقتی حجم نمونه کوچک است، بوت استرپینگ عملکرد خوبی ندارد. آیا روش دیگری برای رسیدگی به پرونده وجود دارد؟
واریانس تخمین پارامترها را با توجه به تعداد محدودی از نمونه ها محاسبه کنید
95449
می‌خواهم بدانم چگونه SPSS متغیرها را در رگرسیون لجستیک کنترل می‌کند تا OR صحیح «کنترل‌شده» را گزارش کند. مورد خاصی که من را آزار می دهد به شرح زیر است: فرض کنید من یک اندازه تومور IV دارم که یا اندازه تومور کوچک است یا اندازه تومور بزرگ. IV دیگر طبقه بندی ریسک با ریسک کم و ریسک بالا است. متغیر وابسته من عوارض است: بله یا خیر. متأسفانه افراد با خطر بالا اغلب تومور بزرگی نیز دارند. برای ارزیابی تأثیر واقعی طبقه‌بندی خطر، از اندازه لایه تومور استفاده کردم و یک crosstab انجام دادم، که به من OR را برای بیماران پرخطر در مقابل کم خطر زمانی که تومورهای بزرگ دارند و بیماران پرخطر در مقابل بیماران کم خطر زمانی که تومورهای کوچک دارند به من داد. . من فرض کردم که این کنترل متغیرها است. متعاقباً شنیدم که وقتی یک رگرسیون لجستیک در SPSS زیر جدول متغیرهای معادله انجام می‌دهد، OR $(\exp(B))$ برای هر متغیر در حالی که متغیرهای دیگر را کنترل می‌کند، نمایش داده می‌شود. متأسفانه این ORها با ORهای نسخه crosstab مطابقت ندارند. در آن صورت چه تفاوتی وجود دارد؟ خیلی ممنون، از کمک شما قدردانی می کنم!
متغیرهای کنترل رگرسیون لجستیک در مقابل لایه در crosstabs
50904
من مجموعه ای از مقادیر دارم، هر یک از این مقادیر میانگین و واریانس خاص خود را دارند. من می‌خواهم وقتی هیستوگرام میانگین را رسم می‌کنم بتوانم این واریانس را محاسبه کنم. چیزی شبیه نوار خطا روی سطل ها. آیا روش رایجی برای این کار وجود دارد؟
هیستوگرام داده های نامشخص
16633
کدام سناریو از نظر احتمال بهتر است با موارد زیر: **سناریو 1** * من یک کلاه دارم که 5 بلیط در آن وجود دارد (یکی دارم). * یک قرعه کشی وجود دارد. * 20 درصد شانس دارم که بلیتم کشیده شود. **سناریو 2** * من یک کلاه دارم که 25 بلیط داخل آن است (یکی دارم). * 5 تساوی انجام شد. * بعد از هر قرعه کشی بلیط قبل از قرعه کشی بعدی برگردانده می شود. یعنی شانس بالقوه 5 بار تساوی. * من در هر تساوی 4 درصد شانس دارم کدام یک حداقل یک بار شانس بیشتری دارد؟ در حالت ایده‌آل، من دوست دارم بدانم چگونه این موضوع را حل کنم (و چرا) تا بتوانم چیزی یاد بگیرم :-)
چگونه می توان احتمال بزرگتر کشیدن یک عنصر از یک مجموعه را زمانی که اندازه مجموعه و تعداد قرعه کشی ها با جایگزینی متفاوت است تعیین کرد؟
17321
من یک جدول کوچک مانند این دارم. مجموعه ای از ویژگی ها دارند. جدول بالا نشان دهنده داده های آموزشی است. نتایج و ویژگی ها همگی مقادیر پیوسته هستند و گسسته نیستند (مقادیر 0/1/2 نیستند). حال، چگونه مجموعه آموزشی داده‌ها را تجزیه و تحلیل کنم تا مشخص کنم کدام یک از ویژگی‌ها واقعاً بر خروجی تأثیر می‌گذارند و چگونه می‌توانم ویژگی‌ها را به ترتیب کاهش تأثیر آنها دوباره مرتب کنم؟ من می‌خواهم به خوبی به کاربر نهایی نشان دهم که Feature_n_Value دو برابر بیشتر از Feature_m_Value بر خروجی تأثیر می‌گذارد، اما Feature_n_value در مقایسه با Feature_p_Value و غیره کمتر از نصف بر خروجی تأثیر داشت. ریاضیات پشت چنین محاسبه ای چیست؟ من کمی به رگرسیون لجستیک نگاه کردم. آیا این روش درستی خواهد بود؟ اگر چنین است، پس در رگرسیون لجستیک، مجموعه‌ای از بردارهای بتا (تعداد مقادیر خروجی)، هر کدام به اندازه ابعاد ورودی (تعداد ویژگی‌ها) را دریافت می‌کنم. با بردارهای بتای خروجی چه کار کنم، اگرچه می‌دانم که با توجه به مجموعه جدیدی از مقادیر ویژگی و این مقادیر بتا که با استفاده از داده‌های آموزشی محاسبه می‌شوند، می‌توانید خروجی را پیش‌بینی کنید. مشاوره بسیار قدردانی می شود. با تشکر آبیشک اس
تعیین ویژگی های تأثیرگذار برای یک نتیجه
12743
می‌خواهم بدانم چگونه می‌توان یک مدل میانگین جمعیت یک رگرسیون لجستیک سلسله مراتبی را با استفاده از بسته «جی پک» «R» تخمین زد. کد «Stata» این است: xtlogit dep ind1 ind2 ind3، i(ind4) pa من می‌خواهم با استفاده از «geepack» یا هر روش دیگری این را در «R» بازتولید کنم.
برآورد مدل های میانگین جمعیت در lmer یا geepack
53068
من تازه با کتاب هوش جمعی (نوشته توبی سگاران) کار می کنم و به نمره فاصله اقلیدسی برخوردم. در کتاب نویسنده نحوه محاسبه شباهت بین دو آرایه توصیه (یعنی $\textrm{person} \times \textrm{movie} \mapsto \textrm{score})$ را نشان می‌دهد. او فاصله اقلیدسی را برای دو نفر $p_1$ و $p_2$ توسط $$d(p_1, p_2) = \sqrt{\sum_{i~\in~\textrm{item}} (s_{p_1} - s_{) محاسبه می‌کند. p_2})^2} $$ این برای من کاملاً منطقی است. چیزی که من واقعا نمی فهمم این است که چرا او در پایان موارد زیر را محاسبه می کند تا شباهت مبتنی بر فاصله را به دست آورد: $$ \frac{1}{1 + d(p_1, p_2)} $$ بنابراین، من به نحوی آن را دریافت می کنم این باید تبدیل از فاصله به شباهت باشد (درسته؟). اما چرا فرمولار اینگونه به نظر می رسد؟ کسی می تواند آن را توضیح دهد؟
امتیاز فاصله اقلیدسی و شباهت