_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
5791
## پس زمینه من مدلی با 17 پارامتر دارم و در حال حاضر از ضریب تغییرات ($\text{CV}=\sigma/\mu$) برای خلاصه کردن توزیع‌های قبلی و پسین هر پارامتر استفاده می‌کنم. همه پارامترها > 0 هستند. من همچنین می خواهم این pdf ها را در مقیاس نرمال شده (در این مورد انحراف استاندارد نرمال شده با میانگین) خلاصه کنم تا بتوان آنها را با یکدیگر مقایسه کرد و با آمارهای دیگر در نمودارهای مجاور مشابه ارائه شد. (حساسیت، واریانس توضیح داده شده). من نمودارهای چگالی را برای هر پارامتر به طور جداگانه اضافه می کنم، اما می خواهم آنها را در اینجا خلاصه کنم. با این حال، حساسیت CV به $\mu$ باعث سردرگمی زیر می‌شود که اگرچه به راحتی در متن توضیح داده می‌شود، اما ترجیح داده می‌شود از آن اجتناب شود. 1. CV خلفی یک پارامتر بزرگتر از قبل است زیرا میانگین بیشتر از واریانس کاهش یافته است (پارامتر 'O' در شکل). 2. یکی از پارامترها (`N`) بر حسب واحد دما است. دارای CI قبلی 95% (8,12 سانتیگراد $\simeq $ 281-285K). وقتی داده ها را در واحدهای کلوین ارائه می کنم که فقط برای مقادیر مثبت تعریف می شود، CV <1٪ است، اگر به صورت C ارائه شود، CV نزدیک به 40٪ است. به نظر من، به نظر می رسد که هیچ یک از این CV ها نمایش شهودی CI را ارائه نمی دهند. ## سوال آیا راه های بهتری برای ارائه این اطلاعات، چه به عنوان یک CV یا به عنوان یک آمار دیگر وجود دارد؟ ## شکل به عنوان مثال، این نوع طرحی است که من قصد ارائه آن را دارم، با CV خلفی سیاه و CV قبلی به رنگ خاکستری. برای مقیاس، CV پارامتر O 1.6 است. ![متن جایگزین](http://i.stack.imgur.com/CVeO1.png)
جایگزینی برای استفاده از ضریب تغییرات برای خلاصه کردن مجموعه ای از توزیع های پارامتر؟
11406
من با R و هر بسته ای در R بسیار جدید هستم. من به مستندات ggplot2 نگاه کردم اما نتوانستم آن را پیدا کنم. من یک نمودار جعبه از متغیر boxthis با توجه به دو عامل f1 و f2 می خواهم. یعنی فرض کنید هر دو «f1» و «f2» متغیرهای فاکتور هستند و هر یک از آنها دو مقدار می گیرند و «boxthis» یک متغیر پیوسته است. من می‌خواهم 4 نمودار باکس را روی یک نمودار دریافت کنم که هر کدام مربوط به یک ترکیب از ترکیب‌های ممکنی است که «f1» و «f2» می‌توانند بگیرند. من فکر می‌کنم با استفاده از عملکرد پایه در R، این کار را می‌توان با > boxplot انجام داد (boxthis ~ f1 * f2، داده = نام مجموعه داده‌ها) پیشاپیش از هرگونه کمکی متشکریم.
باکس پلات با توجه به دو عامل با استفاده از ggplot2 در R
65608
با توجه به توزیع مشترک $P(A,B,C)$، می توانیم توزیع های حاشیه ای مختلفی را محاسبه کنیم. حالا فرض کنید: \begin{align} P1(A,B,C) &= P(A) P(B) P(C) \\\ P2(A,B,C) &= P(A,B) P (C) \\\ P3(A,B,C) &= P(A,B,C) \end{align} آیا درست است که $d(P1,P3) \geq d(P2,P3)$ جایی d است کل فاصله تغییرات؟ به عبارت دیگر، آیا قابل اثبات است که $P(A,B) P(C)$ تقریبی بهتر از $P(A,B,C)$ نسبت به $P(A) P(B) P(C)$ است. از نظر فاصله کل تغییرات؟ به طور شهودی فکر می کنم درست است اما نتوانستم دلیلی پیدا کنم.
فاصله بین حاصلضرب توزیع های حاشیه ای و توزیع مشترک
82871
فرض کنید $X$ یک متغیر عادی یک بعدی است. ماتریس اطلاعات فیشر $2 \times 2$ $I(\theta)$ را برای $\theta = (E(X)، E(X^2))$ پیدا کنید. اساساً، کاری که من انجام دادم این بود که پی دی اف را بر حسب $E(X)$ و $E(X^2)$ یادداشت کردم...و بنابراین Let $d = E(X^2)$ (بنابراین $) گرفتم. \sigma^2 = d - \mu^2$) $(\frac{1}{2(d-\mu^2)})^{1/2} e^{[-(X-\mu)^2]/[2(d-\mu^2)]}$. و سپس سعی کردم به روش معمول ماتریس را از روی آن محاسبه کنم .... اما محاسبه این ماتریس به معنای واقعی کلمه برای من همیشه طول می کشد (مخصوصاً وقتی صحبت از محاسبه مشتق اول و دوم $\log f(x,\ می شود mu، d)$، با توجه به $\mu$). بنابراین من فقط به این فکر می کردم که آیا روش ساده تری برای این مشکل وجود دارد. من می دانم که ماتریس فیشر برای توزیع نرمال با $\theta = (\mu ,\sigma)$ $$\begin{bmatrix} 1/\sigma^2 & 0 \\\ 0 & 2/\sigma^ است. 2 \end{bmatrix}$$ بنابراین می‌خواستم بدانم آیا راهی برای دستکاری این ماتریس برای بدست آوردن ماتریس فیشر زمانی وجود دارد که پارامتر $\theta = باشد. (E(x)، E(x^2))$. پیشاپیش ممنون
اطلاعات فیشر
81789
یک مدل متغیر پنهان شامل یک متغیر مشاهده‌شده دوجمله‌ای $Y$ می‌تواند به گونه‌ای ساخته شود که $Y$ از طریق $Y = \begin{cases} 0 و \mbox{if }Y^ به متغیر پنهان $Y^*$ مربوط می‌شود. *>0 \\\ 1 و \mbox{اگر }Y^*<0\. \end{cases} $ متغیر پنهان $Y^*$ سپس با مدل $Y^* = X\beta + \varepsilon$ به مجموعه ای از متغیرهای رگرسیون $X$ مربوط می شود. این منجر به یک مدل رگرسیون دو جمله ای می شود. واریانس $\varepsilon$ را نمی توان شناسایی کرد و زمانی که مورد علاقه نیست اغلب برابر با یک فرض می شود. اگر $\varepsilon$ به طور معمول توزیع شود، آنگاه یک probit مدل مناسب است و اگر $\varepsilon$ log-Weibull توزیع شده باشد، آنگاه یک logit مناسب است. اگر $\varepsilon$ به طور یکنواخت توزیع شده باشد، یک مدل احتمال خطی مناسب است.
اگر ϵ به طور یکنواخت توزیع شده باشد، یک مدل احتمال خطی مناسب است؟ آیا می توانم هر گونه ادبیات پیدا کنم؟
65603
من داده ها را وارد کردم و به یک سری زمانی ساده تبدیل کردم. ادعاهای <- read.csv(C:/claimsrawdatabyweek.csv) # سری زمانی با 52 نقطه داده در سال em<-ts(claims[,4],start=c(2009,44),frequency=52) مقادیر را از 3496 2453 2311 2559 3149 5103 4951 تغییر داد 4165 4340 4868 3862 2811 3583 3469 3171 2660 2772 2223 2115 تا 138 105 97 109 130 155 154 1415 141313131314 132 112 116 93 82 چگونه محاسبه کنم که این مقادیر جدید چه چیزی را نشان می دهد؟ من از تابع پیش‌بینی tbats fitem<-tbats(em) استفاده می‌کنم و مقادیر پیش‌بینی را به من می‌دهد که بر اساس این اعداد هستند. حتی وقتی داده ها را تبدیل نمی کنم و از tbats استفاده می کنم، به طور خودکار به این اعداد تبدیل می شود. با بیان ساده، باید مقادیر جدید ts را به واقعی تبدیل کنم. چرا 3496 برابر با 138 است؟ هر کمکی قابل تقدیر است.
چرا تبدیل داده ها به سری زمانی مقادیر را تغییر می دهد و چگونه آنها را تغییر می دهید؟
96347
فرض کنید جریانی از متغیرهای باینری x(t) وجود دارد که t یک شاخص گسسته است. بگوییم مدل این است که p=p(x(t)=1) رگرسیون لجستیک در تحقق گذشته است: log(p/1-p) = x(t-1)b1 + x(t-2)b2 + .. x(t-L)bL + b0. حال برای برازش مدل، می‌توان ماتریس طراحی X را تهیه کرد که دارای تاخیرهای متوالی از مرتبه L است به طوری که اندازه X (N-L)L باشد: X = [x(1) ... x(L); x(2) ... x(L+1); ... x(N-L-1) ... x(N-1)] و متغیر وابسته Y فقط [x(L+1)، x(L+2)، ... x(N)] در برای به حداکثر رساندن احتمال، تابع استاندارد مانند glmfit در متلب فرض می‌کند که متغیرهای X و Y مستقل هستند، اما مدل به گونه‌ای است که مستقل نیستند. چگونه می توان این را حل کرد؟ با تشکر
مدل رگرسیون لجستیک برای فرآیند با حافظه
82873
من مجموعه‌ای از فرآیندها را دارم که هر کدام دارای تعدادی رویداد و کل طول زمان است. من سعی می کنم آنها را به عنوان فرآیندهای پواسون مستقل با نرخ های خاص مدل کنم. نرخ فرآیند ith ممکن است تخمین زده شود، بنابراین $$ \lambda_{i} = \frac{n_{i}}{T} $$، با این حال بسیاری از فرآیندها هیچ رویدادی ایجاد نمی‌کنند و بنابراین دارای $\lambda$ از صفر ما می توانیم از تخمین های لامبدا برای تولید فرآیندهای شبیه سازی شده استفاده کنیم، با هدف مقایسه منحنی استخدام تجربی (زمانی که اولین رویداد برای هر $i$ منتشر شد) با شبیه سازی شده موارد زیر مدل از اینجا. $X_{i} \sim Pois(\lambda_{i}T ) $ را رسم کنید و برای ایجاد اعداد تصادفی یکنواخت $X_{i}$ در $(0\space T)$ استفاده کنید. کوچکترین مقدار را به عنوان استخدام برای هر $i$ در نظر بگیرید. به نظر می‌رسد که این یک تخمین مغرضانه ارائه می‌دهد، زیرا برخی فرآیندها با نرخ مشاهده‌شده غیر صفر با نرخ صفر شبیه‌سازی می‌شوند، اما فرآیندهای _no_ با نرخ مشاهده‌شده صفر با نرخ غیرصفر شبیه‌سازی می‌شوند. به نظر می رسد این سؤال مشابه این سؤال است. اگرچه برخلاف داده های طول عمر، در این مورد برخی از فرآیندها ممکن است واقعاً دارای نرخ صفر باشند. ویرایش من یک شبیه‌سازی در متلب اضافه می‌کنم که به نظر می‌رسد شبیه‌سازی استخدام به‌عنوان رویدادهای $n_{i}$ با توزیع یکنواخت به جای $Pois(n_{i})$ رویدادهای توزیع یکنواخت کار صحیحی است که باید انجام شود N = 500 ; L = nbinrnd(0.5,0.2,N,1); % توزیع واقعی لامبدا (هر چند می تواند هر توزیعی باشد) nEvt = poissrnd(L); % تعداد واقعی رویدادها rEvt = []; % استخدام واقعی برای i = 1:numel(nEvt) اگر nEvt(i)>0 rEvt(i) = min(rand(nEvt(i),1)); %شبیه سازی استخدام واقعی else rEvt(i) = inf; انتهای انتهایی nS = 2000; %shuffles xsim = nan(N+1,nS); ذخیره xpostion ecdf xsim2 = nan(N+1,nS); ذخیره xpostion از ecdf برای s = 1:nS nEvtSim = poissrnd(nEvt); %تعداد رویدادهای شبیه‌سازی‌شده به‌عنوان ترسیم پواسون nEvtSim2 = (nEvt); %تعداد رویدادهای شبیه سازی شده مشابه تعداد رویدادهای واقعی rEvtSim = nan(numel(nEvtSim),1); rEvtSim2 = nan(numel(nEvtSim),1); برای i = 1:numel(nEvtSim) اگر nEvtSim(i)>0 rEvtSim(i) = min(rand(nEvtSim(i),1)); else rEvtSim(i) = inf; %هرگز پایان رویداد نداشت اگر nEvtSim2(i)>0 rEvtSim2(i) = min(rand(nEvtSim2(i),1)); else rEvtSim2(i) = inf; %هرگز پایان رویداد نداشت [f,xsim(:,s)]= ecdf(rEvtSim); % کار کردن ecdf [f,xsim2(:,s)]= ecdf(rEvtSim2); % کار کردن ecdf end xsim = sort(xsim,2); h1 = پله ها(xsim(:,nS*[0.025 0.975])،[f f]،'color',[0.9 0.9 0.9]); %95% بازه اطمینان نگه روی xsim2 = sort(xsim2,2); h2 = پله ها(xsim2(:,nS*[0.025 0.975])،[f f]،'color',[1 0.9 0.9]); %95% فاصله اطمینان [f,x]= ecdf(rEvt); h3 = پله ها (x,f,'color','k'); %real data recruitment hold off legend([h3 h1(1) h2(2)],{'data واقعی','poiss(N) events','N event'})
تخمین فرآیند سم سانسور شده
96694
بنابراین من روی کدهای یادگیری ماشین کار می‌کنم تا ارقام 0-9 را با استفاده از تجزیه مقادیر منفرد شناسایی کنم و به‌دنبال آن مقایسه حداقل مربعات با 15 بردار اول منفرد یا بیشتر به عنوان مبنای من باشد. تنها با این دقت، دقت بسیار خوبی است، اما من امیدوار هستم که با استفاده از مقایسه مستقیم 2 رقمی هنجار در برابر کل نمونه های آموزشی من، زمانی که تماس نزدیک بین دقیقه 1 و 2 در حداقل مربعات SVD من وجود دارد، آن را بهبود بخشم. الگوریتم بنابراین، برای مثال، اگر من یک رقم آزمایشی داشته باشم که بر اساس الگوریتم SVD من به عنوان $2 طبقه بندی شده است، اما در جایی که تماس بسیار نزدیک بود، خواه شاید 3$ باشد، آنگاه تقریب مرتبه اول x رقم آزمایشی را محاسبه می کنم. ,y-shifts,x,y,مورب-کشش و چرخش و مقایسه آن با همین تبدیلات که برای تمام ارقام تمرین من از قبل محاسبه شده است. چیزی که من سعی می کنم تصمیم بگیرم این است که آیا این واقعاً یک روش هوشمندانه برای استفاده از تحولات برای بهبود دقت من است یا خیر. مقدار مقایسه (تفریق برداری و به دنبال آن 2-هنجار) که باید هنگام انجام یکی از این تماس های نزدیک انجام شود، نزدیک به یک میلیون است (من 60000 رقم آموزشی دارم)، که به نظر بسیار گران است. علاوه بر این، برای من روشن نیست که این نوع الگوریتم مقایسه تبدیل، حتی زمانی که الگوریتم SVD من نتواند یک برنده واضح را انتخاب کند، یک شکست خوب است. علاوه بر این، از آنجایی که تمام چیزی که من استفاده می‌کنم تقریب مرتبه اول این تبدیل‌ها است، تبدیل‌های بزرگ باعث واگرایی قابل‌توجهی از منیفولد تبدیل غیرخطی می‌شوند، که باعث می‌شود به این فکر کنم که آیا فقط مقایسه مستقیم با ارقام آموزشی به تنهایی، اصلاً مزاحم مقایسه نیست. تحولات، تقریباً به همان اندازه نتایج خوبی به همراه خواهد داشت. آیا کسی نظری در مورد اینکه چگونه می‌توانم تغییر شکل‌ها را در کد تشخیص رقم خود بگنجانم، دارد؟ آیا به یک تقریب مرتبه دوم نیاز دارم؟ آیا برای کاهش هزینه های محاسباتی باید فقط با برخی از زیرمجموعه های تصادفی ارقام آموزشی خود مقایسه کنم؟ و غیره
کاربرد هوشمند تحولات در تشخیص رقم
96766
در الگوریتم یادگیری ماشینی که از آن استفاده می کنم، باید مقادیر نمایی چیزی را در یکی از مراحل به دست بیاورم. این مرحله ای است که من در حال حاضر با آن سر و کار دارم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/f65Na.png) من قبلاً همه 1+g_j(X_i) را دارم. غیره و غیره محاسبه شده، مشکلی در آن وجود ندارد. بیایید آن را «مقدار_محاسبه‌شده» بنامیم. این خوب است. مشکل این است که هنگام پیاده سازی این تابع در کد، بی نهایت و سرریز دریافت می کنم. راه حل این کار چیست؟ نسخه لگاریتمی همان تابع که می توانم به جای تابع بالا استفاده کنم، چه خواهد بود؟ در صورت اهمیت، β به عنوان ضریب برای برخی از متغیرها، از جمله تا حدی برای محاسبه وزن برای راه حل رگرسیون وزنی استفاده می شود.
برخورد با نمایی در پایتون - بی نهایت ها و سرریزها
96699
من در اطراف جستجو کردم و بحث های سطح بالایی را در مورد مدل های پنل mlogit و گسسته انتخاب کردم (اینجا و اینجا) اما من به پاسخ دقیق تر از آن ها نیاز دارم. امیدوارم کسی بتواند به اشتباه من با mlogit اشاره کند و من را در مسیر درست راهنمایی کند. من یک مجموعه داده دارم که در آن از شرکت کنندگان می خواهم به 8 مجموعه انتخابی (CS) به ترتیب تصادفی پاسخ دهند. ResID شناسه شرکت کننده و CS شماره مجموعه انتخابی است. هر مجموعه انتخابی از سه محصول تشکیل شده است که در سه ویژگی (قیمت، منبع و متن) در دو سطح (بالا پایین) شناسایی شده اند. متغیرهای Compatibility و PriceBtw متغیرهای سطح فردی هستند. من سعی می‌کنم یک مدل لاجیت چندجمله‌ای ترکیبی را با ویژگی‌های سطح محصول و فردی به این داده‌ها برازش دهم. من داده ها را در قالبی دریافت کردم که توسط mlogit توسط OSSdata_V0<-mlogit.data(data1, shape=long, Choice=Choice, alt.levels=c(1,2,3), id=Strata پشتیبانی می شود. , varying=4:6) سپس سعی کردم قسمت جلوه های ثابت مدل را بر اساس: ml.OSS<-mlogit(Choice~Price+Source+Ext, data=OSSdata_V0) خطا در if (abs(x - oldx) < ftol) { : مقداری که TRUE/FALSE مورد نیاز بود وجود ندارد. هیچ جا گم شدنی نمی بینم من تونستم مدل جلوه های ثابت رو در clogit و mclogit هم اجرا کنم، مشکل فقط تو mlogit پیش میاد. وقتی سعی می‌کنم قسمت جلوه‌های تصادفی را ادغام کنم، یک پیام خطای متفاوت دریافت می‌کنم. ml.OSS<-mlogit(Choice~Price+Source+Ext | PriceBtw، data=OSSdata_V0) خطا در solve.default(H, g[!fixed]) : dgesv روتین Lapack: سیستم دقیقاً تک است: U[10,10 ] = 0 ساختار داده های من به صورت زیر است و در یک data.frame به نام data1 است: Strata ResID CS Price منبع Ext Product Choice Compatibility PriceBtw time 1 1|1 1 1 1 0 1 A 1 1 $150 212 2 1|1 1 1 1 1 1 B 0 1 $ 150 212 3 1|1 1 1 0 1 0 C 0 1 1 1 1 1 1 B 0 1 $ 150 212 3 1|1 1 1 0 1 0 C 0 1 1 150 $ 1|2 1 2 1 1 1 1 B 0 1 $150 212 5 1|2 1 2 0 1 0 C 0 1 $150 212 6 1|2 1 2 1 0 0 D 1 1 $150 212 7 1|3 1 3 1 1 0 E 1 1 3 181 $ 1 3 0 1 1 F 0 1 $ 150 212 9 1|3 1 3 0 0 1 G 0 1 $ 150 212 10 1|4 1 4 1 1 1 B 0 1 $ 150 212 11 1|4 1 4 1 0 0 D 1 1 12 150 $ 4 0 0 1 G 0 1 $ 150 212 13 1|5 1 5 0 0 0 H 0 1 $150 212 14 1|5 1 5 0 1 0 C 1 1 $150 212 15 1|5 1 5 1 0 1 A 0 1 212 15 1 6 0 0 0 H 1 1 150 $ 212 17 1|6 1 6 1 0 1 A 0 1 $ 150 212 18 1|6 1 6 1 1 0 E 0 1 $ 150 212 19 1|7 1 7 0 1 1 $ 150 212 1 1 F 01 |7 1 7 0 0 1 G 1 1 150 $ 212 21 1|7 1 7 1 0 0 D 0 1 $ 150 212 22 1|8 1 8 0 0 0 H 0 1 $ 150 212 23 1|8 1 8 0 1 1 1 $ 1 8 0 0 0 H 0 1 $ 150 212 23 1|8 1 8 0 1 1 $ 1 1|8 1 8 1 1 0 E 0 1 $ 150 212 25 2|1 2 1 1 0 1 A 1 2 $ 150 865 26 2|1 2 1 1 1 1 B 0 2 $ 150 865 27 2|1 2 1 0 0 1 2 $ 1 28 2|2 2 2 1 1 1 B 1 2 $ 150 865 29 2|2 2 2 0 1 0 C 0 2 $150 865 30 2|2 2 2 1 0 0 D 0 2 $150 865
تجزیه و تحلیل داده های پانل انتخاب گسسته با mlogit در R
13765
من یک سری کاربر دارم. هر کاربر دارای تعدادی ویژگی شخصیتی است، مانند سطح تناسب اندام یا آگاهی به محیط زیست، که در مقیاس 1 تا 5 رتبه بندی شده است. من می خواهم محاسبه کنم که دو کاربر چقدر شبیه هم هستند، بنابراین می توانم به هر کاربر یک لیست مرتب شده نشان دهم. از مشابه ترین کاربران. به نظر می رسد این یک مشکل IR کلاسیک است، و من دیده ام از سه معیار مختلف استفاده شده است، اما بحثی در مورد چرایی انتخاب یکی از دیگری وجود ندارد: * **حساب ساده.** نمرات قبلاً به همان مقیاس نرمال شده اند، بنابراین من فقط می‌توانم امتیازهای هر کاربر را اضافه کنم و مجموع‌ها را مقایسه کنم تا ببینم چه کسی شبیه‌تر است. * ** تشابه کسینوس.** هر کاربر را به عنوان یک بردار n بعدی در نظر بگیرید، که در آن هر مقیاس یک بعد است. کسینوس زاویه بین بردارهای دو کاربر را محاسبه کنید. کسینوس های نزدیک به 1 (زوایای کوچکتر) شبیه ترند. * **فاصله اقلیدسی.** هر کاربر دوباره یک بردار n بعدی است، اما این بار، فاصله بین نقاط پایانی را محاسبه کنید. کاربرانی که نزدیک به هم هستند مشابه هستند. مزایا و معایب هر روش چیست؟ اگر نمرات به همان مقیاس نرمال نشوند (یعنی اگر یک ویژگی سن را اضافه کنم) چگونه تغییر می کند؟
انتخاب معیار شباهت برای تعیین کمیت شباهت بین افراد در مجموعه ای از مقیاس های شخصیت
96349
روز بخیر، من در حال حاضر در حال تلاش برای سوال زیر در تست فرضیه برای 2 نمونه مرتبط هستم. پاسخ نهایی من **t=2.5584** بود، در حالی که ناحیه رد آن **2.2060** است. با این حال، هنگامی که من از کلید پاسخ استفاده کردم، به نظر می رسد اشتباه می کنم، پاسخ ارائه شده | t| بود = 4.536; رد H0 اگر |t| > 2.3060. قدردان برخی از توصیه ها در مورد جایی که ممکن است اشتباه کنم. **_Question_** > نه کارشناس در یک آزمایش طعم و مزه به دو مارک قهوه کلمبیایی امتیاز دادند. یک درجه بندی در مقیاس 7 درجه ای (1 = بسیار ناخوشایند، 7 = > بسیار خوشایند) برای هر یک از چهار ویژگی داده می شود: طعم، عطر، > غنا و اسیدیته. داده‌های زیر کل رتبه‌بندی‌ها را نشان می‌دهند - > جمع‌آوری شده در هر چهار ویژگی. > > ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/OBFpF.jpg) > > آزمونی در سطح معناداری 0.05 انجام می شود تا آزمایش شود که آیا تفاوتی در میانگین کل وجود دارد یا خیر. رتبه بندی بین دو برند فرض کنید > جمعیت هر دو برند به طور معمول توزیع شده است. آزمون > آمار این آزمون و ناحیه رد این آزمون را پیدا کنید. **_My Attempt_** > ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3ZEl3.jpg)
کمک به مطالعه خود با سؤال در آزمون فرضیه برای 2 نمونه مرتبط
91206
من دو تست ساده برای بررسی الگوریتم خود طراحی کرده ام. برای مجموعه ای از 40 عکس، 20 نفر قضاوت خواهند کرد که آیا: تست 1: شی A یا B در تصویر دیده می شود (من پاسخ صحیح را می دانم) تست 2: شی A، B یا C در تصویر دیده می شود (من می دانم که پاسخ صحیح) سپس تصاویر را با الگوریتم خود تغییر می‌دهم و آزمون را با همان گروه از افراد تکرار می‌کنم. برای بررسی اینکه آیا بهبودی وجود دارد، می خواهم تعداد پاسخ های صحیح (از آزمون 1 + 2) را قبل و بعد از استفاده از الگوریتم مقایسه کنم. آیا می توانم هر دو نتایج آزمایش را با هم ترکیب کنم و از آزمون مک نمار برای بررسی اینکه آیا بهبود قابل توجهی وجود دارد (این بهبود فقط تصادفی نیست) استفاده کنم؟ من مطمئن نیستم که آیا این راه درست است. با تشکر فراوان.
بررسی اینکه آیا بهبود قابل توجه است یا خیر. طراحی تست
82879
چگونه بازده و ریسک مرتبط با R را با استفاده از مدل های شاخص پیش بینی می کنید؟ چگونه ریسک را در مدل های چند شاخصه به عنوان یک مقدار در R نشان می دهید؟
پیش بینی بازده دارایی با استفاده از مدل های شاخص در R
96342
من در حال تلاش برای یک سوال خود مطالعه در مورد فاصله اطمینان هستم. جواب من 20.4 دلار و 1.411 دلار بود. با این حال، به نظر می رسد که پاسخ مدل 20.4 دلار / 1.486 دلار است. من کاملاً مطمئن هستم که درست می گویم. ممنون میشم اگه کسی بتونه راهنمایی و تایید کنه لطفا؟ **_Question_** > صاحب یک مزرعه تخم مرغ بزرگ می خواهد میانگین تعداد تخم های گذاشته شده > در هر مرغ را تخمین بزند. نمونه ای از 25 جوجه نشان می دهد که آنها به طور متوسط ​​20.4 تخم در هر ماه با انحراف معیار 3.6 تخم در ماه می گذاشتند. فرض کنید تعداد > تخم های گذاشته شده به ازای هر مرغ در ماه دارای توزیع نرمال است. یک تخمین بازه اطمینان > 95% برای میانگین تعداد تخمهای گذاشته شده جمعیت > هر مرغ در ماه ایجاد کنید. **_Attempt_** ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ESJ5x.jpg)
سوال خود مطالعه در مورد فاصله اعتماد
11405
کسی میدونه با استفاده از مدل توبیت با بسته های AER از کجا میشه کاربرد و مثال های خوب (به جز کتاب راهنما و کتاب اقتصاد سنجی کاربردی با R) پیدا کرد؟ ### ویرایش من به دنبال دستوری برای محاسبه اثرات حاشیه ای برای y هستم (نه برای متغیر پنهان y*). به نظر می رسد $\phi(x\beta/\sigma)\beta$ باشد، که در آن $\phi$ تابع توزیع تجمعی std.normal است. اما چگونه می توانم آن اثرات را با R محاسبه کنم؟
مدل توبیت با R
81474
من داده های زیر را دارم: کیسه های بذر را در مجاورت 10 گیاه مادری در سه جهت و چهار فاصله (10، 31، 56 یا 100 سانتی متر) کاشتم. موفقیت جوانه زنی (0/1) با استخراج یک کیسه بذر در هر میکروسایت برای سه سال آینده ارزیابی شد. من به تأثیر فاصله بر موفقیت جوانه زنی و تفاوت های احتمالی در جوانه زنی بین سال ها علاقه مند هستم. داده ها دارای مقادیر زیادی 0 هستند. من در ابتدا از نحو زیر استفاده کردم: glmer(جوانه ~ فاصله+(1|گیاه/جهت/سال)،خانواده=دوجمله ای،داده=دانه) اما به من گفته شد که فاصله، سال و جهت می توانند برهم کنش داشته باشند و همیشه آنطور که مشخص شده نیست. توسط این نوع لانه سازی آیا این مورد صحیح خواهد بود؟ glmer(جوانه ~ فاصله+(1|گیاه/جهت)+(1|سال)،خانواده=دوجمله ای،داده=پروت) یا آزمایش برهمکنش بین اثرات ثابت و تصادفی مفید خواهد بود؟ از نظر بیولوژیکی، من از آنها انتظار ندارم. من می ترسم مدل را پیچیده تر از حد لازم کنم.
آیا مدل خود را با فاکتورهای تصادفی تودرتو و متقابل در glmer به درستی مشخص کردم؟
82876
فرض کنید من داده هایی مانند این دارم - Val Bin -1 Y 5 N -2 N 4 Y به همین ترتیب - که در آن Bin یک مقدار باینری است. من می‌خواهم یک فاصله اطمینان 95% برای تفاوت میانگین بین مقادیری که Y مرتبط با آنها هستند و مقادیری که N مرتبط با آنها دارند، ایجاد کنم. توجه - من مقادیر بیشتری با Y نسبت به N دارم (به همین دلیل است که در مورد استفاده از T-stat معمولی واضح نیستم). من نمی دانم که آیا باید از t-stat ترکیبی یا t-stat معمولی استفاده کنم. از چه چیزی باید استفاده کنم؟
تفاوت بین t-stat تلفیقی و t-stat معمولی
82877
من با شبکه های عصبی بسیار تازه کار هستم و برخی از آموزش های آنلاین و یوتیوب را مشاهده کرده ام. من می خواهم یک خروجی XOR را برای دو ورودی مدل کنم که یکی از آنها نویز است. به عبارت دیگر، خروجی من باید XOR نویز و داده باشد. من چند سوال دارم: i) از آنجایی که این یک مدل ساده و شناخته شده است، باید از یک پیکربندی شبکه عصبی استاندارد استفاده شود. ویکی‌پدیا نمودار یک شبکه فید فوروارد 2-3-1 را نشان می‌دهد (2 ورودی، 3 گره پنهان در لایه پنهان، یک خروجی): http://en.wikipedia.org/wiki/Feedforward_neural_network. آیا تنظیمات دیگری وجود دارد و کدام بهتر است؟ ii) آیا نویز معمولاً به عنوان یکی از ورودی ها مدل سازی می شود؟ iii) داده ها در واقع مجموعه ای از N مشاهدات هستند، x1 ... xn، x یا 0 یا 1 است. ورودی sum(xi) است. آیا xi باید به عنوان یک ورودی یا به صورت جداگانه گروه بندی و مدل شود. به عبارت دیگر، باید به عنوان یک مشکل 2 ورودی یا یک مشکل ورودی N +1 (نویز) در نظر گرفته شود. تابع فعال سازی لجستیک است (b0 + b1x1 + b2x2 ...). هر کمکی برای شروع به من قدردانی خواهد شد. من قصد دارم این را با استفاده از کتابخانه R nnet مدل کنم.
مدلسازی نویز در یک شبکه عصبی پیشخور
69921
توضیح سریع: من یک مجموعه داده از 5 متغیر عددی و یک متغیر هدف عددی دارم. کل مشاهدات / ردیف ها حدود 70000 است، اما من فقط حدود 90 اندازه گیری از متغیر هدف دارم. تجزیه و تحلیل خوشه ای از 70000 خوشه از 5 به 8 خوشه برمی گردد. در واقعیت، من انتظار دارم که تعداد زیادی گروه یا کلاس نیز وجود داشته باشد، و متغیر هدف به طور طبیعی در درون آنها گروه بندی شود. می‌خواهم مقادیر متغیر هدف را برای مشاهداتی که در آن وجود ندارد، پیش‌بینی کنم، و مقداری داشته باشم که هیچ مقدار گمشده‌ای در 5 متغیر برای مجموعه داده 70000 وجود ندارد. اگر مقادیر از دست رفته را اجازه می دادم، تعداد کمی بزرگتر از مشاهدات (100000) با تعداد متغیرهای بیشتری (نزدیک به 30) وجود خواهد داشت. تعداد اندازه‌گیری‌های متغیر هدف نیز افزایش می‌یابد، به 114. من سعی کرده‌ام از نقشه‌های خودسازماندهی برای مدل‌سازی و سپس پیش‌بینی مقادیر استفاده کنم، به این امید که از سادگی آن استفاده کنم، به‌علاوه از طریق یک نقشه اختصاصی با آنها آشنا شدم. بسته نرم افزاری! آیا پیش بینی مقادیر متغیر هدف از این مجموعه داده امکان پذیر است؟
آیا می توان یک متغیر عددی را تنها با 100 اندازه گیری در 70000 مشاهده پیش بینی کرد؟
97569
بسته caret توانایی ارائه اظهارات آماری در مورد عملکرد مدل های مختلف مورد استفاده برای طبقه بندی را ارائه می دهد. طبق توضیحات، از فواصل اطمینان همزمان مجانبی برای مقایسه چند به یک نسبت ها استفاده می کند. من مقالات هورتون و همکاران (2005) و اگستر و همکاران را خوانده ام. 2008 اما هنوز نمی توانم خلاصه کنم که نتایج به چه معناست و چگونه به آن رسیده است. من سعی می‌کنم این نمودار را تفسیر کنم (برگرفته از صفحه «caret». نمودار، به ویژه مقیاس محور x (-0.4 تا 0.6) از هر نظری استقبال می شود
تفاوت بین مدل ها از طریق توزیع نمونه گیری مجدد آنها
82872
فرض کنید سیستم ما با $y=Ax+n$ داده می شود که در آن $y$ بردار مشاهده می شود، $x$ بردار سیگنال، $n$ بردار نویز سفید و $A$ ماتریسی از i.i.d صفر میانگین متغیرهای تصادفی است. معمولاً در برآورد خطای حداقل میانگین مربعات خطی $A$ شناخته شده فرض می شود. من می‌خواهم تخمین بزنم که $A$ ناشناخته است به جز اینکه $A$ مستقل از $x$ است و تمام عناصر $A$ دارای میانگین صفر هستند. سپس LMMSE توسط $$\hat x=Cov[yx]Cov^{-1}[yy]\cdot y$$ داده می‌شود بنابراین باید $Cov[yx]=E[y^Tx]$ را محاسبه کنیم (با فرض صفر میانگین سر و صدا). سوال من این است $E[yx]=E[x^TxA^T]=E[x^Tx]E[A^T]=0$. پس چگونه می توانم ادامه دهم؟ متشکرم.
تخمین MMSE با ماتریس سیستم تصادفی
94212
از ادغام MC برای تخمین احتمال X * exp(X) < 2.5 استفاده کنید، با فرض اینکه X ~ Gamma(1.2,3.7) mcprobdata داده است. /* تولید نمونه */ call streaminit(23891); تعداد = 0; انجام i=1 تا 2000; p = rand ('یکنواخت'); x = quantile('Gamma', p, 1.2, 3.7); count = count + (x*exp(x) < 2.5); پایان؛ /* محاسبه برآورد */ t = count/2000; se = sqrt(t*(1-t)/2000); اجرا؛ آیا متغیر t من به درستی این احتمال بازه را محاسبه می کند؟
احتمال فاصله ادغام مونت کارلو
97564
من دو مجموعه از نمونه های مستقل از یک توزیع دارم. برای هر کدام، من 1. میانگین وزنی نمونه (u1, u2) 2. انحراف std وزنی نمونه (d1, d2) 3. خطای std وزنی نمونه (e1, e2) را محاسبه کرده ام. سوال زیر راهی برای محاسبه آمار تلفیقی در مورد بدون وزن چگونه می توان واریانس ادغام شده دو گروه را با توجه به واریانس های گروه شناخته شده، میانگین ها و اندازه نمونه محاسبه کرد؟ بنابراین، چگونه می توانم این را برای حالت وزنی محاسبه کنم؟ ویرایش 1: برای روشن شدن، هر نمونه دارای یک وزن مرتبط با آن است که نشان دهنده یک اعتماد مرتبط با آن است. وزن یک نمونه کسری از کل پول سرمایه گذاری شده در یک بازه معین است. دو گروه نمونه از دو بازه زمانی متفاوت هستند. کل پول سرمایه گذاری شده در دو بازه یکسان نیست
نحوه محاسبه آمار تلفیقی/ترکیبی وزن دار برای دو گروه داده شده با آمارهای گروهی
94189
من یک وظیفه داده کاوی دارم که در آن یک سیستم بازیابی تصویر مبتنی بر محتوا ایجاد می کنم. من 20 تصویر از 5 حیوان دارم. بنابراین در کل 100 تصویر. سیستم من 10 تصویر مرتبط را به یک تصویر ورودی برمی گرداند. اکنون باید عملکرد سیستم خود را با یک منحنی Recall دقیق ارزیابی کنم. با این حال، من مفهوم منحنی دقیق-یادآوری را درک نمی کنم. فرض کنید سیستم من 10 تصویر را برای یک تصویر گوریل برمی گرداند، اما تنها 4 تای آنها گوریل هستند. 6 تصویر دیگر بازگردانده شده حیوانات دیگر هستند. اکنون دقت من 4/10 = 0.4 است (موارد مربوطه برگردانده شده است)/ (همه بازگردانده شده اند) و فراخوانی من 4/20 = 0.2 است (موارد مربوطه برگردانده شده اند) / (همه موارد مرتبط) بنابراین من فقط یک امتیاز <0.2 دارم، 0.4>` منحنی نیست. چگونه یک منحنی، یعنی مجموعه ای از نقاط داشته باشم؟ با تغییر تعداد تصاویر برگشتی (که در مورد من ثابت است = 10)؟ هر گونه کمکی قدردانی خواهد شد، با تشکر!
منحنی فراخوان دقیق چیست؟
96346
من در یک استادیوم ورزشی کار می‌کنم و می‌خواهم یک مدل پیش‌بینی بر روی همه افرادی که قبلاً بلیط رویدادها را خریداری کرده‌اند، اجرا کنم تا احتمال بازگشت آنها به رویداد بعدی یا در واقع هر رویدادی در آینده را پیش‌بینی کنم. ما صدها و هزاران مشتری و تقریباً 40 رویداد تاریخی داریم که در آنها می‌توانیم به عنوان داده‌های باینری در مورد حضور یا عدم حضور آنها در هر رویداد استفاده کنیم. آیا کسی روشی را می شناسد که بتوانم برای اجرای چنین مدل پیشگویی استفاده کنم؟ من واقعاً مطمئن نیستم که از کجا شروع کنم، اگرچه معتقدم که می توان این کار را انجام داد. پیشاپیش خیلی ممنون
پیش بینی احتمال حضور در رویداد بعدی
11402
متن ناپارامتریک من، آمار ناپارامتریک عملی، اغلب فرمول‌های تمیزی برای انتظارات، واریانس‌ها، آمار آزمون و موارد مشابه ارائه می‌کند، اما شامل این هشدار می‌شود که این فقط در صورتی کار می‌کند که از پیوندها چشم‌پوشی کنیم. هنگام محاسبه آمار U Mann-Whitney، توصیه می شود هنگام مقایسه جفت های گره خورده، جفت های گره خورده را بیرون بیندازید. دریافتم که پیوندها واقعاً به ما نمی‌گویند که کدام جمعیت بزرگ‌تر است (اگر به آن علاقه داریم) زیرا هیچ یک از گروه‌ها بزرگ‌تر از دیگری نیستند، اما به نظر می‌رسد که در توسعه توزیع‌های مجانبی اهمیتی ندارد. پس چرا پرداختن به پیوندها در برخی از رویه‌های ناپارامتری چنین معضل است؟ آیا راهی برای استخراج اطلاعات مفید از کراوات ها به جای دور انداختن آنها وجود دارد؟ ویرایش: در رابطه با نظر whuber@، من دوباره منابع خود را بررسی کردم و برخی از رویه‌ها به جای حذف کامل مقادیر مرتبط، از میانگین رتبه‌ها استفاده می‌کنند. در حالی که این در ارتباط با حفظ اطلاعات معقول تر به نظر می رسد، به نظر من نیز فاقد دقت است. با این حال، روح این سوال همچنان پابرجاست.
چرا پیوندها در آمارهای ناپارامتریک بسیار دشوار است؟
89808
من سعی می کنم فروش روزانه را برای یک رستوران بیرون بیاورم. آنها فقط در روزهای کاری باز هستند - بدون تعطیلات یا آخر هفته - زیرا مشتریان اصلی آنها کارکنان اداری در زمان استراحت ناهار هستند. در زیر دو سال سری زمانی فروش روزانه به نظر می رسد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/UhHDR.png) روزهایی که فروش صفر است، همانطور که در بالا می بینید، روزهایی هستند که رستوران به دلیل تعطیلات رسمی تعطیل شده است ( دوشنبه عید پاک و غیره). قطعاً یک الگوی هفتگی وجود دارد: فروش در پنجشنبه ها به اوج خود می رسد. علاوه بر این، وجود تعطیلات، الگوی فروش را در هفته‌های اطراف (هفته قبل و هفته بعد) تغییر می‌دهد. ممکن است متوجه شوید که فروش قبل یا بعد از تعطیلات خاص افزایش می یابد. مثالی از این: اگر دوشنبه تعطیل است، فروش در جمعه قبل از آن آخر هفته طولانی بسیار کمتر می شود - احتمالاً کارکنان اداری زودتر کار را ترک می کنند. الگوهای فصلی سالانه نیز وجود دارد. به عنوان مثال، احتمالاً تا حدودی، فروش در تابستان کمتر است، زیرا بسیاری از کارکنان اداری در حال رفتن به تعطیلات هستند. رویکرد من استفاده از مدل ARIMAX برای برازش داده ها (با استفاده از R) بوده است. من از روش پیشنهادی راب هیندمن در اینجا پیروی کردم. تفاوت این است که من فقط از دوشنبه تا جمعه استفاده می کنم، بنابراین فرکانس من 5 است، و برای تمام روزهایی که رستوران تعطیل است (تعطیلات) متغیرهای ساختگی اضافه کرده ام. تناسب مدل تا الان زیاد خوب نیست البته. من کاری نکردم که تاثیر تعطیلات بر روزهای اطراف را در نظر بگیرم. علاوه بر این، من تعطیلات را به عنوان روزهایی با فروش برابر با صفر در نظر می‌گیرم، بنابراین این باید مدل را حذف کند. این چیزی است که R برمی‌گرداند: ARIMA(0،1،1)(1،0،1)[5] ضرایب: ma1 sar1 sma1 دوشنبه سه‌شنبه چهارشنبه پنج‌شنبه روز سال نو خانواده‌روز جمعه جمعه عید پاک ویکتوریاروز کاناداروز CivicDay -0.804 -0.2608 0.3235380 5015. 152.0052 -6.3025 0.0388 -1545.1973 -1604.5038 -1581.6740 -1586.8710 -1628.253 -1437.6075 -1181.0054 s.e. 0.028 0.4641 0.4529 23.2788 23.3748 23.4900 23.4367 1.5546 117.6128 113.6446 113.8825 114.511126.114.5609 114.0031 روز کارگر -1310.3416 -1332.8028 s.e. 113.5081 113.5179 sigma^2 تخمین زده شده به عنوان 28269: log likelihood=-3305.08 AIC=6646.16 AICc=6647.56 BIC=6722.2 فکر می کنم باید ماه سال را نیز به عنوان یک متغیر فصلی ساختگی در نظر بگیرم. سؤالات من: 1. برای ثبت «اثرات طولانی آخر هفته» چه کاری می توانم انجام دهم؟ آیا باید یک متغیر ساختگی برای هر جمعه که یک آخر هفته طولانی و غیره ادامه دارد اضافه کنم؟ 2. چگونه باید با تعطیلاتی که رستوران برای آن تعطیل شده بود برخورد کنم؟ اگر آنها را حذف کنم، طول هفته یکسان نخواهد بود. اگر آنها را در نظر بگیرم، آنگاه آنها چیزهای پرت هستند که همه چیز را دور می اندازند. 3. برای بهبود مدلم چه کار دیگری می توانم انجام دهم؟ با تشکر بسیار برای هر ورودی.
ARIMAX برای مدل سازی فروش روزانه
60384
من یک نمونه $\boldsymbol{x}_i$ برای $i$ در $1،\dots، n$، از یک $d$ تراکم ابعادی $f(\boldsymbol{x})$ دارم و می‌خواهم این ناشناخته را تخمین بزنم. تراکم علاوه بر این، من می دانم که $f(\boldsymbol{x})$ یک وجهی است، اما می تواند کج یا دم چاق باشد. با توجه به اینکه $d$ حدود 20 است، من فکر می‌کنم استفاده از یک تخمین‌گر چگالی هسته استاندارد (KDE) یک گزینه نیست (من می‌توانم از اندازه نمونه $n$ در حدود $10^4$ استفاده کنم). علاوه بر این، با توجه به اینکه می‌دانم $f(\boldsymbol{x})$ یک‌وجهی است، فکر نمی‌کنم که همه انعطاف‌پذیری KDEها در مورد من مورد نیاز باشد. از این رو من به دنبال یک تخمین‌گر چگالی پارامتریک بودم که بتوان آن را با سرعت معقولی نصب کرد. من کمی در مورد توزیع‌های معمولی چند متغیره یا student-t خوانده‌ام، اما می‌خواهم بدانم آیا گزینه‌های دیگری هم وجود دارد (ممکن است KDEهای محدود یا تخمین‌گرهای چگالی نیمه پارامتریک؟). با تشکر
برآوردگر چگالی چند متغیره سریع
72619
من می خواهم تفاوت میانگین بین 4 گروه (0،1،2،3) را برای 6 نوع سلول مختلف آزمایش کنم. به عبارت دیگر، من باید 6 مقایسه برای هر نوع سلول انجام دهم (0-1,0-2,0-3,1-2,1-3,2-3). من قبلاً یک ANOVA با اندازه‌های مکرر اجرا کرده‌ام، اما فقط اثرات و تعاملات اصلی را به من می‌دهد. برای تصحیح آزمون‌های t برای مقایسه‌های چندگانه، از Bonferroni استفاده می‌کنم، آیا SPSS به من اجازه می‌دهد این کار را انجام دهم، به نظر نمی‌رسد جز به عنوان بخشی از آزمون میانگین با استفاده از ANOVA آن را پیدا کنم؟ یا باید به صورت دستی این کار را انجام دهم و چگونه این کار را انجام دهم؟ سطح آلفا در اینجا 0.05 است. با تشکر
SPSS-مستقل-نمونه-t-test
49000
یک فایل حاوی داده‌های مربوط به سال‌های 1975-2012 قیمت مسکن در پانل از کشورها است. با این حال، این شاخص تا سال 2005 است، بنابراین سری قیمت مسکن هر کشور به 100 در سال 2005 همگرا می شود، سپس دوباره تا سال 2012 از هم جدا می شود. بدون داده‌های اصلی، آیا می‌توان داده‌های سال 1975 را به شیوه‌ای آماری درست دوباره فهرست کرد، و چگونه کسی می‌تواند این کار را در R یا Excel انجام دهد؟
سوال در مورد نمایه سازی مجدد داده ها برای نمودار
49002
من 2 متغیر پیوسته را به عنوان پیش بینی کننده های خود و تعامل بین آنها دارم، بنابراین 3 اثر همه با هم (وقتی پیش بینی کننده های خود را در مرکز قرار می دهم، فقط تعامل مهم است). من از یک مدل لاجیت باینری استفاده می‌کنم به جز جایی که مقدار تعداد آزمایش‌ها را 20 برای متغیر وابسته خود ثابت کرده‌ام. مشکل من به درک بیشتر ماهیت تعامل مربوط می شود. می‌دانم که در مدل‌های خطی تعمیم‌یافته، به دلیل تابع پیوند، تعامل در مقایسه با مدل خطی پیچیده‌تر است. من خوانده‌ام که تفسیر علامت تخمین پارامترها بسیار محدود است، بنابراین سعی می‌کنم راهی برای درک بیشتر تعامل پیدا کنم و ترسیم نمودار آن نیز خوب است. متاسفانه من فقط SPSS در اختیار دارم. جف گیل (http://www.artsci.wustl.edu/~jgill/papers/interactions3.pdf) در مورد روشی به نام تفاوت های اول نوشت که به نظر بسیار شبیه به دستور inteff در stata است. اگر کسی می تواند به من بگوید چگونه می توان تعامل را در یک مدل خطی تعمیم یافته با استفاده از spss یا محاسبات دستی بیشتر درک و آزمایش کرد، برای همیشه سپاسگزار خواهم بود.
تعامل در مدل خطی تعمیم یافته
90690
وقتی می‌خواهم نمرات قبل و بعد از آزمون ANOVA اندازه‌گیری‌های مکرر را انجام دهم، کدام متغیرها باید برای نرمال بودن آزمایش شوند؟ نمرات قبل و بعد هر کدام یا تفاوت بین آنها؟ من فکر می کنم تفاوت مانند آزمون t. درسته؟
فرض نرمال بودن ANOVA برای کدام متغیرها؟
80786
در صورتی که بخواهم اثر دو یا چند سری زمانی درون زا را روی یکدیگر ببینم، از مدل VAR استفاده می کنم. اما اگر یک مجموعه داده ماهانه و دیگری روزانه باشد، چگونه باید اقدام کنم؟
مدل VAR با سری های زمانی فرکانس های مختلف
60385
اجازه دهید $X_n، n \in \mathbb N$ دنباله ای از متغیرهای تصادفی با واریانس های محدود باشد. به عنوان $n \to \infty$، دو معادل زیر هستند: * $X_n \to N(0, \sigma^2)$ برای برخی $\sigma^2 \در [0, \infty)$, * $\ frac{X_n}{\sqrt{Var(X_n)}} \به N(0,1)$؟ **انگیزه سوال من:** عادی بودن مجانبی MLE معمولاً با واریانس مجانبی آن که معکوس اطلاعات فیشر است تحت برخی شرایط منظم ارائه می شود: $$ \sqrt{n}\big(\hat\theta_\mathrm{mle} - \theta_0\big)\ \xrightarrow{d}\ \mathcal{N}(0,\,I^{-1}(\theta_0)). $$ همه آمار توسط Wasserman، به هر حال بیان می‌کند![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/vmuAA.png) می‌دانستم که آیا این دو نتیجه (یا فقط قسمت‌های نتیجه‌گیری) در مورد نرمال بودن مجانبی هستند از MLE معادل هستند؟ با تشکر و احترام!
نرمال بودن مجانبی و عادی سازی واریانس wrt
946
جدید به سایت. من به تازگی با R شروع به کار کرده ام و می خواهم یک ویژگی را که در SPSS موجود است تکرار کنم. به سادگی، من یک «جدول سفارشی» در SPSS با یک متغیر طبقه‌بندی واحد در ستون و بسیاری از متغیرهای پیوسته/مقیاس در ردیف‌ها می‌سازم (بدون تعامل، فقط روی هم چیده شده‌اند). جدول میانگین و N معتبر را برای هر ستون گزارش می‌کند (آمار خلاصه در ردیف‌ها است)، و گزینه تولید آزمون‌های معنی‌داری برای میانگین ستون‌ها (هر ستون در مقابل ستون‌های دیگر) را با استفاده از آلفا 0.05 انتخاب کنید و واریانس‌های نابرابر را تنظیم کنید. سوال من اینجاست. چگونه می توانم این را در R تکرار کنم؟ بهترین گزینه من برای ساختن این جدول چیست و چه آزمایش هایی وجود دارد که من را به همان نقطه برساند؟ از آنجایی که دارم به R عادت می کنم، هنوز سعی می کنم در مورد آنچه در دسترس است حرکت کنم. پیشاپیش سپاس فراوان!
آزمون‌های معنی‌داری ستون در R
19236
من مطمئن نیستم که چگونه تجزیه و تحلیل آماری را در جدول زیر انجام دهم. من آزمایشی را انجام دادم که در آن 12 شرکت‌کننده در صورت ارائه 3 محرک، باید بین 3 شرایط را انتخاب می‌کردند. شرط محرک 1 شرط 2 شرط 3 A 9 1 2 B 10 2 0 C 8 2 2 من می خواهم ثابت کنم که تصادفی نیست که شرط 1 به جای دو شرط دیگر ترجیح داده شده است. چگونه می توانم این تحلیل را انجام دهم؟ شاید با تست مربع چی؟ اگر بله باید شرط 2 و 3 را در مقابل شرط 1 گروه بندی کنم؟ من از R استفاده می کنم، اگر می توانید یک مثال R برای تجزیه و تحلیل این داده ها ارائه دهید؟ پیشاپیش ممنون
میدان چی برای این مورد؟
37635
> **تکراری احتمالی:** > چه زمانی رگرسیون لجستیک به صورت بسته حل می شود؟ چرا هیچ راه حل تحلیلی برای رگرسیون لجستیک وجود ندارد؟ من سعی داشتم راه حلی شبیه معادلات عادی رگرسیون خطی بدست بیاورم و مطمئن نیستم که کجا اشتباه می کند. لطفا یک دلیل ریاضی ارائه دهید.
چرا هیچ راه حل تحلیلی برای رگرسیون لجستیک وجود ندارد؟
108727
من می خواهم پارامترهای یک تابع لجستیک را پیدا کنم. من راهنمای اینجا را خواندم. توضیح بسیار واضحی دارد، اما راه حل نهایی مورد نیاز من را نداشت. اکنون، یک تابع لجستیک پایه را در نظر خواهیم گرفت: $$h_\theta(x^{i})=\frac{1}{1+e^{-\theta_0-\theta_1x}}$$ می‌خواهیم $\ را پیدا کنیم theta_0$ و $\theta_1$ مشروط به تابع حداقل هزینه: $$J(\theta)=-\frac{1}{m}\sum_{i=1}^{m}y^{i}\log(h_\theta(x^{i}))+(1 -y^{i})\log(1-h_\theta(x^{i}))$$ از نماد استفاده می کنیم: $$\theta x^i:=\theta_0+\theta_1 x^i_1 $$ سپس $$\log h_\theta(x^i)=\log\frac{1}{1+e^{-\theta x^i} }=-\log ( 1+e^{-\theta x^i } ),$$ $$\log(1- h_\theta(x^i))=\log(1-\frac{1}{1+e^{-\theta x^i} })=\log (e^{-\theta x^i} )-\log ( 1+e^{-\theta x^i} )=-\theta x^i-\log ( 1+e^{-\theta x^ i})، $$ و $$J(\theta)=-\frac{1}{m}\sum_{i=1}^m \left[y_i\theta x^i-\theta x^i-\log(1+e^{-\theta x^i})\right]=-\frac{1}{m}\sum_{i=1}^m \left[y_i\theta x^ i-\log(1+e^{\theta x^i})\right]،~~(*)$$ که در آن برابری دوم از آن پیروی می کند: $$-\theta x^i-\log(1+e ^{-\ تتا x^i})= -\left[ \log e^{\theta x^i}+ \log(1+e^{-\theta x^i}) \right]=-\log(1+e^ {\theta x^i}). $$ تنها چیزی که اکنون نیاز دارم محاسبه مشتقات جزئی $(*)$ w.r.t است. $\theta_j$. به عنوان $$\frac{\partial}{\partial \theta_J}y_i\theta x^i=y_ix^i_j$$ $$\frac{\partial}{\partial \theta_j}\log(1+e^{\ تتا x^i})=\frac{x^i_je^{\theta x^i}}{1+e^{\theta x^i}}=x^i_jh_\theta(x^i), $$ مراحل بالا درست است، اما راه حلی برای $\theta_0$ و $\theta_1$ نداشت. می توانیم مشتق را بگیریم و آن را برابر $0$ قرار دهیم. یعنی $$\frac{\partial J(\theta)}{\partial \theta_0}=y-\frac{e^{\theta_0+\theta_1 x}}{1+e^{\theta_0+\theta_1 x}} =0~~(*)$$ $$\frac{\جزئی J(\theta)}{\جزئی \theta_1}=yx-\frac{xe^{\theta_0+\theta_1 x}}{1+e^{\theta_0+\theta_1 x}}=0 ~~(**) $$ * آیا $(*)$ و $(**)$ درست است؟ * فرض کنید $y$ و $x$ شناخته شده باشند. چگونه $\theta_0$ و $\theta_1$ را با $y$ و $x$ نشان می‌دهید؟
چگونه پارامترهای یک تابع لجستیک را حل کنیم؟
94188
من فعالیت مغز را در یک گروه 10 نفره اندازه گیری کرده ام که باید یک کار را در شرایط «واقعی» و «تخیلی» انجام می دادند. در شرایط واقعی من 2 سطح فرعی دارم (SS با موفقیت متوقف شد و US به طور ناموفق متوقف شد)، و این سطوح فرعی را در شرایط تصوری ندارم، هیچ پاسخ آشکاری برای طبقه بندی وجود ندارد. به عنوان اس اس یا ایالات متحده در تخیل. هدف اصلی من مقایسه فعالیت مغز (با استفاده از پتانسیل های مرتبط با رویداد) بین شرایط واقعی و تخیلی است، یک آزمون t ساده می تواند این کار را انجام دهد. اما اگر وظیفه SS یا US باشد، این فعالیت تعدیل می شود و در نظر گرفتن هر دو فقط به عنوان شرایط واقعی برخی از اثرات را کم می کند. آیا راهی برای مقایسه بین: «تصور-واقعی»، «تصور-اس اس»، «تصور-آمریکا» و «اس-اس» وجود دارد؟ من فکر می کنم که ANOVA یک طرفه با چهار سطح روش خوبی برای مقایسه این داده ها نیست ...
آمار برای شرایط با تعداد سطوح مختلف
80783
من 3 متغیر کمکی $(x_1,x_2,x_3)$ دارم، هر متغیر کمکی فقط 2 مقدار $\\{0,1\\}$ را می گیرد اما اندازه نمونه هر یک از متغیرهای کمکی نابرابر است. $n(x_1)=79،\;n(x_2)=80،\; n(x_3)=77$ $x_1$:(60 صفر و 19 یک) $x_2$: (56 صفر و 24 یک) $x_3$: (34 صفر و 43 یک) هدف من تخمین زدن است: $$p = \frac{1}{1+e^{-(b_0+b_1x_1+b_2x_2+b_3x_3)}}$$ و یک مدل رگرسیون لجستیک را با استفاده از این سه $x_i$ برازش دهید، چگونه می‌توانم این کار را انجام دهم؟
رگرسیون لجستیک بر روی 3 متغیر کمکی هر کدام با حجم نمونه نابرابر
45586
من 3 سری زمانی دارم و می خواهم تعیین کنم که آیا الگوهای مشترکی در داده ها وجود دارد یا خیر. زور در یکی از کتاب‌های خود اشاره کرد که یک رویکرد ساده و معقول برای آزمایش این موضوع مبتنی بر هموارسازی مکرر لس است. زور بیان می‌کند که برای تجسم الگوهای کلی سری‌های زمانی، یک صاف‌کننده لس را در هر سری قرار می‌دهیم و سپس همه آن‌ها را روی یک نمودار رسم می‌کنیم. این به طور کلی تغییرات بلند مدت را نشان می دهد، برای گرفتن تغییرات کوتاه مدت (که من به آن علاقه دارم) باید دوباره صاف کردن لس را اعمال کنیم، اما اکنون روی باقیمانده ها. در زیر، یک مجموعه داده نمونه است که در آن مقادیر ساعتی غلظت ازن را برای 3 کشور داریم، من می خواهم آنچه را که Zuur توضیح داده است، انجام دهم، اما به مجموعه داده های این مثال. آیا کسی می تواند چند پیشنهاد ارائه دهد؟ لطفا توجه داشته باشید که دانش من در مورد R و به طور کلی آمار پایین است، اگر این سوال ساده است عذرخواهی می کنم. require(plyr) require(lattice) TopFolder <- list(http://www.nilu.no/projects/ccc/onlinedata/ozone/CZ03_2009.dat ,http://www.nilu.no/projects/ ccc/onlinedata/ozone/CY02_2009.dat http://www.nilu.no/projects/ccc/onlinedata/ozone/BE35_2009.dat ) ## ایجاد متغیر برای داده های داده = ldply(TopFolder، header = TRUE، read.table، sep = , skip = 3) ## تعریف سطوح ازن ازن <- data$Value Ozone[Ozone==-999] <- NA ازن <- data.frame(Ozone) ## define Datetime - نیاز به الحاق آرایه ها DateTime <- paste(data$Date,data$Hour, sep = ) تاریخ <- as.POSIXct(DateTime, format = %d .%m.%Y %H:%M) ## تعریف کشورها کشورها <- c(Country1, Country2,Country3) کشور <- data.frame(Country = rep(Country, each = 8760)) ## bind together Dat <- cbind(Ozone, Country = Country) Dat <- transform(Dat, Date=Date, Doy = as.numeric(format(Date,format = %j)), Tod = as.numeric(format(Date,format = %H)), DecTime = rep(seq(1,365, length = 8760),by = 3)) ## انتخاب داده برای یک ماه در تابستان NewDat <- subset( Dat, as.Date(Dat$Date) >= '2009-07-01 00:00:00' & as.Date(Dat$Date) <= '2009-08-01 00:00:00') ## نمودار xyplot داده (Ozone~DecTime | کشور، داده = NewDat، نوع = l، col = 1، نوار = تابع(bg = 'سفید'،...)strip.default(bg = 'سفید'،...)) بنابراین، اینجا دارم داده ها را وارد کرد و یک زیر مجموعه (به مدت یک ماه) گرفت و سپس مقادیر را رسم کرد. اکنون می‌خواهم از هموارسازی لس برای نشان دادن تغییرات کوتاه‌مدت یعنی ساعتی استفاده کنم.
هموارسازی لس مکرر برای داده های سری زمانی
97566
آیا نمونه هایی از پنجره های کشویی نمونه های مستقلی هستند؟ به عنوان مثال اگر اندازه پنجره 90 ثانیه ای داشته باشم و تعداد ماشین های یک خیابان را بشمارم و میانگین را در هر ثانیه به مدت 30 ثانیه از پنجره خارج کنم، آیا 30 نمونه مستقل دارم یا خیر؟ من می گویم بله، زیرا (به نظر من) مانند نمونه برداری با جایگزینی (جزئی؟) است. اما من مطمئن نیستم. من می‌پرسم، چون فکر می‌کردم اگر نمونه‌ها مستقل باشند و n>30 جمع‌آوری کنم، می‌توان از قضیه حد مرکزی برای محاسبات بیشتر استفاده کرد.
آیا نمونه هایی از پنجره های کشویی نمونه های مستقلی هستند؟
48357
من در حال حاضر سعی می کنم از یک متغیر x (و دیگران) برای توضیح یک متغیر وابسته y در یک مدل تاخیر توزیع شده (با هدف بلندمدت پیش بینی متغیر y) استفاده کنم. نمودار متغیر x یک فصلی بودن آشکار را در پایان سال نشان می‌دهد: http://i.imgur.com/8gGtaVS.png پس از فصل‌زدایی داده‌ها با تجزیه (با مولفه‌های ضربی)، آزمون‌های adf و kpss نشان می‌دهند که داده های تنظیم شده فصلی هنوز ثابت نیستند. از آنجا که متغیرهای مستقل بیشتری وجود دارد و من نمی‌خواهم به بررسی عمیق‌تر رابطه هم‌انجمادی بین آن سری‌ها بپردازم، فکر می‌کردم که این معمول‌ترین راه برای گرفتن تفاوت هر دو سری (با تابع diff()) است. اکنون 2 گزینه وجود دارد: 1. تفاوت داده های تنظیم شده فصلی را در نظر بگیرید. مشکل این رویکرد این است که مطمئن نیستم این ایده خوبی است یا نه، زیرا نمی‌دانم چگونه می‌توانید سری‌های زمانی را برای یک نتیجه پیش‌بینی به شیوه‌ای آسان مجدداً منطقی کنید. 2. تفاوت سری خام را در نظر بگیرید. این منجر به نمودار زیر می شود. به http://i.imgur.com/loDU2IE.png مراجعه کنید. سری زمانی در رابطه با تست‌های adf و kpss اکنون ثابت است، با این حال هنوز الگوی فصلی قابل مشاهده است. اکنون مطمئن نیستم که برای غیر فصلی کردن تفاوت سری زمانی استفاده از روش تجزیه (با ضرب) توصیه می شود، به خصوص به این دلیل که مقادیر صفر وجود دارد که هنگام محاسبه سری زمانی تنظیم شده فصلی به روش زیر تأثیری ندارند. : decompose(x_diff, mult)$x / decompose(x_diff, mult)$season بنابراین، وقتی می خواهم چگونه باید ادامه دهم برای گنجاندن (تفاوت) x به عنوان یک متغیر مستقل (و دارای تاخیر) در یک مدل تاخیر توزیع شده؟
درمان غیر ایستایی سری های زمانی در داده های تنظیم شده فصلی با R
82878
من در پردازش متن تازه کار هستم. در حال حاضر من در حال تلاش برای تعیین نوع بردار ویژگی برای یک مشکل طبقه بندی هستم. من عمدتاً بین مدل‌سازی ویژگی‌های باینری و رویکردهای مبتنی بر آمار، مانند فرکانس مدت/فرکانس سند معکوس (tf-idf) یا مربع خی تصمیم می‌گیرم. از نظر طبقه بندی 100 مدرک مربوط به علوم کامپیوتر، 100 مدرک مربوط به زیست شناسی و 100 مدرک مرتبط با رشته های دیگر دارم. من می خواهم سیستمی بسازم که با توجه به یک سند جدید، بتواند مشخص کند که در کدام یک از آن گروه ها قرار دارد.
انتخاب رویکرد مدل‌سازی ویژگی برای طبقه‌بندی متن
80785
روش بوت استرپ معمولاً برای داده های مشاهده ای کار می کند. در تحقیقاتم، من می‌خواهم از روش اعتبارسنجی بوت استرپ برای ساخت یک مدل جایگزین برای یک مدل مهندسی زمان‌بر استفاده کنم. روش اعتبار سنجی بوت استرپ استفاده از بوت استرپ خوش بینی افرون-گونگ برای تخمین خطای پیش بینی مدل های جایگزین برای انتخاب مدل است. سپس ابتدا باید یک مجموعه داده اصلی ایجاد کنم، یعنی ترکیبی از چندین ورودی و خروجی از این مدل های مهندسی با استفاده از روش نمونه گیری. سوال من این است که آیا برای انتخاب یک روش نمونه گیری، از جمله نمونه برداری هایپرمکعب لاتین (LHS)، روش شبه تصادفی (Sobol یا Helton)، یا روش تصادفی ساده اهمیت دارد؟ اگر از LHS برای ساخت یک مجموعه داده اصلی استفاده کنم، این نمونه LHS را با جایگزینی بوت استرپ می کنم تا یک نمونه بوت استرپ جدید ایجاد کنم، که ممکن است مزایای استفاده از روش lhs را از دست بدهد. این به این دلیل است که این نمونه بوت استرپ جدید نمونه غیر lhs است. در این صورت بهتر است در وهله اول از نمونه گیری شبه تصادفی استفاده کنم؟ هر گونه فکر در این مورد بسیار قدردانی خواهد شد.
انتخاب روش نمونه گیری قبل از استفاده از روش اعتبارسنجی بوت استرپ برای مدل های کامپیوتری
97565
من در حال برنامه ریزی مطالعه ای هستم که در آن می خواهم تأثیر یک درمان را بر یک متغیر روانسنجی وابسته آزمایش کنم. من انتظار دارم آزمودنی هایی که در پایه نمره پایین تری دارند از درمان بهره بیشتری ببرند (تفاوت نمره بزرگتر قبل از بعد) و انتظار دارم که درمان تأثیر کمتری بر افرادی داشته باشد که در پایه نمره بالاتری دارند (تفاوت امتیازات کوچکتر قبل از بعد). این به دلیل نقص معیار روان‌سنجی نیست، بلکه به دلیل ساختار روان‌سنجی زیربنایی است. من داده های تجربی یک پیش مطالعه کوچک (_n_ = 10) با طراحی یکسان دارم که می توانم از آن برای تعیین کمیت این اثر استفاده کنم. آیا راه حلی زیباتر از انجام یک تقسیم میانه برای آزمایش این موضوع وجود دارد؟
طراحی قبل از درمان: در نظر گرفتن کاهش اثر درمان در امتیازدهندگان بالا پایه
45581
ما چند طبقه بندی داریم که اسناد متنی را طبقه بندی می کند. هر طبقه‌بندی‌کننده بر اساس اطلاعاتی که از سند دارد، گزارش می‌دهد که چقدر احتمال دارد طبقه‌بندی آنها درست باشد. طبقه بندی کننده ها نمی دانند که چقدر دقیق هستند. اگر طبقه‌بندی‌کننده گزارش دهد که به احتمال 70 درصد سند متعلق به کلاس A است و طبقه‌بندی‌کننده در 70 درصد مواقع در طبقه‌بندی‌های خود صحیح است، احتمال اینکه سند واقعاً عضو کلاس A باشد چقدر است. مطمئناً 70 درصد نیست. 70 درصد، پس محاسبه واقعی چگونه خواهد بود؟
70٪ مطمئن با 70٪ درصد موفقیت
81780
من دو توزیع $F$ و $G$ دارم که حدس می زنم از نظر ریاضی یکسان باشند. اساساً، قبل از صرف زمان برای اثبات ریاضی برابری F$ و G$، می‌خواهم آن را با انجام یک آزمایش شبیه‌سازی بررسی کنم. بنابراین، با توجه به اینکه می‌توانم به راحتی $X_i \sim F$ و $Y_i \sim G$ را شبیه‌سازی کنم، می‌خواهم آزمایشی را انجام دهم که $F = G$ را بررسی کند. $X_i$ و $Y_i$ در $\mathbb R^p$ زندگی می‌کنند، و من در حال بررسی این هستم که آیا حاشیه‌ها در توزیع برابر هستند با شبیه‌سازی بسیاری از مجموعه‌های داده و بررسی اینکه آیا آمار آزمون کولموگوف-اسمیرنوف درست است. تقریباً به طور یکنواخت توزیع شده است، اما من می خواهم اطمینان داشته باشم که فقط با نگاه کردن به حاشیه ها فریب نخواهم خورد. علاوه بر حاشیه‌ها، من توزیع اجزای اصلی داده‌های تولید شده/برخی تبدیل‌های غیرخطی داده‌ها را بررسی می‌کنم و تا اینجا همه چیز به برابری اشاره دارد. اگر کسی بتواند به من روشی را نشان دهد - امیدوارم با یک پیاده سازی موجود در R، یا در غیر این صورت چیزی آسان برای پیاده سازی - فوق العاده خواهد بود. **ویرایش**: برای واضح بودن، من یک تست چند متغیره می خواهم. من می دانم که حاشیه ها کافی نیستند، من فقط آنها را بررسی می کنم زیرا اگر حاشیه ها مطابقت ندارند، نیازی به بررسی مفصل ندارم.
تست برابری توزیع های چند متغیره
96692
> یک دسته از 52 کارت به هم ریخته و یک دست پل متشکل از 13 کارت پخش می شود. > بگذارید X و Y به ترتیب نشان دهنده تعداد آس و تعداد > پیک در دست باشند. > > (الف) نشان دهید که X و Y همبستگی ندارند. > > (ب) آیا آنها مستقل هستند؟ من می دانم که اگر ${\rm Cov}(X,Y)=0$، آنگاه $X$ و $Y$ همبستگی ندارند. من همچنین می دانم که $X$ و $Y$ مستقل هستند زیرا احتمال انتخاب آس تاثیری بر احتمال کشیدن بیل ندارد. من سعی کردم از ${\rm Cov}(X,Y)=E[XY]-E[X]E[Y]$ استفاده کنم اما در تلاش برای یافتن مقدار مورد انتظار $X$ و $Y$ گیر کردم. آیا این یک رویکرد معتبر برای مشکل است یا چیزی وجود دارد که من از قلم افتاده ام؟
کمک به کوواریانس
80789
من داده های شمارشی را برای یک جفت جمعیت نمونه های آزمایشی و شاهد برای متغیری دارم که مقدار A یا B را برای یک نمونه می گیرد: A | B -------+------- کنترل 7 | 1 تست 3 | 5 فرضیه این است که شرط آزمون تبدیل پارامتر مشاهده شده را از حالتی با مقدار A به حالتی با مقدار B تحریک می کند و من می توانم از آزمون دقیق فیشر روی داده ها برای قبول یا رد این فرضیه استفاده کنم. حال فرض کنید ما سه جفت از این قبیل جمعیت آزمون و کنترل داریم، با تعداد مشاهدات مختلفی که برای هر جمعیت برای شرایط آزمون یا کنترل انجام شده است. 1 2 3 A | B A | B A | ب -------+------ -------+------- -------+------- کنترل 7 | 1 70 | 10 7 | 1 تست 3 | 5 3 | 5 300 | 500 ما می توانیم تست دقیق را سه بار انجام دهیم، یک بار برای هر جفت، و سه مقدار P بدست آوریم، که به نوعی با هم ارزیابی می کنیم (قانون اکثریت؟) تا به نتیجه برسیم. اما، آیا آزمون آماری دیگری وجود دارد که بتوان از آن استفاده کرد، شاید آزمایشی که یک مقدار P را به دست می‌دهد یا قوی‌تر است؟ [افزودن اطلاعات در مورد آزمایش واقعی] مولکول‌های RNA تولید شده از یک ژن خاص در سلول‌های بدن انسان به دلیل قرار گرفتن در معرض شرایط آزمایش ویرایش می‌شوند و منجر به تبدیل یک پایه نوکلئوتیدی خاص RNA از آدنین می‌شود (A ؛ معادل حالت فرضی A در بالا) به گوانین (G؛ معادل حالت فرضی B). ویرایش با تعیین توالی مولکول‌های RNA، با تعداد متفاوتی از مولکول‌ها که برای شرایط کنترل و آزمایش توالی‌یابی می‌شوند، مورد سنجش قرار می‌گیرد. سه جدول به داده های سه انسان اشاره دارد.
جایگزینی برای چندین آزمایش دقیق فیشر
64268
سلام در حال حاضر من در حال انجام رگرسیون خطی ساده بر روی دو متغیر برای داده های مناطق مختلف هستم. می دانم که می توانم از تابع lmList برای بدست آوردن ضرایب یکجا برای همه مناطق استفاده کنم. اما آیا می توانم نمودار باقیمانده Q-Q را برای همه مناطق در یک نمودار با پانل های مختلف به طور همزمان ایجاد کنم؟ و برای خروجی تابع lmList، فقط ضرایب نمایشگر هستند، بدون R-square برای هر رگرسیون. چگونه می توانم آن را ببینم؟ پیشاپیش برای کمک بسیار متشکرم!
رگرسیون R توسط گروه ها و تجسم داده ها در یک نمودار
99254
من مجموعه بزرگی از داده‌های سری زمانی دارم که شامل سری‌هایی از دو شرایط مختلف است که میانگین‌های آن در زیر نشان داده شده است. من می‌خواهم مدلی را به این داده‌ها برازش کنم تا آزمایش کنم که الف) مقدار پیک در شرایط «تعارض» بیشتر است، و ب) اوج در این شرایط زودتر اتفاق می‌افتد. ggplot(data، aes(x=Time، y=Variable، colour=Condition)) + stat_summary(fun.data=mean_se, geom=pointrange) ![شرح تصویر را اینجا وارد کنید](http://i.stack. imgur.com/3NQ8T.png) از تحقیقات خودم در این مورد، می دانم که: * تجزیه و تحلیل منحنی رشد، روش معمول مدل سازی است. داده‌های سری زمانی مانند این است، اما نمی‌توانم بفهمم چگونه یک چند جمله‌ای را برای این شکل منحنی جا می‌دهم. * من تجربه‌ای در تطبیق مدل‌های GCA با استفاده از `lme4` در R دارم که عمدتاً از آموزش‌های Dan Mirman پیروی می‌کنم، اما هنوز در حال یادگیری هستم. * از این نوع منحنی ها منحنی هابرت نامیده می شود و معمولاً برای مدل سازی تولید نفت به عنوان یک منحنی لجستیک متقارن بالا و پایین استفاده می شود. * بسته R «grofit» ممکن است برای تحلیل‌هایی از این دست مفید باشد، اگرچه ترجیح می‌دهم قبل از صرف زمان برای یادگیری نحوه استفاده از آن، بدانم که در حال پارس کردن درخت مناسب هستم. آیا کسی می تواند در اینجا به من در جهت درست اشاره کند؟
مدل سازی تفاوت بین دو منحنی هابرت
52299
دانش آماری من بسیار محدود است. من دو گروه (بیمار و شاهد) و یک مقدار غلظت اندازه گیری شده برای هر فرد دارم. به طور معمول توزیع نشده است: Mann-Whitney چگونه جنسیت را در Mann-Whitney تصحیح کنم؟ (می خواهم بدانم آیا تفاوت بین بیماران و گروه شاهد به دلیل تفاوت در توزیع جنسیتی است، زیرا مردان دارای مقادیر بالاتری نسبت به زنان هستند).
چگونه جنسیت را در آزمون من ویتنی U تصحیح کنیم؟
16845
می‌خواستم بدانم که استفاده از معیار خطای زیر برای قضاوت در مورد دقت به جای خطای مجذور ساده چیست؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/LHMTG.png) پیوند به مسابقه: Heritage Health
توجیه صحت خطای مجذور ورود: رقابت داده کاوی
90697
من جایی در ادبیات خوانده ام که آزمون Shapiro-Wilk به عنوان بهترین آزمون نرمال بودن در نظر گرفته می شود، زیرا برای یک سطح معنی داری معین، $\alpha$، احتمال رد فرضیه صفر در صورت نادرست بودن بیشتر از حالت است. سایر تست های نرمال بودن آیا می‌توانید در صورت امکان، با استفاده از استدلال‌های ریاضی، به من توضیح دهید که دقیقاً چگونه در مقایسه با برخی از تست‌های نرمال بودن دیگر (مثلاً آزمون اندرسون-دارلینگ) کار می‌کند؟
چرا تست Shapiro–Wilk بهترین تست نرمال بودن در نظر گرفته می شود؟
48359
من روی 84 تصویر کار می کنم، جایی که به هر تصویر یک مقدار هدف Y اختصاص داده شده است (ممکن است هر معیاری مانند تاری یا سطح نویز باشد). Y قبلاً برای همه تصاویر شناخته شده است. ویژگی های X (پیش بینی کننده ها) از هر تصویر استخراج می شوند. روش های زیادی برای استخراج ویژگی وجود دارد و اکثر آنها تعداد زیادی ویژگی را برمی گرداند. مشکل تبدیل به یک مشکل رگرسیونی می شود، جایی که ما باید Y را با توجه به X (ویژگی ها) پیش بینی کنیم. با داشتن روش‌های زیادی برای ساختن ویژگی‌ها، من به روشی برای ارزیابی توانایی برخی ویژگی‌ها برای پیش‌بینی Y نیاز دارم. من به استفاده از رگرسیون پشتیبان ویکتور با هسته پایه شعاعی برای پیش‌بینی فکر می‌کنم، همچنین روش‌های دیگری مانند درخت‌های تصمیم و درخت تصمیم را بررسی خواهم کرد. رگرسیون خطی **سوال من این است:** با توجه به یک مجموعه داده، آیا می‌توانیم داده‌ها را تجزیه و تحلیل کنیم و بدانیم که آیا می‌توانیم تحلیل رگرسیون را روی آن اعمال کنیم و نتایج خوبی به دست آوریم (مثلاً دقت 70٪)؟ (چه رگرسیون خطی یا غیرخطی) لطفاً به خاطر داشته باشید که ویژگی‌های بسیار زیادی وجود دارد، بنابراین تجزیه و تحلیل همبستگی بین X و Y و چند خطی بودن بین X غیرممکن است، مگر اینکه یک روش خودکار وجود داشته باشد.
آیا روشی وجود دارد که بدانیم آیا می توانیم رگرسیون را برای مجموعه داده های خاص اعمال کنیم و نتایج رضایت بخشی به دست آوریم؟
99255
من در حال حاضر در حال تلاش برای یافتن چگونگی رسیدن از بسط Edgeworth به بسط Cornish-Fisher هستم. من از Van-der-Vaarts Asymptotics Statistics و کتاب Hall در مورد بسط های Edgeworth و bootstrap استفاده می کنم. متأسفانه هیچکدام به درستی جزئیات کمکی نمی کنند (vdVaart p 338). tldr: بسط های Edgeworth را می توان معکوس کرد تا بسط های Cornish Fisher را بدست آورد - اما چگونه؟ پاراگراف من با آن مشکل دارم به صورت زیر است اجازه دهید $\Phi، \phi$ یک cdf معمولی باشد، pdf، $p_1$ یک چند جمله‌ای، $z_\alpha، \hat{\xi}_{n،\alpha}$ نرمال و بوت استرپ بالای $\alpha$ Quantiles. در این کتاب آمده است که $$ 1-\alpha = \Phi(\hat{\xi}_{n,\alpha})+\frac{p_1(\hat{\xi}_{n,\alpha}\mid\ hat{P}_n)\phi(\hat{\xi}_{n,\alpha})}{\sqrt n} + O_P(n^{-1}) $$ را می توان به نحوی معکوس کرد تا به دست آید $$ \hat{\xi}_{n,\alpha}=z_\alpha-\frac{p_1(z\alpha \mid P)}{\sqrt n}+ O_P(n^{-1}) $$ ظاهراً توسط تیلور که $\Phi، \phi$ و $p_1$ را در حدود $z_\alpha$ گسترش داده است، حدس می‌زنم همه چیز منطقی باشد و می‌توانم بپذیرم که ممکن است، اما می‌خواهم توجیه رسمی را ببینید.
از توسعه های Edgeworth به Cornish Fisher Expansions
48351
من در «R» با استفاده از بسته «gbm» کار می‌کنم. من در مورد عواقب برخورد با متغیرهای طبقه بندی به عنوان عوامل یا استفاده از پرچم 1/0 برای هر یک به طور جداگانه کنجکاو هستم. آیا ادبیاتی در مورد نحوه استفاده از 2 در 'gbm' یا در 'R' به طور کلی وجود دارد؟
آیا تئوری حاکم بر عوامل در مقابل پرچم وجود دارد؟
944
هنگامی که من یک پرانتز سمت چپ یا هر نقل قولی را در کنسول R تایپ می کنم، به طور خودکار یک منطبق در سمت راست مکان نما من ایجاد می کند. من حدس می‌زنم ایده این است که می‌توانم فقط عبارتی را که می‌خواهم در داخل تایپ کنم بدون اینکه نگران تطبیق باشم، اما آن را آزاردهنده می‌دانم و ترجیح می‌دهم فقط آن را خودم تایپ کنم. چگونه می توانم این ویژگی را غیرفعال کنم؟ من از R 2.8.0 در OSX 10.5.8 استفاده می کنم.
چگونه می‌توانم R را به توقف تکمیل خودکار نقل قول‌ها/پرانتزهای من بردارم؟
942
من شروع به کار کردن با آموزش داده کاوی آماری توسط اندرو مور کردم (به شدت برای هر کسی که برای اولین بار وارد این زمینه می شود توصیه می شود). من با خواندن این PDF بسیار جالب با عنوان نمای کلی مقدماتی الگوریتم های تشخیص ناهنجاری مبتنی بر سری زمانی شروع کردم که در آن مور بسیاری از تکنیک های مورد استفاده در ایجاد یک الگوریتم برای تشخیص شیوع بیماری را ردیابی می کند. او در نیمه راه اسلایدها، در صفحه 27، تعدادی دیگر از «روش های پیشرفته» را که برای تشخیص شیوع بیماری استفاده می شود، فهرست می کند. اولین مورد لیست شده **موجک** است. ویکی‌پیدا یک موجک را به‌عنوان یک نوسان موج‌مانند با دامنه‌ای توصیف می‌کند که از صفر شروع می‌شود، > افزایش می‌یابد، و سپس به صفر کاهش می‌یابد. معمولاً می‌توان آن را به‌عنوان یک «نوسان مختصر» تجسم کرد، اما کاربرد آن‌ها را برای آمار توصیف نمی‌کند و جستجوهای من در گوگل مقالات بسیار آکادمیک را به دست می‌دهد که دانشی از ارتباط موجک‌ها با آمار یا کتاب‌های کامل در این زمینه را فرض می‌کند. من می‌خواهم درکی اساسی از نحوه اعمال موجک‌ها برای تشخیص ناهنجاری سری‌های زمانی داشته باشم، دقیقاً همان‌طور که مور تکنیک‌های دیگر را در آموزش خود نشان می‌دهد. آیا کسی می‌تواند توضیحی درباره نحوه کار روش‌های تشخیص با استفاده از موجک‌ها یا پیوندی به یک مقاله قابل فهم در این زمینه ارائه دهد؟
کاربرد موجک ها در الگوریتم های تشخیص ناهنجاری مبتنی بر سری زمانی
99253
من یک فایل txt سری داده های سرعت باد (به مدت 1 سال) دارم که در هر ثبات اطلاعات زیر را دارم: date; ساعت؛ میانگین سرعت باد 10 دقیقه؛ حداکثر مقدار 10 دقیقه؛ سیگما 10 دقیقه نمونه ای از داده ها به این صورت است: 050206 0130 8.05 10.28 0.84 050206 0150 7.29 11.06 1.13 .... برای هر 10 دقیقه، اطلاعات موجود میانگین سرعت باد 10 حداکثر مقدار در چنین دقیقه است. انحراف معیار در چنین 10 دقیقه. چنین آماری برای هر 10 دقیقه با داده های نمونه برداری 1 ثانیه (600 مقدار برای هر 10 دقیقه) محاسبه می شود. می توان فرض کرد که مقادیر نمونه برداری شده 1 ثانیه به طور معمول توزیع شده اند. مشکل این است که چنین مقادیر نمونه برداری شده 1 ثانیه در دسترس نیستند و من برای مطالعه خود به آنها نیاز دارم. بنابراین، سؤالات این است: -آیا یک روش جامد ریاضی/آماری به خوبی شناخته شده برای تولید مقادیر 1s برای هر ثبات 10 دقیقه ای با فرض توزیع نرمال وجود دارد؟ آیا یک روش جامد ریاضی/آماری به خوبی شناخته شده برای پیوند دادن هر یک از مقادیر 1s با انسجام وجود دارد؟ من می خواهم یک اسکریپت پایتون را برای انجام این کار پیاده سازی کنم.
داده‌های سرعت باد 10 دقیقه تا داده‌های سرعت باد 1 ثانیه
49008
من دو سری زمانی دارم که از یک سیستم می آیند. یکی از کل سیستم گرفته شده و دیگری مثلا از 10 درصد سیستم گرفته شده است. دو سری زمانی فرکانس یکسانی دارند. آیا معیاری وجود دارد که بدانیم این دو سری زمانی چقدر شبیه هم هستند؟
مقایسه دو سری زمانی
99251
من سعی می کنم برخی از عوامل موثر در نرخ برد یک بازی را تجزیه و تحلیل کنم، چند صد عامل وجود دارد اما هر بازی فقط یک زیر مجموعه کوچک از آنها را خواهد داشت (10-20). برخی از عوامل ممکن است همبستگی داشته باشند (انتخاب یک توانایی به خوبی با توانایی های دیگر ترکیب می شود و برخی ممکن است متضاد باشند و بنابراین اغلب با هم انتخاب نمی شوند). در نهایت من می خواهم بدانم که این عوامل چه ارتباطی با برنده شدن دارند، که بدیهی است یک مقدار باینری است. من یک پایگاه داده از چند صد هزار بازی دارم، بنابراین مقیاس مشکلی ندارد، اما در مورد نوع آزمایشی که استفاده کنم گیر کرده ام. من قبلاً از آزمون‌های ANOVA در دانشگاه برای داده‌ها استفاده کرده‌ام، بنابراین فکر من این است که شاید این کار جواب دهد، اما هرگز این همه متغیر برای جا دادن نداشتم، و مطمئن نیستم که داده‌هایم به طور معمول توزیع شده باشند، فقط می‌خواستم بررسی کنم مطمئن شوید که ANOVA یک طرفه در این موقعیت منطقی است، یا اگر باید به دنبال راه دیگری برای کشف همبستگی عوامل و برنده شدن باشم. با تشکر
ANOVA بهترین آزمون برای همبستگی با مجموعه داده های بزرگ و بسیاری از متغیرهای مستقل؟
95580
فرض کنید یک سری زمانی $x_i، i=1، \dots$ داریم. اگر مدل‌سازی سخت است، آیا مدل‌سازی مجدد نمونه‌سازی‌شده $y_i := x_{ik}، i = 1، \dots$ برای برخی عدد طبیعی $k$ احتمالاً قابل قبول است؟ (فرض کنید که هیچ نیاز یا محدودیت خاصی وجود ندارد، فقط یک مورد کلی است.) اگر من مدلی برای $y_i$s داشته باشم، آیا این می تواند در مدل سازی $x_i$های اصلی مفید باشد و چگونه؟ با تشکر
آیا یک مدل برای یک سری زمانی نمونه‌برداری مجدد می‌تواند برای مدل‌سازی سری‌های زمانی اصلی مفید باشد؟
12177
من کمی با معنای $\beta$ گیج شدم و فکر کردم استفاده از آن نسبتاً شل است. در واقع به نظر می رسد که $\beta$ برای بیان دو مفهوم متمایز استفاده می شود: 1. تعمیم نمونه ضریب b به جامعه مورد نظر. 2. ضرایب رگرسیون استاندارد شده (ضرایب رگرسیون زمانی بدست می آید که همه متغیرها با sd 1 استاندارد شوند). آیا برای جلوگیری از این سردرگمی، نماد جایگزینی برای هر یک از دو نشانه بالا وجود دارد؟
سوال اصطلاحات رگرسیون خطی -- بتا (β)
16841
معادله فضای حالت این است: $$Y_t = F_tθ_t + v_t\hspace{4em} \textrm{eq. 1}$$$θ_t = G_tθ_{t-1} + w_t\hspace{2.8em} \textrm{eq. 2}$$ $F_t$ در معادله 1 متغیرهای مستقل هستند و ما می‌توانیم $Y_t$ را پیش‌بینی کنیم به شرطی که $F_t$ را بدانیم. بگویید که من سعی می کنم تعداد بستری شدن در بیمارستان به دلیل آنفولانزا را بر اساس رطوبت پیش بینی کنم. در این مورد، بر اساس معادله 1، به نظر می رسد که من باید رطوبت هفته آینده را بدانم تا بستری شدن در بیمارستان را برای آینده پیش بینی کنم. در واقع، من هیچ داده ای در مورد متغیرهای مستقل خود برای آینده نیز نخواهم داشت. من در واقع نمی دانم که چرا این پیش بینی نامیده می شود. آیا من اینجا چیزی را از دست داده ام؟
آیا فیلتر کالمن واقعاً پیش بینی می کند؟
45584
من سعی می‌کنم احتمال ورود $y_1 \log(p_1) + (1-y_1)\log(p_1) + y_2\log(p_2) + (1-y_2)\log(p_2)$ را به حداکثر برسانم. من اطلاعاتی در مورد موفقیت یک آزمایش دارم. Y مشخص می کند که آیا فرد مرده است یا نه، و X نشان دهنده گروه کنترل یا درمان است. کد من چه مشکلی دارد؟ # MLE برای احتمال y <- c(rep(1,39), rep(0,674-39), rep(1,22), rep(0,680-22)) x <- c(rep(0, 674), rep(1، 680)) binom.ll <- تابع(تتا، y، x) { y[x==0]*log(تتا[1]) + (1-y[x==0])*log(1-تتا[1])) + y[x==1]*log(تتا[2]) + (1-y[x==1]) *log(1-theta[2])) } theta.start <- c(0, 0) ml.res <- nlm(binom.ll, theta.start, print.level=1, y=y, x= x، hessian=T) ml.res تکرار = 0 مرحله: [1] 0 0 پارامتر: [1] 0 0 تابع مقدار [1] 1.797693e+308 گرادیان: [1] -Inf 0 خطا در nlm(binom.ll، تتا .start، print.level = 1، y = y، x = x، hessian = T): مقدار غیر محدود ارائه شده توسط 'nlm' علاوه بر این: پیام های هشدار: 1: در nlm(binom.ll، theta.start، print.level = 1، y = y، x = x، hessian = T): NA/Inf با حداکثر مثبت جایگزین شده است. مقدار 2: در nlm(binom.ll، theta.start، print.level = 1، y = y، x = x، hessian = T): NA/Inf با حداکثر مقدار مثبت جایگزین شده است
مسائل بهینه سازی یک تابع درستنمایی در R
59866
من دو متغیر دارم که همبستگی معنی داری را نشان می دهند (Spearman). من می خواهم قدرت رابطه را به صورت گرافیکی نشان دهم، بسیار شبیه به نشان دادن تناسب رگرسیون خطی با نوارهای اطمینان. بهترین راه درست برای انجام آن چیست؟
بهترین راه برای ارائه یک همبستگی چیست؟ (در R)
80436
من از همبستگی متقابل برای یافتن همبستگی بین دو داده سری زمانی مثلا X و Y استفاده می‌کنم. این را در جایی خوانده‌ام که: اگر X یا Y حاوی همبستگی خودکار باشد یا نسبت به میانگین ثابت نباشد، همبستگی متقاطع منعکس کننده رابطه واقعی بین X و Y. در این مورد چه باید کرد؟
همبستگی متقابل برای داده های غیر ثابت
46589
من در حال مطالعه مدل‌های پیش‌بینی خطر برای پذیرش مجدد در بیمارستان‌ها هستم و در طول تحقیقاتم، با این مقاله نظرسنجی مواجه شدم که مدل‌های مختلف پیش‌بینی خطر منتشر شده در مجلات مختلف پزشکی را ارزیابی می‌کند: https://www.dropbox.com/s/t1inuv8112tnnip/ بررسی% 20% 20 مدل های % 20 پیش بینی % 20 برای % 20 پذیرش مجدد % 20 خطر.pdf در پایان مقاله (صفحه 1696)، مقاله بیان می کند که: > حتی اگر توانایی پیش بینی کلی مدل های بالینی ضعیف بود، > ما متوجه شدیم که نمرات پرخطر و کم با یک گرادیان بالینی > معنی دار مرتبط است. نرخ پذیرش مجدد من از این جمله کمی گیج شدم. اگر در عمل، یک امتیاز ریسک بالا از یک مدل معین با نرخ بالای پذیرش مجدد همراه باشد، آیا این به این معنا نیست که مدل توانایی پیش‌بینی خوبی دارد؟
تعیین توانایی پیش‌بینی مدل‌ها برای خطرات بستری مجدد برای بیماران
64261
چه اتفاقی می‌افتد وقتی یک رگرسیون خطی از نوع «y ~ x1 + x2 + x3 + x4» وجود داشته باشد چه چیزی تعیین می‌کند که به کدام متغیرها واریانس توضیح داده شده به جای ماتریس همبستگی (بدون فرض استقلال) به متغیرهای دیگر داده شود؟ در صورتی که این واقعاً غیرقابل پیش‌بینی است، چرا ما اصرار داریم که از رگرسیون استفاده کنیم تا صرفاً به ماتریس همبستگی نگاه کنیم: حداقل در این صورت می‌دانید که هنگام بررسی ضریب همبستگی، اثرات سایر متغیرها را در نظر نمی‌گیرید، در حالی که از رگرسیون استفاده می‌کنید. غافل باشید که کدام متغیر واریانس توضیح داده شده را دریافت می کند (و چقدر درست یا غلط است!).
چه چیزی تعیین می کند که واریانس توضیح داده شده به کدام متغیر تعلق می گیرد؟
16847
هنگام خواندن قسمت هایی مانند موارد زیر: >> بر اساس نمونه نماینده 88 حمله اخیر ، ما نشان می دهیم که> ترکانا همکاری های پرهزینه ای را در جنگ در مقیاس بسیار چشمگیر ، حداقل تا حدودی از طریق مجازات های آزاد انجام می دهد. من نمی دانم که نمونه نماینده به چه چیزی می تواند اشاره داشته باشد. آیا این مربوط به محاسبات توان (مثلا) در استنتاج آماری است یا راهی برای ارزیابی تعداد نمونه های مورد نیاز از کل جامعه وجود دارد تا نماینده در نظر گرفته شود؟
نمونه نماینده دقیقاً به چه چیزی اشاره دارد؟
45054
من دو سری زمانی از دو تحقق یک فرآیند تصادفی دارم، این فرآیند حول یک میانگین در نوسان است، بنابراین فکر می‌کنم که یک فرآیند ارگودیک است. من تابع همبستگی زمانی را محاسبه می‌کنم، اما به مقیاس زمانی مشخصه نیاز دارم، که بیشتر به عنوان زمان همبستگی شناخته می‌شود، اما نمی‌دانم چگونه، این زمان زمان کاهش تابع همبستگی زمانی را به صفر نشان می‌دهد. من سعی کردم یک منحنی را تنظیم کنم، اما زمان حاصل خیلی بزرگ است، بنابراین فکر می کنم راه درستی نیست.
محاسبه زمان همبستگی؟
45580
من در حال برنامه نویسی یک الگوریتم kNN هستم و می خواهم موارد زیر را بدانم: تای برک: 1. اگر در رای اکثریت برنده مشخصی وجود نداشته باشد چه اتفاقی می افتد؟ به عنوان مثال همه k نزدیکترین همسایه ها از کلاس های مختلف هستند یا برای k=4 2 همسایه از کلاس A و 2 همسایه از کلاس B وجود دارد؟ 2. اگر نمی توان دقیقاً k نزدیکترین همسایه را تعیین کرد، زیرا تعداد همسایگانی که فاصله یکسانی دارند، چه اتفاقی می افتد؟ به عنوان مثال برای لیست فواصل «(x1;2)، (x2;3.5)، (x3;4.8)، (x4;4.8)، (x5;4.8)، (x6;9.2)» امکان تعیین k=3 یا k=4 نزدیکترین همسایه، زیرا همسایه های 3 تا 5 همگی فاصله یکسانی دارند. وزن ها: 1. خواندم خوب است قبل از انتخاب کلاس برنده، k نزدیکترین همسایه ها را وزن کنید. چگونه کار می کند؟ یعنی وزن همسایه ها چگونه است و سپس کلاس چگونه تعیین می شود؟ گزینه های اکثریت آراء: 1. آیا قوانین/استراتژی های دیگری به جز رای اکثریت برای تعیین طبقه برنده وجود دارد؟
پرداختن به کراوات، وزنه ها و رای گیری در kNN
59861
**ساختار داده:** من دو مجموعه داده از دو منطقه حفاظت شده دارم که در وضعیت حفاظتی متفاوت هستند. هر دو منطقه دارای 43 و 37 سایت هستند. **سوال:** می‌خواهم بدانم کدام آزمایش برای آزمایش اینکه آیا وضعیت PA تأثیری بر روی داشته است یا نه، بهترین است: 1. اولین محور PcoA (تجزیه و تحلیل مختصات اصلی) - یعنی گردش ترکیب گونه‌ها (مشتق‌شده توسط ساخت ماتریس عدم تشابه بری کورتیس) و 2. غنای گونه در هر سایت (یک متغیر پیوسته). **مشکل:** می‌دانم که همانندسازی کاذب در این وجود دارد زیرا من فقط دو ناحیه دارم. از آنچه خوانده ام، به نظر می رسد که یا باید از یک مدل ANCOVA / GLM / ترکیبی استفاده کنم، جایی که وضعیت PA را هم به عنوان یک اثر تصادفی و هم یک اثر ثابت تعریف می کنم. من قصد داشتم سایت‌ها را درون PA قرار دهم، اما به نظر می‌رسد که از آنجایی که تنها یک نقطه داده در هر سایت وجود دارد، به عنوان یک شی تودرتو کار نخواهد کرد. برای کسانی که با R آشنا هستند، در اینجا چند کدی وجود دارد که من امتحان کرده ام: pcoaPAanovadata1 <- read.csv(PCoA\\data\\ داده های ترکیبی PCoA محور 1 با متغیرهای فاصله.csv، header=T) str(pcoaPAanovadata1) 'data .frame': 80 obs. از 7 متغیر: PCOA: num -0.2215 -0.3521 -0.0611 0.3434 -0.3624 ... PA.stat: فاکتور w/ 2 سطح N، P: 1 1 1 1 1 1 1 1 1 1 1 ... دهکده : num 33.6 33.7 39.9 37.9 34 ... جاده: num 4.18 3.8 0.89 0.1 3.43 5.49 1.86 5.04 0.79 0.88 ... آهنگ: num 8.11 6.48 3.11 2.71 4.49 5.35 1.25 7 4.03 سایت Factor. M1_11، M1_17،..: 1 2 3 4 5 6 7 8 9 10 ... غنی: num 3.27 1.79 7.31 0.82 1.79 1.82 2.45 0.82 5.47 2.79 تركیب های مختلف در جوامع مختلف یک مدل تهی که در آن شیب در نتیجه اثر تصادفی z0 <- lmer (غنی ~ 1، تصادفی = ~ 1 | pastat/site، داده = pcoaPAanovadata1) خلاصه (z0) z1 <- lme (غنی ~ پاستا، تصادفی = ~ 1 | پاستا /site, data = pcoaPAanovadata1) summary(z1) anova(z0,z1) تأثیر متغیرهای فاصله: zz <- lme(pcoa ~ جاده، تصادفی = ~ 1 | pastat/site، داده = pcoaPAanovadata1) خلاصه (zz) خطاهایی که از lme (مدل اثر ترکیبی خطی) دریافت می کنم: پیام هشدار: در pt (-abs(tTable[، t-value])، tTable[، DF]): NaN های تولید شده خطا من از ANOVA دریافت می کنم: پیام اخطار: در anova.lme(z0، z1): اشیاء نصب شده با جلوه های ثابت مختلف. مقایسه REML معنادار نیست. اولاً، من امیدوار بودم فقط روشن کنم که آیا آزمونی که در حال اجرا هستم درست است یا خیر. ثانیاً، اگر کسی بتواند به من بگوید که این خطاها به چه معنا هستند، عالی است. من عذرخواهی می کنم اگر سوال من بد بیان شده است، من با R و آماری که استفاده می کنم نسبتاً جدید هستم.
تست تودرتو برای رفع شبه تکرار
90035
من سعی می کنم یک مدل رگرسیون چندگانه سلسله مراتبی را تنظیم کنم و مهم نیست که از کدام تبدیل استفاده می کنم (z-transformation، sqrt، cuberoot، inv، inv sqrt ...)، نمی توانم باقیمانده ها را به طور معمول توزیع کنم. چه کاری می توانم انجام دهم؟ کسی پیشنهادی داره؟ من همچنین یک موضوع مرتبط را بررسی کردم، تغییراتی که در آنجا پیشنهاد شد به من کمک نکرد. باقیمانده های من طبق تست نرمال بودن D'Agostino نرمال هستند، اما بر اساس Shapiro-Wilk (که به گفته سرپرست من بسیار مهم است) نیست. من نمی توانم از یک مدل غیر پارامتری استفاده کنم. من از کمک شما بسیار سپاسگزارم! با تشکر، برابدینگ ناگ! قطعه qq باقیمانده
چگونه می توانم باقیمانده ها را عادی کنم؟
109319
I make a set of clusters using some clustering algorithm. Precision, Recall, F Measure, Fallout and RI of individual clusters are calculated for testing the performance. How do I calculate the average precision, recall, f measure, etc.? Is it the average of the different clusters' precisions? چگونه می توانم یک شماره دقیق برای خوشه های _n_ دریافت کنم؟
معیارهای ارزیابی خوشه
99258
من می دانم که سؤالات مختلفی قبلاً به این موضوع می پردازند، اما فکر نمی کنم قبلاً کسی به این موضوع پاسخ داده باشد! من در حال خواندن مقاله ای هستم که در آن نویسندگان ادعا می کنند از اعتبارسنجی متقاطع 20 برابری برای تخمین پهنای باند یک KDE گاوسی استفاده می کنند. این به چه معناست؟ من در مورد اعتبار سنجی متقاطع برای تخمین پهنای باند KDE مطالعه کرده ام، اما هر مثالی که پیدا کردم (شامل حداقل مربعات استاندارد و حداکثر احتمال) یک n-fold ذکر نشده است، زیرا آنها از ترک یک استفاده می کنند. رویکرد -out (از این رو n همیشه برابر با تعداد نقاط داده است). بابت هر نوری که می توانید بریزید متشکرم.
انتخاب پهنای باند KDE با اعتبارسنجی متقاطع n برابری
45053
من سعی می کنم با استفاده از یک مدل درخت تصمیم ایجاد شده با مجموعه داده های آموزشی، روی داده های اعتبارسنجی خود پیش بینی کنم. من می‌توانم این کار را با موفقیت انجام دهم، اما نمی‌توانم معیارهای مختلفی مانند مساحت زیر منحنی (AUC) و نرخ طبقه‌بندی کلی (ACC) را با استفاده از دستور mmetric() در R محاسبه کنم. در اینجا تصویر صفحه با خطاها و دستورات است. که من استفاده کردم توجه: روی تصویر کلیک راست کرده و view image را انتخاب کنید تا واضح ببینید. t مجموعه داده های آموزشی من است و v مجموعه داده های اعتبارسنجی است. ![mmetric](http://i.stack.imgur.com/20uib.jpg) توجه: می توانید مجموعه داده های آموزشی من t و مجموعه داده های اعتبارسنجی v را به عنوان فایل csv. از اینجا دانلود کنید: اینجا را کلیک کنید من از دستورات یکسانی برای یک مجموعه داده متفاوت استفاده کردم و کاملاً کار کرد، بنابراین ممکن است به دلیل مشکلی در مجموعه داده من باشد. با تشکر، P
خطا هنگام محاسبه معیارهایی مانند AUC، ACC در R
90037
من به دنبال یک کتاب درسی خوب (یا منبع دیگری) هستم که تجزیه و تحلیل داده های رضایت را پوشش دهد. بیشتر داده‌های من از مقیاس‌های لیکرت استفاده می‌کنند. کسی میتونه چیزی با مثال معرفی کنه؟
به دنبال یک متن خوب در مورد تجزیه و تحلیل آماری داده های رضایت
63128
من روی مدل‌های BASEL II IRB کار می‌کنم و باید ضرر را بر اساس پیش‌فرض‌های تاریخی تخمین بزنیم. نتایج/سناریوهای مختلفی وجود دارد که ما شناسایی کرده‌ایم که یک پیش‌فرض ممکن است با آن مواجه شود که بر LGD تأثیر می‌گذارد، مانند CURE، فروش اجباری، ضرر، درمان جزئی. ما داده‌های مورد نیاز را داریم تا بتوانیم امکان انجام طبقه‌بندی را فراهم کنیم، اما مطمئن نیستم که چه شکلی از تجزیه و تحلیل برای پردازش این داده‌ها و تولید تقسیم‌بندی‌های لازم و تخمین‌های بعدی ضرر برای هر یک مناسب است. ما در حال حاضر داده‌هایی در قالبی داریم که هر ماه یک ردیف در هر ماه پیش‌فرض برای هر ماه از جمله و از زمانی که حساب برای اولین بار پیش‌فرض شده است. تعدادی از سناریوها شامل فعالیت در طول چند ماه برای یک حساب پیش فرض است. من مطمئن نیستم که چه شکلی از تحلیل را باید انجام دهم. من درختان طبقه بندی را در نظر گرفتم اما به عنوان یک معیار می تواند چندین ماه (در ردیف) را در بر بگیرد، فکر نمی کنم این کار موثر باشد و همچنین تجزیه و تحلیل سری های زمانی را در نظر گرفتم، اما این یک منطقه جدید برای من است و مطمئن نیستم که آیا می تواند خارج شود یا خیر. رویدادها از چه شکل تحلیلی باید استفاده کنم و آیا منابع خاصی برای آن در R وجود دارد که فکر می کنید مفید باشد؟ **به روز رسانی** من مجموعه داده را به مجموعه ای از عکس های فوری 6 ماهه کاهش داده ام و هر حساب را در هر موقعیت به گونه ای طبقه بندی کرده ام که مجموعه داده ای مانند `ID,Age,LGDstatus,LTV,BTV,[OTHER CHARACTERISTICS],Bal,BalChangeSinceInception دارم. در جایی که باید یک مدل پیش بینی ساخته شود به گونه ای که بتوانیم پیش بینی کنیم که BalChangeSinceInception برای هر کدام چقدر انتظار می رود. LGDstatus در هر نقطه، و احتمال اینکه یک حساب به LGDstatus های مختلف برود. به‌طور ساده می‌توانم پیش‌بینی بسازم که می‌گوید... یک حساب پیش‌فرض شده است، بر اساس این عوامل x، در ماه Y ما انتظار ضرر z% بر اساس یک% احتمال تجربه LOSS و b% احتمال تجربه را داریم. یک درمان با این حال، ممکن است این رویکرد اشتباه باشد و جهت گیری بسیار ارزشمند باشد.
با توجه به برآوردهای پیش‌فرض، از چه شکل تحلیلی باید برای ضرر استفاده کرد؟
95588
اگر جای درستی برای این سوال نیست، پیشاپیش عذرخواهی می کنم. من قصد دارم یک تورنمنت 36 نفره را در یک فعالیت خاص اجرا کنم که دو دور اول آن مسابقات 3 جانبه (36->12->4) است. سوال من این است که چگونه می توان به طور عادلانه این مسابقات 3 طرفه را مشاهده کرد. قبل از دور 36، من ایده خوبی از قدرت بازیکن خواهم داشت و دانه ها این قدرت را منعکس خواهند کرد. من می‌توانم بازی‌ها را بر اساس دانه‌بندی یا با تخمین تقریبی قدرت بازیکن تعیین کنم. ایده من این بود که بالاترین قدرت برنامه را به رتبه سی و ششم، رتبه دوم بالاترین به رتبه سی و پنجم و غیره بدهم. آیا روش خوبی برای تعیین تطابق وجود دارد تا این اتفاق بیفتد یا روش دیگری وجود دارد که بتواند انجام دهد. برای کاشت چنین همسانی مناسب است؟
مشکل کاشت برای براکت 3 طرفه
29203
برای یکی از پروژه‌هایم باید احتمال بعدی بازدید از حالت S و انتشار یک نماد را پیدا کنم. من یک HMM در R ساخته‌ام و بعداً یک دنباله مشاهده دریافت می‌کنم. اما ، من قادر به تفسیر خروجی نیستم. > # دنباله مشاهدات > مشاهدات = c(L, L, R, R) > # محاسبه احتمالات پسین حالات > پسین = پسین (هوم، مشاهدات) ## ---> اُمم مدل مارکوف پنهان است > حالت های شاخص چاپ (پسین) 1 2 3 4 A 0.6037344 0.56639 0.43361 0.3962656 B 0.3962656 0.43361 0.56639 0.6037344 چگونه این را تفسیر کنم؟ این ماتریس زمان خروجی W.R.T را می دهد. اما، من نیاز به احتمال عقبی برای بازدید از یک حالت S و انتشار نمادی به عنوان A دارم. چگونه می توانم آن را دریافت کنم؟ * * * از پاسخ متشکریم. توضیحات می گوید که احتمالات رو به جلو و عقب را برای بدست آوردن جزئیات بعدی ترکیب می کند... اما همانطور که در مقالات خوانده ام، الگوریتم رو به عقب احتمال قرار گرفتن در حالت مثلا A و انتشار را می دهد. نمادی بگو L.. که من اینجا نمی بینم. در اینجا تمام جزئیات HMM آمده است - # Initialise HMM # init HMM format: A و B حالت های پنهان هستند، L و R مشاهدات هستند، transprob: # احتمال انتقال اولیه و probs انتشار IS EMISSION احتمال hmm = initHMM(c(A، B)، c (L، R)، transProbs=ماتریس(c(.8،.2،.2،.8)،2)، emissionProbs=ماتریس(c(.6،.4،.4،.6)،2)) print(hmm) # دنباله مشاهدات مشاهدات = c(L،L،R،R) # محاسبه احتمالات پسین حالات پسین = پسین(هوم،مشاهدات) چاپ(پسین) شرح POSTERIOR: این تابع احتمالات پسین بودن در حالت X در زمان k را برای یک دنباله مشاهدات معین و یک مدل مارکوف پنهان معین محاسبه می کند. جزئیات احتمال عقبی بودن در حالت X در زمان k را می توان از احتمالات رو به جلو و عقب محاسبه کرد: Ws(X_k = X | E_1 = e_1، ...، E_n = e_n) = f[X,k] * b [X,k] / Prob(E_1 = e_1، ... , E_n = e_n) جایی که E_1...E_n = e_1...e_n است دنباله انتشارات مشاهده شده و X_k یک متغیر تصادفی است که وضعیت را در زمان k نشان می دهد. اما به طور کلی چگونه می توانیم بدون استفاده از این الگو، احتمال پسین را محاسبه کنیم
احتمال پسین با استفاده از الگوریتم رو به عقب در R
46588
من کمی گیج هستم. چرا فرآیندهای گاوسی را مدل های غیر پارامتری می نامند؟ آن‌ها فرض می‌کنند که مقادیر تابعی یا زیرمجموعه‌ای از آن‌ها دارای پیشینی گاوسی با میانگین 0 و تابع کوواریانس به عنوان تابع هسته هستند. این توابع هسته خود دارای برخی پارامترها (به عنوان مثال، هایپرپارامترها) هستند. پس چرا آنها را مدل های غیر پارامتری می نامند؟
چرا مدل های فرآیند گاوسی ناپارامتریک نامیده می شوند؟
82863
در رگرسیون خطی، باید بررسی کنیم که کدام فرض نقض شده است. اما برای رگرسیون لجستیک چه مفروضاتی برای مدل داریم؟ سعی کردم سرم را دور این چیز بپیچم. اما تشخیصی که من می توانم به درستی به آن دست پیدا کنم، نمودار DFBETAS و نمودار باقیمانده پیرسون است.
تشخیص رگرسیون لجستیک
95584
بنابراین عنوان کمی گمراه کننده است. من در مشاهدات متعدد در طی چند سال یک متغیر وابسته به طبقه (نه ، شاید ، بله) دارم که به درصد که گفته است بله تبدیل شده ام ، بنابراین از نظر فنی اکنون بله در مقابل نه و شاید است. و با 0 (0%) و 1 (100%) محدود می شود. من از OLS استفاده می کنم زیرا من به یک واحد افزایش ارتباط بین متغیر مستقل (درصد دیگر) و متغیر وابسته خود علاقه مندم. هیچ یک از ضرایب متغیر مستقل من باعث نمی شود که متغیر وابسته من از 0 (0%) و 1 (100%) عبور کند. علاوه بر این ، علاوه بر از دست دادن قابلیت تفسیر ، من نمی خواهم از رگرسیون لجستیک استفاده کنم زیرا شیوع متغیر مستقل من بسیار زیاد است (در بیشتر موارد 65 ٪) ، بنابراین نتیجه یا از رگرسیون لجستیک خواهد بود باد کرده همه شما چه می گویید؟ اگر کسی خیلی قاطع باشد که من یک متغیر نتیجه دوگانه دارم، استفاده از OLS را در این مورد چگونه توضیح می دهید؟
لجستیک در مقابل OLS
45582
من مجموعه ای از 40 داده بیان ژن را به عنوان متغیرهای باینری دارم (بیش از حد بیان شده بله یا خیر) برای پیش بینی عود در نوعی سرطان در نمونه ای متشکل از 77 بیمار، که 22 مورد عود کرده است. این مجموعه Discovery Set نام دارد. هدف یافتن زیرمجموعه ای از این ژن ها برای پیش بینی عود در سرطان است. زمان‌های تکرار و زمان‌های پیگیری برای مشاهدات سانسور شده ذخیره شد. در مرحله اول، من مدل رگرسیون کاکس تک متغیره را برازش کردم و 13 ژن از مجموعه 40 ژنی اصلی را کنار گذاشتم و آنهایی را که دارای P-value > 0.25 در LRT بودند حذف کردم. سپس ، من فقط با 27 ژن کار می کنم. در مرحله دوم، من تمام مدل‌های چند متغیره ممکن از 3 متغیر، 4 متغیر، 5 متغیر و غیره را تجزیه و تحلیل می‌کنم. تصمیم می‌گیرم که مدل پیش‌بینی‌کننده‌تر متغیرهای $X$ برازش رگرسیون چند متغیره کاکس و محاسبه میانگین c-index از چیست. 100 بار رزومه 5 پوشه. برای محاسبه c-index از «index.corrected» گزارش شده توسط تابع «اعتبارسنجی» بسته «rms» هارل استفاده می‌کنم و میانگین 100 باری که CV را اجرا می‌کنم محاسبه می‌کنم. من از AIC برای مقایسه بهترین مدل با متغیرهای $X+1$ و بهترین مدل با متغیر $X$ استفاده می‌کنم تا تصمیم بگیرم که بهترین مدل پیش‌بینی‌کننده کدام است. در نهایت، من یک مجموعه اعتبارسنجی مستقل از بیماران ($n=105$) دارم که در آن مدل را بررسی خواهم کرد. من از پیش بینی خطی بهترین مدل در مجموعه اکتشاف به عنوان شاخص پیش آگهی، تقسیم بر یک سوم خطر و محاسبه مقادیر شاخص پیش آگهی این بیماران جدید استفاده خواهم کرد. من تفاوت های آماری 3 گروه را با آزمون log-rank، HR با 95CI٪ و KM Plots تجزیه و تحلیل خواهم کرد.
بهترین مدل رگرسیون کاکس پیش بینی با استفاده از شاخص c و اعتبار متقاطع
112613
من سعی کرده ام مشکل مشابهی پیدا کنم، اما نشد، بنابراین سعی می کنم توضیح دهم که به دنبال چه چیزی هستم. من برای سایت های مختلف A,B,C و D دارم. در هر سایت یک جنگل و یک فالو دارم=> AFo, AFa, BFo,BFa... در هر جنگل و آیش 4 ربع دارم: AFo1, AFo2, AFo3 , AFo4 , AFa1 ,... متغیرهای مختلفی مانند pH، رسانایی الکتریکی، فسفر کل و غیره را در همه ربع ها اندازه گیری کردم. هدف من مقایسه جنگل ها با آیش است، اما باید تنوع بین سایت ها و ربع ها را در نظر بگیرم. من یک ANOVA متقاطع دو طرفه ایجاد کرده ام، اما معلمم به من گفت که باید یک آزمون t انجام دهم که زیر نمونه ها (کوادرات ها) را در نظر بگیرد. فاکتور ثابت من جنگل/آش و فاکتور تصادفی من سایت ها خواهد بود. کسی میتونه کمکم کنه لطفا؟ :) پیشاپیش خیلی ممنونم! لیلی * * * کم و بیش، اما معمولاً از من می‌خواهد که تست t را روی تمام AFo-ها انجام دهم، در حالی که نمونه‌های فرعی 1،2،3 و 4 را در نظر می‌گیرم. زیرا کاری که من می‌خواهم انجام دهم این نیست که ربع 1 از جنگل را با ربع 1 از آیش مقایسه کنید، اما میانگین 4 ربع جنگل را با میانگین 4 ربع جنگل مقایسه کنید. آیش هوم نمی دونم دارم به وضوح بیان می کنم یا نه..
آزمون t جفت شده با نمونه های فرعی در R؟
90030
می‌خواهم کشف کنم که کدام «عوامل تقویم» (مثلاً روز هفته، ماه) قوی‌ترین رابطه را با اینکه یک محصول خاص حداقل یک بار فروخته شده است، دارد. برای روزهایی که محصول فروخته شده است، اطلاعاتی مانند این دارم: تاریخ روز هفته نوع ماه 01-01-2014 چهارشنبه روز هفته 01-13-2014 ژانویه دوشنبه روز هفته ژانویه 02-09-2014 یکشنبه آخر هفته 02-15-2014 بهمن شنبه آخر هفته 02-16-2014 یکشنبه آخر هفته 02-23-2014 یکشنبه آخر هفته فوریه اگر وانمود کنیم که این کل مجموعه داده است، می بینیم که محصول بیشتر یکشنبه های فوریه فروخته شده است. من با ایجاد نسبتی از «روزهای فروش» به کل جمعیت، راه ساده‌ای برای رتبه‌بندی هر عامل تقویم جداگانه (به عنوان مثال ماه) و همچنین چند ترکیب (مثلاً نوع روز + ماه) ارائه کرده‌ام: با استفاده از مثال داده ها، چهارشنبه + ژانویه دارای رتبه 1/5 خواهند بود. با این حال، من در تلاش هستم تا بدون انتخاب بالاترین رتبه، تعیین کنم که کدام عوامل و/یا ترکیبی از عوامل مهم هستند. من احساس می کنم باید یک رویکرد ریاضی قوی تری برای حل این نوع مسائل وجود داشته باشد. هر ایده ای؟ همچنین، چگونه این مشکل را طبقه بندی می کنید؟
چگونه می توان مهم ترین عوامل یا ترکیبی از سطوح را در یک مجموعه داده محدود پیدا کرد
95634
من یک سوال زیر دارم که به تنهایی نتوانستم آن را حل کنم. تصور کنید که من مقداری از ویژگی X را از داده‌ها اندازه‌گیری کرده‌ام و برای سادگی، قسمت عقبی گاوسی است: $P(X|D) \sim Normal(X_0, \Sigma) $ حالا فرض می‌کنم که مدل خاصی M با پارامترهای $\phi دارم. $ که در آن $X=F(\phi)$ و $F()$ یک تابع دلخواه است. و اکنون سعی می کنم استنتاج را در مورد $\phi$ بیان کنم، به عنوان مثال. $P(\phi|M D)$ من به طور خاص به موردی علاقه مند هستم که نگاشت $F$ ساده نباشد $R^n$ -> $R^n$ و کل فضای X را پوشش ندهد. به عنوان مثال. در حالت دوبعدی $x_1=cos(\phi)$ و $x_2=sin(\phi)$ من علاقه مندم که یک فرمول برای $P(\phi| M, D) $ مشتق از قواعد اساسی باشد. از شهود ساده لوحانه حدس می زنم فرمول $P(\phi | M, D) \sim P(\phi |M) خواهد بود * Gaussian(F(\phi)-X_0,\Sigma)$ اما من واقعاً نمی توانم استخراج کنم آن را از قوانین کاکس. من از هر کمکی در این مورد قدردانی می کنم، فکر می کنم نباید خیلی پیچیده باشد.
استنتاج بیزی با تغییر متغیرها
95630
به عنوان بخشی از آزمایش روانی اجتماعی خود، یک هنجار الکلی: کم در مقابل کنترل) x 2 (هنجار زندگی اجتماعی: مثبت در مقابل کنترل) x شناسایی گروهی (مستمر، میانگین محور) x نگرش (مستمر) انجام دادم. ، میانگین محور) ANOVA بر روی متغیر وابسته (مصرف الکل) و شامل متغیر کمکی (فشار اجتماعی) بود. من در نحوه تفسیر نتایج خود و اینکه کدام آزمون‌های آماری باید در مرحله بعدی اجرا شوند، بسیار گیج شده‌ام: 1) تأثیر متغیر کمکی من (فشار اجتماعی) قابل توجه بود، بنابراین یک رگرسیون خطی ساده انجام دادم تا رابطه کلی بین فشار اجتماعی را ببینم. و مصرف الکل خوبه؟ 2) گنجاندن متغیر کمکی در ANOVA هیچ یک از اثرات اصلی را از همان تجزیه و تحلیل بدون متغیر کمکی به طور قابل توجهی تغییر نداد، بنابراین به این نتیجه رسیدم که فشار اجتماعی مصرف الکل را بالاتر و فراتر از تأثیرات تعامل بین شناسایی گروه، نگرش، پیش‌بینی نمی‌کند. هنجار الکل و هنجار زندگی اجتماعی. از نظر آماری درست به نظر می رسد، آیا کسی می تواند به من کمک کند تا بفهمم این برای افراد غیر عادی چه معنایی دارد؟ 3) در حالی که سعی می کردم نتیجه گیری خود را از Q2 تفسیر کنم، به این نتیجه رسیدم که شاید فشار اجتماعی و هنجار الکل مستقل نیستند. آیا وقتی آنها را در آن ANOVA قرار دادم، آیا باید فرض می‌کردم که آنها مستقل هستند؟ من یک آزمون تی نمونه مستقل روی فشار اجتماعی با هنجار الکل به عنوان متغیر گروه‌بندی انجام دادم، که تأیید کرد که فشار اجتماعی در شرایط «کنترل» برای هنجار الکل به طور قابل‌توجهی بالاتر از شرایط «کم» است. بنابراین هنگام تفسیر نتایج اصلی، به این نتیجه رسیدم که ممکن است فشار اجتماعی قابل توجه نباشد، زیرا قبلاً در هنجار الکل گرفته شده بود، و بنابراین هیچ اثر اضافی نداشت. آیا این یک نتیجه گیری معتبر است؟ اگر نه، کسی می تواند توضیح دهد که چرا؟ همچنین، آیا باید تنظیمات بعدی را برای آزمون t انجام دهم؟ با عرض پوزش برای همه سوالات، اما همانطور که می توانید بگویید من در اینجا بسیار گیج شده ام. کمک به هر یک یا همه این سوالات بسیار قدردانی می شود
تفسیر اثرات یک متغیر کمکی در ANOVA پیوسته 2 x 2 x پیوسته؟
10441
من آزمایشی را اجرا می‌کنم که در آن نمونه‌های (مستقل) را به صورت موازی جمع‌آوری می‌کنم، واریانس هر گروه از نمونه‌ها را محاسبه می‌کنم و اکنون می‌خواهم همه را ترکیب کنم تا واریانس کل همه نمونه‌ها را بیابم. من در پیدا کردن یک مشتق برای این مشکل دارم زیرا از اصطلاحات مطمئن نیستم. من به آن به عنوان پارتیشن یک RV فکر می کنم. بنابراین می‌خواهم $Var(X)$ را از $Var(X_1)$، $Var(X_2)$، ...، و $Var(X_n)$ پیدا کنم، جایی که $X$ = $[X_1، X_2، \ نقطه، X_n]$. ویرایش: پارتیشن‌ها اندازه/کاردینالیته یکسانی ندارند، اما مجموع اندازه‌های پارتیشن برابر با تعداد نمونه‌های مجموعه نمونه کلی است. ویرایش 2: در اینجا فرمولی برای محاسبات موازی وجود دارد، اما فقط مورد یک پارتیشن را به دو مجموعه پوشش می‌دهد، نه مجموعه‌های $n$.
نحوه محاسبه واریانس یک پارتیشن از متغیرها
99256
من می‌خواهم MCA (تحلیل مکاتبات چندگانه) را در جدول داده‌ای شامل مناطق به‌عنوان افراد، و INFESTED AREA به عنوان متغیر و درجه آلوده و همچنین نوع درختان آلوده اعمال کنم، و می‌خواهم MCA را با استفاده از XLSTAT یا هر برنامه‌ای برای آن اعمال کنم، اما من در سازماندهی این داده ها مشکل دارم، در اینجا یک نمونه از آن: نمونه ای برای سال 2013 ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/wOwdq.png) و موارد دیگر برای سال 2012: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mV7BP.png) من می خواهم برای یافتن راهی برای سازماندهی این داده ها، آنها را به عنوان دسته بندی مناسب برای تجزیه و تحلیل MCA قرار دهید؟ و می خواهم بدانم آیا می توانم MCA را برای سال های مختلف روی یک جدول اعمال کنم؟
انجام تجزیه و تحلیل مکاتبات چندگانه (MCA) با استفاده از R?
80215
تصور کنید آرایه ای از اعداد صحیح دارید. شما باید احتمال مواجهه با آرایه فرعی عدد صحیح را در آن لیست محاسبه کنید. به عنوان مثال: **لیست اصلی:** '1284726437594563495834905834095845634853' که N عدد صحیح از 0 تا 9 است. ? ** ملاحظات من: ** N-2 مجموعه های ممکن از 3 عدد در لیست بزرگ هستند. هر کدام (1/10)^3 نوع دارند. با ترتیب قابل توجه، ما به یکی از آنها نیاز داریم، اما هر مکانی از الگو مطابقت دارد. بنابراین (1/10)^3 * (N-2) داریم در صورتی که ترتیب معنی دار نباشد، n ​​وجود دارد! جایگشت های ممکن برای n مورد بنابراین فرمول (1/10)^3 * 3 است! * (ن-2) درست می گویم؟ به روز رسانی: ارقام به صورت تصادفی توزیع می شوند، یعنی احتمالات آنها برابر است. لیست تعدادی دنباله از این ارقام تصادفی است. منظور من از برخورد داشتن حداقل یک دنباله 456 در مجموعه داده داده شده است. به نظر می رسد که ملاحظات من اشتباه بوده است. در اینجا یک نسخه تصحیح شده است: احتمال ملاقات با حداقل یک آرایه فرعی '456': احتمال عدم ملاقات با هیچ یک (1 - (1/10)^3) ^ (N-2) است، بنابراین احتمال ملاقات با یک است 1 - (1 - (1/10)^3) ^ (N-2) محتمل ترین تعداد الگوها (N-2) * 1/10^3 است
چگونه می توانم احتمال برخورد با الگوی اعداد را در لیست اعداد محاسبه کنم؟
112612
من بردارهای چندگانه متغیرهای مستقل و بردارهای چندگانه متغیرهای وابسته را از شبیه سازی مونت کارلو دارم. برای هر متغیر وابسته، می‌خواهم سهم هر متغیر مستقل را در عدم قطعیت متغیر وابسته بدانم. من جعبه ابزار آمار MATLAB را دارم. من به دنبال رویکرد کلی هستم. رویکرد خاص با جعبه ابزار آمار MATLAB می تواند به علاوه.
تجزیه و تحلیل حساسیت برای متغیرهای چندگانه وابسته و مستقل
63121
من در مورد تفسیر رگرسیون چندگانه مشکل دارم. برای $Y=a+bX_1+cX_2$، تاثیر متغیر مستقل $X_1$ روی $Y$، متغیر وابسته، مثبت است (ضریب $b$ مثبت است). این بدان معنی است که افزایش یک واحد X_1$ منجر به افزایش یک واحد $Y$ می شود که با تفسیر اقتصادی مطابقت دارد. اما در مجموعه داده من، $X_1$ نیز مقادیر منفی دارد. برای آن مقادیر، تفسیر دیگر درست نیست. افزایش با 1 واحد از X_1$ منجر به کاهش Y، به معنی یک رابطه معکوس خواهد شد. من چه غلطی می کنم؟ آیا بهتر است از داده ها به عنوان مقادیر مطلق ABS(X) استفاده کنیم؟
رگرسیون چندگانه با داده های مثبت و منفی
90032
من یک سری رویداد دارم که با استفاده از یک نرم افزار خاص اهمیت آنها را محاسبه می کنم. با توجه به اینکه نرم افزاری که در نتیجه رویدادهای مهم و به دنبال آن یک احتمال پسین (PP) در هر رویداد خروجی می دهد، آیا راهی برای پردازش آن رویدادها با استفاده از R برای محاسبه نرخ کشف نادرست (FDR) مرتبط و فیلتر کردن آنها به یک مشخصه وجود دارد. FDR همراه با PP خاص ترکیب شده است؟ من برخی از مقالات را خواندم که در آنها از محاسبه FDR بنجامینی-هوچبرگ استفاده می کردند، اما جایگزین های زیادی پیدا کردم که کمی من را گیج کرده است. به عنوان مثال، این لیست من از 20 اولین رویداد PP است که توسط نرم افزار یافت شده است. هر رویداد توسط ستون های 2 تا 4 تعیین می شود و مورد ششم مربوط به مقدار PP است. عرض پایان شروع فضا PP 1 chr1 9950 10100 151 0.999999999996379 2 chr1 10400 11500 1101 1 3 chr1 13250 13650 401 0.999999999999999999999999999999999999913650 13650 13900 14400 501 0.9999999999999933 5 chr1 14550 14650 101 0.991426544211918 6 chr1 15150 15250 15250 10978 chr1 15500 15750 251 1 8 chr1 17100 17250 151 0.999907293781992 9 chr1 17850 18000 151 0.999827190159 29900 1101 1 11 chr1 34800 34950 151 0.999999928381097 12 chr1 46900 47050 151 0.99998442329956191910. 0.999957532522137 14 chr1 134550 134700 151 0.909017332110283 15 chr1 136850 136950 101 0.916177526r 151300 101 0.999895368100688 17 chr1 235850 235950 101 0.999185144466072 18 chr1 236450 236600 236600 1919 236600 236600 1919 chr1 237700 237900 201 1 20 chr1 324900 325050 151 0.999065471728184 با تشکر از کمک شما!
با توجه به یک سری امتیازات احتمال پسین، چگونه می توان FDR را تخمین زد؟
8972
آزمایشی را با چندین شرکت‌کننده انسانی در نظر بگیرید که هر کدام چندین بار در دو شرایط اندازه‌گیری شده‌اند. یک مدل اثرات مختلط را می توان (با استفاده از نحو lme4) به صورت زیر فرموله کرد: fit = lmer(فرمول = اندازه گیری ~ (1|شرکت کننده) + شرط) حال، بگویید من می خواهم فواصل اطمینان بوت استرپ را برای پیش بینی های این مدل ایجاد کنم. فکر می‌کنم روش ساده و محاسباتی کارآمدی پیدا کرده‌ام، و مطمئن هستم که اولین کسی نیستم که به آن فکر می‌کنم، اما در یافتن انتشارات قبلی که این روش را توصیف می‌کند، مشکل دارم. در اینجا این است: 1. مدل را متناسب کنید (مانند بالا)، آن را مدل اصلی بنامید. 2. پیش بینی هایی را از مدل اصلی به دست آورید، آنها را پیش بینی های اصلی بنامید. 3. باقیمانده هایی را از مدل اصلی مرتبط با هر پاسخ از هر شرکت کننده 4. نمونه برداری مجدد از باقیمانده ها، نمونه برداری از شرکت کنندگان با جایگزینی 5. یک مدل اثرات مختلط خطی با خطای گاوسی را برازش کنید. _residuals_، این را مدل موقت نامید. 6. پیش بینی های مدل موقت را برای هر شرط محاسبه کنید (این پیش بینی ها بسیار نزدیک به صفر خواهند بود)، آنها را پیش بینی های موقت نامید. 7. پیش بینی های موقت را به پیش بینی های اصلی اضافه کنید، تماس بگیرید نتیجه پیش‌نمونه‌های مجدد 8. مراحل 4 تا 7 را بارها تکرار کنید، و توزیعی از پیش‌بینی‌های نمونه مجدد برای هر شرط از که یک بار می تواند CI ها را محاسبه کند. من رویه‌های «راه‌اندازی باقی‌مانده» را در زمینه رگرسیون ساده (یعنی یک مدل مختلط) دیده‌ام که در آن باقیمانده‌ها به عنوان واحد نمونه‌گیری مجدد نمونه‌برداری می‌شوند و سپس قبل از برازش یک مدل جدید در هر تکرار، به پیش‌بینی‌های مدل اصلی اضافه می‌شوند. بوت استرپ، اما به نظر می‌رسد که این با رویکردی که من توصیف می‌کنم متفاوت است، جایی که باقیمانده‌ها هرگز نمونه‌گیری مجدد نمی‌شوند، افراد هستند، و فقط _after_ مدل موقت است. به‌دست‌آمده، پیش‌بینی‌های مدل اصلی وارد عمل می‌شوند. این ویژگی آخر یک مزیت جانبی واقعاً خوب دارد، زیرا صرف نظر از پیچیدگی مدل اصلی، مدل موقت همیشه می تواند به عنوان یک مدل مخلوط خطی گاوسی مناسب باشد، که در برخی موارد می تواند به طور قابل ملاحظه ای سریعتر باشد. به عنوان مثال، اخیراً داده‌های دوجمله‌ای و 3 متغیر پیش‌بینی‌کننده داشتم، که یکی از آنها مشکوک بودم که اثرات غیرخطی شدیدی ایجاد می‌کند، بنابراین مجبور شدم از مدل‌سازی ترکیبی افزودنی تعمیم‌یافته با استفاده از یک تابع پیوند دو جمله‌ای استفاده کنم. نصب مدل اصلی در این مورد بیش از یک ساعت طول کشید، در حالی که نصب LMM گاوسی در هر تکرار تنها چند ثانیه طول کشید. من واقعاً نمی‌خواهم در این مورد ادعای اولویت داشته باشم، اگر قبلاً یک روش شناخته شده است، بنابراین اگر کسی بتواند اطلاعاتی در مورد جایی که ممکن است قبلاً توضیح داده شده باشد، ارائه دهد بسیار سپاسگزار خواهم بود. (همچنین، اگر مشکلات آشکاری در این روش وجود دارد، به من اطلاع دهید!)
آیا نامی برای این نوع بوت استرپینگ وجود دارد؟