_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
62434
من شنیدم که برای داده های باینری گروه بندی نشده، انحراف را نمی توان با توزیع $\chi^2$ تقریبی کرد. آیا حقیقت دارد؟ چرا؟ پیشاپیش متشکرم
برای داده های باینری گروه بندی نشده، آیا می توان انحراف را با توزیع مجذور کای تقریب زد؟
44581
من دو مدل خطی تعمیم یافته mod1 و mod2 دارم. mod1 <- glm (امتیاز ~ ارتفاع + ژن، داده = mydata، خانواده = دوجمله ای) mod2 <- glm (امتیاز ~ ارتفاع * ژن، داده = mydata، خانواده = دوجمله ای) من می خواهم تجزیه و تحلیل انحراف را برای آزمایش اهمیت انجام دهم از اصطلاح تعامل ابتدا 'anova(mod1,mod2)' را انجام دادم و از تابع '1 - pchisq()' برای بدست آوردن یک مقدار p برای نتیجه انحراف که از جدول anova گرفتم استفاده کردم. من همچنین آزمایش دیگری انجام دادم: `anova(mod2, test=Chisq)`. این یک جدول برای همه عبارت‌هایی که به ترتیب اول تا آخر اضافه می‌شوند نشان می‌دهد، و من یک مقدار p-value بسیار متفاوت برای عبارت تعامل «Height: Gene» به دست آوردم... **از کدام یک استفاده کنم؟**
تجزیه و تحلیل انحراف در R - کدام آزمون؟
62438
من اخیراً در مورد فاصله Mahalanobis سؤال کردم و در این پست پاسخ های بسیار خوبی دریافت کردم: توضیح از پایین به بالا در مورد فاصله Mahalanobis؟ فکر می‌کنم ایده را دریافت کردم، اما چیزی که هنوز احساس می‌کردم گم شده‌ام، استخراج فرمول فاصله ماهالانوبیس بود. بنابراین سوال من این است: چگونه می توان فرمول فاصله Mahalanobis را استخراج کرد؟ چرا فرمول این شکل را دارد: $$D(\textbf{x},\textbf{y})=\sqrt{ (\textbf{x}-\textbf{y})^TC^{-1}(\ textbf{x}-\textbf{y})} $$ شاید کسی می‌تواند مشتق مشابهی را همانطور که کاربر @sjm.majewski در تحلیل مؤلفه اصلی در پیوند زیر: ایجاد حس تجزیه و تحلیل مؤلفه های اصلی، بردارهای ویژه و مقادیر ویژه به روز رسانی: از ویکی پدیا توضیح بصری این بود: «فاصله ماهالانوبیس به سادگی فاصله نقطه آزمایش از مرکز جرم تقسیم بر عرض بیضی در جهت است. نقطه آزمون. بنابراین آیا $C^{-1}$ عرض بیضی در جهت نقطه آزمایش است؟ منظورم این فاصله است که می توانم بفهمم: $$\displaystyle\frac{\textbf{x}-\textbf{u}}{\sigma}$$ اما این فاصله من را گیج می کند...:/ $$\sqrt{ (\ textbf{x}-\textbf{y})^TC^{-1}(\textbf{x}-\textbf{y})} $$
اشتقاق فرمول فاصله ماهالانوبیس
46988
فرض کنید به یک متغیر ترتیبی با دسته بندی $4$ نگاه می کنیم. بنابراین سه ضریب آستانه $b_1، \dots b_3$ و یک شیب probit $b_4$ وجود دارد. تعبیر عبارات زیر چیست: $$\frac{b_{1}}{b_{4}^{2}}، \frac{b_{2}}{b_{4}^{2}}، \ frac{b_{3}}{b_{4}^2}، \frac{1}{b_{4}}$$ با فرض توزیع نرمال چند متغیره؟
تفسیر بیان در رگرسیون ترتیبی
45188
من می خواهم یک فاصله اطمینان حول پیش بینی از یک شبکه عصبی، بدون توسل به بوت استرپ ایجاد کنم - با توجه به هزینه محاسباتی. آیا می توانم از Hessian برگشت داده شده به این روش برای تولید CI 95% استفاده کنم؟ 1) آیا می توانید معکوس منفی هسین را به عنوان ماتریس var/covar بگیرید؟ من اینجا خواندم که این بستگی به چیزی دارد که حداکثر یا حداقل شود. آیا این درست است و چگونه می توانید به طور قطعی بدانید؟ 2) آیا این یک روال پذیرفته شده برای ایجاد فاصله اطمینان حول یک پیش بینی است و اگر چنین است، چگونه آن را انجام می دهید؟
فاصله پیش بینی شبکه عصبی با Hessian :: nnet در R
17571
همه در عنوان هستند... من می دانم چگونه تخمین ها را ذخیره کنم اما نمی دانم چگونه خطاهای استاندارد آنها را ذخیره کنم... با تشکر > x <- runif(100) > y <- 5 + 3 * x + rnorm (100، 0، 0.15) > reg <- lm(y~x) > > خلاصه (reg) تماس: lm(فرمول = y ~ x) باقیمانده ها: حداقل 1Q میانه 3Q Max -0.32198 -0.12626 0.02584 0.10873 0.31411 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 5.00931 0.03087 162.25 <2e-16 *** x 2.98162 0.05359 55.64 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقی مانده: 0.1499 در 98 درجه آزادی چندگانه R-squared: 0.9693، تنظیم شده F-squad: 0.969 آمار: 3096 در 1 و 98 DF، p-value: < 2.2e-16 > > reg$coef (Intercept) x 5.009309 2.981617
چگونه خطاهای استاندارد را با تابع lm() در R ذخیره کنیم؟
80032
اجازه دهید $X \sim N(0, \sigma^2)$. من می خواهم نشان دهم که $$E[|X|]= \sigma.$$
چگونه $E[|X|]= \sigma$ را نشان دهیم که در آن $X \sim N(0، \sigma^2)$ است؟
81929
من فکر می کنم تصور اشتباهی در مورد اهمیت آماری دارم. به عنوان مثال، من دو درمان A و B دارم. میانگین اثر A 105- با 95% CI:(-168،-42) و برای B-88 با 95% CI: (146-، -29) است. کدام یک از نتایج از نظر آماری معنادارتر است؟ چه زمانی می توانیم به طور کلی نتیجه بگیریم که نتیجه بر اساس مقادیر p یا فواصل اطمینان بیشتر از نظر آماری معنی دار است؟ با این حال، من در اینجا خوانده ام که اگر مقدار p > «بسیار کوچکتر» از مقدار آلفا باشد، به جای اینکه صرفاً «کمی > کوچکتر» باشد، نتیجه از نظر آماری «بیشتر» نمی شود. پس آیا مقایسه معناداری آماری به این شکل صحیح است؟ من خیلی گیج هستم، بنابراین از هرگونه راهنمایی قدردانی می کنم.
از نظر آماری معنی دار تر به چه معناست؟
104039
من مدتی است که با این مشکل دست و پنجه نرم می کنم و پیشرفت چندانی ندارم. هر پیشنهادی مفید خواهد بود! فرض کنید من X_1$، ..، X_5، Y_1، ...، Y_5، X'_1، ...، X'_5، Y'_1، ...، Y'_5$ دارم، یعنی 4 گروه دارم هر کدام از 5 متغیر تصادفی r.v.s در هر گروه i.i.d است. و توزیع های مجهول $X, Y, X', Y'$ را به ترتیب دنبال کنید. من می خواهم فرضیه صفر $H_0 را آزمایش کنم: \mathbb{E}\dfrac{X}{Y} = \mathbb{E}\dfrac{X'}{Y'}$. من نسبتاً در مورد نحوه انجام این کار گیر کرده ام. اگر آسان‌تر است، من با آزمایش فرضیه صفر $H'_0 هم خوب هستم: \dfrac{\mathbb{E}X}{\mathbb{E}Y} = \dfrac{\mathbb{E}X'} {\mathbb{E}Y'}$. پیشرفتی که تاکنون داشته ام این است: 1. من فکر می کنم که تست های ناپارامتریک به دلیل تعداد کم نمونه ها، قدرت کافی در اینجا به من نمی دهد، بنابراین سعی می کنم با رویکرد پارامتری پیش بروم. 2. بر اساس دانش خاص دامنه، من می دانم که هر یک از $X، Y، X'، Y'$ را می توان به عنوان یک توزیع دوجمله ای منفی مدل کرد (من به داده های شمارش نگاه می کنم). من قبلاً توانسته ام MLE پارامترهای میانگین و شکل را برای هر توزیع برازش دهم. 3. من کاملاً مطمئن هستم که می خواهم از روش های مبتنی بر شبیه سازی برای حل این مشکل استفاده کنم، اما متوجه نشده ام که مقدار مناسب برای شبیه سازی چیست. 4. اگر کمک کند، من حدود 30000 مجموعه از این 20 مشاهدات دارم، که معتقدم 80٪ از آنها فرضیه صفر را رد نمی کنند. من سعی کردم از این 80% یک توزیع تهی تجربی بسازم (با استفاده از نسبت نسبت ها به عنوان آمار آزمون) اما با توجه به نیاز به اصلاح FDR، آستانه p-value من بسیار پایین می شود و این آزمون تجربی به من قدرت کافی نداده است. . هر گونه ایده، اشاره، و غیره بسیار قدردانی می شود! پیشاپیش از شما متشکرم
آزمون مکان نسبت متغیرهای تصادفی
81920
من 150 تصویر از نشانه های دست نویس (مانند صلیب، ستاره، دایره، سه گانه) دارم، از آنها تعداد ویژگی های نقطه منشعب، نقطه ورودی و بستن a s را استخراج کردم (با گفتن این که ویژگی ها کافی نیست): اگر هستند. یک شکل نزدیک مانند یک دایره یا یک شکل باز مانند یک صلیب. **طبقه بندی**: متقاطع: 1 نقطه انشعاب و 4 نقطه پایان، بسته = 0 دایره: 0 نقطه انشعاب و 0 نقطه پایان، بسته = 1 ستاره: 5 نقطه انشعاب و 0 نقطه پایان، بسته = 1 ترایدنت: 1 نقطه منشعب و 4 نقطه پایانی، بسته = 0 ... من 8 دسته تصویر دارم و برای هرکس طیفی از نقاط منشعب و طیفی از نقاط پایانی را برای طبقه بندی آنها در یک دسته خاص انتخاب می کنم. بنابراین یک ستاره نه تنها می تواند مانند بالا دارای 5 نقطه انشعاب و 0 نقطه پایان باشد، بلکه دامنه ای از 3-8 نقطه انشعاب و محدوده 0.4 نقطه پایانی داشته باشد. برای طبقه بندی تجربی هر تصویر جدید، تصمیم گرفتم که: موقعیت: [صلیب، سه تایی، مجهول ...] با بسته = 0 (شکل باز): با نقطه انشعاب 0 [0,0,100...] با نقطه انشعاب 1 [100 ,0,0...] با نقطه انشعاب 2 [50,50,0...] ... با نقطه انشعاب 4 [0,0,100,...] ... موقعیت: [دایره، ستاره، مجهول ...] با بسته = 1 (شکل نزدیک): با نقطه منشعب 0 [100, 0, 0...] با نقطه انشعاب 1 [0,0, 100...] ... با نقطه منشعب 4 [0 ,50,50...] #ستاره ای با استخراج ویژگی غیر دقیق با نقطه انشعاب 5 [0,100, 0...] با نقطه انشعاب 6 [0,50, 50...] #ستاره ای با استخراج ویژگی غیر دقیق موقعیت: [صلیب، سه‌گانه، مجهول ...] با بسته = 0 (شکل باز): با نقطه پایانی 0 [0,0,0,...] با نقطه پایانی 1 [0,0,100,...] با نقطه پایانی 2 [0,0,100,...] با نقطه پایانی 3 [33,33,33...] با نقطه پایانی 4 [5050,0,...] با نقطه پایانی 5 [33,33,33, ...] موقعیت [دایره، ستاره، ناشناخته،... ] با بسته = 1 (شکل نزدیک): با نقطه پایانی 0 [50,50 ,0...] با نقطه پایانی 1 [0,50,50...] با نقطه پایانی 2 [0,50,50...] ... **بعد از آن، وزن را انتخاب کردم.** برای انجام این کار، محدوده هر دسته را محاسبه می کنم (برای ستاره: (1) نقطه انشعاب : 6-4 = 2، (2) نقطه پایانی 1-0 = 1. اگر شکل کاملاً ویژگی مناسبی داشته باشد (مورد ستاره: 0 نقطه پایانی. من حداکثر وزن را می دهم (30٪). اگر 1 نقطه پایانی داشته باشد 15% . اگر 2 نقطه انتهایی داشته باشد 0% وزن. وزن مناسب را به [0،50،0،50،...] اضافه می‌کنم و برای داشتن همیشه 100% مجموع، از بقیه کم می‌کنم. در پایان، احتمالات نقاط شاخه ای و احتمالات نقاط پایانی را اضافه می کنم و برای 2 تقسیم می کنم. (Bpoint prob + Epoint prob ) / 2 برای هر مثال: تصویری با 4 نقطه انشعاب و 1 نقطه پایانی دریافت می کنم، و این یک رقم نزدیک است: وزن ستاره ای با 1 نقطه پایانی 15 درصد است بنابراین: وزن ستاره ای با 1 نقطه انشعاب 20 درصد است بنابراین: نقطه انشعاب: [0,50,50...] --> [0,65,35] نقطه پایانی: [0,50,50...] --> [0,70,30] محاسبه: [0,65, 35] + [0,70,30] / 2 = [0, 67,5, 47,5] بنابراین من احتمال ستاره بودن 67,5% و احتمال 47.5٪ ناشناخته است. 0٪ برای سایر دسته ها. متأسفانه، در بسیاری از موارد من درصد منفی یا درصد بالای 100 دارم، چگونه می توانم این مشکل را برطرف کنم؟
چگونه می توانم یک وزن را به درستی در الگوریتم طبقه بندی ایجاد شده توسط من با علامت دست نویس اضافه کنم؟
46987
من روزها در مورد این موضوع گیج بودم، اما فکر نمی‌کنم این موضوع در مدرسه پوشش داده شود. ما به طور همزمان تعدادی هواپیمای بمب‌افکن شناخته شده K را از طریق سه باتری متوالی موشک سطح به هوا (SAM)، A B C پرواز می‌کنیم. هواپیماها قادر به از بین بردن باتری های SAM نیستند. فرض کنید که باتری های SAM به اندازه کافی از یکدیگر فاصله دارند، به طوری که تنها یک باتری A، B یا C می تواند در آن واحد هواپیما را درگیر کند. یعنی دشمن سه بار جدا می شود، یک بار با هر باتری به سمت هواپیماها شلیک می کند. به عنوان مثال، اگر با 10 هواپیما شروع کنیم، باتری A 3 را شلیک می کند، B سپس به 7 مورد باقیمانده می پردازد، 2 فروند و غیره را ساقط می کند... فرض کنید هر باتری SAM تعداد تصادفی هواپیما را ساقط می کند. این عدد تصادفی از یک توزیع نرمال منحصر به فرد برای هر باتری، یعنی Mu_A، Var_A، Mu_B، Var_B و غیره گرفته شده است. ? من به پارامترها نیاز دارم، یعنی Mu_Combined، Var_Combined توزیع ترکیبی * آیا به سادگی جمع کردن توزیع ها با هم است؟ (این به نظر من کمی ساده لوحانه به نظر می رسد) * من این سوال را پیدا کردم: ترکیب توزیع های عادی \- آیا این فقط یک میانگین است؟ خیلی ممنون ویرایش: استفاده از توزیع عادی ضروری است. در مدلی که من از آن استفاده می‌کنم، تعداد هواپیماهای سرنگون‌شده به‌ویژه به تعداد آنها برای شلیک بستگی ندارد، زیرا فرض می‌شود که هر باتری یک شلیک می‌کند و فقط می‌تواند تعدادی عدد صحیح موشک شلیک کند. علاوه بر این، مدل از توزیع پیوسته با همان mu و var به عنوان دوجمله ای استفاده می کند. ظاهراً این یک تقریب کاملاً ثابت است که دقت آن را می توان با استفاده از یک تصحیح تداوم بهبود بخشید. (بعدا اعمال می شود)
پرواز هواپیمای بمب افکن از طریق سایت های SAM - ترکیب توزیع های عادی
80036
من یک آزمایش پراکندگی بیش از حد برای مجموعه داده های ترکیبی انجام می دهم (من مقادیر شمارش اصلی را ندارم) تا بعداً یک مدل رگرسیون مناسب را انتخاب کنم. در اینجا نمونه ای از مجموعه داده های من است: X<-matrix(sample(1:100,100,T), 20,5) X<-X/apply(X,1,sum) colnames(X)<-paste(Comp , 1:5, sep=) rownames(X)<-paste(Id, 1:20, sep=) آیا کسی می داند چگونه این تست را در R انجام دهم؟
چگونه پراکندگی بیش از حد را برای داده های ترکیبی در R آزمایش کنیم؟
101045
من در تلاش برای یافتن اطلاعاتی در مورد مفروضات رگرسیون PLS (Y تک) هستم. من به خصوص به مقایسه مفروضات PLS با توجه به رگرسیون OLS علاقه مند هستم. من مطالب زیادی را در مورد PLS مطالعه کرده ام. مقالات وولد (سوانته و هرمان)، عبدی، و بسیاری دیگر اما منبع رضایت بخشی پیدا نکرده اند. میخانه لینک شده در زیر مفروضات PLS را ذکر می کند، اما فقط به این موضوع اشاره می کند که 1) X ها نیازی به مستقل بودن ندارند، 2) سیستم تابعی از چند متغیر پنهان زیربنایی است، 3) سیستم باید در طول فرآیند تحلیلی همگنی را نشان دهد، و 4) خطای اندازه گیری در X قابل قبول است. هیچ اشاره ای به الزامات داده های مشاهده شده یا باقیمانده های مدل وجود ندارد. آیا کسی منبعی را می شناسد که به این موارد اشاره کند؟ با توجه به اینکه ریاضیات اساسی مشابه PCA است (با هدف به حداکثر رساندن کوواریانس بین Y و X)، آیا نرمال بودن چند متغیره (y، X) یک فرض است؟ آیا باقیمانده های مدل نیاز به نشان دادن همگنی واریانس دارند؟ من همچنین معتقدم جایی خوانده ام که مشاهدات لازم نیست مستقل باشند. این از نظر مطالعات اندازه گیری مکرر به چه معناست؟ ولد و همکاران (2001) PLS-رگرسیون: یک ابزار اساسی شیمی سنجی. http://www.utdallas.edu/~herve/abdi-wireCS-PLS2010.pdf از هرگونه بینش متشکرم.
مفروضات مدل حداقل مربعات جزئی (PLS)
48466
من با مفهوم آزمون هم ارزی برای آزمایش اینکه آیا دو میانگین یکسان هستند آشنا هستم. به عنوان یک نقطه شروع، با در نظر گرفتن دو آزمون t یک طرفه به عنوان راهنما، تصور می کنم که دو تست مجذور کای یک طرفه را انجام می دهم و مقدار مجذور کای +/- محدوده تفاوت معنی داری را که قبلا انتخاب کرده ام تنظیم می کنم. دو مشکل پیش می‌آید: 1) آیا آزمون کای دو یک‌طرفه روش درستی برای فکر کردن در مورد مسائل است، با توجه به اینکه قبلاً یک‌طرفه است. 2) انتخاب محدوده تفاوت معنادار من. برای مثال میانگین، محدوده در واحدهای معنی دار (معادل متغیر اصلی) است. من مطمئن نیستم که چگونه محدوده را در واحدهای مقدار مجذور کای انتخاب کنم. هر گونه فکری پذیرفته می شود، با تشکر
تست هم ارزی برای آزمون کای دو
46457
به طور خلاصه: من در حال حاضر آموزش آنلاین با هسته (http://books.nips.cc/papers/files/nips14/AA33.pdf) را برای سرگرمی می خوانم و نمی توانم بفهمم که او چگونه به معادله 8 از معادلات 6 رسیده است. و 7. ایده این است: ما می خواهیم یک تابع ریسک را به حداقل برسانیم $R_{stoch}[f,t]:=c(x_t,y_t,f(x_t))+\lambda\Omega[f]$. اگر بخواهیم قضیه نماینده را روی f اعمال کنیم و آن را به صورت $f(x)=\sum\alpha_i k(x,x_i)$ بنویسیم، چگونه می‌توانیم به به‌روزرسانی شیب نزولی STOCHASTIC برسیم؟ فرض کنید ما از دست دادن حاشیه نرم برای SVM ها استفاده می کنیم. گرفتن گرادیان w.r.t آسان خواهد بود. به f و از دست دادن (خوب زیر گرادیان برای از دست دادن) و شیب نزول انجام دهید. اما برای یادگیری آنلاین با نزول گرادیان تصادفی، من تا حدودی گم شدم. متشکرم! لطفا در پرسیدن جزئیات بیشتر تردید نکنید. هر گونه کمکی بسیار قدردانی خواهد شد.
Kernel SVM در آموزش اولیه با گرادیان تصادفی
70414
با توجه به $X_t=\sin(2\pi Ut)$ با $U$ که به طور یکنواخت روی عدد صحیح $(0,1)$ و $t$ توزیع شده است، چگونه می توانم ثابت کنم که $X_t$ ضعیف است؟ (من نتوانستم همبستگی را محاسبه کنم زیرا توزیع مشترک $(X_t,X_s)$ را نداشتم.) چگونه می توانم ثابت کنم که X_t$ به شدت ثابت نیست؟
چگونه می توان ثابت کرد که این فرآیند ضعیف است؟
45182
با سلام و تشکر پیشاپیش از کمک شما من و EFA را برای مقیاسی که ساخته ام انجام داده ام که شامل 13 آیتم است. از این تعداد 2 مورد مجدداً کدگذاری شده است. با نگاهی به ماتریس اجزای چرخشی می بینم که این مقیاس دارای 2 عامل است، یکی با 11 آیتم و دیگری با 2 آیتم دوباره کدگذاری شده. این به چه معناست و چگونه می توانم این را توصیف کنم؟ آیا کسی مقاله یا استنادی در ژورنال می شناسد که به این نوع مسائل بپردازد.
اقلام مجدداً به عنوان عوامل مجزا در تحلیل عاملی رمزگذاری شده است
44583
مدل سلسله مراتبی مشخص شده در زیر کاملاً استاندارد است و به راحتی در JAGS/BUGS پیاده سازی می شود. دارای یک گامای سلسله مراتبی بر روی دقت سوژه ($\tau_j$) است که به نوبه خود دارای پیشین های گاما بر روی میانگین ($m$) و SD ($d$) است. پس از نصب این مدل، من به تخمین‌های میانگین دقت گروه ($m$) و SD دقت گروه ($d$) دسترسی دارم، اما ترجیح می‌دهم در مقیاس طبیعی استنتاج کنم. یعنی میانگین SD گروه و SD گروه SD. ** چگونه می توانم از چنین مدلی بر میانگین SD گروه و SD گروه SD استنباط کنم؟ آیا اصلا امکان پذیر است؟** در اینجا یک نمودار سبک کروشکه از مدل گرفته شده از کتاب انجام تجزیه و تحلیل داده های بیزی است![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/WITDz.png) و اینجا کد BUGS مربوطه است: model { for( i in 1 : Ndata ) { y[i] ̃ dnorm( mu[ subj[i] ] , tau[ subj[i] ) } برای ( j در 1 : Nsubj ) { mu[j] ̃ dnorm( muG , tauG ) ​​tau[j] ̃ dgamma( sG , rG ) } muG ̃ dnorm( 2.3 , tauG 0.1 ) ̃ dgamma( 1، 0.5 ) sG <- pow(m,2) / pow(d,2) rG <- m / pow(d,2) m ̃ dgamma( 1 , .25 ) d ̃ dgamma( 1 , .5 ) } یک راه حل می تواند شاید این باشد که hyperpriors را روی دقت ($\tau_j$) قرار ندهید، بلکه روی SD قرار دهید. ($\sigma_j$) اگرچه من اصلاً مطمئن نیستم که از چه پیشین هایی استفاده کنم.
چگونه می توان در یک مدل بیزی سلسله مراتبی از گروه SD و و SD گروه SD استنباط کرد؟
46983
ما تیم کوچکی از برنامه نویسان هستیم و سعی می کنیم مشکل کوچکی را حل کنیم، اما فکر می کنیم به توصیه هایی از ریاضیدانان حرفه ای نیاز داریم. ما می خواهیم بدانیم که آیا تصویر یک کارت یک کارت شناسایی است یا خیر، بنابراین ما این الگوریتم را پیاده سازی کردیم (من خیلی ساده کردم تا بتوانیم روی مسائل ریاضی تمرکز کنیم). 1. از تعداد زیادی کارت شناسایی نمونه برداری کنید و از هر یک از آنها یک نقشه رنگی تهیه کنید. این نقشه یک بردار 360 بعدی از مقادیر اعشاری (آرایه ای از 360 عنصر) است. 2. با داده های قبلی یک بردار نماینده محاسبه می کنیم. در واقع، ما این بردار نماینده را با محاسبه میانگین حسابی برای هر بعد می‌سازیم. 3. تصویری را که می خواهیم شناسایی کنیم، بردار نقشه رنگی را محاسبه کرده و با بردار نماینده مقایسه می کنیم. (ما از ضریب همبستگی پیرسون استفاده می کنیم) 4. اگر ضریب نزدیک به 1 باشد، تصویر ما یک کارت شناسایی است. ما در حال به دست آوردن نتایج معقولی هستیم، اما سؤالات ما این است: 1. آیا روشی بهتر از میانگین حسابی برای ساخت بردار نماینده وجود دارد؟ 2. آیا روشی بهتر از ضریب همبستگی پیرسون برای مقایسه هر دو بردار وجود دارد؟ **ویرایش**: برنامه ما این است که بردار معرف بسیاری از اسناد مانند کارت شناسایی، گواهینامه رانندگی، گذرنامه، کارت اقامت و غیره داشته باشیم و سعی کنیم کارتی را که مقایسه می کنیم در کدام دسته بندی مناسب تر باشد. هر بعد در وکتور (که ما آن را نقشه رنگی می نامیم) نشان دهنده درصد پیکسل های تصویر است که دارای آن رنگ هستند. مجموع همه مقادیر بردار همیشه 100٪ است. دلیل اصلی اینکه ما از پیرسون استفاده می کنیم این است که فکر می کنیم با آن، نتیجه تحت تأثیر تعداد پیکسل های تصویر قرار نمی گیرد و نتایج تجربی به نظر می رسد این واقعیت را تایید می کند. (ما دقیقاً همان نتایج را با استفاده از درصدها یا فقط با استفاده از تعداد رنگ ها به دست می آوریم) اما باید بپذیریم که دانش محدودی از آمار داریم، بنابراین ممکن است تصمیم اشتباهی بگیریم (در این تصمیم یا در موارد دیگر). ).
یک بردار نماینده از یک مجموعه بزرگ بگیرید و آن را با نمونه ها مقایسه کنید
103331
من 30 بیمار و 30 کنترل دارم و علاقه مند به تفاوت های گروهی در اندازه گیری ام آر آی هستم. این اندازه گیری در 5 ساختار آناتومیکی مختلف انجام شد و هر ساختار به صورت دوطرفه وجود دارد (ساختار چپ و راست وجود دارد). من به تفاوت در اندازه بین ساختارها علاقه ای ندارم، اما می خواهم بدانم که آیا علاوه بر تفاوت کلی گروه، تعاملات طرف x گروه یا جنب x ساختار x گروه وجود دارد. مقاله مشابهی از ANOVA اندازه گیری های مکرر سه عاملی استفاده کرد: گروه به عنوان عامل بین موضوع، و سپس ساختار و سمت به عنوان عوامل درون موضوعی. آنها سپس ANOVA اندازه گیری های مکرر دوعاملی را برای پیگیری انجام دادند. مقاله دیگری که فقط به دو ساختار نگاه می کند، به سادگی ANOVA را برای هر ساختار انجام داد (گروه به عنوان بین موضوع، و سمت به عنوان درون موضوع). من تجزیه و تحلیل اندازه گیری های مکرر را در SPSS و در جداول اثرات درون موضوعی و اثرات بین موضوعی انجام دادم، هیچ یک از اثرات یا تعاملات معنی دار نیستند. با این حال، جدول تست های چند متغیره یک تعامل گروه x دستگاه را نشان می دهد. این دقیقا به چه معناست؟ محقق دیگری به من گفت که نتیجه قابل توجه من از یک MANOVA است، و تا زمانی که تجزیه و تحلیل های بعدی نیز چند متغیره باشد، می توانم از آن استفاده کنم. از کدام آزمون تعقیبی استفاده کنم تا بفهمم کدام ساختار(ها) باعث ایجاد تعامل می شود؟ خیلی ممنون
نتیجه قابل توجهی در جدول چند متغیره؟
7362
در آزمون n ایمن با شکست اروین، چگونه می توان مقادیر معیار را برای نسبت تصادفی ورود به سیستم و میانگین نسبت شانس ورود به سیستم در مطالعات از دست رفته تعیین کرد. من یک پزشک پزشکی هستم. لطفا به زبان انگلیسی ساده به من بگویید. داده ها عبارتند از 1. N-value-fail کلاسیک برای مطالعات مشاهده شده 27.97543-P-value برای مطالعات مشاهده شده 0.00000 Alpha 0.05000 Tails 2.00000 Z برای آلفا 1.95996 تعداد مطالعات مشاهده شده 5.00000 - مقدار P برای مطالعات مشاهده شده 1014.0000 2. نسبت شانس خطای N ​​اروین در مطالعات مشاهده شده 5.7339 معیار یک نسبت شانس بی اهمیت؟ میانگین نسبت شانس در مطالعات از دست رفته؟
تست N ایمن ناموفق Orwin
91561
اگر مقداری آزمایش داشته باشیم و سطح آن را کاهش دهیم، آیا انتظار می رود قدرت افزایش یابد؟ من قبلاً به این سؤال فکر کرده ام اما نتوانسته ام خود را در مورد پاسخ صحیح متقاعد کنم زیرا به نظر می رسد محاسبه قدرت چند مرحله ای است و بنابراین نمی توانم آنطور که اگر چیزی شبیه به آن داشته باشیم قضاوت مستقیمی انجام دهم. یک تابع معکوس هر گونه کمکی بسیار قدردانی خواهد شد!
اگر سطح یک آزمون کاهش یابد، آیا انتظار می رود قدرت آزمون افزایش یابد؟
54521
فرض کنید همبستگی بین $x$ و $y$ برابر با r(x,y) = 0.07$ باشد. اگر خطای استاندارد مورد نیاز برابر با 0.33 باشد، تعداد مشاهدات مورد نیاز 1800 خواهد بود. من نمی دانم چگونه این تعداد مشاهدات مورد نیاز را پیدا می کنند. زیرا خطای استاندارد یک ضریب همبستگی $\sqrt{\frac{1-r^2}{n-2}}$ است. آیا کسی می تواند به من بگوید که چگونه این مشکل را حل کنم؟
تعداد مشاهدات مورد نیاز برای خطای استاندارد تعریف شده
86075
من در حال مطالعه فیلتر کالمن برای ردیابی و صاف کردن هستم. حتی اگر مفهوم فیلتر بیزی را درک کرده باشم، و بتوانم به طور موثر از برخی از اجرای فیلتر کالمن استفاده کنم، من در درک ریاضیات پشت آن به روشی آسان گیر کرده ام. بنابراین، من به دنبال یک مشتق آسان برای درک معادلات فیلتر کالمن ( (1) **مرحله به روز رسانی**، (2) **مرحله پیش بینی** و (3) **به دست آوردن فیلتر کالمن**) از قوانین بیز و فرمول چپمن- کولموگروف، با دانستن این که: * مدل زمانی با: $$ \textbf{X}_t = بیان می شود A\textbf{X}_{t-1} + \mu_p + \epsilon_p$$ که در آن $A$ ماتریس انتقال $D_\textbf{X} \times D_\textbf{X}$، $\mu_p$ است $D_\textbf{X} \times 1$ بردار سیگنال کنترلی و $\epsilon_p$ یک نویز گاوسی انتقالی با کوواریانس $\Sigma_m$، و در اصطلاح احتمالی را می توان با: $$ p(\textbf{X}_t | \textbf{X}_{t-1}) = Norm_{\textbf{X}_t}[\ بیان کرد textbf{X}_{t-1} + \mu_p, \Sigma_p] $$ و * مدل اندازه‌گیری با: $$ بیان می‌شود \textbf{y}_t = H\textbf{X}_t + \mu_m + \epsilon_m $$ که در آن $H$ ماتریس مشاهده $D_y \times D_x$، که فضای حالت واقعی را به فضای مشاهده ترسیم می‌کند، $\mu_m$ است. بردار میانگین $D_\textbf{y} \times1$ و $\epsilon_m$ نویز مشاهده با کوواریانس $\Sigma_m$ که در عبارت احتمالی می تواند با $$ p(\textbf{y}_t | \textbf{X}_t) = Norm_{\textbf{y}_t}[ H\textbf{X}_t + \mu_m, \epsilon_m] $$
استخراج معادله فیلتر کالمن
70416
من داده های ترافیکی برای وب سایتی دارم که به سادگی کل بازدیدکنندگان هر ماه را در طی 12 ماه نشان می دهد. من در تلاش هستم تا مشخص کنم که آیا روند کلی رو به بالا یا نزولی وجود دارد. به نظر می رسد از ریاضیات دبیرستان به یاد داشته باشم که آیا یک مقدار $m$ مثبت در معادله $y = mx + c$ وجود دارد یا خیر، اما من هیچ ایده ای در مورد نحوه اعمال این عمل به صورت عملی ندارم، و به مجموعه ای از تاریخ ها می پردازم. و مجموع، این رقم را محاسبه کنید. **چگونه تشخیص دهیم که ترافیک وب در یک دوره 12 ماهه افزایش یا کاهش یافته است؟**
چگونه تعیین کنیم که آیا ترافیک وب در یک دوره 12 ماهه افزایش یا کاهش یافته است؟
59176
من یک کاربر جدید در R هستم. من در حال حاضر با چند سؤال در تحقیقات سری‌های زمان خود گیر کرده‌ام. مطمئن نیستم کسی بتواند به من کمک کند. 1. متغیر ساختگی. من می خواستم بیش از 1 متغیر ساختگی به مدل اضافه کنم. اما، بعد از قرار دادن متغیرهای ساختگی اضافی، متوجه شدم که نتایج بدون تغییر است. من نمی دانم چرا این اتفاق می افتد. من کد R خود را به صورت زیر ارائه کردم. امیدوارم کسی بتونه منو راهنمایی کنه R-Code: xreg <- cbind(CNY=model.matrix(~as.factor(daily.2yrd$CNY))،HRP=daily.2yrd$HRP,Deepa=daily.2yrd$Deepa,Xmas=daily.2yrd$ Xmas) viewData(xreg) daily_forecast.fit <- Arima(daily.2yrd$Total_Visitor,order=c(7,0,7),seasonal=c(0,1,0),lambda=round(BoxCox.lambda(daily_visitor.ts,lower=0),4) xreg=xreg) daily_forecast.fit 2. متغیر ساختگی را تعریف کنید. چگونه می توانم متغیر ساختگی خود را تعریف کنم اگر مقدار پرت کمتر باشد؟ اگر من به عنوان Dummy 1 تعریف کنم، نتیجه من به نقطه بالاتری تغییر می کند که فکر می کنم اشتباه است. هر نظری؟ مثال: ID Sales Dummy 1 1 1800 0 2 2000 0 3 1500 0 4 500 1 5 1800 0 6 1600 0
متغیرهای ساختگی برای سری های زمانی
44587
اگر دو متغیر تصادفی مستقل $X_1 \sim \mathrm{Binom}(n,p)$ و $X_2 \sim \mathrm{Pois}(\lambda)$ داشته باشیم، تابع جرم احتمال $X_1 + X_2$ چقدر است ? **نکته** این برای من تکلیف نیست.
مجموع متغیرهای تصادفی دوجمله ای و پواسون
89465
چگونه می توانم همبستگی بین یک متغیر مقدم مقوله ای و یک متغیر نتیجه پیوسته را انجام دهم؟ برای مثال، ارتباط هر سبک دلبستگی با متغیر دیگری، یعنی حمایت اجتماعی؟
همبستگی بین یک پیش‌بینی‌کننده طبقه‌بندی و یک متغیر پیامد پیوسته
59175
من در حال حاضر در حال بررسی استدلال بیزی و یادگیری ماشین توسط دیوید باربر هستم و کتابی بسیار خوب و جذاب برای یادگیری اصول است. بنابراین یک سوال از کسی که قبلاً این کار را انجام داده است. پس از تسلط معقول به بیشتر مفاهیم باربر، مجموعه بعدی کتابهایی که باید مطالعه کنم کدامند؟
مراحل بعدی پس از استدلال بیزی و یادگیری ماشین
54528
آیا کسی می داند، آیا می توان مونت کارلو ترتیبی را برای مسائل چند بعدی به کار برد، یعنی شبیه سازی بیش از 1 توزیع مانند مدل های سلسله مراتبی؟ شاید ادبیات زیر را بشناسید
مونت کارلو متوالی برای مدل های سلسله مراتبی
80039
من تا حدودی در درک معنی دار آمار و بوت استرپ به طور خاص تازه هستم. فرض کنید در حال انجام کاری هستید (نظرسنجی، اجرای آزمایش، هر چیز دیگری)، و می توانید 1000 نمونه را تهیه کنید. از آن‌چه من می‌دانم، قبل از اینکه روش بوت استرپ وجود داشته باشد (بیش از 25 تا 30 سال پیش)، بهتر است مثلاً 10 مجموعه از هر کدام 100 نمونه داشته باشید و آمار خود را بر اساس توزیع‌های نمونه‌گیری محاسبه کنید. (به عنوان یک کنار، آیا روش خوبی برای محاسبه نسبت مجموعه ها/نمونه ها وجود دارد؟ می دانم که وقتی n بزرگتر است خطای استاندارد کوچکتری دریافت می کنید، اما نمی دانم که آیا یک نقطه شیرین وجود دارد یا خیر، و از درک نسبتاً محدود من، ترجیحاً داشتن n> 30 برای جلوگیری از به هم ریختن آمار t است. اما اکنون که بوت استرپینگ وجود دارد، درک من این است که شما یک مجموعه از هر 1000 نمونه را دریافت می کنید (زیرا این پروکسی بهتر از 100 نمونه برای جمعیت واقعی خواهد بود)، و جادوی نمونه برداری مجدد بوت استرپینگ را بر اساس آن انجام دهید. آیا این درست است؟ یا بهترین تمرین ترکیبی از این دو است؟ یا اینکه در نهایت بستگی به این دارد که فعالیت واقعی چیست؟ با تشکر
چند نمونه در مقابل بوت استرپینگ
70417
من اطلاعاتی در مورد 44 شرکت دارم که همه توسط یک متخصص رتبه بندی شده اند. شرکت بهترین دارای رتبه 1، رتبه دوم برتر رتبه 2، ...، آخرین رتبه دارای رتبه 44 است. من یک سری متغیرهای توضیحی دارم و می خواهم رتبه شرکت را بر اساس این متغیرها توضیح دهم. . تمایل من به استفاده از مدل رگرسیون است، اما نگران این واقعیت هستم که متغیر وابسته محدود است، فقط می تواند یک عدد گسسته مثبت باشد. من به رگرسیون ترتیبی فکر کرده‌ام، اما این غیرممکن به نظر می‌رسد، زیرا به تعداد مشاهداتم مقوله‌هایی خواهم داشت. چه مدل های رگرسیونی ممکن است؟ (ترجیحا در R اجرا شود)
رگرسیون با ترتیب رتبه به عنوان متغیر وابسته
80035
من مقاله اصول عدم قطعیت قوی: بازسازی دقیق سیگنال از اطلاعات فرکانس بسیار ناقص را می خوانم (Candes, Romberg and Tao, 2004). در این مقاله آنها در مورد بازیابی تابع $f$ صحبت می کنند که ضرایب فوریه آن در برخی از دامنه های $\Omega$ شناخته شده است، با حل مسائل بهینه سازی زیر: $$ \min ||g||_{TV} \space\space \space \text{s.t.} \space\space\space\hat{g}(w)=\hat{f}(w),w \in \Omega$$ and $$ \min ||g||_{L_1} \space\space\space \text{s.t.} \space\space\space\hat{g}(w)=\hat{f}(w),w \in \Omega$ $ آیا کسی می تواند به من مرجعی بدهد که نشان دهد چگونه واقعاً این مشکلات بهینه سازی را حل کنم (که هر دو $g$ و $\hat{g}$ را ترکیب می کند)؟ یک بسته R مرتبط نیز خوب خواهد بود.
سنجش فشرده: بهینه‌سازی در هنجار L_1$ و تغییرات کل با ضرایب فویر
11936
من اطلاعاتی در مورد یک متغیر دارم که چندین سال را در بر می گیرد. من می خواهم ببینم که توزیع در طول سال ها چگونه تکامل یافته است. * آیا راه آسانی برای تولید پلات تراکم برای هر سال به صورت تک پلات با رنگ های مختلف برای هر سال وجود دارد؟
چگونه می توان یک نمودار چگالی برای داده های چندین سال ایجاد کرد که هر سال با رنگ متفاوتی نمایش داده می شود؟
11935
من قبلاً در مورد تجزیه و تحلیل عامل اکتشافی برای درک تفاوت با PCA پست کردم. اکنون، من یک تحلیل عاملی اکتشافی روی مجموعه داده‌هایم با استفاده از تابع «روان::فا» R انجام دادم. من در مورد تفسیر نتایجی که در اینجا ذکر شده است، ابهاماتی دارم. A ماتریس داده های من است که 16 ردیف و 6 ستون دارد. fa(a,nfactors=3,rotate=varimax) در فا، فاکتورهای زیادی برای این تعداد متغیر برای استفاده از SMC برای تخمین های اشتراکی درخواست شده است، به جای آن از 1s استفاده می شود تحلیل عاملی با استفاده از روش = minres Call: fac(r = r nfactors = nfactors، n.obs = n.obs، rotate = rotate، scores = امتیاز، باقیمانده = باقیمانده، SMC = SMC، از دست رفته = FALSE، impute = impute، min.err = min.err، max.iter = max.iter، متقارن = متقارن، هشدارها = هشدارها، fm = fm، آلفا = آلفا) بارگذاری استاندارد شده بر اساس ماتریس همبستگی MR1 MR3 MR2 h2 u2 V1 -0.02 0.38 0.06 0.15 0.848 V2 0.14 0.50 0.14 0.29 0.711 V3 0.97 0.06 0.24 1.00 0.005 V4 -0.03 -0.05 -0.47 -0.47 -0.47 0.290 0.47 0.290. 1.00 0.005 V6 0.46 0.39 0.79 1.00 0.005 MR1 MR3 MR2 SS بارگیری 1.63 1.10 0.92 نسبت Var 0.27 0.18 0.15 0.15 0.15 وار انباشته 0.27 آزمون 0.27 است. کافی درجات آزادی برای مدل تهی 15 و تابع هدف 2.15 با مربع چی 26.17 درجات آزادی برای مدل 0 و تابع هدف 0.07 است. 16 با Chi Square = 0.67 با prob < NA Tucker Lewis Index of Factoring reliability = -Inf Fit بر اساس مقادیر مورب خاموش = 0.98 اندازه گیری کفایت نمره عامل MR1 MR3 MR2 همبستگی نمرات با عوامل 1.00 0.99 0.99 چند R مربع نمرات با فاکتورهای 0.99 0.99 0.99 حداقل همبستگی نمرات عامل احتمالی 0.8-90. اگر نتوانم فرضیه صفر خوبی تناسب را بر اساس سه عامل رد کنم. من نمونه هایی را در وب برای این عملکرد دیده ام، اما نتوانستم چیزی مشابه پیدا کنم. با تشکر
تفسیر خروجی R از تحلیل عاملی اکتشافی در رابطه با رد فرضیه صفر خوبی برازش
84356
من سعی می کنم یک تابع ضرر پیوسته برای یک طبقه بندی کننده لجستیک طراحی کنم. فرض کنید ماتریس سردرگمی زیر را دارم: [tn fp fn tp] من می‌خواهم تابع ضرر A*tn + B*fn + C*fp + D*tp باشد که در آن A، B، C و D می‌توانند متفاوت باشند. البته پیاده‌سازی این نسخه گسسته به اندازه کافی آسان است، اما چگونه می‌توانم این تابع هزینه را پیوسته کنم تا وقتی می‌خواهم آن را به حداقل برسانم، عملکرد هزینه من به خوبی رفتار کند؟
چگونه یک تابع هزینه طراحی کنیم که وزن های متفاوتی برای انواع مختلف خطاهای طبقه بندی داشته باشد؟
59177
من یک سری رگرسیون خطی مختلط را در Stata اجرا کرده‌ام، برخی با تبدیل‌های ریشه مربع معکوس ($1/\sqrt{x}$) و برخی دیگر با تبدیل‌های ریشه مربع ($\sqrt{x}$). چگونه فواصل اطمینان تبدیل نشده را از نتایج تبدیل شده محاسبه کنم؟
چگونه می توان فواصل اطمینان $1/\sqrt{x}$-تبدیل شده را پس از اجرای یک رگرسیون خطی مختلط در stata محاسبه کرد؟
7366
من در آمار مبتدی هستم بنابراین امیدوارم بتوانم مشکلم را به شکل صحیح بیان کنم. من چند نمونه یا نمونه دارم و می توانم پارامترهای آماری زیر را برای مشکل **طبقه بندی و رگرسیون** جمع آوری کنم: * حجم نمونه * حداقل مقدار * حداکثر مقدار * انحراف استاندارد * واریانس * میانگین و، می خواهم از **z- استفاده کنم. نمرات** برای مقایسه یا طبقه بندی نمونه ها، سوال من این است: آیا استفاده از z-score **معنی دارد** یا چه چیزی می توانم به جای z-score برای بدست آوردن معنی دار استفاده کنم. پارامتر طبقه بندی؟
آیا امتیاز z در طبقه بندی معنادار است یا رگرسیون؟
59170
من فقط یک مدل مقیاس‌بندی چند بعدی غیر متریک (nmds) را اجرا کردم که مکان‌های متعدد را بر اساس ترکیب گونه‌های بی‌مهرگان کفزی مقایسه می‌کرد. پس از اجرای تجزیه و تحلیل، از تکنیک برازش برداری استفاده کردم تا ببینم ترتیب به دست آمده چگونه با برخی از متغیرهای محیطی مرتبط است. اولین سوال من این است: من برای متغیری که عمق را در یک سایت نشان می دهد، مقدار مربع R برابر 18.0 دریافت کردم. بالاترین مقدار مربع R را در بین هر متغیر محیطی تا حد زیادی دارد (بقیه کمتر از 0.07) و تنها متغیری است که در سطح آلفا = 0.05 معنادار است. من نمی‌دانم که آیا آستانه‌هایی برای اینکه چقدر واریانس توضیح داده شده وجود دارد، مقدار خوبی است. من می دانم که ممکن است به رشته علمی بستگی داشته باشد، من چیزهایی مانند 30٪ برای محیط زیست را شنیده ام، اما نمی توانم مرجعی برای این موضوع پیدا کنم. سوال دوم من این است که آیا من درست می گویم که برای این مورد درصد واریانس توضیح داده شده است، آیا درصد واریانس در داده های عمق توسط محورهای ترتیب nmds توضیح داده می شود؟ با تشکر
NMDS و واریانس با برازش برداری توضیح داده شد
17919
با توجه به $\textbf{x}=[x_1 x_2 ... x_n]^T$ که در آن $\textbf{x} \in \\{ 0, a_1, a_2, a_3 \\}^n, a_i \in \mathbb{ C}$ و $\textbf{z} = \\{z_1 z_2,...,z_n \\}$ جایی که $z_i \textbf{~} N(0,\sigma^2)$ یک RV گاوسی پیچیده با میانگین $0$ و واریانس $\sigma^2$ است. فرض کنید $\textbf{y}$ $\textbf{y} = H\textbf{x}+\textbf{z}$ را مشاهده می‌کنیم که در آن $H$ شناخته شده است و عناصر آن گاوسی مختلط مستقل با میانگین 0 و واریانس 1 اینچ هستند. $\mathbb{C}$ یعنی اعداد مختلط. چگونه می توانم $\textbf{x}$ را با مشاهده $\textbf{y}$ تخمین بزنم در حالی که فقط می خواهم بدانم $x_i$ صفر است یا غیر صفر؟ یعنی نمی‌خواهم بین $a_1، a_2، a_3$ تمایز قائل شوم و فقط می‌خواهم تخمین بزنم که آیا $x_i$ صفر بود یا غیرصفر؟ آیا راه تکراری برای یافتن این موضوع وجود دارد؟ با تشکر
تخمین X در نویز گاوسی
44584
من با یک تخمین رگرسیون (SUR) ظاهراً نامرتبط بازی کردم. با این حال، برای مدل‌های SUR پویا، مشخص است که - مشابه با مورد ARIMA - یک تخمین OLS/GLS مغرضانه است. به عنوان مثال این مقاله یک تصحیح ارائه می دهد. بنابراین سوال من اینجاست: آیا بسته _R_ یا پیاده سازی دیگری وجود دارد که این اصلاح را انجام دهد؟ پیشاپیش متشکرم
تعصب برآوردگرهای Zellner در مدل‌های SUR پویا
84357
من لیستی از فیلم هایی دارم که بر اساس درآمدشان از 5 رتبه بندی شده اند. من کاربرانی دارم که همین فیلم ها را رتبه بندی می کنند. همه کاربران همه فیلم ها را رتبه بندی نمی کنند. چگونه می توانم بفهمم کدام کاربران بهترین همبستگی را بین رتبه بندی خود و درآمد فیلم دارند؟
چگونه کاربران را رتبه بندی کنیم؟
54523
با توجه به $T_n = \sum_{i=1}^n c_i X_i$، و عدد صحیح $m$ با $0\leq m\leq n$، که در آن * $X_1، \dots، X_n$ هستند $\\{0,1 \\}متغیرهای تصادفی با ارزش $، و دارای یک تابع جرم احتمال مشترک هستند که هر زمان ${n \choose m}^{-1}$ را می گیرد. $\sum_{i=1}^n X_i = m$ و $0$ در غیر این صورت. * $c_i = \sqrt{mn(n-m)} (n+1) F^{-1}(\frac{i}{n+1})$، که $F$ cdf یک توزیع پیوسته است. چگونه باید واریانس مجانبی $T_n$ را بر حسب گشتاورهای $F$ تعیین کرد؟ به هر حال، به طور کلی، چه راه هایی برای تعیین واریانس مجانبی یک آمار وجود دارد؟ با تشکر و احترام!
چگونه می توان واریانس مجانبی آماره زیر را تعیین کرد؟
48467
من ماتریس انتقال یک مرحله ای $$\pmatrix{0 & \alpha & 0 & \beta \\\\alpha & 0 & \beta & 0 \\\ 0 & \beta & 0 & \\alpha \\\ \beta & 0 \\\ 0 & \beta & 0 & \\alpha \\\ \بتا را دارم. & 0 & \alpha & 0 \\\\}$$ من می‌خواهم توزیع ثابت را انجام دهم. بنابراین من با $$ \pi_1 = \alpha \pi_2 + \beta \pi_4$$ $$ \pi_2 = \alpha \pi_1 + \beta \pi_3$$$$ \pi_3 = \بتا \pi_2 + \alpha\ به پایان می‌رسم pi_4$$ $$ \pi_4 = \beta \pi_1 + \alpha \pi_3$$ و می گوید که با توجه به ویژگی متقارن هر چهار حالت، می توان نتیجه گرفت که همه $\pi$ ها با یکدیگر برابر هستند. خاصیت متقارن چیست؟ آیا به این دلیل است که می‌توانیم ببینیم همه آنها به شکلی شبیه به $A = \alpha A + \beta B$ و $B = \alpha B + \beta A$ هستند و بنابراین می‌بینیم که آنها متقارن هستند؟
ویژگی متقارن برای توزیع ثابت چیست؟
48469
داده های من شامل اندازه گیری تراکم از 3 نوع سلول مختلف (X،Y، و Z) است. هدف من این است که بدانم آیا تفاوت‌های «معنی‌داری» بین این اندازه‌گیری‌ها وجود دارد، بنابراین آزمایش کرده‌ام: 1. آیا نمونه‌های من به طور معمول توزیع می‌شوند * با استفاده از آزمون Shapiro-Wilk * با استفاده از آزمون Jarque-Bera * رسم نمودارهای qqnorm * رسم نمودار هیستوگرام 2. آیا نمونه ها از توزیع یکسانی هستند * با استفاده از آزمون کولموگروف-اسمیرنوف دو نمونه ای (آزمون K-S) و مقایسه X در مقابل Y، X در مقابل Z و Y در مقابل Z * با استفاده از کروسکال-والیس مقایسه X، Y و Z با هم داده های من شامل 232 اندازه گیری برای X، 284 برای Y، و 124 برای Z است. Shapiro-Wilk و Jarque -تست برا در R همیشه به من 05/0p< می دهد که من قبول دارم که به طور معمول توزیع نمی شود. با این حال، وقتی هیستوگرام ها را رسم می کنم، توزیعی شبیه به نرمال دریافت می کنم. ![http://i49.tinypic.com/x5a91.jpg](http://i.stack.imgur.com/Wi6GJ.png) نمودارهای qqnorm نیز چندان کج به نظر نمی رسند، اما شاید این فقط من باشد بی تجربگی در تفسیر نمودارهای qqnorm (این اولین بار است که آنها را می سازم). ![http://i49.tinypic.com/2nqqohl.jpg](http://i.stack.imgur.com/6SVjG.png) ![http://i47.tinypic.com/207c4.png]( http://i.stack.imgur.com/NWOae.png) ![http://i48.tinypic.com/o01ptv.png](http://i.stack.imgur.com/aMUyU.png) به دلیل توزیع ظاهراً غیرعادی، داده‌هایم را با استفاده از آزمون KS مقایسه کردم و Kruskal-Wallis، که همیشه به من این نتیجه را می دهد که جمعیت Z من از توزیع متفاوتی در مقایسه با X و Y گرفته شده است. با این حال، من نمی دانم که آیا این درست است یا نه، همانطور که R همیشه برای من گزارش می دهد. دو نمونه تست کولموگروف-اسمیرنوف: پیام هشدار: در ks.test(dataX, dataY): نمی توان مقادیر p صحیح را با پیوندها محاسبه کرد پیام هشدار: در ks.test(dataX, dataZ): نمی توان مقادیر p صحیح را با پیوندها محاسبه کرد پیام اخطار: در ks.test(dataY, dataZ): نمی‌توان مقادیر p صحیح را با پیوندها محاسبه کرد، احتمالاً زیرا نمونه‌ها اندازه‌های متفاوتی دارند. می‌خواهم بدانم نظر شما در مورد آن چیست و آیا باید به جای آزمایش‌های ناپارامتریکی که استفاده کرده‌ام، بیشتر از تست‌های پارامتریک استفاده کنم، یا اینکه آیا تست‌هایی که استفاده کرده‌ام بدون در نظر گرفتن نرمال بودن داده‌ها معتبر هستند. . همچنین، به نظر می‌رسد اندازه‌گیری‌های من بین خودشان بسیار کمی متفاوت است، به عنوان مثال: --- آمار خلاصه برای سلول‌های WT حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.1450 0.3720 0.5000 0.5598 0.7102 1.9290 ---آمار خلاصه برای سلول های Df حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.0550 0.4030 0.5445 0.5857 0.7210 1.5350 ---آمار خلاصه برای سلول های Dp حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.0670 0.4790 0.6255 0.6782 0.7897 2.0160 در اینجا یک جعبه از داده ها آمده است: ![http://i49.tinypic.com/6qvgio.png](http://i.stack.imgur.com/kHWJVX.p) آبی = Y، قرمز = Z بنابراین من مطمئن نیستم نتایجی که ممکن است از آنها بگیرم.
اختلاف بین تست های نرمال بودن و نمودارهای هیستوگرام
70410
من رگرسیون خطی انجام داده ام و داده ها، خط رگرسیون و همچنین فاصله اطمینان (برای اطمینان 95 درصد) را رسم کرده ام. با این حال به نظر می رسد که بیشتر نقاط داده خارج از فاصله اطمینان قرار می گیرند. پس چگونه باید فاصله اطمینان را تفسیر کنم. نمی توان _من 95% مطمئن هستم که نقطه داده تا این حد به خط رگرسیون نزدیک باشد_ زیرا بیش از 5% از نقاط داده در آن ناحیه قرار نمی گیرند. پس یعنی چه؟
فواصل اطمینان برای تفسیر رگرسیون
15942
من یک داده ثابت در مورد یک مشکل تصمیم گیری دارم که در آن باید تصمیم بگیرم که آیا A یا B را برای رقابت انتخاب کنم، برنده کسی است که تعداد بیشتری در هر دور دارد. اگر یک نقطه را حذف کنم، A هر بار B را می زند. اما نمونه آنقدر کوچک است که حذف یک نقطه داده، داده ها را بسیار کوچکتر می کند. هدف این مسابقه به حداکثر رساندن نتیجه با انحراف استاندارد کم است. بنابراین من در اینجا یک وضعیت غیر مسلط دارم زیرا بازیکن B دارای بیشترین رکورد 86 است در حالی که A دارای کمترین SD (حدود 150٪ در حالی که B 250%) است. اگر بر اساس نمونه کوچکتر نتیجه گیری کنم، احساس اشتباه می کنم -- چگونه می توانم این را از نظر آماری بگویم؟ اگر از نمونه کوچکتری استفاده کنم، نتیجه گیری چقدر کمتر معنادار خواهد بود؟ R مخفف دور است. R A B 1 85 86 2 83 83 3 83 82 4 83 82 5 83 81 6 81 80 7 80 78 **[به روز رسانی]** بازیکنی که من انتخاب می کنم باید دوباره در همان بازی با بازیکنان دیگر رقابت کند. من می خواهم دورهای آینده را به حداکثر برسانم. نگاه B روند صعودی دارد در حالی که A از نظر تاریخی نتایج پایدارتری دارد. به زودی تجزیه و تحلیل خواهد کرد.
کاهش معنی داری پس از حذف یک نقطه از یک نمونه کوچک
34919
من یک مقیاس تاب آوری با 11 آیتم (متغیرهای مشاهده شده) دارم که از آن میانگین را برای به دست آوردن یک نمره تاب آوری محاسبه کردم (که معمولاً یک متغیر مشاهده نشده یا ساختار پنهان در اصطلاحات SEM است). * آیا می توانم فقط از این امتیاز انعطاف پذیری برای ایجاد یک SEM در AMOS استفاده کنم یا باید 11 مورد را نیز لحاظ کنم؟ * اگر فقط نمره تاب آوری را به عنوان یک متغیر مشاهده شده در نظر بگیرم، آیا این یک محدودیت در نظر گرفته می شود یا همه آن اشتباه است؟ * به طور کلی، آیا گنجاندن یک متغیر مرکب در مدل معادلات ساختاری در AMOS زمانی معتبر است که چنین متغیرهایی به عنوان متغیرهای مشاهده شده در نظر گرفته شوند؟
آیا متغیرهای ترکیبی (مثلاً امتیاز) برای اجرای SEM در AMOS معتبر هستند؟
23481
مقاله ای با عنوان محاسبه دقیق واریانس در حال اجرا در http://www.johndcook.com/standard_deviation.html نحوه محاسبه میانگین، واریانس و انحرافات استاندارد را نشان می دهد. آیا الگوریتم‌هایی وجود دارند که پارامترهای یک مدل رگرسیون خطی یا لجستیک را می‌توان به طور مشابه به‌صورت «دینامیک» با ارائه هر رکورد آموزشی جدید به‌روزرسانی کرد؟
آیا الگوریتم هایی برای محاسبه پارامترهای رگرسیون خطی یا لجستیک در حال اجرا وجود دارد؟
81389
در ویکی پدیا آمده است که: > اگر $X \sim \operatorname{Log-\mathcal{N}}(\mu, \sigma^2)$ توزیع شده باشد > log-normally، سپس $\ln(X) \sim \mathcal{N}(\mu, \sigma^2)$ یک متغیر طبیعی > تصادفی است. آیا برعکس آن درست است؟
رابطه بین توزیع نرمال و لگ نرمال
48462
من روی یک مدل پروبیت دو متغیره کار می کنم و می خواهم گرادیان را محاسبه کنم. برای انجام این کار، من باید از w.r.t devirative استفاده کنم. $\beta$ در عبارت زیر: $$\int_{-\infty}^{x_{g1}\beta} \int_{-\infty}^{x_{g2}\beta}\phi_2(z_1، z_2، \rho)dz_2dz_1$$ آیا کسی می تواند به من راهنمایی کند که چگونه این کار را انجام دهم؟ سعی کردم از تمایز زیر علامت انتگرال استفاده کنم، اما نتوانستم نتیجه لازم را بگیرم.
گرادیان یک مدل پروبیت دو متغیره
111172
من به دنبال روش آماری مناسب برای آزمایش تعاملات بین ویژگی‌های خاص جایگزین پاسخ‌های مرتب شده (مانند سن یا جنسیت یک نامزد رتبه‌بندی شده) و متغیرهای فردی (مثلاً جنسیت پاسخ‌دهنده) هستم. رگرسیون لجستیک چند جمله ای در R (بسته mlogit) امکان تست تعامل متغیرهای فردی با خود آیتم های رتبه بندی شده را می دهد، اما نه با ویژگی های آیتم های رتبه بندی شده. دومی کاری است که من می خواهم انجام دهم. این به فرد امکان می دهد به سؤالاتی مانند آیا جنسیت یک نامزد تاثیر بیشتری بر رای دهندگان مرد نسبت به رای دهندگان زن دارد؟ توجه داشته باشید که من به رتبه ها نگاه می کنم، نه نتایج باینری.
رگرسیون لجستیک با تعاملات دستور داد
103532
بهترین روش برای آزمون برابری بردارهای میانگین سن، قد، وزن و BMI 150 زن و مرد کدام است؟
آزمون برابری میانگین بردارها
11069
من سعی دارم مدل سری زمانی را با استفاده از روش gls تخمین بزنم. داده ها از سپتامبر 1997 تا آوریل 2011 ماهانه است ابتدا مدل را تخمین می زنم و می دانم که خطا IMA (1,1) است. برای آن من از کد استفاده می کنم: tsdata=ts(data, start=c(1997,9)، فرکانس=12) difftsdata=diff(tsdata) trend = time(difftsdata) model= Arima(difftsdata, order=c(0, 0,1)، xreg=trend) سوالات من این است: 1. آیا کد بالا مناسب است؟ 2. چگونه از این مدل پیش بینی کنیم؟ من از کد زیر استفاده کردم: nobs=length(difftsdata) fore=predict(model , 10, newxreg=(nobs+1):(nobs+10)) ts.plot(tsdata,fore$pred,col=1:2 ) اما پیش بینی بزرگتر از حد انتظار است.
برآورد رگرسیون سری زمانی با استفاده از GLS
84352
من سعی می کنم بفهمم چگونه می توان این مشکل را شروع کرد: > ما یک رگرسیون چند متغیره از Y روی X داریم. نشان دهید که اگر مقادیر > را برای X گره زده باشیم، می توانیم آنها را با یک مجموعه جایگزین کنیم و از میانگین برای Y > با استفاده از آن استفاده کنیم. یک وزن مناسب (با فرض وزن = I با n ام > مورب = تعداد مقادیر گره خورده)
حداقل مربعات با پیش بینی کننده های مساوی
70418
من در درک خودرگرسیون بردار ساختاری (SVAR) مشکل دارم. من چند کتاب در مورد آن دارم، و آنها را خوانده ام، اما هنوز نمی توانم ایده پشت آن مفهوم را درک کنم. آیا کسی می تواند متمایز بودن SVAR در مقایسه با VAR را با کلمات ساده به من توضیح دهد؟ در کدام شرایط یک SVAR مناسب تر از یک VAR ساده است؟
آشنایی با مدل SVAR
17899
من به دنبال یک توصیف ریاضی و رایگان از تحلیل واریانس استاندارد (چند عامل، یک متغیر وابسته) هستم. این باید مستقل باشد و برای شخصی قابل خواندن باشد بدون اینکه دانشی از آمار داشته باشد اما پیشینه خوبی در ریاضیات و نظریه احتمالات داشته باشد. تقریباً تمام متن‌هایی که من پیدا می‌کنم دستورالعمل‌های گام به گام در مجموعه داده‌های نمونه، طرح‌های اکتشافی نوشته شده برای دانشمندان حوزه‌های کاربردی هستند یا از زبان آماری زیادی برای توضیح مفهوم استفاده می‌کنند (فقط با ریاضیات فلج). در حالت ایده‌آل، متن شامل مشتقاتی از توزیع F (چرا در این تنظیمات ظاهر می‌شود؟) و آزمون F و همچنین رابطه با رگرسیون باشد.
به دنبال حساب ریاضی ANOVA
54522
من برای یک شرکت بزرگ با سیاست محدود کننده اینترنت و همکاران معتاد به اکسل کار می کنم. من در حال حاضر روی تکامل همبستگی‌های بازار کار می‌کنم که شامل آمار، تجزیه و تحلیل داده‌ها، خوشه‌بندی، تجسم داده‌ها است... از آنچه در اینترنت دیده‌ام، انجام آن در اکسل ایده خوبی نیست. (یک مطالعه کلی را اینجا ببینید: Excel به عنوان یک میز کار آماری) پس از 2 هفته تلاش، بالاخره از IT یک نسخه کارآمد از R و چند بسته جالب دریافت کردم. داده های بازار من در یک فایل txt ذخیره می شود، من روی آن با R کار می کنم و یک فایل results.txt ایجاد می کنم، سپس فایل results.txt را در اکسل بارگذاری می کنم و آنچه را که رئیسم می خواهد ترسیم می کنم. اعتراف می کنم که اکسل برای دستکاری تعداد زیادی از مجموعه داده ها و نمودارها در یک مکان مفید است. این تنها نقطه خوب در مقایسه با R برای کاری است که می خواهم انجام دهم. من فکر می کنم راه حل ارزان من .txt برای انجام محاسبات در R صحیح و ساده است ... (برای حکایت، چیزهایی مانند Rexcel برای اتصال R و Excel در جایی که کار می کنم ممنوع است - نپرسید چرا - بنابراین یک ماکرو را امتحان کردم که ایجاد یک .bat برای راه اندازی R و انجام محاسبات برای همکاران من بسیار پیچیده است) اما برای تجسم داده ها اکسل بسیار ضعیف است. من واقعاً دلتنگ برخی از نمودارهایی هستم که در R دارم. دندوگرام ها، نمودارهای جعبه، هیستوگرام، دایره های همبستگی، همبستگی های خلاصه شده و نقشه های حرارتی برای من بسیار جالب هستند، اما در دسترس نیستند. بنابراین سوال من این است که چگونه می توان آنها را در اکسل دریافت کرد؟ (سیاست سختگیرانه اینترنت را به خاطر بسپارید؛ من نمی توانم هیچ افزونه ای را دانلود کنم). آیا راهی (آسان) برای ترسیم چیزهای پیچیده با ماکرو یا کتاب کار وجود دارد؟ آیا منابعی دارید؟
Excel، Heatmap و Data Visualization بدون افزونه
44030
> **تکراری احتمالی:** > تفسیر پیش بینی کننده log تبدیل شده من یک معادله رگرسیون دارم (زیر). در شکل خام، متغیر وابسته Y من به روز است (طول اقامت بر حسب روز). من متغیر وابسته را با استفاده از تبدیل log طبیعی تبدیل کردم. من می خواهم بدانم چگونه ضرایب معادله را تفسیر کنم. آیا می توانم برای متغیر سال بگویم که افزایش یک واحد در سال منجر به افزایش 16.7 درصدی در طول مدت اقامت می شود؟ این برای من معنی ندارد، زیرا یک درصد است و نه روز. من فرض کردم با توجه به محاسبه تبدیل به درصد تبدیل می شود. یا می توانم بگویم که افزایش یک واحدی در سال منجر به افزایش 16.7 روزه در مدت اقامت می شود. و آیا می توانید در تفسیر رهگیری و برای یک متغیر رمزگذاری شده ساختگی ('جنسیت: 1 = مرد؛ 0 = زن') به من کمک کنید؟ LOGLOS = 3.27+0.167 (سال) – 0.43 (جنسیت) -.31 (درآمد) -0.001 (امتیاز) + 0.576 (سفید).
متغیر وابسته تبدیل شده با log طبیعی را تفسیر کنید
8662
من جامعه نمونه حداکثر دامنه ثبت شده یک سیگنال خاص را دارم. جمعیت حدود 15 میلیون نمونه است. من یک هیستوگرام از جمعیت تولید کردم، اما نمی توانم توزیع را با چنین هیستوگرام حدس بزنم. EDIT1: فایل با مقادیر نمونه خام اینجاست: داده‌های خام می‌تواند به تخمین توزیع با هیستوگرام زیر کمک کند: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/h1n2y.png)
برای شناسایی توزیع با استفاده از هیستوگرام به کمک نیاز دارید
65723
بگویید من مدلی دارم که متغیر وابسته تغییر در گزارش $y$، $\Delta ln(y)$ و متغیر مستقل تغییر در $x$، $\Delta x$ باشد. فرض کنید ضریب برابر با 1- باشد، $y$ جمعیت یک ایالت و $x$ نرخ جرم (تعداد جنایات به ازای هر نفر) است. آیا می توانم بگویم که برای افزایش 10 درصدی نرخ جرم و جنایت، مدل کاهش 1 درصدی (تقریبا) جمعیت را پیش بینی می کند؟ یا باید بگویم که برای افزایش 1 درصدی میزان جرم و جنایت، مدل کاهش 1 درصدی (تقریبا) جمعیت را پیش بینی می کند؟ یا باید بگویم که برای هر جرم اضافی، مدل کاهش 1 نفری جمعیت را پیش بینی می کند؟
تفسیر صحیح ضریب زمانی که متغیر وابسته تغییر در log y و متغیر مستقل تغییر در x است؟
60787
چندین کتاب (Raudenbush & Bryk، Snijders & Bosker، Gelman & Hill، و غیره) و چندین مقاله (Gelman، Jusko، Primo & Jacobsmeier، و غیره) را مرور کرده‌ام، و هنوز واقعاً سرم را در این مورد نگفته‌ام. تفاوت عمده بین استفاده از خطاهای استاندارد خوشه ای و مدل سازی چند سطحی. من قسمت هایی را که باید با سؤال تحقیق مرتبط باشد، درک می کنم. انواع خاصی از پاسخ ها وجود دارد که فقط می توانید از مدل سازی چند سطحی دریافت کنید. با این حال، برای مثال، برای یک مدل دو سطحی که ضرایب علاقه شما فقط در سطح دوم است، مزیت انجام یک روش نسبت به روش دیگر چیست؟ در این مورد، من نگران پیش‌بینی یا استخراج ضرایب فردی برای خوشه‌ها نیستم. تفاوت اصلی که من توانستم پیدا کنم این است که خطاهای استاندارد خوشه‌ای زمانی آسیب می‌بینند که خوشه‌ها دارای اندازه‌های نمونه نابرابر هستند و مدل‌سازی چند سطحی ضعیف است زیرا مشخصه‌ای از توزیع ضریب تصادفی را فرض می‌کند (در حالی که استفاده از خطاهای استاندارد خوشه‌ای بدون مدل است) . و در پایان، آیا همه اینها به این معنی است که برای مدل هایی که ظاهراً می توانند از هر دو روش استفاده کنند، باید نتایج مشابهی از نظر ضرایب و خطاهای استاندارد دریافت کنیم؟ هر گونه پاسخ یا منابع مفید بسیار قدردانی خواهد شد.
خطاهای استاندارد خوشه ای در مقابل مدل سازی چند سطحی؟
18480
من نمی دانم که آیا تفاوتی در تفسیر ایجاد می کند که فقط متغیرهای وابسته، هر دو وابسته و مستقل، یا فقط متغیرهای مستقل تبدیل به log می شوند. در مورد log(DV) = Intercept + B1*IV + Error من می توانم IV را به عنوان درصد افزایش تفسیر کنم، اما وقتی log(DV) = Intercept + B1*log(IV) + Error یا زمانی که دارم، چگونه تغییر می کند. من DV = Intercept + B1*log(IV) + Error دارم؟
تفسیر پیش‌بینی‌کننده log تبدیل شده
103654
آیا می‌توانیم از طریق رگرسیون چندگانه پیش‌بینی کنیم که مقدار وابسته همیشه 1 باشد و چند متغیر مستقل کمی و کیفی وجود داشته باشد؟
مقادیر یکسان در یک متغیر وابسته
111177
من یک وکتور ویژگی در اندازه 250 x 35 دارم. یعنی من 250 تصویر دارم و هر تصویر دارای 35 ویژگی است. من باید تست کای دو انجام دهم تا مهمترین ویژگی ها را از آن بدست بیاورم. کسی می داند چگونه آن را انجام دهد؟ من فرمول مجذور کای را می‌دانم، اما نمی‌دانم چگونه آن را در مورد من اعمال کنم.
انتخاب ویژگی مربع کای
15940
من داده‌هایی از آزمایشی دارم که در آن دو درمان مختلف را در شرایط اولیه یکسان اعمال کردم و در هر مورد یک عدد صحیح بین 0 تا 500 را به عنوان نتیجه تولید کردم. من می‌خواهم از آزمون t زوجی برای تعیین اینکه آیا اثرات ایجاد شده توسط دو درمان به طور قابل توجهی متفاوت است استفاده کنم. نتایج برای هر گروه درمانی به طور معمول توزیع می شود، اما _تفاوت_ بین هر جفت به طور نرمال توزیع نمی شود (نامتقارن + یک دم بلند). آیا می توانم در این مورد از آزمون t زوجی استفاده کنم یا فرض نرمال بودن نقض شده است، یعنی باید از نوعی آزمون ناپارامتریک استفاده کنم؟
آیا می توانم از آزمون t زوجی استفاده کنم زمانی که نمونه ها به طور معمول توزیع شده اند اما تفاوت آنها وجود ندارد؟
94186
من مشخصاتی را با یک نتیجه بر حسب $ اجرا کردم و ضریب یک متغیر ساختگی از نظر آماری معنی‌دار بود. با این حال، زمانی که من دقیقاً همان مدل را با نتیجه بر حسب لگ-دلار اجرا کردم، ضریب قابل توجهی نیست. آیا این امکان پذیر است یا باید اشتباهی وجود داشته باشد؟
اهمیت آماری مدل های مختلف
52695
من کمی گیر کرده ام و فقط به این فکر می کنم که از کدام تکنیک رگرسیون استفاده کنم. از پاسخ دهندگان خواسته شد که مقدار درصد خاصی را از 0 تا 100 ارائه کنند. متأسفانه، این درصدها در مجموعه داده قابل دسترسی نیستند، اما در 9 دسته (0-8) رتبه بندی شدند. این دسته بندی ها نشان دهنده یک معیار عملکرد هستند که از 0 (باعملکرد پایین) تا 8 (بالاترین عملکرد) متغیر است. برای توجه، دسته‌ها از محدوده‌های مقادیر متفاوتی تشکیل شده‌اند، بنابراین واقعاً حتی فواصل ندارند. به طور کلی، من علاقه مند به پیش بینی تأثیر برخی از IV های ترتیبی بر عملکرد هستم. با اشاره به آمار توصیفی / فرکانس، به نظر می رسد DV من به شدت دارای انحراف است. به ویژه، یک سوم از تمام مشاهدات (N = 400) به 0 نسبت داده می شود، در حالی که بقیه به نظر می رسد به شکل زنگ هستند. پیشاپیش با تشکر فراوان کریس
کدام مدل رگرسیون را با متغیر وابسته ترتیبی و اریب استفاده کنیم؟
8664
من می خواهم تجزیه و تحلیل توان را روی آزمایش اندازه گیری های مکرر یک گروهی با استفاده از G*power انجام دهم. من گروهی از افراد دارم که مجموعه ای از محصولات را آزمایش کردند. هر موضوع یک بار محصولات را تست می کند. از این رو، من یک مشاهده در هر سلول دارم. برای آزمایش اثر محصول، از یک مدل دو آنوا با موضوعات به عنوان جلوه تصادفی با proc glm در sas استفاده کردم. من می خواهم حجم نمونه را برای یک مطالعه معین با طرح مشابه محاسبه کنم. با توجه به تخمین اندازه اثر، آلفا، بتا و تخمین همبستگی بین اندازه گیری های مکرر می توانم از نسبت واریانس سوژه ها/ (واریانس موضوعات + واریانس خطا) برگرفته از مدل آنوا دو طرفه به عنوان تخمین استفاده کنم. از این همبستگی؟
چگونه می توان همبستگی بین اندازه گیری های مکرر را تخمین زد؟
94454
آیا هر مجموعه داده ای که از طریق هر یک از روش های زیر خوشه بندی می شود: * خوشه بندی سلسله مراتبی تجمعی با استفاده از روش پیوند کامل * خوشه بندی سلسله مراتبی تجمعی با استفاده از روش پیوند تک ساختار دندروگرام یکسانی دارد؟ اگر بله، لطفاً به اثبات آن کمک کنید یا مثال متناقضی را نشان دهید (اگر نه).
خوشه بندی سلسله مراتبی پیوند کامل در مقابل دندروگرام پیوند تک
8669
من در حال حاضر دو مجموعه از متغیرهای ورودی مانند $X$ و $Y$ با یک متغیر خروجی $Z$ دارم. یعنی: $$Z = a_0 + a_1X_1 + a_2X_2... + a_{11}X_{11} = b_0 + b_1Y_1 + b_2Y_2 + b_3Y_3 + b_4Y_4$$ من مقادیر مستقل $X$ و $Y$ را دارم اما don مقادیر متغیر وابسته $Z$ را ندارند. آیا به هر حال بتوانم ضرایب $a$ و $b$ و همچنین مقدار R را در مجذور تخمین بزنم؟
دو مجموعه از متغیرهای ورودی برای یک متغیر وابسته ناشناخته
15948
من باید یک آزمون را ارزیابی کنم (مقدار پیش بینی پسین) اما نتایج آزمون می تواند بر اساس برخی عوامل مستقل دیگر تغییر کند. فرض کنید آزمایش من یک مقدار بیوشیمیایی را اندازه گیری می کند، اما بسته به دمای اتاقی که آزمایش انجام می شود، مقدار تغییر می کند. چگونه می توانم این واقعیت را در محاسبات خود بدون انجام یک سری آزمایش در دماهای مختلف یا چیزی مشابه مدل کنم؟
ارزیابی یک آزمایش بالینی
89440
با توجه به سطح این سایت، اینها احتمالاً سؤالات غیرقابل تحملی مبتدی هستند، اما اینجاست... بنابراین من در حال مطالعه هزینه حمل و نقل عمومی در یک شهر خاص هستم. من به داده‌های یک نظرسنجی تصادفی امیدوارانه از عادات رفت‌وآمد هفتگی حدود 60000 نفر دسترسی دارم و می‌دانم که شهر حدود 1350000 کاربر هفتگی حمل‌ونقل عمومی دارد. 1. با فرض اینکه توزیع کرایه‌ها هم برای نمونه $n$ و هم برای جمعیت من یکسان است، آیا می‌توانم به سادگی از اندازه جمعیت چشم پوشی کنم و مرز خطای $B = \sqrt{1/n} = 0.4\% را اعلام کنم. دلار؟ یعنی، اگر (مثلاً) 10.0٪ از نمونه من 50 دلار در هفته پرداخت کنند، آیا می توانم ادعا کنم که 10.0 $\pm0.4\% $ از جمعیت عمومی این کار را می کنند؟ 2. من به هیچ داده کرایه برای کل جمعیت دسترسی ندارم، اما توزیع حالت های سفر (اتوبوس، قطار و غیره) را هم برای نمونه و هم برای جمعیت می دانم. چگونه می توانم این دو را با هم مقایسه کنم تا قضاوت کنم که آیا نمونه من نماینده است؟ توجه داشته باشید که فقط 4 نقطه داده (حالت های مختلف) وجود دارد و از هیچ توزیع شناخته شده ای پیروی نمی کنند.
ارزیابی کیفیت یک حجم نمونه ثابت با اطلاعات محدود در مورد مجموعه کامل
114521
من می خواهم بپرسم لطفاً پاسخ پرسشنامه را در مقیاس لیکرت بپرسم. من تعدادی از پاسخ دهندگان دریافت کرده ام که برای تعداد زیادی سوال پاسخ های ثابتی داشتند. به عنوان مثال، بیش از 75٪ یا 80٪ پاسخ ها (در سؤالات مختلف) پاسخ یکسانی دارند (مثلاً 5). چکار کنم لطفا؟ معیاری برای رعایت کردن وجود دارد؟
پاسخ های پرسشنامه منسجم
111179
من در حال حاضر در حال بررسی داده های سری زمانی برای بیمارانی هستم که در بیمارستان بستری شده اند. سری زمانی خود احتمالات ریسک را مدل می کند، جایی که ریسک های بالا با قله ها مشخص می شوند. در مقاطع مختلف سری زمانی، ما دو نوع رویداد داریم: یک بیمار در بیمارستان بستری می شود یا بیمار می میرد. برای اینکه ببینم چه الگوهایی در سری های زمانی پذیرش و مرگ را پیش بینی می کنند، باید به چه تکنیک هایی نگاه کنم؟ من احتمالاً به تجزیه و تحلیل بقا فکر می کردم، اما مدل هیچ داده ای ندارد که بتواند تولدها را نشان دهد. همچنین من عذرخواهی می کنم، اما من فقط مدل را دارم و داده های اصلی را ندارم وگرنه آن را پست می کنم.
تکنیک هایی برای پیش بینی رویدادهای گسسته در یک سری زمانی؟
105108
من یک معادله رگرسیون ساده دارم که در آن log (حقوق) = b0 + b1 * log (فروش). 1. b1 را در این مدل چگونه تفسیر می کنید؟
چند سوال در مورد استفاده از لگاریتم در معادلات رگرسیونی
11060
امیدوارم کسی بتواند به من کمک کند تا نحوه عملکرد مقایسه نسبت با استفاده از GLM در R را بررسی کنم. من از GLM برای مقایسه بین سال‌ها با ساختن یک فایل txt استفاده کرده‌ام که در آن ستون موفقیت شامل تعداد جوجه‌هایی است که از تخم بیرون می‌آیند، و شکست‌ها تعداد تخم‌هایی است که در هر لانه بیرون نیامده‌اند. هر ردیف مربوط به یک لانه است. (من این کار را طبق توضیحاتی که در «کتاب R» نوشته مایکل کرولی انجام دادم) کد به این صورت است: y<-cbind(موفقیت،شکست) hsmodel1<-glm(y~year،دوجمله ای) این تست تفاوت در موفقیت دریچه در میان سال‌هایی که #جوجه‌ها از تخم بیرون می‌آیند/تخم‌گذاری می‌شوند، درست است؟ تعداد جوجه ها بیرون نیامدند / لانه کردند؟ ثانیاً، اگر گونه من تا 2 تخم بگذارد، آیا استفاده از این روش متناسب همچنان معتبر است، زیرا ممکن است 0، 1 یا 2 موفقیت یا شکست وجود داشته باشد؟ من تقریباً مطمئن هستم که اینطور است، اما از سؤالی که یکی از همکاران امروز پرسید، شروع به شک کردم. با تشکر ماگ
GLM برای داده های متناسب
17816
من از یک مدل خطی برای تجزیه و تحلیل برخی داده ها استفاده می کنم، y~N(mu، sigma) که در آن mu[y] <- Intercept + Beta1X + Beta2X1 + Beta3X2 و Beta2 = Beta1^2 Beta[n] ~ N(mu.b [n]، sigma.b[n]) اما من مجبور شدم هم متغیرهای پیش‌بینی‌شده و هم همه متغیرهای پیش‌بینی‌شده را تبدیل کنم، زیرا از آن استفاده می‌کنم. اشکالات، فقط برای کارایی. گلمن به این موضوع اشاره می کند که کشش نامیده می شود و می گوید ضرایب را می توان مستقیماً به این صورت تفسیر کرد که افزایش بتا در X با افزایش 1٪ در y مرتبط است. با این حال، نتایج من: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) 0.1135924 0.1495142 0.760 0.448 B1 1.4934436 0.0580981 25.706 <2e-16 *** I(B1^2) 7020.601 -0. -23.747 <2e-16 *** B2 0.0003612 0.0515368 0.007 0.994 نشان می دهد که 150٪ افزایش در y وجود دارد، با هر 1٪ افزایش در Beta1 که می تواند مخرب باشد. همچنین، اصطلاح غیر خطی یا خود تعاملی چگونه تفسیر می شود؟ پیشنهاد من این است: کاهش 15 درصدی تأثیر B1 بر y با هر 1 درصد افزایش در Beta1 رخ می دهد. با این حال، اگر پیش‌بینی‌شده یا پیش‌بینی‌کننده‌ها را تبدیل نکنم، به دست می‌آورم: Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 5.382e+01 3.410e+00 15.782 < 2e-16 *** B1 -3.026e-02 8.775e-03 -3.449 0.000591 *** 2 I(B1^ ) 8.654e-06 7.828e-06 1.106 0.269264 B2 2.363e+00 2.490e+00 0.949 0.342789 که در آن اثر X1 معکوس به نظر می رسد، و اندازه اثر کوچک است (مطمئناً به ترتیب به ترتیب 15% و 15% نیست). تصحیح!! با تشکر
نحوه تفسیر ضرایب رگرسیون در مدل log-log
52690
من سعی می کنم برخی از نتایج را در مقاله ای تفسیر کنم که مقادیر AICc را برای مدل های رگرسیون چندگانه نامزد مختلف ارائه می دهد. این مقاله نتایج مدل را به تفکیک تعداد vbl های مستقل ارائه می کند. من اطلاعات زیادی در مورد AIC ندارم، بنابراین می‌پرسم آیا مقایسه نمرات AICc بین مثلاً یک مدل 2-vbl و یک مدل 3vbl معتبر است؟ این مقاله در مجموع از 4 vbls استفاده می کند و یک امتیاز AICc را برای مدل هایی که شامل تمام زیر مجموعه های ممکن از این vbls هستند ارائه می دهد. اگر این معتبر نیست، آیا معیار دیگری مربوط به AICc (مثلاً وزن‌های Akaike و غیره) مقایسه معتبری است؟
آیا مقایسه AICc بین مدل هایی با تعداد vbl های مستقل متفاوت است؟
84350
ارسال سوال من از mathoverflow برای پیدا کردن برخی از کمک های خاص آمار. من در حال مطالعه یک فرآیند فیزیکی هستم که داده تولید می کند که به خوبی به دو بعد با مقادیر غیر منفی نمایش می دهد. هر فرآیند دارای یک مسیر (پیش بینی شده) از $x$-$y$ امتیاز است -- تصویر زیر را ببینید. آهنگ‌های نمونه آبی هستند، یک نوع مسیر مشکل‌ساز با دست با رنگ سبز ترسیم شده است، و یک منطقه نگران‌کننده با رنگ قرمز ترسیم شده است: ![تراک‌ها و منطقه نگرانی](http://i.stack.imgur.com/G52Jd. png) هر آهنگ نتیجه یک آزمایش مستقل است. بیست میلیون آزمایش در طول چندین سال انجام شده است، اما از این تعداد تنها دو هزار آزمایش ویژگی‌ای را که ما به‌عنوان یک مسیر ترسیم می‌کنیم، نشان می‌دهند. ما فقط نگران آزمایش‌هایی هستیم که یک مسیر تولید می‌کنند، بنابراین مجموعه داده‌های ما (تقریباً) دو هزار آهنگ است. این امکان وجود دارد که یک آهنگ وارد منطقه مورد نظر شود، و ما انتظار داریم که در تراک های 10^4 دلاری به ترتیب 1 دلار این کار را انجام دهد. تخمین این عدد سؤالی است که در دست است: > چگونه می‌توانیم احتمال ورود یک مسیر دلخواه به منطقه مورد نظر را محاسبه کنیم؟ انجام آزمایش‌ها به‌اندازه کافی سریع امکان‌پذیر نیست تا ببینیم چقدر آهنگ‌هایی که وارد منطقه مورد نظر می‌شوند تولید می‌شوند، بنابراین باید از داده‌های موجود برون‌یابی کنیم. ما به عنوان مثال مقادیر $x$ را با توجه به $y\ge200$ برازش داده‌ایم، اما این به اندازه کافی داده‌هایی مانند مسیر سبز را کنترل نمی‌کند - به نظر می‌رسد که داشتن یک مدل شامل هر دو بعد ضروری است. ما حداقل فاصله را از هر مسیر تا منطقه مورد نظر در نظر گرفته‌ایم، اما متقاعد نشده‌ایم که این یک نتیجه قابل توجیه ایجاد می‌کند. 1) آیا روش شناخته شده ای برای تطبیق توزیع به این نوع داده ها برای برون یابی وجود دارد؟ -یا- 2) آیا راهی واضح برای استفاده از این داده ها برای ایجاد مدلی برای تولید آهنگ وجود دارد؟ به عنوان مثال، از تجزیه و تحلیل اجزای اصلی در مسیرها به عنوان نقاطی در یک فضای بزرگ استفاده کنید، سپس یک توزیع (پیرسون؟) را به مسیرهای پیش بینی شده بر روی آن اجزا تنظیم کنید.
برازش توزیع به داده های مکانی
11066
من یک GLM را با مجموعه ای از پارامترها در R تخمین می زنم. وقتی این را اجرا می کنم: M <- glm( Y ~ factor(X1) + factor(X2) ) summary(M) R فقط بخشی از جدول را به من می دهد، سپس با این پیام کوتاه می‌شود: [به getOption(max.print) -- 621 ردیف حذف شده است]] جدول خلاصه بزرگ خواهد بود، اما من همه چیز را می‌خواهم. چگونه گزینه max.print را تغییر دهم؟ من چندین نسخه مختلف را امتحان کردم و هیچ کار نمی کند. ویرایش: در اینجا یک تلاش دیگر است که به من یک خطای متفاوت می دهد. summary (M، گزینه (max.print=100000)) خطا در پراکندگی * covmat.unscaled: آرگومان غیر عددی برای عملگر باینری
چگونه می توانم گزینه max.print را در خلاصه R تغییر دهم؟
74855
من در حال انجام یک رگرسیون لجستیک در سطح شرکت با استفاده از کل دارایی ها برای کنترل اندازه شرکت هستم. به دلیل کج بودن داده ها، من یک تبدیل ثبت اطلاعات دارایی انجام می دهم. در حالی که من هیچ معناداری برای متغیر log-transformed دریافت نمی‌کنم، متغیر تبدیل نشده بسیار معنی‌دار است (01/0p<). توضیح احتمالی چنین نتیجه ای چه می تواند باشد؟ آیا به این معنی است که رابطه برای مقادیر بسیار بالا و پایین کاهش نمی یابد یا مشکلی را نشان می دهد و نباید برای تفسیر داده ها استفاده شود.
متغیر Log-transformed معنادار نیست، در حالی که خود متغیر مهم است
17892
هنگام خواندن یک آموزش SVM، نویسنده بیانیه زیر را در مورد تکنیک عادی سازی برای پردازش داده های ورودی بیان می کند: > عادی سازی داده ها به بردارهای واحد، ابعاد داده ها را تا > یک کاهش می دهد، زیرا داده ها به کره واحد نمایش داده می شوند. من کاملاً در مورد چگونگی درک ابعاد یک کاهش یافته است. هر گونه توضیحات بیشتر بسیار قدردانی خواهد شد.
نرمال سازی چگونه ابعاد داده ها را کاهش می دهد؟
51005
من می دانم که تعداد زیادی سؤال در مورد مشخصات lmer در حال حاضر وجود دارد. لطفاً به من اطلاع دهید که آیا این یک تکراری است، یا اگر خارج از موضوع تلقی می شود، آن را حذف می کنم. من از یک رویکرد گام به گام رو به جلو در تلاش برای تعیین بهینه ساختار اثرات تصادفی برای داده های خود استفاده می کنم. مدل پایه ای که من سعی می کنم از آن گام بردارم دارای ساختار همبستگی اثرات تصادفی است مانند این: AIC BIC logLik deviance 38476 38632 -19220 38440 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr SubjID (Intercept) 2.7844 1.6687 SOA.s.c 39.1269 6.2551 0.931 SOA.s.c2 15.7080 3.9633 -0.943 -0.997 ** تعداد obs1, 440 فرعی* من با همبستگی زیاد بین رهگیری، SOA.s.c و SOA.s.c2 (به راحتی) در صلح هستم. این ارزش‌ها تا حدی منطقی هستند، اگرچه **خیلی** بالاتر از آن چیزی هستند که من می‌خواهم. فکر می‌کنم درست است که اجازه می‌دهم تا زمانی که مدل هنوز همگرا باشد، تخمین زده شوند... اما آماده اصلاح (و سرزنش) هستم. مدل‌های کاندید مرحله‌ای من به شرح زیر است: 1. «(1+SOA.s.c+SOA.s.c2|SubjID)+(1+SessionNum.c|SubjID)» 2. «(1+SOA.s .c+SOA.s.c2|SubjID)+(0+SessionNum.c|SubjID)` 3. `(1+SOA.s.c+SessionNum.c+SOA.s.c2|SubjID)` **سوال واقعی**: با توجه به اینکه اقدامات مکرر برای هر SubjID در طول هر یک از سه متغیر ذکر شده در بالا انجام شده است، از این سه گزینه معقول برای تست؟ به طور خاص، من نگران مدل 1 هستم، زیرا کمترین AIC و BIC را ارائه می دهد، اما به نظر می رسد یک تداخل SubjID دیگر را تخمین بزند. آیا واقعاً این همان کاری است که انجام می دهد؟ آیا این اشکالی ندارد؟ **برای مرجع**: همبستگی های اثرات تصادفی برای مجموعه اول، «(1+SOA.s.c+SOA.s.c2|SubjID)+(1+SessionNum.c|SubjID)»، به این صورت است: AIC BIC logLik انحراف 38284 38466 -19121 38242 اثرات تصادفی: واریانس نام گروه ها Std.Dev. Corr SubjID (Intercept) 2.687227 1.63928 SOA.s.c 39.713777 6.30189 0.968 SOA.s.c2 16.853598 4.10531 -0.984 -0.984 -0.995 Subcept (0.984 -0.995) 0.47347 تعداد جلسه .c|SubjID)`، به نظر می رسد این: AIC BIC logLik انحراف 38307 38472 -19134 38269 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr SubjID (Intercept) 2.939991 1.71464 SOA.s.c 40.131292 6.33493 0.932 SOA.s.c2 15.941733 3.99271 -0.941 -0.941 -0.9306SeIDs.996Num 0.25839 همبستگی های اثرات تصادفی برای مجموعه دوم، «(1+SOA.s.c+SOA.s.c2+SessionNUm.c|SubjID)»، به این صورت است: AIC BIC logLik انحراف 38286 38477 -19121 38242 Ran نام گروه ها Variance Std.Dev. Corr SubjID (Intercept) 2.98820 1.72864 SOA.s.c 39.85077 6.31275 0.932 شماره جلسه -0.947 -0.995 -0.052
آیا در هنگام استفاده از lmer، اگر در فاکتورهای گروه بندی جداگانه مشخص شده باشد، یک برش تصادفی بیش از یک بار تخمین زده می شود؟
66847
این دقیقا به چه معناست؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bm8he.png) منبع تصویر من در مورد قسمت دارای z-score کمی گیج هستم. به نظر می رسد هنگام آزمایش فرضیه مهم باشد.
در مورد معنای قانون سردرگم است
11064
در تعدادی از بسته های آماری از جمله SAS، SPSS و شاید موارد دیگر، گزینه ای برای سرکوب رهگیری وجود دارد. چرا می خواهید این کار را انجام دهید؟
چرا باید رهگیری را در رگرسیون خطی سرکوب کرد؟
66848
من یک مجموعه داده با دو فایل دارم، یکی با داده های نتیجه، که برخی از آنها گم شده اند، و دیگری با داده های جمعیتی، که برخی از آنها چند برابر شده است. من می‌خواهم داده‌های جمعیت‌شناختی را در مدل اساسی خود لحاظ کنم، بنابراین باید آن‌ها را نیز در مدل انتساب خود لحاظ کنم. من هرگز داده‌هایی را ندیده‌ام که در مدل انتساب بعدی گنجانده شده باشند، اما هرگز پیش‌بینی‌کننده‌هایی را برای مدل اساسی ندیده‌ام که از مدل انتساب حذف شده باشد. چگونه این معضل را حل می کنید؟
انتساب با استفاده از داده های منتسب
89448
من می‌خواهم مدل پروبیت زیر را تخمین بزنم $employed_t=\beta_1 سن + \beta_2 سن^2$ و از کد Stata probit employed c.age##c.age استفاده می‌کنم. age$ از جمله اثر از طریق اصطلاحات درجه دوم اگر در مدل گنجانده شود (نگاه کنید به: چگونه یک مدل پروبیت را در Stata تفسیر کنم؟). چگونه می توانم اثر حاشیه ای را برای عبارت های درجه دوم $age^2$ بدست بیاورم؟ آیا این روش صحیح است؟ `probit employed c.age##c.age` `sum سن` `local m=r(mean)` `local x1 _b[c.age]*'m'+_b[c.age#c.age]* 'm'+_b[_cons]' `nlcom 2*normd('x1')*_b[c.age#c.age]-('x1')*normd('x1')*(_b[c.age]+2*_b[c.age#c .سن]*'r')`
اثر حاشیه ای متغیر مربع در مدل پروبیت
11178
> **تکراری احتمالی:** > رگرسیون لجستیک در R (نسبت شانس) من باید یک رگرسیون لجستیک در R انجام دهم. متغیر پاسخ من 'surv=0' است. surv=1 و من حدود 18 متغیر پیش بینی دارم. پس از مطالعه مدل خود، جدول ضرایب زیر را دریافت کردم و باید مراحلی را طی کنم که با آنها آشنا نیستم تا به نسبت های شانس برسم. این اولین بار است که یک رگرسیون لجستیک در R انجام می دهم و کمک شما قابل قدردانی خواهد بود. فراخوانی: glm(formula = surv ~ as.factor(tdate) + as.factor(line) + as.factor(wt) + as.factor(crump) + as.factor(pind) + as.factor(pcscore) + as.factor(ptem) + as.factor(pshiv) + as.factor(pincis) + as.factor(presp) + as.factor(pmtone) + as.factor(pscolor) + as.factor(ppscore) + as.factor(pmstain) + as.factor(pbse) ​​+ as.factor(psex) + as.factor(pgf)، خانواده = دو جمله ای (پیوند = logit)، داده = ap) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -1.9772 -0.5896 -0.4419 -0.3154 2.8264 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -0.59796 0.27024 -2.213 0.026918 * as.factor(tdate)2009-09-08 0.43918 0.19876 2.210 0.0271 *0.0271 as.factor(tdate)2009-09-11 0.27613 0.20289 1.361 0.173514 as.factor(tdate)2009-09-15 0.58733 0.19232 3.054 0.0259 ** as.factor(tdate)2009-09-18 0.52823 0.20605 2.564 0.010360 * as.factor(tdate) 2009-09-22 0.45661 0.19929 2.291 0.01954 *2.291 0.0 as.factor(tdate)2009-09-25 -0.09189 0.21740 -0.423 0.672526 as.factor(tdate)2009-09-29 -0.15696 0.28369 -0.553 0.587 0.550 as.factor(tdate)2010-01-26 1.39260 0.21049 6.616 3.69e-11 *** as.factor(tdate) 2010-01-29 1.67827 0.21099 7.9054-15 *** 1. as.factor(tdate)2010-02-02 1.35442 0.21292 6.361 2.00e-10 *** as.factor(tdate)2010-02-05 1.36856 0.21439 6.383-107. as.factor(tdate)2010-02-09 1.18159 0.21951 5.383 7.33e-08 *** as.factor(tdate) 2010-02-12 1.40457 0.22001 6.3384 107 *** as.factor(tdate)2010-02-16 1.01063 0.21783 4.639 3.49e-06 *** as.factor(tdate)2010-02-19 1.54992 0.21535 7.197-131 *** as.factor(tdate)2010-02-23 0.85695 0.33968 2.523 0.011641 * as.factor(line)2 -0.26311 0.07257 -3.625 0.000288 0.000288 *** 1.61 6.06. 0.606 0.544387 as.factor(line)6 -0.30409 0.12130 -2.507 0.012176 * as.factor(wt)2 -0.33904 0.10708 -3.166 0.00154 - 0.00154 0.00154 - 2.504 0.13217 -2.192 0.028359 * as.factor(wt)4 -0.50470 0.16264 -3.103 0.001915 ** as.factor(wt)5 -0.74870 0.20067 -3.091mp as.20067 -0.731 0.07537 0.10751 0.701 0.483280 as.factor(crump)3 -0.14050 0.13217 -1.063 0.287768 as.factor(crump)4 -0.20131 0.1226894 - 0.122689 as.factor(crump)5 -0.23963 0.20778 -1.153 0.248803 as.factor(pind)2 -0.29893 0.10752 -2.780 0.005434 ** as.factor(pind)3 -0.408 -0.3838 0.001027 ** as.factor(pind)4 -0.73021 0.14947 -4.885 1.03e-06 *** as.factor(pind)5 -0.68878 0.17650 -3.902 9.52e-02 9.52e-05 ***c.5 -06. 0.13606 -3.871 0.000108 *** as.factor(ptem)2 -0.72600 0.08964 -8.099 5.52e-16 *** as.factor(ptem)3 -0.79145 0.10503-4.83 -1. ) 4 -0.89956 0.10331 -8.707 < 2e-16 *** as.factor(ptem)5 -0.90181 0.10721 -8.412 < 2e-16 *** as.factor(pshiv)2 0.25236 ** 0.02018 0.0771 as.factor(pincis)2 0.02327 0.07216 0.323 0.747041 as.factor(presp)2 0.43746 0.11598 3.772 0.000162 *** as.factor(pmtone) 1.8315150. 0.002016 ** as.factor(pscolor)2 0.53469 0.26851 1.991 0.046443 * as.factor(ppscore)2 0.25664 0.08751 2.933 0.003361 0.003361 0.003361 0.003361 (s **86 pm) 0.84408 -0.576 0.564611 as.factor(pbse)2 -0.28248 0.07335 -3.851 0.000117 *** as.factor(psex)2 -0.18240 0.06385 0.06385 -2.04p as. 0.10329 0.14314 0.722 0.470554 as.factor(pgf)21 -0.06481 0.10772 -0.602 0.547388 0.547388 as.factor(pgf)22 ** 0.395704 0.395704 0.101 as.factor(pgf)31 0.18820 0.10082 1.867 0.061936. as.factor(pgf)32 0.39662 0.13963 2.841 0.004504 ** as.factor(pgf)41 0.09178 0.10413 0.881 0.378106 as.factor(pgf20.6016450440.10. 1.413 0.157787 --- Signif. کدها: 0 *** 0.001 **
نحوه تفسیر جدول ضرایب رگرسیون لجستیک با استفاده از تابع glm در R
114526
من یک تحلیل رگرسیون چندگانه روی یک مجموعه داده اجرا می کنم. من مجموعه داده های خود را به سه زیر مجموعه مختلف با اندازه های مختلف تقسیم کردم، بنابراین اکنون بهترین مدل را از هر سه زیر مجموعه دارم. اما باید از بین این سه مدل بهترین مدل را پیدا کنم. کد anova کار نمی کند زیرا مدل ها تعداد مشاهدات متفاوتی دارند. چه کاری می توانم انجام دهم؟
مقایسه دو مدل رگرسیون خطی با اندازه های مختلف
80559
متغیرها: lprice = log (قیمت خانه) ldist = log (فاصله از زباله سوز) lintst = log (فاصله از بین ایالتی) ** رگرسیون 1** ![1st reg](http://i.stack.imgur.com/ tIGT5.png) **رگرسیون دوم:** ![2nd reg](http://i.stack.imgur.com/cjQQc.png) در رگرسیون دوم _lintstsq_ را وارد کردم که مجذور _lintst_ از رگرسیون 1 است و ناگهان _ldist_ و _lintst_ معنی دار می شوند و ضرایب آنها تغییر می کند. این منطقی نیست، چگونه بسته آماری نمی تواند بفهمد که _lintst_ قابل توجه است تا زمانی که شکل مربع آن، _lintstsq_ را وارد نکنم؟ آیا کسی می تواند بینشی در این مورد ارائه دهد؟ **نظر استاد من در این مورد این بود: ** > این منطقی است. نزدیک بودن به بین ایالتی مفید است، به خصوص برای > مسافرانی که از بین ایالتی برای رسیدن به محل کار استفاده می کنند. اما نزدیک بودن بیش از حد به دلیل سر و صدا و آلودگی خوب نیست. اگر فاصله از محل زباله سوز > و فاصله تا منطقه بین ایالتی همبستگی داشته باشند، باید مشخصات مدل > را با توجه به دومی درست به دست آوریم تا بتوانیم اثر > اولی را شناسایی کنیم. که کمک زیادی به توضیح نمی کند (یا اینطور است؟)
چرا فرم عملکردی در هنگام تعیین مدل ها بسیار مهم است؟
58709
من یک مدل اقتصادی نظری دارم که به شرح زیر است، $$ y = a + b_1x_1 + b_2x_2 + b_3x_3 + u $$ بنابراین تئوری می گوید که برای تخمین $y$ عوامل x_1$، $x_2$ و $x_3$ وجود دارد. اکنون داده‌های واقعی را دارم و باید b_1$، $b_2$، $b_3$ را تخمین بزنم. مشکل این است که مجموعه داده های واقعی فقط حاوی داده هایی برای $x_1$ و $x_2$ می باشد. هیچ داده ای برای $x_3$ وجود ندارد. بنابراین مدلی که من می‌توانم آن را جا بزنم واقعاً این است: $$y = a + b_1x_1 + b_2x_2 + u$$ * آیا تخمین زدن این مدل خوب است؟ * آیا با برآورد آن چیزی از دست می دهم؟ * اگر من $b_1$، $b_2$ را تخمین بزنم، پس عبارت $b_3x_3$ کجا می رود؟ * آیا با عبارت خطای $u$ محاسبه می شود؟ و ما می خواهیم فرض کنیم که $x_3$ با $x_1$ و $x_2$ همبستگی ندارد.
تخمین $b_1 x_1+b_2 x_2$ به جای $b_1 x_1+b_2 x_2+b_3x_3$
89444
من در مدل سازی آماری جدید هستم و سعی می کنم یک داده مالی را با رگرسیون لجستیک مدل کنم و در اینجا با یک چالش روبرو هستم. 1. برخی از متغیرهای پیش بینی دارای مقادیر صحیح (منفی، صفر و مثبت) هستند. چگونه با آنها رفتار کنم؟ در مدرسه اساتید از داده های منفی در تدریس استفاده نمی کنند. 2. متغیر وابسته (باینری) حدود 97 درصد صفر و 3 درصد یک دارد و من در حال مدل سازی موردی هستم که متغیر وابسته 1 باشد. از آنجایی که صفرها بسیار است، آیا نمونه معقولی (مثل 2/3) می گیرم. )از داده ها به طوری که نسبت یک ها به صفرها مثلاً 1:3 باشد؟
مدل سازی داده ها با رگرسیون لجستیک
64006
من تحلیل خوشه‌ای را انجام داده‌ام و اکنون می‌خواهم میانگین‌ها را بین متغیرها در خوشه‌های مختلف مقایسه کنم. متغیرهای مورد نظر سن و هزینه به میلیون دلار است. متغیر سن از توزیع نرمال پیروی نمی کند: در نتیجه، من آزمایش من ویتنی را در نظر داشتم. هزینه‌های میلیون‌ها دلاری، فرض برابری واریانس‌ها را نادیده می‌گیرد. با بیان این موضوع، اگرچه به نظر می‌رسد همه آزمایش‌ها نشان می‌دهند که سن از توزیع طبیعی پیروی نمی‌کند، من در مورد میزان آن کاملاً مطمئن نیستم. ![Histogram Age Cluster 1](http://i.stack.imgur.com/dKZ3v.jpg) هیستوگرام سن در خوشه 1 ![Histogram Age Cluster 2](http://i.stack.imgur.com/ JB8Zk.jpg) هیستوگرام سن در خوشه 2 ![نمودار جعبه سن در خوشه 1](http://i.stack.imgur.com/f34oF.jpg) نمودار جعبه سن در خوشه 1 ![Box Plot - Age - Cluster 2](http://i.stack.imgur.com/Il943 .jpg) باکس نمودار سن در خوشه 2 پیشنهاد شده است از آزمون من ویتنی در این مورد استفاده شود، با توجه به اینکه فرض نرمال بودن است. ملاقات نشد. 1. آیا Mann Whitney با داده های پیوسته خوب کار می کند؟ به نظر می رسد این پیوند نشان می دهد که چنین است. آیا SPSS به طور خودکار اینها را به رتبه تبدیل می کند؟ 2. زیمرمن استدلال می کند که آزمون t باید خوب کار کند، زیرا به ندرت تحت تأثیر غیرعادی بودن جمعیت قرار می گیرد! 3. Sheskin (2007) استفاده از آزمون t را به هر حال پیشنهاد می کند اما از یک رویکرد محافظه کارانه تر استفاده می کند (مثلاً مقادیر بحرانی t(0.01) به جای t(0.05). چگونه می توانم این مشکل را حل کنم؟
من ویتنی یا آزمون تی برای مقایسه سن و هزینه پس از خوشه بندی
15947
خوب، بیایید دوباره تلاش کنیم. زمینه سوال اصلی در زیر آورده شده است، اما شاید تمرکز بر جنبه آماری برای دریافت پاسخ کمک کند. چیزی که من به دست آوردم تعدادی اندازه گیری در واحد _t_ است. این اندازه‌گیری‌ها در حالی انجام می‌شوند که تعداد بیشتری از متغیرها را تغییر می‌دهند. تأثیر این متغیرها ناشناخته است و باید با تفسیر اندازه‌گیری‌ها مشخص شود. از آنجایی که اندازه‌گیری‌ها به اعداد مطلق هستند و متغیر _e_ آزمایش‌ها معمولاً متغیر اصلی علاقه‌مند است، که تنها دو مقدار دارد، من تمایل دارم نسبت اندازه‌گیری‌ها را بر اساس _e_ محاسبه کنم. استفاده از نسبت به من امکان می دهد تا تأثیر سایر متغیرها را بر روی _t_ مقایسه کنم. حال سوال این است: چگونه نسبت را به درستی محاسبه کنیم؟ کاری که من در ابتدا انجام دادم این بود که اندازه‌های _t_ را که در آن همه متغیرها برابر هستند، جفت کردم و سپس با e1 و یکی با e2 اندازه‌گیری کردم تا جیره محاسبه شود. با این حال، این منجر به تغییرات زیادی می شود و نتیجه به دلیل نویز زیاد مفید نیست. روش دوم این بود که همه اندازه‌گیری‌ها را بر اساس _t_ مرتب کنیم و سپس e1/e2 را محاسبه کنیم. این خیلی صدا را کاهش می دهد، اما نیمه دانش من به من می گوید که این بهترین راه نیست و شاید درست نباشد. یکی از همکاران پیشنهاد کرد که به جای جفت کردن اندازه گیری های تصادفی یا مرتب شده، از محصول دکارتی استفاده شود. به نظر می رسد که ماهیت تصادفی دو اندازه گیری دلخواه را که برای مقایسه با هم جفت شده اند، بهتر توضیح دهد. اما، من هنوز می‌دانم که آیا این درست است یا رویکردهایی با پشتوانه نظری در جامعه وجود دارد. هر گونه اشاره به رویکردهای نحوه کار با و نحوه تولید چنین نسبت هایی به روش صحیح بسیار استقبال می شود. ## زمینه و مورد استفاده برای ارائه کمی زمینه، من عملکرد ماشین‌های مجازی (VM) یا نرم‌افزار سیستم‌ها را به طور کلی اندازه‌گیری می‌کنم و معمولاً می‌خواهم بهینه‌سازی‌های مختلف را برای مشکل عملکرد مقایسه کنم. عملکرد در زمان اجرا مطلق برای تعدادی معیار اندازه گیری می شود، و معمولاً برای تعدادی از پیکربندی های یک ماشین مجازی که بر روی تعداد هسته های استفاده شده CPU، پارامترهای مختلف بنچمارک، و غیره تغییر می کند. بنابراین، من با تعداد زیادی اندازه گیری برای همه نوع پارامترهای مختلف که معمولاً علاقه مند به افزایش سرعت همه آنها هستم، VM را با VM و VM بدون بهینه سازی خاص مقایسه می کنم. کاری که من در حال حاضر انجام می دهم این است که یک سری مشخص از اندازه گیری ها را انتخاب کنم. بیایید بگوییم اندازه‌گیری‌های یک ماشین مجازی با و بدون بهینه‌سازی (VM-norm/VM-opt) در حال اجرا معیار A، روی 1 هسته. از آنجایی که می‌خواهم نتایج معیارهای مختلف و تعداد هسته‌ها را با هم مقایسه کنم، نمی‌توانم از زمان اجرا مطلق استفاده کنم، اما باید به نوعی آن را عادی کنم. بنابراین، من 100 اندازه گیری را برای معیار A در 1 هسته برای VM-norm با 100 اندازه گیری مربوط به VM-opt جفت می کنم تا نسبت VM-opt/VM-norm را محاسبه کنم. وقتی این کار را انجام می‌دهم و اندازه‌گیری‌ها را به ترتیبی که آنها را انجام می‌دهم انجام می‌دهم، بدیهی است که تغییرات بسیار زیادی در 100 نسبت VM-opt/VM-norm حاصل شده دارم. بنابراین، من فکر کردم، خوب، بیایید فرض کنیم که تغییر در اندازه‌گیری‌های من ناشی از اثرات غیر قطعی است و همان اثرات باعث تغییر به همان روش برای VM-opt و VM-norm می‌شوند. بنابراین، ساده لوحانه، باید اندازه‌گیری‌ها را قبل از جفت کردن آنها مرتب کنیم. و همانطور که انتظار می رود، این تنوع البته را کاهش می دهد.
چگونه یک توزیع نسبت از نمونه ها ایجاد کنیم؟
114527
از آزمون Shapiro-Wilk می‌بینم که پاسخ‌ها به آیتم‌های Likert (4 امتیازی) به طور معمول توزیع نمی‌شوند، اگرچه نمودارهای Q-Q تقریباً نرمال بودن را نشان می‌دهند. من تجزیه و تحلیل PCA را روی آن موارد انجام داده‌ام و سردرگم هستم که اگر داده‌ها به طور معمول توزیع نشده باشند، آیا انجام این کار خوب است یا خیر. چگونه کاربرد PCA و اعوجاج این فرض نرمال بودن را استدلال کنیم؟ آیا می توان از نمودارهای Q-Q فقط برای استدلال استفاده کرد؟ نمونه من 1275 است. من قصد دارم تجزیه و تحلیل خوشه‌ای بیشتری انجام دهم، بنابراین نمی‌خواهم تغییراتی در داده‌ها ایجاد کنم.
فرض نرمال بودن در PCA
17897
در مقاله‌ای که اخیراً درباره معایب تکیه بر مقدار p برای استنتاج آماری بحث می‌کند، به نام «ماتریکس در مقابل سیراکوزانو و دانش‌آموز در برابر فیشر اهمیت آماری در آزمایش» (DOI: 10.1111/j.1740-9713.2011.00511.x)، استفان تی زیلیاک با استفاده از مقادیر p مخالف است. در پاراگراف‌های پایانی می‌گوید: > داده‌ها تنها چیزی است که ما قبلاً می‌دانیم و به طور قطع. آنچه ما واقعاً می‌خواهیم بدانیم چیزی کاملاً متفاوت است: با توجه به داده‌هایی که در اختیار داریم، احتمال درست بودن یک فرضیه (یا حداقل از نظر عملی مفید) است. با توجه به شواهد موجود، می‌خواهیم احتمال متفاوت بودن این دو دارو را بدانیم. آزمون معناداری - بر اساس > بر اساس مغالطه شرطی جابجا شده، دامی که فیشر > در آن افتاد - این احتمال را به ما نمی گوید و نمی تواند. _ تابع power >، تابع ضرر مورد انتظار، و بسیاری دیگر از روش های تئوری تصمیم گیری و > بیزی که از Student و Jeffreys که اکنون به طور گسترده در دسترس > و رایگان آنلاین هستند، انجام می دهند. _ تابع توان، تابع ضرر مورد انتظار و سایر روش‌های تصمیم‌گیری نظری و بیزی؟ آیا این روش‌ها به طور گسترده در R استفاده می‌شوند و در دسترس هستند؟ این روش‌های پیشنهادی جدید چگونه پیاده‌سازی می‌شوند؟ به عنوان مثال، چگونه می‌توانم از این روش‌ها برای آزمایش فرضیه‌ام استفاده کنم. مجموعه داده من در غیر این صورت از آزمون های t 2 نمونه ای معمولی و p-values ​​استفاده می کنم؟
جایگزینی برای مقادیر p در R؟
103535
یک الگوریتم خوشه‌بندی بیزی که من استفاده می‌کنم، یک گروه را برای هر نمونه ورودی اختصاص می‌دهد. برای دانه های تصادفی مختلف نتایج متفاوتی به دست می آید و برچسب گذاری هر گروه متفاوت است. می‌خواهم بدانم آیا رویکرد بهینه‌ای برای انتخاب برچسب‌گذاری مجدد برای مثلاً 10 اجرا وجود دارد که بیشترین تطابق را در سراسر اجراها برای یک گروه نمونه ایجاد کند. مجموعه داده نمونه R: data.frame(one=c(A، A، A، B، B، B)، two=c(B،B، ب، «ب»، «الف»، «الف»)، سه=ج(«ب»، «الف»، «الف»، «ب»، «ب»، «الف»)) در این مورد فقط برچسب زدن مجدد باید در اجرای دوم با B<=>A انجام شود. احتمالاً در بیشتر موقعیت‌ها بیش از یک راه‌حل وجود دارد، اما من خوشحال می‌شوم که فقط یک راه‌حل بهینه را به‌طور تصادفی دریافت کنم.
بهترین رویکرد برای برچسب زدن مجدد برای ایجاد بیشترین تطابق
61317
من از توابع tbats و bats استفاده می کنم و باید کار اشتباهی انجام دهم. من از دستور زیر برای Holt-Winters استاندارد با bats/tbats استفاده می کنم اما با خطا مواجه می شوم. tbats(y = داده، use.box.cox = FALSE، use.trend = TRUE، use.damped.trend=FALSE، seasonal.periods = 24، use.arma.errors = FALSE) این خطا ایجاد شده است: خطا در 1 :nrow(control.array): آرگومان طول 0 وقتی از خفاش استفاده می کنم همین اتفاق می افتد. اما وقتی از دستور بالا بدون استفاده از use.damped.trend=FALSE استفاده می‌کنم، پاسخ را دریافت می‌کنم. مشکل اینجاست که مقدار $\alpha=1.4$ است که به نظر من اشتباه است.
تبات ها و خفاش ها خطا می دهند
28849
فرض کنید مجموعه ای از داده ها به شکل $(y,x_{1},x_{2},\cdots, x_{n})$ و $(y,x_{1},x_{2},\) به ما داده شده است. cdots، x_{n-1})$. ما وظیفه داریم $y$ را بر اساس مقادیر $x$ پیش بینی کنیم. ما دو رگرسیون را تخمین می زنیم که در آن: $$ \begin{aligned} y&=f_{1}(x_{1},\cdots, x_{n-1}, x_{n}) \\\ y&=f_{2}( x_{1},\cdots, x_{n-1}) \end{aligned} $$ ما همچنین رگرسیونی را تخمین می زنیم که مقادیر $x_{n}$ را بر اساس مقادیر $(x_{1}،\cdots، x_{n-1})$، یعنی: $$ x_{n}=f_{3}(x_{1}،\cdots، x_{n-1} ) $$ فرض کنید اکنون به ما مقادیر $(x_{1},\cdots, x_{n-1})$ داده شده است، سپس ما دو روش مختلف برای پیش‌بینی $y$ خواهیم داشت: $$ \begin{تراز شده} y&=f_{1}(x_{1},\cdots, x_{n-1},f_{3}(x_{1},\cdots,x_{n-1})) \\ \ y&=f_{2}(x_{1}،\cdots، x_{n-1}) \end{aligned} $$ کدام یک به طور کلی بهتر است؟ حدس می زنم که معادله اول بهتر باشد زیرا از اطلاعات دو شکل نقطه داده استفاده می کند در حالی که معادله دوم از اطلاعات تنها از نقاط داده ای استفاده می کند که دارای مقادیر پیش بینی $n-1$ هستند. آموزش من در زمینه آمار محدود است و بنابراین مایلم به دنبال مشاوره حرفه ای باشم. همچنین به طور کلی بهترین رویکرد برای داده هایی که اطلاعات ناقص دارند چیست؟ به عبارت دیگر، چگونه می‌توانیم بیشترین اطلاعات را از داده‌هایی استخراج کنیم که مقادیری در همه ابعاد $n$ ندارند؟
رگرسیون چندگانه با متغیر پیش بینی گمشده