_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
62434 | من شنیدم که برای داده های باینری گروه بندی نشده، انحراف را نمی توان با توزیع $\chi^2$ تقریبی کرد. آیا حقیقت دارد؟ چرا؟ پیشاپیش متشکرم | برای داده های باینری گروه بندی نشده، آیا می توان انحراف را با توزیع مجذور کای تقریب زد؟ |
44581 | من دو مدل خطی تعمیم یافته mod1 و mod2 دارم. mod1 <- glm (امتیاز ~ ارتفاع + ژن، داده = mydata، خانواده = دوجمله ای) mod2 <- glm (امتیاز ~ ارتفاع * ژن، داده = mydata، خانواده = دوجمله ای) من می خواهم تجزیه و تحلیل انحراف را برای آزمایش اهمیت انجام دهم از اصطلاح تعامل ابتدا 'anova(mod1,mod2)' را انجام دادم و از تابع '1 - pchisq()' برای بدست آوردن یک مقدار p برای نتیجه انحراف که از جدول anova گرفتم استفاده کردم. من همچنین آزمایش دیگری انجام دادم: `anova(mod2, test=Chisq)`. این یک جدول برای همه عبارتهایی که به ترتیب اول تا آخر اضافه میشوند نشان میدهد، و من یک مقدار p-value بسیار متفاوت برای عبارت تعامل «Height: Gene» به دست آوردم... **از کدام یک استفاده کنم؟** | تجزیه و تحلیل انحراف در R - کدام آزمون؟ |
62438 | من اخیراً در مورد فاصله Mahalanobis سؤال کردم و در این پست پاسخ های بسیار خوبی دریافت کردم: توضیح از پایین به بالا در مورد فاصله Mahalanobis؟ فکر میکنم ایده را دریافت کردم، اما چیزی که هنوز احساس میکردم گم شدهام، استخراج فرمول فاصله ماهالانوبیس بود. بنابراین سوال من این است: چگونه می توان فرمول فاصله Mahalanobis را استخراج کرد؟ چرا فرمول این شکل را دارد: $$D(\textbf{x},\textbf{y})=\sqrt{ (\textbf{x}-\textbf{y})^TC^{-1}(\ textbf{x}-\textbf{y})} $$ شاید کسی میتواند مشتق مشابهی را همانطور که کاربر @sjm.majewski در تحلیل مؤلفه اصلی در پیوند زیر: ایجاد حس تجزیه و تحلیل مؤلفه های اصلی، بردارهای ویژه و مقادیر ویژه به روز رسانی: از ویکی پدیا توضیح بصری این بود: «فاصله ماهالانوبیس به سادگی فاصله نقطه آزمایش از مرکز جرم تقسیم بر عرض بیضی در جهت است. نقطه آزمون. بنابراین آیا $C^{-1}$ عرض بیضی در جهت نقطه آزمایش است؟ منظورم این فاصله است که می توانم بفهمم: $$\displaystyle\frac{\textbf{x}-\textbf{u}}{\sigma}$$ اما این فاصله من را گیج می کند...:/ $$\sqrt{ (\ textbf{x}-\textbf{y})^TC^{-1}(\textbf{x}-\textbf{y})} $$ | اشتقاق فرمول فاصله ماهالانوبیس |
46988 | فرض کنید به یک متغیر ترتیبی با دسته بندی $4$ نگاه می کنیم. بنابراین سه ضریب آستانه $b_1، \dots b_3$ و یک شیب probit $b_4$ وجود دارد. تعبیر عبارات زیر چیست: $$\frac{b_{1}}{b_{4}^{2}}، \frac{b_{2}}{b_{4}^{2}}، \ frac{b_{3}}{b_{4}^2}، \frac{1}{b_{4}}$$ با فرض توزیع نرمال چند متغیره؟ | تفسیر بیان در رگرسیون ترتیبی |
45188 | من می خواهم یک فاصله اطمینان حول پیش بینی از یک شبکه عصبی، بدون توسل به بوت استرپ ایجاد کنم - با توجه به هزینه محاسباتی. آیا می توانم از Hessian برگشت داده شده به این روش برای تولید CI 95% استفاده کنم؟ 1) آیا می توانید معکوس منفی هسین را به عنوان ماتریس var/covar بگیرید؟ من اینجا خواندم که این بستگی به چیزی دارد که حداکثر یا حداقل شود. آیا این درست است و چگونه می توانید به طور قطعی بدانید؟ 2) آیا این یک روال پذیرفته شده برای ایجاد فاصله اطمینان حول یک پیش بینی است و اگر چنین است، چگونه آن را انجام می دهید؟ | فاصله پیش بینی شبکه عصبی با Hessian :: nnet در R |
17571 | همه در عنوان هستند... من می دانم چگونه تخمین ها را ذخیره کنم اما نمی دانم چگونه خطاهای استاندارد آنها را ذخیره کنم... با تشکر > x <- runif(100) > y <- 5 + 3 * x + rnorm (100، 0، 0.15) > reg <- lm(y~x) > > خلاصه (reg) تماس: lm(فرمول = y ~ x) باقیمانده ها: حداقل 1Q میانه 3Q Max -0.32198 -0.12626 0.02584 0.10873 0.31411 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 5.00931 0.03087 162.25 <2e-16 *** x 2.98162 0.05359 55.64 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقی مانده: 0.1499 در 98 درجه آزادی چندگانه R-squared: 0.9693، تنظیم شده F-squad: 0.969 آمار: 3096 در 1 و 98 DF، p-value: < 2.2e-16 > > reg$coef (Intercept) x 5.009309 2.981617 | چگونه خطاهای استاندارد را با تابع lm() در R ذخیره کنیم؟ |
80032 | اجازه دهید $X \sim N(0, \sigma^2)$. من می خواهم نشان دهم که $$E[|X|]= \sigma.$$ | چگونه $E[|X|]= \sigma$ را نشان دهیم که در آن $X \sim N(0، \sigma^2)$ است؟ |
81929 | من فکر می کنم تصور اشتباهی در مورد اهمیت آماری دارم. به عنوان مثال، من دو درمان A و B دارم. میانگین اثر A 105- با 95% CI:(-168،-42) و برای B-88 با 95% CI: (146-، -29) است. کدام یک از نتایج از نظر آماری معنادارتر است؟ چه زمانی می توانیم به طور کلی نتیجه بگیریم که نتیجه بر اساس مقادیر p یا فواصل اطمینان بیشتر از نظر آماری معنی دار است؟ با این حال، من در اینجا خوانده ام که اگر مقدار p > «بسیار کوچکتر» از مقدار آلفا باشد، به جای اینکه صرفاً «کمی > کوچکتر» باشد، نتیجه از نظر آماری «بیشتر» نمی شود. پس آیا مقایسه معناداری آماری به این شکل صحیح است؟ من خیلی گیج هستم، بنابراین از هرگونه راهنمایی قدردانی می کنم. | از نظر آماری معنی دار تر به چه معناست؟ |
104039 | من مدتی است که با این مشکل دست و پنجه نرم می کنم و پیشرفت چندانی ندارم. هر پیشنهادی مفید خواهد بود! فرض کنید من X_1$، ..، X_5، Y_1، ...، Y_5، X'_1، ...، X'_5، Y'_1، ...، Y'_5$ دارم، یعنی 4 گروه دارم هر کدام از 5 متغیر تصادفی r.v.s در هر گروه i.i.d است. و توزیع های مجهول $X, Y, X', Y'$ را به ترتیب دنبال کنید. من می خواهم فرضیه صفر $H_0 را آزمایش کنم: \mathbb{E}\dfrac{X}{Y} = \mathbb{E}\dfrac{X'}{Y'}$. من نسبتاً در مورد نحوه انجام این کار گیر کرده ام. اگر آسانتر است، من با آزمایش فرضیه صفر $H'_0 هم خوب هستم: \dfrac{\mathbb{E}X}{\mathbb{E}Y} = \dfrac{\mathbb{E}X'} {\mathbb{E}Y'}$. پیشرفتی که تاکنون داشته ام این است: 1. من فکر می کنم که تست های ناپارامتریک به دلیل تعداد کم نمونه ها، قدرت کافی در اینجا به من نمی دهد، بنابراین سعی می کنم با رویکرد پارامتری پیش بروم. 2. بر اساس دانش خاص دامنه، من می دانم که هر یک از $X، Y، X'، Y'$ را می توان به عنوان یک توزیع دوجمله ای منفی مدل کرد (من به داده های شمارش نگاه می کنم). من قبلاً توانسته ام MLE پارامترهای میانگین و شکل را برای هر توزیع برازش دهم. 3. من کاملاً مطمئن هستم که می خواهم از روش های مبتنی بر شبیه سازی برای حل این مشکل استفاده کنم، اما متوجه نشده ام که مقدار مناسب برای شبیه سازی چیست. 4. اگر کمک کند، من حدود 30000 مجموعه از این 20 مشاهدات دارم، که معتقدم 80٪ از آنها فرضیه صفر را رد نمی کنند. من سعی کردم از این 80% یک توزیع تهی تجربی بسازم (با استفاده از نسبت نسبت ها به عنوان آمار آزمون) اما با توجه به نیاز به اصلاح FDR، آستانه p-value من بسیار پایین می شود و این آزمون تجربی به من قدرت کافی نداده است. . هر گونه ایده، اشاره، و غیره بسیار قدردانی می شود! پیشاپیش از شما متشکرم | آزمون مکان نسبت متغیرهای تصادفی |
81920 | من 150 تصویر از نشانه های دست نویس (مانند صلیب، ستاره، دایره، سه گانه) دارم، از آنها تعداد ویژگی های نقطه منشعب، نقطه ورودی و بستن a s را استخراج کردم (با گفتن این که ویژگی ها کافی نیست): اگر هستند. یک شکل نزدیک مانند یک دایره یا یک شکل باز مانند یک صلیب. **طبقه بندی**: متقاطع: 1 نقطه انشعاب و 4 نقطه پایان، بسته = 0 دایره: 0 نقطه انشعاب و 0 نقطه پایان، بسته = 1 ستاره: 5 نقطه انشعاب و 0 نقطه پایان، بسته = 1 ترایدنت: 1 نقطه منشعب و 4 نقطه پایانی، بسته = 0 ... من 8 دسته تصویر دارم و برای هرکس طیفی از نقاط منشعب و طیفی از نقاط پایانی را برای طبقه بندی آنها در یک دسته خاص انتخاب می کنم. بنابراین یک ستاره نه تنها می تواند مانند بالا دارای 5 نقطه انشعاب و 0 نقطه پایان باشد، بلکه دامنه ای از 3-8 نقطه انشعاب و محدوده 0.4 نقطه پایانی داشته باشد. برای طبقه بندی تجربی هر تصویر جدید، تصمیم گرفتم که: موقعیت: [صلیب، سه تایی، مجهول ...] با بسته = 0 (شکل باز): با نقطه انشعاب 0 [0,0,100...] با نقطه انشعاب 1 [100 ,0,0...] با نقطه انشعاب 2 [50,50,0...] ... با نقطه انشعاب 4 [0,0,100,...] ... موقعیت: [دایره، ستاره، مجهول ...] با بسته = 1 (شکل نزدیک): با نقطه منشعب 0 [100, 0, 0...] با نقطه انشعاب 1 [0,0, 100...] ... با نقطه منشعب 4 [0 ,50,50...] #ستاره ای با استخراج ویژگی غیر دقیق با نقطه انشعاب 5 [0,100, 0...] با نقطه انشعاب 6 [0,50, 50...] #ستاره ای با استخراج ویژگی غیر دقیق موقعیت: [صلیب، سهگانه، مجهول ...] با بسته = 0 (شکل باز): با نقطه پایانی 0 [0,0,0,...] با نقطه پایانی 1 [0,0,100,...] با نقطه پایانی 2 [0,0,100,...] با نقطه پایانی 3 [33,33,33...] با نقطه پایانی 4 [5050,0,...] با نقطه پایانی 5 [33,33,33, ...] موقعیت [دایره، ستاره، ناشناخته،... ] با بسته = 1 (شکل نزدیک): با نقطه پایانی 0 [50,50 ,0...] با نقطه پایانی 1 [0,50,50...] با نقطه پایانی 2 [0,50,50...] ... **بعد از آن، وزن را انتخاب کردم.** برای انجام این کار، محدوده هر دسته را محاسبه می کنم (برای ستاره: (1) نقطه انشعاب : 6-4 = 2، (2) نقطه پایانی 1-0 = 1. اگر شکل کاملاً ویژگی مناسبی داشته باشد (مورد ستاره: 0 نقطه پایانی. من حداکثر وزن را می دهم (30٪). اگر 1 نقطه پایانی داشته باشد 15% . اگر 2 نقطه انتهایی داشته باشد 0% وزن. وزن مناسب را به [0،50،0،50،...] اضافه میکنم و برای داشتن همیشه 100% مجموع، از بقیه کم میکنم. در پایان، احتمالات نقاط شاخه ای و احتمالات نقاط پایانی را اضافه می کنم و برای 2 تقسیم می کنم. (Bpoint prob + Epoint prob ) / 2 برای هر مثال: تصویری با 4 نقطه انشعاب و 1 نقطه پایانی دریافت می کنم، و این یک رقم نزدیک است: وزن ستاره ای با 1 نقطه پایانی 15 درصد است بنابراین: وزن ستاره ای با 1 نقطه انشعاب 20 درصد است بنابراین: نقطه انشعاب: [0,50,50...] --> [0,65,35] نقطه پایانی: [0,50,50...] --> [0,70,30] محاسبه: [0,65, 35] + [0,70,30] / 2 = [0, 67,5, 47,5] بنابراین من احتمال ستاره بودن 67,5% و احتمال 47.5٪ ناشناخته است. 0٪ برای سایر دسته ها. متأسفانه، در بسیاری از موارد من درصد منفی یا درصد بالای 100 دارم، چگونه می توانم این مشکل را برطرف کنم؟ | چگونه می توانم یک وزن را به درستی در الگوریتم طبقه بندی ایجاد شده توسط من با علامت دست نویس اضافه کنم؟ |
46987 | من روزها در مورد این موضوع گیج بودم، اما فکر نمیکنم این موضوع در مدرسه پوشش داده شود. ما به طور همزمان تعدادی هواپیمای بمبافکن شناخته شده K را از طریق سه باتری متوالی موشک سطح به هوا (SAM)، A B C پرواز میکنیم. هواپیماها قادر به از بین بردن باتری های SAM نیستند. فرض کنید که باتری های SAM به اندازه کافی از یکدیگر فاصله دارند، به طوری که تنها یک باتری A، B یا C می تواند در آن واحد هواپیما را درگیر کند. یعنی دشمن سه بار جدا می شود، یک بار با هر باتری به سمت هواپیماها شلیک می کند. به عنوان مثال، اگر با 10 هواپیما شروع کنیم، باتری A 3 را شلیک می کند، B سپس به 7 مورد باقیمانده می پردازد، 2 فروند و غیره را ساقط می کند... فرض کنید هر باتری SAM تعداد تصادفی هواپیما را ساقط می کند. این عدد تصادفی از یک توزیع نرمال منحصر به فرد برای هر باتری، یعنی Mu_A، Var_A، Mu_B، Var_B و غیره گرفته شده است. ? من به پارامترها نیاز دارم، یعنی Mu_Combined، Var_Combined توزیع ترکیبی * آیا به سادگی جمع کردن توزیع ها با هم است؟ (این به نظر من کمی ساده لوحانه به نظر می رسد) * من این سوال را پیدا کردم: ترکیب توزیع های عادی \- آیا این فقط یک میانگین است؟ خیلی ممنون ویرایش: استفاده از توزیع عادی ضروری است. در مدلی که من از آن استفاده میکنم، تعداد هواپیماهای سرنگونشده بهویژه به تعداد آنها برای شلیک بستگی ندارد، زیرا فرض میشود که هر باتری یک شلیک میکند و فقط میتواند تعدادی عدد صحیح موشک شلیک کند. علاوه بر این، مدل از توزیع پیوسته با همان mu و var به عنوان دوجمله ای استفاده می کند. ظاهراً این یک تقریب کاملاً ثابت است که دقت آن را می توان با استفاده از یک تصحیح تداوم بهبود بخشید. (بعدا اعمال می شود) | پرواز هواپیمای بمب افکن از طریق سایت های SAM - ترکیب توزیع های عادی |
80036 | من یک آزمایش پراکندگی بیش از حد برای مجموعه داده های ترکیبی انجام می دهم (من مقادیر شمارش اصلی را ندارم) تا بعداً یک مدل رگرسیون مناسب را انتخاب کنم. در اینجا نمونه ای از مجموعه داده های من است: X<-matrix(sample(1:100,100,T), 20,5) X<-X/apply(X,1,sum) colnames(X)<-paste(Comp , 1:5, sep=) rownames(X)<-paste(Id, 1:20, sep=) آیا کسی می داند چگونه این تست را در R انجام دهم؟ | چگونه پراکندگی بیش از حد را برای داده های ترکیبی در R آزمایش کنیم؟ |
101045 | من در تلاش برای یافتن اطلاعاتی در مورد مفروضات رگرسیون PLS (Y تک) هستم. من به خصوص به مقایسه مفروضات PLS با توجه به رگرسیون OLS علاقه مند هستم. من مطالب زیادی را در مورد PLS مطالعه کرده ام. مقالات وولد (سوانته و هرمان)، عبدی، و بسیاری دیگر اما منبع رضایت بخشی پیدا نکرده اند. میخانه لینک شده در زیر مفروضات PLS را ذکر می کند، اما فقط به این موضوع اشاره می کند که 1) X ها نیازی به مستقل بودن ندارند، 2) سیستم تابعی از چند متغیر پنهان زیربنایی است، 3) سیستم باید در طول فرآیند تحلیلی همگنی را نشان دهد، و 4) خطای اندازه گیری در X قابل قبول است. هیچ اشاره ای به الزامات داده های مشاهده شده یا باقیمانده های مدل وجود ندارد. آیا کسی منبعی را می شناسد که به این موارد اشاره کند؟ با توجه به اینکه ریاضیات اساسی مشابه PCA است (با هدف به حداکثر رساندن کوواریانس بین Y و X)، آیا نرمال بودن چند متغیره (y، X) یک فرض است؟ آیا باقیمانده های مدل نیاز به نشان دادن همگنی واریانس دارند؟ من همچنین معتقدم جایی خوانده ام که مشاهدات لازم نیست مستقل باشند. این از نظر مطالعات اندازه گیری مکرر به چه معناست؟ ولد و همکاران (2001) PLS-رگرسیون: یک ابزار اساسی شیمی سنجی. http://www.utdallas.edu/~herve/abdi-wireCS-PLS2010.pdf از هرگونه بینش متشکرم. | مفروضات مدل حداقل مربعات جزئی (PLS) |
48466 | من با مفهوم آزمون هم ارزی برای آزمایش اینکه آیا دو میانگین یکسان هستند آشنا هستم. به عنوان یک نقطه شروع، با در نظر گرفتن دو آزمون t یک طرفه به عنوان راهنما، تصور می کنم که دو تست مجذور کای یک طرفه را انجام می دهم و مقدار مجذور کای +/- محدوده تفاوت معنی داری را که قبلا انتخاب کرده ام تنظیم می کنم. دو مشکل پیش میآید: 1) آیا آزمون کای دو یکطرفه روش درستی برای فکر کردن در مورد مسائل است، با توجه به اینکه قبلاً یکطرفه است. 2) انتخاب محدوده تفاوت معنادار من. برای مثال میانگین، محدوده در واحدهای معنی دار (معادل متغیر اصلی) است. من مطمئن نیستم که چگونه محدوده را در واحدهای مقدار مجذور کای انتخاب کنم. هر گونه فکری پذیرفته می شود، با تشکر | تست هم ارزی برای آزمون کای دو |
46457 | به طور خلاصه: من در حال حاضر آموزش آنلاین با هسته (http://books.nips.cc/papers/files/nips14/AA33.pdf) را برای سرگرمی می خوانم و نمی توانم بفهمم که او چگونه به معادله 8 از معادلات 6 رسیده است. و 7. ایده این است: ما می خواهیم یک تابع ریسک را به حداقل برسانیم $R_{stoch}[f,t]:=c(x_t,y_t,f(x_t))+\lambda\Omega[f]$. اگر بخواهیم قضیه نماینده را روی f اعمال کنیم و آن را به صورت $f(x)=\sum\alpha_i k(x,x_i)$ بنویسیم، چگونه میتوانیم به بهروزرسانی شیب نزولی STOCHASTIC برسیم؟ فرض کنید ما از دست دادن حاشیه نرم برای SVM ها استفاده می کنیم. گرفتن گرادیان w.r.t آسان خواهد بود. به f و از دست دادن (خوب زیر گرادیان برای از دست دادن) و شیب نزول انجام دهید. اما برای یادگیری آنلاین با نزول گرادیان تصادفی، من تا حدودی گم شدم. متشکرم! لطفا در پرسیدن جزئیات بیشتر تردید نکنید. هر گونه کمکی بسیار قدردانی خواهد شد. | Kernel SVM در آموزش اولیه با گرادیان تصادفی |
70414 | با توجه به $X_t=\sin(2\pi Ut)$ با $U$ که به طور یکنواخت روی عدد صحیح $(0,1)$ و $t$ توزیع شده است، چگونه می توانم ثابت کنم که $X_t$ ضعیف است؟ (من نتوانستم همبستگی را محاسبه کنم زیرا توزیع مشترک $(X_t,X_s)$ را نداشتم.) چگونه می توانم ثابت کنم که X_t$ به شدت ثابت نیست؟ | چگونه می توان ثابت کرد که این فرآیند ضعیف است؟ |
45182 | با سلام و تشکر پیشاپیش از کمک شما من و EFA را برای مقیاسی که ساخته ام انجام داده ام که شامل 13 آیتم است. از این تعداد 2 مورد مجدداً کدگذاری شده است. با نگاهی به ماتریس اجزای چرخشی می بینم که این مقیاس دارای 2 عامل است، یکی با 11 آیتم و دیگری با 2 آیتم دوباره کدگذاری شده. این به چه معناست و چگونه می توانم این را توصیف کنم؟ آیا کسی مقاله یا استنادی در ژورنال می شناسد که به این نوع مسائل بپردازد. | اقلام مجدداً به عنوان عوامل مجزا در تحلیل عاملی رمزگذاری شده است |
44583 | مدل سلسله مراتبی مشخص شده در زیر کاملاً استاندارد است و به راحتی در JAGS/BUGS پیاده سازی می شود. دارای یک گامای سلسله مراتبی بر روی دقت سوژه ($\tau_j$) است که به نوبه خود دارای پیشین های گاما بر روی میانگین ($m$) و SD ($d$) است. پس از نصب این مدل، من به تخمینهای میانگین دقت گروه ($m$) و SD دقت گروه ($d$) دسترسی دارم، اما ترجیح میدهم در مقیاس طبیعی استنتاج کنم. یعنی میانگین SD گروه و SD گروه SD. ** چگونه می توانم از چنین مدلی بر میانگین SD گروه و SD گروه SD استنباط کنم؟ آیا اصلا امکان پذیر است؟** در اینجا یک نمودار سبک کروشکه از مدل گرفته شده از کتاب انجام تجزیه و تحلیل داده های بیزی است و اینجا کد BUGS مربوطه است: model { for( i in 1 : Ndata ) { y[i] ̃ dnorm( mu[ subj[i] ] , tau[ subj[i] ) } برای ( j در 1 : Nsubj ) { mu[j] ̃ dnorm( muG , tauG ) tau[j] ̃ dgamma( sG , rG ) } muG ̃ dnorm( 2.3 , tauG 0.1 ) ̃ dgamma( 1، 0.5 ) sG <- pow(m,2) / pow(d,2) rG <- m / pow(d,2) m ̃ dgamma( 1 , .25 ) d ̃ dgamma( 1 , .5 ) } یک راه حل می تواند شاید این باشد که hyperpriors را روی دقت ($\tau_j$) قرار ندهید، بلکه روی SD قرار دهید. ($\sigma_j$) اگرچه من اصلاً مطمئن نیستم که از چه پیشین هایی استفاده کنم. | چگونه می توان در یک مدل بیزی سلسله مراتبی از گروه SD و و SD گروه SD استنباط کرد؟ |
46983 | ما تیم کوچکی از برنامه نویسان هستیم و سعی می کنیم مشکل کوچکی را حل کنیم، اما فکر می کنیم به توصیه هایی از ریاضیدانان حرفه ای نیاز داریم. ما می خواهیم بدانیم که آیا تصویر یک کارت یک کارت شناسایی است یا خیر، بنابراین ما این الگوریتم را پیاده سازی کردیم (من خیلی ساده کردم تا بتوانیم روی مسائل ریاضی تمرکز کنیم). 1. از تعداد زیادی کارت شناسایی نمونه برداری کنید و از هر یک از آنها یک نقشه رنگی تهیه کنید. این نقشه یک بردار 360 بعدی از مقادیر اعشاری (آرایه ای از 360 عنصر) است. 2. با داده های قبلی یک بردار نماینده محاسبه می کنیم. در واقع، ما این بردار نماینده را با محاسبه میانگین حسابی برای هر بعد میسازیم. 3. تصویری را که می خواهیم شناسایی کنیم، بردار نقشه رنگی را محاسبه کرده و با بردار نماینده مقایسه می کنیم. (ما از ضریب همبستگی پیرسون استفاده می کنیم) 4. اگر ضریب نزدیک به 1 باشد، تصویر ما یک کارت شناسایی است. ما در حال به دست آوردن نتایج معقولی هستیم، اما سؤالات ما این است: 1. آیا روشی بهتر از میانگین حسابی برای ساخت بردار نماینده وجود دارد؟ 2. آیا روشی بهتر از ضریب همبستگی پیرسون برای مقایسه هر دو بردار وجود دارد؟ **ویرایش**: برنامه ما این است که بردار معرف بسیاری از اسناد مانند کارت شناسایی، گواهینامه رانندگی، گذرنامه، کارت اقامت و غیره داشته باشیم و سعی کنیم کارتی را که مقایسه می کنیم در کدام دسته بندی مناسب تر باشد. هر بعد در وکتور (که ما آن را نقشه رنگی می نامیم) نشان دهنده درصد پیکسل های تصویر است که دارای آن رنگ هستند. مجموع همه مقادیر بردار همیشه 100٪ است. دلیل اصلی اینکه ما از پیرسون استفاده می کنیم این است که فکر می کنیم با آن، نتیجه تحت تأثیر تعداد پیکسل های تصویر قرار نمی گیرد و نتایج تجربی به نظر می رسد این واقعیت را تایید می کند. (ما دقیقاً همان نتایج را با استفاده از درصدها یا فقط با استفاده از تعداد رنگ ها به دست می آوریم) اما باید بپذیریم که دانش محدودی از آمار داریم، بنابراین ممکن است تصمیم اشتباهی بگیریم (در این تصمیم یا در موارد دیگر). ). | یک بردار نماینده از یک مجموعه بزرگ بگیرید و آن را با نمونه ها مقایسه کنید |
103331 | من 30 بیمار و 30 کنترل دارم و علاقه مند به تفاوت های گروهی در اندازه گیری ام آر آی هستم. این اندازه گیری در 5 ساختار آناتومیکی مختلف انجام شد و هر ساختار به صورت دوطرفه وجود دارد (ساختار چپ و راست وجود دارد). من به تفاوت در اندازه بین ساختارها علاقه ای ندارم، اما می خواهم بدانم که آیا علاوه بر تفاوت کلی گروه، تعاملات طرف x گروه یا جنب x ساختار x گروه وجود دارد. مقاله مشابهی از ANOVA اندازه گیری های مکرر سه عاملی استفاده کرد: گروه به عنوان عامل بین موضوع، و سپس ساختار و سمت به عنوان عوامل درون موضوعی. آنها سپس ANOVA اندازه گیری های مکرر دوعاملی را برای پیگیری انجام دادند. مقاله دیگری که فقط به دو ساختار نگاه می کند، به سادگی ANOVA را برای هر ساختار انجام داد (گروه به عنوان بین موضوع، و سمت به عنوان درون موضوع). من تجزیه و تحلیل اندازه گیری های مکرر را در SPSS و در جداول اثرات درون موضوعی و اثرات بین موضوعی انجام دادم، هیچ یک از اثرات یا تعاملات معنی دار نیستند. با این حال، جدول تست های چند متغیره یک تعامل گروه x دستگاه را نشان می دهد. این دقیقا به چه معناست؟ محقق دیگری به من گفت که نتیجه قابل توجه من از یک MANOVA است، و تا زمانی که تجزیه و تحلیل های بعدی نیز چند متغیره باشد، می توانم از آن استفاده کنم. از کدام آزمون تعقیبی استفاده کنم تا بفهمم کدام ساختار(ها) باعث ایجاد تعامل می شود؟ خیلی ممنون | نتیجه قابل توجهی در جدول چند متغیره؟ |
7362 | در آزمون n ایمن با شکست اروین، چگونه می توان مقادیر معیار را برای نسبت تصادفی ورود به سیستم و میانگین نسبت شانس ورود به سیستم در مطالعات از دست رفته تعیین کرد. من یک پزشک پزشکی هستم. لطفا به زبان انگلیسی ساده به من بگویید. داده ها عبارتند از 1. N-value-fail کلاسیک برای مطالعات مشاهده شده 27.97543-P-value برای مطالعات مشاهده شده 0.00000 Alpha 0.05000 Tails 2.00000 Z برای آلفا 1.95996 تعداد مطالعات مشاهده شده 5.00000 - مقدار P برای مطالعات مشاهده شده 1014.0000 2. نسبت شانس خطای N اروین در مطالعات مشاهده شده 5.7339 معیار یک نسبت شانس بی اهمیت؟ میانگین نسبت شانس در مطالعات از دست رفته؟ | تست N ایمن ناموفق Orwin |
91561 | اگر مقداری آزمایش داشته باشیم و سطح آن را کاهش دهیم، آیا انتظار می رود قدرت افزایش یابد؟ من قبلاً به این سؤال فکر کرده ام اما نتوانسته ام خود را در مورد پاسخ صحیح متقاعد کنم زیرا به نظر می رسد محاسبه قدرت چند مرحله ای است و بنابراین نمی توانم آنطور که اگر چیزی شبیه به آن داشته باشیم قضاوت مستقیمی انجام دهم. یک تابع معکوس هر گونه کمکی بسیار قدردانی خواهد شد! | اگر سطح یک آزمون کاهش یابد، آیا انتظار می رود قدرت آزمون افزایش یابد؟ |
54521 | فرض کنید همبستگی بین $x$ و $y$ برابر با r(x,y) = 0.07$ باشد. اگر خطای استاندارد مورد نیاز برابر با 0.33 باشد، تعداد مشاهدات مورد نیاز 1800 خواهد بود. من نمی دانم چگونه این تعداد مشاهدات مورد نیاز را پیدا می کنند. زیرا خطای استاندارد یک ضریب همبستگی $\sqrt{\frac{1-r^2}{n-2}}$ است. آیا کسی می تواند به من بگوید که چگونه این مشکل را حل کنم؟ | تعداد مشاهدات مورد نیاز برای خطای استاندارد تعریف شده |
86075 | من در حال مطالعه فیلتر کالمن برای ردیابی و صاف کردن هستم. حتی اگر مفهوم فیلتر بیزی را درک کرده باشم، و بتوانم به طور موثر از برخی از اجرای فیلتر کالمن استفاده کنم، من در درک ریاضیات پشت آن به روشی آسان گیر کرده ام. بنابراین، من به دنبال یک مشتق آسان برای درک معادلات فیلتر کالمن ( (1) **مرحله به روز رسانی**، (2) **مرحله پیش بینی** و (3) **به دست آوردن فیلتر کالمن**) از قوانین بیز و فرمول چپمن- کولموگروف، با دانستن این که: * مدل زمانی با: $$ \textbf{X}_t = بیان می شود A\textbf{X}_{t-1} + \mu_p + \epsilon_p$$ که در آن $A$ ماتریس انتقال $D_\textbf{X} \times D_\textbf{X}$، $\mu_p$ است $D_\textbf{X} \times 1$ بردار سیگنال کنترلی و $\epsilon_p$ یک نویز گاوسی انتقالی با کوواریانس $\Sigma_m$، و در اصطلاح احتمالی را می توان با: $$ p(\textbf{X}_t | \textbf{X}_{t-1}) = Norm_{\textbf{X}_t}[\ بیان کرد textbf{X}_{t-1} + \mu_p, \Sigma_p] $$ و * مدل اندازهگیری با: $$ بیان میشود \textbf{y}_t = H\textbf{X}_t + \mu_m + \epsilon_m $$ که در آن $H$ ماتریس مشاهده $D_y \times D_x$، که فضای حالت واقعی را به فضای مشاهده ترسیم میکند، $\mu_m$ است. بردار میانگین $D_\textbf{y} \times1$ و $\epsilon_m$ نویز مشاهده با کوواریانس $\Sigma_m$ که در عبارت احتمالی می تواند با $$ p(\textbf{y}_t | \textbf{X}_t) = Norm_{\textbf{y}_t}[ H\textbf{X}_t + \mu_m, \epsilon_m] $$ | استخراج معادله فیلتر کالمن |
70416 | من داده های ترافیکی برای وب سایتی دارم که به سادگی کل بازدیدکنندگان هر ماه را در طی 12 ماه نشان می دهد. من در تلاش هستم تا مشخص کنم که آیا روند کلی رو به بالا یا نزولی وجود دارد. به نظر می رسد از ریاضیات دبیرستان به یاد داشته باشم که آیا یک مقدار $m$ مثبت در معادله $y = mx + c$ وجود دارد یا خیر، اما من هیچ ایده ای در مورد نحوه اعمال این عمل به صورت عملی ندارم، و به مجموعه ای از تاریخ ها می پردازم. و مجموع، این رقم را محاسبه کنید. **چگونه تشخیص دهیم که ترافیک وب در یک دوره 12 ماهه افزایش یا کاهش یافته است؟** | چگونه تعیین کنیم که آیا ترافیک وب در یک دوره 12 ماهه افزایش یا کاهش یافته است؟ |
59176 | من یک کاربر جدید در R هستم. من در حال حاضر با چند سؤال در تحقیقات سریهای زمان خود گیر کردهام. مطمئن نیستم کسی بتواند به من کمک کند. 1. متغیر ساختگی. من می خواستم بیش از 1 متغیر ساختگی به مدل اضافه کنم. اما، بعد از قرار دادن متغیرهای ساختگی اضافی، متوجه شدم که نتایج بدون تغییر است. من نمی دانم چرا این اتفاق می افتد. من کد R خود را به صورت زیر ارائه کردم. امیدوارم کسی بتونه منو راهنمایی کنه R-Code: xreg <- cbind(CNY=model.matrix(~as.factor(daily.2yrd$CNY))،HRP=daily.2yrd$HRP,Deepa=daily.2yrd$Deepa,Xmas=daily.2yrd$ Xmas) viewData(xreg) daily_forecast.fit <- Arima(daily.2yrd$Total_Visitor,order=c(7,0,7),seasonal=c(0,1,0),lambda=round(BoxCox.lambda(daily_visitor.ts,lower=0),4) xreg=xreg) daily_forecast.fit 2. متغیر ساختگی را تعریف کنید. چگونه می توانم متغیر ساختگی خود را تعریف کنم اگر مقدار پرت کمتر باشد؟ اگر من به عنوان Dummy 1 تعریف کنم، نتیجه من به نقطه بالاتری تغییر می کند که فکر می کنم اشتباه است. هر نظری؟ مثال: ID Sales Dummy 1 1 1800 0 2 2000 0 3 1500 0 4 500 1 5 1800 0 6 1600 0 | متغیرهای ساختگی برای سری های زمانی |
44587 | اگر دو متغیر تصادفی مستقل $X_1 \sim \mathrm{Binom}(n,p)$ و $X_2 \sim \mathrm{Pois}(\lambda)$ داشته باشیم، تابع جرم احتمال $X_1 + X_2$ چقدر است ? **نکته** این برای من تکلیف نیست. | مجموع متغیرهای تصادفی دوجمله ای و پواسون |
89465 | چگونه می توانم همبستگی بین یک متغیر مقدم مقوله ای و یک متغیر نتیجه پیوسته را انجام دهم؟ برای مثال، ارتباط هر سبک دلبستگی با متغیر دیگری، یعنی حمایت اجتماعی؟ | همبستگی بین یک پیشبینیکننده طبقهبندی و یک متغیر پیامد پیوسته |
59175 | من در حال حاضر در حال بررسی استدلال بیزی و یادگیری ماشین توسط دیوید باربر هستم و کتابی بسیار خوب و جذاب برای یادگیری اصول است. بنابراین یک سوال از کسی که قبلاً این کار را انجام داده است. پس از تسلط معقول به بیشتر مفاهیم باربر، مجموعه بعدی کتابهایی که باید مطالعه کنم کدامند؟ | مراحل بعدی پس از استدلال بیزی و یادگیری ماشین |
54528 | آیا کسی می داند، آیا می توان مونت کارلو ترتیبی را برای مسائل چند بعدی به کار برد، یعنی شبیه سازی بیش از 1 توزیع مانند مدل های سلسله مراتبی؟ شاید ادبیات زیر را بشناسید | مونت کارلو متوالی برای مدل های سلسله مراتبی |
80039 | من تا حدودی در درک معنی دار آمار و بوت استرپ به طور خاص تازه هستم. فرض کنید در حال انجام کاری هستید (نظرسنجی، اجرای آزمایش، هر چیز دیگری)، و می توانید 1000 نمونه را تهیه کنید. از آنچه من میدانم، قبل از اینکه روش بوت استرپ وجود داشته باشد (بیش از 25 تا 30 سال پیش)، بهتر است مثلاً 10 مجموعه از هر کدام 100 نمونه داشته باشید و آمار خود را بر اساس توزیعهای نمونهگیری محاسبه کنید. (به عنوان یک کنار، آیا روش خوبی برای محاسبه نسبت مجموعه ها/نمونه ها وجود دارد؟ می دانم که وقتی n بزرگتر است خطای استاندارد کوچکتری دریافت می کنید، اما نمی دانم که آیا یک نقطه شیرین وجود دارد یا خیر، و از درک نسبتاً محدود من، ترجیحاً داشتن n> 30 برای جلوگیری از به هم ریختن آمار t است. اما اکنون که بوت استرپینگ وجود دارد، درک من این است که شما یک مجموعه از هر 1000 نمونه را دریافت می کنید (زیرا این پروکسی بهتر از 100 نمونه برای جمعیت واقعی خواهد بود)، و جادوی نمونه برداری مجدد بوت استرپینگ را بر اساس آن انجام دهید. آیا این درست است؟ یا بهترین تمرین ترکیبی از این دو است؟ یا اینکه در نهایت بستگی به این دارد که فعالیت واقعی چیست؟ با تشکر | چند نمونه در مقابل بوت استرپینگ |
70417 | من اطلاعاتی در مورد 44 شرکت دارم که همه توسط یک متخصص رتبه بندی شده اند. شرکت بهترین دارای رتبه 1، رتبه دوم برتر رتبه 2، ...، آخرین رتبه دارای رتبه 44 است. من یک سری متغیرهای توضیحی دارم و می خواهم رتبه شرکت را بر اساس این متغیرها توضیح دهم. . تمایل من به استفاده از مدل رگرسیون است، اما نگران این واقعیت هستم که متغیر وابسته محدود است، فقط می تواند یک عدد گسسته مثبت باشد. من به رگرسیون ترتیبی فکر کردهام، اما این غیرممکن به نظر میرسد، زیرا به تعداد مشاهداتم مقولههایی خواهم داشت. چه مدل های رگرسیونی ممکن است؟ (ترجیحا در R اجرا شود) | رگرسیون با ترتیب رتبه به عنوان متغیر وابسته |
80035 | من مقاله اصول عدم قطعیت قوی: بازسازی دقیق سیگنال از اطلاعات فرکانس بسیار ناقص را می خوانم (Candes, Romberg and Tao, 2004). در این مقاله آنها در مورد بازیابی تابع $f$ صحبت می کنند که ضرایب فوریه آن در برخی از دامنه های $\Omega$ شناخته شده است، با حل مسائل بهینه سازی زیر: $$ \min ||g||_{TV} \space\space \space \text{s.t.} \space\space\space\hat{g}(w)=\hat{f}(w),w \in \Omega$$ and $$ \min ||g||_{L_1} \space\space\space \text{s.t.} \space\space\space\hat{g}(w)=\hat{f}(w),w \in \Omega$ $ آیا کسی می تواند به من مرجعی بدهد که نشان دهد چگونه واقعاً این مشکلات بهینه سازی را حل کنم (که هر دو $g$ و $\hat{g}$ را ترکیب می کند)؟ یک بسته R مرتبط نیز خوب خواهد بود. | سنجش فشرده: بهینهسازی در هنجار L_1$ و تغییرات کل با ضرایب فویر |
11936 | من اطلاعاتی در مورد یک متغیر دارم که چندین سال را در بر می گیرد. من می خواهم ببینم که توزیع در طول سال ها چگونه تکامل یافته است. * آیا راه آسانی برای تولید پلات تراکم برای هر سال به صورت تک پلات با رنگ های مختلف برای هر سال وجود دارد؟ | چگونه می توان یک نمودار چگالی برای داده های چندین سال ایجاد کرد که هر سال با رنگ متفاوتی نمایش داده می شود؟ |
11935 | من قبلاً در مورد تجزیه و تحلیل عامل اکتشافی برای درک تفاوت با PCA پست کردم. اکنون، من یک تحلیل عاملی اکتشافی روی مجموعه دادههایم با استفاده از تابع «روان::فا» R انجام دادم. من در مورد تفسیر نتایجی که در اینجا ذکر شده است، ابهاماتی دارم. A ماتریس داده های من است که 16 ردیف و 6 ستون دارد. fa(a,nfactors=3,rotate=varimax) در فا، فاکتورهای زیادی برای این تعداد متغیر برای استفاده از SMC برای تخمین های اشتراکی درخواست شده است، به جای آن از 1s استفاده می شود تحلیل عاملی با استفاده از روش = minres Call: fac(r = r nfactors = nfactors، n.obs = n.obs، rotate = rotate، scores = امتیاز، باقیمانده = باقیمانده، SMC = SMC، از دست رفته = FALSE، impute = impute، min.err = min.err، max.iter = max.iter، متقارن = متقارن، هشدارها = هشدارها، fm = fm، آلفا = آلفا) بارگذاری استاندارد شده بر اساس ماتریس همبستگی MR1 MR3 MR2 h2 u2 V1 -0.02 0.38 0.06 0.15 0.848 V2 0.14 0.50 0.14 0.29 0.711 V3 0.97 0.06 0.24 1.00 0.005 V4 -0.03 -0.05 -0.47 -0.47 -0.47 0.290 0.47 0.290. 1.00 0.005 V6 0.46 0.39 0.79 1.00 0.005 MR1 MR3 MR2 SS بارگیری 1.63 1.10 0.92 نسبت Var 0.27 0.18 0.15 0.15 0.15 وار انباشته 0.27 آزمون 0.27 است. کافی درجات آزادی برای مدل تهی 15 و تابع هدف 2.15 با مربع چی 26.17 درجات آزادی برای مدل 0 و تابع هدف 0.07 است. 16 با Chi Square = 0.67 با prob < NA Tucker Lewis Index of Factoring reliability = -Inf Fit بر اساس مقادیر مورب خاموش = 0.98 اندازه گیری کفایت نمره عامل MR1 MR3 MR2 همبستگی نمرات با عوامل 1.00 0.99 0.99 چند R مربع نمرات با فاکتورهای 0.99 0.99 0.99 حداقل همبستگی نمرات عامل احتمالی 0.8-90. اگر نتوانم فرضیه صفر خوبی تناسب را بر اساس سه عامل رد کنم. من نمونه هایی را در وب برای این عملکرد دیده ام، اما نتوانستم چیزی مشابه پیدا کنم. با تشکر | تفسیر خروجی R از تحلیل عاملی اکتشافی در رابطه با رد فرضیه صفر خوبی برازش |
84356 | من سعی می کنم یک تابع ضرر پیوسته برای یک طبقه بندی کننده لجستیک طراحی کنم. فرض کنید ماتریس سردرگمی زیر را دارم: [tn fp fn tp] من میخواهم تابع ضرر A*tn + B*fn + C*fp + D*tp باشد که در آن A، B، C و D میتوانند متفاوت باشند. البته پیادهسازی این نسخه گسسته به اندازه کافی آسان است، اما چگونه میتوانم این تابع هزینه را پیوسته کنم تا وقتی میخواهم آن را به حداقل برسانم، عملکرد هزینه من به خوبی رفتار کند؟ | چگونه یک تابع هزینه طراحی کنیم که وزن های متفاوتی برای انواع مختلف خطاهای طبقه بندی داشته باشد؟ |
59177 | من یک سری رگرسیون خطی مختلط را در Stata اجرا کردهام، برخی با تبدیلهای ریشه مربع معکوس ($1/\sqrt{x}$) و برخی دیگر با تبدیلهای ریشه مربع ($\sqrt{x}$). چگونه فواصل اطمینان تبدیل نشده را از نتایج تبدیل شده محاسبه کنم؟ | چگونه می توان فواصل اطمینان $1/\sqrt{x}$-تبدیل شده را پس از اجرای یک رگرسیون خطی مختلط در stata محاسبه کرد؟ |
7366 | من در آمار مبتدی هستم بنابراین امیدوارم بتوانم مشکلم را به شکل صحیح بیان کنم. من چند نمونه یا نمونه دارم و می توانم پارامترهای آماری زیر را برای مشکل **طبقه بندی و رگرسیون** جمع آوری کنم: * حجم نمونه * حداقل مقدار * حداکثر مقدار * انحراف استاندارد * واریانس * میانگین و، می خواهم از **z- استفاده کنم. نمرات** برای مقایسه یا طبقه بندی نمونه ها، سوال من این است: آیا استفاده از z-score **معنی دارد** یا چه چیزی می توانم به جای z-score برای بدست آوردن معنی دار استفاده کنم. پارامتر طبقه بندی؟ | آیا امتیاز z در طبقه بندی معنادار است یا رگرسیون؟ |
59170 | من فقط یک مدل مقیاسبندی چند بعدی غیر متریک (nmds) را اجرا کردم که مکانهای متعدد را بر اساس ترکیب گونههای بیمهرگان کفزی مقایسه میکرد. پس از اجرای تجزیه و تحلیل، از تکنیک برازش برداری استفاده کردم تا ببینم ترتیب به دست آمده چگونه با برخی از متغیرهای محیطی مرتبط است. اولین سوال من این است: من برای متغیری که عمق را در یک سایت نشان می دهد، مقدار مربع R برابر 18.0 دریافت کردم. بالاترین مقدار مربع R را در بین هر متغیر محیطی تا حد زیادی دارد (بقیه کمتر از 0.07) و تنها متغیری است که در سطح آلفا = 0.05 معنادار است. من نمیدانم که آیا آستانههایی برای اینکه چقدر واریانس توضیح داده شده وجود دارد، مقدار خوبی است. من می دانم که ممکن است به رشته علمی بستگی داشته باشد، من چیزهایی مانند 30٪ برای محیط زیست را شنیده ام، اما نمی توانم مرجعی برای این موضوع پیدا کنم. سوال دوم من این است که آیا من درست می گویم که برای این مورد درصد واریانس توضیح داده شده است، آیا درصد واریانس در داده های عمق توسط محورهای ترتیب nmds توضیح داده می شود؟ با تشکر | NMDS و واریانس با برازش برداری توضیح داده شد |
17919 | با توجه به $\textbf{x}=[x_1 x_2 ... x_n]^T$ که در آن $\textbf{x} \in \\{ 0, a_1, a_2, a_3 \\}^n, a_i \in \mathbb{ C}$ و $\textbf{z} = \\{z_1 z_2,...,z_n \\}$ جایی که $z_i \textbf{~} N(0,\sigma^2)$ یک RV گاوسی پیچیده با میانگین $0$ و واریانس $\sigma^2$ است. فرض کنید $\textbf{y}$ $\textbf{y} = H\textbf{x}+\textbf{z}$ را مشاهده میکنیم که در آن $H$ شناخته شده است و عناصر آن گاوسی مختلط مستقل با میانگین 0 و واریانس 1 اینچ هستند. $\mathbb{C}$ یعنی اعداد مختلط. چگونه می توانم $\textbf{x}$ را با مشاهده $\textbf{y}$ تخمین بزنم در حالی که فقط می خواهم بدانم $x_i$ صفر است یا غیر صفر؟ یعنی نمیخواهم بین $a_1، a_2، a_3$ تمایز قائل شوم و فقط میخواهم تخمین بزنم که آیا $x_i$ صفر بود یا غیرصفر؟ آیا راه تکراری برای یافتن این موضوع وجود دارد؟ با تشکر | تخمین X در نویز گاوسی |
44584 | من با یک تخمین رگرسیون (SUR) ظاهراً نامرتبط بازی کردم. با این حال، برای مدلهای SUR پویا، مشخص است که - مشابه با مورد ARIMA - یک تخمین OLS/GLS مغرضانه است. به عنوان مثال این مقاله یک تصحیح ارائه می دهد. بنابراین سوال من اینجاست: آیا بسته _R_ یا پیاده سازی دیگری وجود دارد که این اصلاح را انجام دهد؟ پیشاپیش متشکرم | تعصب برآوردگرهای Zellner در مدلهای SUR پویا |
84357 | من لیستی از فیلم هایی دارم که بر اساس درآمدشان از 5 رتبه بندی شده اند. من کاربرانی دارم که همین فیلم ها را رتبه بندی می کنند. همه کاربران همه فیلم ها را رتبه بندی نمی کنند. چگونه می توانم بفهمم کدام کاربران بهترین همبستگی را بین رتبه بندی خود و درآمد فیلم دارند؟ | چگونه کاربران را رتبه بندی کنیم؟ |
54523 | با توجه به $T_n = \sum_{i=1}^n c_i X_i$، و عدد صحیح $m$ با $0\leq m\leq n$، که در آن * $X_1، \dots، X_n$ هستند $\\{0,1 \\}متغیرهای تصادفی با ارزش $، و دارای یک تابع جرم احتمال مشترک هستند که هر زمان ${n \choose m}^{-1}$ را می گیرد. $\sum_{i=1}^n X_i = m$ و $0$ در غیر این صورت. * $c_i = \sqrt{mn(n-m)} (n+1) F^{-1}(\frac{i}{n+1})$، که $F$ cdf یک توزیع پیوسته است. چگونه باید واریانس مجانبی $T_n$ را بر حسب گشتاورهای $F$ تعیین کرد؟ به هر حال، به طور کلی، چه راه هایی برای تعیین واریانس مجانبی یک آمار وجود دارد؟ با تشکر و احترام! | چگونه می توان واریانس مجانبی آماره زیر را تعیین کرد؟ |
48467 | من ماتریس انتقال یک مرحله ای $$\pmatrix{0 & \alpha & 0 & \beta \\\\alpha & 0 & \beta & 0 \\\ 0 & \beta & 0 & \\alpha \\\ \beta & 0 \\\ 0 & \beta & 0 & \\alpha \\\ \بتا را دارم. & 0 & \alpha & 0 \\\\}$$ من میخواهم توزیع ثابت را انجام دهم. بنابراین من با $$ \pi_1 = \alpha \pi_2 + \beta \pi_4$$ $$ \pi_2 = \alpha \pi_1 + \beta \pi_3$$$$ \pi_3 = \بتا \pi_2 + \alpha\ به پایان میرسم pi_4$$ $$ \pi_4 = \beta \pi_1 + \alpha \pi_3$$ و می گوید که با توجه به ویژگی متقارن هر چهار حالت، می توان نتیجه گرفت که همه $\pi$ ها با یکدیگر برابر هستند. خاصیت متقارن چیست؟ آیا به این دلیل است که میتوانیم ببینیم همه آنها به شکلی شبیه به $A = \alpha A + \beta B$ و $B = \alpha B + \beta A$ هستند و بنابراین میبینیم که آنها متقارن هستند؟ | ویژگی متقارن برای توزیع ثابت چیست؟ |
48469 | داده های من شامل اندازه گیری تراکم از 3 نوع سلول مختلف (X،Y، و Z) است. هدف من این است که بدانم آیا تفاوتهای «معنیداری» بین این اندازهگیریها وجود دارد، بنابراین آزمایش کردهام: 1. آیا نمونههای من به طور معمول توزیع میشوند * با استفاده از آزمون Shapiro-Wilk * با استفاده از آزمون Jarque-Bera * رسم نمودارهای qqnorm * رسم نمودار هیستوگرام 2. آیا نمونه ها از توزیع یکسانی هستند * با استفاده از آزمون کولموگروف-اسمیرنوف دو نمونه ای (آزمون K-S) و مقایسه X در مقابل Y، X در مقابل Z و Y در مقابل Z * با استفاده از کروسکال-والیس مقایسه X، Y و Z با هم داده های من شامل 232 اندازه گیری برای X، 284 برای Y، و 124 برای Z است. Shapiro-Wilk و Jarque -تست برا در R همیشه به من 05/0p< می دهد که من قبول دارم که به طور معمول توزیع نمی شود. با این حال، وقتی هیستوگرام ها را رسم می کنم، توزیعی شبیه به نرمال دریافت می کنم.  نمودارهای qqnorm نیز چندان کج به نظر نمی رسند، اما شاید این فقط من باشد بی تجربگی در تفسیر نمودارهای qqnorm (این اولین بار است که آنها را می سازم).    به دلیل توزیع ظاهراً غیرعادی، دادههایم را با استفاده از آزمون KS مقایسه کردم و Kruskal-Wallis، که همیشه به من این نتیجه را می دهد که جمعیت Z من از توزیع متفاوتی در مقایسه با X و Y گرفته شده است. با این حال، من نمی دانم که آیا این درست است یا نه، همانطور که R همیشه برای من گزارش می دهد. دو نمونه تست کولموگروف-اسمیرنوف: پیام هشدار: در ks.test(dataX, dataY): نمی توان مقادیر p صحیح را با پیوندها محاسبه کرد پیام هشدار: در ks.test(dataX, dataZ): نمی توان مقادیر p صحیح را با پیوندها محاسبه کرد پیام اخطار: در ks.test(dataY, dataZ): نمیتوان مقادیر p صحیح را با پیوندها محاسبه کرد، احتمالاً زیرا نمونهها اندازههای متفاوتی دارند. میخواهم بدانم نظر شما در مورد آن چیست و آیا باید به جای آزمایشهای ناپارامتریکی که استفاده کردهام، بیشتر از تستهای پارامتریک استفاده کنم، یا اینکه آیا تستهایی که استفاده کردهام بدون در نظر گرفتن نرمال بودن دادهها معتبر هستند. . همچنین، به نظر میرسد اندازهگیریهای من بین خودشان بسیار کمی متفاوت است، به عنوان مثال: --- آمار خلاصه برای سلولهای WT حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.1450 0.3720 0.5000 0.5598 0.7102 1.9290 ---آمار خلاصه برای سلول های Df حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.0550 0.4030 0.5445 0.5857 0.7210 1.5350 ---آمار خلاصه برای سلول های Dp حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.0670 0.4790 0.6255 0.6782 0.7897 2.0160 در اینجا یک جعبه از داده ها آمده است:  آبی = Y، قرمز = Z بنابراین من مطمئن نیستم نتایجی که ممکن است از آنها بگیرم. | اختلاف بین تست های نرمال بودن و نمودارهای هیستوگرام |
70410 | من رگرسیون خطی انجام داده ام و داده ها، خط رگرسیون و همچنین فاصله اطمینان (برای اطمینان 95 درصد) را رسم کرده ام. با این حال به نظر می رسد که بیشتر نقاط داده خارج از فاصله اطمینان قرار می گیرند. پس چگونه باید فاصله اطمینان را تفسیر کنم. نمی توان _من 95% مطمئن هستم که نقطه داده تا این حد به خط رگرسیون نزدیک باشد_ زیرا بیش از 5% از نقاط داده در آن ناحیه قرار نمی گیرند. پس یعنی چه؟ | فواصل اطمینان برای تفسیر رگرسیون |
15942 | من یک داده ثابت در مورد یک مشکل تصمیم گیری دارم که در آن باید تصمیم بگیرم که آیا A یا B را برای رقابت انتخاب کنم، برنده کسی است که تعداد بیشتری در هر دور دارد. اگر یک نقطه را حذف کنم، A هر بار B را می زند. اما نمونه آنقدر کوچک است که حذف یک نقطه داده، داده ها را بسیار کوچکتر می کند. هدف این مسابقه به حداکثر رساندن نتیجه با انحراف استاندارد کم است. بنابراین من در اینجا یک وضعیت غیر مسلط دارم زیرا بازیکن B دارای بیشترین رکورد 86 است در حالی که A دارای کمترین SD (حدود 150٪ در حالی که B 250%) است. اگر بر اساس نمونه کوچکتر نتیجه گیری کنم، احساس اشتباه می کنم -- چگونه می توانم این را از نظر آماری بگویم؟ اگر از نمونه کوچکتری استفاده کنم، نتیجه گیری چقدر کمتر معنادار خواهد بود؟ R مخفف دور است. R A B 1 85 86 2 83 83 3 83 82 4 83 82 5 83 81 6 81 80 7 80 78 **[به روز رسانی]** بازیکنی که من انتخاب می کنم باید دوباره در همان بازی با بازیکنان دیگر رقابت کند. من می خواهم دورهای آینده را به حداکثر برسانم. نگاه B روند صعودی دارد در حالی که A از نظر تاریخی نتایج پایدارتری دارد. به زودی تجزیه و تحلیل خواهد کرد. | کاهش معنی داری پس از حذف یک نقطه از یک نمونه کوچک |
34919 | من یک مقیاس تاب آوری با 11 آیتم (متغیرهای مشاهده شده) دارم که از آن میانگین را برای به دست آوردن یک نمره تاب آوری محاسبه کردم (که معمولاً یک متغیر مشاهده نشده یا ساختار پنهان در اصطلاحات SEM است). * آیا می توانم فقط از این امتیاز انعطاف پذیری برای ایجاد یک SEM در AMOS استفاده کنم یا باید 11 مورد را نیز لحاظ کنم؟ * اگر فقط نمره تاب آوری را به عنوان یک متغیر مشاهده شده در نظر بگیرم، آیا این یک محدودیت در نظر گرفته می شود یا همه آن اشتباه است؟ * به طور کلی، آیا گنجاندن یک متغیر مرکب در مدل معادلات ساختاری در AMOS زمانی معتبر است که چنین متغیرهایی به عنوان متغیرهای مشاهده شده در نظر گرفته شوند؟ | آیا متغیرهای ترکیبی (مثلاً امتیاز) برای اجرای SEM در AMOS معتبر هستند؟ |
23481 | مقاله ای با عنوان محاسبه دقیق واریانس در حال اجرا در http://www.johndcook.com/standard_deviation.html نحوه محاسبه میانگین، واریانس و انحرافات استاندارد را نشان می دهد. آیا الگوریتمهایی وجود دارند که پارامترهای یک مدل رگرسیون خطی یا لجستیک را میتوان به طور مشابه بهصورت «دینامیک» با ارائه هر رکورد آموزشی جدید بهروزرسانی کرد؟ | آیا الگوریتم هایی برای محاسبه پارامترهای رگرسیون خطی یا لجستیک در حال اجرا وجود دارد؟ |
81389 | در ویکی پدیا آمده است که: > اگر $X \sim \operatorname{Log-\mathcal{N}}(\mu, \sigma^2)$ توزیع شده باشد > log-normally، سپس $\ln(X) \sim \mathcal{N}(\mu, \sigma^2)$ یک متغیر طبیعی > تصادفی است. آیا برعکس آن درست است؟ | رابطه بین توزیع نرمال و لگ نرمال |
48462 | من روی یک مدل پروبیت دو متغیره کار می کنم و می خواهم گرادیان را محاسبه کنم. برای انجام این کار، من باید از w.r.t devirative استفاده کنم. $\beta$ در عبارت زیر: $$\int_{-\infty}^{x_{g1}\beta} \int_{-\infty}^{x_{g2}\beta}\phi_2(z_1، z_2، \rho)dz_2dz_1$$ آیا کسی می تواند به من راهنمایی کند که چگونه این کار را انجام دهم؟ سعی کردم از تمایز زیر علامت انتگرال استفاده کنم، اما نتوانستم نتیجه لازم را بگیرم. | گرادیان یک مدل پروبیت دو متغیره |
111172 | من به دنبال روش آماری مناسب برای آزمایش تعاملات بین ویژگیهای خاص جایگزین پاسخهای مرتب شده (مانند سن یا جنسیت یک نامزد رتبهبندی شده) و متغیرهای فردی (مثلاً جنسیت پاسخدهنده) هستم. رگرسیون لجستیک چند جمله ای در R (بسته mlogit) امکان تست تعامل متغیرهای فردی با خود آیتم های رتبه بندی شده را می دهد، اما نه با ویژگی های آیتم های رتبه بندی شده. دومی کاری است که من می خواهم انجام دهم. این به فرد امکان می دهد به سؤالاتی مانند آیا جنسیت یک نامزد تاثیر بیشتری بر رای دهندگان مرد نسبت به رای دهندگان زن دارد؟ توجه داشته باشید که من به رتبه ها نگاه می کنم، نه نتایج باینری. | رگرسیون لجستیک با تعاملات دستور داد |
103532 | بهترین روش برای آزمون برابری بردارهای میانگین سن، قد، وزن و BMI 150 زن و مرد کدام است؟ | آزمون برابری میانگین بردارها |
11069 | من سعی دارم مدل سری زمانی را با استفاده از روش gls تخمین بزنم. داده ها از سپتامبر 1997 تا آوریل 2011 ماهانه است ابتدا مدل را تخمین می زنم و می دانم که خطا IMA (1,1) است. برای آن من از کد استفاده می کنم: tsdata=ts(data, start=c(1997,9)، فرکانس=12) difftsdata=diff(tsdata) trend = time(difftsdata) model= Arima(difftsdata, order=c(0, 0,1)، xreg=trend) سوالات من این است: 1. آیا کد بالا مناسب است؟ 2. چگونه از این مدل پیش بینی کنیم؟ من از کد زیر استفاده کردم: nobs=length(difftsdata) fore=predict(model , 10, newxreg=(nobs+1):(nobs+10)) ts.plot(tsdata,fore$pred,col=1:2 ) اما پیش بینی بزرگتر از حد انتظار است. | برآورد رگرسیون سری زمانی با استفاده از GLS |
84352 | من سعی می کنم بفهمم چگونه می توان این مشکل را شروع کرد: > ما یک رگرسیون چند متغیره از Y روی X داریم. نشان دهید که اگر مقادیر > را برای X گره زده باشیم، می توانیم آنها را با یک مجموعه جایگزین کنیم و از میانگین برای Y > با استفاده از آن استفاده کنیم. یک وزن مناسب (با فرض وزن = I با n ام > مورب = تعداد مقادیر گره خورده) | حداقل مربعات با پیش بینی کننده های مساوی |
70418 | من در درک خودرگرسیون بردار ساختاری (SVAR) مشکل دارم. من چند کتاب در مورد آن دارم، و آنها را خوانده ام، اما هنوز نمی توانم ایده پشت آن مفهوم را درک کنم. آیا کسی می تواند متمایز بودن SVAR در مقایسه با VAR را با کلمات ساده به من توضیح دهد؟ در کدام شرایط یک SVAR مناسب تر از یک VAR ساده است؟ | آشنایی با مدل SVAR |
17899 | من به دنبال یک توصیف ریاضی و رایگان از تحلیل واریانس استاندارد (چند عامل، یک متغیر وابسته) هستم. این باید مستقل باشد و برای شخصی قابل خواندن باشد بدون اینکه دانشی از آمار داشته باشد اما پیشینه خوبی در ریاضیات و نظریه احتمالات داشته باشد. تقریباً تمام متنهایی که من پیدا میکنم دستورالعملهای گام به گام در مجموعه دادههای نمونه، طرحهای اکتشافی نوشته شده برای دانشمندان حوزههای کاربردی هستند یا از زبان آماری زیادی برای توضیح مفهوم استفاده میکنند (فقط با ریاضیات فلج). در حالت ایدهآل، متن شامل مشتقاتی از توزیع F (چرا در این تنظیمات ظاهر میشود؟) و آزمون F و همچنین رابطه با رگرسیون باشد. | به دنبال حساب ریاضی ANOVA |
54522 | من برای یک شرکت بزرگ با سیاست محدود کننده اینترنت و همکاران معتاد به اکسل کار می کنم. من در حال حاضر روی تکامل همبستگیهای بازار کار میکنم که شامل آمار، تجزیه و تحلیل دادهها، خوشهبندی، تجسم دادهها است... از آنچه در اینترنت دیدهام، انجام آن در اکسل ایده خوبی نیست. (یک مطالعه کلی را اینجا ببینید: Excel به عنوان یک میز کار آماری) پس از 2 هفته تلاش، بالاخره از IT یک نسخه کارآمد از R و چند بسته جالب دریافت کردم. داده های بازار من در یک فایل txt ذخیره می شود، من روی آن با R کار می کنم و یک فایل results.txt ایجاد می کنم، سپس فایل results.txt را در اکسل بارگذاری می کنم و آنچه را که رئیسم می خواهد ترسیم می کنم. اعتراف می کنم که اکسل برای دستکاری تعداد زیادی از مجموعه داده ها و نمودارها در یک مکان مفید است. این تنها نقطه خوب در مقایسه با R برای کاری است که می خواهم انجام دهم. من فکر می کنم راه حل ارزان من .txt برای انجام محاسبات در R صحیح و ساده است ... (برای حکایت، چیزهایی مانند Rexcel برای اتصال R و Excel در جایی که کار می کنم ممنوع است - نپرسید چرا - بنابراین یک ماکرو را امتحان کردم که ایجاد یک .bat برای راه اندازی R و انجام محاسبات برای همکاران من بسیار پیچیده است) اما برای تجسم داده ها اکسل بسیار ضعیف است. من واقعاً دلتنگ برخی از نمودارهایی هستم که در R دارم. دندوگرام ها، نمودارهای جعبه، هیستوگرام، دایره های همبستگی، همبستگی های خلاصه شده و نقشه های حرارتی برای من بسیار جالب هستند، اما در دسترس نیستند. بنابراین سوال من این است که چگونه می توان آنها را در اکسل دریافت کرد؟ (سیاست سختگیرانه اینترنت را به خاطر بسپارید؛ من نمی توانم هیچ افزونه ای را دانلود کنم). آیا راهی (آسان) برای ترسیم چیزهای پیچیده با ماکرو یا کتاب کار وجود دارد؟ آیا منابعی دارید؟ | Excel، Heatmap و Data Visualization بدون افزونه |
44030 | > **تکراری احتمالی:** > تفسیر پیش بینی کننده log تبدیل شده من یک معادله رگرسیون دارم (زیر). در شکل خام، متغیر وابسته Y من به روز است (طول اقامت بر حسب روز). من متغیر وابسته را با استفاده از تبدیل log طبیعی تبدیل کردم. من می خواهم بدانم چگونه ضرایب معادله را تفسیر کنم. آیا می توانم برای متغیر سال بگویم که افزایش یک واحد در سال منجر به افزایش 16.7 درصدی در طول مدت اقامت می شود؟ این برای من معنی ندارد، زیرا یک درصد است و نه روز. من فرض کردم با توجه به محاسبه تبدیل به درصد تبدیل می شود. یا می توانم بگویم که افزایش یک واحدی در سال منجر به افزایش 16.7 روزه در مدت اقامت می شود. و آیا می توانید در تفسیر رهگیری و برای یک متغیر رمزگذاری شده ساختگی ('جنسیت: 1 = مرد؛ 0 = زن') به من کمک کنید؟ LOGLOS = 3.27+0.167 (سال) – 0.43 (جنسیت) -.31 (درآمد) -0.001 (امتیاز) + 0.576 (سفید). | متغیر وابسته تبدیل شده با log طبیعی را تفسیر کنید |
8662 | من جامعه نمونه حداکثر دامنه ثبت شده یک سیگنال خاص را دارم. جمعیت حدود 15 میلیون نمونه است. من یک هیستوگرام از جمعیت تولید کردم، اما نمی توانم توزیع را با چنین هیستوگرام حدس بزنم. EDIT1: فایل با مقادیر نمونه خام اینجاست: دادههای خام میتواند به تخمین توزیع با هیستوگرام زیر کمک کند:  | برای شناسایی توزیع با استفاده از هیستوگرام به کمک نیاز دارید |
65723 | بگویید من مدلی دارم که متغیر وابسته تغییر در گزارش $y$، $\Delta ln(y)$ و متغیر مستقل تغییر در $x$، $\Delta x$ باشد. فرض کنید ضریب برابر با 1- باشد، $y$ جمعیت یک ایالت و $x$ نرخ جرم (تعداد جنایات به ازای هر نفر) است. آیا می توانم بگویم که برای افزایش 10 درصدی نرخ جرم و جنایت، مدل کاهش 1 درصدی (تقریبا) جمعیت را پیش بینی می کند؟ یا باید بگویم که برای افزایش 1 درصدی میزان جرم و جنایت، مدل کاهش 1 درصدی (تقریبا) جمعیت را پیش بینی می کند؟ یا باید بگویم که برای هر جرم اضافی، مدل کاهش 1 نفری جمعیت را پیش بینی می کند؟ | تفسیر صحیح ضریب زمانی که متغیر وابسته تغییر در log y و متغیر مستقل تغییر در x است؟ |
60787 | چندین کتاب (Raudenbush & Bryk، Snijders & Bosker، Gelman & Hill، و غیره) و چندین مقاله (Gelman، Jusko، Primo & Jacobsmeier، و غیره) را مرور کردهام، و هنوز واقعاً سرم را در این مورد نگفتهام. تفاوت عمده بین استفاده از خطاهای استاندارد خوشه ای و مدل سازی چند سطحی. من قسمت هایی را که باید با سؤال تحقیق مرتبط باشد، درک می کنم. انواع خاصی از پاسخ ها وجود دارد که فقط می توانید از مدل سازی چند سطحی دریافت کنید. با این حال، برای مثال، برای یک مدل دو سطحی که ضرایب علاقه شما فقط در سطح دوم است، مزیت انجام یک روش نسبت به روش دیگر چیست؟ در این مورد، من نگران پیشبینی یا استخراج ضرایب فردی برای خوشهها نیستم. تفاوت اصلی که من توانستم پیدا کنم این است که خطاهای استاندارد خوشهای زمانی آسیب میبینند که خوشهها دارای اندازههای نمونه نابرابر هستند و مدلسازی چند سطحی ضعیف است زیرا مشخصهای از توزیع ضریب تصادفی را فرض میکند (در حالی که استفاده از خطاهای استاندارد خوشهای بدون مدل است) . و در پایان، آیا همه اینها به این معنی است که برای مدل هایی که ظاهراً می توانند از هر دو روش استفاده کنند، باید نتایج مشابهی از نظر ضرایب و خطاهای استاندارد دریافت کنیم؟ هر گونه پاسخ یا منابع مفید بسیار قدردانی خواهد شد. | خطاهای استاندارد خوشه ای در مقابل مدل سازی چند سطحی؟ |
18480 | من نمی دانم که آیا تفاوتی در تفسیر ایجاد می کند که فقط متغیرهای وابسته، هر دو وابسته و مستقل، یا فقط متغیرهای مستقل تبدیل به log می شوند. در مورد log(DV) = Intercept + B1*IV + Error من می توانم IV را به عنوان درصد افزایش تفسیر کنم، اما وقتی log(DV) = Intercept + B1*log(IV) + Error یا زمانی که دارم، چگونه تغییر می کند. من DV = Intercept + B1*log(IV) + Error دارم؟ | تفسیر پیشبینیکننده log تبدیل شده |
103654 | آیا میتوانیم از طریق رگرسیون چندگانه پیشبینی کنیم که مقدار وابسته همیشه 1 باشد و چند متغیر مستقل کمی و کیفی وجود داشته باشد؟ | مقادیر یکسان در یک متغیر وابسته |
111177 | من یک وکتور ویژگی در اندازه 250 x 35 دارم. یعنی من 250 تصویر دارم و هر تصویر دارای 35 ویژگی است. من باید تست کای دو انجام دهم تا مهمترین ویژگی ها را از آن بدست بیاورم. کسی می داند چگونه آن را انجام دهد؟ من فرمول مجذور کای را میدانم، اما نمیدانم چگونه آن را در مورد من اعمال کنم. | انتخاب ویژگی مربع کای |
15940 | من دادههایی از آزمایشی دارم که در آن دو درمان مختلف را در شرایط اولیه یکسان اعمال کردم و در هر مورد یک عدد صحیح بین 0 تا 500 را به عنوان نتیجه تولید کردم. من میخواهم از آزمون t زوجی برای تعیین اینکه آیا اثرات ایجاد شده توسط دو درمان به طور قابل توجهی متفاوت است استفاده کنم. نتایج برای هر گروه درمانی به طور معمول توزیع می شود، اما _تفاوت_ بین هر جفت به طور نرمال توزیع نمی شود (نامتقارن + یک دم بلند). آیا می توانم در این مورد از آزمون t زوجی استفاده کنم یا فرض نرمال بودن نقض شده است، یعنی باید از نوعی آزمون ناپارامتریک استفاده کنم؟ | آیا می توانم از آزمون t زوجی استفاده کنم زمانی که نمونه ها به طور معمول توزیع شده اند اما تفاوت آنها وجود ندارد؟ |
94186 | من مشخصاتی را با یک نتیجه بر حسب $ اجرا کردم و ضریب یک متغیر ساختگی از نظر آماری معنیدار بود. با این حال، زمانی که من دقیقاً همان مدل را با نتیجه بر حسب لگ-دلار اجرا کردم، ضریب قابل توجهی نیست. آیا این امکان پذیر است یا باید اشتباهی وجود داشته باشد؟ | اهمیت آماری مدل های مختلف |
52695 | من کمی گیر کرده ام و فقط به این فکر می کنم که از کدام تکنیک رگرسیون استفاده کنم. از پاسخ دهندگان خواسته شد که مقدار درصد خاصی را از 0 تا 100 ارائه کنند. متأسفانه، این درصدها در مجموعه داده قابل دسترسی نیستند، اما در 9 دسته (0-8) رتبه بندی شدند. این دسته بندی ها نشان دهنده یک معیار عملکرد هستند که از 0 (باعملکرد پایین) تا 8 (بالاترین عملکرد) متغیر است. برای توجه، دستهها از محدودههای مقادیر متفاوتی تشکیل شدهاند، بنابراین واقعاً حتی فواصل ندارند. به طور کلی، من علاقه مند به پیش بینی تأثیر برخی از IV های ترتیبی بر عملکرد هستم. با اشاره به آمار توصیفی / فرکانس، به نظر می رسد DV من به شدت دارای انحراف است. به ویژه، یک سوم از تمام مشاهدات (N = 400) به 0 نسبت داده می شود، در حالی که بقیه به نظر می رسد به شکل زنگ هستند. پیشاپیش با تشکر فراوان کریس | کدام مدل رگرسیون را با متغیر وابسته ترتیبی و اریب استفاده کنیم؟ |
8664 | من می خواهم تجزیه و تحلیل توان را روی آزمایش اندازه گیری های مکرر یک گروهی با استفاده از G*power انجام دهم. من گروهی از افراد دارم که مجموعه ای از محصولات را آزمایش کردند. هر موضوع یک بار محصولات را تست می کند. از این رو، من یک مشاهده در هر سلول دارم. برای آزمایش اثر محصول، از یک مدل دو آنوا با موضوعات به عنوان جلوه تصادفی با proc glm در sas استفاده کردم. من می خواهم حجم نمونه را برای یک مطالعه معین با طرح مشابه محاسبه کنم. با توجه به تخمین اندازه اثر، آلفا، بتا و تخمین همبستگی بین اندازه گیری های مکرر می توانم از نسبت واریانس سوژه ها/ (واریانس موضوعات + واریانس خطا) برگرفته از مدل آنوا دو طرفه به عنوان تخمین استفاده کنم. از این همبستگی؟ | چگونه می توان همبستگی بین اندازه گیری های مکرر را تخمین زد؟ |
94454 | آیا هر مجموعه داده ای که از طریق هر یک از روش های زیر خوشه بندی می شود: * خوشه بندی سلسله مراتبی تجمعی با استفاده از روش پیوند کامل * خوشه بندی سلسله مراتبی تجمعی با استفاده از روش پیوند تک ساختار دندروگرام یکسانی دارد؟ اگر بله، لطفاً به اثبات آن کمک کنید یا مثال متناقضی را نشان دهید (اگر نه). | خوشه بندی سلسله مراتبی پیوند کامل در مقابل دندروگرام پیوند تک |
8669 | من در حال حاضر دو مجموعه از متغیرهای ورودی مانند $X$ و $Y$ با یک متغیر خروجی $Z$ دارم. یعنی: $$Z = a_0 + a_1X_1 + a_2X_2... + a_{11}X_{11} = b_0 + b_1Y_1 + b_2Y_2 + b_3Y_3 + b_4Y_4$$ من مقادیر مستقل $X$ و $Y$ را دارم اما don مقادیر متغیر وابسته $Z$ را ندارند. آیا به هر حال بتوانم ضرایب $a$ و $b$ و همچنین مقدار R را در مجذور تخمین بزنم؟ | دو مجموعه از متغیرهای ورودی برای یک متغیر وابسته ناشناخته |
15948 | من باید یک آزمون را ارزیابی کنم (مقدار پیش بینی پسین) اما نتایج آزمون می تواند بر اساس برخی عوامل مستقل دیگر تغییر کند. فرض کنید آزمایش من یک مقدار بیوشیمیایی را اندازه گیری می کند، اما بسته به دمای اتاقی که آزمایش انجام می شود، مقدار تغییر می کند. چگونه می توانم این واقعیت را در محاسبات خود بدون انجام یک سری آزمایش در دماهای مختلف یا چیزی مشابه مدل کنم؟ | ارزیابی یک آزمایش بالینی |
89440 | با توجه به سطح این سایت، اینها احتمالاً سؤالات غیرقابل تحملی مبتدی هستند، اما اینجاست... بنابراین من در حال مطالعه هزینه حمل و نقل عمومی در یک شهر خاص هستم. من به دادههای یک نظرسنجی تصادفی امیدوارانه از عادات رفتوآمد هفتگی حدود 60000 نفر دسترسی دارم و میدانم که شهر حدود 1350000 کاربر هفتگی حملونقل عمومی دارد. 1. با فرض اینکه توزیع کرایهها هم برای نمونه $n$ و هم برای جمعیت من یکسان است، آیا میتوانم به سادگی از اندازه جمعیت چشم پوشی کنم و مرز خطای $B = \sqrt{1/n} = 0.4\% را اعلام کنم. دلار؟ یعنی، اگر (مثلاً) 10.0٪ از نمونه من 50 دلار در هفته پرداخت کنند، آیا می توانم ادعا کنم که 10.0 $\pm0.4\% $ از جمعیت عمومی این کار را می کنند؟ 2. من به هیچ داده کرایه برای کل جمعیت دسترسی ندارم، اما توزیع حالت های سفر (اتوبوس، قطار و غیره) را هم برای نمونه و هم برای جمعیت می دانم. چگونه می توانم این دو را با هم مقایسه کنم تا قضاوت کنم که آیا نمونه من نماینده است؟ توجه داشته باشید که فقط 4 نقطه داده (حالت های مختلف) وجود دارد و از هیچ توزیع شناخته شده ای پیروی نمی کنند. | ارزیابی کیفیت یک حجم نمونه ثابت با اطلاعات محدود در مورد مجموعه کامل |
114521 | من می خواهم بپرسم لطفاً پاسخ پرسشنامه را در مقیاس لیکرت بپرسم. من تعدادی از پاسخ دهندگان دریافت کرده ام که برای تعداد زیادی سوال پاسخ های ثابتی داشتند. به عنوان مثال، بیش از 75٪ یا 80٪ پاسخ ها (در سؤالات مختلف) پاسخ یکسانی دارند (مثلاً 5). چکار کنم لطفا؟ معیاری برای رعایت کردن وجود دارد؟ | پاسخ های پرسشنامه منسجم |
111179 | من در حال حاضر در حال بررسی داده های سری زمانی برای بیمارانی هستم که در بیمارستان بستری شده اند. سری زمانی خود احتمالات ریسک را مدل می کند، جایی که ریسک های بالا با قله ها مشخص می شوند. در مقاطع مختلف سری زمانی، ما دو نوع رویداد داریم: یک بیمار در بیمارستان بستری می شود یا بیمار می میرد. برای اینکه ببینم چه الگوهایی در سری های زمانی پذیرش و مرگ را پیش بینی می کنند، باید به چه تکنیک هایی نگاه کنم؟ من احتمالاً به تجزیه و تحلیل بقا فکر می کردم، اما مدل هیچ داده ای ندارد که بتواند تولدها را نشان دهد. همچنین من عذرخواهی می کنم، اما من فقط مدل را دارم و داده های اصلی را ندارم وگرنه آن را پست می کنم. | تکنیک هایی برای پیش بینی رویدادهای گسسته در یک سری زمانی؟ |
105108 | من یک معادله رگرسیون ساده دارم که در آن log (حقوق) = b0 + b1 * log (فروش). 1. b1 را در این مدل چگونه تفسیر می کنید؟ | چند سوال در مورد استفاده از لگاریتم در معادلات رگرسیونی |
11060 | امیدوارم کسی بتواند به من کمک کند تا نحوه عملکرد مقایسه نسبت با استفاده از GLM در R را بررسی کنم. من از GLM برای مقایسه بین سالها با ساختن یک فایل txt استفاده کردهام که در آن ستون موفقیت شامل تعداد جوجههایی است که از تخم بیرون میآیند، و شکستها تعداد تخمهایی است که در هر لانه بیرون نیامدهاند. هر ردیف مربوط به یک لانه است. (من این کار را طبق توضیحاتی که در «کتاب R» نوشته مایکل کرولی انجام دادم) کد به این صورت است: y<-cbind(موفقیت،شکست) hsmodel1<-glm(y~year،دوجمله ای) این تست تفاوت در موفقیت دریچه در میان سالهایی که #جوجهها از تخم بیرون میآیند/تخمگذاری میشوند، درست است؟ تعداد جوجه ها بیرون نیامدند / لانه کردند؟ ثانیاً، اگر گونه من تا 2 تخم بگذارد، آیا استفاده از این روش متناسب همچنان معتبر است، زیرا ممکن است 0، 1 یا 2 موفقیت یا شکست وجود داشته باشد؟ من تقریباً مطمئن هستم که اینطور است، اما از سؤالی که یکی از همکاران امروز پرسید، شروع به شک کردم. با تشکر ماگ | GLM برای داده های متناسب |
17816 | من از یک مدل خطی برای تجزیه و تحلیل برخی داده ها استفاده می کنم، y~N(mu، sigma) که در آن mu[y] <- Intercept + Beta1X + Beta2X1 + Beta3X2 و Beta2 = Beta1^2 Beta[n] ~ N(mu.b [n]، sigma.b[n]) اما من مجبور شدم هم متغیرهای پیشبینیشده و هم همه متغیرهای پیشبینیشده را تبدیل کنم، زیرا از آن استفاده میکنم. اشکالات، فقط برای کارایی. گلمن به این موضوع اشاره می کند که کشش نامیده می شود و می گوید ضرایب را می توان مستقیماً به این صورت تفسیر کرد که افزایش بتا در X با افزایش 1٪ در y مرتبط است. با این حال، نتایج من: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) 0.1135924 0.1495142 0.760 0.448 B1 1.4934436 0.0580981 25.706 <2e-16 *** I(B1^2) 7020.601 -0. -23.747 <2e-16 *** B2 0.0003612 0.0515368 0.007 0.994 نشان می دهد که 150٪ افزایش در y وجود دارد، با هر 1٪ افزایش در Beta1 که می تواند مخرب باشد. همچنین، اصطلاح غیر خطی یا خود تعاملی چگونه تفسیر می شود؟ پیشنهاد من این است: کاهش 15 درصدی تأثیر B1 بر y با هر 1 درصد افزایش در Beta1 رخ می دهد. با این حال، اگر پیشبینیشده یا پیشبینیکنندهها را تبدیل نکنم، به دست میآورم: Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 5.382e+01 3.410e+00 15.782 < 2e-16 *** B1 -3.026e-02 8.775e-03 -3.449 0.000591 *** 2 I(B1^ ) 8.654e-06 7.828e-06 1.106 0.269264 B2 2.363e+00 2.490e+00 0.949 0.342789 که در آن اثر X1 معکوس به نظر می رسد، و اندازه اثر کوچک است (مطمئناً به ترتیب به ترتیب 15% و 15% نیست). تصحیح!! با تشکر | نحوه تفسیر ضرایب رگرسیون در مدل log-log |
52690 | من سعی می کنم برخی از نتایج را در مقاله ای تفسیر کنم که مقادیر AICc را برای مدل های رگرسیون چندگانه نامزد مختلف ارائه می دهد. این مقاله نتایج مدل را به تفکیک تعداد vbl های مستقل ارائه می کند. من اطلاعات زیادی در مورد AIC ندارم، بنابراین میپرسم آیا مقایسه نمرات AICc بین مثلاً یک مدل 2-vbl و یک مدل 3vbl معتبر است؟ این مقاله در مجموع از 4 vbls استفاده می کند و یک امتیاز AICc را برای مدل هایی که شامل تمام زیر مجموعه های ممکن از این vbls هستند ارائه می دهد. اگر این معتبر نیست، آیا معیار دیگری مربوط به AICc (مثلاً وزنهای Akaike و غیره) مقایسه معتبری است؟ | آیا مقایسه AICc بین مدل هایی با تعداد vbl های مستقل متفاوت است؟ |
84350 | ارسال سوال من از mathoverflow برای پیدا کردن برخی از کمک های خاص آمار. من در حال مطالعه یک فرآیند فیزیکی هستم که داده تولید می کند که به خوبی به دو بعد با مقادیر غیر منفی نمایش می دهد. هر فرآیند دارای یک مسیر (پیش بینی شده) از $x$-$y$ امتیاز است -- تصویر زیر را ببینید. آهنگهای نمونه آبی هستند، یک نوع مسیر مشکلساز با دست با رنگ سبز ترسیم شده است، و یک منطقه نگرانکننده با رنگ قرمز ترسیم شده است:  هر آهنگ نتیجه یک آزمایش مستقل است. بیست میلیون آزمایش در طول چندین سال انجام شده است، اما از این تعداد تنها دو هزار آزمایش ویژگیای را که ما بهعنوان یک مسیر ترسیم میکنیم، نشان میدهند. ما فقط نگران آزمایشهایی هستیم که یک مسیر تولید میکنند، بنابراین مجموعه دادههای ما (تقریباً) دو هزار آهنگ است. این امکان وجود دارد که یک آهنگ وارد منطقه مورد نظر شود، و ما انتظار داریم که در تراک های 10^4 دلاری به ترتیب 1 دلار این کار را انجام دهد. تخمین این عدد سؤالی است که در دست است: > چگونه میتوانیم احتمال ورود یک مسیر دلخواه به منطقه مورد نظر را محاسبه کنیم؟ انجام آزمایشها بهاندازه کافی سریع امکانپذیر نیست تا ببینیم چقدر آهنگهایی که وارد منطقه مورد نظر میشوند تولید میشوند، بنابراین باید از دادههای موجود برونیابی کنیم. ما به عنوان مثال مقادیر $x$ را با توجه به $y\ge200$ برازش دادهایم، اما این به اندازه کافی دادههایی مانند مسیر سبز را کنترل نمیکند - به نظر میرسد که داشتن یک مدل شامل هر دو بعد ضروری است. ما حداقل فاصله را از هر مسیر تا منطقه مورد نظر در نظر گرفتهایم، اما متقاعد نشدهایم که این یک نتیجه قابل توجیه ایجاد میکند. 1) آیا روش شناخته شده ای برای تطبیق توزیع به این نوع داده ها برای برون یابی وجود دارد؟ -یا- 2) آیا راهی واضح برای استفاده از این داده ها برای ایجاد مدلی برای تولید آهنگ وجود دارد؟ به عنوان مثال، از تجزیه و تحلیل اجزای اصلی در مسیرها به عنوان نقاطی در یک فضای بزرگ استفاده کنید، سپس یک توزیع (پیرسون؟) را به مسیرهای پیش بینی شده بر روی آن اجزا تنظیم کنید. | برازش توزیع به داده های مکانی |
11066 | من یک GLM را با مجموعه ای از پارامترها در R تخمین می زنم. وقتی این را اجرا می کنم: M <- glm( Y ~ factor(X1) + factor(X2) ) summary(M) R فقط بخشی از جدول را به من می دهد، سپس با این پیام کوتاه میشود: [به getOption(max.print) -- 621 ردیف حذف شده است]] جدول خلاصه بزرگ خواهد بود، اما من همه چیز را میخواهم. چگونه گزینه max.print را تغییر دهم؟ من چندین نسخه مختلف را امتحان کردم و هیچ کار نمی کند. ویرایش: در اینجا یک تلاش دیگر است که به من یک خطای متفاوت می دهد. summary (M، گزینه (max.print=100000)) خطا در پراکندگی * covmat.unscaled: آرگومان غیر عددی برای عملگر باینری | چگونه می توانم گزینه max.print را در خلاصه R تغییر دهم؟ |
74855 | من در حال انجام یک رگرسیون لجستیک در سطح شرکت با استفاده از کل دارایی ها برای کنترل اندازه شرکت هستم. به دلیل کج بودن داده ها، من یک تبدیل ثبت اطلاعات دارایی انجام می دهم. در حالی که من هیچ معناداری برای متغیر log-transformed دریافت نمیکنم، متغیر تبدیل نشده بسیار معنیدار است (01/0p<). توضیح احتمالی چنین نتیجه ای چه می تواند باشد؟ آیا به این معنی است که رابطه برای مقادیر بسیار بالا و پایین کاهش نمی یابد یا مشکلی را نشان می دهد و نباید برای تفسیر داده ها استفاده شود. | متغیر Log-transformed معنادار نیست، در حالی که خود متغیر مهم است |
17892 | هنگام خواندن یک آموزش SVM، نویسنده بیانیه زیر را در مورد تکنیک عادی سازی برای پردازش داده های ورودی بیان می کند: > عادی سازی داده ها به بردارهای واحد، ابعاد داده ها را تا > یک کاهش می دهد، زیرا داده ها به کره واحد نمایش داده می شوند. من کاملاً در مورد چگونگی درک ابعاد یک کاهش یافته است. هر گونه توضیحات بیشتر بسیار قدردانی خواهد شد. | نرمال سازی چگونه ابعاد داده ها را کاهش می دهد؟ |
51005 | من می دانم که تعداد زیادی سؤال در مورد مشخصات lmer در حال حاضر وجود دارد. لطفاً به من اطلاع دهید که آیا این یک تکراری است، یا اگر خارج از موضوع تلقی می شود، آن را حذف می کنم. من از یک رویکرد گام به گام رو به جلو در تلاش برای تعیین بهینه ساختار اثرات تصادفی برای داده های خود استفاده می کنم. مدل پایه ای که من سعی می کنم از آن گام بردارم دارای ساختار همبستگی اثرات تصادفی است مانند این: AIC BIC logLik deviance 38476 38632 -19220 38440 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr SubjID (Intercept) 2.7844 1.6687 SOA.s.c 39.1269 6.2551 0.931 SOA.s.c2 15.7080 3.9633 -0.943 -0.997 ** تعداد obs1, 440 فرعی* من با همبستگی زیاد بین رهگیری، SOA.s.c و SOA.s.c2 (به راحتی) در صلح هستم. این ارزشها تا حدی منطقی هستند، اگرچه **خیلی** بالاتر از آن چیزی هستند که من میخواهم. فکر میکنم درست است که اجازه میدهم تا زمانی که مدل هنوز همگرا باشد، تخمین زده شوند... اما آماده اصلاح (و سرزنش) هستم. مدلهای کاندید مرحلهای من به شرح زیر است: 1. «(1+SOA.s.c+SOA.s.c2|SubjID)+(1+SessionNum.c|SubjID)» 2. «(1+SOA.s .c+SOA.s.c2|SubjID)+(0+SessionNum.c|SubjID)` 3. `(1+SOA.s.c+SessionNum.c+SOA.s.c2|SubjID)` **سوال واقعی**: با توجه به اینکه اقدامات مکرر برای هر SubjID در طول هر یک از سه متغیر ذکر شده در بالا انجام شده است، از این سه گزینه معقول برای تست؟ به طور خاص، من نگران مدل 1 هستم، زیرا کمترین AIC و BIC را ارائه می دهد، اما به نظر می رسد یک تداخل SubjID دیگر را تخمین بزند. آیا واقعاً این همان کاری است که انجام می دهد؟ آیا این اشکالی ندارد؟ **برای مرجع**: همبستگی های اثرات تصادفی برای مجموعه اول، «(1+SOA.s.c+SOA.s.c2|SubjID)+(1+SessionNum.c|SubjID)»، به این صورت است: AIC BIC logLik انحراف 38284 38466 -19121 38242 اثرات تصادفی: واریانس نام گروه ها Std.Dev. Corr SubjID (Intercept) 2.687227 1.63928 SOA.s.c 39.713777 6.30189 0.968 SOA.s.c2 16.853598 4.10531 -0.984 -0.984 -0.995 Subcept (0.984 -0.995) 0.47347 تعداد جلسه .c|SubjID)`، به نظر می رسد این: AIC BIC logLik انحراف 38307 38472 -19134 38269 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr SubjID (Intercept) 2.939991 1.71464 SOA.s.c 40.131292 6.33493 0.932 SOA.s.c2 15.941733 3.99271 -0.941 -0.941 -0.9306SeIDs.996Num 0.25839 همبستگی های اثرات تصادفی برای مجموعه دوم، «(1+SOA.s.c+SOA.s.c2+SessionNUm.c|SubjID)»، به این صورت است: AIC BIC logLik انحراف 38286 38477 -19121 38242 Ran نام گروه ها Variance Std.Dev. Corr SubjID (Intercept) 2.98820 1.72864 SOA.s.c 39.85077 6.31275 0.932 شماره جلسه -0.947 -0.995 -0.052 | آیا در هنگام استفاده از lmer، اگر در فاکتورهای گروه بندی جداگانه مشخص شده باشد، یک برش تصادفی بیش از یک بار تخمین زده می شود؟ |
66847 | این دقیقا به چه معناست؟  منبع تصویر من در مورد قسمت دارای z-score کمی گیج هستم. به نظر می رسد هنگام آزمایش فرضیه مهم باشد. | در مورد معنای قانون سردرگم است |
11064 | در تعدادی از بسته های آماری از جمله SAS، SPSS و شاید موارد دیگر، گزینه ای برای سرکوب رهگیری وجود دارد. چرا می خواهید این کار را انجام دهید؟ | چرا باید رهگیری را در رگرسیون خطی سرکوب کرد؟ |
66848 | من یک مجموعه داده با دو فایل دارم، یکی با داده های نتیجه، که برخی از آنها گم شده اند، و دیگری با داده های جمعیتی، که برخی از آنها چند برابر شده است. من میخواهم دادههای جمعیتشناختی را در مدل اساسی خود لحاظ کنم، بنابراین باید آنها را نیز در مدل انتساب خود لحاظ کنم. من هرگز دادههایی را ندیدهام که در مدل انتساب بعدی گنجانده شده باشند، اما هرگز پیشبینیکنندههایی را برای مدل اساسی ندیدهام که از مدل انتساب حذف شده باشد. چگونه این معضل را حل می کنید؟ | انتساب با استفاده از داده های منتسب |
89448 | من میخواهم مدل پروبیت زیر را تخمین بزنم $employed_t=\beta_1 سن + \beta_2 سن^2$ و از کد Stata probit employed c.age##c.age استفاده میکنم. age$ از جمله اثر از طریق اصطلاحات درجه دوم اگر در مدل گنجانده شود (نگاه کنید به: چگونه یک مدل پروبیت را در Stata تفسیر کنم؟). چگونه می توانم اثر حاشیه ای را برای عبارت های درجه دوم $age^2$ بدست بیاورم؟ آیا این روش صحیح است؟ `probit employed c.age##c.age` `sum سن` `local m=r(mean)` `local x1 _b[c.age]*'m'+_b[c.age#c.age]* 'm'+_b[_cons]' `nlcom 2*normd('x1')*_b[c.age#c.age]-('x1')*normd('x1')*(_b[c.age]+2*_b[c.age#c .سن]*'r')` | اثر حاشیه ای متغیر مربع در مدل پروبیت |
11178 | > **تکراری احتمالی:** > رگرسیون لجستیک در R (نسبت شانس) من باید یک رگرسیون لجستیک در R انجام دهم. متغیر پاسخ من 'surv=0' است. surv=1 و من حدود 18 متغیر پیش بینی دارم. پس از مطالعه مدل خود، جدول ضرایب زیر را دریافت کردم و باید مراحلی را طی کنم که با آنها آشنا نیستم تا به نسبت های شانس برسم. این اولین بار است که یک رگرسیون لجستیک در R انجام می دهم و کمک شما قابل قدردانی خواهد بود. فراخوانی: glm(formula = surv ~ as.factor(tdate) + as.factor(line) + as.factor(wt) + as.factor(crump) + as.factor(pind) + as.factor(pcscore) + as.factor(ptem) + as.factor(pshiv) + as.factor(pincis) + as.factor(presp) + as.factor(pmtone) + as.factor(pscolor) + as.factor(ppscore) + as.factor(pmstain) + as.factor(pbse) + as.factor(psex) + as.factor(pgf)، خانواده = دو جمله ای (پیوند = logit)، داده = ap) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -1.9772 -0.5896 -0.4419 -0.3154 2.8264 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -0.59796 0.27024 -2.213 0.026918 * as.factor(tdate)2009-09-08 0.43918 0.19876 2.210 0.0271 *0.0271 as.factor(tdate)2009-09-11 0.27613 0.20289 1.361 0.173514 as.factor(tdate)2009-09-15 0.58733 0.19232 3.054 0.0259 ** as.factor(tdate)2009-09-18 0.52823 0.20605 2.564 0.010360 * as.factor(tdate) 2009-09-22 0.45661 0.19929 2.291 0.01954 *2.291 0.0 as.factor(tdate)2009-09-25 -0.09189 0.21740 -0.423 0.672526 as.factor(tdate)2009-09-29 -0.15696 0.28369 -0.553 0.587 0.550 as.factor(tdate)2010-01-26 1.39260 0.21049 6.616 3.69e-11 *** as.factor(tdate) 2010-01-29 1.67827 0.21099 7.9054-15 *** 1. as.factor(tdate)2010-02-02 1.35442 0.21292 6.361 2.00e-10 *** as.factor(tdate)2010-02-05 1.36856 0.21439 6.383-107. as.factor(tdate)2010-02-09 1.18159 0.21951 5.383 7.33e-08 *** as.factor(tdate) 2010-02-12 1.40457 0.22001 6.3384 107 *** as.factor(tdate)2010-02-16 1.01063 0.21783 4.639 3.49e-06 *** as.factor(tdate)2010-02-19 1.54992 0.21535 7.197-131 *** as.factor(tdate)2010-02-23 0.85695 0.33968 2.523 0.011641 * as.factor(line)2 -0.26311 0.07257 -3.625 0.000288 0.000288 *** 1.61 6.06. 0.606 0.544387 as.factor(line)6 -0.30409 0.12130 -2.507 0.012176 * as.factor(wt)2 -0.33904 0.10708 -3.166 0.00154 - 0.00154 0.00154 - 2.504 0.13217 -2.192 0.028359 * as.factor(wt)4 -0.50470 0.16264 -3.103 0.001915 ** as.factor(wt)5 -0.74870 0.20067 -3.091mp as.20067 -0.731 0.07537 0.10751 0.701 0.483280 as.factor(crump)3 -0.14050 0.13217 -1.063 0.287768 as.factor(crump)4 -0.20131 0.1226894 - 0.122689 as.factor(crump)5 -0.23963 0.20778 -1.153 0.248803 as.factor(pind)2 -0.29893 0.10752 -2.780 0.005434 ** as.factor(pind)3 -0.408 -0.3838 0.001027 ** as.factor(pind)4 -0.73021 0.14947 -4.885 1.03e-06 *** as.factor(pind)5 -0.68878 0.17650 -3.902 9.52e-02 9.52e-05 ***c.5 -06. 0.13606 -3.871 0.000108 *** as.factor(ptem)2 -0.72600 0.08964 -8.099 5.52e-16 *** as.factor(ptem)3 -0.79145 0.10503-4.83 -1. ) 4 -0.89956 0.10331 -8.707 < 2e-16 *** as.factor(ptem)5 -0.90181 0.10721 -8.412 < 2e-16 *** as.factor(pshiv)2 0.25236 ** 0.02018 0.0771 as.factor(pincis)2 0.02327 0.07216 0.323 0.747041 as.factor(presp)2 0.43746 0.11598 3.772 0.000162 *** as.factor(pmtone) 1.8315150. 0.002016 ** as.factor(pscolor)2 0.53469 0.26851 1.991 0.046443 * as.factor(ppscore)2 0.25664 0.08751 2.933 0.003361 0.003361 0.003361 0.003361 (s **86 pm) 0.84408 -0.576 0.564611 as.factor(pbse)2 -0.28248 0.07335 -3.851 0.000117 *** as.factor(psex)2 -0.18240 0.06385 0.06385 -2.04p as. 0.10329 0.14314 0.722 0.470554 as.factor(pgf)21 -0.06481 0.10772 -0.602 0.547388 0.547388 as.factor(pgf)22 ** 0.395704 0.395704 0.101 as.factor(pgf)31 0.18820 0.10082 1.867 0.061936. as.factor(pgf)32 0.39662 0.13963 2.841 0.004504 ** as.factor(pgf)41 0.09178 0.10413 0.881 0.378106 as.factor(pgf20.6016450440.10. 1.413 0.157787 --- Signif. کدها: 0 *** 0.001 ** | نحوه تفسیر جدول ضرایب رگرسیون لجستیک با استفاده از تابع glm در R |
114526 | من یک تحلیل رگرسیون چندگانه روی یک مجموعه داده اجرا می کنم. من مجموعه داده های خود را به سه زیر مجموعه مختلف با اندازه های مختلف تقسیم کردم، بنابراین اکنون بهترین مدل را از هر سه زیر مجموعه دارم. اما باید از بین این سه مدل بهترین مدل را پیدا کنم. کد anova کار نمی کند زیرا مدل ها تعداد مشاهدات متفاوتی دارند. چه کاری می توانم انجام دهم؟ | مقایسه دو مدل رگرسیون خطی با اندازه های مختلف |
80559 | متغیرها: lprice = log (قیمت خانه) ldist = log (فاصله از زباله سوز) lintst = log (فاصله از بین ایالتی) ** رگرسیون 1**  **رگرسیون دوم:**  در رگرسیون دوم _lintstsq_ را وارد کردم که مجذور _lintst_ از رگرسیون 1 است و ناگهان _ldist_ و _lintst_ معنی دار می شوند و ضرایب آنها تغییر می کند. این منطقی نیست، چگونه بسته آماری نمی تواند بفهمد که _lintst_ قابل توجه است تا زمانی که شکل مربع آن، _lintstsq_ را وارد نکنم؟ آیا کسی می تواند بینشی در این مورد ارائه دهد؟ **نظر استاد من در این مورد این بود: ** > این منطقی است. نزدیک بودن به بین ایالتی مفید است، به خصوص برای > مسافرانی که از بین ایالتی برای رسیدن به محل کار استفاده می کنند. اما نزدیک بودن بیش از حد به دلیل سر و صدا و آلودگی خوب نیست. اگر فاصله از محل زباله سوز > و فاصله تا منطقه بین ایالتی همبستگی داشته باشند، باید مشخصات مدل > را با توجه به دومی درست به دست آوریم تا بتوانیم اثر > اولی را شناسایی کنیم. که کمک زیادی به توضیح نمی کند (یا اینطور است؟) | چرا فرم عملکردی در هنگام تعیین مدل ها بسیار مهم است؟ |
58709 | من یک مدل اقتصادی نظری دارم که به شرح زیر است، $$ y = a + b_1x_1 + b_2x_2 + b_3x_3 + u $$ بنابراین تئوری می گوید که برای تخمین $y$ عوامل x_1$، $x_2$ و $x_3$ وجود دارد. اکنون دادههای واقعی را دارم و باید b_1$، $b_2$، $b_3$ را تخمین بزنم. مشکل این است که مجموعه داده های واقعی فقط حاوی داده هایی برای $x_1$ و $x_2$ می باشد. هیچ داده ای برای $x_3$ وجود ندارد. بنابراین مدلی که من میتوانم آن را جا بزنم واقعاً این است: $$y = a + b_1x_1 + b_2x_2 + u$$ * آیا تخمین زدن این مدل خوب است؟ * آیا با برآورد آن چیزی از دست می دهم؟ * اگر من $b_1$، $b_2$ را تخمین بزنم، پس عبارت $b_3x_3$ کجا می رود؟ * آیا با عبارت خطای $u$ محاسبه می شود؟ و ما می خواهیم فرض کنیم که $x_3$ با $x_1$ و $x_2$ همبستگی ندارد. | تخمین $b_1 x_1+b_2 x_2$ به جای $b_1 x_1+b_2 x_2+b_3x_3$ |
89444 | من در مدل سازی آماری جدید هستم و سعی می کنم یک داده مالی را با رگرسیون لجستیک مدل کنم و در اینجا با یک چالش روبرو هستم. 1. برخی از متغیرهای پیش بینی دارای مقادیر صحیح (منفی، صفر و مثبت) هستند. چگونه با آنها رفتار کنم؟ در مدرسه اساتید از داده های منفی در تدریس استفاده نمی کنند. 2. متغیر وابسته (باینری) حدود 97 درصد صفر و 3 درصد یک دارد و من در حال مدل سازی موردی هستم که متغیر وابسته 1 باشد. از آنجایی که صفرها بسیار است، آیا نمونه معقولی (مثل 2/3) می گیرم. )از داده ها به طوری که نسبت یک ها به صفرها مثلاً 1:3 باشد؟ | مدل سازی داده ها با رگرسیون لجستیک |
64006 | من تحلیل خوشهای را انجام دادهام و اکنون میخواهم میانگینها را بین متغیرها در خوشههای مختلف مقایسه کنم. متغیرهای مورد نظر سن و هزینه به میلیون دلار است. متغیر سن از توزیع نرمال پیروی نمی کند: در نتیجه، من آزمایش من ویتنی را در نظر داشتم. هزینههای میلیونها دلاری، فرض برابری واریانسها را نادیده میگیرد. با بیان این موضوع، اگرچه به نظر میرسد همه آزمایشها نشان میدهند که سن از توزیع طبیعی پیروی نمیکند، من در مورد میزان آن کاملاً مطمئن نیستم.  هیستوگرام سن در خوشه 1  هیستوگرام سن در خوشه 2  نمودار جعبه سن در خوشه 1  باکس نمودار سن در خوشه 2 پیشنهاد شده است از آزمون من ویتنی در این مورد استفاده شود، با توجه به اینکه فرض نرمال بودن است. ملاقات نشد. 1. آیا Mann Whitney با داده های پیوسته خوب کار می کند؟ به نظر می رسد این پیوند نشان می دهد که چنین است. آیا SPSS به طور خودکار اینها را به رتبه تبدیل می کند؟ 2. زیمرمن استدلال می کند که آزمون t باید خوب کار کند، زیرا به ندرت تحت تأثیر غیرعادی بودن جمعیت قرار می گیرد! 3. Sheskin (2007) استفاده از آزمون t را به هر حال پیشنهاد می کند اما از یک رویکرد محافظه کارانه تر استفاده می کند (مثلاً مقادیر بحرانی t(0.01) به جای t(0.05). چگونه می توانم این مشکل را حل کنم؟ | من ویتنی یا آزمون تی برای مقایسه سن و هزینه پس از خوشه بندی |
15947 | خوب، بیایید دوباره تلاش کنیم. زمینه سوال اصلی در زیر آورده شده است، اما شاید تمرکز بر جنبه آماری برای دریافت پاسخ کمک کند. چیزی که من به دست آوردم تعدادی اندازه گیری در واحد _t_ است. این اندازهگیریها در حالی انجام میشوند که تعداد بیشتری از متغیرها را تغییر میدهند. تأثیر این متغیرها ناشناخته است و باید با تفسیر اندازهگیریها مشخص شود. از آنجایی که اندازهگیریها به اعداد مطلق هستند و متغیر _e_ آزمایشها معمولاً متغیر اصلی علاقهمند است، که تنها دو مقدار دارد، من تمایل دارم نسبت اندازهگیریها را بر اساس _e_ محاسبه کنم. استفاده از نسبت به من امکان می دهد تا تأثیر سایر متغیرها را بر روی _t_ مقایسه کنم. حال سوال این است: چگونه نسبت را به درستی محاسبه کنیم؟ کاری که من در ابتدا انجام دادم این بود که اندازههای _t_ را که در آن همه متغیرها برابر هستند، جفت کردم و سپس با e1 و یکی با e2 اندازهگیری کردم تا جیره محاسبه شود. با این حال، این منجر به تغییرات زیادی می شود و نتیجه به دلیل نویز زیاد مفید نیست. روش دوم این بود که همه اندازهگیریها را بر اساس _t_ مرتب کنیم و سپس e1/e2 را محاسبه کنیم. این خیلی صدا را کاهش می دهد، اما نیمه دانش من به من می گوید که این بهترین راه نیست و شاید درست نباشد. یکی از همکاران پیشنهاد کرد که به جای جفت کردن اندازه گیری های تصادفی یا مرتب شده، از محصول دکارتی استفاده شود. به نظر می رسد که ماهیت تصادفی دو اندازه گیری دلخواه را که برای مقایسه با هم جفت شده اند، بهتر توضیح دهد. اما، من هنوز میدانم که آیا این درست است یا رویکردهایی با پشتوانه نظری در جامعه وجود دارد. هر گونه اشاره به رویکردهای نحوه کار با و نحوه تولید چنین نسبت هایی به روش صحیح بسیار استقبال می شود. ## زمینه و مورد استفاده برای ارائه کمی زمینه، من عملکرد ماشینهای مجازی (VM) یا نرمافزار سیستمها را به طور کلی اندازهگیری میکنم و معمولاً میخواهم بهینهسازیهای مختلف را برای مشکل عملکرد مقایسه کنم. عملکرد در زمان اجرا مطلق برای تعدادی معیار اندازه گیری می شود، و معمولاً برای تعدادی از پیکربندی های یک ماشین مجازی که بر روی تعداد هسته های استفاده شده CPU، پارامترهای مختلف بنچمارک، و غیره تغییر می کند. بنابراین، من با تعداد زیادی اندازه گیری برای همه نوع پارامترهای مختلف که معمولاً علاقه مند به افزایش سرعت همه آنها هستم، VM را با VM و VM بدون بهینه سازی خاص مقایسه می کنم. کاری که من در حال حاضر انجام می دهم این است که یک سری مشخص از اندازه گیری ها را انتخاب کنم. بیایید بگوییم اندازهگیریهای یک ماشین مجازی با و بدون بهینهسازی (VM-norm/VM-opt) در حال اجرا معیار A، روی 1 هسته. از آنجایی که میخواهم نتایج معیارهای مختلف و تعداد هستهها را با هم مقایسه کنم، نمیتوانم از زمان اجرا مطلق استفاده کنم، اما باید به نوعی آن را عادی کنم. بنابراین، من 100 اندازه گیری را برای معیار A در 1 هسته برای VM-norm با 100 اندازه گیری مربوط به VM-opt جفت می کنم تا نسبت VM-opt/VM-norm را محاسبه کنم. وقتی این کار را انجام میدهم و اندازهگیریها را به ترتیبی که آنها را انجام میدهم انجام میدهم، بدیهی است که تغییرات بسیار زیادی در 100 نسبت VM-opt/VM-norm حاصل شده دارم. بنابراین، من فکر کردم، خوب، بیایید فرض کنیم که تغییر در اندازهگیریهای من ناشی از اثرات غیر قطعی است و همان اثرات باعث تغییر به همان روش برای VM-opt و VM-norm میشوند. بنابراین، ساده لوحانه، باید اندازهگیریها را قبل از جفت کردن آنها مرتب کنیم. و همانطور که انتظار می رود، این تنوع البته را کاهش می دهد. | چگونه یک توزیع نسبت از نمونه ها ایجاد کنیم؟ |
114527 | از آزمون Shapiro-Wilk میبینم که پاسخها به آیتمهای Likert (4 امتیازی) به طور معمول توزیع نمیشوند، اگرچه نمودارهای Q-Q تقریباً نرمال بودن را نشان میدهند. من تجزیه و تحلیل PCA را روی آن موارد انجام دادهام و سردرگم هستم که اگر دادهها به طور معمول توزیع نشده باشند، آیا انجام این کار خوب است یا خیر. چگونه کاربرد PCA و اعوجاج این فرض نرمال بودن را استدلال کنیم؟ آیا می توان از نمودارهای Q-Q فقط برای استدلال استفاده کرد؟ نمونه من 1275 است. من قصد دارم تجزیه و تحلیل خوشهای بیشتری انجام دهم، بنابراین نمیخواهم تغییراتی در دادهها ایجاد کنم. | فرض نرمال بودن در PCA |
17897 | در مقالهای که اخیراً درباره معایب تکیه بر مقدار p برای استنتاج آماری بحث میکند، به نام «ماتریکس در مقابل سیراکوزانو و دانشآموز در برابر فیشر اهمیت آماری در آزمایش» (DOI: 10.1111/j.1740-9713.2011.00511.x)، استفان تی زیلیاک با استفاده از مقادیر p مخالف است. در پاراگرافهای پایانی میگوید: > دادهها تنها چیزی است که ما قبلاً میدانیم و به طور قطع. آنچه ما واقعاً میخواهیم بدانیم چیزی کاملاً متفاوت است: با توجه به دادههایی که در اختیار داریم، احتمال درست بودن یک فرضیه (یا حداقل از نظر عملی مفید) است. با توجه به شواهد موجود، میخواهیم احتمال متفاوت بودن این دو دارو را بدانیم. آزمون معناداری - بر اساس > بر اساس مغالطه شرطی جابجا شده، دامی که فیشر > در آن افتاد - این احتمال را به ما نمی گوید و نمی تواند. _ تابع power >، تابع ضرر مورد انتظار، و بسیاری دیگر از روش های تئوری تصمیم گیری و > بیزی که از Student و Jeffreys که اکنون به طور گسترده در دسترس > و رایگان آنلاین هستند، انجام می دهند. _ تابع توان، تابع ضرر مورد انتظار و سایر روشهای تصمیمگیری نظری و بیزی؟ آیا این روشها به طور گسترده در R استفاده میشوند و در دسترس هستند؟ این روشهای پیشنهادی جدید چگونه پیادهسازی میشوند؟ به عنوان مثال، چگونه میتوانم از این روشها برای آزمایش فرضیهام استفاده کنم. مجموعه داده من در غیر این صورت از آزمون های t 2 نمونه ای معمولی و p-values استفاده می کنم؟ | جایگزینی برای مقادیر p در R؟ |
103535 | یک الگوریتم خوشهبندی بیزی که من استفاده میکنم، یک گروه را برای هر نمونه ورودی اختصاص میدهد. برای دانه های تصادفی مختلف نتایج متفاوتی به دست می آید و برچسب گذاری هر گروه متفاوت است. میخواهم بدانم آیا رویکرد بهینهای برای انتخاب برچسبگذاری مجدد برای مثلاً 10 اجرا وجود دارد که بیشترین تطابق را در سراسر اجراها برای یک گروه نمونه ایجاد کند. مجموعه داده نمونه R: data.frame(one=c(A، A، A، B، B، B)، two=c(B،B، ب، «ب»، «الف»، «الف»)، سه=ج(«ب»، «الف»، «الف»، «ب»، «ب»، «الف»)) در این مورد فقط برچسب زدن مجدد باید در اجرای دوم با B<=>A انجام شود. احتمالاً در بیشتر موقعیتها بیش از یک راهحل وجود دارد، اما من خوشحال میشوم که فقط یک راهحل بهینه را بهطور تصادفی دریافت کنم. | بهترین رویکرد برای برچسب زدن مجدد برای ایجاد بیشترین تطابق |
61317 | من از توابع tbats و bats استفاده می کنم و باید کار اشتباهی انجام دهم. من از دستور زیر برای Holt-Winters استاندارد با bats/tbats استفاده می کنم اما با خطا مواجه می شوم. tbats(y = داده، use.box.cox = FALSE، use.trend = TRUE، use.damped.trend=FALSE، seasonal.periods = 24، use.arma.errors = FALSE) این خطا ایجاد شده است: خطا در 1 :nrow(control.array): آرگومان طول 0 وقتی از خفاش استفاده می کنم همین اتفاق می افتد. اما وقتی از دستور بالا بدون استفاده از use.damped.trend=FALSE استفاده میکنم، پاسخ را دریافت میکنم. مشکل اینجاست که مقدار $\alpha=1.4$ است که به نظر من اشتباه است. | تبات ها و خفاش ها خطا می دهند |
28849 | فرض کنید مجموعه ای از داده ها به شکل $(y,x_{1},x_{2},\cdots, x_{n})$ و $(y,x_{1},x_{2},\) به ما داده شده است. cdots، x_{n-1})$. ما وظیفه داریم $y$ را بر اساس مقادیر $x$ پیش بینی کنیم. ما دو رگرسیون را تخمین می زنیم که در آن: $$ \begin{aligned} y&=f_{1}(x_{1},\cdots, x_{n-1}, x_{n}) \\\ y&=f_{2}( x_{1},\cdots, x_{n-1}) \end{aligned} $$ ما همچنین رگرسیونی را تخمین می زنیم که مقادیر $x_{n}$ را بر اساس مقادیر $(x_{1}،\cdots، x_{n-1})$، یعنی: $$ x_{n}=f_{3}(x_{1}،\cdots، x_{n-1} ) $$ فرض کنید اکنون به ما مقادیر $(x_{1},\cdots, x_{n-1})$ داده شده است، سپس ما دو روش مختلف برای پیشبینی $y$ خواهیم داشت: $$ \begin{تراز شده} y&=f_{1}(x_{1},\cdots, x_{n-1},f_{3}(x_{1},\cdots,x_{n-1})) \\ \ y&=f_{2}(x_{1}،\cdots، x_{n-1}) \end{aligned} $$ کدام یک به طور کلی بهتر است؟ حدس می زنم که معادله اول بهتر باشد زیرا از اطلاعات دو شکل نقطه داده استفاده می کند در حالی که معادله دوم از اطلاعات تنها از نقاط داده ای استفاده می کند که دارای مقادیر پیش بینی $n-1$ هستند. آموزش من در زمینه آمار محدود است و بنابراین مایلم به دنبال مشاوره حرفه ای باشم. همچنین به طور کلی بهترین رویکرد برای داده هایی که اطلاعات ناقص دارند چیست؟ به عبارت دیگر، چگونه میتوانیم بیشترین اطلاعات را از دادههایی استخراج کنیم که مقادیری در همه ابعاد $n$ ندارند؟ | رگرسیون چندگانه با متغیر پیش بینی گمشده |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.