_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
105298 | من در حال تایید یک مدل رگرسیون لجستیک هستم. این اولین بار است که یک مدل را تأیید می کنم. من از روش نمونه گیری تقسیم شده استفاده می کنم. من داده ها را به طور تصادفی به دو بخش تقسیم کرده ام - 70٪ توسعه و 30٪ مجموعه داده های اعتبار (70:30). سپس رگرسیون لجستیک را روی مجموعه داده های توسعه با استفاده از SAS اجرا می کنم و احتمالات آنها را به ترتیب نزولی رتبه بندی می کنم و داده ها را به 10 گروه (دهک) تقسیم می کنم. درصد پاسخ ها را در دهک های بالا بررسی کنید. سوال من - آیا قانون سرانگشتی برای ارزیابی مدل بر اساس درصد پاسخ ها در 3 تا 4 دهک بالا وجود دارد؟ شخصی گفت 3 دهک برتر باید حداقل 65 درصد پاسخ ها را پوشش دهند. آیا درست است؟ من Hosmer و Lemeshow Goodness-Fit-Test را بررسی کرده ام. من معادله ای شامل رهگیری و ضرایب به دست آمده از مجموعه داده توسعه را فرموله کرده ام و آن را بر روی مجموعه داده اعتبارسنجی اجرا می کنم. کد زیر برای مرجع نشان داده شده است - Data validation_Output; Set validation_Set; resp_xb1= -1.3844+(1.4708) _A_Flg+(2.9829)_ B_Flg+(.0317)* C + (-0.2372)*D +(-0.3359)*E; expres1=exp(resp_xb1); p_resp1=exppres1/(1+exppres1); اجرا؛ سپس PROC RANK و PROC SQL را اجرا کنید تا دهک ها را در مجموعه داده اعتبارسنجی محاسبه کنید. من در مجموعه های توسعه و اعتبارسنجی امتیاز دهک دارم. آیا متغیرهای مهم در هر دو مجموعه داده باید یکسان باشند؟ یا هماهنگ؟ | اعتبارسنجی مدل رگرسیون لجستیک |
30429 | من کمی در مورد بوت استرپینگ تحقیق کردهام، زیرا یکی از روشهای اجرای آن به من گفته شده است، و به نظر میرسد که این با آنچه در منابع دیگر پیدا میکنم متفاوت است. من یک نمونه دارم و می خواهم میانگین یا میانه را تخمین بزنم. من 1000 نمونه مجدد تولید می کنم، بدون جایگزینی، با محاسبه میانگین/میانگین برای هر کدام. با گرفتن 26 بزرگترین و 26 کوچکترین میانگین/میانگینی که محاسبه می کنم، یک فاصله اطمینان به دست می آید. منابعی که من خوانده ام به نظر می رسد آن را به همان اندازه رها می کنند. با این حال، روشی که به من گفته شد یک قدم فراتر رفت - عرض این بازه را محاسبه میکند، سپس بازه جدیدی ایجاد میکند که حول میانگین/میانگین نمونه اصلی من متمرکز است. بنابراین، اگر میانگین اولیه من 20 بود، و بوت استرپینگ فاصله زمانی [17،27] را به من میدهد، آن را تغییر میدهد تا فاصله اطمینان نهایی [15،25] ارائه شود. آیا این منطقی است / پشتوانه آماری دارد؟ یا این یک اشتباه است؟ | تغییر فاصله اطمینان بوت استرپ برای تمرکز حول پارامتر اصلی |
33887 | من میخواهم R دادههایی را که از تابع «summary()» به من میدهد در یک جدول نمایش دهد تا بتوانم آن را به راحتی به اشتراک بگذارم. من در حال حاضر فقط «خلاصه()» را در کنسول انجام میدهم و سپس یک اسکرین شات میگیرم، اما ترجیح میدهم که این جدول مانند همه نمودارهای من به عنوان یک جدول خوب تولید شود. هر ایده ای؟ | چگونه جدول خلاصه خوبی ایجاد کنیم؟ |
58959 | من خواندهام که الگوریتم k-means سعی میکند مجموع مربعهای درون خوشهای (یا واریانس) را به حداقل برساند. با کمی طوفان فکری، یک سوال مطرح شد. چرا k-means یا هر الگوریتم خوشهبندی دیگری که **در داخل واریانس خوشه** را به عنوان هدف کمینه کردن دارد، این تابع هدف را برای کمینه کردن انتخاب کرد؟ **در واریانس خوشه** چه چیزی به شما کمک می کند تصمیم بگیرید که این همان چیزی است که می خواهید در هنگام خوشه بندی تمرکز کنید؟ - و به خصوص خوشه بندی؟ بگذارید سوال را به شکل دیگری مطرح کنم (این سوال می تواند یک سوال فرعی یا روش دیگری برای طرح همان سوال باشد). چرا می گویید که حداقل کردن **در واریانس خوشه** روش صحیح خوشه بندی است (با اشاره به الگوریتم هایی که آن را به حداقل می رساند)؟ آیا توابع هدف دیگری وجود دارد که بتوان آنها را برای خوشه بندی به حداقل رساند (یا حداکثر یا هر چیز دیگری) کرد؟ | چرا الگوریتم k-means واریانس درون خوشه ای را به حداقل می رساند؟ |
1257 | فرآیند تولید داده های متوالی و تطبیقی زیر را برای $Y_1$، $Y_2$، $Y_3$ در نظر بگیرید. (منظورم از ترتیبی این است که $Y_1$، $Y_2$، $Y_3$ را به ترتیب تولید می کنیم و منظورم از تطبیقی این است که $Y_3$ بسته به مقادیر مشاهده شده $Y_1$ و $Y_2$ تولید می شود.): $Y_1 = X_1 \ \بتا + \epsilon_1$Y_2$ = X_2\ \بتا + \epsilon_2$Y_3$ = X_3\ \beta + \epsilon_3$ X_3 $ = \begin{cases} X_{31} & \mbox{if }Y_1 Y_2 \gt 0 \\\ X_{32} & \mbox{if }Y_1 Y_2 \le 0 \end{ موارد}$ جایی که، $X_1$، $X_2$، $X_{31}$ و $X_{32}$ همه 1 x هستند 2 بردار. $\beta$ یک بردار 2 x 1 $\epsilon_i \sim N(0,\sigma^2)$ است برای $i$ = 1, 2, 3 فرض کنید دنباله زیر را مشاهده می کنیم: {$Y_1 = y_1,\ Y_2 = y_2، \ X_3 = X_{31}، \ Y_3 = y_3$} و مایل به تخمین پارامترهای $\beta$ و $\sigma$. برای نوشتن تابع درستنمایی توجه داشته باشید که ما چهار متغیر تصادفی داریم: $Y_1$، $Y_2$، $X_3$ و $Y_3$. بنابراین، چگالی مشترک $Y_1$، $Y_2$، $X_3$ و $Y_3$ به دست می آید: $f(Y_1, Y_2, X_3, Y_3 |-) = f(Y_1|-)\ f(Y_2| -)\ [\ f(Y_3|X_{31},-)\ P(X_3=X_{31}|-)$\qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad + \ f(Y_3|X_{32},-)\ P(X_3={X_{32}}|-)\ ]$ (توجه: من وابستگی چگالی را به $\beta$ و $\sigma$ سرکوب میکنم.) شرایط احتمال در داده های مشاهده شده و توالی ما به گونه ای است که $y_1 y_2 >0$. بنابراین، داریم: $L(\beta،\ \sigma | X_1،\ X_2،\ X_{31}، y_1، y_2، y_3) = f(Y_1|-)\ f(Y_2|-)\ f(Y_3 |X_{31},-)\ P(X_3=X_{31}) $ آیا تابع احتمال صحیح برای این فرآیند تولید داده است؟ | تابع احتمال صحیح برای فرآیند تولید داده های متوالی و تطبیقی چیست؟ |
57422 | من سعی می کنم پیش بینی کننده های مهم را برای متغیر پاسخ خود Y جدا کنم. من می دانم که TL (که یک پیش بینی کننده سطح فردی است) روی Y تأثیر می گذارد، و اکنون می خواهم تعیین کنم که آیا افزودن پیش بینی کننده های سطح سایت PC1 و PC4 (هر دو متغیر پیوسته) برازش مدل را بهبود می بخشد یا خیر. داده ها به این صورت است: Y TL PC1 PC4 Site 5.6 17 -2.26 1.89 Site A 5.9 19 -2.26 1.89 Site A 5.2 20 -2.26 1.89 Site A 4.0 17 -1.56 2.35 Site B19. 5.6 18 -1.56 2.34 سایت B به طور کلی تقریباً من دارم. 15 نمونه در سیزده سایت. در اینجا سه مدلی وجود دارد که من راهاندازی کردم: model1<-lmer(Y~ TL + (1 + TL | Site)، data=sauro.all) #(بدون پیشبینیکننده سطح سایت) model2<-lmer(Y ~ TL + PC1 + (1 + TL |. Site)، data=sauro.all) #PC1 به عنوان پیش بینی سایت) model3<-lmer(Y ~ TL + PC4 + (1 + TL | سایت)، data=sauro.all) #PC4 بهعنوان پیشبینیکننده سطح سایت خلاصه مدل 1: مدل ترکیبی خطی متناسب با حداکثر احتمال فرمول: Y ~ TL + (1 + TL | سایت) داده: sauro.all AIC BIC logLik انحراف REMLdev 400.5 419.6 - 194.3 388.5 395.4 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr Site (Intercept) 0.24335394 0.493309 TL 0.00043485 0.020853 1.000 Residual 0.40595113 0.637143 تعداد obs: 178 گروه: Estimxed. مقدار خطای t (Intercept) -16.84997 0.41581 -40.52 TL 0.10890 0.02012 5.41 همبستگی اثرات ثابت: (Intr) TL -0.803 خلاصه مدل 2: خطی مدل مختلط (برای مدل ترکیبی خطی متناسب با حداکثر 1 + 1 PC) ) داده ها: sauro.all AIC BIC logLik انحراف REMLdev 396.3 412.2 -193.1 386.3 395.1 اثرات تصادفی: نام گروه ها Variance Std.Dev. Site (Intercept) 0.67023 0.81868 Residual 0.40740 0.63828 تعداد obs: 178 گروه: Site, 13 Fixed effect: Estimate Std. مقدار خطای t (Intercept) -16.89643 0.45413 -37.21 TL 0.11022 0.01927 5.72 PC1 -0.32754 0.17083 -1.92 همبستگی جلوه های ثابت: (Intr.8 -04 TL504 -1 TL504) ... و خلاصه مدل 3: مدل خطی مختلط متناسب با حداکثر احتمال فرمول: Y ~ TL + PC4 + (1 + TL | سایت) داده: sauro.all AIC BIC logLik انحراف REMLdev 399 421.2 -192.5 385 393.3 اثرات تصادفی: گروه ها نام واریانس Std.Dev. Corr Site (Intercept) 0.13411114 0.366212 TL 0.00044998 0.021213 1.000 Residual 0.40582841 0.637047 تعداد obs: 178، گروه Estim: Sitexd. مقدار خطای t (Intercept) -16.83238 0.40527 -41.53 TL 0.11003 0.02016 5.46 PC4 -0.45466 0.22571 -2.01 همبستگی اثرات ثابت: (Intr. مدل 2 کمترین امتیاز AIC را دارد بنابراین فکر می کنم این بهترین مدل است. من با تفسیر مشکل دارم سوالات من این است: *چگونه سهم PC1 به model2 را بدون مقادیر p تفسیر کنم؟ *این تجزیه و تحلیل به من می گوید چگونه PC1 بر رهگیری (Y~TL) در بین سایت ها تأثیر می گذارد، درست است؟ با این حال، شیب این رابطه نیز می تواند با PC1 متفاوت باشد. چگونه این را بررسی کنم؟ *بهترین راه برای تجسم مدل lmer چیست؟ متشکرم! | چگونه می توانم یک مدل با ساختار سلسله مراتبی را با استفاده از lmer در R تنظیم کنم؟ |
83448 | از همه برای راهنمایی در مورد سوال قبلی من متشکرم. آیا می توانم یک بار دیگر در مورد موارد زیر راهنمایی دریافت کنم؟ اگر C = { خرید نقدی } و U = { مبلغ تراکنش > 200 دلار } بنابراین اگر مشتری یک پیراهن جدید با قیمت 80 دلار خریداری کند و من باید احتمال پرداخت پول نقد توسط او را پیدا کنم، آیا درست است که آن را به صورت P(C|Ū) نشان دهیم؟ قدردان هر توصیه ای باشید. پیشاپیش سپاس فراوان! =) | شناسایی شرط در احتمال شرطی P(A|B) یا P(B|A) |
83441 | فرض کنید S و C به ترتیب یک روز آفتابی و یک روز ابری را نشان دهند. فرض کنید که آب و هوا در روز داده شده تنها از طریق آب و هوا در دو روز بلافاصله قبل با توجه به احتمالات شرطی زیر به آب و هوای گذشته بستگی دارد: احتمال آفتابی بودن یک روز با توجه به اینکه دو روز بلافاصله قبل آفتابی بوده است P(S است. |S,S) = .8. احتمال آفتابی بودن یک روز با توجه به اینکه روز بلافاصله قبل آفتابی و روز قبل ابری بوده است P(S|C,S) = 0.6 است. احتمال آفتابی بودن یک روز با توجه به اینکه روز بلافاصله قبل ابری بوده است و روز قبل آفتابی بود P(S|S,C) = 0.4. به طور مشابه، P(S|C،C) = 0.1، P=(C|S،S) =.2، P(C|C،S) = 0.4، P(C|S،C) = 0.6 , P(C|C,C) = .9. اجازه دهید n = 0 نشان دهنده روز اولیه (روز 0) باشد، اجازه دهید n = 1 نشان دهنده روز اول باشد و به همین ترتیب. دو احتمال اولیه زیر را نیز می دانیم: Prob (روز اول ابری است، روز اول آفتابی است) = 0.1 و Prob (روز اول ابری است، روز اول ابری است) = 0.9. الف) احتمال ابری بودن روز دوم و سوم چقدر است؟ ب) احتمال ابری بودن روز سوم چقدر است؟ ج) احتمال ابری بودن یک روز در دراز مدت چقدر است؟ | سوال زنجیره ای مارکوف |
1815 | توصیه های پانل برای کتاب های طراحی آزمایش ها چیست؟ در حالت ایدهآل، کتابها باید هنوز چاپ شوند یا به صورت الکترونیکی در دسترس باشند، اگرچه ممکن است همیشه امکانپذیر نباشد. اگر احساس میکنید چند کلمه در مورد چیزهای خوب کتاب اضافه کنید، بسیار عالی خواهد بود. همچنین، برای هر پاسخ یک کتاب را هدف بگیرید تا رای دادن بتواند به مرتب کردن پیشنهادات کمک کند. (ویکی انجمن، لطفاً اگر می توانید آن را بهتر کنید، سؤال را ویرایش کنید!) | کتاب های پیشنهادی در مورد طراحی آزمایش؟ |
14673 | آیا معیارهایی برای تشابه یا فاصله بین دو ماتریس کوواریانس متقارن (هر دو دارای ابعاد یکسان) وجود دارد؟ من در اینجا به آنالوگ هایی برای واگرایی KL دو توزیع احتمال یا فاصله اقلیدسی بین بردارها به جز اعمال شده در ماتریس ها فکر می کنم. تصور میکنم اندازهگیریهای شباهت زیادی وجود خواهد داشت. در حالت ایده آل، من همچنین می خواهم این فرضیه صفر را آزمایش کنم که دو ماتریس کوواریانس یکسان هستند. | اندازه گیری شباهت یا فاصله بین دو ماتریس کوواریانس متقارن |
33888 | X و Y همبستگی ندارند (-.01). با این حال، هنگامی که X را در یک رگرسیون چندگانه پیشبینی کننده Y قرار میدهم، در کنار سه متغیر (A, B, C) دیگر (مرتبط) X و دو متغیر دیگر (A, B) پیشبینیکنندههای مهم Y هستند. توجه داشته باشید که دو متغیر دیگر الف، ب) متغیرها به طور قابل توجهی با Y خارج از رگرسیون همبستگی دارند. چگونه باید این یافته ها را تفسیر کنم؟ X واریانس منحصر به فرد را در Y پیش بینی می کند، اما از آنجایی که اینها همبستگی ندارند (پیرسون)، تفسیر آن به نوعی دشوار است. من موارد متضاد را می شناسم (یعنی دو متغیر با هم مرتبط هستند اما رگرسیون معنی دار نیست) و درک آنها از منظر نظری و آماری نسبتاً ساده تر است. توجه داشته باشید که برخی از پیشبینیکنندهها کاملاً همبسته هستند (به عنوان مثال، 0.70) اما نه در حدی که انتظار داشته باشم چند خطی قابل توجهی داشته باشم. هرچند شاید من اشتباه می کنم. توجه: من این سوال را قبلا پرسیدم و بسته شد. منطقی این بود که این سوال با این سوال که چگونه یک رگرسیون می تواند معنی دار باشد اما همه پیش بینی کننده ها غیر معنی دار باشند؟ اضافی است. شاید من سؤال دیگر را متوجه نشده باشم، اما معتقدم اینها سؤالات کاملاً مجزا هستند، هم از نظر ریاضی و هم از نظر تئوری. سوال من کاملاً مستقل از این است که آیا یک رگرسیون قابل توجه است یا خیر. علاوه بر این، چندین پیشبینیکننده مهم هستند، در حالی که سؤال دیگر مستلزم معنیدار نبودن متغیرها است، بنابراین من همپوشانی را نمیبینم. اگر این سؤالات به دلایلی که من متوجه نمی شوم اضافی هستند، لطفاً قبل از بستن این سؤال نظر خود را وارد کنید. همچنین، من امیدوار بودم به مدیری که سؤال دیگر را بسته بود پیام بدهم تا از سؤالات مشابه جلوگیری شود، اما گزینه ای برای انجام این کار پیدا نکردم. | X و Y همبستگی ندارند، اما X پیش بینی کننده مهم Y در رگرسیون چندگانه است. به چه معناست؟ |
27831 | همانطور که همه می دانیم، GLM ساختاری دارد: $G(EY)=X^{T}\beta$، که در آن $G(.)$ یک تابع پیوند شناخته شده است. چیزی که من را گیج می کند این است که برخی افراد می گویند که این یک مدل نیمه پارامتریک است. اما به نظر من، این یک مدل پارامتریک است، زیرا هیچ بخش ناپارامتری وجود ندارد و تمام چیزی که در ساختار previuos نمی دانیم $\beta$ است. آیا کسی می تواند به من بگوید که چرا کسی آن را یک مدل نیمه پارامتریک می نامد. با تشکر | چرا مدل خطی تعمیم یافته (GLM) یک مدل نیمه پارامتریک است؟ |
27832 | من در حال حاضر یک راه اندازی دارم که می خواهم برای آن ANOVA در spss انجام دهم. در مدل خود من باید چهار عامل را بگنجانم (آنها را factor1 تا factor4 می نامم) که هر کدام با دو حالت ممکن (درست و نادرست). با این حال همه ترکیب ها ممکن نیست. به عبارت دقیقتر، «factor4» تنها زمانی میتواند درست باشد که یکی از «factor1» یا «factor2» یا هر دو درست باشد. از این رو در مجموع من فقط 14 ترکیب ممکن را به جای 16 ترکیب دارم که از ترکیب کامل هر چهار عامل حاصل می شود. آیا ممکن است با چنین دادههایی ANOVA اندازهگیریهای مکرر انجام شود، یا باید از چیز دیگری استفاده کنم، زیرا «factor4» به طور مستقل قابل تغییر نیست؟ من سعی کردم یک ANOVA با اندازه گیری های مکرر برای این کار در رابط کاربری گرافیکی SPSS ایجاد کنم، اما نمی توانم روی OK کلیک کنم، مگر اینکه تمام 16 ترکیب را ارائه دهم، که با توجه به تنظیماتی که دارم غیرممکن است. آیا این امکان وجود دارد که در SPSS برنامه نویسی شود، شاید با وارد کردن سینتکس مستقیم؟ یا شاید راهی وجود دارد که بتوانم داده های از دست رفته را اضافه کنم، مثلاً با اضافه کردن میانگین برخی متغیرهای دیگر برای ترکیب های از دست رفته، بدون تغییر در نتیجه نهایی مدل؟ **ویرایش**: من فقط سعی کردم ترکیبات از دست رفته را با متغیرهای خالی اضافه کنم و سپس مدل را روی این مجموعه کامل از متغیرها اجرا کنم. با این حال این نیز کار نمی کند، زیرا در آن مورد SPSS فقط شکایت می کند که هیچ مورد معتبری در داده ها وجود ندارد (زیرا همه آن دو ترکیب را از دست داده اند). | نحوه انجام ANOVA اندازه گیری های مکرر با ترکیبات از دست رفته در spss |
38619 | من سه مدل نامزد پیشینی ایجاد کرده ام که عوامل را در سه مقیاس فضایی مجزا نشان می دهد. یک عامل در یک مدل با عاملی در مدل دیگر همبستگی دارد. (در ادبیات بحث در مورد اینکه کدام عامل بیشترین تأثیر را بر متغیر مستقل دارد، وجود دارد، و من نمی خواهم در مورد یک عامل بدون توجه به عامل دیگر نتیجه گیری کنم.) اما همچنین یاد گرفتم که باید مدلی جهانی ایجاد کنم که از همه عوامل استفاده کند. از همه مدل ها بنابراین، آیا ایجاد یک مدل جهانی که دارای متغیرهای همبسته باشد برای من معتبر است؟ | عوامل مرتبط در یک مدل جهانی |
33736 | اجازه دهید $X_1, X_2,\cdots,X_n$ یک نمونه تصادفی از توزیع با p.d.f $$f(x)=\frac{1}{\beta -\alpha},\alpha<x<\beta $$ باشد. جایی که $0<\alpha<\beta<\infty$. حداقل واریانس برآوردگرهای بی طرفانه $\frac{\alpha+\beta}{2}$ و $\beta-\alpha$ را بدست آورید. در اینجا من سعی می کنم از روش Rao Blackwell استفاده کنم اما قادر به حل آن نیستم. لطفا کمک کنید | برآوردگرهای بی طرفانه حداقل واریانس را بدست آورید |
33738 | من در پیش بینی سری های زمانی با SVM و Matlab مشکل دارم. من سعی کردم به روش های مختلف مشکل را به تنهایی حل کنم اما موفق نشدم. من اسکریپت های LibSVM را برای Matlab دانلود، کامپایل و نصب کردم. اما من نمی دانم چگونه داده های خود را در ورودی فرمت کنم. منظورم این است که من یک سری زمانی دارم که آرایه ای از مقادیر است، چیزی شبیه به: x=[1 2 3 4 5 6 7 8 9 10] من می خواهم از 70% بردار به عنوان دنباله آموزشی SVM استفاده کنم: x1 =[1 2 3 4 5 6 7] سپس باید سه مقدار آخر سری زمانی را پیش بینی کنم و باید خطای بین مقادیر پیش بینی شده و آرایه «[8 9 10]». من باید بفهمم: 1. چگونه پارامترهای SVM را تنظیم کنیم. اما یک اسکریپت وجود دارد که من اینجا پیدا کردم که نسخه Matlab Easy.py است. پس مشکل حل شد 2. نحوه قالب بندی سری های زمانی خود به منظور قابل قبول با easy.py (easy.m)، svmtrain و svmpredict. در وبسایت پرسشهای متداول LibSVM این روش [کد] را پیدا کردم: matlab> SPECTF = csvread('SPECTF.train'); % خواندن فایل csv matlab> labels = SPECTF(:, 1); % labels از ستون 1st matlab> features = SPECTF(:, 2:end); matlab> features_sparse = sparse(features); % ویژگی ها باید در یک ماتریس پراکنده matlab باشند> libsvmwrite('SPECTFlibsvm.train', labels, features_sparse); اما من فکر می کنم این یک رویه برای طبقه بندی است. از دیدگاه من، اگر فقط یک آرایه ساده از مقادیر داشته باشم، چگونه برچسب ها و ویژگی ها را تشخیص دهم؟ در اینجا من یک روش مشابه پیدا کردم، اما مشخص نیست که آیا اسکریپت واقعا کار می کند یا نه (من یک نسخه ترجمه شده از ورودی دریافت می کنم) آیا کسی می تواند به من کمک کند؟ | LibSVM و matlab برای پیش بینی سری های زمانی |
112074 | من یک آزمایش طراحی دو عاملی درون موضوعی را انجام میدهم، و این دو عامل همه متغیرهای طبقهبندی هستند. عامل یک دارای چهار دسته است، در حالی که عامل دو دارای دو دسته است و متوازن است. این منجر به شرایط 2*4=8 می شود. متغیر وابسته یک متغیر پیوسته مانند زمان واکنش است. دادههای من در قالب طولانی به شرح زیر است ID Trial factor1 factor2 زمان واکنش 1 1 1 1 3.142 1 2 3 1 4.543 1 3 4 1 2.456 1 4 2 1 3.433 1 5 4 0 3.142 1 4 7 243 0 1 8 1 0 3.433 ... 2 2 2 ... 50 50 ... اولین سوال من این است که آیا امکان اجرای تحلیل رگرسیون وجود دارد؟ (IV: دو متغیر طبقهبندی DV: یک متغیر پیوسته) سوال دوم من این است که آیا میتوان یک تحلیل رگرسیونی برای کل شرکتکننده (مثل 50 نفر) به عنوان یک کل به عنوان یک فرد واحد اجرا کرد؟ پیشاپیش برای کمک متشکریم | چند پیشنهاد برای تحلیل دو عاملی در طراحی موضوع؟ |
83449 | من در حال ساخت یک رگرسیون چندگانه لجستیک با 5 متغیر بالقوه هستم. من این پست را خواندم و همه 2^5 = 32 ترکیب ممکن از متغیرهای توضیحی را در نظر گرفتم و بهترین مدل را توسط AIC انتخاب کردم. با این حال، مدل بهترین هیچ متغیر قابل توجهی را شامل نمی شود در حالی که برخی از مدل های دیگر (با AIC بالاتر) دارای متغیرهای معنی داری هستند. من آمارگیر نیستم و نمی فهمم چرا چنین وضعیتی وجود دارد. از شما برای هر گونه نظر، توضیح یا راهنمایی برای رویکرد دیگری در صورت نیاز سپاسگزارم. | انتخاب مدل در رگرسیون لجستیک |
83447 | من برخی از داده های نظرسنجی از کارمندان در شرکت های مختلف دارم و می خواهم یک رگرسیون با متغیرهای سطح شرکت (بر اساس ادراک کارکنان) به عنوان متغیر وابسته و مستقل انجام دهم. من نمیدانم از کدام استراتژی استفاده کنم - OLS مستقیم، مدلسازی خطی سلسله مراتبی، یا تجمیع میانگین در بین سازمانها (به عنوان مثال، میانگین امتیاز برای کارکنان در سازمانهای مختلف). به عنوان مثال، متغیر وابسته می تواند عملکرد شرکت درک شده و متغیرهای مستقل کیفیت مدیریت و پاداش عملکرد باشد. من همچنین تعدادی متغیر جمعیت شناختی (جنسیت، شغل و غیره) دارم. من قبلاً همه این تجزیه و تحلیل ها را انجام داده ام و نتایج بسیار مشابه هستند (من متغیرهای جمعیت شناختی را فقط در رگرسیون OLS و HLM گنجانده ام). از منظر روش شناختی، کدام رویکرد قوی ترین مبنای نظری را دارد؟ لطفا اگر می توانم اطلاعات بیشتری ارائه کنم به من اطلاع دهید. با تشکر | OLS، HLM یا تجمیع داده ها؟ |
33885 | من مشکلاتی با نزول گرادیان تصادفی دارم. با استفاده از نزول گرادیان دسته ای که در آن تمام مجموعه های آموزشی را در نظر می گیرم، مقادیر پارامتر خاصی دارم که می دانم درست هستند. تابع من محدب است، به صورت جهانی. اکنون وقتی از شیب نزولی تصادفی با در نظر گرفتن ده نمونه در یک زمان استفاده می کنم، الگوریتم به خوبی همگرا می شود، اما مقادیر پارامترهای متفاوتی دریافت می کنم. مقادیر پارامتری که من با استفاده از گرادیان نزولی تصادفی دریافت می کنم، مانند 1/2 مقداری است که با استفاده از شیب نزولی دسته ای دریافت می کنم. هر گونه بینشی که چه چیزی ممکن است اشتباه باشد؟ | مقادیر پارامترهای مختلف هنگام استفاده از نزول گرادیان تصادفی |
71503 | من مشکل زیر را دارم: من 2 گلدان دارم، یکی حاوی 20٪ توپ قرمز و دیگری حاوی 80٪ توپ قرمز است. هر بار که (با جایگزینی) توپی را انتخاب می کنم، نابینا هستم و شانس مساوی برای انتخاب از هر کوزه دارم. **احتمال انتخاب یک توپ قرمز چقدر است؟** به نظر من در دراز مدت باید 50% توپ قرمز را بدست بیاورم تا 0.5 باشد. اما آیا این به نوعی گمراه کننده به نظر می رسد؟ با تشکر فراوان | احتمال نمونه برداری از چند کوزه |
112079 | من سعی میکنم یک مدل تولیدی راهاندازی کنم که در آن دو تصویر $x$ و $y$ داشته باشم و فرض بر این است که $y$ میتواند با اعمال تغییر ناشناخته به $x$ یعنی $$ y = t(x, w) + e $$ یعنی $$ e = y- t(x, w) $$ که در آن $t$ تبدیل اعمال شده است که دارای پارامترهای $w$ است و e خطایی است که فرض می شود به طور معمول نویز IID توزیع می شود. بنابراین، من یک اصطلاح احتمال داده شده با (برای یک پیکسل در تصویر) دارم: $$ L(w) = \prod_{i=1}^{N}(\frac{\phi}{2\pi}) ^{\frac{1}{2}} \exp^{\frac{-1}{2} \phi e_i^2} $$ که در آن $\phi$ دقت نویز است. من همچنین پیش از واریانس $\phi$ دارم که به عنوان توزیع گاما مدل شده است. از آنجا که آنها مستقل هستند، عبارات احتمال را می توان مانند معادله بالا ضرب کرد. اکنون، من مطلقاً هیچ چیز در مورد ماهیت پارامترهای $w$ نمی دانم، بنابراین حدس می زنم که باید یک پیش از $w$ داشته باشم؟ با این حال، من اطلاعات زیادی در مورد نحوه استفاده از این پیشینها به صورت ریاضی ندارم و $w$ میتواند هر مقداری را به خود اختصاص دهد، بنابراین مطمئن نیستم که چگونه از این پیشین یکنواخت توزیع مناسبی ایجاد کنم. میخواستم بدونم کسی میتونه در این مورد به من راهنمایی کنه. من علاقه مند به استنباط حالت حداکثر و همچنین مشخص کردن گسترش $w$ هستم. در حال حاضر، من حتی در حال تلاش برای درک چگونگی مدل کردن چیزها در یک محیط بیزی هستم، در حالی که شما هیچ اعتقاد قبلی به شکل این پارامترهای مورد علاقه ندارید. | راه اندازی این مدل مولد برای استنتاج: پیشین های یکنواخت |
83446 | فرض کنید میخواهید خوشههایی را بر اساس مجموعهای از متغیرهای $Y$ پیدا کنید، و میخواهید اثرات برخی از متغیرهای $X$ را بر عضویت در آن خوشهها تخمین بزنید. در اینجا نحوه انجام آن در حال حاضر است. مرحله 1: خوشهبندی مبتنی بر مدل را بر روی متغیرهای $Y$ انجام دهید (با استفاده از بسته mclust برای این کار). مرحله 2: بهینه سازی یک مدل رگرسیون چند جمله ای با عضویت خوشه ای به عنوان متغیر نتیجه. به نظر می رسد باید راه بهتری وجود داشته باشد که در آن مدل ها به طور همزمان تخمین زده شوند. کسی ابزار خوبی در R برای این کار می شناسد و حتی بهتر از آن، مجموعه ای از مراجع خوب برای (الف) مدل آماری که بسته پیاده سازی می کند، و (ب) چگونه از بسته استفاده کنیم؟ با تشکر | برآورد اثرات بر عضویت در یک خوشه |
83442 | بنابراین، فرض کنید که من مجموعه ای از 20 ویژگی دارم - برخی از آنها پیوسته و برخی از آنها باینری هستند. آیا الگوریتم/روش/راهحلی برای ایجاد ویژگیهای بیشتر (ترکیب/تبدیل) آن ویژگیها (مثلاً با استفاده از 2 مورد از آنها برای ایجاد ویژگی دیگر) وجود دارد؟ من میخواهم این کار را انجام دهم تا ویژگیهای بیشتری را به یک SVM خطی بدهم - آیا این کار خوبی است یا خیر؟ آیا این افزایش ابعاد مجموعه داده نامیده می شود؟ آیا می توانم با ایجاد متغیرهای جدید از ترکیب آنها، داده های بیشتری از آن 20 عدد استخراج کنم؟ اگر این موضوع اصلا مهم است، من از یک هسته خطی استفاده می کنم. | الگوریتم ها/روش هایی برای ایجاد ویژگی های بیشتر از تعداد محدودی از ویژگی ها؟ |
38610 | میخواهم کسی با الگوریتم NLMEFITSA در matlab آشنا باشد؟ این الگوریتم در نتیجه پارامترهای اثرات ثابت (بتا) برای یک مدل اثرات مختلط و همچنین ماتریس کوواریانس آنها (psi) را به من می دهد، اما همچنین در ساختار stats یک ماتریس کوواریانس به نام covb را به من می دهد. این یکی به خطاهای استاندارد مربوط می شود و برای محاسبه فواصل اطمینان مهم است، اما صادقانه بگویم من نمی دانم دقیقاً تفاوت بین این چیست؟ covb و ماتریس کوواریانس psi. و چگونه می توانم از covb هنگام شبیه سازی داده های جدید استفاده کنم؟ ممنون میشم اگه کسی اینو برام توضیح بده | ابزار Matlab برای جلوه های ترکیبی غیرخطی |
33737 | من سعی می کنم الگوریتم رگرسیون کرنل ریج را پیاده سازی کنم اما نتایج بسیار عجیبی دریافت می کنم. می ترسم اشتباهات احمقانه ای مرتکب شده باشم، بنابراین برای یافتن چگونگی رفع آنها به کمک شما نیاز دارم. من کد خود را در زیر نقل می کنم. همه پیشنهادات استقبال می شود. تابع [MSE_train_mean,MSE_train_std,MSE_test_mean,MSE_test_std,w_star] = perform_krr(X,Y) % تعداد اجراها را تنظیم کنید. اجرا = 2; % تعداد تاها را تنظیم کنید. چین = 5; ٪ مقادیر و تعداد توان ها را تنظیم کنید. توان = 0:9; قدرت = اندازه (قدرت، 2); ٪ مقادیر و تعداد گاما را تنظیم کنید. گاما = 2 .^ (-power); گاما = اندازه (گاما،2); ٪ مقادیر و تعداد سیگما را تنظیم کنید. سیگما = 2 .^ (قدرت)؛ sigmas = اندازه (sigma,2); ٪ ماتریس های کمکی را راه اندازی کنید. MSE_train = صفر (برخورد، سیگما، گاما)؛ MSE_train_optimum = صفر (رانش،1)؛ MSE_test = صفر (برخورد، سیگما، گاما)؛ MSE_test_optimum = صفر (اجرا می شود،1); w_star_optimum = صفر (اجرا، گرد (اندازه (X,1)*4/5)); % اجرای اجراها. برای r=1: runs، % مجموعه داده اصلی را به مجموعه آموزشی و آزمایشی تقسیم کنید. split_assignments = cross_val_split(folds,size(X,1)); % انجام تا زدن. برای f=1: folds، % متغیرهای توضیحی (x) را اختصاص دهید. x_train = X((split_assignments(:,f)==0),:); x_test = X((تقسیم_تکالیف(:,f)==1),:); ٪ متغیر پاسخ (y) را اختصاص دهید. y_train = Y((split_assignments(:,f)==0),:); y_test = Y((تقسیم_تکالیف(:,f)==1),:); % بازیابی اندازه ماتریس ها. [l_train_n,l_train_m] = اندازه(x_train); [l_test_n,l_test_m] = اندازه (x_test); % انجام سیگما. برای s=1:sigmas، % هسته گاوسی را برای سیگمای داده شده بسازید. [train_kernel] = محاسبه_krr_gaussiankernel(x_train,x_train,sigma(s)); % انجام گاما. برای g=1:گاما، % وزن دوگانه را برای گامای داده شده محاسبه کنید. a_star = محاسبه_krr_dualversion(kernel_train,y_train,gamma(g)); ٪ وزن های آموخته شده را روی مجموعه آموزشی اعمال کنید و درصد MSE مربوطه را برای مقادیر داده شده سیگما و گاما محاسبه کنید. MSE_train(f,s,g) = account_krr_dualcost(kernel_train,y_train,a_star); انتهای انتهای انتهای % میانگین بیش از چین. MSE_train_mean = mean(MSE_train,1); MSE_train_std = std(MSE_train,0,1); % هر دو مجموعه داده میانگین و std را تغییر شکل دهید. MSE_train_mean = reshape(MSE_train_mean,[sigmas gammas]); MSE_train_std = reshape(MSE_train_std,[sigmas gammas]); ٪ نمودار میانگین و std مجموعه آموزشی MSEها به عنوان تابعی از سیگما و گاما. figure, mesh(MSE_train_mean), title('Mean of Training Set MSEs vs Gamma and Sigma'); figure, mesh(MSE_train_std), title('Std of Training Set MSEs vs Gamma and Sigma'); % مقادیر بهینه پارامترهای تنظیم را انتخاب کنید، با توجه به % این واقعیت که ما حداقل خطای مجموعه آموزشی را می خواهیم. ما از خطای % مجموعه آموزشی به عنوان راهنمایی برای انتخاب پارامترهای تنظیم استفاده می کنیم. [V,I] = min(MSE_train_mean(:)); [S,G] = ind2sub(size(MSE_train_mean),I); % پارامترهای بهینه را بازیابی کنید. Optimum_sigma = Sigma(S); optimum_gamma = gamma(G); ٪ مجموعه های آموزشی و تست را بسازید: بگذارید 4/5 ورودی اول ٪ مجموعه آموزشی و 1/5 ورودی آخر مجموعه تست باشد. x_train = X(1:l_train_n,1:l_train_m); x_test = X(l_train_n+1:end,1:l_train_m); y_train = Y(1:l_train_n,1:1); y_test = Y(l_train_n+1:end,1:1); % هسته گاوسی بهینه را برای مجموعه های آموزشی و آزمایشی بسازید. [kernel_train_optimum] = محاسبه_krr_gaussiankernel(x_train,x_train,optimum_sigma); [kernel_test_optimum] = محاسبه_krr_gaussiankernel(x_test,x_test,optimum_sigma); ٪ وزن دوگانه بهینه هر دو مجموعه تمرین و تست را محاسبه کنید. a_star_train_optimum = محاسبه_krr_dualversion(kernel_train_optimum,y_train,optimum_gamma); a_star_test_optimum = محاسبه_krr_dualversion(kernel_test_optimum,y_test,optimum_gamma); w_star_optimum(r,:) = a_star_train_optimum'; % وزنهای بهینه آموخته شده را در مجموعههای آموزشی و آزمایشی اعمال کنید و % MSEهای مربوطه را محاسبه کنید. MSE_train_optimum(r,1) = account_krr_dualcost(kernel_train_optimum,y_train,a_star_train_optimum); MSE_test_optimum(r,1) = account_krr_dualcost(kernel_test_optimum,y_test,a_star_test_optimum); پایان % % باقیمانده مجموعه آموزشی (در نمونه) را محاسبه کنید. % y_hat_train = x_train * a_star_optimum; % e_train = y_train - y_hat_train; % % بررسی کنید که مجموع آنها صفر باشد. % fprintf('مجموعه بازمانده های مجموعه آموزشی (در نمونه) تا %i.\n',sum(e_train)); % % در نهایت آنها را رسم کنید. % شکل، پراکنده (1:1:l_train_n,e_train); % % باقیمانده های مجموعه آزمایشی (خارج از نمونه) را محاسبه کنید. % y_hat_test = x_test * a_star_optimum; % e_test = y_test - y_hat_test; % % بررسی کنید که مجموع آنها صفر باشد. % fprintf('مجموعه باقیمانده های مجموعه آزمایشی (خارج از نمونه) تا %i.\n',sum(e_test)); % % سرانجام، | پیاده سازی متلب رگرسیون پشته هسته |
30282 | من در حال بررسی نرخهای تبدیل در برخی بخشهای یک برنامه وب هستم تا بفهمم چه نوع مشتریانی را باید در جذب پولی سرمایهگذاری کنیم (تئوری این است که این بخشها ارزش بیشتری در محصول میبینند و به همین دلیل، مایل به پرداخت هستند) . به عنوان مثال، در یک بخش 336 کاربر وجود دارد که از این تعداد 88 کاربر به پولی تبدیل شده اند. این یک نرخ تبدیل ~ 26٪ برای بخش ارائه می دهد، اما چگونه می توانم اطمینان داشته باشم که داده ها به اندازه کافی قابل توجه هستند تا از سوزاندن منابع گرانبها در تعقیب این بخش جلوگیری کنم؟ TIA | محاسبه اطمینان برای نرخ تبدیل برنامه وب |
38611 | در یک تکلیف، خروجی زیر از R به من داده می شود: > summary(myfit) Call: lm(formula = Blood_pre ~ Heart_wt) باقیمانده ها: Min 1Q Median 3Q Max -41.655 -29.796 -8.198 27.425 48.161 Coffeff. خطای t مقدار Pr(>|t|) (Intercept) 82.413 30.983 2.660 0.02219 * Heart_wt 5.723 1.779 3.218 0.00819 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 33.72 در 11 درجه آزادی چندگانه R-squared: 0.4849، R-squared تنظیم شده: 0.4381 آمار: 10.35 در 1 و 11 DF، p-value: 0.00819 (همچنین به من داده می شود که $n = 13$) از داده های بالا، فرض می کنم که برای پیدا کردن معادله خط کمترین مربع که من فرمول آن را می دانم. با این حال، در آن فرمول، متغیرهای $SS_{xy}$، $SS_{xx}$، $\bar{x}$، و $\bar{y}$ وجود دارد. بدون مجموعه داده اصلی، من نمی دانم چگونه آن متغیرها را محاسبه کنم. آیا کسی می تواند به من در جهت درست راهنمایی کند؟ | تفسیر خروجی خلاصه R |
1253 | من سعی میکنم شباهت مورد-آیتم را با استفاده از Jaccard (مخصوصاً Tanimoto) در فهرست بزرگی از دادهها در قالب (userid، itemid) محاسبه کنم. من حدود 800 هزار کاربر و 7900 مورد و 3.57 میلیون رتبه دارم. من داده های خود را به کاربرانی محدود کرده ام که حداقل n مورد (معمولاً 10) رتبه بندی کرده اند. با این حال، نمیدانم که آیا باید برای تعداد اقلام رتبهبندی شده حد بالایی قائل شوم. وقتی کاربران به 1000 مورد یا بیشتر امتیاز می دهند، هر کاربر 999000 ترکیب دوتایی از آیتم ها را تولید می کند تا در حساب من استفاده شود، با فرض محاسبه n! / (ن-ر)! افزودن این مقدار داده ورودی، فرآیند محاسبه را به شدت کاهش میدهد، حتی زمانی که حجم کار توزیع میشود (با استفاده از هادوپ). من فکر می کنم کاربرانی که به بسیاری از موارد امتیاز می دهند، کاربران اصلی من نیستند و ممکن است محاسبات شباهت من را کمرنگ کنند. دل من به من می گوید که داده ها را برای مشتریانی که بین 10 تا 150 تا 200 مورد رتبه بندی کرده اند محدود کنم، اما مطمئن نیستم که آیا راه بهتری برای تعیین آماری این مرزها وجود دارد یا خیر. در اینجا جزئیات بیشتری در مورد توزیع داده های منبع من آمده است. لطفاً در مورد هر گونه شرایط آماری که ممکن است از بین رفته باشم، من را روشن کنید! توزیع آیتم کاربران من تعداد:  > موارد خلاصه (خام) دارای رتبه حداقل. : 1.000 کو. 1: 1.000 میانه : 1.000 میانگین: 4.466 چهارم سوم: 3.000 حداکثر. :2069.000 > sd(raw) items دارای رتبه 16.46169 اگر داده های خود را به کاربرانی محدود کنم که حداقل 10 مورد را رتبه بندی کرده اند: > above10<-raw[raw$itemsRated>=10,] > summary(bove10) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 10.00 13.00 19.00 34.04 35.00 2069.00 > sd(بالای 10) [1] 48.64679 > طول (بالای10) [1] 64764 اگر بیشتر داده های خود را به کاربرانی محدود کنم که 15 مورد را بین 10 و > رتبه داده اند: above10less150<-above10[above10<=150] > خلاصه (بالای10less150) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 10.00 13.00 19.00 28.17 33.00 150.00 > sd(بالاتر از 10150) [1] 24.32098 > طول (بالاتر از 10150) [1] 63080 ویرایش: من فکر نمیکنم که این دادهها آنقدرها هم مثبت باشند. | چگونه داده های ورودی خود را برای محاسبه شباهت آیتم-اقلام Jaccard محدود کنم؟ |
77907 | من از این سوال میآیم شباهت بین دو مجموعه از مقادیر تصادفی (که هنوز BTW است) که در آن @whuber در نظرات پیشنهاد کرد که من از نمودار Q-Q برای ارزیابی شباهت دو توزیع گسسته استفاده کنم. برای خلاصه کردن، من دو مجموعه شناور تصادفی بین [0,1] از اندازه های مختلف دارم: $$A = \\{0.3637852، 0.2330702، 0.1683102، 0.2127219، 0.015$ N$_$B = \\{0.4541056، 0.7521812، 0.0266602، 0.5099002، 0.3468181، ...، N_B\\}$$ جایی که $N_B > N_A$. و من باید نمودار Q-Q را برای مجموعه های پایانی ایجاد کنم. برای آنچه خواندهام، اگر مجموعهها دارای اندازههای مساوی باشند ($N_B = N_A$) من به سادگی هر دو مجموعه را از مقادیر جزئی به بزرگ مرتب میکنم و سپس یکی را در برابر دیگری در یک مطابقت 1:1 رسم میکنم. مجموعههای من در اندازهها متفاوت هستند و منابعی که پیدا کردهام [1]، [2] هر دو میگویند که باید هر دو مجموعه را مرتب کنم و سپس مجموعه _larger_ را درونیابی کنم ($B$ در مورد من). این برای من غیر شهودی است زیرا انتظار دارم که باید امتیازهای بیشتری را از مجموعه _کوچکتر_ $A$ (از طریق درونیابی) ایجاد کنم تا بتوانم این مجموعه گسترده $A'$ را در برابر مجموعه $B$ ترسیم کنم. بنابراین بدیهی است که من روند را به درستی درک نمی کنم. برای ایجاد نمودار Q-Q برای دو توزیع مانند آنچه در بالا ارائه کردم، چه مراحلی باید دنبال کنم؟ | نمودار QQ را برای مجموعه هایی با اندازه های مختلف ایجاد کنید |
30281 | **زمینه**: گروهی در محل کار در حال نمونه گیری از 1000 مشتری برای تماس هستند و از آن نقطه، تعیین می کنند که آیا این تلاش ارزشمند است یا خیر. میخواستم ببینم آیا این مقدار (تقریباً) اندازه نمونه دلخواه اصلاً به اندازه کافی خوب است یا خیر. اگر فرض کنیم که نسبت واقعی موفقیتها در یک جامعه 0.016 (1.6%) باشد، چقدر باید حجم نمونه را انتخاب کنم تا حاشیه خطای نیمه عرض) مثلاً 0.005 (0.5٪) را بدست آوریم. ? این رویکرد من در R است: install.packages(Hmisc) library(Hmisc) target.halfWidth<-0.005 sims<-25000 #تعداد ترسیم از دوجمله ای برای انجام p<-0.016 #نسبت واقعی n<-seq(از =500، به = 5000، توسط = 100) #تعداد نمونه #نتایج را نگه دارید نتایج<-ماتریس(عددی(0)، طول(n)،2) #حلقه از میان گزینه های اندازه نمونه دلخواه برای (i در 1: طول(n)) { x<-rbinom(sims,n[i],p) #از دو جمله ای با p و n ci<-binconf(x,n[i],method=asymptotic,alpha=0.1) #نظریه نرمال 90% CI half_width<-ci[,3]-ci[,1] #نیمه عرض CI #نیاز به عددی است که نصف عرض در محدوده هدف باشد prob.halfWidth<-length(half_width[half_width<target.halfWidth])/sims نتایج #store[i,1]<-n[i] results[i,2]<-prob.halfWidth } #plot نمودار(نتایج[,2],نتایج[,1],نوع = ب) نتایج این شبیه سازی نشان داد که ما به 2200 نمونه نیاز داریم تا 95% اطمینان داشته باشیم که CI 90% حداکثر 0.005 خواهد بود. **سوالات:** 1) آیا این روش مناسبی است؟ 2) آیا راه های بهتری وجود دارد؟ 3) چه توصیه ای می توانید بکنید که آیا نمونه های محدودی از برخی زیرجمعیت ها وجود دارد؟ بگویید که میخواهیم بدانیم چند نمونه از جمعیتهایی که مشتریان «زیاد» برای انتخاب وجود ندارند، انتخاب کنیم. شاید فقط 5000 از یک گروه خاص وجود داشته باشد، آیا ما نمی توانیم کمتر از آنها را برای تصمیم گیری در مقایسه با گروهی که 50000 نفر برای انتخاب وجود دارد استفاده کنیم؟ ممنون!! **بعد از پاسخ MansT اضافه کنید:** 1) آیا منطقی است، در سناریوی من با ترسیم های شبیه سازی، یک مرحله اضافه کنم که این خط: prob.halfWidth<-length(half_width[half_width<target.halfWidth])/فقط sims زمانی که CI به دست آمده دارای p واقعی (یعنی 0.016) نیز باشد، شمارنده را افزایش می دهد؟ 2) در زیر کد شما، آیا زمانی که با یک نمونه محدود سروکار دارید، اصلاحگر جمعیت محدود FPC را به خط خود اضافه کنید: halfWidth<-qnorm(0.95)*sqrt(p.est*(1-p.est)/ ن) 3) من از فرمول CI از فوق هندسی مطمئن نیستم، اما شاید بتوانم خط کد خود را جایگزین کنم ci<-binconf(x,n[i],method=asymptotic,alpha=0.1) #نظریه نرمال 90% CI با تابع Sprop در R؟ | اندازه نمونه برای فاصله اطمینان دو جمله ای |
72883 | من این تابع پارتیشن را دارم  حالا اگر مشتق log(Z(x)) را بگیرم wrt $\lambda_k$ نتیجه می شود است  من متوجه نشدم که چگونه این مشتق شده است. این کاغذ است | سردرگمی نسبت به مشتق تابع پارتیشن |
48092 | من سعی می کنم رتبه بندی یک محصول (که مقادیر صحیح بین 0 تا 10 را می گیرد) با استفاده از برخی پیش بینی کننده های دیگر مدل کنم. آیا می توانم از رگرسیون دو جمله ای منفی استفاده کنم؟ داده ها بیش از حد به سمت رتبه های بالاتر پراکنده شده اند، اما مطمئن نیستم که آیا negbin برای تعداد محدود کار می کند یا خیر. | از چه نوع مدل رگرسیونی برای متغیر وابسته اعداد صحیح و محدود استفاده کنم؟ |
77908 | من یک محقق در زمینه پزشکی قلب و عروق هستم و در حال حاضر روی یک مطالعه در زمینه غدد درون ریز (دیابت) کار می کنم. من چالش زیر را دارم که با چندین آماردان صحبت کرده ام که همگی به من توصیه ها و توضیحات ناهماهنگی دادند (به همین دلیل بحث را در اینجا امتحان خواهم کرد). مجموعه داده شامل: * 400000 مشاهده * 100000 فرد منحصر به فرد (بین 1 تا 10 مشاهده/فرد). * زمان متفاوت بین مشاهدات. * متغیر گروه بندی قومیت است. 10 گروه (اصولاً قاره های جهان). * طیف وسیعی از متغیرهای کمکی موجود است. * نتیجه مورد علاقه پیوسته است (پس از تبدیل ورود به سیستم به طور معمول رضایت بخش نیست). بنابراین، من یک مجموعه داده بزرگ با اندازه گیری های مکرر با زمان متفاوت بین آنها دارم. نتیجه مورد نظر سطوح گلوکز خون (متغیر پیوسته) است. پس از تعدیل متغیرهای کمکی، میخواهم بدانم که آیا قومیت بر این نتیجه تأثیر میگذارد یا نه. قضاوت در مورد روش آماری بهینه برای این امر دشوار است. در SAS که من از آن استفاده می کنم، چندین احتمال وجود دارد. PROC GENMOD یک گزینه تکرار دارد که معادلات تخمینی تعمیم یافته ارائه شده توسط لیانگ و زگر را فراخوانی می کند. این روش چندین مزیت دارد. می توان از PROC GLM استفاده کرد. همچنین می توان از PROC MIXED استفاده کرد. سوال این است که کدام روش برای این مجموعه داده بهینه است و چرا؟ | انتخاب آزمون برای اندازه گیری های طولی، مکرر و داده های خوشه ای |
71502 | من میخواهم 1000 عدد تصادفی را با توزیع Gumbel (توزیع ارزش شدید نوع 1) با پارامترهای شناخته شده $m$ و $a$ تولید کنم. سپس میخواهم پارامترهای توزیع را برای این 1000 عدد با استفاده از تخمین لحظههای وزندار احتمال (PWM) و تخمین حداکثر درستنمایی (MLE) تخمین بزنم تا آنها را با $m$ و $a$ مقایسه کنم. من از کمک شما قدردانی می کنم | متغیرهای تصادفی را از توزیع Gumbel در R ایجاد کنید |
31771 | فرض کنید $X_1 \sim \textrm{unif}(n,0,1),$$ $$X_2 \sim \textrm{unif}(n,0,1),$$ داریم که $\textrm{unif} (n,0,1)$ نمونه تصادفی یکنواخت با اندازه n است و $$Y=X_1,$$ $$Z = 0.4 X_1 + \sqrt{1 - 0.4}X_2.$$ سپس همبستگی بین $Y$ و $Z$ 0.4$ است. چگونه می توانم این را به سه متغیر گسترش دهم: $X_1$، $X_2$، $X_3$؟ | سه متغیر تصادفی همبسته ایجاد کنید |
71500 | من عملکردهای مختلفی دارم که ویژگی هایی مانند کامل بودن یا شهرت را می سنجد. من سعی می کنم بفهمم که آنها در چه مقیاسی هستند (اسمی، ترتیبی، فاصله، نسبت یا مطلق). بیشتر توابع به مقادیر بین $0.0 و $1.0 نگاشت می شوند. من فرض می کنم که آنها در یک مقیاس نسبت هستند. مقیاس نسبت یک مقیاس فاصله ای است که در آن مقادیر دارای معنای عددی هستند، بنابراین جمع و تفریق در اینجا کار می کنند. این تا حدودی منطقی است. من این اعداد را به صورت درصد نشان می دهم. آیا درصد به طور کلی یک مقیاس نسبت است؟ سپس اقداماتی وجود دارد که به مقادیر کاملاً دلخواه نگاشت می شوند. به عنوان مثال یک به ارزش بین 355- دلار و 2214 دلار است. آیا اینها از نوع مقیاس مطلق هستند؟ | تعیین نوع ترازو |
77904 | فرض کنید من نمونههای مثبت و منفی دارم و به دقت بیشتر از یادآوری اهمیت میدهم. علاوه بر این، من فرض میکنم که در میان نمونههای مثبت مواردی وجود دارد که «آسانتر» از بقیه جدا میشوند، اما من هیچ راه مستقیمی برای شناسایی این موارد ندارم. منظور من از سادهتر بودن این است که انتخاب طبقهبندیکننده معین برای انتخاب آنها بدون انتخاب نمونههای منفی آسان است. اگر ما فقط دو ویژگی ورودی داشتیم، میتوانستیم به صورت بصری اینها را به عنوان نمونههای مثبت که به وضوح با نمونههای منفی همپوشانی ندارند، انتخاب کنیم، اما در این مورد من در فضاهای با ابعاد بالا کار میکنم. آیا الگوریتمی وجود دارد که با توجه به مجموعهای از ویژگیها و برچسبهای ورودی، مواردی را که طبقهبندی «آسان» هستند شناسایی کند؟ | آیا روش های شناخته شده ای برای انتخاب موارد آسان برای طبقه بندی وجود دارد؟ |
72882 | من می خواهم نظر شما را در مورد یک رفتار بسیار عجیب که اخیراً با اجرای glmer() مواجه شده ام، نظرتان را جلب کنم. مشکل این است که وقتی من متغیر وابسته را به یک بردار منطقی تبدیل می کنم، گلمر رفتار عجیبی دارد. متغیر وابسته من Accuracy است و بر حسب 1 (پاسخ دقیق) و 0 (پاسخ اشتباه) کدگذاری شده است. چیزی که من را متحیر می کند این است که تبدیل دقت به یک بردار منطقی باید برای glmer نیز به همین صورت عمل کند، زیرا یک بردار منطقی بر حسب TRUE یا FALSE کدگذاری می شود و همچنین دارای 2 سطح است. با این حال، glmer بسته به تبدیل متغیر وابسته ای که استفاده می کنم، نتایج متفاوتی به من می دهد. بچه ها آیا قبلا با این مورد برخورد کرده اید؟ آیا می دانید چرا این اتفاق می افتد؟ در زیر نمونه کد وجود دارد تا بتوانید خودتان مشکل را تکرار کنید. #ایجاد داده های جعلی موضوع <- c(rep(S1,4), rep(S2,4), rep(S3,4), rep(S4,4)) مورد <- rep( c(I1، I2، I3، I4)، 4) فاکتور 1 <- c(c(rep(e1،2)،rep(e2،2))، c(e1، e2، e2، e1)، c(rep(e2،2)،rep(e1،2))، c(e2،e1، e1،e2)) دقت <- c(1,1,0,0,1,0,1,0,1,0,1,1,1,1,1,1) #ایجاد قاب داده و دقت را به یک عامل با داده 2 سطحی <- data.frame(موضوع، آیتم، فاکتور 1، دقت) داده$ دقت <- فاکتور(داده$دقت) #دقت یک فاکتور با 2 سطح است #اجرای glmer m1 <- glmer(دقت ~ فاکتور1 + ( 1+Factor1|موضوع) + (1+Factor1|مورد)، خانواده = دو جمله ای، داده = داده) خلاصه (m1) اثرات ثابت: برآورد Std. خطای z مقدار Pr(>|z|) (Intercept) 1.946 1.069 1.820 0.0687. Factor1e2 -1.946 1.282 -1.518 0.1290 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 این خروجی مدل اول است. حالا، ببینید چه اتفاقی میافتد اگر وقتی مدل را اجرا میکنم، داده$Accuracy را به یک بردار منطقی تبدیل کنم: m2 <- glmer(as.logical(as.numeric(Accuracy)) ~ Factor1 + (1+Factor1|Subject) + ( 1+Factor1|Item)، خانواده = دوجمله ای، داده = داده) خلاصه (m2) اثرات ثابت: برآورد Std. خطای z مقدار Pr(>|z|) (برق) 2.557e+01 1.259e+05 0 1 Factor1e2 2.223e-06 1.781e+05 0 1 همانطور که می بینید، اکنون تخمین ضرایب بسیار متفاوت است. همانطور که گفتم، این برای من بسیار گیجکننده به نظر میرسد و میخواهم بدانید که آیا فکری در مورد اینکه چرا باید اینطور باشد، دارید. خیلی ممنون \--سل | رفتار گیج کننده ()glmer |
30422 | من در حال تلاش برای کاهش نویز (بهبود تفکیک پذیری) در بین گروه ها در یک مجموعه داده با 26 متغیر عددی و 10000 نمونه هستم. هر نمونه یک پروفیل شیمیایی است که هر متغیر مقدار برخی از ترکیبات شیمیایی را نشان می دهد. اکثر متغیرها از نرمال فاصله دارند. سوال من این است: چگونه می توانم آزمایش کنم که آیا نمونه ها از توزیع های چند متغیره جداگانه هستند؟ شهود من این است که میانگینها را برای هر متغیر در گروهها راهاندازی کنم و سپس یک آزمون MANOVA تغییر یافته (یا T-square هتلینگ) را برای شبیهسازی یک توزیع تهی انجام دهم. من میدانم که این کار در حالت تک متغیره کار میکند، زیرا من این کار را روی دادههای ریزآرایه انجام دادهام، اما در مورد اینکه آیا هنوز مفروضات را نقض میکنم یا نه، گیج هستم. ایده این است که نمونههایی را که مطمئن هستم (در برخی آلفاها) از توزیعهای مختلف انتخاب میشوند، سپس از آنها به عنوان مبنای یک تابع خوشهبندی استفاده میکنیم. دادههای من بسیار خطی هستند، که ممکن است نشان دهد که نمونههای خاصی منشأ مشترک دارند، و بنابراین اختصاص نمونههای جدید به خوشههای شناخته شده آموزنده خواهد بود. خیلی ممنون | انتخاب ویژگی با توجه به متغیرهای غیر عادی؟ |
18088 | فرض کنید برای هر موضوعی در هر سایت مقداری اندازه گیری دارم. دو متغیر، موضوع و مکان، از نظر محاسبه مقادیر همبستگی درون کلاسی (ICC) مورد توجه هستند. من معمولاً از تابع 'lmer' از بسته R 'lme4' استفاده می کنم و lmer را اجرا می کنم (اندازه گیری ~ 1 + (1 | موضوع) + (1 | سایت)، mydata) مقادیر ICC را می توان از واریانس های اثرات تصادفی به دست آورد. در مدل بالا با این حال، اخیراً مقاله ای خواندم که واقعاً من را متحیر می کند. با استفاده از مثال بالا، نویسندگان سه مقدار ICC را در مقاله با تابع lme از بسته nlme محاسبه کردند: یکی برای موضوع، یکی برای سایت، و دیگری برای تعامل موضوع و سایت. جزئیات بیشتری در این مقاله ذکر نشده است. من از دو منظر زیر سردرگم هستم: 1. چگونه مقادیر ICC را با lme محاسبه کنیم؟ من نمی دانم چگونه آن سه افکت تصادفی (موضوع، سایت و تعامل آنها) را در lme مشخص کنم. 2. آیا واقعاً در نظر گرفتن ICC برای تعامل موضوع و سایت معنی دارد؟ از منظر مدل سازی یا نظری، می توانید آن را محاسبه کنید، اما از نظر مفهومی من در تفسیر چنین تعاملی مشکل دارم. | همبستگی درون طبقاتی (ICC) برای یک تعامل؟ |
18084 | در مورد هم خطی با توجه به پیش بینی کننده های پیوسته مطالب زیادی وجود دارد، اما نه آنقدر که بتوانم در پیش بینی های طبقه بندی پیدا کنم. من داده هایی از این نوع را دارم که در زیر نشان داده شده است. عامل اول یک متغیر ژنتیکی (شمارش آلل)، عامل دوم یک دسته بیماری است. واضح است که ژن ها مقدم بر بیماری هستند و عاملی برای نشان دادن علائمی هستند که منجر به تشخیص می شود. با این حال، تجزیه و تحلیل منظم با استفاده از مجموع مربع های نوع II یا III، همانطور که معمولاً در روان با SPSS انجام می شود، اثر را از دست می دهد. تجزیه و تحلیل مجموع مربعات نوع I آن را انتخاب می کند، زمانی که ترتیب مناسب وارد می شود زیرا وابسته به ترتیب است. علاوه بر این، احتمالاً اجزای اضافی در روند بیماری وجود دارد که به ژن مربوط نمی شوند و به خوبی با نوع II یا III شناسایی نمی شوند، به **anova(lm1)** در زیر در مقابل lm2 یا Anova مراجعه کنید. _داده های مثال:_ set.seed(69) iv1 <- نمونه (c(0،1،2)، 150، جایگزین=T) iv2 <- round(iv1 + rnorm(150، 0، 1)، 0) iv2 < - ifelse(iv2<0، 0، iv2) iv2 <- ifelse(iv2>2، 2، iv2) dv <- iv2 + rnorm(150، 0، 2) iv2 <- factor(iv2، labels=c(a، b، c)) df1 <- data.frame(dv, iv1, iv2) library(car) chisq .test(جدول(iv1، iv2)) # روابط سریع ژن و بیماری lm1 <- lm(dv~iv1*iv2، df1); lm2 <- lm(dv~iv2*iv1, df1) anova(lm1); anova(lm2) Anova(lm1, type=II); Anova(lm2, type=II) 1. **lm1** با نوع I SS به نظر من روش مناسبی برای تجزیه و تحلیل داده ها با توجه به نظریه پس زمینه است. آیا فرض من درست است؟ 2. من به طراحی های متعامد به وضوح دستکاری شده عادت دارم، جایی که این مشکلات معمولاً ظاهر نمی شوند. آیا متقاعد کردن داوران که این بهترین فرآیند است (با فرض اینکه نکته 1 صحیح باشد) در زمینه یک فیلد مرکزی SPSS دشوار است؟ 3. و در قسمت آمار چه چیزی را گزارش کنیم؟ هر گونه تحلیل اضافی، یا نظری که باید وارد شود؟ | هم خطی بین متغیرهای طبقه بندی |
71509 | یک رگرسیون خطی محلی در هر نقطه $x_i $ تخمینی از وقفه و شیب مقادیر $y$ را در مرکز آن نقطه ارائه می دهد. منحنی ایجاد شده توسط توالی وقفه ها را در نظر بگیرید. بهترین برآورد شیب آن چیست؟ آیا این تخمین شیب در رگرسیون خطی محلی است یا از خود بریدگی ها مشتق شده است، همانطور که ممکن است توسط مشتق درون یابی اسپلاین از بریدگی ها به دست آید. ارجاعات مربوط به این موضوع قدردانی می شود. | برآورد شیب رگرسیون خطی محلی |
18082 | در ادامه این سوال، چگونه کوواریانس را برای کسی که فقط میانگین را میفهمد توضیح میدهید؟، که به موضوع توضیح کوواریانس برای یک فرد عادی میپردازد، سوال مشابهی را در ذهن من ایجاد کرد. چگونه می توان تفاوت بین _کوواریانس_ و _همبستگی_ را برای یک تازه اندیش آمار توضیح داد؟ به نظر می رسد که هر دو به تغییر در یک متغیر اشاره دارند که به متغیر دیگر پیوند داده شده است. مشابه سوال مورد اشاره، فقدان فرمول ترجیح داده می شود. | تفاوت بین همبستگی و کوواریانس را چگونه توضیح می دهید؟ |
27830 | در پست قبلی من تعجب کردم که چگونه با نمرات EQ-5D برخورد کنم. اخیراً من به طور تصادفی با رگرسیون چندک لجستیک پیشنهاد شده توسط Bottai و McKeown برخورد کردم که روشی زیبا برای مقابله با نتایج محدود را معرفی می کند. فرمول ساده است: $logit(y)=log(\frac{y-y_{min}}{y_{max}-y})$ برای جلوگیری از log(0) و تقسیم بر 0، دامنه را به اندازه کوچک افزایش می دهید. ارزش، $\epsilon$. این محیطی را ایجاد می کند که به مرزهای نمره احترام می گذارد. مشکل این است که هر $\beta$ در مقیاس logit خواهد بود و این معنی ندارد مگر اینکه دوباره به مقیاس معمولی تبدیل شود، اما این بدان معنی است که $\beta $ غیر خطی خواهد بود. برای اهداف نموداری، این مهم نیست، اما نه با $\beta$:s بیشتر، این بسیار ناخوشایند خواهد بود. سوال من: **چگونه پیشنهاد می کنید که یک logit $\beta$ را بدون گزارش دهی کامل گزارش کنید؟** * * * ## مثال پیاده سازی برای آزمایش پیاده سازی، من یک شبیه سازی بر اساس این تابع اصلی نوشته ام: $outcome =\beta_0+\beta_1* xtest^3+\beta_2*sex$ که $\beta_0 = 0$، $\beta_1 = 0.5$ و $\beta_2 = 1 دلار از آنجایی که در امتیازات سقف وجود دارد، من هر مقدار نتیجه را بالای 4 و هر مقدار زیر -1 را به مقدار حداکثر تنظیم کردهام. ### وقفه data set.seed(10) را شبیه سازی کنید <- 0 beta1 <- 0.5 beta2 <- 1 n = 1000 xtest <- rnorm(n,1,1) gender <- factor(rbinom(n, 1, . 4)، labels=c(مرد، مونث)) نویز_تصادفی <- runif(n, -1,1) # افزودن یک سقف و کف برای شبیه سازی یک نمره محدود fake_seiling <- 4 fake_floor <- -1 # فقط برای اینکه به نمودارها همان ظاهر را بدهم my_ylim <- c(fake_floor - abs(fake_foor)*.25, fake_six+abs(fake_sifing)*. 25) my_xlim <- c(-1.5، 3.5) # پیش بینی را شبیه سازی کنید linpred <- intercept + beta1*xtest^3 + beta2*(جنس == مونث) + سر و صدای_تصادفی # حذف برخی موارد افراطی linpred[linpred > سقف_جعلی + abs(diff(range(linpred)))/2 | linpred <fake_floor - abs(diff(range(linpred)))/2 ] <- NA #فاصله را محدود کنید و یک سقف و افکت کف شبیه به امتیازات linpred[linpred > fake_ceiling] <- fake_ceiling linpred[linpred <fake_floor] <- fake_floor برای ترسیم موارد بالا: library(ggplot2) # فقط برای دادن همه نمودارهای یکسان my_ylim <- c(fake_floor - abs(fake_foor)*.25, fake_seiling + abs(fake_stiling)*.25) my_xlim <- c(-1.5, 3.5) qplot(y=linpred, x=xtest, col =gender, ylab=Outcome) این تصویر را می دهد:  ### رگرسیون ها در این بخش من رگرسیون خطی منظم، رگرسیون چندک (با استفاده از میانه) و رگرسیون چندک لجستیک را ایجاد می کنم. تمام تخمین ها بر اساس مقادیر بوت استرپ با استفاده از تابع ()bootcov است. library(rms) # رگرسیون خطی منظم fit_lm <- Glm(linpred~rcs(xtest, 5)+جنسیت, x=T, y=T) boot_fit_lm <- bootcov(fit_lm, B=500) p <- پیش بینی(boot_fit_lm, xtest=seq(-2.5، 3.5، by=.001)، gender=c(مرد، مونث)) lm_plot <- plot.Predict(p, se=T, col.fill=c(#9999FF, #BBBBFF), xlim=my_xlim, ylim=my_ylim ) # رگرسیون چندکی fit_rq منظم <- Rq(فرمول(fit_lm)، x=T، y=T) boot_rq <- bootcov(fit_rq, B=500) # هشدار کمی نگران کننده: # در rq.fit.br(x, y, tau = tau, ...) : راه حل ممکن است غیر منحصر به فرد p <- Predict(boot_rq, xtest=seq( -2.5، 3.5، توسط=.001)، gender=c(مذکر، مونث)) rq_plot <- plot.Predict(p، se=T، col.fill=c(#9999FF، #BBBBFF)، xlim=my_xlim، ylim=my_ylim) # تبدیلات لاجیت logit_fn <- تابع(y، y_min، y_max، epsilon) log((y-(y_min-epsilon))/(y_max+epsilon-y)) antilogit_fn <- تابع (antiy، y_min، y_max، epsilon) (exp(antiy)*(y_max+epsilon)+y_min-epsilon)/ (1+exp(antiy)) epsilon <-.0001 y_min <-min(linpred, na.rm=T) y_max <- max(linpred, na.rm=T) logit_linpred <- logit_fn(linpred, y_min=y_min, y_max=y_max, epsilon=epsilon) fit_rq_logit <- update(fit_rq, logit_linpred ~ .) boot_rq_logit <- bootqv Predict(boot_rq_logit, xtest=seq(-2.5, 3.5, by=.001), gender=c(Male, Female)) # به سازمان بازگردید. مقیاس transformed_p <- p transformed_p$yhat <- antilogit_fn(p$yhat, y_min=y_min, y_max=y_max, epsilon=epsilon) transformed_p$lower <- antilogit_fn(p$lower, y_min=y_min, y_max, y_max=onsil ) transformed_p$upper <- antilogit_fn(p$بالا، y_min=y_min، | رگرسیون چندک لجستیک – نحوه انتقال بهترین نتایج |
15104 | با توجه به تنظیمات آزمایشی زیر: نمونههای متعدد از یک آزمودنی گرفته میشود و هر نمونه به روشهای مختلف (از جمله درمان شاهد) درمان میشود. آنچه عمدتاً جالب است تفاوت بین کنترل و هر درمان است. من می توانم دو مدل ساده برای این داده ها در نظر بگیرم. با نمونه $i$، درمان $j$، درمان 0 به عنوان کنترل، اجازه دهید $Y_{ij}$ داده، $\gamma_i$ خط پایه برای نمونه $i$، $\delta_j$ تفاوت برای درمان باشد. $j$. مدل اول هم به کنترل و هم به تفاوت نگاه می کند: $$ Y_{ij}=\gamma_i+\delta_j+\epsilon_{ij} $$ $$ \delta_0=0 $$ در حالی که مدل دوم فقط به تفاوت نگاه می کند. اگر $d_{ij}$ را از قبل محاسبه کنیم $$ d_{ij}=Y_{ij}-Y_{i0} $$ سپس $$ d_{ij}=\delta_j+\varepsilon_{ij} $$ سوال من این است که چیست؟ تفاوت های اساسی بین این دو تنظیم؟ به ویژه، اگر سطوح به خودی خود بی معنی هستند و فقط تفاوت مهم است، آیا مدل اول بیش از حد انجام می دهد و شاید ضعیف است؟ | آیا تفاوت بین کنترل و درمان باید به طور صریح مدل شود یا به طور ضمنی؟ |
15102 | من اخیراً متوجه شدم که یک مدل ترکیبی که فقط موضوع آن به عنوان یک عامل تصادفی و سایر عوامل به عنوان عوامل ثابت است معادل یک ANOVA در هنگام تنظیم ساختار همبستگی مدل مخلوط بر روی تقارن مرکب است. **بنابراین من مایلم بدانم که تقارن مرکب در زمینه یک ANOVA مختلط (یعنی تقسیمبندی) به چه معناست که در بهترین حالت به زبان انگلیسی ساده توضیح داده شده است. مانند ماتریس همبستگی کلی > CorSymm، بدون ساختار اضافی. یا انواع مختلف _همبستگی فضایی_. **بنابراین، من این سوال مرتبط را دارم که در مورد کدام انواع دیگر از ساختارهای همبستگی ممکن است در زمینه آزمایشات طراحی شده (با عوامل بین و درون موضوعی) استفاده شود؟ منابع برای ساختارهای همبستگی مختلف | تقارن مرکب در انگلیسی ساده چیست؟ |
72887 | فرض کنید همه افراد روی کره زمین را در نظر می گیریم. ما علاقه مندیم 10 نفر را که بیماری قلبی دارند به صورت تصادفی انتخاب کنیم. آیا بهتر است به طور مکرر از 10 نفر نمونه برداری کنیم و سپس انتخابی را انتخاب کنیم که در آن هر 10 نفر بیماری قلبی دارند؟ یا بهتر است فقط به افرادی که بیماری قلبی دارند نگاهی بیندازیم و 10 نفر از آن جمعیت را نمونه برداری کنیم؟ | نمونه برداری و شرایط |
27833 | من سعی می کنم یک رگرسیون لجستیک را جاسازی کنم که در آن تفاوت زیادی در تعداد نقاط داده در هر گروه وجود دارد (70 در مقابل 10000). یکی از دوستان آمارشناس من به من گفته است که این یک مشکل شناخته شده رگرسیون لجستیک است و برای این نوع اعداد با داده ها سازگاری بیشتری دارد و اساسا کار نمی کند. وقتی داده ها را جمع می کنم و با مدل مقایسه می کنم، کاملاً واضح است که قطعاً این مورد است. میپرسم آیا کسی از روش بهتر/منعطفتر برای برازش این نوع دادههای پاسخ باینری آگاه است؟ (به هر حال من یک آمارگیر نیستم، پس راحت باشید!) | نسخه انعطاف پذیر رگرسیون لجستیک |
94299 | من در حال نوشتن برنامه ای هستم که یادداشت هایی را از صفحه کلید به عنوان ورودی می گیرد (فقط اعداد، 1 تا 88) و تصمیم می گیرد که کدام نت ها با کدام دست پخش شوند. متغیرهای زیادی وجود دارد، به عنوان مثال، موقعیت نت (هرچه بالاتر باشد، شانس بیشتری برای نواختن با دست راست و بالعکس)، میزان نواختن نت هایی با همان دست در کنار نت هدف. و غیره. اگر داده های تجربی داشته باشم و آن ها را تجزیه و تحلیل کنم، راه برازش معادله (منحنی) با آن چیست؟ بیشترین کاری که من از این نوع انجام داده ام این است که یک خط را به مجموعه ای از داده ها متصل کنم، بنابراین کمی گم شده ام. همچنین، همانطور که میدانم، اگر دو متغیر وجود داشته باشد (و احتمالاً بیشتر خواهد بود) از نمودار سه بعدی است، اگر متغیرهای زیادی داشته باشم هنوز راهی برای انجام آن وجود دارد. من در آمار کمی مبتذل هستم، بنابراین پیوندهایی با توضیحات مفصل و غیره بسیار مورد قدردانی قرار خواهند گرفت. با تشکر ویرایش: خوب، در اینجا اطلاعات کمی وجود دارد. در حال حاضر اجازه دهید دو متغیر، ارتفاع نت و تعداد نت هایی که با یک دست در نزدیکی نت داده شده (شعاع یک میله) نواخته می شود، در نظر بگیریم. اگر نت شماره 40 (وسط C) یا بالاتر باشد، احتمال بیشتری وجود دارد که با دست راست نواخته شود و اگر نت زیر 40 باشد، به احتمال زیاد توسط دست چپ نواخته می شود. من فکر می کنم یک تابع سیگموئید با یک مرکز در 40 آن را به خوبی توصیف می کند، با اینکه شکل بسته به متغیر دوم کمی متفاوت است. امتیاز من حدود 1000 نت است، هر نت اطلاعاتی در مورد دستی که با آن نواخته می شود، ارتفاع آن و تعداد نت هایی که با همان دست نواخته می شود در شعاع 1 بار است. یک ویرایش دیگر: خوب، در اینجا کمی اطلاعات بیشتر در مورد ماهیت داده های من و هدف همه اینها وجود دارد: هدف برنامه تحلیلی نیست، بلکه عملی است. یک پخش کننده یک صفحه کلید MIDI را پخش می کند و یک فایل MIDI را ضبط می کند. این اساساً یک فایل حاوی توضیحات دیجیتالی از هر نتی است که او نواخته است - ارتفاع آن، زمان پخش آن، طول و سرعت ضربه زدن. من اطلاعی ندارم که کدام نت با کدام دست نواخته شده است. با این حال، با استفاده از اطلاعاتی که در مورد یادداشت ها می دانم، می توانم حدس خوبی داشته باشم. تنها چیزی که من نیاز دارم فرمولی است که احتمال نواختن هر نت توسط دست چپ یا راست را توصیف کند. نت توسط هر یک از چپ دست راست پخش می شود، بنابراین خروجی که من دنبال آن هستم چپ یا راست است، کمی شبیه مشکل چرخاندن سکه است، فقط این یکی به متغیرهای زیادی بستگی دارد نه فقط 50/50. لطفا در صورت نیاز به اطلاعات بیشتر به من اطلاع دهید. با تشکر | یافتن معادله ای با متغیرهای زیادی برای برازش مجموعه ای از داده ها |
78102 | **نکته**: این سوال دنباله برآورد اندازه جمعیت یک زیرگروه بر اساس نمونه های مستقل بدون جایگزینی است. اجازه دهید یک کیسه دارای 1000 توپ با رنگ های دلخواه و اندازه های مجهول ($r$) باشد. فرض کنید حجم کل اشغال شده توسط توپ ها ($t_v$) را نیز می دانیم. ما می خواهیم کل حجم اشغال شده توسط توپ های قرمز ($t_{v}^{red}$) را تخمین بزنیم. ما سعی می کنیم این کار را با گرفتن $x$ نمونه مستقل (بدون جایگزینی در هر نمونه) به اندازه $s$ از جمعیت اصلی انجام دهیم. به عنوان مثال فرض کنید $s$ 10٪ از جمعیت اصلی باشد. به شمارش تعداد توپ های قرمز در هر نمونه ادامه دهید، به عنوان مثال، برای $x = 10 $: (9، 10، 10، 11، 13، 8، 5، 15، 12، 9) برای تخمین تعداد توپ های قرمز در جامعه اصلی را می توان به صورت ساده لوحانه میانگین فهرست فوق را محاسبه و بر نمونه تقسیم کرد. در این مورد: (9 + 10 + 10 + 11 + 13 + 8 + 5 + 15 + 12 + 9) / 10 / 0.1 = 102 در مورد $t_{v}^{red}$ چطور؟ هر نمونه مجموعه ای از اندازه ها را برای توپ های قرمز مشاهده شده به ما می دهد. بنابراین: نمونه 1 = [3، 2، 1، 10، 2، 8، 1، 4، 1، 1] => 33 => V = 5098 نمونه2 = [3، 6، 1، 3، 4، 1، 1، 1، 8، 1] => 29 => V = 2673 نمونه 3 = [1، 4، 3، 10، 1، 1، 5، 1، 1، 2] => 29 => V = 3861 نمونه4 = [4، 1، 1، 1، 2، 6، 2، 6، 1، 1] => 25 => V = 1624 نمونه5 = [1، 6، 1، 2، 4، 3، 7، 10، 10، 2] => 46 => V = 8381 نمونه6 = [6، 6، 1، 2، 1، 10، 3، 2، 3، 1] => 35 => V = 4728 نمونه7 = [1، 4، 2، 1، 4، 1، 2 ، 4، 10، 1] => 30 => V = 3807 نمونه 8 = [1، 8، 3، 3، 4، 3، 1، 8، 1، 5] => 37 => V = 4074 نمونه9 = [7، 9، 2، 4، 4، 6، 6، 1، 8، 1] => 48 => V = 6766 نمونه 10 = [3، 8، 1، 2، 10، 7، 3، 7، 3، 1] => 45 => V = 7191 همانطور که می بینید، حجم تخمین زده شده در هر نمونه می تواند به طور قابل توجهی متفاوت باشد (از 1624 تا 8381). و مشکل من اینجاست سوالات من به این ترتیب است: 1. چگونه می توان حجم کل اشغال شده توسط توپ های یک رنگ خاص را تخمین زد؟ 2. به طور فرضی می توانیم فرض کنیم که اندازه توپ از یک توزیع شناخته شده (در این مورد، zipfian) پیروی می کند. آیا این کمک خواهد کرد؟ 3. چگونه می توانم به جای عدد، توزیع احتمالی از اندازه و حجم تخمین زده شده جمعیت را بدست بیاورم؟ * * * برخی توضیحات در مورد مشکل اصلی: 1. اندازه جمعیت _à priori_ شناخته شده است. 2. حجم جمعیت نیز _à priori_ شناخته شده است. 3. اما تعداد رنگ ها مشخص نیست. یا حجم کل هر رنگ. یا هر دو نسبت. 4. هر نمونه بدون جایگزینی توپ می گیرد. 5. نمونه ها مستقل هستند (پس از نمونه برداری، همه توپ ها جایگزین می شوند). | برآورد یک مشخصه زیر جمعیت بر اساس نمونه های مستقل بدون جایگزینی |
78101 | جدول احتمالی من: هموزیگوت هتروزیگوت. هموزیگوت جزئی. عمده مشاهده شده 2 0 3 مورد انتظار 0 0 5 جمعیت مورد انتظار فقط از ژنوتیپ AA تشکیل شده است، اما در جمعیت مشاهده شده ما 2 ژنوتیپ AB را مشاهده می کنیم. برای محاسبه Chi-sq برای این مورد، آیا فقط دو مورد را نادیده میگیرم که مقدار مورد انتظار = 0 است؟ بنابراین من این کار را انجام می دهم: $(3-5)^2/5=0.8$ | آزمون کای دو با 0 مقادیر مورد انتظار |
95855 | من کنجکاو هستم که آیا بستههای شبکه عصبی وجود دارد که به راحتی امکان ساخت شبکههای عصبی پیشخور با وزنهای مشترک را فراهم میکند، اما همچنین اجازه میدهد که آموزش به صورت موازی انجام شود. Torch7 امکان ساخت آسان وزنههای مشترک را فراهم میکند، اگرچه پشتیبانی آموزشی موازی یا وجود ندارد (یا به اندازه کافی مستند نشده است که واضح باشد که وجود دارد). اگر به پایتون متصل شود، حتی بهتر است، اما این یک الزام نیست. | بسته های شبکه عصبی که امکان وزنه های مشترک و آموزش موازی را فراهم می کند |
72265 | من آزمایشی را در وبسایت خود انجام دادم که در آن کاربران را بهطور تصادفی به دو گروه درمان یا کنترل اختصاص دادم و دو سؤال در مورد چگونگی محاسبه صحیح اهمیت نتایج داشتم. برخی زمینه ها: متغیر نتیجه تعداد کل اقداماتی است که آنها در وب سایت من انجام دادند. من میانگین تعداد اقدامات انجام شده توسط کاربران در گروه کنترل و درمان خود را به ترتیب محاسبه می کنم: $A_C = \frac{\sum_{i \in C} a_i }{|C|}$, $A_T = \frac{\ sum_{i \in T} a_i}{|T|}$ (که $T$ و $C$ گروههای درمان و کنترل من هستند و $a_i$ تعداد اقدامات انجام شده توسط کاربر $i$ است). آیا $A_T-A_C$ یک نتیجه معقول برای اندازه گیری است؟ نگرانی من این است که از آنجایی که $a_i$ ها بر اساس یک توزیع سنگین توزیع می شوند، میانگین توسط چند کاربر قدرتمند به شدت منحرف می شود. معمولاً میانه را میگیرم، اما دمها آنقدر سنگین هستند که میانه بسیار کوچک است. چیز دیگری که من اندازهگیری کردهام، آمار KS در توزیع تعداد اقدامات برای کاربران در گروههای کنترل و درمان است. 1. آیا تفاوت در میانگین یا آماره KS روش معقول تری برای تعیین اینکه آیا درمان تأثیر داشته است؟ 2. من مقادیر p bootstrapped را با محاسبه معیارهای یکسان (تفاوت در میانگین و آمار KS) برای بسیاری از تقسیمهای تصادفی جمعیت کاربر محاسبه میکنم، سپس شمارش میکنم که چند تقسیم تصادفی باعث ایجاد مقادیر «معنادارتر» نسبت به کنترل/درمان تجربی من میشود. تقسیم داد. آیا این درست است؟ | نحوه اندازه گیری صحیح تأثیر بر توزیع دم سنگین |
88537 | به خوبی شناخته شده است که راه حل برای مسائل بهینه سازی ارائه شده در مولفه های اصلی و تحلیل همبستگی متعارف به ترتیب با حل مسائل ارزش ویژه و مسائل ارزش ویژه تعمیم یافته ارائه می شود. جبر خطی من کاملاً زنگ زده است و میخواستم بدانم آیا کسی میتواند توضیحی نیمه رسمی، هرچند شهودی در مورد چرایی این موضوع به من بدهد. | اجزای اصلی، همبستگی متعارف و مسائل ارزش ویژه |
72886 | من با برخی از مدلهای خودرگرسیو دو رژیمی کار میکنم که برای اولین بار توسط همیلتون در سال 1989 معرفی شدند. من یک مجموعه داده دارم و از MCMC برای یافتن چگالی پسین همه پارامترهای مدلهایم، از جمله همه متغیرهای باینری پنهان استفاده میکنم. من مجموعه داده ای از حدود 1000 مشاهده دارم و برای هر مشاهده یک متغیر پنهان در مدل های خود دارم که می تواند 1 یا 0 باشد. اگر داده های من به طور ناگهانی تغییر کند، می توانم فرض کنم که یک سوئیچ روشن شده است و متغیر پنهان است. تغییر کرده است. بنابراین اگر دادهها، در یک زمان خاص، (به احتمال زیاد) با متغیر نهفته 1 بودن بهترین توصیف شوند، نمونهگر من یک توزیع پسینی (برای این متغیر پنهان خاص) با احتمال بالای 1 و احتمال کم 0 تولید میکند. این همه خوب است، من موفق به انجام این کار شده ام. سوال این است که چگونه مدل خود را تایید کنم؟ AIC/BIC فقط برای مقایسه مدل ها است. چیزی که من به آن فکر می کنم این است که باید بتوانم به نحوی باقیمانده ها را رسم کنم، مانند رگرسیون معمولی که فقط می گویید باقیمانده تفاوت نتیجه مشاهده شده و پیش بینی شده است. من میدانم که برای همه پارامترهای دیگر غیر از پارامترها/متغیرهای پنهان، فقط میتوانم از میانگین هر توزیع پسین استفاده کنم و با آن مانند یک برآوردگر حداکثر درستنمایی رفتار کنم. اما من نمیتوانم میانگین توزیعهای پسین خود را برای همه متغیرهای پنهان بگیرم، زیرا آنها یا 0 هستند یا 1. استفاده از مثلاً 0.8 برای یکی از متغیرهای پنهان من هیچ منطقی ندارد. این هیچ گزینه ای نیست. پس چگونه باید مدل خود را تأیید کنم؟ من واقعا اینجا گیر کردم اگر در توضیح مشکلم کار بدی انجام داده ام، عذرخواهی می کنم و سعی می کنم بهتر توضیح دهم. * * * پس من فکر کرده ام. آیا می توانم از یک توزیع پسین پیش بینی برای اعتبارسنجی مدل خود استفاده کنم؟ و اگر مشاهدات بیش از حد، مثلاً، صدک 95 توزیع خلفی پیشبینیکننده باشد، مدل خود را دور میاندازم؟ به طور کلی، برای هر مدلی که پارامترهای آن تتا، مشاهدات x و مشاهدات جدید x_new نامیده میشوند، توزیع پیشبینیکننده پسین را به صورت زیر محاسبه میکنیم: برای i = 1، . . . ، n (نمونه ها)، نمونه برداری می کنیم: 1\. تتا[i] از p(theta|x) و 2\. x_new[i] از p(x_new|theta[i]) سپس x_new[1]، . . . ,x_new[n] نمونهای از توزیع پیشبینی پسین هستند. اما این روش مطمئناً فقط زمانی باید کار کند که نمونه iid داشته باشیم. من با یک مدل اتورگرسیو کار می کنم. پس گیر کردم... | اعتبار سنجی مدل در آمار بیزی از مدلی با متغیرهای پنهان |
18087 | آیا راههای خوب برای از بین بردن اثرات پیوندها در یک مجموعه داده برای تجزیه و تحلیل آماری وجود دارد؟ به عنوان مثال، در یافتن همبستگی بین دو سریال که پیوندهای زیادی دارند؟ من می خواهم وابستگی بین دو سری را با یک ضریب همبستگی پیرسون و سایر معیارهای همبستگی، مانند تاو کندال، تخمین بزنم. با این حال، نمی دانم که آیا ضریب همبستگی پیرسون یا هر ضریب دیگری برای چنین داده هایی خوب است. مجموعه داده حدود 40K مشاهدات است، هر دو متغیر مقادیر [0،1] را می گیرند، و تعداد زیادی پیوند (حدود 20K) در 0 و 1 وجود دارد. | پیوند در داده ها |
78107 | من می خواهم **نادر بودن هر جمله را در مجموعه اسناد ارزیابی کنم**. لطفاً جدیدترین یا یک مقاله نظرسنجی در مورد این کار را به من اطلاع دهید. من قبلاً چندین مقاله را در **مشکل خلاصهسازی اسناد** (مثلا [1]) بررسی کردهام که به نظر میرسد با وظیفه من ارتباط نزدیکی داشته باشد و در واقع یکی از روشهای خلاصهسازی به من نتیجه تخمین متوسطی را ارائه میدهد. اما، من معتقدم ارزیابی نادر بودن متن باید یکی از موضوعات مهم در زمینه NLP باشد و مطالب خوبی برای یادگیری موضوع وجود دارد. [1] خلاصه سازی خودکار: وضعیت هنر، کارن اسپارک جونز، 2007 | نادر بودن متن را در مجموعه اسناد ارزیابی کنید |
47222 | من به دنبال مشاوره و نظراتی هستم که به تجزیه و تحلیل نسبت ها و نرخ ها می پردازند. در زمینه ای که من در آن کار می کنم، تجزیه و تحلیل نسبت ها به طور خاص گسترده است، اما من چند مقاله خوانده ام که نشان می دهد این می تواند مشکل ساز باشد، به این فکر می کنم: > Kronmal, Richard A. 1993. همبستگی کاذب و مغالطه نسبت > استاندارد بازبینی شد _Journal of the Royal Statistical Society Series A_ > 156(3): 379-392 و مقالات مرتبط. از آنچه تاکنون خوانده ام، به نظر می رسد نسبت ها می توانند همبستگی های جعلی ایجاد کنند، خطوط رگرسیون را از طریق مبدا وادار کنند (که همیشه مناسب نیست) و مدل سازی آنها ممکن است اصل حاشیه بودن را نقض کند اگر به درستی انجام نشود (استفاده از نسبت ها در رگرسیون، نوشته ریچارد گلدشتاین). ). با این حال، باید مواردی وجود داشته باشد که استفاده از نسبت ها موجه باشد و من نظراتی را از متخصصان آمار در مورد این موضوع می خواستم. | تکنیک های تجزیه و تحلیل نسبت ها |
31486 | آیا کسی از یک کتابخانه رگرسیون چندگانه متعامد که در R، Scipy، Matlab، Octave و غیره پیاده سازی شده است، اطلاع دارد؟ (یا حتی fortran/C...) اگر اشتباه نکنم نوشتنش سخت نیست فقط میخواستم چک کنم. سوال دوم: برنامه واقعی من برای یک مورد رگرسیون چند متغیره است که در آن دو ماتریس دارم، $\mathbf{Y}$ و $\mathbf{X}$. اگر بتوانم یک برآوردگر حداقل مربعات کل برای $\boldsymbol\beta$ و $\boldsymbol\beta'$ پیدا کنم، آیا معکوس عناصر انتقال یافته آن با یکدیگر برابر است ($\hat{\beta}_{ji}^ {-1} = \hat{\beta}'_{ij}$) اگر دو ماتریس ضریب با $\mathbf{Y} = \hat{\boldsymbol{\beta}} تعریف شوند \mathbf{X}$ و $\mathbf{X} = \hat{\boldsymbol{\beta}}' \mathbf{Y}$؟ به نظر می رسد که این برابری ($\hat{\beta}_{ji}^{-1} = \hat{\beta}'_{ij}$) لزوماً مانند حالت کلاسیک صادق نیست، جایی که مقادیر اسکالر $\beta^{-1}=\beta'$ وقتی $\mathbf{Y}$ و $\mathbf{X}$ صرفاً بردار هستند و نه ماتریس، اما همچنین میخواستند بررسی کنند که آیا این یک مشخص است یا خیر واقعیت با تشکر | چگونه می توانید ضرایب یک رگرسیون چند متغیره ${\bf Y} \sim {\bf X}$ را به ضرایب ${\bf X} \sim {\bf Y}$ مرتبط کنید؟ |
35909 | من چند متغیر داده مجموعه آموزشی $x_1$، $x_2$، $x_3$، $x_4$، و $x_5$ و یک متغیر پاسخ $y$ دارم. اما اینها داده های سری زمانی هستند. بنابراین برای مجموعه مقادیر یکسانی از $x_1$، $x_2$، $x_3$، $x_4$، و $x_5$ متغیر پاسخ $y$ ممکن است در مشاهدات مختلف متفاوت باشد. لطفاً کسی می تواند به من پیشنهاد دهد که چگونه رگرسیون خطی خود را در این مورد مدل کنم؟ در حال یادگیری آمار جدید هستم. لطفا به ساده ترین شکل ممکن توضیح دهید. من در حال آپلود عکسی هستم که همان سوال را برای وضوح بیشتر توضیح می دهد | چگونه یک رگرسیون خطی را بر اساس زمان مدل کنیم؟ |
16218 | آیا بین عبارات «آزمون فرضیه» و «آزمون معناداری» تفاوتی وجود دارد یا یکی هستند؟ پس از پاسخی دقیق از @Micheal Lew، من یک سردرگمی دارم که امروزه فرضیهها (مثلاً آزمون t تا میانگین آزمون) نمونهای از «آزمون معناداری» یا «آزمون فرضیه» هستند؟ یا ترکیبی از هر دو است؟ چگونه آنها را با مثال ساده متمایز می کنید؟ | تفاوت بین آزمون فرضیه و آزمون معناداری چیست؟ |
47229 | من در حال کار بر روی سؤالات امتحانی گذشته از انجمن رویال آمار هستم و در سال 2009 در ماژول 5 با این سؤال مواجه شدم (سوال 2(i) و راه حل): > متغیر تصادفی $X$ دارای یک $\chi^{2}_{ است. k} توزیع $ ($k=1,2,3, ...$) > که دارای تابع تولید لحظه (mgf) $m(t) = (1 − 2t)^{−k/2}$ برای > $t < \frac{1}{2}$. > > با استفاده از mgf، میانگین و واریانس X$ را پیدا کنید. می دانم که میانگین $k$ و واریانس $2k$ خواهد بود، اما نمی توانم آن را استخراج کنم. این بهترین تلاش من است که نادرست است: $$ E[X] = d/dx[M_X(0)] = -2 \times \frac{-k}{2}(1-2X)^{-k/2 -1} = k^{\frac{-k}{2} -1} $$ من کاملاً مطمئن هستم که باید یک بسط با $0$ انجام دهم اما نمیتوانم ببینم چگونه این کار را انجام دهم. | چگونه می توان میانگین تابع متغیر کای مربع را با استفاده از MGF استخراج کرد؟ |
31772 | عنوان واقعاً گویای همه چیز است. من از توزیع Wishart برای متغیرهای تصادفی با ارزش ماتریس متقارن، غیرمنفی-معین آگاه هستم، و به دنبال چیزی در امتداد این خطوط هستم، اما برای متغیرهای تصادفی متقارن و باینری با مقدار ماتریس متقارن. در صورت لزوم، من مایلم از الزامی که ماتریس ها کم هستند صرف نظر کنم. زمینه برای این مطالعه ماتریس های مجاورت برای نمودارهای غیر جهت دار است. به ویژه، بعید است که رئوس دور به هم متصل شوند، از این رو پراکندگی است (منظورم از دور، عدم تشابه بین هر چیزی که راس ها نشان می دهند، به روشی مناسب اندازه گیری می شود). پیشاپیش ممنون | آیا توزیع (پارامتری) روی متغیرهای تصادفی متقارن و باینری با ارزش ماتریس وجود دارد؟ |
34052 | من با مجموعهای از ژنها کار میکنم که هم مقادیر متیلاسیون $\beta$ (مستمر در بازه واحد) و هم بیان ژن $E$ (غیر منفی پیوسته) را دارم که میخواهم برای همبستگی $\hat\rho( log_2E،\beta)=R$. برای فیلتر کردن فقط همبستگیهای مهم، یک آزمایش جایگشت انجام میدهم که در آن برای هر سایت بهطور تصادفی تعداد زیادی $E$ را جابجا میکنم و $R$ را محاسبه میکنم. این به من توزیعی تحت فرضیه صفر $p(R|H_0)$ می دهد، یعنی زمانی که هیچ وابستگی بین $\beta$ و $E$ وجود ندارد، می توانم $R$ را با آن مقایسه کنم. حالا در مورد سوال من، من می خواهم همبستگی مثبت و منفی را آزمایش کنم. آیا برای هر ژن دو آزمایش انجام دهم و از تصحیح آزمایش دوگانه چندگانه استفاده کنم، که در آن $p_- = \int\limits_{-\inf}^Rp(x|H_0)dx$ $p_+ = \int\limits_{R}^\ inf(x|H_0)dx$ یا می توانم و آیا باید یک p-value دو دنباله را مستقیماً بر اساس $|R|$ یا مانند آن محاسبه کنم و از تصحیح آزمایش چندگانه معمولی استفاده کنم؟ من فقط می توانم به موارد زیر فکر کنم، اما به نظر اشتباه است و قدرت بدی دارد. $p_2 = \int\limits_{-\inf}^{-|R|}p(x|H_0)dx + \int\limits_{|R|}^\inf(x|H_0)dx$  **ویرایش:** شکل را به روز کرد و برچسب محور x را اضافه کرد. محور y برای همه پانل ها یکسان است. | تست جایگشت دو طرفه در مقابل دو یک طرفه |
34050 | مثال زیر را در نظر بگیرید: t = 1/24:1/24:365; x = cos((2*pi)/12*t)+randn(اندازه(t)); % اگر جعبه ابزار پردازش سیگنال را دارید [Pxx,F] = پریودوگرام(x,rectwin(length(x)),length(x),1); نمودار (F,10*log10(Pxx)); xlabel('Cycles/hour'); ylabel('dB/(Cycles/hour')؛ این نشاندهنده تناوب غالب در مجموعه داده است. با این حال، اگر من یک سری زمانی برای دادههای یک ساله داشته باشم، مشابه آنچه در بالا نشان داده شده است، آیا میتوان به چگونگی آن نگاه کرد. یک فرکانس خاص در طول زمان تغییر می کند، به عنوان مثال، سری زمانی بالا تغییرات ساعتی یک متغیر معین را در طول سال نشان می دهد، بنابراین اگر می دانستیم که دوره غالب توسط یک چرخه روزانه هدایت می شود در هر روز) می دانیم که تناوب غالب 1/24 خواهد بود، بنابراین، اگر تناوب غالب را 1/24 بدانیم، آیا می توان دید که چگونه قدرت این تناوب خاص در زمان تغییر می کند (یعنی در طول دوره. سال)؟ | ارزیابی تغییر در توان یک تناوب شناخته شده |
35903 | من در دانشگاهی که در آن مشغول به کار هستم یک دوره برنامه نویسی تدریس می کنم. من می خواهم یک آزمون آماری انجام دهم تا ببینم آیا نمرات دانش آموزان (نمرات امتحانات) در مقایسه با ترم قبل (به عنوان مثال، ترم تابستان در مقابل ترم زمستان) به طور قابل توجهی بهتر است یا خیر. هر ترم سه امتحان برگزار می شود و نمرات از 1 (بهترین نمره) تا 5 (رد شدن) نمره گذاری می شود. هر بار حدود 24 دانش آموز در این امتحان شرکت می کنند. برای ارزیابی اینکه نمرات ترم تابستانی با در نظر گرفتن 3 امتحان در هر ترم به طور قابل توجهی بهتر از ترم زمستان است، چه آزمونی مناسب است؟ (من می خواهم آزمون را در R اجرا کنم، بنابراین اگر کسی بداند که چگونه آن را در R نامیده می شود، عالی خواهد بود. اما فکر می کنم خودم می توانم آن را پیدا کنم.) زمینه: من می خواهم برای یک جایزه تدریس درخواست کنم. اگرچه در صورت بهبود طراحی دوره، نمرات احتمالاً آزمون خوبی برای عملکرد تدریس نیستند، اما من میخواهم نتایج آماری را به عنوان نشاندهنده شایستگی نامزدی خود همراه با بازخورد دانشآموز از پرسشنامه ارزیابی مربی ارائه دهم. ویرایش: دانشجویان در هر ترم متفاوت هستند (به استثنای کسانی که چندین بار موفق نمی شوند). مربی متفاوت است (من دومین مربی هستم). تست هم همینطوره بله، تفاوت در توانایی های دانش آموزان یک عامل بالقوه مخدوش کننده است. به هر حال میخواهم آزمون را اجرا کنم و شاید بتوانم بگویم که تفاوت در مجموعه دانشآموزان در کلاسها عامل اصلی تأثیرگذار بر تفاوت در توزیع منابع و میانگین نمرات نیست. | تست کنید که آیا نمرات درسی در این ترم نسبت به ترم گذشته بهتر است یا خیر |
88284 | من سعی می کنم راهی معقول برای اندازه گیری **احتمال** یک سایت (سایت خبری) پیدا کنم. من سعی میکنم تحلیل همگروهی انجام دهم: همه بازدیدها را بر اساس سال/هفته گروهبندی کردهام و درصد کاربرانی را که در هفتههای بعد بازمیگردند اندازهگیری کردهام. **توضیح**: این کاربران اولین بازدیدکنندگانی هستند که در هفته های پس از اولین بازدیدشان ردیابی شده اند. من داده های زیر را دارم: yyyy/ww 1 2 3 4 5 6 7 8 9 10 11 12 13 201348 27.33 7.51 5.71 6.61 3 5.41 4.8 4.5 4.2 5.49 4.5 4.2 4.5 4.2 12 13 7.88 5.23 3.03 2.53 4.02 3.16 3.13 2.83 2.63 2.16 2.06 1.25 201350 7.91 3.79 3.01 4.59 3.53 4.59 3.57 3.24 3.25 1.4 201351 6.64 4.1 5.69 4.41 4.13 3.68 3.36 2.8 2.56 1.56 201352 6.09 6.99 5.05 4.79 3.93 3.68 3.414 11.66 6.69 6.28 5.45 4.67 3.74 3.4 1.99 201402 8.45 6.14 5.11 4.61 3.49 3.1 1.77 201403 9.455 201403 9.455 201403 9.454 6.14 201404 9.78 6.78 4.9 4.18 2.29 201405 8.96 5.37 4.45 2.47 201406 8.88 5.85 3.07 201407 8.426 8.96 هفته 3.7 در زمان، برچسب های ستون تعداد هفته هایی است که از اولین بازدید گذشته است. مقادیر سلول ها **درصد** کاربران اولیه است که برگشته اند. دو مقدار بد بو در هفته + 1 برای کریسمس و سال جدید است. سوال من این است: چگونه باید این مقادیر را تفسیر کنم؟ من دانش آماری خیلی عمیقی فراتر از اصول اولیه ندارم. من سعی کردم شیب هر ردیف را محاسبه کنم، و این را به دست آوردم (قدیمی ترین به جدیدترین): -4.956 -1.042 -0.788 -0.471 -0.64 -1.522 -1.145 -1.391 -1.758 -2.039 -2.905 -4.7 که یک امتیاز خوب من است. سایت اجرا شیب افزایشی خواهد داشت ارزش در طول زمان در این مورد برعکس به نظر می رسد. **توضیح**: منظور من از افزایش شیب این است که مقدار شیب برای بازدیدکنندگانی که برای اولین بار از آن بازدید می کنند کمتر از صفر دورتر باشد. با گذشت زمان، درصد افرادی که به بازگشت ادامه میدهند بیشتر از گروههای قبلی (اما هنوز کمتر از 100٪) خواهد بود. چیزی شبیه به این، که در آن می توانید مشاهده کنید کسر کاربران حفظ شده بیشتر از ماه قبل است:  هرگونه پیشنهاد و/یا انتقاد خوش آمدید با تشکر | تجزیه و تحلیل کوهورت برای سایت رسانه |
34059 | من قبلاً در اینجا یک سؤال مرتبط در مورد تفاوت بین روش GEE با ساختار varcov قابل تعویض در مقابل خطاهای استاندارد قوی معروف به روش Huber White در کارآزماییهای تصادفی گروهی پرسیدم. همانطور که ماکرو در مقاله خود در سال 2006 به نام فریدمن اشاره کرد. با ناهمسانی و همبستگی بین خوشه ها. من مطالعه ای با 34 مدرسه دارم که به طور تصادفی به درمان/کنترل اختصاص داده شده اند. ICC در این مطالعه 0.04 است (اگرچه کوچک است، اما از نظر آماری معنادار است، اطلاعات بیشتر در اینجا) با اثر طراحی 17.7 است. ICC درجاتی از شباهتها را در بین دانشآموزان در مدارس (به عنوان مثال خوشهها) نشان میدهد. مدارس تعداد دانشآموزان متفاوتی از 150 تا 800 دارند. سؤال من این است که اگر میخواهید دادهها را تجزیه و تحلیل کنید، کدام روش را برای استنتاج معتبر انتخاب میکنید؟ Huber-White یا GEE با ماتریس varcov قابل تعویض؟ من به دو دلیل طرفدار GEE هستم: 1) ما خوشه های نامتعادل داریم 2) تخمین های ما با GEE کارآمدتر هستند. اگر GEE را انتخاب می کنید، می توانید توضیح دهید که چرا و چه کاری GEE می تواند انجام دهد که HuberWhite نمی تواند انجام دهد و برعکس؟ من از کمک شما قدردانی می کنم. | کدام روش تبادلپذیر GEE میتواند این واریانس قوی را انجام دهد؟ |
4775 | می خواستم بدونم که آیا می توان محاسبات نمادین را در R انجام داد؟ برای مثال، من امیدوار بودم که معکوس یک ماتریس کوواریانس نمادین توزیع گاوسی سه بعدی را بدست بیاورم. همچنین آیا می توانم ادغام و تمایز نمادین را در R انجام دهم؟ با تشکر و احترام! | محاسبات نمادین در R؟ |
108300 | من 2 مجموعه داده دارم (من تعداد بیشتری دارم اما برای سادگی، اجازه دهید بگوییم که 2 مجموعه دارم). داده 1 0.15239652 0.145848036 0.175981261 داده 2 0.417902092 0.342696648 0.354871141 0.354871141 من میانگین این مقادیر را داده 1: 0.152781261 داده ها normalize Data 1: 1 Data 2: 2.352191387 حالا چگونه خطای استاندارد را محاسبه کنم؟ اتفاقا من از Excel برای این محاسبات استفاده می کنم. | چگونه انحراف استاندارد را از یک مقدار نرمال شده محاسبه کنیم؟ |
35900 | من دو سری زمانی از داده های شمارش دارم که معتقدم همبسته هستند. آیا معادلی برای 'cov()' وجود دارد که یک پواسون بیش از حد پراکنده را به جای توزیع نرمال فرض می کند؟ اگر یک آزمون معنادار برای این وجود داشته باشد (با توجه به اینکه هر دو سری در طول زمان افزایش مییابند اما همبستگی را ثابت نمیکند)، خیلی بهتر است. من تعجب کردم که آیا vcov() ممکن است کمک کند اما روی پارامترهای یک مدل حل شده تمرکز می کند. به طور گسترده تر، من به دنبال معیاری از شباهت بین دو متغیر هستم که برای داده های شبه پواسون مناسب باشد. | چگونه می توانم کوواریانس متغیرهای شبه پواسون توزیع شده را در R محاسبه کنم؟ |
77012 | چگونه می توانم استقلال خطی متغیرهای خود را بررسی کنم؟ من این سیستم $Ax=b$ را دارم که در آن A یک ماتریس $N\ برابر 4$ است. من می خواهم استقلال خطی بین 4 متغیر در ماتریس $A$ را بررسی کنم. | نحوه بررسی استقلال خطی |
35902 | من دو دنباله با طول مساوی دارم، مانند «[1، 1، 2، 2، 2، 3، 3، 3، 4]» و «[1، 2، 2، 3، 3، 3، 3، 4، 4 ]`. من میخواهم شانس تولید آنها توسط متغیرهای تصادفی یکسان یا متفاوت را تعیین کنم. یک آزمون آماری خوب برای انجام این کار چیست؟ داده ها به صورت زوجی نیستند. نه سری زمانی هستند. هر عنصر در دنباله مستقل از عناصر دیگر است. (متاسفم اگر جزئیات لازم را حذف می کنم؛ من تازه وارد آمار هستم.) | چگونه تشخیص دهیم که دو دنباله به طور قابل توجهی متفاوت هستند؟ |
78104 | من میخواهم تخمینگر حداکثر احتمال «پارامتر نرخ تتا توزیع نمایی» را پیدا کنم. بنابراین من دستورات زیر را در `R` دنبال کردم: x=rexp(500,rate=2) f <- function(x,theta){ sum(-dexp(x,rate=theta,log=T)) } optimize( f=f,x=x,interval=c(0,5)) ### من منطق را نمی فهمم - _چرا ما حداکثر=FALSE(پیش فرض) را در نظر می گیریم تابع 'بهینه سازی'؟_ ### چرا از 'maximum=TRUE' برای پیدا کردن MLE استفاده نکرده ایم؟ | برآوردگر حداکثر درستنمایی پارامتر نرخ توزیع نمایی (MLE) |
77010 | آیا کسی می تواند به من در درک آزمون رتبه امضا شده ترتیبی کمک کند؟ چگونه آزمون متوالی را با آزمون رتبه بندی امضا شده مرتبط کنیم و چگونه H0 و H1 را در SSRT تعیین کنیم؟ | آیا کسی می تواند به من در درک آزمون رتبه امضا شده ترتیبی کمک کند؟ |
72268 | من این سردرگمی مربوط به PCA را دارم. بیایید بگوییم که من یک داده 100 بعدی دارم، سپس طرح ریزی به اولین مؤلفه اصلی با میانگین تمام ابعاد داده می شود. چطور اینطور است؟ | سردرگمی مربوط به PCA |
47223 | من یک عملکرد دارم که نویز به آن اضافه کرده ام. من میخواهم چند نرمافزار را تست کنم، اما برای هر نرمافزار میخواهم MSE را به حداقل برسانم. من تابع زیربنایی را می دانم، بنابراین چگونه می توانم R را به طور خودکار پهنای باندی را انتخاب کنم که MSE را به حداقل می رساند؟ | انتخاب خودکار پهنای باند در R |
103909 | هنگامی که اعتبار سنجی متقاطع k-fold را انجام می دهم، مشاهدات به طور تصادفی در هر فولد انتخاب می شوند. این برای داده های مقطعی خوب کار می کند. با این حال، وقتی دادههای تابلویی دارم (و با مدل سلسله مراتبی مطابقت دارم)، آیا منطقی است که مجموعه آموزشی مشاهداتی داشته باشد که قبل از آنهایی که در مجموعه آزمایشی هستند اتفاق بیفتد؟ | اعتبار سنجی متقابل داده های تابلویی |
77900 | من روی برخی تحقیقات پزشکی کار می کنم. با توجه به 3 مقدار (BMI، سن، جنسیت) من لیستی از خطرات پایه برای احتمال وقوع یک عارضه نامطلوب در 10 سال آینده برای فردی با BMI، سن، جنسیت معین دارم. من همچنین فهرستی از عوامل خطر اضافی را دارم که به عنوان نسبت خطر ارائه شده است. چگونه می توانم به درستی احتمال 10 ساله یک رویداد نامطلوب را با اصلاح ریسک پایه محاسبه کنم اگر مثلاً 1 یا چند عامل خطر برای یک فرد اعمال شود. بنابراین، برای مثال: با توجه به اینکه فردی با سن 30 سال، جنسیت مذکر، BMI 25 در معرض خطر 5 درصدی عوارض جانبی در 10 سال آینده است، برخی از عوامل خطر اضافی X و Y را در نظر بگیرید که دارای HR به ترتیب 1.3 و 1.6 هستند. چگونه می توانم خطر 5% را تغییر دهم تا عوامل خطر را در بر گیرد؟ من می دانم که منابع انسانی با استفاده از مخاطرات متناسب کاکس چند متغیره برای یک دوره 10 ساله محاسبه شده است، که مرگ به عنوان یک خطر رقیب در نظر گرفته شده است. هر گونه خرد آماری اضافی قدردانی خواهد شد. | محاسبه احتمال 10 ساله با استفاده از نسبت های خطر؟ |
71501 | آیا صدا/مجاز است که از آنتروپی به عنوان معیار (غیر) یکنواختی یک جریان داده استفاده کند؟ به عنوان مثال من آنتروپی شانون را با فرمول استاندارد بر اساس معیارهای مختلف در جریان داده محاسبه می کنم. اندازه گیری ها مقادیر شمارشی هستند که مجموع احتمالات آنها 1 است. من محاسبه را به طور مداوم هر 1 ثانیه انجام می دهم، بنابراین در هر ثانیه یک مقدار آنتروپی جدید دریافت می کنم. سپس میانگین و انحراف استاندارد مقادیر آنتروپی را در یک پنجره کشویی، فرض کنید 10 ثانیه گذشته، کنترل می کنم. اگر stddev افزایش یا بزرگتر از آستانه خاص شود، فرض میکنم جریان نویزتر/ ضربهگیرتر است. آیا استفاده از آنتروپی در این زمینه خوب است؟ | آنتروپی به عنوان معیار نظم در جریان داده ها |
88289 | میخواستم بدانم که آیا توصیهای برای حداقل اندازه نمونه «مناسب» هنگام تخمین چگالی/توزیع/مقدارهای یک متغیر تصادفی با استفاده از KDE وجود دارد. آیا همیشه اینطور است که داده های بیشتر بهتر است؟ | حداقل حجم نمونه برای تخمین چگالی هسته |
34057 | من درصدهای رتبه دانش آموزان در 38 امتحان را به عنوان متغیر وابسته در مطالعه خود دارم. یک درصد رتبه با (رتبه یک دانش آموز / تعداد دانش آموزان در یک امتحان) محاسبه می شود. این متغیر وابسته توزیع تقریباً یکنواختی دارد و من میخواهم اثرات برخی از متغیرها را بر روی متغیر وابسته تخمین بزنم. از کدام رویکرد رگرسیون استفاده کنم؟ | تخمین درصدها به عنوان متغیر وابسته در رگرسیون |
19752 | با توجه به توزیع $f(x_i,y_i;\alpha,\beta)$ و تابع احتمال مشترک $F(x_1,...,x_N,y_1,...,y_N;\alpha, \beta)$ اولین مرتبه مشتقات $\frac{\partial F}{\partial \alpha}$ و $\frac{\partial F}{\partial \beta}$ هستند شرط مرتبه اول > $\frac{\partial F}{\partial \alpha}=0$ and $\frac{\partial F}{\partial > \beta}=0$ OR > $\frac{\partial F}{\partial \ alpha}=0$ یا $\frac{\partial F}{\partial > \beta}=0$ آیا آنها نیاز به برآورده کردن همزمان دارند یا فقط یکی از آنها؟ | شرایط مرتبه اول برای برآوردگر حداکثر درستنمایی |
72264 | من آزمایش دیکی-فولر تقویت شده را روی داده های SP500 از کتابخانه MASS انجام دادم و نتایج زیر را دریافت کردم: adf.test(SP500) داده های آزمایش دیکی-فولر تقویت شده: SP500 دیکی-فولر = -13.5835، ترتیب تاخیر = 14، p-value = 0.01 فرضیه جایگزین: ثابت به نظر می رسد نتایج نشان می دهد که سری SP500 ثابت است. با این حال، طبق تعریف، ثابت بودن دلالت بر میانگین و واریانس ثابت دارد. سوال من این است که چگونه می توان نتیجه گرفت که این سری ثابت است وقتی سری ها نوسان آشکاری را نشان می دهند که نشان می دهد واریانس سری ثابت نیست؟ همچنین میتواند به من بگوید پارامتر جایگزین و k در اینجا به چه معناست: adf.test(x، alternative = c(stationary، explosive)، k = trunc((length(x)-1)^(1/3 ))) من هنوز روی این سوال گیر کرده ام، آیا قرار است سری های زمانی بازده مالی ثابت باشند؟ زیرا تست ADF گویای این موضوع است اما به نظر نمی رسد که موافق باشم. | تست ADF در سری فرار. نتایج مورد انتظار؟ |
72262 | من یک فیزیکدان هستم که در درمان داده ها مشکلاتی دارم، بنابراین اگر ریاضیات را اشتباه متوجه شدم ببخشید. من چند پراش دارم که به صورت شمارش در مقابل زاویه نمایش داده می شوند. نقاط دارای انحرافات استاندارد تخمین زده شده از یک آمار پویسون روی سطل ها هستند (یک برنامه خارجی این کار را انجام می دهد). به دست آوردن میانگین طیف های مختلف با میانگین شمارش متناظر ساده است. اما چگونه می توانم انحراف استاندارد صحیح را برای شمارش میانگین بدست بیاورم؟ وقتی این روش را اعمال می کنم آیا می توان انحراف معیار ترکیبی را پیدا کرد؟ خطاها در واقع در مقایسه با نقاط داده منفرد بزرگتر می شوند. به نظر می رسد که این غیر منطقی به نظر می رسد، زیرا من انتظار دارم با در نظر گرفتن نقاط داده بیشتر، خطاها کوچکتر شوند؟ تقصیر من کجاست؟ | نحوه میانگین گیری متغیرها با انحراف معیار |
108618 | من در حال نوشتن یک طبقه بندی کننده ساده و بی تکلف بیز برای یک مشکل طبقه بندی متن هستم. من یک دسته از کلمات و یک برچسب مرتبط دارم: [کوتاه، قطعه، متن]، label1 [کمی، متفاوت، قطعه، متن]، label2 ... من می توانم افراد ساده لوح را به خوبی آموزش دهم. با این حال، زمانی که من دادههای دیده نشده را طبقهبندی میکنم، گاهی اوقات ویژگیهایی (کلمات) دیده نمیشود. در آن صورت، برای تعیین احتمال کلاس $C$ با توجه به ویژگی های $F_1,F_2,...$ چه اتفاقی می افتد؟ $$P(C|F_1,F_2,...) = \frac{P(F_1,F_2,...|C)P(C)}{P(F_1,F_2,...)} = \frac {P(C)\prod_{i}P(F_i|C)}{P(F_1,F_2,...)}$$ بگویید ویژگی $F_k$ هرگز در دادههای آموزشی وجود نداشته است، پس اینطور نیست $P(F_k|C)=\frac{0}{0}$؟ این معمولاً در مسائل طبقه بندی چگونه مدیریت می شود؟ یکی از گزینه ها این است که به سادگی ویژگی های دیده نشده را نادیده بگیرید. با این حال، من نمی خواهم این کار را انجام دهم، زیرا سعی می کنم امتیاز احتمال واقعی مرتبط با کلاس ها را محاسبه کنم. وقتی ویژگیهای نادیدهای وجود دارد، احتمالات باید ضربه بخورند، اما من مطمئن نیستم که چگونه این کار را از نظر ریاضی انجام دهم. هر گونه بینش، پیوند به مقالات تحقیق، و غیره واقعا کمک خواهد کرد! پیشاپیش ممنون | چگونه می توان ویژگی های دیده نشده را در یک طبقه بندی کننده Naive Bayes مدیریت کرد؟ |
43175 | من علاقه مند به حل مسئله زیر هستم $$ \min_{\boldsymbol{\beta}} \left( \mathbf{y}-\mathbf{X}\boldsymbol{\beta} \right)^T W \left( \mathbf {y}-\mathbf{X}\boldsymbol{\beta} \right) + \lambda \left|\boldsymbol{\beta}\right|_1 $$ $\mathbf{y}$ بردار مشاهدات برای هر مجموعه داده است. $\mathbf{X}$ ماتریس پیش بینی کننده ها است. $\boldsymbol{\beta}$ مجموعه ضرایب رگرسیون است. $\mathbf{W}$ یک ماتریس مورب پر از اعداد حقیقی مثبت است. با استفاده از رویکرد LARS-Lasso. آیا بسته ای وجود دارد که این کار را انجام دهد، به این معنی که برای هر کدام وزن ها را به عنوان ورودی می پذیرد؟ با تمام عادی سازی مجموعه داده ها (مرکز و مقیاس بندی) که باید انجام شود، من در مورد پیش پردازش داده های خود مردد هستم و هم مشاهده و هم پیش بینی کننده ها را با $\sqrt{W}$ ضرب می کنم و آن را به الگوریتم وارد می کنم. . | LARS - LASSO با وزنه |
86697 | بنابراین من یک سری معادلات غیر خطی دارم که میخواهم آنها را با بیشترین سرعت ممکن حل کنم، برای نشان دادن حالت $n = 4$، معادلات زیر را دارم: \begin{gather*} c_0\exp(\lambda_0 -1)+f\exp(\lambda_0 + \lambda_1 + \lambda_2 + \lambda_3 + \lambda_4 - 1) = 1 \\\ c_1\exp(\lambda_0+\lambda_1-1)+f\exp(\lambda_0 + \lambda_1 + \lambda_2 + \lambda_3 + \lambda_4 - 1) = P_1 \\\ c_2\exp(\lambda_0+\lambda -1)+f\exp(\lambda_0 + \lambda_1 + \lambda_2 + \lambda_3 + \lambda_4 - 1) = P_2 \\\ c_3\exp(\lambda_0+\lambda_3-1)+f\exp(\lambda_0 + \lambda_1 + \lambda_2 + \lambda_4 + \ 1) = P_3 \\\ c_4\exp(\lambda_0+\lambda_4-1)+f\exp(\lambda_0 + \lambda_1 + \lambda_2 + \lambda_3 + \lambda_4 - 1) = P_4 \end{جمع شوید*} جایی که \شروع{جمع آوری*} f = \int_{d_4}^{\infty} \int_{d_3}^{\infty} \int_{d_2}^{\infty} \int_{d_1}^{\infty} q(x_1, x_2, x_3, x_4) dx_1 dx_2 dx_3 dx_4 \\\ c_0 = \ int_{-\infty}^{d_4} \int_{-\infty}^{d_3}\int_{-\infty}^{d_2} \int_{-\infty}^{d_1} q(x_1، x_2، x_3، x_4) dx_1 dx_2 dx_3 dx_4 \\\ c_1 = \int_{-\infty}^{d_4} \int_{-\infty}^{d_3}\int_{-\infty}^{d_2} \int_{d_1}^{\infty} q(x_1، x_2، x_3، x_4) dx_1 dx_2 dx_3 dx_4 \\\ c_2 = \int_{-\infty}^{d_4} \int_{-\infty}^{d_3}\int_{d_2}^{\infty} \int_{-\infty}^{d_1} q(x_1، x_2، x_3، x_4) dx_1 dx_2 dx_3 dx_4 \\\ c_3 = \int_{-\infty}^{d_4} \int_{d_3}^{\infty}\int_{-\infty}^{d_2} \int_{-\infty}^{d_1} q(x_1، x_2، x_3، x_4) dx_1 dx_2 dx_3 dx_4 \\\ c_4 = \int_{d_4}^{\infty} \int_{-\infty}^{d_3}\int_{-\infty}^{d_2} \int_{-\infty}^{d_1} q(x_1، x_2، x_3، x_4) dx_1 dx_2 dx_3 dx_4 \\\ \end{gather*} تعاریف به شرح زیر است: * $P_1، P_2، P_3، P_4$ مقادیر شناخته شده هستند. * $d_1، d_2، d_3، d_4$ مقادیر شناخته شده هستند. * $q(x_1، x_2، x_3، x_4)$ یک توزیع نرمال چند متغیره با میانگین بردار $0$ و یک ماتریس واریانس کوواریانس شناخته شده است. * بنابراین $f، c_0، c_1، c_2، c_3، c_4$ همه به سادگی اعداد واقعی هستند. * * * برای حالت کلی من دارم: \begin{gather*} c_0\exp(\lambda_0-1)+f\exp\left(\sum_{i=0}^n \lambda_i - 1\right) = 1 \\\ c_1\exp(\lambda_0+\lambda_1-1)+f\exp\left(\sum_{i=0}^n \lambda_i - 1\right) = P_1 \\\ c_2\exp(\lambda_0+\lambda_2-1)+f\exp\left(\sum_{i=0}^n \lambda_i - 1\right) = P_2 \\ \ c_3\exp(\lambda_0+\lambda_3-1)+f\exp\left(\sum_{i=0}^n \lambda_i - 1\right) = P_3 \\\ \vdots \\\ c_n\exp(\lambda_0+ \lambda_n-1)+f\exp\left(\sum_{i=0}^n \lambda_i - 1\راست) = P_n \end{جمع میکنید*} جایی که \شروع{جمع*} f = \int_{d_n}^{\infty} \cdots \int_{d_3}^{\infty} \int_{d_2}^{ \infty} \int_{d_1}^{\infty} q(x_1، x_2، x_3، \cdots، x_n) dx_1 dx_2 dx_3 \cdots dx_n \\\ c_0 = \int_{-\infty}^{d_n} \cdots \int_{-\infty}^{d_3}\int_{-\infty}^{d_2} \int_{- \infty}^{d_1} q(x_1، x_2، x_3، \cdots، x_n) dx_1 dx_2 dx_3 \cdots dx_n \\\ c_1 = \int_{-\infty}^{d_n} \cdots \int_{-\infty}^{d_3}\int_{-\infty}^{d_2} \int_ {d_1}^{\infty} q(x_1، x_2، x_3، \cdots, x_n) dx_1 dx_2 dx_3 \cdots dx_n \\\ c_2 = \int_{-\infty}^{d_n} \cdots \int_{-\infty}^{d_3}\int_{d_2}^{\infty} \int_{-\infty}^{d_1} q(x_1، x_2، x_3, \cdots, x_n) dx_1 dx_2 dx_3 \cdots dx_n \\\ c_3 = \int_{-\infty}^{d_n} \cdots \int_{d_3}^{\infty}\int_{-\infty}^{ d_2} \int_{-\infty}^{d_1} q(x_1، x_2، x_3، \cdots، x_n) dx_1 dx_2 dx_3 \cdots dx_n \\\ \vdots \\\ c_n = \int_{d_n}^{\infty} \cdots \int_{-\infty}^{d_3}\int_ {-\infty}^{d_2} \int_{-\infty}^{d_1} q(x_1، x_2، x_3، \cdots، x_n) dx_1 dx_2 dx_3 \cdots dx_n \\\ \end{gather*} تعاریف به شرح زیر است: * $P_1، P_2 ، P_3، \cdots، P_n$ مقادیر شناخته شده هستند. * $d_1، d_2، d_3، \cdots، d_n$ مقادیر شناخته شده هستند. * $q(x_1، x_2، x_3، \cdots، x_n)$ یک توزیع نرمال چند متغیره با میانگین بردار $0$ و یک ماتریس واریانس کوواریانس شناخته شده است. * بنابراین $f، c_0، c_1، c_2، c_3، \cdots، c_n$ همگی اعداد واقعی هستند. * * * حداکثر $n$ 35 خواهد بود، بنابراین 36 معادله برای حل همزمان وجود خواهد داشت. بهترین روش برای حل این مشکل در سریع ترین زمان ممکن با استفاده از هر زبان برنامه نویسی ممکن چیست؟ همچنین باید ورودی های پارامتر را برای $P_i$، $d_i$ و ماتریس کوواریانس واریانس تغییر دهم و مجموعه جدیدی از $\lambda$ را حل کنم، باید حداقل 2000 بار این کار را انجام دهم، یعنی به طور موثر من باید مجموعه ای از 35 معادله را برای 2000 بار حل کند. | بهینه ترین روش برای حل این مجموعه معادلات غیر خطی در ابعاد بالا |
88531 | اجازه دهید $X_{ij}$ با $1\leq i<j\leq n$ (که عبارتند از $X_{12},\dots, X_{1n},\dots,X_{(n-1)n}$) ${n \choose 2}$ $N(0,\sigma^2)$ به طور یکسان عادی توزیع شده است به طوری که $ \text{corr}(X_{ij},X_{rs})=\rho $ if $|\\{i,j\\}\cap\\{r,s\\}|=1$ و $0$ اگر $|\\{i,j\\}\cap\\{r,s\\}|=0$. اگر در تنظیمات نمونه بزرگ باشد، میخواهم $\sigma^2$ را تخمین بزنم. من ثابت کردم که $\hat\sigma^2=\frac1{{n\choose 2}}\sum_{i=1}^n\sum_{j=i+1}^nX_{ij}^2$ به $\sigma^2$ به احتمال زیاد. اما چگونه می توانم بدانم که این برآوردگر بهترین برآورد کننده ای است که می توانیم انجام دهیم؟ برای مثال، در تنظیمات کارایی، آیا $\sqrt{{n\choose 2}}(\hat\sigma^2-\sigma^2)\to N(0,\tau^2)$ برای مقداری $ داریم؟ \ tau$ هر گونه کمکی قدردانی خواهد شد. | تخمین واریانس برای داده های غیر مستقل یکسان |
19755 | فرض کنید ما دو توزیع احتمال گسسته محدود داریم، مثلاً $A$ و $B$. برای برخی رویدادهای $e$ در $A$ و $B$، $f_A(e) = \frac{P_A(e)}{P_A(e) + P_B(e)}$ و $f_B(e) = \ frac{P_B(e)}{P_A(e) + P_B(e)}$. این اسم داره؟ | آیا این رابطه اسمی دارد؟ |
88280 | من در فهمیدن نحوه محاسبه SEM و گزارش آن در جدول مشکل دارم. من 5 دوره زمانی مختلف دارم و برای آن دوره های زمانی 6 معیار مختلف هضم برای هر حیوان: دوره اسب adfdig'y ndfdig'y 1 1 45.1 70.2 2 1 48.2 69.8 3 1 55.6 59.0 4 1 49.1 56.1 56.1 1 46.0 60.2 1 2 56.3 70.6 2 2 و غیره، بنابراین مشکلی که من دارم ساختن یک جدول ANOVA مانند این با SEM است: آیتم، واحد درمان (دوره زمانی) p1 p2 p3 p4 p5 SEM ADF، % NDF، % چگونه می توانم یک SEM برای قابلیت هضم ADF در بازه های زمانی دریافت کنم؟ | خطای استاندارد میانگین در یک مطالعه اندازه گیری مکرر |
13500 | من مقداری امتیاز دارم که از یک برنامه خروجی می شود. حدود 10 مقدار از این قبیل وجود دارد. مجموعه داده ها معیاری برای سنجش کیفیت یک شکل موج گفتاری است که از طریق تلفن همراه و کانال ثابت دریافت می شود. شکل موج از طریق یک الگوریتم عبور داده می شود و نمره کیفیت آن نسبت به شکل موج طلایی (که 100 می شود) دریافت می کند. وظیفه من ایجاد تنظیماتی در الگوریتمی است که نمرات کانال های تلفن همراه و تلفن ثابت را به هم نزدیکتر می کند. من می ترسم این بیشترین جزئیاتی است که می توانم در مورد کار ارائه دهم. لطفاً تعدادی از این نمرات را در زیر بیابید: تلفن همراه: 52 66 69 54 88 تلفن ثابت: 60 57 72 49 75 وقتی میانگین و واریانس این مجموعه داده کوچک را محاسبه میکنم، واریانس بسیار بالایی دریافت میکنم (که از یک مجموعه داده کوچک انتظار میرود) . سوال من این است: 1. آیا مجموعه داده هایی با واریانس بسیار بالا معمولا رد می شوند؟ 2. اگر چنین است، آیا رابطه ای بین تعداد عناصر در مجموعه داده، میانگین و واریانس آن وجود دارد که بتوانم نگاهی بیندازم و بگویم آههه... واریانس در آن یکی بسیار زیاد است (طبق برخی رابطه ای که من از آن اطلاعی ندارم، باید (؟) این داده ها را رد کنم. P.S: در صورتی که سوال من منطقی نیست لطفاً به من اطلاع دهید. من سعی خواهم کرد توضیح بیشتری بدهم. | در چه مقدار میانگین و واریانس باید داده ها را دور بریزم؟ |
103907 | دلایل یا مراجع برای عبارتی مانند وقتی داده های زیادی دارید، مشکل آماری که با آن مواجه می شوید این است که حتی یک تفاوت کوچک نیز از نظر آماری قابل توجه خواهد بود. من اغلب این را می بینم و به مراجعی نیاز دارم که چرا این درست است. هر کمکی قابل تقدیر است. | به دلایل یا ارجاعاتی در مقادیر p کوچک با مجموعه داده های بزرگ نیاز دارید |
17618 | در حین بررسی اینکه آیا دو متغیر همبستگی دارند یا خیر، مشاهده کردم که استفاده از همبستگی پیرسون اعدادی به اندازه 0.1 به دست میدهد که نشان میدهد هیچ همبستگی وجود ندارد. آیا کاری برای تقویت این ادعا وجود دارد؟ مجموعه داده (زیرمجموعه به دلیل محدودیت های ارسال) که من به آن نگاه می کنم این است: 6162.178176 0.049820046 4675.14432 0.145022261 5969.056896 0.472101350.049820046 0.472101350.049820046. 33.796224 16.45154204 6162.178176 0.064262991 6725.448576 0.419005508 3247.656192 0.8673947772561. 3612.97728 0.091337414 6162.178176 0.053065652 867.436416 0.129116092 556.833024 1.01107509 11648.1514. 1517.611392 35.11570899 4675.14432 0.053902079 4182.685056 0.070289777 2808.30528 0.07192950202028.30528 0.07192950202059 3247.656192 0.896646636 4387.071744 0.056985619 6273.222912 0.046547047 4387.071744 0.0348765199 0.03487985199 0.074997414 6612.794496 0.062001019 4675.14432 0.083205988 6612.794496 0.03326884 3321.68601016 3321.68601016 3321.686010165616. 0.041166447 556.833024 1.738402642 2929.00608 0.126664128 5969.056896 0.233872792 3247.656192641920. 0.429232627 807.890688 0.341630377 2336.767488 0.204556081 2969.23968 0.125284598 0.125284598 2929.006057137131516. 1666.591338 6725.448576 0.219167537 3247.656192 0.419687282 5357.506176 0.039383996 3719.19384984 3719.1938984 3070.628352 5.482916872 3070.628352 5.482916872 4675.14432 3.599033281 6612.794496 0.039317727400.039317726 0.039317726 2929.00608 0.133833795 2969.23968 0.107434911 6725.448576 0.202365684 3247.656192 0.425229749749506 4182.685056 0.06837713 2484.827136 6.860034548 4675.14432 3.588766218 3070.628352 5.479660256021 3241 5357.506176 0.527484226 6009.290496 0.484250179 3247.656192 0.867394771 3247.656192 0.449247069 0.449247061 0.155932175 3564.69696 0.115577847 3247.656192 0.447707489 6009.290496 0.227647507 5969.05212890 5357.506176 0.05076989 4182.685056 5.23945736 8445.837312 2.601991867 3247.656192 6.727313086 6.727313086 72226. 4675.14432 3.588766218 4675.14432 3.599033281 7946.940672 2.112259383 6194.365056 0.243447020606014 2969.23968 0.047150118 5357.506176 0.044796962 5969.056896 0.228176749 4387.071744 0.0576685232476 4675.14432 3.588766218 6162.178176 0.240499375 4274.417664 0.046789999 3627.461376 0.52626323574 0.52626323574 7946.940672 0.049578827 2929.00608 0.117104571 8445.837312 0.055885519 5969.056896 0.2425842386 0.2425842386 0.215725985 3247.656192 0.429848456 3247.656192 0.419071453 807.890688 0.313161179 4182.6823056 7946.940672 2.753260771 4387.071744 4.981454892 6405.18912 2.622405004 4675.14432 0.0977509938.097750993. 3070.628352 6.443957956 6162.178176 0.046899001 6405.18912 0.196715503 5357.506176 0.1041529346 0.1041529464646. 4675.14432 0.191651838 589.019904 1.169739758 7946.940672 10.02209571 4675.14432 0.08833939519 288339519 3310.420608 0.033228406 6009.290496 0.468940552 2518.62336 1.156187164 5357.506176 0.05226384120 0.05226381204 0.059948871 4182.685056 0.058813895 6823.61856 0.148454957 589.019904 1.745272092 1517.61139269265814 0.095940834 3564.69696 0.115577847 3564.69696 0.109406214 2518.62336 0.506625969 0.506625969 8078.90689 0.90689 0.1076069606960. 0.232306959 5357.506176 0.254409413 8078.90688 0.174281004 5357.506176 0.046850156 8445.83723149 7946.940672 2.744955688 4274.417664 0.055680099 6273.222912 2.686976094 3070.628352 5.4666373514 5.4666323514 4182.685056 0.375356973 6162.178176 0.254617759 2484.827136 6.755399503 6405.18912 2.600073725144. 6162.178176 0.239038852 4274.417664 0.090772599 4274.417664 0.02362895 3564.69696 0.051056231414141410. 4182.685056 5.23945736 3923.580672 0.060404008 7946.940672 2.109742691 4816.766592 3.4871914092 3.48719140926 3.493214728 4182.685056 0.339733922 6162.178176 0.25494232 6612.794496 0.063362017 6965.24083736 3627.461376 0.537566027 2336.767488 0.06975448 2177.442432 0.129050484 3070.628352 0.085650252214 0.085650252214 4182.685056 0.344276459 4182.685056 0.040643749 6725.448576 0.164896064 4675.14432 3.59047174395 3.59047174395 0.258299275 4274.417664 0.067845499 3041.66016 0.635836977 3070.628352 0.085650222 6373.0031224 1010. | فراتر از همبستگی پیرسون چه کاری می توانم انجام دهم؟ |
103901 | من واقعاً با سری زمانی قوی نیستم اما پروژه ای دارم که روی آن کار می کنم.. مشکلی دارم که سعی می کنم یک سری زمانی از اختلاف فشار قبل و بعد از عبور روغن از فیلتر روغن را مدل کنم. من سعی می کنم ببینم آیا این فیلتر روغن می تواند بدون تعویض بیشتر کار کند یا خیر. در مورد دمای این روغن هم اطلاعاتی دارم. دمای روغن یک شاخص قوی برای تفاوت فشار، 'PD' است. من فکر میکردم که میخواهم اثر دما را با مدلسازی باقیماندهها از یک مدل با دما به عنوان پیشبینیکننده و PD به عنوان پاسخ حذف کنم. آیا این کار می کند؟ یا رویکرد بهتری وجود دارد؟ | سری زمانی در مورد فشار فیلتر روغن |
33692 | پس از جمعآوری بازخوردهای ارزشمند از سؤالات و بحثهای قبلی، به سؤال زیر رسیدم: فرض کنید هدف این است که تفاوتهای تأثیر را در بین دو گروه، به عنوان مثال مرد و زن، تشخیص دهیم. دو راه برای انجام آن وجود دارد: 1. اجرای دو رگرسیون جداگانه برای دو گروه، و استفاده از آزمون والد برای رد (یا نه) فرضیه صفر $H_0$: $b_1-b_2=0$، که در آن $b_1$ برابر است با ضریب یک IV در رگرسیون مردانه و $b_2$ ضریب همان IV در رگرسیون زنانه است. 2. دو گروه را با هم ترکیب کنید و یک مدل مشترک با گنجاندن یک ساختگی جنسیتی و یک اصطلاح تعاملی (IV*genderdummy) اجرا کنید. سپس تشخیص اثر گروهی بر اساس علامت تعامل و آزمون t برای معناداری خواهد بود. اگر Ho در مورد (1) رد شود، یعنی تفاوت گروه معنی دار است، اما ضریب ترم تعامل در مورد (2) از نظر آماری ناچیز است، یعنی تفاوت گروه ناچیز است. یا بالعکس، هو در مورد (1) رد نمی شود و اصطلاح تعامل در مورد (2) معنادار است. من چندین بار به این نتیجه رسیدهام و فکر میکردم چه نتیجهای قابل اعتمادتر است و دلیل این تناقض چیست. با تشکر فراوان | مدل مشترک با شرایط تعامل در مقابل رگرسیون جداگانه برای مقایسه گروهی |
47227 | این نمونه ای بود که در کلاس انجام شد، با این حال من بیمار بودم آزمایشی برای تعیین اینکه آیا میانگین نیکوتین سیگار مارک A بیش از 0.20 میلی گرم از سیگار مارک B است یا خیر انجام شد. اگر 50 نخ سیگار با نام تجاری A دارای میانگین نمونه 2.61 میلی گرم بودند در حالی که 40 سیگار با نام تجاری B دارای میانگین نیکوتین 2.38 میلی گرم بودند. انحراف استاندارد جمعیت محتوای نیکوتین برای دو مارک سیگار به ترتیب 0.12 و 0.14 برای مارک A و B شناخته شده است. (الف) بر اساس سطح معنی داری 5 درصد، چه نتیجه ای در مورد تفاوت بین این دو مارک سیگار می توانید داشته باشید؟ (ب) بر اساس یک p-value، چه نتیجه ای می توانید در مورد تفاوت بین دو مارک سیگار بگیرید؟ تلاش من: (a) $H_{0} :\mu_{A}-\mu_{B} =0.2$ $H_{1} :\mu_{A}-\mu_{B} \ne 0.2$ سطح اهمیت : $\alpha = 0.05$ منطقه رد : $|z| >1.96$ آمار آزمون: $ z = \frac{2.61-2.38 -0.2}{\sqrt{\frac{0.12^2}{50}+\frac{0.14^2}{40}}} =1.08$ نتیجهگیری: از آنجایی که $1.08 <1.96 $، من نمی توانم $H_{0}$ را با 5٪ رد کنم، واقعاً به کمک با B نیاز دارم | نتیجه گیری از سطح معنی داری ثابت یا p-value در یک آزمون دو نمونه ای |
108309 | من سعی می کنم با استفاده از ARIMA داده ها را پیش بینی کنم. من مقالاتی را خوانده ام که می گویند اگر سریال من روند تصاعدی داشته باشد، ابتدا باید لاگ سریال را بگیرم. سوال من این است: آیا یک رویکرد ریاضی برای یافتن نوع روند (خطی یا نمایی) من وجود دارد؟ من با MATLAB و R کار می کنم. بنابراین هر توابع داخلی واقعاً مفید خواهد بود. | روند: خطی یا نمایی |
13504 | من داده هایی از دو مجموعه مختلف دارم (هر کدام با فیلدهایی به نام های _Mobile_ و _Landline_ ). در هر مجموعه حدود 5 عنصر از هر فیلد وجود دارد. آنها چیزی شبیه به این دارند: مجموعه A: تلفن همراه: 45 61 78 65 71 تلفن ثابت: 56 71 75 98 12 مجموعه B: تلفن همراه: 67 71 75 64 23 تلفن ثابت: 9 34 56 21 22 من باید ثابت یا رد کنم که ارقام موجود در فیلد _Mobile_ به ارقام در _Landline_ نزدیکتر است فیلد در _Set A_ در مقابل _Set B_. چگونه می توانم این کار را انجام دهم؟ آیا اندازه گیری فاصله بین این دو کافی است؟ اگر چنین است، چه فاصله ای را اندازه گیری می کنید؟ P.S: ممکن است داده های کافی در دو مجموعه وجود نداشته باشد، اما این تنها چیزی است که من در حال حاضر دارم. _**ویرایش 1_**: این چیزی است که من در این میان امتحان کردم. من از نمرات «موبایل» و «خط ثابت» برای «مجموعه A» یک بردار واحد ساختم و برای «مجموعه B» نیز همین کار را انجام دادم. سپس میانگین و واریانس دو بردار را محاسبه می کنم. در صورتی که واریانس/انحراف استاندارد برای بردار از «مجموعه A» کمتر از «مجموعه B» باشد، میتوانم بگویم که نمرات «موبایل» در «مجموعه A» به امتیازات «خط ثابت» در «نزدیکتر» است. مجموعه A` نسبت به مجموعه B. آیا این رویکرد درست است؟ چرا یا چرا نه؟ | تست نزدیک بودن داده ها |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.