_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
105298
من در حال تایید یک مدل رگرسیون لجستیک هستم. این اولین بار است که یک مدل را تأیید می کنم. من از روش نمونه گیری تقسیم شده استفاده می کنم. من داده ها را به طور تصادفی به دو بخش تقسیم کرده ام - 70٪ توسعه و 30٪ مجموعه داده های اعتبار (70:30). سپس رگرسیون لجستیک را روی مجموعه داده های توسعه با استفاده از SAS اجرا می کنم و احتمالات آنها را به ترتیب نزولی رتبه بندی می کنم و داده ها را به 10 گروه (دهک) تقسیم می کنم. درصد پاسخ ها را در دهک های بالا بررسی کنید. سوال من - آیا قانون سرانگشتی برای ارزیابی مدل بر اساس درصد پاسخ ها در 3 تا 4 دهک بالا وجود دارد؟ شخصی گفت 3 دهک برتر باید حداقل 65 درصد پاسخ ها را پوشش دهند. آیا درست است؟ من Hosmer و Lemeshow Goodness-Fit-Test را بررسی کرده ام. من معادله ای شامل رهگیری و ضرایب به دست آمده از مجموعه داده توسعه را فرموله کرده ام و آن را بر روی مجموعه داده اعتبارسنجی اجرا می کنم. کد زیر برای مرجع نشان داده شده است - Data validation_Output; Set validation_Set; resp_xb1= -1.3844+(1.4708) _A_Flg+(2.9829)_ B_Flg+(.0317)* C + (-0.2372)*D +(-0.3359)*E; expres1=exp(resp_xb1); p_resp1=exppres1/(1+exppres1); اجرا؛ سپس PROC RANK و PROC SQL را اجرا کنید تا دهک ها را در مجموعه داده اعتبارسنجی محاسبه کنید. من در مجموعه های توسعه و اعتبارسنجی امتیاز دهک دارم. آیا متغیرهای مهم در هر دو مجموعه داده باید یکسان باشند؟ یا هماهنگ؟
اعتبارسنجی مدل رگرسیون لجستیک
30429
من کمی در مورد بوت استرپینگ تحقیق کرده‌ام، زیرا یکی از روش‌های اجرای آن به من گفته شده است، و به نظر می‌رسد که این با آنچه در منابع دیگر پیدا می‌کنم متفاوت است. من یک نمونه دارم و می خواهم میانگین یا میانه را تخمین بزنم. من 1000 نمونه مجدد تولید می کنم، بدون جایگزینی، با محاسبه میانگین/میانگین برای هر کدام. با گرفتن 26 بزرگترین و 26 کوچکترین میانگین/میانگینی که محاسبه می کنم، یک فاصله اطمینان به دست می آید. منابعی که من خوانده ام به نظر می رسد آن را به همان اندازه رها می کنند. با این حال، روشی که به من گفته شد یک قدم فراتر رفت - عرض این بازه را محاسبه می‌کند، سپس بازه جدیدی ایجاد می‌کند که حول میانگین/میانگین نمونه اصلی من متمرکز است. بنابراین، اگر میانگین اولیه من 20 بود، و بوت استرپینگ فاصله زمانی [17،27] را به من می‌دهد، آن را تغییر می‌دهد تا فاصله اطمینان نهایی [15،25] ارائه شود. آیا این منطقی است / پشتوانه آماری دارد؟ یا این یک اشتباه است؟
تغییر فاصله اطمینان بوت استرپ برای تمرکز حول پارامتر اصلی
33887
من می‌خواهم R داده‌هایی را که از تابع «summary()» به من می‌دهد در یک جدول نمایش دهد تا بتوانم آن را به راحتی به اشتراک بگذارم. من در حال حاضر فقط «خلاصه()» را در کنسول انجام می‌دهم و سپس یک اسکرین شات می‌گیرم، اما ترجیح می‌دهم که این جدول مانند همه نمودارهای من به عنوان یک جدول خوب تولید شود. هر ایده ای؟
چگونه جدول خلاصه خوبی ایجاد کنیم؟
58959
من خوانده‌ام که الگوریتم k-means سعی می‌کند مجموع مربع‌های درون خوشه‌ای (یا واریانس) را به حداقل برساند. با کمی طوفان فکری، یک سوال مطرح شد. چرا k-means یا هر الگوریتم خوشه‌بندی دیگری که **در داخل واریانس خوشه** را به عنوان هدف کمینه کردن دارد، این تابع هدف را برای کمینه کردن انتخاب کرد؟ **در واریانس خوشه** چه چیزی به شما کمک می کند تصمیم بگیرید که این همان چیزی است که می خواهید در هنگام خوشه بندی تمرکز کنید؟ - و به خصوص خوشه بندی؟ بگذارید سوال را به شکل دیگری مطرح کنم (این سوال می تواند یک سوال فرعی یا روش دیگری برای طرح همان سوال باشد). چرا می گویید که حداقل کردن **در واریانس خوشه** روش صحیح خوشه بندی است (با اشاره به الگوریتم هایی که آن را به حداقل می رساند)؟ آیا توابع هدف دیگری وجود دارد که بتوان آنها را برای خوشه بندی به حداقل رساند (یا حداکثر یا هر چیز دیگری) کرد؟
چرا الگوریتم k-means واریانس درون خوشه ای را به حداقل می رساند؟
1257
فرآیند تولید داده های متوالی و تطبیقی ​​زیر را برای $Y_1$، $Y_2$، $Y_3$ در نظر بگیرید. (منظورم از ترتیبی این است که $Y_1$، $Y_2$، $Y_3$ را به ترتیب تولید می کنیم و منظورم از تطبیقی ​​این است که $Y_3$ بسته به مقادیر مشاهده شده $Y_1$ و $Y_2$ تولید می شود.): $Y_1 = X_1 \ \بتا + \epsilon_1$Y_2$ = X_2\ \بتا + \epsilon_2$Y_3$ = X_3\ \beta + \epsilon_3$ X_3 $ = \begin{cases} X_{31} & \mbox{if }Y_1 Y_2 \gt 0 \\\ X_{32} & \mbox{if }Y_1 Y_2 \le 0 \end{ موارد}$ جایی که، $X_1$، $X_2$، $X_{31}$ و $X_{32}$ همه 1 x هستند 2 بردار. $\beta$ یک بردار 2 x 1 $\epsilon_i \sim N(0,\sigma^2)$ است برای $i$ = 1, 2, 3 فرض کنید دنباله زیر را مشاهده می کنیم: {$Y_1 = y_1,\ Y_2 = y_2، \ X_3 = X_{31}، \ Y_3 = y_3$} و مایل به تخمین پارامترهای $\beta$ و $\sigma$. برای نوشتن تابع درستنمایی توجه داشته باشید که ما چهار متغیر تصادفی داریم: $Y_1$، $Y_2$، $X_3$ و $Y_3$. بنابراین، چگالی مشترک $Y_1$، $Y_2$، $X_3$ و $Y_3$ به دست می آید: $f(Y_1, Y_2, X_3, Y_3 |-) = f(Y_1|-)\ f(Y_2| -)\ [\ f(Y_3|X_{31},-)\ P(X_3=X_{31}|-)$\qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad + \ f(Y_3|X_{32},-)\ P(X_3={X_{32}}|-)\ ]$ (توجه: من وابستگی چگالی را به $\beta$ و $\sigma$ سرکوب می‌کنم.) شرایط احتمال در داده های مشاهده شده و توالی ما به گونه ای است که $y_1 y_2 >0$. بنابراین، داریم: $L(\beta،\ \sigma | X_1،\ X_2،\ X_{31}، y_1، y_2، y_3) = f(Y_1|-)\ f(Y_2|-)\ f(Y_3 |X_{31},-)\ P(X_3=X_{31}) $ آیا تابع احتمال صحیح برای این فرآیند تولید داده است؟
تابع احتمال صحیح برای فرآیند تولید داده های متوالی و تطبیقی ​​چیست؟
57422
من سعی می کنم پیش بینی کننده های مهم را برای متغیر پاسخ خود Y جدا کنم. من می دانم که TL (که یک پیش بینی کننده سطح فردی است) روی Y تأثیر می گذارد، و اکنون می خواهم تعیین کنم که آیا افزودن پیش بینی کننده های سطح سایت PC1 و PC4 (هر دو متغیر پیوسته) برازش مدل را بهبود می بخشد یا خیر. داده ها به این صورت است: Y TL PC1 PC4 Site 5.6 17 -2.26 1.89 Site A 5.9 19 -2.26 1.89 Site A 5.2 20 -2.26 1.89 Site A 4.0 17 -1.56 2.35 Site B19. 5.6 18 -1.56 2.34 سایت B به طور کلی تقریباً من دارم. 15 نمونه در سیزده سایت. در اینجا سه ​​مدلی وجود دارد که من راه‌اندازی کردم: model1<-lmer(Y~ TL + (1 + TL | Site)، data=sauro.all) #(بدون پیش‌بینی‌کننده سطح سایت) model2<-lmer(Y ~ TL + PC1 + (1 + TL |. Site)، data=sauro.all) #PC1 به عنوان پیش بینی سایت) model3<-lmer(Y ~ TL + PC4 + (1 + TL | سایت)، data=sauro.all) #PC4 به‌عنوان پیش‌بینی‌کننده سطح سایت خلاصه مدل 1: مدل ترکیبی خطی متناسب با حداکثر احتمال فرمول: Y ~ TL + (1 + TL | سایت) داده: sauro.all AIC BIC logLik انحراف REMLdev 400.5 419.6 - 194.3 388.5 395.4 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr Site (Intercept) 0.24335394 0.493309 TL 0.00043485 0.020853 1.000 Residual 0.40595113 0.637143 تعداد obs: 178 گروه: Estimxed. مقدار خطای t (Intercept) -16.84997 0.41581 -40.52 TL 0.10890 0.02012 5.41 همبستگی اثرات ثابت: (Intr) TL -0.803 خلاصه مدل 2: خطی مدل مختلط (برای مدل ترکیبی خطی متناسب با حداکثر 1 + 1 PC) ) داده ها: sauro.all AIC BIC logLik انحراف REMLdev 396.3 412.2 -193.1 386.3 395.1 اثرات تصادفی: نام گروه ها Variance Std.Dev. Site (Intercept) 0.67023 0.81868 Residual 0.40740 0.63828 تعداد obs: 178 گروه: Site, 13 Fixed effect: Estimate Std. مقدار خطای t (Intercept) -16.89643 0.45413 -37.21 TL 0.11022 0.01927 5.72 PC1 -0.32754 0.17083 -1.92 همبستگی جلوه های ثابت: (Intr.8 -04 TL504 -1 TL504) ... و خلاصه مدل 3: مدل خطی مختلط متناسب با حداکثر احتمال فرمول: Y ~ TL + PC4 + (1 + TL | سایت) داده: sauro.all AIC BIC logLik انحراف REMLdev 399 421.2 -192.5 385 393.3 اثرات تصادفی: گروه ها نام واریانس Std.Dev. Corr Site (Intercept) 0.13411114 0.366212 TL 0.00044998 0.021213 1.000 Residual 0.40582841 0.637047 تعداد obs: 178، گروه Estim: Sitexd. مقدار خطای t (Intercept) -16.83238 0.40527 -41.53 TL 0.11003 0.02016 5.46 PC4 -0.45466 0.22571 -2.01 همبستگی اثرات ثابت: (Intr. مدل 2 کمترین امتیاز AIC را دارد بنابراین فکر می کنم این بهترین مدل است. من با تفسیر مشکل دارم سوالات من این است: *چگونه سهم PC1 به model2 را بدون مقادیر p تفسیر کنم؟ *این تجزیه و تحلیل به من می گوید چگونه PC1 بر رهگیری (Y~TL) در بین سایت ها تأثیر می گذارد، درست است؟ با این حال، شیب این رابطه نیز می تواند با PC1 متفاوت باشد. چگونه این را بررسی کنم؟ *بهترین راه برای تجسم مدل lmer چیست؟ متشکرم!
چگونه می توانم یک مدل با ساختار سلسله مراتبی را با استفاده از lmer در R تنظیم کنم؟
83448
از همه برای راهنمایی در مورد سوال قبلی من متشکرم. آیا می توانم یک بار دیگر در مورد موارد زیر راهنمایی دریافت کنم؟ اگر C = { خرید نقدی } و U = { مبلغ تراکنش > 200 دلار } بنابراین اگر مشتری یک پیراهن جدید با قیمت 80 دلار خریداری کند و من باید احتمال پرداخت پول نقد توسط او را پیدا کنم، آیا درست است که آن را به صورت P(C|Ū) نشان دهیم؟ قدردان هر توصیه ای باشید. پیشاپیش سپاس فراوان! =)
شناسایی شرط در احتمال شرطی P(A|B) یا P(B|A)
83441
فرض کنید S و C به ترتیب یک روز آفتابی و یک روز ابری را نشان دهند. فرض کنید که آب و هوا در روز داده شده تنها از طریق آب و هوا در دو روز بلافاصله قبل با توجه به احتمالات شرطی زیر به آب و هوای گذشته بستگی دارد: احتمال آفتابی بودن یک روز با توجه به اینکه دو روز بلافاصله قبل آفتابی بوده است P(S است. |S,S) = .8. احتمال آفتابی بودن یک روز با توجه به اینکه روز بلافاصله قبل آفتابی و روز قبل ابری بوده است P(S|C,S) = 0.6 است. احتمال آفتابی بودن یک روز با توجه به اینکه روز بلافاصله قبل ابری بوده است و روز قبل آفتابی بود P(S|S,C) = 0.4. به طور مشابه، P(S|C،C) = 0.1، P=(C|S،S) =.2، P(C|C،S) = 0.4، P(C|S،C) = 0.6 , P(C|C,C) = .9. اجازه دهید n = 0 نشان دهنده روز اولیه (روز 0) باشد، اجازه دهید n = 1 نشان دهنده روز اول باشد و به همین ترتیب. دو احتمال اولیه زیر را نیز می دانیم: Prob (روز اول ابری است، روز اول آفتابی است) = 0.1 و Prob (روز اول ابری است، روز اول ابری است) = 0.9. الف) احتمال ابری بودن روز دوم و سوم چقدر است؟ ب) احتمال ابری بودن روز سوم چقدر است؟ ج) احتمال ابری بودن یک روز در دراز مدت چقدر است؟
سوال زنجیره ای مارکوف
1815
توصیه های پانل برای کتاب های طراحی آزمایش ها چیست؟ در حالت ایده‌آل، کتاب‌ها باید هنوز چاپ شوند یا به صورت الکترونیکی در دسترس باشند، اگرچه ممکن است همیشه امکان‌پذیر نباشد. اگر احساس می‌کنید چند کلمه در مورد چیزهای خوب کتاب اضافه کنید، بسیار عالی خواهد بود. همچنین، برای هر پاسخ یک کتاب را هدف بگیرید تا رای دادن بتواند به مرتب کردن پیشنهادات کمک کند. (ویکی انجمن، لطفاً اگر می توانید آن را بهتر کنید، سؤال را ویرایش کنید!)
کتاب های پیشنهادی در مورد طراحی آزمایش؟
14673
آیا معیارهایی برای تشابه یا فاصله بین دو ماتریس کوواریانس متقارن (هر دو دارای ابعاد یکسان) وجود دارد؟ من در اینجا به آنالوگ هایی برای واگرایی KL دو توزیع احتمال یا فاصله اقلیدسی بین بردارها به جز اعمال شده در ماتریس ها فکر می کنم. تصور می‌کنم اندازه‌گیری‌های شباهت زیادی وجود خواهد داشت. در حالت ایده آل، من همچنین می خواهم این فرضیه صفر را آزمایش کنم که دو ماتریس کوواریانس یکسان هستند.
اندازه گیری شباهت یا فاصله بین دو ماتریس کوواریانس متقارن
33888
X و Y همبستگی ندارند (-.01). با این حال، هنگامی که X را در یک رگرسیون چندگانه پیش‌بینی کننده Y قرار می‌دهم، در کنار سه متغیر (A, B, C) دیگر (مرتبط) X و دو متغیر دیگر (A, B) پیش‌بینی‌کننده‌های مهم Y هستند. توجه داشته باشید که دو متغیر دیگر الف، ب) متغیرها به طور قابل توجهی با Y خارج از رگرسیون همبستگی دارند. چگونه باید این یافته ها را تفسیر کنم؟ X واریانس منحصر به فرد را در Y پیش بینی می کند، اما از آنجایی که اینها همبستگی ندارند (پیرسون)، تفسیر آن به نوعی دشوار است. من موارد متضاد را می شناسم (یعنی دو متغیر با هم مرتبط هستند اما رگرسیون معنی دار نیست) و درک آنها از منظر نظری و آماری نسبتاً ساده تر است. توجه داشته باشید که برخی از پیش‌بینی‌کننده‌ها کاملاً همبسته هستند (به عنوان مثال، 0.70) اما نه در حدی که انتظار داشته باشم چند خطی قابل توجهی داشته باشم. هرچند شاید من اشتباه می کنم. توجه: من این سوال را قبلا پرسیدم و بسته شد. منطقی این بود که این سوال با این سوال که چگونه یک رگرسیون می تواند معنی دار باشد اما همه پیش بینی کننده ها غیر معنی دار باشند؟ اضافی است. شاید من سؤال دیگر را متوجه نشده باشم، اما معتقدم اینها سؤالات کاملاً مجزا هستند، هم از نظر ریاضی و هم از نظر تئوری. سوال من کاملاً مستقل از این است که آیا یک رگرسیون قابل توجه است یا خیر. علاوه بر این، چندین پیش‌بینی‌کننده مهم هستند، در حالی که سؤال دیگر مستلزم معنی‌دار نبودن متغیرها است، بنابراین من همپوشانی را نمی‌بینم. اگر این سؤالات به دلایلی که من متوجه نمی شوم اضافی هستند، لطفاً قبل از بستن این سؤال نظر خود را وارد کنید. همچنین، من امیدوار بودم به مدیری که سؤال دیگر را بسته بود پیام بدهم تا از سؤالات مشابه جلوگیری شود، اما گزینه ای برای انجام این کار پیدا نکردم.
X و Y همبستگی ندارند، اما X پیش بینی کننده مهم Y در رگرسیون چندگانه است. به چه معناست؟
27831
همانطور که همه می دانیم، GLM ساختاری دارد: $G(EY)=X^{T}\beta$، که در آن $G(.)$ یک تابع پیوند شناخته شده است. چیزی که من را گیج می کند این است که برخی افراد می گویند که این یک مدل نیمه پارامتریک است. اما به نظر من، این یک مدل پارامتریک است، زیرا هیچ بخش ناپارامتری وجود ندارد و تمام چیزی که در ساختار previuos نمی دانیم $\beta$ است. آیا کسی می تواند به من بگوید که چرا کسی آن را یک مدل نیمه پارامتریک می نامد. با تشکر
چرا مدل خطی تعمیم یافته (GLM) یک مدل نیمه پارامتریک است؟
27832
من در حال حاضر یک راه اندازی دارم که می خواهم برای آن ANOVA در spss انجام دهم. در مدل خود من باید چهار عامل را بگنجانم (آنها را factor1 تا factor4 می نامم) که هر کدام با دو حالت ممکن (درست و نادرست). با این حال همه ترکیب ها ممکن نیست. به عبارت دقیق‌تر، «factor4» تنها زمانی می‌تواند درست باشد که یکی از «factor1» یا «factor2» یا هر دو درست باشد. از این رو در مجموع من فقط 14 ترکیب ممکن را به جای 16 ترکیب دارم که از ترکیب کامل هر چهار عامل حاصل می شود. آیا ممکن است با چنین داده‌هایی ANOVA اندازه‌گیری‌های مکرر انجام شود، یا باید از چیز دیگری استفاده کنم، زیرا «factor4» به طور مستقل قابل تغییر نیست؟ من سعی کردم یک ANOVA با اندازه گیری های مکرر برای این کار در رابط کاربری گرافیکی SPSS ایجاد کنم، اما نمی توانم روی OK کلیک کنم، مگر اینکه تمام 16 ترکیب را ارائه دهم، که با توجه به تنظیماتی که دارم غیرممکن است. آیا این امکان وجود دارد که در SPSS برنامه نویسی شود، شاید با وارد کردن سینتکس مستقیم؟ یا شاید راهی وجود دارد که بتوانم داده های از دست رفته را اضافه کنم، مثلاً با اضافه کردن میانگین برخی متغیرهای دیگر برای ترکیب های از دست رفته، بدون تغییر در نتیجه نهایی مدل؟ **ویرایش**: من فقط سعی کردم ترکیبات از دست رفته را با متغیرهای خالی اضافه کنم و سپس مدل را روی این مجموعه کامل از متغیرها اجرا کنم. با این حال این نیز کار نمی کند، زیرا در آن مورد SPSS فقط شکایت می کند که هیچ مورد معتبری در داده ها وجود ندارد (زیرا همه آن دو ترکیب را از دست داده اند).
نحوه انجام ANOVA اندازه گیری های مکرر با ترکیبات از دست رفته در spss
38619
من سه مدل نامزد پیشینی ایجاد کرده ام که عوامل را در سه مقیاس فضایی مجزا نشان می دهد. یک عامل در یک مدل با عاملی در مدل دیگر همبستگی دارد. (در ادبیات بحث در مورد اینکه کدام عامل بیشترین تأثیر را بر متغیر مستقل دارد، وجود دارد، و من نمی خواهم در مورد یک عامل بدون توجه به عامل دیگر نتیجه گیری کنم.) اما همچنین یاد گرفتم که باید مدلی جهانی ایجاد کنم که از همه عوامل استفاده کند. از همه مدل ها بنابراین، آیا ایجاد یک مدل جهانی که دارای متغیرهای همبسته باشد برای من معتبر است؟
عوامل مرتبط در یک مدل جهانی
33736
اجازه دهید $X_1, X_2,\cdots,X_n$ یک نمونه تصادفی از توزیع با p.d.f $$f(x)=\frac{1}{\beta -\alpha},\alpha<x<\beta $$ باشد. جایی که $0<\alpha<\beta<\infty$. حداقل واریانس برآوردگرهای بی طرفانه $\frac{\alpha+\beta}{2}$ و $\beta-\alpha$ را بدست آورید. در اینجا من سعی می کنم از روش Rao Blackwell استفاده کنم اما قادر به حل آن نیستم. لطفا کمک کنید
برآوردگرهای بی طرفانه حداقل واریانس را بدست آورید
33738
من در پیش بینی سری های زمانی با SVM و Matlab مشکل دارم. من سعی کردم به روش های مختلف مشکل را به تنهایی حل کنم اما موفق نشدم. من اسکریپت های LibSVM را برای Matlab دانلود، کامپایل و نصب کردم. اما من نمی دانم چگونه داده های خود را در ورودی فرمت کنم. منظورم این است که من یک سری زمانی دارم که آرایه ای از مقادیر است، چیزی شبیه به: x=[1 2 3 4 5 6 7 8 9 10] من می خواهم از 70% بردار به عنوان دنباله آموزشی SVM استفاده کنم: x1 =[1 2 3 4 5 6 7] سپس باید سه مقدار آخر سری زمانی را پیش بینی کنم و باید خطای بین مقادیر پیش بینی شده و آرایه «[8 9 10]». من باید بفهمم: 1. چگونه پارامترهای SVM را تنظیم کنیم. اما یک اسکریپت وجود دارد که من اینجا پیدا کردم که نسخه Matlab Easy.py است. پس مشکل حل شد 2. نحوه قالب بندی سری های زمانی خود به منظور قابل قبول با easy.py (easy.m)، svmtrain و svmpredict. در وب‌سایت پرسش‌های متداول LibSVM این روش [کد] را پیدا کردم: matlab> SPECTF = csvread('SPECTF.train'); % خواندن فایل csv matlab> labels = SPECTF(:, 1); % labels از ستون 1st matlab> features = SPECTF(:, 2:end); matlab> features_sparse = sparse(features); % ویژگی ها باید در یک ماتریس پراکنده matlab باشند> libsvmwrite('SPECTFlibsvm.train', labels, features_sparse); اما من فکر می کنم این یک رویه برای طبقه بندی است. از دیدگاه من، اگر فقط یک آرایه ساده از مقادیر داشته باشم، چگونه برچسب ها و ویژگی ها را تشخیص دهم؟ در اینجا من یک روش مشابه پیدا کردم، اما مشخص نیست که آیا اسکریپت واقعا کار می کند یا نه (من یک نسخه ترجمه شده از ورودی دریافت می کنم) آیا کسی می تواند به من کمک کند؟
LibSVM و matlab برای پیش بینی سری های زمانی
112074
من یک آزمایش طراحی دو عاملی درون موضوعی را انجام می‌دهم، و این دو عامل همه متغیرهای طبقه‌بندی هستند. عامل یک دارای چهار دسته است، در حالی که عامل دو دارای دو دسته است و متوازن است. این منجر به شرایط 2*4=8 می شود. متغیر وابسته یک متغیر پیوسته مانند زمان واکنش است. داده‌های من در قالب طولانی به شرح زیر است ID Trial factor1 factor2 زمان واکنش 1 1 1 1 3.142 1 2 3 1 4.543 1 3 4 1 2.456 1 4 2 1 3.433 1 5 4 0 3.142 1 4 7 243 0 1 8 1 0 3.433 ... 2 2 2 ... 50 50 ... اولین سوال من این است که آیا امکان اجرای تحلیل رگرسیون وجود دارد؟ (IV: دو متغیر طبقه‌بندی DV: یک متغیر پیوسته) سوال دوم من این است که آیا می‌توان یک تحلیل رگرسیونی برای کل شرکت‌کننده (مثل 50 نفر) به عنوان یک کل به عنوان یک فرد واحد اجرا کرد؟ پیشاپیش برای کمک متشکریم
چند پیشنهاد برای تحلیل دو عاملی در طراحی موضوع؟
83449
من در حال ساخت یک رگرسیون چندگانه لجستیک با 5 متغیر بالقوه هستم. من این پست را خواندم و همه 2^5 = 32 ترکیب ممکن از متغیرهای توضیحی را در نظر گرفتم و بهترین مدل را توسط AIC انتخاب کردم. با این حال، مدل بهترین هیچ متغیر قابل توجهی را شامل نمی شود در حالی که برخی از مدل های دیگر (با AIC بالاتر) دارای متغیرهای معنی داری هستند. من آمارگیر نیستم و نمی فهمم چرا چنین وضعیتی وجود دارد. از شما برای هر گونه نظر، توضیح یا راهنمایی برای رویکرد دیگری در صورت نیاز سپاسگزارم.
انتخاب مدل در رگرسیون لجستیک
83447
من برخی از داده های نظرسنجی از کارمندان در شرکت های مختلف دارم و می خواهم یک رگرسیون با متغیرهای سطح شرکت (بر اساس ادراک کارکنان) به عنوان متغیر وابسته و مستقل انجام دهم. من نمی‌دانم از کدام استراتژی استفاده کنم - OLS مستقیم، مدل‌سازی خطی سلسله مراتبی، یا تجمیع میانگین در بین سازمان‌ها (به عنوان مثال، میانگین امتیاز برای کارکنان در سازمان‌های مختلف). به عنوان مثال، متغیر وابسته می تواند عملکرد شرکت درک شده و متغیرهای مستقل کیفیت مدیریت و پاداش عملکرد ​​باشد. من همچنین تعدادی متغیر جمعیت شناختی (جنسیت، شغل و غیره) دارم. من قبلاً همه این تجزیه و تحلیل ها را انجام داده ام و نتایج بسیار مشابه هستند (من متغیرهای جمعیت شناختی را فقط در رگرسیون OLS و HLM گنجانده ام). از منظر روش شناختی، کدام رویکرد قوی ترین مبنای نظری را دارد؟ لطفا اگر می توانم اطلاعات بیشتری ارائه کنم به من اطلاع دهید. با تشکر
OLS، HLM یا تجمیع داده ها؟
33885
من مشکلاتی با نزول گرادیان تصادفی دارم. با استفاده از نزول گرادیان دسته ای که در آن تمام مجموعه های آموزشی را در نظر می گیرم، مقادیر پارامتر خاصی دارم که می دانم درست هستند. تابع من محدب است، به صورت جهانی. اکنون وقتی از شیب نزولی تصادفی با در نظر گرفتن ده نمونه در یک زمان استفاده می کنم، الگوریتم به خوبی همگرا می شود، اما مقادیر پارامترهای متفاوتی دریافت می کنم. مقادیر پارامتری که من با استفاده از گرادیان نزولی تصادفی دریافت می کنم، مانند 1/2 مقداری است که با استفاده از شیب نزولی دسته ای دریافت می کنم. هر گونه بینشی که چه چیزی ممکن است اشتباه باشد؟
مقادیر پارامترهای مختلف هنگام استفاده از نزول گرادیان تصادفی
71503
من مشکل زیر را دارم: من 2 گلدان دارم، یکی حاوی 20٪ توپ قرمز و دیگری حاوی 80٪ توپ قرمز است. هر بار که (با جایگزینی) توپی را انتخاب می کنم، نابینا هستم و شانس مساوی برای انتخاب از هر کوزه دارم. **احتمال انتخاب یک توپ قرمز چقدر است؟** به نظر من در دراز مدت باید 50% توپ قرمز را بدست بیاورم تا 0.5 باشد. اما آیا این به نوعی گمراه کننده به نظر می رسد؟ با تشکر فراوان
احتمال نمونه برداری از چند کوزه
112079
من سعی می‌کنم یک مدل تولیدی راه‌اندازی کنم که در آن دو تصویر $x$ و $y$ داشته باشم و فرض بر این است که $y$ می‌تواند با اعمال تغییر ناشناخته به $x$ یعنی $$ y = t(x, w) + e $$ یعنی $$ e = y- t(x, w) $$ که در آن $t$ تبدیل اعمال شده است که دارای پارامترهای $w$ است و e خطایی است که فرض می شود به طور معمول نویز IID توزیع می شود. بنابراین، من یک اصطلاح احتمال داده شده با (برای یک پیکسل در تصویر) دارم: $$ L(w) = \prod_{i=1}^{N}(\frac{\phi}{2\pi}) ^{\frac{1}{2}} \exp^{\frac{-1}{2} \phi e_i^2} $$ که در آن $\phi$ دقت نویز است. من همچنین پیش از واریانس $\phi$ دارم که به عنوان توزیع گاما مدل شده است. از آنجا که آنها مستقل هستند، عبارات احتمال را می توان مانند معادله بالا ضرب کرد. اکنون، من مطلقاً هیچ چیز در مورد ماهیت پارامترهای $w$ نمی دانم، بنابراین حدس می زنم که باید یک پیش از $w$ داشته باشم؟ با این حال، من اطلاعات زیادی در مورد نحوه استفاده از این پیشین‌ها به صورت ریاضی ندارم و $w$ می‌تواند هر مقداری را به خود اختصاص دهد، بنابراین مطمئن نیستم که چگونه از این پیشین یکنواخت توزیع مناسبی ایجاد کنم. میخواستم بدونم کسی میتونه در این مورد به من راهنمایی کنه. من علاقه مند به استنباط حالت حداکثر و همچنین مشخص کردن گسترش $w$ هستم. در حال حاضر، من حتی در حال تلاش برای درک چگونگی مدل کردن چیزها در یک محیط بیزی هستم، در حالی که شما هیچ اعتقاد قبلی به شکل این پارامترهای مورد علاقه ندارید.
راه اندازی این مدل مولد برای استنتاج: پیشین های یکنواخت
83446
فرض کنید می‌خواهید خوشه‌هایی را بر اساس مجموعه‌ای از متغیرهای $Y$ پیدا کنید، و می‌خواهید اثرات برخی از متغیرهای $X$ را بر عضویت در آن خوشه‌ها تخمین بزنید. در اینجا نحوه انجام آن در حال حاضر است. مرحله 1: خوشه‌بندی مبتنی بر مدل را بر روی متغیرهای $Y$ انجام دهید (با استفاده از بسته mclust برای این کار). مرحله 2: بهینه سازی یک مدل رگرسیون چند جمله ای با عضویت خوشه ای به عنوان متغیر نتیجه. به نظر می رسد باید راه بهتری وجود داشته باشد که در آن مدل ها به طور همزمان تخمین زده شوند. کسی ابزار خوبی در R برای این کار می شناسد و حتی بهتر از آن، مجموعه ای از مراجع خوب برای (الف) مدل آماری که بسته پیاده سازی می کند، و (ب) چگونه از بسته استفاده کنیم؟ با تشکر
برآورد اثرات بر عضویت در یک خوشه
83442
بنابراین، فرض کنید که من مجموعه ای از 20 ویژگی دارم - برخی از آنها پیوسته و برخی از آنها باینری هستند. آیا الگوریتم/روش/راه‌حلی برای ایجاد ویژگی‌های بیشتر (ترکیب/تبدیل) آن ویژگی‌ها (مثلاً با استفاده از 2 مورد از آنها برای ایجاد ویژگی دیگر) وجود دارد؟ من می‌خواهم این کار را انجام دهم تا ویژگی‌های بیشتری را به یک SVM خطی بدهم - آیا این کار خوبی است یا خیر؟ آیا این افزایش ابعاد مجموعه داده نامیده می شود؟ آیا می توانم با ایجاد متغیرهای جدید از ترکیب آنها، داده های بیشتری از آن 20 عدد استخراج کنم؟ اگر این موضوع اصلا مهم است، من از یک هسته خطی استفاده می کنم.
الگوریتم ها/روش هایی برای ایجاد ویژگی های بیشتر از تعداد محدودی از ویژگی ها؟
38610
می‌خواهم کسی با الگوریتم NLMEFITSA در matlab آشنا باشد؟ این الگوریتم در نتیجه پارامترهای اثرات ثابت (بتا) برای یک مدل اثرات مختلط و همچنین ماتریس کوواریانس آنها (psi) را به من می دهد، اما همچنین در ساختار stats یک ماتریس کوواریانس به نام covb را به من می دهد. این یکی به خطاهای استاندارد مربوط می شود و برای محاسبه فواصل اطمینان مهم است، اما صادقانه بگویم من نمی دانم دقیقاً تفاوت بین این چیست؟ covb و ماتریس کوواریانس psi. و چگونه می توانم از covb هنگام شبیه سازی داده های جدید استفاده کنم؟ ممنون میشم اگه کسی اینو برام توضیح بده
ابزار Matlab برای جلوه های ترکیبی غیرخطی
33737
من سعی می کنم الگوریتم رگرسیون کرنل ریج را پیاده سازی کنم اما نتایج بسیار عجیبی دریافت می کنم. می ترسم اشتباهات احمقانه ای مرتکب شده باشم، بنابراین برای یافتن چگونگی رفع آنها به کمک شما نیاز دارم. من کد خود را در زیر نقل می کنم. همه پیشنهادات استقبال می شود. تابع [MSE_train_mean,MSE_train_std,MSE_test_mean,MSE_test_std,w_star] = perform_krr(X,Y) % تعداد اجراها را تنظیم کنید. اجرا = 2; % تعداد تاها را تنظیم کنید. چین = 5; ٪ مقادیر و تعداد توان ها را تنظیم کنید. توان = 0:9; قدرت = اندازه (قدرت، 2); ٪ مقادیر و تعداد گاما را تنظیم کنید. گاما = 2 .^ (-power); گاما = اندازه (گاما،2); ٪ مقادیر و تعداد سیگما را تنظیم کنید. سیگما = 2 .^ (قدرت)؛ sigmas = اندازه (sigma,2); ٪ ماتریس های کمکی را راه اندازی کنید. MSE_train = صفر (برخورد، سیگما، گاما)؛ MSE_train_optimum = صفر (رانش،1)؛ MSE_test = صفر (برخورد، سیگما، گاما)؛ MSE_test_optimum = صفر (اجرا می شود،1); w_star_optimum = صفر (اجرا، گرد (اندازه (X,1)*4/5)); % اجرای اجراها. برای r=1: runs، % مجموعه داده اصلی را به مجموعه آموزشی و آزمایشی تقسیم کنید. split_assignments = cross_val_split(folds,size(X,1)); % انجام تا زدن. برای f=1: folds، % متغیرهای توضیحی (x) را اختصاص دهید. x_train = X((split_assignments(:,f)==0),:); x_test = X((تقسیم_تکالیف(:,f)==1),:); ٪ متغیر پاسخ (y) را اختصاص دهید. y_train = Y((split_assignments(:,f)==0),:); y_test = Y((تقسیم_تکالیف(:,f)==1),:); % بازیابی اندازه ماتریس ها. [l_train_n,l_train_m] = اندازه(x_train); [l_test_n,l_test_m] = اندازه (x_test); % انجام سیگما. برای s=1:sigmas، % هسته گاوسی را برای سیگمای داده شده بسازید. [train_kernel] = محاسبه_krr_gaussiankernel(x_train,x_train,sigma(s)); % انجام گاما. برای g=1:گاما، % وزن دوگانه را برای گامای داده شده محاسبه کنید. a_star = محاسبه_krr_dualversion(kernel_train,y_train,gamma(g)); ٪ وزن های آموخته شده را روی مجموعه آموزشی اعمال کنید و درصد MSE مربوطه را برای مقادیر داده شده سیگما و گاما محاسبه کنید. MSE_train(f,s,g) = account_krr_dualcost(kernel_train,y_train,a_star); انتهای انتهای انتهای % میانگین بیش از چین. MSE_train_mean = mean(MSE_train,1); MSE_train_std = std(MSE_train,0,1); % هر دو مجموعه داده میانگین و std را تغییر شکل دهید. MSE_train_mean = reshape(MSE_train_mean,[sigmas gammas]); MSE_train_std = reshape(MSE_train_std,[sigmas gammas]); ٪ نمودار میانگین و std مجموعه آموزشی MSEها به عنوان تابعی از سیگما و گاما. figure, mesh(MSE_train_mean), title('Mean of Training Set MSEs vs Gamma and Sigma'); figure, mesh(MSE_train_std), title('Std of Training Set MSEs vs Gamma and Sigma'); % مقادیر بهینه پارامترهای تنظیم را انتخاب کنید، با توجه به % این واقعیت که ما حداقل خطای مجموعه آموزشی را می خواهیم. ما از خطای % مجموعه آموزشی به عنوان راهنمایی برای انتخاب پارامترهای تنظیم استفاده می کنیم. [V,I] = min(MSE_train_mean(:)); [S,G] = ind2sub(size(MSE_train_mean),I); % پارامترهای بهینه را بازیابی کنید. Optimum_sigma = Sigma(S); optimum_gamma = gamma(G); ٪ مجموعه های آموزشی و تست را بسازید: بگذارید 4/5 ورودی اول ٪ مجموعه آموزشی و 1/5 ورودی آخر مجموعه تست باشد. x_train = X(1:l_train_n,1:l_train_m); x_test = X(l_train_n+1:end,1:l_train_m); y_train = Y(1:l_train_n,1:1); y_test = Y(l_train_n+1:end,1:1); % هسته گاوسی بهینه را برای مجموعه های آموزشی و آزمایشی بسازید. [kernel_train_optimum] = محاسبه_krr_gaussiankernel(x_train,x_train,optimum_sigma); [kernel_test_optimum] = محاسبه_krr_gaussiankernel(x_test,x_test,optimum_sigma); ٪ وزن دوگانه بهینه هر دو مجموعه تمرین و تست را محاسبه کنید. a_star_train_optimum = محاسبه_krr_dualversion(kernel_train_optimum,y_train,optimum_gamma); a_star_test_optimum = محاسبه_krr_dualversion(kernel_test_optimum,y_test,optimum_gamma); w_star_optimum(r,:) = a_star_train_optimum'; % وزن‌های بهینه آموخته شده را در مجموعه‌های آموزشی و آزمایشی اعمال کنید و % MSEهای مربوطه را محاسبه کنید. MSE_train_optimum(r,1) = account_krr_dualcost(kernel_train_optimum,y_train,a_star_train_optimum); MSE_test_optimum(r,1) = account_krr_dualcost(kernel_test_optimum,y_test,a_star_test_optimum); پایان % % باقیمانده مجموعه آموزشی (در نمونه) را محاسبه کنید. % y_hat_train = x_train * a_star_optimum; % e_train = y_train - y_hat_train; % % بررسی کنید که مجموع آنها صفر باشد. % fprintf('مجموعه بازمانده های مجموعه آموزشی (در نمونه) تا %i.\n',sum(e_train)); % % در نهایت آنها را رسم کنید. % شکل، پراکنده (1:1:l_train_n,e_train); % % باقیمانده های مجموعه آزمایشی (خارج از نمونه) را محاسبه کنید. % y_hat_test = x_test * a_star_optimum; % e_test = y_test - y_hat_test; % % بررسی کنید که مجموع آنها صفر باشد. % fprintf('مجموعه باقیمانده های مجموعه آزمایشی (خارج از نمونه) تا %i.\n',sum(e_test)); % % سرانجام،
پیاده سازی متلب رگرسیون پشته هسته
30282
من در حال بررسی نرخ‌های تبدیل در برخی بخش‌های یک برنامه وب هستم تا بفهمم چه نوع مشتریانی را باید در جذب پولی سرمایه‌گذاری کنیم (تئوری این است که این بخش‌ها ارزش بیشتری در محصول می‌بینند و به همین دلیل، مایل به پرداخت هستند) . به عنوان مثال، در یک بخش 336 کاربر وجود دارد که از این تعداد 88 کاربر به پولی تبدیل شده اند. این یک نرخ تبدیل ~ 26٪ برای بخش ارائه می دهد، اما چگونه می توانم اطمینان داشته باشم که داده ها به اندازه کافی قابل توجه هستند تا از سوزاندن منابع گرانبها در تعقیب این بخش جلوگیری کنم؟ TIA
محاسبه اطمینان برای نرخ تبدیل برنامه وب
38611
در یک تکلیف، خروجی زیر از R به من داده می شود: > summary(myfit) Call: lm(formula = Blood_pre ~ Heart_wt) باقیمانده ها: Min 1Q Median 3Q Max -41.655 -29.796 -8.198 27.425 48.161 Coffeff. خطای t مقدار Pr(>|t|) (Intercept) 82.413 30.983 2.660 0.02219 * Heart_wt 5.723 1.779 3.218 0.00819 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 33.72 در 11 درجه آزادی چندگانه R-squared: 0.4849، R-squared تنظیم شده: 0.4381 آمار: 10.35 در 1 و 11 DF، p-value: 0.00819![graph](http://i.stack.imgur.com/WXZ2S.png) (همچنین به من داده می شود که $n = 13$) از داده های بالا، فرض می کنم که برای پیدا کردن معادله خط کمترین مربع که من فرمول آن را می دانم. با این حال، در آن فرمول، متغیرهای $SS_{xy}$، $SS_{xx}$، $\bar{x}$، و $\bar{y}$ وجود دارد. بدون مجموعه داده اصلی، من نمی دانم چگونه آن متغیرها را محاسبه کنم. آیا کسی می تواند به من در جهت درست راهنمایی کند؟
تفسیر خروجی خلاصه R
1253
من سعی می‌کنم شباهت مورد-آیتم را با استفاده از Jaccard (مخصوصاً Tanimoto) در فهرست بزرگی از داده‌ها در قالب (userid، itemid) محاسبه کنم. من حدود 800 هزار کاربر و 7900 مورد و 3.57 میلیون رتبه دارم. من داده های خود را به کاربرانی محدود کرده ام که حداقل n مورد (معمولاً 10) رتبه بندی کرده اند. با این حال، نمی‌دانم که آیا باید برای تعداد اقلام رتبه‌بندی شده حد بالایی قائل شوم. وقتی کاربران به 1000 مورد یا بیشتر امتیاز می دهند، هر کاربر 999000 ترکیب دوتایی از آیتم ها را تولید می کند تا در حساب من استفاده شود، با فرض محاسبه n! / (ن-ر)! افزودن این مقدار داده ورودی، فرآیند محاسبه را به شدت کاهش می‌دهد، حتی زمانی که حجم کار توزیع می‌شود (با استفاده از هادوپ). من فکر می کنم کاربرانی که به بسیاری از موارد امتیاز می دهند، کاربران اصلی من نیستند و ممکن است محاسبات شباهت من را کمرنگ کنند. دل من به من می گوید که داده ها را برای مشتریانی که بین 10 تا 150 تا 200 مورد رتبه بندی کرده اند محدود کنم، اما مطمئن نیستم که آیا راه بهتری برای تعیین آماری این مرزها وجود دارد یا خیر. در اینجا جزئیات بیشتری در مورد توزیع داده های منبع من آمده است. لطفاً در مورد هر گونه شرایط آماری که ممکن است از بین رفته باشم، من را روشن کنید! توزیع آیتم کاربران من تعداد: ![متن جایگزین](http://www.neilkodner.com/images/littlesnapper/itemsRated.png) > موارد خلاصه (خام) دارای رتبه حداقل. : 1.000 کو. 1: 1.000 میانه : 1.000 میانگین: 4.466 چهارم سوم: 3.000 حداکثر. :2069.000 > sd(raw) items دارای رتبه 16.46169 اگر داده های خود را به کاربرانی محدود کنم که حداقل 10 مورد را رتبه بندی کرده اند: > above10<-raw[raw$itemsRated>=10,] > summary(bove10) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 10.00 13.00 19.00 34.04 35.00 2069.00 > sd(بالای 10) [1] 48.64679 > طول (بالای10) [1] 64764 اگر بیشتر داده های خود را به کاربرانی محدود کنم که 15 مورد را بین 10 و > رتبه داده اند: above10less150<-above10[above10<=150] > خلاصه (بالای10less150) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 10.00 13.00 19.00 28.17 33.00 150.00 > sd(بالاتر از 10150) [1] 24.32098 > طول (بالاتر از 10150) [1] 63080 ویرایش: من فکر نمی‌کنم که این داده‌ها آنقدرها هم مثبت باشند.
چگونه داده های ورودی خود را برای محاسبه شباهت آیتم-اقلام Jaccard محدود کنم؟
77907
من از این سوال می‌آیم شباهت بین دو مجموعه از مقادیر تصادفی (که هنوز BTW است) که در آن @whuber در نظرات پیشنهاد کرد که من از نمودار Q-Q برای ارزیابی شباهت دو توزیع گسسته استفاده کنم. برای خلاصه کردن، من دو مجموعه شناور تصادفی بین [0,1] از اندازه های مختلف دارم: $$A = \\{0.3637852، 0.2330702، 0.1683102، 0.2127219، 0.015$ N$_$B = \\{0.4541056، 0.7521812، 0.0266602، 0.5099002، 0.3468181، ...، N_B\\}$$ جایی که $N_B > N_A$. و من باید نمودار Q-Q را برای مجموعه های پایانی ایجاد کنم. برای آنچه خوانده‌ام، اگر مجموعه‌ها دارای اندازه‌های مساوی باشند ($N_B = N_A$) من به سادگی هر دو مجموعه را از مقادیر جزئی به بزرگ مرتب می‌کنم و سپس یکی را در برابر دیگری در یک مطابقت 1:1 رسم می‌کنم. مجموعه‌های من در اندازه‌ها متفاوت هستند و منابعی که پیدا کرده‌ام [1]، [2] هر دو می‌گویند که باید هر دو مجموعه را مرتب کنم و سپس مجموعه _larger_ را درون‌یابی کنم ($B$ در مورد من). این برای من غیر شهودی است زیرا انتظار دارم که باید امتیازهای بیشتری را از مجموعه _کوچکتر_ $A$ (از طریق درونیابی) ایجاد کنم تا بتوانم این مجموعه گسترده $A'$ را در برابر مجموعه $B$ ترسیم کنم. بنابراین بدیهی است که من روند را به درستی درک نمی کنم. برای ایجاد نمودار Q-Q برای دو توزیع مانند آنچه در بالا ارائه کردم، چه مراحلی باید دنبال کنم؟
نمودار QQ را برای مجموعه هایی با اندازه های مختلف ایجاد کنید
30281
**زمینه**: گروهی در محل کار در حال نمونه گیری از 1000 مشتری برای تماس هستند و از آن نقطه، تعیین می کنند که آیا این تلاش ارزشمند است یا خیر. می‌خواستم ببینم آیا این مقدار (تقریباً) اندازه نمونه دلخواه اصلاً به اندازه کافی خوب است یا خیر. اگر فرض کنیم که نسبت واقعی موفقیت‌ها در یک جامعه 0.016 (1.6%) باشد، چقدر باید حجم نمونه را انتخاب کنم تا حاشیه خطای نیمه عرض) مثلاً 0.005 (0.5٪) را بدست آوریم. ? این رویکرد من در R است: install.packages(Hmisc) library(Hmisc) target.halfWidth<-0.005 sims<-25000 #تعداد ترسیم از دوجمله ای برای انجام p<-0.016 #نسبت واقعی n<-seq(از =500، به = 5000، توسط = 100) #تعداد نمونه #نتایج را نگه دارید نتایج<-ماتریس(عددی(0)، طول(n)،2) #حلقه از میان گزینه های اندازه نمونه دلخواه برای (i در 1: طول(n)) { x<-rbinom(sims,n[i],p) #از دو جمله ای با p و n ci<-binconf(x,n[i],method=asymptotic,alpha=0.1) #نظریه نرمال 90% CI half_width<-ci[,3]-ci[,1] #نیمه عرض CI #نیاز به عددی است که نصف عرض در محدوده هدف باشد prob.halfWidth<-length(half_width[half_width<target.halfWidth])/sims نتایج #store[i,1]<-n[i] results[i,2]<-prob.halfWidth } #plot نمودار(نتایج[,2],نتایج[,1],نوع = ب) نتایج این شبیه سازی نشان داد که ما به 2200 نمونه نیاز داریم تا 95% اطمینان داشته باشیم که CI 90% حداکثر 0.005 خواهد بود. **سوالات:** 1) آیا این روش مناسبی است؟ 2) آیا راه های بهتری وجود دارد؟ 3) چه توصیه ای می توانید بکنید که آیا نمونه های محدودی از برخی زیرجمعیت ها وجود دارد؟ بگویید که می‌خواهیم بدانیم چند نمونه از جمعیت‌هایی که مشتریان «زیاد» برای انتخاب وجود ندارند، انتخاب کنیم. شاید فقط 5000 از یک گروه خاص وجود داشته باشد، آیا ما نمی توانیم کمتر از آنها را برای تصمیم گیری در مقایسه با گروهی که 50000 نفر برای انتخاب وجود دارد استفاده کنیم؟ ممنون!! **بعد از پاسخ MansT اضافه کنید:** 1) آیا منطقی است، در سناریوی من با ترسیم های شبیه سازی، یک مرحله اضافه کنم که این خط: prob.halfWidth<-length(half_width[half_width<target.halfWidth])/فقط sims زمانی که CI به دست آمده دارای p واقعی (یعنی 0.016) نیز باشد، شمارنده را افزایش می دهد؟ 2) در زیر کد شما، آیا زمانی که با یک نمونه محدود سروکار دارید، اصلاحگر جمعیت محدود FPC را به خط خود اضافه کنید: halfWidth<-qnorm(0.95)*sqrt(p.est*(1-p.est)/ ن) 3) من از فرمول CI از فوق هندسی مطمئن نیستم، اما شاید بتوانم خط کد خود را جایگزین کنم ci<-binconf(x,n[i],method=asymptotic,alpha=0.1) #نظریه نرمال 90% CI با تابع Sprop در R؟
اندازه نمونه برای فاصله اطمینان دو جمله ای
72883
من این تابع پارتیشن را دارم ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ve5sd.png) حالا اگر مشتق log(Z(x)) را بگیرم wrt $\lambda_k$ نتیجه می شود است ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/6Qikg.png) من متوجه نشدم که چگونه این مشتق شده است. این کاغذ است
سردرگمی نسبت به مشتق تابع پارتیشن
48092
من سعی می کنم رتبه بندی یک محصول (که مقادیر صحیح بین 0 تا 10 را می گیرد) با استفاده از برخی پیش بینی کننده های دیگر مدل کنم. آیا می توانم از رگرسیون دو جمله ای منفی استفاده کنم؟ داده ها بیش از حد به سمت رتبه های بالاتر پراکنده شده اند، اما مطمئن نیستم که آیا negbin برای تعداد محدود کار می کند یا خیر.
از چه نوع مدل رگرسیونی برای متغیر وابسته اعداد صحیح و محدود استفاده کنم؟
77908
من یک محقق در زمینه پزشکی قلب و عروق هستم و در حال حاضر روی یک مطالعه در زمینه غدد درون ریز (دیابت) کار می کنم. من چالش زیر را دارم که با چندین آماردان صحبت کرده ام که همگی به من توصیه ها و توضیحات ناهماهنگی دادند (به همین دلیل بحث را در اینجا امتحان خواهم کرد). مجموعه داده شامل: * 400000 مشاهده * 100000 فرد منحصر به فرد (بین 1 تا 10 مشاهده/فرد). * زمان متفاوت بین مشاهدات. * متغیر گروه بندی قومیت است. 10 گروه (اصولاً قاره های جهان). * طیف وسیعی از متغیرهای کمکی موجود است. * نتیجه مورد علاقه پیوسته است (پس از تبدیل ورود به سیستم به طور معمول رضایت بخش نیست). بنابراین، من یک مجموعه داده بزرگ با اندازه گیری های مکرر با زمان متفاوت بین آنها دارم. نتیجه مورد نظر سطوح گلوکز خون (متغیر پیوسته) است. پس از تعدیل متغیرهای کمکی، می‌خواهم بدانم که آیا قومیت بر این نتیجه تأثیر می‌گذارد یا نه. قضاوت در مورد روش آماری بهینه برای این امر دشوار است. در SAS که من از آن استفاده می کنم، چندین احتمال وجود دارد. PROC GENMOD یک گزینه تکرار دارد که معادلات تخمینی تعمیم یافته ارائه شده توسط لیانگ و زگر را فراخوانی می کند. این روش چندین مزیت دارد. می توان از PROC GLM استفاده کرد. همچنین می توان از PROC MIXED استفاده کرد. سوال این است که کدام روش برای این مجموعه داده بهینه است و چرا؟
انتخاب آزمون برای اندازه گیری های طولی، مکرر و داده های خوشه ای
71502
من می‌خواهم 1000 عدد تصادفی را با توزیع Gumbel (توزیع ارزش شدید نوع 1) با پارامترهای شناخته شده $m$ و $a$ تولید کنم. سپس می‌خواهم پارامترهای توزیع را برای این 1000 عدد با استفاده از تخمین لحظه‌های وزن‌دار احتمال (PWM) و تخمین حداکثر درستنمایی (MLE) تخمین بزنم تا آنها را با $m$ و $a$ مقایسه کنم. من از کمک شما قدردانی می کنم
متغیرهای تصادفی را از توزیع Gumbel در R ایجاد کنید
31771
فرض کنید $X_1 \sim \textrm{unif}(n,0,1),$$ $$X_2 \sim \textrm{unif}(n,0,1),$$ داریم که $\textrm{unif} (n,0,1)$ نمونه تصادفی یکنواخت با اندازه n است و $$Y=X_1,$$ $$Z = 0.4 X_1 + \sqrt{1 - 0.4}X_2.$$ سپس همبستگی بین $Y$ و $Z$ 0.4$ است. چگونه می توانم این را به سه متغیر گسترش دهم: $X_1$، $X_2$، $X_3$؟
سه متغیر تصادفی همبسته ایجاد کنید
71500
من عملکردهای مختلفی دارم که ویژگی هایی مانند کامل بودن یا شهرت را می سنجد. من سعی می کنم بفهمم که آنها در چه مقیاسی هستند (اسمی، ترتیبی، فاصله، نسبت یا مطلق). بیشتر توابع به مقادیر بین $0.0 و $1.0 نگاشت می شوند. من فرض می کنم که آنها در یک مقیاس نسبت هستند. مقیاس نسبت یک مقیاس فاصله ای است که در آن مقادیر دارای معنای عددی هستند، بنابراین جمع و تفریق در اینجا کار می کنند. این تا حدودی منطقی است. من این اعداد را به صورت درصد نشان می دهم. آیا درصد به طور کلی یک مقیاس نسبت است؟ سپس اقداماتی وجود دارد که به مقادیر کاملاً دلخواه نگاشت می شوند. به عنوان مثال یک به ارزش بین 355- دلار و 2214 دلار است. آیا اینها از نوع مقیاس مطلق هستند؟
تعیین نوع ترازو
77904
فرض کنید من نمونه‌های مثبت و منفی دارم و به دقت بیشتر از یادآوری اهمیت می‌دهم. علاوه بر این، من فرض می‌کنم که در میان نمونه‌های مثبت مواردی وجود دارد که «آسان‌تر» از بقیه جدا می‌شوند، اما من هیچ راه مستقیمی برای شناسایی این موارد ندارم. منظور من از ساده‌تر بودن این است که انتخاب طبقه‌بندی‌کننده معین برای انتخاب آن‌ها بدون انتخاب نمونه‌های منفی آسان است. اگر ما فقط دو ویژگی ورودی داشتیم، می‌توانستیم به صورت بصری اینها را به عنوان نمونه‌های مثبت که به وضوح با نمونه‌های منفی همپوشانی ندارند، انتخاب کنیم، اما در این مورد من در فضاهای با ابعاد بالا کار می‌کنم. آیا الگوریتمی وجود دارد که با توجه به مجموعه‌ای از ویژگی‌ها و برچسب‌های ورودی، مواردی را که طبقه‌بندی «آسان» هستند شناسایی کند؟
آیا روش های شناخته شده ای برای انتخاب موارد آسان برای طبقه بندی وجود دارد؟
72882
من می خواهم نظر شما را در مورد یک رفتار بسیار عجیب که اخیراً با اجرای glmer() مواجه شده ام، نظرتان را جلب کنم. مشکل این است که وقتی من متغیر وابسته را به یک بردار منطقی تبدیل می کنم، گلمر رفتار عجیبی دارد. متغیر وابسته من Accuracy است و بر حسب 1 (پاسخ دقیق) و 0 (پاسخ اشتباه) کدگذاری شده است. چیزی که من را متحیر می کند این است که تبدیل دقت به یک بردار منطقی باید برای glmer نیز به همین صورت عمل کند، زیرا یک بردار منطقی بر حسب TRUE یا FALSE کدگذاری می شود و همچنین دارای 2 سطح است. با این حال، glmer بسته به تبدیل متغیر وابسته ای که استفاده می کنم، نتایج متفاوتی به من می دهد. بچه ها آیا قبلا با این مورد برخورد کرده اید؟ آیا می دانید چرا این اتفاق می افتد؟ در زیر نمونه کد وجود دارد تا بتوانید خودتان مشکل را تکرار کنید. #ایجاد داده های جعلی موضوع <- c(rep(S1,4), rep(S2,4), rep(S3,4), rep(S4,4)) مورد <- rep( c(I1، I2، I3، I4)، 4) فاکتور 1 <- c(c(rep(e1،2)،rep(e2،2))، c(e1، e2، e2، e1)، c(rep(e2،2)،rep(e1،2))، c(e2،e1، e1،e2)) دقت <- c(1,1,0,0,1,0,1,0,1,0,1,1,1,1,1,1) #ایجاد قاب داده و دقت را به یک عامل با داده 2 سطحی <- data.frame(موضوع، آیتم، فاکتور 1، دقت) داده$ دقت <- فاکتور(داده$دقت) #دقت یک فاکتور با 2 سطح است #اجرای glmer m1 <- glmer(دقت ~ فاکتور1 + ( 1+Factor1|موضوع) + (1+Factor1|مورد)، خانواده = دو جمله ای، داده = داده) خلاصه (m1) اثرات ثابت: برآورد Std. خطای z مقدار Pr(>|z|) (Intercept) 1.946 1.069 1.820 0.0687. Factor1e2 -1.946 1.282 -1.518 0.1290 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 این خروجی مدل اول است. حالا، ببینید چه اتفاقی می‌افتد اگر وقتی مدل را اجرا می‌کنم، داده$Accuracy را به یک بردار منطقی تبدیل کنم: m2 <- glmer(as.logical(as.numeric(Accuracy)) ~ Factor1 + (1+Factor1|Subject) + ( 1+Factor1|Item)، خانواده = دوجمله ای، داده = داده) خلاصه (m2) اثرات ثابت: برآورد Std. خطای z مقدار Pr(>|z|) (برق) 2.557e+01 1.259e+05 0 1 Factor1e2 2.223e-06 1.781e+05 0 1 همانطور که می بینید، اکنون تخمین ضرایب بسیار متفاوت است. همانطور که گفتم، این برای من بسیار گیج‌کننده به نظر می‌رسد و می‌خواهم بدانید که آیا فکری در مورد اینکه چرا باید اینطور باشد، دارید. خیلی ممنون \--سل
رفتار گیج کننده ()glmer
30422
من در حال تلاش برای کاهش نویز (بهبود تفکیک پذیری) در بین گروه ها در یک مجموعه داده با 26 متغیر عددی و 10000 نمونه هستم. هر نمونه یک پروفیل شیمیایی است که هر متغیر مقدار برخی از ترکیبات شیمیایی را نشان می دهد. اکثر متغیرها از نرمال فاصله دارند. سوال من این است: چگونه می توانم آزمایش کنم که آیا نمونه ها از توزیع های چند متغیره جداگانه هستند؟ شهود من این است که میانگین‌ها را برای هر متغیر در گروه‌ها راه‌اندازی کنم و سپس یک آزمون MANOVA تغییر یافته (یا T-square هتلینگ) را برای شبیه‌سازی یک توزیع تهی انجام دهم. من می‌دانم که این کار در حالت تک متغیره کار می‌کند، زیرا من این کار را روی داده‌های ریزآرایه انجام داده‌ام، اما در مورد اینکه آیا هنوز مفروضات را نقض می‌کنم یا نه، گیج هستم. ایده این است که نمونه‌هایی را که مطمئن هستم (در برخی آلفاها) از توزیع‌های مختلف انتخاب می‌شوند، سپس از آنها به عنوان مبنای یک تابع خوشه‌بندی استفاده می‌کنیم. داده‌های من بسیار خطی هستند، که ممکن است نشان دهد که نمونه‌های خاصی منشأ مشترک دارند، و بنابراین اختصاص نمونه‌های جدید به خوشه‌های شناخته شده آموزنده خواهد بود. خیلی ممنون
انتخاب ویژگی با توجه به متغیرهای غیر عادی؟
18088
فرض کنید برای هر موضوعی در هر سایت مقداری اندازه گیری دارم. دو متغیر، موضوع و مکان، از نظر محاسبه مقادیر همبستگی درون کلاسی (ICC) مورد توجه هستند. من معمولاً از تابع 'lmer' از بسته R 'lme4' استفاده می کنم و lmer را اجرا می کنم (اندازه گیری ~ 1 + (1 | موضوع) + (1 | سایت)، mydata) مقادیر ICC را می توان از واریانس های اثرات تصادفی به دست آورد. در مدل بالا با این حال، اخیراً مقاله ای خواندم که واقعاً من را متحیر می کند. با استفاده از مثال بالا، نویسندگان سه مقدار ICC را در مقاله با تابع lme از بسته nlme محاسبه کردند: یکی برای موضوع، یکی برای سایت، و دیگری برای تعامل موضوع و سایت. جزئیات بیشتری در این مقاله ذکر نشده است. من از دو منظر زیر سردرگم هستم: 1. چگونه مقادیر ICC را با lme محاسبه کنیم؟ من نمی دانم چگونه آن سه افکت تصادفی (موضوع، سایت و تعامل آنها) را در lme مشخص کنم. 2. آیا واقعاً در نظر گرفتن ICC برای تعامل موضوع و سایت معنی دارد؟ از منظر مدل سازی یا نظری، می توانید آن را محاسبه کنید، اما از نظر مفهومی من در تفسیر چنین تعاملی مشکل دارم.
همبستگی درون طبقاتی (ICC) برای یک تعامل؟
18084
در مورد هم خطی با توجه به پیش بینی کننده های پیوسته مطالب زیادی وجود دارد، اما نه آنقدر که بتوانم در پیش بینی های طبقه بندی پیدا کنم. من داده هایی از این نوع را دارم که در زیر نشان داده شده است. عامل اول یک متغیر ژنتیکی (شمارش آلل)، عامل دوم یک دسته بیماری است. واضح است که ژن ها مقدم بر بیماری هستند و عاملی برای نشان دادن علائمی هستند که منجر به تشخیص می شود. با این حال، تجزیه و تحلیل منظم با استفاده از مجموع مربع های نوع II یا III، همانطور که معمولاً در روان با SPSS انجام می شود، اثر را از دست می دهد. تجزیه و تحلیل مجموع مربعات نوع I آن را انتخاب می کند، زمانی که ترتیب مناسب وارد می شود زیرا وابسته به ترتیب است. علاوه بر این، احتمالاً اجزای اضافی در روند بیماری وجود دارد که به ژن مربوط نمی شوند و به خوبی با نوع II یا III شناسایی نمی شوند، به **anova(lm1)** در زیر در مقابل lm2 یا Anova مراجعه کنید. _داده های مثال:_ set.seed(69) iv1 <- نمونه (c(0،1،2)، 150، جایگزین=T) iv2 <- round(iv1 + rnorm(150، 0، 1)، 0) iv2 < - ifelse(iv2<0، 0، iv2) iv2 <- ifelse(iv2>2، 2، iv2) dv <- iv2 + rnorm(150، 0، 2) iv2 <- factor(iv2، labels=c(a، b، c)) df1 <- data.frame(dv, iv1, iv2) library(car) chisq .test(جدول(iv1، iv2)) # روابط سریع ژن و بیماری lm1 <- lm(dv~iv1*iv2، df1); lm2 <- lm(dv~iv2*iv1, df1) anova(lm1); anova(lm2) Anova(lm1, type=II); Anova(lm2, type=II) 1. **lm1** با نوع I SS به نظر من روش مناسبی برای تجزیه و تحلیل داده ها با توجه به نظریه پس زمینه است. آیا فرض من درست است؟ 2. من به طراحی های متعامد به وضوح دستکاری شده عادت دارم، جایی که این مشکلات معمولاً ظاهر نمی شوند. آیا متقاعد کردن داوران که این بهترین فرآیند است (با فرض اینکه نکته 1 صحیح باشد) در زمینه یک فیلد مرکزی SPSS دشوار است؟ 3. و در قسمت آمار چه چیزی را گزارش کنیم؟ هر گونه تحلیل اضافی، یا نظری که باید وارد شود؟
هم خطی بین متغیرهای طبقه بندی
71509
یک رگرسیون خطی محلی در هر نقطه $x_i $ تخمینی از وقفه و شیب مقادیر $y$ را در مرکز آن نقطه ارائه می دهد. منحنی ایجاد شده توسط توالی وقفه ها را در نظر بگیرید. بهترین برآورد شیب آن چیست؟ آیا این تخمین شیب در رگرسیون خطی محلی است یا از خود بریدگی ها مشتق شده است، همانطور که ممکن است توسط مشتق درون یابی اسپلاین از بریدگی ها به دست آید. ارجاعات مربوط به این موضوع قدردانی می شود.
برآورد شیب رگرسیون خطی محلی
18082
در ادامه این سوال، چگونه کوواریانس را برای کسی که فقط میانگین را می‌فهمد توضیح می‌دهید؟، که به موضوع توضیح کوواریانس برای یک فرد عادی می‌پردازد، سوال مشابهی را در ذهن من ایجاد کرد. چگونه می توان تفاوت بین _کوواریانس_ و _همبستگی_ را برای یک تازه اندیش آمار توضیح داد؟ به نظر می رسد که هر دو به تغییر در یک متغیر اشاره دارند که به متغیر دیگر پیوند داده شده است. مشابه سوال مورد اشاره، فقدان فرمول ترجیح داده می شود.
تفاوت بین همبستگی و کوواریانس را چگونه توضیح می دهید؟
27830
در پست قبلی من تعجب کردم که چگونه با نمرات EQ-5D برخورد کنم. اخیراً من به طور تصادفی با رگرسیون چندک لجستیک پیشنهاد شده توسط Bottai و McKeown برخورد کردم که روشی زیبا برای مقابله با نتایج محدود را معرفی می کند. فرمول ساده است: $logit(y)=log(\frac{y-y_{min}}{y_{max}-y})$ برای جلوگیری از log(0) و تقسیم بر 0، دامنه را به اندازه کوچک افزایش می دهید. ارزش، $\epsilon$. این محیطی را ایجاد می کند که به مرزهای نمره احترام می گذارد. مشکل این است که هر $\beta$ در مقیاس logit خواهد بود و این معنی ندارد مگر اینکه دوباره به مقیاس معمولی تبدیل شود، اما این بدان معنی است که $\beta $ غیر خطی خواهد بود. برای اهداف نموداری، این مهم نیست، اما نه با $\beta$:s بیشتر، این بسیار ناخوشایند خواهد بود. سوال من: **چگونه پیشنهاد می کنید که یک logit $\beta$ را بدون گزارش دهی کامل گزارش کنید؟** * * * ## مثال پیاده سازی برای آزمایش پیاده سازی، من یک شبیه سازی بر اساس این تابع اصلی نوشته ام: $outcome =\beta_0+\beta_1* xtest^3+\beta_2*sex$ که $\beta_0 = 0$، $\beta_1 = 0.5$ و $\beta_2 = 1 دلار از آنجایی که در امتیازات سقف وجود دارد، من هر مقدار نتیجه را بالای 4 و هر مقدار زیر -1 را به مقدار حداکثر تنظیم کرده‌ام. ### وقفه data set.seed(10) را شبیه سازی کنید <- 0 beta1 <- 0.5 beta2 <- 1 n = 1000 xtest <- rnorm(n,1,1) gender <- factor(rbinom(n, 1, . 4)، labels=c(مرد، مونث)) نویز_تصادفی <- runif(n, -1,1) # افزودن یک سقف و کف برای شبیه سازی یک نمره محدود fake_seiling <- 4 fake_floor <- -1 # فقط برای اینکه به نمودارها همان ظاهر را بدهم my_ylim <- c(fake_floor - abs(fake_foor)*.25, fake_six+abs(fake_sifing)*. 25) my_xlim <- c(-1.5، 3.5) # پیش بینی را شبیه سازی کنید linpred <- intercept + beta1*xtest^3 + beta2*(جنس == مونث) + سر و صدای_تصادفی # حذف برخی موارد افراطی linpred[linpred > سقف_جعلی + abs(diff(range(linpred)))/2 | linpred <fake_floor - abs(diff(range(linpred)))/2 ] <- NA #فاصله را محدود کنید و یک سقف و افکت کف شبیه به امتیازات linpred[linpred > fake_ceiling] <- fake_ceiling linpred[linpred <fake_floor] <- fake_floor برای ترسیم موارد بالا: library(ggplot2) # فقط برای دادن همه نمودارهای یکسان my_ylim <- c(fake_floor - abs(fake_foor)*.25, fake_seiling + abs(fake_stiling)*.25) my_xlim <- c(-1.5, 3.5) qplot(y=linpred, x=xtest, col =gender, ylab=Outcome) این تصویر را می دهد: ![Scatterplot from simulation](http://i.stack.imgur.com/luZGu.png) ### رگرسیون ها در این بخش من رگرسیون خطی منظم، رگرسیون چندک (با استفاده از میانه) و رگرسیون چندک لجستیک را ایجاد می کنم. تمام تخمین ها بر اساس مقادیر بوت استرپ با استفاده از تابع ()bootcov است. library(rms) # رگرسیون خطی منظم fit_lm <- Glm(linpred~rcs(xtest, 5)+جنسیت, x=T, y=T) boot_fit_lm <- bootcov(fit_lm, B=500) p <- پیش بینی(boot_fit_lm, xtest=seq(-2.5، 3.5، by=.001)، gender=c(مرد، مونث)) lm_plot <- plot.Predict(p, se=T, col.fill=c(#9999FF, #BBBBFF), xlim=my_xlim, ylim=my_ylim ) # رگرسیون چندکی fit_rq منظم <- Rq(فرمول(fit_lm)، x=T، y=T) boot_rq <- bootcov(fit_rq, B=500) # هشدار کمی نگران کننده: # در rq.fit.br(x, y, tau = tau, ...) : راه حل ممکن است غیر منحصر به فرد p <- Predict(boot_rq, xtest=seq( -2.5، 3.5، توسط=.001)، gender=c(مذکر، مونث)) rq_plot <- plot.Predict(p، se=T، col.fill=c(#9999FF، #BBBBFF)، xlim=my_xlim، ylim=my_ylim) # تبدیلات لاجیت logit_fn <- تابع(y، y_min، y_max، epsilon) log((y-(y_min-epsilon))/(y_max+epsilon-y)) antilogit_fn <- تابع (antiy، y_min، y_max، epsilon) (exp(antiy)*(y_max+epsilon)+y_min-epsilon)/ (1+exp(antiy)) epsilon <-.0001 y_min <-min(linpred, na.rm=T) y_max <- max(linpred, na.rm=T) logit_linpred <- logit_fn(linpred, y_min=y_min, y_max=y_max, epsilon=epsilon) fit_rq_logit <- update(fit_rq, logit_linpred ~ .) boot_rq_logit <- bootqv Predict(boot_rq_logit, xtest=seq(-2.5, 3.5, by=.001), gender=c(Male, Female)) # به سازمان بازگردید. مقیاس transformed_p <- p transformed_p$yhat <- antilogit_fn(p$yhat, y_min=y_min, y_max=y_max, epsilon=epsilon) transformed_p$lower <- antilogit_fn(p$lower, y_min=y_min, y_max, y_max=onsil ) transformed_p$upper <- antilogit_fn(p$بالا، y_min=y_min،
رگرسیون چندک لجستیک – نحوه انتقال بهترین نتایج
15104
با توجه به تنظیمات آزمایشی زیر: نمونه‌های متعدد از یک آزمودنی گرفته می‌شود و هر نمونه به روش‌های مختلف (از جمله درمان شاهد) درمان می‌شود. آنچه عمدتاً جالب است تفاوت بین کنترل و هر درمان است. من می توانم دو مدل ساده برای این داده ها در نظر بگیرم. با نمونه $i$، درمان $j$، درمان 0 به عنوان کنترل، اجازه دهید $Y_{ij}$ داده، $\gamma_i$ خط پایه برای نمونه $i$، $\delta_j$ تفاوت برای درمان باشد. $j$. مدل اول هم به کنترل و هم به تفاوت نگاه می کند: $$ Y_{ij}=\gamma_i+\delta_j+\epsilon_{ij} $$ $$ \delta_0=0 $$ در حالی که مدل دوم فقط به تفاوت نگاه می کند. اگر $d_{ij}$ را از قبل محاسبه کنیم $$ d_{ij}=Y_{ij}-Y_{i0} $$ سپس $$ d_{ij}=\delta_j+\varepsilon_{ij} $$ سوال من این است که چیست؟ تفاوت های اساسی بین این دو تنظیم؟ به ویژه، اگر سطوح به خودی خود بی معنی هستند و فقط تفاوت مهم است، آیا مدل اول بیش از حد انجام می دهد و شاید ضعیف است؟
آیا تفاوت بین کنترل و درمان باید به طور صریح مدل شود یا به طور ضمنی؟
15102
من اخیراً متوجه شدم که یک مدل ترکیبی که فقط موضوع آن به عنوان یک عامل تصادفی و سایر عوامل به عنوان عوامل ثابت است معادل یک ANOVA در هنگام تنظیم ساختار همبستگی مدل مخلوط بر روی تقارن مرکب است. **بنابراین من مایلم بدانم که تقارن مرکب در زمینه یک ANOVA مختلط (یعنی تقسیم‌بندی) به چه معناست که در بهترین حالت به زبان انگلیسی ساده توضیح داده شده است. مانند ماتریس همبستگی کلی > CorSymm، بدون ساختار اضافی. یا انواع مختلف _همبستگی فضایی_. **بنابراین، من این سوال مرتبط را دارم که در مورد کدام انواع دیگر از ساختارهای همبستگی ممکن است در زمینه آزمایشات طراحی شده (با عوامل بین و درون موضوعی) استفاده شود؟ منابع برای ساختارهای همبستگی مختلف
تقارن مرکب در انگلیسی ساده چیست؟
72887
فرض کنید همه افراد روی کره زمین را در نظر می گیریم. ما علاقه مندیم 10 نفر را که بیماری قلبی دارند به صورت تصادفی انتخاب کنیم. آیا بهتر است به طور مکرر از 10 نفر نمونه برداری کنیم و سپس انتخابی را انتخاب کنیم که در آن هر 10 نفر بیماری قلبی دارند؟ یا بهتر است فقط به افرادی که بیماری قلبی دارند نگاهی بیندازیم و 10 نفر از آن جمعیت را نمونه برداری کنیم؟
نمونه برداری و شرایط
27833
من سعی می کنم یک رگرسیون لجستیک را جاسازی کنم که در آن تفاوت زیادی در تعداد نقاط داده در هر گروه وجود دارد (70 در مقابل 10000). یکی از دوستان آمارشناس من به من گفته است که این یک مشکل شناخته شده رگرسیون لجستیک است و برای این نوع اعداد با داده ها سازگاری بیشتری دارد و اساسا کار نمی کند. وقتی داده ها را جمع می کنم و با مدل مقایسه می کنم، کاملاً واضح است که قطعاً این مورد است. می‌پرسم آیا کسی از روش بهتر/منعطف‌تر برای برازش این نوع داده‌های پاسخ باینری آگاه است؟ (به هر حال من یک آمارگیر نیستم، پس راحت باشید!)
نسخه انعطاف پذیر رگرسیون لجستیک
94299
من در حال نوشتن برنامه ای هستم که یادداشت هایی را از صفحه کلید به عنوان ورودی می گیرد (فقط اعداد، 1 تا 88) و تصمیم می گیرد که کدام نت ها با کدام دست پخش شوند. متغیرهای زیادی وجود دارد، به عنوان مثال، موقعیت نت (هرچه بالاتر باشد، شانس بیشتری برای نواختن با دست راست و بالعکس)، میزان نواختن نت هایی با همان دست در کنار نت هدف. و غیره. اگر داده های تجربی داشته باشم و آن ها را تجزیه و تحلیل کنم، راه برازش معادله (منحنی) با آن چیست؟ بیشترین کاری که من از این نوع انجام داده ام این است که یک خط را به مجموعه ای از داده ها متصل کنم، بنابراین کمی گم شده ام. همچنین، همانطور که می‌دانم، اگر دو متغیر وجود داشته باشد (و احتمالاً بیشتر خواهد بود) از نمودار سه بعدی است، اگر متغیرهای زیادی داشته باشم هنوز راهی برای انجام آن وجود دارد. من در آمار کمی مبتذل هستم، بنابراین پیوندهایی با توضیحات مفصل و غیره بسیار مورد قدردانی قرار خواهند گرفت. با تشکر ویرایش: خوب، در اینجا اطلاعات کمی وجود دارد. در حال حاضر اجازه دهید دو متغیر، ارتفاع نت و تعداد نت هایی که با یک دست در نزدیکی نت داده شده (شعاع یک میله) نواخته می شود، در نظر بگیریم. اگر نت شماره 40 (وسط C) یا بالاتر باشد، احتمال بیشتری وجود دارد که با دست راست نواخته شود و اگر نت زیر 40 باشد، به احتمال زیاد توسط دست چپ نواخته می شود. من فکر می کنم یک تابع سیگموئید با یک مرکز در 40 آن را به خوبی توصیف می کند، با اینکه شکل بسته به متغیر دوم کمی متفاوت است. امتیاز من حدود 1000 نت است، هر نت اطلاعاتی در مورد دستی که با آن نواخته می شود، ارتفاع آن و تعداد نت هایی که با همان دست نواخته می شود در شعاع 1 بار است. یک ویرایش دیگر: خوب، در اینجا کمی اطلاعات بیشتر در مورد ماهیت داده های من و هدف همه اینها وجود دارد: هدف برنامه تحلیلی نیست، بلکه عملی است. یک پخش کننده یک صفحه کلید MIDI را پخش می کند و یک فایل MIDI را ضبط می کند. این اساساً یک فایل حاوی توضیحات دیجیتالی از هر نتی است که او نواخته است - ارتفاع آن، زمان پخش آن، طول و سرعت ضربه زدن. من اطلاعی ندارم که کدام نت با کدام دست نواخته شده است. با این حال، با استفاده از اطلاعاتی که در مورد یادداشت ها می دانم، می توانم حدس خوبی داشته باشم. تنها چیزی که من نیاز دارم فرمولی است که احتمال نواختن هر نت توسط دست چپ یا راست را توصیف کند. نت توسط هر یک از چپ دست راست پخش می شود، بنابراین خروجی که من دنبال آن هستم چپ یا راست است، کمی شبیه مشکل چرخاندن سکه است، فقط این یکی به متغیرهای زیادی بستگی دارد نه فقط 50/50. لطفا در صورت نیاز به اطلاعات بیشتر به من اطلاع دهید. با تشکر
یافتن معادله ای با متغیرهای زیادی برای برازش مجموعه ای از داده ها
78102
**نکته**: این سوال دنباله برآورد اندازه جمعیت یک زیرگروه بر اساس نمونه های مستقل بدون جایگزینی است. اجازه دهید یک کیسه دارای 1000 توپ با رنگ های دلخواه و اندازه های مجهول ($r$) باشد. فرض کنید حجم کل اشغال شده توسط توپ ها ($t_v$) را نیز می دانیم. ما می خواهیم کل حجم اشغال شده توسط توپ های قرمز ($t_{v}^{red}$) را تخمین بزنیم. ما سعی می کنیم این کار را با گرفتن $x$ نمونه مستقل (بدون جایگزینی در هر نمونه) به اندازه $s$ از جمعیت اصلی انجام دهیم. به عنوان مثال فرض کنید $s$ 10٪ از جمعیت اصلی باشد. به شمارش تعداد توپ های قرمز در هر نمونه ادامه دهید، به عنوان مثال، برای $x = 10 $: (9، 10، 10، 11، 13، 8، 5، 15، 12، 9) برای تخمین تعداد توپ های قرمز در جامعه اصلی را می توان به صورت ساده لوحانه میانگین فهرست فوق را محاسبه و بر نمونه تقسیم کرد. در این مورد: (9 + 10 + 10 + 11 + 13 + 8 + 5 + 15 + 12 + 9) / 10 / 0.1 = 102 در مورد $t_{v}^{red}$ چطور؟ هر نمونه مجموعه ای از اندازه ها را برای توپ های قرمز مشاهده شده به ما می دهد. بنابراین: نمونه 1 = [3، 2، 1، 10، 2، 8، 1، 4، 1، 1] => 33 => V = 5098 نمونه2 = [3، 6، 1، 3، 4، 1، 1، 1، 8، 1] => 29 => V = 2673 نمونه 3 = [1، 4، 3، 10، 1، 1، 5، 1، 1، 2] => 29 => V = 3861 نمونه4 = [4، 1، 1، 1، 2، 6، 2، 6، 1، 1] => 25 => V = 1624 نمونه5 = [1، 6، 1، 2، 4، 3، 7، 10، 10، 2] => 46 => V = 8381 نمونه6 = [6، 6، 1، 2، 1، 10، 3، 2، 3، 1] => 35 => V = 4728 نمونه7 = [1، 4، 2، 1، 4، 1، 2 ، 4، 10، 1] => 30 => V = 3807 نمونه 8 = [1، 8، 3، 3، 4، 3، 1، 8، 1، 5] => 37 => V = 4074 نمونه9 = [7، 9، 2، 4، 4، 6، 6، 1، 8، 1] => 48 => V = 6766 نمونه 10 = [3، 8، 1، 2، 10، 7، 3، 7، 3، 1] => 45 => V = 7191 همانطور که می بینید، حجم تخمین زده شده در هر نمونه می تواند به طور قابل توجهی متفاوت باشد (از 1624 تا 8381). و مشکل من اینجاست سوالات من به این ترتیب است: 1. چگونه می توان حجم کل اشغال شده توسط توپ های یک رنگ خاص را تخمین زد؟ 2. به طور فرضی می توانیم فرض کنیم که اندازه توپ از یک توزیع شناخته شده (در این مورد، zipfian) پیروی می کند. آیا این کمک خواهد کرد؟ 3. چگونه می توانم به جای عدد، توزیع احتمالی از اندازه و حجم تخمین زده شده جمعیت را بدست بیاورم؟ * * * برخی توضیحات در مورد مشکل اصلی: 1. اندازه جمعیت _à priori_ شناخته شده است. 2. حجم جمعیت نیز _à priori_ شناخته شده است. 3. اما تعداد رنگ ها مشخص نیست. یا حجم کل هر رنگ. یا هر دو نسبت. 4. هر نمونه بدون جایگزینی توپ می گیرد. 5. نمونه ها مستقل هستند (پس از نمونه برداری، همه توپ ها جایگزین می شوند).
برآورد یک مشخصه زیر جمعیت بر اساس نمونه های مستقل بدون جایگزینی
78101
جدول احتمالی من: هموزیگوت هتروزیگوت. هموزیگوت جزئی. عمده مشاهده شده 2 0 3 مورد انتظار 0 0 5 جمعیت مورد انتظار فقط از ژنوتیپ AA تشکیل شده است، اما در جمعیت مشاهده شده ما 2 ژنوتیپ AB را مشاهده می کنیم. برای محاسبه Chi-sq برای این مورد، آیا فقط دو مورد را نادیده می‌گیرم که مقدار مورد انتظار = 0 است؟ بنابراین من این کار را انجام می دهم: $(3-5)^2/5=0.8$
آزمون کای دو با 0 مقادیر مورد انتظار
95855
من کنجکاو هستم که آیا بسته‌های شبکه عصبی وجود دارد که به راحتی امکان ساخت شبکه‌های عصبی پیش‌خور با وزن‌های مشترک را فراهم می‌کند، اما همچنین اجازه می‌دهد که آموزش به صورت موازی انجام شود. Torch7 امکان ساخت آسان وزنه‌های مشترک را فراهم می‌کند، اگرچه پشتیبانی آموزشی موازی یا وجود ندارد (یا به اندازه کافی مستند نشده است که واضح باشد که وجود دارد). اگر به پایتون متصل شود، حتی بهتر است، اما این یک الزام نیست.
بسته های شبکه عصبی که امکان وزنه های مشترک و آموزش موازی را فراهم می کند
72265
من آزمایشی را در وب‌سایت خود انجام دادم که در آن کاربران را به‌طور تصادفی به دو گروه درمان یا کنترل اختصاص دادم و دو سؤال در مورد چگونگی محاسبه صحیح اهمیت نتایج داشتم. برخی زمینه ها: متغیر نتیجه تعداد کل اقداماتی است که آنها در وب سایت من انجام دادند. من میانگین تعداد اقدامات انجام شده توسط کاربران در گروه کنترل و درمان خود را به ترتیب محاسبه می کنم: $A_C = \frac{\sum_{i \in C} a_i }{|C|}$, $A_T = \frac{\ sum_{i \in T} a_i}{|T|}$ (که $T$ و $C$ گروههای درمان و کنترل من هستند و $a_i$ تعداد اقدامات انجام شده توسط کاربر $i$ است). آیا $A_T-A_C$ یک نتیجه معقول برای اندازه گیری است؟ نگرانی من این است که از آنجایی که $a_i$ ها بر اساس یک توزیع سنگین توزیع می شوند، میانگین توسط چند کاربر قدرتمند به شدت منحرف می شود. معمولاً میانه را می‌گیرم، اما دم‌ها آنقدر سنگین هستند که میانه بسیار کوچک است. چیز دیگری که من اندازه‌گیری کرده‌ام، آمار KS در توزیع تعداد اقدامات برای کاربران در گروه‌های کنترل و درمان است. 1. آیا تفاوت در میانگین یا آماره KS روش معقول تری برای تعیین اینکه آیا درمان تأثیر داشته است؟ 2. من مقادیر p bootstrapped را با محاسبه معیارهای یکسان (تفاوت در میانگین و آمار KS) برای بسیاری از تقسیم‌های تصادفی جمعیت کاربر محاسبه می‌کنم، سپس شمارش می‌کنم که چند تقسیم تصادفی باعث ایجاد مقادیر «معنادارتر» نسبت به کنترل/درمان تجربی من می‌شود. تقسیم داد. آیا این درست است؟
نحوه اندازه گیری صحیح تأثیر بر توزیع دم سنگین
88537
به خوبی شناخته شده است که راه حل برای مسائل بهینه سازی ارائه شده در مولفه های اصلی و تحلیل همبستگی متعارف به ترتیب با حل مسائل ارزش ویژه و مسائل ارزش ویژه تعمیم یافته ارائه می شود. جبر خطی من کاملاً زنگ زده است و می‌خواستم بدانم آیا کسی می‌تواند توضیحی نیمه رسمی، هرچند شهودی در مورد چرایی این موضوع به من بدهد.
اجزای اصلی، همبستگی متعارف و مسائل ارزش ویژه
72886
من با برخی از مدل‌های خودرگرسیو دو رژیمی کار می‌کنم که برای اولین بار توسط همیلتون در سال 1989 معرفی شدند. من یک مجموعه داده دارم و از MCMC برای یافتن چگالی پسین همه پارامترهای مدل‌هایم، از جمله همه متغیرهای باینری پنهان استفاده می‌کنم. من مجموعه داده ای از حدود 1000 مشاهده دارم و برای هر مشاهده یک متغیر پنهان در مدل های خود دارم که می تواند 1 یا 0 باشد. اگر داده های من به طور ناگهانی تغییر کند، می توانم فرض کنم که یک سوئیچ روشن شده است و متغیر پنهان است. تغییر کرده است. بنابراین اگر داده‌ها، در یک زمان خاص، (به احتمال زیاد) با متغیر نهفته 1 بودن بهترین توصیف شوند، نمونه‌گر من یک توزیع پسینی (برای این متغیر پنهان خاص) با احتمال بالای 1 و احتمال کم 0 تولید می‌کند. این همه خوب است، من موفق به انجام این کار شده ام. سوال این است که چگونه مدل خود را تایید کنم؟ AIC/BIC فقط برای مقایسه مدل ها است. چیزی که من به آن فکر می کنم این است که باید بتوانم به نحوی باقیمانده ها را رسم کنم، مانند رگرسیون معمولی که فقط می گویید باقیمانده تفاوت نتیجه مشاهده شده و پیش بینی شده است. من می‌دانم که برای همه پارامترهای دیگر غیر از پارامترها/متغیرهای پنهان، فقط می‌توانم از میانگین هر توزیع پسین استفاده کنم و با آن مانند یک برآوردگر حداکثر درست‌نمایی رفتار کنم. اما من نمی‌توانم میانگین توزیع‌های پسین خود را برای همه متغیرهای پنهان بگیرم، زیرا آنها یا 0 هستند یا 1. استفاده از مثلاً 0.8 برای یکی از متغیرهای پنهان من هیچ منطقی ندارد. این هیچ گزینه ای نیست. پس چگونه باید مدل خود را تأیید کنم؟ من واقعا اینجا گیر کردم اگر در توضیح مشکلم کار بدی انجام داده ام، عذرخواهی می کنم و سعی می کنم بهتر توضیح دهم. * * * پس من فکر کرده ام. آیا می توانم از یک توزیع پسین پیش بینی برای اعتبارسنجی مدل خود استفاده کنم؟ و اگر مشاهدات بیش از حد، مثلاً، صدک 95 توزیع خلفی پیش‌بینی‌کننده باشد، مدل خود را دور می‌اندازم؟ به طور کلی، برای هر مدلی که پارامترهای آن تتا، مشاهدات x و مشاهدات جدید x_new نامیده می‌شوند، توزیع پیش‌بینی‌کننده پسین را به صورت زیر محاسبه می‌کنیم: برای i = 1، . . . ، n (نمونه ها)، نمونه برداری می کنیم: 1\. تتا[i] از p(theta|x) و 2\. x_new[i] از p(x_new|theta[i]) سپس x_new[1]، . . . ,x_new[n] نمونه‌ای از توزیع پیش‌بینی پسین هستند. اما این روش مطمئناً فقط زمانی باید کار کند که نمونه iid داشته باشیم. من با یک مدل اتورگرسیو کار می کنم. پس گیر کردم...
اعتبار سنجی مدل در آمار بیزی از مدلی با متغیرهای پنهان
18087
آیا راه‌های خوب برای از بین بردن اثرات پیوندها در یک مجموعه داده برای تجزیه و تحلیل آماری وجود دارد؟ به عنوان مثال، در یافتن همبستگی بین دو سریال که پیوندهای زیادی دارند؟ من می خواهم وابستگی بین دو سری را با یک ضریب همبستگی پیرسون و سایر معیارهای همبستگی، مانند تاو کندال، تخمین بزنم. با این حال، نمی دانم که آیا ضریب همبستگی پیرسون یا هر ضریب دیگری برای چنین داده هایی خوب است. مجموعه داده حدود 40K مشاهدات است، هر دو متغیر مقادیر [0،1] را می گیرند، و تعداد زیادی پیوند (حدود 20K) در 0 و 1 وجود دارد.
پیوند در داده ها
78107
من می خواهم **نادر بودن هر جمله را در مجموعه اسناد ارزیابی کنم**. لطفاً جدیدترین یا یک مقاله نظرسنجی در مورد این کار را به من اطلاع دهید. من قبلاً چندین مقاله را در **مشکل خلاصه‌سازی اسناد** (مثلا [1]) بررسی کرده‌ام که به نظر می‌رسد با وظیفه من ارتباط نزدیکی داشته باشد و در واقع یکی از روش‌های خلاصه‌سازی به من نتیجه تخمین متوسطی را ارائه می‌دهد. اما، من معتقدم ارزیابی نادر بودن متن باید یکی از موضوعات مهم در زمینه NLP باشد و مطالب خوبی برای یادگیری موضوع وجود دارد. [1] خلاصه سازی خودکار: وضعیت هنر، کارن اسپارک جونز، 2007
نادر بودن متن را در مجموعه اسناد ارزیابی کنید
47222
من به دنبال مشاوره و نظراتی هستم که به تجزیه و تحلیل نسبت ها و نرخ ها می پردازند. در زمینه ای که من در آن کار می کنم، تجزیه و تحلیل نسبت ها به طور خاص گسترده است، اما من چند مقاله خوانده ام که نشان می دهد این می تواند مشکل ساز باشد، به این فکر می کنم: > Kronmal, Richard A. 1993. همبستگی کاذب و مغالطه نسبت > استاندارد بازبینی شد _Journal of the Royal Statistical Society Series A_ > 156(3): 379-392 و مقالات مرتبط. از آنچه تاکنون خوانده ام، به نظر می رسد نسبت ها می توانند همبستگی های جعلی ایجاد کنند، خطوط رگرسیون را از طریق مبدا وادار کنند (که همیشه مناسب نیست) و مدل سازی آنها ممکن است اصل حاشیه بودن را نقض کند اگر به درستی انجام نشود (استفاده از نسبت ها در رگرسیون، نوشته ریچارد گلدشتاین). ). با این حال، باید مواردی وجود داشته باشد که استفاده از نسبت ها موجه باشد و من نظراتی را از متخصصان آمار در مورد این موضوع می خواستم.
تکنیک های تجزیه و تحلیل نسبت ها
31486
آیا کسی از یک کتابخانه رگرسیون چندگانه متعامد که در R، Scipy، Matlab، Octave و غیره پیاده سازی شده است، اطلاع دارد؟ (یا حتی fortran/C...) اگر اشتباه نکنم نوشتنش سخت نیست فقط میخواستم چک کنم. سوال دوم: برنامه واقعی من برای یک مورد رگرسیون چند متغیره است که در آن دو ماتریس دارم، $\mathbf{Y}$ و $\mathbf{X}$. اگر بتوانم یک برآوردگر حداقل مربعات کل برای $\boldsymbol\beta$ و $\boldsymbol\beta'$ پیدا کنم، آیا معکوس عناصر انتقال یافته آن با یکدیگر برابر است ($\hat{\beta}_{ji}^ {-1} = \hat{\beta}'_{ij}$) اگر دو ماتریس ضریب با $\mathbf{Y} = \hat{\boldsymbol{\beta}} تعریف شوند \mathbf{X}$ و $\mathbf{X} = \hat{\boldsymbol{\beta}}' \mathbf{Y}$؟ به نظر می رسد که این برابری ($\hat{\beta}_{ji}^{-1} = \hat{\beta}'_{ij}$) لزوماً مانند حالت کلاسیک صادق نیست، جایی که مقادیر اسکالر $\beta^{-1}=\beta'$ وقتی $\mathbf{Y}$ و $\mathbf{X}$ صرفاً بردار هستند و نه ماتریس، اما همچنین می‌خواستند بررسی کنند که آیا این یک مشخص است یا خیر واقعیت با تشکر
چگونه می توانید ضرایب یک رگرسیون چند متغیره ${\bf Y} \sim {\bf X}$ را به ضرایب ${\bf X} \sim {\bf Y}$ مرتبط کنید؟
35909
من چند متغیر داده مجموعه آموزشی $x_1$، $x_2$، $x_3$، $x_4$، و $x_5$ و یک متغیر پاسخ $y$ دارم. اما اینها داده های سری زمانی هستند. بنابراین برای مجموعه مقادیر یکسانی از $x_1$، $x_2$، $x_3$، $x_4$، و $x_5$ متغیر پاسخ $y$ ممکن است در مشاهدات مختلف متفاوت باشد. لطفاً کسی می تواند به من پیشنهاد دهد که چگونه رگرسیون خطی خود را در این مورد مدل کنم؟ در حال یادگیری آمار جدید هستم. لطفا به ساده ترین شکل ممکن توضیح دهید. من در حال آپلود عکسی هستم که همان سوال را برای وضوح بیشتر توضیح می دهد![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/DnKXs.png)
چگونه یک رگرسیون خطی را بر اساس زمان مدل کنیم؟
16218
آیا بین عبارات «آزمون فرضیه» و «آزمون معناداری» تفاوتی وجود دارد یا یکی هستند؟ پس از پاسخی دقیق از @Micheal Lew، من یک سردرگمی دارم که امروزه فرضیه‌ها (مثلاً آزمون t تا میانگین آزمون) نمونه‌ای از «آزمون معناداری» یا «آزمون فرضیه» هستند؟ یا ترکیبی از هر دو است؟ چگونه آنها را با مثال ساده متمایز می کنید؟
تفاوت بین آزمون فرضیه و آزمون معناداری چیست؟
47229
من در حال کار بر روی سؤالات امتحانی گذشته از انجمن رویال آمار هستم و در سال 2009 در ماژول 5 با این سؤال مواجه شدم (سوال 2(i) و راه حل): > متغیر تصادفی $X$ دارای یک $\chi^{2}_{ است. k} توزیع $ ($k=1,2,3, ...$) > که دارای تابع تولید لحظه (mgf) $m(t) = (1 − 2t)^{−k/2}$ برای > $t < \frac{1}{2}$. > > با استفاده از mgf، میانگین و واریانس X$ را پیدا کنید. می دانم که میانگین $k$ و واریانس $2k$ خواهد بود، اما نمی توانم آن را استخراج کنم. این بهترین تلاش من است که نادرست است: $$ E[X] = d/dx[M_X(0)] = -2 \times \frac{-k}{2}(1-2X)^{-k/2 -1} = k^{\frac{-k}{2} -1} $$ من کاملاً مطمئن هستم که باید یک بسط با $0$ انجام دهم اما نمی‌توانم ببینم چگونه این کار را انجام دهم.
چگونه می توان میانگین تابع متغیر کای مربع را با استفاده از MGF استخراج کرد؟
31772
عنوان واقعاً گویای همه چیز است. من از توزیع Wishart برای متغیرهای تصادفی با ارزش ماتریس متقارن، غیرمنفی-معین آگاه هستم، و به دنبال چیزی در امتداد این خطوط هستم، اما برای متغیرهای تصادفی متقارن و باینری با مقدار ماتریس متقارن. در صورت لزوم، من مایلم از الزامی که ماتریس ها کم هستند صرف نظر کنم. زمینه برای این مطالعه ماتریس های مجاورت برای نمودارهای غیر جهت دار است. به ویژه، بعید است که رئوس دور به هم متصل شوند، از این رو پراکندگی است (منظورم از دور، عدم تشابه بین هر چیزی که راس ها نشان می دهند، به روشی مناسب اندازه گیری می شود). پیشاپیش ممنون
آیا توزیع (پارامتری) روی متغیرهای تصادفی متقارن و باینری با ارزش ماتریس وجود دارد؟
34052
من با مجموعه‌ای از ژن‌ها کار می‌کنم که هم مقادیر متیلاسیون $\beta$ (مستمر در بازه واحد) و هم بیان ژن $E$ (غیر منفی پیوسته) را دارم که می‌خواهم برای همبستگی $\hat\rho( log_2E،\beta)=R$. برای فیلتر کردن فقط همبستگی‌های مهم، یک آزمایش جایگشت انجام می‌دهم که در آن برای هر سایت به‌طور تصادفی تعداد زیادی $E$ را جابجا می‌کنم و $R$ را محاسبه می‌کنم. این به من توزیعی تحت فرضیه صفر $p(R|H_0)$ می دهد، یعنی زمانی که هیچ وابستگی بین $\beta$ و $E$ وجود ندارد، می توانم $R$ را با آن مقایسه کنم. حالا در مورد سوال من، من می خواهم همبستگی مثبت و منفی را آزمایش کنم. آیا برای هر ژن دو آزمایش انجام دهم و از تصحیح آزمایش دوگانه چندگانه استفاده کنم، که در آن $p_- = \int\limits_{-\inf}^Rp(x|H_0)dx$ $p_+ = \int\limits_{R}^\ inf(x|H_0)dx$ یا می توانم و آیا باید یک p-value دو دنباله را مستقیماً بر اساس $|R|$ یا مانند آن محاسبه کنم و از تصحیح آزمایش چندگانه معمولی استفاده کنم؟ من فقط می توانم به موارد زیر فکر کنم، اما به نظر اشتباه است و قدرت بدی دارد. $p_2 = \int\limits_{-\inf}^{-|R|}p(x|H_0)dx + \int\limits_{|R|}^\inf(x|H_0)dx$ ![تصویر را وارد کنید توضیحات اینجا](http://i.stack.imgur.com/nD8CJ.png) **ویرایش:** شکل را به روز کرد و برچسب محور x را اضافه کرد. محور y برای همه پانل ها یکسان است.
تست جایگشت دو طرفه در مقابل دو یک طرفه
34050
مثال زیر را در نظر بگیرید: t = 1/24:1/24:365; x = cos((2*pi)/12*t)+randn(اندازه(t)); % اگر جعبه ابزار پردازش سیگنال را دارید [Pxx,F] = پریودوگرام(x,rectwin(length(x)),length(x),1); نمودار (F,10*log10(Pxx)); xlabel('Cycles/hour'); ylabel('dB/(Cycles/hour')؛ این نشان‌دهنده تناوب غالب در مجموعه داده است. با این حال، اگر من یک سری زمانی برای داده‌های یک ساله داشته باشم، مشابه آنچه در بالا نشان داده شده است، آیا می‌توان به چگونگی آن نگاه کرد. یک فرکانس خاص در طول زمان تغییر می کند، به عنوان مثال، سری زمانی بالا تغییرات ساعتی یک متغیر معین را در طول سال نشان می دهد، بنابراین اگر می دانستیم که دوره غالب توسط یک چرخه روزانه هدایت می شود در هر روز) می دانیم که تناوب غالب 1/24 خواهد بود، بنابراین، اگر تناوب غالب را 1/24 بدانیم، آیا می توان دید که چگونه قدرت این تناوب خاص در زمان تغییر می کند (یعنی در طول دوره. سال)؟
ارزیابی تغییر در توان یک تناوب شناخته شده
35903
من در دانشگاهی که در آن مشغول به کار هستم یک دوره برنامه نویسی تدریس می کنم. من می خواهم یک آزمون آماری انجام دهم تا ببینم آیا نمرات دانش آموزان (نمرات امتحانات) در مقایسه با ترم قبل (به عنوان مثال، ترم تابستان در مقابل ترم زمستان) به طور قابل توجهی بهتر است یا خیر. هر ترم سه امتحان برگزار می شود و نمرات از 1 (بهترین نمره) تا 5 (رد شدن) نمره گذاری می شود. هر بار حدود 24 دانش آموز در این امتحان شرکت می کنند. برای ارزیابی اینکه نمرات ترم تابستانی با در نظر گرفتن 3 امتحان در هر ترم به طور قابل توجهی بهتر از ترم زمستان است، چه آزمونی مناسب است؟ (من می خواهم آزمون را در R اجرا کنم، بنابراین اگر کسی بداند که چگونه آن را در R نامیده می شود، عالی خواهد بود. اما فکر می کنم خودم می توانم آن را پیدا کنم.) زمینه: من می خواهم برای یک جایزه تدریس درخواست کنم. اگرچه در صورت بهبود طراحی دوره، نمرات احتمالاً آزمون خوبی برای عملکرد تدریس نیستند، اما من می‌خواهم نتایج آماری را به عنوان نشان‌دهنده شایستگی نامزدی خود همراه با بازخورد دانش‌آموز از پرسشنامه ارزیابی مربی ارائه دهم. ویرایش: دانشجویان در هر ترم متفاوت هستند (به استثنای کسانی که چندین بار موفق نمی شوند). مربی متفاوت است (من دومین مربی هستم). تست هم همینطوره بله، تفاوت در توانایی های دانش آموزان یک عامل بالقوه مخدوش کننده است. به هر حال می‌خواهم آزمون را اجرا کنم و شاید بتوانم بگویم که تفاوت در مجموعه دانش‌آموزان در کلاس‌ها عامل اصلی تأثیرگذار بر تفاوت در توزیع منابع و میانگین نمرات نیست.
تست کنید که آیا نمرات درسی در این ترم نسبت به ترم گذشته بهتر است یا خیر
88284
من سعی می کنم راهی معقول برای اندازه گیری **احتمال** یک سایت (سایت خبری) پیدا کنم. من سعی می‌کنم تحلیل همگروهی انجام دهم: همه بازدیدها را بر اساس سال/هفته گروه‌بندی کرده‌ام و درصد کاربرانی را که در هفته‌های بعد بازمی‌گردند اندازه‌گیری کرده‌ام. **توضیح**: این کاربران اولین بازدیدکنندگانی هستند که در هفته های پس از اولین بازدیدشان ردیابی شده اند. من داده های زیر را دارم: yyyy/ww 1 2 3 4 5 6 7 8 9 10 11 12 13 201348 27.33 7.51 5.71 6.61 3 5.41 4.8 4.5 4.2 5.49 4.5 4.2 4.5 4.2 12 13 7.88 5.23 3.03 2.53 4.02 3.16 3.13 2.83 2.63 2.16 2.06 1.25 201350 7.91 3.79 3.01 4.59 3.53 4.59 3.57 3.24 3.25 1.4 201351 6.64 4.1 5.69 4.41 4.13 3.68 3.36 2.8 2.56 1.56 201352 6.09 6.99 5.05 4.79 3.93 3.68 3.414 11.66 6.69 6.28 5.45 4.67 3.74 3.4 1.99 201402 8.45 6.14 5.11 4.61 3.49 3.1 1.77 201403 9.455 201403 9.455 201403 9.454 6.14 201404 9.78 6.78 4.9 4.18 2.29 201405 8.96 5.37 4.45 2.47 201406 8.88 5.85 3.07 201407 8.426 8.96 هفته 3.7 در زمان، برچسب های ستون تعداد هفته هایی است که از اولین بازدید گذشته است. مقادیر سلول ها **درصد** کاربران اولیه است که برگشته اند. دو مقدار بد بو در هفته + 1 برای کریسمس و سال جدید است. سوال من این است: چگونه باید این مقادیر را تفسیر کنم؟ من دانش آماری خیلی عمیقی فراتر از اصول اولیه ندارم. من سعی کردم شیب هر ردیف را محاسبه کنم، و این را به دست آوردم (قدیمی ترین به جدیدترین): -4.956 -1.042 -0.788 -0.471 -0.64 -1.522 -1.145 -1.391 -1.758 -2.039 -2.905 -4.7 که یک امتیاز خوب من است. سایت اجرا شیب افزایشی خواهد داشت ارزش در طول زمان در این مورد برعکس به نظر می رسد. **توضیح**: منظور من از افزایش شیب این است که مقدار شیب برای بازدیدکنندگانی که برای اولین بار از آن بازدید می کنند کمتر از صفر دورتر باشد. با گذشت زمان، درصد افرادی که به بازگشت ادامه می‌دهند بیشتر از گروه‌های قبلی (اما هنوز کمتر از 100٪) خواهد بود. چیزی شبیه به این، که در آن می توانید مشاهده کنید کسر کاربران حفظ شده بیشتر از ماه قبل است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/s33qF.jpg) هرگونه پیشنهاد و/یا انتقاد خوش آمدید با تشکر
تجزیه و تحلیل کوهورت برای سایت رسانه
34059
من قبلاً در اینجا یک سؤال مرتبط در مورد تفاوت بین روش GEE با ساختار varcov قابل تعویض در مقابل خطاهای استاندارد قوی معروف به روش Huber White در کارآزمایی‌های تصادفی گروهی پرسیدم. همانطور که ماکرو در مقاله خود در سال 2006 به نام فریدمن اشاره کرد. با ناهمسانی و همبستگی بین خوشه ها. من مطالعه ای با 34 مدرسه دارم که به طور تصادفی به درمان/کنترل اختصاص داده شده اند. ICC در این مطالعه 0.04 است (اگرچه کوچک است، اما از نظر آماری معنادار است، اطلاعات بیشتر در اینجا) با اثر طراحی 17.7 است. ICC درجاتی از شباهت‌ها را در بین دانش‌آموزان در مدارس (به عنوان مثال خوشه‌ها) نشان می‌دهد. مدارس تعداد دانش‌آموزان متفاوتی از 150 تا 800 دارند. سؤال من این است که اگر می‌خواهید داده‌ها را تجزیه و تحلیل کنید، کدام روش را برای استنتاج معتبر انتخاب می‌کنید؟ Huber-White یا GEE با ماتریس varcov قابل تعویض؟ من به دو دلیل طرفدار GEE هستم: 1) ما خوشه های نامتعادل داریم 2) تخمین های ما با GEE کارآمدتر هستند. اگر GEE را انتخاب می کنید، می توانید توضیح دهید که چرا و چه کاری GEE می تواند انجام دهد که HuberWhite نمی تواند انجام دهد و برعکس؟ من از کمک شما قدردانی می کنم.
کدام روش تبادل‌پذیر GEE می‌تواند این واریانس قوی را انجام دهد؟
4775
می خواستم بدونم که آیا می توان محاسبات نمادین را در R انجام داد؟ برای مثال، من امیدوار بودم که معکوس یک ماتریس کوواریانس نمادین توزیع گاوسی سه بعدی را بدست بیاورم. همچنین آیا می توانم ادغام و تمایز نمادین را در R انجام دهم؟ با تشکر و احترام!
محاسبات نمادین در R؟
108300
من 2 مجموعه داده دارم (من تعداد بیشتری دارم اما برای سادگی، اجازه دهید بگوییم که 2 مجموعه دارم). داده 1 0.15239652 0.145848036 0.175981261 داده 2 0.417902092 0.342696648 0.354871141 0.354871141 من میانگین این مقادیر را داده 1: 0.152781261 داده ها normalize Data 1: 1 Data 2: 2.352191387 حالا چگونه خطای استاندارد را محاسبه کنم؟ اتفاقا من از Excel برای این محاسبات استفاده می کنم.
چگونه انحراف استاندارد را از یک مقدار نرمال شده محاسبه کنیم؟
35900
من دو سری زمانی از داده های شمارش دارم که معتقدم همبسته هستند. آیا معادلی برای 'cov()' وجود دارد که یک پواسون بیش از حد پراکنده را به جای توزیع نرمال فرض می کند؟ اگر یک آزمون معنادار برای این وجود داشته باشد (با توجه به اینکه هر دو سری در طول زمان افزایش می‌یابند اما همبستگی را ثابت نمی‌کند)، خیلی بهتر است. من تعجب کردم که آیا vcov() ممکن است کمک کند اما روی پارامترهای یک مدل حل شده تمرکز می کند. به طور گسترده تر، من به دنبال معیاری از شباهت بین دو متغیر هستم که برای داده های شبه پواسون مناسب باشد.
چگونه می توانم کوواریانس متغیرهای شبه پواسون توزیع شده را در R محاسبه کنم؟
77012
چگونه می توانم استقلال خطی متغیرهای خود را بررسی کنم؟ من این سیستم $Ax=b$ را دارم که در آن A یک ماتریس $N\ برابر 4$ است. من می خواهم استقلال خطی بین 4 متغیر در ماتریس $A$ را بررسی کنم.
نحوه بررسی استقلال خطی
35902
من دو دنباله با طول مساوی دارم، مانند «[1، 1، 2، 2، 2، 3، 3، 3، 4]» و «[1، 2، 2، 3، 3، 3، 3، 4، 4 ]`. من می‌خواهم شانس تولید آنها توسط متغیرهای تصادفی یکسان یا متفاوت را تعیین کنم. یک آزمون آماری خوب برای انجام این کار چیست؟ داده ها به صورت زوجی نیستند. نه سری زمانی هستند. هر عنصر در دنباله مستقل از عناصر دیگر است. (متاسفم اگر جزئیات لازم را حذف می کنم؛ من تازه وارد آمار هستم.)
چگونه تشخیص دهیم که دو دنباله به طور قابل توجهی متفاوت هستند؟
78104
من می‌خواهم تخمین‌گر حداکثر احتمال «پارامتر نرخ تتا توزیع نمایی» را پیدا کنم. بنابراین من دستورات زیر را در `R` دنبال کردم: x=rexp(500,rate=2) f <- function(x,theta){ sum(-dexp(x,rate=theta,log=T)) } optimize( f=f,x=x,interval=c(0,5)) ### من منطق را نمی فهمم - _چرا ما حداکثر=FALSE(پیش فرض) را در نظر می گیریم تابع 'بهینه سازی'؟_ ### چرا از 'maximum=TRUE' برای پیدا کردن MLE استفاده نکرده ایم؟
برآوردگر حداکثر درستنمایی پارامتر نرخ توزیع نمایی (MLE)
77010
آیا کسی می تواند به من در درک آزمون رتبه امضا شده ترتیبی کمک کند؟ چگونه آزمون متوالی را با آزمون رتبه بندی امضا شده مرتبط کنیم و چگونه H0 و H1 را در SSRT تعیین کنیم؟
آیا کسی می تواند به من در درک آزمون رتبه امضا شده ترتیبی کمک کند؟
72268
من این سردرگمی مربوط به PCA را دارم. بیایید بگوییم که من یک داده 100 بعدی دارم، سپس طرح ریزی به اولین مؤلفه اصلی با میانگین تمام ابعاد داده می شود. چطور اینطور است؟
سردرگمی مربوط به PCA
47223
من یک عملکرد دارم که نویز به آن اضافه کرده ام. من می‌خواهم چند نرم‌افزار را تست کنم، اما برای هر نرم‌افزار می‌خواهم MSE را به حداقل برسانم. من تابع زیربنایی را می دانم، بنابراین چگونه می توانم R را به طور خودکار پهنای باندی را انتخاب کنم که MSE را به حداقل می رساند؟
انتخاب خودکار پهنای باند در R
103909
هنگامی که اعتبار سنجی متقاطع k-fold را انجام می دهم، مشاهدات به طور تصادفی در هر فولد انتخاب می شوند. این برای داده های مقطعی خوب کار می کند. با این حال، وقتی داده‌های تابلویی دارم (و با مدل سلسله مراتبی مطابقت دارم)، آیا منطقی است که مجموعه آموزشی مشاهداتی داشته باشد که قبل از آنهایی که در مجموعه آزمایشی هستند اتفاق بیفتد؟
اعتبار سنجی متقابل داده های تابلویی
77900
من روی برخی تحقیقات پزشکی کار می کنم. با توجه به 3 مقدار (BMI، سن، جنسیت) من لیستی از خطرات پایه برای احتمال وقوع یک عارضه نامطلوب در 10 سال آینده برای فردی با BMI، سن، جنسیت معین دارم. من همچنین فهرستی از عوامل خطر اضافی را دارم که به عنوان نسبت خطر ارائه شده است. چگونه می توانم به درستی احتمال 10 ساله یک رویداد نامطلوب را با اصلاح ریسک پایه محاسبه کنم اگر مثلاً 1 یا چند عامل خطر برای یک فرد اعمال شود. بنابراین، برای مثال: با توجه به اینکه فردی با سن 30 سال، جنسیت مذکر، BMI 25 در معرض خطر 5 درصدی عوارض جانبی در 10 سال آینده است، برخی از عوامل خطر اضافی X و Y را در نظر بگیرید که دارای HR به ترتیب 1.3 و 1.6 هستند. چگونه می توانم خطر 5% را تغییر دهم تا عوامل خطر را در بر گیرد؟ من می دانم که منابع انسانی با استفاده از مخاطرات متناسب کاکس چند متغیره برای یک دوره 10 ساله محاسبه شده است، که مرگ به عنوان یک خطر رقیب در نظر گرفته شده است. هر گونه خرد آماری اضافی قدردانی خواهد شد.
محاسبه احتمال 10 ساله با استفاده از نسبت های خطر؟
71501
آیا صدا/مجاز است که از آنتروپی به عنوان معیار (غیر) یکنواختی یک جریان داده استفاده کند؟ به عنوان مثال من آنتروپی شانون را با فرمول استاندارد بر اساس معیارهای مختلف در جریان داده محاسبه می کنم. اندازه گیری ها مقادیر شمارشی هستند که مجموع احتمالات آنها 1 است. من محاسبه را به طور مداوم هر 1 ثانیه انجام می دهم، بنابراین در هر ثانیه یک مقدار آنتروپی جدید دریافت می کنم. سپس میانگین و انحراف استاندارد مقادیر آنتروپی را در یک پنجره کشویی، فرض کنید 10 ثانیه گذشته، کنترل می کنم. اگر stddev افزایش یا بزرگتر از آستانه خاص شود، فرض می‌کنم جریان نویزتر/ ضربه‌گیرتر است. آیا استفاده از آنتروپی در این زمینه خوب است؟
آنتروپی به عنوان معیار نظم در جریان داده ها
88289
می‌خواستم بدانم که آیا توصیه‌ای برای حداقل اندازه نمونه «مناسب» هنگام تخمین چگالی/توزیع/مقدارهای یک متغیر تصادفی با استفاده از KDE وجود دارد. آیا همیشه اینطور است که داده های بیشتر بهتر است؟
حداقل حجم نمونه برای تخمین چگالی هسته
34057
من درصدهای رتبه دانش آموزان در 38 امتحان را به عنوان متغیر وابسته در مطالعه خود دارم. یک درصد رتبه با (رتبه یک دانش آموز / تعداد دانش آموزان در یک امتحان) محاسبه می شود. این متغیر وابسته توزیع تقریباً یکنواختی دارد و من می‌خواهم اثرات برخی از متغیرها را بر روی متغیر وابسته تخمین بزنم. از کدام رویکرد رگرسیون استفاده کنم؟
تخمین درصدها به عنوان متغیر وابسته در رگرسیون
19752
با توجه به توزیع $f(x_i,y_i;\alpha,\beta)$ و تابع احتمال مشترک $F(x_1,...,x_N,y_1,...,y_N;\alpha, \beta)$ اولین مرتبه مشتقات $\frac{\partial F}{\partial \alpha}$ و $\frac{\partial F}{\partial \beta}$ هستند شرط مرتبه اول > $\frac{\partial F}{\partial \alpha}=0$ and $\frac{\partial F}{\partial > \beta}=0$ OR > $\frac{\partial F}{\partial \ alpha}=0$ یا $\frac{\partial F}{\partial > \beta}=0$ آیا آنها نیاز به برآورده کردن همزمان دارند یا فقط یکی از آنها؟
شرایط مرتبه اول برای برآوردگر حداکثر درستنمایی
72264
من آزمایش دیکی-فولر تقویت شده را روی داده های SP500 از کتابخانه MASS انجام دادم و نتایج زیر را دریافت کردم: adf.test(SP500) داده های آزمایش دیکی-فولر تقویت شده: SP500 دیکی-فولر = -13.5835، ترتیب تاخیر = 14، p-value = 0.01 فرضیه جایگزین: ثابت به نظر می رسد نتایج نشان می دهد که سری SP500 ثابت است. با این حال، طبق تعریف، ثابت بودن دلالت بر میانگین و واریانس ثابت دارد. سوال من این است که چگونه می توان نتیجه گرفت که این سری ثابت است وقتی سری ها نوسان آشکاری را نشان می دهند که نشان می دهد واریانس سری ثابت نیست؟ همچنین می‌تواند به من بگوید پارامتر جایگزین و k در اینجا به چه معناست: adf.test(x، alternative = c(stationary، explosive)، k = trunc((length(x)-1)^(1/3 ))) من هنوز روی این سوال گیر کرده ام، آیا قرار است سری های زمانی بازده مالی ثابت باشند؟ زیرا تست ADF گویای این موضوع است اما به نظر نمی رسد که موافق باشم.
تست ADF در سری فرار. نتایج مورد انتظار؟
72262
من یک فیزیکدان هستم که در درمان داده ها مشکلاتی دارم، بنابراین اگر ریاضیات را اشتباه متوجه شدم ببخشید. من چند پراش دارم که به صورت شمارش در مقابل زاویه نمایش داده می شوند. نقاط دارای انحرافات استاندارد تخمین زده شده از یک آمار پویسون روی سطل ها هستند (یک برنامه خارجی این کار را انجام می دهد). به دست آوردن میانگین طیف های مختلف با میانگین شمارش متناظر ساده است. اما چگونه می توانم انحراف استاندارد صحیح را برای شمارش میانگین بدست بیاورم؟ وقتی این روش را اعمال می کنم آیا می توان انحراف معیار ترکیبی را پیدا کرد؟ خطاها در واقع در مقایسه با نقاط داده منفرد بزرگتر می شوند. به نظر می رسد که این غیر منطقی به نظر می رسد، زیرا من انتظار دارم با در نظر گرفتن نقاط داده بیشتر، خطاها کوچکتر شوند؟ تقصیر من کجاست؟
نحوه میانگین گیری متغیرها با انحراف معیار
108618
من در حال نوشتن یک طبقه بندی کننده ساده و بی تکلف بیز برای یک مشکل طبقه بندی متن هستم. من یک دسته از کلمات و یک برچسب مرتبط دارم: [کوتاه، قطعه، متن]، label1 [کمی، متفاوت، قطعه، متن]، label2 ... من می توانم افراد ساده لوح را به خوبی آموزش دهم. با این حال، زمانی که من داده‌های دیده نشده را طبقه‌بندی می‌کنم، گاهی اوقات ویژگی‌هایی (کلمات) دیده نمی‌شود. در آن صورت، برای تعیین احتمال کلاس $C$ با توجه به ویژگی های $F_1,F_2,...$ چه اتفاقی می افتد؟ $$P(C|F_1,F_2,...) = \frac{P(F_1,F_2,...|C)P(C)}{P(F_1,F_2,...)} = \frac {P(C)\prod_{i}P(F_i|C)}{P(F_1,F_2,...)}$$ بگویید ویژگی $F_k$ هرگز در داده‌های آموزشی وجود نداشته است، پس اینطور نیست $P(F_k|C)=\frac{0}{0}$؟ این معمولاً در مسائل طبقه بندی چگونه مدیریت می شود؟ یکی از گزینه ها این است که به سادگی ویژگی های دیده نشده را نادیده بگیرید. با این حال، من نمی خواهم این کار را انجام دهم، زیرا سعی می کنم امتیاز احتمال واقعی مرتبط با کلاس ها را محاسبه کنم. وقتی ویژگی‌های نادیده‌ای وجود دارد، احتمالات باید ضربه بخورند، اما من مطمئن نیستم که چگونه این کار را از نظر ریاضی انجام دهم. هر گونه بینش، پیوند به مقالات تحقیق، و غیره واقعا کمک خواهد کرد! پیشاپیش ممنون
چگونه می توان ویژگی های دیده نشده را در یک طبقه بندی کننده Naive Bayes مدیریت کرد؟
43175
من علاقه مند به حل مسئله زیر هستم $$ \min_{\boldsymbol{\beta}} \left( \mathbf{y}-\mathbf{X}\boldsymbol{\beta} \right)^T W \left( \mathbf {y}-\mathbf{X}\boldsymbol{\beta} \right) + \lambda \left|\boldsymbol{\beta}\right|_1 $$ $\mathbf{y}$ بردار مشاهدات برای هر مجموعه داده است. $\mathbf{X}$ ماتریس پیش بینی کننده ها است. $\boldsymbol{\beta}$ مجموعه ضرایب رگرسیون است. $\mathbf{W}$ یک ماتریس مورب پر از اعداد حقیقی مثبت است. با استفاده از رویکرد LARS-Lasso. آیا بسته ای وجود دارد که این کار را انجام دهد، به این معنی که برای هر کدام وزن ها را به عنوان ورودی می پذیرد؟ با تمام عادی سازی مجموعه داده ها (مرکز و مقیاس بندی) که باید انجام شود، من در مورد پیش پردازش داده های خود مردد هستم و هم مشاهده و هم پیش بینی کننده ها را با $\sqrt{W}$ ضرب می کنم و آن را به الگوریتم وارد می کنم. .
LARS - LASSO با وزنه
86697
بنابراین من یک سری معادلات غیر خطی دارم که می‌خواهم آنها را با بیشترین سرعت ممکن حل کنم، برای نشان دادن حالت $n = 4$، معادلات زیر را دارم: \begin{gather*} c_0\exp(\lambda_0 -1)+f\exp(\lambda_0 + \lambda_1 + \lambda_2 + \lambda_3 + \lambda_4 - 1) = 1 \\\ c_1\exp(\lambda_0+\lambda_1-1)+f\exp(\lambda_0 + \lambda_1 + \lambda_2 + \lambda_3 + \lambda_4 - 1) = P_1 \\\ c_2\exp(\lambda_0+\lambda -1)+f\exp(\lambda_0 + \lambda_1 + \lambda_2 + \lambda_3 + \lambda_4 - 1) = P_2 \\\ c_3\exp(\lambda_0+\lambda_3-1)+f\exp(\lambda_0 + \lambda_1 + \lambda_2 + \lambda_4 + \ 1) = P_3 \\\ c_4\exp(\lambda_0+\lambda_4-1)+f\exp(\lambda_0 + \lambda_1 + \lambda_2 + \lambda_3 + \lambda_4 - 1) = P_4 \end{جمع شوید*} جایی که \شروع{جمع آوری*} f = \int_{d_4}^{\infty} \int_{d_3}^{\infty} \int_{d_2}^{\infty} \int_{d_1}^{\infty} q(x_1, x_2, x_3, x_4) dx_1 dx_2 dx_3 dx_4 \\\ c_0 = \ int_{-\infty}^{d_4} \int_{-\infty}^{d_3}\int_{-\infty}^{d_2} \int_{-\infty}^{d_1} q(x_1، x_2، x_3، x_4) dx_1 dx_2 dx_3 dx_4 \\\ c_1 = \int_{-\infty}^{d_4} \int_{-\infty}^{d_3}\int_{-\infty}^{d_2} \int_{d_1}^{\infty} q(x_1، x_2، x_3، x_4) dx_1 dx_2 dx_3 dx_4 \\\ c_2 = \int_{-\infty}^{d_4} \int_{-\infty}^{d_3}\int_{d_2}^{\infty} \int_{-\infty}^{d_1} q(x_1، x_2، x_3، x_4) dx_1 dx_2 dx_3 dx_4 \\\ c_3 = \int_{-\infty}^{d_4} \int_{d_3}^{\infty}\int_{-\infty}^{d_2} \int_{-\infty}^{d_1} q(x_1، x_2، x_3، x_4) dx_1 dx_2 dx_3 dx_4 \\\ c_4 = \int_{d_4}^{\infty} \int_{-\infty}^{d_3}\int_{-\infty}^{d_2} \int_{-\infty}^{d_1} q(x_1، x_2، x_3، x_4) dx_1 dx_2 dx_3 dx_4 \\\ \end{gather*} تعاریف به شرح زیر است: * $P_1، P_2، P_3، P_4$ مقادیر شناخته شده هستند. * $d_1، d_2، d_3، d_4$ مقادیر شناخته شده هستند. * $q(x_1، x_2، x_3، x_4)$ یک توزیع نرمال چند متغیره با میانگین بردار $0$ و یک ماتریس واریانس کوواریانس شناخته شده است. * بنابراین $f، c_0، c_1، c_2، c_3، c_4$ همه به سادگی اعداد واقعی هستند. * * * برای حالت کلی من دارم: \begin{gather*} c_0\exp(\lambda_0-1)+f\exp\left(\sum_{i=0}^n \lambda_i - 1\right) = 1 \\\ c_1\exp(\lambda_0+\lambda_1-1)+f\exp\left(\sum_{i=0}^n \lambda_i - 1\right) = P_1 \\\ c_2\exp(\lambda_0+\lambda_2-1)+f\exp\left(\sum_{i=0}^n \lambda_i - 1\right) = P_2 \\ \ c_3\exp(\lambda_0+\lambda_3-1)+f\exp\left(\sum_{i=0}^n \lambda_i - 1\right) = P_3 \\\ \vdots \\\ c_n\exp(\lambda_0+ \lambda_n-1)+f\exp\left(\sum_{i=0}^n \lambda_i - 1\راست) = P_n \end{جمع می‌کنید*} جایی که \شروع{جمع*} f = \int_{d_n}^{\infty} \cdots \int_{d_3}^{\infty} \int_{d_2}^{ \infty} \int_{d_1}^{\infty} q(x_1، x_2، x_3، \cdots، x_n) dx_1 dx_2 dx_3 \cdots dx_n \\\ c_0 = \int_{-\infty}^{d_n} \cdots \int_{-\infty}^{d_3}\int_{-\infty}^{d_2} \int_{- \infty}^{d_1} q(x_1، x_2، x_3، \cdots، x_n) dx_1 dx_2 dx_3 \cdots dx_n \\\ c_1 = \int_{-\infty}^{d_n} \cdots \int_{-\infty}^{d_3}\int_{-\infty}^{d_2} \int_ {d_1}^{\infty} q(x_1، x_2، x_3، \cdots, x_n) dx_1 dx_2 dx_3 \cdots dx_n \\\ c_2 = \int_{-\infty}^{d_n} \cdots \int_{-\infty}^{d_3}\int_{d_2}^{\infty} \int_{-\infty}^{d_1} q(x_1، x_2، x_3, \cdots, x_n) dx_1 dx_2 dx_3 \cdots dx_n \\\ c_3 = \int_{-\infty}^{d_n} \cdots \int_{d_3}^{\infty}\int_{-\infty}^{ d_2} \int_{-\infty}^{d_1} q(x_1، x_2، x_3، \cdots، x_n) dx_1 dx_2 dx_3 \cdots dx_n \\\ \vdots \\\ c_n = \int_{d_n}^{\infty} \cdots \int_{-\infty}^{d_3}\int_ {-\infty}^{d_2} \int_{-\infty}^{d_1} q(x_1، x_2، x_3، \cdots، x_n) dx_1 dx_2 dx_3 \cdots dx_n \\\ \end{gather*} تعاریف به شرح زیر است: * $P_1، P_2 ، P_3، \cdots، P_n$ مقادیر شناخته شده هستند. * $d_1، d_2، d_3، \cdots، d_n$ مقادیر شناخته شده هستند. * $q(x_1، x_2، x_3، \cdots، x_n)$ یک توزیع نرمال چند متغیره با میانگین بردار $0$ و یک ماتریس واریانس کوواریانس شناخته شده است. * بنابراین $f، c_0، c_1، c_2، c_3، \cdots، c_n$ همگی اعداد واقعی هستند. * * * حداکثر $n$ 35 خواهد بود، بنابراین 36 معادله برای حل همزمان وجود خواهد داشت. بهترین روش برای حل این مشکل در سریع ترین زمان ممکن با استفاده از هر زبان برنامه نویسی ممکن چیست؟ همچنین باید ورودی های پارامتر را برای $P_i$، $d_i$ و ماتریس کوواریانس واریانس تغییر دهم و مجموعه جدیدی از $\lambda$ را حل کنم، باید حداقل 2000 بار این کار را انجام دهم، یعنی به طور موثر من باید مجموعه ای از 35 معادله را برای 2000 بار حل کند.
بهینه ترین روش برای حل این مجموعه معادلات غیر خطی در ابعاد بالا
88531
اجازه دهید $X_{ij}$ با $1\leq i<j\leq n$ (که عبارتند از $X_{12},\dots, X_{1n},\dots,X_{(n-1)n}$) ${n \choose 2}$ $N(0,\sigma^2)$ به طور یکسان عادی توزیع شده است به طوری که $ \text{corr}(X_{ij},X_{rs})=\rho $ if $|\\{i,j\\}\cap\\{r,s\\}|=1$ و $0$ اگر $|\\{i,j\\}\cap\\{r,s\\}|=0$. اگر در تنظیمات نمونه بزرگ باشد، می‌خواهم $\sigma^2$ را تخمین بزنم. من ثابت کردم که $\hat\sigma^2=\frac1{{n\choose 2}}\sum_{i=1}^n\sum_{j=i+1}^nX_{ij}^2$ به $\sigma^2$ به احتمال زیاد. اما چگونه می توانم بدانم که این برآوردگر بهترین برآورد کننده ای است که می توانیم انجام دهیم؟ برای مثال، در تنظیمات کارایی، آیا $\sqrt{{n\choose 2}}(\hat\sigma^2-\sigma^2)\to N(0,\tau^2)$ برای مقداری $ داریم؟ \ tau$ هر گونه کمکی قدردانی خواهد شد.
تخمین واریانس برای داده های غیر مستقل یکسان
19755
فرض کنید ما دو توزیع احتمال گسسته محدود داریم، مثلاً $A$ و $B$. برای برخی رویدادهای $e$ در $A$ و $B$، $f_A(e) = \frac{P_A(e)}{P_A(e) + P_B(e)}$ و $f_B(e) = \ frac{P_B(e)}{P_A(e) + P_B(e)}$. این اسم داره؟
آیا این رابطه اسمی دارد؟
88280
من در فهمیدن نحوه محاسبه SEM و گزارش آن در جدول مشکل دارم. من 5 دوره زمانی مختلف دارم و برای آن دوره های زمانی 6 معیار مختلف هضم برای هر حیوان: دوره اسب adfdig'y ndfdig'y 1 1 45.1 70.2 2 1 48.2 69.8 3 1 55.6 59.0 4 1 49.1 56.1 56.1 1 46.0 60.2 1 2 56.3 70.6 2 2 و غیره، بنابراین مشکلی که من دارم ساختن یک جدول ANOVA مانند این با SEM است: آیتم، واحد درمان (دوره زمانی) p1 p2 p3 p4 p5 SEM ADF، % NDF، % چگونه می توانم یک SEM برای قابلیت هضم ADF در بازه های زمانی دریافت کنم؟
خطای استاندارد میانگین در یک مطالعه اندازه گیری مکرر
13500
من مقداری امتیاز دارم که از یک برنامه خروجی می شود. حدود 10 مقدار از این قبیل وجود دارد. مجموعه داده ها معیاری برای سنجش کیفیت یک شکل موج گفتاری است که از طریق تلفن همراه و کانال ثابت دریافت می شود. شکل موج از طریق یک الگوریتم عبور داده می شود و نمره کیفیت آن نسبت به شکل موج طلایی (که 100 می شود) دریافت می کند. وظیفه من ایجاد تنظیماتی در الگوریتمی است که نمرات کانال های تلفن همراه و تلفن ثابت را به هم نزدیکتر می کند. من می ترسم این بیشترین جزئیاتی است که می توانم در مورد کار ارائه دهم. لطفاً تعدادی از این نمرات را در زیر بیابید: تلفن همراه: 52 66 69 54 88 تلفن ثابت: 60 57 72 49 75 وقتی میانگین و واریانس این مجموعه داده کوچک را محاسبه می‌کنم، واریانس بسیار بالایی دریافت می‌کنم (که از یک مجموعه داده کوچک انتظار می‌رود) . سوال من این است: 1. آیا مجموعه داده هایی با واریانس بسیار بالا معمولا رد می شوند؟ 2. اگر چنین است، آیا رابطه ای بین تعداد عناصر در مجموعه داده، میانگین و واریانس آن وجود دارد که بتوانم نگاهی بیندازم و بگویم آههه... واریانس در آن یکی بسیار زیاد است (طبق برخی رابطه ای که من از آن اطلاعی ندارم، باید (؟) این داده ها را رد کنم. P.S: در صورتی که سوال من منطقی نیست لطفاً به من اطلاع دهید. من سعی خواهم کرد توضیح بیشتری بدهم.
در چه مقدار میانگین و واریانس باید داده ها را دور بریزم؟
103907
دلایل یا مراجع برای عبارتی مانند وقتی داده های زیادی دارید، مشکل آماری که با آن مواجه می شوید این است که حتی یک تفاوت کوچک نیز از نظر آماری قابل توجه خواهد بود. من اغلب این را می بینم و به مراجعی نیاز دارم که چرا این درست است. هر کمکی قابل تقدیر است.
به دلایل یا ارجاعاتی در مقادیر p کوچک با مجموعه داده های بزرگ نیاز دارید
17618
در حین بررسی اینکه آیا دو متغیر همبستگی دارند یا خیر، مشاهده کردم که استفاده از همبستگی پیرسون اعدادی به اندازه 0.1 به دست می‌دهد که نشان می‌دهد هیچ همبستگی وجود ندارد. آیا کاری برای تقویت این ادعا وجود دارد؟ مجموعه داده (زیرمجموعه به دلیل محدودیت های ارسال) که من به آن نگاه می کنم این است: 6162.178176 0.049820046 4675.14432 0.145022261 5969.056896 0.472101350.049820046 0.472101350.049820046. 33.796224 16.45154204 6162.178176 0.064262991 6725.448576 0.419005508 3247.656192 0.8673947772561. 3612.97728 0.091337414 6162.178176 0.053065652 867.436416 0.129116092 556.833024 1.01107509 11648.1514. 1517.611392 35.11570899 4675.14432 0.053902079 4182.685056 0.070289777 2808.30528 0.07192950202028.30528 0.07192950202059 3247.656192 0.896646636 4387.071744 0.056985619 6273.222912 0.046547047 4387.071744 0.0348765199 0.03487985199 0.074997414 6612.794496 0.062001019 4675.14432 0.083205988 6612.794496 0.03326884 3321.68601016 3321.68601016 3321.686010165616. 0.041166447 556.833024 1.738402642 2929.00608 0.126664128 5969.056896 0.233872792 3247.656192641920. 0.429232627 807.890688 0.341630377 2336.767488 0.204556081 2969.23968 0.125284598 0.125284598 2929.006057137131516. 1666.591338 6725.448576 0.219167537 3247.656192 0.419687282 5357.506176 0.039383996 3719.19384984 3719.1938984 3070.628352 5.482916872 3070.628352 5.482916872 4675.14432 3.599033281 6612.794496 0.039317727400.039317726 0.039317726 2929.00608 0.133833795 2969.23968 0.107434911 6725.448576 0.202365684 3247.656192 0.425229749749506 4182.685056 0.06837713 2484.827136 6.860034548 4675.14432 3.588766218 3070.628352 5.479660256021 3241 5357.506176 0.527484226 6009.290496 0.484250179 3247.656192 0.867394771 3247.656192 0.449247069 0.449247061 0.155932175 3564.69696 0.115577847 3247.656192 0.447707489 6009.290496 0.227647507 5969.05212890 5357.506176 0.05076989 4182.685056 5.23945736 8445.837312 2.601991867 3247.656192 6.727313086 6.727313086 72226. 4675.14432 3.588766218 4675.14432 3.599033281 7946.940672 2.112259383 6194.365056 0.243447020606014 2969.23968 0.047150118 5357.506176 0.044796962 5969.056896 0.228176749 4387.071744 0.0576685232476 4675.14432 3.588766218 6162.178176 0.240499375 4274.417664 0.046789999 3627.461376 0.52626323574 0.52626323574 7946.940672 0.049578827 2929.00608 0.117104571 8445.837312 0.055885519 5969.056896 0.2425842386 0.2425842386 0.215725985 3247.656192 0.429848456 3247.656192 0.419071453 807.890688 0.313161179 4182.6823056 7946.940672 2.753260771 4387.071744 4.981454892 6405.18912 2.622405004 4675.14432 0.0977509938.097750993. 3070.628352 6.443957956 6162.178176 0.046899001 6405.18912 0.196715503 5357.506176 0.1041529346 0.1041529464646. 4675.14432 0.191651838 589.019904 1.169739758 7946.940672 10.02209571 4675.14432 0.08833939519 288339519 3310.420608 0.033228406 6009.290496 0.468940552 2518.62336 1.156187164 5357.506176 0.05226384120 0.05226381204 0.059948871 4182.685056 0.058813895 6823.61856 0.148454957 589.019904 1.745272092 1517.61139269265814 0.095940834 3564.69696 0.115577847 3564.69696 0.109406214 2518.62336 0.506625969 0.506625969 8078.90689 0.90689 0.1076069606960. 0.232306959 5357.506176 0.254409413 8078.90688 0.174281004 5357.506176 0.046850156 8445.83723149 7946.940672 2.744955688 4274.417664 0.055680099 6273.222912 2.686976094 3070.628352 5.4666373514 5.4666323514 4182.685056 0.375356973 6162.178176 0.254617759 2484.827136 6.755399503 6405.18912 2.600073725144. 6162.178176 0.239038852 4274.417664 0.090772599 4274.417664 0.02362895 3564.69696 0.051056231414141410. 4182.685056 5.23945736 3923.580672 0.060404008 7946.940672 2.109742691 4816.766592 3.4871914092 3.48719140926 3.493214728 4182.685056 0.339733922 6162.178176 0.25494232 6612.794496 0.063362017 6965.24083736 3627.461376 0.537566027 2336.767488 0.06975448 2177.442432 0.129050484 3070.628352 0.085650252214 0.085650252214 4182.685056 0.344276459 4182.685056 0.040643749 6725.448576 0.164896064 4675.14432 3.59047174395 3.59047174395 0.258299275 4274.417664 0.067845499 3041.66016 0.635836977 3070.628352 0.085650222 6373.0031224 1010.
فراتر از همبستگی پیرسون چه کاری می توانم انجام دهم؟
103901
من واقعاً با سری زمانی قوی نیستم اما پروژه ای دارم که روی آن کار می کنم.. مشکلی دارم که سعی می کنم یک سری زمانی از اختلاف فشار قبل و بعد از عبور روغن از فیلتر روغن را مدل کنم. من سعی می کنم ببینم آیا این فیلتر روغن می تواند بدون تعویض بیشتر کار کند یا خیر. در مورد دمای این روغن هم اطلاعاتی دارم. دمای روغن یک شاخص قوی برای تفاوت فشار، 'PD' است. من فکر می‌کردم که می‌خواهم اثر دما را با مدل‌سازی باقی‌مانده‌ها از یک مدل با دما به عنوان پیش‌بینی‌کننده و PD به عنوان پاسخ حذف کنم. آیا این کار می کند؟ یا رویکرد بهتری وجود دارد؟
سری زمانی در مورد فشار فیلتر روغن
33692
پس از جمع‌آوری بازخوردهای ارزشمند از سؤالات و بحث‌های قبلی، به سؤال زیر رسیدم: فرض کنید هدف این است که تفاوت‌های تأثیر را در بین دو گروه، به عنوان مثال مرد و زن، تشخیص دهیم. دو راه برای انجام آن وجود دارد: 1. اجرای دو رگرسیون جداگانه برای دو گروه، و استفاده از آزمون والد برای رد (یا نه) فرضیه صفر $H_0$: $b_1-b_2=0$، که در آن $b_1$ برابر است با ضریب یک IV در رگرسیون مردانه و $b_2$ ضریب همان IV در رگرسیون زنانه است. 2. دو گروه را با هم ترکیب کنید و یک مدل مشترک با گنجاندن یک ساختگی جنسیتی و یک اصطلاح تعاملی (IV*genderdummy) اجرا کنید. سپس تشخیص اثر گروهی بر اساس علامت تعامل و آزمون t برای معناداری خواهد بود. اگر Ho در مورد (1) رد شود، یعنی تفاوت گروه معنی دار است، اما ضریب ترم تعامل در مورد (2) از نظر آماری ناچیز است، یعنی تفاوت گروه ناچیز است. یا بالعکس، هو در مورد (1) رد نمی شود و اصطلاح تعامل در مورد (2) معنادار است. من چندین بار به این نتیجه رسیده‌ام و فکر می‌کردم چه نتیجه‌ای قابل اعتمادتر است و دلیل این تناقض چیست. با تشکر فراوان
مدل مشترک با شرایط تعامل در مقابل رگرسیون جداگانه برای مقایسه گروهی
47227
این نمونه ای بود که در کلاس انجام شد، با این حال من بیمار بودم آزمایشی برای تعیین اینکه آیا میانگین نیکوتین سیگار مارک A بیش از 0.20 میلی گرم از سیگار مارک B است یا خیر انجام شد. اگر 50 نخ سیگار با نام تجاری A دارای میانگین نمونه 2.61 میلی گرم بودند در حالی که 40 سیگار با نام تجاری B دارای میانگین نیکوتین 2.38 میلی گرم بودند. انحراف استاندارد جمعیت محتوای نیکوتین برای دو مارک سیگار به ترتیب 0.12 و 0.14 برای مارک A و B شناخته شده است. (الف) بر اساس سطح معنی داری 5 درصد، چه نتیجه ای در مورد تفاوت بین این دو مارک سیگار می توانید داشته باشید؟ (ب) بر اساس یک p-value، چه نتیجه ای می توانید در مورد تفاوت بین دو مارک سیگار بگیرید؟ تلاش من: (a) $H_{0} :\mu_{A}-\mu_{B} =0.2$ $H_{1} :\mu_{A}-\mu_{B} \ne 0.2$ سطح اهمیت : $\alpha = 0.05$ منطقه رد : $|z| >1.96$ آمار آزمون: $ z = \frac{2.61-2.38 -0.2}{\sqrt{\frac{0.12^2}{50}+\frac{0.14^2}{40}}} =1.08$ نتیجه‌گیری: از آنجایی که $1.08 <1.96 $، من نمی توانم $H_{0}$ را با 5٪ رد کنم، واقعاً به کمک با B نیاز دارم
نتیجه گیری از سطح معنی داری ثابت یا p-value در یک آزمون دو نمونه ای
108309
من سعی می کنم با استفاده از ARIMA داده ها را پیش بینی کنم. من مقالاتی را خوانده ام که می گویند اگر سریال من روند تصاعدی داشته باشد، ابتدا باید لاگ سریال را بگیرم. سوال من این است: آیا یک رویکرد ریاضی برای یافتن نوع روند (خطی یا نمایی) من وجود دارد؟ من با MATLAB و R کار می کنم. بنابراین هر توابع داخلی واقعاً مفید خواهد بود.
روند: خطی یا نمایی
13504
من داده هایی از دو مجموعه مختلف دارم (هر کدام با فیلدهایی به نام های _Mobile_ و _Landline_ ). در هر مجموعه حدود 5 عنصر از هر فیلد وجود دارد. آنها چیزی شبیه به این دارند: مجموعه A: تلفن همراه: 45 61 78 65 71 تلفن ثابت: 56 71 75 98 12 مجموعه B: تلفن همراه: 67 71 75 64 23 تلفن ثابت: 9 34 56 21 22 من باید ثابت یا رد کنم که ارقام موجود در فیلد _Mobile_ به ارقام در _Landline_ نزدیکتر است فیلد در _Set A_ در مقابل _Set B_. چگونه می توانم این کار را انجام دهم؟ آیا اندازه گیری فاصله بین این دو کافی است؟ اگر چنین است، چه فاصله ای را اندازه گیری می کنید؟ P.S: ممکن است داده های کافی در دو مجموعه وجود نداشته باشد، اما این تنها چیزی است که من در حال حاضر دارم. _**ویرایش 1_**: این چیزی است که من در این میان امتحان کردم. من از نمرات «موبایل» و «خط ثابت» برای «مجموعه A» یک بردار واحد ساختم و برای «مجموعه B» نیز همین کار را انجام دادم. سپس میانگین و واریانس دو بردار را محاسبه می کنم. در صورتی که واریانس/انحراف استاندارد برای بردار از «مجموعه A» کمتر از «مجموعه B» باشد، می‌توانم بگویم که نمرات «موبایل» در «مجموعه A» به امتیازات «خط ثابت» در «نزدیک‌تر» است. مجموعه A` نسبت به مجموعه B. آیا این رویکرد درست است؟ چرا یا چرا نه؟
تست نزدیک بودن داده ها