_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
67902
بنابراین فرض کنید من N آیتم دارم و می‌خواهم ارتباط آنها را (مثلاً در مقیاس لیکرت 5 درجه‌ای: 1 کمترین و 5 مرتبط‌ترین) با درک زیبایی رتبه‌بندی کنم و من تعداد M شرکت‌کننده برای انجام این کار دارم. رتبه بندی ها از آنجایی که N مورد برای رتبه‌بندی یک شرکت‌کننده بسیار زیاد است، من شرکت‌کنندگان M را به 4 گروه تقسیم کردم و هر کدام تنها بخشی از داده‌ها را (که 1/4 N است) رتبه‌بندی می‌کنند. هر شرکت کننده فقط یک بار و فقط در 1/4 N مورد رتبه بندی را انجام می دهد. بنابراین در پایان، من 4 گروه از آیتم ها را خواهم داشت که هر کدام با 1/4 M شرکت کننده رتبه بندی شده اند. با این حال، موضوع این است که همه موارد ظاهراً به یک اندازه با ادراک زیبایی مرتبط هستند، بنابراین هدف این است که تعداد محدودی از موارد را به دست آوریم که بیشترین ارتباط را با این ادراک دارند. سوال من این است: چگونه تجزیه و تحلیل را ادامه دهم؟ همه N مورد متعلق به یک مجموعه هستند اما همه توسط شرکت کنندگان یکسان رتبه بندی نشده اند. فرض کنید مواردی را که 70 درصد از شرکت کنندگان در هر (از 4) گروه رتبه بندی کرده اند را در نظر می گیرم و سپس آنها را کنار هم قرار می دهم. آیا این توصیف منصفانه ای از درک زیبایی است؟ حتی اگر هر شرکت کننده به تمام موارد N دسترسی نداشته باشد؟ لطفاً هر گونه پیشنهادی داشته باشید، من متخصص آمار نیستم و از هر راهنمایی قدردانی می کنم!
چگونه می توان رتبه بندی های جزئی مجموعه ای از داده ها را توسط گروه های مختلف شرکت کنندگان مقایسه کرد؟
34776
من برخی از داده های نظرسنجی دارم، که در آن اولین سوال چیزی شبیه به در مقیاس 1 - 5 به احساس خود امتیاز دهید. گروه بعدی سوالات چیزی شبیه به سیگار می کشی؟ یا چقدر در روز ورزش می کنید: 0، 15، 30، 45، 60، 60+؟ من به دنبال راهی برای تجسم این داده ها هستم، که در آن هر سوال با احساس نقشه بردار مقایسه می شود. پیشنهادی دارید؟ من با یک ماتریس همبستگی مواجه شدم، اما به نظر می‌رسد نمی‌توانم احساس شما در مقیاس محور x و سؤالات در محور y را درک کنم. احساس_مقیاس، سیگار می کشد، ورزش_فرکانس 5، N، 15 3، Y، 60 5، Y، 0
پیشنهادهایی در مورد نحوه تجسم داده های نظرسنجی
34775
من در گوگل جستجو کردم اما نتوانستم پاسخی برای سوالم پیدا کنم. هر گونه کمکی قدردانی خواهد شد. ساده ترین مثال مشکل من این است: تصور کنید من یک کیسه تیله با رنگ های مختلف دارم. یک نفر می آید و یک نمونه تصادفی احتمالا از تیله های X می گیرد. بعداً شخصی می آید و نمونه دیگری از تیله می کشد. بدیهی است که توزیع رنگ های مختلف متفاوت خواهد بود. من به دنبال آزمونی هستم که بتواند به من بگوید چقدر احتمال دارد که این تفاوت ها به دلیل شانس یا نمونه گیری غیرتصادفی باشد. در مسئله واقعی خود من به توزیع اسیدهای آمینه در توالی های چند تراز شده نگاه می کنم. ما بیماران را بر اساس پارامترهای بالینی به دو گروه (یا غیر قابل تخصیص) گروه بندی کرده ایم. ما به دنبال مناطقی هستیم که توزیع توالی متفاوت است. بر اساس نظرات در اینجا چند جزئیات بیشتر وجود دارد: داده ها مجموعه ای از حروف بدون ترتیب ذاتی هستند، بنابراین اکثر تست هایی مانند آزمون KS خارج شده اند. حدود 600 مورد در هر یک از 20 رنگ وجود دارد، بین 0 تا 400 مورد از هر رنگ وجود دارد (بنابراین توزیع کج است). گروه 1 دارای نمونه گیری تصادفی از 200 مورد و گروه 2 ~40 مورد است. روش فعلی من انجام تست جایگشت است. برای انجام این کار، تمام حروف را از کل مجموعه دنباله ها می گیرم و آنها را به هم می زنم. سپس ~200 اول را به گروه-1 و ~40 بعدی را به گروه-2 می برم. من توزیع های مشاهده شده را در هر گروه محاسبه می کنم و فاصله اقلیدسی بین توزیع ها را محاسبه می کنم. بعد از 10000 بار زدن، احتمال اینکه فاصله ای بزرگتر از فاصله مشاهده شده باشد را پیدا می کنم. بدیهی است که این روش ایده‌آل من نیست... فکر نمی‌کنم Euc-Distance بهترین انتخاب باشد، اما نمی‌توانستم به روش بهتری فکر کنم. هر گونه ایده در آن جبهه نیز استقبال خواهد شد.
آزمون درستنمایی برای تقسیم یک توزیع به دو توزیع مجزا
77398
من فقط سعی می کنم یک شبکه ساده گسسته Hopfield را با استفاده از Matlab پیاده سازی کنم اما در نتیجه من مشکلی وجود دارد. همانطور که من دو الگو را برای ذخیره در شبکه خود ارائه می دهم، همه چیز عالی کار می کند و می توانم الگوی ارتباط صحیح را با ورودی نویز بازیابی کنم، اما اگر فقط تصمیم بگیرم بیش از 2 الگو را در شبکه خود ذخیره یا آموزش دهم، با ارائه هر ورودی نویزدار، خالص به یک نتیجه مزخرف همگرا می شود. من در نت جستجو کردم و متوجه شدم ممکن است به دلیل Spurious States و Spin Glass باشد اما هیچ نکته یا راهنمایی برای مقابله با این موضوع وجود ندارد. ممنون می شوم در این مورد مرا راهنمایی کنید، در اینجا کد تارینگ من بر اساس قانون یادگیری هب (ارائه شده در کتاب نوشته شده توسط فاوست) تابع trainBtn_Callback(hObject, ~, handles) w = handles.associations'*handles.associations; برای i=1:size(handles.associations,1) w(i,i)=0; end handles.w = (1/size(handles.associations,1)).*w; guidata (hObject، handles)؛ و تابع تست y = B; w = handles.w; پرچم = درست pause on while flag randIndex = randsample(64,64); % تولید اعداد تصادفی برای انتخاب یک نورون disp('هنوز نه) y_previous = y; برای i=1:size(randIndex,1) index = randIndex(i); y_in = B(index)+y*w(:,index); y(شاخص) = sign(y_in)'; Y = تغییر شکل (y,8,8)'; abcd (Y); pause(0.02); end if isequal(y_previous,y) % پرچم همگرایی = false را بررسی کنید. پایان پایان ('انجام شد')
شبکه عصبی هاپفیلد نمی تواند بیش از 2 الگوی ارتباطی را ذخیره کند
67906
من حدود 50 کمیت وابسته (متغیرهای رگرسیون) دارم. من می خواهم بهترین رابطه را بین داده های متغیر پاسخ و داده های متغیر رگرسیون پیدا کنم. من رگرسیون خطی چندگانه را با 3 ترکیب امتحان کردم اما نتوانستم ضریب همبستگی بین متغیر y اصلی و پیش‌بینی‌شده را بیشتر از 0.5 بدست بیاورم. از این رو، من تناسب چند جمله ای را امتحان می کنم. شروع از معادله درجه دوم ساده. y = a.x1^2 + b.x2 + c y, x1,x2,x3 ......... x50 ماتریسی از 100 X 1 است. لطفا کمک کنید. آیا کسی می تواند پیشنهاد دهد که تا کدام درجه چند جمله ای بروم تا بهترین مقدار همبستگی بین متغیر y اصلی و پیش بینی شده را پیدا کنم؟ کدام مدل از نظر آماری خطی یا چند جمله ای بهتر است؟ دوم اینکه از کدام تابع matlab می توانم برای این منظور استفاده کنم؟ با تشکر
چگونه درجه رگرسیون چند جمله ای را انتخاب کنیم؟
91863
من یک دانش آموز فارغ التحصیل ریاضی با سابقه کمی در ریاضیات کاربردی هستم. از پاییز گذشته من در کلاس‌های کتاب Casella & Berger شرکت کرده‌ام و صدها (230+) صفحه از مسائل تمرینی کتاب را تمام کرده‌ام. در حال حاضر من در فصل 10 هستم. با این حال، از آنجایی که من در رشته آمار تحصیل نکرده ام یا قصد ندارم یک آماردان شوم، فکر نمی کنم بتوانم به طور منظم برای ادامه یادگیری تجزیه و تحلیل داده ها وقت بگذارم. تجربه من تا کنون به من می گوید که برای یک آماردان باید محاسبات خسته کننده زیادی را که شامل توزیع های مختلف است تحمل کرد (Weibull، Cauchy، $t$، $F$...). من متوجه شدم در حالی که ایده های اساسی ساده هستند، پیاده سازی (به عنوان مثال LRT در آزمایش فرضیه) به دلیل مسائل فنی همچنان می تواند دشوار باشد. آیا درک من درست است؟ آیا راهی وجود دارد که بتوانم احتمالات و آمار را یاد بگیرم که نه تنها مطالب پیشرفته تری را پوشش دهد، بلکه بتواند در صورت نیاز به تجزیه و تحلیل داده ها در زندگی واقعی کمک کند؟ آیا باید مانند گذشته 20 دلار در هفته برای آن هزینه کنم؟ در حالی که من معتقدم هیچ جاده سلطنتی در یادگیری ریاضیات وجود ندارد، اغلب نمی توانم فکر کنم - اغلب ما نمی دانیم که توزیع برای داده های واقعی چیست، بنابراین هدف ما از تمرکز انحصاری بر خانواده های مختلف توزیع چیست؟ ? اگر حجم نمونه کوچک است و قضیه حد مرکزی اعمال نمی شود، چگونه می توانیم داده ها را علاوه بر میانگین نمونه و واریانس اگر توزیع ناشناخته است، به درستی تجزیه و تحلیل کنیم؟ ترم من یک ماه دیگر به پایان می رسد، و من نمی خواهم دانش من پس از شروع به تمرکز بر روی تحقیقات دکترا از بین برود. بنابراین تصمیم گرفتم بپرسم. من R را یاد می‌گیرم و سابقه برنامه‌نویسی دارم، اما سطح من تقریباً به اندازه یک کد میمون است.
بعد از Casella & Berger چه چیزی یاد بگیریم؟
72612
من داشتم مقاله ای مربوط به رمزگذارهای خودکار را برای کار پروژه خود می خواندم. ورود تصاویر به عنوان بردار به شبکه عصبی الزامی است. من به دلیل عدم اطلاع از آمار (حدس می زنم) نتوانستم جمله خاصی را بفهمم. من در گوگل سرچ کردم، اما مشکل این است که نمی دانم دقیقا چیست و جستجوی همان عبارت همان نوع اسناد را برمی گرداند اما توضیح آنها را نمی دهد. منبع: http://www.cs.toronto.edu/~hinton/absps/esann-deep-final.pdf > ما بر روی 1.6 میلیون تصویر رنگی 32*32 که با کم کردن مقدار میانگین هر پیکسل از قبل پردازش شده اند آموزش می دهیم. بر روی همه تصاویر و سپس تقسیم > بر انحراف استاندارد همه پیکسل ها روی همه تصاویر. منظور از کم کردن مقدار میانگین هر پیکسل بر روی همه تصاویر و سپس تقسیم بر انحراف استاندارد همه پیکسل ها بر روی همه تصاویر چیست؟ تعبیر من این است: از هر پیکسل مقدار میانگین آن را از تمام تصاویر کم کنیم به این معنی است که برای یک موقعیت پیکسل در یک تصویر، میانگین مقادیر آن موقعیت پیکسل را از تمام تصاویر کم کنید و از مقدار پیکسل فعلی کم کنید. درست میگم؟ برای من تا حدودی مبهم است. لطفا در چند اصطلاح ریاضی توضیح دهید.
میانگین هر پیکسل روی همه تصاویر به چه معناست؟
72613
معنای دقیق نماد زیرنویس $\mathbb{E}_X[f(X)]$ در انتظارات شرطی در چارچوب نظریه اندازه گیری چیست؟ این زیرنویس ها در تعریف انتظار شرطی ظاهر نمی شوند، اما ممکن است به عنوان مثال در این صفحه از ویکی پدیا ببینیم. (توجه داشته باشید که همیشه اینطور نبود، همان صفحه چند ماه پیش). مثلاً معنای $\mathbb{E}_X[X+Y]$ با $X\sim\mathcal{N}(0,1)$ و $Y=X+1$ چیست؟
علامت گذاری مشترک در انتظارات
65851
اگر متغیر تصادفی مشاهده شده پایدار شود، می‌خواهم خطوط کنترلی داشته باشم که همگرا شوند. به عنوان مثال، مانند نمودار زیر، متغیر از حدود 3.0 شروع می شود، خط کنترل بالایی حدود 6.0 و خط کنترل پایینی حدود 2.0 است. در ابتدا داده های کمتری وجود دارد، بنابراین عدم اطمینان زیاد است. با افزایش زمان، داده های بیشتری وجود دارد و عرض باند همگرا می شود. خطوط کنترل به خوبی کار می کنند، به روند بین [0، 21] توجه کنید، متغیر بالا می رود، اما خطوط کنترل همچنان آن را حفظ می کنند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qBPru.png) من فرض می‌کنم با استفاده از روش EWMA می‌توان به یک اثر مشابه برای اندازه‌گیری خطای استاندارد، به‌علاوه یک پارامتر حد بالا/پایین تجربی دست یافت. شبیه به L در نمودار EWMA (http://en.wikipedia.org/wiki/EWMA_chart). فقط تعجب می کنم، آیا در حال حاضر برخی از شیوه های صنعتی برای چنین هدفی وجود دارد؟ من فقط نمی خواهم چرخ را دوباره اختراع کنم.
خطوطی که همگرا هستند را کنترل کنید؟
61507
من با تخمین احتمال تجربی تازه کار هستم. من در حال تلاش برای یافتن نمونه ای از چگونگی یافتن تخمین احتمال تجربی میانگین $\mu$ با استفاده از بسته نرم افزاری «emplik» در «R» هستم. هر گونه کمک یا مرجع بسیار قدردانی می شود.
برآورد احتمال تجربی در R
67905
اجازه دهید $X$, $U$, $V$, $W$, $Y$ متغیرهای تصادفی نمایی مستقل با میانگین های مربوطه $\frac{1}{6}, \frac{1}{4}, \frac{ 1}{3}, 1, \frac{2}{3}$. از متغیرهای $X, U, V, W, Y$ برای ساخت متغیری با توزیع $F$ با درجه آزادی $(3,2)$ استفاده کنید. مسئله اینجاست که من هر کاری انجام می‌دهم، نمی‌توانم یک Chi-squared با درجات آزادی فرد به دست بیاورم. به عنوان مثال، $12X$ خواهد بود $\chi^2_2$. همان برای 4 U$. برای بدست آوردن یک $F_{(3,2)}$، به یک $\chi^2_3$ تقسیم بر df آن، بیش از $\chi^2_2$ تقسیم بر df آن نیاز داریم. با تشکر از کمک شما.
تکنیک MGF برای نمایی / Chisquared
67903
اگر من یک مجموعه داده با یک کلاس مثبت بسیار نادر داشته باشم، و از کلاس منفی نمونه برداری کنم، سپس یک رگرسیون لجستیک انجام دهم، آیا باید ضرایب رگرسیون را طوری تنظیم کنم که منعکس کننده این واقعیت باشد که شیوع کلاس مثبت را تغییر داده ام؟ به عنوان مثال، فرض کنید من یک مجموعه داده با 4 متغیر دارم: Y، A، B و C. Y، A و B باینری هستند، C پیوسته است. برای 11100 مشاهده Y=0 و برای 900 Y=1: set.seed(42) n <- 12000 r <- 1/12 A <- نمونه (0:1، n، جایگزین = TRUE) B <- نمونه( 0:1، n، جایگزین = TRUE) C <- rnorm(n) Y <- ifelse(10 * A + 0.5 * B + 5 * C + rnorm(n)/10 > -5، 0، 1) من یک رگرسیون لجستیک برای پیش بینی Y، با توجه به A، B و C برازش می کنم. dat1 <- data.frame(Y, A, B, C) mod1 <- glm (Y~.، dat1، خانواده = دوجمله ای) با این حال، برای صرفه جویی در زمان، می توانم 10200 مشاهدات غیر Y را حذف کنم، 900 Y=0 و 900 Y=1: need('caret') dat2 <- downSample(data.frame(A, B, C), factor(Y), list=FALSE) mod2 <- glm(Class~., dat2, family=binomial) ضرایب رگرسیون از 2 مدل بسیار شبیه به نظر می رسد: > coef(summary(mod1)) Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -127.67782 20.619858 -6.191983 5.941186e-10 A -257.20668 41.650386 -6.175373 -6.175373 6.6106-6.175373 -6.191983 -6.191983 2.231606 -5.919353 3.232109e-09 C -127.73597 20.630541 -6.191596 5.955818e-10 > coef(summary(mod2)) Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -167.90178 59.126511 -2.83970391 0.004515542 A -246.59975 4059.733845 -0.06074151514 -0.06074151514 -0.06074151506. 5.861286 -2.88860377 0.003869563 C -170.18735 59.516021 -2.85952165 0.004242805 که من را به این باور می رساند که نمونه برداری پایین بر ضرایب تأثیری ندارد. با این حال، این یک مثال مجرد و ساختگی است و من ترجیح می دهم با اطمینان بدانم.
آیا نمونه گیری پایین ضرایب رگرسیون لجستیک را تغییر می دهد؟
101144
من یک تحلیلگر در یک مقاله هستم و در نوشتن روش ها و نتایج به این نکته اشاره کردم که یکی از مدل های پیشنهادی (رگرسیون لجستیک) به دلیل جداسازی همگرا نشد. من این را در بخش _نتایج_ مقاله یادداشت کردم، اما نویسندگان خواسته اند که به بخش _روش ها_ منتقل شود. به نظر من درست نیست، زیرا تنها توجیه آنها برای انجام این کار این است که یک مفهوم تا حدودی فنی است. اما مشخص شد که چندین متغیر رگرسیون پیشنهادی همبستگی بالایی داشتند. ما قبل از اینکه به داده ها نگاه کنیم نمی دانستیم. با این استدلال، گزارش این موضوع در نتایج بصری به نظر می رسد. اما من فکر می کنم مسئله آنها این است که حتی ذکر جنبه های فنی از نتایج کم می کند (به نظر من آنها را افزایش می دهد). آیا منبعی وجود دارد که بتوانم آن را به تعویق بیاندازم که به نفع ارائه این شواهد به نحوی در مقابل دیگری استدلال کند؟ یک مقاله از نوع روش یا حتی یک مقاله کاربردی که در آن نویسندگان کار فوق العاده خوبی در توصیف یک تحلیل پیشنهادی انجام داده اند که نتوانسته همگرا شوند؟
نحوه گزارش نتایج حاصل از تجزیه و تحلیل هایی که همگرا نیستند
35799
من یک جدول سه بعدی به اندازه $6\times6\times81$ دارم. هر خانه از جدول یک آزمون فرضیه است. برش دادن جدول در بعد سوم مجموعه‌های 81 دلاری از آزمون‌های فرضیه را تولید می‌کند که بین مجموعه‌ها مستقل هستند، اما درون مجموعه‌ها وابسته هستند. در ابتدا به این فکر می‌کردم که می‌توانم نرخ کشف کاذب را با استفاده از روش بنجامینی-هوچبرگ در تمام آزمون‌های فرضیه به طور همزمان کنترل کنم. آیا این یک راه معقول برای حمله به این مشکل است؟ فکر دوم من این است که نرخ کشف نادرست را در هر برش در امتداد بعد سوم جدول کنترل کنم، سپس نوعی اصلاح دیگر را بعد از آن اعمال کنم. آیا کسی اطلاعات بیشتری در مورد این نوع روش دارد؟
کنترل نرخ کشف کاذب در مراحل
61505
من منحنی رشد چندین اکوسیستم را با توجه به رابطه بارندگی و بهره‌وری با استفاده از یک رگرسیون خطی ساده $\text{ANPP}(t)=a+b\cdot\text{Rain}(t)$ و یک نسخه اصلاح شده مدل‌سازی می‌کنم. مدل برودی $\text{ANPP}(t)=a\cdot\left[1-e^{(-b\cdot\text{Rain}(t))}\right]$، یعنی برای هر اکوسیستم، دو مدل برازش داده های مشاهده شده و مقایسه با یکدیگر. من می‌خواهم بدانم چرا معیارهای $R^2، AIC$ و $BIC$ برای بسیاری از اکوسیستم‌ها در مورد بهترین مدل مخالف هستند، زیرا می‌دانیم که برودی و رگرسیون خطی هر دو مدل‌های 2 پارامتری هستند (یعنی در این مورد پیچیدگی مشکلی برای $R^2$) نیست؟ در فرمول فوق، $\text{Rain}(t)$ نشان دهنده بارندگی انباشته شده از زمان به زمان t است و برای محاسبه $R^2$، از فرمول زیر استفاده کردم: r2 <- mss/(mss+rss ) mss <- sum((fitted(model) - mean(fited(model)))^2) rss <- sum(resid(model)^2) My حدس می زنم که مدل ها باید فرم یکسانی داشته باشند (که در اینجا صدق نمی کند: فرم خطی در مقابل فرم نمایی)) یا تو در تو به طوری که انتخاب مدل آنها با رویکردهای مکرر یا بیزی مانند معیارهای $AIC$ و $BIC$ خواهد بود. همان بهترین نتیجه را با یک رویکرد به حداکثر رساندن تناسب ساده مانند $R^2$ ارائه دهید.
چرا معیارهای $R^2$، AIC و BIC بهترین مدل متفاوتی را برای مدل‌هایی با پیچیدگی مساوی ارائه می‌دهند؟
24439
فرض کنید من دو سیگنال $x$ و $y$ دارم، از $N$ بار نمونه برداری شده است، یعنی $$ x = [ x_{1}، x_{2}، ...، x_{N} ] $$ $$ y = [ y_{1}، y_{2}، ...، y_{N} ] $$ می‌خواهم بررسی کنم که آیا $x$ و $y$ از نظر آماری مستقل هستند، با سطح احتمال مشخصی. من به دنبال آزمون Chi-Square برای استقلال بودم. با این حال، از آنجایی که می توان آن را برای داده های طبقه بندی کرد، نمی دانم چگونه می توانم آن را در نمونه های سیگنال خود اعمال کنم. همانطور که در مورد این سوال مرتبط پیشنهاد شد، هنگامی که هیستوگرام را برای هر سیگنال محاسبه می‌کنیم، دسته‌هایی داریم که می‌توان آزمایش کای دو را روی آنها اعمال کرد. اما چگونه از هیستوگرام ها برای تولید جدول احتمالی مورد نیاز استفاده کنیم؟ برای آنچه ارزش دارد، من در حال حاضر هیستوگرام ها را با استفاده از این کد محاسبه می کنم: n1 = hist(x); n2 = hist(y); n3 = hist3([x' y']); ممنون از کمک و پیشنهادات شما **ویرایش** به عنوان مثال، دو نمونه سیگنال به صورت زیر خواهد بود: xx = 0.2:0.2:34; x = گناه (xx); y = randn(اندازه(xx));
چگونه می توانم تست کای اسکوئر را برای استقلال روی نمونه های سیگنال انجام دهم؟
67907
آیا می توان نقاط داده را از داده های میانگین متحرک استخراج کرد؟ به عبارت دیگر، اگر مجموعه ای از داده ها فقط میانگین های متحرک ساده 30 نقطه قبلی را داشته باشد، آیا می توان نقاط داده اصلی را استخراج کرد؟ اگر چنین است، چگونه؟
استخراج نقاط داده از میانگین متحرک؟
67909
من فواصل اطمینان حول یک تخمین را با استفاده از تکنیک های بوت استرپینگ محاسبه می کنم. من به خصوص به روش صدک علاقه دارم، با توجه به سادگی و ماهیت شهودی کلی آن. با این حال، من همچنین علاقه مند به اعمال ضریب تصحیح جمعیت محدود ($fpc$) برای تنظیم مرزهای پایین و بالایی فاصله اطمینان برای منعکس کردن موقعیت‌های خاصی هستم که در آن کل جمعیت به طور گسترده نمونه‌برداری شده است (یعنی $n/N \ geq 0.10) دلار. از آنجایی که فاصله اطمینان دیگر تابعی از $\hat{se}$ نیست و $fpc$ روی $\hat{se}$ اعمال می‌شود، مطمئن نیستم که چگونه $fpc$ را در ساختار ترکیب کنم. از فواصل اطمینان یک ایده این است که صدک $\alpha$th توزیع بوت استرپ را برای استفاده تنظیم کنید (یعنی $\hat{\theta}^{*(\alpha)}$)، به طوری که $fpc$ را به شکلی مشابه منعکس کنید. نحوه ایجاد بازه های اطمینان $BC_{a}$. بنابراین به جای گرفتن چندک های 2.5% و 97.5%، ممکن است نوعی کمیک های اصلاح شده $fpc$ را بدست بیاورم. فقط می خواستم مطمئن شوم که این روش از نظر تئوری درست است و همچنین چگونه می توانم آن را انجام دهم.
ضریب تصحیح جمعیت محدود و فواصل اطمینان چندک راه انداز
28761
من روی کاهش داده های نوع خاصی از آشکارساز ذرات کار می کنم. هنگامی که ذره ای به آن برخورد می کند، این آشکارساز یک پالس ولتاژ تولید می کند که شکل گاوسی دارد که با یک فروپاشی نمایی در هم می پیچد. در میان کارهای قبلی انجام شده با این نوع آشکارساز، من یک مقاله ژورنالی پیدا کرده ام که نشان می دهد: > اغلب اوقات، سیگنال به دست آمده با یک آشکارساز حالت فعلی دارای آمار کمتر > از رضایت بخش است و حاوی نویز آماری و همچنین > است. نوسانات ناشی از نویز دیجیتالی شدن برای تطبیق این داده ها، گاهی اوقات تطبیق انتگرال سیگنال قابل اعتمادتر است. هیچ توجیه دیگری برای این بیانیه ارائه نشده است و من قبلاً چنین کاری را نشنیده بودم. من در اجرای این رویکرد مشکلی ندارم و در واقع برای من خوب کار می کند. اما می‌خواهم بدانم چرا و چه زمانی این ایده خوبی است، چگونه ممکن است به تنهایی این کار را انجام دهم، و همچنین برای برتری برازش انتگرال در موارد خاص، توجیهی ریاضی داشته باشم. من دلیل بسیار دقیقی نمی‌خواهم، بنابراین تکان دادن دست خوب است، اما من چیزی بیش از ادعای ساده‌ای که در این مقاله ارائه شده است می‌خواهم.
چرا/ چه زمانی ممکن است ترجیح داده شود که به انتگرال داده ها تناسب داشته باشیم تا خود داده ها؟
28769
چه روش هایی برای جا دادن مدلی به شکل $y=A\mathrm e^{Bx}+C\mathrm e^{Dx}+E$ وجود دارد؟ در اینجا داده‌های علمی واقعی وجود دارد: http://dl.dropbox.com/u/39499990/Ben%2C%20real%20data.xlsx B باید در محدوده -1 تا -100 باشد. D باید در محدوده 100- تا 500- باشد. E یک ثابت است. این مدل خاص مورد توجه است زیرا یک مدل پذیرفته شده در جامعه علمی برای توصیف فرآیند بیولوژیکی در غیرفعال سازی دستی یک کانال کلسیم وابسته به ولتاژ است. (برای مرجع به عنوان مثال نگاه کنید به: یک تعیین کننده غیرفعال مولکولی جدید کانال Ca2+ نوع L CaV1.2 با ولتاژ. A Livneh، R Cohen و D Atlas؛ Neuroscience، ژانویه 2006؛ 139(4): 1275-87. نرخ غیرفعال شدن با یک فروپاشی دو نمایی تحلیل شد -A1exp(-t/Tao1)-A2exp(-t/Tao2)+C) بهترین راه حلی است که بتوانم در اکسل با استفاده از توابع داخلی یا کد VBA پیاده سازی کنم.
برازش یک مدل مخلوط نمایی با محدودیت های بازه ای در وزن مخلوط
22106
این ممکن است شناخته شده باشد، اما من ادبیات را خوب نمی دانم. من همچنین سعی کرده ام انتگرال را خودم انجام دهم، اما این فراتر از توانایی های من است. وضعیت: من دو متغیر تصادفی مستقل $Y_1$ و $Y_2$ دارم. این متغیرها معمولاً $Y_i \sim N(\mu_i,V_i)$ توزیع می‌شوند. مجموع نیز معمولاً توزیع می‌شود: $Y_1 + Y_2 \sim N(\mu_1+\mu_2,V_1+V_2)$ توزیع گامای معکوس با مقیاس معمولی (NSIG) مزدوج قبلی برای $(\mu_i,V_i)$ است. من می‌خواهم توزیع بعدی را برای مجموع $(\mu_1+\mu_2,V_1+V_2)$ محاسبه کنم که بر توزیع $Y_1 + Y_2$ حاکم است، با توجه به نمونه $(Y_1,Y_2)$. این توزیع چیست؟ آیا هنوز NSIG است؟
مجموع متغیرهای گامای معکوس با مقیاس نرمال چگونه توزیع می شود؟
28760
صرفاً بر اساس الگوی زمانی کلیک‌های ماوس (لیستی از دفعات کلیک $[t_1,t_2,t_3,\ldots]$)، آیا می‌توان فعالیت کاربر رایانه را پیش‌بینی کرد؟ به عنوان مثال خارج از: کار در مقابل صرف وقت در فیس بوک در مقابل تماشای عکس در مقابل انجام یک بازی کامپیوتری. اگر آنها پیش بینی های دقیق تری دارند (مثلاً بازی StarCraft در مقابل Counter Strike در مقابل SimCity) پس من نیز علاقه مند هستم. در حالی که (احتمالا) می توان شنید که کسی در حال بازی (به دلیل کلیک های سریع و انفجاری) یا تماشای عکس ها (کلیک های با فاصله یکسان) است، من علاقه مند هستم که آیا یافته های عینی بیشتری (انتشار، تحقیق در مورد وبلاگ ها و غیره) در این مورد وجود داشته باشد. . ویرایش: من به همان اندازه به کلیک های صفحه کلید (بدون تشخیص اینکه کدام کلید زده می شود) یا رویکرد ترکیبی (موس + صفحه کلید) علاقه دارم.
الگوی کلیک های ماوس (یا صفحه کلید) و پیش بینی فعالیت کاربر رایانه
91862
اگر کسی از گرادیان نزول برای بهینه‌سازی در فضای برداری استفاده می‌کند که در آن هر یک از مؤلفه‌ها اندازه متفاوتی دارند، می‌دانم که می‌توانیم از یک ماتریس پیش‌شرطی $P$ استفاده کنیم تا مرحله به‌روزرسانی شود: $x_{n+1} = x_n -\gamma_n P^{-1}\ \nabla F(x_n)$$ رویکرد واضح برای $P$ این است که آن را یک ماتریس مورب متناسب با مقادیر تقریبی $x$، به طوری که $Px\approx \bar{1}$. $$$$ آیا روش دیگری برای انتخاب $P$ پیشنهاد شده است؟ آیا برخی از این روش ها منجر به ماتریس های غیر مورب می شوند؟
پیش شرط نزول گرادیان
77394
امیدوارم کسی بتواند مشکلات من در SPSS را روشن کند! به من 65 مقدار داده شده است. 57 مورد از این مقادیر داده ها نتایج سه ماهه و 8 عدد داده های بازدارنده مورد استفاده هستند. باید انجام دهم: - رگرسیون با متغیرهای ساختگی با مولفه چرخه روند خطی آیا کسی می داند که چه کاری باید انجام دهد زیرا نتایج من چندان منطقی نیست؟ برای بخش اول - من بدیهی است که داده ها را به متغیرهای ساختگی برای سه ماهه مربوطه تقسیم کردم (Q1-Q4). سپس تجزیه و تحلیل رگرسیون - خطی را انجام دادم. اما همه ارزش های من بسیار بزرگ هستند و قابل توجه نیستند. همچنین Q2 به عنوان متغیرهای حذف شده در نتایج ذکر شده است؟ من مراحل را دنبال کردم و مطمئن نیستم که چرا این اتفاق افتاده است. سپس به دلیل چند خطی بودن به فکر حذف Q4 افتادم اما باز هم مقادیر بسیار بزرگ هستند (>.450). مطمئن نیستم که در ابتدا کار اشتباهی انجام می دهم (مخصوصاً در مورد متغیرهای حذف شده) آیا کسی ایده ای دارد؟ این من را دیوانه می کند به روز رسانی: به دلایلی به من اجازه نمی دهد در صفحه اصلی نظر بدهم. مجموعه داده به ما داده شد: این یک سری سه ماهه از کل وام های مصرف کننده است. به صورت فصلی تنظیم نمی شود. 57 مقدار داده اول برای مدل سازی و 8 مقدار داده باقیمانده را به عنوان داده بازدارنده انتخاب کنید تا مدل های خود را آزمایش کنید. داده ها عبارتند از: (8 مورد آخر، داده های بازدارنده هستند) 16180 17425 17424 17240 18240 19880 20143 20545 22155 23344 23717 23467 25482 27242 27242 27242 30280 32095 31041 33182 35067 35557 34420 35948 38643 39612 39185 40143 40056 41360 41343 44420 41343 43064 49402 50254 50335 48763 51529 53481 53482 53882 55219 56180 56037 54106 54915 54641 53805 522375 522375 50672 50882 50878 52199 50261 49615 47995 45273 42836 43321 باید SPSS تولید شود. ایمیل Primebeing12@hotmail.co.uk - به من اجازه نمی دهد به مردم پاسخ دهم. با تشکر برای هر گونه کمک! انجام پیش‌بینی ARIMA مرحله بعدی است (که من می‌دانم). اگر بخواهم از زمان، زمان^2، Q1، Q2، Q3 + متغیرهای تاخیری استفاده کنم، باید رگرسیون خطی/غیرخطی را برای این سوال انجام دهم. آیا از متغیرهای با تاخیر 1-3 استفاده کنم؟ همچنین، من بقیه را درک می کنم، اما استفاده از متغیرهای تاخیری چه فایده ای دارد؟ همانطور که گفتم در صورت امکان به من ایمیل بزنید.
رگرسیون خطی/غیر خطی - SPSS
61508
من می خواهم نمونه برداری گلوله برفی را با استفاده از نرم افزارهای تحت وب پیاده سازی کنم. اساساً، در پایان نظرسنجی، مصرف کننده می تواند انتخاب کند که نام و ایمیل سایر پاسخ دهندگان را به من ارائه دهد. من می‌خواهم که نرم‌افزار به‌طور خودکار پیوند نظرسنجی را با متن مناسب (مثلاً نام شما توسط پاسخ‌دهنده xx و غیره ارائه شده است) به این ارجاع‌ها ایمیل کند. آیا نرم افزار تحت وب وجود دارد که این قابلیت را داشته باشد؟
آیا نرم افزار تحت وب برای اجرای نمونه برداری گلوله برفی وجود دارد؟
111324
چگونه می توانم $R^2$ (یا $r^2$) تنظیم شده را از رگرسیون Lasso و Ridge پیدا کنم؟ من از پکیج glmnet استفاده کردم. به عنوان مثال اگر من تا کنون این کد را داشته باشم.... ###LASSO library(glmnet) attach(mtcars) y=mtcars$mpg model=model.matrix(mpg~ . data=mtcars) lasso.reg=cv.glmnet (model, y, type.measure='mse', alpha=0) names(lasso.reg) mse=lasso.reg$cvm[lasso.reg$lambda == lasso.reg$lambda.min] rmse = sqrt(mse) آیا کسی می تواند کدی را به من نشان دهد که $R^2$ و Adjusted $R را به من بدهد ^ 2 دلار متاسفم که چیزی واضح را از دست دادم.
نحوه یافتن $R^2$ یا $R^2$ تنظیم شده از مدل رگرسیون Lasso و Ridge
3989
اجازه دهید Qn = Cqn.{|Xi-Xj|;i <j}_(k) بنابراین برای نمونه بسیار کوتاهی مانند {1,3,6,2,7,5} می توان آن را از یافتن k امین مرتبه استاتیک محاسبه کرد. تفاوت های زوجی: **7 6 5 3 2 1** **1** 6 5 4 2 1 **2** 5 4 3 1 **3** 4 3 2 **5** 2 1 **6** 1 **7** h=[n/2]+1=4 k=h(h-1)/2=8 بنابراین Qn=Cqn. 2 بدیهی است که برای نمونه های بزرگ که می گویند شامل 80000 رکورد هستند، به حافظه بسیار بزرگی نیاز داریم. آیا امکان محاسبه Qn در فضای 1 بعدی به جای 2 بعدی وجود دارد؟ پیوندی به پاسخ ftp://ftp.win.ua.ac.be/pub/preprints/92/Timeff92.pdf اگرچه من نمی توانم آن را کاملاً درک کنم.
چگونه می توان تخمینگر مقیاس Qn Rousseeuw's and Croux (1993) را برای نمونه های بزرگ محاسبه کرد؟
93790
من Cointegration و VECM را روی مجموعه‌ای از متغیرهای درون‌زا و برون‌زا اجرا می‌کنم. آیا باید تست های ریشه واحد را روی متغیرهای برون زا اجرا کنم و مطمئن شوم که I(1) هستند؟ خیلی ممنون
آزمایش ریشه واحد برای متغیرهای برون زا
35798
من برای سازمانی کار می کنم که بر حدود 180 مدرسه در سراسر کشور نظارت دارد. ما مرتباً داده‌های حاصل از این مدارس را جمع‌آوری کرده و آنها را رتبه‌بندی می‌کنیم. از من خواسته شده است که یک نظرسنجی از دفتر ملی (حدود 100 نفر) انجام دهم تا بر اساس برداشت کارکنان از کیفیت مدرسه، بهترین و بدترین مدارس را تعیین کنم. برخی از اطلاعات اضافی: * همه کارکنان با همه مدارس آشنا نیستند. وقتی از شما خواسته می شود که یک مدرسه را رتبه بندی کنید من چیزی در مورد این مدرسه نمی دانم باید یک گزینه باشد. * برخی از کارکنان با زیر مجموعه خاصی از مدارس کار می کنند، بنابراین دانش این کارکنان برای این مدارس خاص عالی است. اولین رویکرد من این است که به طور تصادفی مجموعه هایی از 10 مدرسه یا بیشتر تولید کنم که هر مدرسه در 6 یا بیشتر مجموعه باشد. سپس از هر یک از کارکنان بخواهید که هر مجموعه را رتبه بندی کنند و نشان دهند که کدام مدارس ناشناخته هستند. سپس می‌توانم میانگین رتبه‌بندی هر مدرسه را در مجموعه‌های آن به‌طور میانگین بگیرم و از آن به عنوان رتبه‌بندی جهانی استفاده کنم. آیا روش توصیف شده در بالا قابل اجرا است؟ آیا راه بهتری وجود دارد؟ اگر این روش جواب دهد، برای هر مدرسه به چند امتیاز داده نیاز دارم تا رتبه بندی انبوه آن نماینده باشد؟ با تشکر
چگونه می توانم گروهی از افراد را وادار کنم تا مجموعه ای از اشیاء را به طور جمعی رتبه بندی کنند؟
35420
من می خواهم چیزی در مورد قابل پیش بینی بودن نتایج بهبود سلامت پس از یک روش جراحی خاص بگویم. من فرض می کنم که هر چه SD در اطراف میانگین کوچکتر باشد، نتایج قابل پیش بینی تر هستند. اگر بخواهم دو زیر گروه را مقایسه کنم، مثلاً نر و ماده، دو میانگین متفاوت و همچنین دو انحراف استاندارد متفاوت پیدا می‌کنم، اما به نظر می‌رسد میانگین‌ها نسبت به SD تفاوت کمتری دارند. آیا این به این معنی است که در توزیع (منحنی زنگ) تفاوت وجود دارد و چگونه می توان تشخیص داد که این تفاوت قابل توجه است؟ به عبارت دیگر، من چندان علاقه ای به تفاوت این دو وسیله ندارم.
چگونه تشخیص دهیم که تفاوت بین دو SD قابل توجه است؟
3982
var w = 810، h = 400، mapMargin = 30; geo = pv.Geo.scale().range(w, h); var vis = new pv.Panel() .width(w) .height(h) .top(50) .bottom(30) .def(i, -1); var dot = vis.add(pv.Dot) .data(geoPopList) .left(function(d) {return geo(d.center).x}) .top(function(d) {return geo(d.center) .y}) .radius(function(d) {return areaToRadius(d.speakers)}) fillStyle(function(d){return col(d.speakers)}) .strokeStyle(#ffffff); vis.render(); من از کد بالا برای ساختن نمودار نقطه ای در پروتوویس استفاده می کنم. چگونه می توان زوم و حرکت را به این اضافه کرد؟ من یک نمونه را در http://vis.stanford.edu/protovis/ex/transform.html دیدم. اما مشکل کد من این است که چگونه در مقیاس جغرافیایی تبدیل کنم.
افزودن بزرگنمایی و حرکت برای نمودار نقطه‌ای Protovis با GeoScale
24437
آیا کسی می تواند مزایا و معایب طبقه بندی SVM را برای من توضیح دهد که آن را از سایر طبقه بندی کننده ها متمایز می کند؟
مزایا و معایب SVM
61503
من فقط پیاده سازی پیوند وارد و پیوند UPGMA و همچنین ضرایب شباهت پیرسون و اقلیدس را امتحان کردم. در کمال تعجب، هر دو ضریب شباهت، خوشه‌بندی یکسانی را با پیوند وارد دادند. آیا باید اینطور باشد؟ آیا این نشان می دهد که من در اجرای خود اشتباه کرده ام؟ می توانم به شما بگویم که اگرچه خوشه بندی یکسان بود، اما عمق خوشه ها متفاوت بود. همچنین می توانم بگویم که ضرایب شباهت، خوشه بندی متفاوتی را با پیوند UPGMA ارائه کردند.
از کدام ضریب شباهت با پیوند وارد استفاده کنم؟
3980
من برخی داده‌های مربوط به تغییرات یک متغیر دوجمله‌ای را دارم - به عنوان مثال، در ماه 1 n1 آزمایش و موفقیت K1 و در ماه 2 n2 آزمایش و موفقیت K2 وجود داشت. بگویید من M از این موارد را دارم، و در بین ماه 1 و ماه 2 تعدادی عمل مختلف انجام شد (بنابراین برای مورد 1 ممکن است درمان های a و b و برای مورد 2 b, c, و d را امتحان کنیم). که هر کدام می توانست میزان موفقیت را افزایش یا کاهش دهد. من می خواهم اثرات این درمان ها را با رگرسیون بر متغیرهای کمکی طبقه بندی مربوط به وجود یا عدم وجود a،b،c،d، و غیره بررسی کنم - بهترین راه برای انجام این کار چیست؟ فکر می کنم به دنبال چیزی شبیه به آنکووای دوجمله ای هستم، اما از تغییر در متغیر وابسته استفاده می کنم.
از چه توزیعی برای مدل سازی تغییرات نسبت ها استفاده کنیم؟
73253
فرآیند MA مرتبه نامتناهی را در نظر بگیرید که توسط $$y_t=\epsilon_t+a(\epsilon_{t-1}+\epsilon_{t-2}+...)،$$ که $a$ یک ثابت است و $ \epsilon_t$s i.i.d هستند. متغیر تصادفی $N(0,v)$. بهترین راه برای نشان دادن اینکه $y_t$ غیر ثابت است چیست؟ می دانم که باید به ریشه های مشخصه چند جمله ای ویژگی ها نگاه کنم و سپس قضاوت کنم که آیا آنها خارج از دایره واحد هستند یا نه، اما بهترین راه برای نزدیک شدن به این مشکل چیست؟ آیا باید فرآیند MA مرتبه بی نهایت را به عنوان یک فرآیند AR مرتبه محدود بازنویسی کنم یا کار کردن با فرآیند MA آسان تر است؟
ثابت بودن فرآیندهای میانگین متحرک
35425
می دانیم که روش حداقل مربع معادل MLE برای خطاهای توزیع شده گاوسی است. چه رابطه ای (در صورت وجود) بین حداقل مربعات منظم (قاعده سازی Tichonov) و MLE وجود دارد؟
رابطه بین حداقل مربعات منظم و MLE
28768
من اطلاعاتی در مورد دو ماشین دارم، هر دستگاه دارای 10-15 گزارش عملیات است، و در داخل گزارش بررسی وضعیت مهر زمانی وجود دارد که در صورت وجود هشدار، مقدار 1 و در غیر این صورت 0 به خود می گیرد. سوال این است که تصمیم بگیرید کدام دستگاه بهتر است؟ (از نظر اخطارهای کمتر در گزارش) من به دو رویکرد برای آزمایش تفاوت فکر می کنم: 1. با فرض اینکه هر بررسی وضعیت مستقل است (هم در داخل و هم بین عملیات)، به این ترتیب مشکل به یک شمارش فرکانس معمولی تبدیل می شود. تست کنید و می توانم proc 'freq' را در SAS اعمال کنم. 2. از آنجایی که رکوردها از گزارش های عملیات مختلف می آیند، نمی دانم که آیا باید عملیات را در تست فاکتور کنم؟ به عبارت دیگر، آیا آزمون فرکانسی وجود دارد که همبستگی احتمالی وضعیت را در هر عملیات در نظر بگیرد؟
آزمون نسبت فرکانس با ساختارهای همبستگی
101173
فرض کنید من مجموعه ای از محرک ها را دارم که توسط سه ارزیاب مستقل رتبه بندی شده است. سپس ضریب همبستگی Intraclass را با مقدار حاصل 0.881 تخمین زدم. بیایید یک مثال عملی را در نظر بگیریم: سه ​​نورو رادیولوژیست ضخامت هیپوکامپ 50 سوژه مختلف را تخمین زدند. قدم بعدی صحیح برای توصیف ضخامت هیپوکامپ چیست؟ آیا باید از داده های محاسبه شده توسط تنها یکی از سه رتبه دهنده (به دلیل قابلیت اطمینان بالا) استفاده کنم؟ یا بهتر است از میانگین ضخامت هیپوکامپ که توسط سه رتبه‌دهنده برای هر آزمودنی اندازه‌گیری می‌شود استفاده شود (مثلاً «subj.1: mean[rater1, rater2, rater3]»؛ «subj.2: mean[rater1, rater2, rater3 ]`...)؟ آیا مرجعی در مورد سوال من وجود دارد؟ با تشکر
ضریب همبستگی درون طبقاتی: میانگین رتبه‌دهنده‌ها یا ارزیاب بهتر؟
23856
توزیع دوجمله ای تعداد موفقیت ها را در آزمایش N مدل می کند، اما موفقیت ها می توانند به هر ترتیبی باشند. زمانی که موفقیت ها باید به ترتیب خاصی باشند، توزیع برای چیست؟ آیا فقط ضریب دو جمله ای را رها می کنید؟
توزیع مدل سازی تعداد موفقیت ها در یک ترتیب خاص در N آزمایش چگونه است؟
35429
آیا می توان انتخاب مدل را از این طریق انجام داد؟ فرض کنید باید یک مدل خوب (لجستیکی) را از بین سه متغیر (var1، var2، var3) انتخاب کنم. انحراف D* (-2*log-likelihood) این مدل کامل حداقل در بین همه مدل های ممکن خواهد بود. سپس می توانم هر 6 ترکیب زیرمدل (1،2،3،12،13،23) را امتحان کنم و انحراف آنها را D1~D6 محاسبه کنم. سپس تفاوت را محاسبه می‌کنم: deltaD_i=D_i-D*، این باید از توزیع خی دو با df=differences_in_variables_numbers پیروی کند. مدل‌های با deltaD در فاصله اطمینان 95% D* در فاصله اطمینان مدل کامل قرار دارند، یعنی واریانس توضیح‌داده‌شده توسط مدل کاهش‌یافته تفاوت معنی‌داری با مدل کامل ندارد. آن وقت می توانستیم این مدل ها را به عنوان مدل های خوب بپذیریم. با انجام این کار، می توانیم با چندین مدل خوب پایان دهیم. آیا این یک راه ممکن برای انجام انتخاب مدل است؟ با تشکر
از آزمون نسبت احتمال برای انتخاب مدل ها در مورد مدل های تو در تو استفاده کنید
61506
این اولین پست من است پس اگر این سوال قبلا پرسیده شده ببخشید. من در اطراف فروم جستجو کردم اما چیز خاصی برای آنچه که در حال حاضر دنبال می کنم پیدا نکردم. من همه چیز را تا حد امکان ساده نگه می‌دارم --- (برای رفع مزاحمت بالقوه برچسب‌های معنایی، وقتی می‌گویم اثر قابل توجه است منظورم این است که از نظر آماری تفاوت معنی‌داری با صفر دارد، در سطح آلفای 0.05 من هیچ نظری در مورد معنای ماهوی یا اهمیت اثرات نمی‌کنم). اساساً من یک مدل رگرسیون خطی دو مرحله‌ای دارم که در آن متغیر نتیجه با تغییرات در هر یک از سه متغیر پیش‌بینی‌کننده پیش‌بینی می‌شود. همه این اثرات از نظر آماری معنی دار هستند. این مرحله یک است. سپس، به روش معمول، تعامل X1 و X2 را در مدل در مرحله 2 اضافه کردم. اکنون می دانم که افزودن یک اصطلاح تعاملی می تواند اثرات اصلی شما را خراب کند، اما این هنوز برای من غیرعادی به نظر می رسد. به طور خلاصه: -- اثر اصلی X1 دیگر قابل توجه نیست و در واقع علامت ضریب بتا **تغییر می کند** (در مدل 1 منفی، در مدل 2 مثبت). -- اثر اصلی X2 دیگر قابل توجه نیست. -- اثر اصلی X3 هنوز قابل توجه است. -- aaannnd .... تعامل **مهم نیست.** این نوع به نظر یک مورد سرکوب است، اما من هرگز با اصطلاح تعاملی برخورد نکرده ام که به عنوان یک متغیر سرکوبگر رفتار کند. علاوه بر این، آیا یک اصطلاح تعاملی می تواند چنین ویرانگری را به بار آورد (بله، من دارم فاجعه می کنم) بدون اینکه در واقع از نظر آماری معنی دار باشد؟ من مطمئناً دیده ام که اثرات متقابل قابل توجهی اثرات اصلی را از بین می برد، اما این مورد برای من جدید است. من فقط به این فکر می کنم که آیا این نوع یافته حتی ارزش سر و صدا کردن را دارد یا اینکه باید فقط به گزارش اثرات اصلی پایبند باشم. آیا اصطلاحات متقابل غیر قابل توجه معمولاً باعث ایجاد این نوع تغییرات برای تأثیرات اصلی فرد می شوند؟ هر کمکی قابل تقدیر است. :)
تعامل بی‌اهمیت همچنان باعث می‌شود که اثر اصلی تغییر کند؟
93425
درجات آزادی در یک رگرسیون چندگانه برابر است با N−k−1 که k تعداد متغیرها است. آیا k شامل متغیرهای ساختگی می شود؟ به عنوان مثال، من مدل را دارم: Y=B1+B2D2+B3D3+B4D4+B5X1+B6X2+B7(D2D3)+B9(D2D4)+B9(D3D4)+B10(D2D3D4)+u (2 متغیر X وجود دارد و 3 آدمک) N=14780 برای دریافت درجه آزادی از آن استفاده می کنم 14780-2-1 یا 14780-5-1 یا چیز دیگری کاملاً؟
آیا هنگام محاسبه درجات آزادی در یک رگرسیون چندگانه، متغیرهای ساختگی به عنوان متغیرهای مستقل به حساب می آیند؟
35428
انجمن CrossValidated، باید اشاره کنم که من یک پوستر برای اولین بار هستم (و در هر دو مدلینگ و R نسبتاً جدید هستم)، بنابراین لطفاً هرگونه هنجارهایی را که ممکن است در پست خود نقض کنم عذر خواهی کنید و مودبانه به من اطلاع دهید. من تلاش کرده‌ام تعیین کنم که آیا یک متغیر درمان در R مهم است یا خیر و بسته‌ای را بیابم که هم 1) داده‌های من را به طور مناسب برای ساختار آن مدل‌سازی کند، و هم 2) معیاری از اهمیت درمان را برای من چاپ کند (به عنوان مثال، یک p -value) این آزمایش بررسی می کند که آیا ماهی به یک محرک بو حساس است یا خیر. تنها 3 آزمودنی وجود دارد (کوسه نهنگ به راحتی به دست نمی آید) و 3 گروه درمانی (کنترل قبل از بو، بو، کنترل پس از بو). کارآزمایی‌ها در روزهایی که انجام شدند به‌صورت فرصت‌طلبانه انجام شد، به این معنی که اطلاعاتی برای همه انواع درمان برای همه حیوانات در تمام روزها وجود ندارد. در یکی از زیر مجموعه‌های آزمایش، ما پاسخ‌های رفتاری متفاوتی را ثبت کردیم. در ابتدا این ثبت به عنوان 0/1 برای هر نوع پاسخ ثبت شد، با 0 به معنای دیده نشدن و 1 به معنای دیده شدن. من همچنین این داده‌ها را دستکاری کردم تا به هر نوع پاسخ یک مقدار جداگانه بدهم (1-4)، با مقادیر بالاتر که نشان‌دهنده پاسخ‌های «شدیدتر» است، و یک ستون به داده‌ها اضافه کردم که این مقادیر را برای یک «نمره» نهایی جمع می‌کند. در نهایت، من یک چارچوب داده ایجاد کردم که میانگین این نمرات را در آزمایش‌های «یکسان» (یعنی همان روز، همان حیوان، درمان مشابه) به‌صورت میانگین نشان می‌دهد: DATE ID درمان شماره. پاسخ Open.Muth Gulp Tail.down 6/14/ 2011 2 1 1 0 0 0 6/14/2011 2 1 1 0 0 0 6/14/2011 2 2 1 0 0 0 6/14/2011 1 2 1 0 0 0 6/14/2011 2 2 0 1 0 1 6/14/2011 2 3 1 0 0 0 و مانند این: DATE ID نمره درمان شماره پاسخ باز. دهان گلپ دم پایین 1 2 1 1 0 0 0 1 1 2 1 1 0 0 0 1 1 2 2 1 0 0 0 1 1 1 2 1 0 0 0 1 1 2 2 0 2 0 4 6 1 2 3 1 0 0 1 و لایک این: DATE ID درمان شماره. پاسخ Open.Muth Gulp Tail.down score 1 1 2 1.0 0 0 0 1.0 1 2 1 1.0 0 0 0 1.0 1 2 2 0.5 1 0 2 3.5 1 2 3 1.0 0 0 0 1.0 2 1 0 0 0 0 1.0 1 2 2 0.5 1 0 2 3.5 1 2 3 1.0 0 0 0 1.0 2 1 0 0 0 0 1.0 0 0 0 1.0 من در ابتدا سعی کردم از تابع EzMixed در بسته ez استفاده کنم، اما چاپ مطلوب نیست. مخاطبان من به یک نشانه واضح تر از اهمیت متغیر درمان نیاز دارند تا یک AIC که مدلی را با/بدون متغیر درمان شامل مقایسه می کند. من به دنبال استفاده از بسته lme4 بودم، اما درک من این است که ezMixed اساساً فقط یک بسته بندی برای این بسته است و احتمالاً همان چاپ (AIC) را دریافت خواهم کرد. آیا کسی ایده ای دارد که چگونه می توانم آنچه را که به دنبال آن هستم با استفاده از روش های قالب بندی داده های من در بالا پیدا کنم؟ تابع ایده آل به من این امکان را می دهد که اهمیت متغیر درمان و همچنین سایر متغیرها (تاریخ، شناسه، تعاملات) را آزمایش کنم و همه جایگشت های این مدل ها را به گونه ای ذخیره کنم که بعداً بتوانم با AIC مقایسه کنم. من از هر کمکی که می توانید بکنید بسیار سپاسگزارم. این همان مدل اصلی ezmixed است که من اجرا می کردم. من از اولین نوع داده استفاده کردم، با این تفاوت که تاریخ به صورت عددی 1-12 کد شده بود. من هر پاسخ را جداگانه تست کردم. mouth_mix = ezMixed( data = new2response , dv = .(Open.Muth) , random = .(DATE, ID) , fixed = .(درمان) , خانواده = دوجمله ای ) mouth_mix print(mouth_mix$summary) > print(mouth_mix$summary) ) اخطار خطا اثر RLnLu RLnLr DFu درمان DFr L10LRa L10LRb 1 FALSE FALSE -55.52405 -62.21555 4 3 4.943573 3.517696 زیرمجموعه دیگری از این آزمایش از داده های ضبط ویدیو برای تعیین تغییرات سرعت پس از تقاطع بو (یا شاهد) آلوهای آب استفاده کرد. داده ها به این شکل هستند: DATE ID Treatment Speed.Before.Plume Speed.After.Plume Speed.fference 6/14/2011 2 1 24.71041 27.85269 3.1422787 6/14/2011 2 28249 0.1473287 6/14/2011 1 2 23.15754 26.64582 3.4882799 6/14/2011 2 2 22.54465 14.15707 -8.38712764 8.38714764 6.3875764. 18.87284 -6.9279353 6/14/2011 2 3 23.50434 17.67082 -5.8335139 دوباره، من شما را امتحان کردم
چگونه می توانم اهمیت یک درمان را در یک آزمایش غیرمتعادل و با اندازه گیری های مکرر با استفاده از R آزمایش کنم؟
35422
من یک سیستم امتیازدهی با استفاده از رگرسیون لجستیک ایجاد کرده ام. امتیاز بین 0 تا 6 (با استفاده از اعداد صحیح) متغیر است و مرگ را پیش بینی می کند. از یک فرمول رگرسیون معمولی استفاده نمی کند و بنابراین من نمی توانم مقدار دقیقی از خطر مرگ پیش بینی شده را محاسبه کنم. نمونه ای از امتیاز می تواند به این شکل باشد: Score Dead Alive 0 0 101 1 1 911 2 3 672 3 2 291 4 8 78 5 10 60 6 5 4 من می دانم که باید از تناسب پیرسون برای آزمایش خوبی استفاده کنم- مناسب و دارای سه گروه، یک گروه توسعه و دو گروه مستقل اعتبار سنجی است. سوال من این است: چگونه می توانم تست خوب بودن تناسب پیرسون را در هر گروه محاسبه کنم؟ در گروه توسعه، مرگ و میر مورد انتظار من چقدر خواهد بود؟ در گروه‌های اعتبارسنجی، حدس می‌زنم که می‌توانم از مرگ‌ومیر مشاهده‌شده در گروه توسعه به عنوان مرگ‌ومیر مورد انتظار استفاده کنم. پیشاپیش متشکرم
اعتبار سنجی رگرسیون لجستیک - حسن تناسب (پیرسون)
35424
من یک متغیر فاکتور 12 سطحی (ماه) در مجموعه داده خود دارم و می‌خواستم یک درخت CART را با rpart() جا بدهم. آیا متغیر عامل 12 سطحی را به 12 متغیر ساختگی تقسیم می کنید؟ اگر مدل را با یک متغیر عاملی 12 سطحی تطبیق دهم، پیش‌بینی‌های بهتری دریافت می‌کنم (در مقایسه با جایگزین 12 متغیر ساختگی) اما پس از آن در تفسیر مشکل دارم زیرا متغیر عامل به (1،5،6،7، 8،11) و (2،3،4،9،10،12) در سمت چپ از گره ریشه و در (3،6،9،10،12) و (1،2،4،5،7،8،11) در سمت راست از گره ریشه. بنابراین مطمئن نیستم که متغیر عامل 12 سطحی را به 12 متغیر ساختگی تقسیم کنم؟
سبد خرید با rpart و فاکتور 12 سطح
73256
من روش‌های MCMC را به خودم آموزش می‌دهم و در کتابی با این قطعه مواجه شدم که نمی‌توانم آن را سر و صدا کنم: > پدیده شبه همگرایی، بسیاری از افراد را به ایده > مقایسه اجرای چندگانه نمونه‌گر سوق داده است. در نقاط مختلف اگر به نظر می‌رسد اجراهای چندگانه به یک توزیع همگرا می‌شوند، آنگاه - طبق > اکتشافی چند شروع - همه چیز خوب است. اما این فرض را بر این می‌گذارد که می‌توانید حداقل یک نقطه شروع در هر قسمت از فضای حالت داشته باشید که نمونه‌گر بتواند شبه همگرا شود. اگر نمی توانید این کار را انجام دهید - و در شرایط جعبه سیاه هرگز نمی توانید - پس اکتشافی چند شروع بدتر از بی فایده است: > می تواند به شما اطمینان دهد که همه چیز خوب است در حالی که در واقع نتایج شما > کاملاً اشتباه است. کسی می تواند این را کمی بهتر توضیح دهد؟
یک سوال در مورد همگرایی اکتشافی چندشروع و شبه
101178
منحنی اپیدمی مانند زیر یا هر داده سری زمانی دیگر را در نظر بگیرید: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/G0qML.png) اگر، همانطور که از کندوکاو در سوابق، جمع‌آوری داده‌های گذشته‌نگر، یا فقط یک سری گزارش‌های موردی که از طریق کبوتر حامل به جای فدرال اکسپرس ارسال شده‌اند، که گروهی از موارد وجود دارد که می‌دانیم ظاهر می‌شوند. در جایی در این جدول زمانی، اما نه _where_ در این جدول زمانی، آیا می توان از انتساب چندگانه یا روش احتمالی دیگری برای درج آنها در سری زمانی استفاده کرد؟
مدیریت داده های از دست رفته در یک سری زمانی
3984
من در حال اجرای یک مدل لجستیک هستم. مجموعه داده مدل واقعی بیش از 100 متغیر دارد، اما من یک مجموعه داده آزمایشی را انتخاب می کنم که در آن حدود 25 متغیر وجود دارد. قبل از آن من همچنین یک مجموعه داده ساختم که دارای 8-9 متغیر بود. به من گفته می شود که از مقادیر AIC و SC می توان برای مقایسه مدل استفاده کرد. مشاهده کردم که مدل مقادیر SC بالاتری داشت حتی زمانی که متغیر مقادیر p پایینی داشت (مثلاً 0053). طبق شهود من، مدلی که دارای متغیرهایی با سطح معناداری خوب است، باید به مقادیر پایین SC و AIC منجر شود. اما این اتفاق نمی افتد کسی میتونه این موضوع رو روشن کنه به طور خلاصه می خواهم سؤالات زیر را بپرسم: 1. آیا تعداد متغیر ربطی به SC AIC دارد؟ 2. آیا باید روی مقادیر p تمرکز کنم یا مقادیر پایین SC AIC؟ 3. روش های معمولی برای کاهش مقادیر SC AIC چیست؟
درک معیارهای AIC و شوارتز
93422
من سعی می کنم عملکرد مدل را ارزیابی کنم (مشکل رگرسیون). در ادبیات، برخی از RMse و برخی دیگر از همبستگی استفاده می کنند. آیا تفاوتی بین هر دو رویکرد وجود دارد؟ در اینجا: مقادیر خوب RMSE چیست؟ من دیدم که RMSE به محدوده داده وابسته است. آیا این تنها تفاوت است؟ لطفا به من اطلاع دهید. ممنون :)
تفاوت بین RMSE و همبستگی اسپیرمن
93794
نمونه‌ای از رگرسیون خطی می‌تواند به این صورت باشد: $min \sum_{i=0}^{m}||x_i A - y_i||_2^{2}$، جایی که ${x_i، y_i} \in \mathbb{R }^n$ و $A \in \mathbb{R}^{n\times n}$. من علاقه مندم که بدانم چگونه می توانم چنین مشکلی را با یکی از محدودیت های اضافی زیر حل کنم، $A$ یک ماتریس متعامد است یا $A$ یک ماتریس چرخشی است. توجه کنید که یک ماتریس چرخش متعامد است.
رگرسیون خطی چندگانه از طریق ماتریس های متعامد
23858
من یک طبقه بندی کننده چند کلاسه را ارزیابی می کنم. از آنجایی که دقت و فراخوانی فقط برای طبقه‌بندی باینری تعریف شده‌اند، می‌خواهم منحنی‌های فراخوانی دقیقی را برای هر کلاس با جدا کردن یک کلاس از همه کلاس‌های دیگر ایجاد کنم. استفاده از SVMهای یک در مقابل همه بسیار ساده است. برای هر کلاس، SVM مناسب امتیازی را ارائه می دهد که می تواند با آستانه های متعدد برای ایجاد منحنی فراخوانی دقیق استفاده شود. اما چگونه با طبقه بندی کننده نزدیکترین همسایه کار می کند؟ آیا می توان یک منحنی فراخوانی دقیق معنی دار برای طبقه بندی کننده NN ایجاد کرد؟ چگونه می توانم از مقادیر فاصله برای ایجاد امتیازی استفاده کنم که می تواند با چندین آستانه ترکیب شود؟
منحنی فراخوانی دقیق برای طبقه‌بندی‌کننده نزدیک‌ترین همسایه
93428
بیایید یک تابع جرم احتمال $P$ در دامنه گسسته $\{0,...,N\}$ و یک تابع چگالی $f$ و وجود دو عامل واقعی $a$ و $b$ را فرض کنیم تا ما برای همه اعداد $k$ در $\{0,...,N\}$: $$P(k) = a * f(k * b)$$ در مورد رابطه نظری / ریاضی بین $P$ و F$؟ آیا می توان از $f$ برای درک $P$ و بالعکس استفاده کرد؟ (امیدوارم سوال من خیلی مبهم نباشد - در صورت وجود، آن را مطابق با پیشنهادات تنظیم می کنم) * * * **برای افزودن مقداری زمینه:** library(VGAM) #drayleigh N <- 100 p <- function( k,N) k/N * ifelse(k>1، prod(1 - (1:(k-1)/N))، 1) plot(1:N، sapply(1:N، p، N)) الف <- 0.104 b <- 1 / 9.7 points(1:N, drayleigh(1:N * b) * a, col=red, type=l) p یک فرآیند تصادفی را تعریف می کند (من فکر می کنم مارکوف است زنجیره) که از {0،1} نمونه برداری می کند تا زمانی که 1 انتخاب شود و سپس متوقف شود. احتمال انتخاب 1 به صورت خطی از 0 به 1 در مراحل N+1 افزایش می یابد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/lqzBG.png) توزیع Rayleigh یک مورد خاص از توزیع Weibull است که برای مدل‌سازی مرگ و میر استفاده می‌شود. فرآیندی که در بالا تعریف کردم، بدیهی است که می تواند به عنوان یک مدل بسیار ساده برای مرگ و میر عمل کند - هر چه سن شما بیشتر شود، احتمال مرگ تا 100 سالگی که مرگ را می توان قطعی در نظر گرفت، بیشتر می شود. اما من در تعجبم که آیا می توانم f.x. از فرآیند ساده من یک ایده شهودی استنتاج کنید که به درک آنچه که توزیع ریلی می‌گیرد کمک می‌کند. و چون انتظار دارم این وضعیت دوباره در آینده پیش بیاید، یک پاسخ کلی می خواهم. اما البته بینش در این زمینه خاص خوش آمدید.
چگونه بین PDF به ظاهر نامرتبط اما همخوان و PMF پل بزنیم؟
93421
(اول از همه سوالم را ساده کردم) بسته به اطلاعات ورودی زیر، می خواهم تابع اکسل مناسبی را در قسمت خروجی ایجاد کنم. آنچه من به صورت شفاهی در قسمت خروجی در زیر _وضعیت (0 یا 1) ستون_ نیاز دارم بسته به مقدار _ سن انباشته_ است، تولید 0 (صفر) با احتمال متناظر در قسمت ورودی، در غیر این صورت 1 (یک) با (1-) مربوطه) احتمال. به عنوان مثال، در حال حاضر، از آنجایی که مقدار زیر سن انباشته 1 (یک) است، 0 (صفر) باید با احتمال 5٪ تولید شود یا 1 باید با احتمال 95٪ تولید شود. من توابع آمار اکسل را بررسی کردم، در گوگل جستجو کردم اما نتوانستم پاسخ خود را پیدا کنم. **اطلاعات ورودی** پروب انباشته شد. از وضعیت = 0 سن 1 5% 2 12% 3 22% 4 25% 5 28% 6 7% 6+ 1% **بخش خروجی** وضعیت سن انباشته (0 یا 1) 1 ? با احترام
با اکسل، 0 با احتمال n٪ یا 1 با احتمال (1-n)٪ ایجاد کنید
50539
در یک نمونه بزرگ ($N = 3,265,506 $ برای مطالعه من) آزمون ها همیشه مهم هستند. آیا مقاله ای در ادبیات وجود دارد که بتوانم برای توجیه استفاده از اندازه اثر به جای آزمون معناداری به آن استناد کنم؟
ادبیات برای حمایت از اندازه اثر بیش از اهمیت
73255
آیا می‌توان مقادیر نسبی لونی، دوونی، ربع، سکه، نیکل (و شاید پنی متوقف‌شده) در گردش را به‌طور دقیق به‌دست آوردن نمونه‌ای بزرگ از سکه‌ها از طریق استفاده روزمره تخمین زد؟ به عنوان مثال، با استفاده روزمره به سکه‌هایی اشاره می‌کنم که هنگام خرید از یک فروشگاه مواد غذایی، به‌عنوان مثال، آن‌ها را عوض می‌کنید. فکر می کنم این یک سوال 2 قسمتی است: 1. آیا روش نمونه گیری کافی است یا نوعی سوگیری وجود دارد زیرا شما در حال جمع آوری نمونه ها از طریق یک فرآیند قطعی (جمع آوری تغییرات هستید؟) به چه اندازه نمونه نیاز دارید؟ 2. اگر نمونه برداری برای یک تقریب دقیق کافی باشد، آیا می توانید از آن برای تعیین مقادیر نسبی هر نوع سکه در گردش استفاده کنید؟ یا به عنوان مثال، آیا اندازه نمونه لازم برای تقریب دقیق مقادیر نسبی، خود مقادیر نسبی هر نوع سکه در گردش را تغییر می دهد؟
تقریب مقادیر نسبی سکه در کانادا
107818
در شهری با 2 میلیون نفر، با 950 کیلومتر خیابان، می خواهم احتمال نزدیک شدن به یک فرد سیگاری یعنی کمتر از 10 متر را تخمین بزنم. برای آن بیایید خیابان های بدون عرض را در یک خط نشان دهیم هر روز (14 ساعت کاری) 2 میلیون نخ سیگار در خیابان ها دود می شود، فرض کنیم سیگاری ها حرکت نمی کنند و 5 دقیقه طول می کشد تا یک سیگار مصرف کنند و پخش شوند. یکنواخت در زمان و مکان تابع احتمال حضور یک فرد سیگاری در موقعیت x و زمان t $s(x,t)$ است در ابتدا فردی در موقعیت 0 قرار دارد و با سرعت v حرکت می کند چگونه می توانم احتمال عبور از یک فرد سیگاری را مدل و تخمین بزنم ( کمتر از 10 متر) با گذشت زمان؟ ویرایش: به روز رسانی با آنچه من پیدا کردم: $s(x,t)$ چگالی احتمال یک فرد سیگاری بر حسب متر است، یکنواخت است بنابراین $940800*840*s=2\times10^6$ و $s= 2.53 \times10^{-3}$smoker.$m^{-1}.mn^{-1}$ شخصی پس از X متر و T دقیقه پیاده‌روی، از $sXT = \frac{sX^2}{v}$ سیگاری عبور کرده است، فرض کنیم یک عابر پیاده با سرعت $v=2.5m.s^{-1}=150m.mn^{-1}$2e6/(940800$ حرکت می‌کند *840)/150* X^2=1$ بعد از X=240 متر، بنابراین به طور متوسط ​​هر 240 متر از یک فرد سیگاری عبور می کنیم. این نتیجه کمتر از آنچه فکر می‌کردم به نظر می‌رسد، ارقام شهر از یک مثال واقعی گرفته شده‌اند: پاریس، ایده‌ای برای تخمین بهتر؟
چگونه می توان تعداد عابر پیاده را برای یک مسافت مشخص و تعداد افراد سیگاری به طور خاص مدل کرد؟
51671
برای ترم های پایانی در یک دانشگاه دولتی بزرگ (LPU)، آزمون های کیفی برای 5 دوره وجود داشت. هر یک از 1000 دانش آموز در هر آزمون شرکت کردند، بنابراین 5000 اسکریپت پاسخ وجود دارد. هر آزمون بین 0 تا 100 نمره داده شد، بنابراین هر دانش آموز می توانست نمره کل بین 0 تا 500 را کسب کند. اسکریپت ها بیش از 50 TA برای درجه بندی توزیع شدند. آیا می توان درجه بندی تنبل (یعنی TAها وظیفه خود را با وجدان انجام ندادند) از توزیع نمرات _مجموع_ شناسایی کرد؟
رتبه بندی تنبلی را از توزیع نمرات آزمون شناسایی کنید؟
56022
اگر فاصله اطمینان 95% برای یک جمعیت از 200 تا 240 باشد (یعنی LCL=200 و UCL=240). سپس، مقادیر عددی محاسبه شده میانگین نمونه، $\bar{x}$، و انحراف استاندارد نمونه باید این باشد: الف) نمی توانیم از اطلاعات داده شده بگوییم ب) $\bar{x}$ = 220 و s=20 ج) $\bar{x}$ = 220 و s=51.020 د) $\bar{x}$ = 220 و s=121.041
چگونه می توان میانگین و انحراف معیار را بر اساس فاصله اطمینان معین پیدا کرد؟
51673
در کتابی که در حال مطالعه آن هستم، نویسنده مقدار آماری پیرسون $\chi^2$ را 11.50 و درجه آزادی = 9 را محاسبه کرده است. مقدار p بیان شده 0.241 است. من آن را در جدول $\chi^2$ جستجو می کنم اما فقط می توانم 4.168 (p=0.9) و 14.68 (p=0.1) را ببینم. بنابراین 11.50 در جایی بین (0.241) قرار دارد. نویسنده چگونه 0.241 می گیرد. من فکر کردم که باید منحنی $\chi^2$ را ادغام کنیم تا این مقدار دقیق را بدست آوریم، یا اینکه او فقط آن را از نتیجه یک برنامه کامپیوتری گرفته است؟ یا راهی سریع برای بدست آوردن تخمینی از مقدار p دقیق از جدول وجود دارد؟
چگونه می توان مقدار p دقیق تست پیرسون $\chi^2$ را پیدا کرد؟
23851
من می دانم که از HMM می توان برای ساخت مدل های آماری متن استفاده کرد. بنابراین، می‌توانیم متنی را مطابق این مدل تولید کنیم و احتمال وجود یک نمونه متن را در مدل محاسبه کنیم. از چه ابزارهایی برای ساخت مدل های آماری وب سایت ها یا صفحات وب استفاده می شود؟ اساساً به معنای چیزهایی مانند پاراگراف های مختلف، سرفصل ها، پیوندها، تصاویر، منوها در نوارهای کناری و غیره یا زیر مجموعه ای از این ویژگی ها است. آیا مدل های تولیدی برای صفحات وب یا وب سایت ها وجود دارد؟
مدل آماری یک وب سایت
55597
من یک مشکل طبقه‌بندی داده‌ها دارم و به این فکر می‌کنم که بهترین رویکرد یادگیری ماشینی برای استفاده برای محدودیت‌های خاص مشکل من چیست. محدودیت‌های من به شرح زیر است: - نقاط داده به صورت خطی قابل تفکیک نیستند (در فضای اصلی) - من می‌توانم نمونه‌های آموزشی زیادی از برچسب‌های مثبت یا منفی تولید کنم - می‌خواهم تعداد موارد مثبت کاذب را به حداقل برسانم (یعنی نمونه‌های منفی هستند. به اشتباه به عنوان مثبت طبقه بندی شده است) - سرعت طبقه بندی باید بسیار سریع باشد. من یک سوال مرتبط در مورد مشکل خود را در اینجا پست کردم: انتخاب مدل SVM برای مجموعه داده ها با گوشه های تیز من هنوز منتظر پاسخ در مورد آن هستم، اما شروع کردم به این سوال که آیا حتی رویکرد درستی را در پیش گرفته ام، به همین دلیل است که پست کرده ام. این به عنوان یک سوال جداگانه در صورت مرتبط بودن، مشکل من استفاده از یک طبقه‌بندی کننده (یا روش ML دیگر) به عنوان یک روش تشخیص برخورد سریع و تقریبی (یعنی سریع‌تر از تشخیص دقیق برخورد) است.
ML با سریعترین سرعت طبقه بندی
55598
فرض کنید من میانگین تعداد دانش آموزان در هر کلاس را برای یک منطقه مدرسه تجزیه و تحلیل می کنم. منطقه محدودیت سختی را برای حداکثر نسبت اعمال کرده است: هرگز نمی توان بیش از 30 دانش آموز در یک کلاس وجود داشته باشد. منطقه به شدت این قانون را اجرا می کند و مشخص است که درست است. من می خواهم یک فاصله اطمینان با استفاده از توزیع t-Student بسازم. برای استدلال، فرض می کنیم که همه مفروضات و شرایط برای این مورد برآورده شده است. داده‌ها مستقل هستند، به‌طور تصادفی نمونه‌برداری شده‌اند و تقریباً در یک هیستوگرام توزیع شده‌اند. اگر نمونه یک خطای استاندارد بزرگ داشته باشد و میانگین آن نزدیک به 30 باشد، چه اتفاقی می‌افتد و در نتیجه یک فاصله اطمینان مانند این ایجاد می‌شود؟ > ما 95% مطمئن هستیم که میانگین واقعی دانش آموزان در هر کلاس بین 28 > دانش آموز و 31 دانش آموز است. بدیهی است که میانگین 31 دانش آموز در هر کلاس غیرممکن است، زیرا هیچ یک از کلاس های منطقه بیش از 30 دانش آموز ندارند. در چنین مواردی چه باید کرد؟ آیا فاصله اطمینان باید همان‌طور که هست باقی بماند، یا باید به مقادیری که واقعاً ممکن است (یعنی «بین 28 دانش‌آموز و 30 دانش‌آموز») «در حد» محدود شود؟
وقتی یک فاصله اطمینان شامل محدوده غیرممکنی از مقادیر باشد، چه کاری باید انجام دهم؟
55599
می‌خواهیم بیان کنیم که A در ترکیب با B چقدر بهتر عمل می‌کند. آیا مقایسه میانگین‌های دو گروه ساده است؟ هنگام آزمایش، ویجت A دارای دامنه نتایج از 36 تا 43 با AVG 40 (x) است. هنگامی که ویجت B همراه با محصول A آزمایش می شود، نتایج دارای محدوده 27 تا 34 و میانگین 30 (y) هستند. در صورت آزمایش زیاد ، دمها به ندرت ممکن است با هم همپوشانی داشته باشند. 0 خوب 44 بد. _خیلی بد._ الف) 0 .................|..|.||||||...|. 44 AB) 0 ....|.|||||||.|.................. 44 بهترین روش برای محاسبه و نمایش داده ها چیست؟ ساده می تواند خوب باشد (یعنی B A را 10٪ بهتر می کند!) تفکر فعلی این است: کاهش درصد =(x-y)/x
درصد کاهش بین دو گروه
23852
> شما یک طبقه بندی کننده را روی یک مجموعه آزمایشی متشکل از 10 مورد iid آزمایش می کنید. طبقه بندی کننده > 2 اشتباه می کند. نرخ خطای واقعی را $x$ فرض کنید. > > اجازه دهید قبل از $ x \sim Beta(\alpha, \beta)$ باشد. داده های پسین > عملکرد طبقه بندی کننده را استخراج کنید. من می دانم که برای محاسبه پسین، از تعریف $p(\theta|X) \propto p(\theta)p(X|\theta)$ استفاده می کنم. من می توانم تعریف توزیع بتا را برای $p(\theta)$ وصل کنم، اما مطمئن نیستم چه چیزی را برای احتمال $p(X|\theta)$ وصل کنم. آیا تابع درستنمایی $p(X|\theta) = x^2(1-x)^8$ است؟
استخراج پسین توزیع بتا
93429
جدول 3 این مقاله از حروف A، B و C برای نشان دادن تفاوت های آماری معنی دار بین متغیرها استفاده می کند. من نمی توانم بفهمم که حروف A، B و C در واقع چه معنایی دارند. آیا کسی می تواند توضیح دهد که کدام متغیرها تفاوت های آماری معنی داری را نشان می دهند و کدام ها را ندارند؟ جدول چیزی شبیه به این است: رفتار زیستگاه 1 زیستگاه 2 زیستگاه 3 1 تغذیه 0.32 A 0.33 A 0.34 B 2 غواصی 0.47 A 0.45 A 0.46 A 3 شنا 0.09 A 0.11 A 0.1 A 4 پرواز 0.78 C
استفاده از حروف مختلف برای نشان دادن اهمیت آماری
27167
در تصاویر ضمیمه (پایین این پست) می خواهم توزیع های رسم شده را به صورت زیر با هم مقایسه کنم. هر نمودار دو توزیع با برچسب به جلو و عقب را نشان می دهد. برای هر مثال پیوست، می‌خواهم هر یک از «به جلو» و «عقب» شکل فرعی a را با «به جلو» و «عقب» شکل فرعی c (و برای شکل‌های فرعی b و d یکسان) مقایسه کنم. و c از توزیع های یک مثال، توزیع ها تقریباً دو وجهی هستند. من به این فکر می کردم که مقادیر مطلق این توزیع ها را بگیرم تا دیگر دووجهی نباشند و سپس آنها را با هم مقایسه کنم. (احتمالاً من با این کار درخت اشتباهی را پارس می کنم؟) با این حال، مطمئن نیستم که از چه آزمایشی برای آزمایش تفاوت ها استفاده کنم. من در ابتدا به آزمون رتبه بندی تمایل داشتم زیرا توزیع ها به وضوح غیریکنواخت هستند. اما، من همچنین شاید در حال بررسی تست کولموگروف-اسمیرنوف بودم. ویرایش: نکته در مورد توزیع ها: هر توزیع داده به جلو و عقب به ترتیب از 7000 و 5000 نقطه داده تشکیل شده است. هر نقطه داده در یک مجموعه داده معین، تفاوت در ارزش یک ویژگی خاص یک شبکه عصبی مصنوعی را نشان می دهد. از این رو تمام نقاط داده چنین اندازه‌گیری‌هایی را در مجموعه‌های (~7000 و ~5000) شبکه‌های عصبی نشان می‌دهند. ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/yiesC.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/rToL2.png)
چه آزمون های آماری باید برای توزیع های پیوست اعمال شود؟
36217
آیا کسی می داند چگونه می توان یک Scatterplot در R ایجاد کرد تا نمودارهایی مانند این در graphpad PRISM ایجاد کند: http://graphpad.com/support/faq/graph-tip-how-can-i-make-a-barcolumn-graph- that -همچنین-نقاط-داده-انفرادی- را نشان می دهد/ من سعی کردم از نمودارهای جعبه استفاده کنم اما آنها داده ها را آنطور که من می خواهم نمایش نمی دهند. این نمودارهای پراکنده ستونی که graphpad می تواند ایجاد کند، داده ها را برای من بهتر نشان می دهد. هر گونه پیشنهادی قدردانی خواهد شد. با تشکر
چگونه می توانم یک Scatterplot طبقه بندی شده در R مانند باکس پلات ایجاد کنم؟
25453
من در حال انجام تحقیقاتی در مورد مدل‌های محدود شده‌ام و اخیراً مقاله را خوانده‌ام: > گان و دانسون (2005) رویکرد تبدیلی برای گنجاندن محدودیت‌های یکنواخت > یا تک مدل، آمار زیستی، 6، 434-449 در این مقاله آنها از برازش یک مدل سلسله مراتبی بدون محدودیت، و سپس اعمال محدودیت در توزیع پسین. آنها به این واقعیت اشاره می‌کنند که روال‌های نمونه‌گیری معمول گیبس (Gelfand و همکاران، JASA، 1992، 523-532) هنگام برازش یک مدل سلسله مراتبی، به سختی می‌توانند در مسائل پارامترهای محدود اعمال شوند. سوال من این است که آیا JAGS به این نیاز دارد یا نه، یا آیا می‌تواند محدودیت‌های قبلی را (جایی که می‌خواهم اجرا شود) پیاده‌سازی کند. فرض کنید من داده های زیر را دارم: X1 <- c(327,125,7,6,107,277,54) X2 <- c(637,40,197,36,54,53,97,63,216,118) N1 <- 7 N2 <- 10 و من می خواهم برای برازش رگرسیون ایزوتونیک برای مجموعه مقادیر X با مدل سلسله مراتبی: X1[i] ~ نمایی(theta1(i)), i = 1,...,N1 X2[i] ~ نمایی(theta2(i)), i = 1,...,N2 theta1[i] ~ نمایی (delta1) theta2[i] ~ نمایی (delta2) delta1 ~ نمایی (لامبدا) delta2 ~ نمایی (لامبدا) که در آن `لامبدا` یک ثابت مشخص است، و ما قیود زیر را اضافه می کنیم: theta1[1] > theta1[2] > ... > theta1[N1] theta2[1] > theta2[2] > ... > theta2[N2] من مشخص کردم مدل JAGS به شرح زیر است: model { for(i در 1:N1) {X1[i] ~ dexp(theta1[i]) theta10[i] ~ dexp(d1) } for(i در 1:N2) { X2[i] ~ dexp(theta2[i]) theta20[i] ~ dexp(d2) } d1 ~ dexp(d0) d2 ~ dexp(d0) d0 < - 0.01 تتا11[1:N1] <- مرتب‌سازی (theta10) theta21[1:N2] <- مرتب سازی(theta20) برای(i در 1:N1) { theta1[i] <- theta11[N1-i+1] } برای(i در 1:N2) {theta2[i] < - theta21[N2-i+1] } } JAGS مدل را کامپایل می‌کند و به نظر می‌رسد که به خوبی اجرا می‌شود، و نتایج خوب به نظر می‌رسند. اما آیا واقعاً با مدلی که فکر می کنم مناسب است مناسب است؟ با تشکر از هر گونه کمک یا پیشنهاد.
برازش مدل های سلسله مراتبی محدود در JAGS
27162
این به نظر مشکلی است که باید به خوبی شناخته شود، اما من نمی توانم پاسخ خوبی پیدا کنم. قبل از اینکه متوجه شدم یک سایت آمار stackexchange وجود دارد، یک انجمن دیگر را امتحان کردم. من دو مدل رقیب برای کسر اشیاء خاص $n$ در نمونه $N$ دارم. یک مدل پیش بینی می کند که $f= \frac{n}{N} = 0.15$ از اشیاء خاص هستند، مدل دیگر که $f = 0.3$ خاص هستند. یعنی هر دو مدل توزیع های دوجمله ای هستند که در آنها اشیاء عادی $N-n$ و اشیاء ویژه $n$ وجود دارد. در حال حاضر، بیایید فرض کنیم این کسرها بدون عدم قطعیت ضمنی هستند، اما اگر گنجاندن آن آسان باشد، مفید خواهد بود که فرض کنیم هر کدام به صورت $f \pm$ مقداری نقل شده است. اگر می‌توانستم آزمایشی را اجرا کنم که در آن نمونه‌های $M$ را نگاه کردم و نتیجه این بود که اشیاء ویژه $m$ را با عدم قطعیت مرتبط در کسر اندازه‌گیری تجربی اشیاء ویژه‌ام پیدا کردم، چگونه می‌توانم حداقل تعداد نمونه‌ها را تعیین کنم. به منظور تمایز بین مدل‌ها در سطح اطمینان معین (مثلا $3\sigma$) نگاه کنید. به عبارت دیگر، من می‌خواهم در سطح اطمینان مشخص کنم که کدام یک از مدل‌ها درست است، و می‌خواهم این کار را تا حد امکان کارآمد انجام دهم تا عدم قطعیت در آزمایشم وجود داشته باشد (مثلاً بگوییم که من اشتباهاً تعدادی از اشیاء را شناسایی کرده‌ام. ، اما می توانم اندازه آن عدم قطعیت را تخمین بزنم). امیدواریم این امر به من چیزی تا حد امکان عمومی بدهد که به موجب آن بتوانم به عدم قطعیت در اندازه‌گیری‌هایم، عدم قطعیت در مدل‌ها و درجه اطمینانی که برای تمایز بین آنها و دیدن تأثیرات تغییر این پارامترها نیاز دارم، نگاه کنم. پیشاپیش ممنون کارایی جیمز PS مهم است زیرا این مشاهدات اخترفیزیکی هستند و زمان تلسکوپ گران است، بنابراین یافتن حداقل تعداد نمونه برای رسیدن به اطمینان معین در تمایز مدل مهم است.
برای تمایز بین 2 مدل، تعداد آزمایش ها را محاسبه کنید
96894
فرض کنید یک متغیر تصادفی باینری گسسته K (K=0 یا K=1) داریم که توزیع قبلی برای آن دو جمله ای است. درک من از آمار بیزی به من می گوید که صرف نظر از احتمال، توزیع پسین برای K نیز می تواند دو جمله ای باشد. با این حال، من با متنی روبرو شده ام که در مورد بتا پسین برای یک پیشین دوجمله ای صحبت می کند - آیا درست می دانم که این اشتباه است؟
پسین های غیر دوجمله ای برای پیشین دوجمله ای؟
56025
جدول زیر تعداد نسبی تصادفات در روز در یک شهر را نشان می دهد. تعداد تصادفات فراوانی نسبی 0 0.55 1 0.20 2 0.10 3 0.15 4 یا بیشتر 0.00 کدام یک از عبارات زیر درست است؟ I- تعداد متوسط ​​و مودال تصادفات برابر است. II. میانگین و میانه تعداد تصادفات برابر است. III. تعداد متوسط ​​و مودال تصادفات برابر است. A. من فقط B. II فقط ج. III فقط D. I، II و III E. I و II پاسخ داده شده c است، اما من نمی دانم چرا. میانه 0 است درست است؟ اما از کجا بدانم؟
میانگین، میانه و معین
64105
فرض کنید که من روش جدیدی برای تخمین ماتریس کوواریانس دارم (از یک مجموعه داده خاص)، و معتقدم که این بهتر از ماتریس کوواریانس نمونه است. من می‌خواهم یک کوپول t را با این ماتریس کوواریانس جدید تطبیق دهم و ارزیابی کنم که این انتخاب خاص از کوپول و ماتریس کوواریانس چقدر خوب است (در مقابل کوپول گاوسی با ماتریس کوواریانس نمونه)، چگونه باید با این مشکل مقابله کنم (با استفاده از R) ? با تشکر
برازش کوپولها با یک ماتریس کوواریانس داده شده
56029
من در حال بررسی ویژگی‌های روان‌سنجی یک اندازه‌گیری خود گزارش دهی هستم. من حدود 400 مورد در دو نمونه مستقل دارم. گویه ها در مقیاس لیکرت 4 درجه ای تکمیل می شوند. یک EFA به وضوح از یک راه حل تک عاملی پشتیبانی می کند (مثلاً اولین مقدار ویژه بیش از 6، بقیه زیر 1) و آلفای کرونباخ خوب است (مثلاً 0.90). هیچ موردی همبستگی پایینی با کل آیتم ندارد. من در ابتدا می خواستم یک CFA (EFA بعد از اینکه دیدم CFA خوب نیست یک پیگیری بود) برای آزمایش یک مدل تک عاملی انجام دهم. در کمال تعجب، تناسب برای مدل نسبتاً ضعیف بود: CFI=.91 TLI=.88 RMSEA=.13 علاوه بر این، بارگیری برای هر یک از موارد بسیار خوب است (.65+). به طور عجیبی، 'SRMR=.05'، که قابل قبول / خوب است. شاخص‌های اصلاح نشان می‌دهند که من خطاها را در همه جا مرتبط می‌کنم. اگر منطق روشنی برای انجام این کار وجود داشت (به عنوان مثال، برخی از موارد دارای عبارات بسیار مشابه هستند) من این کار را انجام می دادم. با این حال، همه معیارها به طور مشابه بیان می شوند و همبستگی تمام عبارات خطا عجیب و دردناک خواهد بود. من تا به حال چنین موردی ندیده بودم. اندازه گیری از نظر داخلی سازگار است و به وضوح از یک عامل در EFA تشکیل شده است، اما در CFA تناسب ضعیفی را نشان می دهد. نتایج در هر دو نمونه مستقل (از قاره های مختلف) همخوان است. من یک CFA دو عاملی را امتحان کردم (5 مورد تصادفی گروه بندی کردم) و تناسب یکسان بود، یا حتی کمی بهتر بود. در اینجا سؤالات من وجود دارد: 1. چرا تناسب مطابق با CFI/TLI/RMSEA با توجه به بارگذاری های EFA/Cronbach alpha/factor بسیار ضعیف است؟ 2. چرا SRMR خوب است در حالی که سایر شاخص ها خوب نیستند؟ می دانم که آنها چیزهای مختلفی را می سنجند، اما در تجربه من، تقریباً همیشه همگرا می شوند. 3. آیا باید برخی از خطاها را مرتبط کنم؟ موارد مثال: * در مورد کمبودهای خود فکر می کنید * افکاری دارید که فراموش کردنشان دشوار است * همیشه به موقعیت فکر می کنید.
EFA به وضوح از یک عامل پشتیبانی می کند، اندازه گیری از نظر داخلی سازگار است، اما CFA تناسب ضعیفی دارد؟
27164
من سعی می‌کنم مدلی را تحت JAGS قرار دهم که در آن پاسخی دارم، y، که به صورت خطی به هشت پیش‌بینی‌کننده بستگی دارد (بدون تقاطع: در واقع سعی می‌کنم سهم هر جمعیتی از وضعیت اجتماعی-اقتصادی را که به یک نامزد رأی داده‌اند، ارزیابی کنم. داده های جمع شده). مشکل من این است که مدل‌سازی سلسله مراتبی ساده‌لوح، تحت lmer() در R یا JAGS، برخی تخمین‌های منفی از پارامترهای علاقه من به من می‌دهد، که منطقا غیرممکن است. بنابراین من می خواهم این پارامترها را محدود کنم تا مقادیری بین 0 و 1 بگیرند. من در واقع می خواهم آن را در مدل ادغام کنم، اما مشکل این است که از آنجایی که هشت پیش بینی کننده وجود دارد، من از توزیع نرمال چند متغیره استفاده می کنم و نمی دانم چگونه از توزیع dinterval() (یا جایگزین T() ?) روی آن استفاده کنم. . این مدل است: model{ for (i در 1:n) { y[i] ~ dnorm(y.hat[i], tau.y) y.hat[i] <- inprod(B[dpt[i] ,], X[i,]) } tau.y <- pow(sigma.y, -2) sigma.y ~ dunif(0, 100) برای (j in 1:J) { برای (k در 1:K) { B[j,k] <- xi[k] * B.raw[j,k] } B.raw[j,1:K] ~ dmnorm(mu خام[]، Tau.B.raw[,]) } برای (k در 1:K) { is.interval[k] ~ dinterval(mu[k]، lim) mu[k] <- xi[k]*mu.raw[k] mu.raw[k] ~ dnorm(0، 0.0001) xi[k] ~ dunif(0،100) } Tau.B.raw[1:K،1:K] ~ dwish (W[،]، df) df <- K+1 Sigma.B.raw[1:K،1:K] <- معکوس(Tau.B.raw[,]) برای (k در 1:K) { برای (k.prime در 1:K) { rho.B[k، k.prime] <- Sigma.B.raw[k , k.prime]/ sqrt(Sigma.B.raw[k,k]*Sigma.B.raw[k.prime, k.prime]) } sigma.B[k] <- abs(xi[k])*sqrt(Sigma.B.raw[k,k]) } } با n، J، K(=8)، y، dpt، X، W، lim و is.فاصله ارائه شده به صورت داده ها پارامتر اصلی مورد علاقه من B است. از شما برای هر کمکی در اینجا بسیار متشکرم!
مشکلات تعیین پارامترهای محدود در یک مدل سلسله مراتبی تحت JAGS
74158
من از منحنی های ROC و مقادیر کامل AUC برای مقایسه مدل های مختلف با استفاده از داده های شبیه سازی شده استفاده می کنم. حالا فکر می کنم با تفسیر منحنی های ROC و مقادیر AUC اشتباه گرفته ام. لطفاً شکل زیر را ببینید (ببخشید که از عکس های صفحه نمایش جزئی است...) سه مدل با هم مقایسه می شوند، و من می دانم که مدل نشان داده شده با رنگ سبز باید بهتر از همه پیش ساخته شود. با این حال، همانطور که می بینید، منحنی سبز بر دو منحنی دیگر **قبل از رسیدن FPR به حدود 0.2** برتری دارد. این برش 0.2 بسیار جالب است: این درصدی از ژن‌های بیان شده متفاوت است که من در شبیه‌سازی خود مشخص می‌کنم (یعنی 20٪ از مشاهدات شبیه‌سازی شده‌اند که مثبت هستند). نگرانی من این است: 1. با توجه به اینکه مردم در واقعیت به ندرت یک برش FPR 0.5 یا بالاتر را انتخاب می کنند، چرا مردم منحنی ROC با FPR در محدوده 0 تا 1 را ترجیح می دهند و از مقدار AUC کامل استفاده می کنند (یعنی کل منطقه را محاسبه می کنند. زیر منحنی ROC) به جای اینکه فقط مساحت ایجاد شده را از مثلاً 0 تا 0.25 یا 0.5 گزارش کنیم؟ آیا به آن AUC جزئی می گویند؟ 2. در شکل زیر در مورد عملکرد سه مدل چه می توان گفت؟ مقادیر AUC عبارتند از: سبز (0.805)، قرمز (0.815)، آبی (0.768). منحنی قرمز به نظر برتر است، اما همانطور که می بینید، برتری فقط پس از FPR > 0.2 منعکس می شود. ممنون :) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Z3bKk.png)
الگوی منحنی ROC و انتخاب AUC
87224
من پارامترهای پراکندگی را برای هر یک از دو بلوک در یک رگرسیون لجستیک سلسله مراتبی محاسبه کردم. من کاملاً مطمئن نیستم که چگونه پارامتر پراکندگی را تفسیر کنم. ابتدا پارامترها را با گرفتن آماره خوب بودن برازش مربع کای (تست hosmer-lemeshow) و تقسیم آن بر درجات آزادی محاسبه کردم. برای هر دو بلوک مقادیر کمتر از 1 بودند. در مرحله دوم (برای پشتیبانی از محاسبات قبلی) مقدار احتمال 2-log- احتمال را گرفتم و آن را بر درجات آزادی تقسیم کردم. در این حالت پارامترهای هر دو بلوک بالاتر از 10 بود. بنابراین محاسبه اول یا دوم درست است؟ در صورت پراکندگی بیش از حد چه کاری می توانم انجام دهم؟
راه صحیح تشخیص پراکندگی بیش از حد چیست؟
27165
من دو کلاس دارم و در مجموع 40 موضوع (20،20). من از یک SVM برای پیاده‌سازی طبقه‌بندی استفاده کردم و یک اعتبارسنجی متقاطع ترک یک خروجی انجام دادم تا عملکرد کلی طبقه‌بندی‌کننده را به دست بیاورم. چگونه می توانم منحنی ROC را برای این وضعیت رسم کنم؟ آیا حتی در این شرایط ترسیم منحنی ROC ضروری است؟
آیا ترسیم منحنی ROC در یک اعتبارسنجی متقاطع ترک یک خروجی ضروری است؟
7256
من روی مشکل طبقه بندی باینری کار می کنم. مجموعه داده ها بسیار بزرگ و به شدت نامتعادل است. ابعاد داده ها نیز بسیار بالاست. اکنون می‌خواهم داده‌ها را با نمونه‌برداری کمتر از کلاس اکثریت متعادل کنم، و همچنین می‌خواهم ابعاد داده‌ها را با استفاده از PCA و غیره کاهش دهم... بنابراین سؤال من این است که کدام یک باید ابتدا اعمال شود: نمونه‌گیری داده یا کاهش ابعاد؟ لطفاً به نفع پاسخ خود نیز استدلال بیاورید. پیشاپیش ممنون
کدام یک باید ابتدا اعمال شود: نمونه گیری داده یا کاهش ابعاد؟
74154
آیا الگوریتم استانداردی برای خوشه بندی عبارات کلیدی وجود دارد؟ چندین الگوریتم برای استخراج عبارت کلیدی از یک مجموعه وجود دارد. برای مثال این نشریه برخی از الگوریتم های رایج استخراج عبارت کلیدی را بررسی می کند. نمونه‌ای از عبارات کلیدی ممکن استخراج‌شده از مجموعه‌ای از داده‌های املاک و مستغلات، عبارتند از «قیمت خانه»، «پارکینگ خودرو»، «اختصار»، «خانه‌های ویکتوریا»، و غیره. یک الگوریتم هوشمندانه می‌تواند «کف‌های چوبی» و «hdwd flrs» را دسته‌بندی کند. با هم مثال دیگر می تواند خوشه بندی «زمین بسکتبال» و «زمین b-ball» با هم باشد. آیا الگوریتمی برای گروه بندی عبارات کلیدی مشابه از نظر معنایی وجود دارد؟
الگوریتم هایی برای خوشه بندی عبارات کلیدی
87223
در اینجا ما یک فرآیند ورود داریم. زمان بین رسیدن از توزیع نمایی منفی تغییر یافته پیروی می کند. تابع چگالی توزیع این است: $$f(t)=\lambda e^{-\lambda(t-\theta)}،\quad\text{ جایی که }t\ge\theta$$ چگونه واریانس را استخراج کنیم تعداد ورود در دوره زمانی T$؟
واریانس فرآیند رسیدن با توزیع نمایی جابجا شده
64101
من در آمار چندان آگاه نیستم زیرا هنوز یک کلاس رسمی در آن شرکت نکرده ام (اما در سال آینده ثبت نام کرده ام) و با این وجود نیاز دارم که بفهمم آیا یک نقطه داده در لیست مقادیر وجود دارد یا خیر. از نظر آماری معنادار است. داده های من لیستی از 4000 مقدار (به طور دقیق طیف توان) است که از 130 تا نزدیک صفر (در مرتبه 10^-7) متغیر است که در آن تقریباً همه مقادیر کمتر از 0.2 هستند. به همین دلیل می‌خواهم بدانم که آیا تعدادی از این نقاط داده‌ای که برجسته هستند در مقادیر بسیار پایین 0.1 از نظر آماری معنی‌دار هستند، زیرا با مقادیر 0.05 در ناحیه نویز احاطه شده‌اند که ناشی از این واقعیت است که داده‌ها از نمونه‌برداری در منطقه تولید شده‌اند. طبیعت همه چیزهایی که من در مورد اهمیت آماری جستجو کرده‌ام، فقط اهمیت یک مجموعه داده کامل را از طریق محاسبه مقدار t از انحراف استاندارد و غیره ذکر کرده‌اند، و با این حال هرگز به بررسی فقط یک نقطه اشاره نکرده‌اند تا ببینند آیا به طور منطقی از نویز خارج است یا خیر. و چیزی ارزش توجه دارد، یا یک ناهنجاری تصادفی. این ممکن است فقط یک سوال ساده و ساده باشد که فقدان دانش من را از دریافت آن باز می دارد و اگر چنین است در مورد آن من را سرزنش کنید. از هر چیزی که برای کمک به من انجام دادید متشکرم
نحوه ارزیابی اهمیت آماری یک نقطه داده واحد
36219
آیا می‌توانید نکاتی را در مورد اینکه چگونه می‌توانم داده‌هایم را برای «نرم‌تر» دستکاری کنم، پیشنهاد کنید؟ هر الگوریتم یا تکنیکی که در این زمینه مفید باشد؟ * * * به روز رسانی: در پاسخ به نظرات درخواست اطلاعات بیشتر: * تا آنجا که من می دانم داده ها از توزیع شناخته شده ای پیروی نمی کنند. * شامل بیش از 10 سری زمانی مختلف است که ممکن است ارتباطی با یکدیگر داشته باشند. * من یک سری زمانی نمونه دیگر دارم که سعی می کنم همبستگی این یکی را با آن به حداکثر برسانم. مهمترین چیز این است که همبستگی را به حداکثر برسانیم و امیدواریم شکل سری های زمانی 10+ را با هم حفظ کنیم. * من صاف کردن مستطیل (3 نقطه ای) و صاف کردن مثلثی (3 نقطه) را امتحان کرده ام اما هر دو بدتر از صاف نکردن به نظر می رسند. با این حال صاف کردن مثلثی بهتر از صاف کردن مستطیلی است. * من در مورد Savitzky-Golay چیزی می خوانم و می خواهم آن را امتحان کنم و ببینم آیا می توانم نتیجه بهتری بگیرم. * سوال من این است - چه فیلتر/تکنیک های صاف کننده دیگری را باید امتحان کنم؟
من یک مجموعه داده بسیار مبهم دارم، برای صاف کردن آن چه کاری می توانم انجام دهم؟
87229
مخلوطی از دو توزیع نرمال را در نظر بگیرید: $ f(x) = p N(x|u_1، S_1) + (1-p) N(x|u_2، S_2) $ که در آن N() pdf معمولی است. $p$، $S_2$، و $S_2$ شناخته شده‌اند. معنی نیست. می توانید MLE $u_1$ و $u_2$ را از الگوریتم EM بدست آورید. سوال من این است که برای نمونه ای با اندازه n، واریانس تخمین های EM چیست؟ شهود من به ترتیب به من می گوید $S_1/(n \times p)$ و $S_2/(n \times (1-p))$، اما مطمئن نیستم. علاوه بر این، آیا این دو تخمین کوواریانس دارند؟ چه خواهد بود؟
واریانس تخمین میانگین EM در یک مخلوط ساده از دو نرمال
70703
من دنباله‌ای از مدل‌های چند سطحی تودرتو را با استفاده از lmer اجرا کرده‌ام، و هم به خروجی خلاصه‌ای که همه ضرایب را ارائه می‌دهد و غیره و هم به خروجی Anova که یک تست خی دو روی هر یک از فاکتورها انجام می‌دهد، نگاه کردم. در مدل اول بدون اثر متقابل، محیط عامل مهم است، که هم به خروجی آزمون کای دو و هم به ضرایب حاصل از خروجی خلاصه نگاه می‌کند. در مدل دوم، هنگامی که برهمکنش اضافه می‌شود، محیط عامل سطح اول دیگر در خروجی آزمایش مجذور کای حاصل از تابع Anova معنی‌دار نیست. (در خروجی خلاصه از جایی که اطلاعات ضریب را به دست می آوریم مهم نیست، اما من معتقدم که می دانم چگونه آن خروجی را تفسیر کنم - این فقط به این معنی است که رسانه برای گروه مرجعی که من معتقدم مهم نیست؟) اما چگونه تفسیر کنم. نتیجه غیر معنی دار آزمون کای دو برای محیط عامل سطح اول در حضور برهمکنش اضافه شده است؟ اگر کمک کند، در اینجا یک نسخه ساده شده از مدل من است: موفقیت~متوسط+جنس+جنس*متوسط ​​و در اینجا خروجی Anova (تست های مجذور کای) برای مدل 1 (بدون تعامل) و مدل 2 (با تعامل) است. : مدل 1: Chisq Df Pr(>Chisq) متوسط ​​42.03818323 1 0.0000 جنسیت 6.082823479 1 0.0137 مدل 2: Chisq Df Pr(>Chisq) متوسط ​​2.23141795 1 0.1352 جنسیت 12.95254908 1 0.0003 متوسط:جنسیت 6.92005 را بخوانید. در این مورد، اما من نمی‌توانم در هیچ یک از کتاب‌هایم چیزی در مورد چگونگی تفسیر تست‌های مجذور کای در حضور یک تعامل پیدا کنم - به نظر می‌رسد همه آنها کاملاً بر تفسیر ضرایب رگرسیون تمرکز دارند. بنابراین اگر کسی می تواند کمک کند تا تفسیر صحیح را توضیح دهد، یا مرا به یک مرجع خوب معرفی کند که به طور خاص در مورد چگونگی تفسیر تست های مجذور کای افکت های اصلی در حضور تعاملات صحبت می کند، ممنون می شوم!
نحوه تفسیر آزمون مجذور کای برای تأثیر اصلی در حضور ترم تعامل
7259
من یک جدول داده دارم که حدود 26000 سطر و حدود 35 ستون دارد. ستون ها جفت هستند، بنابراین مقادیر ستون های 6 و 7 (مثلا) با یکدیگر مرتبط هستند، بنابراین 8 و 9 و غیره هستند. 23 نوع حاشیه نویسی مختلف در جدول وجود دارد که من آنها را به عنوان فاکتور خوانده ام. نسبت این جفت ستون ها به من عدد معنی داری می دهد که باید برای هر یک از حاشیه نویسی رسم کنم. می خواستم بدانم آیا راهی وجود دارد که یک طرح شبکه ای داشته باشیم که مثلاً 15 نمودار جعبه در هر پانل و 23 پانل برای هر حاشیه نویسی داشته باشد؟ به روز رسانی: جدول نمونه. ساختار(لیست(کروموزوم = ساختار(c(1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L)، .Label = c(chr1، chr2، chr3)، کلاس = عامل)، شروع = c(1، 1، 1، 5663، 5726، 6360، 7548, 7619, 11027, 12158 , end = c(5662, 7265, 5579133, 7265, 6331, 6755, 12710, 9274, 11556, 12994, 11,556, 12994, 1,3 =L,L,1 1L، 1L، 3L، 3L، 1L، 3L)، .Label = c(-، .، +)، class = factor)، حاشیه نویسی = ساختار (c(4L، 13L، 8L، 2L ، 13L ، 18L ، 18L ، 13L ، 12L ، 13L) ، .label = C (3'-UTR ، 5'-UTR، BLASTN_HIT، CDS، CDS_motif، CDS_parts، conflict، Contig، Intron، LTR، misc_feature، misc_RNA، mRNA ، polya_site ، مروج ، real_mrna ، rep_origin ، report_region ، report_unit ، rrna ، snoRNA، snRNA، tRNA)، کلاس = عامل)، Abp1D.sense = c(274.043090077، 222.027002967، 273.083037487، 38.3559401569، 80.538، 80.57 15.9496926371 ، 54.9087080745 ، 127.744117176 ، 11.7165833969 ، 96.192577965) ، ABP1D.Antisense = C (125.681512904 ، 151.2320911139 254.813202986، 241.034453038، 84.3769908653، 199.467664241، 54.1912835565، 94.2017362521، 66.514، 66.517362521، 66.517. Iki3D.sense = c(1214.1686727, 969.99693773, 261.416187303, 107.770848316, 151.518863438, 55.9449713698, 55.9449713698 144.470307921، 21.9708783825، 52.6163190329)، Iki3D.antisense = c(786.364743311، 728.647444388، 248.28163190325 263.419180997، 351.558399018، 73.754086788، 130.973198864، 93.7873464478، 30.858803946)، Iki3D.Rsrp =6.858803946 2486.4012139, 278.274812147, 428.928792511, 639.682546716, 134.968168726, 223.376134645, 223.376134645, 491.474, 491.474 201.429779476)، Iki3D.Rrp6D.antisense = c(1928.37423684، 1764.06364622، 271.050084744، 1181.76403142، 1960. 990.571280057، 196.88970278، 398.206798139، 62.7937319455، 111.92795268)، Rdp1D.sense = c(197.403512778. 399.588620598, 68.0531849874, 128.833494553, 30.8082175235, 59.9086910765, 134.404417978, 24.244, 24.244 85.4825519212)، Rdp1D.antisense = c(86.097230688, 254.128565899, 388.725581635, 846.769716459, 82.1972306328, 82.1972306325, 82.1972306325 49.97022677، 77.2892621321، 44.6799202033، 1.60870068737)، Wt.sense = c(150.835381912، 132.0615554165،886 65.8027665102، 89.3919476073، 83.4968237124، 7.90112304898، 10.714546021، 5e-04، 5e-04)، Wt.1504 = 37.8. 131.8668254, 659.887826114, 65.7197527173, 45.4289405873, 40.4019469576, 7.40733410843, 7.40733410843, 8.8373958, 8.83739578 12.3289419357)، Rdp1D.Rrp6D.sense = c(278.940777843, 227.050371919, 266.352999304, 43.8265653895, 857225, 857230 5.1007112686، 63.5315969071، 138.590379851، 17.1377883364، 47.2571674648، Rdp1D.Rrp6D.antisense = c(1220.85) 165.478532861, 262.217884557, 315.685821866, 196.899101029, 181.217276367, 64.9492021228, 111647, 111647 62.2771817975، 20.3596716974)، Dcr1D.sense = c(5e-04، 120.491414743، 1325.93762159، 546.346320654، 5e- 66.3486618734، 5e-04، 5e-04، 5e-04)، Dcr1D.antisense = c(5e-04، 8346.5035927، 1479.42139464، 37845.817269-37845.817269 28845.1503745، 1194.26663745، 5e-04، 647.428121154، 5e-04)، Er1D.sense = c(387.657094655، 332.1768380363، 332.1768380363 136.333361806، 228.023187499، 5e-04، 24.0778502632، 62.6341480521، 32.1717485621، 5e-04، 5e-04، Er1D.64848, Er1D.64840 343.714717963, 618.13806355, 205.325286003, 162.81296098, 145.575708252, 15.3360737154, 30.552829, 30.552829 13.8803856753)، Rrp6D.sense = c(716.001844534, 605.02996247, 444.912126049, 213.265421331, 398.72532034, 398.72532034, 398.72532034 90.5802807096، 172.093792998، 5e-04، 135.365316918)، Rrp6D.antisense = c(690.534019176، 592.944889014، 592.944889014، 3014 247.869927895، 160.655498164، 371.504850116، 56.7600331059، 119.421944835، 16.7787329876، 20.0787329876، 20.073D = M. c(119.466474712، 329.741829677، 993.941348153، 1072.99933641، 5e-04، 377.539482989، 113.878508364، 113.878508361 5e-04، 5e-04)، Mlo3D.Ago1D.antisense = c(120.543892198, 2711.8968975, 1257.1652648, 11870.674213, 12
چند قطعه جعبه را در یک شبکه ترکیب کنید
33065
من مدل‌های نسبت خطر متناسب جدید و جدید به R هستم، بنابراین گمان می‌کنم این یک سوال اساسی باشد: سناریو مدل‌سازی سرعت یک اثر از طریق نسبت‌های خطر است. افراد در حال پیوستن به یک سازمان هستند و بیشتر آنها توسط شخص دیگری در سازمان دعوت می شوند*. سرعت اندازه گیری شده زمانی است که بین دعوت نامه انجام می شود و فرد به سازمان می پیوندد که «فاصله_ثبت نام» نامیده می شود. روشی که به نظر می رسد برای مدل سازی این در R مشهود است به این صورت است: تجزیه و تحلیل<-coxph(Surv(registration_interval) ~ Factor1 + Factor2 + Factor3...) با این حال، این چشم انداز نیز وجود دارد که افراد سریعتر/آهسته تر به سازمان بپیوندند. تاریخ دعوت آنها تغییر می کند (افرادی که در سال 2012 دعوت شده اند ممکن است سریعتر از افرادی که در سال 2009 بپیوندند بپیوندند) و این می تواند تعامل داشته باشد. با عوامل مختلف راه معقولی برای ترکیب این اطلاعات «تاریخ» چیست؟ *ما فقط داده هایی برای کسانی داریم که در نهایت به سازمان می پیوندند. ما مدل خود را صرفاً به عنوان الگوبرداری از وصال در نظر می گیریم و نه سانسور درست هرکسی که فواصل دعوت-ثبت نام آنها بی نهایت طولانی است. ویرایش برای روشن شدن: ما می دانیم که افراد چه زمانی دعوت می شوند، بنابراین در هر تاریخ معینی فقط تعداد معینی از افراد دعوت شده می توانند بپیوندند. اگر همه به یکباره دعوت شوند، تنظیم مدل مناسب فقط به این صورت خواهد بود: analysis<-coxph(Surv(registration_interval) ~ date + Factor1 + Factor2 + Factor3...) اما از آنجایی که فاصله_ثبت با دو تاریخ تعیین می شود، وجود دارد برخی از تعامل بین آن و تاریخ. برای مثال، اگر یک بازه زمانی وجود داشته باشد که در آن هیچ کس دعوت نشده باشد، در مقابل یک بازه زمانی که هزاران نفر در آن دعوت شده اند، عملکرد خطر کاملاً متفاوت به نظر می رسد. شاید همه اینها در Surv بسته بندی شده باشد، و من آن را بررسی خواهم کرد. در مورد قرار دادن اطلاعات «تاریخ» و «فاصله_ثبت نام» یا زمان پیوستن در Surv ویرایش کنید: خیر. به نظر می رسد که شاه ماهی قرمز است.
فرمول نسبت خطر متناسب در R
74109
من یک مشکل کوچک در مورد مدل های اول دارم. فرض کنید $$ \Delta y_{t} = \beta_{0} + \beta_{1} \Delta \log{y_{t-1}} + \Delta u_{t} $$ داریم تفسیر دلتا همان چیزی باشد که من با $$ y_{t} = \beta_{0} + \beta_{1} \log{y_{t-1}} + u_{t} $$ درست است درست است؟ با این حال، اگر داشته باشیم: $$ \Delta y_{t} = \beta_{0} + \beta_{1} \log{p} + u_{t} $$، آنگاه تفسیر به این صورت خواهد بود که p 1% افزایش یابد، افزایش $y_{t}$ خواهد بود $\beta_{1}$ درست است؟ پیشاپیش برای روشن کردن مسائل متشکرم!
اولین تفسیر تفاوت ها
70707
من سعی می کنم برنامه نویسی R را یاد بگیرم و با مشکلی روبرو هستم. من سعی می‌کنم احتمال موفقیت $p$ را تنظیم کنم و دریابیم که شانس موفقیت برای آزمایش‌های $n$ چقدر است. اساسا یک آزمایش برنولی است، اما من سعی می کنم خودم آن را با استفاده از یک حلقه «while» پیاده سازی کنم تا R را بهتر یاد بگیرم. من می‌دانم که ساختار حلقه در R شبیه بسیاری از زبان‌ها است، یعنی «while (condition) {body}»، اما مطمئن نیستم که چگونه کارم را انجام دهم.
آموزش برنامه نویسی R
74150
من ورودی‌ها را از طریق «prcomp ()» متمرکز و مقیاس‌بندی کرده‌ام: prOut<-prcomp(trainSet[,2:4],scale = TRUE,scores=TRUE) اکنون می‌خواهم از مدل تکمیل‌شده خود در داده‌های جدید (آینده) استفاده کنم. من فرض می‌کنم رویکرد صحیح این است که از مقادیر «prOut$scale» و «prOut$center» داده‌های آموزشی استفاده کنم و قبل از محاسبه امتیازات مؤلفه اصلی برای داده‌های جدیدم، آنها را اعمال کنیم؟ به نظر می رسد درست نیست که داده های جدید را با استفاده از مقادیر مقیاس و مرکز برای مجموعه داده های جدید مقیاس بندی کنید. با تشکر از هر بینشی که می توانید به من بدهید.
از چه مقادیری برای کاهش مقیاس داده های نمونه PCA استفاده کنید
36212
من اطلاعاتی دارم که از رسم نمودار باقیمانده در برابر زمان تقریباً عادی به نظر می رسد، اما می خواهم مطمئن باشم. چگونه می توانم عادی بودن باقیمانده های خطا را آزمایش کنم؟
از چه آزمایش هایی برای تأیید اینکه باقیمانده ها به طور معمول توزیع می شوند استفاده کنم؟
70709
$$ f_{X}(x) = \frac{3}{8}(x+1)^{2} ,\ -1 < x < 1 $$ $$Y = \begin{موارد} 1 - X^ {2} & X \leq 0,\\ 1- X, & X > 0.\end{موردها}$$ با : $$ F_{Y}(y) = 1 - P(Y \leq y) شروع کردم $$ $$ = 1 - [P(-(1-y)^\frac {1}{2} < X < (1-y)] $$ از اینجا، می توانم $F_{Y}(y)$ را دریافت کنم، و متمایز کردن آن به من $f_{x}(x)$ می دهد، اما پاسخی که برای pdf می گیرم پاسخ مورد نظر نیست.
وقتی پی دی اف X داده می شود، پی دی اف Y را پیدا کنید
81594
اگر اشتباه می کنم، من را تصحیح کنید، خوانده ام که اگر می خواهم از تحلیل اعتدال استفاده کنم، نمونه من باید به طور معمول توزیع شود. اما اگر در صورت استفاده از نمونه گیری هدفمند (من از معیارها / شرایط خاصی پیروی می کنم) چه راه حلی برای مشکل توزیع نرمال انجام دهم؟ آخرین سوال من این خواهد بود که آیا متغیرهای تعدیل کننده به غیر از متغیر مستقل باید با توزیع نرمال آزمایش شوند؟ از پاسخ شما بسیار سپاسگزارم.
روش نمونه گیری در تحلیل اعتدال
70705
من دو متغیر ساختگی دارم، X1 و X2. هر کدام به 0 یا 1 کدگذاری شده اند. در اینجا تفکیک شده است: مصرف الکل X7 X8 هیچ 0 0 متوسط ​​1 0 شدید 0 1 من نمی دانم چگونه به SPSS بگویم که وقتی X7 0 است و X8 1 است، به این معنی است شدید'. مشکل زمانی به وجود می آید که سعی می کنم آمار توصیفی انجام دهم. به من میانگینی از 1 و 0 می دهد که مقدار بی فایده 0.5 است. چگونه آمار توصیفی با متغیرهای ساختگی نشان داده می شود، و به خصوص زمانی که متغیر ساختگی در دو متغیر مجزا کدگذاری می شود؟
متغیرهای ساختگی سه طرفه SPSS و آمار توصیفی
69352
تست Ljung Box نشان می دهد که سری زمانی زیر نویز سفید است ('p=0.9746845' برای اجرای فعلی). چگونه می تواند این باشد؟ x=rep(10,1000) x[500]=-10 Box.test(x,type=Ljung-Box)$p.value ![سری زمانی](http://i.stack.imgur. com/6VSlm.jpg)
نتایج عجیب تست Ljung-Box (برای فرآیند نویز سفید)
33062
راه حل جینز برای پارادوکس برتراند را با استفاده از اصل بی تفاوتی در نظر بگیرید. چرا استدلال مشابهی در مورد پارادوکس بورل-کلموگروف صدق نمی کند؟ آیا این استدلال وجود دارد که از آنجایی که مشکل جهتی را برای کره مشخص نمی کند، چرخش کره نباید بر توزیع حاصل از فرآیند محدودکننده انتخاب شده تأثیر بگذارد؟
آیا اصل بی تفاوتی در مورد پارادوکس بورل-کلموگروف صدق می کند؟
49408
من می‌خواهم توزیع احتمال را برای مجموعه‌ای از آزمایش‌های دوجمله‌ای در R رسم کنم، نتیجه این است که هر آزمایش احتمال موفقیت مستقلی دارد (که من به شکل برداری دارم). بنابراین، در R اگر این کار را با پرتاب سکه انجام می‌دادم: «plot(x,dbinom(x,10,.5))» کار می‌کرد، جایی که «x» «0:10» است. این توزیع احتمال را با ترسیم تعداد آزمایش‌های موفق روی محور x با درصد زمانی که نتایج خاص به‌عنوان «y» به دست می‌آید نشان می‌دهد (4 موفقیت 20.5 درصد است). با این حال، چگونه می توانم همان نمودار را برای 10 آزمایش گسسته با احتمالات متفاوت رسم کنم. برای مثال، اگر «شانس<-c(.1،.8،.2،.2،.3،.7،.9،.99،.05،.5)»، احتمال موفقیت برای هر پرتاب مستقل بود ، و من می خواستم توزیع احتمال را ببینم؟
توزیع احتمال برای احتمالات متغیر در R
87221
یکی از مراحل استنتاج مبتنی بر انتشار انتظار این است که بتوان عاملی را که شکل نرمال دارد از توزیع خلفی فعلی (که یک گاوسی با ابعاد بالا است) تقسیم کرد. ایده این است که تقسیم تأثیر آن عامل را از توزیع پسین حذف می کند. بنابراین، فرض کنید که پسین نرمال چند متغیره با میانگین n بعدی و یک ماتریس کوواریانس $n$ $\times$ $n$ است. اکنون، احتمال من به زیر مجموعه‌ای از این پارامترهای n بعدی بستگی دارد (در واقع 3. بنابراین، جابجایی در امتداد 3 بعد فضایی و دارای واریانس $\sigma$ است). فقط برای روشن شدن موضوع، احتمال بر حسب باقیمانده به صورت زیر تعریف می‌شود: $$ L(e) \propto \exp^{-0.5 e \sigma e} $$ که در آن $e$ باقیمانده‌ای است که به صورت غیر خطی بستگی دارد. در زیر مجموعه ای از پارامترهای بعدی $w$ و دارای دقتی است که توسط $\sigma$ داده شده است ($\sigma$ یک دقت نویز جهانی است). صرفاً برای توضیح، صرف نظر از این واقعیت که احتمال به طور معمول بر روی باقیمانده ها توزیع می شود، همچنان باید به عنوان تابعی از $w$ برای EP در نظر گرفته شود. حال سوال من این است که چگونه می توانم چنین فاکتوری تولید کنم؟ بنابراین، فاکتوری که باید طراحی شود باید یک توزیع معمولی باشد که تابعی از همه $w$ است اما فقط به زیر مجموعه ای از $w$ (آن 3 عنصر) بستگی دارد. همچنین، من باید به نحوی یک ماتریس دقیق ایجاد کنم که معادل $\sigma$ باشد و مهمتر از آن اگر توزیع پسین را بر این عامل گاوسی تقسیم کنم، معادل حذف تاثیر این عامل از توزیع پسین خواهد بود. امیدوارم توانسته باشم مشکل را به وضوح توضیح داده باشم. لطفا اگر می توانم آن را واضح تر به من اطلاع دهید.
تقسیم/ضرب گاوسی ها
33066
زمینه یک خوشه بندی دندروگرام را در نظر بگیرید. بیایید فاصله بین افراد را _ناهمسانی های اصلی_ بنامیم. پس از ساخت دندروگرام، عدم تشابه cophenetic بین دو فرد را به عنوان فاصله بین خوشه هایی که این افراد به آن تعلق دارند تعریف می کنیم. برخی افراد بر این باورند که همبستگی بین تفاوت‌های اصلی و ناهمسانی‌های cophenetic (به نام همبستگی cophenetic) یک شاخص تناسب طبقه‌بندی است. این برای من کاملاً گیج کننده به نظر می رسد. اعتراض من به انتخاب خاص همبستگی پیرسون متکی نیست، بلکه بر این ایده کلی است که هر پیوندی بین تفاوت‌های اصلی و ناهمسانی‌های ترکیبی می‌تواند به مناسب بودن طبقه‌بندی مرتبط باشد. آیا با من موافق هستید، یا می توانید استدلالی در حمایت از استفاده از همبستگی cophenetic به عنوان شاخص مناسب برای طبقه بندی دندروگرام ارائه دهید؟
در مورد همبستگی cophenetic برای خوشه بندی دندروگرام
36221
پس از توسعه موتور توصیه با R، قبل از حذف مقادیر پرت از مجموعه داده مقدار خطای استاندارد باقیمانده 1351 و پس از حذف خروجی 656 آن بود. برای مناسب تر ، من همچنین مدل چند جمله ای را با دو ، سه و چهار درجه امتحان کرده ام اما هنوز پیشرفتی ندارم. آیا مهمترین چیز وجود دارد که باید بدون مربع R-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-S-Se در نظر بگیرید. جایی که من از مجموعه داده با مدل رگرسیون خطی برای پیش بینی درآمد خرید محصول بر اساس تعداد کل زمان اضافه شدن محصول به سبد خرید، حذف از سبد خرید، تعداد کل بازدید از صفحه از صفحه محصول استفاده می کنم. برای بررسی دقت پیش بینی مدل ، من فقط حداقل خطای استاندارد باقیمانده را در نظر می گیرم. خلاصه مدل > خلاصه (model_out) فراخوانی: lm(فرمول = yitemrevenue_out ~ xcartaddtotalrs_out + xcartremove_out + xproductviews_out + xuniqprodview_out + xprodviewinrs_out، داده = به عنوان) باقیمانده: حداقل 1Q -2173.6 حداکثر میانه 3Q. -42.9 14288.6 ضرایب: تخمین STD. خطای t مقدار Pr(>|t|) (Intercept) 3.992e+01 1.254e+01 3.183 0.00147 ** xcartaddtotalrs_out -7.888e-03 2.570e-03 -3.070 0.000216 - 0.00216 2.431e+01 -1.403 0.16076 xproductviews_out 1.248e+01 1.222e+00 10.215 < 2e-16 *** xuniqprodview_out -1.350e+01 1.487e-7-out 000-9-6. 3.705E-04 5.151E-05 7.193 7.62E-13 *** --- signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 656.4 در 3721 درجه آزادی چندگانه R-squared: 0.1398، R-squared تنظیم شده: 0.1-0.1 آمار: 120.9 در 5 و 3721 DF، p-value: < 2.2e-16 با تشکر
پیش بینی R نادرست
82164
من یک مدل پروبیت را در R قرار داده ام. با این حال، علاوه بر مقادیر $z$- و $p$-، می خواهم مقادیر Wald $\chi^2$ را برای متغیرهای توضیحی جداگانه بدانم. چگونه می توانم مقادیر Wald $\chi^2$ را برای تخمین پارامترها بدست بیاورم / محاسبه کنم؟
ارزش Wald $\chi^2$ برای یک مدل پروبیت