_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
57021
من در حال مطالعه خودم در مورد نظریه احتمال E.T.Jayne، منطق علم هستم. می خواستم ببینم آیا کسی صفحه وب را می شناسد که راه حل هایی برای تمرینات ارائه دهد؟ من هیچ معلم یا کسی با تجربه در این کتاب در اطراف خود ندارم، باید مطمئن شوم که راه حل های من برای آنها درست است.
راه حل هایی برای نظریه احتمال E. T. Jaynes برای مطالعه خود؟
96561
توزیع قبلی مرتبه دوم در آمار بیزی چیست؟ چند نمونه خوب از این مفهوم چیست؟
مرتبه دوم قبل چیست؟
92826
من ناامیدانه به دنبال راهی برای به دست آوردن مقادیر p برای اثرات ثابت در مدل گلمر خود هستم. هیچ ایده ای؟؟ من چیزهای زیادی برای مدل lmer پیدا کردم اما هیچ چیز با گلمر کار نکرد ... از همه متشکرم!
نحوه بدست آوردن pvalue با مدل گلمر (lme4)
105122
من در تلاشم تا بررسی کنم که آیا ارتباطی بین وقوع یا عدم وقوع یک رویداد در حدود 500 نفر و گروه بندی تصادفی دودویی آنها (مداخله در مقابل دارونما) وجود دارد. با این حال، من همچنین می‌خواهم ببینم که آیا این موضوع در صورت تفکیک یکی از 5 مکانی که افراد تحت درمان قرار گرفته‌اند، صادق است یا خیر. تست مربع کای روی کل گروه نتیجه قابل توجهی را نشان می دهد. با این حال، اگر آزمون را روی هر یک از 5 زیرگروه تکرار کنم، تنها یک زیر گروه معنی‌دار است (05/0<) و بقیه غیرمعنی‌دارند. علاوه بر این، من آزمایش های چندگانه را با ضرب مقادیر p در 6 تصحیح کرده ام (5 تست برای هر مرکز و سپس 1 تست برای کل گروه). این بر زیرگروه‌ها تأثیر نمی‌گذارد، اما بر گروه کلی تأثیر می‌گذارد که پس از اصلاح چندین آزمایش دیگر معنی‌دار نیست. می دانم که این موضوع بحث برانگیز است. اگر من فقط به فرضیه اصلی پایبند بودم و یک تست مجذور کای انجام می دادم، می گفتم که این مهم است، اما وقتی آزمایش زیرگروهی را انجام دادم، باید بگویم که اینطور نیست. آیا کسی پیشنهادی در مورد نحوه برخورد با این مشکل دارد؟
مقایسه چندگانه در زیر گروه ها و مقایسه کلی
105121
من باید مناسب ترین آزمون فرضیه را برای پاسخ به این سوال انتخاب کنم: آیا تفاوتی بین متغیر 1 (ترتیبی) و/یا متغیر 2 (مستمر) توسط گروه (دودویی) وجود دارد یا خیر. این یک مطالعه تصادفی روی بیش از 500 نفر است. متغیر 1 مقیاس ترتیبی شدت برای اولین رویدادی است که برای هر فرد رخ داده است (0 = بدون رویداد، 1 = خفیف، 2 = شدید، 3 = بسیار شدید). داده ها دارای انحراف مثبت هستند و 45% 0، 52% 1، 2% 2 و <1% 3 هستند. 45 درصد افراد هیچ رویدادی نداشتند. یک شیب مثبت قوی وجود دارد (0 = 241، 1 = 120، 2 = 84، 3 = 33، 4=18، 5 = 9... و غیره تا زمانی که فقط 2 نفر دارای 12 رویداد بودند). افراد در یکی از دو گروه (دارونما در مقابل مداخله) تصادفی شدند. من همچنین از SPSS برای محاسبه ضرایب همبستگی کندال تاو و اسپیرمن استفاده کرده ام که منفی هستند. من تجربه کمی در استفاده از اینها دارم اما می‌دانم که اسپیرمن برای داده‌های پیوسته مانند متغیر 2 و تاو کندال برای داده‌های ترتیبی مانند متغیر 1 خوب است. اما مطمئن نیستم که استفاده از این همبستگی برای مقایسه مناسب باشد. متغیرهای 1 یا 2 با متغیر گروه بندی باینری؟ آیا کسی پیشنهادی دارد که آیا این کار مناسب به نظر می رسد یا راه بهتری برای انجام این کار وجود دارد؟
تفاوت بین متغیر پیوسته اریب و/یا متغیر ترتیبی با تخصیص گروه دودویی آنها
96566
من در مدل سازی آماری نسبتاً تازه کار هستم. در حال حاضر من داده‌های فروش از نظر خرده‌فروشی و ماهانه 12 ماه گذشته را برای یک محصول خاص دارم. من سعی می کنم پیش بینی کنم که فروشنده کی قرار است بعدی را خریداری کند و تقریباً چه مقدار از محصول مذکور را خریداری می کند. لطفاً رویکرد/مدلی را پیشنهاد دهید که برای دستیابی به هدف مناسب باشد. ممنون..
پیش‌بینی زمان و میزان خرید خرده‌فروش
65281
یک مدل ARMA لزوما ثابت نیست. زمانی است که شرایط خاصی در مدل برآورده شود. در سری های زمانی، یک مدل ARMA برای مدل سازی یک فرآیند ثابت استفاده می شود. از سوی دیگر، آیا از یک مدل ARMA غیر ساکن برای مدلسازی یک سری زمانی (نه لزوما ثابت) استفاده می شود؟ یا (تقریبا) همیشه فقط ARMA ثابت برای مدلسازی سری زمانی استفاده می شود؟ نکته سوال من این است که آیا ARMA غیر ثابت مفید است یا بی فایده؟
آیا از مدل های غیر ثابت ARMA برای مدل سازی سری های زمانی استفاده می شود؟
109147
فرض کنید من حدود 20 نوردهی دارم که به طور بالقوه بر یک نتیجه تأثیر می گذارد و می خواهم ببینم کدام نوردهی تأثیر بیشتری بر نتیجه دارد. بنابراین من می‌خواهم نسبت‌های شانس هر مواجهه را با ضرایب به‌دست‌آمده از رگرسیون لجستیک محاسبه کنم. بنابراین من مجموعه ورودی و مجموعه خروجی زیر را دارم که در آن 1 به این معنی است که (نشانده یا نتیجه) وجود دارد و 0=عدم وجود دارد: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/4GTNy.png ) بنابراین، برای مثال، ردیف اول نمونه ای را نشان می دهد که در آن نوردهی 1 وجود نداشت، نوردهی 2 وجود داشت، ... نوردهی 20 وجود داشت و نتیجه وجود داشت. من یک مدل رگرسیون لجستیک را به این داده ها برازش می کنم و ضرایب را برای بدست آوردن نسبت شانس تعیین می کنم. مشکل بالقوه این است که من قرار است با یک مجموعه داده بسیار پراکنده با نمونه های زیادی کار کنم. موارد زیادی وجود دارد که تقریباً تمام نوردهی ها به جز یک یا شاید دو مورد در یک نمونه وجود دارد. سوال من این است که آیا این پراکندگی چیزی است که باید نگران آن بود و آیا این روش من را برای مقایسه نوردهی ها با استفاده از نسبت شانس ایده بدی می کند. صفحه 6 این مقاله گرینلند 1987 به نظر می رسد به این معناست که پراکندگی چندان اهمیتی ندارد، اما من می خواهم ببینم آماردانان اینجا چه می گویند. هر گونه پیوند به مقالات قدردانی می شود.
استفاده از نسبت شانس زمانی که داده ها کم هستند
64880
کمی شبیه طرح جعبه. منظور من لزوماً فاصله اطمینان بالا استاندارد، فاصله اطمینان پایین تر، میانگین و نمودارهای جعبه نمایش محدوده داده نیست، بلکه منظور من مانند نمودار جعبه است که فقط با سه قطعه داده ای که در سؤال خود مشخص کرده ام. این اسکرین شات از یک مقاله ژورنالی است که دقیقاً همان چیزی است که من می‌خواهم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mAuzT.png) همچنین می‌خواهم بدانم چگونه از نرم افزاری که پاسخ دهنده برای ایجاد چنین طرحی ذکر می کند. چیزی که در نسخه‌های قبلی این سوال گفتم که از آن زمان ویرایش شده است این است که **فقط فاصله و میانگین 95% CI را می‌دانم. داده دیگری وجود ندارد!**
نرم افزاری برای تولید نوارهای خطای فاصله اطمینان از آمار خلاصه بدون دسترسی به داده های اصلی
29114
آیا کسی می‌داند که آیا بسته‌ای شاخص معیار خوشه‌بندی مکعبی (CCC) را در R محاسبه می‌کند تا به انتخاب تعداد بهینه خوشه‌ها کمک کند؟
معیار خوشه بندی مکعبی در R
91694
n متغیر تصادفی $X_1، \ldots، X_n$ را در نظر بگیرید که همگی از توزیع برنولی با میانگین $p$ پیروی می کنند. اما وابستگی این متغیرها ناشناخته است (یعنی نمی توان آنها را مستقل فرض کرد). $Y=\sum_1^n X_i$ را تعریف کنید، سپس آیا می توانم یک کران پایین تر از $\Pr[Y \leq t\cdot n]$ بدست بیاورم (مثلاً، من می خواهم $p_\tau$ را طوری دریافت کنم که $\Pr[ Y \leq t\cdot n] > p_\tau$) که از اعمال نابرابری مارکوف سخت‌تر است؟ با تشکر
کران تنگ مجموع برنولی با وابستگی ناشناخته
96563
من یک مدل خطی را برای یک مشکل تطبیق می‌دهم، و با آنچه در حال وقوع است کمی سردرگم هستم. بدون جزئیات در اینجا دو طرح من را گیج می کند: Residuals vs Fitted ![Residuals vs Fitted](http://i.stack.imgur.com/gWcb1.png) Residuals در مقابل Y ![Residuals vs Y](http:/ /i.stack.imgur.com/LsRTw.png) اکنون باقیمانده ها در مقابل برازش برای من خوب به نظر می رسند. پراکنده نسبتاً یکنواخت، بدون الگوی واضح. با این حال، $y$ در مقابل نصب شده خوب به نظر نمی رسد. من انتظار داشتم روند روشنی در این رابطه وجود نداشته باشد. این به نظر اساسی می رسد، اما من نسبتاً گم شده ام. من نمی‌خواهم مدلی را انتخاب کنم که به خطاهای مثبت بزرگ در مقادیر بالای $Y$ اجازه می‌دهد تا خطاهای منفی بزرگ را در مقادیر پایین $Y$ جبران کنند. آیا این فقط نشان دهنده یک مدل نامناسب است؟ یا اینجا اتفاق دیگری می افتد؟ EDIT: برای fitted vs y (تغییر به برچسب‌ها) پرسیده شد![fitted vs y](http://i.stack.imgur.com/QPl5t.png) EDIT2: فقط می‌خواهم اشاره کنم که این سؤال قبلاً پرسیده شده است و پاسخ داد (البته به معنای انتزاعی تر) همبستگی مورد انتظار بین باقیمانده و متغیر وابسته چیست؟ .
روند در باقیمانده در مقابل وابسته - اما نه در باقیمانده در مقابل برازش
57028
من روی یک پروژه مدل سازی امتیازدهی اعتباری کار می کنم و تصمیم گرفتیم از متغیرهای ساختگی برای رگرسیون استفاده کنیم. روشی که ما متغیرهای ساختگی ایجاد می کنیم عبارتند از: برای هر متغیر عددی پیش بینی کننده، 1. ما به طور پیش فرض 10 سطل با اندازه مساوی ایجاد می کنیم، وزن شواهد (WOE) را برای هر bin بررسی می کنیم و اگر سطل های مجاور مشابه هستند (به معنی ریسک آنها) ادغام می کنیم. سیگنال‌ها مشابه هستند. سپس متغیرهای ساختگی را با توجه به سطل‌های نهایی Say ایجاد می‌کنیم برای این متغیر، 3 متغیر ساختگی ایجاد می کنیم. سپس یک متغیر ساختگی را به عنوان مرجع انتخاب می کنیم تا از چند خطی بودن کامل جلوگیری کنیم. سوال من مختص این روش نیست، بلکه بیشتر یک سوال رگرسیون متغیر ساختگی است: در شرایطی که متغیرهای زیادی (~20) برای رگرسیون داریم، تعداد متغیرهای ساختگی حتی بیشتر خواهد بود و نتیجه رگرسیون اغلب می گوید که برخی از متغیرهای ساختگی ناچیز هستند. متشکرم.
رگرسیون با استفاده از متغیرهای ساختگی
56372
ویژگی کلیدی همبستگی فاصله این است که اگر 0$ باشد، دو متغیر مستقل هستند. اگر همبستگی پیرسون مستقل باشد، این به معنای استقلال نیست. چگونه می توان همبستگی فاصله را تفسیر کرد؟
تفسیر همبستگی فاصله دقیقاً چیست؟
16198
میانگینی را که شامل اعداد پرت نمی شود چه می نامید؟ به عنوان مثال، اگر شما یک مجموعه دارید: {90,89,92,91,5} میانگین = 73.4 اما بدون احتساب نقطه دور (5) ما {90,89,92,91(,5)} میانگین = 90.5 داریم. این میانگین را در آمار توصیف کنید؟
میانگینی را که شامل اعداد پرت نمی شود چه می نامید؟
105554
این تصویر در یک روزنامه برزیلی به نام Folha de São Paulo منتشر شده است. این نمودار نام هر نامزد را با احزاب سیاسی متحد آنها مرتبط می کند![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/xqV4m.jpg)
کسی میدونه چطوری میشه این اینفوگرافیک رو با R درست کرد؟
9447
من می‌خواهم میانگین تعداد روزهای یک سال را پیش‌بینی کنم که دو شرط برای آن‌ها درست است: * میانگین دمای روزانه زیر صفر سانتی‌گراد است * قبل از روز حداقل چهار روز با میانگین دمای روزانه زیر صفر سلسیوس پیش‌بینی شده است. میانگین داده های دمایی برای مکان در دسترس برای حدود 10 سال. رویکرد اولیه من استفاده از نابرابری یک طرفه چبیشف بود که در صورت ناشناخته بودن توزیع، می توان از آن برای تقریب یک احتمال استفاده کرد. با این حال در این برنامه من به احتمال یک شرایط خاص علاقه مند هستم، آیا می توانم از نابرابری Chebyshev برای یک سری زمانی ساختگی نیز استفاده کنم؟ به عنوان مثال: 1 اگر شرط کامل باشد، در غیر این صورت 0، --> بنابراین مجموعه داده چیزی شبیه به 0,0,0,0,0,1,1,0,0,0,0,0,1,1,1 خواهد بود. ، 1، 1، 1 و غیره چگونه می‌توانید از زاویه‌ای دیگر به چنین مشکلی برخورد کنید، داده‌ها به وضوح فصلی هستند، آیا توزیعی وجود دارد که بتوانم از آن برای برآورد بهتر از چبیشف استفاده کنم؟
تخمین احتمال رویداد از سری های زمانی تاریخی با فصلی واضح
80654
من به دنبال یک توضیح و احتمالاً نام یک قانون سرانگشتی هستم: هنگام ترسیم N نمونه با جایگزینی از توزیع یکنواخت گسسته از مقادیر N، به احتمال زیاد: * 1/3 از مقادیر ترسیم نشده است * 1 / 3 از مقادیر دقیقا یک بار کشیده می شوند * 1/3 از ارزش ها بیش از یک بار ترسیم می شوند همانطور که من شنیدم این بود که 64 قطعه برنج را روی صفحه شطرنج انداختم و سپس با رعایت تقریباً آنچه در بالا توضیح دادم. من اغلب این را می بینم، اما می خواهم تئوری و محاسبات پشت آن را مطالعه کنم. چرا این قاعده معتبر است و آیا این قانون کلی نام دارد؟ و اگر بله کدام یک؟
قانون سرانگشتی هنگام ترسیم N نمونه از یک توزیع گسسته با N مقدار ممکن با جایگزینی
105552
فرض کنید که $X_1,X_2,\ldots,X_n$ یک نمونه تصادفی از یک توزیع با تابع احتمال است: $$p_X(x)=\begin{cases} 1/2 &x=-1,1 \\\ 0 & \ text{otherwise} \end{cases}$$ حالا اگر میانگین $\bar{X}= \frac{1}{n} \sum X_i$ را تعریف کنیم، من باید نشان داده شود که برای $n$ فرد، تابع احتمال برای $\bar{X}$ این است: $$p_{\bar{X}} (x)= \frac{\binom{n}{\frac{ n}{2} (x+1)}}{2^n}$$ برای $x=\pm 1/n،\pm 3/n،\ldots،\pm 1$، $0$ در غیر این صورت. * * * از آنجایی که $P[\sum X_i=k] =P [\bar{X}=k/n ]$، فکر می‌کردم ساده‌تر باشد که ابتدا تابع احتمال را برای مجموع استخراج کنم. از آنجایی که آنها هنوز $2^n$ n-tuples هستند و هر کدام به یک اندازه هستند، باید آنهایی را که مجموع آنها $k$ است برای: $k=\pm 1،\pm 3،\ldots \pm n-2، بشمارم. \pm n$ (از آنجایی که اعداد زوج ترکیبی عملی نیستند) مشکل اینجاست که من بلافاصله نمی‌دانم چگونه می‌توانم همه این تاپل‌ها را بشمارم. میشه لطفا در این مورد به من کمک کنید؟ اگر راحت تر است که به راه دیگری ادامه دهید، من البته همه گوش هستم.
تابع جرم احتمال میانگین نمونه
9446
### زمینه: هدف تحقیق من ارزیابی این است که آیا والدینی که در رابطه با یک مددکار اجتماعی درگیر بوده اند در معرض خطر بیشتر کودک آزاری/غفلت هستند یا خیر. من در تلاش هستم تا مشخص کنم آیا رابطه ای بین نگرش مددکاران اجتماعی نسبت به والدین وجود دارد که منعکس کننده یک نتیجه کلی از پرونده (مثبت یا منفی) باشد. من می خواهم ارزیابی کنم که آیا نگرش های مددکار اجتماعی بر پاسخ های والدین تأثیر دارد یا خیر. * پرسشنامه فقط به والدینی داده شد که با مددکار اجتماعی رابطه دارند. * 20 شرکت کننده (16 زن و 4 مرد) شرکت کردند. * من 13 مورد/سوال لیکرت خود را در یک نگرش (کلمه) برای هر کدام جمع کردم. * من همچنین ترتیب مقیاس لیکرت را هنگام وارد کردن داده ها معکوس کردم، به طوری که نمره 5 به معنای کاملاً مخالفم است، در حالی که نمره 1 به معنای کاملاً موافقم است. این به دلیل نحوه درخواست موارد Likert من انجام شد. ### سوال: * آیا می توانم با توجه به اینکه تعداد نابرابر زن و مرد وجود دارد، بین جنسیت ها تست انجام دهم؟ * چه تحلیل هایی را می توانم برای آزمایش سوال تحقیقم اجرا کنم؟
چگونه می توان تجزیه و تحلیل مقیاس لیکرت را انجام داد؟
9449
چگونه فواصل اطمینان را برای ارزش پیش بینی مثبت محاسبه می کنید؟ خطای استاندارد این است: $$SE = \sqrt{ \frac{PPV(1-PPV)}{TP+FP}} $$ درست است؟ (در اینجا نگرانی من مخرج است) آیا این فرمول برای هر نسبت مشابه در جدول 2x2 کار می کند؟ به عنوان مثال برای حساسیت، $$SE = \sqrt{ \frac{SENS(1-SENS)}{FP+TN}} $$ درست است؟ (در اینجا نگرانی من این است که تا زمانی که مخرج را درست بگیرید، قابل تعمیم به نسبت های دیگر است) و برای بازه های اطمینان 95٪: $$CI_{PPV} = PPV \pm 1.96*SE$$ آیا این درست است؟ (نگرانی من در اینجا این است که چگونه از SE به فاصله اطمینان بروم) (البته با تمام محدودیت های سلولی مانند $n\cdot p\cdot (1-p) \ge 5$)
چگونه فواصل اطمینان را برای ارزش پیش بینی مثبت محاسبه می کنید؟
105126
حدود یک رگرسیون با تورم صفر چیست؟ به طور خاص، اگر بیش از 80 درصد داده ها صفر باشد، آیا ZINB هنوز معتبر است؟ یک قانون سرانگشتی یا روش آموزشی خوب برای درک آستانه مناسب برای تعداد صفرها چیست؟
حدود دوجمله ای منفی با تورم صفر در درصد صفرها
57026
من تعدادی داده تجربی دارم که مشاهداتی از یک مقدار بعدی $n$، $x = \\{x_1، x_2، \ldots، x_n\\}$ هستند. من همچنین یک مدل پارامتری پیچیده $f(a,b)$ برای داده‌ها دارم، که برای یک انتخاب معین از $a$ و $b$، یک بردار بعدی $n$ را نشان می‌دهد $y = \\{y_1، y_2، \ldots،y_n\\}$. $y$ برای بخش خاصی با شاخص‌های $1<i, i+1,\ldots,j<n$، شبیه به $x$ است ($i$ و $j$ شناخته شده‌اند). هدف این است که $a$ و $b$ را پیدا کنید که $x$ را به بهترین شکل توصیف می کند (در مورد چگونگی بعد از لیست بیشتر). از آنجایی که برنامه واقعی من پیچیده و وقت گیر است، نمی توانم داده ها را به اشتراک بگذارم، اما برخی از مشخصات را ذکر می کنم و داده های نمونه ارائه می کنم: * من یک فرم تحلیلی برای $f$ ندارم. این یک شبیه سازی عددی پیچیده است که فقط لیستی را که $a$ و $b$ داده شده است، نشان می دهد. * توزیع اساسی برای $x$ مشخص نیست. * همه $x_i$ و $y_i$ غیر منفی هستند در اینجا چند داده نمونه (کد _Mathematica_، اما از هر زبانی که دوست دارید استفاده کنید): test = Sort@RandomReal[ChiSquareDistribution[1], {1000}]; f[a_, b_] := a Sort@RandomReal[ChiSquareDistribution[b], {1000}]^2; حالا اگر به نمودارهای داده‌های آزمایش و مدل برخی از مقادیر «a» و «b» نگاه کنیم تا خوب به نظر برسند: ListLinePlot[Log10@{test, f[0.064, 3.3]}]![تصویر 1] (http://i.stack.imgur.com/KvuZL.png) منظور من از مشابه برای یک بخش خاص (در اینجا شاخص های بین 300 تا 900). این را با انتخاب دلخواه «a» و «b» مقایسه کنید که «شبیه نیستند» ListLinePlot[Log10@{test, f[0.4, 1.3]}]![تصویر 2](http://i.stack.imgur .com/cXjUY.png) با فرض اینکه این بخش شباهت 300 – 900 شناخته شده است، چگونه مقادیر مناسب را برای a و b انتخاب کنم؟ ایده من گسسته کردن فضایی بود که توسط «a» و «b» در نظر گرفته شده است (مقادیر معقول برای هر دو _a priori_ شناخته می‌شوند، و برای موارد بالا، در صورت لزوم، می‌توانید $a\in[0.05, 1]، b\in را انتخاب کنید. [2.5,4]$) و سعی کنید ترکیبی را بیابید که $\Vert \\{x_i,\ldots,x_j\\} را به حداقل برساند - \\{y_i,\ldots,y_j\\}\Vert_p$، که در آن $p$ بسته به اینکه چگونه می‌خواهم مقادیر پرت را وزن کنم، 1 یا 2 است. در حال امتحان کردن، res = با[{t = Take[test, {300, 900}]}، Table[Norm[t - Take[f[a, b], {300, 900}], 2], {a ، 0.5، 1، 0.01}، {b، 2.5، 4، 0.01}]]؛ متاسفانه چیزی شبیه به این می دهد![تصویر 3](http://i.stack.imgur.com/AuOqj.png) که حداقل مشخصی را نشان نمی دهد. نتیجه مشابهی برای هنجار $L_1$ نیز وجود دارد... من همچنین سعی کردم $\log_{10}$ هر کدام را بگیرم و سپس خطا را پیدا کنم (آیا حتی معتبر است؟)، اما این نیز مفید نبود. به نظر می رسد در یافتن راهی برای شناسایی پارامترهای درست (یا نزدیک به سمت راست) به دیوار برخورد کرده ام. آیا می توان به جای خطای نقطه به نقطه از شیب و انحنای قطعه برای یافتن پارامترها استفاده کرد؟ من از هر گونه اشاره ای به راه حل احتمالی قدردانی می کنم. من می توانم برنامه نویسی را خودم انجام دهم و می توانم منطق را در اکثر زبان های برنامه نویسی رایج درک کنم، بنابراین این مانعی نیست. > **توجه:** داده های من _not_ $\chi^2$ توزیع شده است، و مدل نیز توزیع نشده است. این فقط نمونه‌ای است که من انتخاب کردم، زیرا می‌توانم نشان دهم که چگونه شکل در بخش یکسان است، اما نه در جای دیگر.
یافتن بهترین پارامترهای مناسب فقط برای بخش خاصی از داده ها
57027
در کتاب بیشاپ طبقه بندی الگو و یادگیری ماشین، تکنیکی را برای منظم سازی در زمینه شبکه های عصبی توضیح می دهد. با این حال، من یک پاراگراف را درک نمی کنم که توضیح دهد در طول فرآیند آموزش، تعداد درجات آزادی همراه با پیچیدگی مدل افزایش می یابد. نقل قول مربوطه به شرح زیر است: > جایگزینی برای منظم سازی به عنوان راهی برای کنترل پیچیدگی موثر شبکه، روند توقف زودهنگام است. آموزش مدل‌های شبکه غیرخطی مربوط به کاهش تکراری خطای تابع تعریف شده با توجه به مجموعه‌ای از داده‌های آموزشی است. برای بسیاری از الگوریتم‌های بهینه‌سازی مورد استفاده برای آموزش شبکه، مانند مزدوج > گرادیان، خطا یک تابع غیرافزاینده از شاخص تکرار است. با این حال، خطای اندازه‌گیری شده با توجه به داده‌های مستقل، که عموماً مجموعه اعتبارسنجی نامیده می‌شود، اغلب در ابتدا کاهش می‌یابد و پس از آن با شروع بیش از حد تناسب شبکه، افزایش می‌یابد. بنابراین می توان آموزش را در نقطه کوچکترین خطا با توجه به مجموعه داده های اعتبار سنجی متوقف کرد، همانطور که در شکل 5.12 نشان داده شده است، تا شبکه ای با عملکرد تعمیم خوب به دست آید. **رفتار شبکه در این مورد گاهی اوقات به صورت کیفی بر حسب تعداد مؤثر درجات آزادی در شبکه توضیح داده می شود، که در آن این تعداد از مقدار کم شروع می شود و سپس در طول فرآیند آموزش رشد می کند. پیوسته > افزایش پیچیدگی موثر مدل.** همچنین می گوید که تعداد پارامترها در طول دوره آموزشی افزایش می یابد. من فرض می کردم که با پارامترها به تعداد وزن های کنترل شده توسط واحدهای پنهان شبکه اشاره دارد. شاید من اشتباه می‌کنم زیرا وزن‌ها با فرآیند منظم‌سازی از افزایش بزرگی جلوگیری می‌کنند، اما تعداد آنها تغییر نمی‌کند. آیا می تواند به روند یافتن تعداد خوبی از واحدهای پنهان اشاره داشته باشد؟ درجه آزادی در یک شبکه عصبی چقدر است؟ چه پارامترهایی در طول تمرین افزایش می یابد؟
درجه آزادی در شبکه های عصبی به چه معناست؟
56374
همانطور که در حال قدم گذاشتن در پیش‌بینی با مدل‌های ARIMA هستم، سعی می‌کنم بفهمم که چگونه می‌توانم پیش‌بینی را بر اساس تناسب ARIMA با فصلی و رانش بهبود دهم. داده های من سری زمانی زیر است (بیش از 3 سال، با روند رو به بالا و فصلی قابل مشاهده، که به نظر می رسد با همبستگی خودکار در تاخیرهای 12، 24، 36 پشتیبانی نمی شود؟). > bal2sum3years.ts Jan Feb Mar Apr May Jun Jul Aug 2010 2540346 2139440 2218652 2176167 2287778 1861061 2000102 2560729 201949 2015 2594432 2362869 2509506 2434504 2680088 2689888 2012 3619060 3204588 2800260 2973428 2737696 2737696 2737696 2737696 2737696 2737696 Sep Oct Nov Dec 2010 2232261 2394644 2468479 2816287 2011 2480940 2699780 2760268 3206372 2012 2951391626 3738256 مدلی که توسط `auto.arima(bal2sum3years.ts)` پیشنهاد شد مدل زیر را به من داد: سری: bal2sum3years.ts ARIMA(0,0,0)(0,1,0)[12] با ضرایب دریفت: دریفت 31725.567 s.e. 2651.693 sigma^2 تخمین زده شده به صورت 2.43e+10: log likelihood=-321.02 AIC=646.04 AICc=646.61 BIC=648.39 با این حال، ضریب acf(bal2sum3years.ts,max.lag=35) بالاتر از acf0 را نشان نمی دهد. . با این حال، فصلی بودن داده ها کاملاً آشکار است - در ابتدای هر سال افزایش می یابد. این مجموعه در نمودار به این صورت است: ![Original Time Series](http://i.stack.imgur.com/kQi5N.png) پیش بینی با استفاده از `fit=Arima(bal2sum3years.ts,seasonal=list( order=c(0,1,0),period=12),include.drift=TRUE)` که توسط تابع forecast(fit) فراخوانی می شود، منجر به منظور از 12 ماه بعدی برابر با 12 ماه آخر داده به اضافه ثابت است. این را می توان با فراخوانی Plot(forecast(fit)، ![Actual and Forecasted Data](http://i.stack.imgur.com/GJqcG.png) مشاهده کرد. خود همبسته اما دارای میانگین مثبت (غیر صفر). به نظر من، تناسب سری زمانی اصلی را دقیقاً مدل‌سازی نمی‌کند (آبی سری زمانی اصلی، قرمز «fitted(fit)» است: ![Original vs fit](http://i.stack.imgur.com/ ux3i7.png) آیا مدل نادرست است؟ چگونه می توانم مدل را بهبود دهم؟ 12 ماهه من یک مبتدی نسبی در پیش بینی مدل ها و آمار هستم.
پیش بینی ARIMA با فصلی و روند، نتیجه عجیب
55977
بسیاری از مباحث مربوط به کسب داده برای Max-Diff مراحل زیر را شرح می دهد. * همه موارد را نشان دهید و از پاسخ دهنده بخواهید بهترین را انتخاب کند * موردی را که به عنوان بهترین انتخاب شده است حذف کنید و از پاسخ دهندگان بخواهید بهترین مورد را از بین موارد باقیمانده انتخاب کنند * تکرار کنید تا همه موارد به جز یکی انتخاب شوند آیا یک سوال با رتبه بندی استاندارد است. نتایج یکسان ایجاد نمی کند؟ پیشاپیش از همه برای هرگونه اطلاعات تشکر می کنم. پیوندهای مربوطه: http://surveyanalysis.org/wiki/Counts_Analysis_of_Max- Diff_Data http://joelcadwell.blogspot.com/2013/01/if-spss-can-factor-analyze- maxdiff.html
حداکثر تفاوت با استفاده از داده های رتبه بندی؟
56377
من نقاط داده ای دارم که شامل یک نمونه از مقدار منفی y است. با این داده ها، آیا می توان تابع فروپاشی نمایی را به گونه ای تولید کرد که از نظر ریاضی درست باشد؟ تنها متغیر X است.
چگونه مقادیر منفی Y را با رگرسیون نمایی مدیریت کنیم؟
65425
سناریو: دو فرد مختلف ضایعات را قبل و بعد از دارو بر حسب میلی متر اندازه گیری کرده اند، بنابراین داده ها پیوسته هستند. من تفاوت هر دوی این خوانندگان را در اندازه گیری ها محاسبه کرده ام و می خواهم از تفاوت میانگین برای محاسبات بیشتر استفاده کنم. برای انجام این کار فکر می کنم باید آزمایش کنم که آیا این اندازه گیری ها خیلی متفاوت نیستند یا خیر؟ چگونه این کار را انجام دهم؟ من به آزمایش تی زوجی فکر کردم زیرا اندازه گیری ها روی همان بیماران انجام شده است ... اما احساس می کنم درست نیست. ایده ها؟
کدام آزمایش برای بررسی اینکه آیا دو مجموعه از داده های پیوسته قابل مقایسه هستند یا خیر
92824
هنگامی که چندین متغیر را به یک نتیجه از طریق تابع lm() در R برازش می دهیم، summary(lm) مقادیر p را برای رگرسیورهای فردی به من می دهد، اما برای مدل کامل در یک مدل به راحتی قابل استخراج نیست (مانند دسترسی به فیلدها). ) نوعی راه. با توجه به این سوال، با استفاده از دستور pf(x$fstatistic[1],x$fstatistic[2],x$fstatistic[3] می‌توان مقدار p را از طریق `summary(lm)$fstatistic[3] استخراج کرد. ,lower.tail=FALSE) با این حال، در حالی که در مثال پیوند داده شده همان p-value را ارائه می دهد که چاپ شده است، من یک مقدار متفاوت دریافت می کنم: > summary(model) # ... خطای استاندارد باقیمانده: 1.533 در 371 درجه آزادی (555 مشاهده حذف شده به دلیل عدم وجود) R-squared چندگانه: 0.3364، R-squared تعدیل شده: 0.2864 F-آمار: 6.718 در 28 و 371 DF، p-value: f16 و 2: <2. = خلاصه (مدل)$fstatistic > pf(f[1],f[2],f[3]lower.tail=F) مقدار 5.948007e-20 دلایل ممکن برای متفاوت بودن این مقادیر چیست و کدام یک درست برای اهمیت کل مدل؟
استخراج مدل p-value برای رگرسیون چندگانه در R
16448
من از چهار گونه باکتری ژن دارم. من یک نمودار غیرمجاز از شباهت توالی بین تمام ژن های این باکتری ها ساختم. هر گره در نمودار یک ژن است و هر لبه شباهت بین دو ژن است. من این نمودار را با استفاده از نرم افزار MCL به دسته های زیرگراف ژن های مشابه تقسیم کردم. چهار گونه باکتری که من استفاده می کنم بر اساس پاسخ آنها به شرایط محیطی به دو گروه (A & B) تقسیم می شوند. من می‌خواهم خوشه‌هایی از ژن‌ها را از نمودارم شناسایی کنم که این پاسخ را تولید می‌کنند. به بیان دیگر، می‌خواهم معیاری برای یافتن خوشه‌هایی ایجاد کنم که A را از B متمایز می‌کنند. عموماً هر خوشه دارای ژن‌هایی از هر چهار گونه است. بهترین راه برای انجام این کار چه خواهد بود؟ یک ایده من این بود که میانگین وزن را بین تمام گره های نوع A در یک خوشه تعیین کنم و سپس بر میانگین وزن لبه خوشه تقسیم کنم. مقادیر بیشتر از 1 نشان می‌دهد که ژن‌های نوع A ارتباط نزدیک‌تری با یکدیگر دارند.
معیاری برای شناسایی زیرگراف های متمایز گراف بزرگتر؟
56373
هنگام خواندن مشتق مدل های LDA، معمولاً معادلات زیر را دریافت می کنم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hZYho.jpg) من مرحله دوم را کاملاً متوجه نشدم، جایی که $p(\mathbf{z}_{-i}،\mathbf {w}|\alpha،\beta)$ حذف شد. دلیل آن این است که هنگام مطالعه $z_{i}$ می توان آن را به عنوان یک ثابت در نظر گرفت. من می دانم که این یک رویه رایج در آمار بیزی است، اما مطمئن نیستم که $p(\mathbf{z}_{-i},\mathbf{w}|\alpha,\beta)$ ثابت است یا خیر.
درک اشتقاق یک معادله در مدل سازی LDA
16193
من یک جدول احتمالی بزرگ ایجاد می‌کنم تا تفاوت بین دسته‌ای از جمعیت‌شناسی (طبقه‌ای) در گروه‌ها را خلاصه کنم. می‌خواهم بدانم فواصل اطمینان برای هر سلول در برگه متقاطع متناسب چقدر است و آیا نسبت هر گروه جمعیتی در هر نمونه از نظر آماری با تصادفی متفاوت است؟ بگویید من داده های زیر را دارم: > set.seed(1) > y <- sample(factor(c(نتیجه 1، نتیجه 2، نتیجه 3، نتیجه 4))، 1000، جایگزین = T) > x1 <- نمونه (c(مذکر، مونث)، 1000، جایگزین=T) > x2 <- نمونه(c(شغل تمام وقت، شاغل پاره وقت، نه در نیروی کار، NA)، 1000، جایگزین=T) > > جدول(x1, y) y x1 نتیجه 1 نتیجه 2 نتیجه 3 نتیجه 4 زن 123 126 124 108 مرد 121 150 108 140 > round(prop.table(table(x1, y), 2) * 100, 1) y x1 نتیجه 1 نتیجه 2 نتیجه 3 نتیجه 4 زن 50.4 45.7 53.4 43.5 مرد 49.6 54.3 46.6 > y 56. نتیجه 1 نتیجه 2 نتیجه 3 نتیجه 4 شاغل تمام وقت 57 64 65 77 شاغل پاره وقت 66 80 57 53 نه در نیروی کار 57 61 51 58 > گرد(میزبرقی(جدول(x2, y), 2) * 100, 1 ) y x2 نتیجه 1 نتیجه 2 نتیجه 3 نتیجه 4 شاغل تمام وقت 31.7 31.2 37.6 41.0 شاغل پاره وقت 36.7 39.0 32.9 28.2 غیر در نیروی کار 31.7 29.8 29.5 30.9 چگونه می توانم چنین جدولی را در R محاسبه کنم؟ من مقالاتی را خوانده ام که در آنها از آزمون دقیق فیشر برای این منظور استفاده شده است، اما به نظر من فقط برای جداول 2×2 مفید است.
چگونه می توانم فواصل اطمینان را محاسبه کنم و اهمیت آماری را برای هر سلول در جدول احتمالی تعیین کنم؟
105693
در کتاب آمار OpenIntro مشخص شده است که نمونه های بیماران داوطلبانه قابل تعمیم نیستند. چرا نمی توان نمونه ای از بیماران داوطلبانه را تعمیم داد؟
چرا نمی توان نمونه ای از بیماران داوطلبانه را تعمیم داد؟
91699
من با مشکل تشخیص خودکار مناطق پیوستگی در یک بردار مواجه شدم. من تعداد زیادی از این بردارها را دارم، صدها مورد. یک نمونه از این بردارها اینجاست. اساساً با نگاه کردن به بردار، می توان دید که مناطقی از پیوستگی وجود دارد، سپس می شکند، مقداری پرش می کند، و سپس ناحیه دیگری از تداوم دارد و غیره. این راه حل توسط یکی از دوستان خوب در خبرخوان به من ارائه شد: v = [ 9 18 21 58 59 60 63 66 69 70 72 74 ... dv = diff([0 v]); % ایجاد تفاوت بردار dvs = [mean(dv) std(dv)]; % تعیین میانگین & std dvd = [0 find(dv > 1.96*dvs(2)+dvs(1)) length(v)]; % از «dvs» برای شناسایی ناپیوستگی ها و ایجاد بردار مرجع شاخص برای k1 = 1:length(dvd)-1 در مقابل{k1} = v(dvd(k1)+1:dvd(k1+1)-1) استفاده کنید. % ایجاد آرایه سلولی از مناطق مورد علاقه vi{k1} = [dvd(k1)+1 dvd(k1+1)-1]; ٪ ایجاد آرایه مرجع از شاخص های شروع پایان برای مناطق در مقابل پایان این کار فوق العاده است و از فاصله اطمینان 95٪ برای پیدا کردن نقاط شروع و پایان شاخص های مناطق استفاده می کند. می دانم که کار می کند؛ من فقط می خواهم بدانم چرا و چگونه کار می کند. آمار نقطه قوت من نیست، بنابراین هر چیزی را که می توانم مربوط به راه حل ارائه شده پیدا کنم با جزئیات مطالعه کرده ام. آمار واقعاً برای من جذاب است که چگونه می توان فرضیاتی را هوشمندانه بر اساس یک نمونه ایجاد کرد و آنها را درست تشخیص داد. من می خواهم به طور کامل عملکرد راه حل ارائه شده را درک کنم. بر اساس آنچه خواندم و فهمیدم، این درک من از توضیح است (لطفاً توجه داشته باشید که من اصلاً پایه ای در آمار ندارم، بنابراین ممکن است در اینجا خیلی ابتدایی صحبت کنم). آیا کسی که در آمار قوی است می تواند این موضوع را روشن کند؟ فاصله اطمینان 95٪ اساساً می گوید که من 95٪ مطمئن هستم که میانگین یک احتمال در این حدود است [a, b]. و این را می توان با فرمول محاسبه کرد: $x \pm 1.96 (std/\sqrt n)$ که $x$ میانگین است، $std$ انحراف استاندارد و $n$ اندازه نمونه است. و این فاصله اطمینان فقط برای توزیع نرمال اعمال می شود. با قضاوت بر اساس من، نمونه ها به عنوان نمونه هایی با توزیع نرمال (بین پرش ها) مشاهده شدند. با دانستن اینکه این توزیع‌ها نرمال هستند، به سادگی یافتن فواصل اطمینان آنها، نقطه شروع و پایان یک نمونه توزیع شده نرمال را نشان می‌دهد. و این چیزی است که در این خط می گذرد: dvd = [0 find(dv > 1.96*dvs(2)+dvs(1)) length(v)]; جایی که «find» شاخص‌های نقاطی را که معادله فاصله اطمینان صادق است، پیدا می‌کند، اما چرا بردار اختلاف «dv»؟ و چرا از آن در دستور شرط استفاده می شود؟ چرا حتی یک بردار تفاوت ایجاد کنیم؟ و چرا از آن در خط بالا استفاده می شود؟ این بر اساس آنچه امروز خواندم است، بنابراین ممکن است خیلی دور باشم. آیا من در راه درست هستم؟ آیا درک من درست است؟ متشکرم.
آیا درک من از این راه حل «فاصله اطمینان» درست است؟
105833
من ویژگی‌های کاربر و ویژگی‌های آیتم را در سیستم توصیه‌گر خود با استفاده از یک رویکرد SVD اصلاح‌شده که بر اساس ALSE ساخته شده است (به طور ضعیف بر اساس مقاله Yehuda Koren) استخراج کرده‌ام. اکنون می‌خواهم آیتم‌ها را مستقیماً بر اساس اندازه‌گیری شباهت فاصله/ کسینوس صرفاً خوشه‌بندی نکنم، بلکه از ویژگی‌های استخراج‌شده و گرفتن شرایط نهفته یاد بگیرم که ممکن است در خوشه‌بندی مفید باشد. من روش خوشه بندی طیفی مبتنی بر هسته را به عنوان بخشی از بسته R 'kernlab' با استفاده از روش specc امتحان می کنم. من 2 تا شک دارم: 1\. چگونه 'k' را انتخاب کنم (برابر با فضای ابعادی کاهش یافته و همچنین # خوشه ها)؟ برای یک انتخاب معین از 'k'، سیگما برای به حداقل رساندن SOS درون خوشه ای بهینه شده است. اما در یک مفهوم گسترده تر، برای انتخاب # خوشه ها چه کاری باید انجام دهم؟ مردم روش شکاف ویژه را پیشنهاد می کنند (یعنی بر اساس تفاوت بین مقادیر ویژه متوالی. اما برای آن شما به یک مقدار سیگما نیاز دارید تا بردارهای ویژه را بدست آورید. بنابراین چه مقدار سیگما که من می دهم تفاوت را تعیین می کند. من گیج هستم که چه کار کنم). 1. آیا راهی برای به روز رسانی تدریجی مدل به جای اجرای مجدد الگوریتم خوشه بندی از ابتدا در صورت اضافه شدن موارد جدید وجود دارد؟ ممنون میشم اگه کسی سریع جواب بده با تشکر
خوشه بندی طیفی با استفاده از تابع هسته RBF در R
105699
من در مورد glmmLasso می دانم اما ترجیح می دهم از توری الاستیک استفاده کنم. نمی‌دانم که آیا آنالوگ‌های glmm از «glmnet» وجود دارد یا اینکه آیا کسی روی آن کار می‌کند. در جستجوهایم چیزی پیدا نکردم. با تشکر
پکیج توری الاستیک برای مدل های جلوه های ترکیبی؟
61966
من روی الگوریتمی کار می کنم که بردار جدیدترین نقطه داده را از تعدادی جریان حسگر گرفته و فاصله اقلیدسی را با بردارهای قبلی مقایسه می کند. مشکل این است که جریان‌های داده‌های مختلف از حسگرهای کاملاً متفاوتی می‌آیند، بنابراین گرفتن یک فاصله اقلیدسی ساده به‌طور چشمگیری بر برخی از مقادیر تأکید می‌کند. واضح است که من به راهی برای عادی سازی داده ها نیاز دارم. با این حال، از آنجایی که الگوریتم به گونه ای طراحی شده است که در زمان واقعی اجرا شود، من نمی توانم از هیچ اطلاعاتی در مورد جریان داده به عنوان یک کل در نرمال سازی استفاده کنم. تا کنون من فقط بزرگترین مقدار مشاهده شده برای هر سنسور در مرحله راه اندازی (500 بردار داده اول) را دنبال کرده و سپس تمام داده های آینده آن سنسور را بر آن مقدار تقسیم کرده ام. این به طرز شگفت انگیزی خوب کار می کند، اما بسیار بی ظرافت به نظر می رسد. من شانس زیادی برای یافتن یک الگوریتم از قبل موجود برای این کار نداشتم، اما شاید من فقط در مکان های مناسب جستجو نمی کنم. کسی یکی را می شناسد؟ یا ایده ای دارید؟ من یک پیشنهاد برای استفاده از میانگین در حال اجرا دیدم (احتمالاً توسط الگوریتم ولفورد محاسبه شده است)، اما اگر این کار را انجام دهم، چندین قرائت با یک مقدار یکسان نشان داده نمی شوند، که به نظر یک مشکل بسیار بزرگ است، مگر اینکه من من چیزی را از دست داده ام هر فکری قدردانی می شود! با تشکر
الگوریتم برای عادی سازی بلادرنگ داده های سری زمانی؟
61967
با توجه به توزیع احتمال مشترک بر روی متغیرهای $X_1,X_2,\dots,X_n$. آیا الگوریتمی برای ساخت شبکه بیزی مربوطه وجود دارد؟
یافتن شبکه بیزی مربوط به توزیع احتمال مشترک از پیش تعریف شده
65422
محصولی که طراحی می‌شود یک سال ضمانت بدون خرابی دارد و مهندسان در حال برنامه‌ریزی مجموعه‌ای از آزمایش‌ها برای برآورد قرار گرفتن در معرض ضمانت ما هستند. بر اساس روش تجزیه و تحلیل فاصله اطمینان دوجمله ای شرح داده شده در بخش 7.2.4.1 کتاب راهنمای الکترونیکی روش های آماری NIST/SEMATECH، من موارد زیر را قبل از آزمون محاسبه کرده ام. من از فواصل دقیق برای تعداد کمی از خرابی ها استفاده کردم. * اگر از یک نمونه تصادفی 20 واحدی، 4 واحد در آزمون شبیه‌سازی گارانتی 1 ساله مردود شوند، معتقدم می‌توانیم بگوییم که 90 درصد اطمینان داریم که میزان نقص جمعیت بین 7.1 تا 40.1 درصد خواهد بود. نمونه تصادفی 20 واحدی، 1 واحد در آزمون شبیه سازی گارانتی 1 ساله مردود می شود، من معتقدم می توانیم بگوییم که 90٪ هستیم مطمئن باشید که میزان نقص جمعیت بین 0.26٪ و 21.6٪ خواهد بود * اگر از یک نمونه تصادفی 20 واحدی، 0 واحد در آزمون شبیه سازی گارانتی 1 ساله مردود شوند، من معتقدم که می توانیم بگوییم که 90٪ مطمئن هستیم که نقص جمعیت نرخ 13.9 ٪ یا کمتر خواهد بود. * اگر از یک نمونه تصادفی 1 واحدی، واحدهای صفر در آزمون شبیه سازی گارانتی 1 ساله مردود شوند، معتقدم می توانیم بگوییم که 90٪ مطمئن هستیم که میزان نقص جمعیت 95٪ یا کمتر خواهد بود. اکنون با فرض اینکه هیچ شکستی در مرحله یک ساله آزمایش (ها) رخ ندهد، ادامه آزمایش (ها) پس از دوره ضمانت یک ساله با مقداری مزیت متناظر با اطمینان خاطر مطلوب است زیرا ساخت واحدهای آزمایشی پرهزینه است. آیا می توان رویه تحلیل فوق را برای پاسخ به سؤالات زیر در زمانی که زمان آزمایش شبیه سازی از دوره گارانتی واقعی فراتر رفت، گسترش داد؟ 1. در سطح اطمینان 90 درصد، اگر تست شبیه سازی گارانتی 1.5 ساله روی 1 واحد اجرا شود و آن واحد شکست نخورد، حد بالا و پایین نرخ نقص جمعیت چیست؟ 2. در سطح اطمینان 90 درصد، در صورتی که 2 واحد گارانتی شبیه سازی شود، حدود نرخ عیب جمعیت چقدر است. یک واحد در 1.5 سال از کار می افتد و دیگری در 4 سال؟ 3. آیا می توان از مونت کارلو در اینجا برای کمک به پاسخ/اعتبار به این سؤالات استفاده کرد؟ با تشکر فراوان برای هر راهنمایی
مهندسی قابلیت اطمینان: اندازه گیری نسبت محصولات معیوب در چندین نقطه زمانی با استفاده از واحدهای آزمایشی یکسان
16445
من می خواستم مقادیر ویژه و بردارهای ویژه را برای یک ماتریس غیر مربع محاسبه کنم و می دانم که از روش svd استفاده می شود. اما، با توجه به سابقه ضعیفم، نمی‌دانم چگونه مقادیر ویژه و بردارهای ویژه را از ماتریس‌های «u»، «d» و «v» کشف کنم.
چگونه بردار ویژه/مقدار یک ماتریس غیرمربع را در R محاسبه می کنید؟
93882
من نمونه ای از داده ها را دارم که تعداد یک مقدار معین تقریباً متناسب با مقدار واقعی افزایش می یابد. به عنوان مثال، مقدار 22 حدود 22 بار و مقدار 30 حدود 30 بار رخ می دهد. اگر به خاطر بیاورم این همان چیزی است که توسط یک مدل احتمال خطی توصیف شده است. با این حال، من تقریباً مطمئن هستم که توزیع اساسی نرمال است و مشکل مربوط به نمونه ای است که ارائه شده است. متأسفانه راه آسانی برای تغییر این نمونه وجود ندارد و هر پیشنهادی که شامل نمونه جدید باشد باید آخرین راه حل تلقی شود. آیا راهی برای استفاده از شهود در مورد توزیع زیربنایی داده ها برای مدل سازی نمونه وجود دارد؟ آیا روش های شناخته شده ای برای رسیدگی به این نوع مشکل وجود دارد؟
تبدیل / ارزیابی (احتمالا) داده های عادی از نمونه با توزیع احتمال خطی
81651
من سعی می کنم بفهمم که چگونه نتایج به دست آمده هنگام تخمین GAMM با استفاده از mgcv را تفسیر کنم. این مدل فرضی را در نظر بگیرید: M <\- گام (Y ~ offset(nn) + s(X، توسط = Z) + Z، تصادفی = لیست(id = ~ 1)) که در آن: Y - متغیر وابسته X - پیش بینی کننده nn - متغیر به عنوان آفت Z - متغیر کمکی عامل به عنوان تعامل با X، سپس به عنوان یک عبارت پارامتری، و همچنین id - عامل به عنوان یک عبارت تصادفی گنجانده شده است. نمودارهای خروجی، Y و پیش بینی X رابطه مثبت خوبی را نشان می دهند. با این حال، وقتی به پارامترهای تخمین زده شده در شی lme نگاه می کنیم، تخمین b برای X منفی است. من گیج می شوم، زیرا همیشه فکر می کردم وقتی b برای یک متغیر معین منفی است، باید کاملاً واضح باشد که این متغیر تأثیر می گذارد. Y منفی آیا می دانید که چرا نمودارها رابطه مثبت بین Y و X را نشان می دهند در حالی که تخمین b برای X منفی است؟ به سلامتی
تخمین پارامتر منفی اما رابطه مثبت در گام
57020
اجازه دهید $\theta$ مجموعه پارامترهای یک مدل شبکه بیزی باشد. مدل مقداری داده $D$ را مشاهده می کند. سپس می‌خواهم مقادیر برخی از داده‌های جدید $D$ را پیش‌بینی کنم. چرا مطلب زیر درست است؟ $$ p(D'|D) = \int p(D'|\theta)p(\theta|D) d\theta $$ آیا از برخی دستکاری‌های قانون بیز ناشی می‌شود؟ یا فرمول ارزش مورد انتظار؟
چگونه می توانم چنین مقداری را از مدل شبکه بیزی پیش بینی کنم؟
11923
آیا متغیرهای کمکی در صورت همبستگی با متغیر وابسته یا اگر با متغیر/های پیش بینی کننده همبستگی دارند، باید در تحلیل رگرسیون گنجانده شوند؟ از طرف دیگر، آیا آنها باید در نتیجه یافته های گذشته (نسبتا قوی) که به طور قابل توجهی با متغیرهای پیامد و/یا پیش بینی مرتبط هستند، لحاظ شوند؟
متغیرهای کمکی در مدل های رگرسیون
57025
من سعی می کنم تحلیل کنم که آیا بین دو سری زمانی همبستگی وجود دارد؟ تا کنون نتوانسته ام هیچ ارتباط معنی داری را مشاهده کنم. بنابراین، اگر بخواهم در گزارش خود ادعا کنم که این سری‌های زمانی با هم مرتبط نیستند، حداقل آزمایش‌ها/آزمون‌ها/معیارها/نتایج که باید برای حمایت از ادعای خود ارائه کنم کدامند؟
تست هایی برای ایجاد همبستگی
97746
من روی این هویت کار می کنم $$\sum_{i-1}^n (y_i - \hat {\beta_0} - \hat {\beta_1}x_i)^2 = \sum_{i=1}^n y_i^ 2 - \hat {\beta_0}\sum_{i=1}^n y_i - \hat {\beta_1} \sum_{i=1}^n x_iy_i$$ من اینها را دارم روابط کار با: $$\hat {\beta_1} = \frac { n\sum_{i_1}^n x_iy_i - \left ( \sum_{i=1}^n x_i \right ) \left ( \sum_{i =1}^n y_i \right )}{ n \left ( \sum_{i=1}^n x_i^2 \right ) -\left (\sum_{i=1}^n x_i \right )^2 }$$ $$ \hat {\beta_0}= \overline {y} - \hat {\beta_1} \overline {x}$$ کمی دستکاری همچنین $$\hat {\beta_1}= \frac { \sum_{i=1}^n ( x_i - \overline {x}) y_i}{ \left ( \sum_{i=1}^n x_i^2 \right ) -n \overline {x}^2 }$$ استراتژی من باید $\hat {\beta_1}$ را از معادله جایگزین کند، اما من فقط به دریافت کردن ادامه می‌دهم $\overline {y}$ با عبارات بسیار زیاد و نه هیچ شرایطی با $y_i$. فرمول $\hat {\beta_1}$ بسیار پیچیده است که نمی توان با آن کار کرد. چه چیزی را از دست داده ام؟
هویت در مدل خطی ساده
22935
برای محاسبه حجم نمونه مورد نیاز بر اساس فاصله اطمینان عرض مورد نیاز و نسبت حدس زده شده به این لینک مراجعه می کنم. من متوجه شدم که هنگام محاسبه نمونه از روش مجانبی استفاده می شود. با دانستن اینکه روش ویلسون روش بهتری برای تخمین CI برای نسبت [a] است. نمی دانم آیا روش ویلسون برای تخمین حجم نمونه وجود دارد؟ (ترجیحا یک بسته در R استفاده شود)، با تشکر. [الف]: الف آگرستی و ب.الف. Coull، تقریبی بهتر از «دقیق» برای تخمین بازه‌ای نسبت‌های دوجمله‌ای است، آمارگر آمریکایی، 52:119-126، 1998.
برنامه ریزی اندازه نمونه با عرض CI مورد نیاز و گزاره حدس زده، با استفاده از روش ویلسون.
65421
من سعی می کنم دو مدل را با هم مقایسه کنم. من ریشه میانگین مربعات خطا (RMSE) را دارم اما رضایت بخش نیست. به همین دلیل است که سعی می کنم میانگین درصد مطلق خطا (MAPE) را محاسبه کنم. آیا بسته ای در R وجود دارد که بتوانم میانگین درصد مطلق خطا را محاسبه کنم؟
ارزیابی عملکرد یک مدل: MAPE در R
61961
این می تواند یک سوال بسیار ابتدایی باشد، من در مورد دانش آمارم کمی زنگ زده هستم. **زمینه:** من عملکرد زمان بارگذاری وب سایت را نظارت می کنم. برای انجام این کار، من یک اسکریپت در حال اجرا و گرفتن نقاط داده (حدود 400) در زمان بارگذاری از طریق عوامل مختلف دارم. هر عاملی در مکان‌های جغرافیایی متفاوتی قرار دارد، اما مراحل یکسانی را اندازه‌گیری می‌کند. من می خواهم تعیین کنم که آیا تفاوت آماری بین نمایندگان وجود دارد یا خیر. بنابراین اگر کسی به طور مداوم عملکرد زمان بارگذاری کندتر را گزارش می‌کند، می‌خواهم بدانم آیا دلیل آن عامل است یا نه. من تصاویر را اضافه می کنم اما به 10 امتیاز شهرت نیاز دارم و به تازگی در مورد این وب سایت مطلع شدم. **مشکل:** من دو مجموعه داده از عوامل مختلف دارم که ثانیه های دانلود یک وب سایت را اندازه گیری می کنند، هر دو به شکل زنگ هستند اما به شدت به سمت راست منحرف شده اند. آیا هنوز هم می توانم ANOVA را انجام دهم تا مشخص شود که آیا تفاوت وجود دارد، حتی اگر آنها کج هستند؟ پیشاپیش ممنون
اریب اما زنگی شکل هنوز به عنوان توزیع نرمال برای ANOVA در نظر گرفته می شود؟
81657
من می خواهم از R برای ایجاد طرح های کاشت تصادفی استفاده کنم - ترسیم گیاهان به صورت دستی (CAD) نه تصادفی است و نه کارآمد - هدف من لیستی از گیاهان در یک منطقه نامنظم (حداکثر 10000 بوته) با تعداد و موقعیت های مربوطه است. . این از نقاط (درخت) با قطرهای مختلف، با نسبت پوشش برای هر درخت، و سطح از پیش تعریف شده ای از نحوه جذب یا دفع نقاط مانند تصویر پیوست استفاده می کند. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/ksrTc.jpg) تصادفی واقعی رخ نمی دهد زیرا نقاط واقعا مستقل نیستند. حداکثر پوشش گیاهی (محدوده 50٪ تا 100٪) احتمالاً یک مشکل بسته بندی دایره ای خواهد بود، اما در جایی که بسته بندی تصادفی است - بنابراین حداکثر تعداد دایره هایی که با منطقه متناسب هستند در حالی که تا حد امکان تصادفی هستند، نتیجه آن 100 خواهد بود. % پوشش. ذهن (غیرآماری) من به من می‌گوید که این عدد می‌تواند تعداد دایره‌ها را برای اجراهای بعدی مدل برای پوشش‌های <100% نشان دهد. قبل از اینکه این کار را بیشتر انجام دهم آیا این قابل انجام در R است، و اگر چنین است چه مراحلی باید انجام دهم؟
ایجاد طرح های کاشت نیمه تصادفی در R
105695
می‌خواهم بدانم چرا 1/N * جمع (y/x) تخمین‌گر بدتری نسبت به میانگین y تقسیم بر میانگین x است. این در زمینه ساخت تخمین‌گر نسبتی است که در آن نسبت چیزی شبیه هزینه به ازای هر نفر و غیره است. من از داده‌های نمونه نیز استفاده می‌کنم. پیشاپیش ممنون
سوگیری از تخمین نسبت؟
49228
من در حال طراحی آزمایشی با استفاده از طراحی D-Optimal هستم. با طراحی کامل فاکتوریل باید 200 اجرا انجام دهم. با D-optimal می‌توانم تعداد اجراهایی را که می‌خواهم انجام دهم انتخاب کنم و طراحی را با استفاده از مقدار D-efficiency ارزیابی می‌کنم. سوال من این است که وقتی تعداد اجراها را تغییر می‌دهم، مقدار D-efficiency به ترتیب 0.001 تغییر می‌کند. آیا کسی می تواند به من نشان دهد که چرا این اتفاق می افتد؟ وقتی تصمیم گرفتم آزمایش های زیادی را اجرا کنم، انتظار داشتم تعداد بیشتری داشته باشم. پیشاپیش از شما متشکرم
مقدار بازده D در طراحی آزمایش بهینه D تغییر نمی کند
11927
آیا کسی می تواند به من بگوید که اصطلاح تداوم در تحلیل سری های زمانی به چه معناست؟ مربوط به اقتصاد سنجی و رگرسیون کاربردی است.
ماندگاری در سری های زمانی
61962
من با تفاوت بین میانگین گرفتن نمونه های بیشتر و گرفتن میانگین نمونه با مشاهدات بیشتر کاملاً گیج شده ام. آیا با نمونه برداری بیشتر از مشاهدات بیشتر، تخمین های بی طرفانه ای به دست می آورید؟
آیا بین گرفتن نمونه های بیشتر و نمونه ای با مشاهدات بیشتر تفاوتی وجود دارد؟
105691
طرح تحقیق من به شرح زیر است: یک بازی آزمایشی با 4 شرکت کننده (آزمودنی های انسانی)، که برای 20 دور تکرار می شود. در طول هر دور، شرکت کنندگان مجاز به تشکیل ائتلاف های دوجانبه هستند که تا پایان یک دور تجمیع می شوند. از این رو، شش ائتلاف ممکن مختلف وجود دارد، اما حداکثر دو ائتلاف می توانند در طول یک دور ظاهر شوند. همان تنظیمات از طریق شبیه سازی آزمایش می شود، جایی که عوامل شبیه سازی از قوانین تصمیم گیری از پیش تعیین شده برای تشکیل ائتلاف پیروی می کنند، تفاوت با آزمایش این است که همه دورهای شبیه سازی مستقل هستند. برای آزمایش و شبیه‌سازی، من داده‌هایی در مورد تعداد دفعاتی که هر ائتلاف خاص تشکیل شده است، دارم. می توان آن را به صورت بصری بر روی یک نمودار میله ای نشان داد، که در آن هر نوار رنگی مربوط به هر یک از ائتلاف های ممکن است، و محور عمودی تعداد دفعات رخ دادن آن را نشان می دهد (متغیرهای شمارش). ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/nhKTZ.png) ایده کلی من این است که بفهمم آیا روابط ائتلافی پایدار بین شرکت کنندگان در آزمایش در حین بازی مکرر ظاهر می شود یا خیر: برای مثال، آیا شرکت کننده 1 تمایل به تشکیل ائتلاف با شرکت کننده 2 بیشتر از سایر بازیکنان دارد. برای این منظور، من می خواهم آزمایش کنم: 1. آیا تفاوت های آماری بین فراوانی وقوع ائتلاف های مختلف وجود دارد یا خیر. 2. آیا توزیع فراوانی مشاهده شده تجربی از نظر آماری با معیار نظری متفاوت است (هر ائتلاف با احتمال 1/6=0.15 برابر رخ می دهد). با توجه به اینکه من در حال کار کردن داده های شمارشی هستم که (الف) به طور معمول توزیع نشده است، (ب) تا حد زیادی منحرف است (یک نتیجه عددی اغلب صفر است) آزمون مناسب در این مورد چه خواهد بود؟
آزمون ناپارامتری برای داده‌های شمارش تا حد زیادی منحرف شده است
94054
من یک سری روش دارم که یک نتیجه باینری را طبقه بندی می کند. من سعی می کنم بفهمم که آیا ترکیبی از آن دسته بندی کننده ها بهتر از سایرین است یا خیر. امیدوارم بتوانم روش های مختلفی را اجرا کنم. من به اجرای جنگل های تصادفی / گاری و شاید یک مدل SVM فکر کرده ام. چه روش های رایج دیگری برای این کار انجام می شود؟
الگوریتم هایی برای انتخاب بهترین مجموعه طبقه بندی کننده ها
94052
من یک سری زمانی به صورت ماهانه دارم (یک کالا) که تغییرات زیادی در آن به دلیل آب و هوا ایجاد می شود. من می خواهم این کالا را برای تغییرات آب و هوا تنظیم کنم. من از درجه حرارت روز به عنوان پروکسی برای شرایط آب و هوایی استفاده می کنم (اگر میانگین دمای یک روز زیر یک مقدار آستانه باشد، قدر مطلق تفاوت درجه گرمایش برای یک روز است. این برای تمام روزهای یک ماه خلاصه می شود. .) مهم: من قبلاً برای سریال برای فصلی تنظیم شده بودم. چگونه باید ادامه دهم؟
چگونه تغییرات یک سری زمانی X ناشی از سری زمانی دیگر Y را حذف کنیم؟
97745
در یک توزیع نرمال استاندارد چگونه با مقدار Z$$ بزرگتر از 3 برخورد کنم؟ من می دانم که محدوده های z-score از -3 تا 3 است. این یکی را در نظر بگیرید ... میانگین = 70، انحراف استاندارد = 4 من باید $P(65 < X < 85)$ را پیدا کنم. تبدیل به حالت عادی استاندارد $P(-1.25 <Z <3.75)$ می دهد چگونه با $3.75$ برخورد کنیم؟ ویرایش *در واقع از 3 بیشتر نیست، $z < 3.75$. منظورم کوچکتر از این بود، ببخشید. آیا باید فرض کنم که فقط 0.4990 باشد یا چه؟
چگونه با Z-score بیشتر از 3 برخورد کنیم؟
56953
سوال من به تفکیک پذیری خطی با ابرصفحه ها در یک ماشین بردار پشتیبان مربوط می شود. آیا می توان بعد بهینه ای را تعیین کرد که در آن باید مجموعه داده های آموزشی را برای جداسازی خطی تبدیل کنم؟ چگونه می توانم ابعاد فضای تبدیل شده را تعیین کنم؟
در مسائل طبقه بندی باینری غیرخطی، کدام بعد بهینه برای جداسازی خطی آن است؟
81656
من مطمئن نیستم که چگونه برای اثرات اصلی و اثرات متقابل بین متغیرهای تعدیل کننده چندگانه در متافور آزمایش کنم. آیا این کار را درست انجام می دهم؟ مجموعه داده من بسیار بزرگ است، بنابراین ما با مجموعه داده عنبیه بازی خواهیم کرد. ایجاد مجموعه داده sp <- gsub(setosa، 0، iris$Species) sp <- gsub(versicolor، 1، sp) iris$Species <- as.numeric(gsub(virginica, 2، sp)) iris$var <- rep(c(0,1,2), nrow(iris)/3) من فکر می‌کنم این به درستی برای بررسی اثرات اصلی و تعاملی بین دو ناظم است متغیرهای «Species» و «var» rma(Sepal.Length، Petal.Length، mods = ~ Species * var -1، data = iris) مدل اثرات مختلط (k = 150؛ tau^2 برآوردگر: REML) tau^2 (مقدار تخمینی ناهمگنی باقیمانده): 3.8158 (SE = 0.8043) تاو (ریشه دوم مقدار تخمینی tau^2): 1.9534 I^2 (ناهمگنی باقیمانده / تغییرپذیری حساب نشده): 58.63% H^2 (تغییرات حساب نشده / تنوع نمونه برداری): 2.42 تست ناهمگنی باقیمانده: QE(df = 147) 0 = 307. , p-val < 0.0001 تست مدیران (ضریب(های) 1،2،3): QM(df = 3) = 574.7435، p-val < 0.0001 نتایج مدل: تخمین se zval pval ci.lb ci.ub گونه 3.8987 0.3038 12.8333 <.0001 3.49 * 4.303 ** var 3.0421 0.2400 12.6769 <.0001 2.5718 3.5124 *** گونه:var -1.8851 0.2761 -6.8284 <.0001 -2.4262 -1.3440 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 و با افزودن 'factor()' فراخوانی به هر ناظم به سادگی تخمین ها و CI برای هر سطح از هر ناظم را دریافت می کند. rma(Sepal.Length، Petal.Length، mods = ~ factor(Species) * factor(var) -1، data = iris) مدل اثرات مختلط (k = 150؛ برآوردگر tau^2: REML) tau^2 (مقدار تخمینی ناهمگنی باقیمانده): 0 (SE = 0.2714) تاو (ریشه دوم مقدار tau^2 برآورد شده): 0 I^2 ( ناهمگنی باقیمانده / تغییرپذیری حساب نشده): 0.00٪ H^2 (تغییرات حساب نشده / تنوع نمونه برداری): 1.00 آزمون ناهمگونی باقیمانده: QE(df = 141) = 10.7649، p-val = 1.0000 آزمون تعدیل کنندگان (ضریب(های) 1،2،3،4،5،6،7،8،9) : QM(df = 9) = 1666.4569، p-val < 0.0001 مدل نتایج: تخمین se zval pval ci.lb ci.ub factor(Species)0 5.0488 0.2947 17.1332 <.0001 4.4712 5.6263 *** factor(Species)1 5.7185 0.4935 11.58017 11.58167*** factor(Species)2 6.7073 0.5870 11.4267 <.0001 5.5568 7.8577 *** factor(var)1 -0.0596 0.4106 -0.1452 0.8845 -0.8645 -0.8645 0.2820 - 0.745 -0.2562 0.7978 -0.9354 0.7191 factor(Species)1:factor(var)1 0.3329 0.8248 0.4036 0.6865 -1.2838 1.9495 factor(Species)2:factor(var)51 -2:00. 0.7793 -2.0445 1.5330 factor(Species)1:factor(var)2 0.3598 0.8174 0.4402 0.6598 -1.2423 1.9620 factor(Species)2:factor(var)2 -0.09292 -0.0776 -1.8841 1.7288 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 با این حال، سطح «0» متغیر «var» در دومین فراخوانی «rma» نیست. آیا روش دیگری برای تعیین مدل برای بدست آوردن تخمین های آن متغیر وجود دارد؟
آزمایش اثرات اصلی و تعاملات با rma از metafor
94050
من روشی را توسعه داده ام (بیایید آن را روش X بنامیم) که دارای یک تابع طبقه بندی کننده است. تابع طبقه بندی کننده با استفاده از MLN (شبکه منطقی مارکوف) ساخته شد. من باید نتیجه اعمال «روش X» را برای شناسایی علت اصلی مشکل در یک کارخانه نساجی تأیید کنم. از آنجایی که من از MLN استفاده می کنم، داده هایی که استفاده می کنم داده های ناپارامتریک هستند. بنابراین، بسته به روش داده و MLN که من استفاده می‌کنم، چه روشی را برای اعتبارسنجی «روش X» پیشنهاد می‌کنید؟
چگونه طبقه بندی کننده (ساخته شده با استفاده از روش MLN) را اعتبار سنجی کنیم؟
22932
من مقداری داده چندسطحی با یک متغیر گروهی دارم (گروه های 1-100). برخی از متغیرهای دیگر من میانگین های درون گروهی هستند، بنابراین مقدار یکسانی برای هر فرد در گروه i تکرار می شود. من می‌خواهم داده‌ها را طوری تغییر دهم که هر گروه فقط یک خط داشته باشد (به‌جای یک خط برای هر فرد در گروه)، بنابراین بهتر بتوانم از متغیرهای میانگین درون گروهی استفاده کنم. در حال حاضر، برایم مهم نیست که با متغیرهای سطح فردی چه اتفاقی می‌افتد. من حدس می‌زنم که بسته تغییر شکل باید راهی باشد، اما من هیچ موفقیتی در مورد آن نداشتم. _ویرایش:_ نمونه ای از شکل داده های من در اینجا آمده است: groupmean = c(1.4، 1.4، 1.4، 1.4، 6.2، 6.2، 6.2، 6.2) group = c(1، 1، 1، 1، 2، 2، 2 ، 2) mydata = data.frame(group, groupmean) تکرار به این دلیل است که متغیرهای اضافی دارم نشان دهنده داده های سطح فردی (که در حال حاضر به آنها اهمیتی نمی دهم). من می‌خواهم موارد فوق را به یک دیتافریم با تنها دو خط، یکی برای هر گروه، تغییر دهم. پیشاپیش متشکرم
چگونه می توان گروه ها را در داده های تعریف شده توسط یک متغیر گروه در R جمع کرد؟
49225
من با اجرای الگوریتم به حداکثر رساندن انتظارات (EM) برای یک مدل خاص مشکل دارم. توالی مقادیر احتمال log افزایش نمی یابد، که در تضاد با نظریه است. متغیر نتیجه اندازه گیری شده y دودویی است و توسط یکی از دو توزیع ایجاد می شود: * p(y=1|z=0) = xi، یک احتمال ثابت * p(y=1|z=1,x) = 1/( 1+exp(theta'*x)) بنابراین یا احتمال ثابتی برای به دست آوردن 1 وجود دارد، یا این احتمال به ویژگی های نمونه x بستگی دارد و با یک لجستیک مدل می شود. رگرسیون می‌توانید مشتق دقیق‌تری (با LL واقعی و مرحله E و M) را در سند زیر بیابید: https://dl.dropbox.com/u/46839575/MMapproach.pdf تنظیم پیش‌بینی ریزش مشتری است، اما من حدس بزنید برای بررسی رویکرد مدل‌سازی به دانش پیش‌زمینه‌ای نیاز نیست. من این را در Matlab پیاده کرده ام و مشکل این است که LL به صورت یکنواخت افزایش نمی یابد. من چندین بار کد خود را بررسی کردم و تا به حال هیچ اشتباهی پیدا نکردم، بنابراین شروع به تعجب کردم که آیا اشتقاق من درست است یا خیر. شاید یکی از شما بتواند به فرضیات نادرستی اشاره کند؟ به طور خاص، من شروع به شک کردم که آیا این فرض که عضویت کلاس نهفته من با ویژگی های شخص مدل شده است درست است (در اکثر مدل های مخلوط (گاوسی) این یک احتمال ثابت است و در افراد مختلف متفاوت نیست). علاوه بر این، از ویژگی‌های یکسانی برای مدل‌سازی عضویت کلاس پنهان و احتمال ریزش استفاده می‌شود (اگرچه مدل من مقادیر احتمال log غیر افزایشی را زمانی که مجموعه ویژگی‌ها در هر دو مدل متقابلاً انحصاری هستند، ارائه می‌دهد). امیدوارم توضیحم واضح باشه با تشکر و بهترین احترام ها، توماس
لاگ احتمال غیرافزاینده با حداکثرسازی انتظار
49221
من در تکالیفم احتمال بسیار کمی دارم، آیا اشتباهی وجود دارد؟ قانون بنفورد می گوید که اگر مجموعه ای از اعداد داشته باشیم، رقم اول توزیع $\mathbb{P}(D=k)=\log_{10}(1+1/k) را دارد. $ مجموعه ای از 1200 عدد را در نظر بگیرید. . با استفاده از توزیع نرمال تخمین بزنید که احتمال اینکه آن اعداد دارای رقم اول 1، 2 یا 3 باشند حداقل 680 مورد است. رویکرد من: می توان به راحتی محاسبه کرد که $\sum_{k=1}^9\log_{10}\left (1+\frac{1}{k}\right )=1.$ قانون بنفورد می گوید که احتمال رقم اول 1، 2 یا 3 $\sum_{i=1}^3\log_{10}(1+1/i)\تقریبا 0.778$ است. اکنون $1200\cdot 0.778>10$ و $1200(1-0.778)>10$، بنابراین منطقی است که توزیع دوجمله ای را با یک توزیع عادی تقریبی کنیم. اکنون $\operatorname{Bin}(1200,0.778)$ تقریباً $N(1200\cdot 0.778,1200\cdot 0.778(1-0.778))=N(933.6,207.3)$ است. بنابراین، $P(X\leq 680.5)\approx P\left (Z\leq \frac{680.5-1200\cdot 0.778}{\sqrt{1200\cdot 0.778\cdot 0.222}}\right )\حدود P(Z <-17.6) دلار. اکنون $\Phi(-17.6)\حدود 0.$
تقریب توزیع دو جمله ای با توزیع نرمال
70407
در زمینه یک مدل عامل خطی، میانگین‌گیری مدل بیزی (BMA) برای به دست آوردن احتمال خلفی همه ترکیب‌های ممکن از پیش‌بینی‌کننده‌ها استفاده می‌شود. یک مدل نهایی به عنوان میانگین وزنی همه مدل ها به دست می آید که وزن هر مدل احتمال پسین آن است. در مورد تعداد زیادی از عوامل K، تعداد کل ترکیب های ممکن، یعنی مدل ها، $2^K$ است. بنابراین، تقریباً غیرممکن است که به طور میانگین از این تعداد مدل استفاده کنید. آیا رویکردی برای دور زدن این مشکل وجود دارد؟ با تشکر
میانگین گیری مدل بیزی در مورد تعداد زیادی پیش بینی کننده
17711
در طی آزمایشی برای طبقه‌بندی متن، طبقه‌بندی‌کننده رج را یافتم که نتایجی را ایجاد می‌کند که دائماً در بین دسته‌بندی‌کننده‌هایی که معمولاً برای کارهای متن‌کاوی ذکر می‌شوند و برای کارهای متن‌کاوی استفاده می‌شوند، مانند SVM، NB، kNN، و غیره در بالاترین سطح قرار می‌گیرند. هرچند، توضیح بیشتری نداده‌ام. در بهینه سازی هر طبقه بندی کننده در این کار طبقه بندی متن خاص به جز برخی از ترفندهای ساده در مورد پارامترها. چنین نتیجه ای نیز دیکران کیسه دار ذکر شد. از پیشینه آماری نمی‌آیم، پس از مطالعه برخی از مطالب آنلاین، هنوز نمی‌توانم دلایل اصلی آن را بفهمم. آیا کسی می تواند بینش هایی در مورد چنین نتیجه ای ارائه دهد؟
چرا طبقه‌بندی‌کننده رگرسیون رج برای طبقه‌بندی متن کاملاً خوب عمل می‌کند؟
94053
فرض کنید من یک مجموعه داده n x p دارم. برای هر n، من ویژگی های پاسخ، 'y' و p - 1 مرتبط با آن را دارم. بهترین راه برای تعیین مقادیر ویژگی هایی که «y» را به حداکثر می رساند چیست؟ تنها راهی که می توانم به آن فکر کنم این است که یک مدل، رگرسیون یا غیره بسازم و سپس بهینه سازی چند متغیره را روی معادله حاصل انجام دهم. آیا راه بهتری برای این کار وجود دارد؟
چگونه می توان یک پاسخ را با توجه به مجموعه داده ای از پاسخ ها و ویژگی ها حداکثر (بهینه سازی) کرد؟
22931
اگر این سوال پیش پا افتاده است، زودتر عذرخواهی می کنم. من در حال ساخت مدل‌های احتمال برای بازی هستم - و برای آزمایش کد بازی، نتایج تکرارهای بزرگ بازی‌ها را با مدل‌های احتمال اصلی مقایسه می‌کنم. به طور خاص، من انحراف استاندارد، چولگی و کورتوز اضافی را محاسبه می‌کنم و از این محاسبات برای تأیید استفاده می‌کنم. نقطه چسبندگی در محاسبه فواصل اطمینان مناسب نهفته است زیرا توزیع های اساسی تقریباً همیشه نرمال نیستند. من مدت زیادی است که به دنبال راه حلی هستم - و تنها چیزی که آشکار به نظر می رسد روش BCa bootstrapping است، اگرچه مطمئن نیستم که این واقعاً مناسب یا ضروری باشد. به نظر من باید راهی وجود داشته باشد که با توجه به توزیع اصلی، تغییرات مورد انتظار نه تنها از میانگین، بلکه همچنین انحراف معیار، چولگی و کشیدگی را به درستی محاسبه کرد. آیا این امکان پذیر است؟ * به دلیل برخی نظرات مفید، سعی می کنم این را دوباره بیان کنم (شما ممکن است نظراتی را که سعی کردم در پاسخ بگویم نادیده بگیرید، زیرا آنها کمی از هم گسیخته هستند): بسیار خوب، اجازه دهید ببینم آیا می توانم این فکر را بازنویسی کنم که از بین برود. تمرکز بازی ها از آنجایی که فقط از نظر زمینه مرتبط است. اگر من توزیع گسسته ای داشته باشم که نرمال نیست - و سپس از طریق نوعی فرآیند مونت کارلو به بازسازی این توزیع ادامه دهم - بهترین راه برای بررسی اینکه فرآیند مونت کارلو دقیقاً توزیع اصلی را دوباره ایجاد می کند چیست؟ فکر من این بود که از آنجایی که یک توزیع خاص با لحظاتش مشخص می شود، می توانم از این شخصیت پردازی استفاده کنم. مشکل این رویکرد این است که چگونه می توان تخمین زد که آیا خطای مشاهده شده در لحظات (از شبیه سازی مونت کارلو) قابل توجه است یا خیر. به نظر من باید راهی برای این کار وجود داشته باشد.
تنوع چولگی و کورتوز اضافی
69709
در اینجا من در مورد تحقیقات پزشکی صحبت نمی کنم، جایی که اثر دارونما وجود دارد که باید با طراحی کور کنترل شود. در مطالعات علوم اجتماعی، ما تقریباً هرگز آزمایش کورکورانه انجام نمی دهیم. در این صورت، اگر داده‌هایی از همه آزمودنی‌ها داشته باشیم، آیا واقعاً نیاز به داشتن یک گروه کنترل تصادفی انتخاب شده برای مقایسه داریم؟ بگو، اگر من یک استراتژی تدریس برای بهبود پیشرفت ریاضی دانش آموزان کلاس پنجم دارم و می خواهم تأثیر آن را آزمایش کنم. پیشرفت ریاضی دانش‌آموز با ارزیابی‌های استاندارد دولتی در پایان هر سال تحصیلی اندازه‌گیری می‌شود و تمام داده‌ها مستقیماً از پایگاه داده منطقه استخراج می‌شوند. کدام یک از موارد زیر بهتر است: 1) به طور تصادفی 20 مدرسه را از 200 مدرسه در یک منطقه انتخاب کنید و سپس به طور تصادفی 10 مدرسه را به گروه درمانی (استفاده از استراتژی جدید تدریس) و 10 مدرسه را به گروه کنترل (انجام کسب و کار طبق معمول) اختصاص دهید. کنترل و درمان را مقایسه کنید. 2) به طور تصادفی 10 مدرسه درمانی را از همان منطقه انتخاب کنید. درمان را با بقیه منطقه (کنترل دستاوردهای قبلی و جمعیت شناسی) مقایسه کنید؟ 3) به طور تصادفی 10 مدرسه درمانی را از همان منطقه انتخاب کنید. درمان را با 10 مدرسه انتخاب شده به طور تصادفی (تعدادی) از همان منطقه (کنترل بر پیشرفت قبلی و جمعیت شناسی) مقایسه کنید؟ آیا روش 1 طراحی بهتری است و چرا؟
آیا واقعاً وقتی بتوانیم گروه درمان را با وضعیت موجود مقایسه کنیم، به یک گروه کنترل نیاز داریم؟
108617
برای یک SVM خطی، مستندات به من می گوید که فرمول این است: $$ \frac{1}{2}w^Tw+C\sum\limits_{i=1}^l\xi_i$$ **لطفاً برای من توضیح دهید اصطلاحات عامیانه آنچه که _w_ (و _ξ_ ) نشان می دهد.** آیا _w_ فاصله تا ابر صفحه، وزن متغیرهای مختلف،... است؟ - PS: آیا با فرمول زیر تفاوتی وجود دارد یا فقط یک نماد متفاوت است: $$f(x)=w^T x+b$$
سوال SVM ساده
105696
فرض کنید یک مجموعه داده آموزشی داریم. می خواهیم با استفاده از برخی الگوریتم ها فرضیه هایی را یاد بگیریم. آیا اگر برای مثال از رگرسیون لجستیک در مقابل ماشین‌های بردار پشتیبانی استفاده کنیم، مجموعه آموزشی را متفاوت تقسیم می‌کنیم؟ بنابراین، اگر مجموعه داده‌های آموزشی را به 70 $ \%$ داده‌های درون نمونه و 30 $ \%$ داده‌های خارج از نمونه تقسیم کنیم، آیا اگر از رگرسیون لجستیک یا ماشین‌های بردار پشتیبانی استفاده کنیم، این کار برقرار است؟
تقسیم داده های آموزشی به مجموعه تست
17714
من از رگرسیون حداقل زاویه (LARS) برای استخراج مهمترین پیش بینی کننده ها ($x_1, x_2,...,x_p$) برای متغیر پاسخ خود ($y$) استفاده می کنم. من هفت پیش بینی کننده ($x_1,x_2,...,x_7$) برای هر متغیر پاسخ دارم. من اعتبار سنجی متقاطع 10 برابری را با استفاده از بسته R lars انجام دادم. من یک نقطه برش در 0.62 (تقریبا) ایجاد می کنم. آیا کارم درست است؟ آیا معیاری برای انتخاب پیش بینی کننده های مهم وجود دارد؟ هر گونه کمک در این زمینه بسیار قدردانی خواهد شد! با تشکر
انتخاب ویژگی با رگرسیون حداقل زاویه تایید متقابل k-fold
49226
من می خواهم بدانم چگونه تفاوت مقادیر f-measure را تفسیر کنم. می دانم که f-measure یک میانگین متعادل بین دقت و یادآوری است، اما من در مورد معنای عملی تفاوت در اندازه گیری های F می پرسم. به عنوان مثال، اگر یک طبقه‌بندی‌کننده C1 دقت 0.4 و طبقه‌بندی‌کننده دیگر C2 دقت 0.8 داشته باشد، می‌توان گفت که C2 به درستی دو برابر نمونه‌های آزمایشی را در مقایسه با C1 طبقه‌بندی کرده است. با این حال، اگر یک طبقه‌بندی‌کننده C1 دارای اندازه‌گیری F 0.4 برای یک کلاس خاص و طبقه‌بندی‌کننده دیگر C2 یک اندازه‌گیری F 0.8 باشد، در مورد تفاوت عملکرد 2 طبقه‌بندی‌کننده چه چیزی می‌توانیم بیان کنیم؟ آیا می توانیم بگوییم که C2 X نمونه های بیشتری را به درستی از C1 طبقه بندی کرده است؟ ببخشید اگه سوال احمقانه ایه...
چگونه مقادیر F-Measure را تفسیر کنیم؟
71904
بگویید که شما دارای سلسله مراتب درختی مختلف $K$ هستید. هر درخت $k_i$ زیرمجموعه‌ای از عناصر یک دامنه معین، $S_{k_i} \در D$ را مرتبط کرده است و در نهایت در برگ‌های هر درخت، زیرمجموعه‌ای از عناصر متصل به آن درخت، $S_{k_i دارید. ,1},S_{k_i,2},...,S_{k_i,n_k}$. به عنوان مثال، درخت فیلوژنتیک مدرن، $k_i$ را در نظر بگیرید، که حیوانات را از آسیا طبقه بندی می کند، $S_{k_i}$ که در آن $D$ قلمرو حیوانات است. درخت دیگر می تواند طبقه بندی ارسطویی حیوانات باشد که یونانیان شناخته شده اند. بگویید که ما تصمیم می گیریم که سلسله مراتب صحیح برای عناصر موجود در حوزه درخت فیلوژنتیک است، بهترین روش برای طبقه بندی حیوانات اروپایی که در آسیا وجود ندارند چیست؟ به طور شهودی من فرض می‌کنم که باید از حیواناتی که در آسیا وجود دارند و یونانی‌ها آن را می‌شناسند استفاده کرد تا بر انتساب حیوانات «معروف به یونانی» تأثیر بگذارد. من همچنین فکر می کنم که سلسله مراتب ارسطویی نیز ممکن است احتمالات را راهنمایی کند. چگونه این مشکل را حل می کنید؟ به خاطر داشته باشید که مشکل من ربطی به مثال حیوانات ندارد، اما فکر می‌کنم که این مثال خوبی برای حل این سوال انتزاعی است که چگونه نمونه‌های گروه‌بندی شده سلسله مراتبی یک دامنه را در یک سلسله مراتب مرجع ادغام کنیم.
چگونه سلسله مراتب های مختلف را در یک دامنه ادغام می کنید؟
56950
من علاقه مند به رگرسیون با شبکه های عصبی هستم. شبکه های عصبی با گره های پنهان صفر + اتصالات لایه پرش مدل های خطی هستند. در مورد شبکه های عصبی یکسان اما با گره های پنهان چطور؟ من تعجب می کنم که نقش اتصالات لایه پرش چیست؟ به طور شهودی، می گویم که اگر اتصالات لایه پرش را وارد کنید، مدل نهایی مجموع یک مدل خطی + برخی از قطعات غیر خطی خواهد بود. آیا افزودن اتصالات لایه پرش به شبکه های عصبی مزیت یا ایرادی دارد؟
شبکه عصبی با اتصالات لایه پرش
60614
آیا بسته ای در R وجود دارد که EWMA چند متغیره را محاسبه کند؟ من یک فریم داده 4 سری دارم و نمی خواهم از یک روش مستطیلی ساده برای محاسبه تخمینگر کوواریانس استفاده کنم. بنابراین آیا تابع از پیش پیاده سازی شده ای برای این کار وجود دارد؟ یا می توانید برای اجرای این به من کمک کنید؟ مهارت های برنامه نویسی من در R بسیار محدود است.
EWMA چند متغیره
21370
با استفاده از R، می‌خواهم دو نمودار را بدون کادر ترسیم کنم - فقط نقاط. ایجاد نمودارهای جعبه تمیز در R بی اهمیت است: کسب و کار <- runif(50، min = 65، حداکثر = 100) قانون <- runif(50، min = 60، max = 95) boxplot(کسب و کار، قانون، افقی = TRUE، names= c(تجارت، قانون)، col=c(سبز، قرمز)، main=نمونه حقوق و دستمزد (جعبه)) ![قطعه‌های باکس منظم](http://i.stack.imgur.com/MTqxe.png) با این حال، تنها راهی که برای رسم نقاط در دو توزیع تصادفی پیدا کرده‌ام، بیهوده پیچیده به نظر می‌رسد: من دو نمودار پراکنده را با هر متغیر در برابر 1 یا 2 رسم می شود تا یک خط مسطح ایجاد کند: plot(business, rep(1, length(business)), xlim=range(business, law), ylim=c(0, 3), pch=20, col='green', main=مثال حقوق (نقاط)) points(law, rep(2, length(law)), col='red '، pch=20) ![نمونه جعبه نقطه‌دار](http://i.stack.imgur.com/ROmNa.png) در حالی که این کار جواب می‌دهد، نیاز به تغییرات بیشتری دارد تا محورها، علامت‌ها و برچسب‌ها را برای مطابقت با آنچه R با «boxplot()» انجام می‌دهد، دریافت کنید. به نظر می رسد که باید یک راه ساده تر و شبیه R برای انجام این کار وجود داشته باشد. بهترین راه برای کشیدن نمودار جعبه بدون جعبه و سبیل - فقط نقاط فردی چیست؟
چگونه می توانم یک باکس پلات بدون کادر در R رسم کنم؟
53250
من الان با گیبس سمپلینگ سر و کار دارم. بیایید مثال را در نظر بگیریم: من توزیع X|Y و توزیع Y را می دانم. آنها برخی شناخته شده هستند - دو جمله ای یا بتا یا موارد دیگر اما خاص. بنابراین من در نمای تحلیلی f(X|Y)، f(Y) دارم و می توانم توزیع مشترک f(X,Y) را محاسبه کنم. برای ارائه نمونه‌برداری گیبس، باید چندین برابر X∼X|Y و Y∼Y|X محاسبه کنم. سوال این است: از کدام تکنیک می توانم برای نمونه گیری از Y∼Y|X در حالت کلی، برای هر f(X|Y)، f(Y) استفاده کنم؟
نمونه برداری از توزیع شرطی در حالت کلی
71907
من نمونه ای از آیتم ها را دارم که برای هر کدام از آنها مدل هایی را برای به دست آوردن بهترین برازش ($\chi^2$-کمینه سازی) مقدار پارامتر $\alpha$ تنظیم کرده ام. بنابراین برای هر کدام، مقادیر $\chi^2_i(\alpha)$ را برای هر مقدار ممکن $\alpha$ در شبکه دارم. من می‌خواهم همه این توزیع‌ها را با هم ترکیب کنم تا نوعی توزیع احتمال پشته‌ای برای نمونه به دست بیاورم. اگر فقط میانگین $\chi^2$ را در هر $\alpha$ بگیرم، چیزی را دریافت می کنم که معقول به نظر می رسد - اما آیا این معنادار است؟ من در ابتدا انتظار داشتم که نگاه کردن به خطا در $\alpha$ از این توزیع (با نگاه کردن به مقادیر $\alpha$ محصور در $\Delta\chi^2 = 1$ دور از حداقل) یک خطا ایجاد کند. مشابه انحراف استاندارد مقادیر $\alpha$ با بهترین برازش اصلی است، اما اینطور نیست. این شاید منطقی باشد زیرا عرض حداقل $\chi^2$ برای هر مورد کاملاً متفاوت است (یعنی موارد دارای خطاهای کاملاً متفاوتی هستند). چگونه می توانم توزیع معنی داری داشته باشم؟
چگونه می توان توزیع کای دو (با یک پارامتر مدل) بسیاری از آیتم ها را در یک نمونه ترکیب کرد؟
108614
من سعی می کنم ببینم در شرایطی که تعداد زیادی وجود دارد به **رگرسیون برجستگی**، **LASSO** یا **رگرسیون مؤلفه اصلی** (PCR) یا **کمترین مربعات جزئی** (PLS) مراجعه کنم. از متغیرها / ویژگی ها (p) بیش از نمونه ها (n) و هدف من پیش بینی است. درک من این است: (1) **رگرسیون ریج** ضرایب رگرسیون را کوچک می کند، از همه ضرایب استفاده کنید بدون اینکه آنها را 0 تبدیل کنید. بیش از حد. (3) **رگرسیون مؤلفه اصلی** مؤلفه ها را کوتاه می کند به طوری که p < n، مؤلفه های p-n را کنار می گذارد. (4) **حداقل مربع جزئی** \- همچنین مجموعه ای از ترکیب خطی از ورودی ها را برای رگرسیون می سازد، اما برخلاف PCR از y (علاوه بر X) برای ساخت استفاده می کند. تفاوت عملی اصلی بین PCR و PLSR این است که PCR اغلب به اجزای بیشتری نسبت به PLSR برای رسیدن به همان خطای پیش‌بینی نیاز دارد. بیایید داده‌های ساختگی زیر را ببینیم - که من سعی می‌کنم در مورد مشابهی کار کنم: #جمعیت تصادفی 200 آزمودنی با 1000 متغیر M <- ماتریس (rep(0,200*100),200,1000) برای (i در 1:200) { set.seed(i) M[i،] <- ifelse(runif(1000)<0.5,-1,1) } rownames(M) <- 1:200 #random yvars set.seed(1234) u <- rnorm(1000) g <- as.vector(crossprod(t (M),u)) h2 <- 0.5 set.seed(234) y <- g + rnorm(200,mean=0,sd=sqrt((1-h2)/h2*var(g))) myd <- data.frame(y=y, M) پیاده سازی چهار روش: require(glmnet) # LASSO fit1=glmnet(M,y, family=gaussian, alpha=1) # Ridge fit1=glmnet(M,y, family=gaussian, alpha=0) # PLS نیاز (pls) fit3 <- plsr(y ~ ., ncomp = 198, data = myd, validation = LOO) # گرفتن 198 جزء و استفاده از خلاصه اعتبار متقاطع ترک یک خروجی (fit3) plot(RMSEP(fit3)، legendpos = بالا سمت راست) # PCR fit4 <- pcr(y ~ ., ncomp = 198، داده = myd، اعتبارسنجی = LOO) بهترین توصیف داده ها این است: (1) $P > n$، بیشتر اوقات > 10 بار (2) متغیرها (X و Y) **همبسته هستند** با یکدیگر با درجه های مختلف سوال من این است که کدام استراتژی ممکن است برای این وضعیت بهترین باشد؟ چرا؟
متغیرهای بزرگ و مشکل نمونه کم (p > n): ridge، LASSO، PLS، PCR که برای پیش‌بینی مناسب‌ترین است.
94056
در مورد ناپایداری ضریب همبستگی لحظه-محصول پیرسون چه چیزی باید بدانم؟ چه زمانی ممکن است در استفاده از این محاسبه با مشکل مواجه شوم؟ من مقاله زیر ویکی‌پدیا را برای اطلاعات پیش‌زمینه نقل می‌کنم: http://en.wikipedia.org/wiki/Pearson_product- moment_correlation_coefficient#Mathematical_Properties همبستگی پیرسون را می‌توان بر حسب لحظات بدون مرکز بیان کرد. از آنجایی که $μX = E(X)$، $$σX2 = E[(X - E(X))2] = E(X2) - E2(X)$$ و به همین ترتیب برای Y، و از $$E[( X-E(X))(Y-E(Y))]=E(XY)-E(X)E(Y)$$ همبستگی را نیز می توان به صورت نوشت $$\rho_{X,Y}=\frac{E(XY)-E(X)E(Y)}{\sqrt{E(X^2)-(E(X))^2}~\sqrt {E(Y^2)- (E(Y))^2}}$$ فرمول های جایگزین برای نمونه ضریب همبستگی پیرسون نیز موجود است: $$r_{xy}=\frac{\sum x_iy_i-n \bar{x} \bar{y}}{(n-1) s_x s_y}=\frac{n\sum x_iy_i-\sum x_i\sum y_i} {\sqrt{n\sum x_i^2- (\sum x_i)^2}~\sqrt{n\sum y_i^2-(\sum y_i)^2}}$$ فرمول دوم در بالا باید برای نمونه اصلاح شود: $$r_{xy}=\frac{\sum x_iy_i-n \bar{x} \bar{y}}{(n-1) s_x s_y}=\frac{n\ مجموع x_iy_i-\sum x_i\sum y_i} {\sqrt{(n-1)\sum x_i^2-(\sum x_i)^2}~\sqrt{(n-1)\sum y_i^2-(\sum y_i)^2}}$$ فرمول فوق یک الگوریتم تک گذری مناسب را برای محاسبه همبستگی های نمونه پیشنهاد می کند، اما بسته به اعداد درگیر، گاهی اوقات می تواند از نظر عددی ناپایدار باشد.
ناپایداری الگوریتم یک پاس برای ضریب همبستگی
56956
اگر من بین سه متغیر (بقا (نتیجه)، زمان و دوز (مستمر) با تعامل) رابطه داشته باشم، چگونه می توانم وقفه زمان را کنترل کنم اما نه دوز را در MLR؟ دلیل این امر این است که Survivorship باید در زمان 0 100٪ باشد. اگر من وقفه را در معادله Survivorship = b1*time + b2*dose + b3*time*dose + intercept روی 100 تنظیم کنم، دوز را نیز محدود می کند که لزوما درست نیست
نحوه کنترل قطع تنها یک رابطه IV-DV در رگرسیون خطی چندگانه
53254
به من داده شده است x = c(21,34,6,47,10,49,23,32,12,16,29,49,28,8,57,9,31,10,21,26,31,52,21,8, 18،5،18،26،27،26،32،2،59،58،19،14،16،9،23،28،34،70،69،54،39،9،21،54،26) y = c(47,76,33,78,62,78,33,64,83,67,61,85,46,53,55,71,59,41,82,56,39,89,31, 43,29,55, 81,82,82,85,59,74,80,88,29,58,71,60,86,91,72,89,80,84,54,71,75,84,79) چگونه می توانم دریافت کنم باقیمانده ها را در مقابل x$ ترسیم کنید؟ و چگونه می توانم آزمایش کنم که باقیمانده ها تقریباً نرمال به نظر می رسند؟ من مطمئن نیستم که تناسب خطی اصلی را درست انجام دهم زیرا معادله $y=6.9x-5.5$ را دریافت کردم، اما یادداشت های سخنرانی می گوید که خط رگرسیون خطی باید به شکل $y_i=\beta_0+\beta_1x+\epsilon باشد. $.
نحوه یافتن باقیمانده ها و ترسیم آنها
17710
من دو متغیر تصادفی دوبعدی گاوسی دارم. من می خواهم میانگین وزنی این دو را پیدا کنم (بر اساس ماتریس کوواریانس آنها حول میانگین، به این معنی که میانگین گاوسی نهایی باید به واریانسی با کمترین واریانس نزدیکتر باشد). راه درست انجام آن چیست؟ هر اشاره‌ای به آدرس‌های اینترنتی در مورد این موضوع بسیار قدردانی می‌شود. توضیح: من رباتی دارم که دو سنسور دارد. ربات دو مشاهدات عادی دو متغیره از یک شی را می خواند. من می خواهم با یافتن میانگین وزنی دو نمونه، مکان شی را پیدا کنم. بنابراین می‌خواهم مکان نهایی من که محاسبه می‌کنم به مشاهده‌ای نزدیک‌تر باشد که گستره کمتری دارد. راه درست انجام آن چیست؟
میانگین وزنی دو متغیر تصادفی گاوسی دوبعدی
109149
قصد دارم میزان رشد بیماری ها را در بین بیماران گروه های سنی مختلف (کوهورت ها) بررسی کنم و در مورد رشد بیماری ها در 5 سال آینده اظهار نظر کنم. آیا می توانم نشانه های حیاتی مانند دمای بدن، فشار خون سیستولیک و غیره را در مدل رشد بگنجانم؟ آیا رویکرد دیگری برای این نوع تحلیل مناسب تر است؟
آیا مدل رشد بیماری ها می تواند داده های علائم حیاتی را در خود جای دهد؟
53252
آیا روش آماری برای حذف تفاوت بین تیمارهای مشاهده شده قبل از شروع درمان ها وجود دارد؟ من طول شاخه ها را روی درختان با سه روش مختلف اندازه گیری کرده ام، اما بدشانس آنها حتی قبل از شروع درمان متفاوت بودند!
از بین بردن تفاوت بین درمان ها
108611
دو طبقه‌بندی‌کننده پایه مختلف وجود دارد که مقادیر نرخ مثبت واقعی (TPR) 99.46% و 91.79% را تولید می‌کنند. وقتی من از این دسته بندی کننده های پایه در adaboost استفاده می کنم، TPR جدید باید چگونه باشد؟ از دوتاشون بهتره؟ بهتر از یکیشون؟
آیا TPR of adaboost باید بهتر از طبقه بندی کننده های پایه باشد؟
113748
من در حال انجام یک کار فارغ‌التحصیلی هستم که شامل استفاده از الگوریتم‌های طبقه‌بندی در مجموعه داده‌ای از مسابقات Dota 2 (یک بازی محبوب MOBA) است. در اینجا توضیحی درباره مشکل وجود دارد: مسابقات Dota 2 توسط دو تیم 5 نفره به صورت 5x5 انجام می شود. هر بازیکن می تواند از بین 106 شخصیت قابل بازی که «قهرمانان» نام دارند، انتخاب کند. هر قهرمان فقط یک بار در مسابقه انتخاب می شود (هرگز دو قهرمان مشابه در یک مسابقه وجود ندارد). توافق این است که انتخاب قهرمان تأثیر عمده ای بر نتیجه مسابقه دارد، زیرا برخی از قهرمانان با دیگران هم افزایی دارند، در عین حال برخی از قهرمانان ضد قهرمانان دیگر هستند. کاری که من سعی می کنم انجام دهم این است که نتیجه بازی را بر اساس قهرمان های انتخاب شده برای هر تیم پیش بینی کنم. در حال حاضر من از فایل‌های csv. صادر شده از پایگاه داده خود استفاده می‌کنم که حاوی 11 ویژگی اسمی است، یکی که نشان‌دهنده تیم برنده کلاس است و ده مورد دیگر انتخاب‌های قهرمان هستند. من چندین الگوریتم را امتحان کردم و یکی که بالاترین دقت را داشت Naive Bayes با ~ 72٪ بود. بعدی K-NN با حدود 65٪ طبقه بندی صحیح بود. من حدود 100000 مورد منطبق در پایگاه داده خود دارم. آیا راهی برای بهبود این موضوع وجود دارد؟ من واقعاً با یادگیری ماشینی/KDD تازه کار هستم. من از Weka برای استخراج استفاده می کنم. در اینجا نمونه ای از نحوه سازماندهی داده های خود در csv. آمده است. winner,r1,r2,r3,r4,r5,d1,d2,d3,d4,d5 0,40,48,13,37,51,47,102,30,41,69 R به معنی _Radiant_ و D به معنای _Dire_ است. نام تیم های مورد استفاده در بازی پیشاپیش متشکرم و برای انگلیسی متاسفم!
نکات طبقه بندی برای یک مبتدی
22938
Interviewstreet دومین CodeSprint خود را در ژانویه انجام داد که شامل سؤال زیر بود. پاسخ برنامه ای ارسال شده است اما شامل توضیح آماری نمی شود. (شما می توانید با ورود به وب سایت Interviewstreet با اعتبار گوگل و سپس رفتن به مشکل Coin Tosses از این صفحه مشکل اصلی و راه حل ارسال شده را مشاهده کنید.) **Coin Tosses** شما یک سکه بی طرف دارید که می خواهید به پرتاب کردن آن ادامه دهید. تا زمانی که N سر متوالی بدست آورید. شما سکه M را بارها پرتاب کرده اید و در کمال تعجب، تمام پرتاب ها منجر به سر شد. تعداد مورد انتظار پرتاب های اضافی مورد نیاز تا زمانی که N سر متوالی بدست آورید چقدر است؟ ورودی: خط اول شامل تعداد موارد T است. هر یک از خطوط T بعدی شامل دو عدد N و M است. خروجی: خطوط خروجی T حاوی پاسخ مورد آزمایشی مربوطه است. پاسخ را دقیقاً به 2 رقم اعشار گرد چاپ کنید. ورودی نمونه: 4 2 0 2 1 3 3 2 خروجی نمونه: 6.00 4.00 0.00 8.00 توضیحات نمونه: اگر N = 2 و M = 0 باشد، باید سکه را تا زمانی که 2 سر متوالی بدست آورید پرتاب کنید. نشان دادن اینکه به طور متوسط ​​6 پرتاب سکه نیاز است کار سختی نیست. اگر N = 2 و M = 1 باشد، به 2 سر متوالی نیاز دارید و قبلاً 1 سر دارید. مهم نیست که یک بار دیگر پرتاب کنید. در اولین پرتاب، اگر سر به سرتان بیاید، کارتان تمام شده است. در غیر این صورت، باید از نو شروع کنید، زیرا شمارنده متوالی تنظیم مجدد می‌شود، و باید سکه را تا زمانی که N=2 سر متوالی به دست آورید به پرتاب کردن ادامه دهید. بنابراین، تعداد مورد انتظار پرتاب سکه 1 + (0.5 * 0 + 0.5 * 6) = 4.0 است اگر N = 3 و M = 3، شما از قبل 3 سر دارید، بنابراین دیگر نیازی به پرتاب ندارید. تمام معادلات ریاضی که من به آنها دست یافتم، پاسخ های درستی برای داده های ورودی نمونه ذکر شده در بالا داشتند، اما برای همه مجموعه های ورودی دیگر آنها (که مشخص نیستند) اشتباه بود. به نظر می‌رسد که راه‌حل برنامه‌ای آن‌ها مشکل را بسیار متفاوت از روش تلاش برای رسیدن به معادله من حل می‌کند. لطفا کسی توضیح دهد که چگونه می توان معادله ای برای حل این مشکل ایجاد کرد؟
تعداد مورد انتظار پرتاب سکه برای بدست آوردن N متوالی، با توجه به M متوالی
94057
من یک آزمایش مزرعه کشاورزی دارم (آزمایش عامل حفاظت گیاه): **طراحی کرت های تقسیم شده** با: 2 تیمار کل کرت آلودگی: بالا و کم 8 تیمار تقسیم کرت (درمان): 1 کنترل نشده (Ctrl1) 2. محصول مرجع (Ctrl2) 3. 1 x Test-Product 1 4. 2 x Test-Product 1. 5. 3 x Test-Product 1 6. 1 x Test-Product 2 7. 2 x Test-Product 2 8. 3 x Test-Product 2 and 4 replicate (block): پارامتر مورد علاقه در این مثال دانه است. ( **بازده**): اول، می توانم این را مدل کنم: lme(بازده ~ آلودگی * درمان، تصادفی = ~ 1 | بلوک/آلودگی، داده) یا lmer (بازده ~ آلودگی * درمان + (1 | بلوک/آلودگی)، داده) اما همانطور که مشاهده می شود درمان 3-8 می تواند و باید به عنوان 2 محصول (prod) در حال آزمایش مجدد کدگذاری شود. 1-3 بار (بار)، بنابراین من یک طرح فرعی 2x3 دارم. یک احتمال می تواند زیرمجموعه داده ها باشد: data2 <- subset(data, !data$treat == Ctrl1 & !data$treat == Ctrl2) و کدگذاری مجدد درمان های در حال استراحت به prod = 1,2 و بار = 1:3 سپس اجرا کنید: lme(بازده ~ آلودگی * فرم * بار، تصادفی = ~ 1 | بلوک/آلودگی، داده) پس از آن، من هنوز می‌توانم تضادهایی را برای مقایسه درمان‌های کنترل با درمان‌های انجام‌شده انجام دهم. اما (در اینجا مشکل واقعی من شروع می شود): مقاله ای از **H.P. Piepho**: _A not on the Analysis of Designed Experiments with Complex Treatment Structure_ , HortScience 41(2):446--452. 2006 نویسنده می‌خواهد نشان دهد که چگونه می‌توان یک تحلیل معنی‌دار بر اساس یک مدل خطی با کدگذاری مناسب عوامل به دست آورد. (...) هدف اصلی ما این است که نشان دهیم که معرفی متغیرهای ساختگی می‌تواند به راحتی طیف گسترده‌ای از استنتاج‌ها را حل کند. مشکلاتی که در غیر این صورت نیاز به ... تضادهای خطی متعدد ... یا استفاده کاملاً کارآمد از داده ها ندارند، به عنوان مثال زمانی که فقط داده های طرح های فرعی متعامد هستند. تجزیه و تحلیل شد._ یک مثال بسیار مشابه (مثال 1 در مقاله) در داخل مورد بحث قرار گرفته است، و یک تحلیل جایگزین در SAS پیشنهاد شده است - که من می خواستم سعی کنم آن را در R درک کنم. نویسنده یک متغیر ساختگی اضافه می کند (*ctrl_vs_trt** ) به داده ها و کدهای آن: کنترل، trt (در مورد من **trt**، **Ctrl1**، **Ctrl2**. او استفاده می کند: (در مورد او **prod** ulation است و **times** **conc**entration) PROC GLM contr_vs_trt form conc; contr_vs_trt * فرم contr_vs_trt * conc contr_vs_trt * فرم * conc; اجرا کنید. من یک پاراگراف دیگر را ذکر می کنم: _البته تستی برای contr_vs_trt با این مدل تولید نمی شود و نمی توان میانگین های ساده یا حاشیه ای را محاسبه کرد. همچنین نوع SS برای **form**، **conc**، و **شکل x conc** مانند نوع III SS نیست، تست فرم برای **conc** تنظیم می شود، زیرا برازش **conc** باعث می شود تا. کنترل هنگام کدگذاری فاکتورها در جدول xy (همانطور که من در اینجا انجام دادم، به طور مشابه، تست برای **form** تنظیم می شود، زیرا برازش **form** کنترل را از بین می برد در نتیجه، ANOVA نوع III برای مدل **فرم x conc** به نظر می رسد که برای طرح فرعی 3x2 (...) استفاده از مدل تودرتو سخت تر و شفاف تر به نظر می رسد **contr_vs_trt/(شکل x conc)**، زیرا این به درستی همه ویژگی‌های تودرتو و متقاطع طراحی را منعکس می‌کند. lme اصلاً اجرا نمی‌شود، حتی اگر ساده‌سازی کنم: lme(بازده ~ prod * بار، تصادفی = ~1|بلاک، داده)، خطا در MEEM(object، conLin، control$niterEM) دریافت می‌کنم: تکینگی در backsolve در سطح 0، بلوک 1 عبارت **prod * times** را نمی توان اجرا کرد ( **prod + times** منطقاً می تواند). حذف هر دو کنترل از مجموعه داده ها این مشکل را حل می کند. «lmer» با **prod * times** اجرا می‌شود، اما همیشه این پیام داده می‌شود: ماتریس مدل اثر ثابت رتبه‌بندی ندارد، بنابراین با حذف «x» ستون‌ها/ضرایب می‌دانم که طرح فرعی متعامد نیست و بنابراین افت رخ می‌دهد، اما نمی توانم بگویم که آیا تجزیه و تحلیل پس از رها کردن هنوز می تواند درست باشد یا خیر. همچنین، من نمی دانم چگونه مدل کامل را مشخص کنم (یک ثانیه کل طرح آلودگی را کنار بگذارم): lmer(بازده ~ prod * بار + (1|block/ctr_vs_trt)، داده) **prod * بار* * در داخل **ctr_vs_trt** قرار دارد اما هر دو در داخل یک بلوک (یا کل طرح) تودرتو هستند. آیا قرار دادن جلوه های ثابت در lme یا lmer امکان پذیر است - آیا همانطور که پیشنهاد کردم کار می کند؟ آیا اجرای مدل کامل منطقی است؟ با `aov()` مدل را اجرا می کنم، حتی پارتیشن بندی Df هم درست است. اما به دلیل غیرمتعامد بودن قوی نمی توان فرض کرد که نتایج درست هستند. من می‌توانم با زیرمجموعه‌ها و با استفاده از تضادها به نتایج معنی‌داری برسم، اما رویکرد نویسندگان را جالب دیدم و در تجزیه و تحلیل برخی از آزمایش‌های دیگر من کمک خواهد کرد. پیشاپیش از هرگونه کمکی متشکریم. امیدوارم این سوال زیاد طولانی نباشد...
lme / lmer - پلات تقسیم شده با طرح فرعی غیر متعامد
108616
من یک نظرسنجی بزرگ با حدود 600 پاسخ دهنده انجام داده ام. اکثر سوالات سوالات چند گزینه ای بود. من علاقه مند به مقایسه چند نوع درصد هستم. اول، من به سادگی علاقه مندم که تعیین کنم آیا درصد افرادی که پاسخ A را انتخاب می کنند با افرادی که پاسخ B، C، D و غیره را انتخاب می کنند یکسان است یا متفاوت است. بیشتر مطالب آنلاینی که خوانده ام نشان می دهد که این یک آزمون یک نمونه است. از نسبت‌ها، اما به نظر می‌رسد که آن‌ها به یک مقدار نظری یا مورد انتظار برای مقایسه درصد نیاز دارند و در اینجا اینطور نیست. دومین دسته گسترده من از تجزیه و تحلیل، مقایسه بین جمعیت ها است. بنابراین، آیا مردان و زنان به سؤالات متفاوت پاسخ می دهند. در آنجا می‌خواهم ببینم که آیا آرایه‌ای از گزینه‌های پاسخ متفاوت است (مثلاً مردان در 40٪ موارد A، B 50٪ و C 10٪ در حالی که زنان 30٪ موارد A را انتخاب می‌کنند، B را انتخاب می‌کنند. 10% مواقع و C در 60% مواقع) و اینکه آیا درصدهای خاص متفاوت است (مثلاً درصد مردانی است که A را انتخاب کردند. [40٪] متفاوت از درصد زنانی که A را انتخاب کردند [30٪]). ممنون از راهنمایی شما
مقایسه درصدها از یک نمونه و بین نمونه ها
54705
من روی تستی کار می‌کنم که در آن باید تغییرپذیری در یک فرآیند را کمی کنم. فرآیند مورد بحث شامل قرار دادن تعدادی از نشانه ها بر روی آناتومی است. دو مجموعه از نشانه‌ها وجود دارد، یک مجموعه یک چارچوب مرجع در اطراف استخوان را تشکیل می‌دهد در حالی که دیگری جهت گیری اصلی آناتومی را تقریبی می‌کند. نتیجه نهایی اندازه گیری جهت گیری آناتومی بومی بیمار است. رویکرد اولیه من طراحی این تست حول یک Gage R&R (با استفاده از Minitab) است که در آن 3 اپراتور مجموعه ای از نشانه ها را روی آناتومی 10 بیمار مختلف قرار می دهند و اندازه گیری جهت گیری حاصل را ثبت می کنند. کل فرآیند 3 بار تکرار می شود. به طور خلاصه: 3 اپراتور 3 اندازه گیری آزمایشی را روی 10 قسمت انجام می دهند. (آیا به این نمونه‌گیری طبقه‌ای گفته می‌شود؟) نگرانی من این است که مطمئن نیستم که این آزمایش واقعاً کاربرد داشته باشد زیرا جهت‌گیری بومی آناتومی بیمار هر بیمار واقعاً بین بیماران مستقل است در مقایسه با کاربرد عادی Gage R&R. که در آن قطعات معمولاً اندازه یکسانی دارند. اکنون برای اولین سوال من: چگونه توصیه می‌کنید که با اطلاعاتی که جمع‌آوری کرده‌ام برای مشخص کردن تنوع درون اپراتور و بین اپراتور رفتار کنم؟ من متوجه شده ام که بسیاری از مقالات این وضعیت را با یک ضریب همبستگی درون طبقاتی (ICC) بررسی می کنند، اما جزئیات این تجزیه و تحلیل فراتر از مهارت های من است. در دفاع از یک ANOVA یا CI ساده در واریانس، احساس اطمینان بیشتری می کنم. هر گونه نظر یا نظر در مورد این سوال اول بسیار قدردانی خواهد شد. سوال دوم من به محاسبه یک CI در واریانس مربوط می شود: آیا می توانم واریانس (s^2) محاسبه شده برای هر آناتومی (n=9) را با هم برای یک واریانس کل (n=90) ترکیب کنم، حتی اگر آنها مشترک نباشند. یک جهت گیری متوسط ​​مشترک؟ من مشتاقانه منتظر خواندن نظرات و توصیه های شما هستم، با احترام، توماس جی.
کمک مورد نیاز در محاسبه تنوع بین رتبه‌دهنده، درون رتبه‌دهنده
86643
عصر بخیر همه من مشکل دنبال. امیدوارم کسی بتواند کمی به من کمک کند :) در مورد انجام 1000 آزمایش، مطالعه ای را در نظر بگیرید. تست های چندگانه را با FDR تصحیح می کنید. بدیهی است که تعداد زیادی از بازدیدهای واقعی (نگاتیوهای کاذب) را از دست خواهید داد. همچنین 1000 مطالعه وجود دارد که آزمایش های مشابهی انجام شده است. برخی از آزمون‌ها به دلیل اصلاح چندگانه در همه مطالعات، در همه مطالعات غیر معنی‌دار می‌شوند، در حالی که فرضیه صفر در واقع درست نیست (منفی کاذب). اما دیدن اینکه اگر یک آزمون به طور مداوم دارای p-value نسبتا پایینی در مطالعات مختلف باشد، احتمال درستی فرضیه جایگزین افزایش می‌یابد. استفاده از این اطلاعات میان مطالعه برای افزایش قدرت هر آزمون و در نهایت شناسایی آزمونی که اثبات نسبتاً کمی برای فرضیه جایگزین واقعاً مثبت/معنادار دارد، باید امکان پذیر باشد. من سعی کردم آن را در گوگل جستجو کنم اما مطمئن نیستم به دنبال چه چیزی بگردم و نمی توانم راه حل روشنی پیدا کنم. آیا کسی سرنخی از من دارد؟ با سلام پیشاپیش متشکرم
قدرت قرض گرفتن در سراسر مطالعات (FDR)
113747
من موضوعات زیادی را در اینجا مرور کرده ام، اما مواردی که می بینم همه در مورد پیش بینی یک متغیر واحد بسته به مقادیر تاریخی آن بود. در حالی که من می خواهم یک متغیر را با تخمین رابطه بین چندین متغیر پیش بینی کننده نیز پیش بینی کنم. بنابراین من سعی می کنم یک تابع $f(x_1,x_2, ... , x_p) = y$ -چگونه- می توانم یک رویکرد شبکه عصبی را برای چنین کاری اعمال کنم؟ اگر نه، چه جایگزین هایی می توانم برای این کار استفاده کنم؟ ## ویرایش: من سعی می کنم این را در MATLAB پیاده سازی کنم، بنابراین واقعاً از اجرای MATLAB چنین روش هایی قدردانی می کنم.
چگونه از شبکه های عصبی برای پیش بینی داده های سری زمانی با متغیرهای پیش بینی کننده استفاده کنیم؟
17712
> Cross در StackOverflow ارسال شد. من چند ماتریس پراکنده بسیار بزرگ دارم که با استفاده از تابع spMatrix از بسته ماتریس ایجاد شده است. استفاده از تابع ()sol برای مسئله Ax=b من کار می کند، اما زمان بسیار زیادی طول می کشد. چند روزه متوجه شدم که http://cran.r-project.org/web/packages/RScaLAPACK/RScaLAPACK.pdf به نظر می‌رسد تابعی دارد که می‌تواند تابع حل را موازی کند، با این حال، نصب بسته‌های جدید روی آن ممکن است چند هفته طول بکشد. سرور خاص سرور قبلاً بسته snow را نصب کرده است. بنابراین * آیا راهی برای استفاده از برف برای موازی سازی این عملیات وجود دارد؟ * اگر نه، آیا راه های دیگری برای تسریع این نوع عملیات وجود دارد؟ * آیا بسته های دیگری مانند RScaLAPACK وجود دارد؟ به نظر می رسید جستجوی من در RScaLAPACK نشان می دهد که مردم مشکلات زیادی با آن دارند. با تشکر جزئیات بیشتر * ماتریس ها حدود 370000 x 370000 هستند. من از آن برای حل مرکزیت آلفا استفاده می کنم، http://en.wikipedia.org/wiki/Alpha_centrality. * من در ابتدا از تابع مرکزیت آلفا در بسته igraph استفاده می‌کردم، اما R را خراب می‌کرد. روابط * محاسبه عدد شرط و چگالی مدتی طول می کشد. به محض در دسترس بودن پست خواهد شد.
حل موازی Ax=b؟
52709
احتمال چرخاندن دقیقا دو شش در 6 رول یک قالب چقدر است؟ راه حل با فرمول احتمال دو جمله ای $$\binom است{6}{2} \left(\frac{1}{6}\right)^2 \left(\frac{5}{6}\right)^4 = \frac{15 \times 5^4}{6^6} = \frac{3125}{15552} \approx 0.200939.$$ اما با درک احتمال اولیه > احتمال = نتیجه موفق / مجموع نتایج ممکن بنابراین احتمال باید $15/ (6^6) \تقریبا 0.0003215.$ باشد. چون من این رویکرد را اشتباه نمی بینم. آیا کسی می تواند به من کمک کند تا بفهمم چرا رویکرد دوم اشتباه است؟
تابع احتمال دو جمله ای
53258
من به دنبال یک کتاب خوب هستم که به من MCMC در R را آموزش دهد، به ویژه Block Gibbs و Collapsed MCMC. ترجیحاً با شبه کد R که در کتاب نیز تکمیل شده باشد. آیا کسی توصیه خوبی دارد؟ من به دنبال کتابی هستم که فقط MCMC را آموزش دهد. با تشکر
کجا می توانم یک کتاب خوب پیدا کنم که MCMC را در R آموزش می دهد؟
17713
من با نمونه‌ای از نمرات آزمون کار می‌کنم که از 0 تا 100 متغیر است. این نمرات از مجموعه‌ای از 100 پاسخ باینری (0 یا 1) ایجاد می‌شوند، بنابراین هر چه مجموع حاصل بیشتر باشد، عملکرد بهتری خواهد داشت. توزیع این نمرات قطعاً عادی نیست: بسیار کج است. من علاقه مند به انجام یک تبدیل Box-Cox برای عادی تر کردن این داده ها هستم. از آنجایی که داده‌ها بسیار گسسته، اما ترتیبی هستند، من در نظر دارم یک تخمین چگالی هسته (که یک توزیع پیوسته را مدل می‌کند) انجام دهم و تبدیل را روی مدل حاصل (مقدار پیوسته) اعمال کنم. آیا این یک رویکرد معتبر است؟ اگر نه، من از هر گونه اشاره ای در مورد مدل سازی این نوع توزیع احتمال قدردانی می کنم.
آیا مدل‌سازی نمره‌های آزمون عددی گسسته به عنوان حاصل از یک متغیر تصادفی پیوسته معتبر است؟
54702
یک کوزه دارای نیمی از مرمرهای قرمز و نیمی سفید است. احتمال قرمز شدن یا تمام سفید شدن در 4 تساوی 12.5 درصد و احتمال قرمز شدن تمام سفید یا تمام قرمز در 7 تساوی 1.56 درصد است. چگونه می توان این درصدها را بدون دانستن تعداد واقعی تیله های قرمز و سفید در کوزه محاسبه کرد؟
سنگ مرمر در کوزه: احتمال رسم نمونه همگن
54709
به 3 گروه یک ویدیو نشان دادم و آنها قبل و بعد از آزمون به سوالات پاسخ دادند. گروه کنترل بدون تبلیغات آن را تماشا کرد گروه A آن را با تبلیغ A تماشا کرد گروه B آن را با تبلیغ B تماشا کرد نمونه به گونه ای است که آزمون باید ناپارامتریک باشد. برای آزمایش اینکه آیا تفاوت بین نمرات پیش آزمون/پس آزمون در بین گروه ها از نظر آماری معنادار است، چه کار کنم؟
آزمون ناپارامتریک برای 3 جفت همسان؟