_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
79624
می‌خواستم بدونم که آیا می‌توانم از معیار Akaike یا Schwarz استفاده کنم، حتی زمانی که باقی‌مانده‌هایی که هنگام اجرای رگرسیون از مدل به دست می‌آورم، نرمال نیستند. آیا فرض نرمال بودن با این معیارها وجود دارد یا می توانم بدون توجه به آن همیشه از آنها استفاده کنم؟
معیار انتخاب مدل باقیمانده های غیر عادی تولید می کند
13871
برنامه من یک کلاس کارخانه دارد که عناصر مدولار در آن ثبت شده است. یک متد run در کلاس کارخانه فراخوانی می شود که متعاقباً متدهای اجرا را روی ماژول ها اجرا می کند. من از Profiler PEAR PHP برای اندازه گیری سرعت اجرای هر ماژول در میکروثانیه استفاده می کنم. تا کنون من زمان های اجرا ماژول و دلتاهای هر زمان اجرا را در پایگاه داده خود ذخیره کرده ام. هنگامی که من زمان اجرا را نمودار می کنم (من می توانم اسپک ها و غیره را ببینم) این آمار تا حدودی جالبی ایجاد کرده است. با این حال، من تجربه زیادی با آمار ندارم، چه نوع تحلیلی برای بررسی عملکرد کد ارزشمند است؟ قصد من این است که قبل از استقرار ماژول های ساده نوشته شده را بگیرم. با تشکر
آمار کدهای محک
95609
من سعی می کنم با استفاده از کتابخانه پیش بینی برای R یک پیش بینی اولیه از حجم تماس ها انجام دهم. برای پیش بینی در بازه زمانی روزانه یا ماهانه مشکل زیادی ندارم، اما وقتی سعی می کنم ساعتی یا سه ماهه ساعتی پیش بینی کنم، دچار مشکل هستم. مشکلات تفاوت بین نقاط آنقدر کم است که وجود ندارد. داده‌های داده‌شده از مجموع‌هایی برای هر دوره تا 24 ماه تشکیل شده‌اند (من دوره‌های کوتاه‌تری را امتحان کرده‌ام بدون موفقیت). امتیازها فقط بین 8 صبح تا 8 بعد از ظهر هستند، به این معنی که 12 امتیاز در روز برای داده های ساعتی و 48 امتیاز در روز برای سه ماهه ساعت وجود دارد. من معتقدم که مشکل یا مربوط به cycle_length است یا احتمالاً نیاز به امتحان یک الگوریتم هموارسازی متفاوت است، متأسفانه تجربه من با آمار آنقدر کوچک است که ناچیز است. کد من به شرح زیر است: داده <- read.csv(input_csv، header=FALSE) ts_data <- ts(داده، فرکانس = طول_چرخه) ts_forecast <- forecast(ts_data، h = forecast_periods) write.csv(ts_forecast، output_c .names=FALSE) ویرایش: طبق درخواست، الف نمودار برخی از داده ها مجموعه داده کامل 24 ماه است (من با استفاده از تمام یا بخشی از آن آزمایش کرده ام). بدیهی است که قرار دادن این کار غیرعملی است، بنابراین در اینجا یک عکس فوری 7 روزه به طور تصادفی انتخاب شده است. فواصل ربع ساعتی 12 ساعت در روز، یعنی 48 امتیاز در روز. ![نمودار داده های تماس](http://i.stack.imgur.com/WFqZo.png)
پیش بینی حجم تماس در فواصل کوتاه با استفاده از R
100149
من با داده های آب و هوایی و به عنوان مثال سر و کار دارم. بارندگی هرگز نمی تواند کمتر از 0 باشد، رطوبت نسبی هرگز نمی تواند بیشتر از 100 باشد، و غیره. بنابراین وقتی به عنوان مثال. رسم بارش بر حسب دما نقاط زیادی روی محور x (و/یا y) قرار دارند. آیا می توانم آن را در تحلیل خود نادیده بگیرم یا می خواهم به عنوان مثال. ضرایب همبستگی در آن صورت قابل اعتماد نیستند؟
چگونه می توان با متغیر با محدودیت در همبستگی/رگرسیون رفتار کرد؟
31548
من مجموعه داده ای از موارد حادثه بر اساس فصل یک بیماری نادر دارم. به عنوان مثال، 180 مورد در بهار، 90 مورد در تابستان، 45 مورد در پاییز و 210 مورد در زمستان وجود داشته است. من در حال مبارزه با این هستم که آیا مناسب است خطاهای استاندارد را به این اعداد پیوست کنیم. اهداف تحقیق به این معنا استنباطی هستند که ما به دنبال یک الگوی فصلی در بروز بیماری هستیم که ممکن است در آینده تکرار شود. بنابراین، به طور شهودی احساس می‌شود که می‌توان معیاری از عدم قطعیت را به مجموع‌ها متصل کرد. با این حال، من مطمئن نیستم که چگونه یک خطای استاندارد را در این مورد محاسبه کنیم، زیرا ما با شمارش‌های ساده سر و کار داریم تا مثلاً با میانگین یا نسبت‌ها. در نهایت، آیا پاسخ به این بستگی دارد که داده ها نشان دهنده جمعیت موارد (هر موردی است که تا کنون رخ داده است) یا یک نمونه تصادفی؟ اگر اشتباه نکنم، به طور کلی ارائه خطاهای استاندارد با آمار جمعیت منطقی نیست، زیرا هیچ استنتاجی وجود ندارد.
خطای استاندارد یک شمارش
108463
من در حال حاضر در حال نوشتن نرم افزاری هستم که جایگزین یک سیستم قدیمی موجود می شود که واحدها را در برابر مشخصات مهندسی مختلف آزمایش می کند. از آنجایی که در حال حاضر در حال بررسی کارکرد همه چیز هستم، و توانستم تمام داده‌های مربوط به تمام بخش‌های آزمایش شده در سیستم قدیمی را در پایگاه داده جدیدم جمع‌آوری کنم، تصمیم گرفتم همه واحدها را بر اساس مشخصات مربوطه خود اجرا کنم (780000 واحد). من نتایج آزمایش‌ها را گرفتم و آنها را طوری قالب‌بندی کردم که تیم مهندسی آن را مرور کند. مهندسان نسبت به نسخه نرم افزار من مشکوک شدند و ادعا کردند که سیستم من تعداد زیادی از واحدها را خراب می کند. از آزمایش محدود من، به نظر می رسد که نرم افزار جدید و قدیمی به همان تعداد واحد را پشت سر گذاشته اند. من نمی‌توانم همان تحلیل را با نرم‌افزار قدیمی انجام دهم و آن را در برابر همه واحدها اجرا کنم تا درصد خرابی کلی را به دست بیاورم. با این حال، من می توانم گزارش های نمونه کوچکی را در زمان خودم در سیستم جدید و قدیمی اجرا کنم و نتایج را برای همان واحدها مقایسه کنم. اگر بتوانم اطلاعات مربوط به واحدهای X را بین هر سیستم جمع‌آوری کنم و درصدهایی را که در سیستم جدید و قدیمی شکست می‌خورند جمع‌آوری کنم، از چه آزمون آماری می‌توانم استفاده کنم تا ثابت کنم که داده‌ها تفاوت معنی‌داری ندارند یا از سیستمی به سیستم دیگر تفاوت چشمگیری دارند. ? من تجربه کلاس‌های آمار پایه را دارم و به یاد دارم که مشکل مشابهی را یاد گرفتم، اما در درس‌هایم کاملاً یک جای خالی می‌کشم که از چه روش‌شناسی برای این نوع نمونه‌گیری استفاده کنم.
پیدا کردن اگر یک سیستم تست ساخت جایگزین در واحدهای بیشتری با شکست مواجه شود
33946
در عرصه‌های خاص، توانایی مداخله زودهنگام برای جلوگیری از بدتر شدن مشکلات بسیار ارزشمند است، زیرا پس از یک نقطه خاص، کار زیادی نمی‌توانید انجام دهید. دو مثال ممکن است بهداشت عمومی یا آموزش باشد. بگوییم که ما یکسری اطلاعات در مورد دانش آموزان داریم -- اطلاعات جمعیت شناختی آنها، ریز نمرات گذشته آنها، نمرات آنها در یک دوره در حین پیشرفت، نتیجه نهایی (A، B، C، D، F) و غیره -- و ما علاقه مندند بدانند، به نوعی، نتیجه آنها در چه نقطه ای ثابت است. (من در واقع علاقه مندم بدانم در چه مقطعی تغییرات در رفتار آنها یا مداخلات معلمان چیزی را تغییر نمی دهد، اما من داده ای از آزمایشات انجام شده با مداخلات انجام شده در مقاطع زمانی مختلف یا چیزی شبیه به آن ندارم.) فکر فعلی این است که من باید یک سری مدل های پیش بینی را بر اساس اطلاعاتی که در روز اول، روز پنجم، روز دهم و غیره در دسترس بود بسازم. سپس دقت توزیع احتمالات را بر روی درجه های ممکن ارزیابی کنم. که هر یک از این مدل ها برای هر دانش آموز تف می دهد (شاید با نمره بریر) و این را در مقابل تاریخ اطلاعاتی که مدل در نظر می گیرد ترسیم می کند. سپس می‌توانم روی همان نمودار رسم کنم که چگونه میانگین واریانس توزیع‌های احتمال با گذشت زمان تغییر می‌کند. این به من ایده می دهد که چقدر می توانیم با گذشت زمان از نتیجه یک دانش آموز مطمئن باشیم و شاید نقطه ای را آشکار کنیم که پس از آن بتوانیم حدس بزنیم که مداخلات دیگر موثر نیستند. آیا این معقول به نظر می رسد؟ آیا می توانید راه های بهتری برای این کار فکر کنید؟
تخمین یک چارچوب زمانی برای مداخلات یا قضاوت در مورد میزان «تعیین شدن» رویدادها با گذشت زمان
33948
من روی عدم قطعیت مربوط به کمیت محاسبه شده از پروژه مونت کارلو کار کرده ام. به طور معمول من از روش بوت استرپ با نمونه برداری مجدد با جایگزینی استفاده می کنم، به چند دلیل فنی که در اینجا به خصوص آسان نیست. پیشنهاد شد که من فقط مجموعه داده های MC خود را جدا کنم و آزمایش را با این زیر مجموعه ها انجام دهم و عدم قطعیت را از این طریق بیابم. من در گذشته با ارجاعاتی به bootstrapping تنها با یک زیر مجموعه از مجموعه داده اصلی مواجه شده ام. آیا کسی می تواند به من یک آموزش در این زمینه را راهنمایی کند یا به طور خلاصه توضیح دهد که چگونه بوت استرپ کردن با جایگزینی و فقط تنظیم تعداد نمونه ها به کسری از اندازه کل متفاوت است. من به طور خاص علاقه مند به روشی هستم که به این معنی است که $n$ می تواند برای هر نمونه فرعی متفاوت باشد، این تحلیل من را بسیار ساده تر می کند.
زیر نمونه راه انداز
31540
من برخی از داده های بد بو دارم که می خواهم آنها را در فرم ارائه نهایی قرار دهم و امیدوار بودم که ایده های خلاقانه ای در مورد نحوه انجام آن به دست بیاورم. داده‌های من اندازه‌گیری‌های طول‌های مختلف را با هم مقایسه می‌کنند، بنابراین برای مثال من 52 نمونه هفتگی از 6 ماده شیمیایی مختلف (بار چند تکرار)، 26 نمونه 2 هفته‌ای، نمونه‌های طولانی 12 ماه، 4 نمونه سه ماهه، 2 نمونه شش‌ماهه و یک نمونه سالانه دارم. من دقت هر مدت زمان را با یکدیگر در مجموع 15 مقایسه مقایسه کرده ام (هفته در مقابل 2 هفته، هفته در مقابل ماه، و غیره) تا با محاسبه ٪ بایاس، میزان انحراف از دیگری را به طور متوسط ​​بیابم، که در آن سوگیری منفی نشان می دهد که طولانی تر بودن 2 نمونه کم گزارش و سوگیری مثبت نشان می دهد که کوتاهتر از 2 نمونه گزارش نشده است. بنابراین من یک درصد تعصب متوسط ​​و یک فاصله اطمینان 95 درصد برای هر یک از 6 ماده شیمیایی برای هر مقایسه مدت زمان دارم. فواصل اطمینان من دارای عرض های متفاوتی است زیرا بدیهی است که من نقاط داده بسیار کمتری برای مقایسه های مربوط به نمونه های سالانه دارم. مثالی در زیر آورده شده است: Chem1 هفته v دو هفته هفته v ماه هفته v سه ماهه هفته v ششم سال .... low95 -10 -12 -15 -17 mean 0 2 2 -1 high95 10 14 17 15 چگونه می توانم این را در یک بسته بندی کنم گرافیک زیبا (یا جدول کد رنگی یا چیزی) که می تواند میانگین تعصب برای هر شیمی و فاصله اطمینان همراه را نشان دهد. (شاید برجسته کردن کسانی که قدرت بیشتری دارند؟) و همچنین برای هر مقایسه مدت زمان (به طور ایده آل حفظ برخی نمایش های بصری طول زمان نسبی). من از داشتن 6 گرافیک (یکی برای هر ماده شیمیایی) راضی هستم، اما فکر نمی کنم که 15 (یکی برای هر مقایسه) بخواهم. من فکر می‌کردم که یک رمپ رنگی می‌تواند به یک بعد اضافی برای آن کمک کند، اما واقعاً نمی‌دانم چگونه آن را در R پیاده‌سازی کنم. راه‌حل‌های خلاقانه‌ای وجود دارد؟ کمک به افزایش رنگ؟ لطفاً به خاطر داشته باشید که من در R کار می کنم و می توانم بگویم که مهارت های R من در حد متوسط ​​است. یک تن متشکرم!
چگونه داده های خود را به شیوه ای بصری دلپذیر نمایش دهم؟
103026
من خارج از DeGroot و Schervish درس می خوانم و سعی می کنم ریاضیات prob/stat را به دقت درک کنم. در فصل 4.3 در مورد واریانس، آنها این قضیه را بیان می کنند که به X یک RV داده می شود که میانگین و var آن وجود دارد، سپس Var(X) = 0 اگر X یک ثابت است. درک این قضیه به خودی خود ساده است: من سعی می کنم درک محکمی در مورد چگونگی اثبات دقیق آن برای موردی که X یک RV پیوسته است به دست بیاورم. این کتاب مدرکی ارائه می‌دهد که واقعاً با رفتار آنها با انتظارات سازگار نیست. من فکر می‌کنم اثبات این نتیجه (بدون استفاده از نظریه اندازه‌گیری) از طریق ابزاری که قبلاً معرفی کرده‌اند امکان پذیر است و در آن از این واقعیت استفاده می‌کنند که اگر $A_n$ مجموعه‌ای از مجموعه‌های تودرتو باشد، پس حد احتمال. اینکه زوج در تقاطع آنها باشد حد احتمال $A_n$ است. (بنابراین در این مورد، می توان مجموعه ای از بازه های تو در تو بسته را در نظر گرفت $A_n$ = [c-$\frac{1}{n}$,c+$\frac{1}{n}$]. اگر فرض کنیم اگر pdf پیوسته باشد، به نظر می رسد که باید بتوانید از این واقعیت استفاده کنید تا استدلال کنید که حد مقادیر مورد انتظار برابر با مقدار مورد انتظار واقعی خواهد بود، اگرچه من فکر می کنم این محدودیت ها را پوشش نداده ام به طور مستقیم این منطقی است، من در واقع نمی دانم که آیا این روش به نظر روشی مناسب برای ادامه دادن است؟
استدلال نظری غیر اندازه گیری برای Var(X) = 0 اگر X ثابت باشد (X RV پیوسته)
103028
تفاوت بین مدل تصحیح خطای برداری و UVECM چیست؟ کدام یک بهتر است برای داده های سری زمانی 30 ساله (برای مطالعه رابطه بلندمدت و کوتاه مدت) که مقادیری از دست رفته دارد استفاده شود؟
تفاوت بین مدل تصحیح خطای برداری و UVECM چیست؟
95624
من تصویر زیر را در مقاله ای که داشتم می خواندم دیدم. آیا کسی می تواند درباره چگونگی توسعه آن توضیح دهد؟ این مقاله است \- صفحه 34 ![نمایش شعاعی توابع چگالی احتمال](http://i.stack.imgur.com/CiCPw.jpg)
تجسم شعاعی برای توابع چگالی احتمال
87553
من یک رگرسیون پواسون را به داده های فرکانس ادعای خود برازش داده ام. پیش بینی من از وسیله نقلیه است. من نتیجه زیر را به دست آوردم: ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (Intercept) -19.99774 1138.82118 -0.018 0.98599 make2 -0.30873 0.20550 -1.502 0.13302 make3 -0.3917174 -0.3917174 -0.29174 -0.291 0.2 -0.38375 0.13388 -2.866 0.00415 ** چگونه ضرایب منفی را تفسیر کنم؟ با تشکر
تفسیر ضرایب منفی مدل پواسون
11096
چگونه می توانم اثرات اصلی (ضرایب فاکتور رمزگذاری شده ساختگی) را در رگرسیون پواسون تفسیر کنم؟ مثال زیر را فرض کنید: درمان <- فاکتور(rep(c(1، 2)، c(43، 41))، سطوح = c(1، 2)، برچسب ها = c(دارونما، درمان شده)) بهبود یافت <- عامل(rep(c(1، 2، 3، 1، 2، 3)، c(29، 7، 7، 13، 7، 21))، سطوح = c(1، 2، 3)، برچسب ها = c(هیچ، بعضی، علامت گذاری شده)) تعداد داروها <- rpois(84، 10) + 1 ارزش سلامت <- rpois(84، 5) y <- data.frame(ارزش سلامت، تعداد داروها ، درمان، بهبود یافته) تست <- glm(ارزش سلامت ~ تعداد داروها+ درمان+ بهبود یافته، y family=poisson) summary(test) خروجی این است: Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (برق) 1.88955 0.19243 9.819 <2e-16 *** numberofdrugs -0.02303 0.01624 -1.418 0.156 درمان شده -0.01271 درمان شده -0.01271 0.01271 0.01271 0.109T1 - 0.109T 0.108 - 0.1081 بهبود یافته -0.13541 0.14674 -0.923 0.356 MAIN EFFECT بهبود یافتهmarke -0.10839 0.12212 -0.888 0.375 MAIN EFFECT --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 می دانم که نرخ حادثه برای «تعداد داروها» «exp(-0.023)=0.977» است. اما چگونه اثرات اصلی را برای متغیرهای ساختگی تفسیر کنم؟
چگونه ضرایب را در رگرسیون پواسون تفسیر کنیم؟
103020
من همین سوال را در Stack Overflow ارسال کردم. من از رگرسیون حداقل مربعات داده ها با خطاهای اندازه گیری شده در هر دو x و y استفاده می کنم و از مربع کای کاهش یافته (میانگین انحراف وزنی مربع: mswd) به عنوان معیار برازش استفاده می کنم. با این حال، برخی از مفروضات برای استفاده از مجذور کای کاهش یافته به احتمال زیاد برآورده نمی شوند و من می خواهم به سمت رویکرد mcmc/bayesian با استفاده از PyMC حرکت کنم. من در وب جستجو کرده ام اما به نظر نمی رسد دقیقاً چیزی را که به دنبالش هستم پیدا کنم، بیشتر نمونه ها فرض می کنند عدم قطعیت داده ها گاوسی است، اما در اینجا من عدم قطعیت ها را در x و y اندازه گیری کرده ام. به نظر می رسد که من باید بتوانم این کار را در PyMC2 یا PyMC3 با glm انجام دهم. در اینجا یک مجموعه داده معمولی رسم شده است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/un9Rr.png) و داده های همراه با آن: # داده ها در ستون ها، مشاهدات در ردیف ها # مقادیر اندازه گیری شده x در مقابل y، # انحرافات استاندارد اندازه گیری شده sx و sy. x sx y sy 0.3779397 0.001889699 0.5130084 2.748546e-05 0.3659092 0.001829546 0.5129624 2.72183838e-405 0.001715417 0.5129023 2.720073e-05 0.4121606 0.002060803 0.5130235 2.755231e-05 0.3075815 0.0075815 0.00015 2.776967e-05 0.3794471 0.001897236 0.5129950 2.842079e-05 0.1447394 0.000723697 0.5126784 0.5126784 2.81020e به عنوان مثال در جستجوی هر مرجعی هستم این پیشاپیش ممنون
رگرسیون خطی قوی PyMC با عدم قطعیت های اندازه گیری شده
81451
آیا تکنیک های نموداری (انواع خاصی از نمودارها) مشابه نمودارهای جعبه ادوارد توفت - نشان داده شده در زیر - وجود دارد اما توزیع نقاط داده را در نظر می گیرد؟ ![نقاط جعبه به سبک ادوارد توفت](http://i.stack.imgur.com/ZC2SJ.jpg) اما به جای اینکه یک خط سیاه به صورت عمودی حرکت کند، یک خط رنگی (مثلا قرمز) می خواهم که شدت قرمزی آن تغییر کند. در رابطه با فراوانی نقاط داده در محل. چیزی که من دقیقاً تصویر می کنم یک خط قرمز عمودی است که از 1٪ تا 99٪، با خطوط خاکستری افقی در 25٪ و 75٪، یک خط سیاه در میانه، با شدت رنگ خط قرمز عمودی با توجه به تغییر است. به تعداد دفعاتی که هر نقطه داده در امتداد مکان عمودی اندازه گیری شد. هر ایده ای؟ ممنون، تام
ترکیب باکس پلات با شمارش فرکانس
83161
من دو متغیر دارم: سفارش و طول. اولی ترتیب یک دنباله را اندازه گیری می کند (یعنی همه جایگشت های A-B-C)، و اولی طول دنباله است (یعنی A-B-C طول 3 دارد). اینها بسیار همبسته هستند، و من می‌خواهم اندازه‌گیری سفارش را بر اساس طول عادی کنم. من انتظار داشتم که این عادی سازی به طور کامل همبستگی را ریشه کن کند - اما اینطور نیست. چگونه می تواند این مورد باشد؟ سفارش طول سفارش شناسه/طول X1 4 3 1.333333333 X33 2 1 2 X566 44 6 7.333333333 X681 4 2 2 X682 46 6 7.666666667 X80 2 همبستگی AF 198 152 نرمال سازی: 0.610 همبستگی کاهش یافته است، اما متغیرها هنوز همبستگی بالایی دارند. جاه طلبی من این بود که جزء نظم را که از طول جداست، جدا کنم، اما به نظر نمی رسد که در اینجا به آن دست پیدا کنم. چگونه می توانم این کار را انجام دهم؟ کجای فکر من اشتباه شده؟
آیا عادی سازی باید کاملاً همبستگی را از بین ببرد؟
89030
من سعی می‌کنم نحوه محاسبه شاخص رند یک الگوریتم خوشه‌ای را بفهمم، اما در این نقطه که چگونه منفی‌های درست و نادرست را محاسبه کنم گیر کرده‌ام. در حال حاضر من از مثالی از کتاب مقدمه ای بر بازیابی اطلاعات (مانینگ، راغوان و شوتزه، 2009) استفاده می کنم. در صفحه 359 آنها در مورد نحوه محاسبه شاخص رند صحبت می کنند. برای این مثال از سه خوشه استفاده می کنند و خوشه ها شامل اشیاء زیر هستند. 1. a a a a b 2. a b b b b c 3. a a c c c من شی را جایگزین می کنم (علائم اصلی به حروف، اما ایده و شمارش ثابت می مانند). من کلمات دقیق کتاب را می‌آورم تا ببینم در مورد چه چیزی صحبت می‌کنند: > ابتدا TP +FP را محاسبه می‌کنیم. این سه خوشه به ترتیب شامل 6، 6 و 5 نقطه > هستند، بنابراین تعداد کل مثبت یا جفت اسنادی که > در یک خوشه هستند عبارتند از: TP + FP = ${6 \choose 2}$ + $ {6 \choose 2}$ + ${5 \choose 2}$ = 15 + 15+ 10 = 40 > از اینها، جفت های a در خوشه 1، جفت های b در خوشه 2، جفت های c در > خوشه 3، و جفت a در خوشه 3 مثبت واقعی هستند: TP = ${5 \choose 2}$ + ${4 \choose 2}$ + ${ 3 \انتخاب 2}$ + ${2 \انتخاب 2}$ = 10 + 6 + 3 + 1 = 20 > بنابراین، FP = 40 - 20 = 20. تا اینجا محاسبات واضح است، و اگر مثال های دیگر را بیاورم همان نتایج را می گیرم، اما وقتی می خواهم منفی کاذب و منفی درست را محاسبه کنم Manning et al. موارد زیر را بیان کنید: > FN و TN به طور مشابه محاسبه می شوند، و در نتیجه جدول احتمالی زیر ایجاد می شود: جدول احتمالی به صورت زیر است: +--------+--------+ | TP: 20 | FN: 24 | +--------+--------+ | FP: 20 | TN: 72 | +--------+--------- جمله: FN و TN به طور مشابه محاسبه می شوند برای من واضح نیست و نمی دانم برای محاسبه TN و به کدام اعداد نیاز دارم. FN. من می توانم سمت راست جدول را با انجام موارد زیر محاسبه کنم: TP + FP + FN + TN = ${n \choose 2}$ = ${17 \choose 2}$ = 136 منبع: http://en.wikipedia .org/wiki/Rand_index بنابراین، FN + TN = 136 - TP + FP = 136 - 40 = 96، اما این واقعاً به من کمک نمی کند نحوه محاسبه متغیرها به طور جداگانه. به خصوص زمانی که نویسندگان می گویند: FN و TN به طور مشابه محاسبه می شوند. من نمی بینم چگونه. همچنین وقتی به نمونه‌های دیگر نگاه می‌کنم، آنها هر سلول جدول احتمالی را با نگاه کردن به هر جفت محاسبه می‌کنند. به عنوان مثال: http://www.otlet-institute.org/wikics/Clustering_Problems.html#toc-Subsection-4.1 اولین سوال من، بر اساس مثال Manning و همکاران (2009)، آیا امکان محاسبه TN و FN اگر فقط TP & NP را می دانید؟ و اگر چنین است، محاسبه مشابه بر اساس مثال داده شده چگونه به نظر می رسد؟
محاسبه شاخص رند
38393
من سعی می کنم از آزمون کای دو برای شناسایی داده های تصادفی استفاده کنم. من 256 دسته دارم، یعنی 255 درجه آزادی و تعداد دفعات بایت را می شمارم (0-255). همانطور که توسط Knuth پیشنهاد شده است، دنباله مشاهده شده از بایت ها تصادفی است، اگر مقدار خی دو بین مقادیر chi-square p=5% و p=95% باشد (من این مقادیر را از جدول خواندم). تست کار می کند اما سعی می کنم بفهمم چرا :) من در مورد آمار اطلاعاتی ندارم، این مشکل من در حال حاضر است. من سعی می کنم بفهمم که p-value در واقع چیست و رابطه آن با آلفا چیست. گفته می شود که اگر آماره کای محاسبه شده بسته به آلفا بالاتر از مقدار کای دو باشد، فرضیه صفر رد می شود. Knuth جدولی دارد که در آن تمام مقادیر مربع کای بسته به مقدار p فهرست شده است. کسی می تواند به من توضیح دهد که چرا؟ چرا او می گوید که اگر داده ها تصادفی باشند، آماره کای دو محاسبه شده باید بین 5%=p و 95%=p باشد؟ بچه ها از هر پاسخی بسیار متشکرم!
تفسیر مقدار مربع کای برای اعتبارسنجی اعداد تصادفی
89036
من در درک شهودی استدلال زیر مشکل دارم: درختانی که از طریق کیسه‌بندی به وجود می‌آیند به طور یکسان توزیع می‌شوند، بنابراین انتظار میانگین یک مجموعه از درختان همان انتظار یک درخت است 1) واقعاً توزیع درخت چیست؟ معنی؟ 2) چرا، زمانی که از طریق کیسه سازی ID تولید می شود؟
چرا درختان تولید شده از طریق بسته بندی به طور یکسان توزیع می شوند؟
104876
من موضوع مشابهی پیدا کردم اما با این سوال سروکار داشت که آیا بهتر است متغیر وابسته عددی را گسسته کنیم یا آن را همانطور که هست رها کنیم. من می خواهم بدانم تجربیات شما در مورد آموزش درخت تصمیم با استفاده از متغیرهای توضیحی پیوسته چیست. آیا بهتر است آنها را به مقادیر طبقه‌ای/ترتیبی تبدیل کنیم؟ اگر چنین است از چه روش هایی می توان استفاده کرد: آیا باید چندک هایی از توزیع آنها را در نظر بگیریم؟
درخت تصمیم: متغیرهای توضیحی مقوله ای در مقابل عددی
89033
من یک مدل تورم صفر با یک اثر تصادفی با استفاده از توزیع دو جمله ای منفی در R، با استفاده از تابع glmmadmb برازش داده ام. این به دلیل پراکندگی زیاد صفر و بیش از حد است. برای یک رگرسیون پواسون استاندارد می دانم که باید همخطی، اهرم و ثبات ضرایب (DF Beta) را آزمایش کرد. من می توانم همه این کارها را در R با استفاده از توابع مختلف برای رگرسیون poisson انجام دهم، اما هیچ کدام برای glmmadmb وجود ندارد که بتوانم آن را پیدا کنم. من تعجب کردم که آیا کسی راهی برای آزمایش اینها می داند؟ با تشکر
چگونه می توان مفروضات یک مدل دوجمله ای منفی با تورم صفر را در R آزمایش کرد؟
89032
من این دو مدل را ساخته ام: (model1 <- summary(lm(mpg ~ drat + wt + cyl, mtcars))) Call: lm (فرمول = mpg ~ drat + wt + cyl، داده = mtcars) باقیمانده ها: حداقل 1Q میانه 3Q Max -4.2944 -1.5576 -0.4667 1.5678 6.1014 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (انتقال) 39.7677 6.8729 5.786 3.26e-06 *** drat -0.0162 1.3231 -0.012 0.990317 wt -3.1947 0.8206 -3.1947 0.8293 -3.8293 *** -1.5096 0.4464 -3.382 0.002142 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 2.613 در 28 درجه آزادی چندگانه R-squared: 0.8302، R-squared تنظیم شده: 0.812 F آمار: 45.64 در 3 و 28 DF، p-value: 6.569e-11 (model2 <- خلاصه (lm(mpg ~ wt + cyl + drat, mtcars))) تماس: lm (فرمول = mpg ~ wt + cyl + drat، داده = mtcars) باقیمانده ها: حداقل 1Q Median 3Q Max -4.2944 -1.5576 -0.4667 1.5678 6.1014 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 39.7677 6.8729 5.786 3.26e-06 *** wt -3.1947 0.8293 -3.852 0.000624 *** سیلندر -1.5096 0.4 0.4 - 1.5096 0.46 -0.0162 1.3231 -0.012 0.990317 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 2.613 در 28 درجه آزادی چندگانه R-squared: 0.8302، R-squared تنظیم شده: 0.812 F آمار: 45.64 در 3 و 28 DF، p-value: 6.569e-11 درک من این است که R از پارتیشن بندی متوالی برای واریانس mpg استفاده می کند. بنابراین در «model1»، «drat» باید تنظیم نشده باشد، «wt» باید برای «drat» و «cyl» باید برای «drat» و «wt» تنظیم شود. در «model2»، «wt» باید تنظیم نشده باشد، «cyl» باید برای «wt» و «drat» باید برای «wt» و «cyl» تنظیم شود. با این حال، به نظر می رسد ضرایب در هر مدل دقیقاً یکسان است، که نشان می دهد ضرایب اصلاً تنظیم نمی شوند. آیا ضرایب اصلا تنظیم نمی شود؟
کنترل متغیرهای کمکی در رگرسیون خطی در R
6400
من در حال انجام یک تجزیه و تحلیل رگرسیون مرتبه اول چندگانه از داده های ژنتیکی هستم. بردارهای مقادیر y همگی از توزیع نرمال پیروی نمی کنند، بنابراین من باید یک رگرسیون ناپارامتریک را با استفاده از رتبه ها پیاده سازی کنم. آیا تابع `lm()` در R برای این کار مناسب است، به عنوان مثال، lin.reg <- lm(Y~X*Z) که در آن Y، X و Z بردارهای متغیرهای طبقه‌ای ترتیبی هستند؟ من به مقدار p اختصاص داده شده به ضریب عبارت تعامل در مدل مرتبه اول علاقه مند هستم. تابع lm() این را از آزمون t بدست می آورد، یعنی ضریب تعامل به طور قابل توجهی با صفر متفاوت است. آیا اجرای خودکار آزمون t برای تعیین این مقدار p مناسب است زمانی که مدل رگرسیون بر روی داده ها همانطور که توضیح داده شد انجام می شود؟ با تشکر **ویرایش** داده های نمونه برای وضوح: Y <- c(4، 1، 2، 3) # بردار رتبه های X <- c(0، 2، 1، 1) # بردار ژنوتیپ ها (0 = aa , 1 = ab, 2 = bb) Z <- c(2, 2, 1, 0)
رگرسیون ناپارامتریک
110441
من نمرات آزمون دو گروه را دارم، مثلاً A و B. و گروه اول شامل 186 نفر است در حالی که گروه دوم فقط 100 نفر دارد. در کل نمره بالاتر از گروه B. سوال من این است که چگونه می توانم نمرات آزمون را استاندارد کنم تا بتوانم آنها را با هم مقایسه کنم؟ من به این فکر کردم که نمرات گروه A را بر 186 و گروه B را بر 100 تقسیم کنم... آیا این کار می کند؟ ویرایش: نمرات به 7 گروه شامل بی قراری، تحریک پذیری، خواب و ... تقسیم می شوند که در اینجا یک نمونه از آن ها آورده شده است. > جدول (وضعیت، امتیازات خواب) وضعیت 0 1 2 3 4 6 8 9 0 170 3 3 7 0 1 1 1 1 82 5 3 6 3 1 0 0 وضعیت یک متغیر باینری است، 0 به این معنی که شرکت کننده بیماری ندارد ، و 1 در غیر این صورت. بنابراین در جدول بالا، 170 نفر از افراد کنترل عادی (با نام مستعار افرادی که این بیماری را ندارند) در آزمون نمره 0 می گیرند (هر چه امتیاز کمتر باشد، عملکرد بهتری دارد). 3 نفر نمره 1 می گیرند، در حالی که در گروه بیماری، 5 نفر امتیاز 1 را کسب می کنند. بنابراین من 7 مجموعه از این امتیازات را دارم، و آنها تقریباً شبیه یکدیگر هستند (بیشتر افراد امتیاز 0 دارند، فقط تعداد کمی از آنها 0 نمره دارند). بنابراین می خواهم مقایسه کنم کدام گروه بدتر است؟ و در کدام دسته وضعیت بدتری دارند؟ خواب، بی قراری و غیره؟
نحوه استاندارد کردن داده ها
47075
اگر دو مدل در موارد مختلف خطاهای پیش‌بینی داشته باشند، متفاوت هستند. من می دانم که معیارهای مختلفی برای کمی کردن تنوع وجود دارد، با این حال، من به دنبال تعریف مفهومی رسمی از آنچه ما در تلاش برای اندازه گیری هستیم هستم. پیشنهادی دارید؟
تعریفی برای تنوع مدل؟
82416
من در این دوره مشغول مطالعه ** رمزگذارهای خودکار ** بودم. اگر درست متوجه شده باشم، رمزگذار خودکار یک شبکه عصبی است که در آن لایه ورودی با لایه خروجی یکسان است. بنابراین، شبکه عصبی سعی می کند خروجی را با استفاده از ورودی به عنوان استاندارد طلایی پیش بینی کند. من یکسری اسناد در این مورد خواندم و چند کلیپ ویدیویی هم دیدم اما نمی توانم این مفهوم را درک کنم... **فایده این الگوریتم چیست؟ مزایای ** تلاش برای بازسازی برخی از عناصر خروجی و برابر کردن آنها تا حد امکان با عناصر ورودی چیست؟ **چرا باید از این همه ماشین برای رسیدن به یک نقطه شروع استفاده کرد؟** می دانم که این سوال ممکن است عجیب به نظر برسد...اما من واقعاً هیچ ایده ای در مورد چگونگی حل آن ندارم.
مفهوم و مزیت الگوریتم رمزگذار خودکار چیست؟
38394
من می‌خواهم نسبت بین دو چگالی توزیع را به‌دست بیاورم و نمی‌دانم که آیا رویکردی مستدل و ثابت برای انجام این کار وجود دارد. بیایید بگوییم که من دو نمونه برای متغیر تصادفی $X$ دارم که از دو جمعیت $P_1$ و $P_2$ می آید، که احتمالاً در محدوده معتبر $X$ به طور متفاوتی توزیع می شوند. سپس من می خواهم حداقل تابع $f(X)$ نسبت بین تراکم در هر دو جمعیت در محدوده $X$ را تقریبی کنم. $$f(x)=\frac{Density(x|P_1)}{Density(x|P_2)}$$ کاری که من در حال حاضر در R انجام می‌دهم تخمین چگالی هر نمونه با استفاده از تخمین چگالی هسته است (`density( )` تابع). سپس می توانم $f(X)$ را برای هر مقدار داده شده با درون یابی نزدیکترین تخمین های نقطه برگردانده شده توسط density() در هر نمونه و تقسیم مقادیر به دست آمده، تقریب بزنم. اگرچه این تا حدی رضایت بخش است، من نمی دانم که آیا راه بهتری وجود دارد. به‌ویژه، اگر یک پیاده‌سازی موجود در R وجود داشته باشد. برای مثال، می‌ترسم این نسبت در مناطقی که یک یا هر دو توزیع چگالی بسیار پایینی دارند بسیار متغیر باشد و نمی‌دانم آیا روشی برای به دست آوردن تخمین عدم قطعیت وجود دارد یا خیر. .
نسبت بین دو چگالی
87421
من مجموعه ای از مقادیر را دارم و می خواهم بررسی کنم که آیا آنها یکنواخت هستند یا خیر. امیدوارم از اصطلاحات درست استفاده کرده باشم، اما منظورم را توضیح خواهم داد. مقادیر زیر را در نظر بگیرید - 100,105,100,103,98. ما می توانیم ببینیم آنها به یکدیگر نزدیک هستند. ما می توانیم این یکنواختی را با نرمال کردن انحراف استاندارد تعریف کنیم. اکنون بیایید به مقادیر زیر نگاه کنیم - 100,105,100,103,98,198,200,203,205,100,105,100,103,98 انحراف استاندارد در اینجا کار نخواهد کرد، اما به وضوح در هر بخش یکنواخت است. برای بررسی یکنواختی در اینجا می توانیم بررسی کنیم که چه تعداد از نمونه ها بیش از d% از نمونه قبلی خود انحراف ندارند. به نظر می رسد که این کار می کند اما (و سوال اینجاست) - آیا رویکرد بهتری وجود دارد؟ من حتی نمی دانم چگونه این تست را برای امتحان و جستجوی مقالات صدا کنم. این به خوبی با موارد پرت برخورد نمی کند. من می توانم از میانگین متحرک یا میانه متحرک استفاده کنم، و دوباره - آیا چیز بهتری وجود دارد؟ با تشکر
بررسی اینکه مقادیر به صورت تکه ای یکنواخت هستند
82410
من در حال خواندن بحث در هکر نیوز در مورد استفاده از انحراف استاندارد در مقابل معیارهای دیگر مانند میانگین انحراف مطلق بودم. بنابراین، اگر از اصل حداکثر آنتروپی پیروی کنیم، اگر فقط میانگین توزیع و انحراف مطلق میانگین را بدانیم، از چه نوع توزیعی استفاده خواهیم کرد؟ یا استفاده از میانه و میانگین انحراف مطلق از میانه منطقی تر است؟ من یک مقاله اصل حداکثر آنتروپی با معیارهای انحراف عمومی توسط Grechuk، Molyboha و Zabarankin پیدا کردم که به نظر می رسد اطلاعاتی را دارد که من در مورد آن کنجکاو هستم، اما رمزگشایی آن مدتی طول می کشد.
حداکثر آنتروپی برای یک میانگین انحراف مطلق شناخته شده کدام توزیع است؟
68573
من یک سوال در مورد پیش بینی سری های زمانی دارم. به ویژه من با رویکرد بیزی کار کرده ام، اما فکر می کنم این سوال مستقل از آن است. من چندین سری زمانی دارم که از نظر زمانی بسیار پایدار هستند، به جز در تاریخ های خاصی که تغییرات ناگهانی دارند. مشکل این است که اگر از تکنیک پیش‌بینی استفاده کنم که به گذشته برای پیش‌بینی آینده نگاه می‌کند، مانند ARIMA، روزهای بعد از تغییرات ناگهانی تأثیر زیادی بر پیش‌بینی می‌گذارند. بنابراین، برای ارائه یک مثال ساده، فرض کنید من $x_{t+1} = \sum \beta_j x_j، j<t+1$ را پیش بینی می کنم، می خواهم حساب های جادوگر وزن دیگری را برای احتمال x_j$ اضافه کنم. ، چیزی شبیه $x_{t+1} = \sum f(x_j)\beta_j x_j، j<t+1$ که در آن $f(x_j)$ متناسب با $P(x_j)$. بنابراین، یک تغییر ناگهانی احتمال کمی دارد و نباید به پیش بینی کمک کند. کسی میدونه چطور با این نوع مشکلات برخورد کنم؟ من سعی می کنم این را در مدل بیزی پیاده کنم، اما اکنون مطمئن هستم که چگونه باید این کار را انجام دهم. به هر حال، ممنون پابلو
وزن دهی ضرایب سری زمانی با استفاده از احتمال مدل
15315
تفاوت هر کدام از آنها چیست؟ این صفحه ویکی - http://en.wikipedia.org/wiki/Latin_hypercube_sampling می‌گوید: در نمونه‌برداری متعامد، فضای نمونه به زیرفضاهای به همان اندازه احتمالی تقسیم می‌شود، که به نظر من مانند ویژگی توالی اختلاف کم است.
نمونه برداری متعامد، هایپرمکعب لاتین و توالی اختلاف کم
5664
من کاملاً مبتدی در آمار هستم (اگرچه آن را واقعاً جالب می‌دانم!)، و وظیفه توزیع بازخورد برای سخنرانان کنفرانسی را که با هم سازماندهی می‌کنم، بر عهده گرفته‌ام. به هر سخنران نمره ای در مقیاس 1-5 از شرکت کنندگان داده شد، و ما بازخورد همه شرکت کنندگان را در یک میانگین نمره، به عنوان مثال 3.56 ترکیب می کنیم. سپس می‌توانیم سخنرانان را بر اساس امتیاز میانگین سفارش دهیم. علاوه بر دادن میانگین امتیاز به سخنرانان، ما همچنین می خواهیم به آنها سرنخی در مورد نحوه عملکرد آنها در مقایسه با سایر سخنرانان بدهیم. برای جلوگیری از دلسرد کردن سخنرانانی که بدترین کار را انجام دادند (ما از مردم می خواهیم که دوباره تلاش کنند!)، ما یک معیار مبهم تری ارائه کردیم. می خواهیم بلندگوها را به چهار گروه تقسیم کنیم: 10% بهترین/20%/30%/40% بدترین. آیا نامی برای این وجود دارد؟ **ویرایش**: من یک مثال را امتحان می کنم. اگر ده گفتگو با نمرات {1.2، 1.3، 2.1، 2.4، 2.7، 3.0، 3.2، 4.1، 4.2، 4.5} داشته باشم، آنها را به این صورت تقسیم می کنم: 10% بهترین: 4.5 20% بعدی بهترین: 4.2، 4.1 30% بعدی بدترین: 3.2، 3.0، 2.7 40% بدترین: 2.4، 2.1، 1.3، 1.2 چیزی که من می خواهم بدانم این است که آیا نامی برای این محدوده ها وجود دارد یا خیر.
آیا نامی برای مقایسه نمرات فردی با مجموعه ای از نمرات وجود دارد؟
95620
من برای مصاحبه آماده می شوم و این یکی از سوالاتی است که با آن مواجه شده ام: چگونه می توانید یک تست A/B را روی یک ویژگی انتخاب کردن انجام دهید؟ فکر می کنم نمی توانید یک آزمون عادلانه را با انتخاب انتخاب کنید. در گزینه افرادی که نسخه A سایت را مشاهده می کنند از کل توزیع کاربران می آیند در حالی که افرادی که B را مشاهده می کنند فقط از مجموعه ای هستند که شرکت کرده اند. به نظر می رسد که این شرایط یک آزمایش کنترل شده را نقض می کند. برداشت شما در این مورد چیست؟
چگونه می توان تست am A/B را برای یک ویژگی که برای هر بازدید کننده ای قابل دسترسی نیست انجام داد؟
97109
فرض کنید ما مدل‌های رگرسیون چندک را با مجموعه‌ای از چندک‌ها بین 0 و 1 و یک رگرسیون خطی (یعنی رگرسیون میانگین) به یک مجموعه داده با همان مجموعه از متغیرهای کمکی برازش دادیم. از نظر تخمین ضریب رگرسیون برای یک متغیر کمکی خاص، مثلاً x، 9 تخمین از رگرسیون چندک مربوط به هر یک از 9 کمیت و تنها یک تخمین از رگرسیون میانگین دریافت خواهیم کرد. اگر آن تخمین‌ها را در همان نمودار رسم کنیم، با محور y مقادیر تخمین و محورهای x برای چندک‌ها را نشان می‌دهد، باید یک خط افقی برای تخمین از رگرسیون میانگین و یک خط زیگ که تخمین‌ها را از رگرسیون چندک به هم متصل می‌کند، دریافت کنیم. . سوال من این است که آیا این دو خط در هر موردی باید در یک نقطه (یعنی مقدار کمی) با هم تلاقی داشته باشند یا ممکن است برای همه چندک های ممکن با یکدیگر تلاقی نداشته باشند؟ آیا نتیجه گیری در تنظیم مدل مختلط چندک خطی و مدل مختلط خطی سازگار است؟ ویرایش @05/13: نمودار نمونه درج شد ![رگرسیون چندک \(جامد\) با خط رگرسیون میانگین تلاقی نمی‌کند \(نقطه‌دار\)](http://i.stack.imgur.com/Q8KbO.png ) با تشکر.
مقایسه نتایج رگرسیون چندک خطی با رگرسیون میانگین
83165
هسته برای نمونه‌برداری مجدد Lanczos با $$K(u) = \frac{a\text{sin}(\pi u)\text{sin}(\pi u/a)}{\pi^2u^2} تعریف می‌شود. .$$ چگونه می توان مقدار $a$ را برای به حداقل رساندن میانگین مربعات خطا، $\text{MSE} = b^2 + \sigma^2$ پیدا کرد؟ آیا حداقل یک رابطه مقیاس با اندازه مجموعه داده، $n$، مانند هسته های گاوسی وجود دارد؟ توجه: نمی‌دانم مهم است یا نه، اما اجازه دهید توزیع کاملاً مثبت را فرض کنیم.
اندازه هسته بهینه برای نمونه برداری مجدد Lanczos
6401
من در حال حاضر در حال تخمین دسته ای از مدل های ARMA هستم و از آنها برای پیش بینی زیرمجموعه های داده هایم استفاده می کنم. برای ارزیابی دقت پیش‌بینی آنها می‌خواهم چند نمودار ROC ایجاد کنم، اما از آنجایی که همه متغیرهای من پیوسته هستند، نمی‌دانم که چگونه می‌توان این کار را در R Best، Thomas P.S انجام داد. به نظر می رسد فقط برای متغیرهای دوگانه کار می کند.
نمودار ROC برای داده های پیوسته در R
83163
فرض کنید من دو نمونه دارم. اگر بخواهم بگویم که آیا آنها از جمعیت های مختلف کشیده شده اند یا خیر، می توانم یک آزمون t اجرا کنم. اما فرض کنید می خواهم آزمایش کنم که آیا نمونه ها از یک جامعه هستند یا خیر. چگونه یک نفر این کار را انجام می دهد؟ یعنی چطوری احتمال آماری که این دو نمونه از یک جامعه کشیده شده اند را محاسبه کنم؟
آزمون آماری برای تشخیص اینکه آیا دو نمونه از یک جامعه گرفته شده است؟
31546
من سعی می کنم چندک های تابع $f(x_i)$ را در معادله تخمین بزنم: $$ y_{it} = \alpha_i + f(x1_{it}, x2_{it}) + \epsilon_{it} $$ رویکرد فعلی، احتمالا ساده‌لوحانه من، اجرای رگرسیون خطی $y_{it} = \alpha_i + X_i\beta+ \epsilon_{it}$ است، محاسبه ارزش پیش بینی شده $X_i\beta$ و CDF تجربی آن. سپس برای تخمین فواصل اطمینان چندک های مختلف راه اندازی می کنم. من همچنین در نظر گرفتم که از یک مدل سلسله مراتبی استفاده کنم و فرض کنم که $f(x1_it, x2_it)$ از توزیع خاصی پیروی می کند، اما به نظر می رسید تقریباً مشکل را برطرف می کند. هر گونه پیشنهاد قدردانی می شود. همچنین، از آنجایی که این اولین پست من است، پیشنهادهایی در مورد چگونگی چارچوب بندی بهتر سؤال نیز مورد توجه قرار گرفت.
تخمین چندک های یک متغیر پنهان
15318
اگر بخواهم به سوال زیر پاسخ دهم، آیا وب سایتی وجود دارد که به من این امکان را بدهد؟ (یا قبلا انجام شده است؟) چند درصد از افراد دارای مدرک علوم کامپیوتر 30 تا 40 ساله متاهل هستند؟ چند درصد از افراد دارای مدرک تحصیلی 30 تا 40 ساله متاهل هستند؟ مطمئناً در جایی آنلاین سایتی وجود دارد که بتوانم چنین معیارهایی را در آن قرار دهم و نتایج اولیه را ایجاد کنم؟
سایت آنلاین برای ایجاد آسان آمار در مورد داده های سرشماری
71783
این سوال مربوط به احتمالات و آمار DEGROOT است. مشکل فرض کنید که دو تاس باید به طور مکرر ریخته شوند و مجموع $T$ دو عدد برای هر پرتاب مشاهده شود. ما باید احتمال $p$ را تعیین کنیم که مقدار $T =7$ قبل از مشاهده مقدار $T =8$ مشاهده شود. راه‌حل احتمال مورد نظر $p$ را می‌توان مستقیماً به صورت زیر محاسبه کرد: می‌توانیم فرض کنیم که فضای نمونه $S$ شامل تمام دنباله‌هایی از نتایج است که به محض جمع $T = 7$ یا مجموع $T = 8$ خاتمه می‌یابند. بدست می آید. سپس می‌توانیم مجموع احتمالات تمام دنباله‌هایی را که با به‌دست‌آمدن مقدار $T = 7$ خاتمه می‌یابند، پیدا کنیم. با این حال، رویکرد ساده تری در این مثال وجود دارد. می توانیم آزمایش ساده ای را در نظر بگیریم که در آن دو تاس ریخته می شود. اگر آزمایش را تکرار کنیم تا مجموع $T = 7$ یا مجموع $T = 8$ بدست آید، نتیجه آزمایش به یکی از این دو مقدار محدود می شود. از این رو، مشکل را می توان به صورت زیر بیان کرد: با توجه به اینکه نتیجه آزمایش $T = 7$ یا $T = 8$ است، احتمال $p$ را تعیین کنید که نتیجه واقعاً $T = 7$ باشد. اگر اجازه دهیم $A$ رویدادی باشد که $T = 7$ و $B$ رویدادی باشد که مقدار $T$ یا $7$ یا $8$ باشد، آنگاه $A∩ B = A$ و $$ p = Pr(A|B) = \frac{Pr(A ∩ B)}{Pr(B)} =\frac{Pr(A)}{Pr(B)} $$ اما $Pr(A) = 6/36$ و $Pr(B) = (6/36) + (5/36) = 11/36$. بنابراین، $p = 6/11$. اکنون، شک من این است 1. چرا نویسنده می‌گوید > می‌توانیم فرض کنیم که فضای نمونه $S$ شامل همه دنباله‌هایی از نتایج است > که به محض جمع $T = 7$ یا مجموع $T = 8$ پایان می‌یابد. به دست آمده است. سپس می‌توانیم مجموع احتمالات تمام > دنباله‌هایی را که با به‌دست‌آمدن مقدار $T = 7$ خاتمه می‌یابند، پیدا کنیم. > 2. چگونه می‌توانیم از دنباله‌های طولانی نتایجی که به محض اینکه مجموع $T = 7$ یا مجموع $T = 8$ به دست می‌آیند، به نتیجه آزمایشی که برای آن یا $T = خاتمه می‌یابد، برویم. 7 دلار یا T دلار = 8 دلار؟ >
احتمال اینکه وقتی تاس می اندازم، قبل از دیدن مبلغ 8 دلار، مبلغ 7 دلار روی آنها ببینم چقدر است؟
97104
من در حال مطالعه مقاله Sethuraman در مورد فرآیند دیریکله هستم و در نشان دادن یک لم مشکل دارم. وی بیان می کند: اجازه دهید $\boldsymbol\gamma=(\gamma_1,...\gamma_k)$ و $\gamma=\sum_j \gamma_j$ و اجازه دهید $\beta_j=\frac{\gamma_j}{\gamma}$, $ j=1،2،...،k$. سپس، $\sum_j \beta_j\mathcal{D}_{\boldsymbol\gamma+e_j}=\mathcal{D}_{\boldsymbol\gamma}$ در این لم $\mathcal{D}_{\boldsymbol\gamma }$ توزیع دیریکله با پارامترهای $\boldsymbol\gamma$ و $e_j$ بردار است 0 ها با 1 در موقعیت j. ستورامن می گوید که شواهد این لم در بسیاری از کتاب های درسی استاندارد، از جمله ویلکس (1962) یافت می شود. من سعی می کنم این لم را ثابت کنم. من آن را در هیچ کتاب درسی پیدا نکردم و نمی توانم نسخه ای از کتاب Wilks را پیدا کنم. من راه های زیادی آن را امتحان کرده ام. قابل توجه، با بیان دیریکله به صورت گاما و برای k=2.
مجموع وزنی دیریکله دیریکله است
15319
من 4 مجموعه نقطه داده دارم و برای هر کدام می خواهم ببینم این مقادیر از صفر چقدر متفاوت است. من از ابزار محاسبه نتایج آزمون در این صفحه استفاده کردم اما در درک نتایج مشکل دارم. نتایج برای 4 مجموعه از نقاط داده من عبارتند از: W+ = 3، W- = 12، N = 5، p <= 0.3125 برای 101 نقطه داده W+ = 12، W- = 3، N = 5، p <= 0.3125 برای 101 نقطه داده W+ = 451، W- = 1089، N = 55، p <= 0.007618 برای 297 نقطه داده W+ = 950.50، W- = 427.50، N = 52، p <= 0.01746 برای 297 نقطه داده لطفاً می‌توانید به من بگویید که کدام مقادیر را باید بررسی کنم و از نظر نتایج بالا چه معنایی دارد؟ آیا مقادیر p پایین به این معنی است که واریانس از صفر معنی دار نیست؟ با تشکر
لطفاً به من کمک کنید تا این نتایج آزمون رتبه‌بندی شده ویلکاکسون را تفسیر کنم
97101
من سعی می کنم بفهمم که چه گام های بعدی را باید بردارم. من یک مدل ایجاد کردم و OLS را بر روی نمونه بسیار بزرگی از داده ها (بیش از 400000 مشاهده) اجرا کردم و مقدار R-squared 0.80 به دست آوردم. بنابراین تناسب مدل واقعا خوب به نظر می رسد. با این حال، من یک تست Ramsey RESET را اجرا کردم و آمار آزمون آن به شدت حاکی از وجود متغیرهای حذف شده بود. مطمئن نیستم بعدش چیکار کنم آیا من فقط مدل را دور می اندازم و می گویم که برآوردها مغرضانه هستند. آیا به افزودن عبارت ادامه می‌دهم تا زمانی که تست RESET دیگر متغیرهای حذف شده را پیشنهاد نکند؟ این مدل در نظر گرفته شده است که در داخل و خارج از نمونه پیش بینی کند و با توجه به تناسب مدل با داده های مشاهده شده، آیا با وجود متغیرهای حذف شده، هنوز واقعاً برازش خوبی است؟ با تشکر
تناسب مدل زیاد است اما تست RESET رمزی متغیرهای حذف شده را پیشنهاد می کند. چه باید کرد؟
82419
من به نابرابری چبیشف یک طرفه زیر علاقه مند هستم: $$ \mathbb P(X - \mathbb E (X) \geq t) \leq \frac{\mathrm{Var}(X)}{\mathrm{Var} (X) + t^2} \,. $$ اساساً، اگر میانگین جمعیت و واریانس را بدانید، می‌توانید کران بالایی را بر روی احتمال مشاهده یک مقدار مشخص محاسبه کنید. (حداقل درک من این بود.) با این حال، من می خواهم از میانگین نمونه و واریانس نمونه به جای میانگین و واریانس واقعی جامعه استفاده کنم. من حدس می زنم که از آنجایی که این عدم قطعیت بیشتری ایجاد می کند، حد بالایی افزایش می یابد. آیا نابرابری مشابه با بالا وجود دارد، اما از میانگین و واریانس نمونه استفاده می کند؟ **ویرایش**: آنالوگ نمونه نابرابری چبیشف (نه یک طرفه)، کار شده است. صفحه ویکی پدیا دارای برخی جزئیات است. با این حال، من مطمئن نیستم که چگونه می تواند به مورد یک طرفه ای که در بالا آورده ام ترجمه شود.
آیا نمونه ای از نابرابری یک طرفه چبیشف وجود دارد؟
103021
من برخی از توزیع‌های آلوده دارم (یعنی توزیع‌هایی که بر اساس متغیرهای متعددی هستند که به یک مقدار دلخواه ٪ تعیین شده‌اند). در حال حاضر ما فقط از هنجاریست (یعنی تابع توزیع تجمعی نرمال) برای استخراج % برای هر مقدار استفاده می کنیم. آیا راه بهتری برای محاسبه توزیع هایی که ممکن است با استفاده از r کج یا عادی نباشند وجود دارد؟ اگر چنین است، کسی می تواند دستورات را ارائه دهد؟ پیشاپیش ممنون در صفحه اصلی r-project، من یک توزیع غیرعادی ترسیم شده و چیزی شبیه تابع چگالی تجمعی را می بینم که بر روی مجموعه ای از مقادیر اعمال می شود، احتمالاً برای یافتن مساحت آن برای استخراج ٪ از محدوده. http://www.r-project.org/
با استفاده از R، آیا می‌توانم مجموعه‌ای از ورودی‌ها را برای تنظیم خودکار یک توزیع و استخراج تابع توزیع تجمعی با توجه به هر مقدار وارد کنم؟
100635
من دوزهای مختلفی از یک دارو را به موش می‌دهم و پاسخ کمی را اندازه‌گیری می‌کنم. من می خواهم تعیین کنم که آیا رابطه خطی بین دوز دارو و پاسخ وجود دارد یا خیر. به نظر می رسد که همبستگی پیرسون بتواند این کار را انجام دهد. اما من در حال آزمایش چندین موش در هر دوز هستم، بنابراین چندین مشاهده از متغیر وابسته در هر سطح از متغیر مستقل دارم. و من به ارتباط بین دوز و میانگین جمعیت واقعی پاسخ در هر دوز علاقه مند هستم. من می خواهم مقادیر r و p (در اصطلاح استاندارد پیرسون) را بدانم، یعنی اینکه چقدر رابطه قوی است و از نظر آماری چقدر معنادار است. بنابراین من به چیزی مانند همبستگی پیرسون در اندازه‌گیری‌های مکرر نیاز دارم، اما نتوانستم هیچ کاربردی از آن پیدا کنم (اگرچه فکر می‌کردم این یک موقعیت بسیار معمولی و تحلیل رایج است). ممکن است راهنمایی کنید که چگونه می توان چنین تحلیلی را انجام داد؟ متشکرم.
همبستگی پیرسون با مشاهدات متعدد در هر سطح از متغیر مستقل
16753
من در تلاش برای پیاده سازی طبقه بندی کننده Watson Nadaraya هستم. یک چیز وجود دارد که من از معادله متوجه نشدم: $${F}(x)=\frac{\sum_{i=1}^n K_h(x-X_i) Y_i}{\sum_{i=1} ^nK_h(x-X_i)}$$ برای کرنل K از چه چیزی استفاده کنم؟ من یک مجموعه داده دو بعدی دارم که دارای 1000 نمونه است (هر نمونه به این صورت است: «[-0.10984628، 5.53485135]». چیزی که من را گیج می کند این است که، بر اساس داده های من، ورودی تابع هسته چیزی شبیه به این خواهد بود: K([-0.62978309, 0.10464536]) و آنچه من می فهمم، به جای آرایه مقداری عدد تولید می کند، بنابراین می توانم ادامه دهید و F(x) را محاسبه کنید که یک عدد نیز خواهد بود. سپس بررسی می کنم که آیا > یا <= از صفر است. اما من هیچ هسته ای را پیدا نکردم که یک عدد تولید کند. خیلی گیج شده ویرایش: من سعی کردم طبقه بندی کننده خود را بر اساس نظرات پیاده سازی کنم، اما دقت بسیار پایینی گرفتم. اگر کسی متوجه شود چه مشکلی در آن وجود دارد سپاسگزارم. def gauss(x): return (1.0 / np.sqrt(2 * np.pi)) * np.exp(- 0.5 * x**2) def transform(X, h): A = [] برای i در X : A.append(stats.norm.pdf(i[0],0,h)*stats.norm.pdf(i[1],0,h)) A N = 100 # پیش تخصیص مقداری میانگین و واریانس میانگین 1 = (0,9) mean2 = (0,5) cov = [[0.3,0.7],[0.7,0.3]] # ایجاد یک مجموعه داده 1 = np.random.multivariate_normal( mean1,cov,N) مجموعه داده 2 = np.random.multivariate_normal(mean2,cov,N) X = np.vstack((dataset1, database2)) # برچسب‌های از پیش تعیین شده Y1 = [1]*N Y2 = [-1]*N Y = Y1 + Y2 # با تعیین عرض h = 0.5 #اکنون، داده‌ها را تبدیل کنید X2 = تبدیل (X, h) j = 0 پیش بینی شده = [] برای i در X2: # معادله را اعمال کنید fx = sum((gauss(i-X2))*Y)/float(np.sum(gauss(i-X2))) # اگر fx>0 باشد، اگر fx >0 به کلاس 1 تعلق دارد: predicted.append(1) else: predicted.append(-1) j = j+1
کدام تابع هسته برای طبقه بندی کننده Watson Nadaraya؟
97100
منظور از مرتبط در مرتبط پسین به چه معناست؟ به عنوان مثال، > نقطه شروع در این محاسبه، تجزیه **مرتب > خلفی** به **مرتبط حاشیه ای و شرطی** و به دنبال آن تخمین مونت> کارلو است... من فقط معنی مرتبط را می دانم. wrt abscissa.
منظور از مرتبط در مرتبط پسین به چه معناست؟
103027
ویکی‌پدیا جدول زیر را برای محاسبه اندازه‌های نمونه دارد: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/YFl1b.png) جدول برای اهداف زیر ایجاد شده است: * سطح معنی‌داری 0.05. * قدرت آماری * d کوهن (یعنی اندازه اثر) چگونه می توان این جدول را محاسبه کرد؟ برای یک ورودی داده شده ($\alpha$ مطلوب، توان و d کوهن)، چگونه می توان حداقل حجم نمونه را محاسبه کرد؟ آیا رابطه جبری بین این مقادیر وجود دارد؟ آیا این یک مشکل معکوس است؟ همچنین، فرض می‌کنم که در بالا فرض می‌شود که هر دو گروه دارای حجم نمونه $n=n_1=n_2$ هستند. آیا رابطه (یا معادله) مشابهی وجود دارد که $n_1$ و $n_2$ مجاز هستند متفاوت باشند؟
تخمین حجم نمونه برای آزمون فرضیه صفر
47077
آیا تحقیق/مقاله ای در مورد رابطه بین تعداد اسناد برای آموزش و عملکرد طبقه بندی با استفاده از ماشین بردار پشتیبان وجود دارد؟
رابطه بین تعداد مجموعه آموزشی و عملکرد طبقه بندی
90984
من مدلی دارم که در آن موقعیت سیاسی (چپ-راست) ائتلاف در قدرت، در میان چیزهای دیگر، بازده سهام را توضیح می‌دهد. تمام داده ها ماهانه است. نتایج را در زیر مشاهده کنید. سوال این است که آیا ~28% R-squared را به اندازه کافی بالا در نظر می گیرید؟ داده های مالی همه بازده است، بنابراین من معتقدم که باید ثابت باشد. نظر دیگری در مورد آنچه می بینید دارید؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/wFAMM.png)
آیا مربع R برای این مدل قابل احترام است؟
83164
من به دنبال راه‌اندازی یک آزمون Simes در R هستم. من سعی می‌کنم نشان دهم که تست Simes در زمانی که یک همبستگی مثبت وجود دارد محافظه‌کارانه است. من می دانم که مقادیر p با استفاده از تابع p.adjust چقدر درست است، اما من به دنبال راه اندازی یک شبیه سازی تحت شرایط زیر هستم: 1.) توزیع چند متغیره $\mathcal{N}$(0,1). 2.) $\alpha$ = 0.05 3.) تعداد k تست = 2، 20، و 100 4.) $\rho$ = 0، 0.5، و 0.9 من این کد را به عنوان مرجع برای استفاده دارم: library( MASS) آلفا <- 0.05 متر <- 20 n.sim <- 10000 n. رد <- rep(0,n.sim) rho<- 0 mu <- rep(0,m) Sigma <- matrix(rho,m,m) diag(Sigma) <- 1 for (i in 1:n.sim) { z <- rnorm(m) z <- mvrnorm(1,mu,Sigma) p <- pnorm(z) n.رد[i] <- طول (p[p<=alpha]) }
چگونه تست سیمز را اجرا کنیم؟
47071
من داشتم این مقاله مربوط به یادگیری از چندین حاشیه نویس با استفاده از فرآیندهای گاوسی را می خواندم. ایده این است که اگر ما حقیقت واقعی یک داده خاص را نداشته باشیم، بلکه فقط برچسب های برخی متخصصان پر سر و صدا را داشته باشیم، چگونه می توانیم مدلی را از این داده ها از چندین متخصص پر سر و صدا یاد بگیریم و بر روی داده های آینده پیش بینی کنیم اساساً بچه‌ها انجام داده‌اند، میانگین وزنی برچسب‌ها از پیش‌بینی‌کننده‌های فردی، بر اساس دقت آن‌ها، گرفته می‌شود تا یک برچسب واحد برای هر نقطه به دست آید. سپس آنها از GP استفاده کرده اند تا فرض کنند که نقاط داده متعلق به یک توزیع گاوسی است. با این حال، زمانی که آنها احتمال $p(Y)$ را استخراج کرده‌اند، این سوال/گیج را دارم که در آن $Y$ مجموعه‌ای از برچسب‌های ارائه‌شده توسط متخصصان نویز است. من اسکرین شات را هم اضافه کردم![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/6vbLU.png) می دانم کسی که می تواند به این سوال پاسخ دهد باید مقاله و همه چیز را بررسی کند، اما من قبلاً زمان قابل توجهی را صرف کرده‌ام تا بفهمم چگونه این $-\log p(Y)$ چنین شد اما نتوانستم. اگر کسی بتواند به من نکاتی بدهد واقعا ممنون می شوم
سردرگمی مربوط به محاسبه احتمال
73922
من از یک تابع Matlab داخلی برای بررسی علیت گرنجر بین دو سری زمانی P و T که ضریب همبستگی 0.6 دارند استفاده کردم. تابع این است: https://www.mathworks.com/matlabcentral/fileexchange/25467-granger-causality- test/content/granger_cause.m در اجرای آن، پاسخ زیر را دریافت کردم: >> [fs,cv] = granger_cause (P، T، 0.05،2) fs = 1.0281e+003 cv = 2.9966 که در آن FS F-Statistic و cv مقدار بحرانی از F-Distribution است. آیا این علیت را نشان می دهد؟ در واقع ... چه چیزی را نشان می دهد؟
آیا این پاسخ تست برای نشان دادن علیت گرنجر به اندازه کافی خوب است؟
97108
فرضیه من این بود که احساسات مصرف کننده (چگونه مردم نسبت به بازار من احساس می کنند) بر داوجونز تأثیر گذاشته است، من برخی از آزمون های علیت اساسی VAR و Granger را انجام دادم و متوجه شدم که دقیقاً برعکس است، که داوجونز بر احساسات مصرف کننده در فاصله اطمینان 99 درصد تأثیر می گذارد (فقط برخی پس زمینه). صرف نظر از این، من امیدوار بودم که کسی بتواند به من کمک کند تا توضیح دهم که چه اتفاقی در حال رخ دادن است، یا حداقل نظریه ای ارائه کنم که چرا این تفاوت با کراس همبستگی پایه بدون اولین تفاوت به نظر می رسد. اگر می خواهید مدل های دیگری را ضمیمه کنم فقط به من اطلاع دهید. همبستگی متقابل احساسات مصرف کننده و اولین تفاوت شاخص داوجونز (میانگین ماهانه) _آنچه می خواهم تفسیر کنم_)![](http://i.stack.imgur.com/WwpPu.png) همبستگی متقابل مصرف کننده احساسات و شاخص داوجونز (میانگین ماهانه) ![](http://i.stack.imgur.com/UK2zG.png) پیشاپیش متشکرم!
نتایج گیج کننده در یک همبستگی متقابل
97102
آیا می توانید از آزمون log rank یا آزمون Wilcoxon برای آزمایش فرض خطرات متناسب در مدل Cox استفاده کنید؟
آزمون فرض خطرات متناسب
87429
فرض کنید $Z=X+Y$، $X$،$Y$ به طور معمول توزیع شده است. چگونه می توانم محاسبه کنم: $Pr(X>X'|Z,Z')$ زمانی که دو تحقق داشته باشم، $X$,$X'$؟
احتمال مشروط - استخراج سیگنال
73929
من مجموعه‌ای از داده‌های مستقل و داده‌های وابسته $(X,Y)$ دارم، که در آن می‌خواهم یک رگرسیون نمایی انجام دهم تا مقدار p و F$ قابل توجه آن را به دست بیاورم (که قبلاً $R^2$ بدست آمده و همچنین ضرایب از طریق محاسبات ریاضی). اغلب یک داده نمایی، $y=be^{mx}$ ابتدا به یک داده خطی، $\ln y = mx + \ln b $ تبدیل می شود. سپس یک رگرسیون خطی روی داده‌های تبدیل‌شده انجام می‌شود، مقدار p آن را به‌دست می‌آوریم. فرض کنید از یک ابزار آماری مانند Excel's Analysis ToolPak استفاده می‌کنیم: تجزیه و تحلیل داده‌ها: رگرسیون، نتیجه‌ای مانند زیر ایجاد می‌کند، ![توضیح تصویر را اینجا وارد کنید. ](http://i.stack.imgur.com/pCOPq.png) من معتقدم که p-value و مقدار قابل توجه $F$ بالا نشان دهنده است داده های خطی تبدیل شده و نه داده های نمایی اصلی. سوالات: 1. روش/مراحل مورد استفاده اکسل برای بدست آوردن مقدار p و مقدار F قابل توجه برای داده های خطی تبدیل شده، همانطور که در خروجی آماری در تصویر بالا نشان داده شده است، چیست؟ در صفحه راهنما یا وب سایت آنها مشخص نیست. 2. آیا می توان P-value و Significant F را بدون استفاده از ابزار آماری برای **رگرسیون نمایی** به صورت ریاضی محاسبه کرد؟ اگر قبلاً به این موضوع پاسخ داده شده است، می توانید کمک کنید تا لینک درست را به من معرفی کنید. برای مطالعه این موضوع یک هفته را در اینترنت سپری کردید اما نتوانستید پاسخ درست را پیدا کنید.
رگرسیون نمایی: محاسبه p-value و اهمیت F
88078
فرض کنید من داده‌های پانل _ماهانه_ 4 ساله دارم: 1. صادرات ویجت‌ها $y$ از کشور خود به 12 کشور مختلف (به دلار) ارز محلی) 3. مصرف داخلی ویجت ها $z$ (به دلار آمریکا) 4. نرخ مبادله اسمی $r$ کشور اصلی (به دلار آمریکا در هر واحد خانه) ارز) من در درجه اول به تأثیر نوسانات نرخ ارز بر صادرات علاقه دارم. من معادله متفاوت فصلی زیر را با استفاده از OLS با خطاهای استاندارد خوشه‌بندی شده بر اساس کشور و زمان تخمین زدم: $$ \ln y_{i,t} - \ln y_{i,t-52} = \alpha + \beta \cdot(\ ln x_{i,t}-\ln x_{i,t-52})+\gamma \cdot(\ln z_{i,t}-\ln z_{i,t-52}) +\eta \cdot(\ln r_{i,t}-\n r_{i,t-52}) + (\varepsilon_{i ,t}-\varepsilon_{i,t-52})$$ زیرنویس $i$ کشورها و $t$ ماهها را نمایه می کند. صادرات همه کاملاً مثبت است، بنابراین گرفتن سیاههها مشکلی ندارد. دو سوال: * برآوردهای من تا حدودی حساس است که آیا من نرخ ارز $r$ و $\hat \beta \approx -\hat \eta$ را کنترل می‌کنم یا خیر. آیا $r$ به معادله تعلق دارد؟ * آیا بررسی های استحکامی وجود دارد که باید در نظر بگیرم؟ آیا هیچ مشکلی وجود دارد که از بین برود؟ من با این ادبیات آشنا نیستم، بنابراین از هر مرجعی بسیار استقبال می شود.
مدل داده پانل برای صادرات و نرخ ارز
39049
هنگام استفاده از SVM برای ساختن طبقه‌بندی کننده برای مجموعه‌ای از اسناد، می‌توانیم از وقوع اصطلاح، فرکانس اصطلاح یا حتی TF/IDF استفاده کنیم. من می خواهم بدانم که معایب اصلی استفاده از وقوع اصطلاح به عنوان روش تولید برداری چیست؟ من یک بار شنیدم که این روش تولید برداری می تواند باعث از کار افتادن ماشین بردار پشتیبانی شود. چگونه این را توضیح دهیم؟
در مورد روش تولید ویژگی با روش طبقه بندی مبتنی بر SVM
100599
بنابراین من یک ANOVA با دو متغیر مستقل (IV) و یک متغیر وابسته (DV) اجرا کردم. یک IV طبقه بندی است و دیگری پیوسته است. DV نیز پیوسته است. با این حال، وقتی داده‌ها را دوباره از طریق SPSS اجرا می‌کنم، پس از حذف IV پیوسته از تجزیه و تحلیل، اثر اصلی برای رده‌بندی IV قبلی من ناپدید می‌شود و به این ترتیب من با یک اثر اصلی غیر قابل توجه برای طبقه‌بندی IV خود باقی می‌مانم. چرا این اتفاق می افتد؟
چرا نتایج هنگام استفاده از Anova تغییر می کند؟
26585
من شش متغیر وابسته (داده های شمارش) و چندین متغیر مستقل دارم، می بینم که در یک MMR اسکریپت به این صورت است: my.model <- lm(cbind(DV1,DV2,DV3,DV4,DV5,DV6) ~ IV1 + IV2 + ... + IVn) اما، از آنجایی که داده های من تعداد هستند، می خواهم از یک مدل خطی تعمیم یافته استفاده کنم و این را امتحان کردم: my.model <- glm(cbind(DV1,DV2,DV3,DV4,DV5,DV6) ~ IV1 + IV2 + ... + IVn, family=poisson) و این پیغام خطا ظاهر می شود: خطا در glm.fit(x = c (1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، : (زیرنویس) زیرنویس منطقی خیلی طولانی است` آیا کسی می تواند این پیام خطا یا راهی برای حل مشکل من را برای من توضیح دهد؟
چگونه یک مدل خطی تعمیم یافته با چندین متغیر وابسته در R انجام دهیم؟
104532
من می خواهم رابطه بین بروز بیماری در یک منطقه و تعدادی از عوامل محیطی دیگر مانند دما، ارتفاع و غیره را پیدا کنم. من جداول حاوی این داده ها را برای یک کشور خاص دارم. فایل های داده فایل های شطرنجی نقشه کشور هستند که هر پیکسل دارای مقدار عددی مشخصی برای پارامتر خاص است. مثال [126, 540, 359...] مثلاً موارد بیماری یا [23.34, 19.02...] برای دما و غیره. -tests** و غیره. اما من آنها را مناسب ندیدم: رگرسیون چندگانه زیرا آنچه من آن را خواندم یک رابطه خطی بین متغیرها را فرض می کند. آزمون مربع کای برای داده های طبقه بندی اعمال می شود. آزمون t برای مجموعه داده های کوچک. من همچنین درباره **تحلیل EOF** (تابع متعامد تجربی) خوانده ام، اما به داده های سری زمانی نیاز دارد. **CCA** (تحلیل همبستگی متعارف) اما رابطه بین دو مجموعه از متغیرهای چندگانه را پیدا می کند. **از کدام روش آماری می توانم برای یافتن رابطه بین این متغیرها استفاده کنم؟** می خواهم از روشی استفاده کنم که رابطه ای را نشان دهد، مثلاً ارتفاع بیشتر، تعداد بروز بیماری بیشتر است و غیره. بدون اینکه چیزی را از قبل فرض کنم. مانند، یک رابطه خطی بین متغیرها وجود دارد، بنابراین از مدل رابطه خطی استفاده کنید. _همچنین آیا روشی که ذکر کردم مناسب است اما درک من صحیح نیست؟ در یک یادداشت جانبی، من با داده های GIS کار می کنم و از ماژول های پایتون یا R برای پیدا کردن و رسم رابطه استفاده می کنم. همچنین، آرایه ها اندازه یکسانی ندارند. با تشکر
از چه مدل آماری می توان برای یافتن چگونگی ارتباط متغیرهای زیر استفاده کرد؟
43795
من یک داده SPELL دارم که در آن متغیرهای کمکی زیادی همراه با متغیرهای اصلی (یعنی id، begin، end و status) وجود دارد. هنگامی که من داده های SPELL را به عنوان یک شی دنباله با seqdef تعریف می کنم، به نظر می رسد که آن متغیرهای کمکی در شی دنباله ناپدید می شوند. به همین دلیل، من نمی توانم نمودارها را بر اساس سطوح آنها گروه بندی کنم. آیا پیشنهادی دارید؟
نحوه حفظ متغیرهای کمکی هنگام ایجاد یک شی دنباله از یک داده SPELL
100597
> **اگر متغیر وابسته به صورت خطی با متغیرهای > مستقل مرتبط باشد، نباید رابطه سیستماتیکی بین باقیمانده ها > و مقادیر برازش وجود داشته باشد**. به عبارت دیگر، مدل باید تمام واریانس سیستماتیک موجود در داده ها را ثبت کند و چیزی جز نویز تصادفی باقی نماند. من مفهوم پررنگ را متوجه نمی شوم. من نمی‌دانم که چگونه نتیجه (بدون رابطه سیستماتیک بین باقیمانده‌ها و مقادیر برازش) از فرضیه (متغیر وابسته به طور خطی با متغیرهای مستقل مرتبط است) نتیجه می‌گیرد. آیا کسی می تواند آن را در چارچوب یک رگرسیون خطی ساده توضیح دهد؟
به روشن شدن مفهوم خطی بودن در رگرسیون حداقل مربعات معمولی (OLS) کمک کنید
19927
من 2840 مشاهده از یک فرآیند تصادفی با نویز گاوسی بزرگ به دست آوردم. پارامترهای فرآیند در یک نقطه در حوالی مشاهده 1500 تغییر می کنند. من اینها را به طور میانگین در مجموعه‌های 10، 40 و 284 مشاهده قرار داده‌ام و می‌خواهم آن سه مجموعه را به خوانندگان گزارشم ارائه دهم، اما نمی‌توانم راه خوبی برای تجسم این داده‌ها پیدا کنم. در حالت ایده‌آل، تجسم به بیننده اجازه می‌دهد تا ببیند: * مورفولوژی موج * تاثیر نویز، یعنی اینکه میانگین‌گیری چقدر با دیگری در مجموعه متفاوت است * نقطه‌ای که مورفولوژی موج تغییر می‌کند، می‌توانم همه آنها را در یک نمودار رسم کنم. این ایده خوبی در مورد تاثیر نویز می دهد، اما ترتیب زمانی امواج را از دست می دهد. همچنین، قبل از اینکه غیرقابل کنترل شود، فقط برای مجموعه 10 کار می کند. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qiL2w.png) همچنین می توانم آنها را به صورت یک سطح سه بعدی رسم کنم که محور X زمان را در یک نمونه و محور Z تعداد ترتیبی را نشان می دهد. مشاهده یک مشکل این است که برخی از امواج بهتر از سایرین دیده می شوند، و مقایسه سطوح نویز و مورفولوژی موج از نظر کمی از نمودار دشوار است. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/LFL83.png) چگونه می توانم این مجموعه مشاهدات میانگین شده را به بهترین شکل تجسم کنم؟
چگونه مشاهدات یک فرآیند تصادفی را با تغییر پارامتر تجسم کنیم؟
57147
من مجموعه ای از داده ها را دارم که شامل پاسخ به یک پرسشنامه (سوالات در مورد رضایت از 1 تا 5) و برخی اطلاعات دموگرافیک (جنس، سن) است. من می توانم داده ها را به دو گروه تقسیم کنم و می خواهم ببینم آیا تفاوت آماری بین آن گروه ها وجود دارد یا خیر. من تست Wilcoxon را امتحان کردم، اما کراوات های زیادی دارم، بنابراین مطمئن نیستم که این آزمایشی باشد که به آن نیاز دارم. بهترین آزمایش در این مورد چه خواهد بود؟
بهترین آزمون برای ارزیابی تفاوت آماری بین دو گروه در مجموعه ای از آیتم های پرسشنامه 5 نقطه ای
82411
من می خواهم به صورت دستی یک ضریب خاص را ثابت کنم، مثلاً $\beta_1=1.0$، سپس ضرایب را با همه پیش بینی کننده های دیگر مطابقت دهم، در حالی که $\beta_1=1.0$ را در مدل نگه دارم. چگونه می توانم با استفاده از R به این هدف برسم؟ من به خصوص می خواهم در صورت امکان با LASSO (glmnet) کار کنم. روش دیگر، چگونه می توانم این ضریب را به یک محدوده خاص محدود کنم، مثلاً $0.5\le\beta_1\le1.0$؟
چگونه یک ضریب را با استفاده از رگرسیون تثبیت کنیم و ضرایب دیگر را برازش کنیم
12046
آیا راهی وجود دارد که وقتی یک درخت طبقه بندی پیچیده با استفاده از rpart (در R) ساخته شد، قوانین تصمیم گیری تولید شده برای هر کلاس را سازماندهی کرد؟ بنابراین به جای دریافت یک درخت بزرگ، مجموعه ای از قوانین را برای هر یک از کلاس ها دریافت می کنیم؟ (اگر چنین است، چگونه؟) در اینجا یک مثال کد ساده برای نشان دادن نمونه‌هایی وجود دارد: fit <- rpart(Kyphosis ~ Age + Number + Start, data=kyphosis) با تشکر.
سازماندهی درخت طبقه بندی (در قسمت r) در مجموعه ای از قوانین؟
39048
من قصد دارم برای تجزیه و تحلیل احساسات روی داده های توییتر کار کنم، اما کنجکاو هستم که چگونه با چنین تعداد زیادی از ویژگی های متنی (کلمات) برخورد کنم. آیا استفاده از رویکرد Bag-Of-Words بهترین است؟ با این حال، من آموخته‌ام که استفاده از همه کلمات در توییت‌ها رویکرد بهتری است، بنابراین چگونه روش‌های هنر با چنین مشکل طبقه‌بندی متنی برخورد می‌کنند؟
روش برخورد با بردارهای ویژگی ارزش متنی برای کار طبقه بندی چیست؟
39042
من یک مجموعه داده دارم (N=350) که برای آن می‌خواهم نمره آزمون عصب‌روان‌شناختی (مداوم) در سن، تحصیلات، شدت علائم (مداوم) و تشخیص (دودویی) را پس‌انداز کنم. شدت علائم سانسور می‌شود: نمره شدت علائم تنها در صورتی ایجاد می‌شود که شرکت‌کننده یک مورد غربالگری را پاس کند. به نظر می رسد که یک مدل توبیت برای پیش بینی شدت علائم به عنوان متغیر وابسته کار می کند، اما آیا روش قابل دفاعی برای گنجاندن متغیر سانسور شده چپ من به عنوان یک پیش بینی کننده وجود دارد؟
چگونه باید یک متغیر پیش بینی سانسور شده سمت چپ را در رگرسیون چندگانه مدیریت کنم؟
19925
من یک جمعیت دارم - در این مورد آنها تماس های تلفنی به یک مرکز تماس هستند. هر تماس می تواند یکی از حدود 200 «مشکل» باشد. (نمونه ای از مشکل نمی توانم به اینترنت وصل شوم است). من می خواهم 10 مشکل رایج در کل جمعیت را بر اساس تجزیه و تحلیل مجموعه نمونه ای از تماس های تلفنی پیش بینی کنم. برای ایجاد این لیست با سطوح مختلف اطمینان و اندازه جمعیت، باید چند تماس تلفنی را دسته بندی کنم؟ در حالت ایده‌آل، من می‌خواهم فرمولی پیدا کنم که به من امکان می‌دهد اندازه نمونه را از اندازه جامعه، اندازه مجموعه مسئله و سطح اطمینان استخراج کنم. افشا: \- من یک برنامه نویس هستم نه یک ریاضیدان - امیدوارم این سوال را به روشی درست پرسیده باشم! \- قبل از پرسیدن این سوال مطالعه را انجام داده ام، بیشتر مطالبی که می توانم پیدا کنم مربوط به تخمین p(x) در یک جمعیت است، مشکل من ابعاد بیشتری دارد. ببخشید اگر این تکراری است و من آنقدر باهوش نیستم که متوجه شوم!
چگونه می توانم حجم نمونه را برای فهرست رتبه بندی شده اقلام در یک جامعه محاسبه کنم؟
104530
من اغلب فرمولی را می دیدم که بیشتر برای ادغام در فضای پارامتر استفاده می شود مانند: $$ p(x|y) = \int p(x|\theta) p(\theta|y) d\theta $$ جایی که $\theta $ پارامتر است. من گیج شده ام و امیدوارم به من توضیح دهم که چگونه است. من می دانم که $p(x) = \int p(x,\theta)d\theta = \int p(x|\theta)p(\theta)d\theta $. اگر من از ایده مشابهی استفاده کنم که در ذهن من به این معنی است که یک توزیع حاشیه ای با ادغام یک توزیع پیوسته روی یک متغیر بدست می آید، اما با یک شرطی، انتظار دارم: $$ p(x|y) = \int p (x,\theta|y)d\theta = \int p(x|\theta,y)p(\theta|y)d\theta$$ که بدیهی است شبیه به هم نیستند. هیچ کمکی با آن وجود دارد؟ ویرایش بعدی: فرمول اول درست نبود، ادغام بیش از $\theta$ است. با تشکر
قانون احتمال کل مشروط
100590
آیا ادبیاتی در مورد اینکه آیا سه عامل در مدل سه عاملی فاما-فرانسه از هر نوع مدل سری زمانی مانند ARMA چند متغیره پیروی می کنند وجود دارد؟
فاما و سه عامل فرانسوی: تحلیل سری زمانی
73920
توضیحات AdaBoost در کتاب یادگیری ماشینی کوین مورفی (که در تصویر فوری در زیر نشان داده شده است) با توضیحات ویکی پدیا متفاوت است. من سعی می کنم هر دو تعریف را به هم مرتبط کنم. گام به گام، سؤالات من این است: 1. دقیقاً چه چیزی $\text{err}_m$ (مرحله 4) قرار است در زیر ثبت شود؟ آیا این معادل $\epsilon_t$ در تعریف ویکی پدیا است؟ 2. چرا در روش کوین مورفی قانون توقف وجود ندارد اما در تعریف ویکی پدیا وجود دارد؟ 3. به نظر می رسد اشتباه املایی در پرانتز در مخرج وجود دارد، فقط در مورد - آیا قرار است موارد زیر را بگوید؟: $\text{err}_m = \frac{\sum_{i=1}^N w_{ i,m} \mathbb{I}(\hat{y} \neq \phi(\mathbf{x_i)}}{\sum_{i=1}^N w_{i,m}} 4 دلار. مهم‌تر از همه، ویکی‌پدیا معیارهای زیر را برای **انتخاب زبان‌آموز ضعیف** و توقف ارائه می‌کند: > $h_{t} = \underset{h_{t} \in \mathcal{ H}}{\operatorname{argmax}} \ > \left\vert 0.5 - \epsilon_{t}\right\vert$ جایی که $\epsilon_{t} = > \sum_{i=1}^{m} D_{t}(i)I(y_i \ne h_{t}(x_{i}))$ > > $If \left\vert 0.5 - \epsilon_{t }\right\vert \leq \beta$، جایی که $\beta$ یک آستانه انتخاب شده قبلی است، سپس توقف کنید در حالی که کتاب کوین الگوریتم کامل را به صورت زیر تعریف می کند آن دو مرحله بالا را در آن مشاهده نکنید: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/YejfD.png)
تعاریف متعدد از AdaBoost
16758
نمی‌دانم که آیا همیشه برای هر مشکل برآورد احتمال حداکثر (log-) احتمال وجود دارد؟ به عبارت دیگر، آیا توزیع و برخی از پارامترهای آن وجود دارد که مسئله MLE برای آنها بیشینه ساز ندارد؟ سوال من از ادعای یک مهندس ناشی می شود که تابع هزینه (احتمال یا log-likelihood، مطمئن نیستم کدام مورد در نظر گرفته شده است) در MLE همیشه مقعر است و بنابراین همیشه یک حداکثر کننده دارد. با تشکر و احترام!
آیا همیشه یک ماکسیمایزر برای هر مشکل MLE وجود دارد؟
112278
من چندین پست بسیار آموزنده از جمله پیوند مربوط به اعتبارسنجی متقابل تودرتو/دوگانه را خوانده ام، که می تواند مقادیر فراپارامتر (زیر)بهینه را تعیین کند و همچنین یک تخمین بی طرفانه از عملکرد تعمیم یافته را انجام دهد. نمی‌دانم که آیا نوعی اعتبارسنجی متقاطع «سه‌گانه» برای انجام موارد زیر منطقی است: 1. انتخاب مقادیر فراپارامتر، 2. انتخاب بهترین ویژگی‌ها/پیش‌بینی‌کننده‌ها/ویژگی‌ها (انتخاب ویژگی)، 3. دریافت تخمین بی‌طرفانه از عملکرد تعمیم‌یافته. راه‌حل احتمالاً این است که ویژگی‌ها را به‌عنوان پارامتر در نظر بگیریم، یک شبکه بزرگ‌تر (با ترکیبی از ویژگی‌ها و پارامترها) ایجاد کنیم و اعتبارسنجی متقاطع تودرتو/دوگانه را اعمال کنیم. آیا رویکردهای «استاندارد» برای انجام هر سه کار فوق الذکر با اعتبارسنجی متقاطع وجود دارد؟
اعتبار سنجی متقاطع تو در تو سه گانه
39040
فرض کنید $X_1، ...، X_n$ نمونه‌ای از متغیرهای تصادفی مستقل و توزیع‌شده یکسان، با چگالی $$ f_{\theta}(x)=e^{ (\theta -x)}$$ باشد. $x \ge \theta$، در غیر این صورت $f_\theta = 0$ سوال این است: برآوردگر حداکثر احتمال $\hat{\theta}_n$ از $\theta$ را تعیین کنید. من این سوال را نمی فهمم $\hat{\theta}_n$ دقیقاً به چه معناست؟ ویکی پدیا چیزی در مورد آمار مرتبه n می گوید: > در آمار، آمار مرتبه kth یک نمونه آماری برابر است با > kth-smallest مقدار آن. به همراه آمار رتبه‌بندی، آمار سفارش از اساسی‌ترین ابزارهای آمار ناپارامتریک و استنتاج هستند. من امتحان کردم: $$ L(\theta)=\prod_{i=1}^ne^{ (\theta -x_i)} = e^{(n\theta - \sum_{i=1}^n{x_i} )} $$ بعدی چیست؟
برآورد حداکثر درستنمایی و آماره مرتبه n
39037
من سعی می کنم یاد بگیرم که چگونه شبکه عصبی در تشخیص تصویر کار می کند. من چند نمونه را دیدم و حتی بیشتر گیج شدم. در مثال تشخیص حروف یک تصویر 20x20، مقادیر هر پیکسل به لایه ورودی تبدیل می شود. بنابراین 400 نورون. سپس یک لایه پنهان از نورون ها و 26 نورون خروجی. سپس شبکه را آموزش دهید ، و سپس کار کند ، کامل نیست. آنچه من را در مورد شبکه عصبی گیج کرده است ، این است که چگونه در مورد آنچه در یک تصویر وجود دارد ، می آموزد. شما نیازی به انجام آستانه ، یا تقسیم بندی یا اندازه گیری ندارید ، به نوعی شبکه یاد می گیرد که تصاویر را مقایسه کرده و تشخیص دهد. الان برای من مثل جادو است. برای یادگیری شبکه عصبی از کجا شروع کنیم؟
شبکه عصبی چگونه تصاویر را تشخیص می دهد؟
69237
من با یک سوال ساده در مورد مقایسه مدل‌های انعطاف‌پذیر (به عنوان مثال splines) در مقابل مدل‌های غیرقابل انعطاف (مانند رگرسیون خطی) تحت سناریوهای مختلف مواجه شدم. سوال این است: به طور کلی، آیا ما انتظار داریم که عملکرد یک روش یادگیری آماری انعطاف پذیر بهتر یا بدتر از یک روش غیرقابل انعطاف باشد زمانی که: کوچک است؟ 2. واریانس عبارات خطا، یعنی $σ^2 = \text{Var}(e)$ بسیار زیاد است؟ من فکر می کنم برای (1)، وقتی $n$ کوچک است، مدل های غیر قابل انعطاف بهتر هستند (مطمئن نیستم). برای (2) نمی دانم کدام مدل (نسبتا) بهتر است.
مدل های انعطاف پذیر و غیر قابل انعطاف در یادگیری ماشین
88071
من داده هایی از یک آیتم با مقیاس لیکرت 5 درجه ای دارم که تقریباً 1/4 پاسخ ها فقط 1 تا 4 از 1 تا 5 موجود را تشکیل می دهند. آیا باید مقوله‌های حداقل/حداکثر پاسخ را که در توضیحات SPSS برای خروجی گزارش می‌شود استانداردسازی کنم یا ایجاد امتیاز z کافی است؟ به این دلیل متغیرها دارای درجات متفاوتی از توزیع هستند و توابع تبدیل (به عنوان مثال SQRT، LG10) مشکل من را حل نکرده است. نمونه من (N=162) اولین بخش از آزمون/آزمون مجدد برای پایایی ابزار است. من تمام فرآیندها را با این فکر اجرا کرده ام که آنچه که به نظر عادی و بر اساس معیار است (2 یا 3 برابر SD برای تخمین چولگی برای شناسایی «توزیع نرمال» بدون توجه به بصری کافی است). من در نقطه ناامیدی و فرسودگی هستم ... توصیه تخصصی دارید؟
5 مقیاس لیکرت و توزیع نرمال قبل از آزمون پارامتریک
12040
من این سوال را از همه آمار نقل می کنم: > فرض کنید یک ژن می تواند از نوع A یا نوع a باشد. سه نوع افراد > (به نام ژنوتیپ) وجود دارد: AA، Aa، و aa. اجازه دهید (p، q، r) کسری از افراد هر ژنوتیپ را نشان دهیم. ما فرض می کنیم که هرکس یکی از > دو نسخه خود از ژن را به طور تصادفی در اختیار فرزندان خود قرار می دهد. ما همچنین فرض می کنیم که > همتایان به صورت تصادفی انتخاب می شوند. دومی واقع بینانه نیست، اما اغلب منطقی است که فرض کنیم همسر خود را بر اساس AA، Aa یا aa انتخاب نمی کنید. (اگر ژن مربوط به رنگ چشم > و اگر افراد بر اساس رنگ چشم جفت انتخاب می کردند، این نادرست بود.) تصور کنید که ژن های همه را با هم ترکیب کنیم. نسبت ژن های A P = p + (q/2) و > نسبت یک ژن Q = r \+ (q/2) است. یک فرزند AA با احتمال > P^2، aA با احتمال 2PQ و aa با احتمال Q^2 است. بنابراین، کسری > از ژن های A در این نسل P^2 + PQ است این احتمالاً یک سؤال اساسی است. من می پرسم: چرا A = P^2 + PQ است و P^2 + 2PQ نیست؟
سوال اساسی در مورد احتمال
69235
من سعی می کنم بفهمم کدگذاری کنتراست تعریف شده توسط کاربر چگونه کار می کند. سوال من به مثال http://www.ats.ucla.edu/stat/r/library/contrast_coding.htm#User اشاره دارد: #ماتریس کنتراست اولیه شامل عبارت ثابت mat = matrix(c(1/4, 1 /4، 1/4، 1/4، 1، 0، -1، 0، -1/2، 1، 0، -1/2، -1/2، -1/2، 1/2، 1/2)، ncol = 4) mat [,1] [,2] [,3] [,4] [1,] 0.25 1 -0.5 -0.5 [2،] 0.25 0 1.0 -0.5 [3،] 0.25 -1 0.0 0.5 [4،] 0.25 0 -0.5 0.5 mymat = حل (t(mat)) mymat [,1] [,2] [,3] [,4] [1,] 1 -0.5 -1 -1.5 [2،] 1 0.5 1 0.5 [3،] 1 - 1.5 -1 -1.5 [4،] 1 1.5 1 2.5 #حذف عبارت قطع (ثابت) my.contrasts<-mymat[,2:4] contrasts(hsb2$race.f) = my.contrasts **سوال:** * چرا محاسبه معکوس ماتریس جابجا شده ضروری است؟ همه نمونه‌های دیگر در صفحه از جبر ماتریسی استفاده نمی‌کنند (مثلاً «کدگذاری ساختگی»).
ماتریس معکوس برای کدگذاری کنتراست
81140
مفروضات یک مدل پروبیت مرتب شده که باید رعایت شود چیست؟ برای بررسی اینها چه آزمایشاتی وجود دارد؟ پیشاپیش سپاس فراوان
مفروضات مدل پروبیت مرتب
21649
با توجه به مجموعه ای از داده ها مانند این: x y1 y2 50 102.50 16 100 408.60 64 200 1,871.30 256 400 8,824.40 1024 800 49,695.60، فرضیه من باید دو برابر شود که 4096 است. چهار برابر می شود. من معتقدم که این معادل این است که بگوییم «x» با مربع «y» متناسب است. * * * می‌توانیم ببینیم که داده‌های «y1» (از مشکل واقعی من) به این فرضیه نزدیک هستند، اما مطابقت کامل ندارند. با مقایسه داده های «y2» (که من ساخته ام) دقیقاً با فرضیه من مطابقت دارد. چیزی که من به دنبال آن هستم، اندازه گیری قابل اندازه گیری است که نشان می دهد چقدر داده های من با فرضیه من مطابقت دارد، و اصطلاحات صحیح برای بحث در مورد این نوع آزمون است. من انتظار دارم که «y2» کاملاً موافق باشد، و «y1» مقداری متریک فاصله را ارائه دهد.
چگونه می توانم اندازه گیری کنم که داده های من چقدر با یک پیش بینی مطابقت دارند
12047
من یک سری مشاهدات $\\{X_i,Y_i,Z_i\\}$ برای متغیر تصادفی $X$, $Y$ و $Z$ دارم. حالا من می خواهم تست کنم که آیا $X$، $Y$ و $Z$ مستقل از یکدیگر هستند، کسی می تواند به من کمک کند؟ برخی از تست‌های استقلال زوجی مانند این http://www.gatsby.ucl.ac.uk/~gretton/indepTestFiles/indep.htm در دسترس هستند، اما من هنوز چنین تست‌هایی را برای استقلال متقابل چند متغیره پیدا نکرده‌ام؟ پیشاپیش ممنون
آزمون استقلال متقابل چند متغیره
83329
آیا کسی می تواند در این مورد به من کمک کند، لطفاً: این تجدید نظر است و من به شدت درگیر این هستم که چه کاری انجام دهم و من را عقب نگه می دارد! یک سوال امتحانی قبلی می‌پرسد: > * پرینت‌های ARIMA زیر را توضیح دهید و سهم آنها در > انتخاب مدل نهایی ARIMA چیست > * در مرحله بعد در مرحله شناسایی و انتخاب مدل چه کار می‌کنید؟ > * برای مدل 1، معادله ریاضی مدل ساخته شده را بنویسید > (افزودنی). > با توجه به این داده ها: مدل چرخه روند 1: BIC نرمال شده = -0.743 Ljung Box Q = آمار (9.808)، sig (0.832) پارامترهای مدل ARIMA = ثابت = برآورد (31.812)، t (21.695)، sig (0.00) AR Lag 1 = برآورد (0.860)، t (11.201)، sig (0.00) Lag 2 = برآورد (0.880)، t (11.440)، sig (0.00) Lag 3 = تخمین (0.780-)، t (19.071)، sig (0.00) چرخه روند مدل 2: BIC نرمال شده = -0.910 Ljung Box Q = آمار (11.544)، sig (0.713) مدل ARIMA پارامترها = ثابت = تخمین (0.034-)، t (0.174-)، sig (0.863) AR Lag 1 = برآورد (0.154-)، t (1.108-)، sig (0.273) تاخیر 2 = تخمین (0.778)، t ( 8.418)، sig (0.00) تاخیر 3 = برآورد (0.048)، t (0.326)، sig (0.746) با تشکر از همه. کمک لازمه :دی
ساختمان مدل ARIMA
19928
من یک سری از 2000 نفر دارم که برای هر یک از آنها مدت زمان تکرار یک رویداد را در طول یک سال اندازه می‌گیرم. یعنی برای هر فرد یک بردار دارم مانند: id.1020<-c(0,0,0,0,1000,2,15,20.....) با طول کل 364، هر عنصر id. 2010[i] که نشان دهنده مدت زمان رویداد مشاهده شده در روز[i] است، من می خواهم مقداری از تجمع زمانی مدت زمان رویدادها را اندازه گیری کنم. یعنی افرادی که مدت زمان سالانه مشابهی دارند (= مجموع همه مدت‌های روزانه، یعنی «جمع (id.1020)»، می‌توانند کل مدت زمان رویدادشان را در چند روز و برخی در روزهای کمتر پخش کنند. آیا معیاری برای این وجود دارد. تجمع زمانی که می توانم برای تعیین کمیت این گسترش زمانی استفاده کنم بسیار متشکرم
اندازه گیری تجمع زمانی
81144
من دارم مقاله T. van Erven and P. Harremoes, Rényi Divergence and Kullback-Leibler Divergence, _arXiv 1206.2459_ در مورد واگرایی Renyi را می خوانم و سعی می کنم مثال 1 را معنا کنم. من فکر می کنم که من فقط دارم در اصطلاحات به هم می ریزم، بنابراین نمی توانم به درستی این هویت پی ببرم. آیا من برخی از فرضیات / تعاریف / قراردادهای یادداشتی را از دست داده ام تا این موضوع منطقی نباشد؟ آیا روش دیگری برای توصیف/استنتاج مثال 1 آنها وجود دارد؟ > **مثال 1**: اجازه دهید $Q$ یک توزیع احتمال و $A$ یک مجموعه با احتمال مثبت > باشد. > فرض کنید $P$ توزیع مشروط $Q$ داده شده $A$ باشد. > سپس $$ D_\alpha( P \Vert Q ) = - \ln Q(A). $$ برخی از ویژگی های نماد آنها (از قبل در مقاله): $$ P=(p_1, p_2, \dots, p_n) \\\ Q=(q_1, q_2, \dots, q_n) $$ به (گسسته) مراجعه کنید ) توزیع های احتمال. خود واگرایی Reny به صورت زیر بیان می شود: $$ D_\alpha ( P \Vert Q ) = \frac{1}{1-\alpha} \ln \sum_{i=1}^{n} p_i^{\alpha} q_i^{1-\alpha} $$ من مفهوم توزیع شرطی $Q$ با توجه به $A$ را نمی فهمم، برای من، این به عنوان توزیع احتمال یک توزیع احتمال [تابع]. من همچنین در تفسیر نتیجه مبهم هستم: نتیجه باید عدد باشد، اما آنچه نوشته شده (به نظر می رسد) گزارش یک مجموعه است (به تعریف $A$ توجه کنید).
هویت واگرایی Reny
43799
من طرح ترکیبی 2*2 دارم که دو فاکتور _time_ و _group_ هستند. سطوح _time__pre-_ و _post-intervention_ هستند و سطوح _group_control_ and _intervention_ می باشند. اگر من از یک آزمون پارامتری استفاده می کردم، فکر می کنم یک ANOVA ترکیبی مناسب است، اما از آنجایی که داده ها ترتیبی هستند، فکر کردم یک آزمون ناپارامتریک مناسب تر است. آیا من درست فکر می کنم که معادل ناپارامتری یک ANOVA مختلط وجود ندارد؟ آیا استفاده از آزمون رتبه‌بندی امضاشده Wilcoxon (برای مقایسه درون آزمودنی‌های _پیش_و_پس_____________) همراه با آزمون Mann-Whitney U (برای مقایسه بین آزمودنی‌های _کنترل_و _مداخله_) جایگزین مناسبی است؟ اگر چنین است، آیا از تصحیح Bonferonni هنگام نگاه کردن به سطوح p استفاده می‌کنم (چون در حال اجرای دو تست هستم)؟ با تشکر فراوان.
تست های غیر پارامتری برای طراحی مخلوط 2*2
112273
من به دنبال توصیف جامع و توجیهی برای یک مدل سلسله مراتبی نرمال هستم که در آن _ هم میانگین گروه ها و هم انحراف معیار مدل شده اند. یافتن چیزی شبیه مدل زیر در بسیاری از کتب درسی معمول است (به عنوان مثال گلمن و همکاران، ص 288): $$y_{ij} \sim \text{Normal}(\mu_i,\sigma) \\\ \mu_i \ sim \ text {normal} (m ، s) $ $ که در آن $ y_ {ij} $ dataPoint $ i $ از گروه $ j $ و جایی که مقدمات غیر اطلاعاتی پیشنهاد شده است برای $M، S$ و $\sigma$. چیزی که من به دنبال آن هستم توسعه این مدل است که در آن انحرافات استاندارد هر گروه نیز مدل شده و فراپارامترها داده می شود (و نه تنها یک $\sigma$ برای همه گروه ها در نظر گرفته می شود). این چیزی شبیه است: $ $ y_ {ij} \ sim \ text {normal} (\ mu_i ، \ sigma_i) \\\ \ mu_i \ sim {text {normal} (m ، s) \\ \ \ sigma_i \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ سیم text{SomeDistribution}(P_1,P_2,\dots)\\\ $$ اما جایی که پیشنهادهایی برای * توزیع $\sigma_i$s ارائه شده است ($\text{SomeDistribution}$ در مدل بالا). * توزیع های قبلی غیر اطلاعاتی برای هایپرپارامترهای $M، S$ و پارامترهای $\text{SomeDistribution}$. من نتوانستم این را در ادبیات پیدا کنم، و سوال من این است: **این مدل را کجا می توانم در ادبیات شرح داده شده پیدا کنم؟** یا به طور متناوب: **چنین مدلی باید چگونه باشد؟** ## مراجع گلمن، آ.، کارلین، جی بی، استرن، اچ. اس.، دانسون، دی.بی.، وهتری، ا.، و روبین، دی بی. (2013). _تحلیل داده های بیزی_. پرس CRC.
آیا توصیفی در ادبیات یک مدل سلسله مراتبی نرمال با فراپارامترها برای میانگین و انحراف استاندارد وجود دارد؟
90458
من یک کاربر مبتدی یادگیری ماشین هستم و اولین مدل پیش بینی خود را با استفاده از جنگل تصادفی انجام می دهم. من چند سوال در مورد روش اندازه گیری خوب بودن یک مدل (مساحت جینی از منحنی سنگ و KS) و برخی در مورد الگوریتم جنگل تصادفی دارم. خیلی ممنون از کمک شما 1) کدام معیار برای مقایسه مدل ها بهتر است؟ جینی یا کی اس؟ به عنوان مثال، من دو نسخه از مدل خود دارم، یکی که در آن جینی بزرگتر از دیگری است اما KS پایین تر است. 2) هنگامی که مدل خود را اجرا می کنم، می توانم ببینم که هر متغیری که با استفاده از VarImpPlot در R ایجاد کردم چقدر مهم است. مثلا بعضی وقت ها یکی از متغیرها را حذف می کنم و بهتر می شود یا گاهی نه یکی بلکه ترکیبی از دو را حذف می کنم و بهتر می شود... اما بعضی وقت ها بدتر می شود. آیا راهی وجود دارد که بدانیم با توجه به مجموعه متغیرهایم چه زمانی به ترکیب بهینه رسیدم؟ خیلی ممنون
درک جنگل تصادفی، جینی و KS
92972
من بیش از یک نمونه (از حدود صد مشاهده)، آنتروپی تجربی دنباله ای از متغیرهای تصادفی که به طور مستقل توزیع شده اند را تخمین زده ام که دارای 5 نتیجه ممکن است. من کنجکاو بودم که بدانم آیا امکان تخمین فاصله اطمینان در این محاسبه آنتروپی تجربی وجود دارد (یعنی جایی که احتمالات واقعی با فرکانس های مشاهده شده آنها جایگزین می شوند)؟ با احترام
فاصله اطمینان در تخمین آنتروپی
112276
من ساختار داده ای شبیه به شرکت ها (سطح بالاتر) با افراد درون آنها (سطح پایین) دارم. هر شرکتی می تواند هر تعداد از افراد حضور داشته باشد. من مجموعه ای معقول از پیش بینی کننده ها برای هر دو سطح دارم، اما هدف من تولید تخمین برای یک متغیر وابسته در سطح شرکت است. من دلیلی ندارم که باور کنم شرکت ها از یکدیگر مستقل نیستند. منطقی به نظر می رسد که افراد می توانند با توجه به شرکت همبستگی داشته باشند: احتمال بیشتری وجود دارد که افراد خاص در شرکت های خاص با هم خوشه شوند. سوال من این است - آیا من درست فکر می کنم که از آنجایی که تمرکز من در اینجا روی سطح بالاتر است، می توانم به سادگی پیش بینی هایی را که در مورد افراد وجود دارد را در سطح شرکت جمع کنم و آنها را به عنوان پیش بینی کننده در برابر شرکت اعمال کنم؟ درک من این است که وابستگی بین افراد را می توان در انبوه جمع آوری کرد، اما از آنجایی که شرکت ها از یکدیگر مستقل هستند، این باعث تعصب خطاهای استاندارد نمی شود.
چند سطحی - روی سطح بالاتر تمرکز کنید
45433
این مثال را در نظر بگیرید. فرض کنید برای هر جفت $(x, y)$ سویه باکتری $x$ و (نامزد) عامل ضد باکتری $y$، می‌توانیم به طور تجربی مقداری از $f(x, y)$ را تعیین کنیم (مثلاً غلظت $y$ برای از بین بردن 50٪ از فرهنگ $x$ در برخی از روش های استاندارد مورد نیاز است. اکنون می‌خواهیم یک مدل آماری $M$ برای پیش‌بینی $f(x, y)$ بر اساس برخی ویژگی‌های $x$ و $y$ طراحی کنیم. ما در مورد مجموعه‌ای از ویژگی‌های $V$ و $W$ برای سویه‌های باکتریایی و ضد باکتری تصمیم می‌گیریم. بنابراین، به هر جفت $(x, y)$ از سویه ها و عامل ها یک بردار ویژگی ترکیبی $(\mathbf{v}(x)، \mathbf{w}(y))$ اختصاص داده می شود. هدف بهینه سازی برآوردهای $M(\mathbf{v}(x)، \mathbf{w}(y))$ از $f(x, y)$ است. برای آموزش مدل، مجموعه داده استاندارد طلایی ما شامل مقادیر $f(x, y)$ برای همه جفت‌های $(x, y)$ در محصول دکارتی $X \ بار Y$ برخی از پانل $X است. $ از سویه ها و پانل $Y$ از عوامل. (این، BTW، نمونه مستطیلی است که در عنوان پست به آن اشاره شده است.) برای جلوگیری از تطبیق بیش از حد، می خواهیم از نوعی اعتبارسنجی متقابل استفاده کنیم. سوال من مربوط به پروتکل انتخاب زیرمجموعه های $T$ و $V$ از $X \times Y$ به ترتیب برای استفاده برای آموزش و اعتبار سنجی است. شهود من این است که $T$ باید به شکل یک محصول دکارتی $X_t \times Y_t$ باشد، که در آن $X_t$ و $Y_t$ به ترتیب زیر مجموعه های _مناسب_ به طور تصادفی انتخاب شده اند. و اینکه $V$ باید به شکل $X_v \times Y_v$ باشد که در آن $X_v = X - X_t$ و $Y_v = Y - Y_t$ باشد. البته این طرح از همه داده ها استفاده نمی کند. یک طرح جایگزین این است که مجموعه آموزشی $T$ را به عنوان یک زیرمجموعه تصادفی از $X \times Y$ بسازید و $V = (X \times Y) - T$ را بگیرید. با این حال، این طرح دوم به نظر من اشتباه است، زیرا چنین مجموعه آموزشی $T$ حاوی اطلاعات بسیار زیادی در مورد همه سویه ها در $X$ و عوامل در $Y$ است تا $V$ را به چالشی منصفانه برای مدل تبدیل کند. . آیا این شهود درستی است؟ اگر چنین است، راه دقیق نشان دادن آن چیست؟
در طرح های اعتبارسنجی متقابل برای نمونه های مستطیلی.
58023
من می‌خواهم داده‌های یک زنجیره مارکوف پنهان 3 حالته را با یک ماتریس مشخص از احتمالات انتقال شبیه‌سازی کنم. هر حالت مربوط به یک داده دو متغیره با حاشیه های شناخته شده است که وابستگی بین آنها توسط یک کوپولا مدل سازی می شود. بهترین الگوریتم چیست؟ آیا تابعی در `R` برای چنین کاری وجود دارد؟
چگونه یک زنجیره مارکوف پنهان را شبیه سازی کنیم؟
16756
من یک مدل شکل‌دهنده ایجاد کرده‌ام که رابطه بین دو کامپوزیت را آزمایش می‌کند. بدیهی است که من باید اعتبار این مدل را احراز کنم. به من گفته شده است که تحلیل عاملی تاییدی (CFA) راهی برای ادامه آن است. 1. چگونه می توانم CPA را در SPSS انجام دهم؟ 2. چگونه نتایج را تفسیر کنم؟
آزمون اعتبار یک مدل اندازه گیری تکوینی
58024
صفحه راهنمای R تابع quantile 9 نوع چندک را فهرست می کند، یعنی 9 روش برای محاسبه چندک های نمونه. کدام روش برای نمونه های کوچک مناسب تر است؟ اگر نمونه‌هایی با اندازه‌های 6، 7، 8 از یک جامعه را انتخاب کنم، کدام روش مشابه‌ترین تخمین‌های کمی را ارائه می‌دهد؟ توزیع شبیه به log-normal به نظر می رسد. من بیشتر به صدک های 5 و 50 و 95 علاقه دارم.
کدام نوع کمیت (روش محاسبه کمیت) برای نمونه های کوچک بهتر است؟
58020
من با مدل‌سازی برخی از داده‌های آزمایشی با استفاده از بسته «lme4» در R مشکل دارم، و از ورودی قدردانی می‌کنم. طرح آزمایشی من به شرح زیر است: آزمودنی‌هایی که وارد آزمایش می‌شوند به یک سؤال غربالگری پاسخ می‌دهند، که برای تخصیص تصادفی آنها به یک شرط بین آزمودنی‌ها (متغیر =` رتبه، که دارای 2 سطح (0/1) است) استفاده می‌شود. سپس آنها یک کار حواس پرتی را تکمیل می کنند و دو انتخاب می کنند («انتخاب» متغیر وابسته درون موضوعی است). در هر انتخاب، محرک‌ها به‌طور تصادفی تخصیص داده می‌شوند و با دو عامل تلاقی می‌کنند («پیام» دارای 3 سطح است («هنجار»، «بدون هنجار» و «ولایتی»)، و «هزینه» دارای 2 سطح است (0/1) ). **از آنجایی که شرکت کنندگان در دو مقطع زمانی به طور تصادفی به هر دو «هزینه» و «پیام» اختصاص داده شدند، از نظر تئوری می‌توانستند ترکیب «هزینه» و «پیام» یکسانی در هر دو مقطع زمانی داشته باشند. ** زندگی من راحت‌تر خواهد بود. اگر می‌توانستم از یک بسته فوق‌العاده مانند «ezANOVA» استفاده کنم، اما داده‌های من به من اجازه انجام این کار را نمی‌دهند زیرا هر فردی ترکیبی از دو متغیر درون موضوعی را ندارد. اینجا بنابراین، من در قلمرو کمتر آشنای مدل های ترکیبی هستم. فرضیه من استدلال می کند که باید یک تعامل سه طرفه بین رتبه، msg و هزینه وجود داشته باشد. بنابراین، یک نسخه ساده از مدل من ممکن است این باشد: m1 <- glmer(choice ~ msg*cost*rank + (1|id), data=df, family=binomial) اما، من نیز دیده ام که در این مورد پیشنهاد شده است. این سایت که اثرات تصادفی من باید به صورت زیر مدل شود تا تعامل بین عامل و افراد مورد بررسی قرار گیرد: m1 = lmer (انتخاب ~ پیام * هزینه * رتبه + (رتبه | شناسه) + (هزینه| شناسه)، داده = df) مدل دوم باعث می شود من در قلمروی ناآشنا پرت شوم، بنابراین از هر گونه راهنمایی در مورد نحوه مدل کردن این داده ها به روشی که (1) ساده است، اما (2) مناسب نمونه داده های زیر: > dput(df[1:700,2:6]) ساختار(list(time = c(1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1)، انتخاب = c(1، 1، 1، 1، 1، 1، 1، 0، 1، 1، 1، 0، 1، 1 , 0, 1, 1, 0, 1, 1, 0, 1, 0, 1, 1, 0, 0, 1, 1, 0، 1، 1، 1، 1، 0، 1، 0، 1، 1، 0، 1، 1، 0، 1، 1، 1، 1، 1، 1، 0، 0، 0، 1، 1، 1، 0، 0، 0، 1، 1، 1، 1، 1، 1، 0، 0، 1، 1، 0، 1، 0، 1، 1، 1، 0، 1، 1، 1، 1، 1، 0، 1، 1، 1، 1، 0، 0، 1، 1، 0، 1، 1، 1، 0، 1، 1، 1، 1، 1، 0، 0، 1، 1، 0، 1، 1، 1، 1، 1، 1، 0، 0، 0، 1، 1، 1، 1، 1، 1، 1، 1، 0، 1، 1، 0، 1، 0، 1، 1، 1، 0، 1، 1، 1، 1، 1، 1، 1، 1، 1، 0، 1، 1، 1، 1، 1، 1، 0، 1، 1، 1، 1، 1، 0، 1، 0، 0، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 0، 1، 1، 1، 1، 1، 1، 1، 1، 0، 0، 0، 1، 1، 1، 0، 0، 1، 1، 0، 0، 1، 1، 1، 1، 0، 1، 0، 1، 1، 0، 0، 1، 0، 0، 1، 1، 0، 1، 0، 1، 0، 1، 1، 1، 1، 1، 1، 1، 0، 1، 1، 1، 0، 0، 0، 1، 0، 0، 1، 1، 1، 1، 0، 1، 1، 1، 0، 1، 0، 1، 0، 1، 1، 1، 1، 1، 1، 0، 1، 0، 1، 0، 0، 1، 0، 1، 0، 1، 1، 1، 1، 1، 1، 0، 1، 0، 1، 0، 0، 0، 0، 0، 1، 1، 0، 0، 1، 1، 1،
مدل‌سازی چندسطحی داده‌های تجربی با اندازه‌گیری‌های مکرر در شرایط مشابه آزمایش فاکتوریل