_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
79624 | میخواستم بدونم که آیا میتوانم از معیار Akaike یا Schwarz استفاده کنم، حتی زمانی که باقیماندههایی که هنگام اجرای رگرسیون از مدل به دست میآورم، نرمال نیستند. آیا فرض نرمال بودن با این معیارها وجود دارد یا می توانم بدون توجه به آن همیشه از آنها استفاده کنم؟ | معیار انتخاب مدل باقیمانده های غیر عادی تولید می کند |
13871 | برنامه من یک کلاس کارخانه دارد که عناصر مدولار در آن ثبت شده است. یک متد run در کلاس کارخانه فراخوانی می شود که متعاقباً متدهای اجرا را روی ماژول ها اجرا می کند. من از Profiler PEAR PHP برای اندازه گیری سرعت اجرای هر ماژول در میکروثانیه استفاده می کنم. تا کنون من زمان های اجرا ماژول و دلتاهای هر زمان اجرا را در پایگاه داده خود ذخیره کرده ام. هنگامی که من زمان اجرا را نمودار می کنم (من می توانم اسپک ها و غیره را ببینم) این آمار تا حدودی جالبی ایجاد کرده است. با این حال، من تجربه زیادی با آمار ندارم، چه نوع تحلیلی برای بررسی عملکرد کد ارزشمند است؟ قصد من این است که قبل از استقرار ماژول های ساده نوشته شده را بگیرم. با تشکر | آمار کدهای محک |
95609 | من سعی می کنم با استفاده از کتابخانه پیش بینی برای R یک پیش بینی اولیه از حجم تماس ها انجام دهم. برای پیش بینی در بازه زمانی روزانه یا ماهانه مشکل زیادی ندارم، اما وقتی سعی می کنم ساعتی یا سه ماهه ساعتی پیش بینی کنم، دچار مشکل هستم. مشکلات تفاوت بین نقاط آنقدر کم است که وجود ندارد. دادههای دادهشده از مجموعهایی برای هر دوره تا 24 ماه تشکیل شدهاند (من دورههای کوتاهتری را امتحان کردهام بدون موفقیت). امتیازها فقط بین 8 صبح تا 8 بعد از ظهر هستند، به این معنی که 12 امتیاز در روز برای داده های ساعتی و 48 امتیاز در روز برای سه ماهه ساعت وجود دارد. من معتقدم که مشکل یا مربوط به cycle_length است یا احتمالاً نیاز به امتحان یک الگوریتم هموارسازی متفاوت است، متأسفانه تجربه من با آمار آنقدر کوچک است که ناچیز است. کد من به شرح زیر است: داده <- read.csv(input_csv، header=FALSE) ts_data <- ts(داده، فرکانس = طول_چرخه) ts_forecast <- forecast(ts_data، h = forecast_periods) write.csv(ts_forecast، output_c .names=FALSE) ویرایش: طبق درخواست، الف نمودار برخی از داده ها مجموعه داده کامل 24 ماه است (من با استفاده از تمام یا بخشی از آن آزمایش کرده ام). بدیهی است که قرار دادن این کار غیرعملی است، بنابراین در اینجا یک عکس فوری 7 روزه به طور تصادفی انتخاب شده است. فواصل ربع ساعتی 12 ساعت در روز، یعنی 48 امتیاز در روز.  | پیش بینی حجم تماس در فواصل کوتاه با استفاده از R |
100149 | من با داده های آب و هوایی و به عنوان مثال سر و کار دارم. بارندگی هرگز نمی تواند کمتر از 0 باشد، رطوبت نسبی هرگز نمی تواند بیشتر از 100 باشد، و غیره. بنابراین وقتی به عنوان مثال. رسم بارش بر حسب دما نقاط زیادی روی محور x (و/یا y) قرار دارند. آیا می توانم آن را در تحلیل خود نادیده بگیرم یا می خواهم به عنوان مثال. ضرایب همبستگی در آن صورت قابل اعتماد نیستند؟ | چگونه می توان با متغیر با محدودیت در همبستگی/رگرسیون رفتار کرد؟ |
31548 | من مجموعه داده ای از موارد حادثه بر اساس فصل یک بیماری نادر دارم. به عنوان مثال، 180 مورد در بهار، 90 مورد در تابستان، 45 مورد در پاییز و 210 مورد در زمستان وجود داشته است. من در حال مبارزه با این هستم که آیا مناسب است خطاهای استاندارد را به این اعداد پیوست کنیم. اهداف تحقیق به این معنا استنباطی هستند که ما به دنبال یک الگوی فصلی در بروز بیماری هستیم که ممکن است در آینده تکرار شود. بنابراین، به طور شهودی احساس میشود که میتوان معیاری از عدم قطعیت را به مجموعها متصل کرد. با این حال، من مطمئن نیستم که چگونه یک خطای استاندارد را در این مورد محاسبه کنیم، زیرا ما با شمارشهای ساده سر و کار داریم تا مثلاً با میانگین یا نسبتها. در نهایت، آیا پاسخ به این بستگی دارد که داده ها نشان دهنده جمعیت موارد (هر موردی است که تا کنون رخ داده است) یا یک نمونه تصادفی؟ اگر اشتباه نکنم، به طور کلی ارائه خطاهای استاندارد با آمار جمعیت منطقی نیست، زیرا هیچ استنتاجی وجود ندارد. | خطای استاندارد یک شمارش |
108463 | من در حال حاضر در حال نوشتن نرم افزاری هستم که جایگزین یک سیستم قدیمی موجود می شود که واحدها را در برابر مشخصات مهندسی مختلف آزمایش می کند. از آنجایی که در حال حاضر در حال بررسی کارکرد همه چیز هستم، و توانستم تمام دادههای مربوط به تمام بخشهای آزمایش شده در سیستم قدیمی را در پایگاه داده جدیدم جمعآوری کنم، تصمیم گرفتم همه واحدها را بر اساس مشخصات مربوطه خود اجرا کنم (780000 واحد). من نتایج آزمایشها را گرفتم و آنها را طوری قالببندی کردم که تیم مهندسی آن را مرور کند. مهندسان نسبت به نسخه نرم افزار من مشکوک شدند و ادعا کردند که سیستم من تعداد زیادی از واحدها را خراب می کند. از آزمایش محدود من، به نظر می رسد که نرم افزار جدید و قدیمی به همان تعداد واحد را پشت سر گذاشته اند. من نمیتوانم همان تحلیل را با نرمافزار قدیمی انجام دهم و آن را در برابر همه واحدها اجرا کنم تا درصد خرابی کلی را به دست بیاورم. با این حال، من می توانم گزارش های نمونه کوچکی را در زمان خودم در سیستم جدید و قدیمی اجرا کنم و نتایج را برای همان واحدها مقایسه کنم. اگر بتوانم اطلاعات مربوط به واحدهای X را بین هر سیستم جمعآوری کنم و درصدهایی را که در سیستم جدید و قدیمی شکست میخورند جمعآوری کنم، از چه آزمون آماری میتوانم استفاده کنم تا ثابت کنم که دادهها تفاوت معنیداری ندارند یا از سیستمی به سیستم دیگر تفاوت چشمگیری دارند. ? من تجربه کلاسهای آمار پایه را دارم و به یاد دارم که مشکل مشابهی را یاد گرفتم، اما در درسهایم کاملاً یک جای خالی میکشم که از چه روششناسی برای این نوع نمونهگیری استفاده کنم. | پیدا کردن اگر یک سیستم تست ساخت جایگزین در واحدهای بیشتری با شکست مواجه شود |
33946 | در عرصههای خاص، توانایی مداخله زودهنگام برای جلوگیری از بدتر شدن مشکلات بسیار ارزشمند است، زیرا پس از یک نقطه خاص، کار زیادی نمیتوانید انجام دهید. دو مثال ممکن است بهداشت عمومی یا آموزش باشد. بگوییم که ما یکسری اطلاعات در مورد دانش آموزان داریم -- اطلاعات جمعیت شناختی آنها، ریز نمرات گذشته آنها، نمرات آنها در یک دوره در حین پیشرفت، نتیجه نهایی (A، B، C، D، F) و غیره -- و ما علاقه مندند بدانند، به نوعی، نتیجه آنها در چه نقطه ای ثابت است. (من در واقع علاقه مندم بدانم در چه مقطعی تغییرات در رفتار آنها یا مداخلات معلمان چیزی را تغییر نمی دهد، اما من داده ای از آزمایشات انجام شده با مداخلات انجام شده در مقاطع زمانی مختلف یا چیزی شبیه به آن ندارم.) فکر فعلی این است که من باید یک سری مدل های پیش بینی را بر اساس اطلاعاتی که در روز اول، روز پنجم، روز دهم و غیره در دسترس بود بسازم. سپس دقت توزیع احتمالات را بر روی درجه های ممکن ارزیابی کنم. که هر یک از این مدل ها برای هر دانش آموز تف می دهد (شاید با نمره بریر) و این را در مقابل تاریخ اطلاعاتی که مدل در نظر می گیرد ترسیم می کند. سپس میتوانم روی همان نمودار رسم کنم که چگونه میانگین واریانس توزیعهای احتمال با گذشت زمان تغییر میکند. این به من ایده می دهد که چقدر می توانیم با گذشت زمان از نتیجه یک دانش آموز مطمئن باشیم و شاید نقطه ای را آشکار کنیم که پس از آن بتوانیم حدس بزنیم که مداخلات دیگر موثر نیستند. آیا این معقول به نظر می رسد؟ آیا می توانید راه های بهتری برای این کار فکر کنید؟ | تخمین یک چارچوب زمانی برای مداخلات یا قضاوت در مورد میزان «تعیین شدن» رویدادها با گذشت زمان |
33948 | من روی عدم قطعیت مربوط به کمیت محاسبه شده از پروژه مونت کارلو کار کرده ام. به طور معمول من از روش بوت استرپ با نمونه برداری مجدد با جایگزینی استفاده می کنم، به چند دلیل فنی که در اینجا به خصوص آسان نیست. پیشنهاد شد که من فقط مجموعه داده های MC خود را جدا کنم و آزمایش را با این زیر مجموعه ها انجام دهم و عدم قطعیت را از این طریق بیابم. من در گذشته با ارجاعاتی به bootstrapping تنها با یک زیر مجموعه از مجموعه داده اصلی مواجه شده ام. آیا کسی می تواند به من یک آموزش در این زمینه را راهنمایی کند یا به طور خلاصه توضیح دهد که چگونه بوت استرپ کردن با جایگزینی و فقط تنظیم تعداد نمونه ها به کسری از اندازه کل متفاوت است. من به طور خاص علاقه مند به روشی هستم که به این معنی است که $n$ می تواند برای هر نمونه فرعی متفاوت باشد، این تحلیل من را بسیار ساده تر می کند. | زیر نمونه راه انداز |
31540 | من برخی از داده های بد بو دارم که می خواهم آنها را در فرم ارائه نهایی قرار دهم و امیدوار بودم که ایده های خلاقانه ای در مورد نحوه انجام آن به دست بیاورم. دادههای من اندازهگیریهای طولهای مختلف را با هم مقایسه میکنند، بنابراین برای مثال من 52 نمونه هفتگی از 6 ماده شیمیایی مختلف (بار چند تکرار)، 26 نمونه 2 هفتهای، نمونههای طولانی 12 ماه، 4 نمونه سه ماهه، 2 نمونه ششماهه و یک نمونه سالانه دارم. من دقت هر مدت زمان را با یکدیگر در مجموع 15 مقایسه مقایسه کرده ام (هفته در مقابل 2 هفته، هفته در مقابل ماه، و غیره) تا با محاسبه ٪ بایاس، میزان انحراف از دیگری را به طور متوسط بیابم، که در آن سوگیری منفی نشان می دهد که طولانی تر بودن 2 نمونه کم گزارش و سوگیری مثبت نشان می دهد که کوتاهتر از 2 نمونه گزارش نشده است. بنابراین من یک درصد تعصب متوسط و یک فاصله اطمینان 95 درصد برای هر یک از 6 ماده شیمیایی برای هر مقایسه مدت زمان دارم. فواصل اطمینان من دارای عرض های متفاوتی است زیرا بدیهی است که من نقاط داده بسیار کمتری برای مقایسه های مربوط به نمونه های سالانه دارم. مثالی در زیر آورده شده است: Chem1 هفته v دو هفته هفته v ماه هفته v سه ماهه هفته v ششم سال .... low95 -10 -12 -15 -17 mean 0 2 2 -1 high95 10 14 17 15 چگونه می توانم این را در یک بسته بندی کنم گرافیک زیبا (یا جدول کد رنگی یا چیزی) که می تواند میانگین تعصب برای هر شیمی و فاصله اطمینان همراه را نشان دهد. (شاید برجسته کردن کسانی که قدرت بیشتری دارند؟) و همچنین برای هر مقایسه مدت زمان (به طور ایده آل حفظ برخی نمایش های بصری طول زمان نسبی). من از داشتن 6 گرافیک (یکی برای هر ماده شیمیایی) راضی هستم، اما فکر نمی کنم که 15 (یکی برای هر مقایسه) بخواهم. من فکر میکردم که یک رمپ رنگی میتواند به یک بعد اضافی برای آن کمک کند، اما واقعاً نمیدانم چگونه آن را در R پیادهسازی کنم. راهحلهای خلاقانهای وجود دارد؟ کمک به افزایش رنگ؟ لطفاً به خاطر داشته باشید که من در R کار می کنم و می توانم بگویم که مهارت های R من در حد متوسط است. یک تن متشکرم! | چگونه داده های خود را به شیوه ای بصری دلپذیر نمایش دهم؟ |
103026 | من خارج از DeGroot و Schervish درس می خوانم و سعی می کنم ریاضیات prob/stat را به دقت درک کنم. در فصل 4.3 در مورد واریانس، آنها این قضیه را بیان می کنند که به X یک RV داده می شود که میانگین و var آن وجود دارد، سپس Var(X) = 0 اگر X یک ثابت است. درک این قضیه به خودی خود ساده است: من سعی می کنم درک محکمی در مورد چگونگی اثبات دقیق آن برای موردی که X یک RV پیوسته است به دست بیاورم. این کتاب مدرکی ارائه میدهد که واقعاً با رفتار آنها با انتظارات سازگار نیست. من فکر میکنم اثبات این نتیجه (بدون استفاده از نظریه اندازهگیری) از طریق ابزاری که قبلاً معرفی کردهاند امکان پذیر است و در آن از این واقعیت استفاده میکنند که اگر $A_n$ مجموعهای از مجموعههای تودرتو باشد، پس حد احتمال. اینکه زوج در تقاطع آنها باشد حد احتمال $A_n$ است. (بنابراین در این مورد، می توان مجموعه ای از بازه های تو در تو بسته را در نظر گرفت $A_n$ = [c-$\frac{1}{n}$,c+$\frac{1}{n}$]. اگر فرض کنیم اگر pdf پیوسته باشد، به نظر می رسد که باید بتوانید از این واقعیت استفاده کنید تا استدلال کنید که حد مقادیر مورد انتظار برابر با مقدار مورد انتظار واقعی خواهد بود، اگرچه من فکر می کنم این محدودیت ها را پوشش نداده ام به طور مستقیم این منطقی است، من در واقع نمی دانم که آیا این روش به نظر روشی مناسب برای ادامه دادن است؟ | استدلال نظری غیر اندازه گیری برای Var(X) = 0 اگر X ثابت باشد (X RV پیوسته) |
103028 | تفاوت بین مدل تصحیح خطای برداری و UVECM چیست؟ کدام یک بهتر است برای داده های سری زمانی 30 ساله (برای مطالعه رابطه بلندمدت و کوتاه مدت) که مقادیری از دست رفته دارد استفاده شود؟ | تفاوت بین مدل تصحیح خطای برداری و UVECM چیست؟ |
95624 | من تصویر زیر را در مقاله ای که داشتم می خواندم دیدم. آیا کسی می تواند درباره چگونگی توسعه آن توضیح دهد؟ این مقاله است \- صفحه 34  | تجسم شعاعی برای توابع چگالی احتمال |
87553 | من یک رگرسیون پواسون را به داده های فرکانس ادعای خود برازش داده ام. پیش بینی من از وسیله نقلیه است. من نتیجه زیر را به دست آوردم: ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (Intercept) -19.99774 1138.82118 -0.018 0.98599 make2 -0.30873 0.20550 -1.502 0.13302 make3 -0.3917174 -0.3917174 -0.29174 -0.291 0.2 -0.38375 0.13388 -2.866 0.00415 ** چگونه ضرایب منفی را تفسیر کنم؟ با تشکر | تفسیر ضرایب منفی مدل پواسون |
11096 | چگونه می توانم اثرات اصلی (ضرایب فاکتور رمزگذاری شده ساختگی) را در رگرسیون پواسون تفسیر کنم؟ مثال زیر را فرض کنید: درمان <- فاکتور(rep(c(1، 2)، c(43، 41))، سطوح = c(1، 2)، برچسب ها = c(دارونما، درمان شده)) بهبود یافت <- عامل(rep(c(1، 2، 3، 1، 2، 3)، c(29، 7، 7، 13، 7، 21))، سطوح = c(1، 2، 3)، برچسب ها = c(هیچ، بعضی، علامت گذاری شده)) تعداد داروها <- rpois(84، 10) + 1 ارزش سلامت <- rpois(84، 5) y <- data.frame(ارزش سلامت، تعداد داروها ، درمان، بهبود یافته) تست <- glm(ارزش سلامت ~ تعداد داروها+ درمان+ بهبود یافته، y family=poisson) summary(test) خروجی این است: Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (برق) 1.88955 0.19243 9.819 <2e-16 *** numberofdrugs -0.02303 0.01624 -1.418 0.156 درمان شده -0.01271 درمان شده -0.01271 0.01271 0.01271 0.109T1 - 0.109T 0.108 - 0.1081 بهبود یافته -0.13541 0.14674 -0.923 0.356 MAIN EFFECT بهبود یافتهmarke -0.10839 0.12212 -0.888 0.375 MAIN EFFECT --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 می دانم که نرخ حادثه برای «تعداد داروها» «exp(-0.023)=0.977» است. اما چگونه اثرات اصلی را برای متغیرهای ساختگی تفسیر کنم؟ | چگونه ضرایب را در رگرسیون پواسون تفسیر کنیم؟ |
103020 | من همین سوال را در Stack Overflow ارسال کردم. من از رگرسیون حداقل مربعات داده ها با خطاهای اندازه گیری شده در هر دو x و y استفاده می کنم و از مربع کای کاهش یافته (میانگین انحراف وزنی مربع: mswd) به عنوان معیار برازش استفاده می کنم. با این حال، برخی از مفروضات برای استفاده از مجذور کای کاهش یافته به احتمال زیاد برآورده نمی شوند و من می خواهم به سمت رویکرد mcmc/bayesian با استفاده از PyMC حرکت کنم. من در وب جستجو کرده ام اما به نظر نمی رسد دقیقاً چیزی را که به دنبالش هستم پیدا کنم، بیشتر نمونه ها فرض می کنند عدم قطعیت داده ها گاوسی است، اما در اینجا من عدم قطعیت ها را در x و y اندازه گیری کرده ام. به نظر می رسد که من باید بتوانم این کار را در PyMC2 یا PyMC3 با glm انجام دهم. در اینجا یک مجموعه داده معمولی رسم شده است:  و داده های همراه با آن: # داده ها در ستون ها، مشاهدات در ردیف ها # مقادیر اندازه گیری شده x در مقابل y، # انحرافات استاندارد اندازه گیری شده sx و sy. x sx y sy 0.3779397 0.001889699 0.5130084 2.748546e-05 0.3659092 0.001829546 0.5129624 2.72183838e-405 0.001715417 0.5129023 2.720073e-05 0.4121606 0.002060803 0.5130235 2.755231e-05 0.3075815 0.0075815 0.00015 2.776967e-05 0.3794471 0.001897236 0.5129950 2.842079e-05 0.1447394 0.000723697 0.5126784 0.5126784 2.81020e به عنوان مثال در جستجوی هر مرجعی هستم این پیشاپیش ممنون | رگرسیون خطی قوی PyMC با عدم قطعیت های اندازه گیری شده |
81451 | آیا تکنیک های نموداری (انواع خاصی از نمودارها) مشابه نمودارهای جعبه ادوارد توفت - نشان داده شده در زیر - وجود دارد اما توزیع نقاط داده را در نظر می گیرد؟  اما به جای اینکه یک خط سیاه به صورت عمودی حرکت کند، یک خط رنگی (مثلا قرمز) می خواهم که شدت قرمزی آن تغییر کند. در رابطه با فراوانی نقاط داده در محل. چیزی که من دقیقاً تصویر می کنم یک خط قرمز عمودی است که از 1٪ تا 99٪، با خطوط خاکستری افقی در 25٪ و 75٪، یک خط سیاه در میانه، با شدت رنگ خط قرمز عمودی با توجه به تغییر است. به تعداد دفعاتی که هر نقطه داده در امتداد مکان عمودی اندازه گیری شد. هر ایده ای؟ ممنون، تام | ترکیب باکس پلات با شمارش فرکانس |
83161 | من دو متغیر دارم: سفارش و طول. اولی ترتیب یک دنباله را اندازه گیری می کند (یعنی همه جایگشت های A-B-C)، و اولی طول دنباله است (یعنی A-B-C طول 3 دارد). اینها بسیار همبسته هستند، و من میخواهم اندازهگیری سفارش را بر اساس طول عادی کنم. من انتظار داشتم که این عادی سازی به طور کامل همبستگی را ریشه کن کند - اما اینطور نیست. چگونه می تواند این مورد باشد؟ سفارش طول سفارش شناسه/طول X1 4 3 1.333333333 X33 2 1 2 X566 44 6 7.333333333 X681 4 2 2 X682 46 6 7.666666667 X80 2 همبستگی AF 198 152 نرمال سازی: 0.610 همبستگی کاهش یافته است، اما متغیرها هنوز همبستگی بالایی دارند. جاه طلبی من این بود که جزء نظم را که از طول جداست، جدا کنم، اما به نظر نمی رسد که در اینجا به آن دست پیدا کنم. چگونه می توانم این کار را انجام دهم؟ کجای فکر من اشتباه شده؟ | آیا عادی سازی باید کاملاً همبستگی را از بین ببرد؟ |
89030 | من سعی میکنم نحوه محاسبه شاخص رند یک الگوریتم خوشهای را بفهمم، اما در این نقطه که چگونه منفیهای درست و نادرست را محاسبه کنم گیر کردهام. در حال حاضر من از مثالی از کتاب مقدمه ای بر بازیابی اطلاعات (مانینگ، راغوان و شوتزه، 2009) استفاده می کنم. در صفحه 359 آنها در مورد نحوه محاسبه شاخص رند صحبت می کنند. برای این مثال از سه خوشه استفاده می کنند و خوشه ها شامل اشیاء زیر هستند. 1. a a a a b 2. a b b b b c 3. a a c c c من شی را جایگزین می کنم (علائم اصلی به حروف، اما ایده و شمارش ثابت می مانند). من کلمات دقیق کتاب را میآورم تا ببینم در مورد چه چیزی صحبت میکنند: > ابتدا TP +FP را محاسبه میکنیم. این سه خوشه به ترتیب شامل 6، 6 و 5 نقطه > هستند، بنابراین تعداد کل مثبت یا جفت اسنادی که > در یک خوشه هستند عبارتند از: TP + FP = ${6 \choose 2}$ + $ {6 \choose 2}$ + ${5 \choose 2}$ = 15 + 15+ 10 = 40 > از اینها، جفت های a در خوشه 1، جفت های b در خوشه 2، جفت های c در > خوشه 3، و جفت a در خوشه 3 مثبت واقعی هستند: TP = ${5 \choose 2}$ + ${4 \choose 2}$ + ${ 3 \انتخاب 2}$ + ${2 \انتخاب 2}$ = 10 + 6 + 3 + 1 = 20 > بنابراین، FP = 40 - 20 = 20. تا اینجا محاسبات واضح است، و اگر مثال های دیگر را بیاورم همان نتایج را می گیرم، اما وقتی می خواهم منفی کاذب و منفی درست را محاسبه کنم Manning et al. موارد زیر را بیان کنید: > FN و TN به طور مشابه محاسبه می شوند، و در نتیجه جدول احتمالی زیر ایجاد می شود: جدول احتمالی به صورت زیر است: +--------+--------+ | TP: 20 | FN: 24 | +--------+--------+ | FP: 20 | TN: 72 | +--------+--------- جمله: FN و TN به طور مشابه محاسبه می شوند برای من واضح نیست و نمی دانم برای محاسبه TN و به کدام اعداد نیاز دارم. FN. من می توانم سمت راست جدول را با انجام موارد زیر محاسبه کنم: TP + FP + FN + TN = ${n \choose 2}$ = ${17 \choose 2}$ = 136 منبع: http://en.wikipedia .org/wiki/Rand_index بنابراین، FN + TN = 136 - TP + FP = 136 - 40 = 96، اما این واقعاً به من کمک نمی کند نحوه محاسبه متغیرها به طور جداگانه. به خصوص زمانی که نویسندگان می گویند: FN و TN به طور مشابه محاسبه می شوند. من نمی بینم چگونه. همچنین وقتی به نمونههای دیگر نگاه میکنم، آنها هر سلول جدول احتمالی را با نگاه کردن به هر جفت محاسبه میکنند. به عنوان مثال: http://www.otlet-institute.org/wikics/Clustering_Problems.html#toc-Subsection-4.1 اولین سوال من، بر اساس مثال Manning و همکاران (2009)، آیا امکان محاسبه TN و FN اگر فقط TP & NP را می دانید؟ و اگر چنین است، محاسبه مشابه بر اساس مثال داده شده چگونه به نظر می رسد؟ | محاسبه شاخص رند |
38393 | من سعی می کنم از آزمون کای دو برای شناسایی داده های تصادفی استفاده کنم. من 256 دسته دارم، یعنی 255 درجه آزادی و تعداد دفعات بایت را می شمارم (0-255). همانطور که توسط Knuth پیشنهاد شده است، دنباله مشاهده شده از بایت ها تصادفی است، اگر مقدار خی دو بین مقادیر chi-square p=5% و p=95% باشد (من این مقادیر را از جدول خواندم). تست کار می کند اما سعی می کنم بفهمم چرا :) من در مورد آمار اطلاعاتی ندارم، این مشکل من در حال حاضر است. من سعی می کنم بفهمم که p-value در واقع چیست و رابطه آن با آلفا چیست. گفته می شود که اگر آماره کای محاسبه شده بسته به آلفا بالاتر از مقدار کای دو باشد، فرضیه صفر رد می شود. Knuth جدولی دارد که در آن تمام مقادیر مربع کای بسته به مقدار p فهرست شده است. کسی می تواند به من توضیح دهد که چرا؟ چرا او می گوید که اگر داده ها تصادفی باشند، آماره کای دو محاسبه شده باید بین 5%=p و 95%=p باشد؟ بچه ها از هر پاسخی بسیار متشکرم! | تفسیر مقدار مربع کای برای اعتبارسنجی اعداد تصادفی |
89036 | من در درک شهودی استدلال زیر مشکل دارم: درختانی که از طریق کیسهبندی به وجود میآیند به طور یکسان توزیع میشوند، بنابراین انتظار میانگین یک مجموعه از درختان همان انتظار یک درخت است 1) واقعاً توزیع درخت چیست؟ معنی؟ 2) چرا، زمانی که از طریق کیسه سازی ID تولید می شود؟ | چرا درختان تولید شده از طریق بسته بندی به طور یکسان توزیع می شوند؟ |
104876 | من موضوع مشابهی پیدا کردم اما با این سوال سروکار داشت که آیا بهتر است متغیر وابسته عددی را گسسته کنیم یا آن را همانطور که هست رها کنیم. من می خواهم بدانم تجربیات شما در مورد آموزش درخت تصمیم با استفاده از متغیرهای توضیحی پیوسته چیست. آیا بهتر است آنها را به مقادیر طبقهای/ترتیبی تبدیل کنیم؟ اگر چنین است از چه روش هایی می توان استفاده کرد: آیا باید چندک هایی از توزیع آنها را در نظر بگیریم؟ | درخت تصمیم: متغیرهای توضیحی مقوله ای در مقابل عددی |
89033 | من یک مدل تورم صفر با یک اثر تصادفی با استفاده از توزیع دو جمله ای منفی در R، با استفاده از تابع glmmadmb برازش داده ام. این به دلیل پراکندگی زیاد صفر و بیش از حد است. برای یک رگرسیون پواسون استاندارد می دانم که باید همخطی، اهرم و ثبات ضرایب (DF Beta) را آزمایش کرد. من می توانم همه این کارها را در R با استفاده از توابع مختلف برای رگرسیون poisson انجام دهم، اما هیچ کدام برای glmmadmb وجود ندارد که بتوانم آن را پیدا کنم. من تعجب کردم که آیا کسی راهی برای آزمایش اینها می داند؟ با تشکر | چگونه می توان مفروضات یک مدل دوجمله ای منفی با تورم صفر را در R آزمایش کرد؟ |
89032 | من این دو مدل را ساخته ام: (model1 <- summary(lm(mpg ~ drat + wt + cyl, mtcars))) Call: lm (فرمول = mpg ~ drat + wt + cyl، داده = mtcars) باقیمانده ها: حداقل 1Q میانه 3Q Max -4.2944 -1.5576 -0.4667 1.5678 6.1014 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (انتقال) 39.7677 6.8729 5.786 3.26e-06 *** drat -0.0162 1.3231 -0.012 0.990317 wt -3.1947 0.8206 -3.1947 0.8293 -3.8293 *** -1.5096 0.4464 -3.382 0.002142 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 2.613 در 28 درجه آزادی چندگانه R-squared: 0.8302، R-squared تنظیم شده: 0.812 F آمار: 45.64 در 3 و 28 DF، p-value: 6.569e-11 (model2 <- خلاصه (lm(mpg ~ wt + cyl + drat, mtcars))) تماس: lm (فرمول = mpg ~ wt + cyl + drat، داده = mtcars) باقیمانده ها: حداقل 1Q Median 3Q Max -4.2944 -1.5576 -0.4667 1.5678 6.1014 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 39.7677 6.8729 5.786 3.26e-06 *** wt -3.1947 0.8293 -3.852 0.000624 *** سیلندر -1.5096 0.4 0.4 - 1.5096 0.46 -0.0162 1.3231 -0.012 0.990317 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 2.613 در 28 درجه آزادی چندگانه R-squared: 0.8302، R-squared تنظیم شده: 0.812 F آمار: 45.64 در 3 و 28 DF، p-value: 6.569e-11 درک من این است که R از پارتیشن بندی متوالی برای واریانس mpg استفاده می کند. بنابراین در «model1»، «drat» باید تنظیم نشده باشد، «wt» باید برای «drat» و «cyl» باید برای «drat» و «wt» تنظیم شود. در «model2»، «wt» باید تنظیم نشده باشد، «cyl» باید برای «wt» و «drat» باید برای «wt» و «cyl» تنظیم شود. با این حال، به نظر می رسد ضرایب در هر مدل دقیقاً یکسان است، که نشان می دهد ضرایب اصلاً تنظیم نمی شوند. آیا ضرایب اصلا تنظیم نمی شود؟ | کنترل متغیرهای کمکی در رگرسیون خطی در R |
6400 | من در حال انجام یک تجزیه و تحلیل رگرسیون مرتبه اول چندگانه از داده های ژنتیکی هستم. بردارهای مقادیر y همگی از توزیع نرمال پیروی نمی کنند، بنابراین من باید یک رگرسیون ناپارامتریک را با استفاده از رتبه ها پیاده سازی کنم. آیا تابع `lm()` در R برای این کار مناسب است، به عنوان مثال، lin.reg <- lm(Y~X*Z) که در آن Y، X و Z بردارهای متغیرهای طبقهای ترتیبی هستند؟ من به مقدار p اختصاص داده شده به ضریب عبارت تعامل در مدل مرتبه اول علاقه مند هستم. تابع lm() این را از آزمون t بدست می آورد، یعنی ضریب تعامل به طور قابل توجهی با صفر متفاوت است. آیا اجرای خودکار آزمون t برای تعیین این مقدار p مناسب است زمانی که مدل رگرسیون بر روی داده ها همانطور که توضیح داده شد انجام می شود؟ با تشکر **ویرایش** داده های نمونه برای وضوح: Y <- c(4، 1، 2، 3) # بردار رتبه های X <- c(0، 2، 1، 1) # بردار ژنوتیپ ها (0 = aa , 1 = ab, 2 = bb) Z <- c(2, 2, 1, 0) | رگرسیون ناپارامتریک |
110441 | من نمرات آزمون دو گروه را دارم، مثلاً A و B. و گروه اول شامل 186 نفر است در حالی که گروه دوم فقط 100 نفر دارد. در کل نمره بالاتر از گروه B. سوال من این است که چگونه می توانم نمرات آزمون را استاندارد کنم تا بتوانم آنها را با هم مقایسه کنم؟ من به این فکر کردم که نمرات گروه A را بر 186 و گروه B را بر 100 تقسیم کنم... آیا این کار می کند؟ ویرایش: نمرات به 7 گروه شامل بی قراری، تحریک پذیری، خواب و ... تقسیم می شوند که در اینجا یک نمونه از آن ها آورده شده است. > جدول (وضعیت، امتیازات خواب) وضعیت 0 1 2 3 4 6 8 9 0 170 3 3 7 0 1 1 1 1 82 5 3 6 3 1 0 0 وضعیت یک متغیر باینری است، 0 به این معنی که شرکت کننده بیماری ندارد ، و 1 در غیر این صورت. بنابراین در جدول بالا، 170 نفر از افراد کنترل عادی (با نام مستعار افرادی که این بیماری را ندارند) در آزمون نمره 0 می گیرند (هر چه امتیاز کمتر باشد، عملکرد بهتری دارد). 3 نفر نمره 1 می گیرند، در حالی که در گروه بیماری، 5 نفر امتیاز 1 را کسب می کنند. بنابراین من 7 مجموعه از این امتیازات را دارم، و آنها تقریباً شبیه یکدیگر هستند (بیشتر افراد امتیاز 0 دارند، فقط تعداد کمی از آنها 0 نمره دارند). بنابراین می خواهم مقایسه کنم کدام گروه بدتر است؟ و در کدام دسته وضعیت بدتری دارند؟ خواب، بی قراری و غیره؟ | نحوه استاندارد کردن داده ها |
47075 | اگر دو مدل در موارد مختلف خطاهای پیشبینی داشته باشند، متفاوت هستند. من می دانم که معیارهای مختلفی برای کمی کردن تنوع وجود دارد، با این حال، من به دنبال تعریف مفهومی رسمی از آنچه ما در تلاش برای اندازه گیری هستیم هستم. پیشنهادی دارید؟ | تعریفی برای تنوع مدل؟ |
82416 | من در این دوره مشغول مطالعه ** رمزگذارهای خودکار ** بودم. اگر درست متوجه شده باشم، رمزگذار خودکار یک شبکه عصبی است که در آن لایه ورودی با لایه خروجی یکسان است. بنابراین، شبکه عصبی سعی می کند خروجی را با استفاده از ورودی به عنوان استاندارد طلایی پیش بینی کند. من یکسری اسناد در این مورد خواندم و چند کلیپ ویدیویی هم دیدم اما نمی توانم این مفهوم را درک کنم... **فایده این الگوریتم چیست؟ مزایای ** تلاش برای بازسازی برخی از عناصر خروجی و برابر کردن آنها تا حد امکان با عناصر ورودی چیست؟ **چرا باید از این همه ماشین برای رسیدن به یک نقطه شروع استفاده کرد؟** می دانم که این سوال ممکن است عجیب به نظر برسد...اما من واقعاً هیچ ایده ای در مورد چگونگی حل آن ندارم. | مفهوم و مزیت الگوریتم رمزگذار خودکار چیست؟ |
38394 | من میخواهم نسبت بین دو چگالی توزیع را بهدست بیاورم و نمیدانم که آیا رویکردی مستدل و ثابت برای انجام این کار وجود دارد. بیایید بگوییم که من دو نمونه برای متغیر تصادفی $X$ دارم که از دو جمعیت $P_1$ و $P_2$ می آید، که احتمالاً در محدوده معتبر $X$ به طور متفاوتی توزیع می شوند. سپس من می خواهم حداقل تابع $f(X)$ نسبت بین تراکم در هر دو جمعیت در محدوده $X$ را تقریبی کنم. $$f(x)=\frac{Density(x|P_1)}{Density(x|P_2)}$$ کاری که من در حال حاضر در R انجام میدهم تخمین چگالی هر نمونه با استفاده از تخمین چگالی هسته است (`density( )` تابع). سپس می توانم $f(X)$ را برای هر مقدار داده شده با درون یابی نزدیکترین تخمین های نقطه برگردانده شده توسط density() در هر نمونه و تقسیم مقادیر به دست آمده، تقریب بزنم. اگرچه این تا حدی رضایت بخش است، من نمی دانم که آیا راه بهتری وجود دارد. بهویژه، اگر یک پیادهسازی موجود در R وجود داشته باشد. برای مثال، میترسم این نسبت در مناطقی که یک یا هر دو توزیع چگالی بسیار پایینی دارند بسیار متغیر باشد و نمیدانم آیا روشی برای به دست آوردن تخمین عدم قطعیت وجود دارد یا خیر. . | نسبت بین دو چگالی |
87421 | من مجموعه ای از مقادیر را دارم و می خواهم بررسی کنم که آیا آنها یکنواخت هستند یا خیر. امیدوارم از اصطلاحات درست استفاده کرده باشم، اما منظورم را توضیح خواهم داد. مقادیر زیر را در نظر بگیرید - 100,105,100,103,98. ما می توانیم ببینیم آنها به یکدیگر نزدیک هستند. ما می توانیم این یکنواختی را با نرمال کردن انحراف استاندارد تعریف کنیم. اکنون بیایید به مقادیر زیر نگاه کنیم - 100,105,100,103,98,198,200,203,205,100,105,100,103,98 انحراف استاندارد در اینجا کار نخواهد کرد، اما به وضوح در هر بخش یکنواخت است. برای بررسی یکنواختی در اینجا می توانیم بررسی کنیم که چه تعداد از نمونه ها بیش از d% از نمونه قبلی خود انحراف ندارند. به نظر می رسد که این کار می کند اما (و سوال اینجاست) - آیا رویکرد بهتری وجود دارد؟ من حتی نمی دانم چگونه این تست را برای امتحان و جستجوی مقالات صدا کنم. این به خوبی با موارد پرت برخورد نمی کند. من می توانم از میانگین متحرک یا میانه متحرک استفاده کنم، و دوباره - آیا چیز بهتری وجود دارد؟ با تشکر | بررسی اینکه مقادیر به صورت تکه ای یکنواخت هستند |
82410 | من در حال خواندن بحث در هکر نیوز در مورد استفاده از انحراف استاندارد در مقابل معیارهای دیگر مانند میانگین انحراف مطلق بودم. بنابراین، اگر از اصل حداکثر آنتروپی پیروی کنیم، اگر فقط میانگین توزیع و انحراف مطلق میانگین را بدانیم، از چه نوع توزیعی استفاده خواهیم کرد؟ یا استفاده از میانه و میانگین انحراف مطلق از میانه منطقی تر است؟ من یک مقاله اصل حداکثر آنتروپی با معیارهای انحراف عمومی توسط Grechuk، Molyboha و Zabarankin پیدا کردم که به نظر می رسد اطلاعاتی را دارد که من در مورد آن کنجکاو هستم، اما رمزگشایی آن مدتی طول می کشد. | حداکثر آنتروپی برای یک میانگین انحراف مطلق شناخته شده کدام توزیع است؟ |
68573 | من یک سوال در مورد پیش بینی سری های زمانی دارم. به ویژه من با رویکرد بیزی کار کرده ام، اما فکر می کنم این سوال مستقل از آن است. من چندین سری زمانی دارم که از نظر زمانی بسیار پایدار هستند، به جز در تاریخ های خاصی که تغییرات ناگهانی دارند. مشکل این است که اگر از تکنیک پیشبینی استفاده کنم که به گذشته برای پیشبینی آینده نگاه میکند، مانند ARIMA، روزهای بعد از تغییرات ناگهانی تأثیر زیادی بر پیشبینی میگذارند. بنابراین، برای ارائه یک مثال ساده، فرض کنید من $x_{t+1} = \sum \beta_j x_j، j<t+1$ را پیش بینی می کنم، می خواهم حساب های جادوگر وزن دیگری را برای احتمال x_j$ اضافه کنم. ، چیزی شبیه $x_{t+1} = \sum f(x_j)\beta_j x_j، j<t+1$ که در آن $f(x_j)$ متناسب با $P(x_j)$. بنابراین، یک تغییر ناگهانی احتمال کمی دارد و نباید به پیش بینی کمک کند. کسی میدونه چطور با این نوع مشکلات برخورد کنم؟ من سعی می کنم این را در مدل بیزی پیاده کنم، اما اکنون مطمئن هستم که چگونه باید این کار را انجام دهم. به هر حال، ممنون پابلو | وزن دهی ضرایب سری زمانی با استفاده از احتمال مدل |
15315 | تفاوت هر کدام از آنها چیست؟ این صفحه ویکی - http://en.wikipedia.org/wiki/Latin_hypercube_sampling میگوید: در نمونهبرداری متعامد، فضای نمونه به زیرفضاهای به همان اندازه احتمالی تقسیم میشود، که به نظر من مانند ویژگی توالی اختلاف کم است. | نمونه برداری متعامد، هایپرمکعب لاتین و توالی اختلاف کم |
5664 | من کاملاً مبتدی در آمار هستم (اگرچه آن را واقعاً جالب میدانم!)، و وظیفه توزیع بازخورد برای سخنرانان کنفرانسی را که با هم سازماندهی میکنم، بر عهده گرفتهام. به هر سخنران نمره ای در مقیاس 1-5 از شرکت کنندگان داده شد، و ما بازخورد همه شرکت کنندگان را در یک میانگین نمره، به عنوان مثال 3.56 ترکیب می کنیم. سپس میتوانیم سخنرانان را بر اساس امتیاز میانگین سفارش دهیم. علاوه بر دادن میانگین امتیاز به سخنرانان، ما همچنین می خواهیم به آنها سرنخی در مورد نحوه عملکرد آنها در مقایسه با سایر سخنرانان بدهیم. برای جلوگیری از دلسرد کردن سخنرانانی که بدترین کار را انجام دادند (ما از مردم می خواهیم که دوباره تلاش کنند!)، ما یک معیار مبهم تری ارائه کردیم. می خواهیم بلندگوها را به چهار گروه تقسیم کنیم: 10% بهترین/20%/30%/40% بدترین. آیا نامی برای این وجود دارد؟ **ویرایش**: من یک مثال را امتحان می کنم. اگر ده گفتگو با نمرات {1.2، 1.3، 2.1، 2.4، 2.7، 3.0، 3.2، 4.1، 4.2، 4.5} داشته باشم، آنها را به این صورت تقسیم می کنم: 10% بهترین: 4.5 20% بعدی بهترین: 4.2، 4.1 30% بعدی بدترین: 3.2، 3.0، 2.7 40% بدترین: 2.4، 2.1، 1.3، 1.2 چیزی که من می خواهم بدانم این است که آیا نامی برای این محدوده ها وجود دارد یا خیر. | آیا نامی برای مقایسه نمرات فردی با مجموعه ای از نمرات وجود دارد؟ |
95620 | من برای مصاحبه آماده می شوم و این یکی از سوالاتی است که با آن مواجه شده ام: چگونه می توانید یک تست A/B را روی یک ویژگی انتخاب کردن انجام دهید؟ فکر می کنم نمی توانید یک آزمون عادلانه را با انتخاب انتخاب کنید. در گزینه افرادی که نسخه A سایت را مشاهده می کنند از کل توزیع کاربران می آیند در حالی که افرادی که B را مشاهده می کنند فقط از مجموعه ای هستند که شرکت کرده اند. به نظر می رسد که این شرایط یک آزمایش کنترل شده را نقض می کند. برداشت شما در این مورد چیست؟ | چگونه می توان تست am A/B را برای یک ویژگی که برای هر بازدید کننده ای قابل دسترسی نیست انجام داد؟ |
97109 | فرض کنید ما مدلهای رگرسیون چندک را با مجموعهای از چندکها بین 0 و 1 و یک رگرسیون خطی (یعنی رگرسیون میانگین) به یک مجموعه داده با همان مجموعه از متغیرهای کمکی برازش دادیم. از نظر تخمین ضریب رگرسیون برای یک متغیر کمکی خاص، مثلاً x، 9 تخمین از رگرسیون چندک مربوط به هر یک از 9 کمیت و تنها یک تخمین از رگرسیون میانگین دریافت خواهیم کرد. اگر آن تخمینها را در همان نمودار رسم کنیم، با محور y مقادیر تخمین و محورهای x برای چندکها را نشان میدهد، باید یک خط افقی برای تخمین از رگرسیون میانگین و یک خط زیگ که تخمینها را از رگرسیون چندک به هم متصل میکند، دریافت کنیم. . سوال من این است که آیا این دو خط در هر موردی باید در یک نقطه (یعنی مقدار کمی) با هم تلاقی داشته باشند یا ممکن است برای همه چندک های ممکن با یکدیگر تلاقی نداشته باشند؟ آیا نتیجه گیری در تنظیم مدل مختلط چندک خطی و مدل مختلط خطی سازگار است؟ ویرایش @05/13: نمودار نمونه درج شد  با تشکر. | مقایسه نتایج رگرسیون چندک خطی با رگرسیون میانگین |
83165 | هسته برای نمونهبرداری مجدد Lanczos با $$K(u) = \frac{a\text{sin}(\pi u)\text{sin}(\pi u/a)}{\pi^2u^2} تعریف میشود. .$$ چگونه می توان مقدار $a$ را برای به حداقل رساندن میانگین مربعات خطا، $\text{MSE} = b^2 + \sigma^2$ پیدا کرد؟ آیا حداقل یک رابطه مقیاس با اندازه مجموعه داده، $n$، مانند هسته های گاوسی وجود دارد؟ توجه: نمیدانم مهم است یا نه، اما اجازه دهید توزیع کاملاً مثبت را فرض کنیم. | اندازه هسته بهینه برای نمونه برداری مجدد Lanczos |
6401 | من در حال حاضر در حال تخمین دسته ای از مدل های ARMA هستم و از آنها برای پیش بینی زیرمجموعه های داده هایم استفاده می کنم. برای ارزیابی دقت پیشبینی آنها میخواهم چند نمودار ROC ایجاد کنم، اما از آنجایی که همه متغیرهای من پیوسته هستند، نمیدانم که چگونه میتوان این کار را در R Best، Thomas P.S انجام داد. به نظر می رسد فقط برای متغیرهای دوگانه کار می کند. | نمودار ROC برای داده های پیوسته در R |
83163 | فرض کنید من دو نمونه دارم. اگر بخواهم بگویم که آیا آنها از جمعیت های مختلف کشیده شده اند یا خیر، می توانم یک آزمون t اجرا کنم. اما فرض کنید می خواهم آزمایش کنم که آیا نمونه ها از یک جامعه هستند یا خیر. چگونه یک نفر این کار را انجام می دهد؟ یعنی چطوری احتمال آماری که این دو نمونه از یک جامعه کشیده شده اند را محاسبه کنم؟ | آزمون آماری برای تشخیص اینکه آیا دو نمونه از یک جامعه گرفته شده است؟ |
31546 | من سعی می کنم چندک های تابع $f(x_i)$ را در معادله تخمین بزنم: $$ y_{it} = \alpha_i + f(x1_{it}, x2_{it}) + \epsilon_{it} $$ رویکرد فعلی، احتمالا سادهلوحانه من، اجرای رگرسیون خطی $y_{it} = \alpha_i + X_i\beta+ \epsilon_{it}$ است، محاسبه ارزش پیش بینی شده $X_i\beta$ و CDF تجربی آن. سپس برای تخمین فواصل اطمینان چندک های مختلف راه اندازی می کنم. من همچنین در نظر گرفتم که از یک مدل سلسله مراتبی استفاده کنم و فرض کنم که $f(x1_it, x2_it)$ از توزیع خاصی پیروی می کند، اما به نظر می رسید تقریباً مشکل را برطرف می کند. هر گونه پیشنهاد قدردانی می شود. همچنین، از آنجایی که این اولین پست من است، پیشنهادهایی در مورد چگونگی چارچوب بندی بهتر سؤال نیز مورد توجه قرار گرفت. | تخمین چندک های یک متغیر پنهان |
15318 | اگر بخواهم به سوال زیر پاسخ دهم، آیا وب سایتی وجود دارد که به من این امکان را بدهد؟ (یا قبلا انجام شده است؟) چند درصد از افراد دارای مدرک علوم کامپیوتر 30 تا 40 ساله متاهل هستند؟ چند درصد از افراد دارای مدرک تحصیلی 30 تا 40 ساله متاهل هستند؟ مطمئناً در جایی آنلاین سایتی وجود دارد که بتوانم چنین معیارهایی را در آن قرار دهم و نتایج اولیه را ایجاد کنم؟ | سایت آنلاین برای ایجاد آسان آمار در مورد داده های سرشماری |
71783 | این سوال مربوط به احتمالات و آمار DEGROOT است. مشکل فرض کنید که دو تاس باید به طور مکرر ریخته شوند و مجموع $T$ دو عدد برای هر پرتاب مشاهده شود. ما باید احتمال $p$ را تعیین کنیم که مقدار $T =7$ قبل از مشاهده مقدار $T =8$ مشاهده شود. راهحل احتمال مورد نظر $p$ را میتوان مستقیماً به صورت زیر محاسبه کرد: میتوانیم فرض کنیم که فضای نمونه $S$ شامل تمام دنبالههایی از نتایج است که به محض جمع $T = 7$ یا مجموع $T = 8$ خاتمه مییابند. بدست می آید. سپس میتوانیم مجموع احتمالات تمام دنبالههایی را که با بهدستآمدن مقدار $T = 7$ خاتمه مییابند، پیدا کنیم. با این حال، رویکرد ساده تری در این مثال وجود دارد. می توانیم آزمایش ساده ای را در نظر بگیریم که در آن دو تاس ریخته می شود. اگر آزمایش را تکرار کنیم تا مجموع $T = 7$ یا مجموع $T = 8$ بدست آید، نتیجه آزمایش به یکی از این دو مقدار محدود می شود. از این رو، مشکل را می توان به صورت زیر بیان کرد: با توجه به اینکه نتیجه آزمایش $T = 7$ یا $T = 8$ است، احتمال $p$ را تعیین کنید که نتیجه واقعاً $T = 7$ باشد. اگر اجازه دهیم $A$ رویدادی باشد که $T = 7$ و $B$ رویدادی باشد که مقدار $T$ یا $7$ یا $8$ باشد، آنگاه $A∩ B = A$ و $$ p = Pr(A|B) = \frac{Pr(A ∩ B)}{Pr(B)} =\frac{Pr(A)}{Pr(B)} $$ اما $Pr(A) = 6/36$ و $Pr(B) = (6/36) + (5/36) = 11/36$. بنابراین، $p = 6/11$. اکنون، شک من این است 1. چرا نویسنده میگوید > میتوانیم فرض کنیم که فضای نمونه $S$ شامل همه دنبالههایی از نتایج است > که به محض جمع $T = 7$ یا مجموع $T = 8$ پایان مییابد. به دست آمده است. سپس میتوانیم مجموع احتمالات تمام > دنبالههایی را که با بهدستآمدن مقدار $T = 7$ خاتمه مییابند، پیدا کنیم. > 2. چگونه میتوانیم از دنبالههای طولانی نتایجی که به محض اینکه مجموع $T = 7$ یا مجموع $T = 8$ به دست میآیند، به نتیجه آزمایشی که برای آن یا $T = خاتمه مییابد، برویم. 7 دلار یا T دلار = 8 دلار؟ > | احتمال اینکه وقتی تاس می اندازم، قبل از دیدن مبلغ 8 دلار، مبلغ 7 دلار روی آنها ببینم چقدر است؟ |
97104 | من در حال مطالعه مقاله Sethuraman در مورد فرآیند دیریکله هستم و در نشان دادن یک لم مشکل دارم. وی بیان می کند: اجازه دهید $\boldsymbol\gamma=(\gamma_1,...\gamma_k)$ و $\gamma=\sum_j \gamma_j$ و اجازه دهید $\beta_j=\frac{\gamma_j}{\gamma}$, $ j=1،2،...،k$. سپس، $\sum_j \beta_j\mathcal{D}_{\boldsymbol\gamma+e_j}=\mathcal{D}_{\boldsymbol\gamma}$ در این لم $\mathcal{D}_{\boldsymbol\gamma }$ توزیع دیریکله با پارامترهای $\boldsymbol\gamma$ و $e_j$ بردار است 0 ها با 1 در موقعیت j. ستورامن می گوید که شواهد این لم در بسیاری از کتاب های درسی استاندارد، از جمله ویلکس (1962) یافت می شود. من سعی می کنم این لم را ثابت کنم. من آن را در هیچ کتاب درسی پیدا نکردم و نمی توانم نسخه ای از کتاب Wilks را پیدا کنم. من راه های زیادی آن را امتحان کرده ام. قابل توجه، با بیان دیریکله به صورت گاما و برای k=2. | مجموع وزنی دیریکله دیریکله است |
15319 | من 4 مجموعه نقطه داده دارم و برای هر کدام می خواهم ببینم این مقادیر از صفر چقدر متفاوت است. من از ابزار محاسبه نتایج آزمون در این صفحه استفاده کردم اما در درک نتایج مشکل دارم. نتایج برای 4 مجموعه از نقاط داده من عبارتند از: W+ = 3، W- = 12، N = 5، p <= 0.3125 برای 101 نقطه داده W+ = 12، W- = 3، N = 5، p <= 0.3125 برای 101 نقطه داده W+ = 451، W- = 1089، N = 55، p <= 0.007618 برای 297 نقطه داده W+ = 950.50، W- = 427.50، N = 52، p <= 0.01746 برای 297 نقطه داده لطفاً میتوانید به من بگویید که کدام مقادیر را باید بررسی کنم و از نظر نتایج بالا چه معنایی دارد؟ آیا مقادیر p پایین به این معنی است که واریانس از صفر معنی دار نیست؟ با تشکر | لطفاً به من کمک کنید تا این نتایج آزمون رتبهبندی شده ویلکاکسون را تفسیر کنم |
97101 | من سعی می کنم بفهمم که چه گام های بعدی را باید بردارم. من یک مدل ایجاد کردم و OLS را بر روی نمونه بسیار بزرگی از داده ها (بیش از 400000 مشاهده) اجرا کردم و مقدار R-squared 0.80 به دست آوردم. بنابراین تناسب مدل واقعا خوب به نظر می رسد. با این حال، من یک تست Ramsey RESET را اجرا کردم و آمار آزمون آن به شدت حاکی از وجود متغیرهای حذف شده بود. مطمئن نیستم بعدش چیکار کنم آیا من فقط مدل را دور می اندازم و می گویم که برآوردها مغرضانه هستند. آیا به افزودن عبارت ادامه میدهم تا زمانی که تست RESET دیگر متغیرهای حذف شده را پیشنهاد نکند؟ این مدل در نظر گرفته شده است که در داخل و خارج از نمونه پیش بینی کند و با توجه به تناسب مدل با داده های مشاهده شده، آیا با وجود متغیرهای حذف شده، هنوز واقعاً برازش خوبی است؟ با تشکر | تناسب مدل زیاد است اما تست RESET رمزی متغیرهای حذف شده را پیشنهاد می کند. چه باید کرد؟ |
82419 | من به نابرابری چبیشف یک طرفه زیر علاقه مند هستم: $$ \mathbb P(X - \mathbb E (X) \geq t) \leq \frac{\mathrm{Var}(X)}{\mathrm{Var} (X) + t^2} \,. $$ اساساً، اگر میانگین جمعیت و واریانس را بدانید، میتوانید کران بالایی را بر روی احتمال مشاهده یک مقدار مشخص محاسبه کنید. (حداقل درک من این بود.) با این حال، من می خواهم از میانگین نمونه و واریانس نمونه به جای میانگین و واریانس واقعی جامعه استفاده کنم. من حدس می زنم که از آنجایی که این عدم قطعیت بیشتری ایجاد می کند، حد بالایی افزایش می یابد. آیا نابرابری مشابه با بالا وجود دارد، اما از میانگین و واریانس نمونه استفاده می کند؟ **ویرایش**: آنالوگ نمونه نابرابری چبیشف (نه یک طرفه)، کار شده است. صفحه ویکی پدیا دارای برخی جزئیات است. با این حال، من مطمئن نیستم که چگونه می تواند به مورد یک طرفه ای که در بالا آورده ام ترجمه شود. | آیا نمونه ای از نابرابری یک طرفه چبیشف وجود دارد؟ |
103021 | من برخی از توزیعهای آلوده دارم (یعنی توزیعهایی که بر اساس متغیرهای متعددی هستند که به یک مقدار دلخواه ٪ تعیین شدهاند). در حال حاضر ما فقط از هنجاریست (یعنی تابع توزیع تجمعی نرمال) برای استخراج % برای هر مقدار استفاده می کنیم. آیا راه بهتری برای محاسبه توزیع هایی که ممکن است با استفاده از r کج یا عادی نباشند وجود دارد؟ اگر چنین است، کسی می تواند دستورات را ارائه دهد؟ پیشاپیش ممنون در صفحه اصلی r-project، من یک توزیع غیرعادی ترسیم شده و چیزی شبیه تابع چگالی تجمعی را می بینم که بر روی مجموعه ای از مقادیر اعمال می شود، احتمالاً برای یافتن مساحت آن برای استخراج ٪ از محدوده. http://www.r-project.org/ | با استفاده از R، آیا میتوانم مجموعهای از ورودیها را برای تنظیم خودکار یک توزیع و استخراج تابع توزیع تجمعی با توجه به هر مقدار وارد کنم؟ |
100635 | من دوزهای مختلفی از یک دارو را به موش میدهم و پاسخ کمی را اندازهگیری میکنم. من می خواهم تعیین کنم که آیا رابطه خطی بین دوز دارو و پاسخ وجود دارد یا خیر. به نظر می رسد که همبستگی پیرسون بتواند این کار را انجام دهد. اما من در حال آزمایش چندین موش در هر دوز هستم، بنابراین چندین مشاهده از متغیر وابسته در هر سطح از متغیر مستقل دارم. و من به ارتباط بین دوز و میانگین جمعیت واقعی پاسخ در هر دوز علاقه مند هستم. من می خواهم مقادیر r و p (در اصطلاح استاندارد پیرسون) را بدانم، یعنی اینکه چقدر رابطه قوی است و از نظر آماری چقدر معنادار است. بنابراین من به چیزی مانند همبستگی پیرسون در اندازهگیریهای مکرر نیاز دارم، اما نتوانستم هیچ کاربردی از آن پیدا کنم (اگرچه فکر میکردم این یک موقعیت بسیار معمولی و تحلیل رایج است). ممکن است راهنمایی کنید که چگونه می توان چنین تحلیلی را انجام داد؟ متشکرم. | همبستگی پیرسون با مشاهدات متعدد در هر سطح از متغیر مستقل |
16753 | من در تلاش برای پیاده سازی طبقه بندی کننده Watson Nadaraya هستم. یک چیز وجود دارد که من از معادله متوجه نشدم: $${F}(x)=\frac{\sum_{i=1}^n K_h(x-X_i) Y_i}{\sum_{i=1} ^nK_h(x-X_i)}$$ برای کرنل K از چه چیزی استفاده کنم؟ من یک مجموعه داده دو بعدی دارم که دارای 1000 نمونه است (هر نمونه به این صورت است: «[-0.10984628، 5.53485135]». چیزی که من را گیج می کند این است که، بر اساس داده های من، ورودی تابع هسته چیزی شبیه به این خواهد بود: K([-0.62978309, 0.10464536]) و آنچه من می فهمم، به جای آرایه مقداری عدد تولید می کند، بنابراین می توانم ادامه دهید و F(x) را محاسبه کنید که یک عدد نیز خواهد بود. سپس بررسی می کنم که آیا > یا <= از صفر است. اما من هیچ هسته ای را پیدا نکردم که یک عدد تولید کند. خیلی گیج شده ویرایش: من سعی کردم طبقه بندی کننده خود را بر اساس نظرات پیاده سازی کنم، اما دقت بسیار پایینی گرفتم. اگر کسی متوجه شود چه مشکلی در آن وجود دارد سپاسگزارم. def gauss(x): return (1.0 / np.sqrt(2 * np.pi)) * np.exp(- 0.5 * x**2) def transform(X, h): A = [] برای i در X : A.append(stats.norm.pdf(i[0],0,h)*stats.norm.pdf(i[1],0,h)) A N = 100 # پیش تخصیص مقداری میانگین و واریانس میانگین 1 = (0,9) mean2 = (0,5) cov = [[0.3,0.7],[0.7,0.3]] # ایجاد یک مجموعه داده 1 = np.random.multivariate_normal( mean1,cov,N) مجموعه داده 2 = np.random.multivariate_normal(mean2,cov,N) X = np.vstack((dataset1, database2)) # برچسبهای از پیش تعیین شده Y1 = [1]*N Y2 = [-1]*N Y = Y1 + Y2 # با تعیین عرض h = 0.5 #اکنون، دادهها را تبدیل کنید X2 = تبدیل (X, h) j = 0 پیش بینی شده = [] برای i در X2: # معادله را اعمال کنید fx = sum((gauss(i-X2))*Y)/float(np.sum(gauss(i-X2))) # اگر fx>0 باشد، اگر fx >0 به کلاس 1 تعلق دارد: predicted.append(1) else: predicted.append(-1) j = j+1 | کدام تابع هسته برای طبقه بندی کننده Watson Nadaraya؟ |
97100 | منظور از مرتبط در مرتبط پسین به چه معناست؟ به عنوان مثال، > نقطه شروع در این محاسبه، تجزیه **مرتب > خلفی** به **مرتبط حاشیه ای و شرطی** و به دنبال آن تخمین مونت> کارلو است... من فقط معنی مرتبط را می دانم. wrt abscissa. | منظور از مرتبط در مرتبط پسین به چه معناست؟ |
103027 | ویکیپدیا جدول زیر را برای محاسبه اندازههای نمونه دارد:  جدول برای اهداف زیر ایجاد شده است: * سطح معنیداری 0.05. * قدرت آماری * d کوهن (یعنی اندازه اثر) چگونه می توان این جدول را محاسبه کرد؟ برای یک ورودی داده شده ($\alpha$ مطلوب، توان و d کوهن)، چگونه می توان حداقل حجم نمونه را محاسبه کرد؟ آیا رابطه جبری بین این مقادیر وجود دارد؟ آیا این یک مشکل معکوس است؟ همچنین، فرض میکنم که در بالا فرض میشود که هر دو گروه دارای حجم نمونه $n=n_1=n_2$ هستند. آیا رابطه (یا معادله) مشابهی وجود دارد که $n_1$ و $n_2$ مجاز هستند متفاوت باشند؟ | تخمین حجم نمونه برای آزمون فرضیه صفر |
47077 | آیا تحقیق/مقاله ای در مورد رابطه بین تعداد اسناد برای آموزش و عملکرد طبقه بندی با استفاده از ماشین بردار پشتیبان وجود دارد؟ | رابطه بین تعداد مجموعه آموزشی و عملکرد طبقه بندی |
90984 | من مدلی دارم که در آن موقعیت سیاسی (چپ-راست) ائتلاف در قدرت، در میان چیزهای دیگر، بازده سهام را توضیح میدهد. تمام داده ها ماهانه است. نتایج را در زیر مشاهده کنید. سوال این است که آیا ~28% R-squared را به اندازه کافی بالا در نظر می گیرید؟ داده های مالی همه بازده است، بنابراین من معتقدم که باید ثابت باشد. نظر دیگری در مورد آنچه می بینید دارید؟  | آیا مربع R برای این مدل قابل احترام است؟ |
83164 | من به دنبال راهاندازی یک آزمون Simes در R هستم. من سعی میکنم نشان دهم که تست Simes در زمانی که یک همبستگی مثبت وجود دارد محافظهکارانه است. من می دانم که مقادیر p با استفاده از تابع p.adjust چقدر درست است، اما من به دنبال راه اندازی یک شبیه سازی تحت شرایط زیر هستم: 1.) توزیع چند متغیره $\mathcal{N}$(0,1). 2.) $\alpha$ = 0.05 3.) تعداد k تست = 2، 20، و 100 4.) $\rho$ = 0، 0.5، و 0.9 من این کد را به عنوان مرجع برای استفاده دارم: library( MASS) آلفا <- 0.05 متر <- 20 n.sim <- 10000 n. رد <- rep(0,n.sim) rho<- 0 mu <- rep(0,m) Sigma <- matrix(rho,m,m) diag(Sigma) <- 1 for (i in 1:n.sim) { z <- rnorm(m) z <- mvrnorm(1,mu,Sigma) p <- pnorm(z) n.رد[i] <- طول (p[p<=alpha]) } | چگونه تست سیمز را اجرا کنیم؟ |
47071 | من داشتم این مقاله مربوط به یادگیری از چندین حاشیه نویس با استفاده از فرآیندهای گاوسی را می خواندم. ایده این است که اگر ما حقیقت واقعی یک داده خاص را نداشته باشیم، بلکه فقط برچسب های برخی متخصصان پر سر و صدا را داشته باشیم، چگونه می توانیم مدلی را از این داده ها از چندین متخصص پر سر و صدا یاد بگیریم و بر روی داده های آینده پیش بینی کنیم اساساً بچهها انجام دادهاند، میانگین وزنی برچسبها از پیشبینیکنندههای فردی، بر اساس دقت آنها، گرفته میشود تا یک برچسب واحد برای هر نقطه به دست آید. سپس آنها از GP استفاده کرده اند تا فرض کنند که نقاط داده متعلق به یک توزیع گاوسی است. با این حال، زمانی که آنها احتمال $p(Y)$ را استخراج کردهاند، این سوال/گیج را دارم که در آن $Y$ مجموعهای از برچسبهای ارائهشده توسط متخصصان نویز است. من اسکرین شات را هم اضافه کردم می دانم کسی که می تواند به این سوال پاسخ دهد باید مقاله و همه چیز را بررسی کند، اما من قبلاً زمان قابل توجهی را صرف کردهام تا بفهمم چگونه این $-\log p(Y)$ چنین شد اما نتوانستم. اگر کسی بتواند به من نکاتی بدهد واقعا ممنون می شوم | سردرگمی مربوط به محاسبه احتمال |
73922 | من از یک تابع Matlab داخلی برای بررسی علیت گرنجر بین دو سری زمانی P و T که ضریب همبستگی 0.6 دارند استفاده کردم. تابع این است: https://www.mathworks.com/matlabcentral/fileexchange/25467-granger-causality- test/content/granger_cause.m در اجرای آن، پاسخ زیر را دریافت کردم: >> [fs,cv] = granger_cause (P، T، 0.05،2) fs = 1.0281e+003 cv = 2.9966 که در آن FS F-Statistic و cv مقدار بحرانی از F-Distribution است. آیا این علیت را نشان می دهد؟ در واقع ... چه چیزی را نشان می دهد؟ | آیا این پاسخ تست برای نشان دادن علیت گرنجر به اندازه کافی خوب است؟ |
97108 | فرضیه من این بود که احساسات مصرف کننده (چگونه مردم نسبت به بازار من احساس می کنند) بر داوجونز تأثیر گذاشته است، من برخی از آزمون های علیت اساسی VAR و Granger را انجام دادم و متوجه شدم که دقیقاً برعکس است، که داوجونز بر احساسات مصرف کننده در فاصله اطمینان 99 درصد تأثیر می گذارد (فقط برخی پس زمینه). صرف نظر از این، من امیدوار بودم که کسی بتواند به من کمک کند تا توضیح دهم که چه اتفاقی در حال رخ دادن است، یا حداقل نظریه ای ارائه کنم که چرا این تفاوت با کراس همبستگی پایه بدون اولین تفاوت به نظر می رسد. اگر می خواهید مدل های دیگری را ضمیمه کنم فقط به من اطلاع دهید. همبستگی متقابل احساسات مصرف کننده و اولین تفاوت شاخص داوجونز (میانگین ماهانه) _آنچه می خواهم تفسیر کنم_) همبستگی متقابل مصرف کننده احساسات و شاخص داوجونز (میانگین ماهانه)  پیشاپیش متشکرم! | نتایج گیج کننده در یک همبستگی متقابل |
97102 | آیا می توانید از آزمون log rank یا آزمون Wilcoxon برای آزمایش فرض خطرات متناسب در مدل Cox استفاده کنید؟ | آزمون فرض خطرات متناسب |
87429 | فرض کنید $Z=X+Y$، $X$،$Y$ به طور معمول توزیع شده است. چگونه می توانم محاسبه کنم: $Pr(X>X'|Z,Z')$ زمانی که دو تحقق داشته باشم، $X$,$X'$؟ | احتمال مشروط - استخراج سیگنال |
73929 | من مجموعهای از دادههای مستقل و دادههای وابسته $(X,Y)$ دارم، که در آن میخواهم یک رگرسیون نمایی انجام دهم تا مقدار p و F$ قابل توجه آن را به دست بیاورم (که قبلاً $R^2$ بدست آمده و همچنین ضرایب از طریق محاسبات ریاضی). اغلب یک داده نمایی، $y=be^{mx}$ ابتدا به یک داده خطی، $\ln y = mx + \ln b $ تبدیل می شود. سپس یک رگرسیون خطی روی دادههای تبدیلشده انجام میشود، مقدار p آن را بهدست میآوریم. فرض کنید از یک ابزار آماری مانند Excel's Analysis ToolPak استفاده میکنیم: تجزیه و تحلیل دادهها: رگرسیون، نتیجهای مانند زیر ایجاد میکند،  من معتقدم که p-value و مقدار قابل توجه $F$ بالا نشان دهنده است داده های خطی تبدیل شده و نه داده های نمایی اصلی. سوالات: 1. روش/مراحل مورد استفاده اکسل برای بدست آوردن مقدار p و مقدار F قابل توجه برای داده های خطی تبدیل شده، همانطور که در خروجی آماری در تصویر بالا نشان داده شده است، چیست؟ در صفحه راهنما یا وب سایت آنها مشخص نیست. 2. آیا می توان P-value و Significant F را بدون استفاده از ابزار آماری برای **رگرسیون نمایی** به صورت ریاضی محاسبه کرد؟ اگر قبلاً به این موضوع پاسخ داده شده است، می توانید کمک کنید تا لینک درست را به من معرفی کنید. برای مطالعه این موضوع یک هفته را در اینترنت سپری کردید اما نتوانستید پاسخ درست را پیدا کنید. | رگرسیون نمایی: محاسبه p-value و اهمیت F |
88078 | فرض کنید من دادههای پانل _ماهانه_ 4 ساله دارم: 1. صادرات ویجتها $y$ از کشور خود به 12 کشور مختلف (به دلار) ارز محلی) 3. مصرف داخلی ویجت ها $z$ (به دلار آمریکا) 4. نرخ مبادله اسمی $r$ کشور اصلی (به دلار آمریکا در هر واحد خانه) ارز) من در درجه اول به تأثیر نوسانات نرخ ارز بر صادرات علاقه دارم. من معادله متفاوت فصلی زیر را با استفاده از OLS با خطاهای استاندارد خوشهبندی شده بر اساس کشور و زمان تخمین زدم: $$ \ln y_{i,t} - \ln y_{i,t-52} = \alpha + \beta \cdot(\ ln x_{i,t}-\ln x_{i,t-52})+\gamma \cdot(\ln z_{i,t}-\ln z_{i,t-52}) +\eta \cdot(\ln r_{i,t}-\n r_{i,t-52}) + (\varepsilon_{i ,t}-\varepsilon_{i,t-52})$$ زیرنویس $i$ کشورها و $t$ ماهها را نمایه می کند. صادرات همه کاملاً مثبت است، بنابراین گرفتن سیاههها مشکلی ندارد. دو سوال: * برآوردهای من تا حدودی حساس است که آیا من نرخ ارز $r$ و $\hat \beta \approx -\hat \eta$ را کنترل میکنم یا خیر. آیا $r$ به معادله تعلق دارد؟ * آیا بررسی های استحکامی وجود دارد که باید در نظر بگیرم؟ آیا هیچ مشکلی وجود دارد که از بین برود؟ من با این ادبیات آشنا نیستم، بنابراین از هر مرجعی بسیار استقبال می شود. | مدل داده پانل برای صادرات و نرخ ارز |
39049 | هنگام استفاده از SVM برای ساختن طبقهبندی کننده برای مجموعهای از اسناد، میتوانیم از وقوع اصطلاح، فرکانس اصطلاح یا حتی TF/IDF استفاده کنیم. من می خواهم بدانم که معایب اصلی استفاده از وقوع اصطلاح به عنوان روش تولید برداری چیست؟ من یک بار شنیدم که این روش تولید برداری می تواند باعث از کار افتادن ماشین بردار پشتیبانی شود. چگونه این را توضیح دهیم؟ | در مورد روش تولید ویژگی با روش طبقه بندی مبتنی بر SVM |
100599 | بنابراین من یک ANOVA با دو متغیر مستقل (IV) و یک متغیر وابسته (DV) اجرا کردم. یک IV طبقه بندی است و دیگری پیوسته است. DV نیز پیوسته است. با این حال، وقتی دادهها را دوباره از طریق SPSS اجرا میکنم، پس از حذف IV پیوسته از تجزیه و تحلیل، اثر اصلی برای ردهبندی IV قبلی من ناپدید میشود و به این ترتیب من با یک اثر اصلی غیر قابل توجه برای طبقهبندی IV خود باقی میمانم. چرا این اتفاق می افتد؟ | چرا نتایج هنگام استفاده از Anova تغییر می کند؟ |
26585 | من شش متغیر وابسته (داده های شمارش) و چندین متغیر مستقل دارم، می بینم که در یک MMR اسکریپت به این صورت است: my.model <- lm(cbind(DV1,DV2,DV3,DV4,DV5,DV6) ~ IV1 + IV2 + ... + IVn) اما، از آنجایی که داده های من تعداد هستند، می خواهم از یک مدل خطی تعمیم یافته استفاده کنم و این را امتحان کردم: my.model <- glm(cbind(DV1,DV2,DV3,DV4,DV5,DV6) ~ IV1 + IV2 + ... + IVn, family=poisson) و این پیغام خطا ظاهر می شود: خطا در glm.fit(x = c (1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، : (زیرنویس) زیرنویس منطقی خیلی طولانی است` آیا کسی می تواند این پیام خطا یا راهی برای حل مشکل من را برای من توضیح دهد؟ | چگونه یک مدل خطی تعمیم یافته با چندین متغیر وابسته در R انجام دهیم؟ |
104532 | من می خواهم رابطه بین بروز بیماری در یک منطقه و تعدادی از عوامل محیطی دیگر مانند دما، ارتفاع و غیره را پیدا کنم. من جداول حاوی این داده ها را برای یک کشور خاص دارم. فایل های داده فایل های شطرنجی نقشه کشور هستند که هر پیکسل دارای مقدار عددی مشخصی برای پارامتر خاص است. مثال [126, 540, 359...] مثلاً موارد بیماری یا [23.34, 19.02...] برای دما و غیره. -tests** و غیره. اما من آنها را مناسب ندیدم: رگرسیون چندگانه زیرا آنچه من آن را خواندم یک رابطه خطی بین متغیرها را فرض می کند. آزمون مربع کای برای داده های طبقه بندی اعمال می شود. آزمون t برای مجموعه داده های کوچک. من همچنین درباره **تحلیل EOF** (تابع متعامد تجربی) خوانده ام، اما به داده های سری زمانی نیاز دارد. **CCA** (تحلیل همبستگی متعارف) اما رابطه بین دو مجموعه از متغیرهای چندگانه را پیدا می کند. **از کدام روش آماری می توانم برای یافتن رابطه بین این متغیرها استفاده کنم؟** می خواهم از روشی استفاده کنم که رابطه ای را نشان دهد، مثلاً ارتفاع بیشتر، تعداد بروز بیماری بیشتر است و غیره. بدون اینکه چیزی را از قبل فرض کنم. مانند، یک رابطه خطی بین متغیرها وجود دارد، بنابراین از مدل رابطه خطی استفاده کنید. _همچنین آیا روشی که ذکر کردم مناسب است اما درک من صحیح نیست؟ در یک یادداشت جانبی، من با داده های GIS کار می کنم و از ماژول های پایتون یا R برای پیدا کردن و رسم رابطه استفاده می کنم. همچنین، آرایه ها اندازه یکسانی ندارند. با تشکر | از چه مدل آماری می توان برای یافتن چگونگی ارتباط متغیرهای زیر استفاده کرد؟ |
43795 | من یک داده SPELL دارم که در آن متغیرهای کمکی زیادی همراه با متغیرهای اصلی (یعنی id، begin، end و status) وجود دارد. هنگامی که من داده های SPELL را به عنوان یک شی دنباله با seqdef تعریف می کنم، به نظر می رسد که آن متغیرهای کمکی در شی دنباله ناپدید می شوند. به همین دلیل، من نمی توانم نمودارها را بر اساس سطوح آنها گروه بندی کنم. آیا پیشنهادی دارید؟ | نحوه حفظ متغیرهای کمکی هنگام ایجاد یک شی دنباله از یک داده SPELL |
100597 | > **اگر متغیر وابسته به صورت خطی با متغیرهای > مستقل مرتبط باشد، نباید رابطه سیستماتیکی بین باقیمانده ها > و مقادیر برازش وجود داشته باشد**. به عبارت دیگر، مدل باید تمام واریانس سیستماتیک موجود در داده ها را ثبت کند و چیزی جز نویز تصادفی باقی نماند. من مفهوم پررنگ را متوجه نمی شوم. من نمیدانم که چگونه نتیجه (بدون رابطه سیستماتیک بین باقیماندهها و مقادیر برازش) از فرضیه (متغیر وابسته به طور خطی با متغیرهای مستقل مرتبط است) نتیجه میگیرد. آیا کسی می تواند آن را در چارچوب یک رگرسیون خطی ساده توضیح دهد؟ | به روشن شدن مفهوم خطی بودن در رگرسیون حداقل مربعات معمولی (OLS) کمک کنید |
19927 | من 2840 مشاهده از یک فرآیند تصادفی با نویز گاوسی بزرگ به دست آوردم. پارامترهای فرآیند در یک نقطه در حوالی مشاهده 1500 تغییر می کنند. من اینها را به طور میانگین در مجموعههای 10، 40 و 284 مشاهده قرار دادهام و میخواهم آن سه مجموعه را به خوانندگان گزارشم ارائه دهم، اما نمیتوانم راه خوبی برای تجسم این دادهها پیدا کنم. در حالت ایدهآل، تجسم به بیننده اجازه میدهد تا ببیند: * مورفولوژی موج * تاثیر نویز، یعنی اینکه میانگینگیری چقدر با دیگری در مجموعه متفاوت است * نقطهای که مورفولوژی موج تغییر میکند، میتوانم همه آنها را در یک نمودار رسم کنم. این ایده خوبی در مورد تاثیر نویز می دهد، اما ترتیب زمانی امواج را از دست می دهد. همچنین، قبل از اینکه غیرقابل کنترل شود، فقط برای مجموعه 10 کار می کند.  همچنین می توانم آنها را به صورت یک سطح سه بعدی رسم کنم که محور X زمان را در یک نمونه و محور Z تعداد ترتیبی را نشان می دهد. مشاهده یک مشکل این است که برخی از امواج بهتر از سایرین دیده می شوند، و مقایسه سطوح نویز و مورفولوژی موج از نظر کمی از نمودار دشوار است.  چگونه می توانم این مجموعه مشاهدات میانگین شده را به بهترین شکل تجسم کنم؟ | چگونه مشاهدات یک فرآیند تصادفی را با تغییر پارامتر تجسم کنیم؟ |
57147 | من مجموعه ای از داده ها را دارم که شامل پاسخ به یک پرسشنامه (سوالات در مورد رضایت از 1 تا 5) و برخی اطلاعات دموگرافیک (جنس، سن) است. من می توانم داده ها را به دو گروه تقسیم کنم و می خواهم ببینم آیا تفاوت آماری بین آن گروه ها وجود دارد یا خیر. من تست Wilcoxon را امتحان کردم، اما کراوات های زیادی دارم، بنابراین مطمئن نیستم که این آزمایشی باشد که به آن نیاز دارم. بهترین آزمایش در این مورد چه خواهد بود؟ | بهترین آزمون برای ارزیابی تفاوت آماری بین دو گروه در مجموعه ای از آیتم های پرسشنامه 5 نقطه ای |
82411 | من می خواهم به صورت دستی یک ضریب خاص را ثابت کنم، مثلاً $\beta_1=1.0$، سپس ضرایب را با همه پیش بینی کننده های دیگر مطابقت دهم، در حالی که $\beta_1=1.0$ را در مدل نگه دارم. چگونه می توانم با استفاده از R به این هدف برسم؟ من به خصوص می خواهم در صورت امکان با LASSO (glmnet) کار کنم. روش دیگر، چگونه می توانم این ضریب را به یک محدوده خاص محدود کنم، مثلاً $0.5\le\beta_1\le1.0$؟ | چگونه یک ضریب را با استفاده از رگرسیون تثبیت کنیم و ضرایب دیگر را برازش کنیم |
12046 | آیا راهی وجود دارد که وقتی یک درخت طبقه بندی پیچیده با استفاده از rpart (در R) ساخته شد، قوانین تصمیم گیری تولید شده برای هر کلاس را سازماندهی کرد؟ بنابراین به جای دریافت یک درخت بزرگ، مجموعه ای از قوانین را برای هر یک از کلاس ها دریافت می کنیم؟ (اگر چنین است، چگونه؟) در اینجا یک مثال کد ساده برای نشان دادن نمونههایی وجود دارد: fit <- rpart(Kyphosis ~ Age + Number + Start, data=kyphosis) با تشکر. | سازماندهی درخت طبقه بندی (در قسمت r) در مجموعه ای از قوانین؟ |
39048 | من قصد دارم برای تجزیه و تحلیل احساسات روی داده های توییتر کار کنم، اما کنجکاو هستم که چگونه با چنین تعداد زیادی از ویژگی های متنی (کلمات) برخورد کنم. آیا استفاده از رویکرد Bag-Of-Words بهترین است؟ با این حال، من آموختهام که استفاده از همه کلمات در توییتها رویکرد بهتری است، بنابراین چگونه روشهای هنر با چنین مشکل طبقهبندی متنی برخورد میکنند؟ | روش برخورد با بردارهای ویژگی ارزش متنی برای کار طبقه بندی چیست؟ |
39042 | من یک مجموعه داده دارم (N=350) که برای آن میخواهم نمره آزمون عصبروانشناختی (مداوم) در سن، تحصیلات، شدت علائم (مداوم) و تشخیص (دودویی) را پسانداز کنم. شدت علائم سانسور میشود: نمره شدت علائم تنها در صورتی ایجاد میشود که شرکتکننده یک مورد غربالگری را پاس کند. به نظر می رسد که یک مدل توبیت برای پیش بینی شدت علائم به عنوان متغیر وابسته کار می کند، اما آیا روش قابل دفاعی برای گنجاندن متغیر سانسور شده چپ من به عنوان یک پیش بینی کننده وجود دارد؟ | چگونه باید یک متغیر پیش بینی سانسور شده سمت چپ را در رگرسیون چندگانه مدیریت کنم؟ |
19925 | من یک جمعیت دارم - در این مورد آنها تماس های تلفنی به یک مرکز تماس هستند. هر تماس می تواند یکی از حدود 200 «مشکل» باشد. (نمونه ای از مشکل نمی توانم به اینترنت وصل شوم است). من می خواهم 10 مشکل رایج در کل جمعیت را بر اساس تجزیه و تحلیل مجموعه نمونه ای از تماس های تلفنی پیش بینی کنم. برای ایجاد این لیست با سطوح مختلف اطمینان و اندازه جمعیت، باید چند تماس تلفنی را دسته بندی کنم؟ در حالت ایدهآل، من میخواهم فرمولی پیدا کنم که به من امکان میدهد اندازه نمونه را از اندازه جامعه، اندازه مجموعه مسئله و سطح اطمینان استخراج کنم. افشا: \- من یک برنامه نویس هستم نه یک ریاضیدان - امیدوارم این سوال را به روشی درست پرسیده باشم! \- قبل از پرسیدن این سوال مطالعه را انجام داده ام، بیشتر مطالبی که می توانم پیدا کنم مربوط به تخمین p(x) در یک جمعیت است، مشکل من ابعاد بیشتری دارد. ببخشید اگر این تکراری است و من آنقدر باهوش نیستم که متوجه شوم! | چگونه می توانم حجم نمونه را برای فهرست رتبه بندی شده اقلام در یک جامعه محاسبه کنم؟ |
104530 | من اغلب فرمولی را می دیدم که بیشتر برای ادغام در فضای پارامتر استفاده می شود مانند: $$ p(x|y) = \int p(x|\theta) p(\theta|y) d\theta $$ جایی که $\theta $ پارامتر است. من گیج شده ام و امیدوارم به من توضیح دهم که چگونه است. من می دانم که $p(x) = \int p(x,\theta)d\theta = \int p(x|\theta)p(\theta)d\theta $. اگر من از ایده مشابهی استفاده کنم که در ذهن من به این معنی است که یک توزیع حاشیه ای با ادغام یک توزیع پیوسته روی یک متغیر بدست می آید، اما با یک شرطی، انتظار دارم: $$ p(x|y) = \int p (x,\theta|y)d\theta = \int p(x|\theta,y)p(\theta|y)d\theta$$ که بدیهی است شبیه به هم نیستند. هیچ کمکی با آن وجود دارد؟ ویرایش بعدی: فرمول اول درست نبود، ادغام بیش از $\theta$ است. با تشکر | قانون احتمال کل مشروط |
100590 | آیا ادبیاتی در مورد اینکه آیا سه عامل در مدل سه عاملی فاما-فرانسه از هر نوع مدل سری زمانی مانند ARMA چند متغیره پیروی می کنند وجود دارد؟ | فاما و سه عامل فرانسوی: تحلیل سری زمانی |
73920 | توضیحات AdaBoost در کتاب یادگیری ماشینی کوین مورفی (که در تصویر فوری در زیر نشان داده شده است) با توضیحات ویکی پدیا متفاوت است. من سعی می کنم هر دو تعریف را به هم مرتبط کنم. گام به گام، سؤالات من این است: 1. دقیقاً چه چیزی $\text{err}_m$ (مرحله 4) قرار است در زیر ثبت شود؟ آیا این معادل $\epsilon_t$ در تعریف ویکی پدیا است؟ 2. چرا در روش کوین مورفی قانون توقف وجود ندارد اما در تعریف ویکی پدیا وجود دارد؟ 3. به نظر می رسد اشتباه املایی در پرانتز در مخرج وجود دارد، فقط در مورد - آیا قرار است موارد زیر را بگوید؟: $\text{err}_m = \frac{\sum_{i=1}^N w_{ i,m} \mathbb{I}(\hat{y} \neq \phi(\mathbf{x_i)}}{\sum_{i=1}^N w_{i,m}} 4 دلار. مهمتر از همه، ویکیپدیا معیارهای زیر را برای **انتخاب زبانآموز ضعیف** و توقف ارائه میکند: > $h_{t} = \underset{h_{t} \in \mathcal{ H}}{\operatorname{argmax}} \ > \left\vert 0.5 - \epsilon_{t}\right\vert$ جایی که $\epsilon_{t} = > \sum_{i=1}^{m} D_{t}(i)I(y_i \ne h_{t}(x_{i}))$ > > $If \left\vert 0.5 - \epsilon_{t }\right\vert \leq \beta$، جایی که $\beta$ یک آستانه انتخاب شده قبلی است، سپس توقف کنید در حالی که کتاب کوین الگوریتم کامل را به صورت زیر تعریف می کند آن دو مرحله بالا را در آن مشاهده نکنید:  | تعاریف متعدد از AdaBoost |
16758 | نمیدانم که آیا همیشه برای هر مشکل برآورد احتمال حداکثر (log-) احتمال وجود دارد؟ به عبارت دیگر، آیا توزیع و برخی از پارامترهای آن وجود دارد که مسئله MLE برای آنها بیشینه ساز ندارد؟ سوال من از ادعای یک مهندس ناشی می شود که تابع هزینه (احتمال یا log-likelihood، مطمئن نیستم کدام مورد در نظر گرفته شده است) در MLE همیشه مقعر است و بنابراین همیشه یک حداکثر کننده دارد. با تشکر و احترام! | آیا همیشه یک ماکسیمایزر برای هر مشکل MLE وجود دارد؟ |
112278 | من چندین پست بسیار آموزنده از جمله پیوند مربوط به اعتبارسنجی متقابل تودرتو/دوگانه را خوانده ام، که می تواند مقادیر فراپارامتر (زیر)بهینه را تعیین کند و همچنین یک تخمین بی طرفانه از عملکرد تعمیم یافته را انجام دهد. نمیدانم که آیا نوعی اعتبارسنجی متقاطع «سهگانه» برای انجام موارد زیر منطقی است: 1. انتخاب مقادیر فراپارامتر، 2. انتخاب بهترین ویژگیها/پیشبینیکنندهها/ویژگیها (انتخاب ویژگی)، 3. دریافت تخمین بیطرفانه از عملکرد تعمیمیافته. راهحل احتمالاً این است که ویژگیها را بهعنوان پارامتر در نظر بگیریم، یک شبکه بزرگتر (با ترکیبی از ویژگیها و پارامترها) ایجاد کنیم و اعتبارسنجی متقاطع تودرتو/دوگانه را اعمال کنیم. آیا رویکردهای «استاندارد» برای انجام هر سه کار فوق الذکر با اعتبارسنجی متقاطع وجود دارد؟ | اعتبار سنجی متقاطع تو در تو سه گانه |
39040 | فرض کنید $X_1، ...، X_n$ نمونهای از متغیرهای تصادفی مستقل و توزیعشده یکسان، با چگالی $$ f_{\theta}(x)=e^{ (\theta -x)}$$ باشد. $x \ge \theta$، در غیر این صورت $f_\theta = 0$ سوال این است: برآوردگر حداکثر احتمال $\hat{\theta}_n$ از $\theta$ را تعیین کنید. من این سوال را نمی فهمم $\hat{\theta}_n$ دقیقاً به چه معناست؟ ویکی پدیا چیزی در مورد آمار مرتبه n می گوید: > در آمار، آمار مرتبه kth یک نمونه آماری برابر است با > kth-smallest مقدار آن. به همراه آمار رتبهبندی، آمار سفارش از اساسیترین ابزارهای آمار ناپارامتریک و استنتاج هستند. من امتحان کردم: $$ L(\theta)=\prod_{i=1}^ne^{ (\theta -x_i)} = e^{(n\theta - \sum_{i=1}^n{x_i} )} $$ بعدی چیست؟ | برآورد حداکثر درستنمایی و آماره مرتبه n |
39037 | من سعی می کنم یاد بگیرم که چگونه شبکه عصبی در تشخیص تصویر کار می کند. من چند نمونه را دیدم و حتی بیشتر گیج شدم. در مثال تشخیص حروف یک تصویر 20x20، مقادیر هر پیکسل به لایه ورودی تبدیل می شود. بنابراین 400 نورون. سپس یک لایه پنهان از نورون ها و 26 نورون خروجی. سپس شبکه را آموزش دهید ، و سپس کار کند ، کامل نیست. آنچه من را در مورد شبکه عصبی گیج کرده است ، این است که چگونه در مورد آنچه در یک تصویر وجود دارد ، می آموزد. شما نیازی به انجام آستانه ، یا تقسیم بندی یا اندازه گیری ندارید ، به نوعی شبکه یاد می گیرد که تصاویر را مقایسه کرده و تشخیص دهد. الان برای من مثل جادو است. برای یادگیری شبکه عصبی از کجا شروع کنیم؟ | شبکه عصبی چگونه تصاویر را تشخیص می دهد؟ |
69237 | من با یک سوال ساده در مورد مقایسه مدلهای انعطافپذیر (به عنوان مثال splines) در مقابل مدلهای غیرقابل انعطاف (مانند رگرسیون خطی) تحت سناریوهای مختلف مواجه شدم. سوال این است: به طور کلی، آیا ما انتظار داریم که عملکرد یک روش یادگیری آماری انعطاف پذیر بهتر یا بدتر از یک روش غیرقابل انعطاف باشد زمانی که: کوچک است؟ 2. واریانس عبارات خطا، یعنی $σ^2 = \text{Var}(e)$ بسیار زیاد است؟ من فکر می کنم برای (1)، وقتی $n$ کوچک است، مدل های غیر قابل انعطاف بهتر هستند (مطمئن نیستم). برای (2) نمی دانم کدام مدل (نسبتا) بهتر است. | مدل های انعطاف پذیر و غیر قابل انعطاف در یادگیری ماشین |
88071 | من داده هایی از یک آیتم با مقیاس لیکرت 5 درجه ای دارم که تقریباً 1/4 پاسخ ها فقط 1 تا 4 از 1 تا 5 موجود را تشکیل می دهند. آیا باید مقولههای حداقل/حداکثر پاسخ را که در توضیحات SPSS برای خروجی گزارش میشود استانداردسازی کنم یا ایجاد امتیاز z کافی است؟ به این دلیل متغیرها دارای درجات متفاوتی از توزیع هستند و توابع تبدیل (به عنوان مثال SQRT، LG10) مشکل من را حل نکرده است. نمونه من (N=162) اولین بخش از آزمون/آزمون مجدد برای پایایی ابزار است. من تمام فرآیندها را با این فکر اجرا کرده ام که آنچه که به نظر عادی و بر اساس معیار است (2 یا 3 برابر SD برای تخمین چولگی برای شناسایی «توزیع نرمال» بدون توجه به بصری کافی است). من در نقطه ناامیدی و فرسودگی هستم ... توصیه تخصصی دارید؟ | 5 مقیاس لیکرت و توزیع نرمال قبل از آزمون پارامتریک |
12040 | من این سوال را از همه آمار نقل می کنم: > فرض کنید یک ژن می تواند از نوع A یا نوع a باشد. سه نوع افراد > (به نام ژنوتیپ) وجود دارد: AA، Aa، و aa. اجازه دهید (p، q، r) کسری از افراد هر ژنوتیپ را نشان دهیم. ما فرض می کنیم که هرکس یکی از > دو نسخه خود از ژن را به طور تصادفی در اختیار فرزندان خود قرار می دهد. ما همچنین فرض می کنیم که > همتایان به صورت تصادفی انتخاب می شوند. دومی واقع بینانه نیست، اما اغلب منطقی است که فرض کنیم همسر خود را بر اساس AA، Aa یا aa انتخاب نمی کنید. (اگر ژن مربوط به رنگ چشم > و اگر افراد بر اساس رنگ چشم جفت انتخاب می کردند، این نادرست بود.) تصور کنید که ژن های همه را با هم ترکیب کنیم. نسبت ژن های A P = p + (q/2) و > نسبت یک ژن Q = r \+ (q/2) است. یک فرزند AA با احتمال > P^2، aA با احتمال 2PQ و aa با احتمال Q^2 است. بنابراین، کسری > از ژن های A در این نسل P^2 + PQ است این احتمالاً یک سؤال اساسی است. من می پرسم: چرا A = P^2 + PQ است و P^2 + 2PQ نیست؟ | سوال اساسی در مورد احتمال |
69235 | من سعی می کنم بفهمم کدگذاری کنتراست تعریف شده توسط کاربر چگونه کار می کند. سوال من به مثال http://www.ats.ucla.edu/stat/r/library/contrast_coding.htm#User اشاره دارد: #ماتریس کنتراست اولیه شامل عبارت ثابت mat = matrix(c(1/4, 1 /4، 1/4، 1/4، 1، 0، -1، 0، -1/2، 1، 0، -1/2، -1/2، -1/2، 1/2، 1/2)، ncol = 4) mat [,1] [,2] [,3] [,4] [1,] 0.25 1 -0.5 -0.5 [2،] 0.25 0 1.0 -0.5 [3،] 0.25 -1 0.0 0.5 [4،] 0.25 0 -0.5 0.5 mymat = حل (t(mat)) mymat [,1] [,2] [,3] [,4] [1,] 1 -0.5 -1 -1.5 [2،] 1 0.5 1 0.5 [3،] 1 - 1.5 -1 -1.5 [4،] 1 1.5 1 2.5 #حذف عبارت قطع (ثابت) my.contrasts<-mymat[,2:4] contrasts(hsb2$race.f) = my.contrasts **سوال:** * چرا محاسبه معکوس ماتریس جابجا شده ضروری است؟ همه نمونههای دیگر در صفحه از جبر ماتریسی استفاده نمیکنند (مثلاً «کدگذاری ساختگی»). | ماتریس معکوس برای کدگذاری کنتراست |
81140 | مفروضات یک مدل پروبیت مرتب شده که باید رعایت شود چیست؟ برای بررسی اینها چه آزمایشاتی وجود دارد؟ پیشاپیش سپاس فراوان | مفروضات مدل پروبیت مرتب |
21649 | با توجه به مجموعه ای از داده ها مانند این: x y1 y2 50 102.50 16 100 408.60 64 200 1,871.30 256 400 8,824.40 1024 800 49,695.60، فرضیه من باید دو برابر شود که 4096 است. چهار برابر می شود. من معتقدم که این معادل این است که بگوییم «x» با مربع «y» متناسب است. * * * میتوانیم ببینیم که دادههای «y1» (از مشکل واقعی من) به این فرضیه نزدیک هستند، اما مطابقت کامل ندارند. با مقایسه داده های «y2» (که من ساخته ام) دقیقاً با فرضیه من مطابقت دارد. چیزی که من به دنبال آن هستم، اندازه گیری قابل اندازه گیری است که نشان می دهد چقدر داده های من با فرضیه من مطابقت دارد، و اصطلاحات صحیح برای بحث در مورد این نوع آزمون است. من انتظار دارم که «y2» کاملاً موافق باشد، و «y1» مقداری متریک فاصله را ارائه دهد. | چگونه می توانم اندازه گیری کنم که داده های من چقدر با یک پیش بینی مطابقت دارند |
12047 | من یک سری مشاهدات $\\{X_i,Y_i,Z_i\\}$ برای متغیر تصادفی $X$, $Y$ و $Z$ دارم. حالا من می خواهم تست کنم که آیا $X$، $Y$ و $Z$ مستقل از یکدیگر هستند، کسی می تواند به من کمک کند؟ برخی از تستهای استقلال زوجی مانند این http://www.gatsby.ucl.ac.uk/~gretton/indepTestFiles/indep.htm در دسترس هستند، اما من هنوز چنین تستهایی را برای استقلال متقابل چند متغیره پیدا نکردهام؟ پیشاپیش ممنون | آزمون استقلال متقابل چند متغیره |
83329 | آیا کسی می تواند در این مورد به من کمک کند، لطفاً: این تجدید نظر است و من به شدت درگیر این هستم که چه کاری انجام دهم و من را عقب نگه می دارد! یک سوال امتحانی قبلی میپرسد: > * پرینتهای ARIMA زیر را توضیح دهید و سهم آنها در > انتخاب مدل نهایی ARIMA چیست > * در مرحله بعد در مرحله شناسایی و انتخاب مدل چه کار میکنید؟ > * برای مدل 1، معادله ریاضی مدل ساخته شده را بنویسید > (افزودنی). > با توجه به این داده ها: مدل چرخه روند 1: BIC نرمال شده = -0.743 Ljung Box Q = آمار (9.808)، sig (0.832) پارامترهای مدل ARIMA = ثابت = برآورد (31.812)، t (21.695)، sig (0.00) AR Lag 1 = برآورد (0.860)، t (11.201)، sig (0.00) Lag 2 = برآورد (0.880)، t (11.440)، sig (0.00) Lag 3 = تخمین (0.780-)، t (19.071)، sig (0.00) چرخه روند مدل 2: BIC نرمال شده = -0.910 Ljung Box Q = آمار (11.544)، sig (0.713) مدل ARIMA پارامترها = ثابت = تخمین (0.034-)، t (0.174-)، sig (0.863) AR Lag 1 = برآورد (0.154-)، t (1.108-)، sig (0.273) تاخیر 2 = تخمین (0.778)، t ( 8.418)، sig (0.00) تاخیر 3 = برآورد (0.048)، t (0.326)، sig (0.746) با تشکر از همه. کمک لازمه :دی | ساختمان مدل ARIMA |
19928 | من یک سری از 2000 نفر دارم که برای هر یک از آنها مدت زمان تکرار یک رویداد را در طول یک سال اندازه میگیرم. یعنی برای هر فرد یک بردار دارم مانند: id.1020<-c(0,0,0,0,1000,2,15,20.....) با طول کل 364، هر عنصر id. 2010[i] که نشان دهنده مدت زمان رویداد مشاهده شده در روز[i] است، من می خواهم مقداری از تجمع زمانی مدت زمان رویدادها را اندازه گیری کنم. یعنی افرادی که مدت زمان سالانه مشابهی دارند (= مجموع همه مدتهای روزانه، یعنی «جمع (id.1020)»، میتوانند کل مدت زمان رویدادشان را در چند روز و برخی در روزهای کمتر پخش کنند. آیا معیاری برای این وجود دارد. تجمع زمانی که می توانم برای تعیین کمیت این گسترش زمانی استفاده کنم بسیار متشکرم | اندازه گیری تجمع زمانی |
81144 | من دارم مقاله T. van Erven and P. Harremoes, Rényi Divergence and Kullback-Leibler Divergence, _arXiv 1206.2459_ در مورد واگرایی Renyi را می خوانم و سعی می کنم مثال 1 را معنا کنم. من فکر می کنم که من فقط دارم در اصطلاحات به هم می ریزم، بنابراین نمی توانم به درستی این هویت پی ببرم. آیا من برخی از فرضیات / تعاریف / قراردادهای یادداشتی را از دست داده ام تا این موضوع منطقی نباشد؟ آیا روش دیگری برای توصیف/استنتاج مثال 1 آنها وجود دارد؟ > **مثال 1**: اجازه دهید $Q$ یک توزیع احتمال و $A$ یک مجموعه با احتمال مثبت > باشد. > فرض کنید $P$ توزیع مشروط $Q$ داده شده $A$ باشد. > سپس $$ D_\alpha( P \Vert Q ) = - \ln Q(A). $$ برخی از ویژگی های نماد آنها (از قبل در مقاله): $$ P=(p_1, p_2, \dots, p_n) \\\ Q=(q_1, q_2, \dots, q_n) $$ به (گسسته) مراجعه کنید ) توزیع های احتمال. خود واگرایی Reny به صورت زیر بیان می شود: $$ D_\alpha ( P \Vert Q ) = \frac{1}{1-\alpha} \ln \sum_{i=1}^{n} p_i^{\alpha} q_i^{1-\alpha} $$ من مفهوم توزیع شرطی $Q$ با توجه به $A$ را نمی فهمم، برای من، این به عنوان توزیع احتمال یک توزیع احتمال [تابع]. من همچنین در تفسیر نتیجه مبهم هستم: نتیجه باید عدد باشد، اما آنچه نوشته شده (به نظر می رسد) گزارش یک مجموعه است (به تعریف $A$ توجه کنید). | هویت واگرایی Reny |
43799 | من طرح ترکیبی 2*2 دارم که دو فاکتور _time_ و _group_ هستند. سطوح _time__pre-_ و _post-intervention_ هستند و سطوح _group_control_ and _intervention_ می باشند. اگر من از یک آزمون پارامتری استفاده می کردم، فکر می کنم یک ANOVA ترکیبی مناسب است، اما از آنجایی که داده ها ترتیبی هستند، فکر کردم یک آزمون ناپارامتریک مناسب تر است. آیا من درست فکر می کنم که معادل ناپارامتری یک ANOVA مختلط وجود ندارد؟ آیا استفاده از آزمون رتبهبندی امضاشده Wilcoxon (برای مقایسه درون آزمودنیهای _پیش_و_پس_____________) همراه با آزمون Mann-Whitney U (برای مقایسه بین آزمودنیهای _کنترل_و _مداخله_) جایگزین مناسبی است؟ اگر چنین است، آیا از تصحیح Bonferonni هنگام نگاه کردن به سطوح p استفاده میکنم (چون در حال اجرای دو تست هستم)؟ با تشکر فراوان. | تست های غیر پارامتری برای طراحی مخلوط 2*2 |
112273 | من به دنبال توصیف جامع و توجیهی برای یک مدل سلسله مراتبی نرمال هستم که در آن _ هم میانگین گروه ها و هم انحراف معیار مدل شده اند. یافتن چیزی شبیه مدل زیر در بسیاری از کتب درسی معمول است (به عنوان مثال گلمن و همکاران، ص 288): $$y_{ij} \sim \text{Normal}(\mu_i,\sigma) \\\ \mu_i \ sim \ text {normal} (m ، s) $ $ که در آن $ y_ {ij} $ dataPoint $ i $ از گروه $ j $ و جایی که مقدمات غیر اطلاعاتی پیشنهاد شده است برای $M، S$ و $\sigma$. چیزی که من به دنبال آن هستم توسعه این مدل است که در آن انحرافات استاندارد هر گروه نیز مدل شده و فراپارامترها داده می شود (و نه تنها یک $\sigma$ برای همه گروه ها در نظر گرفته می شود). این چیزی شبیه است: $ $ y_ {ij} \ sim \ text {normal} (\ mu_i ، \ sigma_i) \\\ \ mu_i \ sim {text {normal} (m ، s) \\ \ \ sigma_i \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ sim \ سیم text{SomeDistribution}(P_1,P_2,\dots)\\\ $$ اما جایی که پیشنهادهایی برای * توزیع $\sigma_i$s ارائه شده است ($\text{SomeDistribution}$ در مدل بالا). * توزیع های قبلی غیر اطلاعاتی برای هایپرپارامترهای $M، S$ و پارامترهای $\text{SomeDistribution}$. من نتوانستم این را در ادبیات پیدا کنم، و سوال من این است: **این مدل را کجا می توانم در ادبیات شرح داده شده پیدا کنم؟** یا به طور متناوب: **چنین مدلی باید چگونه باشد؟** ## مراجع گلمن، آ.، کارلین، جی بی، استرن، اچ. اس.، دانسون، دی.بی.، وهتری، ا.، و روبین، دی بی. (2013). _تحلیل داده های بیزی_. پرس CRC. | آیا توصیفی در ادبیات یک مدل سلسله مراتبی نرمال با فراپارامترها برای میانگین و انحراف استاندارد وجود دارد؟ |
90458 | من یک کاربر مبتدی یادگیری ماشین هستم و اولین مدل پیش بینی خود را با استفاده از جنگل تصادفی انجام می دهم. من چند سوال در مورد روش اندازه گیری خوب بودن یک مدل (مساحت جینی از منحنی سنگ و KS) و برخی در مورد الگوریتم جنگل تصادفی دارم. خیلی ممنون از کمک شما 1) کدام معیار برای مقایسه مدل ها بهتر است؟ جینی یا کی اس؟ به عنوان مثال، من دو نسخه از مدل خود دارم، یکی که در آن جینی بزرگتر از دیگری است اما KS پایین تر است. 2) هنگامی که مدل خود را اجرا می کنم، می توانم ببینم که هر متغیری که با استفاده از VarImpPlot در R ایجاد کردم چقدر مهم است. مثلا بعضی وقت ها یکی از متغیرها را حذف می کنم و بهتر می شود یا گاهی نه یکی بلکه ترکیبی از دو را حذف می کنم و بهتر می شود... اما بعضی وقت ها بدتر می شود. آیا راهی وجود دارد که بدانیم با توجه به مجموعه متغیرهایم چه زمانی به ترکیب بهینه رسیدم؟ خیلی ممنون | درک جنگل تصادفی، جینی و KS |
92972 | من بیش از یک نمونه (از حدود صد مشاهده)، آنتروپی تجربی دنباله ای از متغیرهای تصادفی که به طور مستقل توزیع شده اند را تخمین زده ام که دارای 5 نتیجه ممکن است. من کنجکاو بودم که بدانم آیا امکان تخمین فاصله اطمینان در این محاسبه آنتروپی تجربی وجود دارد (یعنی جایی که احتمالات واقعی با فرکانس های مشاهده شده آنها جایگزین می شوند)؟ با احترام | فاصله اطمینان در تخمین آنتروپی |
112276 | من ساختار داده ای شبیه به شرکت ها (سطح بالاتر) با افراد درون آنها (سطح پایین) دارم. هر شرکتی می تواند هر تعداد از افراد حضور داشته باشد. من مجموعه ای معقول از پیش بینی کننده ها برای هر دو سطح دارم، اما هدف من تولید تخمین برای یک متغیر وابسته در سطح شرکت است. من دلیلی ندارم که باور کنم شرکت ها از یکدیگر مستقل نیستند. منطقی به نظر می رسد که افراد می توانند با توجه به شرکت همبستگی داشته باشند: احتمال بیشتری وجود دارد که افراد خاص در شرکت های خاص با هم خوشه شوند. سوال من این است - آیا من درست فکر می کنم که از آنجایی که تمرکز من در اینجا روی سطح بالاتر است، می توانم به سادگی پیش بینی هایی را که در مورد افراد وجود دارد را در سطح شرکت جمع کنم و آنها را به عنوان پیش بینی کننده در برابر شرکت اعمال کنم؟ درک من این است که وابستگی بین افراد را می توان در انبوه جمع آوری کرد، اما از آنجایی که شرکت ها از یکدیگر مستقل هستند، این باعث تعصب خطاهای استاندارد نمی شود. | چند سطحی - روی سطح بالاتر تمرکز کنید |
45433 | این مثال را در نظر بگیرید. فرض کنید برای هر جفت $(x, y)$ سویه باکتری $x$ و (نامزد) عامل ضد باکتری $y$، میتوانیم به طور تجربی مقداری از $f(x, y)$ را تعیین کنیم (مثلاً غلظت $y$ برای از بین بردن 50٪ از فرهنگ $x$ در برخی از روش های استاندارد مورد نیاز است. اکنون میخواهیم یک مدل آماری $M$ برای پیشبینی $f(x, y)$ بر اساس برخی ویژگیهای $x$ و $y$ طراحی کنیم. ما در مورد مجموعهای از ویژگیهای $V$ و $W$ برای سویههای باکتریایی و ضد باکتری تصمیم میگیریم. بنابراین، به هر جفت $(x, y)$ از سویه ها و عامل ها یک بردار ویژگی ترکیبی $(\mathbf{v}(x)، \mathbf{w}(y))$ اختصاص داده می شود. هدف بهینه سازی برآوردهای $M(\mathbf{v}(x)، \mathbf{w}(y))$ از $f(x, y)$ است. برای آموزش مدل، مجموعه داده استاندارد طلایی ما شامل مقادیر $f(x, y)$ برای همه جفتهای $(x, y)$ در محصول دکارتی $X \ بار Y$ برخی از پانل $X است. $ از سویه ها و پانل $Y$ از عوامل. (این، BTW، نمونه مستطیلی است که در عنوان پست به آن اشاره شده است.) برای جلوگیری از تطبیق بیش از حد، می خواهیم از نوعی اعتبارسنجی متقابل استفاده کنیم. سوال من مربوط به پروتکل انتخاب زیرمجموعه های $T$ و $V$ از $X \times Y$ به ترتیب برای استفاده برای آموزش و اعتبار سنجی است. شهود من این است که $T$ باید به شکل یک محصول دکارتی $X_t \times Y_t$ باشد، که در آن $X_t$ و $Y_t$ به ترتیب زیر مجموعه های _مناسب_ به طور تصادفی انتخاب شده اند. و اینکه $V$ باید به شکل $X_v \times Y_v$ باشد که در آن $X_v = X - X_t$ و $Y_v = Y - Y_t$ باشد. البته این طرح از همه داده ها استفاده نمی کند. یک طرح جایگزین این است که مجموعه آموزشی $T$ را به عنوان یک زیرمجموعه تصادفی از $X \times Y$ بسازید و $V = (X \times Y) - T$ را بگیرید. با این حال، این طرح دوم به نظر من اشتباه است، زیرا چنین مجموعه آموزشی $T$ حاوی اطلاعات بسیار زیادی در مورد همه سویه ها در $X$ و عوامل در $Y$ است تا $V$ را به چالشی منصفانه برای مدل تبدیل کند. . آیا این شهود درستی است؟ اگر چنین است، راه دقیق نشان دادن آن چیست؟ | در طرح های اعتبارسنجی متقابل برای نمونه های مستطیلی. |
58023 | من میخواهم دادههای یک زنجیره مارکوف پنهان 3 حالته را با یک ماتریس مشخص از احتمالات انتقال شبیهسازی کنم. هر حالت مربوط به یک داده دو متغیره با حاشیه های شناخته شده است که وابستگی بین آنها توسط یک کوپولا مدل سازی می شود. بهترین الگوریتم چیست؟ آیا تابعی در `R` برای چنین کاری وجود دارد؟ | چگونه یک زنجیره مارکوف پنهان را شبیه سازی کنیم؟ |
16756 | من یک مدل شکلدهنده ایجاد کردهام که رابطه بین دو کامپوزیت را آزمایش میکند. بدیهی است که من باید اعتبار این مدل را احراز کنم. به من گفته شده است که تحلیل عاملی تاییدی (CFA) راهی برای ادامه آن است. 1. چگونه می توانم CPA را در SPSS انجام دهم؟ 2. چگونه نتایج را تفسیر کنم؟ | آزمون اعتبار یک مدل اندازه گیری تکوینی |
58024 | صفحه راهنمای R تابع quantile 9 نوع چندک را فهرست می کند، یعنی 9 روش برای محاسبه چندک های نمونه. کدام روش برای نمونه های کوچک مناسب تر است؟ اگر نمونههایی با اندازههای 6، 7، 8 از یک جامعه را انتخاب کنم، کدام روش مشابهترین تخمینهای کمی را ارائه میدهد؟ توزیع شبیه به log-normal به نظر می رسد. من بیشتر به صدک های 5 و 50 و 95 علاقه دارم. | کدام نوع کمیت (روش محاسبه کمیت) برای نمونه های کوچک بهتر است؟ |
58020 | من با مدلسازی برخی از دادههای آزمایشی با استفاده از بسته «lme4» در R مشکل دارم، و از ورودی قدردانی میکنم. طرح آزمایشی من به شرح زیر است: آزمودنیهایی که وارد آزمایش میشوند به یک سؤال غربالگری پاسخ میدهند، که برای تخصیص تصادفی آنها به یک شرط بین آزمودنیها (متغیر =` رتبه، که دارای 2 سطح (0/1) است) استفاده میشود. سپس آنها یک کار حواس پرتی را تکمیل می کنند و دو انتخاب می کنند («انتخاب» متغیر وابسته درون موضوعی است). در هر انتخاب، محرکها بهطور تصادفی تخصیص داده میشوند و با دو عامل تلاقی میکنند («پیام» دارای 3 سطح است («هنجار»، «بدون هنجار» و «ولایتی»)، و «هزینه» دارای 2 سطح است (0/1) ). **از آنجایی که شرکت کنندگان در دو مقطع زمانی به طور تصادفی به هر دو «هزینه» و «پیام» اختصاص داده شدند، از نظر تئوری میتوانستند ترکیب «هزینه» و «پیام» یکسانی در هر دو مقطع زمانی داشته باشند. ** زندگی من راحتتر خواهد بود. اگر میتوانستم از یک بسته فوقالعاده مانند «ezANOVA» استفاده کنم، اما دادههای من به من اجازه انجام این کار را نمیدهند زیرا هر فردی ترکیبی از دو متغیر درون موضوعی را ندارد. اینجا بنابراین، من در قلمرو کمتر آشنای مدل های ترکیبی هستم. فرضیه من استدلال می کند که باید یک تعامل سه طرفه بین رتبه، msg و هزینه وجود داشته باشد. بنابراین، یک نسخه ساده از مدل من ممکن است این باشد: m1 <- glmer(choice ~ msg*cost*rank + (1|id), data=df, family=binomial) اما، من نیز دیده ام که در این مورد پیشنهاد شده است. این سایت که اثرات تصادفی من باید به صورت زیر مدل شود تا تعامل بین عامل و افراد مورد بررسی قرار گیرد: m1 = lmer (انتخاب ~ پیام * هزینه * رتبه + (رتبه | شناسه) + (هزینه| شناسه)، داده = df) مدل دوم باعث می شود من در قلمروی ناآشنا پرت شوم، بنابراین از هر گونه راهنمایی در مورد نحوه مدل کردن این داده ها به روشی که (1) ساده است، اما (2) مناسب نمونه داده های زیر: > dput(df[1:700,2:6]) ساختار(list(time = c(1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1)، انتخاب = c(1، 1، 1، 1، 1، 1، 1، 0، 1، 1، 1، 0، 1، 1 , 0, 1, 1, 0, 1, 1, 0, 1, 0, 1, 1, 0, 0, 1, 1, 0، 1، 1، 1، 1، 0، 1، 0، 1، 1، 0، 1، 1، 0، 1، 1، 1، 1، 1، 1، 0، 0، 0، 1، 1، 1، 0، 0، 0، 1، 1، 1، 1، 1، 1، 0، 0، 1، 1، 0، 1، 0، 1، 1، 1، 0، 1، 1، 1، 1، 1، 0، 1، 1، 1، 1، 0، 0، 1، 1، 0، 1، 1، 1، 0، 1، 1، 1، 1، 1، 0، 0، 1، 1، 0، 1، 1، 1، 1، 1، 1، 0، 0، 0، 1، 1، 1، 1، 1، 1، 1، 1، 0، 1، 1، 0، 1، 0، 1، 1، 1، 0، 1، 1، 1، 1، 1، 1، 1، 1، 1، 0، 1، 1، 1، 1، 1، 1، 0، 1، 1، 1، 1، 1، 0، 1، 0، 0، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 0، 1، 1، 1، 1، 1، 1، 1، 1، 0، 0، 0، 1، 1، 1، 0، 0، 1، 1، 0، 0، 1، 1، 1، 1، 0، 1، 0، 1، 1، 0، 0، 1، 0، 0، 1، 1، 0، 1، 0، 1، 0، 1، 1، 1، 1، 1، 1، 1، 0، 1، 1، 1، 0، 0، 0، 1، 0، 0، 1، 1، 1، 1، 0، 1، 1، 1، 0، 1، 0، 1، 0، 1، 1، 1، 1، 1، 1، 0، 1، 0، 1، 0، 0، 1، 0، 1، 0، 1، 1، 1، 1، 1، 1، 0، 1، 0، 1، 0، 0، 0، 0، 0، 1، 1، 0، 0، 1، 1، 1، | مدلسازی چندسطحی دادههای تجربی با اندازهگیریهای مکرر در شرایط مشابه آزمایش فاکتوریل |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.