_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
94425
طبق درک من، زمانی که میانگین و واریانس جامعه ناشناخته داریم، باید واریانس جامعه را از طریق واریانس نمونه تخمین بزنیم و از توزیع _t_ برای تخمین دامنه بالقوه میانگین جامعه با استفاده از واریانس تخمین زده شده جامعه و میانگین نمونه در سطح معینی استفاده کنیم. اعتماد به نفس توزیع _t_ زمانی که درجات آزادی کم است دنباله سنگین‌تری دارد، زیرا ما از واریانس جمعیت تخمینی استفاده می‌کنیم، نه واریانس واقعی جمعیت، که شامل درجه خاصی از عدم قطعیت است. وقتی حجم نمونه = 30 باشد، توزیع _t_ به توزیع _z_ نزدیک تر خواهد بود، زیرا واریانس جمعیت برآورد شده نزدیک به واریانس جمعیت واقعی است(؟). من اخیرا شبیه سازی را با نمونه $n = 30$ اجرا کردم و آن را 1000 بار تکرار کردم. من میانگین واریانس نمونه بی طرفانه را محاسبه کردم و به واریانس جامعه (جمعیت توزیع شده نرمال) نزدیک است. با این حال، واریانس (SD) واریانس نمونه هنوز بسیار زیاد است. انحراف معیار واریانس / واریانس = 20 تا 30 درصد. این بدان معناست که اگر ما بدشانس باشیم، ممکن است نمونه ای با واریانس نمونه بسیار بزرگتر یا کوچکتر از واریانس واقعی جامعه بدست آوریم. پس چرا وقتی عدم قطعیت واریانس جمعیت برای $n = 30$ بسیار زیاد است، توزیع _t_ بسیار شبیه به توزیع _z_ خواهد بود؟ من همیشه فکر می کردم که ما از توزیع _t_ به جای _z_ استفاده می کنیم، زیرا به نحوی به ما کمک می کند تا عدم قطعیت واریانس تخمین زده شده جمعیت را در معادله وارد کنیم. چرا وقتی $n=30$ این اثر / جبران خسارت از بین می رود؟ توزیع واریانس نمونه هنوز هم زمانی که $n=30$ است به طور گسترده پخش می شود. کسی میتونه لطفا برام توضیح بده؟ خیلی ممنون
اندازه نمونه چقدر بزرگ است تا توزیع t تقریباً نرمال باشد
4500
**زمینه:** من اخیراً کنترل نسخه را به عنوان بخشی از کار تجزیه و تحلیل داده های خود پذیرفته ام (در نهایت ممکن است بشنوم که می گویید: سؤال قبلی من در مورد SO را ببینید). این باعث شد که بیشتر در مورد مخازن و ساختار دایرکتوری که برای پروژه هایم استفاده می کنم فکر کنم. کار پژوهشی معمولی من شامل یک یا چند مطالعه (یعنی داده هایی است که من جمع آوری کرده ام) که به صورت یک یا چند نشریه (مقالات مجله، فصل های کتاب، ارائه ها، گزارش ها و غیره) نوشته می شود. تجزیه و تحلیل ها و گزارش ها معمولاً با استفاده از ترکیبی از R، LaTeX، Sweave، فایل های داده متنی و غیره تولید می شوند. من واقعاً این ایده را دوست دارم که بتوانم یک مخزن مستقل بارگذاری کنم که می تواند برای تجزیه و تحلیل داده ها و بازتولید یک نشریه استفاده شود. به طور خاص، من به انتشارات، مطالعات، داده‌ها و کدهای رایج، و نحوه نگاشت این موجودیت‌ها به مخازن فکر کرده‌ام. به عنوان مثال، آیا بهتر است برای هر نشریه یک مخزن جداگانه داشته باشیم یا بهتر است هر نشریه به عنوان یک پوشه جداگانه در مخزن بزرگتر باشد. من در حال تکامل چند فکر در این مورد هستم، اما مشتاق شنیدن گزینه های دیگر بودم. **سوال:** * مردم از چه استراتژی هایی برای نگاشت مطالعات، انتشارات و تحلیل ها در مخازن استفاده می کنند؟ * چه زمانی باید نهادهای مرتبط (مانند انتشارات، مطالعات و غیره) به چندین مخزن تقسیم شوند؟
مخازن و پروژه های تجزیه و تحلیل داده ها
103609
من باید تفاوت های قابل توجهی را روی داده ها در دو دوره زمانی (قبل از مداخله و پس از مداخله) و با جمعیت های مختلف (اعضای آزمایشی و اعضای سراسری) آزمایش کنم. ما اعضای آزمایشی را از جمعیت سراسری حذف کردیم. من معتقدم که می توانم از آزمون t زوجی بر روی مقادیر قبل و بعد برای اعضای آزمایشی استفاده کنم. آیا باید روندهای خاصی را برای مقادیر پیش استفاده کنم؟ اما باید روی جمعیت های مختلف هم تست کنم. آیا می توانم تست هایی را روی تفاوت ها یا درصد تغییرات برای دو گروه (محاسبه post-pre یا (post-pre)/pre برای هر دو گروه) اجرا کنم؟ من می‌خواهم از اعضای ملی به‌عنوان گروه کنترل استفاده کنم، اما مطمئن نیستم که این کار درست است یا نه. هر گونه نظر کمک خواهد کرد. ممنون!!!!
اهمیت بین قبل/پس از جمعیت های مختلف
93563
## پیش‌زمینه سؤال من به محاسبه نسبت‌های ریسک و نسبت شانس برای متاآنالیز با استفاده از بسته «metafor» مربوط می‌شود. می دانم که طولانی به نظر می رسد، اما لطفا با من تحمل کنید، زیرا این یک سوال ساده است. من به سادگی اطلاعات پس زمینه زیادی ارائه کرده ام. ابتدا موارد زیر را کپی/پیست کنید تا داده های نمونه من ایجاد شود. # بارگذاری کتابخانه بسته (متافور) # ایجاد نمونه_داده نمونه_داده <- data.frame( trial = c(1, 2, 3, 4, 5, 6), author = c(Abers, Baker, Cook, Dodds، Eggers، Fritz)، سال = c(2000، 2001، 2002، 2003، 2004، 2005)، tpos = c(437، NA، 51، 26، 468، 10)، tneg = c(49، NA، 1، 8، 83، 1)، cpos = c(50، 7، 6، 0، 36 , 0), cneg = c(33, 8, 0, 0, 19, 0) ) # نمایش داده_مثال نمونه_داده آزمایشی نویسنده سال tpos tneg cpos cneg 1 1 Abers 2000 437 49 50 33 2 2 Baker 2001 NA NA 7 8 3 3 Cook 2002 51 1 6 0 4 4 Dodds 2003 2406 2003 2003 26 83 36 19 6 6 Fritz 2005 10 1 0 0 ## پس زمینه بیشتر اگر بخواهم برای اولین مطالعه یک جدول دو در دو با دست بسازم، Abers، به شکل زیر بود: pos neg pos 437 49 neg 50 33 ریسک نسبی به صورت دستی به صورت زیر محاسبه می شود: RR = (437/(437 + 49)) / (50/(50 + 33)) = 1.49 log (RR) = 0.40 نسبت شانس به صورت دستی به صورت زیر محاسبه می شود: OR = (437 * 33) / (50 * 49) = 5.89 log (OR) = 1.77 در اینجا قطعات جنگلی برای log(RR) و log(OR) هستند. اگر به خط اول هر نمودار نگاه کنید، می‌بینید که «metafor» همان مقادیری را تولید می‌کند که من با دست برای مطالعه Abers انجام دادم. ![Example log\(RR\)](http://i.stack.imgur.com/u69SZ.png) ![Example log\(OR\)](http://i.stack.imgur.com/ EOMSJ.png) ## سوال من به خط Dodds در نقشه ها نگاهی بیندازید. این مقادیر برای log(RR) و log(OR) از کجا می آیند؟ همانطور که می بینم، اگر بخواهم یک جدول دو به دو برای Dodds درست کنم، به صورت زیر خواهد بود: pos neg pos 26 8 neg 0 0 ریسک نسبی به صورت دستی به صورت زیر محاسبه می شود: RR = (26) /(26 + 8)) / (0/(0 + 0)) = تعریف نشده! همانطور که نمی توانید بر صفر تقسیم کنید. log (RR) = ? نسبت شانس با دست به صورت زیر محاسبه می شود: OR = (26 * 0) / (0 * 8) = باز هم تعریف نشده! log(OR) = ? **بنابراین بسته «metafor» چگونه log (RR) 0.41 و log (OR) 1.14 را برای مطالعه Dodds محاسبه کرد؟ و به طور کلی، برای همه مطالعاتم با مقادیر صفر (به عنوان مثال، کوک، دادز، و فریتز)، آیا می‌توانم هر یک از آنها را در متاآنالیز خود لحاظ کنم؟**
متاآنالیز RR و OR از جداول 2x2 در R با استفاده از متافور محاسبه شد
58986
من می خواهم قیمت میانگین وزنی حجم و انحراف استاندارد را برای مجموعه داده زیر محاسبه کنم: Jan محصول A: q= 100 p=23 ژانویه محصول B: q=11 p=45 فوریه محصول B: q= 55.7 p = 60 چه فرمول هایی باید استفاده کنید؟ اگر Stata را می دانید: آیا باید از «pweights» یا «fweights» استفاده کنم؟
چگونه میانگین های وزنی و SD ها را محاسبه کنیم؟
94427
**مشکل** فرض کنید که یک شرکت معمولی سطح سهام خود را مطابق با قانون زیر تعیین می کند: $H_t - H_{t-1} = \lambda (H^*_t - H_{t-1} ) + \epsilon _t$ که در آن $\epsilon _t$ یک عبارت اختلال سریالی نامرتبط با میانگین صفر و واریانس ثابت $\sigma^2$ است. $H^*_t$، سطح مورد نظر سهام، با رابطه خطی دقیق $H^*_t = \phi S_t$، که در آن St سطح فعلی فروش است، داده می شود. یک عبارت برای $H_t$ بر حسب مقادیر فعلی و گذشته $S_t$ استخراج کنید، و به طور خلاصه در مورد چگونگی تخمین پارامترهای $\phi$ و $\lambda$ با داده‌های سری زمانی در مورد سهام و فروش صحبت کنید. **افکار** من $H_t $ را بر حسب مقادیر فعلی و گذشته $S_t$ به سادگی با جایگزین کردن بدست آوردم. این بخش تخمینی سوالی است که من در آن گیر کرده ام: 1. چگونه با عبارت غیرخطی $\phi\lambda$ برخورد کنیم؟ 2. چگونه با تخمین اختلالات گذشته برخورد کنیم؟
رگرسیون پویا
91417
آیا می‌توانیم از سازه‌ها/ویژگی‌های چند موردی اندازه‌گیری شده در مقیاس لیکرت 5 درجه‌ای به‌عنوان متغیرهای پیش‌بینی‌کننده در رگرسیون استفاده کنیم؟
سازه ها/ویژگی های چند آیتمی در مقیاس لیکرت 5 درجه ای به عنوان متغیرهای پیش بینی کننده
77650
من یک تبدیل ریشه مکعبی یکی از پیش بینی کننده هایم را در رگرسیون خطی چندگانه انجام دادم. چگونه می توانم این پیش بینی کننده را اکنون که تبدیل شده و مدل من با آن مناسب است تفسیر کنم؟
چگونه تبدیل ریشه مکعبی را تفسیر کنیم؟
74306
من در حال آزمایش حسگرهای موقعیت دریچه گاز (TPS) هستم که کسب و کارم می فروشد و نمودار پاسخ ولتاژ به چرخش میل دریچه گاز را چاپ می کنم. TPS یک سنسور چرخشی با برد 90$ است و خروجی آن مانند پتانسیومتری است که باز بودن کامل آن 5 ولت (یا مقدار ورودی سنسور) و باز شدن اولیه مقداری بین 0 تا 0.5 ولت است. من یک میز آزمایش با یک کنترلر PIC32 ساختم تا هر 0.75 درجه ولتاژ اندازه گیری شود و خط سیاه این اندازه گیری ها را به هم متصل می کند. یکی از محصولات من تمایل به ایجاد تغییرات موضعی و دامنه کم به دور از خط ایده آل (و زیر) دارد. **این سوال در مورد الگوریتم من برای کمی کردن این افتهای محلی است. نام یا توصیف خوب ** برای فرآیند اندازه گیری شیب ها چیست؟ (توضیحات کامل در ادامه می آید) در تصویر زیر، شیب در یک سوم سمت چپ طرح رخ می دهد و یک مورد حاشیه ای است که آیا این قسمت را پاس کنم یا شکست بخورم: ![چاپ از قسمت مشکوک](http://i. stack.imgur.com/gfx2w.jpg) بنابراین من یک آشکارساز شیب (stackoverflow qa در مورد الگوریتم) ساختم تا احساس روده ام را کمی کنم. من در ابتدا فکر کردم که مساحت را اندازه می‌گیرم. این نمودار بر اساس چاپ بالا و تلاش من برای توضیح گرافیکی الگوریتم است. برای 13 نمونه بین 17 و 31 یک شیب به طول می انجامد: ![داده های نمونه با بزرگنمایی دیپ نشان داده شده است](http://i.stack.imgur.com/W5oXL.png) داده های تست در یک آرایه قرار می گیرند و من آرایه دیگری برای rise از یک نقطه داده به نقطه دیگر ایجاد کنید که من آن را $deltas$ می نامم. من از یک کتابخانه برای بدست آوردن میانگین و انحراف استاندارد برای $deltas$ استفاده می کنم. تجزیه و تحلیل آرایه $deltas$ در نمودار زیر نشان داده شده است، جایی که شیب از نمودار بالا حذف شده است. در ابتدا، من این را به عنوان عادی کردن یا یکسان کردن داده ها می دانستم زیرا محور x مراحل مساوی هستند و اکنون صرفاً با افزایش بین نقاط داده کار می کنم. هنگام تحقیق در مورد این سوال، به یاد آوردم که این مشتق، $\frac {dy}{dx}$ از داده اصلی است. ![تجزیه و تحلیل مشتق...؟](http://i.stack.imgur.com/FjzSS.png) من از $deltas$ عبور می کنم تا دنباله هایی را پیدا کنم که در آن 5 یا بیشتر مقدار منفی مجاور وجود دارد. نوارهای آبی مجموعه ای از نقاط داده هستند که کمتر از میانگین تمام $deltas$ هستند. مقادیر نوارهای آبی عبارتند از: $0.7 + 1.2 + 1.3 + 1.4 + 1.8 + 2.5 + 2.9 + 3.0 + 2.5 + 2.0 + 1.5 + 1.0 + 1.2$ مجموع آنها به $23$ می رسد که مساحت (یا انتگرال) را نشان می دهد. اولین فکر من این است که من فقط مشتق را یکپارچه کردم که باید به این معنی باشد که داده های اصلی را پس می گیرم، اگرچه مطمئن هستم که اصطلاحی برای این وجود دارد. خط سبز میانگین این مقادیر زیر متوسط است که از طریق تقسیم مساحت بر طول شیب یافت می شود: $23 \div 13 = 1.77$ در طول آزمایش بیش از 100 قسمت، به این نتیجه رسیدم که با خط سبز من شیب می شود. به طور متوسط ​​کمتر از 2.6 دلار قابل قبول است. انحراف استاندارد محاسبه‌شده در کل مجموعه داده‌ها، آزمایش کافی سخت‌گیرانه برای این افت‌ها نبود، زیرا بدون مساحت کل کافی، آنها همچنان در محدوده‌ای که من برای قطعات خوب تعیین کرده‌ام قرار می‌گیرند. من به صورت مشاهدتی انحراف استاندارد 3.0 دلار را انتخاب کردم تا بالاترین حد مجاز باشد. تنظیم یک بریدگی برای انحراف استاندارد به اندازه کافی سخت است که این قسمت از کار بیفتد، در این صورت آنقدر سخت خواهد بود که قطعات خرابی را که در غیر این صورت به نظر می رسد طرح عالی دارند. من همچنین یک آشکارساز سنبله دارم که در صورت وجود $|deltas - avg|، قسمت از کار می افتد > avg+std dev$. تقریباً 20 سال از Calc 1 می گذرد، پس لطفاً به من کمک کنید، اما این حس بسیار شبیه زمانی است که یک استاد از حساب دیفرانسیل و انتگرال و معادله جابجایی استفاده می کند تا توضیح دهد که چگونه در مسابقه، یک رقیب با شتاب کمتر که سرعت بالاتری در پیچ حفظ می کند، می تواند دیگری را شکست دهد. رقیب دارای شتاب بیشتر به پیچ بعدی: با عبور سریعتر از پیچ قبلی، سرعت اولیه بالاتر به این معنی است که ناحیه تحت سرعت (تغییر مکان) او است. بزرگتر برای ترجمه آن به سوال من، احساس می‌کنم خط سبز من مانند شتاب است، مشتق دوم از داده‌های اصلی. من از ویکی پدیا بازدید کردم تا مبانی حساب دیفرانسیل و انتگرال و تعاریف مشتق و انتگرال را دوباره بخوانم، اصطلاح مناسب برای جمع کردن مساحت زیر یک منحنی از طریق اندازه گیری های گسسته به عنوان یکپارچگی عددی را یاد گرفتم. خیلی بیشتر روی _میانگین انتگرال_ جستجو می کنم و به مبحث غیرخطی بودن و پردازش سیگنال دیجیتال می پردازم. به نظر می رسد میانگین گیری انتگرال یک معیار محبوب برای کمی سازی داده ها باشد. **آیا اصطلاحی برای میانگین انتگرال وجود دارد؟ (1.77 دلار، خط سبز)؟** ... یا برای فرآیند استفاده از آن برای ارزیابی داده ها؟
آیا نامی بهتر از «میانگین انتگرال» وجود دارد؟
4501
من اخیراً در مورد قراردادهای عرض شکل در گزارش‌های تجزیه و تحلیل داده‌ها که به فایل‌های PDF منتهی می‌شوند فکر کرده‌ام (مثلاً در اندازه A4 یا Letter). زمینه معمول من R، Sweave و LaTeX است. پهنای شکل پیش‌فرض در Sweave 80 درصد از عرض متن (یعنی عرض یک پاراگراف متن) است. \setkeys{Gin}{width=0.80\textwidth} **سوالات:** * آیا منطقی است که عرض شکل ها از عرض متن بیشتر باشد (یعنی به حاشیه بریزد)؟ * آیا قانون 80 درصد عرض متن خوب است یا مثلاً 100 درصد یا مقدار دیگری بهتر است؟ * آیا عرض شکل باید در سراسر یک سند (یا شاید با دو اندازه برای اشکال کوچک و بزرگ) سازگار باشد یا عرض باید کاملاً با محتوا تطبیق داده شود؟ هر گونه ارجاع یا نظر در مورد بهترین عملکرد در این زمینه بسیار استقبال خواهد شد.
قراردادهای تایپوگرافی برای عرض ارقام در گزارش های تحلیل داده های LaTeX
115098
من ممکن است ساده لوحی آماری نسبی خود را در پرسیدن این موضوع آشکار کنم، اما اینجاست. فرض کنید من 3 مجموعه داده دارم که یک خط مشخصه را با آنها مطابقت می‌دهم، از طریق «glm()» یا «lm()». در 2 مورد از آنها، یک خط نمایی (تا حدودی) به خوبی کار می کند (مجموعه داده های کوچکی است، بنابراین هر خط برازش مشکوک است) که من با استفاده از «glm()» برازش می کنم، و در آخرین، یک خطی معمولی را با استفاده از «lm» برازش می کنم. ()`. از کمی مطالعه آنلاین، به نظر می‌رسد که نظرات در مورد بهترین معیار برای استفاده (مثلاً شبه R^2 برای «glm()» تقسیم شده است. به عنوان مثال نحوه محاسبه حسن تناسب در glm (R) را ببینید. سوال من به طور دقیق‌تر این است که فکر می‌کنم 2 برابر است: 1) آیا می‌توانم خطوط خطی و نمایی را فقط با یکی از «lm()» یا «glm()» قرار دهم و همان متریک را برای مقایسه به دست بیاورم (اگر چنین است، آیا حتی R را گزارش کنم ^2 همانطور که موضوعات دیگر توصیه نمی کنند، و کدام شبه R^2 برای یک مجموعه داده کوچک منطقی تر است؟ یا، 2) آیا معیارهایی مانند R^2 برای هر روش وجود دارد به هیچ وجه از نظر توصیف تناسب انواع خطوط مختلف از نظر آماری قابل مقایسه است؟ به نظر می رسد این پیوند فکر نمی کند.
مقایسه خوبی تناسب بین lm() و glm()
41419
من به نمونه‌هایی از منابع (کد R، بسته‌های R، کتاب‌ها، فصل‌های کتاب، مقالات، پیوندها و غیره) برای **یادگیری مفاهیم آماری و ریاضی از طریق R** علاقه‌مندم (از طریق زبان‌های دیگر نیز می‌تواند باشد، اما R مورد علاقه من است. طعم). چالش این است که یادگیری مطالب به برنامه نویسی بستگی دارد، نه فقط به نحوه اجرای کدی که الگوریتم را اجرا می کند. بنابراین (به عنوان مثال) کتابی مانند مدل های خطی با R (که کتاب عالی است) آن چیزی نیست که من به دنبال آن هستم. این به این دلیل است که این کتاب عمدتاً نحوه پیاده‌سازی مدل‌های خطی در R را نشان می‌دهد، اما حول آموزش مدل‌های خطی با استفاده از R نمی‌چرخد. فایل‌های راهنما برای بسته TeachingDemos (شگفت‌انگیز) نمونه خوبی از آنچه من به دنبال آن هستم است. این یک بسته R است که شامل توابعی برای یادگیری مفاهیم آماری از طریق اپلت‌ها و شبیه‌سازی‌های مختلف R است. فایل های راهنمای همراه خوب هستند. البته، هیچکدام کافی نیستند، و برای تسلط بر بسیاری از جزئیات دقیق، به یک کتاب درسی خارجی نیاز دارند. همه سرنخ ها بسیار قدردانی خواهند شد...
منابع یادگیری (نه فقط پیاده سازی) آمار/ریاضی از طریق R
74304
معمولاً از چه آزمون‌های برازش برای رگرسیون چندکی استفاده می‌شود؟ در حالت ایده‌آل، من به چیزی شبیه به آزمون F در رگرسیون خطی نیاز دارم، اما چیزی مانند AIC در رگرسیون لجستیک نیز مناسب خواهد بود. من از پکیج quantreg R استفاده می کنم، اما فقط تعدادی تست Khmaladze را در آنجا پیدا کردم. منصفانه بگویم من به سختی درک می کنم که چه می کند.
خوب بودن آزمون های برازش برای رگرسیون چندکی در R
42949
پس از خواندن مقاله Hanna Wallach Rethinking LDA: Why Priors Matter، می خواهم بهینه سازی هایپرپارامتر را به پیاده سازی LDA خودم اضافه کنم. با این حال، این مقاله هیچ جزئیاتی در مورد نحوه انجام این بهینه سازی ارائه نکرده است. فکر می‌کنم می‌توانم در کد منبع MALLET غوطه‌ور شوم، اما می‌خواهم این را تا جایی بفهمم که بتوانم آن را به جای کپی کردن کد، پیاده‌سازی کنم. آیا کسی به مقالات یا آموزش هایی اشاره دارد که بتواند به من کمک کند؟ **ویرایش:** ظاهراً مقایسه 5 روش مختلف برای بهینه‌سازی فراپارامترها در زمینه دیریکله-چند جمله‌ای در پایان‌نامه دکترای والاک وجود دارد. من این را در لیست پستی مدل های موضوعی در پرینستون یافتم، اما اشاره به پایان نامه در مقاله قبلی را نیز از دست دادم. می‌خواهم پایان‌نامه را بخوانم و سپس ببینم که آیا می‌توانم ایده‌ها را به‌طور خاص برای LDA در پاسخ به سؤال خودم تقطیر کنم، اما خوشحال می‌شوم که اگر دیگران مرا شکست دهند، پاسخ دیگران را بپذیرم :)
چگونه می توان هایپر پارامترها را در LDA بهینه کرد؟
94426
من داده ها را از 88 سوژه انسانی جمع آوری کرده ام. دو گروه آزمودنی A (آزمون) و ب (شاهد) وجود دارد. تعداد آزمودنی ها در هر گروه 44 نفر است. آزمودنی ها بین گروه ها جفت می شوند. دو اندازه گیری از هر آزمودنی وجود دارد، یکی قبل و دیگری بعد از درمان. من می خواهم نشان دهم که درمان تأثیر دارد. آیا می توانم با دو گروه موضوعی به گونه ای رفتار کنم که گویی آنها یکی هستند که این کار را انجام می دهند؟ مسئله این است که دلایلی وجود دارد که فرض کنیم تأثیر در گروه آزمایش بیشتر است (در گروه کنترل نیز باید تأثیر داشته باشد، اما کوچکتر). اگر من با دو گروه موضوعی طوری رفتار کنم که انگار یکی هستند و بیان کنم که درمان تأثیر دارد، چقدر اشتباه است؟ من درک می کنم که این فرض نمونه گیری تصادفی را تا حدی نقض می کند. البته می‌توانستم فقط از داده‌های گروه کنترل استفاده کنم. مشکل این است که حجم نمونه ممکن است ناکافی باشد. طرح اولیه مقایسه این دو گروه بود، همانطور که مشهود است. با این حال، به دلیل اتفاقات غیر منتظره، باید آن را کنار بگذارم (برای روشن شدن، هنوز هیچ آزمایش آماری انجام نداده ام). ممکن است مطالعه من حفظ شود؟ :)
آیا می توانم هنگام تلاش برای نشان دادن وجود یک اثر، با دو گروه موضوعی طوری رفتار کنم که انگار یکی هستند؟
74303
فرض کنید $X$ دارای یک توزیع هندسی با تابع جرم احتمال $P(X=x) = q^{i-1}p$, $i=1,2,...$ و $q=1-p$ نشان دهید که تابع مولد احتمال آن با $ \pi(s)=\frac{ps}{1-qs}$ داده شده است. از این رو نشان دهید که $E(x)=\frac{1}{p}$ and $Var(X)=\frac{q}{p^2}$ سلام به همه، من این سوال را برای تمرین امتحان انجام می دهم. به نظر نمی رسد پاسخ صحیح را دریافت کند. و صادقانه بگویم، من فقط به صورت مکانیکی با آن کار می کنم و درک زیادی از توابع تولید احتمال ندارم. این چیزی است که من دارم: $$\pi(s)=E(S^X)=\sum^\infty_{i=0}q^{i-1}p\cdot s^i$$ $$= p \sum^\infty_{i=0}q^{i-1}\cdot s^i=p\sum^\infty_{i=0}\frac{q^i}{q}\cdot s^i$$ $$=\frac{p}{q}\sum^\infty_{i=0}(qs)^i$$ سپس با استفاده از مجموع فرمول سری هندسی، دریافت می کنم: $$=\ frac{p}{q}(\frac{1}{1-qs})$$ حالا من گیر کردم. احساس می کنم نزدیکم، اما فقط چیزی را از دست می دهم. وقتی بتوانم از این قسمت عبور کنم، با استخراج مقدار و واریانس مورد انتظار مشکلی ندارم. به عنوان یک افزونه، نمی‌دانستم که آیا کسی می‌تواند توضیحی «احمق‌ها» درباره تابع مولد احتمال به من بدهد، زیرا من در تلاش برای درک مفهومی آن هستم. به نظر می رسد $s$ متغیر وابسته باشد، اما استاد من توضیح نداده است که دقیقا چیست. پیشاپیش سپاس فراوان!
نشان دهید که برای یک توزیع هندسی، تابع مولد احتمال توسط $\frac{ps}{1-qs}$, $q=1-p$ داده می‌شود.
70024
فرض کنید که شما 1000 ویژگی دارید و یک مجموعه داده از مثلاً 50000 امتیاز تشکیل شده است. پس فرض کنید که ما PCA را انجام می‌دهیم، و 5 کامپیوتر برتر را استخراج می‌کنیم، زیرا آنها 99.99 درصد واریانس را توضیح می‌دهند، و این تمام چیزی است که ما به آن اهمیت می‌دهیم. از میان آن 5 رایانه شخصی برتر، آیا می‌توانیم «به عقب برگردیم» و بتوانیم «مهم‌ترین» ویژگی‌های 1000 اصلی را رمزگشایی کنیم؟ به عنوان مثال، آیا می‌توانیم به این سؤال پاسخ دهیم که چه ترکیبی از 1000 ویژگی اصلی من مسئول کامپیوتر برتر من بود؟ متشکرم.
PCA را انجام دهید. کامپیوترهای شخصی را استخراج کنید. آیا می‌توان گفت که مهمترین ویژگی‌های اصلی از رایانه‌های شخصی چه بوده است؟
41410
من فقط به این فکر می کردم که آیا 3 نمونه بیولوژیکی از نظر آماری برای آزمایش دقیق و تأیید کالیبراسیون مهم هستند یا خیر. دقت: برای بررسی اینکه آیا ابزار قادر به ارائه نتایج ثابت در هنگام اجرای مکرر نمونه است یا خیر. تأیید کالیبراسیون: برای بررسی اینکه آیا ابزار قادر به بدست آوردن مقدار اندازه گیری شده نزدیک به مقدار تعیین شده (ارائه شده توسط سازنده) است یا خیر. من در حال تایید یک فلوسیتومتر هستم که از آزمایشگاه دیگری ارسال شده است. با تشکر
اعتبارسنجی فلوسایتومتر (Facs Canto II)
42948
قوانین توقف بر رابطه بین مقادیر P و میزان خطای مرتبط با تصمیمات تأثیر می گذارد. مقاله اخیر سیمونز و همکاران. در سال 2011 عبارت _درجات آزادی پژوهشگر_ را برای توصیف مجموعه ای از رفتارهایی که به نظر آنها مسئول بسیاری از گزارش های موجود در ادبیات روانشناسی هستند و غیرقابل تکرار هستند، معرفی کرد. از میان این رفتارها، قوانین توقف اختیاری یا تحلیل‌های موقت اعلام‌نشده چیزی است که در حال حاضر به آن علاقه دارم. من تأثیر آنها را بر میزان خطا برای دانش‌آموزانم توضیح می‌دهم، اما به نظر نمی‌رسد در کتاب‌های درسی که دانش‌آموزانم استفاده می‌کنند (یا نمی‌کنند) توضیح داده شده باشد. استفاده کنید!). در کتابفروشی اصلی دانشگاه من، چهارده کتاب درسی آمار با هدف دانشجویان سطح مقدماتی در رشته‌های مختلف مانند علوم زیستی، بازرگانی، مهندسی و غیره وجود دارد. فقط یکی از این متن‌ها حاوی آیتم «آزمون متوالی» بود و هیچ کدام دارای آیتم شاخص نبود. آیا یک کتاب درسی آمار سطح مقدماتی وجود دارد که موضوع قوانین توقف اختیاری را توضیح دهد؟ P., Nelson, L. D., & Simonsohn, U. (2011) مثبت کاذب > روانشناسی: انعطاف پذیری نامشخص در جمع آوری و تجزیه و تحلیل داده ها اجازه می دهد > ارائه هر چیزی به عنوان علم روانشناختی، 22 (11)، > 1359-136. doi:10.1177/0956797611417632
قوانین توقف اختیاری در کتاب های درسی نیست
97428
من در حال مقایسه دو دستگاه کنترل دما هستم که هر دو برای حفظ دمای بدن دقیقاً 37 درجه در بیماران بیهوش طراحی شده اند. این دستگاه ها بر روی 500 بیمار در دو گروه نصب شد. گروه A (400 بیمار) - دستگاه 1، گروه B (100 بیمار) - دستگاه 2. دمای هر بیمار یک بار در هر ساعت به مدت 36 ساعت اندازه گیری شد که 18000 نقطه داده در دو گروه به من داد. من باید تعیین کنم که کدام دستگاه دمای بدن بیماران را در مدت 36 ساعت با دقت بیشتری کنترل می کند. من نمودارهای خطی ایجاد کرده ام که مقادیر میانه را در هر نقطه زمانی با میله های چارک به هم می پیوندند و از نظر بصری به نظر می رسد تفاوت وجود دارد. چگونه باید داده های خود را برای اثبات تفاوت آماری تجزیه و تحلیل کنم؟
آزمون آماری برای مقایسه دقت دو دستگاه
41414
من از درون یابی spline در یک مدل آماری استفاده می کنم، و جابجایی عملگر در شیب log-lihood ظاهر می شود. اجازه دهید ابتدا یک نماد تنظیم کنم. اگر $x_1 \ldots x_n$ مجموعه‌ای از مکان‌های اندازه‌گیری باشد، $f_1 \ldots f_n$ مقدار $f(x)$ را در این مکان‌ها نشان می‌دهد، سپس درون‌یابی spline $f$ در مجموعه‌ای از مکان‌ها یک عملگر خطی است. ${\bf f} = \left[f_1 \ldots f_n\right]$، که من آن را ${\bf A}$ می‌نامم. از آنجایی که splines پشتیبانی فشرده دارند ${\bf A}$ معمولاً بسیار پراکنده است. من به دنبال راهی سریع برای محاسبه نمایش ${\bf A}^t$ و ${\bf A}^t{\bf A}$ به عنوان ماتریس های پراکنده هستم. من راهی برای انجام این کار در R دارم، اما الگوی پراکندگی از بین رفته است، بنابراین باید راه بهتری وجود داشته باشد. روش فعلی من این است: اجازه دهید g(x) درون قطبی باشد. داریم که $g(x) = \sum{\alpha_i b_i(x)}$، که در آن $b_i(x)$ها توابع پایه B-spline هستند. ما می‌توانیم وزن‌ها را با تحمیل اینکه: $g(x_i) = f_i$ برای همه $i$، و شرایط مرزی $g''(x_1) = 0$ و $g''(x_n) = 0$ حل کنیم. اینها محدودیت‌های خطی روی ${\bf \alpha}$ هستند که می‌توانیم آن‌ها را به صورت ${\bf M}\alpha = {\bf I^+f}$، با ${\bf I^+} = \left بنویسیم. [\begin{array}{cc} \mathbf{I} & \mathbf{0}_{2\times1}\\\ \mathbf{0}_{1\times2} و \mathbf{0}_{2\times2} \end{array}\right] $. با کنار هم قرار دادن همه چیز، می بینیم که ${\bf A}$ را می توان به صورت ${\bf B\left(M^{-1}I^+ f\right)}$ نوشت، که در آن $\bf B$ است ماتریس پایه B-Spline در مکان های درونیابی. در اینجا چند کد R آمده است: interpmat <- تابع(x,xi) {نیازمند(fda) #محاسبه توابع پایه B-spline در x با شکست در مکان های اندازه گیری V <- bsplineS(x,x,returnMat=T) #The مشتق دوم در نقطه اول و آخر. برای تحمیل اعداد مرزی (مشتق صفر ثانیه فراتر از نقاط پایانی) به آن نیاز داریم D <- bsplineS(c(x[1],x[length(x)]),x,returnMat=T,nderiv=2) M <- rBind (V,D) B <- bsplineS(xi,x,returnMat=T) #پایه B-spline در مکان‌های درون‌یابی (B%*%solve(M))[,1:length(x)] } مشکل این است که الگوی پراکندگی در مرحله وارونگی ماتریس گم می شود. آیا ایده های هوشمندانه ای دارید؟ می‌دانم که یکی از راه‌ها پیگیری این است که کدام توابع پایه در هر نقطه درون‌یابی پشتیبانی می‌شوند، اما به نظر می‌رسد کد C بسیار پر زحمتی است.
نمایش ماتریس پراکنده یک درونیابی اسپلاین
70684
من می خواهم مدل کوواریانس زیر را با SAS برازش دهم اما نمی دانم چگونه این کار را انجام دهم. کسی میتونه به من کمک کنه؟ * FA0(1)>=0 * FA0(1)=<0 ساختار تحلیل عاملی کلی با عوامل q ≤ s [FA(q)] به شکل ΔΔ'+D است که Δ ماتریس s×q از δ's و D یک ماتریس مورب s×s با پارامترهای غیر منفی احتمالاً متفاوت در قطر است. هر ستون از Δ حاوی امتیازات ژنوتیپ برای یکی از عبارت های ضربی است. اگر فقط یک سایت در نظر گرفته شود، مدل فقط یک جمله ضربی خواهد داشت و ساختار تحت این مدل به عنوان FA(1) نشان داده می شود. مدل 1 یک مدل تحلیل عاملی از مرتبه q = s با ماتریس D است که از تعریف حذف شده است، یعنی D = 0 که با FA0 (ها) نشان داده می شود. مدل 2 یک مدل تحلیل عاملی از مرتبه q = s - 1 است که عناصر قطری ماتریس D همه برابر است، یعنی D = σ2I، که با FA1(s-1) مشخص می شود. مدل 3 یک مدل کاهش یافته 1 است که در آن q =1 و همه δiها به غیرمنفی بودن محدود می شوند[FA0(1)≥0]; این مدل یک آزمون مستقیم برای تناسب مثبت تفاوت‌های ژنوتیپ از یک سایت به سایت دیگر در یک خوشه یا معادل است، یک آزمون برای همبستگی مثبت کامل بین جفت‌های سایت در یک خوشه. مدل 4 شبیه مدل 3 است، اما همه δi ها غیرمثبت هستند [FA0(1)≤0]. مدل های تحلیل عاملی 1 و 2 به عنوان مدل های کامل برای آزمایش مدل های تحلیل عاملی 3 و 4 دیگر استفاده می شوند و بنابراین به این فرضیه می پردازند که همبستگی ها همه +1 هستند.
برازش مدل‌های کوواریانس FA0(1) در SAS
94688
یادم می آید مقاله ای را دیدم که مدل های آماری علی را که توسط برخی تحقیقات منتشر شده بود، از نظر کیفیت از نظر تعمیم پذیری یا برخی از جنبه های مشابه رتبه بندی می کرد. این یک نوع فهرست سلسله مراتب شواهد خواهد بود. مدل‌ها شامل تفاوت در تفاوت (رتبه‌بندی بالا)، متغیرهای ابزاری و سایر تکنیک‌های بهره‌برداری از آزمایش‌های طبیعی، تصادفی‌سازی شبه و غیره بودند. بدیهی است که بسته به زمینه (فرض‌ها، در دسترس بودن داده‌ها، رشته تحصیلی)، مدل‌های مختلف در موقعیت‌های مختلف قابل استفاده هستند. . با این اخطار، مدل‌ها رتبه‌بندی شدند و من می‌خواهم دوباره آن را پیدا کنم تا استدلال استفاده شده را مرور کنم. اگرچه من درباره یک نشریه خاص بحث می کنم، اما به هر گونه ادبیات مرتبط با مقایسه کلی یا رتبه بندی مدل های آماری علی علاقه مند هستم.
رتبه بندی مدل های علی
91414
من مایلم از یک شاخص افزایشی، تایید شده توسط تحلیل موکن، به عنوان یک متغیر وابسته در مدل رگرسیون لجستیک برای متغیرهای وابسته طبقه‌ای استفاده کنم. این شاخص از اضافه کردن مقادیر از 9 مورد باینری تشکیل شده است، بنابراین می تواند مقادیری بین 0 تا 9 برای هر فرد بگیرد. سوال من این است که آیا باید متغیر وابسته را به‌عنوان داده‌های شمارش مدل کنم، بنابراین از پواسون/نگ استفاده کنم؟ توزیع دو جمله ای یا به عنوان یک متغیر چند جمله ای با استفاده از logit یا probit. آیا حد 9 بر فرض داده های شمارش تأثیر می گذارد؟
شاخص افزودنی: داده های شمارش یا چندجمله ای؟
94424
من برخی از داده ها را در مورد گونه ای از غاز به نام غاز برنت در زمستان جمع آوری کردم. یک فایل csv از داده‌ها را می‌توان از Dropbox دانلود کرد یا مستقیماً به R با این کد وارد کرد: library(repmis) goose_behaviour <- repmis::source_DropboxData(goose_behaviour.csv, hy6labsyh56050g, sep = ,, header = درست) هر ردیف از داده ها نشان دهنده یک گله غاز است. هر گله غاز یکی از دو زیرگونه بود: غاز برنت شکم تیره یا غاز برنت شکم روشن. غاز برنت شکم تیره در سمت شرق یک پهنه گلی جزر و مدی و غاز برنت شکم روشن در سمت غرب حضور داشتند. مقادیر در هر ردیف نشان دهنده نسبت گله ای است که هر رفتار را نشان می دهد، بنابراین مجموع هر ردیف برابر با 1 می شود. نمودارهای هفت نوع رفتاری نشان می دهد که هر کدام بسیار غیرعادی توزیع شده اند. با این وجود، من میانگین و خطاهای استاندارد را برای هر رفتار و برای هر زیرگونه به صورت زیر محاسبه کردم: کتابخانه(dplyr) goose_behaviour %.% group_by (subspecies) %.% summarise (pecking = mean (pecking)، هشدار = میانگین (هشدار)، پرخاشگری = متوسط ​​(پرخاشگری)، خوابیده = متوسط ​​(خواب)، پیشروی = پست (پرخاشگری)، پرواز = میانگین (پرواز)، دیگر = میانگین (سایر)) %.% as.data.frame() زیرگونه نوک زدن هشدار پرخاشگری خواب قبل از پرواز پرواز دیگر 1 غاز برنت شکم تیره 0.4048882 0.3438450 0.021230351010. 0.06418008 0.002934522 2 غاز برنت شکم سبک 0.3620766 0.3467897 0.00534835 0.17768323 0.04889585 0.05265700 <- function(x) sqrt(var(x,na.rm=TRUE)/length(na.omit(x))) goose_behaviour %.% group_by(subspecies) %.% summarise(pecking = statStandardError(pecking), alert = statStandardError (هشدار)، پرخاشگری = statStandardError (پرخاشگری)، خواب = statStandardError(sleep), preening = statStandardError(preening), flying = statStandardError(flying), other = statStandardError(other)) %.% as.data.frame() زیرگونه نوک زدن هشدار تجاوز در خواب Block preening Going-bellied other 0.03422627 0.02902893 0.003839248 0.0163771 0.01617119 0.02160593 0.0012157325 2 غاز برنت شکم سبک 0.0163771 0.01617119 0.001104804 0.0242016 0.01068396 0.01498604 0.0007520355 از آنجایی که داده ها به طور عادی توزیع نمی شوند، من همچنین از آزمون جمع رتبه Wilcoxon برای آزمایش اینکه آیا این دو گونه در نوع رفتاری متفاوت هستند یا خیر استفاده کرده ام: llply(goose_behaviour[,1:7], function(x) wilcox.test(x ~ subspecies, goose_behaviour)) در اینجا سؤالات من وجود دارد: 1. اگر داده ها به طور عادی توزیع نشده باشند، آیا محاسبه میانگین و خطاهای استاندارد مناسب است؟ آیا محاسبه میانگین ها مناسب تر است؟ 2. آیا آزمایش جمع رتبه ویلکاکسون برای آزمایش اینکه آیا این دو زیرگونه در انواع رفتاری متفاوت هستند مناسب است؟
تجزیه و تحلیل داده های غیر عادی
104113
سوال من خیلی شبیه همین پست قبلیه من به دنبال خانواده توزیع مناسب برای استفاده در GAM هستم. داده‌های من وقوع بیماری در ارگانیسم‌های اعماق دریا (متغیر پاسخ مداوم) است و به سمت راست کج شده است (هیستوگرام زیر را ببینید). من می خواهم رابطه بین وقوع بیماری و درصد پوشش (متغیر کمکی پیوسته) را از جمله تأثیر سایت (طبقه ثابت) و منطقه (تصادفی، تو در تو در سایت) آزمایش کنم. من صفرهای زیادی ندارم و اینها صفرهای واقعی هستند، بنابراین فکر نمی کنم یک مدل با باد صفر مناسب ترین باشد. بنابراین سوال من این است: مناسب ترین خانواده توزیع برای استفاده کدام است؟ هر توصیه ای بسیار قدردانی خواهد شد، با تشکر! > ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/DI8QL.png)
توزیع احتمال برای داده های چوله راست
104119
من به دنبال تعریف صحیح روشی هستم که برای آزمایش استحکام روش‌های طبقه‌بندی مختلف استفاده می‌کنم. من زیرمجموعه های مختلفی از مجموعه داده کامل را با برش چند نمونه ایجاد می کنم. هر زیر مجموعه به طور مستقل با توجه به سایرین ایجاد می شود. سپس هر روش طبقه بندی را روی هر زیر مجموعه اجرا می کنم. در نهایت، من دقت هر روش را با توجه به طبقه‌بندی نمونه‌های رایج بین زیر مجموعه‌ها و مجموعه داده کامل تخمین می‌زنم. من دقت را برای هر نمونه به عنوان نسبت بین تعداد طبقه بندی صحیح (در زیر مجموعه ها با توجه به طبقه بندی کامل مجموعه داده ها) و تعداد کل طبقه بندی (در زیر مجموعه ها) محاسبه می کنم. مثال: Classification-full 1 2 3 2 1 1 2 Classification-subset1 1 2 2 3 1 Classification-subset2 2 3 1 1 2 ... دقت 1 1 1 1 0.5 1 1 آیا نام صحیحی برای این روش وجود دارد؟ با تشکر
اصطلاح صحیح برای آزمایش یک روش طبقه بندی بر روی زیر مجموعه های مختلف از یک داده چیست؟
83943
فرض کنید پایگاه داده زیر را دارم که در آن، برای هر سن، میانگین سال‌های تجربه و درآمد گروه و تعداد افراد مشاهده شده برای چنین سنی (اما نه درآمد/تجربه هر فرد) را دارم: ------------------------------------------------ -------------------------- | متوسط ​​درآمد | سن | میانگین سال ها سابقه | تعداد افراد ---------------------------------------------- ----------------------------- | 105.40 | 18 | 2.1 | 23 ------------------------------------------------ --------------------------- | 205.50 | 19 | 3.4 | 12 ------------------------------------------------ --------------------------- | 465.40 | 20 | 4.5 | 33 ------------------------------------------------ --------------------------- | 678.40 | 21 | 5.1 | 57 ------------------------------------------------ --------------------------- | 815.40 | 22 | 6.6 | 11 ------------------------------------------------ --------------------------- | 902.56 | 23 | 6.7 | 20 ------------------------------------------------ --------------------------- | 997.13 | 24 | 7.3 | 13 من می خواهم یک رگرسیون [نه لزوما خطی] به شکل: $(Avg\\_income) = \beta_0 + \beta_1 * (سن) + \beta_2 * (Avg\\_years\\_xp)$ یا $(درآمد) = \beta_0 + \beta_1 * (سن) + \beta_2 * (سال\\_xp)$ اولین رویکرد I فکر می کردم نادیده گرفتن ستون تعداد افراد و انجام رگرسیون به گونه ای بود که گویی فقط 7 مشاهده داشتم، اما به نظر می رسد این اتلاف اطلاعات است، درست است؟ دومی تکرار هر ردیف بر اساس «تعداد افراد» بود، اما آیا این رویکرد واقعا درست است؟ همچنین، می‌خواهم این کار را به شکل کلی‌تری داشته باشم، به طوری که بتوانم «تعداد افراد» غیرصحیح را کار کنم (خوب، در این مثال معنی ندارد، اما در مشکل واقعی من وجود دارد) . توضیح: من در حال برنامه ریزی برای انجام استنتاج بیزی هستم، اما رویکردهای متداول نیز مورد استقبال قرار می گیرند. نحو R نیز خوب است.
برخورد با داده های گروه بندی شده در یک رگرسیون
83944
من یک مدل واسطه ای از تصمیم گیری با سه عنصر دارم - ارزش ها، نگرش ها و نیات. رابطه بین ارزش ها و نیات با نگرش ها واسطه می شود. هر عنصر با یک مقیاس اندازه گیری می شود (به عنوان مثال ترکیبی از آیتم ها - همه موارد با لیکرت 5 pt اندازه گیری می شوند). من می خواهم یک متغیر ترکیبی تصمیم گیری ایجاد کنم تا بتوانم به هر شرکت کننده یک امتیاز تصمیم گیری برای فرآیند کلی بدهم. آیا مسائل روش‌شناختی در 1) ترکیب مقیاس‌هایی که مفاهیم مختلف را در یک فرآیند کلی به یک ترکیب نشان می‌دهند، و 2) ایجاد یک امتیاز ترکیبی برای نشان دادن یک فرآیند میانجی وجود دارد؟
آیا می توانید یک امتیاز ترکیبی (مثلاً شاخص) از مقیاس هایی که یک مدل واسطه ای را تشکیل می دهند ایجاد کنید؟
71379
من میل پیوندی مجموعه‌ای از مولکول‌های کوچک را نسبت به گیرنده پروتئین با استفاده از تابع امتیازدهی چندگانه (آنها را به‌عنوان «ارایه‌دهنده» در نظر بگیرید) به‌دست آورده‌ام. من همچنین پیوندهای تجربی آن مولکول‌ها را دارم، بنابراین می‌خواهم ترکیب خطی بهینه توابع امتیازدهی را پیدا کنم که یک کمیت را به حداکثر می‌رساند. مقدار ممکن است W کندال یا ناحیه زیر منحنی ROC باشد. هر دو کمیت را می توان از ترکیب خطی توابع امتیازدهی و داده های تجربی محاسبه کرد. تجربه نشان داده است که این دو از همبستگی بین امتیاز اجماع (که از ترکیب خطی توابع امتیازدهی به دست می‌آید) و امتیاز تجربی (می‌توان از قرابت‌های پیوند تجربی تخمین زد) مهم‌تر است. بنابراین، چیزی که من به دنبال آن هستم، روشی است که یک تابع (Kendall's W، AUC-ROC) و رتبه‌بندی چند رتبه‌دهنده (توابع امتیازدهی) را به عنوان ورودی می‌گیرد و ترکیب بهینه رتبه‌دهنده‌ها را پیدا می‌کند که مقادیر تابع ورودی را به حداکثر می‌رساند. خوشحال می شوم اگر به من نکاتی در مورد چگونگی حرکت رو به جلو، ترجیحاً در کدهای رایگان تجاری مانند Python، R یا Octave بدهید.
یافتن ترکیب بهینه از ارزیاب ها که یک کمیت را به حداکثر می رساند
41416
من می‌خواهم داده‌های یک طرح _در موضوع_ کنترل شده با دارونما را تجزیه و تحلیل کنم. برای هر آزمودنی یک متغیر پیامد عددی (Y) دو بار اندازه گیری شد - یک بار پس از تجویز دارو و یک بار پس از تجویز دارونما (ترتیب تجویز دارو/دارونما به صورت تصادفی). همچنین برای هر موضوع یک متغیر عددی یک بار اندازه گیری شد. این متغیر با گذشت زمان تغییر نمی کند. فرض بر این است که متغیر کمکی ممکن است واسطه اثر اصلی دارو به روشی باشد که به عنوان مثال. افراد با مقادیر بالاتر متغیر کمکی تغییرات بیشتری را در Y پس از تجویز دارو در مقایسه با افراد با مقادیر متغیر کمکی کمتر تجربه می‌کنند. مناسب ترین روش برای بررسی اثر اصلی دارو و اینکه آیا متغیرهای عددی واسطه این اثر اصلی دارو هستند، چیست؟ 1. محاسبه نمرات تغییر [(Y_placebo - Y_drug) / Y_placebo]. سپس یک مدل خطی با متغیرهای کمکی ایجاد کنید که امتیاز تغییر را پیش‌بینی می‌کنند. در این مدل رهگیری اثر اصلی دارو را نشان می‌دهد و اثر متغیرهای کمکی نشان‌دهنده این است که چگونه متغیرهای کمکی واسطه اثر دارو هستند. 2. یک مدل خطی با Y_drug به عنوان IV و متغیرهای کمکی و همچنین Y_placebo به عنوان پیش بینی کننده ایجاد کنید. 3. یک مدل خطی با Y به عنوان IV، متغیرهای کمکی بین عوامل موضوعی و درمان (دارونما/دارو) به عنوان عامل درون موضوعی ایجاد کنید. سوالات: * بهترین راه برای تجزیه و تحلیل چنین داده هایی چیست؟ * آیا دلایلی برای ترجیح یک رویکرد بر رویکرد دیگر وجود دارد؟ من می‌دانم که این سوال ارتباط نزدیکی با بهترین روش بسیار آموزنده در هنگام تجزیه و تحلیل طرح‌های کنترل قبل از درمان دارد. اما در سوال ارائه شده به طرحی اشاره می کنم که در آن هر آزمودنی دو بار (یک بار با دارو، یک بار با دارونما) آزمایش می شود و در آن به تأثیر واسطه ای متغیر کمکی علاقه مند هستم.
بهترین روش هنگام تجزیه و تحلیل طرح های درون آزمودنی کنترل شده با دارونما (کارآزمایی متقابل)
41418
من سعی می‌کنم با استفاده از اندازه‌گیری‌های مکرر با یک نمونه گروهی، به دنبال تأثیرات قابل‌توجهی بر «شباهت» (از «isinpair» و کنترل اثرات زمان) باشم. مداخله isinpair پس از یک دوره زمانی کوتاه اتفاق می افتد (فاصله های زمانی معادل نیستند، اما بسیاری از آنها در یک زمان نسبتا کوتاه رخ می دهند). به نظر می‌رسد که این سوال نوعی از برگه تقلب lmer R است. من هر دو را برای کارهای مشابه توصیه شده دیده ام. 1. آیا این دو مثال آنچه را که من در نظر دارم انجام می دهند؟ چقدر معادل / متفاوت هستند؟ کدام یک بهتر است آنچه را که می خواهم بررسی کنم نشان دهد؟ lmer(similarity ~ 1 +time*isinpair +(time*isinpair|user1)، data=nozeros) lme(similarity ~ isinpair*time, random=list(user1=pdBlocked(list(~1, pdIdent(~isinpair-1)) , pdIdent(~time-1)))), data=nozeros) 2. این کار چگونه انجام می شود مقایسه با: aov (simscore ~ ​​isinpair * زمان + خطا (user1)، داده = nozerosdemo))
نحو اندازه گیری های تکراری ساده - lme در مقابل lmer
37738
در یک سخنرانی ویدیویی، MrProf نمودار سه بعدی توزیع نرمال دو متغیره $\mu_{x_1} = \mu_{x_2} = \sigma_1 = \sigma_2 = 1$ را نشان می‌دهد و $\rho = 0.5$ را انتخاب می‌کند. اگر به Mathworld پایبند باشید، $\rho$ به سادگی همبستگی پیرسون است که $\dfrac{\mbox{cov}(x_1, x_2) }{[ \mbox{var}(x_1) \mbox{var}(x_2)] است. ^\frac{1}{2}}$. من نمی فهمم که چرا باید مانند مثالی که توسط MrProf ارائه شد، روی $\rho$ کنترل داشت. من فهمیدم که $\rho$ یک خروجی از فرمول است زیرا $x_1$ و $x_2$ را وصل می کنم، نه یک ورودی. آیا کسی می تواند نوری پرتاب کند؟
هنگام شبیه سازی یک توزیع نرمال دو متغیره، چرا $\rho$ به جای برآورد از داده ها انتخاب می شود؟
71087
من یک مجموعه داده دارم که مطمئن نیستم چگونه آن را تجزیه و تحلیل کنم. مجموعه داده از آزمایش زیر بدست آمد: من گیاهان (2 نوع مختلف) را رشد دادم و ارتفاع آنها را در زمان های مختلف اندازه گرفتم (هر گیاه به صورت جداگانه دنبال شد). من در مجموع 3 جعبه داشتم که در آنها گیاهان را پرورش می دادم و در هر جعبه 3 گیاه از هر نوع. من اندازه گیری را در 4 نقطه زمانی مختلف انجام دادم. بنابراین، اگر اشتباه نکنم، نوع گیاه یک عامل ثابت و جعبه یک عامل تصادفی است. ساختار آن به این صورت است: زمان، جعبه، نوع، ارتفاع 1، 1، 1، 1.2 1، 1، 1، 1.3 1، 1، 1، 1.1 1، 1، 2، 1.4 1، 1، 2، 1.5 1 , 1, 2, 1.6 ... 2, 1, 1, 1.2 2, 1, 1, 1.3 ... 1، 2، 1، 1.2 1، 2، 1، 1.3 می خواهم بدانم روش صحیحی برای بررسی اینکه آیا **تفاوتی بین انواع مختلف گیاهان** با استفاده از R وجود دارد چیست؟ من این کار را انجام دادم: lme1 <- lme(ارتفاع ~ نوع، تصادفی= ~ 1|جعبه، داده=mydata) anova(lme1) اما نمی دانم چگونه آن را اضافه کنم متغیر زمان در تجزیه و تحلیل. در اینجا نمودار تکامل ارتفاع با زمان، برای انواع مختلف گیاه است. هر خط یک گیاه است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/5R27I.png)
تجزیه و تحلیل یک سری زمانی با ضریب ثابت و تصادفی در R
83941
من در حال انجام تجزیه و تحلیل داده‌ها برای کارشناسی ارشدم هستم و داده‌هایی داشتم که به طور معمول توزیع می‌شوند، اما با فرض همگنی واریانس مطابقت ندارند و دارای حجم نمونه نابرابر هستند. من در حال انجام تحقیقاتی بوده‌ام و متوجه شده‌ام که آزمون تعقیبی بازی هاول می‌تواند با این نوع داده‌ها مقابله کند، اما هیچ کد/الگوریتمی برای آن در R پیدا نمی‌کند. آیا کسی از کد یا آزمون تعقیبی دیگری اطلاع دارد. که همان کار را انجام می دهد اما در R پشتیبانی می شود؟ با تشکر
Games-Howell Post Hoc Test در R
70682
من به دنبال نشان دادن ارتباط بین پرداخت جریمه (اضافه کاری) و غیبت هستم. متغیر وابسته، پرداخت های اضافه کاری (0$-$highval) برای یک شیفت است، و متغیر نتیجه آیا فرد غایب (بیمار) برای این شیفت بود. آنچه من برای انجام آن برنامه ریزی کرده بودم این بود: الف) پرداخت های اضافه کاری به عنوان مثال. 0 $، $0-$50، $51-$100 و غیره، سپس ب) این را با % از شیفت ها با این پرداخت جریمه خاص که در آن فرد بیمار شد (که متغیری است در محل کار یا غایب مرتبط است. بنابراین خروجی چیزی شبیه به این خواهد بود: جریمه %Shifts کار نکرد 0 13% 50+ 6% 100+ 3% این بدیهی است که نیاز به یک کمی از پیش پردازش داده ها، که من می خواهم در نگاه اول به موضوع از آن اجتناب کنم آیا روش اساسی/کارآمدتری برای آزمایش یک متغیر وابسته پیوسته مانند اضافه کاری $ و متغیر 0-1 وجود دارد. در محل کار/غایب) ممنون بچه ها پیت
ارتباط تست با متغیر مستقل 0-1 - چگونه؟
104115
من می خواهم یک نمودار پراکنده از یک همبستگی جزئی ایجاد کنم - بنابراین یک همبستگی با متغیرهای کمکی. چگونه باید این کار را در SPSS انجام دهم؟ در صورت لزوم، می‌توانم آن را در R نیز انجام دهم. مهمترین چیز این است که همبستگی را با متغیرهای جزئی نشان دهم. با تشکر
همبستگی پراکنده با متغیر کمکی (همبستگی جزئی) در SPSS - چگونه؟
76680
من تحقیقات بالینی انجام می‌دهم و اغلب از من خواسته می‌شود که گروه‌هایی با اندازه‌های گروهی بسیار متفاوت را با هم مقایسه کنم. سعی می‌کنم پزشکانم را وادار کنم تا در صورت امکان دسته‌ها را جمع کنند. من می خواهم به طور قطع بگویم که شما نمی توانید سه گروه را با ns های 1، 10 و 98 مقایسه کنید. مثال دیگر می تواند ns های 3، 60، 40 باشد.
استفاده از آمار استنباطی با گروه هایی که اندازه آنها نابرابر است
83940
من زمانی دستیار پژوهشی استادی بودم که از من می‌خواست رگرسیون‌هایی انجام دهم، اما قبل از آن از من می‌خواست تمام داده‌های نمونه را برای متغیرها آزمایش کنم تا اطمینان حاصل کنم که آنها به طور عادی توزیع شده‌اند. امروز داشتم با یکی از همکارانم صحبت می‌کردم (آقای X) که خود را محققی ماهر می‌دانست، و او به من گفت که همیشه داده‌های نمونه را برای نرمال بودن آزمایش می‌کند (و اصرار دارد که نویسندگان این کار را هنگام بررسی مقالات انجام دهند). در کنار ما یک استاد اقتصاد سنجی بود که واقعاً در آمار مهارت دارد، و او اصرار داشت که فقط جمعیت باید به طور عادی توزیع شود، نمونه لازم نیست. من موافق بودم آقای ایکس اون موقع چیزی نگفت ولی بعدا که با من خلوت کرد بهم گفت که باهاش ​​موافق نیست. من او را روی آن به چالش کشیدم، و ابتدا یک کلمه درهم آمیخته با «خطاهای نوع 1» و «نوع 2» به من داد. در ادامه به چالش کشیده شد، او به من گفت که اگر داده‌های نمونه به طور معمول توزیع نمی‌شدند، نمی‌توانستند امکان تعمیم نتایج وجود داشته باشد. (آیا او درست می گوید؟) احساس من این است که بررسی داده های نمونه برای نرمال بودن واقعاً یک پروکسی برای آزمایش دیگری (پاک بودن داده ها یا موارد دیگر) است. و این افراد دلیلی را فراموش کرده اند که چرا به آنها آموزش داده شد داده های نمونه را برای نرمال بودن آزمایش کنند. نظر شما چیست؟ چرا برخی از مردم بر این باورند که داده های نمونه باید برای نرمال بودن آزمایش شوند؟
چرا برخی از محققان نرمال بودن داده های نمونه را آزمایش می کنند؟
71373
جهت: بر اساس جدول و داده های آن با استفاده از ضریب چولگی (CS) به نتیجه برسید. مانع: محاسبه گام به گام بر اساس معادله زیر مشکل دارم. من باید یاد بگیرم که چگونه این کار را از ابتدا و تا انتها با پشتیبانی از داده های زیر انجام دهم. من در تفسیر معادله و سپس اجرای آن برای بدست آوردن مقدار ضریب چولگی مشکل دارم. $$CS = \frac{\frac{1}{N} \sum_{i=1}^N (x_i - \mu)^3}{\sigma^3}$$ ساعت ------- 1 6 4 8 10
تفسیر و اجرای ضریب چولگی
83948
من سعی می کنم با استفاده از قیمت ها و ویژگی های موجود در سایت های تبلیغاتی طبقه بندی شده خودرو، بهترین مدل را برای پیش بینی قیمت خودروها شناسایی کنم. برای این کار من از چند مدل از کتابخانه یادگیری scikit و مدل‌های شبکه عصبی از pybrain و neurolab استفاده کردم. رویکردی که من تاکنون استفاده کرده‌ام این است که مقدار ثابتی از داده را از طریق برخی مدل‌ها (الگوریتم‌های یادگیری ماشین) اجرا کنم و آنجا را با R$ مقایسه کنم. مقادیر ^2$ که با ماژول معیارهای scikit-learn محاسبه شد. مشکلات من 1 است. آیا $R^2$ روش خوبی برای مقایسه عملکرد مختلف است. مدل ها؟ 2. اگرچه من نتایج کاملا قابل قبولی برای مدل هایی مانند شبکه الاستیک و جنگل های تصادفی گرفتم، اما مقادیر R^2$ بسیار ضعیفی برای مدل های شبکه عصبی گرفتم، بنابراین آیا R-squared روش مناسبی برای ارزیابی شبکه های عصبی (یا روش های غیر خطی) است. )؟
آیا مقدار مربع R برای مقایسه مدل ها مناسب است؟
12900
درک من این است که مربع R نمی تواند منفی باشد زیرا مربع R است. با این حال من یک رگرسیون خطی ساده را در SPSS با یک متغیر مستقل و یک متغیر وابسته اجرا کردم. خروجی SPSS من یک مقدار منفی برای R-squared به من می دهد. اگر بخواهم این را با دست از R محاسبه کنم، مجذور R مثبت خواهد بود. SPSS چه کاری انجام داده است تا آن را منفی محاسبه کند؟ R=-.395 R مربع =-.156 B (غیر استاندارد)=-1261.611 کدی که استفاده کردم: DATASET ACTIVATE DataSet1. رگرسیون /فقدان فهرست /ضریب آماری خروجی R ANOVA /CRITERIA=PIN(.05) POUT(.10) /NOORIGIN /مقدار وابستهP /METHOD=وارد سن P مقدار منفی دریافت می کنم. کسی میتونه توضیح بده که این یعنی چی؟ با تشکر ![Negative RSquared](http://i.stack.imgur.com/fCCDi.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/h1cBS.png)
چه زمانی R مربع منفی است؟
70973
من در حال خواندن مقاله‌ای در مورد تبدیل خطی مستقیم هستم که داده‌ها را با استفاده از _SVD_ پردازش می‌کند، و مجموعه داده‌ها به گونه‌ای استاندارد شده است که دارای میانگین _صفر_ و انحراف استاندارد _ واحد_ باشد (نب، برخی از افراد این تبدیل را «نرمال‌شده» می‌نامند. در آن مقاله گفته شده است که به **دلایل عددی**، مجموعه داده ها باید نرمال شود تا از پایداری الگوریتم DLT اطمینان حاصل شود. من تعجب می کنم که آن دلایل عددی چیست؟ آیا به این معنی است که اگر من 2 مجموعه داده از یک شیء مشابه داشته باشم، اگر استانداردسازی انجام نشود، الگوریتم DLT 2 نتیجه عددی متفاوت خواهد داد؟ **به روز رسانی** در بینایی کامپیوتر، تبدیل خطی مستقیم (به اختصار DLT) یک روش تخمین هموگرافی است، سیستم خطی بیش از حد تعیین شده را از طریق SVD $$Ah=b$$ برای یافتن راه حل $h$ تحت محدودیت $\ حل می کند. |h\|=1$. در واقع حداقل مربع راه حل را پیدا می کند که $\|Ah - b\|$ را به حداقل می رساند. من ایده اصلی این الگوریتم را درک می‌کنم، اما توصیه می‌شود قبل از اعمال DLT روی آن، **مجموعه داده‌ها را استاندارد کنید**، و در اینجا مقدمه‌ای در مورد نحوه استانداردسازی وجود دارد. گفته می‌شود که استانداردسازی داده‌ها برای DLT مهم است، بدون استانداردسازی، نتایج DLT پایدار نیستند، و دلیل آن این است که DLT کاملاً به مختصات نقاط در مجموعه داده‌ها وابسته است. تعجب می کنم که چرا؟ فقط به این دلیل که DLT شامل حل سیستم خطی با استفاده از SVD و $A$ می شود، ممکن است منفرد باشد؟
اگر ابتدا داده های خود را استاندارد نکنید، چرا SVD «ناپایدار» خواهد بود؟
71082
من داده‌هایی دارم که با چند رویکرد مختلف مدل‌سازی می‌کنم. جنگل های تصادفی در یک طرف، رگرسیون لجستیک در طرف دیگر. من می‌خواستم با استفاده از احتمالات پیش‌بینی‌شده از مدل‌های RF و رگرسیون، یک مدل مجموعه ایجاد کنم. با استفاده از اعتبارسنجی متقاطع، من یک مدل سوم (یک رگرسیون لجستیک) را اجرا می کنم که از احتمالات پیش بینی شده از دو مدل اول به عنوان ورودی استفاده می کند. در مثال‌هایی که در Kaggle دیده‌ام، ضرایب مثبت هستند و به عنوان وزن‌های مدل مجموعه تفسیر می‌شوند. با این حال یکی از دو ضریب من منفی است. شهود برای توضیح آن چیست؟ و از منظر عملی چه چیزی به من می گوید؟ تصور من این است که به من می گوید مدل با ضریب منفی در واقع برای مدل مجموعه مضر است، اما این فقط یک حدس است. با تشکر
ضریب منفی در چیدمان مدل
71081
و دیگری برای لیست طولانی سوالات درجات آزادی! با دادن i.i.d. نمونه $x_1،...، x_n$ از یک توزیع با ارزش واقعی دلخواه با انتظار $\mu$، میانگین نمونه را می توان به صورت $$\bar x = \sum_i \frac{1}{n} x_i.$ نوشت. $ می توان گفت که درجه آزادی برای $\bar x$ $n-1$ است، زیرا نقاط داده $n$ و یک پارامتر تخمین زده می شود. حال فرض کنید که یک آماردان پیچ خورده تصمیم بگیرد که وزن‌های $1/n$ به اندازه کافی خوب نیستند، و $\bar x$ را با $$\bar x_w = \sum_i w_i x_i,$$ که در آن $w = (w_1، ... ، w_n)$ یک بردار از پیش تعیین شده (یعنی غیر مرتبط با داده ها) از وزن های غیرمنفی با $\sum_i w_i = است. 1 دلار درجه آزادی برای $\bar x_w$ چقدر است؟ ارجاع به نسخه‌های این مشکل در آثار همتا مورد توجه ویژه‌ای خواهد بود.
درجه آزادی برای میانگین وزنی
83945
چگونه مشکل زیر را حل می کنید؟ > یک مطالعه شبیه سازی (رگرسیون پروبیت). > > فرض کنید $y|x\sim {\rm باینری}(p)$، که در آن $p= E(y|x)$، و > $Φ^{-1}(\pi)=-1+5.1x_ {1i}-0.3x_{2i}$ ایجاد داده با $x_{1i}\sim{\rm > Unif}(0,1)$, $x_{2i}=1$ برای $i$ عجیب و $x_{2i}=0$ برای $i$ زوج، و نمونه > اندازه $n=500$. مدل خطی تعمیم یافته (GLM) را با پیوندهای لجستیک و پروبیت > امتحان کنید. این کاری است که من انجام دادم، می دانم مشکلی وجود دارد، اما نمی دانم چه چیزی: n <- 500 beta0 <- -1 beta1 <- 5.1 beta2 <- -0.3 x1 <- runif(n=n, min= 0، حداکثر=1) x2 <- (1:n)%%2 y <- pnorm(beta0 + beta1*x1 + beta2*x2) prob.glm <- glm(y~x1+x2, family=binomial(link=probit)) logit.glm <- glm(y~x1+x2, family=binomial) می دانم که «y» در اینجا یک احتمال است، اما شما چطور یک متغیر باینری را از روی احتمال شبیه سازی کنید؟
چگونه لینک پروبیت را شبیه سازی کنیم؟
71376
مشکل استنتاج اکولوژیکی در مورد استنتاج در سطح فردی با استفاده از داده های انبوه است. مشکلات اصلی گیج کننده و سوگیری تجمع است. یکی از روش‌های حل مسئله استنتاج اکولوژیکی، استفاده از رویکرد رگرسیون اکولوژیکی است. رگرسیون اکولوژیکی مبتنی بر فرض ثبات است، که به این معناست که رفتار افراد به طور سیستماتیک در بین واحدها تغییر نمی کند. این فرض در بسیاری از موارد واقعی نیست. آیا می توان با انجام یک رگرسیون داده های تابلویی شامل اثرات ثابت برای خود واحدها و برای دوره های زمانی، فرض ثبات را تقویت کرد؟
آیا مشکلات استنتاج اکولوژیکی با اثرات ثابت قابل حل است؟
113174
من یک مجموعه داده دارم که در آن چهار کدگذار 800 مورد را در ویژگی های مختلف رتبه بندی می کنند. این امر با گزارش شمارشی از شیوع هر ویژگی به دست می آید، به عنوان مثال. رتبه بندی 1 فکر می کند ویژگی A در مورد 1 5 بار ظاهر می شود، ویژگی B 4 بار ظاهر می شود و غیره. من می خواهم توافق بین رتبه دهندگان خود را محاسبه کنم. با این حال، من نگران این هستم که معیارهای سنتی کاپا (کوهن و غیره) به طور گمراه‌کننده‌ای متورم شوند، با توجه به اینکه احتمال وقوع توافق در شمارش‌های پایین‌تر بسیار بیشتر است. قابل توجه است که بیش از نیمی از شمارش ها صفر هستند - اگر یک ویژگی به سادگی در یک مورد ظاهر نشود، اساساً یک توافق کامل برای شما تضمین می شود. جایگزین هایی که در نظر دارم شامل فیلتر کردن توافقات کامل به دلیل شمارش صفر است. با این حال، من نمی دانم که آیا روش جایگزینی برای محاسبه کاپا به طور خاص برای داده های مبتنی بر شمارش وجود دارد، به عنوان مثال. یک نسبت مبتنی بر تناسب که تفاوت‌های عددی در رتبه‌بندی را در مقابل بزرگی رتبه‌بندی وزن می‌کند، به طوری که اختلاف 5 در مقابل 15 بسیار کوچکتر از اختلاف 10 در مقابل 50 نخواهد بود. متشکرم!
کاپا (توافق بین‌سنجی) جایگزین برای داده‌های مبتنی بر شمارش که منجر به توافق متورم در تعداد کمتر می‌شود؟
41411
آیا می توانم فقط از ضریب تغییرات (CV) برای مقایسه نتایج خود و نتیجه گیری از آن استفاده کنم؟ من باید نتایج را از اجرای 2 کنترل (تست دقیق - درون سنجش / بین سنجش و تأیید کالیبراسیون) و 3 نمونه (تست دقیق - درون سنجش / بین سنجش) بنویسم. مطمئن نیستم که آیا استفاده از هر نوع تست دیگری کمک کننده است یا خیر. اما من فقط دانش آموزی هستم که سعی می کنم روش انتخابی را برای مقایسه نتایج خود بیابم. بنابراین من به چیزی نیاز دارم که آسان و در عین حال قابل اعتماد برای بحث خود استفاده شود.
از ضریب تغییرات (CV) برای مقایسه نتایج تست دقیق استفاده کنید
42946
من آزمایشی دارم که در آن از دانش‌آموزان خواسته می‌شود تا یک پیچ و خم را در دو گروه (TRT v. Ctrl) در 10 آزمایش مختلف حل کنند. در هر آزمایش، دانش آموزان می توانند 3 بار برای حل پیچ و خم تلاش کنند. اگر آنها آن را در بار اول حل کنند، ما 1، بار دوم 2، بار سوم 3 اختصاص می دهیم، و اگر در هر آزمایشی دانش آموزی نتواند پیچ ​​و خم را حل کند، ما 4 را تعیین می کنیم. می خواهم آزمایش کنم که آیا وجود دارد یا خیر. اثر یادگیری در طول زمان. دو جدول فراوانی زیر را در نظر بگیرید، یکی برای آزمایش اول و دیگری برای آزمایش هشتم: Trial1 <- ماتریس(c(18,14,7,7,2,6,5,30) , ncol = 4, byrow = درست) Trial8 <- ماتریس(c(28,10,4,4,17,10,5,11), ncol = 4, byrow = TRUE) colnames(Trial1) <- colnames(Trial8) <- c(1:4) rownames(Trial1) <- rownames(Trial8) <- c(CTRL,TRT) به عنوان مثال، جدول trial1 نشان می دهد که 18 دانش آموز در گروه CTRL در اولین تلاش آزمایشی 1 پازل را حل می کنند. سوال من این است که چگونه می توانم آزمایش کنم که آیا یادگیری وجود دارد یا خیر. اثر؟ چگونه دو جدول فرکانس را با هم مقایسه کنیم؟ ممنون از کمک شما،
مقایسه جداول فرکانس در طول زمان
71378
من در حال بررسی اسلایدهای سخنرانی در مورد تخمین حداکثر احتمال (MLE) بودم و به چیزی برخورد کردم که نمی توانستم بفهمم. مدرس از MLE برای تخمین تابع $$ y_i=Q(\alpha, \beta,x_i) استفاده می‌کرد. $$ اکنون در طول تخمین MLE (تخمین پارامترهای $\alpha$ و $\beta$)، عبارت $$ y_i-Q(\alpha,\beta,x_i)\quad (1) $$ مستقیماً به معادلات توزیع گاوسی متصل می‌شود. به عنوان یک متغیر تصادفی $$ L=\prod\limits_{i=1}^n {\frac{1}{\sigma_i \sqrt{2 \pi}}} \exp{\left(-\frac{{(y_i-Q(\ alpha,\beta,x_i))}^2}{2 \sigma_i^2}\right)} $$ نباید $(1)$ نتیجه توزیع تصادفی باشد متغیر به عنوان $x$، با فرض اینکه متغیر $y$ مقداری نویز در آن وجود دارد؟
تخمین حداکثر احتمال یک تابع
12907
من یک مجموعه داده دارم که دارای 10k سند است که هر کدام به یک و **فقط یکی** از دسته های 4k نگاشت شده است. این مجموعه آموزشی من را تشکیل می دهد. نیاز من این است که وقتی یک سند جدید، **غیره** وارد می شود، باید بتوانم همه دسته ها را (از بین دسته های 4k) که به آن تعلق دارد شناسایی کنم. بهترین راه برای انجام این کار چیست؟ مشکل من مطابق با چیزی است که به طور کلی به عنوان طبقه بندی چند برچسبی در ادبیات شناخته می شود، و من مقالات زیادی می بینم، اما هیچ نرم افزاری در دسترس نیست. من امیدوار بودم بدانم که آیا کسی از ابزارهای آماده ای که این کار را انجام می دهد آگاه است یا خیر. پیشاپیش ممنون به روز رسانی 1: بر اساس برخی از نظرات زیر سوال خود را به روز می کنم. اگرچه من 4k دسته و فقط 10k سند دارم، اما توزیع این اسناد به دسته ها بسیار کج است - به عبارت دیگر، تعداد کمی از دسته ها هستند که اکثر اسناد آموزشی را دارند. با حفظ دسته‌هایی که داده‌های آموزشی کافی دارند، و در صورت لزوم دسته‌های دیگر را دور می‌اندازم. مشکل بزرگ‌تر شناسایی **همه** دسته‌بندی‌های سند نادیده است.
ابزار خارج از قفسه برای طبقه بندی چند برچسبی
12908
من در حال آماده کردن یک ارائه در مورد آمار موازی هستم. من قصد دارم فرمول های محاسبات توزیع شده میانگین و واریانس را با مثال هایی که مرکز ثقل و گشتاور اینرسی را شامل می شوند، نشان دهم. من نمی دانم که آیا تفسیر فیزیکی از لحظات مرکزی سوم یا بالاتر وجود دارد که بتوانم برای توضیح فرمول کلی از آن استفاده کنم.
تفسیر فیزیکی/تصویری لحظات درجه بالاتر
7036
این سوال ممکن است قبلا پرسیده شده باشد، اما من نتوانستم آن را پیدا کنم. بنابراین، اینجا می رود. از حدود 3000 نقطه داده که می توان آنها را به عنوان برد یا باخت (دوجمله ای) مشخص کرد، معلوم شد که 52.8٪ برنده شانس احمقانه وجود دارد. این متغیر وابسته من است. من همچنین برخی داده های اضافی دارم که ممکن است به پیش بینی بردهای فوق کمک کند که می تواند یک متغیر مستقل در نظر گرفته شود. سوالی که می‌خواهم به آن پاسخ دهم این است: اگر بتوان از متغیر مستقل من برای پیش‌بینی 55٪ برد استفاده کرد، چند آزمایش لازم است (که 55٪ برد به من می‌دهد) تا 99٪ مطمئن باشم که این شانس احمقانه نبوده است؟ کد R زیر عمداً هک است، بنابراین من می توانم هر چیزی را که اتفاق می افتد ببینم. #مجموعه‌ای از اندازه‌های آزمایشی را اجرا کنید numtri <- seq(2720, 2840, 1) #برای احتمال 52.8٪ برنده‌های شانس احمقانه و اندازه آزمایشی فعلی، #تعداد بردها را با محدودیت 99٪ numwin محاسبه کنید <- qbinom(p=0.99، size=numtri، prob=0.528) #تعداد بردها را در محدودیت 99٪ توسط اندازه آزمایشی برای #به دست آوردن درصد برد. perwin <- numwin/numtri # درصد بردها را در مقابل اندازه آزمایشی ترسیم کنید، به دنبال مقدار 55% #پیش بینی شده باشید. طرح زیر را ببینید. plot(numtri, perwin, type=b, main=در جستجوی 0.55) grid() #یک خط قرمز در سطح 55% رسم کنید تا نشان دهید کدام اندازه آزمایشی صحیح است (h=0.55، lwd=2، col=red) #بیش از یک پاسخ؟ چرا؟.........عدد صحیح head(numtri) head(numwin) head(perwin) از نمودار، پاسخ این است: 2740 <= numtri <= 2820 همانطور که حدس می زنید، من نیز به دنبال آن هستم. تعداد آزمایش‌های لازم برای 56% برد، 57% برد، 58% برد و غیره. بنابراین، من فرآیند را خودکار می‌کنم. بازگشت به سوال من آیا کسی مشکلی در کد می بیند، و اگر نه، آیا کسی راهی دارد که به طور تمیز در لبه های راست و چپ جواب به طور کامل نفوذ کند؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/2CSHV.jpg) ویرایش (02/13/2011) ================== =============================================== در زیر ، من اکنون می دانم که 55 ٪ جایگزین خود را مقایسه می کنم برنده ها (که از داده ها به دست آمد) با 52.8٪ شانس گنگ من تهی (که همچنین از داده ها آمده است)، باید با فاز هر دو مقدار اندازه گیری شده مقابله کنم. به عبارت دیگر، برای اطمینان 99% (به هر معنی که باشد)، 1% دم هر دو نسبت باید مقایسه شود. برای اینکه من با فرمول ووبر برای N راحت باشم، باید جبر او را بازتولید کنم. علاوه بر این، چون می‌دانم که از این چارچوب برای مشکلات پیچیده‌تر استفاده خواهم کرد، محاسبات را بوت استرپ کردم. در زیر برخی از نتایج آورده شده است. نمودار بالا سمت چپ در طول فرآیند راه‌اندازی تولید شد که در آن N (تعداد آزمایش‌ها) 9000 بود. همانطور که می‌بینید، دنباله 1% برای عدد تهی بیشتر به سمت جایگزین امتداد می‌یابد تا 1% برای جایگزین. نتیجه گیری؟ 9000 آزمایش کافی نیست. نمودار پایین سمت چپ نیز در طول فرآیند بوت استرپ است که N در 13000 بود. در این حالت، 1% دم برای عدد صفر در ناحیه‌ای از متناوب قرار می‌گیرد که کمتر از مقدار 1% لازم است. نتیجه گیری؟ 13000 آزمایش برای سطح 1 درصد بیش از اندازه کافی (بیش از حد) است. نمودار بالا سمت راست جایی است که N=11109 (مقدار محاسبه‌شده whuber) و دنباله 1% تهی مقدار مناسب را به سمت متناوب گسترش می‌دهد و دنباله‌های 1% را تراز می‌کند. نتیجه گیری؟ 11109 کارآزمایی برای سطح معناداری 1% مورد نیاز است (من اکنون با فرمول whuber راحت هستم). نمودار پایین سمت راست جایی است که من از فرمول whuber برای N استفاده کردم و q جایگزین را تغییر دادم (در هر دو سطح اهمیت 1٪ و 5٪) بنابراین می توانم مرجعی از آنچه ممکن است یک منطقه قابل قبول برای جایگزین ها باشد داشته باشم. علاوه بر این، من برخی جایگزین های واقعی را در مقابل تعداد نقاط داده مرتبط با آنها (نقاط آبی) قرار دادم. یک امتیاز بسیار پایین تر از سطح 5٪ است، و حتی اگر ممکن است 72٪ برنده باشد، به سادگی نقاط داده کافی برای متمایز کردن آن از 52.8٪ شانس احمقانه وجود ندارد. بنابراین، احتمالاً آن نقطه و دو مورد دیگر را به زیر 5% (و متغیرهای مستقلی که برای انتخاب آن نقاط استفاده شده‌اند) کاهش خواهم داد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/sEsZx.jpg)
تعداد آزمایش های مورد نیاز از یک توزیع دوجمله ای برای بدست آوردن شانس مورد نظر
80686
فرض کنید رگرسیون خطی ساده $Y = \alpha + \beta X + \epsilon$ را اجرا می کنیم. من می خواهم آزمایش کنم که آیا متغیر مستقل $X$ برون زا است یا خیر. اگر همبستگی بین متغیر مستقل $X$ و باقیمانده رگرسیون خطی $\epsilon$ تقریبا صفر باشد، یعنی $cor(X, \epsilon) \تقریبا 0$، آیا می توانم نتیجه بگیرم که این آزمون ساده نشان می دهد که مستقل متغیر $X$ برونزا است؟
اگر $cor(X,\epsilon) \تقریباً 0$ در رگرسیون خطی، می‌توان نتیجه گرفت که $X$ برون‌زا است؟
12906
من مطمئن نیستم که آیا اینجا مکان مناسبی برای پرسیدن این سوال است یا خیر، اما هر پاسخ ممکن کمک خواهد کرد. من می‌خواهم نوعی تطبیق الگو را روی این مجموعه تصاویر اعمال کنم. این تصویر الگو است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/CxZE2.jpg) این تصویری است که در آن می خواهم تصویر الگو و مستطیل سیاه، قاب را جستجو کنم. شکل‌های قالبی که باید در تصویر مشخص شوند: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/L6Qpm.jpg) من تمام کدنویسی‌های این کار را در Matlab انجام داده‌ام و من موفق به اعمال الگوریتم‌های تطبیق الگو، sift (تبدیل ویژگی ثابت مقیاس)، تطبیق مبتنی بر هیستوگرام، و همچنین، سعی کرده‌ام تنوعی از حداکثر کردن انتظارات را در مناطق آبی و قرمز اعمال کنم. مشکل، همانطور که از تصاویر می بینید، این است که مناطقی که می توانید تصویر الگو را شناسایی کنید کاملاً تغییر شکل داده است. بنابراین من باید برخی از الگوریتم‌های تطبیق الگو را اعمال کنم که باید نسبت به مقیاس‌بندی، چرخش و تغییر شکل جزئی تصویر الگو ثابت باشند. آیا می‌توانید برخی از الگوریتم‌ها یا تکنیک‌های بینایی کامپیوتری را برای این نوع تبدیل که نسبت به مقیاس‌بندی، چرخش و تغییر شکل جزئی شکل تصویر الگو تغییر نمی‌کنند، به من توصیه کنید؟
تطبیق الگو شامل تبدیل مقیاس، چرخش و شکل ثابت است
30704
کوین دورانت یک بسکتبالیست در سطح جهانی است. او به طور متوسط ​​در هر 40 دقیقه بازی 2 خطا انجام می دهد. طبق قوانین NBA، پس از انجام 6 خطا، باید بازی را متوقف کنید. فرض کنید کوین دورانت 4 خطا در 20 دقیقه باقی مانده از یک بازی داشته باشد: الف) اگر سعی کند تمام 20 دقیقه باقیمانده را انجام دهد، چه شانسی دارد که دو خطای دیگر به دست آورد و باید بازی را ترک کند؟ ب) اگر قرار باشد 5 دقیقه روی نیمکت بنشیند (15 دقیقه باقی بماند)، پس شانسش چقدر خواهد بود؟ ج) اگر نه 5، آیا عدد ایده آلی برای B در ایجاد احتمال بیشتری برای رسیدن به دقیقه های بیشتر از A وجود دارد؟
آیا کوین دورانت باید نیمکت نشین شود؟
15482
من سه گروه دارم و دو نمودار را در هر گروه با استفاده از آزمون t مقایسه می‌کنم: تفاوت مطلق بین دو نمودار در گروه اول 34 با p=0.024 است. (*) تفاوت مطلق در گروه دوم 28 با p=0.04 (*) و در گروه سوم اختلاف مطلق 4 است اما مقدار p=0.010 است (**) چگونه این داده را توضیح دهم؟ قدر مطلق در گروه اول و دوم بیشتر است. با این حال، اهمیت کمتر از مقایسه در گروه سه است که در آن تفاوت قدر مطلق بین دو گروه تنها 4 است. بنابراین، آیا باید بگویم که در گروه سه (**) تغییر بیشتری نسبت به گروه 1 و 2 وجود داشت، اگرچه تفاوت مطلق وجود داشت. (4) در این گروه کمتر است؟ متشکرم.
آیا اهمیت مهمتر از قدر مطلق است؟
83947
من از مدل‌های شمارشی مانند پواسون، دوجمله‌ای منفی [NB]، NB با باد صفر [ZINB] روی داده‌هایی که نسبت بالایی از صفر دارند استفاده می‌کنم. NB بسیار بهتر از همتای پواسون جا می‌گیرد و جالب است که از ZINB نیز بهتر عمل می‌کند. با این حال، هنگامی که تست Vuong انجام می شود، نتیجه مطلوب ZINB است. آیا کسی می‌تواند این اختلاف بین معیارهای خوب بودن تناسب و آزمون Vuong را برطرف کند؟
مدل سازی داده های شمارش
15485
من می خواهم محدودیت های MLR را در رابطه با داده های چند دوره ای بهتر درک کنم. فرض کنید من به داده‌های مالی 10 شرکت نگاه می‌کنم، و هر یک از آن 10 شرکت دارای داده‌هایی با ارزش 5 دوره هستند، آیا می‌توانم همه 100 نقطه داده را به یک اندازه در نظر بگیرم یا باید آن را به سال‌های جداگانه تقسیم کنم؟ علاوه بر این، من متوجه شده ام که حذف یک عامل باعث می شود که مقدار p فاکتور دیگری به طور پراکنده به میزان زیادی افزایش یابد. تصور من از نحوه کار یک MLR این است که هر عامل باید مستقل از یکدیگر باشد، و در حالی که ضریب قرار است بر تعداد فاکتورهای p تقسیم شود، آمارهای مرتبط آن مانند p-value و t-stat باید ثابت بماند اگر داده های آن فاکتور تغییر نمی کند با تشکر از وضوح!
رگرسیون خطی چندگانه، داده های چند دوره ای و مقادیر p
83363
من یک مبتدی در آمار بیزی هستم... به مقاله ای برای محاسبه ضریب بیز توسط اتال گردتر برخوردم. اگر بتوانید با یک مثال خاص به من کمک کنید، کمک بزرگی خواهد بود. من در گروه نمونه خود 2 گروه دارم اندازه نمونه 110، میانگین 112.76، SD 30 گروه B اندازه نمونه 89، میانگین 100.4، SD 28 چیست؟ مقدار» (آیا با آزمون t روتین است؟) و «اثر مقیاس» برای «اندازه r» در این مورد.. و چگونه می توانم آنها را محاسبه کنم. بیشتر چگونه تفسیر کنیم خروجی..مقاله همراه به دلیل پایه غیر ریاضیم برای من کمی غیر قابل دسترس است...اگر کسی می تواند توضیح دهد.. چگونه می توانم این نسبت ها را تفسیر کنم..؟
محاسبه فاکتور بیز
15483
شبکه را به عنوان مجموعه ای از داده ها در نظر بگیرید که با هماهنگی $(x,y,z)$ و وزنی در لبه آن تعریف می شوند. اکنون می توان از این داده ها به عنوان داده ورودی برای پیش بینی یک مقدار استفاده کرد. در مورد من، هماهنگی گره ها عمدتاً ثابت است و فقط با تغییر زیر مجموعه گره می خواهم خروجی را پیش بینی کنم. به عنوان مثال، در ساختار پروتئین، هماهنگی هر اسید آمینه (گره ها) داده می شود و پیوند اتمی را می توان بر اساس ویژگی فیزیکی و فاصله هر اسید آمینه محاسبه کرد، و ما می خواهیم با تغییر دو اسید آمینه (یا با جابجایی) ببینیم. یا جایگزینی با اسید آمینه دیگری) PH یا حلالیت پروتئین را که مقادیر واحدی هستند پیش بینی می کند. همچنین در شبکه برهمکنش ژن-ژن می توان با تغییر برخی ژن ها کم و بیش همین کار را انجام داد، عملکرد دارو و عوارض جانبی آن را پیش بینی کرد. من از هر کلمه کلیدی یا ادبیاتی برای چنین روشی قدردانی می کنم.
مدل پیش بینی برای داده های شبکه
76689
من دو نمونه داده دارم، یک نمونه پایه و یک نمونه درمان. فرضیه این است که نمونه درمان دارای میانگین بالاتری نسبت به نمونه پایه است. هر دو نمونه از نظر شکل نمایی هستند. از آنجایی که داده ها نسبتاً بزرگ هستند، من فقط میانگین و تعداد عناصر را برای هر نمونه در زمانی که آزمایش را اجرا می کنم، دارم. چگونه می توانم آن فرضیه را آزمایش کنم؟ من حدس می‌زنم که فوق‌العاده آسان است، و من به چندین مرجع برای استفاده از F-Test برخورد کرده‌ام، اما مطمئن نیستم که چگونه پارامترها نقشه‌برداری می‌کنند.
نحوه مقایسه میانگین دو نمونه که داده های آنها با توزیع های نمایی متناسب است
103207
من مجموعه ای از رویدادها را دارم که در دو شرایط جداگانه ضبط شده اند و مدت هر یک از آنها را اندازه گرفته ام. من می خواهم دو چیز را بدانم: 1) آیا توزیع مدت زمان ها بین این دو شرط متفاوت است، و 2) اگر بله، چگونه تفاوت دارند؟ به عنوان مثال، شاید بزرگترین تفاوت بین این دو شرط این باشد که رویدادهای با طول 10 میلی ثانیه در شرایط شماره 1 بسیار بیشتر از شرایط شماره 2 وجود دارد. من در استفاده از آزمون کولموگروف-اسمیرنوف برای تعیین اینکه آیا توزیع ها به طور قابل توجهی متفاوت هستند، اطمینان دارم، اما در مورد چگونگی توصیف اینکه تفاوت ها در واقع با استفاده از یک آزمون آماری یا مجموعه ای از آمارهای آزمون، گیر کرده ام. من می‌توانم داده‌ها را هیستوگرام کنم و نوعی ANOVA را اجرا کنم، اما به نظر کمی ساده و بی‌ظرافت است. یا شاید عادلانه باشد که توزیع ها را روی هم ترسیم کنید و به سادگی تفاوت را در مناطق مورد علاقه بخوانید. توصیه ای در مورد چگونگی مقابله با این مشکل دارید؟ در زیر چند نمونه داده است. در اینجا یک آزمون Kolmogorov-Smirnov که این دو توزیع را با هم مقایسه می‌کند، مقدار p بسیار کوچکی را برمی‌گرداند (p <0.000001)، بنابراین می‌دانم که این دو توزیع از جمعیت‌های متفاوتی می‌آیند. بر اساس نحوه عملکرد تست KS، این نیز به من می گوید که در جایی که دو توزیع در صفحه افقی بیشترین فاصله را از هم دارند (حدود 0.9 در محور y) این دو توزیع به طور قابل توجهی متفاوت هستند (رویدادهای بیشتری با مدت زمان حدود 60 وجود دارد. ms در گروه 1 نسبت به گروه 2). اما در مورد هر جای دیگری در توزیع چطور؟ آیا راهی وجود دارد که بدانم آیا تفاوت در میزان رویدادهایی که 10 میلی ثانیه طول دارند از نظر آماری نیز معنی دار است؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/6XIxB.png)
توصیف آماری چگونگی تفاوت دو توزیع
71086
من متعجبم که چه رویکردهای خوبی برای تجزیه و تحلیل کارآزمایی‌هایی وجود دارد که در آن افرادی که پاسخ نمی‌دهند در نقطه‌ای مشخص کنار گذاشته می‌شوند. این رشته من نیست، بنابراین ممکن است از چیزهای استاندارد بی خبر باشم! فرض کنید 100 بیمار وجود دارد که 50/50 به دو گروه درمان و کنترل تقسیم می شوند (با یک متغیر شاخص Trt داده می شود). ما در حال اندازه گیری یک پیامد معمولی توزیع شده Y هستیم. کارآزمایی به مدت 10 هفته ادامه دارد (با خط پایه Y که در هفته 0 گرفته می شود)، سپس بیمارانی که نمرات آنها (مثلاً) حداقل 20٪ (مثلاً) بهبود نیافته است (در نظر گرفته شده که پاسخگو نیستند) هستند. از مطالعه حذف شدند (برای جستجوی درمان های دیگر) و دیگر دنبال نمی شوند. سپس آزمایش برای 10 هفته دیگر ادامه می یابد. برای سادگی، فرض کنید که تنها داده‌های از دست رفته، نتایج مربوط به افرادی است که پس از هفته 10 پاسخ نمی‌دهند. این به یک مدل طولی با شیب‌ها و بریدگی‌های تصادفی و Trt به‌عنوان پیش‌بینی‌کننده سطح دو برای شیب متصل می‌شود (زیرا اندازه‌گیری خط پایه نباید به تکالیف گروهی بستگی دارد). من رویکردهای زیر را دیده ام: 1. این واقعیت را نادیده بگیرید که داده های از دست رفته به طور تصادفی از دست نمی روند. 2. اندازه گیری نهایی را برای افرادی که پاسخ نمی دهند به جلو منتقل کنید. 3. برای تکمیل مجموعه داده‌ها برای افراد غیر پاسخ‌دهنده، انتساب چندگانه انجام دهید. درک من این است که هیچ کس 2 را دوست ندارد و 3 تا اخطارهای استاندارد در مورد انتساب اشکالی ندارد. مشکل 1 ظریف تر به نظر می رسد، و من مطمئن نیستم که چگونه استنتاج را در آن موقعیت به درستی انجام دهم. سوال من این است: آیا راه قابل قبولی برای انجام گزینه 1 وجود دارد؟ آیا رویکردهای دیگری وجود دارد؟ به عنوان مثال، آیا گنجاندن عدم پاسخگویی در مدل (شاید با استفاده از BUGS) امکان پذیر است؟ هر مرجعی بسیار قدردانی می شود!
برخورد با حذف افرادی که پاسخ نمی دهند در کارآزمایی های بالینی
7032
چرا داده های از دست رفته و غیره های پرت می توانند بر عملکرد برآورد حداقل مربع تاثیر بگذارند؟
تأثیر داده‌های از دست رفته و مقادیر پرت بر برآورد حداقل مربعات
112471
من دو سری زمانی ثابت دارم. من مایلم همگرایی بین آنها را بررسی کنم. آیا این منطقی است، و آیا می توانم فقط از آزمون انگل-گرنجر (دو مرحله) برای Cointegration برای این کار استفاده کنم؟
یکپارچگی بین دو فرآیند ثابت
72533
من از بوت استرپ برای شبیه سازی استفاده می کنم. تعداد جامعه برای هر مورد قابل انعطاف است و حجم نمونه با درصد معینی تعیین می شود. به عنوان مثال، من جمعیت 10000 نفری دارم و تصمیم دارم برای هر بار تکرار بوت استرپ از 10% استفاده کنم، بنابراین حجم نمونه 1000 است. در عمل، متوجه شدم که تصمیم گرفتن برای چند بار اجرای بوت استرپ برایم کافی است. با شبیه‌سازی کمتر، نتایج ناکافی به نظر می‌رسند، در حالی که با تعداد زیادی شبیه‌سازی، نتایج کاملاً اضافی هستند. آیا می توانم بدانم آیا روشی وجود دارد که می تواند به من در تصمیم گیری تعداد تکرارهای اجرا کمک کند؟
چگونه تعداد اجراهای بوت استرپ را تعیین کنیم؟
12902
من سه مجموعه داده سری زمانی دارم که به دنبال مقایسه آنها هستم. آنها در 3 دوره جداگانه حدود 12 روزه گرفته شده اند. آنها میانگین، حداکثر و حداقل سرشمار گرفته شده در کتابخانه کالج در هفته های پایانی هستند. من مجبور شدم میانگین، حداکثر و حداقل را انجام دهم زیرا شمارش سر ساعتی پیوسته نبودند (به شکاف های داده های منظم در یک سری زمانی مراجعه کنید). اکنون مجموعه داده ها به این شکل است. یک نقطه داده (میانگین، حداکثر یا حداقل) در هر شب، برای 12 شب وجود دارد. 3 ترم است که داده ها برای آنها گرفته شده است، فقط در دوره های 12 روزه مورد توجه. به عنوان مثال، بهار 2010، پاییز 2010، و می 2011 هر کدام مجموعه ای از 12 امتیاز دارند. در اینجا یک نمودار مثال آورده شده است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/2FAKE.jpg) من ترم ها را روی هم گذاشته ام زیرا می خواهم ببینم که چگونه الگوها از ترم به ترم تغییر می کنند. با این حال، همانطور که در تاپیک لینک شده به من گفته شده است، ایده خوبی نیست که ترم ها را پشت سر هم بگذاریم زیرا هیچ داده ای در این بین وجود ندارد. سؤال این است: **از چه تکنیک ریاضی برای مقایسه الگوی حضور در هر ترم می توانم استفاده کنم؟** آیا چیز خاصی برای سری های زمانی وجود دارد که باید انجام دهم یا می توانم به سادگی درصد تفاوت ها را در نظر بگیرم؟ هدف من این است که بگویم استفاده از کتابخانه در این روزها در حال افزایش یا کاهش است. من فقط مطمئن نیستم که از چه تکنیک(هایی) برای نشان دادن آن استفاده کنم.
مقایسه مجموعه های سری زمانی
86700
به طور شهودی، مدل‌های تولید افزودنی پراکنده (SAGE) توسط آیزنشتاین، چگونه با توزیع‌های دیریکله چند جمله‌ای متفاوت هستند. فهمیدم که در این مدل توزیع ها در فضای لگاریتمی اضافه می شوند. با این حال، مشخص نیست که چرا می تواند بر مدل های موضوعی موجود غالب شود. آیا فضای لاگ دارای ویژگی خاصی است که آن را مناسب تر می کند، به خصوص برای داده های پراکنده.
مدل‌های مولد افزودنی پراکنده (SAGE) v/s LDA (تخصیص دیریکله نهفته)
30702
من سعی می‌کنم خودم را از SPSS کنار بگذارم و برای آمار روانی به R تغییر دهم و بیشتر به آن می‌رسم، اما با «fit.contrast» از بسته gmodels به یک مانع واقعی برخوردم. تا آنجا که من می توانم بگویم، حتی مثال ارائه شده به درستی کار نمی کند - یا این، یا من به شدت متوجه تضادها در R هستم (همیشه یک احتمال). ابتدا اجازه دهید به کد مثالی که همراه با مستندات مربوط به `gmodels::fit.contrast()`: set.seed(03215) Genotype <- sample(c(WT,KO), 1000, replace= نگاه کنیم TRUE) زمان <- ضریب (نمونه(1:3، 1000، جایگزین=صحیح)) y <- rnorm(1000) داده <- data.frame(y، ژنوتیپ، زمان) model <- aov( y ~ ژنوتیپ + زمان + ژنوتیپ: زمان، داده = داده ) model.tables(model، means) fit.contrast( model، Genotype، rbind (KO vs WT=c(-1,1))، conf=0.95، df=T) برای من، این موارد زیر را ایجاد می کند خروجی: Estimate Std. خطای t مقدار Pr(>|t|) پایین CI بالا CI GenotypeKO vs WT 0.01683876 0.1095764 0.1536714 0.8779 -0.1981888 0.2318664 حالا کد مثال بعدی را در نظر بگیرید: مدل +o-o ژنوتیپ: زمان، داده=داده، کنتراست=لیست(ژنوتیپ=make.contrasts(cm.G)، زمان=make.contrasts(cm.T) ) خلاصه (مدل، تقسیم=لیست( ژنوتیپ=لیست(KO vs WT=1)، زمان = لیست (1 در مقابل 2 = 1، 2 در مقابل 3 = 2) )) خروجی برای من: Df Sum Sq Mean Sq F مقدار Pr(>F) ژنوتیپ 1 1.2 1.1687 1.121 0.290 ژنوتیپ: KO در مقابل WT 1 1.2 1.1687 1.121 0.290 زمان 2 0.36370. در مقابل 2 1 0.2 0.1784 0.171 0.679 زمان: 2 در مقابل 3 1 0.6 0.5571 0.534 0.465 ژنوتیپ: زمان 2 1.2 0.5760 0.552 0.5760 0.552 0.576 0.576T 1 KO: 0.3 0.3265 0.313 0.576 ژنوتیپ: زمان: KO در مقابل WT.2 در مقابل 3 1 0.8 0.8256 0.792 0.374 باقیمانده ها 994 1036.6 1.0429 من اینجا هستم. مقادیر p برای دو آزمایش روی ژنوتیپ باید مطابقت داشته باشند، اما اینطور نیست! مقادیر p یکسان نیستند و مقدار F مجذور مقدار t نیست. همچنین، مقدار محاسبه شده برای تخمین کنتراست (0.0168) تفاوت این دو معنی نیست... چرا که نه؟ هر گونه کمکی برای درک آنچه fit.contrast در اینجا انجام می دهد بسیار قدردانی می شود!
پناهنده از SPSS که با fit.contrast مشکل دارد در R
86704
این گزیده ای از وب سایت بی بی سی است: > یک مطالعه اخیر در مورد عادات دوستیابی سریع به این نتیجه رسید که اگر مردان و زنان > به یک عصر بروند و 22 قرار جداگانه داشته باشند، مردان مشتاق هستند دوباره حدود پنج > زن را ببینند، در حالی که زنان فقط انتخاب می کنند. برای دیدن دوباره دو، به طور متوسط. > > این بدان معناست که به ازای هر پیشنهادی که یک زن ارائه می کند، تقریباً 50-50 > شانس دارد که مرد نیز بخواهد دوباره او را ببیند. > > اما برای هر پیشنهادی که یک مرد ارائه می کند، فقط یک در پنج شانس دارد که میل به ملاقات مجدد متقابل شود. من داستان را چند بار خوانده ام، اما نمی بینم که چگونه احتمالات (یک قرار موفق) برای زن و مرد محاسبه می شود. کسی می‌خواهد کمی در این مورد روشن کند؟
این احتمالات چگونه محاسبه می شود
37732
من اغلب توصیه هایی را برای بررسی اینکه آیا تناسب مدل پواسون بیش از حد پراکنده است یا خیر دیده ام که شامل تقسیم انحراف باقیمانده بر درجات آزادی است. نسبت حاصل باید تقریبا 1 باشد. سوال این است که ما در مورد چه محدوده ای برای تقریبی صحبت می کنیم - نسبتی که باید آلارم ها را روشن کند تا مدل های جایگزین را در نظر بگیریم چیست؟
وقتی کسی می گوید انحراف باقیمانده/df باید برای یک مدل پواسون ~ 1 باشد، چقدر تقریبی است؟
37737
می‌خواهم بدانم آیا استانداردسازی z روش مناسبی برای محاسبه متغیر کمکی است یا خیر. لطفاً مثال ساختگی زیر را در نظر بگیرید (من به تفسیر نتیجه علاقه مند نیستم بلکه فقط به معقول بودن آماری علاقه مند هستم): در یک نمونه 100 نفری رابطه بین IQ و اندازه سر بررسی شده است (یک اندازه گیری برای هر آزمودنی). با این حال، ضریب هوشی در برخی از سوژه ها با آزمون هوش «A» و در سایر افراد با آزمون هوش «ب» برآورد شده است. همچنین تفاوت معنی داری در IQ اندازه گیری شده با 'A' در مقایسه با IQ اندازه گیری شده با 'B' وجود دارد. بنابراین 'zIQ' با استانداردسازی z تمام مقادیر IQ به دست آمده با آزمون 'A' و همچنین استاندارد z-استانداردسازی تمام مقادیر IQ به دست آمده توسط 'B' به دست می آید. آیا استفاده از zIQ برای بررسی رابطه آن با اندازه سر مستقل از اینکه کدام آزمون ('A' یا 'B') استفاده شده است مناسب است؟
استفاده از استانداردسازی z برای محاسبه متغیر کمکی
70972
شاید این سوال ساده باشد، اما من واقعا به کمک نیاز دارم. وقتی از تخمین حداکثر احتمال (MLE) برای تخمین پارامترها استفاده می کنیم، چرا همیشه log() را قبل از چگالی مشترک قرار می دهیم؟ برای استفاده از جمع به جای محصول؟ اما چرا؟ ویکی پدیا گفت که راحت خواهد بود. چرا؟ متشکرم.
چرا وقتی از MLE (Maximum Likelihood Estimation) استفاده می کنیم، همیشه log() را قبل از pdf مشترک قرار می دهیم؟
37731
قضیه این است که اگر یک ماتریس گذار برای یک زنجیره مارکوف تقلیل‌ناپذیر با فضای محدود S تصادفی مضاعف باشد، اندازه‌گیری ثابت آن (یکتا) روی S یکنواخت است. اگر زنجیره مارکوف دارای یک ماتریس گذار تصادفی دوگانه باشد، می‌خوانم که احتمالات محدودکننده آن توزیع یکنواخت را تشکیل می‌دهند، اما دلیل آن را کاملاً نمی‌دانم. من در تلاش بوده‌ام که یک مدرک قابل درک برای این موضوع پیدا کنم و پیدا کنم. اما شواهدی که من پیدا می‌کنم تمام جزئیاتی را که نمی‌فهمم، آشکار می‌کنند، مانند گزاره 15.5 در اینجا (چرا فقط استفاده از بردارهای [1،...1] کار می‌کند؟) آیا کسی می‌تواند به من اشاره کند (یا بنویسد) بیشتر اثبات ساده/جزئیات؟ (اگرچه بخشی از چیزی نیست که در مدرسه ارائه خواهم کرد، اما بخشی از دوره ای است که من می گذرانم، بنابراین حدس می زنم در هر صورت آن را با تکالیف تگ کنم.)
چرا یک زنجیره مارکوف محدود، تقلیل ناپذیر و غیر دوره ای با ماتریس تصادفی مضاعف P توزیع محدود کننده یکنواختی دارد؟
70977
من متوجه نشدم _روش ضربه و از دست دادن دقیق تره یا روش مونت کارلو بهبودیافته؟_ اینجا نوشته که ضربه و از دست دادن واریانس بالاتری داره ولی (واریانس مونت بهبودیافته رو نشون دادند. -کارلو) - (واریانس روش ضربه و از دست دادن) > 0` $$\sigma^2_M-\sigma^2_H>0$$ آیا اینطور نیست یعنی روش مونت کارلو بهبود یافته واریانس بالاتری دارد؟ لطفاً با یک مثال آسان (مثلاً برای یک ادغام کوچک) آن را به صورت تجربی برای من توضیح دهید؟
روش مونت کارلو بهبود یافته در مقابل روش ضربه و از دست دادن
15489
فرض کنید می‌خواهم نمودار قیف معمولی را برای متاآنالیز بگیرم، و بعد دیگری به آن اضافه کنم، و به صورت بصری نقاط مورد استفاده برای هر مطالعه را توسط یک متغیر کمکی تغییر دهم. در حالی که ممکن است تغییر نشانگر یا رنگ برای متغیرهای طبقه‌بندی آسان‌تر باشد، برای متغیر پیوسته، این کار کمی سخت‌تر می‌شود. بیایید بگوییم که می‌خواهیم ببینیم که آیا عدم تقارن آشکار نه فقط در کل، بلکه در طول مدت پیگیری وجود دارد یا خیر. آیا کسی راهی را در R یا Stata برای تغییر اندازه نقاط ترسیم شده می داند - بنابراین شما اساساً یک نمودار قیف حباب دارید یا آنها را بر روی یک گرادیان پیوسته رنگ می کنید؟ واضح است که این کار را می‌توان فقط با اصلاح یک نمودار پراکنده انجام داد، اما من می‌خواهم مراحل دستکاری دسترسی را ذخیره کنم تا آن را شبیه یک نمودار قیف معمولی به نظر برسانم.
طرح قیف با اندازه نقطه نامتقارن
7784
من در حال آموزش یک شبکه عصبی مصنوعی (انتشار پس انتشار، فید فوروارد) با داده های توزیع شده غیرعادی هستم. علاوه بر ریشه میانگین مربعات خطا، ادبیات اغلب ضریب همبستگی پیرسون را برای ارزیابی کیفیت شبکه آموزش دیده پیشنهاد می کند. اما، آیا ضریب همبستگی پیرسون معقول است، اگر داده های آموزشی به طور معمول توزیع نشده باشند؟ آیا منطقی تر نیست که از یک معیار همبستگی مبتنی بر رتبه استفاده کنیم، به عنوان مثال. اسپیرمن رو؟
اندازه گیری همبستگی شبکه های عصبی آموزش دیده
83361
من باید یک متغیر عدد صحیح را در مقیاس (0-50) پیش بینی کنم. من تعجب می کنم که چگونه باید آن را مدل کرد: 1. آیا باید صفر را به عنوان یک طبقه بندی طبقه بندی 0/non-0 به طور جداگانه پیش بینی کرد، با توجه به اینکه مشاهدات عمدتاً صفر هستند؟ 2. اگر از رگرسیون خطی برای محدوده 1-50 استفاده کنم، چگونه می توانم متغیر پیش بینی محدوده محدوده (1-50) را ایجاد کنم؟ من از scikit-learn استفاده می کنم اما نمی توانم چیزی را ببینم که چنین چیزی را اجازه دهد.
مدل مناسب برای پیش‌بینی صفت عدد صحیح محدود به محدوده؟
14689
من در حال بررسی تجزیه و تحلیل Weibull برای درک قابلیت اطمینان دو نمونه خاص بودم. من از بسته R، weibulltoolkit و survival برای دریافت طرح مورد نظر استفاده کردم. مجموعه داده بزرگ است بنابراین من آن را ارسال نمی کنم. X = read.table(./test, header=T) d <- data.frame(ob=X, state=1) s = Surv(d$ob, d$state) plot.wb(s) From درک من، هر دو طرح نشان دهنده تناسب بد است! این می تواند ناشی از داشتن نقاط داده بیش از حد در سیستم باشد یا به دلیل اثرات فصلی یا سایر اثرات ناشناخته باشد. با نگاه کردن به طرح، چه چیزی را باید بفهمم؟ به طور خاص، به نظر می رسد نمودار 1 (با استفاده از 4000 امتیاز) وجود دو رفتار متفاوت (0.05 - 5 و 5-1e+05) را نشان می دهد. آیا این بدان معنی است که من بهتر است مجموعه داده را به دو قسمت تقسیم کنم و آنها را جداگانه تجزیه و تحلیل کنم؟ اگر چنین است، مفهوم این امر چیست؟ * به نظر می رسد که همین موضوع برای طرح 2 (با استفاده از 400 امتیاز) انجام می شود، یعنی بهتر است این مجموعه داده را نیز تقسیم کنم. روش خوبی برای مقایسه این دو مجموعه داده چیست؟ پیشنهادی دارید؟ **ویرایش:** با جستجو در گوگل، با چیزی به نام حالت های چندگانه خرابی مواجه شدم، اما مطمئن نیستم که چگونه این کار را در R انجام دهم. هر گونه پیشنهادی بسیار قدردانی خواهد شد ### PLOT 1 ![شرح تصویر را در اینجا وارد کنید](http: //i.stack.imgur.com/bEoiU.png) ### PLOT 2 ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/1umaL.png)
چگونه این طرح وایبول را تفسیر کنم؟
30708
من اطلاعاتی در مورد 26 شرکت کننده دارم (13 نفر از محاسبات و 13 نفر دیگر از غیر محاسباتی) که در تحقیق من شرکت کرده اند. هر شرکت کننده با یک ماژول آزمایشگاهی (جلسه Hands on Robotics) درمان می شود. اکنون هر یک از شرکت کنندگان با استفاده از یک روبریک در مقیاس 1 تا 4 مورد ارزیابی قرار می گیرند. این آزمایش دارای هر دو پیش آزمون و پس آزمون است. برای تحقیقم می‌خواهم سؤالات زیر را ارزیابی کنم: ### سوال تحقیق 1 * فرضیه صفر: دانش‌آموزان در مورد تفکر محاسباتی (مبانی برنامه‌نویسی و تفکر الگوریتمی) با کمک رباتیک نمی‌آموزند. * فرضیه جایگزین: دانش آموزان در مورد تفکر محاسباتی (مبانی برنامه نویسی و تفکر الگوریتمی) با کمک رباتیک یاد می گیرند. برای ارزیابی سوال فوق، مقوله هایی که در نظر خواهم گرفت عبارتند از: طرح، اجرا و دانش که در مقیاس عالی، خوب، منصفانه و ضعیف به دست آمده است. فکر می کنم باید از T-TEST وابسته برای نمونه های جفت شده استفاده کنم. درست میگم؟ ### سوال تحقیق 2: * فرضیه صفر: پیشینه شرکت کنندگان (محاسباتی و غیر محاسباتی) تاثیری در یادگیری تفکر الگوریتمی با کمک رباتیک ندارد * فرضیه جایگزین: پیشینه شرکت کنندگان (محاسباتی و غیر محاسباتی) در یادگیری الگوریتمی تاثیر دارد. با کمک رباتیک، سوال 2 را نیز در مقیاس عالی، خوب، منصفانه و ضعیف ارزیابی خواهم کرد، اما با احترام به پس زمینه ### سوال آماری من **برای هر یک از سوالات تحقیق از کدام آزمون تی استفاده کنم؟**
از کدام آزمون t برای طرح پیش آزمون دو گروهی استفاده کنیم؟
40459
من یک ارزیابی مبتنی بر کامپیوتر از روش‌های مختلف برازش یک نوع خاص از مدل مورد استفاده در علوم palaeo انجام دادم. من یک مجموعه آموزشی بزرگ داشتم و بنابراین به طور تصادفی (نمونه‌گیری تصادفی طبقه‌ای) یک مجموعه آزمایشی را کنار گذاشتم. من روش‌های مختلف $m$ را به نمونه‌های مجموعه آموزشی برازش کردم و با استفاده از مدل‌های حاصل از $m$، پاسخ نمونه‌های مجموعه تست را پیش‌بینی کردم و یک RMSEP روی نمونه‌های مجموعه تست محاسبه کردم. این یک **اجرای** تک است. سپس این فرآیند را چندین بار تکرار کردم، هر بار با نمونه‌برداری تصادفی یک مجموعه تست جدید، مجموعه آموزشی متفاوتی را انتخاب کردم. پس از انجام این کار، می خواهم بررسی کنم که آیا هر یک از روش های $m$ عملکرد RMSEP بهتر یا بدتری دارد. من همچنین می‌خواهم روش‌های جفتی را چندین مقایسه انجام دهم. رویکرد من برازش یک مدل اثرات مختلط خطی (LME) با یک اثر تصادفی واحد برای **اجرای** بوده است. من از «lmer()» از بسته **lme4** برای تناسب با مدل و توابع بسته **multcomp** برای انجام مقایسه های چندگانه استفاده کردم. مدل من اساساً lmer (RMSEP ~ روش + (1 | Run)، داده = FOO) بود که در آن «روش» فاکتوری است که نشان می‌دهد کدام روش برای تولید پیش‌بینی‌های مدل برای مجموعه آزمایشی استفاده شده است و «Run» یک شاخص برای هر یک است. خاص **اجرای** آزمایش من. سوال من در رابطه با باقی مانده های LME است. با توجه به اثر تصادفی واحد برای **اجرای**، من فرض می‌کنم که مقادیر RMSEP برای آن اجرا تا حدی همبستگی دارند اما بین اجراها همبستگی ندارند، بر اساس همبستگی القایی که اثر تصادفی ایجاد می‌کند. آیا این فرض استقلال _بین_دوران معتبر است؟ اگر نه راهی برای توضیح این موضوع در مدل LME وجود دارد یا باید به دنبال استفاده از نوع دیگری از تجزیه و تحلیل استاتیکی برای پاسخ به سوالم باشم؟
استقلال باقیمانده ها در یک آزمایش/شبیه سازی مبتنی بر کامپیوتر؟
7788
برخی ویرایش‌ها انجام شده است... من یک مجموعه داده دارم که سایر محققان از مدل‌سازی جلوه‌های ترکیبی استفاده کرده‌اند تا مجموعه‌ای از تداعی‌ها را ارائه کنند. من همچنین مجموعه داده بسیار کوچکتری دارم که همان متغیرها اما از کشوری متفاوت است. مجموعه داده اول به اندازه کافی قدرتمند است (350 نفر از 30 مکان) اما مجموعه داده دوم اصلاً قدرتمند نیست (70 نفر از 15 مکان). آیا راهی وجود دارد که بتوانم آنچه را که در مورد مجموعه داده اول می دانم گرفته و از آن برای تقویت قدرت مجموعه داده دوم استفاده کنم؟ من تمام داده‌ها را ادغام کرده و آن‌ها را تجزیه و تحلیل کرده‌ام و نتایج را تکرار کرده‌ام، اما می‌ترسم این به این دلیل باشد که مجموعه داده اول فقط مجموعه دوم را در هم می‌گیرد. تا کنون به این موارد رسیده ام: 1) ابتدا مجموعه داده را تجزیه و تحلیل کنید، سپس جمع آوری کنید، دوباره تجزیه و تحلیل کنید، و AIC را مقایسه کنید تا ببینید آیا بدتر می شود (کمی خام به نظر می رسد). 2) هر دو مجموعه داده را با استفاده از یک متغیر ساختگی برای مجموعه داده اول/دوم (آنها از کشورهای مختلف هستند) تجزیه و تحلیل کنید. این ایده خوبی به نظر می رسد، اما من متقاعد نیستم که کل مشکل اولی را از بین ببرد. 3) کمی شبیه آمار بیزی به نظر می رسد، اما من اولین چیز را در مورد آمار بیزی نمی دانم، بنابراین اگر این است پس بهتر است کتابخانه را بزنم. هر کمکی مثل همیشه با سپاسگزاری دریافت شد! توضیحات: 1) متغیر وابسته برای هر دو کشور یکسان است 2) اوه عزیز، مطمئن نیستم که این سوال را درک کنم. همه متغیرها یکسان هستند، بنابراین من لیستی از داده های آنها با کد کشور و سپس همان متغیرها با کد کشور متفاوت دارم. همه مشاهدات افراد دسته بندی شده در بخش های خوشه ای در کشورها هستند. این جواب میده؟ 3) واقعاً من فقط سعی می‌کنم تداعی‌های خطی قابل توجهی را که آنها پیدا کردند (یا حدس می‌زنم، تفاوت‌های آنها را برجسته کنم) تکرار کنم. بنابراین به عنوان مثال آنها دریافتند که اندازه بخش نتایج را بهبود می بخشد، ما می خواهیم آن را به همراه برخی از انجمن های دیگر تکرار کنیم.
چگونه می توان مدل جلوه های ترکیبی بزرگ با یک نمونه کوچکتر را تکرار کرد؟
86707
من یک سوال فنی در مورد محاسبه AICc برای دو مدل ممکن دارم. برای مجموعه داده ای که من با آن کار می کنم، 12 موضوع و 10 مرحله آزمایش وجود دارد. دو مدل مختلف، یک توزیع گاما و یک توزیع گاوسی معکوس برای داده‌های هر موضوع جداگانه برای هر فاز مناسب بودند. با استفاده از تابعی که در برازش توزیع تک وجهی اکتشافی مفید یافتم (آن را از تبادل فایل Matlab دانلود کردم) مقادیر AICc را برای هر موضوع برای هر فاز دریافت کردم. بنابراین، در هر مرحله از آزمایش 12 مقدار AICc برای هر مدل وجود دارد، یک عدد برای هر آزمودنی. سوال من به شرح زیر است: با توجه به اینکه مقادیر AICc از قبل برای هر موضوع جداگانه محاسبه شده است، آیا خوب است مقادیر AICc را در بین موضوعات برای هر فاز جمع کنیم تا به مقادیر AICc برسیم، یکی برای توزیع گاما و دیگری برای گاوسی معکوس و سپس تفاوت یا وزن ها را بر اساس این دو مجموع محاسبه کنید؟ جایگزین این است که Log-lihood را برای هر حیوان به دست آوریم، بین حیوانات جمع کنیم و سپس AICc را برای هر مدل در هر فاز محاسبه کنیم. با این حال، به نظر من این معادل راه حل اول من است... علاوه بر این، برای تعیین بهترین مدل برای کل مجموعه داده (یعنی در سراسر فازها) جمع بندی مناسب به نظر می رسد؟ آیا کسی در مورد این وضعیت بینشی دارد (دریافت Log-likelihoods امکان پذیر است، من باید تابع را ویرایش کنم، اما AICc خروجی پیش فرض تابع است).
SUM AICc در مقابل SUM LL و سپس AICc
103010
من یک سری زمانی با تغییر سطح دارم. بنابراین، هنگام درمان آن با یک مدل ARIMA، از «arima(1,0,0)+xreg` استفاده می‌کنم. 'xreg' یک متغیر ساختگی برای تغییر سطح است. و سپس از رگرسیون خطی استفاده می کنم: $$ y(t)=β_0 + β_1y(t-1) + β_3{\rm levelshift} + μ(t)، $$ که ${\rm levelshift}$ همان xreg` در ARIMA. من فکر می‌کنم این دو مدل دقیقاً یکسان هستند، با این حال، Eviews نتایج متفاوتی را نشان می‌دهد حتی اگر از روش‌های حداقل مربع برای هر دو تخمین استفاده کنم. کسی می تواند آن را توضیح دهد؟ آیا نتایج متفاوت به دلیل «xreg» یا «y(t-1)» است؟
آیا ARIMA(1,0,0)+xreg برای تغییر سطح همانند مدل رگرسیون خطی با تنظیم تغییر سطح و ترم lag1 است؟
30706
به طور خاص، مفروضات رگرسیون لجستیک با اثر ترکیبی ترتیبی که با بسته تدوینی در R انجام می شود چیست؟ من به تازگی توسط یک بازبین مورد توجه قرار گرفتم زیرا این موارد به وضوح در یک مقاله بیان نشده است. همان بازبینی کننده از من پرسید که چگونه می توانم مشاهده های مکرر را حساب کنم. چگونه مفروضات ترتیبی و مدل سلسله مراتبی ME را به روشی نسبتاً مقرون به صرفه توضیح می دهید؟
مفروضات رگرسیون لجستیک اثرات مختلط ترتیبی چیست؟
85936
من با مدل های GARCH کار می کنم. همانطور که سعی می کنم خودم را با گزینه های Stata آشنا کنم، با تعدادی سوال مواجه شده ام که در پاسخ به آنها مشکل دارم. تفاوت SAARCH و AARCH چیست؟ اگر EGARCH و AARCH هر دو ابزاری برای مقابله با عدم تقارن هستند، چرا یکی را در مقابل دیگری ترجیح می دهیم؟
ARCH نامتقارن ساده در مقابل ARCH نامتقارن
14682
من از تابع **ca.jo** در بسته URCA برای استفاده از روش Johansen برای بررسی هم انباشتگی استفاده می کنم. من برای درک نتیجه آن تست به کمک نیاز دارم، این مثال من است: > jo <- ca.jo(z, type='eigen', ecdet='none', spec='longrun') > summary(jo) # ###################### روش جوهانسن ###################### نوع تست : حداکثر آمار ارزش ویژه (لامبدا حداکثر)، با روند خطی مقادیر ویژه (لامبدا): [1] 0.335639191 0.001256000 مقادیر آزمون آماری و مقادیر بحرانی آزمون: تست 10pct 5pct 1pct r <= 1 | 1.26 6.50 8.18 11.65 r = 0 | 408.52 12.91 14.90 19.19 بردارهای ویژه، نرمال شده به ستون اول: (اینها روابط هم انباشتگی هستند) x.l2 y.l2 x.l2 1.0000000 1.00000000 y.l2 0.330.3815 W 0.3312816 ماتریس بارگیری) x.l2 y.l2 x.d -0.01751432 -0.002265876 y.d -2.90081864 0.007172311 که در آن **z** است: x <- diffinv(rnorm(1000)) y < 2.0-3.0*x+rnorm(x,sd=5) z <- ts(cbind(x,y)) خوب، حالا باید مقادیر بحرانی تست را بررسی کنم. من می بینم که می توانیم r = 0 را رد کنیم (ttest بالای آنها است)، سپس برای دوم (r = 1) نمی توانیم رد کنیم، بنابراین نتیجه باید این باشد که یک بردار هم انباشته وجود دارد اما من نمی دانم چرا R = 1 یعنی چی؟ من یک ماتریس با ستون 2 دارم که چرا باید r = 1 را بررسی کنم اگر بتوانیم r = 0 را رد کنیم، به این معنی که یک بردار ترکیبی وجود دارد؟ پیشاپیش از شما متشکرم
به رویه یوهانسن برای بررسی ادغام کمک کنید
85934
من سعی می کنم بفهمم چگونه می توان یک اصلاح Bonferroni را در چندین گروه مختلف تنظیم کرد و آن را با گروه کنترل مقایسه کرد. گروه ها و مشاهدات به شرح زیر هستند (با گروه 0 کنترل): گروه $\hspace{5mm}$ مشاهدات 0$\hspace{15mm}$97.76$\hspace{5mm}$102.56$\hspace{5mm}$96.08 $\hspace{5mm}$ 125.12 1$\hspace{15mm}$ 91.28$\hspace{5mm}$ 129.20$\hspace{5mm}$90.80$\hspace{5mm}$72.32$2$\hspace{15mm}$67.28$\hspace{5mm}$85.76$}0mmspace{5mm} $\hspace{5mm}$ 73.28 3$\hspace{15mm}$80.24$\hspace{5mm}$64.88$\hspace{5mm}64.88$\hspace{5mm}$78.56$4$\hspace{15mm}$96.08$2mm}4$9 $\hspace{5mm}$77.84$\hspace{5mm}$95.36 5$\hspace{15mm}$57.68$\hspace{5mm}$89.84$\hspace{5mm}$98.48 $\hspace{5mm}26$92. \hspace{15mm}68.72 دلار $\hspace{5mm}$85.28$\hspace{5mm}68.72$\hspace{5mm}$74.24 من می‌دانم که اصلاح بونفرونی معمولاً با ضرب احتمالات در تعداد کل احتمالات و سپس مقایسه مقدار جدید با مقدار بحرانی کار می‌کند. با این حال، من با نحوه اجرای Bonferroni با چندین گروه (و مشاهدات بعدی در هر گروه) آشنا نیستم.
تصحیح بونفرونی: کنترل در مقابل گروه؟
71083
پس از نمایه سازی کد شبکه عصبی خود متوجه شدم که روشی که تغییرات وزن را برای هر قوس در شبکه محاسبه می کند ('-rate*gradient + momentum*previous_delta - decay*rate*weight') قبلاً گرادیان داده شده است. گلوگاه است (55 درصد نمونه ها). آیا ترفندی برای محاسبه این مقادیر به شیوه ای کارآمد وجود دارد؟
شبکه های عصبی: محاسبه دلتاهای وزن یک گلوگاه است
7780
من یک سوال در مورد **روش های متوالی گروهی** دارم. با توجه به ویکی پدیا: > در یک کارآزمایی تصادفی با دو گروه درمانی، آزمایش پی در پی گروهی کلاسیک به روش زیر استفاده می شود: اگر n نفر در هر گروه > در دسترس باشند، یک تجزیه و تحلیل موقت روی 2n نفر انجام می شود. تجزیه و تحلیل آماری > برای مقایسه دو گروه انجام می شود و در صورت پذیرش فرضیه >، کارآزمایی خاتمه می یابد. در غیر این صورت، کارآزمایی برای 2n آزمودنی دیگر با n نفر در هر گروه ادامه می یابد. تجزیه و تحلیل آماری > دوباره بر روی 4n نفر انجام می شود. اگر گزینه > پذیرفته شود، آزمایش خاتمه می یابد. در غیر این صورت، آن > با ارزیابی های دوره ای ادامه می یابد تا زمانی که N مجموعه از 2n موضوع > در دسترس باشد. در این مرحله، آخرین آزمایش آماری انجام می‌شود و آزمایش > متوقف می‌شود، اما با آزمایش مکرر داده‌های انباشته شده به این روش، سطح خطای نوع I افزایش می‌یابد... اگر نمونه‌ها مستقل از یکدیگر بودند، نوع کلی نوع I بود. خطا، $\alpha^{\star}$، خواهد بود > $\alpha^{\star} = 1 - (1 - \alpha)^k$ که در آن $\alpha$ است سطح هر آزمون، و $k$ تعداد نگاه های موقت است. اما نمونه ها مستقل نیستند زیرا همپوشانی دارند. با فرض اینکه تجزیه و تحلیل های موقت با افزایش اطلاعات برابر انجام شوند، می توان دریافت که (اسلاید 6) ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/iFT4L.png) می توانید به من توضیح دهید که این جدول چگونه است بدست می آید؟
خطای کلی نوع I هنگام آزمایش مکرر داده های انباشته
14538
من می دانم که با نقاط شکست ثابت (برای متغیر x)، رگرسیون خطی تکه ای آسان و خطی است. با این حال، به دلایل مختلف، من می خواهم نقاط شکست را برای متغیرهای y اصلاح کنم. یک دلیل این است که نامزدهای طبیعی برای شکست متغیر y وجود دارد، اما من هیچ سرنخی در مورد x ندارم. چون سر و صدا زیاد است، نمی خواهم فقط مدل معکوس را جا بزنم. می‌توانم عبارت را بنویسم تا کمینه شود، اما حداقل مربعات غیرخطی است، و گرادیان‌ها به‌هم ریخته به نظر می‌رسند، که شامل d/dr(1/r) و غیره می‌شود. می‌خواهم از این کار اجتناب کنم. کسی راه حل خوبی برای این مشکل میدونه؟ شاید من روشی برای بازنویسی آن به صورت خطی از دست داده ام؟
رگرسیون خطی تکه ای معمول نیست
15487
آیا توجیهی برای تولید یک خطای استاندارد از یک ضریب وزنی منفرد وجود دارد؟ اگر بله، چگونه می توانیم مقدار p را تفسیر کنیم؟ * * * **زمینه** من از SAS ETS برای تخمین یک مدل هموارسازی نمایی تکی استفاده می کنم. وقتی گزینه بهینه سازی را برای تخمین وزن هموارسازی انتخاب می کنم، مقدار تخمینی (بهینه)، یک خطای استاندارد، یک مقدار t و یک مقدار p را دریافت می کنم. خطای استاندارد چگونه محاسبه می شود (مثلاً فرمول آن چیست) و معنای p-value چیست. در راهنمای کاربران آمده است که: > خطاهای استاندارد مربوط به وزن های هموارسازی محاسبه می شود > از ماتریس هسین مجموع مجذور پیش بینی یک گام جلوتر > خطاها با توجه به وزن های هموارسازی استفاده شده در فرآیند بهینه سازی > محاسبه می شود. . تا آنجا که من می دانم وزن بهینه با یک روش بهینه سازی غیرخطی (جستجوی اکتشافی با تابع هدف برای به حداقل رساندن MSE یا چیزی مشابه) محاسبه می شود. بر این اساس، مفاهیم آماری در این مورد قابل اجرا نیستند (مثلاً اگر محاسبات را در نمونه دیگری تکرار کنیم، سپس در 95٪ موارد و غیره) پس معنای p-value و محاسبه خطای استاندارد چیست؟ آیا باید بررسی کنیم که آیا ضریب هموارسازی معنی دار است یا خیر یا فقط خطای استاندارد و مقادیر p را نادیده می گیریم؟ آیا از خطای استاندارد، t-value و p-value استفاده ای وجود دارد؟
خطای استاندارد و مقادیر p وزن هموارسازی نمایی
14643
_من از اسپیسدمن برایش جواب گرفتم. اما من کاملاً از پاسخ راضی نیستم زیرا هیچ نوع ارزشی (مقدار p یا z) به من نمی دهد. بنابراین من دوباره سوالم را قالب بندی می کنم و دوباره آن را پست می کنم. من یک دیکشنری از مثلا 61000 عنصر دارم و خارج از این دیکشنری، دو مجموعه دارم. مجموعه A شامل 23000 عنصر و مجموعه B شامل 15000 عنصر و همپوشانی مجموعه A و مجموعه B 10000 عنصر می دهد. چگونه می توانم یک مقدار p یا z را تخمین بزنم تا نشان دهم این همپوشانی قابل توجه است و تصادفی رخ نمی دهد یا برعکس. آنچه تاکنون به من پیشنهاد شده است شامل روش های شبیه سازی مونت کارلو است. آیا می توان روش تحلیلی داشت. پیشاپیش از شما متشکرم.
آزمایش اهمیت همپوشانی در R
38153
من یک کلاس مدل M$ دارم. هر $\theta \در M$ یک توزیع احتمال $p(x,y | \theta)$ را تعریف می‌کند به طوری که $x \در A$ و $y \در B$. من فقط به توزیع‌های احتمالی $\theta$ علاقه دارم به طوری که پشتیبانی آنها در $A_0 \subseteq A$ و $B_0 \subseteq B$ وجود دارد -- توزیع‌های دیگری که از این شکل نیستند نادرست هستند (آنها یک توزیع در فضای بیش از حد مجاز). اکنون، من یک $\pi(\theta)$ قبلی دارم. این پیشین می تواند احتمال مثبتی را به توزیع احتمال نادرست بدهد. اما اکنون فرض می‌کنم که $x_1,\ldots,x_n$ را مشاهده می‌کنم که در آن $x_i در A_0$ است. من همچنین فرض می‌کنم که $p(y | x,\theta)$ برای _any_ $\theta$ دارای پشتیبانی در $B_0$ است، اگر $x \در A_0$ باشد. **اگر استنتاج بیزی را با این $\pi$ و $x_1,\ldots,x_n$ قبلی انجام دهم تا $p(\theta, y_1,\ldots,y_n | x_1,\ldots,x_n)$ بعدی را محاسبه کنم - آیا در اینجا مشکل عملی یا نظری وجود دارد؟** فرضاً پیشین من می تواند به $\theta$ بد احتمال مثبت بدهد، اما به نظر من می رسد از آنجایی که $x_1،\ldots،x_n$ در عمل همیشه از $A_0$ هستند، در مورد پسین نیز مشکلات زیادی وجود ندارد، زیرا $y_1،\ldots،y_n$ همیشه از $B_0$ خواهند بود.
آیا تنظیمات بیزی که احتمال مثبت قبلی را در مورد رویدادهای نادرست می دهد، مشکلی دارد؟
47813
من توانسته ام با موفقیت وزن های تخمینی BRR را برای «rq()» با استفاده از بسته های «survey» و «quantreg» در R اعمال کنم. همچنین $p$-values ​​را می خواهید. برخلاف «rq()» که در آن می‌توان مقادیر $t$ و $p$-و غیره را دریافت کرد، این رویکرد مقادیر-$p$ را ارائه نمی‌کند، بلکه فقط $\theta$ و SE را ارائه می‌کند. اسکریپت R: mod<-withReplicates(repwtx,quote(coef (rq(logA~ dose+ chtcm + cage + raceth + seks, tau=0.9,weights=.weights,alpha=0.05)))) و در اینجا خروجی دریافت می کنم > mod تتا SE (Intercept) 1.3314065 0.1809 دوز 0.3255046 0.0367 chtcm 0.0322069 0.0100 قفس -0.0516363 0.0154 raceth -0.0082423 0.0196 جنسیت 0.2314573 0.2887
مقادیر P برای رگرسیون چندک با وزن تکرار از طریق بررسی با تابع Replicates
14683
من این مقاله را در مورد چگونگی تخمین قابلیت اطمینان یک دستگاه با استفاده از تجزیه و تحلیل Weibull مرور کرده ام. مقاله به وضوح بیان می کند که برای انجام این کار باید اطلاعاتی به شکل زیر داشته باشم: # Age_A Age_B 1 26 16 2 31 24 3 35 30 4 38 36 5 41 42 6 44 48 7 47 55 8 51 59 63 میانگین 76 10 70 126 44 52 از درک من، این سن باید از برخی **دوره شروع** اندازه گیری شده باشد که به عنوان زمان شروع آزمایش استفاده می شود. حال، اگر من واقعاً از نقطه شروع آزمایش مطمئن نیستم و مشاهداتی از شکست در طول زمان داشته باشم، آیا راهی وجود دارد که بتوانم تجزیه و تحلیل Weibull را برای نتیجه گیری انجام دهم؟ برای بیان واضح، اجازه دهید بگوییم که در میانه راه تصمیم گرفتم ببینم کدام نوع قابل اعتمادتر است در حالی که هر دو نوع برای مدت زمان نامعلومی عملیاتی شده اند. ایده من این بود که یک دوره زمانی t را تعیین کنم و سپس شروع به محاسبه سن نسبت به این t کنم. البته، اشکال جدی مربوط به دستگاه‌هایی است که برای مدت طولانی کار می‌کنند و درست بعد از «t» از کار می‌افتند، در این صورت سن در تعداد کمی اشتباه محاسبه می‌شود. پیشنهادی دارید؟
آیا می توانم در حین تخمین قابلیت اطمینان، یک دوره شروع نامعلوم را حساب کنم؟
47819
من مجموعه ای از نقاط داده را دارم که به عنوان تابعی از طول محاسبه می شوند. هر نقطه داده نتیجه آزمایش های زیادی است و دارای یک نوار خطا است. تابع «تعداد (طول)» ناشناخته است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/wDP42.png) در پایان اندازه گیری که باید نقل قول کنم طول $X_m$ است که در آن تعداد حداکثر هستند (بنابراین در این مورد $X_m=0.9m$). از آنجایی که داده ها پر سر و صدا هستند، یک عدم قطعیت مرتبط با $X_m$ وجود دارد (یعنی $X_m$ به نظر می رسد که می تواند 0.6m-1m باشد). اگر تابعی را که این داده‌ها را توصیف می‌کند می‌دانستم، می‌توانستم یک خطا در پارامترهای فیت دریافت کنم، اما هیچ اطلاعاتی در مورد اینکه تابع باید چه باشد، ندارم، بنابراین چگونه می‌توان عدم قطعیت را استخراج کرد؟ فکر می‌کنم می‌توانم صدها مجموعه داده مانند این بسازم، X_m$ را برای هر کدام پیدا کنم و عدم قطعیت را از این طریق بیابم، اما به نظر می‌رسد که این روش اطلاعات داده‌شده توسط نوارهای خطا را در همه نقاط نادیده می‌گیرد. آیا فرمالیسمی برای پی بردن به عدم قطعیت در پارامتر یک تابع مجهول وجود دارد؟
عدم قطعیت در پارامتر تابع ناشناخته
7782
### زمینه من با پایان نامه دکتری خود مشکلاتی دارم. پایان نامه من بررسی رفتارهای شهروندی سازمانی معلمان دوره ابتدایی از طریق درک آنها از فرهنگ سازمانی و سطح اعتماد سازمانی آنها است. من نمونه 871 معلم دارم. من سه ساز دارم اما توسط محققین دیگر ساخته شده و در برخی مطالعات دیگر از آنها استفاده شده است. من سعی کرده ام داده های خود را با استفاده از مدل سازی معادلات ساختاری تجزیه و تحلیل کنم. اما در تلاش برای انجام تحلیل عاملی تاییدی، تنها یک ابزار (شهروندی سازمانی) خوب بود. دو ابزار دیگر تحلیل تاییدی مرتبه اول را ارائه نکردند. مقادیر RMSEA حدود 0.100 بود. مجذور کای خیلی زیاد بود و کای دو تقسیم بر درجات آزادی نیز خیلی زیاد بود. ### سوال * با سازها و CFA هایم چه کار کنم؟ * آیا بسته بندی یا حذف اقلام از این ابزار ایده خوبی است؟ * یا باید از مدل سازی معادلات ساختاری بگذرم و با رگرسیون ادامه دهم؟
به دنبال آمار برازش ضعیف برای تحلیل عاملی تاییدی چه باید کرد؟