_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
49335
من یک مجموعه داده دارم و می خواهم تجزیه و تحلیل آماری انجام دهم: نوع روز جلسه نام نهاد RunningTime PLACE ------------------------------- --------------------------------------- 1 29/09/10 1 Tera NikolaT 24:33 ناشناس 2 14/12/10 1 Vera EmmanuelF 22:13 Aldebaran 3 29/01/11 1 Eon Eon null all 4 01/03/10 1 NA DSG 12:25 earth 5 02/11/10 R 1 Ardan 43:56 به عنوان مثال می خواهم آلدباران را بگیرم توزیع احتمال وقوع یک رویداد، وقوع جلسات...، من قصد داشتم ابتدا بر اساس روز مرتب کنم و سپس برای هر ماه و سپس بر اساس سال، $\mu$ و $\sigma$ دریافت کنم، اما چیست؟ بهترین روش برای به دست آوردن اطلاعات ارزشمند از این مجموعه داده؟ چه تجزیه و تحلیل آماری را می توان در مجموعه داده ای مانند این انجام داد؟ از چه ابزاری به جای متلب یا R می توانم استفاده کنم که آنلاین است؟
تجزیه و تحلیل یک مجموعه داده و ابزار برای به دست آوردن وقوع یک رویداد
49339
من چندین سیستم طبقه بندی دارم که می خواهم آنها را با هم مقایسه کنم. روشی که من هر یک از آنها را ارزیابی می کنم استفاده از دقت، یادآوری و امتیاز f است. من می‌خواهم عملکرد هر دو را با استفاده از آزمون معنی‌داری مقایسه کنم تا بفهمم آیا تفاوت در عملکرد به دلیل نویز است یا خیر. سوال من این است - با توجه به این واقعیت که می خواهم از مقادیر f-score به عنوان ورودی استفاده کنم، چه انتخاب خوبی برای آزمون معناداری خواهد بود. تا به حال، بیشتر تست هایی که من دیدم مقایسه می کنند یعنی w.r.t. انحراف معیار، اما مطمئن نیستم که در مورد من به این نیاز دارم.
آزمون اهمیت برای سیستم های طبقه بندی
68108
من یک ابزار گزارش‌دهی ایجاد می‌کنم که یک مجموعه داده تولید می‌کند و یک متریک برای هر مورد در مجموعه داده محاسبه می‌کند. من دو الگوریتم دارم که با آنها کار می کنم: الگوریتمی که متریک را تولید می کند و الگوریتمی که رتبه بندی (رتبه بندی 1-5 ستاره) را برای نمایش بصری متریک محاسبه شده تولید می کند. الگوریتم محاسبه متریک به طور مداوم تنظیم می شود. این یک ابزار پیش بینی است، بنابراین من به طور مداوم متریک را با داده های واقعی مقایسه می کنم و الگوریتم را مطابق با آن اصلاح می کنم. از طرف دیگر، من دوست دارم الگوریتم رتبه بندی تا حدودی ثابت بماند. رویکرد اولیه من به الگوریتم رتبه‌بندی استفاده از یک تابع صدک مشابه با اکسل برای یافتن مقدار در: صدک 98 (5 ستاره)، 90 (4 ستاره)، 75٪ (3 ستاره) و غیره بود. این تابعی است که من استفاده کردم. . (این زبان برنامه نویسی Ruby است، اما باید به اندازه کافی خوانا باشد تا بتوان جست آن را بدست آورد) defcentile(values,centile) values_sorted = values.sort k = (percentile*(values_sorted.length-1)+1).floor - 1 f = (درصد*(values_sorted.length-1)+1).modulo(1) values_sorted[k] + (f * (values_sorted[k+1] - values_sorted[k])) پایان اگر این معادله را به درستی درک کنم، یک مقدار صدک بر اساس تعداد آیتم ها تولید می کند تا مقادیر واقعی آیتم ها. به طور معمول، من یک مجموعه داده با 150 مورد دارم. این یک روش ضعیف برای محاسبه رتبه است زیرا همیشه دقیقاً 3 مورد پنج ستاره تولید می کند. من به یک رویکرد بهتر نیاز دارم که یک رتبه بندی را بر اساس مقادیر واقعی متریک محاسبه کند. هر ایده ای؟ در اینجا چند مجموعه داده نمونه وجود دارد: نمونه 1 - 150 مورد 2,466,505 1,118,729 935,150 431,367 271,558 243,603 168,266 166,507 163,521,521,163,521,521 120,329 109,000 103,088 101,341 89,685 80,173 74,703 70,748 66,970 63,408 60,368 54,433 54,185 54,1845 43,140 42,682 41,864 40,151 39,989 35,766 34,020 33,379 32,803 29,393 28,791 28,570 27,724 224,2324 224,724 23,537 22,804 22,634 22,217 21,812 21,648 21,230 20,657 20,312 19,602 18,157 17,924 17,398 16,395 15,37 15,156 15,156 15,126 15,068 14,654 14,300 14,109 13,924 13,893 12,813 12,612 12,419 12,236 11,736 11,736 10,349 10,297 9,988 9,900 9,112 8,453 8,420 7,912 7,893 7,525 7,484 7,440 7,429 6,736 6,518 6,515 6,434 6,515 5,242 5,067 4,657 4,262 4,152 4,104 4,069 4,052 4,052 4,045 3,990 3,952 3,814 3,621 3,387 3,387 3,288 3,280 2,804 2,789 2,701 2,701 2,540 2,476 2,320 2,320 2,227 2,129 2,064 2,020 1,989 1,951 1,878 1,878 1,713 1,713 1,341 1,341 1,341 1,326 1,248 1,105 1,030 912 723 609 482 368 314 237 74 65 34 28 Sample 2 - 150 1,030 3,647 321,258 184,440 173,914 133,995 117,048 101,442 87,061 80,692 62,248 39,193 32,277 31,656 227,796 227,796 26,604 25,438 23,459 22,612 22,346 22,249 21,104 20,949 19,508 18,533 17,380 16,582 16,582 16,582 14,14 14,13 14,631 13,996 13,656 12,985 12,104 12,104 11,731 11,627 10,729 10,182 9,822 9,154 9,062 8,8156 8,8156 8,8158 7,645 7,200 7,162 6,840 6,172 6,172 5,657 5,574 5,544 5,303 5,143 5,089 4,946 4,946 4,895 4,895 4,894 4,894 4,894 4,564 4,357 4,256 4,180 3,752 3,671 3,628 3,482 3,386 3,339 3,104 3,009 2,979 2,979 2,913 2,913 2,913 2,5512 2,217 2,147 1,951 1,951 1,874 1,862 1,756 1,664 1,643 1,561 1,561 1,561 1,561 1,561 1,561 1,561 1,414 1,414 1,345 1,341 1,330 1,330 1,277 1,234 1,229 1,194 1,170 1,170 1,158 1,149 1,149 1,146 1,135 1,1149 1,1171 851 851 766 721 681 638 585 575 575 479 383 383 319
الگوریتم برای یک سیستم رتبه بندی 5 ستاره
17176
من در حال حاضر روی مدل سازی نرخ FX کار می کنم. من تصمیم گرفتم از مجموعه داده UBC استفاده کنم: http://fx.sauder.ubc.ca/data.html اما متوجه شدم که در مورد منطقه زمانی مشکل دارم. مجموعه داده به صورت روزانه است، با شماره روز جولیان، آیا این عدد تغییر منطقه زمانی را کنترل می کند؟ یا از GMT+0 یا چیز دیگری استفاده می کند؟
آیا شماره روز جولیان، منطقه زمانی را کنترل می‌کند؟
73039
من مجموعه ای از بردارهای احتمال 4 عضوی دارم (در اصل نسبت هایی بیش از 4 دسته متقابل منحصر به فرد). آیا روشی برای نمایش این داده ها به صورت ابری از نقاط داخل مربع وجود دارد؟ اگر هر یک از مقادیر 4 تایی نشان دهنده وزنی به سمت یکی از 4 یال باشد، آیا می توانیم هر کدام را به طور مناسب در فضای دو بعدی قرار دهیم؟ چیزی که من به دنبال آن هستم، روشی برای رسم داده‌ها به ترتیب زیر است: 1: 1 0 0 0 2: 0 1 0 0 3: 0.5 0.5 0 0 4: 0.25 0.25 0.25 0.25 به روش زیر (با عرض پوزش، حاشیه پایین مشخص شد بریده شده) ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/UTRbM.png) با تشکر.
وزن کردن احتمالات در یک چند ضلعی
46500
من از 1970 تا 1980 داده های 10 ساله دارم (40 چهارم). برای هر سه ماهه من پنج اندازه M1، M2، M3، M4 و M5 دارم. **TWIST:** اگرچه داده‌هایی که من در اختیار دارم در سطح بیمار فردی است، متغیر نتیجه (T) برای همه بیماران در زمان همه‌گیری مشترک است. به عنوان مثال، همه بیماران تمایل دارند که پرچم های هدف خود را در سه ماهه های Q19، Q20 و Q21 و همچنین در سه ماهه Q33، Q34، Q35، Q36، Q37، Q38، Q39 و Q40 روی 1 (مثبت) تنظیم کنند. دلیل این امر این است که بیماران با 1 علامت گذاری می شوند، حتی اگر شرایط خفیف یک بیماری خاص را داشته باشند و همه آنها در زمان های همه گیر به آن مبتلا شوند. متغیر هدف مشترک باعث می‌شود فکر کنم که باید اندازه‌گیری‌هایم را در سطح فردی به جمعیت جمع‌آوری کنم و سپس احتمال وقوع بیماری گسترده را تخمین بزنم. با این حال، این بدان معناست که من اطلاعات را «از دست می‌دهم»، یعنی اطلاعات بالقوه مرتبط را در سطح فردی نادیده می‌گیرم. «احساس درونی» من این است که نباید داده هایم را جمع آوری و میانگین کنم. از طرف دیگر، اگر از یک مدل رگرسیون لجستیک ساده استفاده کنم و با داده های خود طوری رفتار کنم که انگار مستقل هستند (که به وضوح اینطور نیست) احتمالاً تخمین های مغرضانه ای دریافت خواهم کرد. هدف نهایی من این است که بتوانم (با توجه به اندازه گیری های فردی) احتمال بیمار بودن آن فرد خاص را محاسبه کنم.
هنگام تخمین احتمال وقوع یک رویداد، با داده های وابسته سروکار دارید
64485
ما در حال انجام تحقیق در مورد تماشای سخنرانی ویدیویی هستیم. ما دوره ای را ارائه می دهیم که چهار هفته طول می کشد و هر هفته 9 یا 10 ویدیو وجود دارد. ما فعالیت های تماشای گروهی را سازماندهی می کنیم. یک گروه معمولاً 4-5 نفره است و ما 3 گروه داریم. در هر گروه، هر شرکت کننده تمام ویدیوهای آن هفته را در دستگاه خود با نرم افزار ما تماشا کرد (تا بتوانیم داده ها را جمع آوری کنیم). ما داده هایی را در مورد نحوه پیمایش آنها در ویدیوها جمع آوری کردیم. درست پس از هر هفته جلسه تماشای ویدیو، از هر فرد خواستیم که سطح دشواری سخنرانی کل هفته ها را با مقیاس لیکرت 5 درجه بندی کند. پس از 5 هفته، مجموعه داده ای دریافت می کنیم که شامل تعداد مکث های هر کاربر در هفته و درجه سختی هر کاربر در هفته است. مجموعه داده ها به صورت زیر سازماندهی شده است: برای پرسشنامه مقیاس لیکرت، داده ها مانند گروه، فرد، ویدئو است. دشواری هفته، زردآلو هفته، A، 5، 1 زردآلو، B، 3، 1 زردآلو، C، 4، 1 سیب , A, 3, 1 سیب, B, 2, 1 سیب, C, 2, 1 پرتقال, A, 4, 4 نارنجی، B، 3، 4 نارنجی، C، 4، 4 ما همچنین داده های مکثی مشابه زیر داریم: گروه، فرد، numOfPauses، هفته، کل طول مدت ویدیو در هفته در دقیقه زردآلو، A، 15، 1، 125 زردآلو، B، 23، 1 125 زردآلو، C، 24، 1، 125 apple, A, 13, 1, 125 apple, B, 12, 1, 125 apple, C, 8, 1, 125 orange, A, 11, 4, 156 orange, B, 4, 4, 156 orange, C, 9، 4، 156 کاری که من می خواهم برای مرحله بعدی انجام دهم این است که به سؤال زیر پاسخ دهم. **آیا تعداد مکث ها با دشواری درک شده مرتبط است؟** سعی کردم تعداد مکث ها را عادی کنم. من یک مجموعه داده جدید با معرفی یک متغیر جدید pauseFrequency ایجاد کردم، که با تقسیم تعداد مکث ها بر کل طول ویدیوی آن هفته (برای همه کاربران در آن هفته یکسان) محاسبه می شود. گروه، فرد، دشواری، هفته، مکث فراوانی زردآلو، A، 5، 1، 15/125 زردآلو، B، 3، 1، 23/125 زردآلو، C، 4، 1، 24/125 سیب، A، 3، 1، 13/125 apple, B, 2, 1, 12/125 apple, C, 2، 1، 8/125 نارنجی، A، 4، 4، 11/156 نارنجی، B، 3، 4، 4/156 نارنجی، C، 4، 4، 9/156 سپس مشکل به نظر آسان است. به نظر می رسد که من فقط نیاز به تست همبستگی با ستون دشواری و ستون pauseFrequency دارم. من آن را انجام دادم. من در واقع با همه جفت‌های سختی/فرکانس به یک شکل رفتار می‌کنم، فرقی نمی‌کند از یک گروه باشند یا از یک هفته یا هر چیز دیگری باشند. من با آنها به عنوان یک مشاهده فردی رفتار می کنم. من از R برای تجزیه و تحلیل استفاده می کنم، سپس یک آزمون همبستگی رتبه کندال مانند زیر انجام دادم: cor.test(pauseFrequency,video.difficulty,method=kendall) البته این یک نتیجه ایجاد کرده است، اما مطمئن نیستم که اینطور باشد. درست است.من دو نگرانی دارم: 1. اندازه گیری من در واقع طولی و تکراری است، هر کاربر در هر گروه 5 بار اندازه گیری می شود. 2. وظیفه برای هر هفته در واقع متفاوت است. اگرچه آنها به مدت 5 هفته فیلم های یک دوره را تماشا کردند، اما هر هفته یک سری فیلم های متفاوت (با محتوا و طول های مختلف) را تماشا می کنند. مشاهدات در واقع مستقل نیستند. چگونه می توانم این عدم استقلال را در تجزیه و تحلیل داده های خود جبران کنم؟
یافتن همبستگی در تحلیل داده های طولی
46509
من دو تابع چگالی را در R ایجاد کردم و سعی کردم آنها را روی یک نمودار رسم کنم، اما به دلایلی نمی توانم نمودارهای کامل را ببینم. این کد R است: v3 <- rt(100000, 1)/sqrt(3-2) w3 <- rchisq(100000,2) z3 <- rnorm(n=100000, m=0, sd=1) z_eff_3 < - v3 + z3 * sqrt((3*(1+v3*v3))/w3) نمودار(تراکم(z_eff_3،از=0،تا=5)،xlim=c(0،5)) v4 <- rt(100000, 1)/sqrt(4-2) w4 <- rchisq(100000،3) z4 <- rnorm(n=100000، m=0، sd=1) z_eff_4 <- v4 + z4 * sqrt((4*(1+v4*v4))/w4) lines(density(z_eff_4,from=0,to=5),xlim=c(0,5),col = blue) آیا می دانید چگونه این را رفع کنیم؟
رسم دو چگالی روی یک نمودار در R
52561
من سعی می کنم ویژگی های یک سیگنال را با استفاده از تبدیل موجک یاد بگیرم و سپس تکنیک های ML را روی آن برای طبقه بندی سیگنال اعمال کنم. مشکلی که من با آن روبرو هستم این است که در هر یک از سطوح تجزیه، سیگنال من یک بردار دارد و من بیش از 10000 سیگنال دارم. یا اجازه دهید دوباره بیان کنم: فرض کنید می‌خواهم طبقه‌بندی کنم که آیا خانه‌ای به فروش می‌رسد یا خیر. هر خانه دارای ویژگی های زیادی است که به من اجازه می دهد تصمیم بگیرم. در ماتریس ویژگی من، هر ردیف نشان دهنده یک خانه است. و در هر ردیف، هر ستون یک متغیر تصادفی مربوط به اندازه، چمن، پلان و غیره را نشان می دهد. اما در مورد موجک ها، من یک سیگنال دارم که آن را تجزیه کرده ام. هر سطح از تجزیه یک بردار مرتبط با خود دارد. و سیگنال های زیادی وجود دارد. اکنون در ماتریس ویژگی من، هر ردیف نشان دهنده یک سیگنال واحد است. و هر سطر هر ستون یک متغیر تصادفی است که قرار است اسکالر باشد، اما در این حالت، بردار است. کسی میدونه چطور میشه با این مشکل برخورد کرد؟ نمی‌توانم میانگین‌گیری یا منظور یا فرض کنم که به هیچ توزیعی تعلق دارد، انجام دهم.
موجک ها و یادگیری ماشین
17177
من با چاپ/ایجاد تصاویر سیاه و سفید و خاکستری با ggplot2 مشکل دارم. من سعی کرده‌ام گرافیک‌های سیاه و سفید و خاکستری را برای انتشار بسازم، آن‌ها روی مانیتور من و همه افراد عالی به نظر می‌رسند، اما هنگام چاپ رنگی ظاهر شدند. (یک عکس افتضاح از نتیجه اینجاست: http://i.imgur.com/UuB6A.jpg) به عنوان مثال: p <- qplot(displ, hwy, data = mpg) p <- p + facet_wrap(~ cyl) + theme_bw() pdf(testplot.pdf,width=7.6,height=3.6) p dev.off() تصویر تولید شده و خروجی pdf روی صفحه نمایش عالی به نظر می‌رسد، اما حاشیه‌ها و عنوان‌ها هنگام چاپ به رنگ قرمز هستند. آن را امتحان کنید! من نتایج یکسانی را هنگام خروجی به یک .png و همچنین هنگامی که مستقیماً از پنجره گرافیک R چاپ می کنم، دریافت می کنم. به گفته دوستم که تجربه ای در دستکاری تصویر دارد، تصاویری که برایش فرستاده ام دارای تکه های رنگی مطابق با هیستوگرام رنگی هستند. آیا راهی برای تولید تصاویر واقعی B&W و مقیاس خاکستری با استفاده از ggplot وجود دارد؟ من سعی کردم مقیاس خاکستری (شاید خیلی ساده لوحانه!) را با استفاده از colormodel=grey در دستور pdf() اجباری کنم، اما تفاوتی ایجاد نمی کند. هر گونه کمکی بسیار قدردانی خواهد شد.
مشکل در چاپ تصاویر ggplot2 در مقیاس خاکستری یا B&W
64483
من اخیراً آزمایشی را انجام دادم که شرکت کنندگان را در یکی از دو شرایط، با ترویج شباهت بین دو گروه، یا تأکید بر تفاوت های بین دو گروه، دستکاری کرد. سپس یک رگرسیون چندگانه انجام دادم تا بفهمم چه چیزی میزان مالیاتی را که یک شرکت‌کننده حاضر است برای گروه دیگری بپردازد، پیش‌بینی می‌کند. از آنجایی که تجزیه و تحلیل اکتشافی بود، همه متغیرها از جمله شرایط دستکاری اسمی خود را اضافه کردم (گروه 1 = ترویج شباهت ها، گروه 2 = تأکید بر تفاوت ها). تجزیه و تحلیل مشخص کرد که تهدید نمادین (تهدید احساس شده از ارزش های فرهنگی دیگران) و شرایط (که دستکاری به شرکت کننده اختصاص داده شده است، به عنوان مثال فرد متعلق به کدام گروه است) DV را پیش بینی می کند (مبلغی که برای گروه دیگر در مالیات پرداخت می شود). من فقط تعجب کردم، آیا عجیب و غیرعادی است که شرایط دستکاری خود را به عنوان یک پیش بینی در یک رگرسیون چندگانه اضافه کنید؟ من مقیاسی ساختم که قرار بود دستکاری را اندازه گیری کند و بین گروه ها تفاوت معنی داری داشت. با این حال، هنگام انجام MR، این به عنوان یک پیش بینی در نظر گرفته نمی شود... هنگام استفاده از شرایط دستکاری (گروه 1 یا 2) شامل می شود. من واقعا نمیفهمم چرا اینطوریه هر توصیه ای واقعا قدردانی خواهد شد. از اینکه برای خواندن این مطلب وقت گذاشتید و نظرات مفیدی که داشتید متشکرم. ریچارد
آیا شرایط دستکاری شما می تواند پیش بینی کننده یک رگرسیون چندگانه باشد؟
60476
من یک رگرسیون در شهرستان های ایالات متحده انجام داده ام، و در حال بررسی هم خطی بودن در متغیرهای مستقل خود هستم. Belsley، Kuh و Welsch's _Regression Diagnostics_ پیشنهاد می کند که به شاخص شرایط و نسبت های تجزیه واریانس نگاه کنید: ## colldiag(, scale=TRUE) برای مدل با برهمکنش Index Condition Variance Decomposition Proportions (Intercept) inc09_10k popsqmi_logs09 phys_per100k nppa_per100k black10_pct hisp10_pct افراد مسن09_pct inc09_10k:unins09 1 1.000 0.000 0.000 0.000 0.000 0.001 0.002 0.002 0.001 0.000 2 3.130 0.000 0.000 0.000 0.000 0.002 0.053 0.011 0.148 0.231 0.000 0.000 0.000 3 3.3000 0.000 0.000 0.000 0.095 0.072 0.351 0.003 0.000 0.000 4 3.839 0.000 0.000 0.000 0.001 0.000 0.143 0.002 0.002 0.000 0.002 5.547 0.000 0.002 0.000 0.000 0.050 0.093 0.592 0.084 0.005 0.002 0.000 6 7.981 0.000 0.000 0.005 0.005 0.005 0.256 0.002 0.040 0.026 0.001 7 11.170 0.000 0.009 0.003 0.000 0.046 0.000 0.018 0.003 0.257 0.2250 0.2250 0.2250 0.003 0.000 0.050 0.029 0.015 0.309 0.023 0.043 0.220 0.094 0.005 0.002 9 18.800 0.009 0.017 0.009 0.003 0.001 0.001 0.047 0.006 0.430 0.041 10 40.827 0.134 0.159 0.163 0.555 0.283 0.015 0.001 0.035 0.008 0.134 0.186 0.008 0.186 0.185 0.008 0.759 0.796 0.219 0.157 0.013 0.002 0.004 0.080 0.069 0.683 ## colldiag(, scale=TRUE) برای مدل بدون تعامل Condition Index Variance Decomposition Proportions)k9_Indecomposition (unteraction) pop10_perSqmi_log phys_per100k nppa_per100k black10_pct hisp10_pct elderly09_pct 1 1.000 0.000 0.001 0.001 0.000 0.001 0.001 0.00400.0030.000. 2 2.988 0.000 0.000 0.001 0.000 0.002 0.030 0.003 0.216 0.253 0.000 3 3.128 0.000 0.000 0.002 0.0001 0.294 0.027 0.000 4 3.630 0.000 0.002 0.001 0.001 0.000 0.160 0.003 0.105 0.248 0.009 5 5.20020000. 0.053 0.087 0.594 0.086 0.004 0.001 6 7.556 0.000 0.024 0.039 0.001 0.143 0.557 0.275 0.002 0.002 0.002 0.002 0.002 0.024 0.087 0.004 0.000 0.278 0.080 0.017 0.371 0.026 0.023 0.147 0.005 0.038 8 13.242 0.000 0.001 0.343 0.006 0.006 0.001 0.343 0.006 0.006 0.328 0.553 9 21.558 0.010 0.540 0.332 0.355 0.037 0.000 0.003 0.003 0.020 0.083 10 50.506 0.1989 0.949 0.393 0.026 0.004 0.016 0.087 0.279 «?HH::vif» نشان می دهد که VIF های > 5 مشکل ساز هستند: ## vif() برای مدل با تعامل inc09_10k unins09 sqmi_log pop10_perSqmi black10_pct hisp10_pct 8.378646 16.329881 1.653584 2.744314 1.885095 1.471123 1.436229 1.789454 1.789454 1.789454 1.789454 1.653584 2.744314 1.885095 11.590162 ## vif() برای مدل بدون تعامل inc09_10k unins09 sqmi_log pop10_perSqmi_log phys_per100k nppa_per100k black10_pct hisp10_pct 1.859426 2.38126 2.376. 1.882828 1.471102 1.404482 1.772352 elderly09_pct 1.545867 در حالی که John Fox _Regression Diagnostics_ پیشنهاد می کند که به ریشه مربع VIF نگاه کنید: ## sqrt(vif) برای مدل unlog09_0 inkcsmi9_0_1 pop10_perSqmi_log phys_per100k nppa_per100k black10_pct hisp10_pct
تشخیص هم خطی تنها زمانی مشکل ساز است که عبارت تعامل گنجانده شود
94106
من نرمال بودن یک نمونه را با R با استفاده از qqnorm آزمایش می کنم. من این را به دست می‌آورم: ![نمودار Q-Q معمولی](http://i.stack.imgur.com/lv2Di.png) می‌دانم که معنای این نمودار این است که نمونه دارای دم‌های چربی است. اما معنای مقادیر روی محور $x$ چیست؟ آیا آنها انحراف معیار هستند؟ آیا آنها چندک هستند؟ اگر آنها انحراف معیار باشند، من متوجه می شوم که بیش از 99 درصد از امتیازها به خوبی از توزیع نرمال پیروی می کنند. اگر چندک باشند، فقط برای 2/3 امتیاز می توانم بگویم. با این حال، اینجا واقعاً خوب به نظر می رسد: ![هیستوگرام در مقابل توزیع عادی](http://i.stack.imgur.com/OW19H.png)
معنی قطعه ققنرم در ر
46507
وقتی یک رگرسیون خطی تعمیم یافته را برازش می کنیم (به عنوان مثال، رگرسیون لجستیک، رگرسیون گاما)، میانگین جمعیت Y را با توجه به پیش بینی کننده های $X$ (یعنی $E(Y | X)$ تخمین می زنیم. وقتی یک مدل یادگیری ماشینی مانند ANN، SVM یا درخت تصمیم را برازش می‌کنیم، آیا این مفهوم همچنان اعمال می‌شود؟ به عبارت دیگر، آیا ما میانگین جمعیت را $Y$ تخمین می زنیم یا این ایده قابل اجرا نیست و فقط Y را پیش بینی می کنیم؟ **افزودن پس از پاسخ دیکران:** I. کدام جنبه از تئوری الگوریتم مدل سازی پیش بینی به ما می گوید که ما در حال مدل سازی E(Y|X) در مقابل Y|X هستیم؟ آیا استفاده از یک عبارت خطا است که از توزیع خاصی پیروی می کند؟ به عنوان مثال، ANN در مقابل درخت تصمیم چیست که مدل های قبلی E(Y|X) را به ما می گوید در حالی که دومی Y|X را مدل می کند؟ II. آیا ارتباطی بین اینها وجود دارد و می گویند فاصله اطمینان در مقابل فاصله پیش بینی در رگرسیون خطی؟
یادگیری ماشین ارزش پیش بینی شده
46502
عنوان تمام سوال من است.
چرا منحنی ROC یک طبقه‌بندی تصادفی، خط $x=y$ است؟
60470
من یک سوال در مورد کدگذاری متغیرها در r برای مدل های رگرسیون خطی دارم: من تجزیه و تحلیل رگرسیون را انجام دادم تا اهمیت نسبی 12 متغیر را در پیش بینی متغیرهای مختلف پاسخ پیوسته پی ببرم. من می خواهم از انواع مدل های رگرسیون خطی (OLS، GLM با توزیع دوجمله ای، مدل های خودرگرسیون همزمان) استفاده کنم. همه متغیرهای پیش‌بینی‌کننده پیوسته هستند، به جز متغیری که توضیح می‌دهد آیا کشوری در یک برنامه بین‌المللی شرکت می‌کند یا خیر. اساساً عاملی با کدگذاری باینری است (کشور شرکت می کند: 1/0). من مدل‌ها را با وضوح‌های فضایی مختلف اجرا کردم (یعنی سلول‌های شبکه با اندازه‌های متفاوت). از آنجایی که شبکه‌های درشت‌تر تعداد زیادی سلول دارند که با کشورهای شرکت‌کننده غیرشرکت‌کننده همپوشانی دارند، به‌جای کدگذاری متغیر به‌عنوان باینری، نسبت هر سلول شبکه‌ای را که در یک کشور شرکت‌کننده قرار دارد محاسبه کردم. من مقادیر به دست آمده (بین صفر و یک) را تغییر دادم و آنها را در مدل های رگرسیونی خود به عنوان پیوسته در نظر گرفتم. اکنون آنها را به عنوان میزان مشارکت یک سلول شبکه تفسیر می کنم. مشکل این است که در حالی که نمودارهای پراکندگی در وضوح‌های درشت خوب به نظر می‌رسند، در وضوح‌های خوب، تنها بخش کوچکی از سلول‌های شبکه واقعاً در مرزهای بین کشورها قرار دارند، بنابراین اکثریت قریب به اتفاق سلول‌های شبکه همچنان به صورت صفر و یک کدگذاری می‌شوند. بر این اساس، طرح پراکندگی کاملاً ناخوشایند به نظر می رسد. آیا کسی می تواند برای من توضیح دهد که کدام فرضیات (در صورت وجود) را برای OLS، GLM دوجمله ای، SAR یا به طور کلی نقض می کنم؟ و البته که آیا این یک مشکل اساسی است یا اینکه آیا من هنوز می توانم از آن خلاص شوم (یا بازبینان من را از هم جدا می کنند)؟ من قبلاً همه مدل‌هایم را اجرا کرده‌ام و زمان زیادی طول کشید، بنابراین اگر کاملاً ضروری نباشد، در انجام دوباره همه کارها کمی تردید دارم. خیلی ممنون از کمکتون!! کارستن
کد باینری مقوله ای (شرکت می کند: بله/خیر) به عنوان یک متغیر پیوسته (نسبت سلول ها در کشور شرکت کننده) در مدل رگرسیون خطی؟
9517
من برای یک شرکت مبتنی بر کمیسیون کار می کنم که حدود یک ماه به کارمندان اکانت می دهد و کارمندان سعی می کنند حساب را حل کنند، اگر موفق شوند کمیسیون دریافت می کنند وگرنه حساب به کارمند دیگری می رود تا حل کند. ما در حال اجرای برخی گزارش‌ها برای اندازه‌گیری برخی ویژگی‌های عملکرد شرکت هستیم. ما سال ها داده ای داریم که می توانیم آن ها را تحلیل کنیم. سوال من این است: ** چه خلاصه ای (میانگین یا میانگین) می تواند به بهترین وجه گرایش مرکزی طول زمان برای حل یک حساب به ازای هر کارمند را توصیف کند؟ ** تقریباً میانگین هر کارمند از میانگین آنها بیشتر است، برخی از آنها بیشتر از دیگران فاصله دارند. یکی از مواردی که ما در تلاشیم آن را پیدا کنیم این است که اگر به یک کارمند حساب کاربری بدهیم، چقدر طول می کشد تا آن را حل کند. به نظر من میانگین خلاصه بهتری است.
اینکه آیا از میانگین یا میانه برای خلاصه کردن تمایل مرکزی طول زمان برای انجام یک کار استفاده شود
104811
نقش پارامتر آلفا در بسته recommenderlab R از روش جاکارد در مدل توصیه‌گر برای ماتریس اولویت‌های کاربر بولی چیست؟ یعنی `method=Jaccard,param=list(...,alpha=0.5) ? من کد IBCF (فیلترسازی مشارکتی مبتنی بر آیتم) را دیدم و آنها از یک تابع عدم تشابه استفاده کردند. اما این تابع در CRAN PDF رسمی برای بسته «recommenderlab» تعریف نشده است. کسی میتونه لطفا کمک کنه؟
پارامتر $\alpha$ در روش Jaccard برای باینریRatingsMatrix در R rekomanderlab چه می کند؟
90619
من می خواهم فاصله اطمینان را برای مجموعه داده های خود تعیین کنم. من داده ها را با نمونه برداری از چندین توزیع عادی و اجرای شبیه سازی مونت کارلو به دست آورده ام. می‌خواستم بدانم چگونه می‌توانم فاصله اطمینان برای $\mu$ داده‌هایم را تعیین کنم؟ من $\mu$ یا $\sigma$ داده های جمعیت را نمی دانم. همچنین، آیا راهی وجود دارد که بتوانم درصد اطمینان مرتبط با داده‌های نمونه‌گیری شده را که نمایانگر خوبی از داده‌های کلی است، تعیین کنم؟ _آیا این امکان پذیر است؟ **ویرایش**: % هر یک از پارامترهای ورودی به Nielsenneworiginal() نمونه هایی از Normal Distributions هستند. % یک مقدار منفرد از خروجی Nielsenneworiginal() سپس به thresh_strain اختصاص داده می شود و نموداری از آن خود توزیع عادی را ارائه می دهد. تابع [final_matrix] = MCsolutionsimilar() tic no_iterations = input('تعداد تکرارها؟:'); thresh_strain = صفر (بدون_تکرار، 1); % casechoice =input('1 را برای اولین لایه و 2 را برای لایه دوم وارد کنید:'); diamchoice = input('1 را برای درخت کریسمس و 2 را برای استوانه ای وارد کنید'); [لایه، overall_p0] = fibreanglerng(no_iterations, casechoice); % [E11 E22] = elasticmodulusrng(); % N/m^2 Ef = 235e9; Em = 3.5e9 ; %GPa [vol_f, overall_p1] = vol_fraction(no_iterations); E11 = (Ef.*vol_f) + (Em.*(1-vol_f)); E22 = 1./((vol_f./Ef) + ((1-vol_f)./Em)); درصد پواسون نسبت nuf = 0.340; تعداد = 0.33; v12 = (nuf*vol_f) + num*(1-vol_f); % % مدول برشی Gf = 96.52; Gm = 1.8; %GPa G12 = (Gf*Gm)./(vol_f .* Gm + (Gf.*(1-vol_f))); [GIC، overall_p2] = shearmodulusstrainenergyrng(no_iterations); [diamfromimpact_energy, dentsize, overall_p3] = impactenergyrng(no_iterations); [diam, overall_p4] = diameterng(بدون_تکرار، انتخاب دیام، دیم از تاثیر_انرژی)؛ [time] = زمان تشخیص (بدون_تکرار)؛ [new_dentsize] = dent_size(dentsize,time); برای i=1:no_iterations برای j=1:16 [J] = Nielsenneworiginal(layup,E11(1,i),E22(1,i),v12(1,i),G12(1,i),GIC( 1، من))؛ if (isreal(J(1,j)))==0 J(1,j) = sqrt(imag(J(1,j))^2 + (واقعی(J(1,j)))^2) ; end [thresh_strain(i,1), I] = min(J,[],2); پایان %%%%%%% قطعه 1 %%%%%%%%%%%%% شکل(1); clf(1) [mu_j,sigma_j] = normfit(thresh_strain); x=linspace(mu_j-4*sigma_j,mu_j+4*sigma_j,200); pdf_x = 1/sqrt(2*pi)/sigma_j*exp(-(x-mu_j).^2/(2*sigma_j^2)); طرح (x,pdf_x/10000); title(sprintf('Mu = %g, sigma = %g',mu_j,sigma_j)); xlabel('Threshold Strains','FontSize',12); ylabel('احتمالات وقوع','FontSize',12); title('\it{Threshold Strains در مقابل احتمال وقوع (پیکربندی قطر درخت کریسمس)}','FontSize',16); شکل (2)؛ clf(2) X_j = min(thresh_strain) : (max(thresh_strain) - min(thresh_strain))/100 : max(thresh_strain); P_j = normcdf(abs(X_j),real(mu_j),real(sigma_j)); عنوان ('Cdf معمولی') طرح (X_j, P_j,' blue.-')
تعیین فاصله اطمینان داده های مونت کارلو
59062
من تازه با زبان R آشنا هستم. من می خواهم بدانم چگونه از یک مدل رگرسیون خطی چندگانه شبیه سازی کنم که هر چهار فرض رگرسیون را برآورده می کند.
شبیه سازی رگرسیون خطی چندگانه
105032
من نتوانستم بفهمم از کدام آزمایش برای داده هایم استفاده کنم، بنابراین امیدوارم بتوانید مرا در مسیر درست راهنمایی کنید. من داده های متیلاسیون DNA آرایه ای برای 5 خانواده دارم. از هر خانواده 1-2 مورد و 1-2 کنترل دارم. موارد و گروه‌های کنترل به گونه‌ای جفت می‌شوند که با هم سنی و همجنس باشند (خواهران زوجی). در کل من 9 مورد و 8 کنترل دارم (بنابراین یک مورد کنترل منطبق ندارد). من سعی کردم همه موارد را با همه کنترل ها با رگرسیون خطی و تصحیح برای آزمایش چندگانه (بونفرونی) مقایسه کنم. من هیچ چیز قابل توجهی نداشتم - علت. سوال اول: آیا استفاده از این تست منطقی است - شاید با مقایسه میانگین ها برای هر CpG بهتر باشد؟ در این صورت کدام آزمون را باید انتخاب کنم؟ سئوال دوم: آیا اصلاح چندین آزمایش با این حجم نمونه کوچک منطقی است؟ در صورت بله، از کدام اصلاح استفاده کنم؟ از طرف دیگر، من می خواهم یک مقدار خاص خانواده را برای هر سایت CpG محاسبه کنم (مقایسه موارد در یک خانواده با کنترل های یک خانواده). اما این باعث می شود که حجم نمونه خود را بیشتر به 1-2 نمونه در هر گروه کاهش دهم. شاید آزمایشی وجود داشته باشد که بتواند همه نمونه‌ها را در نظر بگیرد اما همچنان یک مقدار خاص خانواده را به من بدهد؟ من از همه ایده ها استقبال می کنم! با تشکر
هنگام تجزیه و تحلیل تفاوت متیلاسیون با حجم نمونه بسیار کوچک از چه آزمایشی استفاده کنیم؟
27662
اقتصاد سنجی با آمارهای سنتی همپوشانی قابل توجهی دارد، اما اغلب از اصطلاحات خاص خود در مورد موضوعات مختلف (شناسایی، برون زا و غیره استفاده می کند. من یک بار شنیدم که یک استاد آمار کاربردی در رشته دیگری اظهار نظر می کند که اغلب اصطلاحات متفاوت است اما مفاهیم یکسان است. با این حال، روش ها و تمایزات فلسفی خاص خود را نیز دارد (مقاله معروف هکمن به ذهن می رسد). چه تفاوت‌هایی بین اقتصاد سنجی و آمارهای رایج وجود دارد، و این رشته‌ها در چه مواردی از هم جدا می‌شوند تا در اصطلاحات صرفاً متفاوت شوند؟
تفاوت های عمده فلسفی، روش شناختی و اصطلاحی بین اقتصاد سنجی و سایر زمینه های آماری چیست؟
49337
من مشکلی دارم که $$y = a + b $$ من y را مشاهده می کنم، اما نه $a$ و نه $b$. من می خواهم $$b = f(x) + \epsilon$$ را تخمین بزنم. می توانم $a$ را با استفاده از نوعی مدل رگرسیون تخمین بزنم. این به من $\hat b$ می دهد. سپس می‌توانم $$\hat b = f(x) + \epsilon$$ را تخمین بزنم مشکل اول: یک مدل رگرسیونی برای پیش‌بینی $a$ می‌تواند منجر به منفی بودن $\hat b$ شود، که هیچ منطقی ندارد. مطمئن نیستم که چگونه می توان از این موضوع دور شد (مشکلی که من زیاد با آن برخورد کرده ام نیست) اما به نظر می رسد مانند چیزی است که دیگران به طور معمول با آن برخورد می کنند. نوعی GLM غیر گاوسی؟ مشکل اصلی نحوه محاسبه عدم قطعیت در مدل اصلی است که از تخمین $\hat b$ ناشی می شود. من قبلاً از انتساب چندگانه برای متغیرهای کمکی گم شده استفاده کرده ام. اما این یک پارامتر نهفته گم شده است. متناوبا، داده‌های نتیجه است که به نظر می‌رسد خوب باشد. با این حال من اغلب از EM می شنوم که برای پارامترهای نهفته استفاده می شود. من مطمئن نیستم که چرا، و همچنین نمی دانم که آیا EM در این زمینه ها بهتر است یا خیر. MI برای درک، پیاده سازی و برقراری ارتباط بصری است. درک EM شهودی است، اما پیاده سازی آن دشوارتر به نظر می رسد (و من آن را انجام نداده ام). آیا EM برای مشکلی که در بالا دارم برتر است؟ اگر چنین است، چرا؟ دوم، چگونه می توان آن را در R برای یک مدل خطی یا برای یک مدل نیمه پارامتریک (GAM) پیاده سازی کرد؟
مزایای نسبی بیشینه سازی چندگانه و انتظارات (EM)
52564
تصور کنید 80 بازیکن دوجبال در جهان وجود دارد. هر یک از آنها هزاران بازی دجبال را با 79 بازیکن دیگر به ترتیب کم و بیش تصادفی انجام داده اند. این دنیای بدون تیم است (به عنوان مثال، هر بازیکنی در هر بازی شانس دارد که در هر یک از تیم‌ها دراورت شود). من میزان برد قبلی هر بازیکن را می دانم (به عنوان مثال، یکی 46٪ از تمام بازی های قبلی را برده است، دیگری 56٪ از تمام بازی های قبلی خود را برده است). فرض کنید یک مسابقه در راه است و من می دانم چه کسی در هر تیم بازی می کند. نرخ برد قبلی آنها را هم می دانم. بهترین راه برای محاسبه احتمال برنده شدن هر تیم بر اساس ترکیب تیم چیست؟ اگر به محاسبه نسبتاً پیشرفته نیاز دارد (به عنوان مثال، رگرسیون لجستیک) برخی از جزئیات را به من اطلاع دهید. من با SPSS آشنایی کامل دارم، اما نیازی به پرسیدن سوال بعدی ندارم. علاوه بر این، چگونه می توانم دقت روش خود را با استفاده از داده های آرشیوی کشف کنم؟ من می دانم که مشخص نیست زیرا اکثر بازیکنان در حدود 40-60٪ شناور هستند اما همچنان. به طور خاص، شانس بردن تیم A چقدر است؟ الف - متشکل از افراد با نرخ برد قبلی 52٪، 54٪، 56٪، 58٪، 60٪ B - شامل افراد با نرخ برد قبلی 48٪، 55٪، 56٪، 58٪، 60٪ (این فقط یک مثال تصادفی برای اهداف گویا است.) ویرایش: آیا راهی وجود دارد که با یک الگوریتم بسیار ساده شروع کنید و سپس ببینید چگونه کار می کند؟ شاید بتوانیم به سادگی درصدهای هر تیم را جمع کنیم و پیش بینی کنیم که تیمی که بالاترین درصد را دارد برنده می شود. البته طبقه بندی ما دقیق نخواهد بود، اما در طول هزاران بازی آرشیو شده، می توانیم ببینیم که آیا می توانیم بهتر از شانس پیش بینی کنیم یا خیر.
چگونه می توانم شانس برد یک تیم دجبال را بر اساس تاریخچه برنده شدن بازیکنانش پیش بینی کنم؟
64482
از ویکی‌پدیا > آزمون اجراها (که بعد از آبراهام والد و ژاکوب > ولفوویتز، تست والد-ولفویتز نیز نامیده می‌شود) یک آزمون آماری ناپارامتریک است که یک فرضیه تصادفی را برای یک توالی داده‌های دو ارزشی بررسی می‌کند. به طور دقیق تر، می توان از آن برای آزمایش این فرضیه استفاده کرد که عناصر دنباله از یکدیگر مستقل هستند. 1. می خواستم بدونم که آیا فرضیه صفر آن این است که عناصر دنباله iid هستند؟ (توجه داشته باشید که نقل قول فقط به استقلال متقابل اشاره می کند.) 2. اگر دنباله سه ارزشی باشد چه؟ با تشکر و احترام!
فرضیه صفر آزمون اجراها
104816
من در برازش یک مدل بر روی داده ها مشکل دارم. اساساً، من اطلاعاتی در مورد ارزیابی ویژگی فنوتیپی (یعنی سخت) 65 درخت نخل توسط 5 داور دارم. به عنوان یک طرح ارزیابی، هر داور به هر نمونه امتیاز می دهد. داده‌های نمونه برای 3 داور به این شکل است: داور محصول سخت aa 1 5 ab 1 6 ac 1 3 aa 1 7 ab 1 5 ac 1 4 aa 2 5 ab 2 8 ac 2 6 aa 2 7 ab 2 4 ac 2 4 هدف اصلی در اینجا برای بدست آوردن ضرایب محصول با خطاهای داوری کمتر است، که می‌خواهم این مدل را برای آن مناسب کنم: $$Y_{ij} = α_i + β_iθ_j + ε_{ij}$$ _i_ = داور، _j_ = محصول در اینجا، $α_i$ ضرایب اصلی قضاوت، $_i$ ضرایب قضاوت به دلیل تفاوت در الگوی امتیازدهی آنها و $θ_j$ ضرایب محصول و $ است. ε_i$ وابسته به ارزیاب است. من سعی کردم این مدل را با استفاده از تابع 'lme' در R جا بزنم، اما برای برازش عبارت تعامل با مشکل مواجه هستم زیرا مدل در اینجا برای پارامترها به جای متغیرهای کمکی برازش می‌کند. این مدل برای نوع داده های من کاملاً دقیق به نظر می رسد. من نسخه بیزی (http://www.r-bloggers.com/extending-the-sensory-profiling-data- model/) آن را دیده‌ام و نمی‌دانم چگونه با استفاده از رویکرد مدل‌سازی ترکیبی یا در یک روش مکرر سوالات من در اینجا عبارتند از: الف) روش مناسبی برای برازش این نوع مدل چیست؟ من به ادبیات زیادی اشاره کرده بودم که در آن توضیحاتی در مورد حداقل مربعات تعمیم یافته تکراری، مدل چند سطحی، مدل رگرسیون جداگانه، مدل حداقل مربعات وزنی داده شده است. اما هنوز نمی‌دانم چگونه می‌توانم از مقدار تخمینی پارامترها در شرایط تعامل استفاده و برازش کنم و ضرایب جداگانه برای هر دو پارامتر تعاملی بدست بیاورم؟ ب) چگونه می توانم خطای ناهمگن را در این فرم دریافت کنم؟ ج) از کدام بسته R می توانم استفاده کنم؟
چگونه یک اثر ضربی یک پارامتر را مدل کنیم
2504
آیا می توان محدود بودن (یا وجود) واریانس یک متغیر تصادفی را با یک نمونه آزمایش کرد؟ به عنوان صفر، یا {واریانس وجود دارد و محدود است} یا {واریانس وجود ندارد/بی نهایت است} قابل قبول است. از نظر فلسفی (و محاسباتی)، این بسیار عجیب به نظر می رسد، زیرا بین جمعیتی بدون واریانس محدود، و جمعیتی با واریانس بسیار زیاد (مثلا > $10^{400}$) نباید تفاوتی وجود داشته باشد، بنابراین من امیدوار نیستم که این مشکل بتواند حل شود. یکی از رویکردهایی که به من پیشنهاد شده بود از طریق قضیه حد مرکزی بود: با فرض اینکه نمونه ها i.d هستند و جامعه دارای میانگین محدود است، می توان به نحوی بررسی کرد که آیا میانگین نمونه با افزایش حجم نمونه خطای استاندارد مناسبی دارد یا خیر. با این حال، مطمئن نیستم که این روش کارساز باشد. (به ویژه، من نمی دانم که چگونه آن را به یک آزمون مناسب تبدیل کنم.)
تست واریانس محدود؟
9519
من در حال ایجاد یک اصطلاح برای توصیف طرحی هستم که ممکن است اصطلاح مناسبی نباشد (طراحی در درون موضوعات). منظور من از این این است که می توان طراحی درون سوژه ای را با 3 سطح تصور کرد. هر شرکت‌کننده داده‌ها را برای دو سطح ارائه می‌کند و ترتیب جمع‌آوری داده‌ها بین شرکت‌کنندگان متوازن است. به عنوان مثال (ترتیب شرط در سلول های جدول زیر است؛ با عرض پوزش برای قالب بندی جدول، من تمام تلاشم را کردم، اما فکر می کنم شما به اصل مطلب پی خواهید برد): شرط شرکت کننده شرط A شرط ب شرط C 1 1 2 2 2 1 3 1 2 4 2 1 5 1 2 6 2 1 7 1 2 8 2 1 9 1 2 10 2 1 11 1 2 12 2 1 آیا این نوع طراحی نامی دارد؟ عواقب چنین طراحی چیست؟ چگونه می توان آن را تحلیل کرد؟ می‌دانم که احتمالاً می‌توانم از یک مدل ترکیبی برای تجزیه و تحلیل این داده‌ها استفاده کنم، اما کنجکاو هستم که از تحلیل‌های سبک ANOVA/t-test برای این نوع داده‌ها استفاده کنم، زیرا این رویکردهای آماری برای بسیاری در زمینه من آشناتر است. منطق چنین طراحی ممکن است این باشد که شما زمان محدودی با هر شرکت‌کننده دارید و بنابراین نمی‌توانید آن‌ها را از طریق هر سه شرط اجرا کنید، اما هر شرکت‌کننده چه در 1 شرط یا در 2 شرط شرکت کند، باید یک پاداش دریافت کند. به نظر می رسد، با توجه ویژه، این داده ها می توانند به صورت ANOVA بین آزمودنی ها (مانند آزمون t بین آزمودنی ها) یا ANOVA درون آزمودنی ها اجرا شوند. من نکاتی را مطرح می کنم و اگر پاسخ دهنده به این سوال این نکات را بپذیرد یا رد کند ممنون می شوم. 1. من می‌توانم یک آنووای درون آزمودنی‌ها را بر روی این داده‌ها انجام دهم و هر دو شرط تلاقی شرایط را با ترتیب آزمایشی نیز به‌عنوان یک عامل درون آزمودنی مقایسه کنم (انتظار دارم اثرات دستور آزمایشی غیر قابل توجه باشد). 2. اگر اثرات اصلی نظم وجود داشته باشد، بر اعتبار برآورد من از میزان دقیق اثر نشان داده شده توسط هر شرط تأثیر می گذارد، اما بر تحلیل های بعدی تأثیر نمی گذارد. 3. اگر بین یک شرط و ترتیب تعاملی وجود داشت، من نباید هیچ تحلیلی بین آزمودنی ها بر روی داده های حاصل از مرتبه 2 انجام دهم. یکی برای داده‌های مرتبه 1 و دیگری از مرتبه 2 (زیرا استفاده از داده‌های هر دو در یک تحلیل بین آزمودنی‌ها، فرض استقلال را نقض می‌کند). اگر می توانستم همه این آمارها را اجرا کنم، با استفاده از همان داده ها 3 تست آماری داشتم. هر یک از آزمون‌های بین آزمودنی‌ها تکرار کاملی از مقایسه بین شرط A و B است. آزمون‌های درون آزمودنی فرضیه من را تأیید می‌کند که ترتیب آزمایش مهم نیست و اجازه می‌دهد تا آزمون‌های بین آزمودنی‌ها اعمال شود. اگر نتوانم اهمیتی را در تجزیه و تحلیل بین موضوعات خود پیدا کنم، تحلیل درون موضوعاتم ممکن است قدرت بیشتری به من بدهد که به من امکان می دهد ارزیابی کنم که آیا فرضیه من به اندازه کافی برای اجرای یک مطالعه اضافی پشتیبانی می شود یا اینکه آیا من درخت اشتباهی را پارس می کنم.
آیا ادبیاتی در مورد طرح های مبهم درون موضوعات وجود دارد؟ عواقب چنین طراحی چیست؟
90617
من می دانم که چگونه هیستوگرام را عادی سازی کنم (به طوری که ناحیه = 1) با همان پهنای bin یکسان باشد، اما چگونه این کار را انجام دهم وقتی که هیستوگرام دارای عرض بن متفاوت است؟ هر ایده ای؟
هیستوگرام با عرض سطل های مختلف عادی شود؟
9512
من یک داده سری زمانی 30 ساله دارم و دریافتم که ARIMA(0،1،1) بهترین مدل را در میان مدل های دیگر دارد. من از تابع simulate.Arima (بسته پیش بینی) برای شبیه سازی سری در آینده استفاده کرده ام. مجموعه کتابخانه (پیش بینی) <- ts(seq(25,55), start=c(1976,1)) arima_s <- Arima(series, c(0,1,1)) شبیه سازی(arima_s, nsim=50, آینده =صحیح) بعداً، مقدار به روز شده اولین سال پیش بینی شده (یعنی سری [31] <\- 65) را پیدا کردم. اکنون می خواهم سری را با این مقدار به روز شده شبیه سازی کنم. من تعجب می کنم که چگونه این کار را در R انجام دهم.
چگونه پیش بینی ARIMA را در R به روز کنیم؟
91059
من می خواهم یک مدل چند سطحی شامل متغیرهای زیر را مشخص کنم: * DV: داده های شمارش، یعنی یک مقدار امتیاز بین 0 تا 13 (ناشی از یک شاخص افزایشی) برای هر فرد * سطح فردی IV: 4 متغیر اجتماعی-اقتصادی * سطح گروه IVs: 2 ویژگی محله داده ها شامل تقریباً 2000 مشاهدات تو در تو در 150 محله است. تأثیرات بافت محله‌ها، یعنی نقش میانجی آن‌ها بر متغیرهای سطح فردی، مورد توجه است. بنابراین من می خواهم یک شیب متغیر، مدل چندسطحی رهگیری متفاوت از جمله اصطلاحات تعامل سطح متقابل را مشخص کنم. اما سوال من به DV مربوط می شود. با توجه به خاصیت DV به عنوان داده های شمارش، من به فکر آزمایش بیش از حد پراکندگی افتادم و در صورت پراکندگی بیش از حد، باید هنگام انتخاب توزیع مناسب آن را در نظر بگیرم. با این حال، من در مورد مشکل پراکندگی بیش از حد در مدل‌های چندسطحی و پیاده‌سازی در «R»، حتی پس از مطالعه زیاد در این انجمن و ادبیات مرتبط، کاملاً سردرگم هستم. من در حال حاضر از بسته lme4 استفاده می کنم و دو سوال نسبتاً اساسی دارم: 1. چگونه می توانم برای پراکندگی بیش از حد آزمایش کنم؟ 2. چگونه آن را در مدل حساب کنم؟
مشخصات مدل چند سطحی برای داده های شمارش (با پراکندگی بیش از حد) در R
81705
من سعی می کنم انحراف معیار را درک کنم. من نحوه تعیین انحراف معیار در یک گروه را می‌دانم، اما استفاده از انحراف معیار را برای مقایسه گروه‌ها درک نمی‌کنم. آیا سعی می کنم از ابزار صحیح استفاده کنم؟ به عنوان مثال، گروه 1، 2011، برای 10 نفر، این نتایج عبارتند از: 99 98 91 89 88 74 74 72 67 56 میانگین = 81 واریانس = 18 17 10 8 -7 -7 -9 -14 -25 324 289 10 49 49 81 196 625 1777/10 = 178 بنابراین stdev = 13 گروه 2، 2012، برای 10 نفر، این نتایج است: 99، 91، 90، 88، 87، 86، 84، 83، 74، 65 میانگین = 85 واریانس = 80 stdev = 9 1) اگر فرض کنیم که آزمون ها به طور مشابه سخت بودند، اما ممکن است سوالات کمی متفاوت باشد، آیا این درست است که فرض کنیم هر دو دانش آموز با 99 توانایی یکسانی دارند؟ یا باید سیب ها را با سیب ها با تنظیم هر دو مجموعه نمرات به میانگین مجموعه ای مثلاً 80 مقایسه کنم؟ اگر نیاز به تنظیم داشته باشم برای مقایسه عادلانه چه کار کنم و اسمش چیست؟
درک نادرست استفاده از انحراف معیار در بین گروه ها
48060
بگویید من می خواهم تعیین کنم که آیا بین وزن تولد در جمعیت های مرد و زن رابطه/ارتباط وجود دارد یا خیر. از این رو من میانگین وزن هنگام تولد در مردان و زنان را محاسبه می‌کنم و 95% CI را برای هر کدام با استفاده از این فرمول محاسبه می‌کنم: CI = میانگین +/- 1.96 x SE سپس می‌بینم که آیا میانگین وزن هنگام تولد در گروه زن در داخل CI مرد و معاون قرار دارد یا خیر. برعکس اگر در سناریوی معمولی، هر دو جنس در CI جنس مخالف خود قرار داشته باشند، جنسیت با وزن تولد مرتبط/مرتبط است. با این حال، در غیر این صورت، جنسیت و وزن هنگام تولد با هم ارتباطی ندارند اما به طور قابل توجهی متفاوت هستند. سوال من این است که اگر به عنوان مثال، جمعیت زنان در CI مردانه قرار گیرند، اما جمعیت مردان در CI زنان قرار نگیرند، چه اتفاقی می‌افتد، آیا این امکان وجود دارد؟ آیا به دلیل خطای آماری است؟
نحوه تفسیر همپوشانی یا عدم همپوشانی دو فاصله اطمینان مرتبط
94107
من یک سوال در مورد مدل رگرسیون مقطعی دارم. می‌خواهم بدانم چگونه تغییر متغیرهای توضیحی جمع‌آوری‌شده از یک سال پایه (مثلاً 2005) را وقتی که متغیر وابسته مشاهده‌شده خود را از 2005 به مقادیر مشاهده‌شده در سال دیگر (2010) جایگزین می‌کنم، تفسیر کنم. بنابراین، اگر مدل اولیه من به این شکل باشد: Y (2005) = β1 + β2X (2005) + β3X (2005)…. با متغیرهای مشاهده شده که همه با داده‌های سال 2005 ساخته شده‌اند. اگر من فقط متغیر وابسته Y(2005) خود را به Y(2010) تغییر دهم (برای مثال قیمت‌های خانه مشاهده شده در سال 2005 و 2010) چه اتفاقی می‌افتد؟ بقیه را همان طور که هستند رها کردن. آیا می توانم آن را به عنوان تغییر در اثر متغیرهای توضیحی در طول زمان تفسیر کنم؟ آیا این یک رویکرد رایج است؟ من از هر کمکی که می توانم دریافت کنم سپاسگزارم
تغییر بازه زمانی متغیر وابسته به من چه می گوید؟
64576
اجازه دهید $Y_{t}$ حالت فرآیند در زمان $t$ باشد، ${\bf P}$ ماتریس انتقال باشد سپس: $$ {\bf P}_{ij} = P(Y_{t} = j |. Y_{t-1} = i) $$ از آنجایی که این یک زنجیره مارکوف است، این احتمال فقط به $Y_{t-1}$ بستگی دارد، بنابراین می توان آن را با نسبت نمونه تخمین زد. اجازه دهید $n_{ik}$ تعداد دفعاتی باشد که فرآیند از حالت $i$ به $k$ منتقل شده است. سپس $$ \displaystyle\hat{{\bf P}}_{ij} = \dfrac{ n_{ij} }{ \sum_{k=1}^{m} n_{ik} } $$ where $m $ تعداد حالت های ممکن است ($m=5$ در این مورد). مخرج $\sum_{k=1}^{m} n_{ik}$، تعداد کل حرکات خارج از حالت $i$ است. تخمین ورودی ها به این روش در واقع با برآوردگر حداکثر احتمال ماتریس انتقال مطابقت دارد، که نتایج را به صورت چندجمله ای، مشروط به $Y_{t-1}$ مشاهده می کند. با این حال، اگر زنجیره مارکوف مشاهده شده خیلی کوچک بود، ممکن است یک ماتریس پراکنده ایجاد شود، که نشان می‌دهد برخی از انتقال‌ها غیرممکن است: \begin{align} \widehat{P}_{\text{personal care}}=&\begin{pmatrix} 0&0 & 0 و 1.00 و 0\\\ 0 و 0 و 0.22 و 0.44 و 0.33\\\ 0 & 0.19 & 0.57 & 0.10 & 0.14 \\\ 0.03 & 0.19 & 0.09 & 0.50 & 0.19\\\ 0 & 0.06 & 0.13& 0.56& 0.25\\\ \{پایان مکان و انتها مانند است صاف کردن می تواند استفاده شود برای جایگزینی mle: $$ \hat{{\bf P}}_{ij} = \frac{ n_{ij}+ \alpha}{ \sum_{k=1}^{m} n_{ik} +n_{ ij}\alpha}، $$ که در آن $\alpha$ برخی از پارامترهای هموارسازی است. از چه معیارهایی می توانم برای انتخاب $\alpha$ استفاده کنم؟
انتخاب پارامتر هموارسازی لاپلاس برای انتقال زنجیره مارکوف
58228
فرض کنید من یک خانواده از توزیع‌های (پیوسته) $\mathcal{P}=\\{P_\theta(x)،\theta\in\mathbb{R}^+\\}$ دارم. من همچنین یک آمار $T(x)$ دارم که برای $\theta$ کافی است. مقدار پارامتر $\theta$ ناشناخته است و علاقه من به آن محدود به آزمایش $H_0:\theta=0$ در مقابل $H_1:\theta>0$ است. واضح است که فرضیه جایگزین $H_1$ ترکیبی است، بنابراین لم نیمن-پیرسون اعمال نمی شود. همچنین، متأسفانه، فرمول آزمون آسان یکنواخت قدرتمندترین (UMP) کاربرد ندارد، زیرا من فکر نمی‌کنم که خانواده چگالی‌ها $p_\theta(x)$ نسبت درستنمایی یکنواخت داشته باشند (لمان و رومانو p را ببینید. 65). در واقع، در حالی که برای هر $\theta <\theta'$، توزیع‌های $P_\theta$ و $P_{\theta'}$ متمایز هستند، نسبت $p_{\theta'}(x) /p_\theta(x)$ یک تابع غیر _افزاینده_ (برخلاف غیر کاهشی) $T(x)$ است. من می‌دانم که برآوردگر حداکثر درستنمایی (MLE) $\hat{\theta}_{MLE}$ از $\theta$ تابعی از $T(x)$ است. اما رابطه $T(x)$ با آزمون فرضیه چیست؟ می‌پرسم زیرا یک آزمایش بی‌اهمیت که مشکل من را حل می‌کند می‌تواند به صورت زیر ساخته شود: ابتدا آستانه $\eta$ را انتخاب کنید، سپس تخمین $\hat{\theta}_{MLE}$ را محاسبه کنید و اگر $\hat $H_0$ را بپذیرید {\theta}_{MLE}<\eta$، در غیر این صورت رد کنید. سپس احتمال خطا به انتخاب $\eta$ و مقدار $\theta$ بستگی دارد. اما آیا می توان در مورد بهینه بودن (به نوعی، شکل یا شکل) آزمون مذکور چیزی گفت؟ آیا شرایطی در $\mathcal{P}$ به غیر از تابع درستنمایی یکنواخت که در بالا توضیح داده شد وجود دارد که منجر به بهینه‌سازی شود (شاید چیزی ضعیف‌تر از UMP)؟ آزمایش با استفاده از $\hat{\theta}_{MLE}$ بهترین کاری است که می توانم انجام دهم، با این حال، آیا راهی برای اثبات این جمله وجود دارد؟
آمار کافی و آزمون فرضیه
104810
من مجموعه ای از صدک های 10، 50 و 90 دارم. علاوه بر این من مقدار میانگین را دارم. من سعی می کنم توزیع زیربنایی را بازسازی کنم. سوال مشابه تخمین توزیع بر اساس سه صدک است با این تفاوت که مقدار میانگین هم دارم. رویکرد فعلی من برازش توزیع لگ نرمال بر اساس صدک 50 بود که در آن واریانس ناشناخته بود. متعاقباً واریانس_1 را بر اساس صدک 10 با حفظ میانگین از 50 تعیین کردم. من همین کار را برای صدک 90 انجام دادم که به من variance_2 داد. سپس واریانس را در جایی بین variance_1 و variance_2 جستجو کردم که در وهله اول میانگینی را به من داد. صدک 10: 0.004 صدک 50: 0.007 صدک 90: 0.02 میانگین حسابی: 0.009 من به یک توزیع log-normal (\mu = log(0.007)، \sigma = 0.70825) رسیدم. رویکرد، و چگونه با این مشکل مقابله می کنید؟
تخمین توزیع بر اساس سه صدک و میانگین
93852
اجازه دهید $x_i$ متغیرهای تصادفی برنولی مستقل با احتمال موفقیت $p_i$ باشند. یعنی $x_i=1$ با احتمال $p_i$ و $x_i=0$ با احتمال $1-p_i$. آیا یک عبارت بسته یا یک فرمول تقریبی برای توزیع جمع $\sum_i x_i$ وجود دارد؟
مجموع متغیرهای برنولی با احتمال موفقیت متفاوت
48066
در صفحه 9 تجزیه و تحلیل رگرسیون خطی ویرایش دوم Seber and Lee اثباتی برای ارزش مورد انتظار یک فرم درجه دوم وجود دارد که من آن را درک نمی کنم. فرض کنید $X = (X_i)$ یک بردار تصادفی $n \times 1 $ باشد و اجازه دهید $A$ یک ماتریس متقارن $ n \times n$ باشد. اگر $\mathbb{E}[X] = \mu$ و $Var[X] = \Sigma = (\sigma_{ij})$، آنگاه $\mathbb{E}[X^{T}AX] = tr( A\Sigma) + \mu^{T}A\mu$ مشکلی که من دارم تقریباً از دروازه خارج شده است، نمی توانم ببینم چگونه $\mathbb{E}[X^{T}AX] = tr(\mathbb{E}[X^{T}AX])$ فکر می‌کنم بقیه شواهد را دریافت کرده‌ام، اما اگر کسی در اینجا نتواند من را در این بخش در جهت درست راهنمایی کند، برای همیشه سپاسگزار خواهم بود. ! با تشکر
ارزش مورد انتظار از فرم درجه دوم
91050
این یک مشکل بیولوژیکی است، با این حال، مشکل نیاز به یک راه حل آماری دارد، بنابراین من آن را تا حد امکان انتزاعی نگه می دارم تا آماردانان نیز بتوانند به آن فکر کنند - همچنین فقط تا حدی مطمئن هستم که به یک راه حل احتمال شرطی نیاز دارد. . اساسا، من یک دسته از miRNA دارم و اینها پروتئین های خاصی را هدف قرار می دهند: miRNA1 ----> protein1 miRNA1 ----> پروتئین2 miRNA1 ----> پروتئین3 miRNA1 ----> پروتئین4 miRNA1 ----> protein5 miRNA2 ----> protein3 miRNA2 ----> protein4 miRNA2 ----> protein5 miRNA های مختلفی وجود دارند که پروتئین های مختلفی را هدف قرار می دهند. با این حال، حداکثر دو miRNA مختلف از یک منطقه می آیند. بنابراین، من می خواهم تعیین کنم که آیا با توجه به اینکه این miRNA ها از یک منطقه می آیند یا خیر، آیا اهداف ژنی آنها شبیه تر هستند؟ هر گونه کمک در این مورد بسیار مفید خواهد بود!
مشکل احتمال شرطی
52562
من در حال حاضر روی یک پروژه تجزیه و تحلیل خوشه ای کار می کنم و kmeans را روی داده ها برای k=2 اجرا کردم. من مقالات مشابهی را در مورد آزمایش‌های مشابه می‌خواندم، و محققان از تجزیه و تحلیل متمایز برای تأیید گروه‌های خوشه‌ای خود استفاده کردند. می خواستم بدانم چگونه از تجزیه و تحلیل تفکیک خطی برای تأیید گروه های خوشه ای از kmeans استفاده شود، آیا LDA به طور جداگانه انجام می شود و سپس در مقایسه با نتیجه kmeans انجام می شود یا اگر یک نتیجه از kmeans به عنوان پارامتر در فراخوانی LDA در R استفاده می شود؟ متاسفم اگر این سوال مبهم است، اما من قبلاً هرگز در معرض تجزیه و تحلیل تمایز قرار نگرفته ام. همچنین داده‌های جمع‌آوری‌شده اندازه‌گیری‌های مکرر و نامتعادل به ازای هر فرد هستند، مطمئن نیستیم که آیا برخی از مفروضات برای LDA معتبر هستند یا خیر.
استفاده از تجزیه و تحلیل تفکیک خطی برای اعتبارسنجی گروه های خوشه ای حاصل از kmeans
67172
من می خواهم برخی از مقایسه های اساسی را انجام دهم (3 شرط، متعادل، n = 21 برای مجموع 63 مشاهده). متغیر وابسته اصلی کل زمان تکمیل کار است، به عنوان مثال، سؤال تجربی مورد علاقه این است: آیا زمان تکمیل کار در 3 شرایط آزمایشی متفاوت است؟ داده ها غیر نرمال هستند و واریانس ها در بین گروه ها همگن نیستند (کوچکترین واریانس حدود 10 برابر بزرگترین است). به دلیل تفاوت زیاد در واریانس، می‌دانم که یک جایگزین ناپارامتریک (مانند Kruskal-Wallis) احتمالاً نامناسب است. تبدیل گزارش زمان تکمیل کار وضعیت را بهبود می بخشد - باقیمانده ها را در 2 شرایط از 3 حالت عادی می کند و منجر به واریانس های همگن می شود. سوال اصلی من این است: آیا تغییر log در اینجا موجه است؟ اگر چنین است، آیا هنوز هم می توانم از ANOVA بعد از تبدیل استفاده کنم، حتی اگر یکی از شرایط هنوز غیرعادی باشد؟
مقایسه میانگین ها - واریانس ناهمگن، غیر طبیعی
17173
من تست نرمال بودن یک نمونه کولموگروف اسمیرنوف را روی دو متغیر اعمال کردم و یکی دارای مقدار p بزرگتر است اما هر دو بزرگتر از 0.05 هستند. به عنوان مثال، * $x_1$ (p-value) = 0.09 * $x_2$ (p-value) = 0.06 آیا این بدان معنی است که $x_1$ بهتر یا نرمال تر از $x_2$ است؟
آیا می توانید مقادیر p آزمون های کولموگروف اسمیرنوف را برای نرمال بودن دو متغیر مقایسه کنید تا بگویید کدام نرمال تر است؟
48067
آیا پیشنهادی در مورد نحوه تجسم تغییر در نمره قبل و بعد از یک رویداد دارید؟ من نمی خواهم دو میله را در کنار یکدیگر ترسیم کنم، اگرچه می دانم که ساده ترین کار است. چیز جالب تری هم هست؟
قبل و بعد از نمره را تجسم کنید
57937
یک رویداد مورد علاقه $E$ و خطر رقابتی مرگ $D$ را فرض کنید. اجازه دهید $h(t)$ نرخ خطر $h(t)=\frac{Pr\left\\{(t <T \leq t + \Delta t)| (T > t)\right\\}}{dt}\\\$ و $S(t)$ تابع بقا اگر تابع وقوع تجمعی $CIF$ را برای $E$ محاسبه کنیم، به صورت $CIF=Pr(T) <t)=\int_{0}^{t}hSdu$ چه رابطه ای بین $h(t)$ و $CIF´=\frac{CIF}{dt}\\\$ وجود دارد؟ آیا $CIF´={Pr(t<T<T+dt)}\\\$ است؟
نرخ خطر و تابع وقوع تجمعی
67179
من در حل موارد زیر کمی مشکل دارم. شما از یک عرشه استاندارد 52 کارتی بدون جایگزینی کارت می کشید تا زمانی که یک آس دریافت کنید. شما از آنچه که باقی مانده است استفاده می کنید تا زمانی که 2 بدست آورید. با 3 ادامه می دهید. پس از تمام شدن کل عرشه، عدد مورد انتظاری که در آن خواهید بود چقدر است؟ طبیعی بود که اجازه دهیم * $T_i = \text{اولین موقعیت کارت که مقدار آن }i$ * $U_i = \text{آخرین موقعیت کارت که مقدار آن }i$ است. وقتی عرشه تمام شد، روی $k$ خواهید بود، یعنی: $$Pr(T_1<\cdots<T_k \cap U_{k+1} < T_k)$$ من می توانم ببینم که $$Pr(T_1<\cdots<T_k) = 1/k! \\\ \text{و} \\\ Pr(U_{k+1} <T_k) = 1/70$$ اما نمی‌توان بیشتر از این پیش رفت...
عدد مورد انتظار من بعد از کشیدن کارت تا زمانی که یک آس، 2، 3 و غیره به دست بیاورم، روی آن خواهم بود.
112705
### زمینه داده های محیطی (به عنوان مثال، غلظت آلاینده ها در آب، خاک، هوا) اغلب به طور منطقی توزیع می شوند. حتی زمانی که آنها نیستند، ما تمایل داریم فرض کنیم که آنها هستند (در خوب یا بد). به همین دلیل، 99.5 درصد از مواقعی که من باکس‌پلات‌ها را ایجاد می‌کنم، آنها با یک محور غلظت log-scale ارائه می‌شوند. این یک مثال است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/jcUyE.png) به نظرم می رسد که حصار پایین را به عنوان $Q_1 - (1.5 \times \mathrm{IQR}) محاسبه کنم )$ ممکن است بهترین راه نباشد وقتی که داده‌ها طبیعی فرض می‌شوند. ### (تجدید توضیح داده شده) سوال با توجه به اینکه، برای من، ارزش اصلی تعریف حصارها با $1.5 \times \mathrm{IQR}$، تشخیص نقاط پرت بالقوه است، آیا باید آن حصارها و نقاط پرت را در log-space تعریف کنم یا نگه دارم. همه چیز در فضای حسابی؟ من در حال حاضر به سمت تغییر گزارش داده ها تمایل دارم، اما نگرانی دارم که این ممکن است باعث سردرگمی بی مورد شود یا حتی یک عمل قابل قبول نباشد. ### سوالات مشابه پاسخ پذیرفته شده به این سوال: آیا برای داده های توزیع شده پواسون یک نوع باکس پلات وجود دارد؟ پیشنهاد می کند که داده ها را به سادگی تبدیل کنید - در این صورت با گرفتن جذر. من به طور خاص کنجکاو هستم که آیا حصارها باید در log-space محاسبه شوند و سپس _back_ به فضای حسابی تبدیل شوند.
نمودارهای جعبه ای با داده های توزیع شده به طور منطقی
73032
هنگام استفاده از ماشین بردار پشتیبان، آیا دستورالعملی در مورد انتخاب هسته خطی در مقابل هسته غیرخطی مانند RBF وجود دارد؟ من یک بار شنیدم که هسته غیر خطی وقتی تعداد ویژگی ها زیاد است، تمایل به عملکرد خوبی ندارد. آیا مرجعی در این زمینه وجود دارد؟
هسته خطی و هسته غیر خطی برای ماشین بردار پشتیبان؟
99706
آیا بهتر نیست از رگرسیون پواسون برای داده های شمارش استفاده کنیم؟ همچنین در رگرسیون لجستیک مزیت استفاده از لینک لاگ در مقابل لینک لاجیت چیست؟ من می دانم که شما می توانید خطر نسبی ورود به سیستم را با پیوند ورود دریافت کنید. اما چرا از ریسک های نسبی در مقابل نسبت های شانس استفاده می شود؟
چرا از رگرسیون لجستیک برای داده های شمارش استفاده می کنید؟
89225
من مجموعه‌ای از داده‌ها را با خلاصه‌های زیر دارم: ![data summary](http://i.stack.imgur.com/K3fO6.png) داده‌ها غیر عادی هستند و تبدیل‌ها نرمال نبودند. با توجه به اینکه داده‌ها پیوسته هستند، من دامنه توزیع را به «کوشی»، «ویبول»، «گاما»، «f»، «لاپلاس» کاهش داده‌ام. نمودار چگالی برای داده ها در زیر آمده است: ![تراکم نمودار](http://i.stack.imgur.com/NQ1A4.png) چگونه توزیع مناسب برای داده ها را تعیین کنم؟
یافتن توزیع مناسب برای داده ها در R؟
91057
من وضعیتی را پیش‌بینی می‌کنم که در آن یک پرسشنامه کوچک طراحی کرده‌ام، و می‌خواهم ارزیابی کنم که آیا متغیرهای اندازه‌گیری شده همان چیزی را اندازه‌گیری می‌کنند یا خیر. من واقعاً به نکات عملی علاقه مند نیستم تا بیانیه ای در مورد اینکه حداقل تعداد برای به دست آوردن یک مدل شناسایی شده چقدر است و توضیحی در مورد اینکه چرا این حداقل است.
حداقل تعداد متغیرهای اندازه گیری شده مورد نیاز هنگام برازش یک مدل یک متغیر پنهان چقدر است؟
22329
من به مطالعه مواردی می پردازم که داده ها را در مرکز قرار می دهیم (مثلاً با تنظیم یا PCA) به منظور حذف رهگیری (همانطور که در این سؤال ذکر شد). می دانم که ساده است، اما درک شهودی آن برایم سخت است. آیا کسی می تواند شهود یا مرجعی را ارائه دهد که بتوانم آن را بخوانم؟
چگونه مرکز داده ها را از رهگیری خلاص می کند؟
99420
من در حال انجام تجزیه و تحلیل داده های پانل هستم. من در 5 سال T = 103 شرکت دارم (یعنی حدود 507 مشاهده با اثر ثابت داده های عدم تعادل). دوره مطالعه از 2008-2012 می باشد. دوره بحران مالی سال 2008 است. مطمئن نیستم که بتوانم از مدل تفاوت در تفاوت ها برای دریافت تأثیر بحران استفاده کنم یا خیر. من نمی توانم یک گروه کنترل ببینم زیرا همه شرکت ها تحت تأثیر بحران قرار گرفتند. مایکل آر. رابرتز در کتاب خود درون زایی در مالی تجربی شرکت در مورد تفاوت سری های زمانی منفرد قبل و بعد از درمان صحبت می کند. آیا منظور او تعامل متغیرهای مستقل و تعدیل کننده من با یک ساختگی بحران است که سال 2008 است؟ و آیا تعامل ساختگی بحران با همه مشاهدات برای دریافت اثر بحران درست است؟
تفاوت یک سری زمانی قبل و بعد از درمان
104819
من یک الگوریتم جدید ساخته ام که به طور خاص برای خوشه بندی مجموعه داده های بسیار بزرگ ساخته شده است. برای اینکه آن را به عنوان یک مقاله تحقیقاتی مستند کنم، باید یک یا دو ** معیار ارزیابی خوشه ای داخلی (بدون برچسب)** را برای ارزیابی الگوریتم خود انتخاب کنم. به نظر شما کدام الگوریتم به طور کلی بهترین انتخاب برای **مجموعه داده های بزرگ** است؟ و **چرا؟** **ویرایش:** الگوریتم من یک نسخه اصلاح شده از مدل های مخلوط گاوسی انتظار-بیشینه سازی است. به عبارت دیگر، کل داده‌ها با $$P_(x) = \sum_{k=1}^{K}\pi(c_k)\mathcal{N}(\mu_k,\Sigma_k)$$ توصیف می‌شوند که در آن $\ pi(c_1)،\ldots،\pi(c_K)$ وزن های مخلوط هستند. تفاوت اصلی بین الگوریتم من و EM معمولی این است که از ترفندهای نمونه گیری و تقریبی استفاده می کند که EM را تسریع می کند. تابع هدف یکسان است (لگ احتمال که باید حداکثر شود). آیا باید از log-likelihood به عنوان معیار ارزیابی استفاده کنم؟ یا از سایر (کدام؟) اقدامات داخلی برای چنین کاری استفاده کنید؟ آیا عقلانی است؟
بهترین معیار برای ارزیابی خوشه‌های ترکیبی گاوسی روی داده‌های بزرگ
57938
آیا قوانین برآمدگی در مدل های خطی تعمیم یافته قابل اجرا هستند؟ به طور خاص، برای تبدیل متغیرهای مستقل؟ من فقط در رگرسیون OLS بحث/استفاده از آن را دیده ام. پیشاپیش ممنون
تبدیل غیرخطی بودن در مدل های خطی تعمیم یافته
58227
**تعریف جمعیت منبع چیست؟** فرض کنید ما افراد 100000 دلاری را غربال می کنیم و سپس افراد 50000 دلاری را در سه مطالعه $A$، $B$ و $C$ شامل می کنیم. برای مطالعه $A$، آیا جمعیت منبع افراد 50000$ است یا 100000$ افراد غربال شده؟
تعریف «جمعیت منبع» چیست؟
86173
من از چند صد نفر خواسته ام که 5 کار را از لیست 50 گزینه ای انتخاب کنند، بدون سفارش. > آیا معیار استانداردی برای پراکندگی انتخاب ها به عنوان یک > 5 تایی نامرتب وجود دارد؟ من به بسامد انتخاب هر گزینه علاقه مند نیستم، بلکه به اندازه گیری میزان همبستگی بین پنج موردی که هر فرد انتخاب کرده است، علاقه مندم. من گمان می‌کنم که هر فردی از میان زیرمجموعه‌های بسیار کوچکی از گزینه‌های موجود، انتخاب‌های خود را انجام می‌دهد، و من دوست دارم این را کمیت کنم. در واقع، من همچنین از آنها خواستم که به هر یک از گزینه های انتخاب شده یک وزن از 0 تا 100 وصل کنند که صفر نشان دهنده اولویت بیشتر است. آیا معیار استانداردی برای پراکندگی با در نظر گرفتن این اطلاعات اضافی وجود دارد؟
پراکندگی انتخاب ها در یک نظرسنجی
29289
من در حال انجام یک متاآنالیز هستم. من یک زیر گروه دارم که فقط از 2 مطالعه تشکیل شده است و آنها نتایج معکوس نشان می دهند. اولی نتایج عالی دارد دومی خیلی بد. آیا این درست است که من اجازه ندارم داده های این دو مطالعه (متفاوت) را تحت یک مدل اثر تصادفی محاسبه کنم؟ به من گفته شده است که از نظر روش شناختی انجام یک متاآنالیز 2 مطالعه با چنین نتایج متضادی صحیح نیست. آنها به من پیشنهاد کردند که داده های خام این مطالعات را به طور جداگانه گزارش کنم (بدون یک نتیجه کلی محاسبه شده توسط یک مدل اثر تصادفی). هر پیشنهادی؟ یا جایی که بتوانم توضیحی در مورد این نکته پیدا کنم؟
دو مطالعه، نتایج متضاد: آیا اجازه دارم میانگین کلی را با استفاده از مدل اثر تصادفی محاسبه کنم؟
58221
من می‌دانم که HMM مدل‌های مولد هستند و CRF مدل‌های متمایز هستند. من همچنین درک می کنم که CRF چگونه طراحی و استفاده می شود. چیزی که من نمی فهمم این است که چگونه آنها با HMM ها متفاوت هستند؟ من خواندم که در مورد HMM، ما فقط می‌توانیم حالت بعدی خود را بر اساس گره قبلی، گره فعلی و احتمال انتقال مدل کنیم، اما در مورد CRF ها می‌توانیم این کار را انجام دهیم و می‌توانیم تعداد دلخواه گره را به هم متصل کنیم. شکل وابستگی ها یا زمینه ها؟ اینجا درست میگم؟
تفاوت شهودی بین مدل‌های پنهان مارکوف و زمینه‌های تصادفی شرطی
17175
به دنبال پست‌های قبلی‌ام در اینجا، اینجا و اینجا، خطرات «ماهیگیری» را برای ارتباط قابل توجهی درک می‌کنم. من همچنین مشکل اجرای چندین همبستگی در یک مجموعه داده را درک می کنم. با این حال، من رابطه بین متغیرهای A و B را با چندین ویژگی جمعیت شناختی آزمایش می کنم، بنابراین نمی توانم چندین تست همبستگی را اجرا نکنم. به عنوان مثال، در مورد جنسیت من 2 تست همبستگی دارم (یکی برای مرد و یکی برای زن)، در مورد سن 3 تست همبستگی دارم (یکی برای کمتر از 18 سال، یکی برای 18 تا 44 سال و یکی برای بالای 45 سال)، در وضعیت تاهل، من 3 آزمون همبستگی دارم (یکی برای متاهل، یکی برای هرگز ازدواج نکرده و یکی برای دیگری). **با تمام نگرانی‌هایی که در پست‌های قبلی بیان شد، آیا چیزی وجود دارد که من در استفاده از پیرسون r گم کرده‌ام؟** به یاد داشته باشید، من فقط بر رابطه بین A و B با ویژگی‌های جمعیتی پاسخ‌دهندگان تمرکز می‌کنم. **آیا راه دیگری برای آزمایش این رابطه وجود دارد؟**
چه تعداد همبستگی زیاد است؟
104818
من نسبتاً با آمار و R آشنا هستم. می‌خواهم فرآیند تعیین پارامترهای ARIMA را برای مجموعه داده‌ام بدانم. آیا می توانید به من کمک کنید تا با استفاده از R و به صورت تئوری (در صورت امکان) همین موضوع را بفهمم؟ دامنه داده ها از 12 ژانویه تا 14 مارس است و فروش ماهانه را نشان می دهد. مجموعه داده ها در اینجا است: > 99 58 52 83 94 73 97 83 86 63 77 70 87 84 60 105 87 93 110 71 158 52 33 68 > 82 88 84 theer image: و اینجاست! اینجا](http://i.stack.imgur.com/sFNrZ.png) داده ها روند، رفتار فصلی یا چرخه ای را نشان نمی دهند.
تعیین پارامترهای (p، d، q) برای مدل سازی ARIMA
57931
من چهار گروه مختلف دارم (با حجم نمونه نابرابر 100 تا 120) و می خواهم آزمایش کنم که آیا واریانس متفاوت است. برای ANOVA از میانگین winsorized استفاده کردم تا تخمین قوی‌تری داشته باشم و نمی‌دانم که آیا توصیه می‌شود از داده‌های winsorized (همه مقادیر شدیدتر از صدک 5 یا 95 به نزدیک‌ترین صدک تنظیم شده‌اند) هنگام آزمایش اینکه آیا واریانس‌ها برابر هستند یا خیر استفاده شود. . (به عنوان مثال با تست لوین). یا با نوع دیگری از حذف موارد دور از دسترس کار می کنید؟ من مفروضات نرمال بودن گروه ها را بررسی کردم و دیدم که وقتی تست های داده های اصلی را با تست های winsorized مقایسه می کنم، تقریباً یکسان می ماند (تعدادی نقض جزئی از نرمال بودن). هر گونه فکر در مورد آن بسیار قدردانی خواهد شد.
هنگام مقایسه واریانس ها با آزمون بارتلت، برخورد با نقاط پرت
113526
من روی آمار برای ساخت نرم افزار کار می کنم. من داده‌هایی برای هر ساخت بر اساس پاس/شکست و زمان سپری شده دارم و 200 عدد از اینها در هفته تولید می‌کنیم. میزان موفقیت به راحتی قابل جمع‌آوری است، می‌توانم بگویم که هر هفته 45٪ گذشت. اما من می‌خواهم زمان سپری شده را نیز جمع‌آوری کنم، و می‌خواهم مطمئن شوم که داده‌ها را خیلی بد معرفی نکنم. فهمیدم بهتره از حرفه ای ها بپرسم :-) بگید 10 دوره دارم. آنها هر دو مورد قبول و شکست را نشان می دهند. برخی از ساخت‌ها بلافاصله شکست می‌خورند، که باعث می‌شود مدت زمان به‌طور غیرعادی کوتاه شود. برخی از آنها در طول آزمایش معطل می‌شوند و در نهایت تایم اوت می‌شوند، که باعث مدت زمان بسیار طولانی می‌شود. ما محصولات مختلفی می سازیم، بنابراین حتی ساخت های موفق بین 90 ثانیه تا 4 ساعت متغیر است. من ممکن است مجموعه ای مانند این را دریافت کنم: [50، 7812، 3014، 13400، 21011، 155، 60، 8993، 8378، 9100] اولین رویکرد من این بود که زمان میانه را با مرتب کردن مجموعه و انتخاب مقدار متوسط، در این مورد 7812 (من با میانگین حسابی به زحمت نیفتم مجموعه‌های زوج.) متأسفانه، به نظر می‌رسد که این تغییرات زیادی ایجاد می‌کند، زیرا من فقط یک مقدار داده شده را انتخاب می‌کنم. بنابراین اگر بخواهم این مقدار را ترند کنم، بسته به اینکه کدام بیلد در میانه باشد، بین 5000 تا 10000 ثانیه باز می گردد. بنابراین برای هموار کردن این موضوع، من روش دیگری را امتحان کردم -- نقاط پرت را حذف کنید و سپس میانگینی را بر روی مقادیر باقی مانده محاسبه کنید. تصمیم گرفتم آن را به سه بخش تقسیم کنم و فقط روی وسط کار کنم: [50، 60، 155، 3014، 7812، 8378، 8993، 9100، 13400، 21011] -> [50، 60، 155]، [3814] ، 8378، 8993]، [9100, 13400, 21011] -> [3014, 7812, 8378, 8993] دلیل این که به نظر من بهتر به نظر می رسد این دو مورد است: * ما هیچ اقدامی در مورد ساخت های سریعتر نمی خواهیم، ​​آنها قبلاً خوب هستند * طولانی‌ترین ساخت‌ها احتمالاً ناشی از تایم اوت هستند و همیشه وجود خواهند داشت. ما مکانیسم‌های دیگری برای شناسایی آن‌ها داریم، بنابراین به نظرم می‌رسد که این داده‌هایی است که من به دنبال آن هستم، اما نگرانم که با حذف، خوب، حقیقت به نرمی دست یافته‌ام. آیا این بحث برانگیز است؟ آیا روش عاقلانه است؟ با تشکر
فرم خوبی برای حذف نقاط پرت؟
91055
من مدل‌های مخاطرات متناسب کاکس (در وضعیت) را برای پیش‌بینی خطر تولد نوجوانان اجرا می‌کنم، که در آن افراد (حدود 50 000، حدود 3000 تولد) در بخش‌ها (بیش از 500 تولد) دسته‌بندی می‌شوند. در مدل‌های تهی با شکنندگی مشترک در سطح بخش، واریانس زیادی در نتیجه بین بخش‌ها وجود دارد. وقتی ویژگی‌های فردی را کنترل می‌کنم، متوجه می‌شوم که اصطلاح واریانس برای شکنندگی بسیار کم، نزدیک به 0 و غیر معنی‌دار می‌شود. AIC نشان می دهد که مدل های بدون شکنندگی مشترک مناسب تر هستند. با این حال، وقتی متغیرهای سطح بخش را به مدلی بدون شکنندگی مشترک اضافه می‌کنم، متغیرهای سطح بخش اثرات بزرگی دارند و مقادیر AIC پایین‌تری نسبت به مدل تنها متغیر ind دارند، علی‌رغم این واقعیت که مقایسه قبلی بین مدل‌های شکنندگی غیر مشترک و مشترک انجام شد. نشان داد که تفاوت معنی داری در نتیجه بین بخش ها وجود ندارد. من گیج هستم که چرا اینطور است. آیا کسی می تواند توضیح دهد که چرا این اتفاق می افتد، یا من را به برخی از ادبیات مرتبط راهنمایی کند؟ نمی دانم مهم است که نتیجه من بسیار نادر است، و در هر بخش یک رویداد موفقیت/تولد وجود ندارد. متغیرهای سطح بخش من پیوسته هستند (میزان مرگ و میر، میزان جرم و غیره) اما به ربع تبدیل می شوند و فقط در بالاترین سطوح قابل توجه هستند. خیلی ممنون، کارولین
معمای شکنندگی: وقتی واریانس شکنندگی مشترک برای منطقه غیر علامت است، چگونه اثرات ناحیه می تواند بزرگ باشد؟
72085
من یک نمونه مستقل $x_1 \ldots x_N$ دارم که به طور یکسان توزیع شده است. من یک CDF تجربی به صورت $P_{\mathrm{emp}}(x)=\sum\limits_{i=1}^N H(x-x_i)$ می‌سازم، که در آن $H(x)$ یک تابع گامی Heaviside است. سپس یک درونیابی از CDF خام به صورت $$P_{\mathrm{interpolated}}(x) = \frac{P_{\mathrm{emp}}(x_{i+1}) - P_{\mathrm{emp ایجاد می‌کنم }}(x_i)}{x_{i+1}-x_i}\cdot(x_{i+1}-x)،$$$$x \در [x_i، x_{i+1}]$$ سپس یک تابع پنجره شناخته شده $w(x)$ را می‌گیرم، $P_{\mathrm{interpolated}}(x)$ را با آن درهم می‌کشم: $$P_{\mathrm{smoothed}} =[P_{\mathrm{interpolated}} \ast w](x)$$ در نهایت، من PDF را به عنوان مشتق از $P_{\mathrm{smoothed}}(x)$ $$f_{\mathrm{PDF}}(x)=P_{\mathrm{smoothed}}'(x)$$ می‌توانید نام مناسب آن‌ها را به من بگویید؟ روشی برای بازیابی PDF یا، شاید، نام کلاس گسترده ای از روش های بازیابی PDF؟
بازیابی PDF از نمونه ها - نام صحیح روش چیست؟
86849
بهترین راه برای رسیدگی به باقیمانده های همبسته خودکار در تجزیه و تحلیل داده های پانل من (اثرات ثابت) چیست. آنچه من امتحان کرده ام: -افزودن رگرسیورهای مختلف (موفق نیست) و علاوه بر این مدل فعلی از نظر تئوری و شهودی توجیه شده است. -افزودن عبارت AR(1) در سمت راست، بیشتر همبستگی خودکار را از بین می برد، اما من مدل جدید را دوست ندارم. من در Eviews کار می کنم اما در صورت لزوم می توانم از Matlab یا R نیز استفاده کنم. من در مورد خطاهای استاندارد مستحکم Autocorrelation زیاد خواندم، استفاده از آن برای باقیمانده های من مشکل را حل می کند درست است؟ احتمالاً ضرایب را ناچیز می کند، اما نتیجه فعلی (با همبستگی خودکار) چندان معتبر نیست. بنابراین چگونه می توانم با این خطاهای خودهمبستگی قوی، ساده ترین راه (از نظر نرم افزاری) مواجه شوم؟
بهترین راه برای مدیریت همبستگی خودکار در پسماندهای رگرسیون داده‌های تابلویی (FE)
109471
پروژه سال آخر من در مورد داده های بازیابی بدهی برای یک شرکت جمع آوری بدهی است. داده‌هایی مانند موجودی اصلی/جاری، پرداخت‌های انجام‌شده، DOB، تعداد تماس‌های انجام‌شده، اینکه آیا بدهکار پرداخت‌های بیمه‌ای را انجام داده است یا نه، داده شده است. تنها رویکردی که من با آن شروع کردم یک مدل لاجیت بود. هر گونه ایده یا اشاره دیگری در مورد راه های ممکن برای نزدیک شدن به مشکل قدردانی خواهد شد.
تحقیق در مورد بازپرداخت بدهی
91054
من یک نمونه واحد از نتایج باینری (موفقیت / شکست) داشتم و می‌خواستم نسبت جمعیت را با یک تخمین نقطه‌ای و یک فاصله اطمینان تخمین بزنم. مشکل این بود که برخی از آزمودنی‌ها 2 نمونه را ارائه کردند، در حالی که دیگران فقط 1 نمونه، بنابراین مشاهدات من، یا حداقل برخی از آنها، مستقل نبودند. برای حل این مشکل، هم مدل GEE و هم مدل GLMM را اجرا کردم. من از نتیجه باینری به عنوان یک متغیر وابسته و بردار 1 به عنوان یک متغیر مستقل استفاده کردم، که پارامتر مورد علاقه من را وقفه می کند. من فکر می کردم که این به من نسبتی را می دهد که دنبالش هستم. بردار 1 در SAS به عنوان یک متغیر طبقه بندی اعلام شد. و حالا برای مشکل. وقتی از تابع پیوند «logit» استفاده کردم، نتایج درستی دریافت نکردم. وقتی از تابع پیوند ورود به سیستم استفاده کردم، این کار را کردم. من فکر کردم که تابع پیوند «log» برای مدل پواسون مناسب است، بنابراین گیج شدم. من گمان می‌کنم که ممکن است با تفاوت بین نسبت و احتمالات پیش‌بینی‌شده ارتباط داشته باشد، اما مطمئن نیستم. می خواستم بپرسم آیا کسی می تواند برای من توضیح دهد (و شاید لطفاً فرمولی را ضمیمه کنید) چرا تابع پیوند ورود به سیستم چیزی است که من در اینجا نیاز دارم؟ برای دقیق تر، اگر $b$ تخمین رهگیری باشد، من در ابتدا $e^b/(1+e^b)$ را انجام دادم که اشتباه بود. وقتی $e^b$ را انجام دادم، درست بود. باید بدانم چرا... کد SAS من این بود: PROC GENMOD DATA=data descending; شناسه کلاس D * D بردار 1 است. MODEL Y = D / dist = bin link=log cl; موضوع تکراری = شناسه; LSMEENS D/cl exp; اجرا؛
برآورد یک نسبت واحد از یک مدل حاشیه ای یا مشروط
29281
اجازه دهید $X_1,X_2$ مستقل با cdfs $F_1(x),F_2(x)$ توزیع شود، به طوری که $$\Overline F_i(x) := 1 - F_i(x) = x^{-\alpha}L_i (x),\ \alpha \geq 0 \>,$$ که در آن $L_i(x)$ یک تابع به آرامی متغیر است، یعنی برآورده می‌کند $L(tx)/L(x) \ به 1$ به عنوان $x \to \infty$ برای همه $t > 0$. برای $0<\delta<\frac{1}{2}$ من خط زیر را دارم: $\overline{F_{1}}((1-\delta)x)+\overline{F_{2}}(( 1-\delta)x)+\overline{F_{1}}(\delta x)\overline{F_{2}}(\delta x) =\left(\overline{F_{1}}((1-\delta)x)+\overline{F_{2}}((1-\delta)x)\right)\left(1+o(1 )\right).$ آیا کسی می تواند توضیح دهد که چرا $o(1)$ را به عنوان $x \rightarrow \infty$ در خط دوم معادله داریم؟
تقریب در یک برابری
48063
یک نمودار هندسی تصادفی نامتناهی $G(\rho,d)$ را در نظر بگیرید که در آن رئوس به طور یکنواخت و مستقل روی صفحه دوبعدی با چگالی $\rho$ پراکنده شده اند و یال ها رئوس نزدیکتر از $d$ را به هم متصل می کنند. توزیع/مقدار مورد انتظار طول کوتاهترین مسیر از یک راس $v_0$ تا یک راس دیگر $v_1$ که $k$ hops دور است چقدر است؟ _**نکته:_** می دانیم که طول لبه ها از پی دی اف زیر پیروی می کند: $$ f(l)= \begin{cases} \frac{2 l}{d^2} \;\quad l \ le d \\\ 0 \qquad\; l > d \end{cases} $$ با این حال، حدس می‌زنم طول مورد انتظار از کوتاه‌ترین مسیر صرفاً $k \times$ طول مورد انتظار لبه‌ها نیست، زیرا در کوتاه‌ترین مسیر احتمال انتخاب یال‌های طولانی‌تر وجود دارد، درست است. ?
توزیع/طول مورد انتظار کوتاهترین مسیر در نمودارهای هندسی تصادفی بی نهایت
58225
من در حال انجام یک آزمایش روانشناختی هستم. هر آزمایش شامل این است که آزمودنی با فشار دادن یک دکمه به یک کلمه پاسخ می دهد. طراحی آزمایش من به شرح زیر است: 5 بلوک از هر 100 آزمایش (هر آزمایش یک پاسخ است). در هر بلوک، 50 آزمایش «عادی» و 50 آزمایش «تصادفی» است. زمان پاسخ (RT) متغیر وابسته است. این آزمایش تا حدی یک آزمایش یادگیری است. من انتظار دارم که RT ها در شرایط Regular سریعتر باشند زیرا یادگیری وجود دارد که امکان پاسخ های سریعتر را فراهم می کند. بنابراین من می‌خواهم تفاوت میانگین زمان پاسخ (RT) را بین دو شرط آزمایشم آزمایش کنم. می‌دانم که مدل ANOVA چیزی شبیه به RTs ~ نوع آزمایش (معمول و تصادفی) + است. .. دو سوال مرتبط دارم 1. آیا باید از آزمایشی یا بلاک به عنوان عامل دیگر استفاده کنم؟ (یا هر دو؟) معمولاً من میانگین RT را برای هر شرایط در بین بلوک‌ها مقایسه می‌کنم، اما ممکن است در داخل بلوک‌ها، از قبل تغییراتی در RT بین آزمایش‌ها وجود داشته باشد. بنابراین، آیا Block، Trial یا هر دو عامل من است؟ (علاوه بر عامل شرط). 2. از آنجایی که من انتظار تنوع بین شرکت کنندگان را دارم، آیا باید «موضوع» را به عنوان یک متغیر خطا در مدل لحاظ کنم؟ من تجزیه و تحلیل خود را در R انجام می دهم، در صورتی که کسی بخواهد/می تواند مشاوره ای در آن قالب ارائه دهد، اما همچنین توصیه های آماری عمومی بسیار قدردانی می شود.
از چه عاملی (آزمایش یا بلوک) در ANOVA اندازه گیری های مکرر استفاده شود
99425
من یک سوال در مورد توزیع صحیح برای ایجاد یک مدل با داده های خود دارم. من یک فهرست جنگلی با 50 قطعه انجام دادم که هر قطعه به ابعاد 20 متر × 50 متر است. برای هر قطعه، درصدی از تاج درختی را که روی زمین سایه می اندازد، تخمین زدم. هر قطعه یک مقدار، بر حسب درصد، برای پوشش سایبان دارد. درصدها از 0 تا 0.95 متغیر است. من در حال ساخت مدلی از درصد پوشش تاج درخت (متغیر _Y_)، با ماتریسی از متغیرهای مستقل _X_ بر اساس تصاویر ماهواره ای و داده های محیطی هستم. مطمئن نیستم که باید از توزیع دو جمله ای استفاده کنم، زیرا یک متغیر تصادفی دو جمله ای مجموع آزمایش های مستقل _n_ است (مثلاً متغیرهای تصادفی برنولی). مقادیر درصد مجموع آزمایشات نیست. آنها درصدهای واقعی هستند. آیا از گاما استفاده کنم با وجود اینکه حد بالایی ندارد؟ آیا باید درصدها را به عدد صحیح تبدیل کنم و از پواسون به عنوان شمارش استفاده کنم؟ آیا باید به گاوسیان پایبند باشم؟ من نمونه های زیادی را در ادبیات یا کتاب های درسی پیدا نکردم که درصدها را به این شکل مدل سازی کنند. هر گونه نکات یا بینش قدردانی می شود. * * * ممنون از پاسخ های شما. در واقع، توزیع بتا دقیقاً همان چیزی است که من به آن نیاز دارم و در این مقاله به طور کامل مورد بحث قرار گرفته است: * Eskelson, B. N., Madsen, L., Hagar, J. C., & Temesgen, H. (2011). برآورد پوشش گیاهی کف ساحلی با مدل‌های رگرسیون بتا و کوپولا. علوم جنگل، 57 (3)، 212-221. این نویسندگان از بسته betareg در R توسط Cribari-Neto و Zeileis استفاده می کنند. مقاله زیر روش خوبی برای تبدیل یک متغیر پاسخ توزیع‌شده بتا را مورد بحث قرار می‌دهد، زمانی که شامل 0 و/یا 1های واقعی در محدوده درصد می‌شود: * Smithson، M.، و J. Verkuilen، 2006. آبلیمو بهتری؟ رگرسیون حداکثر احتمال با متغیرهای وابسته بتا توزیع شده، روش‌های روان‌شناختی، 11 (1): 54-71.
توزیع برای داده های درصد
57930
برای محاسبه نرخ 12 هفته PFS با استفاده از روش Kaplan Meier در SAS به چه نوع تنظیمی نیاز است؟ آیا PFS را در روز 84 و همچنین وضعیت بیماران را محاسبه می کنیم؟ زنده، مرده، از دست رفته برای پیگیری. بعد چی؟ با تشکر
محاسبه نرخ PFS 12 هفته ای
59575
من در حال ایجاد برنامه‌ای هستم که در آن هدف من تجزیه و تحلیل لیست‌های قیمت بلیط و یافتن بلیط‌هایی است که قیمت‌های غیرعادی پایینی نسبت به گسترش قیمت دارند. مدل اولیه من به این ترتیب لیست قیمت را به شرح زیر انجام می دهد.. (نمونه ها در انتهای نوشته من هستند - آنها شامل تغییراتی هستند که پس از اجرای مدل انجام شده است) 1. هر بلیطی را که بیش از 999.00 قیمت دارند حذف می کند. گاهی اوقات بلیط ها عمداً 9999.99 قیمت گذاری می شوند تا اطمینان حاصل شود که آنها فروخته نمی شوند - بنابراین من نمی خواهم از آنها در محاسبات خود استفاده کنم. 2. هر بلیطی را که 1.5 انحراف استاندارد بالاتر از میانگین جدید قیمت دارند حذف می کند. دریافتم که بلیط های غیرواقعی با قیمت بالا به طور غیر ضروری بر میانگین تأثیر می گذارد. 3. میانگین و SD را دوباره محاسبه می‌کند و بلیط‌هایی را که 2.9 انحراف استاندارد هستند زیر میانگین می‌کشد. می‌خواهم مدل خود را بهبود ببخشم تا بتوانم هر فهرست قیمتی را انتخاب کنم و طبقات قیمت را که واقع بینانه‌تر است توسعه دهم: مدل فعلی 2. آیا می خواهید جنبه هایی از مدل فعلی من را تغییر دهید. در مجموعه 1، طبقه قیمت 36.48 است، بنابراین در مجموعه 2، طبقه قیمت -3.45 است مجموعه 2، من احساس می کنم که مدل من ناکافی است به دلیل قیمت غیر واقعی. > 41.6 [2] => 43.8 [3] => 44.9 [4] => 45 [5] => 46 [6] => 46 [7] => 46 [8] => 46 [9] => 46 [10] => 48.2 [11] => 49.03 [12] => 49.3 [13] => 49.3 [14] => 49.3 [15] => 50.4 [16] => 51.5 [17] => 51.5 [18] => 51.5 [19] => 51.5 [20] => 51.5 [21] => 52.05 [22] => 52.47 [23] => 52.6 [24] => 52.6 [25] => 52.6 [26] ] => 52.6 [27] => 52.6 [28] => 52.6 [29] => 53.7 [30] => 53.7 [31] => 53.7 [32] => 53.7 [33] => 53.7 [34] => 53.7 [35] => 54.8 [36] => 54.8 [ 37] => 54.8 [38] => 55.9 [39] => 55.9 [40] => 55.9 [41] => 55.9 [42] => 55.9 [43] => 55.9 [44] => 55.9 [45] => 55.9 [46] => 55.9 [47] ] => 55.9 [48] => 55.9 [49] => 57 [50] => 57 [51] => 57 [52] => 57 [53] => 57 [54] => 57 [55] => 59.2 [56] => 59.2 [57] => 59.2 [ 58] => 59.2 [59] => 59.2 [60] => 60.3 [61] => 61.4 [62] => 62.5 [63] => 64 [64] => 64.15 [65] => 64.15 [66] => 64.15 [67] => 65 [68] => 65 [69] => 66 [70] => 67.45 [71] => 67.45 ** مجموعه 2** (طبقه قیمت -3.45) [0] => 46 [1] => 58.1 [2] => 58.38 [3] => 59.2 [4] => 61.4 [5] => 62.5 [6] => 64.7 [7] => 65.25 [8] => 65.25 [9] => 65.25 [10] => 65.25 [11] => 66.35 [12] => 66.9 [13] => 67.99 [14] => 67.99 [15] => 67.99 [16] => 67.99 [17] => 67.99 [1] ] => 68.55 [19] => 70.2 [20] => 71.85 [21] => 71.85 [22] => 72.4 [23] => 72.4 [24] => 73.5 [25] => 73.5 [26] => 73.5 [27] => 74.83 [28] ] => 75.7 [29] => 79 [30] => 79 [31] => 79.55 [32] => 80.1 [33] => 84.5 [34] => 84.5 [35] => 84.5 [36] => 85.05 [37] => 87.8 [38] => 89.45 [ 39] => 93.3 [40] => 95.5 [41] => 97.15 [42] => 98.76 [43] => 98.8 [44] => 99.66 [45] => 106.5 [46] => 108.7 [47] => 112 [48] => 112 [49] ] => 119.15 [50] => 119.15 [51] => 122.45 [52] => 123 [53] => 124.65 [54] => 125.75 [55] => 125.75 [56] => 128.5 [57] => 128.5 [58] => 5 [59]. ] => 134 [60] => 135.65 [61] => 136.2 [62] => 139.5 [63] => 139.5 [64] => 139.5 [65] => 140.6 [66] => 149.95 [67] => 150.5 [159] => 150.5 [159]>. 69] => 160.4 [70] => 161.5 [71] => 164.25 [72] => 164.8 [73] => 165.9 [74] => 167 [75] => 167 [76] => 167 [77] => 167.55 [78] ] => 169.75 [79] => 171.4 [80] => 172.5
پیدا کردن قیمت های غیرعادی پایین بلیط
25886
من می دانم که وابستگی $x$ و $y$ در داده های سری زمانی من در زمان تغییر می کند. فرض کنید سری های زمانی ماهانه از 1990 تا 2011 داریم. اگر به طور مستقل $x$ و $y$ را برای سال های 1990 تا 2000 و از 2000 تا 2011 رگرسیون کنیم، نتایج کاملاً متفاوت است. در نمونه اول وابستگی کم و در دومی قوی است. اگرچه من تقریباً لحظه تغییر ساختاری را می شناسم، اما آرزو دارم یک مدل آماری داشته باشم که اجازه می دهد این لحظه را با دقت بیشتری نشان دهد. من در مورد مدل های رگرسیون تغییر رژیم می دانم، اما آنها فقط پارامترهای مختلف را ارائه می دهند و لحظه تغییر ساختار را آزمایش نمی کنند. آیا هیچ مدل رگرسیونی تغییر رژیم برای سری های زمانی وجود دارد که به شناسایی لحظه زمانی که سوئیچ اتفاق می افتد کمک کند؟ من در مورد مدل‌های خودرگرسیون سوئیچینگ مارکوف (MSVAR) می‌دانم، اما در مشکلم باید رگرسیون ساده را بدون شرایط خودرگرسیون اعمال کنم. آیا روش های ساده تر و مناسب تری وجود دارد؟
رگرسیون تغییر رژیم
29133
آیا استفاده از کالیبراسیون/پس طبقه بندی به این معنی است که استراتژی نمونه گیری/طبقه بندی/احتمال انتخاب فردی را می توان به طور کلی نادیده گرفت؟ در یک تمرین وزن‌دهی مجدد نظرسنجی، من مجموع جمعیت را برای طبقه‌بندی متقابل کامل از چهار ویژگی دارم: کشور، سن، جنس، و وضعیت شغلی. **ویرایش**: طرح نمونه بر اساس کشور (تقریباً همان تعداد پاسخ دهندگان در هر کشور) و در داخل هر کشور بر اساس سن و جنس طبقه بندی شده است (تقریباً یکنواخت). وضعیت کار بخشی از طبقه بندی نمونه نیست. وظیفه من تولید وزن های عمومی است که می تواند برای شناسایی تعاملات بین متغیرها (طبقه بندی-پاسخ و پاسخ-پاسخ) استفاده شود. تخمین میانگین یا کل جمعیت ممکن است کاربرد دیگری باشد. (حداقل این چیزی است که من می فهمم. صادقانه بگویم، من واقعاً برنامه را نمی دانم - چقدر مهم است؟) **سوال**: اگر اطلاعات مربوط به استراتژی نمونه گیری اضافه شود، وزن های کالیبره شده چگونه تحت تأثیر قرار خواهند گرفت. به روش کالیبراسیون، به عنوان مثال. به صورت اوزان قبلی؟ آیا زمانی که برای ترکیبی از دسته بندی ها پاسخ دهندگان بسیار کمی وجود دارد مشکلی است؟ سوال مربوط به تمرین عملی: انتخاب مجموع کالیبراسیون
اثرات نادیده گرفتن استراتژی نمونه گیری
25889
من چند ده هزار مشاهده دارم که در یک سری زمانی هستند اما بر اساس مکان گروه بندی می شوند. به عنوان مثال: مکان مشاهده تاریخ مشاهدهA observationB --------------------------------------- A 1-2010 22 12 A 2-2010 26 15 A 3-2010 45 16 A 4-2010 46 27 B 1-2010 167 48 B 2-2010 134 56 B 3-2010 201 53 B 4-2010 207 42 من می خواهم ببینم «مشاهدهA» ماه _x_ رابطه خطی با ماه _x_ +1 «مشاهدهB» دارد یا خیر. من تحقیقاتی انجام دادم و یک تابع «باغ‌وحش» پیدا کردم، اما به نظر نمی‌رسد راهی برای محدود کردن تاخیر بر اساس گروه وجود داشته باشد. بنابراین، اگر از باغ‌وحش استفاده می‌کردم و «مشاهدهB» یک ردیف عقب می‌افتادم، آخرین «مشاهدهB» مکان A را به عنوان اولین «مشاهدهB» مکان B می‌آورم. ترجیح می‌دهم اولین «مشاهدهB» از هر مکان، «NA» یا مقدار واضح دیگری باشد که «این ردیف را لمس نکن» باشد. حدس می‌زنم چیزی که به آن می‌رسم این است که آیا راهی داخلی برای انجام این کار در R وجود دارد؟ اگر نه، تصور می‌کنم می‌توانم این کار را با یک ساختار حلقه استاندارد انجام دهم. یا حتی نیاز به دستکاری داده ها دارم؟
عقب افتادن بیش از یک سری زمانی گروه بندی شده
29139
ما در سازمان‌های مختلف در حال انجام ارزیابی هستیم و باید از کارگران در مورد رفتار کاری آنها اطلاعاتی دریافت کنیم. از آنجایی که این اطلاعات چیزی است که می تواند کارگران را با مشکل مواجه کند، حریم خصوصی یک مسئله است، بنابراین ما به سراغ پرسشنامه های ناشناس می رویم. برای اتصال داده ها در طول زمان، ما به دنبال یک شناسه مشارکت کننده هستیم. بر اساس تجربیات قبلی، درخواست کنید: > لطفاً کد شرکت کننده خود را یادداشت کنید. این کد شامل اولین حرف > محل تولد، حرف اول نام، حرف > اول نام مادر و روز تولد شماست. این عیب دارد که برخی از شرکت کنندگان فکر می کنند که همکاران یا مافوق آنها می توانند کد را حدس بزنند و همیشه تعدادی از شرکت کنندگان هستند که یکی از والدین را نمی شناسند. همچنین شرکت کنندگان با این کد اشتباه می کنند. بنابراین سوال من این است -- آیا راهی برای درخواست کدی وجود دارد که به ما امکان می دهد داده ها را در طول زمان به هم متصل کنیم (یعنی برای یک فرد منحصر به فرد است) و در عین حال توسط شرکت کنندگان نیز پذیرفته شود؟ **به روز رسانی:** من نگاهی به پاسخ های اینجا داشتم (خیلی متشکرم) -- یک نکته، ما در حال سازماندهی ارزیابی هستیم، اما محققان مختلفی (موسسات جداگانه) از سایت ها بازدید می کنند. به این معنی که نگه داشتن لیستی از نام های واقعی شرکت کنندگان و کد آنها کار نمی کند (اگر یک موسسه آن را نگه می داشت، یک گلوگاه ایجاد می کرد). در حالت ایده آل، کد چیزی است که فقط در سمت شرکت کنندگان است.
شناسه شرکت کننده برای مطالعه میدانی در یک محیط کاری حساس
99703
مفروضاتی که باید هنگام اجرای ANVOA با طراحی ترکیبی در نظر بگیرم چیست؟ فرض کنید من مجموعه داده زیر را دارم: | سناریو 1 | سناریو 2 | |آزمایش 1|محاکمه 2| محاکمه 3|محاکمه 1|محاکمه 2| محاکمه 3| ------------------------------------------------ ----------------- S1 | ... وضعیت 1 S2 | ... S3 | ------------------------------------------------ ----------------- S5 | وضعیت 2 S6 | S7 | در جایی که «شرط x» متغیر بین موضوع است، «S1، S2، ...» موضوعات هستند، و «سناریو» متغیرهای درون موضوعی هستند، که در آن هر «سناریو» دارای تعدادی «آزمایش» تودرتو است. با استفاده از `lmer` می توانم این مدل را با این شرح توصیف کنم: `lmer(value~Condition*Scenario + (1+Scenario|Player) + (1|Scenario/Trial)`. من یک مقدار متوسط ​​برای هر «سناریو» دارم، فکر می‌کنم باید کارهای زیر را انجام دهم: «سناریو/محاکمه» 2. عدم وجود نقاط داده تأثیرگذار را بررسی کنید آیا چیزی وجود دارد که از قلم افتاده باشم؟
مفروضات طراحی مختلط anova
57933
با استفاده از مرجع زیر، بررسی نمونه‌برداری از توزیع‌های آلوده، با توجه به توزیع نمایی آلوده زیر \begin{align}F(x) = F_\lambda سعی می‌کنم کارایی نسبی (RE) را برای میانگین در مقابل میانگین بریده شده بررسی کنم. (x) + F_{k\lambda} (x) \end{align} هنگام تلاش برای شبیه‌سازی RE برای این توزیع در R برای trim = 0، 0.01، 0.03 و 0.05، من نمودارهای زیر را دریافت می کنم! در بالا، من گمان می کنم که توطئه ها باید در نقطه ای از یکدیگر عبور کنند، اما این اتفاق نمی افتد. تا کنون من با کد زیر آمده ام. - trim.mean <- rep(0,number.of.simulations) بدون سانسور <- rep(0,n) fraction.of.trim <- seq (از = 0، تا = 0.1، توسط = 0.001) مقدار. trim <- c(0، 0.01، 0.03، 0.05) نسبی. کارایی <- ماتریس (NA,nrow= طول (کسر .of.trim) , ncol = طول (مقدار.ترم) ) برای (i در 1:length(amount.trim)){ for(j in 1:length(fraction.of.trim)){ بدون سانسور <- matrix( (uniform.variables <= 1 - error) * rexp(n = n * number. of.simulations) + (uniform.variables > 1 - error) * rexp(n = n * number.of.simulations)، ncol = تعداد شبیه‌سازی‌ها .trim[j]) نسبی. کارایی[j,i] <- mean((no.trim.mean - 1)^2)/mean((trim.mean - 1)^2) } } چه چیزی را در این شبیه سازی از دست داده یا اشتباه می کنم؟
بررسی کارایی نسبی میانگین بریده شده
29137
در مورد خروجی نهایی PCA: 1. با استفاده از چرخش، یک بارگذاری برای 50 مؤلفه خود دریافت می کنم، بنابراین معادله $pc_1=0.05*a_1+0.02*a_2+\dots+0.04*a_{50}$ خواهد بود. اکنون، آیا می توانم با استفاده از آخرین بازگشت مشاهده شده برای $a_1,a_2,\dots,a_{50}$، مقدار $pc_1$ را بدست بیاورم؟ 2. همانطور که به داده های خود نگاه کردم، دریافتم که حداقل 10 جزء اصلی برای توضیح 80 درصد واریانس مورد نیاز است، بنابراین با استفاده از منطقی که در بالا ذکر شد، $pc_1,pc_2,\dots,pc_{10} $. اکنون رگرسیون $y=w_1*pc_1+w_2*pc_2+...+w_{10}*pc_{10}+e $ خواهد بود. در هر یک از آنها $w_1،w_2،\dots،w_{10}$ می‌تواند مقدار ویژه مربوطه آنها باشد و عبارت باقی‌مانده یک عبارت خطا است؟
تفسیر بارگذاری PCA
29130
در زمینه شبکه های عصبی، تفاوت بین میزان یادگیری و کاهش وزن چیست؟
تفاوت بین کاهش وزن خالص عصبی و میزان یادگیری
72081
من مشکل زیر را دارم: تابع درستنمایی، تابع log-likelihood و تخمین حداکثر درستنمایی و همچنین اطلاعات فیشر و اطلاعات فیشر مشاهده شده را برای هر یک از مسائل زیر فرموله کنید. ج) $X_i,\dots,X_n \overset{\mathrm{i.i.d}}{\sim} \mathcal{N}(\theta,\theta^2)$d) $X_i,\dots,X_n \overset{\ mathrm{i.i.d}}{\sim} \mathcal{N}(\theta,\theta)$ تاکنون موارد زیر را دارم: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/O66Jj.png) اول اینکه آیا تا الان کارهای درستی انجام دادم؟ و مهمتر: چگونه می توانم برآورد حداکثر احتمال را محاسبه کنم؟ یا حتی این امکان وجود دارد؟ * * * **ویرایش** پس از اشاره CoolSerdash من موارد زیر را دریافت کردم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/RlKZQ.png) آیا درست است؟ اما من برای فرموله کردن اطلاعات مشاهده شده فیشر تردید دارم. آیا این عبارت یک هیولایی نیست که تخمین حداکثر احتمال را درج کند؟ * * * **سوال مشابه** من باید همین کار را برای توزیع گاما انجام دهم: $X_i,\dots,X_n \overset{\mathrm{i.i.d}}{\sim} \Gamma(\alpha,\beta)$ جایی که $\alpha$ شناخته شده است. من تاکنون موارد زیر را دارم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/5Jatl.png) آیا این منطقی است؟
برآورد حداکثر احتمال: آیا این امکان حل است؟
29280
من نمی توانم همان نتایج را در R به عنوان GraphPad Prism برای اندازه گیری های مکرر آنووا دریافت کنم. آزمایش یک دوره زمانی تحریکی بود، بنابراین من به عنوان DV=response و به عنوان فاکتور زمان در گروه ها، همچنین یک نمونه عامل برای هر داده آزمایش اضافه می کنم <- read.csv(http://dl.dropbox.com /u/4828275/datos.csv) options(contrasts=c(contr.sum,contr.poly)) ## تبدیل متغیرها به داده های عاملی <- درون (داده، { نمونه <- عامل(نمونه) زمان <- عامل(زمان) }) aov <- aov(response~time+sample, data=data) summary(glht(aov, linfct=mcp(time=Dunnett ))) آزمون های همزمان برای فرضیه های خطی عمومی مقایسه چندگانه میانگین ها: تضادهای دانت برازش: lme.formula(ثابت = پاسخ ~ زمان، داده = داده، تصادفی = ~ 1 | نمونه) فرضیه های خطی: برآورد Std. خطای z مقدار Pr(>|z|) 2 - 0 == 0 1.1789 2.0800 0.567 1 5 - 0 == 0 1.2966 2.0800 0.623 1 10 - 0 == 0 1.0555 1.055 0.08 = 0.05. 0.4317 2.0800 0.208 1 30 - 0 == 0 0.2148 2.0800 0.103 1 (مقادیر p تنظیم شده گزارش شده -- روش بونفرونی) برای اندازه گیری های مکرر من این کد را دارم aov.repeated <- ezANOVA( data , =resd . (زمان)، درون = .(نمونه) , نوع = 1 , return_aov = TRUE )$aov نتایج GraphPad Prism برای همان داده ها جدول تجزیه و تحلیل داده ها 1 اندازه گیری های مکرر ANOVA P مقدار 0.0415 P خلاصه مقدار * Are به معنای نشانه بود. متفاوت؟ (P <0.05) بله تعداد گروه 6 F 2.863 R مربع 0.4172 آیا جفت سازی به طور قابل توجهی مؤثر بود؟ R مربع 0.1980 F 2.119 P مقدار 0.1162 P خلاصه مقدار ns آیا تطابق قابل توجهی وجود دارد؟ (P < 0.05) بدون ANOVA Table SS df MS Treatment (بین ستون ها) 130.6 5 26.12 فردی (بین ردیف ها) 77.30 4 19.32 باقیمانده (تصادفی) 182.4 20 9.10nnt تست مجموع 23. میانگین تفاوت. q قابل توجه است؟ P <0.05؟ خلاصه 95% فاصله اطمینان (CI) از تفاوت 0 در مقابل 2 -2.861 1.498 خیر ns -8.085 تا 2.362 0 در مقابل 5 -5.777 3.024 بله * -11.00 تا -0.5531 0 در مقابل 10 -6.016 - 6.016 - بله 3. 0 در مقابل 15 -4.621 2.419 No ns -9.844 تا 0.6029 0 در مقابل 30 -2.581 1.351 No ns -7.805 تا 2.642 چگونه می توانم همان نتایج فوق را در R بدست بیاورم؟ آیا راهی برای دریافت تست مقایسه چندگانه Dunnett در aov.repeated وجود دارد؟
مقادیر اشتباه در آزمون تعقیبی Dunnett
79500
من سعی می کنم درک اولیه الگوریتم behing SVM را به دست بیاورم، اما با ریاضیات پایه مشکل دارم. من سخنرانی ماشین بردار پشتیبانی را دنبال می کنم. > فرض کنید دو کلاس را می توان با یک ابرصفحه از هم جدا کرد:$(w \cdot x) + b = > 0$ طبق ویکی‌پدیا، hyperplane به صورت $n(r-r_0)=0$ تعریف شده است، آیا به این معنی است که $b =-w \cdot r_0$؟ من سعی کردم حالت دو بعدی را در نظر بگیرم، زمانی که $w \cdot x +b =0$ یک خط است، اما کاملاً معنی ندارد، $b=-w \cdot x$، جایی که $b$ باید یک باشد ثابت، چگونه می توانم آن را به یک حالت دو بعدی تعمیم دهم. علاوه بر این، چرا $w$ در واقع متعامد به صفحه مثبت و منفی است؟ من از کمک شما قدردانی می کنم.
پیشینه ریاضی SVM
110428
من یک داده نویزدار از دو متغیر مانند این دارم. x1 <- تکرار (توالی (0،1، 0.1)، هر = 3000) مجموعه. دانه (123) y1 <- تکرار (c(0.2، 0.8، 0.3، 0.9، 0.65، 0.35، 0.7، 0.1، 0.25، 0.3 ، 0.95)، هر = 3000) set.seed(1234) e1 = rnorm(طول(x1)، 0.07،0.07) set.seed(1223) e2 = rnorm(طول(x1)، 0.07،0.07) set.seed(1334) yn <- rnorm(20000 , 0.5,0.9) set.seed(2344) xn <- rnorm(20000, 0.5,0.9) y <- c(y1 + e1,yn) x <- c(x1 + e2, xn) نمودار(x,y, xlim=c(0,1.2), ylim = c(0 ,1.2)، pch = .، col = grey40) به صورت بصری می توانم 10 خوشه بالقوه را در نگاه دقیق تر ببینم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/fkHBd.jpg) با این حال کل داده ها دارای نقاط زیادی هستند: plot(x,y, pch = ., col = gray40 ) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/uKAYl.jpg) من می خواهم 10 خوشه بسازم. من تحلیل خوشه‌ای K-means را امتحان کردم. xm1 <- cbind(x,y) cl1 <- kmeans(xm1, 10) رنگ‌ها <- c(قرمز، سبز، آبی1، صورتی، سبز4، برنزه، خاکستری40 ، زرد، سیاه، بنفش) نمودار (xm1، col = colrs[cl1$cluster]، pch = .، xlim=c(0,1.2), ylim = c(0,1.2)) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gJj8C.jpg) plot(xm1, col = colrs[ cl1$cluster]، pch = .) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/F0x1w.jpg) به هر حال وجود دارد (ممکن است هسته k-means، نزدیکترین همسایگان) باشد که می تواند عدالت بیشتری را برای این نوع داده ها انجام دهد. اگر بله چگونه می توانم این کار را انجام دهم؟
خوشه بندی داده های پر سر و صدا یا با نقاط پرت
79504
ما به دنبال راهی برای پیش بینی ارزش طول عمر یک مشتری اشتراک برای یک شرکت جدید مبتنی بر اشتراک هستیم. مشکل این است که ما نمی دانیم ارزش مادام العمر یک مشتری تا پایان عمر او (زمانی که مشتری اشتراک خود را لغو می کند) چقدر است. ما می‌خواهیم بتوانیم بر اساس داده‌های ۲ و نیم ماهه، برای یک مشتری متوسط، ارزش آن‌ها را پیش‌بینی کنیم. آیا کسی می تواند یک روش ساده اما عمدتاً قابل اعتماد برای پیش بینی این مقدار پیشنهاد دهد؟ من یک آماردان یا استاد ریاضی نیستم، بنابراین از یک پاسخ ساده با عبارات آسان قدردانی می کنم. برای سادگی، فرض کنید قیمتی که مشتری در ماه می پردازد 20 دلار ثابت است و میانگین کنسلی ها 10 درصد است (یعنی اگر 1000 نفر عضو شوند، 100 نفر اشتراک خود را لغو کرده اند). من این مقاله را پیدا کردم: http://lsvp.com/2010/07/19/how-to-estimate-lifetime-value/ از این مدل برای تخمین کسب و کار مشابه استفاده می کند: https://docs.google.com/spreadsheet/ccc?key=0AnVV-5PRmDIKdHcwQWlvd3F3MDFodXNvamcxZjZ3VlE&hl=en#gid=0 من وسوسه شدم از این مدل استفاده کنم اما نگران این هستم که 2 1/2 ماه داده با این مدل کار نکند ، که از داده های 12 ماهه استفاده می کند.
پیش بینی ارزش مادام العمر یک مشتری اشتراک
68812
من واقعاً با روش های ARIMA تازه کار هستم و سعی می کنم بار برق را پیش بینی کنم. من ادغام کرده ام: بار برق، دما، روز هفته (ساختگی)، تعطیلات عمومی، و تعطیلات مدرسه. مدل من سعی می کند یک ARIMA غیر فصلی را با رگرسیون خطی برای هر ساعت از روز انجام دهد. در اینجا کد من برای مثال یکی از 24 ساعت (6 صبح): # ElecLoad حاوی بارهای ساعتی و داده های دیگر برای سال 2005 و 2006 است (=2*365*24 ورودی): # 1. بار الکتریکی در مگاوات #2. روز ضعیف: یکشنبه = 0، دوشنبه = 1، و غیره # 3. ساعت روز 0 -> 23 # 4. تعطیلات عمومی: 1 اگر تعطیلات عمومی است، 0 در غیر این صورت # 5. تعطیلات مدرسه: 1 اگر مدرسه وجود ندارد # 6. دما در درجه فارنهایت # ایجاد ماتریس ضعیف = متغیرهای ساختگی برای ماتریس ضعیف روزهای ضعیف<-model.matrix(~as.factor(ElecLoad[, 2])) #حذف ماتریس ضعیف رهگیری<-weakmatrix[,-1] #Generate FullTable FullTable<-cbind(load=ElecLoad[,1], ضعیف ماتریس, ElecLoad[,4], ElecLoad[,3],ElecLoad[,5],ElecLoad[,5]^2, ElecLoad[,6] نامهای کل (FullTable) )<-c(بار، دوشنبه، سه شنبه، چهارشنبه، پنجشنبه، فرخ، شب، ScoolHol, PubHol، Temp، Temp2، Hour) #ایجاد xreg = برای یک ساعت خاص از روز (ستون 12 = ساعت) زیرمجموعه xreg<-subset(FullTable[,2:11) ]، FullTable[,12] == 7) #سری زمانی Load را ایجاد کنید، همچنین زیر مجموعه ای از جدول کامل LoadTs<-ts(subset(FullTable[,1], FullTable[,12] == 7),start=1,frequency=1) #راه اندازی auto.arima ArimaLoad<-auto.arima(LoadTs, xreg=xreg, lambda=0) وقتی می‌خواهم با همان داده‌های ۲ ساله «xreg» پیش‌بینی کنم، خروجی من در اینجا است. plot(forecast(ArimaLoad,xreg=xreg), include=0) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/MpNeH.png) در حالی که وقتی سعی می کنم برازش را ترسیم کنم یکسان به نظر می رسد به نمودار بار اصلی من (fitted(ArimaLoad)) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/zsw81.png) من نمی‌دانم چرا «پیش‌بینی» بسیار متفاوت از «fitted()» با همان ماتریس «xreg» است. آیا این یک رفتار طبیعی است، چگونه می توانم مدل خود را بهبود بخشم تا با شرایط واقعی تطبیق بیشتری داشته باشد؟ * * * از حمایت شما بسیار سپاسگزارم. من مطمئن نیستم که همه چیز را از آنچه شما پیشنهاد می کنید فهمیده باشم. منظور شما این است که برای پیش بینی بار متوسط ​​روزانه یک مدل اول بسازم (من میانگین را به جمع ترجیح می دهم زیرا به دلیل DST بعضی روزها 24 ساعت ندارند...). این مدل قطعی خواهد بود، اما من نمی دانم که شما به چه مدلی فکر می کنید؟ آیا رگرسیون چند خطی خوب است؟ من ترجیح می‌دهم log (بار) را در نظر بگیرم تا پارامترهای مختلف ضرب شوند که فکر می‌کنم با واقعیت سازگارتر است. سپس من باید مدل های 24 ساعته داشته باشم، میانگین روزانه را بگیرم و سپس با یک جلوه فصلی مرتب کنم؟ آیا باید در جایی از مدل ARIMA استفاده کنم؟ من قانع نیستم که ماه را تأثیرگذار بدانم، به نظر من دلیلی وجود ندارد که مصرف در ژانویه از آگوست مهمتر باشد مگر اینکه تأثیر دما و تعطیلات را در نظر بگیریم. ساعت روز به فعالیت مربوط می شود و به همین دلیل است که مدل خاصی را برای هر ساعت در نظر می گیرم. به همین ترتیب هر روز ضعیفان متفاوت است. من یک رگرسیون چند خطی را برای همان ساعت (7:00 صبح) امتحان کردم و نتیجه به نظر بد نیست. #CREATE FRAME.DATA LOAD <-subset (Fulltable [، 1] ، Fulltable [، 12] == 7) FullData <-cbind (logload = log (load) ، xreg) framedata <-data.frame (fulldata) # رگرسیون چند خطی mlin<-lm(LogLoad ~ دوشنبه+سه+چهارشنبه+پنج+ جمعه+شب+ScoolHol+PubHol+Temp+`Temp2`, FrameData) خطوط (exp(mlin$model$LogLoad)، type=l,col=blue) خطوط (exp( fitted(mlin))، col=red) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/MpNeH.png) متناسب () به رنگ قرمز که اکنون دقیقاً مشابه پیش بینی () است اگر دوباره از همان ورود داده (2005-2006) استفاده کنم و به نظر نمی رسد که از بار اصلی به رنگ آبی دور باشد (برای یک مدل ساده خیلی بد نیست). من هنوز به طور کامل درک نمی کنم که چرا با ARIMA کار نمی کند زیرا رگرسیون چند خطی را نیز در نظر می گیرد. اکنون مدل ساده من چندین پارامتر مانند دما، تعطیلات، تعطیلات مدرسه، روز افراد ضعیف و ساعت روز (به وقت محلی، نه UCT) را در نظر می گیرد. چگونه می توانم مدل خود را بیشتر بهبود بخشم؟ چگونه می توانم مطمئن شوم که پارامترها ثابت هستند؟ آیا روش خاصی وجود دارد؟
auto.arima و پیش بینی
72084
من می دانم که برآوردگر Kaplan-Meier مغرضانه است زیرا کتاب درسی من چنین می گوید. با این حال، من نمی‌دانم چرا اثبات زیر کار نمی‌کند: اجازه دهید $\hat{S}(t)$ تخمین کاپلان مایر برای تابع بقا $S(t)\equiv P(T_i > t) باشد. $ که در آن $T_i$ زمان‌های شکست iid است. اجازه دهید $\hat{\Lambda}(u)$ برآوردگر نلسون-آلن برای تابع خطر تجمعی $\Lambda(u)$ باشد. مشخص است که $\frac{\hat{S}(t)}{S(t)}-1 = -\int\limits_{0}^{t}\frac{\hat{S}(u^- )}{S(u)}d\\{\hat{\Lambda}(u)-\Lambda(u)\\}$. اکنون، $\int\limits_{0}^{t}\frac{\hat{S}(u^-)}{S(u)}d\\{\hat{\Lambda}(u)-\Lambda (u)\\}$ یک مارتینگل است زیرا $\hat{\Lambda}(u)-\Lambda(u)$ یک مارتینگل است و به دلیل اینکه $\frac{\hat{S}(u^-)}{S(u)}$ یک فرآیند قابل پیش بینی است. بنابراین، $\mathbb{E}[\frac{\hat{S}(t)}{S(t)}-1]=0 \Rightarrow \mathbb{E}[\frac{\hat{S}(t )}{S(t)}]=1 \Rightarrow \mathbb{E}[\hat{S}(t)]={S(t)}$ زیرا $S(t)$ یک تابع غیر تصادفی است.
چرا اثبات من برای نشان دادن بی طرفی تخمین کاپلان مایر کار نمی کند؟
68813
فرض کنید از 100 نفر بپرسید آیا این کالا را به قیمت 1000 دلار خریداری می کنید؟ شما پاسخ هایی دریافت می کنید که در یکی از سه دسته، بله، خیر یا شاید قرار می گیرند. با فرض اینکه شما یک عدد غیر پیش پا افتاده از هر پاسخ دریافت می کنید، آیا می توان تخمین زد که چه قیمتی می تواند تعداد مساوی بله و نه (با بقیه شاید باشد). چگونه می توان این را مدل کرد؟ آیا با برخی پیش فرض ها می توان آن را تعیین کرد؟ در مورد پرسیدن سوال برای بار دوم با قیمت متفاوت چطور؟ این یک تکلیف فرضی است و من نمی توانم تشخیص دهم که آیا چیزی وجود دارد که بتوان استنباط کرد یا خیر.
از این داده ها چه چیزی می توان استنباط کرد؟
29134
آیا استفاده از انتساب عرشه داغ برای امکان پس‌لایه‌بندی در حضور لایه‌های خالی توصیه می‌شود؟ در یک تمرین وزن‌دهی مجدد نظرسنجی، من مجموع جمعیت را برای طبقه‌بندی متقابل کامل از چهار ویژگی دارم: کشور، سن، جنس، و وضعیت شغلی. با این حال، نظرسنجی از عدم پوشش رنج می برد: برای چند ترکیب دسته بندی، نمونه متناظری در نظرسنجی وجود ندارد. این بدان معنی است که پس قشربندی ساده را نمی توان مستقیماً اعمال کرد. برای ترکیب‌های دسته‌بندی گم‌شده، می‌توانم از سوابق نظرسنجی استفاده کنم که «شبیه» به موارد گم‌شده هستند (انقلاب عرشه داغ)، و سپس از پس طبقه‌بندی ساده استفاده کنم. من حتی می‌توانم این $k$ را بارها تکرار کنم و میانگین را روی مجموعه‌های $k$ از وزن‌ها تکرار کنم. **سوال**: آیا این بهتر یا بدتر از فروپاشی لایه های پسا یا استفاده از تخمین GREG در نظر گرفته می شود؟ چرا؟ (اشاره به ادبیات نیز استقبال می شود.) سوالات زیر مرتبط هستند: انتخاب مجموع کالیبراسیون، اثرات نادیده گرفتن استراتژی نمونه گیری
درمان عدم پوشش با انتساب عرشه داغ؟
72087
من برای این تمرین آموزشی از درخت رگرسیون استفاده می کنم. من 500 نقطه مشاهده از متغیرهای مستقل $X$ و متغیر وابسته $Y$ دارم. من از 400 امتیاز برای تولید مدل خود استفاده می کنم و 100 امتیاز را برای تست خارج از نمونه (OOS) نگه می دارم. سپس، از مدل برای پیش‌بینی Y جدید (Y_predicted) برای داده‌های OOS استفاده می‌کنم. سپس، R-squared را با استفاده از Y اصلی از داده‌های OOS و Y_predicted بدست می‌آورم. من همچنین یک آزمون t بر روی (Y - Y_predicted) انجام می دهم. R-squared منفی است و t-test در رد کردن null در 5٪ شکست خورده است. تهی بودن تفاوت میانگین Y و Y_predicted صفر است. من در مورد چگونگی تفسیر این نتیجه سردرگم هستم. R-squared می گوید مدل من اساساً جعلی است، اما t-test می گوید که از آنجایی که میانگین اختلاف Y و Y_predicted 0 در سطح 5٪ است، بنابراین مدل مناسب است. R-squared بر روی OOS Y اصلی محاسبه شده و Y پیش بینی شده با استفاده از مدل است. آزمون t در OOS اجرا شد (Y - Y_predicted)
سردرگمی R-squared در مقابل t-test
68810
من در درک محاسبه انتظارات شرطی در مقابل غیرشرطی در این مورد مشکل دارم: \begin{array}{c c c c} & \quad &X=1\quad &X=-1\quad &X=2 \\\ &Y=1\quad &0.25\quad &0.25\quad &0 \\\ &Y=2\quad &0\quad &0\quad &0.5 \end{array} \begin{align} ~ \\\ ~ \\\ ~ \\\ E(Y)&=\sum_Y y f(y) \\\ ~ \\\ ~ \\\ ~ \\\ E (Y|X)&=\sum_Y y f(y|x) \end{align} برای من، هر دو محاسبه $1*0.25 + 1*0.25 + هستند 2*0.5 = 1.5$. من چه غلطی می کنم؟
انتظار مشروط در مقابل انتظار بی قید و شرط
34501
من یک جدول احتمالی 10 در 10 دارم که اکثر سلول هایم = 0، و تعداد کل سلول هایم = 70 است. آیا بسته آماری یا ماشین حساب آنلاینی وجود دارد که بتوانم از آن برای بدست آوردن مقادیر p و کاپا کوهن استفاده کنم؟
نرم افزاری برای محاسبه مقادیر p و کاپا کوهن برای جدول احتمالی 10 در 10؟
29131
من اخیراً درگیر پروژه ای هستم که نیاز به تجزیه و تحلیل زمان بقای اجسام دارد. بنابراین، من قصد دارم از بسته rms برای ساخت مدل Cox استفاده کنم. مشکل این است که از آنجایی که مجموعه داده‌ای که من دارم آنقدر بزرگ است (حدود 450000 نمونه و هر نمونه با 9 متغیر کمکی مرتبط است)، که محیط R قادر به رسیدگی به این موضوع نیست. کسی پیشنهادی دارد؟
چگونه تجزیه و تحلیل بقا را روی مجموعه داده بزرگ اجرا کنیم؟
34509
وقتی در اینجا یا جای دیگری در اینترنت به دنبال تعریفی در مورد اثرات ثابت، اثرات تصادفی یا اثرات مختلط می‌گردم، تفاوت‌های زیادی وجود دارد. اولین مواجهه من با مدل خطی اثرات مختلط در تجزیه و تحلیل داده های طولی در Biostatistics بود. تعریف برای من واضح است که اثر ثابت اثر میانگین جمعیت است و اثرات تصادفی اثر موضوع خاص است. سپس مدل اثرات مختلط مدلی است که هم دارای اثرات ثابت و هم اثرات تصادفی است. مدل اثرات مختلط معمولاً مدل اثرات تصادفی است زیرا حاوی حداقل یک پارامتر اثرات ثابت است. مانند شیب زمانی، شما یک شیب متوسط ​​برای همه افراد در داده ها دارید، و اثرات تصادفی آن شیب خاص موضوعی هستند که از شیب میانگین منحرف می شوند. با این حال، در اقتصاد سنجی، توسعه مدل‌های اثرات ثابت و اثرات تصادفی تعاریف متمایزی دارند، که این است که آیا ناهمگونی با عبارت خطا مرتبط است یا نه. برخی از آزمون های آماری برای آزمایش اینکه آیا باید از مدل اثرات ثابت یا اثرات تصادفی استفاده شود، توسعه داده شد. تحلیل‌های علوم اجتماعی زیادی وجود دارد که رویکرد اقتصادسنجی را نیز اتخاذ می‌کنند. بنابراین، وقتی بحث‌هایی را درباره مدل‌های جلوه‌های ثابت، جلوه‌های تصادفی یا اثرات مختلط می‌خوانم که توسط افرادی از مناطق مختلف ارسال شده است، همیشه من را گیج می‌کنند. حتی اگر گاهی اوقات تعاریف ریاضی شبیه به هم هستند، فرآیند مدل سازی و در نظر گرفتن پشت آن کاملاً متفاوت است. امیدوارم بحث های کلی در مورد آمار و اقتصاد سنجی در مورد اختلاف آنها در تعاریف یا مفاهیم به جای روش شناسی یا الگوریتم های مورد استفاده وجود داشته باشد.
مفاهیم اثرات مختلط در آمار و اقتصاد سنجی، چگونه می توان با آنها کنار آمد؟
34507
آیا کسی از مواد مرجع خوب در مورد تجزیه و تحلیل اکتشافی و نمودارهای تشخیصی برای داده های شمارش اطلاعی دارد؟
برخی از تجزیه و تحلیل اکتشافی و نمودارهای تشخیصی خوب برای داده های شمارش چیست؟
29135
از آنجایی که متغیر زمان را می توان به عنوان یک ویژگی عادی در طبقه بندی در نظر گرفت، چرا از روش های طبقه بندی قوی تر (مانند C4.5، SVM) برای پیش بینی وقوع یک رویداد استفاده نمی کنیم؟ چرا بسیاری از مردم هنوز از مدل کلاسیک اما قدیمی کاکس استفاده می کنند؟ در مورد داده های سانسور راست، از آنجایی که زمان برای یک نمونه تغییر می کند، بنابراین فکر می کنم یک شی با مقادیر زمانی متفاوت می تواند به عنوان دو نمونه متفاوت در طبقه بندی در نظر گرفته شود. آیا این خوب است؟ آیا مقاله پر استناد در این زمینه وجود دارد؟ متشکرم
تفاوت بین تجزیه و تحلیل بقا و طبقه بندی؟
34502
معکوس ماتریس کوواریانس برای یک توزیع می تواند مقدار خوبی برای ماتریس جرم توزیع مونت کارلو همیلتونی باشد. اگر توزیع مورد نظر، عقب مدل گرافیکی بیزی باشد، بسیاری یا بیشتر متغیرها به صورت مشروط مستقل از یکدیگر خواهند بود. بنابراین، معکوس ماتریس کوواریانس برای آن جفت متغیرها صفر خواهد داشت. با بررسی نمودار مدل می توانید الگوی پراکندگی ماتریس را دریابید. من می‌خواهم معکوس ماتریس کوواریانس را برای یک توزیع با در نظر گرفتن برخی از نمونه‌های IID از توزیع و با فرض اینکه الگوی پراکندگی آن را می‌دانیم، به طور مؤثر تخمین بزنم. به نظر می‌رسد که این مشکل برای موارد کلی‌تر که در آن سعی داریم الگوی پراکندگی را استنتاج کنیم، به خوبی مطالعه شده است. به عنوان مثال، این مقاله به خوبی مورد استناد قرار گرفته است و از تعدادی مقاله دیگر استفاده می کند. با این حال، من مقالاتی را نمی شناسم که به این مورد بپردازند که الگوی پراکندگی مشخص باشد. هر اشاره ای؟
تخمین ماتریس کوواریانس معکوس پراکنده با پراکندگی شناخته شده
25885
من سعی می کنم یک انتظار $E[f(X;\theta,n)]$ را محاسبه کنم که در آن $\theta$ و $n$ پارامترهای شناخته شده هستند. من یک تابع قطعی با محاسبه آسان $\tilde{f}(\theta,n)$ دارم که تقریبی به $E[f(X;\theta,n)]$ ارائه می‌دهد که به صورت $n\rightarrow بهتر می‌شود. \infty$ (اما همیشه مقدار واقعی را دست کم می گیرد). من همچنین می‌توانم مستقیماً از $f(X;\theta,n)$ نمونه‌برداری کنم و تخمین مونت کارلو $\hat{f}$ را محاسبه کنم که بی‌طرفانه است اما می‌تواند واریانس زیادی برای برخی از $\theta$ و $n$ داشته باشد. . من نمی‌دانم آیا مشکلات مشابهی وجود دارد که ممکن است روش‌هایی را برای تخمین $E[f(X;\theta,n)]$ که این دو تخمین را با هم ترکیب می‌کنند به دست آورد. از آنجایی که با افزایش $n$، $\tilde{f}(\theta,n)\rightarrow E[f(X;\theta,n)]$ را می‌دانیم، به نظر می‌رسد که محاسبه تخمین‌گرها برای یک محدوده مقادیر $n$ و از رفتار مجانبی برای محدود کردن مقادیر برازش شده استفاده کنید. تنها روشی که می توانم به آن فکر کنم استفاده از تخمین بیزی $E[f(X;\theta,n)]$ با در نظر گرفتن میانگین نمونه از نمونه های مونت کارلو و ترکیب یک میانگین قبلی $\tilde{f} است. $. به نظر می رسد شروع خوبی باشد، اما حداقل من دوست دارم بتوانم دانش $E[f]>\tilde{f}$ را در خود بگنجانم. همچنین به نظر کاملا محتمل است که رویکرد پیچیده تری برای مشکل مشابه وجود داشته باشد، اما من فقط مطمئن نیستم که در جستجوی ادبیات از کجا شروع کنم.
ترکیب برآوردگرهای قطعی و تصادفی بی طرفانه