_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
61916
من تعجب می کنم که چرا مقادیر جزئی $\eta^2$ در تجزیه و تحلیل چند متغیره SPSS GLM من بسیار کوچک هستند. من 3 DV و 5 IV دارم و حجم نمونه بزرگ است ($n=5000$). اثرات اصلی و قابل توجه است، اما اندازه اثر بالاتر از $0.01$ (جزئی $\eta^2$) است. هنگامی که من همان تجزیه و تحلیل را با Univariate انجام می‌دهم (یک DV در یک زمان)، اهمیت باقی می‌ماند اما اندازه اثر تا $0.60 افزایش می‌یابد. چرا؟ عوامل با یکدیگر همبستگی دارند (0.03-0.06 دلار) بنابراین، حدس می‌زنم باید Multivariate را انجام دهم، اگرچه اندازه‌های افکت بسیار کوچک هستند. آیا می‌توانید توضیح دهید که چرا اندازه افکت‌ها با انجام Multivariate در مقابل Univariate بسیار تغییر می‌کنند؟
$\eta^2$ جزئی در تحلیل چند متغیره
61911
من باید یک توزیع فرانمایی برای پروژه خود ایجاد کنم. من قبلاً یک الگوریتم تولید سم را که توسط دونالد کنوت ارائه شده است پیاده‌سازی کرده‌ام، اما نتوانستم الگوریتمی برای تولید یک متغیر تصادفی بیش از حد نمایی پیدا کنم. میانگین و واریانس مورد نیاز توزیع در اختیار من قرار گرفته است و به الگوریتمی نیاز دارم که بتواند یک متغیر تصادفی از این توزیع هنگام اجرای آن ایجاد کند.
الگوریتم تولید توزیع فرانمایی
21329
ما یک عدد ثابت شناخته‌شده $K$ از آزمایش‌های مستقل را انجام می‌دهیم، که هر یک از آنها شانس باقی‌مانده $p$ را برای شکست مشخص/فرض دارند. ما تعداد $N$ شکست ها را می شماریم. چگونه می توانم $M$ را انتخاب کنم تا $N>M$ حداکثر شانس $q$ را داشته باشد، برای برخی از نرخ مثبت کاذب کلی مطلوب پایین $q$؟ من یک تقریبی را ترجیح می‌دهم که فقط بر اساس $q$ و $E = K \cdot p$ باشد، با یک قاعده کمی در مورد زمانی که این تقریب معتبر است. این باید شامل $10^{-7}\le q\le 10^{-4}$، $0.5 \le E \le 10$، $K\ge 10^4$ باشد. اشاره به یک منبع معتبر ترجیح داده می شود. برنامه واقعی من: من در حال طراحی دستگاه هایی با یک خودآزمایی (از یک تولید کننده اعداد تصادفی فیزیکی) هستم که در صورت عدم وجود نقص، نرخ شکست باقیمانده شناخته شده ای دارد. اگر خودآزمایی بیش از $M$ در طول عمر خود شکست بخورد، یک دستگاه خود تخریب می‌شود. من می خواهم (یکی از) کمترین $M$ را انتخاب کنم به طوری که میزان شکست پس از انجام خودآزمایی $K$ برای دستگاه های بدون نقص بیشتر از $q$ نباشد. لطفا به عنوان مناسب تگ مجدد کنید!
محدودیت تعداد خطا برای میزان شکست باقیمانده شناخته شده و نرخ مثبت کاذب مورد نظر؟
9493
من یک برنامه نرم افزاری دارم که از یک صف و چندین پردازنده برای پردازش آن کارها استفاده می کند. مشاغل به صورت روزانه برای مشتریان مجدد اجرا می شوند، اما ما همچنین مشتریان جدیدی داریم که مرتباً ثبت نام می کنند. مشکل این است که مشتریان عموماً در ساعات اداری ثبت نام می کنند و اجرای مجدد روزانه کارها صرفاً کار را برای اجرای هر روز در زمان مشخصی برنامه ریزی می کند. این بدان معناست که ما در طول روز تعداد زیادی کار ایجاد کرده‌ایم، با تعداد کمی از مشاغل که یک شبه کار می‌کنند. من می‌خواهم نوک‌های این صف شغلی را یکنواخت کنم، اما همچنین می‌خواهم فاصله هر کار جداگانه از زمان اصلی خود را به حداقل برسانم. به عبارت دیگر، من ترجیح می‌دهم 100 شغل را هر کدام 5 دقیقه جابجا کنم تا اینکه 1 کار را در ساعت جابجا کنم تا به توزیع یکنواخت مشاغل در کل دوره 24 ساعته دست یابم.
چگونه می توانم توزیع تصادفی را یکنواخت کنم در حالی که فاصله هر نقطه داده را به حداقل برسانم؟
9724
امیدوارم از کسی که روی مدل‌های موش یا آنالیزهای بیولوژیکی مشابه کار کرده است بشنوم که در آن تمایل به اجرای «تکرار» یک آزمایش وجود دارد. من می دانم که آزمایش چندگانه یک کتری ماهی قابل توجه است که قطعاً به این بحث مرتبط است. من برخی از برنامه‌های کاربردی برای پروژه‌هایی دارم که در آنها در مورد اجرای 3 تکرار از یک آزمایش صحبت می‌کنند، که در آن هر آزمایش دارای n = 3 تا 7 است. با این حال، به نظر می‌رسد هیچ اشاره‌ای به این که آنها با مجموعه‌های متعدد نتایج چه خواهند کرد، وجود ندارد. موفقیت، شکست، موفقیت در مقابل شکست، شکست، موفقیت و غیره را مدیریت خواهد کرد. نظرات / تجربیات شما در مورد این وضعیت چیست؟ من می دانم که انواع مختلفی از تکثیر وجود دارد، فنی در مقابل بیولوژیکی، با این حال مطالعه مفید کمی در مورد این موضوع پیدا کرده ام.
مدل‌های ماوس - «تکرار» و تجزیه و تحلیل
16413
اخیراً رسانه ها در مورد یک نظرسنجی سیاسی گزارش دادند که 46٪ از رای دهندگان جمهوری خواه در می سی سی پی فکر می کنند که ازدواج بین نژادی باید غیرقانونی باشد. یکی از نمونه‌های داستان (از بسیاری در سراسر شبکه) این است که از نیویورک دیلی نیوز آمده است: 46 درصد از جمهوری‌خواهان می‌سی‌سی‌پی در نظرسنجی جدید می‌گویند ازدواج بین نژادی باید غیرقانونی باشد. از آن مقاله: > نظرسنجی انجام شده در ماه گذشته نشان می دهد که 46 درصد از رأی دهندگان جمهوری خواه در ایالت معتقدند > ازدواج بین نژادی باید غیرقانونی باشد - تعداد زیادی از مردم > مورد سوال قرار گرفته اند، با توجه به اینکه من افراد زیادی را در ازدواج های بین نژادی می شناسم (از جمله در خانواده خودم) من انگیزه داشتم که داستان کامل را دنبال کنم تا اینکه در معرض هیستری آشکار قرار بگیرم. من بیانیه مطبوعاتی نظرسنجی از Public Policy Polling را در اینجا قرار دادم (PDF) که نشان می دهد: > 46٪ از این رای دهندگان سرسخت جمهوری خواه معتقدند ازدواج بین نژادی باید غیرقانونی باشد، در حالی که 40٪ فکر می کنند باید قانونی باشد. با گنجاندن باربور، > هاکبی حمایت بیشتری (22٪) از اولی نسبت به دومی (15٪) دریافت می کند، همانطور که > پالین (13-6). حمایت از باخمن (10-2)، گینگریچ (13-8)، و > پاولنتی (4-1) برعکس عمل می کند. و در پایان صفحه اول آنها می گویند: > PPP از 24 تا 27 مارس 400 رای دهنده معمولی جمهوری خواه می سی سی پی را مورد بررسی قرار داد. حاشیه خطای نظرسنجی +/-4.9٪ است. حالا چیزی که من نمی فهمم این است که چگونه نتایج را به خصوص حاشیه مقدار خطا تفسیر کنم. از اعداد خام، 46٪ (50٪) از 400 رای دهنده، 200 رای دهنده هستند که فکر می کنند ازدواج های بین نژادی باید غیرقانونی باشد. اما از آمار می سی سی پی در انتخابات فدرال 2008، مک کین حدود 725000 رای جمهوری خواهان را به دست آورد (به اوباما 556000). احساس اصلی من این است که شما نمی توانید آن 46 درصد را به 724600 رأی دهنده جمهوری خواه دیگر تعمیم دهید و همچنان 5 درصد حاشیه خطا را حفظ کنید. پس آیا رسانه ها اعداد را نادرست نشان می دهند (واقعاً؟ رسانه ها این کار را می کنند؟!؟!؟!) یا آیا آماری در کار است که من نمی فهمم؟ با تشکر از کمک شما!
چگونه حاشیه خطا را در نظرسنجی تفسیر کنیم؟
61918
من با آمار مبتدی هستم و برای تجزیه و تحلیل داده ها به کمک نیاز دارم. در تحقیقات خود سعی می‌کنم تأثیر رنگ‌ها در وب‌سایت‌ها و انواع فروشگاه‌های اینترنتی بر اعتماد مشتری، قصد خرید، ترجیحات و غیره را بیابم. برای مثال، اگر رنگ وب‌سایت‌ها آبی باشد تا قرمز، به وب‌سایت‌های فروش خدمات بیمه بیشتر اعتماد می‌شود. طراحی تحقیق من 2x2 است /رنگ: قرمز در مقابل آبی $\times$ نوع وب سایت: سرویس در مقابل خروجی. من مطمئن نیستم که آیا باید از آنووا یک طرفه استفاده کنم یا آنووا دو طرفه و مدل باید چگونه باشد. یا راه حل بهتری هست؟ میشه لطفا کمکم کنید من از SAS استفاده می کنم.
طراحی 2x2 برای ANOVA
55027
من در حال نوشتن مقاله ای اکتشافی با در نظر گرفتن این بحث هستم که یک واکنش معینی که می تواند در نگاه هنر به وجود بیاید می تواند به عنوان یک شاخص تجربی عمل کند که یک فرآیند شناختی خاص دیگر در تجربه آنها رخ داده است (در این مورد که یکی از اجزای خود را تغییر داده است. خودپنداره). (به عنوان مثال: بگویید که وقتی مردم گزارش می دهند که در یک برخورد هنری احساس عطسه کردن دارند، ما همچنین انتظار داریم که آنها باید بخشی از تصویر خود را تغییر می دادند. کسانی که تمایلی به عطسه کردن نداشتند نباید تغییری نشان دهند.) برای اندازه‌گیری این، ما یک پیش‌آزمون با بیست مقیاس صفت دوقطبی 7 درجه‌ای (به عنوان مثال، خوب... بد) دادیم که تصور مردم از تصویر خود را ارزیابی می‌کرد، سپس از آنها خواستیم هنر را ببینند. و سپس یک آزمون دوم با سوالات مشابه و همچنین یک سوال ارزیابی (Y/N) انجام داد که آیا آنها تمایل به عطسه کردن دارند یا خیر. اندازه جمعیت 21 نفر بود که از جمعیت موزه گرفته شده بود، که حدود 40٪ احساس عطسه کردن داشتند. من متعجبم که بهترین آزمایش برای مقایسه تغییرات در تصور از خود بین جمعیت عطسه و بدون عطسه چیست. من در ابتدا یک آزمون تی زوجی بر روی هر دو جمعیت انجام دادم و تغییر قابل توجهی در معیارهای خاص برای گروه عطسه نشان دادم. با این حال گفته شده است که این روش مناسب نیست. هر گونه پیشنهادی قدردانی خواهد شد.
روش و آزمون های مورد نیاز برای فرض در تجزیه و تحلیل نمونه زوجی معیار لیکرت؟
111615
من عذرخواهی می کنم اگر عبارت من غیرآموزنده است، من سابقه آماری زیادی ندارم. من در تلاش برای یافتن اطلاعاتی برای پاسخ به سؤالم هستم زیرا اصطلاحات لازم برای توصیف دقیق آن را ندارم. فرض کنید که من اطلاعات مربوط به فروش پخش کننده mp3 را بررسی می کردم و می خواستم ببینم آیا ترکیب خاصی از داده های طبقه بندی منجر به بازده می شود یا خیر. چیزهایی مانند رنگ، اندازه حافظه، نام تجاری. من فقط نمی خواهم رابطه بین بازده و رنگ قرمز را ببینم، بلکه می خواهم ببینم کدام ترکیب ها بازگشت احتمالی را نشان می دهند. به عنوان مثال، تصور کنید که یک سازنده خاص از کارخانه متفاوتی برای تولید هر پخش کننده mp3 رنگی استفاده می کند - و کارخانه ای که پخش کننده های آبی را تولید می کند نقصی دارد که 3 ماه بعد ظاهر می شود و باعث بازگشت می شود. من می توانم رابطه بین آن رنگ و برند را با بازده در آن مثال ببینم. آیا این منطقی است؟ از چه آزمایشی می توانم برای این کار استفاده کنم؟ نقطه پرش من یک مربع خی است، با این تفاوت که نمی توانم تعامل بین متغیرهای مختلف را با آن ببینم. من نتوانستم بفهمم از آنجا به کجا بروم.
تعامل داده های طبقه بندی شده
24131
من از «plm()» برای تخمین مدل‌های اثرات ثابت به شکل y ~ x + time + time:fixed_trait استفاده می‌کنم که در آن «faxed_trait» متغیری است که در افراد متفاوت است، اما در افراد ثابت است. هدف از تعامل «زمان» با «خصیصه_ثابت» این است که اجازه دهیم اثر «خصیصه_ثابت» در طول زمان تغییر کند. (من در اینجا از کتابچه اخیر پل آلیسون در مورد جلوه های ثابت کار می کنم. نقل قول پیوست شده است.) `plm()` مشکلی در تخمین ضرایب و خطاهای استاندارد برای چنین مدل هایی ندارد. اما `summary.plm()` نمی تواند R^2 را برای این مدل ها محاسبه کند. این مشکلی است که من می خواهم آن را برطرف کنم. در اینجا یک مثال حداقلی وجود دارد: library(plm) tmp <- data.frame(ID=rep(1:3, 2)، year=rep(0:1، every=3)، y=rnorm(6)، const= rep(1:3، 2)) fe1 <- plm(y ~ سال، index=c('ID', 'year'), data=tmp) fe2 <- plm(y ~ سال + year:const, index=c('ID', 'year'), data=tmp) summary(fe1) # works fine summary(fe2) # خطا در crossprod(t(X)، بتا): آرگومان های غیر قابل انطباق در حال بررسی به `plm:::summary.plm` مشکل را واضح تر می کند. برای محاسبه R^2، «plm» سعی می‌کند این کار را انجام دهد: بتا <- coef(fe2) X <- model.matrix(fe2) crossprod(t(X)، بتا) این کار نمی‌کند زیرا «بتا» فقط شامل تخمین‌ها برای «year1» و «year0:const»، در حالی که «X» همچنین شامل یک ستون برای «year1:const» است. به عبارت دیگر، «X» شامل ستون‌هایی برای «year0:const» و «year1:const» است و تخمین هر دوی این ضرایب غیرممکن است. یک راه حل این است که عبارت تعامل با دست را قبل از وارد کردن آن در فرمول ایجاد کنید: tmp$yearXconst <- tmp$year*tmp$const fe3 <- plm(y ~ year + yearXconst, index=c('ID', 'year'), data=tmp) summary(fe3) # خوب کار می کند اما این دست و پا گیر است. خلاصه از این، آیا کاری وجود دارد که بتوانم «summary.plm» را با چنین مدل هایی کار کنم؟ === آلیسون، پل دی. 2009. مدل های رگرسیون اثرات ثابت. لس آنجلس، کالیفرنیا: سیج. به خصوص صفحات 19-21 را ببینید.
استفاده از R و plm برای تخمین مدل‌های اثرات ثابت که شامل تعاملات با زمان است
9729
سوال زیر از من پرسیده شد: یک نظرسنجی نشان داد که 89٪ از یک نمونه تصادفی از 1024 بزرگسال آمریکایی شبیه سازی حیوانات در معرض خطر را تایید کردند. اگر می‌خواهیم 90 درصد به تخمین خود از درصد بزرگسالان آمریکایی که شبیه‌سازی حیوانات در خطر انقراض را تایید می‌کنند، اطمینان داشته باشیم، حاشیه خطا را برای این نظرسنجی پیدا کنید. من می دانم که برای 90٪ اطمینان، $\text{ME}\sim 0.82/\sqrt{n}$. من سعی کردم از این فرمول با n برابر با 1024 و (.89)1024 استفاده کنم. من به ترتیب 0.025625 و 0.02716 گرفتم. پاسخ داده شده برای مشکل 1.61٪ است. نمی فهمم کجا اشتباه کردم. شاید من از فرمول حاشیه خطا به اشتباه استفاده می کنم؟ با تشکر :)
چگونه حاشیه خطا را با فاصله اطمینان معین محاسبه کنیم؟
24135
فرض کنید من دو نمونه دارم، و می‌خواهم آنها را با هم مقایسه کنم تا ببینم آیا آنها از یک توزیع اصلی هستند یا خیر. به طور معمول، من احتمالاً این کار را با استفاده از آزمون KS انجام می دهم. با این حال، همچنین فرض کنید که من برای هر مشاهده در هر یک از دو نمونه، مقداری وزن دارم که نشان می دهد چقدر مطمئن هستم که مقدار نمونه برداری شده دقیق است. به عبارت دیگر، برخی از مشاهدات در نمونه ها بیش از سایرین نشان دهنده توزیع نمونه است (توجه داشته باشید که این وزن ها بین نمونه ها متفاوت است). با در نظر گرفتن این موضوع، سوال من این است: آیا تست‌هایی (مانند تست KS) وجود دارد که بتوانم از آنها برای آزمایش اگر این دو نمونه از توزیع زیربنایی یکسانی با در نظر گرفتن وزن‌های مرتبط با هر نمونه استفاده کنم؟ امیدوارم اینجا خیلی مبهم نباشم... اما هر گونه کمک و/یا نظری بسیار قابل قدردانی است.
چگونه می توان ارزیابی کرد که آیا نمونه های وزنی از یک توزیع می آیند؟
9494
در حال حاضر من با متن کاوی کار می کنم که شامل شناسایی احساسات و تخصیص دسته های تجاری مربوطه با استفاده از ابزار منبع باز R است. این دو سند را پیدا کردم که تا حدی به من کمک کرد: * http://www.jstatsoft.org/v25/i05/ * http://epub.wu.ac.at/1923/1/document.pdf رویکرد من توکنیزه کردن متن و جستجو برای احساسات و دسته بندی کسب و کار است. برای انجام این کار، به کتابخانه‌های مثبت و منفی برای احساسات کاوی و فایل دسته‌بندی که حاوی کلمه و دسته است نیاز دارم. من توانستم کلمات مثبت و منفی را دریافت کنم، اما نتوانستم یک کتابخانه طبقه بندی به دست بیاورم. * از کجا می توانم یک کتابخانه دسته بندی تهیه کنم؟ * آیا رویکرد فوق مناسب است؟ آیا راه بهتری برای این کار وجود دارد؟
نحوه انجام متن کاوی، احساسات کاوی، و شناسایی دسته بندی کسب و کار، و از کجا می توان یک کتابخانه طبقه بندی به دست آورد.
112242
من به دنبال حل مشکل بهینه سازی توضیح داده شده در زیر هستم. با توجه به الزامات مشخص شده در زیر، کدام بسته نرم افزاری بهینه سازی برای این کار مناسب تر است؟ ** الزامات: ** 1) می تواند مشکل پیچیده ای که در زیر توضیح داده شده را حل کند. 2) بسته باید رایگان و منبع باز باشد. 3) در حالت ایده آل، هیچ خواندن سنگینی در نحو مدل مورد نیاز نیست / منحنی یادگیری سریع. 4) در حالت ایده‌آل، مدل را می‌توان با استفاده از پایتون یا اکسل به‌عنوان فرانت‌اند اجرا کرد. 5) در حالت ایده‌آل یک جلوی بصری در دسترس است به طوری که کاربران نهایی (با دانش بهینه‌سازی صفر) به راحتی می‌توانند محدودیت‌های بهینه‌سازی را اصلاح کنند. **مشکل بهینه سازی:** بهینه ساز باید یک برنامه کاری ماهانه برای 50 کارمند یک بیمارستان پیدا کند که تمام محدودیت های زیر را برآورده کند. برای هر روز تقویمی ماه تقویمی مربوطه، بهینه ساز تعیین می کند که کدام یک از 50 کارمند برنامه ریزی شده است (=1) و کدام یک کار نمی کنند (=0). بنابراین 30 روز * 50 کارمند = 1500 متغیر برای حل وجود دارد که هر کدام می تواند 0 یا 1 باشد. لازم نیست یک متغیر خاص را حداکثر یا کمینه کنید. یافتن راه حلی که تمام محدودیت ها را برآورده کند کافی است. **محدودیت ها:** 1) هر کارمند حداقل از پیش تعیین شده دارد. و حداکثر تعداد روزهای کاری در ماه 2) حداکثر 4 روز کاری متوالی برای هر کارمند. 3) حداقل 2 روز رایگان در بین روزهای کاری برای هر کارمند. 4) برخی از کارمندان فقط در برخی از روزهای ماه می توانند کار کنند (به عنوان مثال فقط دوشنبه تا چهارشنبه). این محدودیت ها از قبل مشخص شده اند. 5) هر کارمند یا پزشک یا پرستار است. در هر روز تقویمی، حداقل تعداد معینی از پزشک و پرستار باید حضور داشته باشند. 6) حداقل 2 آخر هفته (=شنبه و یکشنبه) در ماه باید برای هر کارمند رایگان باشد.
بهترین بسته بهینه سازی برای مشکل زمان بندی کارمندان؟
52155
زمینه من برای این سوال اینجاست: از آنچه می توانم بگویم، ما نمی توانیم یک رگرسیون حداقل مربعات معمولی را در R هنگام استفاده از داده های وزنی و بسته بررسی اجرا کنیم. در اینجا، ما باید از «svyglm()» استفاده کنیم، که به جای آن یک مدل خطی تعمیم یافته را اجرا می کند (که ممکن است یکسان باشد؟ من در اینجا از نظر اینکه چه چیزی متفاوت است مبهم هستم). در OLS و از طریق تابع «lm()» یک مقدار R-squared را محاسبه می کند که من تفسیر آن را درک می کنم. با این حال، به نظر نمی‌رسد «svyglm()» این را محاسبه کند و به جای آن یک Deviance به من می‌دهد، که سفر کوتاه من در اینترنت به من می‌گوید معیار خوبی است که متفاوت از R-squared تفسیر می‌شود. بنابراین حدس می‌زنم اساساً دو سؤال دارم که امیدوار بودم در مورد آنها مسیری را دریافت کنم: 1. چرا نمی‌توانیم OLS را در بسته «نظرسنجی» اجرا کنیم، در حالی که به نظر می‌رسد این کار با داده‌های وزنی در Stata امکان پذیر است؟ 2. تفاوت در تفسیر بین انحراف یک مدل خطی تعمیم یافته و مقدار r-squared چیست؟ با تشکر
مربع R در مدل خطی آیات انحراف در مدل خطی تعمیم یافته؟
32820
من فهرستی از مقادیر [0,1] دارم که می‌خواهم آن‌ها را در یک توزیع بتا قرار دهم تا پارامتر آلفای مربوطه را به دست بیاورم. من نمی توانم از تابع برازش بتا استفاده کنم زیرا ممکن است مقادیر من 0 و 1 باشد. در ویکی پدیا این فرمول را برای تخمین روش لحظه های آلفا با توجه به میانگین نمونه و واریانس نمونه پیدا کردم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/dw4pi.png) من نمی دانم نیازی به اتصال دقیق نیست، فقط یک تقریب خوب. با استفاده از میانگین و واریانس نمونه، باید از شر تمام مشکلات ناشی از 0 و 1 در نمونه خلاص شوم، درست است؟ آیا این باز هم قابل قبول خواهد بود؟
تخمین پارامترهای یک توزیع بتا با صفر و یک در نمونه
53200
من به دنبال آزمون آماری هستم که سهم قابل توجه یک عامل را در نرخ کلی (علت و میزان مرگ و میر) نشان دهد. مطالعه ما در مورد تعداد افراد فوت شده از سال 2008 تا 2012 و علت مرگ است. قرار است از چه آزمایشی برای دانستن سهم فردی علل در تعداد کل مرگ‌ها استفاده کنم؟
تجزیه و تحلیل مرگ و میر (یا بقا) با علت خاص
22988
من از lme4 در R برای برازش مدل مختلط lmer(value~ status+(1|experiment)) استفاده می کنم که در آن مقدار پیوسته است، وضعیت و آزمایش فاکتورها هستند، و من با فرمول REML مطابقت مدل مخلوط خطی را دریافت می کنم: مقدار ~ وضعیت + (1) |. آزمایش) AIC BIC logLik deviance REMLdev 29.1 46.98 -9.548 5.911 19.1 اثرات تصادفی: نام گروه ها Variance Std.Dev. آزمایش (Intercept) 0.065526 ​​0.25598 Residual 0.053029 0.23028 تعداد obs: 264، گروه: آزمایش، 10 اثر ثابت: Estimate Std. مقدار خطای t (Intercept) 2.78004 0.08448 32.91 statusD 0.20493 0.03389 6.05 statusR 0.88690 0.03583 24.76 همبستگی اثرات ثابت: (Intr status3 -R statuss.0.0D) 0.476 چگونه می توانم بدانم که تأثیر وضعیت قابل توجه است؟ R فقط t-values ​​و نه p-values ​​را گزارش می دهد. خیلی ممنون
اثر قابل توجهی در مدل مخلوط lme4
112243
تنظیم مشکل من به شرح زیر است، من مجموعه ای از M متغیر تصادفی X = \{ {X_1}،{X_2}،...{X_M}\} دارم که در آن هر متغیر X_i از طریق دنباله تصادفی u^t_i، با نام مستعار، تخمین زده می شود. u^t_i برآوردگر بی طرفانه برای X_i است، {X_i} = {E_t}[u{_{}^t_i}] و من وظیفه تخمین {\max _i}E_t[{X_i}] است. اگر در زمان t، تمام u_i را با i مقایسه کنم، این در واقع ${\max _i}u_{_i}^t$ را در دور t انجام می‌دهد، با این حال، این تخمین‌گر بی‌طرفانه {\max _i}E_t[ نیست. {X_i}]، از {E_t}[{\max _i}u_ {_i}^t]! = {\max _i}E[{X_i}] می‌بینیم که دنباله عملگر انتظار و عملگر حداکثر برگردانده شده است. BTW، چگونه معادلات را در CrossValidated ارسال کنیم؟ من قبلاً از metaoptimize استفاده می کردم و با CV آشنایی نداشتم. با تشکر
نمونه برداری بی طرفانه از انتظار بر روی عملگر بیشینه سازی
24136
فرض کنید ما سه درمان مختلف A، B و C داریم و در حال مدل سازی پاسخ هستیم (0،1). من می خواهم بدانم که چگونه می توانم برای هر گروه (A,B,C) تعیین اندازه نمونه را انجام دهم. من باید نشان دهم که چگونه می‌توانیم (و چقدر می‌توانیم کاهش دهیم) اندازه نمونه و در صورت داشتن اطلاعات قبلی، آزمایش مشابهی از تفاوت‌ها در جلوه‌های اصلی دریافت کنیم. مهم‌ترین چیز این است که بتوانیم نشان دهیم که چگونه می‌توانیم حجم نمونه را با استفاده از اطلاعات قبلی کاهش دهیم.
تعیین حجم نمونه برای رگرسیون لجستیک بیزی
22989
ما علاقه مند به برازش یک مدل رگرسیون لجستیک چندگانه با استفاده از داده های به دست آمده از یک نظرسنجی ملی از کودکان با نیازهای مراقبت بهداشتی ویژه هستیم. داده ها دارای یک متغیر وزن همراه است که هدف آن استانداردسازی کودکان با جمعیت ملی است که ما قصد داریم در آن استنباط کنیم. این متغیر وزن با 1 جمع نمی شود و وزن ها انتگرال نیستند (ممکن است مقادیری مانند 23.2 را بگیرند). این مدل با استفاده از SAS v9.2 مناسب است. در بررسی مستندات برای رویه لجستیک، در توضیحات نحوی به عبارت زیر توجه می کنم: > احتیاط: PROC LOGISTIC برآوردگرهای واریانس مناسب را محاسبه نمی کند اگر > داده های نظرسنجی را تجزیه و تحلیل می کنید و وزن های نمونه را از طریق > عبارت WEIGHT مشخص می کنید. روش SURVEYLOGISTIC برای انجام محاسبات لازم و صحیح طراحی شده است. من نمی فهمم چرا باید این مسئله مطرح باشد. اگر خطاهای استاندارد مبتنی بر مدل محاسبه می‌شوند، تخمین‌گر حداکثر درستنمایی وزن‌دار باید خطاهای استانداردی را ارائه دهد که برای جامعه مورد نظر صحیح است. آیا این درست است؟ اگر عبارت فوق صحیح باشد، حلگر رگرسیون لجستیک SAS کدام تابع احتمال را بهینه می کند؟
وزن های نظرسنجی در مدل های رگرسیون لجستیک
63515
من در حال ساخت یک الگوریتم توصیه‌گر ساده هستم و به عنوان پیش‌نیاز برای محاسبه یک پیش‌بینی، باید یک معیار تشابه بین هر دو جفت کاربر تعیین کنم. مرحله بعدی محاسبه میانگین وزنی بین همه کاربران است. مشکل من با پیرسون یا کسینوس این است: A، B کاربرانی هستند که بردارهای آنها رتبه‌بندی را در 6 مورد در مقیاس 5 نشان می‌دهند. فرض کنید **A = [1،1،1،0،1،1]* * فرض کنید **B = [5,5,5,0,5,5]** سپس شباهت s این است: s(پیرسون)=1 s(کسینوس)=1 پس اساساً یک کامل وجود دارد همبستگی بین A،B، اگرچه کاربر A رتبه پایین و کاربر B رتبه بالایی دارد، و کاربران به معنای واقعی کلمه مشابه نیستند. من می‌خواهم از معیاری استفاده کنم که میزان نزدیکی A،B به یکدیگر را نشان دهد. من از الگوریتم زیر استفاده کردم: **1.** برای هر آیتم i هر دو کاربر A، B مقدار r را به آن اختصاص داده اند، من از $${{q}_{i}}=\frac{\ استفاده کردم. چپ| {{r}_{A,i}}-{{r}_{B,i}} \right|}{scale}$$ **2.** $$c(A,B)=1-\ frac{\sum\limits_{i}{{{q}_{i}}}}{\sum\limits_{i}{{}}}$$ **3.** سپس از مقیاس 0 تا 1 (1 یکسان بودن) «c(A,B)» معیار تشابه (c برای نزدیکی) است. **ویرایش:** **من تازه متوجه شدم کاری که انجام دادم فقط تغییری از فاصله نرمال شده مینکوفسکی با بعد`r=1`** می دانم که کمی کلی است، اما آیا متریک «c» می سازد آیا در رابطه با عملکردی که می‌خواهم از آن استفاده کند، احساسی دارید؟ بیشتر به این نکته، اگر به جای انجام میانگین وزنی مثلاً 10 کاربر با بالاترین `s` برای کاربری که می‌خواهم آن را در نظر بگیرم، از آنهایی که بالاترین `c را دارند استفاده کنم، آیا پیشرفتی در پیش‌بینی مشاهده خواهم کرد. `؟
متریک شباهت بر اساس همبستگی آماری نیست
27482
یکی از پیشرفت های اقتصاد سنجی در دو دهه گذشته استفاده از خوشه بندی برای در نظر گرفتن همبستگی عبارات خطا در بین مشاهدات بوده است. به عنوان مثال، اگر شما در حال ارزیابی اثر یک مداخله آموزشی هستید که در آن داده‌هایی روی دانش‌آموزان جداگانه دارید، اما گمان می‌کنید که معلمان مداخله را متفاوت اجرا کرده‌اند، معمول است که داده‌ها را به گونه‌ای تجزیه و تحلیل کنید که تشخیص داده شود که اثرات مشترکی در آن وجود دارد. سطح کلاس. یک اصلاح رایج استفاده از خوشه بندی است. وقتی یک ناپیوستگی رگرسیون را اجرا می کنید، آیا به طور مشابه باید در نظر بگیرید که مشاهدات شما ممکن است خوشه ای باشد؟ اگر چنین است، برآوردگر چگونه متفاوت اجرا می شود؟
آیا وقتی از ناپیوستگی رگرسیون استفاده می کنید، «خوشه بندی» منطقی است؟
63518
من نتایج تست تقسیم A/B یک صفحه وب را دارم. نمایش‌های صفحه کلیک‌ها CTR A 56,000 10 0.018% B 78,000 21 0.027% من می‌خواهم ctr را برای تفاوت معنی‌دار آماری آزمایش کنم. فرضیه صفر - تفاوتی در CTR بین صفحات A و B وجود ندارد. چگونه می توانم این کار را در سطح نظری تر انجام دهم؟ در چه مواردی باید سطرها، ستون ها، مقادیر مورد انتظار تنظیم شوند؟
تست استقلال Chi-square برای تست تقسیم A/B
22980
مشکل من در سطل ها و توپ ها توضیح داده شده است (این هم آمار است) ... من 1 میلیون سطل دارم. در هر سطل تعدادی توپ دارم. من می خواهم این سیستم را طوری مدل کنم که تعداد توپ های مورد انتظار برای یک سطل را داشته باشم. (من انتظار دارم که تقسیم توپ های من در هر سطل به شکل گاوسی باشد) از آنجایی که تعداد من اعداد صحیح هستند، بلافاصله به توزیع دوجمله ای اشاره می کنم. با این حال، به نظر نمی‌رسد که نمی‌توانم ذهنم را در مورد موفقیت و شکست در سیستمم بپیچم، زیرا هر مشاهده‌ای یک موفقیت است. آیا کسی می تواند به اطلاعات حیاتی اشاره کند که به من کمک می کند بفهمم از چه توزیعی استفاده کنم؟ **ویرایش**: من می‌خواهم توزیعی را برای مدل‌سازی سطل‌ها و توپ‌ها در سیستم خود تنظیم کنم، زیرا اینها نویز را در یک مشکل دیگر نشان می‌دهند. اگر بتوانم این توزیع را پارامتر کنم (به عنوان مثال، اگر دو جمله ای است)، می توانم از آن برای بیرون کشیدن سیگنال خود از نویز در یک مشکل دیگر استفاده کنم.
شمارش داده ها و توزیع دو جمله ای
22984
BH سلام، من اصول طبقه بندی LMNN (نزدیکترین همسایه بزرگ حاشیه بزرگ) را به خوبی درک می کنم، اما شبه کد Weinberger را برای پیاده سازی آن به خوبی درک نمی کنم. آیا کسی می تواند به سادگی (اما به طور کامل) پیاده سازی ساده الگوریتم LMNN را توصیف کند (یعنی محاسبه ماتریس Mahalanobis - **M**)، یا من را به چنین سندی هدایت کنید بسیار
LMNN: توضیح الگوریتم ساده
63519
من در حال حاضر با داده های شمارش با $n=360$ سر و کار دارم. داده ها نه با پواسون و نه با توزیع دوجمله ای منفی مطابقت دارند. علاوه بر این، من فکر نمی‌کنم داده‌های من صفرهای اضافی داشته باشند، بنابراین هیچ فایده‌ای برای در نظر گرفتن مدل صفر تورم وجود ندارد. اکنون یک مدل جایگزین (COM Poisson) را در نظر دارم. چه چیز دیگری را پیشنهاد می کنید؟
شمارش توزیع داده ها
91848
من به کمی کمک و تأیید نیاز دارم که ایده درستی دارم. من برخی از اطلاعات جعلی از 8 قبیله دارم. اعضای هر قبیله سخت کار می کنند تا برای قبیله خود غذا به دست آورند. هیچ کس نمی تواند با این قبایل صحبت کند، اما مردم گمان می کنند که هر قبیله یکی از دو استراتژی ارائه شده در زیر را برای به دست آوردن غذا دارد: 1. به اعضای قبیله ای که دورتر از محل اصلی قبیله سفر می کنند، غذای بیشتری داده می شود، بنابراین کمتر با آنها مواجه می شوند. احتمال گرسنگی قبل از بازگشت 2. به اعضای قبیله ای که به دور سفر می کنند غذای کمتری داده می شود. به این ترتیب، اگر آنها گم شوند، ضرر غذایی کمتری برای کل قبیله وجود دارد. متغیرها (ستون‌هایی) که من با آن‌ها کار می‌کنم عبارتند از: «تعداد قبیله»، «فاصله از محل قبیله» هنگام نمونه‌برداری (10، 20، 30 یا 40 مایل)، «وزن هر عضو» که در حال مطالعه هستیم (مرتبط به مقدار غذا داده شده)، «قد» (افراد قد بلندتر انرژی را به طور موثرتری مصرف می کنند، و یک همبستگی مثبت قوی بین وزن و قد در واحدهای دلخواه و اینچ وجود دارد)، در نهایت من هر کدام را دارم. مشاهده طبقه بندی شده بر اساس قد (گروه '1': 56-62 اینچ، گروه '2': 62-64...). می‌خواهم بدانم آیا قبیله‌ها از استراتژی‌های متفاوتی استفاده می‌کنند، و همچنین آیا تفاوتی بین قد کلاس‌های «pf» وجود دارد یا خیر. علاوه بر این، من می خواهم استراتژی هایی را که در حال استفاده هستند، بیابم. من با نحوه طبقه بندی هر قبیله به عنوان استراتژی 1 یا 2 مشکل دارم. من در فکر انجام یک ANOVA یک طرفه بودم تا بررسی کنم که آیا تفاوتی در «میانگین» در هر گروه بر اساس «فاصله» وجود دارد یا خیر. (در یک قبیله خاص آیا تفاوتی در میانگین وزن بین کسانی که 10، 20، 30 یا 40 مایل بودند وجود دارد؟) من نمی دانم چگونه بفهمم که آیا هر مستعمره از استراتژی متفاوتی استفاده می کند یا خیر. در نهایت، من می خواهم یک مدل خطی از جرم بر اساس کلنی، فاصله و ارتفاع بسازم. من می دانم چگونه یک مدل بسازم و عیب یابی را اجرا کنم. نگرانی من در اینجا این است که آیا می توانم از فاصله به عنوان یک متغیر طبقه بندی استفاده کنم زیرا مقادیر آن 10، 20، 30 یا 40 مایل است؟
تلقی عددی به عنوان متغیر طبقه بندی در رگرسیون
53203
من قبلا یک سوال در مورد حداکثر احتمال پرسیده بودم. حالا من دو سوال دارم که مربوط به این سوال است: اجازه دهید $x$ چگالی نمایی داشته باشد $p(x|\theta) = \theta e^{-\theta x} \text{ if }x \ge 0 ;\quad 0 \text{ در غیر این صورت.}$ حالا فرض کنید که n نمونه $x_1, ... , x_n$ به طور مستقل مطابق با $p(x|\theta)$ ترسیم شده است نشان دهید که برآورد حداکثر احتمال برای $\theta$ توسط $$\hat{\theta} = \frac{1}{\frac{1}{n} \,\, \sum^n_{k = 1} x_k} داده می‌شود $$ سوال دوم مشابه است اجازه دهید $x$ یک بردار باینری $d$-بعدی (0 یا 1) با توزیع برنولی چند متغیره باشد $$p(x|\theta) = \prod^d_{i=1} \theta_i^{x_i}(1-\theta _i)^{1-x_i}$$ که $ \theta = ( \theta_i، ...، \theta_d)^t $ است یک بردار پارامتر ناشناخته، $\theta_i$ احتمال اینکه $x_i = 1$ باشد. نشان دهید که برآورد حداکثر احتمال برای $\theta$ $$ \hat{\theta} = \frac{1}{n} \sum^n_{k = 1} x_k $$ است چگونه نشان می‌دهم که حداکثر برآورد احتمال برای هر یک از آنها داده شده است. من در حال خواندن آموزش ها و چیزهای دیگر هستم و هنوز آن را کاملاً متوجه نشده ام.
چگالی نمایی و توزیع برنولی
20782
چرا تابع «HoltWinters» در R تخمین‌های پارامترهای بسیار متفاوتی را ارائه می‌کند، مثلاً «آلفا» و «بتا»، وقتی «گاما» به‌عنوان «0» در مقابل «نادرست» تنظیم شده است؟ به نظر می رسد از ساختار مدل 2 باید مدل های معادل را مشخص کند؟
چرا HoltWinters () در R رفتار متفاوتی دارد زمانی که پارامترها به عنوان 0 در مقابل تنظیم به عنوان False تنظیم می شوند؟
21326
اگر بخواهیم 2 کلاس/عمل جداگانه را با استفاده از HMM طبقه بندی کنیم، 2 HMM مجزا (یکی برای هر کلاس) طراحی می کنیم. آیا آنها **مجموعه مشابهی دارند یا مجموعه ای متفاوت** از مشاهدات-نمادها برای هر یک از HMM؟ اگر مجموعه‌ای از نمادها را به اشتراک بگذارند، در طول زمان استخراج نماد (با استفاده از کوانتیزاسیون برداری) چگونه می‌توانیم بفهمیم کدام مجموعه از نمادها را تولید کنیم تا آنها را طبقه‌بندی کنیم؟
نمادهای مشاهده ای برای آموزش مجموعه ای از HMM
94915
من باید این مشکل را حل کنم: _یک دستگاه با 2 سال گارانتی می آید. به عنوان یک آماردان به شما گفته می شود که (i) تعداد کل ساعاتی که یک ماشین در طول 2 سال استفاده می شود از توزیع N(10، 5) تبعیت می کند. (ii) تعداد ساعاتی که موتور ماشین کار می کند تا اولین عیب اتفاق بیفتد دارای توزیع گاما (0.006، 7) است. علاوه بر این، تعداد ساعات کار قبل از اولین خطا مستقل از تعداد دفعات استفاده از دستگاه است. یک مطالعه شبیه‌سازی برای تخمین نسبت ماشین‌هایی که موتورهایشان در طول گارانتی ۲ ساله‌شان دچار ایراد می‌شوند، انجام دهید. در واقع، من نمی‌دانم که تمرین دقیقاً از من چه می‌خواهد. میشه لطفا برام توضیح بدی متشکرم
ترکیب توزیع نرمال و گاما در R
49272
استاد آمار من ادعا می کند که کلمه همبستگی به طور دقیق برای روابط خطی بین متغیرها به کار می رود، در حالی که کلمه همبستگی به طور گسترده برای هر نوع رابطه ای کاربرد دارد. به عبارت دیگر، او ادعا می‌کند که اصطلاح «همبستگی غیرخطی» یک اکسیمورون است. از آنچه می توانم از این بخش در مقاله ویکی پدیا در مورد _همبستگی و وابستگی_ بگیرم، ضریب همبستگی پیرسون میزان خطی بودن را در رابطه بین دو متغیر توصیف می کند. این نشان می دهد که اصطلاح همبستگی در واقع منحصراً برای روابط خطی کاربرد دارد. از سوی دیگر، جستجوی سریع گوگل برای همبستگی غیر خطی تعدادی مقاله منتشر شده را نشان می دهد که از این اصطلاح استفاده می کنند. آیا استاد من درست است یا همبستگی صرفاً مترادف تداعی است؟
آیا همبستگی معادل تداعی است؟
52152
من برای گوش دادن به یک کارگاه رفتم و برخی از مخاطبان از مجری پرسیدند که چگونه لحظات می توانند اطلاعات متقابل را بهبود بخشند. من در حال یادگیری MI (اطلاعات متقابل) و لحظات هستم، بنابراین دانش کافی برای درک معنای آن ندارم. همانطور که تاکنون می‌دانم، توابع تولید لحظه لحظه‌ها را برای یک متغیر تصادفی نمایش ریاضی پیدا می‌کنند (لطفاً اگر اشتباه می‌کنم اصلاح کنید). سپس، من تحقیقاتی انجام داده ام اما هنوز سردرگمی هایی دارم. می‌خواهم کسی اطلاعات بیشتری در این مورد داشته باشد می‌تواند برای من توضیح دهد. اینجا سوالات من است. * اطلاعات متقابل معمولاً توسط توابع bin برای تخمین احتمال دو متغیر تصادفی محاسبه می شود که می تواند موردی از دو بردار X و Y باشد. آیا تابع مولد لحظه راه دیگری برای تخمین احتمال است؟ * اگر توابع مولد گشتاور می توانند احتمال X و Y را ارائه دهند، چگونه آن را محاسبه کنیم؟ * آیا MI عملکرد تولید لحظه دارد؟ * اگر MI تابع مولد گشتاور داشته باشد، چگونه می توانیم یک MI از X و Y را با توابع گشتاور آن ارائه کنیم؟ خیلی ممنون،
آیا می توان اطلاعات متقابل را با توابع تولید لحظه محاسبه کرد؟
94918
من می‌خواهم از طرح ناپیوستگی رگرسیون برای ارزیابی برنامه‌ای استفاده کنم که در آن ناپیوستگی/تخصیص درمان در سطح گروه اتفاق می‌افتد. با این حال، من می خواهم نتیجه را در سطح فردی اندازه گیری کنم (در مقابل اندازه گیری نتیجه به عنوان میانگین در سطح گروه). من سه سوال دارم (با خیال راحت به هر یک از آنها پاسخ دهید): 1. معیارها/مفروضات برای انجام یک RD با تکلیف در سطح گروه چیست؟ 2. آیا استفاده از HLM مناسب است؟ 3. آیا مطالعه ای می شناسید که این کار را انجام دهد؟ به عنوان مثال، یک شرکت بسیار بزرگ را در نظر بگیرید که در آن کارگران به طور مستقل ابزارک می‌سازند، اما به تیم‌هایی تقسیم می‌شوند که می‌توانند با یکدیگر مشورت کنند یا چند بار در هفته از آنها مشاوره بخواهند. این شرکت محاسبه می کند که هر کارگر به طور متوسط ​​چقدر طول می کشد تا یک ویجت بسازد و سپس میانگین ویجت ها را در ساعت برای هر تیم محاسبه می کند. آنها برای گروه هایی که میانگین گروه کمتر از یک آستانه مشخص است، آموزش اضافی ارائه می دهند و برای گروه های بالاتر از آستانه، هیچ آموزش اضافی ارائه نمی دهند، بنابراین ناپیوستگی وجود دارد. سپس شرکت می خواهد تأثیر آموزش اضافی را بر روی یک فرد ارزیابی کند.
ارزیابی برنامه در سطح گروه ناپیوستگی رگرسیون
111317
می‌توانیم pdf مشترک را با متمایز کردن cdf مشترک، $\Pr(X\le x, Y\le y)$ نسبت به x و y بدست آوریم. با این حال، گاهی اوقات پیدا کردن $\Pr(X\ge x, Y\ge y)$ آسان تر است. توجه داشته باشید که گرفتن مکمل CDF مشترک را نمی دهد، بنابراین ما نمی توانیم فقط علائم را متمایز کنیم و برگردانیم. آیا هنوز یک قانون ساده برای متمایز کردن این و دریافت pdf وجود دارد؟
از سی دی اف مشترک تا پی دی اف مشترک
63517
من در ابتدا یک تصویر ماهواره ای چندطیفی متشکل از 5 باند داشتم. من اجزای اصلی را برای این باندها اعمال کردم. بنابراین یک مثال از فرآیند چیزی شبیه به این خواهد بود: واقعیت -> تصویر ماهواره ای -> اولین جزء اصلی آیا راهی برای تخمین نسبت سیگنال به نویز در اینجا وجود دارد؟ از این جزء اول؟ از تصویر ماهواره ای به خودی خود؟ من اطلاعات کمی از پردازش سیگنال دارم، بنابراین اگر درک خوبی از این مفاهیم ندارم، لطفاً با من همراه باشید.
تخمین نسبت سیگنال به نویز یک تصویر
52154
تونی یک آزمون فرضیه انجام می دهد که آیا نسبت همه دانش آموزان دبیرستانی که با دوچرخه به مدرسه می روند (با p$ نشان داده می شود) برابر با 30 دلار است یا خیر. به طور خاص، تونی $H_0:p=0.3$ در مقابل $H_A:p≠0.3$ دارد. او P-value برابر با 0.01 دلار به دست می آورد. از سوی دیگر، جان می‌خواهد آزمایش کند که آیا شواهد کافی برای حمایت از اینکه $p$ بزرگتر از $0.3$ در سطح معناداری $10\%$ است وجود دارد یا خیر. آیا بر اساس نتیجه تونی، فرضیه صفر آزمون جان رد خواهد شد؟ در اینجا کاری است که من انجام داده ام. تونی: $H_0:p=0.3$، $H_A:p≠0.3$ با P-value 0.01$ جان: $H_0:p=0.3$، $H_A:p>0.3$ با $\alpha = 0.1$ از Tony's نتیجه، p-value = $0.01 $، که کمتر از $\alpha = 0.1 $ است. بنابراین فرضیه صفر آزمون جان را باید رد کرد. آیا روش های مناسبی دارم؟
رد فرضیه صفر یا خیر؟
73277
من می خواهم یک نقشه درک برای دو برند، پپسی و کوکاکولا، با ویژگی های شیرین، کافئین، طراوت، رنگ، دوست داشتنی برای هر مارک ترسیم کنم. من نمونه را از تست چشایی کور گرفتم.
نحوه ترسیم نقشه ادراک
108663
من تعداد ویزیت‌های پزشک (یک متغیر شمارش) را بر اساس عواملی مانند درآمد، وضعیت مزمن، بیمه و غیره مدل‌سازی می‌کنم. من از دستور Stata کنسرو شده «poisson y x1 x2» و غیره استفاده می‌کنم. دو سؤال زیر را دارم: 1 ) چگونه است که Stata به من اجازه نمی دهد پس از اجرای رگرسیون فوق، پیش بینی باقی مانده ها، باقیمانده ها را اجرا کنم؟ سپس سعی کردم باقیمانده ها را با استفاده از فرمول y-yhat تولید کنم، اما یک باقیمانده با میانگین میانگین منفی (-6.96e-09...) به دست آوردم - آیا در اینجا فکر می کنید؟ 2) آیا باید از SE قوی (یعنی «vce(robust)») در اینجا استفاده کنم؟ من فکر می‌کنم می‌تواند مسائل مربوط به ناهمگونی اسکداستیکی وجود داشته باشد، زیرا تعداد ویزیت‌های پزشک ممکن است بین مقادیر مختلف متغیر درآمد بسیار متفاوت باشد. با این حال، من مطمئن نیستم که آیا SE های قوی می توانند آزادانه در مورد مدل های غیر خطی مانند پواسون به کار روند.
باقیمانده های رگرسیون پواسون
71956
سه نمونه را در نظر بگیرید، یعنی سه فهرست مختلف از اعداد، A، B و C. اندازه نمونه‌های مربوطه ممکن است متفاوت باشد. با توجه به اینکه قرعه کشی از نمونه A بیشتر از نمونه C است، چگونه می توانم احتمال اینکه قرعه کشی از نمونه A بیشتر از قرعه کشی نمونه B باشد را محاسبه کنم؟ من به دنبال روشی زیبا برای صرفه جویی در منابع هستم که در اینجا پیشنهاد شده است. با پاسخ به این سوال که خودم هم ارسال کردم، امیدوار بودم بقیه اش را خودم بفهمم، اما در این مورد اشتباه کردم. هر گونه نظر مفید قدردانی می شود!
آزمون مجموع رتبه و احتمال شرطی
94236
آیا می‌خواهید بدانید که آیا رابطه اکتشافی بین تعداد مؤلفه‌های شناسایی‌شده از تجزیه و تحلیل PCA و تعداد عوامل پنهان ارائه‌شده توسط تجزیه و تحلیل EFA در یک مجموعه داده وجود دارد؟
رابطه تعداد مولفه های اصلی و عوامل اکتشافی.
71953
من در ادبیات منتشر شده دیده ام (و در اینجا ارسال شده است) که راندمان نسبی بدون علامت آزمون رتبه امضا شده Wilcoxon حداقل در مقایسه با آزمون T حداقل 0.864 است. من همچنین شنیده ام که این فقط در مورد نمونه های بزرگ صدق می کند، اگرچه در برخی کتاب ها به این اشاره نشده است (چه خبر است؟). به هر حال، سوال من این است که قبل از اینکه پاراگراف بالا دیگر اعمال نشود، چقدر چیزها باید کوچک شوند؟ در مورد من 4 جفت داده دارم. اگر همه فرضیات نگه داشته شود ، من می دانم که حداقل 90 ٪ قدرت برای تشخیص اندازه اثر 2SD در زیر آزمون t زوجی دارم اگر از آلفا 0.1 استفاده کنم و داده های همبستگی متوسطی داشته باشم. با این حال، به دلیل حجم نمونه کوچک و ناتوانی در بررسی مفروضات، می‌خواهم از آزمون رتبه‌بندی امضا شده Wilcoxon استفاده کنم، اما نگران هستم که در صورت انجام تست، قدرت بسیار کمی داشته باشد. با تشکر
کارایی نسبی رتبه علامت دار Wilcoxon در نمونه های کوچک
108668
من می خواهم یک نکته بحث برانگیز را مطرح کنم: اگر به متغیرهای ابزاری نیاز دارید، مدل شما اشتباه است. ### مسئله اساسی درون زایی و راه حل IV اجازه دهید چارچوب اصلی درون زایی و متغیرهای ابزاری (IV) را فرض کنیم: می خواهیم تابع رگرسیون $E(y|x,z)$ را تخمین بزنیم و یک مدل خطی $ را انتخاب کنیم. y$ در $x$ و $z$، که در آن $x$ درون زا است و $z$ نه. درون زایی یک مشکل جدی است و می تواند از دلایل زیادی ناشی شود: علیت معکوس، همزمانی، متغیرهای حذف شده، خطاهای اندازه گیری مرتبط با $y$، تعیین نادرست مدل، و غیره. $y_i= \beta_0 + \beta_1 x_i + \beta_2 z_i + \varepsilon_i $ (1) $E(\varepsilon|x) \neq 0$, $E(\varepsilon|z) = 0$ تخمین OLS از پارامتر $x$ $\hat{\beta_1}_{OLS}$ مغرضانه و ناسازگار است زیرا درون‌زایی $x$ است. بنابراین ما به ابزاری می‌پردازیم، مثلاً $w$، که باید (در حالت ایده‌آل خوب) با $x$ (مشروط به سایر رگرسیون‌ها) همبستگی داشته باشد و با عبارت خطای $\varepsilon$ مدل قبلی همبستگی نداشته باشد، در عمل: $ E(x|w) \neq E(x)$, $E(x|w) \neq E(x|z,w)$, $E(\varepsilon|w) = 0$ IV روش را می توان به عنوان جایگزینی $x$ با $\hat x_{z,w}$ در مدل (1) مشاهده کرد، که در آن $\hat x_{z,w}$ پیش‌بینی رگرسیون خطی $x$ در $ است. z$ و $w$. OLS در این مدل جدید تخمین ثابت $\hat{\beta_1}_{IV}$ از پارامتر مورد علاقه $\beta_1$ را به دست می‌دهد. ### تفسیر تخمین‌های IV توجه کنید که برازش IV لزوماً در مقایسه با برازش OLS دارای قدرت پیش‌بینی کمتری است، زیرا طبق تعریف OLS کمترین میانگین مربعات خطا را در بین تمام مدل‌های خطی دارد. در اقتصاد سنجی این به عنوان یک مبادله بین حسن تناسب و ثبات تخمین پارامتر توجیه می شود: علاقه اصلی در پیش بینی نیست، بلکه در مقادیر تخمینی پارامترهای خاص است، معمولاً در مدل های خطی که از تئوری اقتصادی به دست می آیند. مشکل من این است که اکثر مدل‌های اقتصادسنجی این پارامترهای مورد علاقه ($\beta_1$ در مدل 1) را به عنوان مشتق جزئی $\frac{\partial y}{\partial x}$ تفسیر می‌کنند، اثر میانگین یک تغییر $x $ در تغییر $y$. این بدیهی است که اشتباه است، زیرا برای محاسبه $\hat{\beta_1}_{IV}$ عمداً اثر غیر خطی $x$ را روی $y$ تا $\varepsilon$ نادیده گرفتیم و خود را به $ محدود می‌کنیم. جزء \beta_1$. این نکته مهمی است که باید به آن اشاره کرد، با توجه به اهمیت بالایی که برآوردهای IV توسط دانشگاهیان و سیاست گذاران در نظر گرفته می شود. البته می توان استدلال کرد که هدف مدل سازی تقریبی واقعیت است و گرفتن اثر خطی جدا شده بهتر از هیچ است. من استدلال می‌کنم واقعیت موضوع این است که اگر مدل‌سازی و تخمین $\frac{\partial y}{\partial x}$ جدی گرفته شود، نباید آن‌ها را با زیر فرش کردن این روابط تخمین زد. که در داده ها وجود دارند اما با مشخصات مدل مطابقت ندارند. ### اگر به IV نیاز دارید، مدل شما اشتباه است اگر نقطه مورد نظر تخمین اثر $x$ روی $y$ باشد (با توجه به دیگر رگرسیون ها) و اگر $x$ درون زا در مدل خطی باشد، پس مدل خطی مشخص شده اشتباه است، زیرا فرضیه عدم همبستگی $\varepsilon$ را نقض می کند. به نظر می رسد استفاده از IV صرفاً نادیده گرفتن این مشکل و بازگرداندن اثر خطی «خالص» یک مدل اشتباه است که برای روح علمی توهین آمیز به نظر می رسد. در بهترین حالت، می‌توان آن را به‌عنوان یک بسط تیلور کوتاه‌شده مشاهده کرد، که فقط نزدیک به نقطه میانگین مجموعه داده معتبر خواهد بود. بنابراین به‌جای متوسل شدن به IV در مواجهه با درون‌زایی، به نظر من باید هدفش یافتن مدل بهتری برای توضیح رابطه بود. بسیاری از مدل‌های «تقریبی جهانی» به آسانی در دسترس هستند (رگرسیون هسته، کمند، تقویت گرادیان، شبکه‌های عصبی...) و می‌توانند به عنوان یک معیار در مقایسه با قدرت پیش‌بینی هر مدل مشخصی استفاده شوند. اگر مدلی قدرت پیش‌بینی ضعیفی داشته باشد، بازنمایی ضعیفی از واقعیت است. اگر هدف نهایی تخمین اثر جزئی کامل $x$ بر $y$ باشد، الگوریتم‌هایی مانند رگرسیون‌های دارای وزن هسته محلی را می‌توان در نقاط مورد نظر اجرا کرد که پارامترهای آن را می‌توان به عنوان مشتقات جزئی محلی تفسیر کرد. . و اگر کسی به دلیل تئوری اقتصادی با یک مدل خطی مبتنی بر درون زایی گیر کرده باشد، تخمین های IV فقط تقریبی ناخالص از اثرات واقعی خواهند بود، و نتیجه گیری فقط گمراه کننده خواهد بود، درست است؟ نظر یا اشاره ای به ادبیات مرتبط دارید؟ (ببخشید پست طولانی شد)
درون زایی و IV = نامشخص مدل؟
78572
از 10 گونه در 5 دوره زمانی نمونه برداری شد (به زبان ساده، رشد متغیر اندازه گیری شده است). اکنون می‌خواهم بدانم: 1. آیا مقادیر اندازه‌گیری شده بین گونه‌ها در هر دوره زمانی (هم از نظر میانگین و هم در روند) به طور قابل توجهی متفاوت است؟ 2. آیا مقادیر اندازه گیری شده به طور قابل توجهی در سطح گونه در دوره های زمانی مختلف متفاوت است؟ (هدف من: آیا می توانم گونه ها را بدون از دست دادن اطلاعات گروه بندی کنم؟) چگونه می توانم این را آزمایش کنم؟ علاوه بر این، برای هر گونه از چندین فرد نمونه برداری شد و گاهی اوقات اندازه گیری های متعدد در یک فرد انجام شد. در حالت ایده‌آل، من می‌خواهم به یک مقدار میانگین برای هر گونه پایان دهم، اما حدس می‌زنم ابتدا باید بفهمم که آیا تفاوت‌های قابل توجهی بین افراد/در افراد وجود دارد؟ از کدام آزمون می توانم برای این منظور استفاده کنم؟ و آیا از گسترده به خاص (در درون گونه -> درون افراد) یا از خاص به گسترده (در درون افراد -> درون گونه) پیش میروم؟ من اصلاً با تجزیه و تحلیل آماری تجربه ندارم و از هر گونه راهنمایی در مورد چگونگی ادامه آن قدردانی می کنم.
از کدام آزمون(های) آماری استفاده کنم؟ (گروه ها، سری های زمانی)
45968
در تحقیقات اقتصاد سنجی مالی، بررسی روابط بین سری های زمانی مالی که به شکل **داده های روزانه** هستند بسیار رایج است. برای مثال، متغیر اغلب با گرفتن تفاوت گزارش، $I(0)$ ساخته می شود. $\ln(P_t)-\ln(P_{t-1})$. با این حال، داده های روزانه به این معنی است که هر هفته نقاط داده 5 دلاری وجود دارد و شنبه و یکشنبه وجود ندارد. به نظر می رسد در ادبیات کاربردی که من از آن آگاه هستم به این موضوع اشاره ای نشده است. در اینجا چند سوال مرتبط با من وجود دارد که از این مشاهدات ناشی می شود: * آیا این به عنوان داده هایی با فاصله نامنظم واجد شرایط است، حتی اگر بازارهای مالی در آخر هفته بسته باشند؟ * اگر چنین است، چه پیامدهایی برای اعتبار نتایج تجربی موجود که تاکنون در تعداد عظیمی از مقالاتی که این موضوع را نادیده گرفته اند به دست آمده است؟
سری های زمانی نامنظم در تحقیقات مالی/اقتصادی
78576
من مجموعه ای از سری های زمانی (~2000) با داده های ماهانه بیش از صد سال دارم. علاقه من این نیست که درباره آنها استنباط کنم، بلکه صرفاً آنها را به عنوان نزولی یا نه طبقه بندی می کنم. دو ویژگی مهم داده‌های من وجود دارد: (1) تعداد زیادی از نقاط داده از دست رفته است (~50%)، و (2) فصلی بودن داده‌ها بسیار قوی است (~10 برابر بزرگتر از روند). اولین فکر من این بود که به سادگی یک رگرسیون OLS روی هر یک انجام دهم و اگر ضریب دوم منفی باشد، سری را به عنوان نزولی طبقه بندی می کنم. اما بعد شروع کردم به فکر کردن: آیا باید به نحوی فصلی بودن را قبل از OLS حذف کنم یا آن را در OLS از طریق متغیرهای ساختگی برای ماه‌ها حساب کنم، یا می‌توانم فقط به OLS برای انجام یک کار شایسته اعتماد کنم؟
آیا طبقه بندی سری های زمانی با OLS منطقی است؟
24139
من به تست‌های Portmanteau برای برازش مدل‌های ARIMA علاقه‌مندم و به تست Ljung-Box و پیاده‌سازی آن‌ها برای R-statistics ختم شد. من قبلاً سؤالات نسبی در مورد این موضوع را خوانده ام و به این نتیجه رسیده ام که مطمئن ترین راه برای رد فرضیه صفر زمانی است که p<0.05. با این حال من در حال مرور این سایت بودم که نویسنده نتایج زیر را برای آزمایش و h=20 دریافت می کند: X-squared = 13.5844، df = 20، p-value = 0.851 و بیان می کند که: _و p-value برای Ljung -آزمون جعبه 0.9 است، می توان نتیجه گرفت که شواهد بسیار کمی برای همبستگی خودکار غیر صفر در خطاهای پیش بینی وجود دارد. تاخیر 1-20_ من اینجا چه چیزی را از دست داده ام؟ پیشاپیش از صبوری شما سپاسگزارم
تست Ljung-Box: سوالات اساسی
20789
من روی یک الگوریتم تراز با استفاده از کتابخانه LAMP HMM کار می کنم. این کتابخانه از توزیع احتمال گاوسی پشتیبانی می کند اما به نظر نمی رسد از مدل مخلوط گاوسی پشتیبانی کند. آنچه من می خواهم این است که مشاهدات مستمر را در گاوسی های چند متغیره برای اهداف آموزشی و هم ترازی وارد کنم. اگر مدل گاوسی فعلی را برای پشتیبانی از چندین گاوسی گسترش دهم، ممکن است آسان باشد، اما نمی‌دانم چه کدهایی را تغییر دهم و چه کدهایی را تایپ کنم، زیرا من یک مبتدی در این موضوع هستم. آیا کسی وب سایتی برای یادگیری چنین مفاهیمی می شناسد؟ یا کسی می تواند نکاتی را در مورد نحوه انجام این کار نشان دهد؟ با تشکر
اجرای مدل مخلوط گاوسی برای یک کتابخانه HMM
71958
برازش رگرسیون قانون قدرت. معایب تخمین α با به حداکثر رساندن مجذور R (الف) مقادیر نظری خروجی توسط رگرسیون با کاندید α و (ب) مقادیر تجربی که مدل برازش دارد چیست؟ همچنین، من x_min را با استفاده از آزمون کولموگروف-اسمیرنوف اصلاح شده برای تناسب تخمین زدم - آیا ترکیب این دو تست به این شکل نامناسب است؟
آیا تخمین α رگرسیون پارتو با به حداکثر رساندن R-squared مناسب است؟
78579
آیا آمار ریاضی است یا خیر؟ با توجه به اینکه همه اعداد هستند، عمدتاً توسط دپارتمان‌های ریاضی تدریس می‌شوند و برای آن امتیاز ریاضی می‌گیرید، نمی‌دانم که آیا مردم وقتی آن را می‌گویند، فقط به شوخی آن را می‌گویند، مثلاً می‌گویند این بخش جزئی ریاضی است یا فقط ریاضیات کاربردی. نمی دانم آیا چیزی مانند آمار، که در آن شما نمی توانید همه چیز را بر اساس بدیهیات پایه بسازید، می تواند ریاضی در نظر گرفته شود. به عنوان مثال، $p$-value، که مفهومی است که برای معنا بخشیدن به داده ها به وجود آمده است، اما نتیجه منطقی اصول اساسی تر نیست.
آمار ریاضی نیست؟
52259
فکر می‌کردم جالب باشد درباره دو تا از بهترین روش‌های مجموع صحبت کنم: **جنگل‌های تصادفی** و **تقویت**. * چه زمانی یک روش را به جای روش دیگر اعمال می کنید؟
جنگل های تصادفی در مقابل تقویت
108770
من می‌خواهم تعیین کنم که کدام یک از مجموعه‌ای از پیش‌بینی‌کننده‌های کاندید $\\{x_1، x_2،\ldots، x_n\\}$ به طور قابل‌توجهی با پیش‌بینی خطی $y$ مرتبط هستند. به طور معمول، می توان یک مدل کامل $$\hat y = a_0 + a_1x_1 + \cdots + a_nx_n$$ را با یک مدل کاهش یافته $$\hat y = a_0 + a_1x_1 + \cdots + a_{i-1}x_{i مقایسه کرد. -1} + a_{i+1}x_{i+1} + \cdots + a_nx_n$$ (که در آن مدل کاهش‌یافته x_i$ را به عنوان یکی از پیش‌بینی‌کننده‌ها شامل نمی‌شود) با استفاده از آزمون F، که بر اساس مجموع مجذور باقیمانده برای هر مدل است. سپس، اگر مقدار p زیر یک آستانه مشخص باشد، می توان گفت که $x_i$ قابل توجه است. با این حال، در مورد من، قطعاً همبستگی هایی بین پیش بینی کننده ها وجود دارد و ممکن است وابستگی های ناشناخته ای در بین آنها وجود داشته باشد. آیا این بر تفسیر مقدار p-تست F تأثیر می گذارد، و اگر چنین است، آیا به هر حال برای محاسبه این وابستگی ها در محاسبه اهمیت پیش بینی کننده وجود دارد؟ به نظر می رسد که این یک مانع در آمار غیر معمول نیست و ممکن است قبلاً پاسخ داده شده باشد، بنابراین راهنمایی به منابع مربوطه نیز بسیار قدردانی می شود. پیشاپیش متشکرم
تعداد پیش‌بینی‌کننده‌های خطی مهم اگر پیش‌بینی‌کننده‌ها مستقل نباشند؟
94231
من در حال خواندن این مقاله http://image.diku.dk/igel/paper/AItRBM-proof.pdf هستم و در صفحه 4 با معادله (1) گیر کردم که بر اساس قضیه هامرسلی–کلیفورد است. من در خواندن نماد تئوری مجموعه ها خوب نیستم و همچنین نتوانستم نکته را از معادله درک کنم. نمی‌توانم بفهمم $x_c$ و $\hat{x}_c$ چیست، این بخش است، من فقط در معادله (1) گیر کرده‌ام: ![توضیح تصویر را اینجا وارد کنید](http://i.stack. imgur.com/RxoKG.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/xbGA4.png)
قضیه همرسلی-کلیفورد
59990
من توابع clm و clmm را در بسته ordinal و تابع lrm در بسته rms امتحان کردم، اما هیچ کدام از آنها عملکرد خوبی ندارند. بهترین میزان دقت حدود 70 درصد است. آیا بسته دیگری برای اجرای رگرسیون ترتیبی در R وجود دارد؟ یا برای افزایش دقت باید ویژگی های مدل را جایگزین کنم؟
بسته های رگرسیون ترتیبی R
27448
من یک دسته داده دارم که فرض می شود نمونه هایی از یک متغیر تصادفی هندسی با مقادیر پرت هستند. چگونه می توانم یک تخمین قوی از پارامتر $p$ انجام دهم تا اثر نقاط پرت به حداقل برسد؟ به عنوان بخشی از فرآیند تخمین، من همچنین باید بدانم که کدام نقاط پرت در داده ها هستند. من به دنبال راه حلی با استفاده از «R»، «matlab» یا «C/C++» هستم. ویرایش 1 آیا الگوریتمی در دسترس است که بتوان از آن برای تخمین قوی متغیر تصادفی هندسی استفاده کرد، اگرچه به عنوان تابعی در «R» یا «matlab» به آسانی در دسترس نباشد؟ ویرایش 2 تخمین حداکثر درستنمایی «p» متغیر تصادفی هندسی، میانگین مقادیر نمونه است. بنابراین اگر تخمین قوی میانگین مقادیر نمونه انجام دهیم، آیا می توانیم بگوییم که در حال انجام تخمین قوی از متغیر تصادفی هندسی زیربنایی هستیم؟ اگر چنین است، کدام روش برای انجام برآورد میانگین قوی مناسب‌تر است. (من در آمار و R مبتدی هستم)
تخمین قوی یک متغیر تصادفی هندسی
107879
تمرینی وجود دارد که برای نشان دادن نحوه عملکرد توزیع نرمال استفاده می شود. تمرین با گفتن فرض کنید نمرات یک تست هوش به طور معمول توزیع شده است... شروع می شود. توزیع عادی امتیازات به چه معناست. همچنین یک منحنی مرتبط با توزیع نرمال وجود دارد، این منحنی چه چیزی را نشان می دهد، چه چیزی روی محور قرار دارد؟ توضیح شهودی با یک مثال پشتیبانی (اختیاری)، بسیار مورد استقبال قرار خواهد گرفت.
توزیع معمولی به چه معناست
111923
من دو سری زمانی با تعداد مثبت دارم که تقریباً شبیه http://www.google.com/trends/explore#q=italy هستند. من در تجزیه و تحلیل سری های زمانی تازه کار هستم، بنابراین از http://www.wessa.net/rwasp_grangercausality.wasp استفاده کردم و مقداری تحلیل علیت گرنجر را اجرا کردم. اکنون سؤال من عمدتاً در مورد مفهوم تبدیل‌ها (تفاوت یا Box-Cox) است. اول از همه، آیا برای معنی‌دار بودن این تعداد باید مقیاس‌بندی، تغییر یا استانداردسازی کنم؟_ مقدار p برای داده‌های تبدیل نشده 0.08 است. اگر از تفاوت مرتبه اول در هر دو سری استفاده کنم، اهمیت کمتری پیدا می کنم. با این حال، با تفاوت مرتبه دوم من 0.04 دریافت می کنم _آیا این به این معنی است که من یک همبستگی پیدا کرده ام؟ اگر همبستگی را فقط برای مرتبه دوم پیدا کنم چه معنایی دارد؟_ من یک تبدیل Box-Cox با حدس تصادفی 1.6- در هر دو سری اعمال کردم و حتی یک مقدار p از مرتبه 0.0004 دریافت کردم. _آیا این همبستگی را ثابت می‌کند و آیا می‌توانم هر پارامتر Box-Cox را که بیشتر دوست دارم انتخاب کنم؟ _آیا استفاده از مقادیر مختلف در اینجا منطقی است؟_
تبدیلات را در تحلیل علیت گرنجر تفسیر کنید
104069
من چندین موضوع را در مورد این مشکل در خروجی های مشابه پس از اینکه افرادی که مدل شبکه عصبی را با R neuralnet تطبیق دادند، خوانده ام. راه حل ارسال شده این است که داده ها را قبل از برازش مدل عادی یا مقیاس بندی کنید. از آنجایی که من در این زمینه مبتدی هستم، در ناهماهنگی بین داده های آموزشی نرمال شده و داده های تست نرمال شده احساس سردرگمی می کنم. مسئله این است که افراد پس از نرمال کردن داده‌های آموزشی، به شبکه عصبی متصل می‌شوند. سپس از مدل برازش شده بر روی داده های تست نرمال شده برای پیش بینی استفاده می کنند. از آنجایی که داده های آموزشی و داده های تست جدا هستند، روش نرمال سازی یا مقیاس ممکن است متفاوت باشد که ممکن است منجر به نادرست بودن پیش بینی شود. آیا کسی می تواند در مورد این نگرانی به من کمک کند؟
سوال در مورد نرمال سازی/مقیاس سازی داده ها قبل از استفاده از شبکه عصبی
59988
من بالا و پایین را برای مثالی کاربردی از استفاده از فیلتر ذرات برای کمک به پیش‌بینی کوتاه‌مدت قیمت با استفاده از روند محلی یک سری زمانی جستجو کرده‌ام. لطفاً کسی می تواند نحوه اعمال فیلتر ذرات بر روی سری های زمانی با استفاده از MATLAB را به اشتراک بگذارد. من از هر کمکی در این مورد بسیار قدردانی می کنم.
پیش بینی سری های زمانی با استفاده از فیلتر ذرات
71951
بگویید من جمعیت زیادی از افراد دارم که به طور تصادفی به یک گروه درمان و یک گروه کنترل تقسیم می شوند. افراد از هر دو گروه به طور منظم تحت رویداد x قرار می گیرند که گاهی منجر به عارضه y می شود. برای هر فرد می توان کسری از رویدادهای x را که y پیچیده بودند محاسبه کرد. بهترین راه برای تعیین اینکه آیا درمان بر فرکانس y پیچیده کردن x تأثیری دارد یا خیر چیست؟ سوال مرتبط: چگونه می توانم حداقل تفاوت قابل تشخیص را با آلفا 0.05 و توان 0.80 محاسبه کنم؟ کمی اطلاعات بیشتر: 75 نفر در گروه درمان و 25 نفر در گروه کنترل هستند. هر فرد حدود 75 رویداد دارد. میزان پیچیدگی x در گروه درمان حدود 0.30 و در گروه کنترل 0.20 است.
مقایسه دو جمعیت نسبت؟
27446
من یک دانشجوی پزشکی هستم که روی پروژه ای کار می کنم که نیاز به داده های انبوه دارد که به صورت دستی از طریق اپراتورهای ورود داده جمع آوری می شوند. اگرچه من از ابزار سنتی استفاده شده توسط اپیدمیولوژیست ها، Epi Info استفاده می کنم، فقط می خواستم بدانم آیا کسی می تواند جایگزین های خوبی را توصیه کند - نه لزوماً منبع باز/رایگان اگرچه ترجیح داده می شود. داده‌ها قبلاً جمع‌آوری شده‌اند، اما همه آن‌ها در مقالاتی هستند که بیش از پنج سال را در بر می‌گیرد. این شامل 22 فیلد است و برای بسیاری از افراد است، منظور من بیش از 100000 است. من اهل هند هستم، اگرچه در یک کالج پزشکی هستم، این پروژه تنها تلاش ما است (یعنی با سرمایه شخصی). پیشنهاد دوگانه ورود داده در جدول، اما تماس نهایی در مورد مکانیسم‌های بررسی تنها پس از مطالعه آزمایشی انجام خواهد شد. کل داده ها با دست نوشته شده اند (به معنای واقعی کلمه خط خطی شده) و در بسیاری از مکان ها در واقع ناسازگار هستند. اگرچه من تقریباً کل فرم را در Epi Info طراحی کرده‌ام که شامل جعبه‌های بازشو، دکمه‌های رادیویی، جعبه‌های چک می‌شود و هر جا که لازم باشد از Check Code بهره می‌برد. نگرانی های من در مورد Epi Info این است- نسخه فعلی یعنی EI7 اگرچه قول می دهد ژئوکد را وارد کند، متأسفانه حتی پس از گرفتن کلیدهای جداگانه از Bing نتوانستم آن را به کار بیاندازم. اما، به‌عنوان یک راه‌حل بالقوه، از Google API استفاده می‌کنم، که اگرچه درخواست‌ها را 2500/day/IP محدود می‌کند (بله راه‌حل‌هایی وجود دارد). ثانیاً، Epi Info به طرز دردناکی کند است و برای من کار سختی است که آیا برای چنین داده عظیمی به آن اعتماد کنم، به خصوص زمانی که نیاز به ادغام است و زمانی که پس از ویرایش آن در اکسل، نیاز به واردات مجدد داده ها خواهد بود (ژئوکدینگ و موارد دیگر). عدم تطابق تمیز کردن). شخصا آخرین نسخه داشبورد بسیار خوبی برای تجزیه و تحلیل داده ها دارد، اما بسیاری از ما طرفدار SPSS هستند. در نهایت، ما طرفدار هیچ برنامه مبتنی بر وب نیستیم (البته چون اینجا همه جا اینترنت نداریم، و همچنین باید سریع باشد)، یک راه حل آفلاین مورد نیاز است.
نرم افزار خوب برای جمع آوری داده ها توسط Epi Info CDC چیست؟
78577
تصور کنید دو مجموعه انحراف استاندارد و میانگین برای دو دسته داده به شما داده می شود. یک مجموعه داده با عنوان انتظار و دیگری به عنوان ادراک، چگونه اینها را تفسیر می کنید؟
تفسیر انحراف معیار و میانگین
108666
آیا کسی می تواند به من راهنمایی کند که چگونه یک مدل را با مولفه های خطی (برخی طبقه ای)، غیر خطی و سری زمانی در R قرار دهم؟ من نمی‌خواهم از یک مدل ناپارامتریک مانند یک مدل Loess smooth یا مشابه استفاده کنم، زیرا من یک فاصله اطمینان ساده و به خوبی تعریف شده و توانایی برون‌یابی می‌خواهم. همچنین داده های کافی برای توجیه یک مدل ناپارامتریک ندارم. فرم مدل باید مانند زیر باشد، توجه داشته باشید که اجزای سری زمانی وجود دارند که رفتار فصلی از خود نشان می‌دهند (و نماد من احتمالاً این را به خوبی بیان نمی‌کند!): $$\hat{Y} = \beta_0 +\beta_1 X_1 + e^ {\beta_2X_{1}}+\beta_3 f_{harmonic}(X_t) + \epsilon_i $$ Where $\epsilon_i \sim N(\mu, \sigma) $. من می‌دانم که بسته nls می‌تواند مدل‌های غیرخطی را متناسب کند، و من می‌توانم از آن برای جا دادن یک تابع هارمونیک برای بدست آوردن قسمت سری زمانی مدل استفاده کنم. اما می دانم که برای متغیرهای نوع فاکتور کار نمی کند، بنابراین تمایلی به استفاده از آن ندارم. به همین ترتیب، می‌دانم که بسته «dynlm» را می‌توان برای تطبیق مدل‌های خطی پویا استفاده کرد (و بنابراین می‌تواند فصلی بودن را در نظر بگیرد)، اما تا آنجا که من می‌دانم نمی‌تواند مدل‌های پویا از فرم مشخص‌شده در بالا را مطابقت دهد. آیا رویکرد ترجیحی این است که به سادگی هر مدل را به صورت متوالی بر روی باقیمانده های روش قبلی انجام دهیم؟ اگر من این کار را انجام می‌دادم، در نهایت چگونه آنها را با هم ترکیب می‌کردم تا پیش‌بینی‌هایی روی داده‌های جدید ایجاد کنم؟
R: برازش یک مدل با اجزای تناوبی، غیرخطی و طبقه‌ای
97875
من سعی می‌کنم روش پیش‌بینی l-step ahead را برای امتحان سری‌های زمانی‌ام بررسی کنم. من در چند کتاب و یادداشت های سخنرانی خود نگاه کردم، اما روش واقعی برای من چندان منطقی نیست. همچنین به نظر می رسد که با Yule Walker همپوشانی دارد و من بین این دو گیج می شوم. آیا کسی می تواند مراحل واقعی را توضیح دهد تا بتوانم دوباره امتحان کنم؟ به نظر نمی رسد که در هیچ کجا مثال های عددی پیدا کنم، از این رو در تلاش برای درک این مفهوم هستم. من در گوگل کار کردم اما به تازگی تئوری دریافت کردم که به بهبود درک من کمک نکرد. می‌دانم که در مرحله l سعی می‌کنیم پیش‌بینی کنیم، یعنی برای یافتن X_t+l به X-t، X_t-1 و غیره پاسخ می‌دهیم. اما چگونه می‌توانید پیش‌بینی l-step ahead X_t(l) و واریانس پیش‌بینی را پیدا کنید (این به چه معناست؟) برای مثال، برای مدل ARMA: X_t - 0.5X_t-1 = e_t + 0.8 e_t-1. با تشکر
L-Step Ahead Forecasting و Yule Walker در سری زمانی
111920
من تازه وارد این انجمن هستم و در زمینه پیش بینی کاملاً تازه کار هستم. در حال حاضر سعی می‌کنم اصول هموارسازی نمایی، ARIMA و غیره را بیاموزم. اکنون می‌خواهم کل مصرف انرژی یک شرکت نسبتاً کوچک را در پایان ماه پیش‌بینی کنم. در این تصویر می‌توانید مشخصات بارگذاری برق معمولی را برای یک هفته کامل ببینید. ![نمایه بارگذاری نیرو برای یک هفته کامل](http://i.stack.imgur.com/YvQpa.png) انرژی مصرف شده یک ماه، انتگرال کل نمایه بار یک ماه خواهد بود. روزهای هفته همبستگی قوی دارند اما آخر هفته کاملا متفاوت است. من اطلاعات تاریخی بیش از یک سال دارم. همچنین ممکن است یک روند صعودی کوتاه مدت درازمدت وجود داشته باشد. هدف هر ماه پیش بینی انرژی در پایان ماه با استفاده از روزهای گذشته در این ماه و داده های ماه های قبلی (کامل) است. سوال من: کدام روش(های) پیش بینی را برای چنین موردی مناسب می دانید؟ کدام روش ها را باید مطالعه کنم؟ ویرایش: باید بیان می کردم که این یک پروژه تحقیقاتی برای توسعه نرم افزار است. ما یک نرم افزار برای جمع آوری داده ها از دستگاه های اندازه گیری اختصاصی و یک نرم افزار جدید برای تجسم داریم که می خواهیم به برخی از قابلیت های پیش بینی مجهز شویم. در طول سال آینده ما می خواهیم چندین روش / احتمالات پیش بینی را بررسی کنیم و تا حد امکان بیاموزیم. کیفیت یا دقت هدف اصلی در حال حاضر نیست. در زمان بعدی مطمئناً ممکن است بخواهیم از محصولی مانند Autobox استفاده کنیم. در حال حاضر ما می خواهیم از R برای تجزیه و تحلیل استفاده کنیم و سعی می کنیم خودمان برخی چیزها را در نرم افزار پیاده سازی کنیم، به احتمال زیاد با استفاده از کتابخانه های منبع باز برای الگوریتم ها. هدف این نیست که از ابتدا بهترین راه حل را داشته باشید، بلکه هدف این نیست که با کاستی های روش های ساده تر روبرو شوید و به سمت راه حل های بهتر بروید. بنابراین شاید باید سوالم را دوباره بیان کنم: روش‌های پیش‌بینی برای این داده‌ها چیست؟ به کدام سمت برویم؟ آیا باید روزهای هفته و آخر هفته را کاملاً از هم جدا کنیم؟
کدام روش پیش بینی برای پروفایل های بار
27442
من سعی می‌کنم رفتار رگرسیون لجستیک را در مسائل ابعادی بالا درک کنم (یعنی زمانی که شما یک رگرسیون لجستیک را برای داده‌هایی با تعداد زیادی متغیر پیش‌بینی‌کننده تنظیم می‌کنید). هر بار که یک رگرسیون لجستیک را با تعداد زیادی پیش‌بینی‌کننده برازش می‌کنم، اخطار زیر را در R دریافت می‌کنم: پیام هشدار: glm.fit: احتمالات برازش عددی 0 یا 1 رخ داده است، جایی خوانده‌ام که به این پدیده هاک دانر گفته می‌شود و به آن می‌گویند. به این دلیل است که احتمالات برازش بسیار نزدیک به 0/1 است. با این حال، فرضیه من این است که با افزایش تعداد پیش بینی کننده ها، واریانس احتمالات برازش شما باید در رگرسیون لجستیک افزایش یابد. این به این دلیل است که تخمین شانس ورود شما اساساً مجموع متغیرهای تصادفی است و مجموع 100 متغیر تصادفی توزیع شده مشابه (احتمالاً) واریانس بیشتری نسبت به مجموع 10 rvs دارد. بنابراین، وقتی رگرسیون لجستیک را برای مسائل ابعادی بسیار بالا اعمال می‌کنید، احتمالات برازش شما به 0/1 نزدیک‌تر خواهد شد (زیرا واریانس بالاتر)، و بنابراین تخمین‌های ضرایب شما باید به دلیل این مشکل بایاس (نادرست) باشد؟ آیا این فرضیه درست است؟ من یک شبیه سازی با کد زیر ایجاد کرده ام تا سعی کنم به این پاسخ دهم: GenLogit <- تابع (n ، ابعاد) {ابعاد <- طبقه (ابعاد/2)*2 #make Sure Dimens حتی XData <- cbind است (تکرار (تکرار (تکرار (تکرار (تکرار (تکرار) dimens/2,runif(n)), replicate(dimens/2,runif(n,-1,0))) ydata <- application(xdata,1,sum) prob <- exp(ydata)/(1+exp(ydata)) runis <- runif(length(prob)) ydata <- ifelse(runis<prob,1,0) model <- glm(ydata~.,data = data.frame(cbind(ydata,xdata)),family = binomial(link = return(summary(model)) } کاری که کد انجام می دهد اساسا شبیه سازی یک رگرسیون لجستیک از موارد زیر است: $$\log\left(\frac{p}{1-p}\right) = U_1+U_1+\ldots+ U_1 + U_{-1}+U_{-1}+\ldots+U_{-1}$$ که در آن $U_1 = \text{Unif}(0,1)$ and $U_{-1} = \text{Unif}(-1,0)$ می‌توانید تعداد پیش‌بینی‌کننده‌های مدل و همچنین تعداد نقاط داده را تغییر دهید سپس تابع یک رگرسیون لجستیک با داده های شبیه سازی شده مطابقت می دهد و می توانید ضرایب، انحراف باقیمانده، تناسب و غیره را بررسی کنید. واریانس (که لزوماً هنگام برخورد با داده های واقعی درست نیست) اما آیا این شبیه سازی هنوز برای اثبات فرضیه من کافی است؟
عملکرد رگرسیون لجستیک با تعداد زیادی پیش بینی کننده
59985
نامه ای در مقاله اخیر (2011) Nature doi:10.1038/nature09817 در چندین جا به آزمون تفاوت حداقل مربعات پیش بینی شده فیشر اشاره دارد. جستجوی گوگل 102 بازدید را برای اختلاف حداقل مربعات پیش بینی شده و 3 بازدید را برای تفاوت حداقل مربعات پیش بینی شده به دست می آورد. به نظر می‌رسد دو صفحه اول بیشتر از مقالات ژورنالی است و هیچ یک از مواردی که من بررسی کردم حاوی استناد نبود. کسانی که استفاده از یک بسته تجزیه و تحلیل خاص را گزارش کردند، تمایل داشتند StatView را ذکر کنند. با این حال، به نظر می رسد که StatView در نقطه ای توسط SAS بلعیده شده و سپس ناپدید شده است. در تنها نسخه کتابچه راهنمای آنها یافتم که به یک PLSD اشاره دارد، اما آن را حفاظت با کمترین تفاوت مهم پس از آن نامیدم. این عبارت 9980 نتیجه در گوگل دارد که باز هم بیشتر مقالات ژورنالی است. آیا می توان فرض کرد که این واقعاً فقط یک ال اس دی معمولی Tukey post-hoc است که تنها زمانی اجرا شده است که omnibus ANOVA از نظر آماری معنی دار بوده است؟
آیا حداقل مربعات پیش بینی شده توکی یک آزمون واقعی است؟
78570
فرمول یک آزمون t یک نمونه، همانطور که در ویکی‌پدیا ارائه شده است $t = \dfrac{\bar{x} - \mu_0}{s\big/\sqrt{n}}$ است، اما در این معادله، اگر انحراف استاندارد نمونه، $s$، صفر است، $t$ تعریف نشده خواهد بود. آیا راه معقولی برای به دست آوردن مقدار $t$ در این مورد وجود دارد؟
آزمون تی با انحراف معیار نمونه صفر. ممکن است؟
91157
من داده‌هایی برای نسبت‌های دو دسته رژیم غذایی X و Y دارم (از نمونه‌های روده، 10=n) که باید مجموع آنها 1 شود. aX/(aX+bY) چگونه می توانم خطا را در بین دو نسبت نهایی منتشر کنم، با توجه به اینکه نسبت ها همبسته هستند، آیا ابتدا باید میانگین نمونه را محاسبه کنم و سپس آن را تبدیل کنم؟ با استفاده از ثابت ها، یا با استفاده از ثابت ها برای هر نمونه تبدیل کنید و سپس میانگین آنها را محاسبه کنید.
چگونه می توانم خطا را وقتی X+Y=1 و aX+bY=1 منتشر کنم؟
91151
من روش حداقل مربعات جزئی را برای اعمال رگرسیون به مجموعه ای از متغیرهای پیش بینی کننده بسیار خطی امتحان می کنم. هنگام استفاده از بسته `pls` r، در ماتریس بارگیری متوجه شدم که در مؤلفه 24 (در مجموع 27 متغیر)، بارگذاری ها ناگهان به مرتبه 1e11 - 1e12 شلیک می کنند آیا طبیعی است؟ این نیز در واریانس نسبت توضیح داده شده توسط هر متوالی منعکس می شود
بارگیری ها در چند مؤلفه آخر در حداقل مربعات جزئی افزایش می یابد
27447
فرض کنید من یک جدول یک طرفه با سه دسته (A، B و C) دارم و اجازه دهید $p_a$، $p_b$ و $p_c$ نسبت واقعی مشاهدات در هر دسته باشند، یعنی $p_a+p_b+p_c. = 1 دلار چگونه می توانم یک آزمون آماری بر روی فرضیه $p_a$ بزرگترین در بین این سه است انجام دهم، یعنی $p_a > p_b$ و $p_a > p_c$؟ با تشکر
آزمون بزرگ ترین نسبت جدول یک طرفه
78578
مساوی بودن واریانس ها به چه معناست؟ آیا این همان واریانس پیروی از توزیع نرمال است؟
مساوی بودن واریانس ها به چه معناست؟
23214
_آیا آموزش شبکه عصبی بارها و بارها با داده های جدید (از جمله هرس کردن بعد از هر آموزش جدید) معتبر است؟_ من قصد دارم برای مدتی داده ها را جمع آوری کنم، شبکه را آموزش دهم/cv/آزمایش کنم، سپس دوباره داده های جدید جمع آوری کنم. و شبکه موجود و آموزش دیده را با داده های جدید آموزش دهید. تنظیم پیش‌بینی سری‌های زمانی، به عنوان مثال. من فکر می کنم که مناسب نیست، زیرا ورودی و خروجی یک نوع داده نیستند، یعنی ویژگی های ورودی تعداد بر اساس حجم جریان داده است و خروجی یک برچسب کلاس است، بنابراین من نمی توانم فقط حرکت کنم داده ها در سمت چپ. جستجوهای من در گوگل عمدتاً نتایجی در رابطه با آموزش افزاینده در مقابل دسته ای وزن یک مدل یا رشد تدریجی لایه پنهان به همراه داشت. به نظر می رسد این مقاله همان چیزی است که من به دنبال آن هستم، اما هنوز در مورد استفاده از شبکه های عصبی تکراری اطمینان کامل ندارم. من همچنین می‌توانم یک شبکه جدید برای هر دوره زمانی ایجاد کنم، اما بنابراین دانش جمع‌آوری‌شده از دوره‌های زمانی قبلی را از دست می‌دهم. _پس چی پیشنهاد میکنی؟
آموزش افزایشی شبکه های عصبی
71959
من می‌خواهم رتبه یک فرد را در یک لیست پیش‌بینی کنم (1 رتبه اول، 50 آخرین است - تساوی مجاز است، یعنی دو نفر می‌توانند رتبه دوم را اشغال کنند) با توجه به مجموعه‌ای از ویژگی‌ها (مانند سن، شغل، جنسیت و غیره). من مطمئن هستم که این امکان پذیر است - به نظر می رسد افرادی که شانس یک مجموعه از اسب ها را در یک مسابقه با ترتیب خاصی به پایان می برند، همیشه این کار را انجام می دهند (مثلاً با توجه به داده های مسابقه قبلی، نژاد اسب، سن و غیره). آموزش من در روانشناسی تحقیق است، بنابراین بیشتر کاری که انجام می دهم ANOVA و رگرسیون است. من کمتر با شانس ساخت آشنا هستم (اگر این در واقع کاری است که من باید انجام دهم). کسی میتونه کمک کنه؟
چگونه می توانم رتبه یک فرد را با توجه به مجموعه ای از ویژگی ها پیش بینی کنم؟
29070
آیا پسوندهای تخمینگر جیمز-استاین برای حالت متغیرهای وابسته وجود دارد؟ من آزمایش‌های عددی را با تخمین‌گر جیمز-استاین روی متغیرهای عادی همبسته انجام داده‌ام (10-5 متغیر، همبستگی حدود 0.3 بود) و هنوز در 95٪ موارد بهتر از برآوردگر حداقل مربع است.
آیا برنامه های افزودنی برای برآوردگر جیمز-استاین برای موارد متغیرهای وابسته وجود دارد؟
59986
ما در موقعیتی قرار داریم که در آن بازی باید تصمیم گیری شود. از آنجایی که موقعیت‌های بازی و حرکات احتمالی نسبتاً کمی وجود دارد، ما آمار موقعیت‌های قبلی بازی را جمع‌آوری کرده‌ایم و خود را با موقعیت بازی یکسان دیدیم. برای هر حرکت، اگر انتخاب در نهایت منجر به برد یا باخت شود، ثبت کرده ایم. حرکت برد باخت A 3 5 B 2 4 C 0 0 D 0 4 هدف من این است که به طور تصادفی یک حرکت را انتخاب کنم در حالی که به طور متناسب با احتمال بیشتری برنده شدن آن حرکات را ترجیح می دهم. بنابراین برای هر یک از حرکات ممکن، من می خواهم احتمال اینکه آن حرکت برنده ترین حرکت باشد را محاسبه کنم. بیایید اینها را PA، PB، PC و PD بنامیم. مجموع اینها باید برابر با 1 باشد. داده‌های مثال بالا را ارائه دهید، شهود من می‌گوید: - * حرکت A باید بیشتر مورد علاقه باشد، و بنابراین PA بزرگترین مقدار است. * Move C داده ای ندارد. این می تواند چیزی بین همیشه باخت و همیشه برد باشد. ممکن است لازم باشد به عنوان یک مورد خاص در نظر گرفته شود زیرا چیزی برای محاسبه وجود ندارد؟ * حرکت D تاکنون ضعیف به نظر می رسد. شاید این فقط نمونه‌ای از شانس باشد و به مرور زمان خودمان را با 12 برد و 4 باخت به دست بیاوریم. هنوز فرصتی وجود دارد که واقعاً برنده ترین حرکت باشد. الان گیر کردم به نظر می رسد که من باید نسبت برد را برای هر یک از حرکت ها محاسبه کنم و بر اساس تعداد کل دفعاتی که آن گزینه انتخاب شده است، مقداری ضریب اطمینان را اعمال کنم تا توزیعی را ارائه کنم که نشان دهنده نسبت برد احتمالی برای جمعیت اصلی است. چگونه می توانم این توزیع های همپوشانی را ترکیب کنم و آنها را به احتمالات برای هر حرکت کاهش دهم؟ من مطمئن نیستم که چگونه همه این اعداد را برای رسیدن به PA، PB، PC و PD ترکیب کنم. به نظر می رسد این یادآور یک ANOVA است؟ در مشکل واقعی می تواند بین 1 تا 7 حرکت در دسترس باشد. من فرض می کنم هر پاسخی را می توان تا حرکات احتمالی بیشتر تعمیم داد. اگر تفاوتی ایجاد کند، بازی دایره ای نیست. با انجام یک حرکت، هرگز نمی توانیم به همان موقعیت در بازی برگردیم. فقط در یک بازی جدید می توان دوباره به آن رسید. با این حال، راه های متعددی برای رسیدن به یک موقعیت بازی از ابتدای بازی وجود دارد.
چگونه می توانم احتمال نسبی هر حرکت منجر به برد را با توجه به داده های تاریخی برد/باخت برای حرکات ممکن محاسبه کنم؟
59987
من یک قاب داده با 1000 مشاهده دارم و با روش های طبقه بندی با استفاده از بسته caret بازی می کنم. من بیشتر از روش بوت استرپ برای بررسی کیفیت مدل استفاده می کنم. یکی از سوالاتی که من گرفتم این است که اندازه نمونه اولیه چگونه بر کیفیت طبقه بندی تأثیر می گذارد. فکر می‌کنم می‌توانم این اثر را با محدود کردن تکرارهای بوت استرپ به نمونه‌برداری فقط 100 یا 300 مشاهده به جای 1000 و مقایسه متغیرهای دقت/کاپا بررسی کنم. درست میگم؟ اگر چنین است، چگونه می توانم این کار را در «کارت» انجام دهم؟
اندازه گیری اثر حجم نمونه بر طبقه بندی
23210
اجازه دهید $p$ و $q$ توابع جرم احتمالی دو متغیر تصادفی گسسته باشند. من به مثال هایی از توابع $F(p,q)$ نیاز دارم که $r = F(p,q)$ و $r$ یک تابع جرم احتمال برای برخی از متغیرهای تصادفی است. متشکرم. ویرایش: منظور من این است که $r$ باید تابع جرم احتمالی برای توزیع های دلخواه $p$ و $q$ باشد.
نگاشت دو تابع جرم احتمالی را به تابع جرم احتمالی دیگر پیدا کنید
66077
بگویید من دارم روی یک **مشکل طبقه بندی باینری** کار می کنم و یک ماتریس ویژگی $X$ دارم که در آن برخی از ورودی ها **مفقود هستند** ('NaN'). بقیه ورودی ها در $ x $ اعداد واقعی هستند. چگونه می توانم ** svms ** را در این داده ها اعمال کنم؟
پیش‌بینی SVM با نمونه‌هایی با ویژگی‌های گمشده
48621
من هنوز در مدل سازی آماری تازه کار هستم و در مورد اینکه چگونه باید مدل خود را به درستی مشخص کنم کاملاً گیج هستم. من 3 درمان طبقه بندی شده دارم - استرس، عفونت و غذا. هر فرد در 4 نقطه زمانی (درست قبل از آزمایش و 3 برابر در طول آزمایش) اندازه گیری شد. از آنجایی که تنها 4 نقطه زمانی وجود دارد و من هیچ دلیلی ندارم که فرض کنم تغییرات در متغیرهای پاسخ در طول زمان در یک جهت واحد تغییر می کند (همانطور که رشد تغییر می کند)، من زمان را به عنوان یک متغیر طبقه بندی در نظر گرفتم. بنابراین مدل کامل این خواهد بود: lme(پاسخ~ استرس*عفونت*غذا*زمان، تصادفی=~1|ind) امیدوارم تا اینجا همه چیز درست باشد. اما به نظر نمی رسد متوجه شوم که آیا به یک شیب تصادفی هم نیاز دارم یا خیر. من سعی کردم زمان پاسخ را برای افراد هر گروه آزمایشی ترسیم کنم و متوجه تفاوت زیادی در شکل پاسخ بین آنها شدم. بنابراین می‌توانم بگویم هنوز نویز زیادی وجود دارد که باید فیلتر شود. آیا منطقی است که زمان را به عنوان یک شیب تصادفی قرار دهیم؟ به هر حال من از آن به عنوان یک متغیر طبقه بندی ثابت استفاده کردم، بنابراین فکر می کنم نباید در قسمت تصادفی مدل به عنوان پیوسته مشخص شود؟ اما شیب طبقه‌ای تصادفی به من چه می‌گوید؟ اصلا معنی داره؟ اگر سوال احمقانه است متاسفم و از پاسخ شما بسیار متشکرم.
مدل خطی مختلط با lme - زمان به عنوان متغیر طبقه بندی ثابت و شیب تصادفی؟
20788
کجا می توانم یک CDF تقریباً کامل درآمد در ایالات متحده پیدا کنم (نه صرفاً ضریب جینی یا خلاصه امتیازی مانند X٪ از جمعیت Y٪ درآمد را تشکیل می دهند؟) _ توجه: من فکر می کنم این ممکن است در اینجا خارج از موضوع باشد. و سایت QA جداگانه ای را برای این نوع سؤالات پیشنهاد کرده اند، اما شخص دیگری پیشنهاد کرده است که این نوع سؤالات در اینجا مطرح هستند._
توزیع درآمد در ایالات متحده با افزایش 1٪ چگونه است؟
59989
من داشتم این مقاله را می خواندم که در آن تلاش می کردند ماتریس کوواریانس معکوس گاوس را تخمین بزنند. آنچه آنها در تلاش برای به حداکثر رساندن احتمال ورود به سیستم گاوسی هستند. مشکل اصلی، حداکثر کردن احتمال در ماتریس کوواریانس معکوس است. من متوجه نشدم که دوگانه چگونه شکل گرفت. آیا کسی می تواند راهنمایی یا راهنمایی ارائه دهد؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/L3Nvy.png)
سردرگمی مربوط به فرمول بندی مسئله دوگانه در تخمین ماتریس کوواریانس معکوس پراکنده
27443
من تعجب می کردم که چگونه می توانید داده ها را از یک معادله رگرسیون پواسون در R تولید کنید؟ من یک جورهایی گیج هستم که چگونه به مشکل برخورد کنم. بنابراین اگر فرض کنم دو پیش‌بینی‌کننده $X_1$ و $X_2$ داریم که توزیع‌شده‌اند $N(0,1)$. و فاصله 0 است و هر دو ضرایب برابر با 1 هستند. سپس تخمین من به سادگی این است: $$\log(Y) = 0+ 1\cdot X_1 + 1\cdot X_2$$ اما وقتی log(Y) را محاسبه کردم - چگونه می توانم شمارش سم را بر اساس آن ایجاد کنم؟ پارامتر نرخ برای توزیع پواسون چیست؟ اگر کسی بتواند یک اسکریپت R مختصر بنویسد که نمونه‌های رگرسیون پواسون را تولید کند، بسیار عالی خواهد بود! با تشکر
نمونه های داده را از رگرسیون پواسون تولید کنید
109206
مشکل من به شرح زیر است: من 2 دستگاه اندازه گیری دارم که هر دو از تکنیک های اندازه گیری مختلف استفاده می کنند و هر کدام سعی می کنند ویژگی های اجسامی را که از ناحیه اندازه گیری خود عبور می کنند کمیت کنند. دستگاه ها به طور همزمان اجسام را اندازه گیری می کنند. برای این مشکل خاص، من فقط به تعداد اشیایی که هر دستگاه قادر به اندازه گیری آن است علاقه مند هستم. برای هر واحد زمانی که روی یک ساعت تنظیم شده است، دستگاه‌ها تعداد اشیایی را که اندازه‌گیری کرده یا «دیده‌اند» خلاصه می‌کنند، مانند داده‌های مثال زیر: Time Device1 Device2 00:00 58 47 01:00 38 52 02:00 12 13 03:00 0 2 04:00 23 2 .... .. .. **می خواهم مقایسه کنم تفاوت میانگین این 2 مجموعه داده** اولین چیزی که به ذهن من رسید استفاده از آزمون t-tailed 2 برای تعیین اینکه آیا تفاوت معنی داری در میانگین بین دو مجموعه داده وجود دارد یا خیر بود. با استفاده از پارامترهای زیر در اکسل: اختلاف میانگین فرضی = 0 آلفا = 0,05 ** سوال: ** آیا آزمون t در این تنظیمات خاص مناسب است؟ و اگر هست آیا داده های من جفت هستند یا مستقل؟ اگر مناسب نیست، از چه روش دیگری می توان استفاده کرد؟ حدس می‌زنم آنچه مرا گیج می‌کند این واقعیت است که من 2 دستگاه اندازه‌گیری دارم که یک رویداد را اندازه‌گیری می‌کنند، به جای اینکه یک دستگاه رویدادهای مختلف را اندازه‌گیری کند. من در سنین مختلف با مشکلات آماری برخورد نکرده ام، بنابراین دانش من کمی زنگ زده است. هر گونه کمکی بسیار قدردانی خواهد شد. **ویرایش:** همانطور که در پاسخ ها اشاره شد، سوالی که باید بپرسم این است: آیا دستگاه ها اندازه گیری های معادل را تولید می کنند؟ برای شفاف سازی، داده های مثال ارائه شده جعلی است، اما شباهت زیادی به داده های اندازه گیری شده دارد. داده های اندازه گیری شده **** به طور معمول توزیع نمی شوند.
مقایسه میانگین تفاوت بین داده های اندازه گیری شده توسط تجهیزات مختلف، آزمون t مناسب است؟
109204
من مجموعه داده های زیر را از 5 نمونه در یک آزمایش آزمایشگاهی دارم. 1073 1016 1080 1100 1035 I 15 مجموعه از این اعداد برای انواع مختلف نمونه ها. من می خواهم نتیجه ای در 2.5٪ از میانگین برای هر کدام داشته باشم. برای انجام این کار از: $$n = \left(\frac{Z(\frac{\alpha}{2}) \cdot s}{0.025 \cdot \overline{x}}\right)^2 $$ استفاده کردم یک حدس اولیه را بدست آورید و سپس از مقدار دانشجویی t با df=n-1 برای اصلاح بیشتر مقدار استفاده کنید. لطفا اگر این راه است به من اطلاع دهید.
آیا این روشی معتبر برای یافتن حداقل حجم نمونه است؟
114234
من دیده ام که عبارات _matching/match_ و _fitting/fit_ تقریباً به جای هم در هنگام بحث در مورد مدل های خوب بودن تناسب، تطبیق داده های مشاهده شده در مقابل شبیه سازی شده، و غیره استفاده می شوند. آیا تفاوتی در تفسیر بین این اصطلاحات وجود دارد که باید مورد توجه قرار گیرد یا بیشتر هستند یا کمتر مترادف (به معنای دقیق آماری)؟
آیا تفسیر آماری متفاوتی بین مطابقت و تناسب وجود دارد؟
109393
من همبستگی (در SPSS) را بین یک شاخص حاکمیت 1996 و همان شاخص حاکمیت در سال 2012 اجرا کردم. همانطور که انتظار می رود یک همبستگی تقریباً کامل وجود دارد. با این حال، آنچه من به آن علاقه مندم، مواردی هستند که ارتباط نزدیکی با هم ندارند - دورتر از خط هستند (زیرا مواردی از تغییر واقعی حاکمیت هستند). آیا راهی وجود دارد که بتوانم از نظر آماری انگیزه انتخاب خود را از این موارد پرت ایجاد کنم؟ یا تشخیص بصری آنها برای من مشروع است؟ من کاملاً تازه کار هستم - پاسخ های ساده کمک می کند.
آیا یک همبستگی دو متغیره انجام داده اید - می خواهید موارد پرت را شناسایی کنید - آیا یک راه آماری برای انجام این کار وجود دارد؟
109209
زمینه: بسیاری از مردم با اصطلاح تولد «پارادوکس» آشنا هستند که در یک اتاق 23 نفره، شانسی بهتر از 50/50 وجود دارد که دو نفر از آنها تولد یکسانی داشته باشند. در شکل کلی تر آن برای n نفر، احتمال اینکه هیچ دو نفر تولد یکسانی نداشته باشند p(n) = 365 است! / (365^n *(365-n)!). محاسبات مشابهی برای درک اندازه های فضای هش، حملات رمزنگاری و غیره استفاده می شود. انگیزه: دلیل پرسیدن سوال زیر در واقع به درک یک رفتار خاص بازار مالی مربوط می شود. با این حال، نوع دیگری از مسئله «پارادوکس تولد» دقیقاً به عنوان یک قیاس مناسب است و احتمالاً برای افراد با پیشینه‌های مختلف مورد توجه گسترده‌تری قرار می‌گیرد. بنابراین سوال من در امتداد خطوط آشناتر پارادوکس تولد به شرح زیر است. وضعیت: در مجموع 60 نفر در یک اتاق وجود دارد. از این میان، معلوم می‌شود که 11 (یازده) جفت از افراد وجود دارند که تولد یکسانی دارند و یک TRIPLE (یعنی گروه 3 نفره) که تولد یکسانی دارند. بقیه 60 - 2*11 - 3 = 35 نفر تولدهای متفاوتی دارند. با فرض جمعیتی که در آن هر روزی به یک اندازه احتمال تولد دارد (یعنی نادیده گرفتن 29 فوریه و اثرات فصلی احتمالی) و با توجه به توزیع مشخص شده تولدها، پرسش‌کننده می‌خواهد بفهمد که احتمال (یا بعید) این 60 نفر چقدر است. واقعا به صورت تصادفی انتخاب شدند این سوال در ابتدا در سایت دیگری مطرح شده بود که بدون پاسخ مانده بود، اما به سوال کننده توصیه شد که سوال را به شکل زیر بیان کند. سوال: اگر 60 نفر به طور تصادفی از بین جمعیتی انتخاب شوند که در آن هر روز به طور مساوی روز تولد یک فرد باشد، احتمال اینکه 11 روز وجود داشته باشد که دقیقاً 2 نفر در آن روز تولد داشته باشند، یک روز که دقیقاً 3 روز تولد داشته باشد، چقدر است. از آنها تولد مشترک دارند و هیچ روزی وجود ندارد که در آن 4 نفر یا بیشتر تولد داشته باشند؟
تولد پارادوکس -- با دیدگاهی متفاوت
23218
من با تخمین میانگین پسین تابع نمایی ساده f(x)=exp(x) مشکل دارم. اختلاط زنجیره کاملاً خوب است و با تخمین میانگین ساده مشکلی وجود ندارد، اما از آنجایی که توزیع خلفی دارای دنباله های کاملاً سنگینی است و دامنه مقادیر زنجیره از 0 تا 10 (یا بیشتر) متغیر است و اکثر مقادیر نزدیک به 0 متمرکز می شوند. به دلیل آن مقادیر بالا، زنجیره exp(x) بسیار زشت است و بیشتر مقادیر در حدود 1 متمرکز شده اند و برخی از آنها بسیار بسیار زیاد هستند (تعداد را تصور کنید exp(10)). بنابراین سوال من این است که آیا راه حلی برای مقابله با میانگین پسین توابع نمایی وجود دارد؟
میانگین پسین توابع نمایی: چگونه با MCMC انجام دهیم؟
110750
من از یک مدل رگرسیون خطی چندگانه برای ایجاد فواصل پیش‌بینی 80% بر اساس شبیه‌سازی مقادیر X آینده استفاده می‌کنم. در حالی که من نحوه محاسبه فواصل پیش‌بینی را معمولاً می‌دانم (مانند رگرسیون خطی ساده): $$ \hat{y} = \hat{\alpha} + \hat{\beta} * x_{new} \pm t_{0.1، n-2}* s * \sqrt{1 + \frac{1}n + \frac{(x_{new} - \bar{x})^2}{SS_{x}} } $$ من مطمئن نیستم که چگونه این فواصل را با مقادیر آینده شبیه سازی شده برای x در هر نقطه زمانی محاسبه کنم. ما به 8 نقطه زمانی پیش بینی می کنیم که در آن مقادیر X خود را 990 بار برای هر نقطه زمانی شبیه سازی می کنیم. این مقادیر X شبیه سازی شده به طور معمول توزیع می شوند. می‌توانیم مقادیر میانگین x را با خطاهای استاندارد برای هر نقطه زمانی محاسبه کنیم. آیا درست است که خطاهای استاندارد پیش‌بینی خطی را با خطاهای استاندارد $X_{new}$ ترکیب کنیم تا معادله زیر بدست آید: $$ \hat{y} = \hat{\alpha} + \hat{\beta} * \bar{x}_{جدید} \pm t_{0.1، n-2}* \sqrt{\biggl(s * \sqrt{1 + \frac{1}n + \frac{(\bar{x}_{جدید} - \bar{x})^2}{SS_{x}} } \biggl)^2 + SE_x^2} $$ با تشکر!
نحوه محاسبه فواصل پیش بینی از یک رگرسیون خطی چندگانه با X های آینده شبیه سازی شده
66075
داده های من عمدتاً پیوسته است اما دارای یک متغیر باینری است. من الگوریتم pam را در R با شاخص Gower امتحان کردم، اما تعداد خوشه‌هایی که بهترین عرض شبح را ارائه می‌دهند 2 است - به متغیر باینری اجازه می‌دهد کاملاً بر نتیجه تسلط داشته باشد. * آیا PAM رویکرد اشتباهی است؟ * آیا درست است که یک k بالاتر را فقط به این دلیل انتخاب کنید که نتایج معنی‌داری بیشتری به همراه دارد؟
PAM با ماتریس فاصله Gower
481
یک سوال دیگر در مورد سری های زمانی از من. من مجموعه داده ای دارم که سوابق روزانه حوادث خشونت آمیز در یک بیمارستان روانی را طی سه سال ارائه می دهد. با کمک سوال قبلی که داشتم با آن دست و پنجه نرم می کردم و در حال حاضر کمی از آن خوشحالم. چیزی که الان دارم این است که سریال های روزانه بسیار پر سر و صدا هستند. به شدت، بالا و پایین، از 0 در مواقعی تا 20 نوسان می کند. با استفاده از نمودارهای لس و بسته پیش بینی (که می توانم به شدت برای تازه کارهایی مانند من توصیه کنم) من فقط یک خط کاملاً صاف و با فواصل اطمینان عظیم از پیش بینی دریافت می کنم. با این حال، جمع آوری داده های هفتگی یا ماهانه بسیار منطقی تر است. آنها از ابتدای سریال پایین می روند و سپس دوباره در وسط افزایش می یابند. ترسیم Loess و بسته پیش بینی هر دو چیزی را تولید می کنند که بسیار معنی دارتر به نظر می رسد. اگرچه کمی شبیه به تقلب است. آیا من فقط نسخه های انبوه را ترجیح می دهم زیرا زیبا به نظر می رسند و اعتبار واقعی برای آن وجود ندارد؟ یا بهتر است میانگین متحرک را محاسبه کنیم و از آن به عنوان مبنا استفاده کنیم؟ می ترسم تئوری پشت همه اینها را آنقدر خوب درک نکنم که در مورد آنچه قابل قبول است مطمئن باشم
آیا جمع کردن یک سری زمانی برای معنادارتر کردن آن معتبر است؟
114232
اگر من یک متغیر نرخ داشته باشم، برای مثال نرخ بیکاری، که به گونه‌ای تبدیل شده است که $\text{unemployment new} = \ln(\frac{\text{unemployment}}{1-\text{unemployment}})$، چگونه این متغیر را تفسیر کنم؟ من می دانم که گزارش توزیع می کند، بنابراین این در واقع $\ln(\text{بیکاری}) است - \ln(1-\text{unemployment})$ - آیا این نرخ تغییر در نرخ بیکاری است؟ اگر من $\text{unemployment new}$ را بین سالها تفاوت بگذارم چه می شود؟ من یک آزمایش سریع انجام دادم و دیدم که وقتی بیکاری از 0.05 دلار به 0.1 دلار می رسد، $\text{unemployment new}$ از -2.94 دلار به -2.19 دلار می رسد و تفاوت 0.75 دلار است. اما این افزایش 75 درصدی نیست، بنابراین مطمئن نیستم که چگونه آن را تفسیر کنم.
تفسیر متغیر Logit
113134
سلام به کاربران CrossValidated! من در اینجا می نویسم زیرا به راهنمایی در مورد تجزیه و تحلیل آماری خود نیاز دارم که برای مهارت های آماری مبتدی من و تحقیقات شخصی من بسیار پیچیده است. قبل از اینکه بخواهم مشخصات خود را بپرسم، پیشینه ای از کارم ارائه خواهم کرد. دامنه تحلیل من تولید سه مدل برای پاسخ به این سؤالات است: محدوده 1. کدام یک از 11 IV من پیش بینی می کند که آیا یک شرکت مجوز می دهد (متغیر ساختگی DV با کد 0/1) محدوده 2. کدام یک از 13 IV من میزان مجوز یک شرکت را پیش بینی می کند. (DV مقیاس پیوسته 0-100٪ فروش است) محدوده 3. آیا رابطه در محدوده 2 مشخص شده است که توسط جایی تعدیل می شود آنها مجوز به (دو متغیر ساختگی برای ایالات متحده آمریکا و چین با هر کد 0 و 1). اساساً من علاقه مندم ببینم آیا تفاوتی در IV بین شرکت هایی که به این کشورها مجوز می دهند وجود دارد یا خیر. من بر اساس توصیه‌های تحقیقات گذشته، با استفاده از تجزیه و تحلیل پروبیت برای محدوده 1 و تحلیل توبیت برای محدوده 2 و 3، به این مشکل نزدیک شده‌ام. من از مدل‌های قوی برای هر محدوده استفاده کرده‌ام و تجزیه و تحلیل حذف خارج از محیط را بر اساس rs و آشپز دانشجو انجام داده‌ام. SD در حالی که این تجزیه و تحلیل ها را در Stata اجرا می کنم، اما با مشکلات زیر مواجه شده ام که به نظر نمی رسد آنها را بفهمم. 1. آیا قرار است برای هر مدلی که ایجاد می کنم یک ماتریس همبستگی اولیه اجرا کنم یا یک ماتریس اولیه با همه IV ها و DV ها با هم؟ من تمایل دارم برای هر کدام یک مورد جداگانه بسازم. 2. اگر یک IV دارای همبستگی 0.8 با DV دامنه 2 باشد و سپس توبیت dy/dx 105 با اهمیت در سطح 0.000 (بسیار بالاتر از دومین بالاترین) داشته باشد، اشکالی ندارد؟ این از درک من غیرمنطقی به نظر می رسد و باید مرا وادار کند که این متغیر را از تجزیه و تحلیل حذف کنم. اگر من آن را رها کنم، بسیاری از متغیرهای دیگر اهمیت پیدا می کنند یا dy/dx آنها کاملاً تغییر می کند. 3. بهترین تاکتیک برای استفاده از متغیرهای تعدیل من در چنین تحلیل پیچیده ای که از تعداد زیادی IV و با دو تعدیل کننده ساختگی در خطر است چیست؟ برای ارائه اطلاعات بیشتر در مورد کارم در اختیار همه هستم. با تشکر از وقت و کمک شما.
کمک به تجزیه و تحلیل آماری برای پایان نامه - همبستگی، پروبیت، توبیت و تعدیل
82153
من یک مجموعه داده سری زمانی چند متغیره دارم که شامل متغیرهای بیولوژیکی و محیطی در حال تعامل است (به علاوه احتمالاً برخی از متغیرهای برونزا). علاوه بر فصلی بودن، روند بلندمدت مشخصی در داده ها وجود ندارد. هدف من این است که ببینم کدام متغیرها به یکدیگر مرتبط هستند. واقعاً دنبال پیش بینی نیست. از آنجایی که در تحلیل سری های زمانی جدید بودم، چندین مرجع خواندم. تا آنجایی که من می‌دانم، مدل خودرگرسیون برداری (VAR) مناسب است، اما من با فصلی بودن و بیشتر نمونه‌هایی که در زمینه اقتصاد (مانند اغلب با تحلیل سری‌های زمانی…) بدون فصلی بودن احساس راحتی می‌کنم احساس راحتی نمی‌کنم. با داده های فصلی خود چه کار کنم؟ من در نظر گرفتم آنها را فصلی‌زدایی کنم - برای مثال در R، از «تجزیه» استفاده می‌کنم و سپس از مقادیر «$trend + $rand» برای به دست آوردن سیگنالی استفاده می‌کنم که کاملاً ثابت به نظر می‌رسد (بر اساس «acf» قضاوت می‌شود). نتایج مدل VAR من را گیج می‌کند (مدل 1 تاخیری انتخاب می‌شود در حالی که من به طور شهودی انتظار بیشتری داشتم، و فقط ضرایب برای خودرگرسیون - و نه برای رگرسیون با سایر متغیرهای تاخیر - قابل توجه هستند). آیا کار اشتباهی انجام می دهم یا باید به این نتیجه برسم که متغیرهای من (خطی) به هم مرتبط نیستند / مدل من مدل خوبی نیست (سوال فرعی: آیا معادل غیرخطی VAR وجود دارد؟). [در عوض، خواندم که احتمالاً می‌توانم از متغیرهای فصلی ساختگی استفاده کنم، اگرچه نمی‌توانم دقیقاً نحوه پیاده‌سازی آن را بفهمم. پیشنهادات گام به گام بسیار قدردانی می شود، زیرا جزئیات برای کاربران با تجربه ممکن است واقعاً برای من آموزنده باشد (البته از قطعات کد R یا پیوندهایی به نمونه های عینی بسیار استقبال می شود). متشکرم.
سری زمانی بیولوژیکی چند متغیره: VAR و فصلی
114895
من یک کاربر بیشتر با R آشنا هستم و سعی کرده ام شیب های تصادفی (ضرایب انتخاب) را برای حدود 35 فرد در طول 5 سال برای چهار متغیر زیستگاه تخمین بزنم. متغیر پاسخ این است که آیا یک مکان استفاده شده (1) یا در دسترس (0) زیستگاه (استفاده در زیر) است. من از یک کامپیوتر ویندوز 64 بیتی استفاده می کنم. در نسخه R 3.1.0 از داده و عبارت زیر استفاده می کنم. PS، TH، RS و HW اثرات ثابتی هستند (فاصله استاندارد شده، اندازه‌گیری شده تا انواع زیستگاه). lme4 V 1.1-7. str(dat) 'data.frame': 359756 obs. از 7 متغیر: $ استفاده : num 1 1 1 1 1 1 1 1 1 1 ... $ سال : فاکتور w/ 5 سطح 1،2،3،4،...: 4 4 4 4 4 4 4 3 4 ... $ ID : num 306 306 306 306 306 306 306 306 162 306 ... $ PS: num -0.32 -0.317 -0.317 -0.318 -0.317 ... $ TH: num -0.211 -0.211 -0.211 -0.213 -0.22 ... $ RS: num -0.337 -0. -0.337 -0.337 ... $ HW: num -0.0258 -0.19 -0.19 -0.19 -0.4561 ... glmer(استفاده از ~ PS + TH + RS + HW + (1 + PS + TH + RS + HW | ID/سال)، خانواده = دوجمله ای، داده = dat، کنترل=glmerControl(بهینه ساز=بوبیقا)) گلمر به من می دهد تخمین پارامترها برای اثرات ثابتی که برای من معنادار است، و شیب‌های تصادفی (که من به عنوان ضرایب انتخاب برای هر نوع زیستگاه تفسیر می‌کنم) زمانی که داده‌ها را به صورت کیفی بررسی می‌کنم، منطقی است. احتمال ورود به سیستم برای مدل -3050.8 است. با این حال، بیشتر تحقیقات در بوم شناسی حیوانات از R استفاده نمی کنند زیرا با داده های مکان حیوانات، خودهمبستگی فضایی می تواند خطاهای استاندارد را مستعد خطای نوع I کند. در حالی که R از خطاهای استاندارد مبتنی بر مدل استفاده می کند، خطاهای استاندارد تجربی (همچنین هوبر سفید یا ساندویچ) ترجیح داده می شوند. در حالی که R در حال حاضر این گزینه را ارائه نمی دهد (با توجه به اطلاعات من - لطفاً اگر اشتباه می کنم، مرا اصلاح کنید)، SAS این کار را انجام می دهد - اگرچه من به SAS دسترسی ندارم، یکی از همکاران موافقت کرد که به من اجازه دهد رایانه او را قرض بگیرم تا مشخص کنم آیا خطاهای استاندارد وجود دارد یا خیر. با استفاده از روش تجربی به طور قابل توجهی تغییر می کند. اول، ما می‌خواستیم اطمینان حاصل کنیم که هنگام استفاده از خطاهای استاندارد مبتنی بر مدل، SAS تخمین‌هایی مشابه R ارائه می‌دهد - تا مطمئن شویم که مدل در هر دو برنامه به یک شکل مشخص شده است. برای من مهم نیست که آنها دقیقاً یکسان هستند - فقط مشابه. من امتحان کردم (SAS V 9.2): proc glimmix data=dat method=laplace; شناسه سال کلاس؛ استفاده از مدل = PS TH RS HW / راه حل dist=bin ddfm=betwithin; قطع تصادفی PS TH RS HW / موضوع = سال (ID) نوع راه حل = UN; اجرا؛ عنوان من همچنین اشکال مختلف دیگری را امتحان کردم، مانند اضافه کردن خطوط تصادفی قطع / موضوع = سال(شناسه) نوع راه حل = UN; رهگیری تصادفی PS TH RS HW / موضوع = نوع راه حل شناسه = UN; من بدون تعیین نوع راه حل = UN، یا نظر دادن ddfm=betwithin امتحان کردم. مهم نیست که چگونه مدل را مشخص می‌کنیم (و راه‌های زیادی را امتحان کرده‌ایم)، نمی‌توانم شیب‌های تصادفی در SAS از راه دور شبیه خروجی‌های R باشد - حتی اگر جلوه‌های ثابت به اندازه کافی مشابه باشند. و وقتی منظورم متفاوت است، منظورم این است که حتی نشانه ها یکسان نیستند. احتمال Log -2 در SAS 71344.94 بود. من نمی توانم مجموعه داده کامل خود را آپلود کنم. بنابراین من یک مجموعه داده اسباب بازی را تنها با سوابق سه نفر ساختم. SAS در عرض چند دقیقه به من خروجی می دهد. در R بیش از یک ساعت طول می کشد. عجیبه با این مجموعه داده اسباب بازی، اکنون تخمین های مختلفی برای اثرات ثابت دریافت می کنم. سوال من: آیا کسی می تواند روشن کند که چرا تخمین های شیب تصادفی ممکن است بین R و SAS بسیار متفاوت باشد؟ آیا کاری وجود دارد که بتوانم در R یا SAS برای تغییر کد خود انجام دهم تا تماس ها نتایج مشابهی ایجاد کنند؟ من ترجیح می‌دهم کد را در SAS تغییر دهم، زیرا تخمین‌های R خود را بیشتر «باور» می‌کنم. من واقعاً نگران این تفاوت ها هستم و می خواهم به ته این مشکل برسم! خروجی من از مجموعه داده اسباب بازی که تنها از 3 نفر از 35 فرد موجود در مجموعه داده کامل برای R و SAS استفاده می کند به عنوان jpeg گنجانده شده است. ![خروجی R](http://i.stack.imgur.com/ucNnh.jpg) ![خروجی SAS 1](http://i.stack.imgur.com/jUC0K.jpg) ![خروجی SAS 2 ](http://i.stack.imgur.com/IfCJm.jpg) ![خروجی SAS 3](http://i.stack.imgur.com/7XJdA.jpg)
چرا SAS PROC GLIMMIX شیب های تصادفی بسیار متفاوتی نسبت به glmer (lme4) برای glmm دو جمله ای به من می دهد
59984
من سعی می کنم مدل خطرات متناسب کاکس را به تنهایی یاد بگیرم، و این پیوند را پیدا کردم که آن را با عبارات واضح توصیف می کند. اما وقتی به فرمول (5) می‌رسم ($S(t) = \exp(−H(t))$) نمی‌توانم بفهمم این از کجا می‌آید. در صفحه قبلی نویسنده، او نشان می‌دهد که تابع بقا برابر است $S(t) = \exp(−H(t))$ _if_ یک توزیع نمایی را فرض می‌کنیم، اما در Cox این را فرض نمی‌کنیم. آیا $S(t) = \exp(−H(t))$ چیزی است که برای هر توزیع خطری کار می کند؟ من نمی توانم راهی برای اثبات / رد این موضوع بیاندیشم و شهود برای من منطقی نیست.
تلاش برای درک فرمول برای تابع بقا (تحلیل بقا)
105950
من در حال ساخت یک مدل حداکثر آنتروپی برای طبقه‌بندی برخی از متن‌ها هستم، بر اساس مقاله «رویکرد حداکثر آنتروپی برای پردازش زبان طبیعی» نوشته برگر و همکاران. این شبیه به برچسب گذاری POS است. در زیر چند نمونه کاهش یافته از داده های آموزشی، به شکل «LABEL::text»: [PLACE::Worthington Street، COURSE_SN::F0XN9، COURSE_NAME::گوش دادن پیشرفته، COURSE_SEQUENCE::1 آمده است -2، COURSE_COLLECTION::English 9A، ROOM::VIPA]، [PLACE::Ackton Tower، NAME::Jimmy James، COURSE_SN::98CC، COURSE_NAME::Beginning Spanish، COURSE_COLLECTION::Spanish Basics 4، ROOM::201] توجه داشته باشید که داده های دریافتی مانند بالا تقسیم بندی می شوند و بخش بندی بخشی از این کار نیست. هدف این است که انواع میدان هر بخش را در یک دنباله تشخیص دهیم. ترتیب آن ممکن است تا حدی تصادفی باشد. و هر خط ممکن است فقط مجموعه ای از فیلدها داشته باشد. داده‌های آزمایشی به این شکل بودند: [Ackton Tower، Jimmy James، 98CC، Beginning Spanish، Spanish Basics 4، 201] می‌توانید ببینید که تعریف توابع ویژگی تا حدودی ساده است. اساساً کلمه شکل، موقعیت آن و برچسب قبلی نقش اصلی را ایفا کردند. اما من در تصمیم گیری برای اینکه چه چیزی را به عنوان زمینه اضافه کنم مشکل دارم. اجرای فعلی من از «(word_shape، last_label)» به عنوان زمینه استفاده می کند. تابع ویژگی فقط این زمینه را می بیند و هیچ چیز دیگری. به عبارت دیگر، تابع ویژگی خط اول داده های نمونه را به صورت زیر می بیند: [PLACE::Xx Xx، COURSE_SN::X0X0، COURSE_NAME::Xx Xx، COURSE_SEQUENCE::1-2، COURSE_COLLECTION::Xx 9X، ROOM::X]، باید از word_shape استفاده کنم زیرا باید بتوانم به طور بالقوه با متن دیده نشده این منجر به 2 مشکل می شود: 1. محاسبه احتمال نیاز به $\tilde{p}(x,y)$ دارد، که مستلزم این است که زمینه $x$ از قبل در نمونه آموزشی وجود داشته باشد. چگونه با زمینه های نادیده برخورد کنم؟ فرض کنید من (Xx Xx، COURSE_SN) دارم، زیرا در نمونه دیده نمی شود، $\tilde{p}(x,y) = 0$. سپس احتمال آن همیشه برای همه برچسب ها 0 خواهد بود. چگونه می توانم یک برچسب برای آن تعیین کنم؟ 2. با بومی سازی بافت به کلمات واقعی، من می توانم دقت 100% را با تشخیص داده های آموزشی حتی بدون توابع ویژگی حفظ کنم. بگویید من اولین کلمه را به عنوان زمینه انتخاب می‌کنم، می‌توانید ببینید که «جیمی» تقریباً فقط در «NAME» استفاده می‌شود و نه چیز دیگری. بنابراین $\tilde{p}(Jimmy,y)$ تنها زمانی تعریف می شود که $y=NAME$. این تنها احتمالی است که من به آن دست خواهم یافت. اما باز هم، این بدان معنا نیست که من می توانم با داده های دیده نشده مقابله کنم. چگونه زمینه و ویژگی های این کار را انتخاب کنم؟ ** به روز رسانی ** گاوسی پیشین به دقت کمک می کند، اما به سوال من پاسخ نمی دهد. چیزی که من واقعاً می‌پرسم، داده‌های نمونه زیر را در نظر بگیرید: NAME::Lily NAME::Kelly ADV::به طرز شگفت‌انگیزی VERB::می‌داند بگو که من 2 تابع ویژگی دارم، یکی به بزرگ بودن حرف اول بستگی دارد و دیگر بستگی به این دارد که کلمه به ~ly ختم شود یا خیر. چگونه زمینه را تعریف کنم؟ بر اساس فرض اصلی من، من یک زمینه سفت و سخت برای همه بخش ها تعریف می کنم. همه چیز از همان زمینه word_shape استفاده می کند. سپس $\tilde{p}(x)$ خواهد بود: 'Xx~ly' = 2/4 'x~ly' = 1/4 'x' = 1/4 اما در عوض، آیا می توانم زمینه هایی مانند این داشته باشم؟ ctxA-'Xx' = 2/4 ctxA-'x' = 2/4 ctxB-'~ly' = 3/4 به این ترتیب، هر بخش زمینه های متعددی را تولید می کند. و آنها به طور مستقل به عنوان $x$ متفاوت در $\tilde{p}(x)$ در نظر گرفته می شوند. به این ترتیب می توانم محتوای بسیار بیشتری را مطابقت دهم، زیرا پیچیدگی زمینه کاهش می یابد. توجه داشته باشید که چگونه در حالت سخت اول، $\sum \tilde{p}(x)$ برابر با 1 است، در حالی که در حالت دوم، بسیار بزرگتر از 1 خواهد بود. ممکن است احمقانه باشد که بپرسید، اما آیا این راه عملی است؟
مدل حداکثر آنتروپی برای طبقه بندی، چه چیزی به عنوان زمینه و ویژگی استفاده شود؟
31033
اگر شهری به طور متوسط ​​دو تصادف در روز داشته باشد، انتظار دارید در سال چند روز بدون تصادف داشته باشید؟
تعیین تعداد مورد انتظار روزهای بدون حادثه در سال در یک شهر