_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
61916 | من تعجب می کنم که چرا مقادیر جزئی $\eta^2$ در تجزیه و تحلیل چند متغیره SPSS GLM من بسیار کوچک هستند. من 3 DV و 5 IV دارم و حجم نمونه بزرگ است ($n=5000$). اثرات اصلی و قابل توجه است، اما اندازه اثر بالاتر از $0.01$ (جزئی $\eta^2$) است. هنگامی که من همان تجزیه و تحلیل را با Univariate انجام میدهم (یک DV در یک زمان)، اهمیت باقی میماند اما اندازه اثر تا $0.60 افزایش مییابد. چرا؟ عوامل با یکدیگر همبستگی دارند (0.03-0.06 دلار) بنابراین، حدس میزنم باید Multivariate را انجام دهم، اگرچه اندازههای افکت بسیار کوچک هستند. آیا میتوانید توضیح دهید که چرا اندازه افکتها با انجام Multivariate در مقابل Univariate بسیار تغییر میکنند؟ | $\eta^2$ جزئی در تحلیل چند متغیره |
61911 | من باید یک توزیع فرانمایی برای پروژه خود ایجاد کنم. من قبلاً یک الگوریتم تولید سم را که توسط دونالد کنوت ارائه شده است پیادهسازی کردهام، اما نتوانستم الگوریتمی برای تولید یک متغیر تصادفی بیش از حد نمایی پیدا کنم. میانگین و واریانس مورد نیاز توزیع در اختیار من قرار گرفته است و به الگوریتمی نیاز دارم که بتواند یک متغیر تصادفی از این توزیع هنگام اجرای آن ایجاد کند. | الگوریتم تولید توزیع فرانمایی |
21329 | ما یک عدد ثابت شناختهشده $K$ از آزمایشهای مستقل را انجام میدهیم، که هر یک از آنها شانس باقیمانده $p$ را برای شکست مشخص/فرض دارند. ما تعداد $N$ شکست ها را می شماریم. چگونه می توانم $M$ را انتخاب کنم تا $N>M$ حداکثر شانس $q$ را داشته باشد، برای برخی از نرخ مثبت کاذب کلی مطلوب پایین $q$؟ من یک تقریبی را ترجیح میدهم که فقط بر اساس $q$ و $E = K \cdot p$ باشد، با یک قاعده کمی در مورد زمانی که این تقریب معتبر است. این باید شامل $10^{-7}\le q\le 10^{-4}$، $0.5 \le E \le 10$، $K\ge 10^4$ باشد. اشاره به یک منبع معتبر ترجیح داده می شود. برنامه واقعی من: من در حال طراحی دستگاه هایی با یک خودآزمایی (از یک تولید کننده اعداد تصادفی فیزیکی) هستم که در صورت عدم وجود نقص، نرخ شکست باقیمانده شناخته شده ای دارد. اگر خودآزمایی بیش از $M$ در طول عمر خود شکست بخورد، یک دستگاه خود تخریب میشود. من می خواهم (یکی از) کمترین $M$ را انتخاب کنم به طوری که میزان شکست پس از انجام خودآزمایی $K$ برای دستگاه های بدون نقص بیشتر از $q$ نباشد. لطفا به عنوان مناسب تگ مجدد کنید! | محدودیت تعداد خطا برای میزان شکست باقیمانده شناخته شده و نرخ مثبت کاذب مورد نظر؟ |
9493 | من یک برنامه نرم افزاری دارم که از یک صف و چندین پردازنده برای پردازش آن کارها استفاده می کند. مشاغل به صورت روزانه برای مشتریان مجدد اجرا می شوند، اما ما همچنین مشتریان جدیدی داریم که مرتباً ثبت نام می کنند. مشکل این است که مشتریان عموماً در ساعات اداری ثبت نام می کنند و اجرای مجدد روزانه کارها صرفاً کار را برای اجرای هر روز در زمان مشخصی برنامه ریزی می کند. این بدان معناست که ما در طول روز تعداد زیادی کار ایجاد کردهایم، با تعداد کمی از مشاغل که یک شبه کار میکنند. من میخواهم نوکهای این صف شغلی را یکنواخت کنم، اما همچنین میخواهم فاصله هر کار جداگانه از زمان اصلی خود را به حداقل برسانم. به عبارت دیگر، من ترجیح میدهم 100 شغل را هر کدام 5 دقیقه جابجا کنم تا اینکه 1 کار را در ساعت جابجا کنم تا به توزیع یکنواخت مشاغل در کل دوره 24 ساعته دست یابم. | چگونه می توانم توزیع تصادفی را یکنواخت کنم در حالی که فاصله هر نقطه داده را به حداقل برسانم؟ |
9724 | امیدوارم از کسی که روی مدلهای موش یا آنالیزهای بیولوژیکی مشابه کار کرده است بشنوم که در آن تمایل به اجرای «تکرار» یک آزمایش وجود دارد. من می دانم که آزمایش چندگانه یک کتری ماهی قابل توجه است که قطعاً به این بحث مرتبط است. من برخی از برنامههای کاربردی برای پروژههایی دارم که در آنها در مورد اجرای 3 تکرار از یک آزمایش صحبت میکنند، که در آن هر آزمایش دارای n = 3 تا 7 است. با این حال، به نظر میرسد هیچ اشارهای به این که آنها با مجموعههای متعدد نتایج چه خواهند کرد، وجود ندارد. موفقیت، شکست، موفقیت در مقابل شکست، شکست، موفقیت و غیره را مدیریت خواهد کرد. نظرات / تجربیات شما در مورد این وضعیت چیست؟ من می دانم که انواع مختلفی از تکثیر وجود دارد، فنی در مقابل بیولوژیکی، با این حال مطالعه مفید کمی در مورد این موضوع پیدا کرده ام. | مدلهای ماوس - «تکرار» و تجزیه و تحلیل |
16413 | اخیراً رسانه ها در مورد یک نظرسنجی سیاسی گزارش دادند که 46٪ از رای دهندگان جمهوری خواه در می سی سی پی فکر می کنند که ازدواج بین نژادی باید غیرقانونی باشد. یکی از نمونههای داستان (از بسیاری در سراسر شبکه) این است که از نیویورک دیلی نیوز آمده است: 46 درصد از جمهوریخواهان میسیسیپی در نظرسنجی جدید میگویند ازدواج بین نژادی باید غیرقانونی باشد. از آن مقاله: > نظرسنجی انجام شده در ماه گذشته نشان می دهد که 46 درصد از رأی دهندگان جمهوری خواه در ایالت معتقدند > ازدواج بین نژادی باید غیرقانونی باشد - تعداد زیادی از مردم > مورد سوال قرار گرفته اند، با توجه به اینکه من افراد زیادی را در ازدواج های بین نژادی می شناسم (از جمله در خانواده خودم) من انگیزه داشتم که داستان کامل را دنبال کنم تا اینکه در معرض هیستری آشکار قرار بگیرم. من بیانیه مطبوعاتی نظرسنجی از Public Policy Polling را در اینجا قرار دادم (PDF) که نشان می دهد: > 46٪ از این رای دهندگان سرسخت جمهوری خواه معتقدند ازدواج بین نژادی باید غیرقانونی باشد، در حالی که 40٪ فکر می کنند باید قانونی باشد. با گنجاندن باربور، > هاکبی حمایت بیشتری (22٪) از اولی نسبت به دومی (15٪) دریافت می کند، همانطور که > پالین (13-6). حمایت از باخمن (10-2)، گینگریچ (13-8)، و > پاولنتی (4-1) برعکس عمل می کند. و در پایان صفحه اول آنها می گویند: > PPP از 24 تا 27 مارس 400 رای دهنده معمولی جمهوری خواه می سی سی پی را مورد بررسی قرار داد. حاشیه خطای نظرسنجی +/-4.9٪ است. حالا چیزی که من نمی فهمم این است که چگونه نتایج را به خصوص حاشیه مقدار خطا تفسیر کنم. از اعداد خام، 46٪ (50٪) از 400 رای دهنده، 200 رای دهنده هستند که فکر می کنند ازدواج های بین نژادی باید غیرقانونی باشد. اما از آمار می سی سی پی در انتخابات فدرال 2008، مک کین حدود 725000 رای جمهوری خواهان را به دست آورد (به اوباما 556000). احساس اصلی من این است که شما نمی توانید آن 46 درصد را به 724600 رأی دهنده جمهوری خواه دیگر تعمیم دهید و همچنان 5 درصد حاشیه خطا را حفظ کنید. پس آیا رسانه ها اعداد را نادرست نشان می دهند (واقعاً؟ رسانه ها این کار را می کنند؟!؟!؟!) یا آیا آماری در کار است که من نمی فهمم؟ با تشکر از کمک شما! | چگونه حاشیه خطا را در نظرسنجی تفسیر کنیم؟ |
61918 | من با آمار مبتدی هستم و برای تجزیه و تحلیل داده ها به کمک نیاز دارم. در تحقیقات خود سعی میکنم تأثیر رنگها در وبسایتها و انواع فروشگاههای اینترنتی بر اعتماد مشتری، قصد خرید، ترجیحات و غیره را بیابم. برای مثال، اگر رنگ وبسایتها آبی باشد تا قرمز، به وبسایتهای فروش خدمات بیمه بیشتر اعتماد میشود. طراحی تحقیق من 2x2 است /رنگ: قرمز در مقابل آبی $\times$ نوع وب سایت: سرویس در مقابل خروجی. من مطمئن نیستم که آیا باید از آنووا یک طرفه استفاده کنم یا آنووا دو طرفه و مدل باید چگونه باشد. یا راه حل بهتری هست؟ میشه لطفا کمکم کنید من از SAS استفاده می کنم. | طراحی 2x2 برای ANOVA |
55027 | من در حال نوشتن مقاله ای اکتشافی با در نظر گرفتن این بحث هستم که یک واکنش معینی که می تواند در نگاه هنر به وجود بیاید می تواند به عنوان یک شاخص تجربی عمل کند که یک فرآیند شناختی خاص دیگر در تجربه آنها رخ داده است (در این مورد که یکی از اجزای خود را تغییر داده است. خودپنداره). (به عنوان مثال: بگویید که وقتی مردم گزارش می دهند که در یک برخورد هنری احساس عطسه کردن دارند، ما همچنین انتظار داریم که آنها باید بخشی از تصویر خود را تغییر می دادند. کسانی که تمایلی به عطسه کردن نداشتند نباید تغییری نشان دهند.) برای اندازهگیری این، ما یک پیشآزمون با بیست مقیاس صفت دوقطبی 7 درجهای (به عنوان مثال، خوب... بد) دادیم که تصور مردم از تصویر خود را ارزیابی میکرد، سپس از آنها خواستیم هنر را ببینند. و سپس یک آزمون دوم با سوالات مشابه و همچنین یک سوال ارزیابی (Y/N) انجام داد که آیا آنها تمایل به عطسه کردن دارند یا خیر. اندازه جمعیت 21 نفر بود که از جمعیت موزه گرفته شده بود، که حدود 40٪ احساس عطسه کردن داشتند. من متعجبم که بهترین آزمایش برای مقایسه تغییرات در تصور از خود بین جمعیت عطسه و بدون عطسه چیست. من در ابتدا یک آزمون تی زوجی بر روی هر دو جمعیت انجام دادم و تغییر قابل توجهی در معیارهای خاص برای گروه عطسه نشان دادم. با این حال گفته شده است که این روش مناسب نیست. هر گونه پیشنهادی قدردانی خواهد شد. | روش و آزمون های مورد نیاز برای فرض در تجزیه و تحلیل نمونه زوجی معیار لیکرت؟ |
111615 | من عذرخواهی می کنم اگر عبارت من غیرآموزنده است، من سابقه آماری زیادی ندارم. من در تلاش برای یافتن اطلاعاتی برای پاسخ به سؤالم هستم زیرا اصطلاحات لازم برای توصیف دقیق آن را ندارم. فرض کنید که من اطلاعات مربوط به فروش پخش کننده mp3 را بررسی می کردم و می خواستم ببینم آیا ترکیب خاصی از داده های طبقه بندی منجر به بازده می شود یا خیر. چیزهایی مانند رنگ، اندازه حافظه، نام تجاری. من فقط نمی خواهم رابطه بین بازده و رنگ قرمز را ببینم، بلکه می خواهم ببینم کدام ترکیب ها بازگشت احتمالی را نشان می دهند. به عنوان مثال، تصور کنید که یک سازنده خاص از کارخانه متفاوتی برای تولید هر پخش کننده mp3 رنگی استفاده می کند - و کارخانه ای که پخش کننده های آبی را تولید می کند نقصی دارد که 3 ماه بعد ظاهر می شود و باعث بازگشت می شود. من می توانم رابطه بین آن رنگ و برند را با بازده در آن مثال ببینم. آیا این منطقی است؟ از چه آزمایشی می توانم برای این کار استفاده کنم؟ نقطه پرش من یک مربع خی است، با این تفاوت که نمی توانم تعامل بین متغیرهای مختلف را با آن ببینم. من نتوانستم بفهمم از آنجا به کجا بروم. | تعامل داده های طبقه بندی شده |
24131 | من از «plm()» برای تخمین مدلهای اثرات ثابت به شکل y ~ x + time + time:fixed_trait استفاده میکنم که در آن «faxed_trait» متغیری است که در افراد متفاوت است، اما در افراد ثابت است. هدف از تعامل «زمان» با «خصیصه_ثابت» این است که اجازه دهیم اثر «خصیصه_ثابت» در طول زمان تغییر کند. (من در اینجا از کتابچه اخیر پل آلیسون در مورد جلوه های ثابت کار می کنم. نقل قول پیوست شده است.) `plm()` مشکلی در تخمین ضرایب و خطاهای استاندارد برای چنین مدل هایی ندارد. اما `summary.plm()` نمی تواند R^2 را برای این مدل ها محاسبه کند. این مشکلی است که من می خواهم آن را برطرف کنم. در اینجا یک مثال حداقلی وجود دارد: library(plm) tmp <- data.frame(ID=rep(1:3, 2)، year=rep(0:1، every=3)، y=rnorm(6)، const= rep(1:3، 2)) fe1 <- plm(y ~ سال، index=c('ID', 'year'), data=tmp) fe2 <- plm(y ~ سال + year:const, index=c('ID', 'year'), data=tmp) summary(fe1) # works fine summary(fe2) # خطا در crossprod(t(X)، بتا): آرگومان های غیر قابل انطباق در حال بررسی به `plm:::summary.plm` مشکل را واضح تر می کند. برای محاسبه R^2، «plm» سعی میکند این کار را انجام دهد: بتا <- coef(fe2) X <- model.matrix(fe2) crossprod(t(X)، بتا) این کار نمیکند زیرا «بتا» فقط شامل تخمینها برای «year1» و «year0:const»، در حالی که «X» همچنین شامل یک ستون برای «year1:const» است. به عبارت دیگر، «X» شامل ستونهایی برای «year0:const» و «year1:const» است و تخمین هر دوی این ضرایب غیرممکن است. یک راه حل این است که عبارت تعامل با دست را قبل از وارد کردن آن در فرمول ایجاد کنید: tmp$yearXconst <- tmp$year*tmp$const fe3 <- plm(y ~ year + yearXconst, index=c('ID', 'year'), data=tmp) summary(fe3) # خوب کار می کند اما این دست و پا گیر است. خلاصه از این، آیا کاری وجود دارد که بتوانم «summary.plm» را با چنین مدل هایی کار کنم؟ === آلیسون، پل دی. 2009. مدل های رگرسیون اثرات ثابت. لس آنجلس، کالیفرنیا: سیج. به خصوص صفحات 19-21 را ببینید. | استفاده از R و plm برای تخمین مدلهای اثرات ثابت که شامل تعاملات با زمان است |
9729 | سوال زیر از من پرسیده شد: یک نظرسنجی نشان داد که 89٪ از یک نمونه تصادفی از 1024 بزرگسال آمریکایی شبیه سازی حیوانات در معرض خطر را تایید کردند. اگر میخواهیم 90 درصد به تخمین خود از درصد بزرگسالان آمریکایی که شبیهسازی حیوانات در خطر انقراض را تایید میکنند، اطمینان داشته باشیم، حاشیه خطا را برای این نظرسنجی پیدا کنید. من می دانم که برای 90٪ اطمینان، $\text{ME}\sim 0.82/\sqrt{n}$. من سعی کردم از این فرمول با n برابر با 1024 و (.89)1024 استفاده کنم. من به ترتیب 0.025625 و 0.02716 گرفتم. پاسخ داده شده برای مشکل 1.61٪ است. نمی فهمم کجا اشتباه کردم. شاید من از فرمول حاشیه خطا به اشتباه استفاده می کنم؟ با تشکر :) | چگونه حاشیه خطا را با فاصله اطمینان معین محاسبه کنیم؟ |
24135 | فرض کنید من دو نمونه دارم، و میخواهم آنها را با هم مقایسه کنم تا ببینم آیا آنها از یک توزیع اصلی هستند یا خیر. به طور معمول، من احتمالاً این کار را با استفاده از آزمون KS انجام می دهم. با این حال، همچنین فرض کنید که من برای هر مشاهده در هر یک از دو نمونه، مقداری وزن دارم که نشان می دهد چقدر مطمئن هستم که مقدار نمونه برداری شده دقیق است. به عبارت دیگر، برخی از مشاهدات در نمونه ها بیش از سایرین نشان دهنده توزیع نمونه است (توجه داشته باشید که این وزن ها بین نمونه ها متفاوت است). با در نظر گرفتن این موضوع، سوال من این است: آیا تستهایی (مانند تست KS) وجود دارد که بتوانم از آنها برای آزمایش اگر این دو نمونه از توزیع زیربنایی یکسانی با در نظر گرفتن وزنهای مرتبط با هر نمونه استفاده کنم؟ امیدوارم اینجا خیلی مبهم نباشم... اما هر گونه کمک و/یا نظری بسیار قابل قدردانی است. | چگونه می توان ارزیابی کرد که آیا نمونه های وزنی از یک توزیع می آیند؟ |
9494 | در حال حاضر من با متن کاوی کار می کنم که شامل شناسایی احساسات و تخصیص دسته های تجاری مربوطه با استفاده از ابزار منبع باز R است. این دو سند را پیدا کردم که تا حدی به من کمک کرد: * http://www.jstatsoft.org/v25/i05/ * http://epub.wu.ac.at/1923/1/document.pdf رویکرد من توکنیزه کردن متن و جستجو برای احساسات و دسته بندی کسب و کار است. برای انجام این کار، به کتابخانههای مثبت و منفی برای احساسات کاوی و فایل دستهبندی که حاوی کلمه و دسته است نیاز دارم. من توانستم کلمات مثبت و منفی را دریافت کنم، اما نتوانستم یک کتابخانه طبقه بندی به دست بیاورم. * از کجا می توانم یک کتابخانه دسته بندی تهیه کنم؟ * آیا رویکرد فوق مناسب است؟ آیا راه بهتری برای این کار وجود دارد؟ | نحوه انجام متن کاوی، احساسات کاوی، و شناسایی دسته بندی کسب و کار، و از کجا می توان یک کتابخانه طبقه بندی به دست آورد. |
112242 | من به دنبال حل مشکل بهینه سازی توضیح داده شده در زیر هستم. با توجه به الزامات مشخص شده در زیر، کدام بسته نرم افزاری بهینه سازی برای این کار مناسب تر است؟ ** الزامات: ** 1) می تواند مشکل پیچیده ای که در زیر توضیح داده شده را حل کند. 2) بسته باید رایگان و منبع باز باشد. 3) در حالت ایده آل، هیچ خواندن سنگینی در نحو مدل مورد نیاز نیست / منحنی یادگیری سریع. 4) در حالت ایدهآل، مدل را میتوان با استفاده از پایتون یا اکسل بهعنوان فرانتاند اجرا کرد. 5) در حالت ایدهآل یک جلوی بصری در دسترس است به طوری که کاربران نهایی (با دانش بهینهسازی صفر) به راحتی میتوانند محدودیتهای بهینهسازی را اصلاح کنند. **مشکل بهینه سازی:** بهینه ساز باید یک برنامه کاری ماهانه برای 50 کارمند یک بیمارستان پیدا کند که تمام محدودیت های زیر را برآورده کند. برای هر روز تقویمی ماه تقویمی مربوطه، بهینه ساز تعیین می کند که کدام یک از 50 کارمند برنامه ریزی شده است (=1) و کدام یک کار نمی کنند (=0). بنابراین 30 روز * 50 کارمند = 1500 متغیر برای حل وجود دارد که هر کدام می تواند 0 یا 1 باشد. لازم نیست یک متغیر خاص را حداکثر یا کمینه کنید. یافتن راه حلی که تمام محدودیت ها را برآورده کند کافی است. **محدودیت ها:** 1) هر کارمند حداقل از پیش تعیین شده دارد. و حداکثر تعداد روزهای کاری در ماه 2) حداکثر 4 روز کاری متوالی برای هر کارمند. 3) حداقل 2 روز رایگان در بین روزهای کاری برای هر کارمند. 4) برخی از کارمندان فقط در برخی از روزهای ماه می توانند کار کنند (به عنوان مثال فقط دوشنبه تا چهارشنبه). این محدودیت ها از قبل مشخص شده اند. 5) هر کارمند یا پزشک یا پرستار است. در هر روز تقویمی، حداقل تعداد معینی از پزشک و پرستار باید حضور داشته باشند. 6) حداقل 2 آخر هفته (=شنبه و یکشنبه) در ماه باید برای هر کارمند رایگان باشد. | بهترین بسته بهینه سازی برای مشکل زمان بندی کارمندان؟ |
52155 | زمینه من برای این سوال اینجاست: از آنچه می توانم بگویم، ما نمی توانیم یک رگرسیون حداقل مربعات معمولی را در R هنگام استفاده از داده های وزنی و بسته بررسی اجرا کنیم. در اینجا، ما باید از «svyglm()» استفاده کنیم، که به جای آن یک مدل خطی تعمیم یافته را اجرا می کند (که ممکن است یکسان باشد؟ من در اینجا از نظر اینکه چه چیزی متفاوت است مبهم هستم). در OLS و از طریق تابع «lm()» یک مقدار R-squared را محاسبه می کند که من تفسیر آن را درک می کنم. با این حال، به نظر نمیرسد «svyglm()» این را محاسبه کند و به جای آن یک Deviance به من میدهد، که سفر کوتاه من در اینترنت به من میگوید معیار خوبی است که متفاوت از R-squared تفسیر میشود. بنابراین حدس میزنم اساساً دو سؤال دارم که امیدوار بودم در مورد آنها مسیری را دریافت کنم: 1. چرا نمیتوانیم OLS را در بسته «نظرسنجی» اجرا کنیم، در حالی که به نظر میرسد این کار با دادههای وزنی در Stata امکان پذیر است؟ 2. تفاوت در تفسیر بین انحراف یک مدل خطی تعمیم یافته و مقدار r-squared چیست؟ با تشکر | مربع R در مدل خطی آیات انحراف در مدل خطی تعمیم یافته؟ |
32820 | من فهرستی از مقادیر [0,1] دارم که میخواهم آنها را در یک توزیع بتا قرار دهم تا پارامتر آلفای مربوطه را به دست بیاورم. من نمی توانم از تابع برازش بتا استفاده کنم زیرا ممکن است مقادیر من 0 و 1 باشد. در ویکی پدیا این فرمول را برای تخمین روش لحظه های آلفا با توجه به میانگین نمونه و واریانس نمونه پیدا کردم:  من نمی دانم نیازی به اتصال دقیق نیست، فقط یک تقریب خوب. با استفاده از میانگین و واریانس نمونه، باید از شر تمام مشکلات ناشی از 0 و 1 در نمونه خلاص شوم، درست است؟ آیا این باز هم قابل قبول خواهد بود؟ | تخمین پارامترهای یک توزیع بتا با صفر و یک در نمونه |
53200 | من به دنبال آزمون آماری هستم که سهم قابل توجه یک عامل را در نرخ کلی (علت و میزان مرگ و میر) نشان دهد. مطالعه ما در مورد تعداد افراد فوت شده از سال 2008 تا 2012 و علت مرگ است. قرار است از چه آزمایشی برای دانستن سهم فردی علل در تعداد کل مرگها استفاده کنم؟ | تجزیه و تحلیل مرگ و میر (یا بقا) با علت خاص |
22988 | من از lme4 در R برای برازش مدل مختلط lmer(value~ status+(1|experiment)) استفاده می کنم که در آن مقدار پیوسته است، وضعیت و آزمایش فاکتورها هستند، و من با فرمول REML مطابقت مدل مخلوط خطی را دریافت می کنم: مقدار ~ وضعیت + (1) |. آزمایش) AIC BIC logLik deviance REMLdev 29.1 46.98 -9.548 5.911 19.1 اثرات تصادفی: نام گروه ها Variance Std.Dev. آزمایش (Intercept) 0.065526 0.25598 Residual 0.053029 0.23028 تعداد obs: 264، گروه: آزمایش، 10 اثر ثابت: Estimate Std. مقدار خطای t (Intercept) 2.78004 0.08448 32.91 statusD 0.20493 0.03389 6.05 statusR 0.88690 0.03583 24.76 همبستگی اثرات ثابت: (Intr status3 -R statuss.0.0D) 0.476 چگونه می توانم بدانم که تأثیر وضعیت قابل توجه است؟ R فقط t-values و نه p-values را گزارش می دهد. خیلی ممنون | اثر قابل توجهی در مدل مخلوط lme4 |
112243 | تنظیم مشکل من به شرح زیر است، من مجموعه ای از M متغیر تصادفی X = \{ {X_1}،{X_2}،...{X_M}\} دارم که در آن هر متغیر X_i از طریق دنباله تصادفی u^t_i، با نام مستعار، تخمین زده می شود. u^t_i برآوردگر بی طرفانه برای X_i است، {X_i} = {E_t}[u{_{}^t_i}] و من وظیفه تخمین {\max _i}E_t[{X_i}] است. اگر در زمان t، تمام u_i را با i مقایسه کنم، این در واقع ${\max _i}u_{_i}^t$ را در دور t انجام میدهد، با این حال، این تخمینگر بیطرفانه {\max _i}E_t[ نیست. {X_i}]، از {E_t}[{\max _i}u_ {_i}^t]! = {\max _i}E[{X_i}] میبینیم که دنباله عملگر انتظار و عملگر حداکثر برگردانده شده است. BTW، چگونه معادلات را در CrossValidated ارسال کنیم؟ من قبلاً از metaoptimize استفاده می کردم و با CV آشنایی نداشتم. با تشکر | نمونه برداری بی طرفانه از انتظار بر روی عملگر بیشینه سازی |
24136 | فرض کنید ما سه درمان مختلف A، B و C داریم و در حال مدل سازی پاسخ هستیم (0،1). من می خواهم بدانم که چگونه می توانم برای هر گروه (A,B,C) تعیین اندازه نمونه را انجام دهم. من باید نشان دهم که چگونه میتوانیم (و چقدر میتوانیم کاهش دهیم) اندازه نمونه و در صورت داشتن اطلاعات قبلی، آزمایش مشابهی از تفاوتها در جلوههای اصلی دریافت کنیم. مهمترین چیز این است که بتوانیم نشان دهیم که چگونه میتوانیم حجم نمونه را با استفاده از اطلاعات قبلی کاهش دهیم. | تعیین حجم نمونه برای رگرسیون لجستیک بیزی |
22989 | ما علاقه مند به برازش یک مدل رگرسیون لجستیک چندگانه با استفاده از داده های به دست آمده از یک نظرسنجی ملی از کودکان با نیازهای مراقبت بهداشتی ویژه هستیم. داده ها دارای یک متغیر وزن همراه است که هدف آن استانداردسازی کودکان با جمعیت ملی است که ما قصد داریم در آن استنباط کنیم. این متغیر وزن با 1 جمع نمی شود و وزن ها انتگرال نیستند (ممکن است مقادیری مانند 23.2 را بگیرند). این مدل با استفاده از SAS v9.2 مناسب است. در بررسی مستندات برای رویه لجستیک، در توضیحات نحوی به عبارت زیر توجه می کنم: > احتیاط: PROC LOGISTIC برآوردگرهای واریانس مناسب را محاسبه نمی کند اگر > داده های نظرسنجی را تجزیه و تحلیل می کنید و وزن های نمونه را از طریق > عبارت WEIGHT مشخص می کنید. روش SURVEYLOGISTIC برای انجام محاسبات لازم و صحیح طراحی شده است. من نمی فهمم چرا باید این مسئله مطرح باشد. اگر خطاهای استاندارد مبتنی بر مدل محاسبه میشوند، تخمینگر حداکثر درستنمایی وزندار باید خطاهای استانداردی را ارائه دهد که برای جامعه مورد نظر صحیح است. آیا این درست است؟ اگر عبارت فوق صحیح باشد، حلگر رگرسیون لجستیک SAS کدام تابع احتمال را بهینه می کند؟ | وزن های نظرسنجی در مدل های رگرسیون لجستیک |
63515 | من در حال ساخت یک الگوریتم توصیهگر ساده هستم و به عنوان پیشنیاز برای محاسبه یک پیشبینی، باید یک معیار تشابه بین هر دو جفت کاربر تعیین کنم. مرحله بعدی محاسبه میانگین وزنی بین همه کاربران است. مشکل من با پیرسون یا کسینوس این است: A، B کاربرانی هستند که بردارهای آنها رتبهبندی را در 6 مورد در مقیاس 5 نشان میدهند. فرض کنید **A = [1،1،1،0،1،1]* * فرض کنید **B = [5,5,5,0,5,5]** سپس شباهت s این است: s(پیرسون)=1 s(کسینوس)=1 پس اساساً یک کامل وجود دارد همبستگی بین A،B، اگرچه کاربر A رتبه پایین و کاربر B رتبه بالایی دارد، و کاربران به معنای واقعی کلمه مشابه نیستند. من میخواهم از معیاری استفاده کنم که میزان نزدیکی A،B به یکدیگر را نشان دهد. من از الگوریتم زیر استفاده کردم: **1.** برای هر آیتم i هر دو کاربر A، B مقدار r را به آن اختصاص داده اند، من از $${{q}_{i}}=\frac{\ استفاده کردم. چپ| {{r}_{A,i}}-{{r}_{B,i}} \right|}{scale}$$ **2.** $$c(A,B)=1-\ frac{\sum\limits_{i}{{{q}_{i}}}}{\sum\limits_{i}{{}}}$$ **3.** سپس از مقیاس 0 تا 1 (1 یکسان بودن) «c(A,B)» معیار تشابه (c برای نزدیکی) است. **ویرایش:** **من تازه متوجه شدم کاری که انجام دادم فقط تغییری از فاصله نرمال شده مینکوفسکی با بعد`r=1`** می دانم که کمی کلی است، اما آیا متریک «c» می سازد آیا در رابطه با عملکردی که میخواهم از آن استفاده کند، احساسی دارید؟ بیشتر به این نکته، اگر به جای انجام میانگین وزنی مثلاً 10 کاربر با بالاترین `s` برای کاربری که میخواهم آن را در نظر بگیرم، از آنهایی که بالاترین `c را دارند استفاده کنم، آیا پیشرفتی در پیشبینی مشاهده خواهم کرد. `؟ | متریک شباهت بر اساس همبستگی آماری نیست |
27482 | یکی از پیشرفت های اقتصاد سنجی در دو دهه گذشته استفاده از خوشه بندی برای در نظر گرفتن همبستگی عبارات خطا در بین مشاهدات بوده است. به عنوان مثال، اگر شما در حال ارزیابی اثر یک مداخله آموزشی هستید که در آن دادههایی روی دانشآموزان جداگانه دارید، اما گمان میکنید که معلمان مداخله را متفاوت اجرا کردهاند، معمول است که دادهها را به گونهای تجزیه و تحلیل کنید که تشخیص داده شود که اثرات مشترکی در آن وجود دارد. سطح کلاس. یک اصلاح رایج استفاده از خوشه بندی است. وقتی یک ناپیوستگی رگرسیون را اجرا می کنید، آیا به طور مشابه باید در نظر بگیرید که مشاهدات شما ممکن است خوشه ای باشد؟ اگر چنین است، برآوردگر چگونه متفاوت اجرا می شود؟ | آیا وقتی از ناپیوستگی رگرسیون استفاده می کنید، «خوشه بندی» منطقی است؟ |
63518 | من نتایج تست تقسیم A/B یک صفحه وب را دارم. نمایشهای صفحه کلیکها CTR A 56,000 10 0.018% B 78,000 21 0.027% من میخواهم ctr را برای تفاوت معنیدار آماری آزمایش کنم. فرضیه صفر - تفاوتی در CTR بین صفحات A و B وجود ندارد. چگونه می توانم این کار را در سطح نظری تر انجام دهم؟ در چه مواردی باید سطرها، ستون ها، مقادیر مورد انتظار تنظیم شوند؟ | تست استقلال Chi-square برای تست تقسیم A/B |
22980 | مشکل من در سطل ها و توپ ها توضیح داده شده است (این هم آمار است) ... من 1 میلیون سطل دارم. در هر سطل تعدادی توپ دارم. من می خواهم این سیستم را طوری مدل کنم که تعداد توپ های مورد انتظار برای یک سطل را داشته باشم. (من انتظار دارم که تقسیم توپ های من در هر سطل به شکل گاوسی باشد) از آنجایی که تعداد من اعداد صحیح هستند، بلافاصله به توزیع دوجمله ای اشاره می کنم. با این حال، به نظر نمیرسد که نمیتوانم ذهنم را در مورد موفقیت و شکست در سیستمم بپیچم، زیرا هر مشاهدهای یک موفقیت است. آیا کسی می تواند به اطلاعات حیاتی اشاره کند که به من کمک می کند بفهمم از چه توزیعی استفاده کنم؟ **ویرایش**: من میخواهم توزیعی را برای مدلسازی سطلها و توپها در سیستم خود تنظیم کنم، زیرا اینها نویز را در یک مشکل دیگر نشان میدهند. اگر بتوانم این توزیع را پارامتر کنم (به عنوان مثال، اگر دو جمله ای است)، می توانم از آن برای بیرون کشیدن سیگنال خود از نویز در یک مشکل دیگر استفاده کنم. | شمارش داده ها و توزیع دو جمله ای |
22984 | BH سلام، من اصول طبقه بندی LMNN (نزدیکترین همسایه بزرگ حاشیه بزرگ) را به خوبی درک می کنم، اما شبه کد Weinberger را برای پیاده سازی آن به خوبی درک نمی کنم. آیا کسی می تواند به سادگی (اما به طور کامل) پیاده سازی ساده الگوریتم LMNN را توصیف کند (یعنی محاسبه ماتریس Mahalanobis - **M**)، یا من را به چنین سندی هدایت کنید بسیار | LMNN: توضیح الگوریتم ساده |
63519 | من در حال حاضر با داده های شمارش با $n=360$ سر و کار دارم. داده ها نه با پواسون و نه با توزیع دوجمله ای منفی مطابقت دارند. علاوه بر این، من فکر نمیکنم دادههای من صفرهای اضافی داشته باشند، بنابراین هیچ فایدهای برای در نظر گرفتن مدل صفر تورم وجود ندارد. اکنون یک مدل جایگزین (COM Poisson) را در نظر دارم. چه چیز دیگری را پیشنهاد می کنید؟ | شمارش توزیع داده ها |
91848 | من به کمی کمک و تأیید نیاز دارم که ایده درستی دارم. من برخی از اطلاعات جعلی از 8 قبیله دارم. اعضای هر قبیله سخت کار می کنند تا برای قبیله خود غذا به دست آورند. هیچ کس نمی تواند با این قبایل صحبت کند، اما مردم گمان می کنند که هر قبیله یکی از دو استراتژی ارائه شده در زیر را برای به دست آوردن غذا دارد: 1. به اعضای قبیله ای که دورتر از محل اصلی قبیله سفر می کنند، غذای بیشتری داده می شود، بنابراین کمتر با آنها مواجه می شوند. احتمال گرسنگی قبل از بازگشت 2. به اعضای قبیله ای که به دور سفر می کنند غذای کمتری داده می شود. به این ترتیب، اگر آنها گم شوند، ضرر غذایی کمتری برای کل قبیله وجود دارد. متغیرها (ستونهایی) که من با آنها کار میکنم عبارتند از: «تعداد قبیله»، «فاصله از محل قبیله» هنگام نمونهبرداری (10، 20، 30 یا 40 مایل)، «وزن هر عضو» که در حال مطالعه هستیم (مرتبط به مقدار غذا داده شده)، «قد» (افراد قد بلندتر انرژی را به طور موثرتری مصرف می کنند، و یک همبستگی مثبت قوی بین وزن و قد در واحدهای دلخواه و اینچ وجود دارد)، در نهایت من هر کدام را دارم. مشاهده طبقه بندی شده بر اساس قد (گروه '1': 56-62 اینچ، گروه '2': 62-64...). میخواهم بدانم آیا قبیلهها از استراتژیهای متفاوتی استفاده میکنند، و همچنین آیا تفاوتی بین قد کلاسهای «pf» وجود دارد یا خیر. علاوه بر این، من می خواهم استراتژی هایی را که در حال استفاده هستند، بیابم. من با نحوه طبقه بندی هر قبیله به عنوان استراتژی 1 یا 2 مشکل دارم. من در فکر انجام یک ANOVA یک طرفه بودم تا بررسی کنم که آیا تفاوتی در «میانگین» در هر گروه بر اساس «فاصله» وجود دارد یا خیر. (در یک قبیله خاص آیا تفاوتی در میانگین وزن بین کسانی که 10، 20، 30 یا 40 مایل بودند وجود دارد؟) من نمی دانم چگونه بفهمم که آیا هر مستعمره از استراتژی متفاوتی استفاده می کند یا خیر. در نهایت، من می خواهم یک مدل خطی از جرم بر اساس کلنی، فاصله و ارتفاع بسازم. من می دانم چگونه یک مدل بسازم و عیب یابی را اجرا کنم. نگرانی من در اینجا این است که آیا می توانم از فاصله به عنوان یک متغیر طبقه بندی استفاده کنم زیرا مقادیر آن 10، 20، 30 یا 40 مایل است؟ | تلقی عددی به عنوان متغیر طبقه بندی در رگرسیون |
53203 | من قبلا یک سوال در مورد حداکثر احتمال پرسیده بودم. حالا من دو سوال دارم که مربوط به این سوال است: اجازه دهید $x$ چگالی نمایی داشته باشد $p(x|\theta) = \theta e^{-\theta x} \text{ if }x \ge 0 ;\quad 0 \text{ در غیر این صورت.}$ حالا فرض کنید که n نمونه $x_1, ... , x_n$ به طور مستقل مطابق با $p(x|\theta)$ ترسیم شده است نشان دهید که برآورد حداکثر احتمال برای $\theta$ توسط $$\hat{\theta} = \frac{1}{\frac{1}{n} \,\, \sum^n_{k = 1} x_k} داده میشود $$ سوال دوم مشابه است اجازه دهید $x$ یک بردار باینری $d$-بعدی (0 یا 1) با توزیع برنولی چند متغیره باشد $$p(x|\theta) = \prod^d_{i=1} \theta_i^{x_i}(1-\theta _i)^{1-x_i}$$ که $ \theta = ( \theta_i، ...، \theta_d)^t $ است یک بردار پارامتر ناشناخته، $\theta_i$ احتمال اینکه $x_i = 1$ باشد. نشان دهید که برآورد حداکثر احتمال برای $\theta$ $$ \hat{\theta} = \frac{1}{n} \sum^n_{k = 1} x_k $$ است چگونه نشان میدهم که حداکثر برآورد احتمال برای هر یک از آنها داده شده است. من در حال خواندن آموزش ها و چیزهای دیگر هستم و هنوز آن را کاملاً متوجه نشده ام. | چگالی نمایی و توزیع برنولی |
20782 | چرا تابع «HoltWinters» در R تخمینهای پارامترهای بسیار متفاوتی را ارائه میکند، مثلاً «آلفا» و «بتا»، وقتی «گاما» بهعنوان «0» در مقابل «نادرست» تنظیم شده است؟ به نظر می رسد از ساختار مدل 2 باید مدل های معادل را مشخص کند؟ | چرا HoltWinters () در R رفتار متفاوتی دارد زمانی که پارامترها به عنوان 0 در مقابل تنظیم به عنوان False تنظیم می شوند؟ |
21326 | اگر بخواهیم 2 کلاس/عمل جداگانه را با استفاده از HMM طبقه بندی کنیم، 2 HMM مجزا (یکی برای هر کلاس) طراحی می کنیم. آیا آنها **مجموعه مشابهی دارند یا مجموعه ای متفاوت** از مشاهدات-نمادها برای هر یک از HMM؟ اگر مجموعهای از نمادها را به اشتراک بگذارند، در طول زمان استخراج نماد (با استفاده از کوانتیزاسیون برداری) چگونه میتوانیم بفهمیم کدام مجموعه از نمادها را تولید کنیم تا آنها را طبقهبندی کنیم؟ | نمادهای مشاهده ای برای آموزش مجموعه ای از HMM |
94915 | من باید این مشکل را حل کنم: _یک دستگاه با 2 سال گارانتی می آید. به عنوان یک آماردان به شما گفته می شود که (i) تعداد کل ساعاتی که یک ماشین در طول 2 سال استفاده می شود از توزیع N(10، 5) تبعیت می کند. (ii) تعداد ساعاتی که موتور ماشین کار می کند تا اولین عیب اتفاق بیفتد دارای توزیع گاما (0.006، 7) است. علاوه بر این، تعداد ساعات کار قبل از اولین خطا مستقل از تعداد دفعات استفاده از دستگاه است. یک مطالعه شبیهسازی برای تخمین نسبت ماشینهایی که موتورهایشان در طول گارانتی ۲ سالهشان دچار ایراد میشوند، انجام دهید. در واقع، من نمیدانم که تمرین دقیقاً از من چه میخواهد. میشه لطفا برام توضیح بدی متشکرم | ترکیب توزیع نرمال و گاما در R |
49272 | استاد آمار من ادعا می کند که کلمه همبستگی به طور دقیق برای روابط خطی بین متغیرها به کار می رود، در حالی که کلمه همبستگی به طور گسترده برای هر نوع رابطه ای کاربرد دارد. به عبارت دیگر، او ادعا میکند که اصطلاح «همبستگی غیرخطی» یک اکسیمورون است. از آنچه می توانم از این بخش در مقاله ویکی پدیا در مورد _همبستگی و وابستگی_ بگیرم، ضریب همبستگی پیرسون میزان خطی بودن را در رابطه بین دو متغیر توصیف می کند. این نشان می دهد که اصطلاح همبستگی در واقع منحصراً برای روابط خطی کاربرد دارد. از سوی دیگر، جستجوی سریع گوگل برای همبستگی غیر خطی تعدادی مقاله منتشر شده را نشان می دهد که از این اصطلاح استفاده می کنند. آیا استاد من درست است یا همبستگی صرفاً مترادف تداعی است؟ | آیا همبستگی معادل تداعی است؟ |
52152 | من برای گوش دادن به یک کارگاه رفتم و برخی از مخاطبان از مجری پرسیدند که چگونه لحظات می توانند اطلاعات متقابل را بهبود بخشند. من در حال یادگیری MI (اطلاعات متقابل) و لحظات هستم، بنابراین دانش کافی برای درک معنای آن ندارم. همانطور که تاکنون میدانم، توابع تولید لحظه لحظهها را برای یک متغیر تصادفی نمایش ریاضی پیدا میکنند (لطفاً اگر اشتباه میکنم اصلاح کنید). سپس، من تحقیقاتی انجام داده ام اما هنوز سردرگمی هایی دارم. میخواهم کسی اطلاعات بیشتری در این مورد داشته باشد میتواند برای من توضیح دهد. اینجا سوالات من است. * اطلاعات متقابل معمولاً توسط توابع bin برای تخمین احتمال دو متغیر تصادفی محاسبه می شود که می تواند موردی از دو بردار X و Y باشد. آیا تابع مولد لحظه راه دیگری برای تخمین احتمال است؟ * اگر توابع مولد گشتاور می توانند احتمال X و Y را ارائه دهند، چگونه آن را محاسبه کنیم؟ * آیا MI عملکرد تولید لحظه دارد؟ * اگر MI تابع مولد گشتاور داشته باشد، چگونه می توانیم یک MI از X و Y را با توابع گشتاور آن ارائه کنیم؟ خیلی ممنون، | آیا می توان اطلاعات متقابل را با توابع تولید لحظه محاسبه کرد؟ |
94918 | من میخواهم از طرح ناپیوستگی رگرسیون برای ارزیابی برنامهای استفاده کنم که در آن ناپیوستگی/تخصیص درمان در سطح گروه اتفاق میافتد. با این حال، من می خواهم نتیجه را در سطح فردی اندازه گیری کنم (در مقابل اندازه گیری نتیجه به عنوان میانگین در سطح گروه). من سه سوال دارم (با خیال راحت به هر یک از آنها پاسخ دهید): 1. معیارها/مفروضات برای انجام یک RD با تکلیف در سطح گروه چیست؟ 2. آیا استفاده از HLM مناسب است؟ 3. آیا مطالعه ای می شناسید که این کار را انجام دهد؟ به عنوان مثال، یک شرکت بسیار بزرگ را در نظر بگیرید که در آن کارگران به طور مستقل ابزارک میسازند، اما به تیمهایی تقسیم میشوند که میتوانند با یکدیگر مشورت کنند یا چند بار در هفته از آنها مشاوره بخواهند. این شرکت محاسبه می کند که هر کارگر به طور متوسط چقدر طول می کشد تا یک ویجت بسازد و سپس میانگین ویجت ها را در ساعت برای هر تیم محاسبه می کند. آنها برای گروه هایی که میانگین گروه کمتر از یک آستانه مشخص است، آموزش اضافی ارائه می دهند و برای گروه های بالاتر از آستانه، هیچ آموزش اضافی ارائه نمی دهند، بنابراین ناپیوستگی وجود دارد. سپس شرکت می خواهد تأثیر آموزش اضافی را بر روی یک فرد ارزیابی کند. | ارزیابی برنامه در سطح گروه ناپیوستگی رگرسیون |
111317 | میتوانیم pdf مشترک را با متمایز کردن cdf مشترک، $\Pr(X\le x, Y\le y)$ نسبت به x و y بدست آوریم. با این حال، گاهی اوقات پیدا کردن $\Pr(X\ge x, Y\ge y)$ آسان تر است. توجه داشته باشید که گرفتن مکمل CDF مشترک را نمی دهد، بنابراین ما نمی توانیم فقط علائم را متمایز کنیم و برگردانیم. آیا هنوز یک قانون ساده برای متمایز کردن این و دریافت pdf وجود دارد؟ | از سی دی اف مشترک تا پی دی اف مشترک |
63517 | من در ابتدا یک تصویر ماهواره ای چندطیفی متشکل از 5 باند داشتم. من اجزای اصلی را برای این باندها اعمال کردم. بنابراین یک مثال از فرآیند چیزی شبیه به این خواهد بود: واقعیت -> تصویر ماهواره ای -> اولین جزء اصلی آیا راهی برای تخمین نسبت سیگنال به نویز در اینجا وجود دارد؟ از این جزء اول؟ از تصویر ماهواره ای به خودی خود؟ من اطلاعات کمی از پردازش سیگنال دارم، بنابراین اگر درک خوبی از این مفاهیم ندارم، لطفاً با من همراه باشید. | تخمین نسبت سیگنال به نویز یک تصویر |
52154 | تونی یک آزمون فرضیه انجام می دهد که آیا نسبت همه دانش آموزان دبیرستانی که با دوچرخه به مدرسه می روند (با p$ نشان داده می شود) برابر با 30 دلار است یا خیر. به طور خاص، تونی $H_0:p=0.3$ در مقابل $H_A:p≠0.3$ دارد. او P-value برابر با 0.01 دلار به دست می آورد. از سوی دیگر، جان میخواهد آزمایش کند که آیا شواهد کافی برای حمایت از اینکه $p$ بزرگتر از $0.3$ در سطح معناداری $10\%$ است وجود دارد یا خیر. آیا بر اساس نتیجه تونی، فرضیه صفر آزمون جان رد خواهد شد؟ در اینجا کاری است که من انجام داده ام. تونی: $H_0:p=0.3$، $H_A:p≠0.3$ با P-value 0.01$ جان: $H_0:p=0.3$، $H_A:p>0.3$ با $\alpha = 0.1$ از Tony's نتیجه، p-value = $0.01 $، که کمتر از $\alpha = 0.1 $ است. بنابراین فرضیه صفر آزمون جان را باید رد کرد. آیا روش های مناسبی دارم؟ | رد فرضیه صفر یا خیر؟ |
73277 | من می خواهم یک نقشه درک برای دو برند، پپسی و کوکاکولا، با ویژگی های شیرین، کافئین، طراوت، رنگ، دوست داشتنی برای هر مارک ترسیم کنم. من نمونه را از تست چشایی کور گرفتم. | نحوه ترسیم نقشه ادراک |
108663 | من تعداد ویزیتهای پزشک (یک متغیر شمارش) را بر اساس عواملی مانند درآمد، وضعیت مزمن، بیمه و غیره مدلسازی میکنم. من از دستور Stata کنسرو شده «poisson y x1 x2» و غیره استفاده میکنم. دو سؤال زیر را دارم: 1 ) چگونه است که Stata به من اجازه نمی دهد پس از اجرای رگرسیون فوق، پیش بینی باقی مانده ها، باقیمانده ها را اجرا کنم؟ سپس سعی کردم باقیمانده ها را با استفاده از فرمول y-yhat تولید کنم، اما یک باقیمانده با میانگین میانگین منفی (-6.96e-09...) به دست آوردم - آیا در اینجا فکر می کنید؟ 2) آیا باید از SE قوی (یعنی «vce(robust)») در اینجا استفاده کنم؟ من فکر میکنم میتواند مسائل مربوط به ناهمگونی اسکداستیکی وجود داشته باشد، زیرا تعداد ویزیتهای پزشک ممکن است بین مقادیر مختلف متغیر درآمد بسیار متفاوت باشد. با این حال، من مطمئن نیستم که آیا SE های قوی می توانند آزادانه در مورد مدل های غیر خطی مانند پواسون به کار روند. | باقیمانده های رگرسیون پواسون |
71956 | سه نمونه را در نظر بگیرید، یعنی سه فهرست مختلف از اعداد، A، B و C. اندازه نمونههای مربوطه ممکن است متفاوت باشد. با توجه به اینکه قرعه کشی از نمونه A بیشتر از نمونه C است، چگونه می توانم احتمال اینکه قرعه کشی از نمونه A بیشتر از قرعه کشی نمونه B باشد را محاسبه کنم؟ من به دنبال روشی زیبا برای صرفه جویی در منابع هستم که در اینجا پیشنهاد شده است. با پاسخ به این سوال که خودم هم ارسال کردم، امیدوار بودم بقیه اش را خودم بفهمم، اما در این مورد اشتباه کردم. هر گونه نظر مفید قدردانی می شود! | آزمون مجموع رتبه و احتمال شرطی |
94236 | آیا میخواهید بدانید که آیا رابطه اکتشافی بین تعداد مؤلفههای شناساییشده از تجزیه و تحلیل PCA و تعداد عوامل پنهان ارائهشده توسط تجزیه و تحلیل EFA در یک مجموعه داده وجود دارد؟ | رابطه تعداد مولفه های اصلی و عوامل اکتشافی. |
71953 | من در ادبیات منتشر شده دیده ام (و در اینجا ارسال شده است) که راندمان نسبی بدون علامت آزمون رتبه امضا شده Wilcoxon حداقل در مقایسه با آزمون T حداقل 0.864 است. من همچنین شنیده ام که این فقط در مورد نمونه های بزرگ صدق می کند، اگرچه در برخی کتاب ها به این اشاره نشده است (چه خبر است؟). به هر حال، سوال من این است که قبل از اینکه پاراگراف بالا دیگر اعمال نشود، چقدر چیزها باید کوچک شوند؟ در مورد من 4 جفت داده دارم. اگر همه فرضیات نگه داشته شود ، من می دانم که حداقل 90 ٪ قدرت برای تشخیص اندازه اثر 2SD در زیر آزمون t زوجی دارم اگر از آلفا 0.1 استفاده کنم و داده های همبستگی متوسطی داشته باشم. با این حال، به دلیل حجم نمونه کوچک و ناتوانی در بررسی مفروضات، میخواهم از آزمون رتبهبندی امضا شده Wilcoxon استفاده کنم، اما نگران هستم که در صورت انجام تست، قدرت بسیار کمی داشته باشد. با تشکر | کارایی نسبی رتبه علامت دار Wilcoxon در نمونه های کوچک |
108668 | من می خواهم یک نکته بحث برانگیز را مطرح کنم: اگر به متغیرهای ابزاری نیاز دارید، مدل شما اشتباه است. ### مسئله اساسی درون زایی و راه حل IV اجازه دهید چارچوب اصلی درون زایی و متغیرهای ابزاری (IV) را فرض کنیم: می خواهیم تابع رگرسیون $E(y|x,z)$ را تخمین بزنیم و یک مدل خطی $ را انتخاب کنیم. y$ در $x$ و $z$، که در آن $x$ درون زا است و $z$ نه. درون زایی یک مشکل جدی است و می تواند از دلایل زیادی ناشی شود: علیت معکوس، همزمانی، متغیرهای حذف شده، خطاهای اندازه گیری مرتبط با $y$، تعیین نادرست مدل، و غیره. $y_i= \beta_0 + \beta_1 x_i + \beta_2 z_i + \varepsilon_i $ (1) $E(\varepsilon|x) \neq 0$, $E(\varepsilon|z) = 0$ تخمین OLS از پارامتر $x$ $\hat{\beta_1}_{OLS}$ مغرضانه و ناسازگار است زیرا درونزایی $x$ است. بنابراین ما به ابزاری میپردازیم، مثلاً $w$، که باید (در حالت ایدهآل خوب) با $x$ (مشروط به سایر رگرسیونها) همبستگی داشته باشد و با عبارت خطای $\varepsilon$ مدل قبلی همبستگی نداشته باشد، در عمل: $ E(x|w) \neq E(x)$, $E(x|w) \neq E(x|z,w)$, $E(\varepsilon|w) = 0$ IV روش را می توان به عنوان جایگزینی $x$ با $\hat x_{z,w}$ در مدل (1) مشاهده کرد، که در آن $\hat x_{z,w}$ پیشبینی رگرسیون خطی $x$ در $ است. z$ و $w$. OLS در این مدل جدید تخمین ثابت $\hat{\beta_1}_{IV}$ از پارامتر مورد علاقه $\beta_1$ را به دست میدهد. ### تفسیر تخمینهای IV توجه کنید که برازش IV لزوماً در مقایسه با برازش OLS دارای قدرت پیشبینی کمتری است، زیرا طبق تعریف OLS کمترین میانگین مربعات خطا را در بین تمام مدلهای خطی دارد. در اقتصاد سنجی این به عنوان یک مبادله بین حسن تناسب و ثبات تخمین پارامتر توجیه می شود: علاقه اصلی در پیش بینی نیست، بلکه در مقادیر تخمینی پارامترهای خاص است، معمولاً در مدل های خطی که از تئوری اقتصادی به دست می آیند. مشکل من این است که اکثر مدلهای اقتصادسنجی این پارامترهای مورد علاقه ($\beta_1$ در مدل 1) را به عنوان مشتق جزئی $\frac{\partial y}{\partial x}$ تفسیر میکنند، اثر میانگین یک تغییر $x $ در تغییر $y$. این بدیهی است که اشتباه است، زیرا برای محاسبه $\hat{\beta_1}_{IV}$ عمداً اثر غیر خطی $x$ را روی $y$ تا $\varepsilon$ نادیده گرفتیم و خود را به $ محدود میکنیم. جزء \beta_1$. این نکته مهمی است که باید به آن اشاره کرد، با توجه به اهمیت بالایی که برآوردهای IV توسط دانشگاهیان و سیاست گذاران در نظر گرفته می شود. البته می توان استدلال کرد که هدف مدل سازی تقریبی واقعیت است و گرفتن اثر خطی جدا شده بهتر از هیچ است. من استدلال میکنم واقعیت موضوع این است که اگر مدلسازی و تخمین $\frac{\partial y}{\partial x}$ جدی گرفته شود، نباید آنها را با زیر فرش کردن این روابط تخمین زد. که در داده ها وجود دارند اما با مشخصات مدل مطابقت ندارند. ### اگر به IV نیاز دارید، مدل شما اشتباه است اگر نقطه مورد نظر تخمین اثر $x$ روی $y$ باشد (با توجه به دیگر رگرسیون ها) و اگر $x$ درون زا در مدل خطی باشد، پس مدل خطی مشخص شده اشتباه است، زیرا فرضیه عدم همبستگی $\varepsilon$ را نقض می کند. به نظر می رسد استفاده از IV صرفاً نادیده گرفتن این مشکل و بازگرداندن اثر خطی «خالص» یک مدل اشتباه است که برای روح علمی توهین آمیز به نظر می رسد. در بهترین حالت، میتوان آن را بهعنوان یک بسط تیلور کوتاهشده مشاهده کرد، که فقط نزدیک به نقطه میانگین مجموعه داده معتبر خواهد بود. بنابراین بهجای متوسل شدن به IV در مواجهه با درونزایی، به نظر من باید هدفش یافتن مدل بهتری برای توضیح رابطه بود. بسیاری از مدلهای «تقریبی جهانی» به آسانی در دسترس هستند (رگرسیون هسته، کمند، تقویت گرادیان، شبکههای عصبی...) و میتوانند به عنوان یک معیار در مقایسه با قدرت پیشبینی هر مدل مشخصی استفاده شوند. اگر مدلی قدرت پیشبینی ضعیفی داشته باشد، بازنمایی ضعیفی از واقعیت است. اگر هدف نهایی تخمین اثر جزئی کامل $x$ بر $y$ باشد، الگوریتمهایی مانند رگرسیونهای دارای وزن هسته محلی را میتوان در نقاط مورد نظر اجرا کرد که پارامترهای آن را میتوان به عنوان مشتقات جزئی محلی تفسیر کرد. . و اگر کسی به دلیل تئوری اقتصادی با یک مدل خطی مبتنی بر درون زایی گیر کرده باشد، تخمین های IV فقط تقریبی ناخالص از اثرات واقعی خواهند بود، و نتیجه گیری فقط گمراه کننده خواهد بود، درست است؟ نظر یا اشاره ای به ادبیات مرتبط دارید؟ (ببخشید پست طولانی شد) | درون زایی و IV = نامشخص مدل؟ |
78572 | از 10 گونه در 5 دوره زمانی نمونه برداری شد (به زبان ساده، رشد متغیر اندازه گیری شده است). اکنون میخواهم بدانم: 1. آیا مقادیر اندازهگیری شده بین گونهها در هر دوره زمانی (هم از نظر میانگین و هم در روند) به طور قابل توجهی متفاوت است؟ 2. آیا مقادیر اندازه گیری شده به طور قابل توجهی در سطح گونه در دوره های زمانی مختلف متفاوت است؟ (هدف من: آیا می توانم گونه ها را بدون از دست دادن اطلاعات گروه بندی کنم؟) چگونه می توانم این را آزمایش کنم؟ علاوه بر این، برای هر گونه از چندین فرد نمونه برداری شد و گاهی اوقات اندازه گیری های متعدد در یک فرد انجام شد. در حالت ایدهآل، من میخواهم به یک مقدار میانگین برای هر گونه پایان دهم، اما حدس میزنم ابتدا باید بفهمم که آیا تفاوتهای قابل توجهی بین افراد/در افراد وجود دارد؟ از کدام آزمون می توانم برای این منظور استفاده کنم؟ و آیا از گسترده به خاص (در درون گونه -> درون افراد) یا از خاص به گسترده (در درون افراد -> درون گونه) پیش میروم؟ من اصلاً با تجزیه و تحلیل آماری تجربه ندارم و از هر گونه راهنمایی در مورد چگونگی ادامه آن قدردانی می کنم. | از کدام آزمون(های) آماری استفاده کنم؟ (گروه ها، سری های زمانی) |
45968 | در تحقیقات اقتصاد سنجی مالی، بررسی روابط بین سری های زمانی مالی که به شکل **داده های روزانه** هستند بسیار رایج است. برای مثال، متغیر اغلب با گرفتن تفاوت گزارش، $I(0)$ ساخته می شود. $\ln(P_t)-\ln(P_{t-1})$. با این حال، داده های روزانه به این معنی است که هر هفته نقاط داده 5 دلاری وجود دارد و شنبه و یکشنبه وجود ندارد. به نظر می رسد در ادبیات کاربردی که من از آن آگاه هستم به این موضوع اشاره ای نشده است. در اینجا چند سوال مرتبط با من وجود دارد که از این مشاهدات ناشی می شود: * آیا این به عنوان داده هایی با فاصله نامنظم واجد شرایط است، حتی اگر بازارهای مالی در آخر هفته بسته باشند؟ * اگر چنین است، چه پیامدهایی برای اعتبار نتایج تجربی موجود که تاکنون در تعداد عظیمی از مقالاتی که این موضوع را نادیده گرفته اند به دست آمده است؟ | سری های زمانی نامنظم در تحقیقات مالی/اقتصادی |
78576 | من مجموعه ای از سری های زمانی (~2000) با داده های ماهانه بیش از صد سال دارم. علاقه من این نیست که درباره آنها استنباط کنم، بلکه صرفاً آنها را به عنوان نزولی یا نه طبقه بندی می کنم. دو ویژگی مهم دادههای من وجود دارد: (1) تعداد زیادی از نقاط داده از دست رفته است (~50%)، و (2) فصلی بودن دادهها بسیار قوی است (~10 برابر بزرگتر از روند). اولین فکر من این بود که به سادگی یک رگرسیون OLS روی هر یک انجام دهم و اگر ضریب دوم منفی باشد، سری را به عنوان نزولی طبقه بندی می کنم. اما بعد شروع کردم به فکر کردن: آیا باید به نحوی فصلی بودن را قبل از OLS حذف کنم یا آن را در OLS از طریق متغیرهای ساختگی برای ماهها حساب کنم، یا میتوانم فقط به OLS برای انجام یک کار شایسته اعتماد کنم؟ | آیا طبقه بندی سری های زمانی با OLS منطقی است؟ |
24139 | من به تستهای Portmanteau برای برازش مدلهای ARIMA علاقهمندم و به تست Ljung-Box و پیادهسازی آنها برای R-statistics ختم شد. من قبلاً سؤالات نسبی در مورد این موضوع را خوانده ام و به این نتیجه رسیده ام که مطمئن ترین راه برای رد فرضیه صفر زمانی است که p<0.05. با این حال من در حال مرور این سایت بودم که نویسنده نتایج زیر را برای آزمایش و h=20 دریافت می کند: X-squared = 13.5844، df = 20، p-value = 0.851 و بیان می کند که: _و p-value برای Ljung -آزمون جعبه 0.9 است، می توان نتیجه گرفت که شواهد بسیار کمی برای همبستگی خودکار غیر صفر در خطاهای پیش بینی وجود دارد. تاخیر 1-20_ من اینجا چه چیزی را از دست داده ام؟ پیشاپیش از صبوری شما سپاسگزارم | تست Ljung-Box: سوالات اساسی |
20789 | من روی یک الگوریتم تراز با استفاده از کتابخانه LAMP HMM کار می کنم. این کتابخانه از توزیع احتمال گاوسی پشتیبانی می کند اما به نظر نمی رسد از مدل مخلوط گاوسی پشتیبانی کند. آنچه من می خواهم این است که مشاهدات مستمر را در گاوسی های چند متغیره برای اهداف آموزشی و هم ترازی وارد کنم. اگر مدل گاوسی فعلی را برای پشتیبانی از چندین گاوسی گسترش دهم، ممکن است آسان باشد، اما نمیدانم چه کدهایی را تغییر دهم و چه کدهایی را تایپ کنم، زیرا من یک مبتدی در این موضوع هستم. آیا کسی وب سایتی برای یادگیری چنین مفاهیمی می شناسد؟ یا کسی می تواند نکاتی را در مورد نحوه انجام این کار نشان دهد؟ با تشکر | اجرای مدل مخلوط گاوسی برای یک کتابخانه HMM |
71958 | برازش رگرسیون قانون قدرت. معایب تخمین α با به حداکثر رساندن مجذور R (الف) مقادیر نظری خروجی توسط رگرسیون با کاندید α و (ب) مقادیر تجربی که مدل برازش دارد چیست؟ همچنین، من x_min را با استفاده از آزمون کولموگروف-اسمیرنوف اصلاح شده برای تناسب تخمین زدم - آیا ترکیب این دو تست به این شکل نامناسب است؟ | آیا تخمین α رگرسیون پارتو با به حداکثر رساندن R-squared مناسب است؟ |
78579 | آیا آمار ریاضی است یا خیر؟ با توجه به اینکه همه اعداد هستند، عمدتاً توسط دپارتمانهای ریاضی تدریس میشوند و برای آن امتیاز ریاضی میگیرید، نمیدانم که آیا مردم وقتی آن را میگویند، فقط به شوخی آن را میگویند، مثلاً میگویند این بخش جزئی ریاضی است یا فقط ریاضیات کاربردی. نمی دانم آیا چیزی مانند آمار، که در آن شما نمی توانید همه چیز را بر اساس بدیهیات پایه بسازید، می تواند ریاضی در نظر گرفته شود. به عنوان مثال، $p$-value، که مفهومی است که برای معنا بخشیدن به داده ها به وجود آمده است، اما نتیجه منطقی اصول اساسی تر نیست. | آمار ریاضی نیست؟ |
52259 | فکر میکردم جالب باشد درباره دو تا از بهترین روشهای مجموع صحبت کنم: **جنگلهای تصادفی** و **تقویت**. * چه زمانی یک روش را به جای روش دیگر اعمال می کنید؟ | جنگل های تصادفی در مقابل تقویت |
108770 | من میخواهم تعیین کنم که کدام یک از مجموعهای از پیشبینیکنندههای کاندید $\\{x_1، x_2،\ldots، x_n\\}$ به طور قابلتوجهی با پیشبینی خطی $y$ مرتبط هستند. به طور معمول، می توان یک مدل کامل $$\hat y = a_0 + a_1x_1 + \cdots + a_nx_n$$ را با یک مدل کاهش یافته $$\hat y = a_0 + a_1x_1 + \cdots + a_{i-1}x_{i مقایسه کرد. -1} + a_{i+1}x_{i+1} + \cdots + a_nx_n$$ (که در آن مدل کاهشیافته x_i$ را به عنوان یکی از پیشبینیکنندهها شامل نمیشود) با استفاده از آزمون F، که بر اساس مجموع مجذور باقیمانده برای هر مدل است. سپس، اگر مقدار p زیر یک آستانه مشخص باشد، می توان گفت که $x_i$ قابل توجه است. با این حال، در مورد من، قطعاً همبستگی هایی بین پیش بینی کننده ها وجود دارد و ممکن است وابستگی های ناشناخته ای در بین آنها وجود داشته باشد. آیا این بر تفسیر مقدار p-تست F تأثیر می گذارد، و اگر چنین است، آیا به هر حال برای محاسبه این وابستگی ها در محاسبه اهمیت پیش بینی کننده وجود دارد؟ به نظر می رسد که این یک مانع در آمار غیر معمول نیست و ممکن است قبلاً پاسخ داده شده باشد، بنابراین راهنمایی به منابع مربوطه نیز بسیار قدردانی می شود. پیشاپیش متشکرم | تعداد پیشبینیکنندههای خطی مهم اگر پیشبینیکنندهها مستقل نباشند؟ |
94231 | من در حال خواندن این مقاله http://image.diku.dk/igel/paper/AItRBM-proof.pdf هستم و در صفحه 4 با معادله (1) گیر کردم که بر اساس قضیه هامرسلی–کلیفورد است. من در خواندن نماد تئوری مجموعه ها خوب نیستم و همچنین نتوانستم نکته را از معادله درک کنم. نمیتوانم بفهمم $x_c$ و $\hat{x}_c$ چیست، این بخش است، من فقط در معادله (1) گیر کردهام:   | قضیه همرسلی-کلیفورد |
59990 | من توابع clm و clmm را در بسته ordinal و تابع lrm در بسته rms امتحان کردم، اما هیچ کدام از آنها عملکرد خوبی ندارند. بهترین میزان دقت حدود 70 درصد است. آیا بسته دیگری برای اجرای رگرسیون ترتیبی در R وجود دارد؟ یا برای افزایش دقت باید ویژگی های مدل را جایگزین کنم؟ | بسته های رگرسیون ترتیبی R |
27448 | من یک دسته داده دارم که فرض می شود نمونه هایی از یک متغیر تصادفی هندسی با مقادیر پرت هستند. چگونه می توانم یک تخمین قوی از پارامتر $p$ انجام دهم تا اثر نقاط پرت به حداقل برسد؟ به عنوان بخشی از فرآیند تخمین، من همچنین باید بدانم که کدام نقاط پرت در داده ها هستند. من به دنبال راه حلی با استفاده از «R»، «matlab» یا «C/C++» هستم. ویرایش 1 آیا الگوریتمی در دسترس است که بتوان از آن برای تخمین قوی متغیر تصادفی هندسی استفاده کرد، اگرچه به عنوان تابعی در «R» یا «matlab» به آسانی در دسترس نباشد؟ ویرایش 2 تخمین حداکثر درستنمایی «p» متغیر تصادفی هندسی، میانگین مقادیر نمونه است. بنابراین اگر تخمین قوی میانگین مقادیر نمونه انجام دهیم، آیا می توانیم بگوییم که در حال انجام تخمین قوی از متغیر تصادفی هندسی زیربنایی هستیم؟ اگر چنین است، کدام روش برای انجام برآورد میانگین قوی مناسبتر است. (من در آمار و R مبتدی هستم) | تخمین قوی یک متغیر تصادفی هندسی |
107879 | تمرینی وجود دارد که برای نشان دادن نحوه عملکرد توزیع نرمال استفاده می شود. تمرین با گفتن فرض کنید نمرات یک تست هوش به طور معمول توزیع شده است... شروع می شود. توزیع عادی امتیازات به چه معناست. همچنین یک منحنی مرتبط با توزیع نرمال وجود دارد، این منحنی چه چیزی را نشان می دهد، چه چیزی روی محور قرار دارد؟ توضیح شهودی با یک مثال پشتیبانی (اختیاری)، بسیار مورد استقبال قرار خواهد گرفت. | توزیع معمولی به چه معناست |
111923 | من دو سری زمانی با تعداد مثبت دارم که تقریباً شبیه http://www.google.com/trends/explore#q=italy هستند. من در تجزیه و تحلیل سری های زمانی تازه کار هستم، بنابراین از http://www.wessa.net/rwasp_grangercausality.wasp استفاده کردم و مقداری تحلیل علیت گرنجر را اجرا کردم. اکنون سؤال من عمدتاً در مورد مفهوم تبدیلها (تفاوت یا Box-Cox) است. اول از همه، آیا برای معنیدار بودن این تعداد باید مقیاسبندی، تغییر یا استانداردسازی کنم؟_ مقدار p برای دادههای تبدیل نشده 0.08 است. اگر از تفاوت مرتبه اول در هر دو سری استفاده کنم، اهمیت کمتری پیدا می کنم. با این حال، با تفاوت مرتبه دوم من 0.04 دریافت می کنم _آیا این به این معنی است که من یک همبستگی پیدا کرده ام؟ اگر همبستگی را فقط برای مرتبه دوم پیدا کنم چه معنایی دارد؟_ من یک تبدیل Box-Cox با حدس تصادفی 1.6- در هر دو سری اعمال کردم و حتی یک مقدار p از مرتبه 0.0004 دریافت کردم. _آیا این همبستگی را ثابت میکند و آیا میتوانم هر پارامتر Box-Cox را که بیشتر دوست دارم انتخاب کنم؟ _آیا استفاده از مقادیر مختلف در اینجا منطقی است؟_ | تبدیلات را در تحلیل علیت گرنجر تفسیر کنید |
104069 | من چندین موضوع را در مورد این مشکل در خروجی های مشابه پس از اینکه افرادی که مدل شبکه عصبی را با R neuralnet تطبیق دادند، خوانده ام. راه حل ارسال شده این است که داده ها را قبل از برازش مدل عادی یا مقیاس بندی کنید. از آنجایی که من در این زمینه مبتدی هستم، در ناهماهنگی بین داده های آموزشی نرمال شده و داده های تست نرمال شده احساس سردرگمی می کنم. مسئله این است که افراد پس از نرمال کردن دادههای آموزشی، به شبکه عصبی متصل میشوند. سپس از مدل برازش شده بر روی داده های تست نرمال شده برای پیش بینی استفاده می کنند. از آنجایی که داده های آموزشی و داده های تست جدا هستند، روش نرمال سازی یا مقیاس ممکن است متفاوت باشد که ممکن است منجر به نادرست بودن پیش بینی شود. آیا کسی می تواند در مورد این نگرانی به من کمک کند؟ | سوال در مورد نرمال سازی/مقیاس سازی داده ها قبل از استفاده از شبکه عصبی |
59988 | من بالا و پایین را برای مثالی کاربردی از استفاده از فیلتر ذرات برای کمک به پیشبینی کوتاهمدت قیمت با استفاده از روند محلی یک سری زمانی جستجو کردهام. لطفاً کسی می تواند نحوه اعمال فیلتر ذرات بر روی سری های زمانی با استفاده از MATLAB را به اشتراک بگذارد. من از هر کمکی در این مورد بسیار قدردانی می کنم. | پیش بینی سری های زمانی با استفاده از فیلتر ذرات |
71951 | بگویید من جمعیت زیادی از افراد دارم که به طور تصادفی به یک گروه درمان و یک گروه کنترل تقسیم می شوند. افراد از هر دو گروه به طور منظم تحت رویداد x قرار می گیرند که گاهی منجر به عارضه y می شود. برای هر فرد می توان کسری از رویدادهای x را که y پیچیده بودند محاسبه کرد. بهترین راه برای تعیین اینکه آیا درمان بر فرکانس y پیچیده کردن x تأثیری دارد یا خیر چیست؟ سوال مرتبط: چگونه می توانم حداقل تفاوت قابل تشخیص را با آلفا 0.05 و توان 0.80 محاسبه کنم؟ کمی اطلاعات بیشتر: 75 نفر در گروه درمان و 25 نفر در گروه کنترل هستند. هر فرد حدود 75 رویداد دارد. میزان پیچیدگی x در گروه درمان حدود 0.30 و در گروه کنترل 0.20 است. | مقایسه دو جمعیت نسبت؟ |
27446 | من یک دانشجوی پزشکی هستم که روی پروژه ای کار می کنم که نیاز به داده های انبوه دارد که به صورت دستی از طریق اپراتورهای ورود داده جمع آوری می شوند. اگرچه من از ابزار سنتی استفاده شده توسط اپیدمیولوژیست ها، Epi Info استفاده می کنم، فقط می خواستم بدانم آیا کسی می تواند جایگزین های خوبی را توصیه کند - نه لزوماً منبع باز/رایگان اگرچه ترجیح داده می شود. دادهها قبلاً جمعآوری شدهاند، اما همه آنها در مقالاتی هستند که بیش از پنج سال را در بر میگیرد. این شامل 22 فیلد است و برای بسیاری از افراد است، منظور من بیش از 100000 است. من اهل هند هستم، اگرچه در یک کالج پزشکی هستم، این پروژه تنها تلاش ما است (یعنی با سرمایه شخصی). پیشنهاد دوگانه ورود داده در جدول، اما تماس نهایی در مورد مکانیسمهای بررسی تنها پس از مطالعه آزمایشی انجام خواهد شد. کل داده ها با دست نوشته شده اند (به معنای واقعی کلمه خط خطی شده) و در بسیاری از مکان ها در واقع ناسازگار هستند. اگرچه من تقریباً کل فرم را در Epi Info طراحی کردهام که شامل جعبههای بازشو، دکمههای رادیویی، جعبههای چک میشود و هر جا که لازم باشد از Check Code بهره میبرد. نگرانی های من در مورد Epi Info این است- نسخه فعلی یعنی EI7 اگرچه قول می دهد ژئوکد را وارد کند، متأسفانه حتی پس از گرفتن کلیدهای جداگانه از Bing نتوانستم آن را به کار بیاندازم. اما، بهعنوان یک راهحل بالقوه، از Google API استفاده میکنم، که اگرچه درخواستها را 2500/day/IP محدود میکند (بله راهحلهایی وجود دارد). ثانیاً، Epi Info به طرز دردناکی کند است و برای من کار سختی است که آیا برای چنین داده عظیمی به آن اعتماد کنم، به خصوص زمانی که نیاز به ادغام است و زمانی که پس از ویرایش آن در اکسل، نیاز به واردات مجدد داده ها خواهد بود (ژئوکدینگ و موارد دیگر). عدم تطابق تمیز کردن). شخصا آخرین نسخه داشبورد بسیار خوبی برای تجزیه و تحلیل داده ها دارد، اما بسیاری از ما طرفدار SPSS هستند. در نهایت، ما طرفدار هیچ برنامه مبتنی بر وب نیستیم (البته چون اینجا همه جا اینترنت نداریم، و همچنین باید سریع باشد)، یک راه حل آفلاین مورد نیاز است. | نرم افزار خوب برای جمع آوری داده ها توسط Epi Info CDC چیست؟ |
78577 | تصور کنید دو مجموعه انحراف استاندارد و میانگین برای دو دسته داده به شما داده می شود. یک مجموعه داده با عنوان انتظار و دیگری به عنوان ادراک، چگونه اینها را تفسیر می کنید؟ | تفسیر انحراف معیار و میانگین |
108666 | آیا کسی می تواند به من راهنمایی کند که چگونه یک مدل را با مولفه های خطی (برخی طبقه ای)، غیر خطی و سری زمانی در R قرار دهم؟ من نمیخواهم از یک مدل ناپارامتریک مانند یک مدل Loess smooth یا مشابه استفاده کنم، زیرا من یک فاصله اطمینان ساده و به خوبی تعریف شده و توانایی برونیابی میخواهم. همچنین داده های کافی برای توجیه یک مدل ناپارامتریک ندارم. فرم مدل باید مانند زیر باشد، توجه داشته باشید که اجزای سری زمانی وجود دارند که رفتار فصلی از خود نشان میدهند (و نماد من احتمالاً این را به خوبی بیان نمیکند!): $$\hat{Y} = \beta_0 +\beta_1 X_1 + e^ {\beta_2X_{1}}+\beta_3 f_{harmonic}(X_t) + \epsilon_i $$ Where $\epsilon_i \sim N(\mu, \sigma) $. من میدانم که بسته nls میتواند مدلهای غیرخطی را متناسب کند، و من میتوانم از آن برای جا دادن یک تابع هارمونیک برای بدست آوردن قسمت سری زمانی مدل استفاده کنم. اما می دانم که برای متغیرهای نوع فاکتور کار نمی کند، بنابراین تمایلی به استفاده از آن ندارم. به همین ترتیب، میدانم که بسته «dynlm» را میتوان برای تطبیق مدلهای خطی پویا استفاده کرد (و بنابراین میتواند فصلی بودن را در نظر بگیرد)، اما تا آنجا که من میدانم نمیتواند مدلهای پویا از فرم مشخصشده در بالا را مطابقت دهد. آیا رویکرد ترجیحی این است که به سادگی هر مدل را به صورت متوالی بر روی باقیمانده های روش قبلی انجام دهیم؟ اگر من این کار را انجام میدادم، در نهایت چگونه آنها را با هم ترکیب میکردم تا پیشبینیهایی روی دادههای جدید ایجاد کنم؟ | R: برازش یک مدل با اجزای تناوبی، غیرخطی و طبقهای |
97875 | من سعی میکنم روش پیشبینی l-step ahead را برای امتحان سریهای زمانیام بررسی کنم. من در چند کتاب و یادداشت های سخنرانی خود نگاه کردم، اما روش واقعی برای من چندان منطقی نیست. همچنین به نظر می رسد که با Yule Walker همپوشانی دارد و من بین این دو گیج می شوم. آیا کسی می تواند مراحل واقعی را توضیح دهد تا بتوانم دوباره امتحان کنم؟ به نظر نمی رسد که در هیچ کجا مثال های عددی پیدا کنم، از این رو در تلاش برای درک این مفهوم هستم. من در گوگل کار کردم اما به تازگی تئوری دریافت کردم که به بهبود درک من کمک نکرد. میدانم که در مرحله l سعی میکنیم پیشبینی کنیم، یعنی برای یافتن X_t+l به X-t، X_t-1 و غیره پاسخ میدهیم. اما چگونه میتوانید پیشبینی l-step ahead X_t(l) و واریانس پیشبینی را پیدا کنید (این به چه معناست؟) برای مثال، برای مدل ARMA: X_t - 0.5X_t-1 = e_t + 0.8 e_t-1. با تشکر | L-Step Ahead Forecasting و Yule Walker در سری زمانی |
111920 | من تازه وارد این انجمن هستم و در زمینه پیش بینی کاملاً تازه کار هستم. در حال حاضر سعی میکنم اصول هموارسازی نمایی، ARIMA و غیره را بیاموزم. اکنون میخواهم کل مصرف انرژی یک شرکت نسبتاً کوچک را در پایان ماه پیشبینی کنم. در این تصویر میتوانید مشخصات بارگذاری برق معمولی را برای یک هفته کامل ببینید.  انرژی مصرف شده یک ماه، انتگرال کل نمایه بار یک ماه خواهد بود. روزهای هفته همبستگی قوی دارند اما آخر هفته کاملا متفاوت است. من اطلاعات تاریخی بیش از یک سال دارم. همچنین ممکن است یک روند صعودی کوتاه مدت درازمدت وجود داشته باشد. هدف هر ماه پیش بینی انرژی در پایان ماه با استفاده از روزهای گذشته در این ماه و داده های ماه های قبلی (کامل) است. سوال من: کدام روش(های) پیش بینی را برای چنین موردی مناسب می دانید؟ کدام روش ها را باید مطالعه کنم؟ ویرایش: باید بیان می کردم که این یک پروژه تحقیقاتی برای توسعه نرم افزار است. ما یک نرم افزار برای جمع آوری داده ها از دستگاه های اندازه گیری اختصاصی و یک نرم افزار جدید برای تجسم داریم که می خواهیم به برخی از قابلیت های پیش بینی مجهز شویم. در طول سال آینده ما می خواهیم چندین روش / احتمالات پیش بینی را بررسی کنیم و تا حد امکان بیاموزیم. کیفیت یا دقت هدف اصلی در حال حاضر نیست. در زمان بعدی مطمئناً ممکن است بخواهیم از محصولی مانند Autobox استفاده کنیم. در حال حاضر ما می خواهیم از R برای تجزیه و تحلیل استفاده کنیم و سعی می کنیم خودمان برخی چیزها را در نرم افزار پیاده سازی کنیم، به احتمال زیاد با استفاده از کتابخانه های منبع باز برای الگوریتم ها. هدف این نیست که از ابتدا بهترین راه حل را داشته باشید، بلکه هدف این نیست که با کاستی های روش های ساده تر روبرو شوید و به سمت راه حل های بهتر بروید. بنابراین شاید باید سوالم را دوباره بیان کنم: روشهای پیشبینی برای این دادهها چیست؟ به کدام سمت برویم؟ آیا باید روزهای هفته و آخر هفته را کاملاً از هم جدا کنیم؟ | کدام روش پیش بینی برای پروفایل های بار |
27442 | من سعی میکنم رفتار رگرسیون لجستیک را در مسائل ابعادی بالا درک کنم (یعنی زمانی که شما یک رگرسیون لجستیک را برای دادههایی با تعداد زیادی متغیر پیشبینیکننده تنظیم میکنید). هر بار که یک رگرسیون لجستیک را با تعداد زیادی پیشبینیکننده برازش میکنم، اخطار زیر را در R دریافت میکنم: پیام هشدار: glm.fit: احتمالات برازش عددی 0 یا 1 رخ داده است، جایی خواندهام که به این پدیده هاک دانر گفته میشود و به آن میگویند. به این دلیل است که احتمالات برازش بسیار نزدیک به 0/1 است. با این حال، فرضیه من این است که با افزایش تعداد پیش بینی کننده ها، واریانس احتمالات برازش شما باید در رگرسیون لجستیک افزایش یابد. این به این دلیل است که تخمین شانس ورود شما اساساً مجموع متغیرهای تصادفی است و مجموع 100 متغیر تصادفی توزیع شده مشابه (احتمالاً) واریانس بیشتری نسبت به مجموع 10 rvs دارد. بنابراین، وقتی رگرسیون لجستیک را برای مسائل ابعادی بسیار بالا اعمال میکنید، احتمالات برازش شما به 0/1 نزدیکتر خواهد شد (زیرا واریانس بالاتر)، و بنابراین تخمینهای ضرایب شما باید به دلیل این مشکل بایاس (نادرست) باشد؟ آیا این فرضیه درست است؟ من یک شبیه سازی با کد زیر ایجاد کرده ام تا سعی کنم به این پاسخ دهم: GenLogit <- تابع (n ، ابعاد) {ابعاد <- طبقه (ابعاد/2)*2 #make Sure Dimens حتی XData <- cbind است (تکرار (تکرار (تکرار (تکرار (تکرار (تکرار) dimens/2,runif(n)), replicate(dimens/2,runif(n,-1,0))) ydata <- application(xdata,1,sum) prob <- exp(ydata)/(1+exp(ydata)) runis <- runif(length(prob)) ydata <- ifelse(runis<prob,1,0) model <- glm(ydata~.,data = data.frame(cbind(ydata,xdata)),family = binomial(link = return(summary(model)) } کاری که کد انجام می دهد اساسا شبیه سازی یک رگرسیون لجستیک از موارد زیر است: $$\log\left(\frac{p}{1-p}\right) = U_1+U_1+\ldots+ U_1 + U_{-1}+U_{-1}+\ldots+U_{-1}$$ که در آن $U_1 = \text{Unif}(0,1)$ and $U_{-1} = \text{Unif}(-1,0)$ میتوانید تعداد پیشبینیکنندههای مدل و همچنین تعداد نقاط داده را تغییر دهید سپس تابع یک رگرسیون لجستیک با داده های شبیه سازی شده مطابقت می دهد و می توانید ضرایب، انحراف باقیمانده، تناسب و غیره را بررسی کنید. واریانس (که لزوماً هنگام برخورد با داده های واقعی درست نیست) اما آیا این شبیه سازی هنوز برای اثبات فرضیه من کافی است؟ | عملکرد رگرسیون لجستیک با تعداد زیادی پیش بینی کننده |
59985 | نامه ای در مقاله اخیر (2011) Nature doi:10.1038/nature09817 در چندین جا به آزمون تفاوت حداقل مربعات پیش بینی شده فیشر اشاره دارد. جستجوی گوگل 102 بازدید را برای اختلاف حداقل مربعات پیش بینی شده و 3 بازدید را برای تفاوت حداقل مربعات پیش بینی شده به دست می آورد. به نظر میرسد دو صفحه اول بیشتر از مقالات ژورنالی است و هیچ یک از مواردی که من بررسی کردم حاوی استناد نبود. کسانی که استفاده از یک بسته تجزیه و تحلیل خاص را گزارش کردند، تمایل داشتند StatView را ذکر کنند. با این حال، به نظر می رسد که StatView در نقطه ای توسط SAS بلعیده شده و سپس ناپدید شده است. در تنها نسخه کتابچه راهنمای آنها یافتم که به یک PLSD اشاره دارد، اما آن را حفاظت با کمترین تفاوت مهم پس از آن نامیدم. این عبارت 9980 نتیجه در گوگل دارد که باز هم بیشتر مقالات ژورنالی است. آیا می توان فرض کرد که این واقعاً فقط یک ال اس دی معمولی Tukey post-hoc است که تنها زمانی اجرا شده است که omnibus ANOVA از نظر آماری معنی دار بوده است؟ | آیا حداقل مربعات پیش بینی شده توکی یک آزمون واقعی است؟ |
78570 | فرمول یک آزمون t یک نمونه، همانطور که در ویکیپدیا ارائه شده است $t = \dfrac{\bar{x} - \mu_0}{s\big/\sqrt{n}}$ است، اما در این معادله، اگر انحراف استاندارد نمونه، $s$، صفر است، $t$ تعریف نشده خواهد بود. آیا راه معقولی برای به دست آوردن مقدار $t$ در این مورد وجود دارد؟ | آزمون تی با انحراف معیار نمونه صفر. ممکن است؟ |
91157 | من دادههایی برای نسبتهای دو دسته رژیم غذایی X و Y دارم (از نمونههای روده، 10=n) که باید مجموع آنها 1 شود. aX/(aX+bY) چگونه می توانم خطا را در بین دو نسبت نهایی منتشر کنم، با توجه به اینکه نسبت ها همبسته هستند، آیا ابتدا باید میانگین نمونه را محاسبه کنم و سپس آن را تبدیل کنم؟ با استفاده از ثابت ها، یا با استفاده از ثابت ها برای هر نمونه تبدیل کنید و سپس میانگین آنها را محاسبه کنید. | چگونه می توانم خطا را وقتی X+Y=1 و aX+bY=1 منتشر کنم؟ |
91151 | من روش حداقل مربعات جزئی را برای اعمال رگرسیون به مجموعه ای از متغیرهای پیش بینی کننده بسیار خطی امتحان می کنم. هنگام استفاده از بسته `pls` r، در ماتریس بارگیری متوجه شدم که در مؤلفه 24 (در مجموع 27 متغیر)، بارگذاری ها ناگهان به مرتبه 1e11 - 1e12 شلیک می کنند آیا طبیعی است؟ این نیز در واریانس نسبت توضیح داده شده توسط هر متوالی منعکس می شود | بارگیری ها در چند مؤلفه آخر در حداقل مربعات جزئی افزایش می یابد |
27447 | فرض کنید من یک جدول یک طرفه با سه دسته (A، B و C) دارم و اجازه دهید $p_a$، $p_b$ و $p_c$ نسبت واقعی مشاهدات در هر دسته باشند، یعنی $p_a+p_b+p_c. = 1 دلار چگونه می توانم یک آزمون آماری بر روی فرضیه $p_a$ بزرگترین در بین این سه است انجام دهم، یعنی $p_a > p_b$ و $p_a > p_c$؟ با تشکر | آزمون بزرگ ترین نسبت جدول یک طرفه |
78578 | مساوی بودن واریانس ها به چه معناست؟ آیا این همان واریانس پیروی از توزیع نرمال است؟ | مساوی بودن واریانس ها به چه معناست؟ |
23214 | _آیا آموزش شبکه عصبی بارها و بارها با داده های جدید (از جمله هرس کردن بعد از هر آموزش جدید) معتبر است؟_ من قصد دارم برای مدتی داده ها را جمع آوری کنم، شبکه را آموزش دهم/cv/آزمایش کنم، سپس دوباره داده های جدید جمع آوری کنم. و شبکه موجود و آموزش دیده را با داده های جدید آموزش دهید. تنظیم پیشبینی سریهای زمانی، به عنوان مثال. من فکر می کنم که مناسب نیست، زیرا ورودی و خروجی یک نوع داده نیستند، یعنی ویژگی های ورودی تعداد بر اساس حجم جریان داده است و خروجی یک برچسب کلاس است، بنابراین من نمی توانم فقط حرکت کنم داده ها در سمت چپ. جستجوهای من در گوگل عمدتاً نتایجی در رابطه با آموزش افزاینده در مقابل دسته ای وزن یک مدل یا رشد تدریجی لایه پنهان به همراه داشت. به نظر می رسد این مقاله همان چیزی است که من به دنبال آن هستم، اما هنوز در مورد استفاده از شبکه های عصبی تکراری اطمینان کامل ندارم. من همچنین میتوانم یک شبکه جدید برای هر دوره زمانی ایجاد کنم، اما بنابراین دانش جمعآوریشده از دورههای زمانی قبلی را از دست میدهم. _پس چی پیشنهاد میکنی؟ | آموزش افزایشی شبکه های عصبی |
71959 | من میخواهم رتبه یک فرد را در یک لیست پیشبینی کنم (1 رتبه اول، 50 آخرین است - تساوی مجاز است، یعنی دو نفر میتوانند رتبه دوم را اشغال کنند) با توجه به مجموعهای از ویژگیها (مانند سن، شغل، جنسیت و غیره). من مطمئن هستم که این امکان پذیر است - به نظر می رسد افرادی که شانس یک مجموعه از اسب ها را در یک مسابقه با ترتیب خاصی به پایان می برند، همیشه این کار را انجام می دهند (مثلاً با توجه به داده های مسابقه قبلی، نژاد اسب، سن و غیره). آموزش من در روانشناسی تحقیق است، بنابراین بیشتر کاری که انجام می دهم ANOVA و رگرسیون است. من کمتر با شانس ساخت آشنا هستم (اگر این در واقع کاری است که من باید انجام دهم). کسی میتونه کمک کنه؟ | چگونه می توانم رتبه یک فرد را با توجه به مجموعه ای از ویژگی ها پیش بینی کنم؟ |
29070 | آیا پسوندهای تخمینگر جیمز-استاین برای حالت متغیرهای وابسته وجود دارد؟ من آزمایشهای عددی را با تخمینگر جیمز-استاین روی متغیرهای عادی همبسته انجام دادهام (10-5 متغیر، همبستگی حدود 0.3 بود) و هنوز در 95٪ موارد بهتر از برآوردگر حداقل مربع است. | آیا برنامه های افزودنی برای برآوردگر جیمز-استاین برای موارد متغیرهای وابسته وجود دارد؟ |
59986 | ما در موقعیتی قرار داریم که در آن بازی باید تصمیم گیری شود. از آنجایی که موقعیتهای بازی و حرکات احتمالی نسبتاً کمی وجود دارد، ما آمار موقعیتهای قبلی بازی را جمعآوری کردهایم و خود را با موقعیت بازی یکسان دیدیم. برای هر حرکت، اگر انتخاب در نهایت منجر به برد یا باخت شود، ثبت کرده ایم. حرکت برد باخت A 3 5 B 2 4 C 0 0 D 0 4 هدف من این است که به طور تصادفی یک حرکت را انتخاب کنم در حالی که به طور متناسب با احتمال بیشتری برنده شدن آن حرکات را ترجیح می دهم. بنابراین برای هر یک از حرکات ممکن، من می خواهم احتمال اینکه آن حرکت برنده ترین حرکت باشد را محاسبه کنم. بیایید اینها را PA، PB، PC و PD بنامیم. مجموع اینها باید برابر با 1 باشد. دادههای مثال بالا را ارائه دهید، شهود من میگوید: - * حرکت A باید بیشتر مورد علاقه باشد، و بنابراین PA بزرگترین مقدار است. * Move C داده ای ندارد. این می تواند چیزی بین همیشه باخت و همیشه برد باشد. ممکن است لازم باشد به عنوان یک مورد خاص در نظر گرفته شود زیرا چیزی برای محاسبه وجود ندارد؟ * حرکت D تاکنون ضعیف به نظر می رسد. شاید این فقط نمونهای از شانس باشد و به مرور زمان خودمان را با 12 برد و 4 باخت به دست بیاوریم. هنوز فرصتی وجود دارد که واقعاً برنده ترین حرکت باشد. الان گیر کردم به نظر می رسد که من باید نسبت برد را برای هر یک از حرکت ها محاسبه کنم و بر اساس تعداد کل دفعاتی که آن گزینه انتخاب شده است، مقداری ضریب اطمینان را اعمال کنم تا توزیعی را ارائه کنم که نشان دهنده نسبت برد احتمالی برای جمعیت اصلی است. چگونه می توانم این توزیع های همپوشانی را ترکیب کنم و آنها را به احتمالات برای هر حرکت کاهش دهم؟ من مطمئن نیستم که چگونه همه این اعداد را برای رسیدن به PA، PB، PC و PD ترکیب کنم. به نظر می رسد این یادآور یک ANOVA است؟ در مشکل واقعی می تواند بین 1 تا 7 حرکت در دسترس باشد. من فرض می کنم هر پاسخی را می توان تا حرکات احتمالی بیشتر تعمیم داد. اگر تفاوتی ایجاد کند، بازی دایره ای نیست. با انجام یک حرکت، هرگز نمی توانیم به همان موقعیت در بازی برگردیم. فقط در یک بازی جدید می توان دوباره به آن رسید. با این حال، راه های متعددی برای رسیدن به یک موقعیت بازی از ابتدای بازی وجود دارد. | چگونه می توانم احتمال نسبی هر حرکت منجر به برد را با توجه به داده های تاریخی برد/باخت برای حرکات ممکن محاسبه کنم؟ |
59987 | من یک قاب داده با 1000 مشاهده دارم و با روش های طبقه بندی با استفاده از بسته caret بازی می کنم. من بیشتر از روش بوت استرپ برای بررسی کیفیت مدل استفاده می کنم. یکی از سوالاتی که من گرفتم این است که اندازه نمونه اولیه چگونه بر کیفیت طبقه بندی تأثیر می گذارد. فکر میکنم میتوانم این اثر را با محدود کردن تکرارهای بوت استرپ به نمونهبرداری فقط 100 یا 300 مشاهده به جای 1000 و مقایسه متغیرهای دقت/کاپا بررسی کنم. درست میگم؟ اگر چنین است، چگونه می توانم این کار را در «کارت» انجام دهم؟ | اندازه گیری اثر حجم نمونه بر طبقه بندی |
23210 | اجازه دهید $p$ و $q$ توابع جرم احتمالی دو متغیر تصادفی گسسته باشند. من به مثال هایی از توابع $F(p,q)$ نیاز دارم که $r = F(p,q)$ و $r$ یک تابع جرم احتمال برای برخی از متغیرهای تصادفی است. متشکرم. ویرایش: منظور من این است که $r$ باید تابع جرم احتمالی برای توزیع های دلخواه $p$ و $q$ باشد. | نگاشت دو تابع جرم احتمالی را به تابع جرم احتمالی دیگر پیدا کنید |
66077 | بگویید من دارم روی یک **مشکل طبقه بندی باینری** کار می کنم و یک ماتریس ویژگی $X$ دارم که در آن برخی از ورودی ها **مفقود هستند** ('NaN'). بقیه ورودی ها در $ x $ اعداد واقعی هستند. چگونه می توانم ** svms ** را در این داده ها اعمال کنم؟ | پیشبینی SVM با نمونههایی با ویژگیهای گمشده |
48621 | من هنوز در مدل سازی آماری تازه کار هستم و در مورد اینکه چگونه باید مدل خود را به درستی مشخص کنم کاملاً گیج هستم. من 3 درمان طبقه بندی شده دارم - استرس، عفونت و غذا. هر فرد در 4 نقطه زمانی (درست قبل از آزمایش و 3 برابر در طول آزمایش) اندازه گیری شد. از آنجایی که تنها 4 نقطه زمانی وجود دارد و من هیچ دلیلی ندارم که فرض کنم تغییرات در متغیرهای پاسخ در طول زمان در یک جهت واحد تغییر می کند (همانطور که رشد تغییر می کند)، من زمان را به عنوان یک متغیر طبقه بندی در نظر گرفتم. بنابراین مدل کامل این خواهد بود: lme(پاسخ~ استرس*عفونت*غذا*زمان، تصادفی=~1|ind) امیدوارم تا اینجا همه چیز درست باشد. اما به نظر نمی رسد متوجه شوم که آیا به یک شیب تصادفی هم نیاز دارم یا خیر. من سعی کردم زمان پاسخ را برای افراد هر گروه آزمایشی ترسیم کنم و متوجه تفاوت زیادی در شکل پاسخ بین آنها شدم. بنابراین میتوانم بگویم هنوز نویز زیادی وجود دارد که باید فیلتر شود. آیا منطقی است که زمان را به عنوان یک شیب تصادفی قرار دهیم؟ به هر حال من از آن به عنوان یک متغیر طبقه بندی ثابت استفاده کردم، بنابراین فکر می کنم نباید در قسمت تصادفی مدل به عنوان پیوسته مشخص شود؟ اما شیب طبقهای تصادفی به من چه میگوید؟ اصلا معنی داره؟ اگر سوال احمقانه است متاسفم و از پاسخ شما بسیار متشکرم. | مدل خطی مختلط با lme - زمان به عنوان متغیر طبقه بندی ثابت و شیب تصادفی؟ |
20788 | کجا می توانم یک CDF تقریباً کامل درآمد در ایالات متحده پیدا کنم (نه صرفاً ضریب جینی یا خلاصه امتیازی مانند X٪ از جمعیت Y٪ درآمد را تشکیل می دهند؟) _ توجه: من فکر می کنم این ممکن است در اینجا خارج از موضوع باشد. و سایت QA جداگانه ای را برای این نوع سؤالات پیشنهاد کرده اند، اما شخص دیگری پیشنهاد کرده است که این نوع سؤالات در اینجا مطرح هستند._ | توزیع درآمد در ایالات متحده با افزایش 1٪ چگونه است؟ |
59989 | من داشتم این مقاله را می خواندم که در آن تلاش می کردند ماتریس کوواریانس معکوس گاوس را تخمین بزنند. آنچه آنها در تلاش برای به حداکثر رساندن احتمال ورود به سیستم گاوسی هستند. مشکل اصلی، حداکثر کردن احتمال در ماتریس کوواریانس معکوس است. من متوجه نشدم که دوگانه چگونه شکل گرفت. آیا کسی می تواند راهنمایی یا راهنمایی ارائه دهد؟  | سردرگمی مربوط به فرمول بندی مسئله دوگانه در تخمین ماتریس کوواریانس معکوس پراکنده |
27443 | من تعجب می کردم که چگونه می توانید داده ها را از یک معادله رگرسیون پواسون در R تولید کنید؟ من یک جورهایی گیج هستم که چگونه به مشکل برخورد کنم. بنابراین اگر فرض کنم دو پیشبینیکننده $X_1$ و $X_2$ داریم که توزیعشدهاند $N(0,1)$. و فاصله 0 است و هر دو ضرایب برابر با 1 هستند. سپس تخمین من به سادگی این است: $$\log(Y) = 0+ 1\cdot X_1 + 1\cdot X_2$$ اما وقتی log(Y) را محاسبه کردم - چگونه می توانم شمارش سم را بر اساس آن ایجاد کنم؟ پارامتر نرخ برای توزیع پواسون چیست؟ اگر کسی بتواند یک اسکریپت R مختصر بنویسد که نمونههای رگرسیون پواسون را تولید کند، بسیار عالی خواهد بود! با تشکر | نمونه های داده را از رگرسیون پواسون تولید کنید |
109206 | مشکل من به شرح زیر است: من 2 دستگاه اندازه گیری دارم که هر دو از تکنیک های اندازه گیری مختلف استفاده می کنند و هر کدام سعی می کنند ویژگی های اجسامی را که از ناحیه اندازه گیری خود عبور می کنند کمیت کنند. دستگاه ها به طور همزمان اجسام را اندازه گیری می کنند. برای این مشکل خاص، من فقط به تعداد اشیایی که هر دستگاه قادر به اندازه گیری آن است علاقه مند هستم. برای هر واحد زمانی که روی یک ساعت تنظیم شده است، دستگاهها تعداد اشیایی را که اندازهگیری کرده یا «دیدهاند» خلاصه میکنند، مانند دادههای مثال زیر: Time Device1 Device2 00:00 58 47 01:00 38 52 02:00 12 13 03:00 0 2 04:00 23 2 .... .. .. **می خواهم مقایسه کنم تفاوت میانگین این 2 مجموعه داده** اولین چیزی که به ذهن من رسید استفاده از آزمون t-tailed 2 برای تعیین اینکه آیا تفاوت معنی داری در میانگین بین دو مجموعه داده وجود دارد یا خیر بود. با استفاده از پارامترهای زیر در اکسل: اختلاف میانگین فرضی = 0 آلفا = 0,05 ** سوال: ** آیا آزمون t در این تنظیمات خاص مناسب است؟ و اگر هست آیا داده های من جفت هستند یا مستقل؟ اگر مناسب نیست، از چه روش دیگری می توان استفاده کرد؟ حدس میزنم آنچه مرا گیج میکند این واقعیت است که من 2 دستگاه اندازهگیری دارم که یک رویداد را اندازهگیری میکنند، به جای اینکه یک دستگاه رویدادهای مختلف را اندازهگیری کند. من در سنین مختلف با مشکلات آماری برخورد نکرده ام، بنابراین دانش من کمی زنگ زده است. هر گونه کمکی بسیار قدردانی خواهد شد. **ویرایش:** همانطور که در پاسخ ها اشاره شد، سوالی که باید بپرسم این است: آیا دستگاه ها اندازه گیری های معادل را تولید می کنند؟ برای شفاف سازی، داده های مثال ارائه شده جعلی است، اما شباهت زیادی به داده های اندازه گیری شده دارد. داده های اندازه گیری شده **** به طور معمول توزیع نمی شوند. | مقایسه میانگین تفاوت بین داده های اندازه گیری شده توسط تجهیزات مختلف، آزمون t مناسب است؟ |
109204 | من مجموعه داده های زیر را از 5 نمونه در یک آزمایش آزمایشگاهی دارم. 1073 1016 1080 1100 1035 I 15 مجموعه از این اعداد برای انواع مختلف نمونه ها. من می خواهم نتیجه ای در 2.5٪ از میانگین برای هر کدام داشته باشم. برای انجام این کار از: $$n = \left(\frac{Z(\frac{\alpha}{2}) \cdot s}{0.025 \cdot \overline{x}}\right)^2 $$ استفاده کردم یک حدس اولیه را بدست آورید و سپس از مقدار دانشجویی t با df=n-1 برای اصلاح بیشتر مقدار استفاده کنید. لطفا اگر این راه است به من اطلاع دهید. | آیا این روشی معتبر برای یافتن حداقل حجم نمونه است؟ |
114234 | من دیده ام که عبارات _matching/match_ و _fitting/fit_ تقریباً به جای هم در هنگام بحث در مورد مدل های خوب بودن تناسب، تطبیق داده های مشاهده شده در مقابل شبیه سازی شده، و غیره استفاده می شوند. آیا تفاوتی در تفسیر بین این اصطلاحات وجود دارد که باید مورد توجه قرار گیرد یا بیشتر هستند یا کمتر مترادف (به معنای دقیق آماری)؟ | آیا تفسیر آماری متفاوتی بین مطابقت و تناسب وجود دارد؟ |
109393 | من همبستگی (در SPSS) را بین یک شاخص حاکمیت 1996 و همان شاخص حاکمیت در سال 2012 اجرا کردم. همانطور که انتظار می رود یک همبستگی تقریباً کامل وجود دارد. با این حال، آنچه من به آن علاقه مندم، مواردی هستند که ارتباط نزدیکی با هم ندارند - دورتر از خط هستند (زیرا مواردی از تغییر واقعی حاکمیت هستند). آیا راهی وجود دارد که بتوانم از نظر آماری انگیزه انتخاب خود را از این موارد پرت ایجاد کنم؟ یا تشخیص بصری آنها برای من مشروع است؟ من کاملاً تازه کار هستم - پاسخ های ساده کمک می کند. | آیا یک همبستگی دو متغیره انجام داده اید - می خواهید موارد پرت را شناسایی کنید - آیا یک راه آماری برای انجام این کار وجود دارد؟ |
109209 | زمینه: بسیاری از مردم با اصطلاح تولد «پارادوکس» آشنا هستند که در یک اتاق 23 نفره، شانسی بهتر از 50/50 وجود دارد که دو نفر از آنها تولد یکسانی داشته باشند. در شکل کلی تر آن برای n نفر، احتمال اینکه هیچ دو نفر تولد یکسانی نداشته باشند p(n) = 365 است! / (365^n *(365-n)!). محاسبات مشابهی برای درک اندازه های فضای هش، حملات رمزنگاری و غیره استفاده می شود. انگیزه: دلیل پرسیدن سوال زیر در واقع به درک یک رفتار خاص بازار مالی مربوط می شود. با این حال، نوع دیگری از مسئله «پارادوکس تولد» دقیقاً به عنوان یک قیاس مناسب است و احتمالاً برای افراد با پیشینههای مختلف مورد توجه گستردهتری قرار میگیرد. بنابراین سوال من در امتداد خطوط آشناتر پارادوکس تولد به شرح زیر است. وضعیت: در مجموع 60 نفر در یک اتاق وجود دارد. از این میان، معلوم میشود که 11 (یازده) جفت از افراد وجود دارند که تولد یکسانی دارند و یک TRIPLE (یعنی گروه 3 نفره) که تولد یکسانی دارند. بقیه 60 - 2*11 - 3 = 35 نفر تولدهای متفاوتی دارند. با فرض جمعیتی که در آن هر روزی به یک اندازه احتمال تولد دارد (یعنی نادیده گرفتن 29 فوریه و اثرات فصلی احتمالی) و با توجه به توزیع مشخص شده تولدها، پرسشکننده میخواهد بفهمد که احتمال (یا بعید) این 60 نفر چقدر است. واقعا به صورت تصادفی انتخاب شدند این سوال در ابتدا در سایت دیگری مطرح شده بود که بدون پاسخ مانده بود، اما به سوال کننده توصیه شد که سوال را به شکل زیر بیان کند. سوال: اگر 60 نفر به طور تصادفی از بین جمعیتی انتخاب شوند که در آن هر روز به طور مساوی روز تولد یک فرد باشد، احتمال اینکه 11 روز وجود داشته باشد که دقیقاً 2 نفر در آن روز تولد داشته باشند، یک روز که دقیقاً 3 روز تولد داشته باشد، چقدر است. از آنها تولد مشترک دارند و هیچ روزی وجود ندارد که در آن 4 نفر یا بیشتر تولد داشته باشند؟ | تولد پارادوکس -- با دیدگاهی متفاوت |
23218 | من با تخمین میانگین پسین تابع نمایی ساده f(x)=exp(x) مشکل دارم. اختلاط زنجیره کاملاً خوب است و با تخمین میانگین ساده مشکلی وجود ندارد، اما از آنجایی که توزیع خلفی دارای دنباله های کاملاً سنگینی است و دامنه مقادیر زنجیره از 0 تا 10 (یا بیشتر) متغیر است و اکثر مقادیر نزدیک به 0 متمرکز می شوند. به دلیل آن مقادیر بالا، زنجیره exp(x) بسیار زشت است و بیشتر مقادیر در حدود 1 متمرکز شده اند و برخی از آنها بسیار بسیار زیاد هستند (تعداد را تصور کنید exp(10)). بنابراین سوال من این است که آیا راه حلی برای مقابله با میانگین پسین توابع نمایی وجود دارد؟ | میانگین پسین توابع نمایی: چگونه با MCMC انجام دهیم؟ |
110750 | من از یک مدل رگرسیون خطی چندگانه برای ایجاد فواصل پیشبینی 80% بر اساس شبیهسازی مقادیر X آینده استفاده میکنم. در حالی که من نحوه محاسبه فواصل پیشبینی را معمولاً میدانم (مانند رگرسیون خطی ساده): $$ \hat{y} = \hat{\alpha} + \hat{\beta} * x_{new} \pm t_{0.1، n-2}* s * \sqrt{1 + \frac{1}n + \frac{(x_{new} - \bar{x})^2}{SS_{x}} } $$ من مطمئن نیستم که چگونه این فواصل را با مقادیر آینده شبیه سازی شده برای x در هر نقطه زمانی محاسبه کنم. ما به 8 نقطه زمانی پیش بینی می کنیم که در آن مقادیر X خود را 990 بار برای هر نقطه زمانی شبیه سازی می کنیم. این مقادیر X شبیه سازی شده به طور معمول توزیع می شوند. میتوانیم مقادیر میانگین x را با خطاهای استاندارد برای هر نقطه زمانی محاسبه کنیم. آیا درست است که خطاهای استاندارد پیشبینی خطی را با خطاهای استاندارد $X_{new}$ ترکیب کنیم تا معادله زیر بدست آید: $$ \hat{y} = \hat{\alpha} + \hat{\beta} * \bar{x}_{جدید} \pm t_{0.1، n-2}* \sqrt{\biggl(s * \sqrt{1 + \frac{1}n + \frac{(\bar{x}_{جدید} - \bar{x})^2}{SS_{x}} } \biggl)^2 + SE_x^2} $$ با تشکر! | نحوه محاسبه فواصل پیش بینی از یک رگرسیون خطی چندگانه با X های آینده شبیه سازی شده |
66075 | داده های من عمدتاً پیوسته است اما دارای یک متغیر باینری است. من الگوریتم pam را در R با شاخص Gower امتحان کردم، اما تعداد خوشههایی که بهترین عرض شبح را ارائه میدهند 2 است - به متغیر باینری اجازه میدهد کاملاً بر نتیجه تسلط داشته باشد. * آیا PAM رویکرد اشتباهی است؟ * آیا درست است که یک k بالاتر را فقط به این دلیل انتخاب کنید که نتایج معنیداری بیشتری به همراه دارد؟ | PAM با ماتریس فاصله Gower |
481 | یک سوال دیگر در مورد سری های زمانی از من. من مجموعه داده ای دارم که سوابق روزانه حوادث خشونت آمیز در یک بیمارستان روانی را طی سه سال ارائه می دهد. با کمک سوال قبلی که داشتم با آن دست و پنجه نرم می کردم و در حال حاضر کمی از آن خوشحالم. چیزی که الان دارم این است که سریال های روزانه بسیار پر سر و صدا هستند. به شدت، بالا و پایین، از 0 در مواقعی تا 20 نوسان می کند. با استفاده از نمودارهای لس و بسته پیش بینی (که می توانم به شدت برای تازه کارهایی مانند من توصیه کنم) من فقط یک خط کاملاً صاف و با فواصل اطمینان عظیم از پیش بینی دریافت می کنم. با این حال، جمع آوری داده های هفتگی یا ماهانه بسیار منطقی تر است. آنها از ابتدای سریال پایین می روند و سپس دوباره در وسط افزایش می یابند. ترسیم Loess و بسته پیش بینی هر دو چیزی را تولید می کنند که بسیار معنی دارتر به نظر می رسد. اگرچه کمی شبیه به تقلب است. آیا من فقط نسخه های انبوه را ترجیح می دهم زیرا زیبا به نظر می رسند و اعتبار واقعی برای آن وجود ندارد؟ یا بهتر است میانگین متحرک را محاسبه کنیم و از آن به عنوان مبنا استفاده کنیم؟ می ترسم تئوری پشت همه اینها را آنقدر خوب درک نکنم که در مورد آنچه قابل قبول است مطمئن باشم | آیا جمع کردن یک سری زمانی برای معنادارتر کردن آن معتبر است؟ |
114232 | اگر من یک متغیر نرخ داشته باشم، برای مثال نرخ بیکاری، که به گونهای تبدیل شده است که $\text{unemployment new} = \ln(\frac{\text{unemployment}}{1-\text{unemployment}})$، چگونه این متغیر را تفسیر کنم؟ من می دانم که گزارش توزیع می کند، بنابراین این در واقع $\ln(\text{بیکاری}) است - \ln(1-\text{unemployment})$ - آیا این نرخ تغییر در نرخ بیکاری است؟ اگر من $\text{unemployment new}$ را بین سالها تفاوت بگذارم چه می شود؟ من یک آزمایش سریع انجام دادم و دیدم که وقتی بیکاری از 0.05 دلار به 0.1 دلار می رسد، $\text{unemployment new}$ از -2.94 دلار به -2.19 دلار می رسد و تفاوت 0.75 دلار است. اما این افزایش 75 درصدی نیست، بنابراین مطمئن نیستم که چگونه آن را تفسیر کنم. | تفسیر متغیر Logit |
113134 | سلام به کاربران CrossValidated! من در اینجا می نویسم زیرا به راهنمایی در مورد تجزیه و تحلیل آماری خود نیاز دارم که برای مهارت های آماری مبتدی من و تحقیقات شخصی من بسیار پیچیده است. قبل از اینکه بخواهم مشخصات خود را بپرسم، پیشینه ای از کارم ارائه خواهم کرد. دامنه تحلیل من تولید سه مدل برای پاسخ به این سؤالات است: محدوده 1. کدام یک از 11 IV من پیش بینی می کند که آیا یک شرکت مجوز می دهد (متغیر ساختگی DV با کد 0/1) محدوده 2. کدام یک از 13 IV من میزان مجوز یک شرکت را پیش بینی می کند. (DV مقیاس پیوسته 0-100٪ فروش است) محدوده 3. آیا رابطه در محدوده 2 مشخص شده است که توسط جایی تعدیل می شود آنها مجوز به (دو متغیر ساختگی برای ایالات متحده آمریکا و چین با هر کد 0 و 1). اساساً من علاقه مندم ببینم آیا تفاوتی در IV بین شرکت هایی که به این کشورها مجوز می دهند وجود دارد یا خیر. من بر اساس توصیههای تحقیقات گذشته، با استفاده از تجزیه و تحلیل پروبیت برای محدوده 1 و تحلیل توبیت برای محدوده 2 و 3، به این مشکل نزدیک شدهام. من از مدلهای قوی برای هر محدوده استفاده کردهام و تجزیه و تحلیل حذف خارج از محیط را بر اساس rs و آشپز دانشجو انجام دادهام. SD در حالی که این تجزیه و تحلیل ها را در Stata اجرا می کنم، اما با مشکلات زیر مواجه شده ام که به نظر نمی رسد آنها را بفهمم. 1. آیا قرار است برای هر مدلی که ایجاد می کنم یک ماتریس همبستگی اولیه اجرا کنم یا یک ماتریس اولیه با همه IV ها و DV ها با هم؟ من تمایل دارم برای هر کدام یک مورد جداگانه بسازم. 2. اگر یک IV دارای همبستگی 0.8 با DV دامنه 2 باشد و سپس توبیت dy/dx 105 با اهمیت در سطح 0.000 (بسیار بالاتر از دومین بالاترین) داشته باشد، اشکالی ندارد؟ این از درک من غیرمنطقی به نظر می رسد و باید مرا وادار کند که این متغیر را از تجزیه و تحلیل حذف کنم. اگر من آن را رها کنم، بسیاری از متغیرهای دیگر اهمیت پیدا می کنند یا dy/dx آنها کاملاً تغییر می کند. 3. بهترین تاکتیک برای استفاده از متغیرهای تعدیل من در چنین تحلیل پیچیده ای که از تعداد زیادی IV و با دو تعدیل کننده ساختگی در خطر است چیست؟ برای ارائه اطلاعات بیشتر در مورد کارم در اختیار همه هستم. با تشکر از وقت و کمک شما. | کمک به تجزیه و تحلیل آماری برای پایان نامه - همبستگی، پروبیت، توبیت و تعدیل |
82153 | من یک مجموعه داده سری زمانی چند متغیره دارم که شامل متغیرهای بیولوژیکی و محیطی در حال تعامل است (به علاوه احتمالاً برخی از متغیرهای برونزا). علاوه بر فصلی بودن، روند بلندمدت مشخصی در داده ها وجود ندارد. هدف من این است که ببینم کدام متغیرها به یکدیگر مرتبط هستند. واقعاً دنبال پیش بینی نیست. از آنجایی که در تحلیل سری های زمانی جدید بودم، چندین مرجع خواندم. تا آنجایی که من میدانم، مدل خودرگرسیون برداری (VAR) مناسب است، اما من با فصلی بودن و بیشتر نمونههایی که در زمینه اقتصاد (مانند اغلب با تحلیل سریهای زمانی…) بدون فصلی بودن احساس راحتی میکنم احساس راحتی نمیکنم. با داده های فصلی خود چه کار کنم؟ من در نظر گرفتم آنها را فصلیزدایی کنم - برای مثال در R، از «تجزیه» استفاده میکنم و سپس از مقادیر «$trend + $rand» برای به دست آوردن سیگنالی استفاده میکنم که کاملاً ثابت به نظر میرسد (بر اساس «acf» قضاوت میشود). نتایج مدل VAR من را گیج میکند (مدل 1 تاخیری انتخاب میشود در حالی که من به طور شهودی انتظار بیشتری داشتم، و فقط ضرایب برای خودرگرسیون - و نه برای رگرسیون با سایر متغیرهای تاخیر - قابل توجه هستند). آیا کار اشتباهی انجام می دهم یا باید به این نتیجه برسم که متغیرهای من (خطی) به هم مرتبط نیستند / مدل من مدل خوبی نیست (سوال فرعی: آیا معادل غیرخطی VAR وجود دارد؟). [در عوض، خواندم که احتمالاً میتوانم از متغیرهای فصلی ساختگی استفاده کنم، اگرچه نمیتوانم دقیقاً نحوه پیادهسازی آن را بفهمم. پیشنهادات گام به گام بسیار قدردانی می شود، زیرا جزئیات برای کاربران با تجربه ممکن است واقعاً برای من آموزنده باشد (البته از قطعات کد R یا پیوندهایی به نمونه های عینی بسیار استقبال می شود). متشکرم. | سری زمانی بیولوژیکی چند متغیره: VAR و فصلی |
114895 | من یک کاربر بیشتر با R آشنا هستم و سعی کرده ام شیب های تصادفی (ضرایب انتخاب) را برای حدود 35 فرد در طول 5 سال برای چهار متغیر زیستگاه تخمین بزنم. متغیر پاسخ این است که آیا یک مکان استفاده شده (1) یا در دسترس (0) زیستگاه (استفاده در زیر) است. من از یک کامپیوتر ویندوز 64 بیتی استفاده می کنم. در نسخه R 3.1.0 از داده و عبارت زیر استفاده می کنم. PS، TH، RS و HW اثرات ثابتی هستند (فاصله استاندارد شده، اندازهگیری شده تا انواع زیستگاه). lme4 V 1.1-7. str(dat) 'data.frame': 359756 obs. از 7 متغیر: $ استفاده : num 1 1 1 1 1 1 1 1 1 1 ... $ سال : فاکتور w/ 5 سطح 1،2،3،4،...: 4 4 4 4 4 4 4 3 4 ... $ ID : num 306 306 306 306 306 306 306 306 162 306 ... $ PS: num -0.32 -0.317 -0.317 -0.318 -0.317 ... $ TH: num -0.211 -0.211 -0.211 -0.213 -0.22 ... $ RS: num -0.337 -0. -0.337 -0.337 ... $ HW: num -0.0258 -0.19 -0.19 -0.19 -0.4561 ... glmer(استفاده از ~ PS + TH + RS + HW + (1 + PS + TH + RS + HW | ID/سال)، خانواده = دوجمله ای، داده = dat، کنترل=glmerControl(بهینه ساز=بوبیقا)) گلمر به من می دهد تخمین پارامترها برای اثرات ثابتی که برای من معنادار است، و شیبهای تصادفی (که من به عنوان ضرایب انتخاب برای هر نوع زیستگاه تفسیر میکنم) زمانی که دادهها را به صورت کیفی بررسی میکنم، منطقی است. احتمال ورود به سیستم برای مدل -3050.8 است. با این حال، بیشتر تحقیقات در بوم شناسی حیوانات از R استفاده نمی کنند زیرا با داده های مکان حیوانات، خودهمبستگی فضایی می تواند خطاهای استاندارد را مستعد خطای نوع I کند. در حالی که R از خطاهای استاندارد مبتنی بر مدل استفاده می کند، خطاهای استاندارد تجربی (همچنین هوبر سفید یا ساندویچ) ترجیح داده می شوند. در حالی که R در حال حاضر این گزینه را ارائه نمی دهد (با توجه به اطلاعات من - لطفاً اگر اشتباه می کنم، مرا اصلاح کنید)، SAS این کار را انجام می دهد - اگرچه من به SAS دسترسی ندارم، یکی از همکاران موافقت کرد که به من اجازه دهد رایانه او را قرض بگیرم تا مشخص کنم آیا خطاهای استاندارد وجود دارد یا خیر. با استفاده از روش تجربی به طور قابل توجهی تغییر می کند. اول، ما میخواستیم اطمینان حاصل کنیم که هنگام استفاده از خطاهای استاندارد مبتنی بر مدل، SAS تخمینهایی مشابه R ارائه میدهد - تا مطمئن شویم که مدل در هر دو برنامه به یک شکل مشخص شده است. برای من مهم نیست که آنها دقیقاً یکسان هستند - فقط مشابه. من امتحان کردم (SAS V 9.2): proc glimmix data=dat method=laplace; شناسه سال کلاس؛ استفاده از مدل = PS TH RS HW / راه حل dist=bin ddfm=betwithin; قطع تصادفی PS TH RS HW / موضوع = سال (ID) نوع راه حل = UN; اجرا؛ عنوان من همچنین اشکال مختلف دیگری را امتحان کردم، مانند اضافه کردن خطوط تصادفی قطع / موضوع = سال(شناسه) نوع راه حل = UN; رهگیری تصادفی PS TH RS HW / موضوع = نوع راه حل شناسه = UN; من بدون تعیین نوع راه حل = UN، یا نظر دادن ddfm=betwithin امتحان کردم. مهم نیست که چگونه مدل را مشخص میکنیم (و راههای زیادی را امتحان کردهایم)، نمیتوانم شیبهای تصادفی در SAS از راه دور شبیه خروجیهای R باشد - حتی اگر جلوههای ثابت به اندازه کافی مشابه باشند. و وقتی منظورم متفاوت است، منظورم این است که حتی نشانه ها یکسان نیستند. احتمال Log -2 در SAS 71344.94 بود. من نمی توانم مجموعه داده کامل خود را آپلود کنم. بنابراین من یک مجموعه داده اسباب بازی را تنها با سوابق سه نفر ساختم. SAS در عرض چند دقیقه به من خروجی می دهد. در R بیش از یک ساعت طول می کشد. عجیبه با این مجموعه داده اسباب بازی، اکنون تخمین های مختلفی برای اثرات ثابت دریافت می کنم. سوال من: آیا کسی می تواند روشن کند که چرا تخمین های شیب تصادفی ممکن است بین R و SAS بسیار متفاوت باشد؟ آیا کاری وجود دارد که بتوانم در R یا SAS برای تغییر کد خود انجام دهم تا تماس ها نتایج مشابهی ایجاد کنند؟ من ترجیح میدهم کد را در SAS تغییر دهم، زیرا تخمینهای R خود را بیشتر «باور» میکنم. من واقعاً نگران این تفاوت ها هستم و می خواهم به ته این مشکل برسم! خروجی من از مجموعه داده اسباب بازی که تنها از 3 نفر از 35 فرد موجود در مجموعه داده کامل برای R و SAS استفاده می کند به عنوان jpeg گنجانده شده است.     | چرا SAS PROC GLIMMIX شیب های تصادفی بسیار متفاوتی نسبت به glmer (lme4) برای glmm دو جمله ای به من می دهد |
59984 | من سعی می کنم مدل خطرات متناسب کاکس را به تنهایی یاد بگیرم، و این پیوند را پیدا کردم که آن را با عبارات واضح توصیف می کند. اما وقتی به فرمول (5) میرسم ($S(t) = \exp(−H(t))$) نمیتوانم بفهمم این از کجا میآید. در صفحه قبلی نویسنده، او نشان میدهد که تابع بقا برابر است $S(t) = \exp(−H(t))$ _if_ یک توزیع نمایی را فرض میکنیم، اما در Cox این را فرض نمیکنیم. آیا $S(t) = \exp(−H(t))$ چیزی است که برای هر توزیع خطری کار می کند؟ من نمی توانم راهی برای اثبات / رد این موضوع بیاندیشم و شهود برای من منطقی نیست. | تلاش برای درک فرمول برای تابع بقا (تحلیل بقا) |
105950 | من در حال ساخت یک مدل حداکثر آنتروپی برای طبقهبندی برخی از متنها هستم، بر اساس مقاله «رویکرد حداکثر آنتروپی برای پردازش زبان طبیعی» نوشته برگر و همکاران. این شبیه به برچسب گذاری POS است. در زیر چند نمونه کاهش یافته از داده های آموزشی، به شکل «LABEL::text»: [PLACE::Worthington Street، COURSE_SN::F0XN9، COURSE_NAME::گوش دادن پیشرفته، COURSE_SEQUENCE::1 آمده است -2، COURSE_COLLECTION::English 9A، ROOM::VIPA]، [PLACE::Ackton Tower، NAME::Jimmy James، COURSE_SN::98CC، COURSE_NAME::Beginning Spanish، COURSE_COLLECTION::Spanish Basics 4، ROOM::201] توجه داشته باشید که داده های دریافتی مانند بالا تقسیم بندی می شوند و بخش بندی بخشی از این کار نیست. هدف این است که انواع میدان هر بخش را در یک دنباله تشخیص دهیم. ترتیب آن ممکن است تا حدی تصادفی باشد. و هر خط ممکن است فقط مجموعه ای از فیلدها داشته باشد. دادههای آزمایشی به این شکل بودند: [Ackton Tower، Jimmy James، 98CC، Beginning Spanish، Spanish Basics 4، 201] میتوانید ببینید که تعریف توابع ویژگی تا حدودی ساده است. اساساً کلمه شکل، موقعیت آن و برچسب قبلی نقش اصلی را ایفا کردند. اما من در تصمیم گیری برای اینکه چه چیزی را به عنوان زمینه اضافه کنم مشکل دارم. اجرای فعلی من از «(word_shape، last_label)» به عنوان زمینه استفاده می کند. تابع ویژگی فقط این زمینه را می بیند و هیچ چیز دیگری. به عبارت دیگر، تابع ویژگی خط اول داده های نمونه را به صورت زیر می بیند: [PLACE::Xx Xx، COURSE_SN::X0X0، COURSE_NAME::Xx Xx، COURSE_SEQUENCE::1-2، COURSE_COLLECTION::Xx 9X، ROOM::X]، باید از word_shape استفاده کنم زیرا باید بتوانم به طور بالقوه با متن دیده نشده این منجر به 2 مشکل می شود: 1. محاسبه احتمال نیاز به $\tilde{p}(x,y)$ دارد، که مستلزم این است که زمینه $x$ از قبل در نمونه آموزشی وجود داشته باشد. چگونه با زمینه های نادیده برخورد کنم؟ فرض کنید من (Xx Xx، COURSE_SN) دارم، زیرا در نمونه دیده نمی شود، $\tilde{p}(x,y) = 0$. سپس احتمال آن همیشه برای همه برچسب ها 0 خواهد بود. چگونه می توانم یک برچسب برای آن تعیین کنم؟ 2. با بومی سازی بافت به کلمات واقعی، من می توانم دقت 100% را با تشخیص داده های آموزشی حتی بدون توابع ویژگی حفظ کنم. بگویید من اولین کلمه را به عنوان زمینه انتخاب میکنم، میتوانید ببینید که «جیمی» تقریباً فقط در «NAME» استفاده میشود و نه چیز دیگری. بنابراین $\tilde{p}(Jimmy,y)$ تنها زمانی تعریف می شود که $y=NAME$. این تنها احتمالی است که من به آن دست خواهم یافت. اما باز هم، این بدان معنا نیست که من می توانم با داده های دیده نشده مقابله کنم. چگونه زمینه و ویژگی های این کار را انتخاب کنم؟ ** به روز رسانی ** گاوسی پیشین به دقت کمک می کند، اما به سوال من پاسخ نمی دهد. چیزی که من واقعاً میپرسم، دادههای نمونه زیر را در نظر بگیرید: NAME::Lily NAME::Kelly ADV::به طرز شگفتانگیزی VERB::میداند بگو که من 2 تابع ویژگی دارم، یکی به بزرگ بودن حرف اول بستگی دارد و دیگر بستگی به این دارد که کلمه به ~ly ختم شود یا خیر. چگونه زمینه را تعریف کنم؟ بر اساس فرض اصلی من، من یک زمینه سفت و سخت برای همه بخش ها تعریف می کنم. همه چیز از همان زمینه word_shape استفاده می کند. سپس $\tilde{p}(x)$ خواهد بود: 'Xx~ly' = 2/4 'x~ly' = 1/4 'x' = 1/4 اما در عوض، آیا می توانم زمینه هایی مانند این داشته باشم؟ ctxA-'Xx' = 2/4 ctxA-'x' = 2/4 ctxB-'~ly' = 3/4 به این ترتیب، هر بخش زمینه های متعددی را تولید می کند. و آنها به طور مستقل به عنوان $x$ متفاوت در $\tilde{p}(x)$ در نظر گرفته می شوند. به این ترتیب می توانم محتوای بسیار بیشتری را مطابقت دهم، زیرا پیچیدگی زمینه کاهش می یابد. توجه داشته باشید که چگونه در حالت سخت اول، $\sum \tilde{p}(x)$ برابر با 1 است، در حالی که در حالت دوم، بسیار بزرگتر از 1 خواهد بود. ممکن است احمقانه باشد که بپرسید، اما آیا این راه عملی است؟ | مدل حداکثر آنتروپی برای طبقه بندی، چه چیزی به عنوان زمینه و ویژگی استفاده شود؟ |
31033 | اگر شهری به طور متوسط دو تصادف در روز داشته باشد، انتظار دارید در سال چند روز بدون تصادف داشته باشید؟ | تعیین تعداد مورد انتظار روزهای بدون حادثه در سال در یک شهر |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.