_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
4989
داده های من شامل مشاهدات سطح فردی است که در طول زمان در داخل کشورها قرار گرفته اند. من می خواهم از مدل های چند سطحی همراه با نوعی مدل انتخاب استفاده کنم. من سه سوال مرتبط دارم. 1) آیا در مورد استفاده از مدل انتخاب هکمن دو بار مشکل یا نگرانی وجود دارد؟ من یک مدل با دو مرحله انتخاب دارم. در حالی که نمی‌توانم دلیلی برای این که این کار نمی‌کند تصور کنم، اما نمونه‌ای از مدل انتخاب heckman را ندیده‌ام که دو بار استفاده شده باشد. فرض کنید من نیز محدودیت های حذف لازم را دارم. 2) ابزار اصلی من R است. بسته ای وجود دارد، sampleSelection، اما درک من این است که الگوریتمی که استفاده می کند ممکن است برای داده های پانل / مدل های چند سطحی مناسب نباشد. در stata، درک من این است که موارد فوق امکان پذیر است، اما مطمئن نیستم که بسته ای در R برای انجام انتخاب heckman با مدل های چند سطحی وجود داشته باشد. 3) آیا راه های بهتری برای انجام کاری که می خواهم انجام دهم وجود دارد؟ شاید استفاده از ابزار به تنهایی بهتر باشد؟ اگر چنین است، آیا بسته‌های R وجود دارد که بتوانید به من اشاره کنید؟ اگر بسته های R وجود ندارد، من همچنان به این پاسخ علاقه مند هستم زیرا خوشحال می شوم در صورت لزوم چیزی را کدنویسی کنم. متشکرم.
مدل انتخاب چند مرحله ای با داده های تابلویی در R
113441
من یک متغیر جنسیت در پرسشنامه خود دارم، آن را در جایی انجام داده ام که 1 = مرد و 2 = زن. من می خواهم این متغیر را با پاسخ های آنها برای مقایسه تفاوت بین نظرات مردان در برابر نظرات زنان مرتبط کنم. کسی می تواند به من کمک کند که کدام رابطه را اجرا کنم و چگونه آن را بفهمم.
همبستگی برای داده های اسمی
86527
من داشتم در مورد چگونگی یافتن توزیع داده ها از این سوال مطالعه می کردم، نمودار احتمال زیر را از نمودار prob package.scipy ایجاد کردم. پارامتر توزیع پیش فرض نرمال است که توزیع نرمال است. داده ها تعداد بسته هایی است که از ماشین X به ماشین Y ارسال می شود. من موارد زیر را درک می کنم: تصویر از توزیع عادی پیروی نمی کند، اما چه چیز دیگری می توانم در مورد داده های خطوط افقی از نظر توزیع شناخته شده بگویم اگر هر وجود دارد ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/1EdBr.png)
چگونه نمودار احتمال را تفسیر کنیم؟
4980
چه پیاده‌سازی منبع باز - در هر زبانی - وجود دارد که می‌تواند مسیرهای منظم‌سازی کمند را برای رگرسیون خطی با نزول مختصات محاسبه کند؟ تا به حال از موارد زیر آگاه هستم: * glmnet * scikits.learn چیز دیگری وجود دارد؟
تناسب کمند با نزول مختصات: پیاده سازی منبع باز؟
14061
من سعی می کنم از تابع 'density' در R برای تخمین چگالی هسته استفاده کنم. من در تفسیر نتایج و مقایسه مجموعه‌های داده مختلف با مشکل مواجه هستم زیرا به نظر می‌رسد مساحت زیر منحنی لزوماً 1 نیست. برای هر تابع چگالی احتمال (pdf) $\phi(x)$، باید مساحت $\int_ را داشته باشیم. {-\infty}^\infty \phi(x) dx = 1$. من فرض می کنم که تخمین چگالی هسته pdf را گزارش می دهد. من از integrate.xy از sfsmisc برای تخمین مساحت زیر منحنی استفاده می کنم. > # تولید مقداری داده > xx<-rnorm(10000) > # دریافت چگالی > xy <- چگالی(xx) > # plot it > plot(xy) ![plot of the density](http://i.stack. imgur.com/9zT9s.png) > # بارگذاری کتابخانه > کتابخانه(sfsmisc) > integrate.xy(xy$x,xy$y) [1] 1.000978 > # به اندازه کافی منصفانه، منطقه نزدیک به 1 > # استفاده از bw دیگری > xy <- density(xx,bw=.001) > plot(xy) ![density with bw= .001](http:// i.stack.imgur.com/agW3K.jpg) > integrate.xy(xy$x,xy$y) [1] 6.518703 > xy <- چگالی(xx,bw=1) > integrate.xy(xy$x,xy$y) [1] 1.000977 > plot(xy) ![دانسیته با bw = 1](http://i. stack.imgur.com/6QQ6s.jpg) > xy <- تراکم(xx,bw=1e-6) > integrate.xy(xy$x,xy$y) [1] 6507.451 > plot(xy) ![تراکم با bw=1e-6](http://i.stack.imgur.com/SZjuJ.jpg) نباید t مساحت زیر منحنی همیشه 1 باشد؟ به نظر می رسد پهنای باند کوچک مشکل ساز است، اما گاهی اوقات می خواهید جزئیات و غیره را در دم نشان دهید و پهنای باند کوچک مورد نیاز است. **به روز رسانی/پاسخ:** به نظر می رسد که پاسخ زیر در مورد تخمین بیش از حد در مناطق محدب درست باشد زیرا به نظر می رسد افزایش تعداد نقاط ادغام مشکل را کاهش می دهد (من سعی نکردم از امتیازهای بیش از $2^20$ استفاده کنم. ) > xy <- چگالی(xx,n=2^15,bw=.001) > plot(xy) ![تراکم با تعداد نقاط بیشتری برای نمونه در](http://i.stack.imgur.com/f4rob.png) > integrate.xy(xy$x,xy$y) [1] 1.000015 > xy <- چگالی(xx,n=2^20, bw=1e-6) > integrate.xy(xy$x,xy$y) [1] 2.812398 * * *
مساحت زیر pdf در تخمین چگالی هسته در R
84012
من یک رگرسیون لجستیک خالص الاستیک را روی مجموعه داده مراقبت های بهداشتی با استفاده از بسته glmnet در R با انتخاب مقادیر لامبدا روی شبکه ای از آلفا از 0 تا 1 انجام می دهم. کد مخفف من در زیر است: > alphaslist<-seq(0,1, by=0.1) > elasticnet<-lapply(alphalist, function(a){cv.glmnet(x, y, alpha=a, family=binomial, lambda.min.ratio=.001)}) > برای (i در 1:11) {print(min(elasticnet[[i]]$cvm))} که میانگین را خروجی می‌کند خطای تایید شده متقاطع برای هر مقدار آلفا از 0.0 تا 1.0 در 0.1: [1] 0.2080167 [1] 0.1947478 [1] 0.1949832 [1] 0.1946211 [1] 0.1947906 [1] 0.1953286 [1] 0.194827 [1] 0.1944735 [1] 0.194 [1] 0.194 [1] 0.194 [1] 0.194 0.1948874 بر اساس آنچه در ادبیات خوانده ام، انتخاب بهینه آلفا جایی است که خطای cv به حداقل برسد. اما تنوع زیادی در خطاها در محدوده آلفا وجود دارد. من چندین حداقل محلی را می بینم، با حداقل خطای جهانی 0.1942612 برای آلفا = 0.8. آیا استفاده از alpha=0.8 ایمن است؟ یا با توجه به این تنوع، آیا باید cv.glmnet را با فولدهای اعتبار سنجی متقاطع بیشتری (مثلاً 20 به جای 10) یا شاید افزایش بیشتر بین آلفا=0.0 و 1.0 مجدداً اجرا کنم تا تصویر واضحی از مسیر خطای cv داشته باشم؟
انتخاب آلفای بهینه در رگرسیون لجستیک خالص الاستیک
86524
من داده هایی دارم که در آن پاسخ به شکل (k,n) است - k موفقیت، n آزمایش برای یک موضوع معین. متغیرهای کمکی فقط برخی از پیش بینی کننده های موضوعی خاص هستند. آیا می توان از randomForest برای این کار استفاده کرد؟ من در مورد تکرار داده ها فکر کرده ام به طوری که برای هر موضوع n خط داشته باشیم که k از آنها دارای مقدار y '1' و n-k آن دارای y-مقدار '0' هستند - آیا جایگزینی وجود دارد؟ این امر اعتبارسنجی متقاطع را بسیار کثیف می‌کند، زیرا می‌خواهم بتوانم p=k/n را برای موضوعات جدید پیش‌بینی کنم، و فکر می‌کنم اعتبارسنجی متقاطع باید قفل شود تا هر مجموعه آموزشی شامل تمام ردیف‌های یک موضوع داده شده، یا هیچ کدام.
جنگل تصادفی برای داده های دوجمله ای
86528
من یک مجموعه داده نسبتاً کوچک از متغیرهای بالینی و زمان بقا دارم. من سعی کردم رگرسیون خطی را روی اینها به صورت متقاطع اجرا کنم. توجه دارم که در برخی موارد، رگرسیون پیش بینی منفی می دهد. از آنجایی که این زمان های بقا است، این مزخرف است. من نمی‌پرسم که آیا راه حل پذیرفته‌شده‌ای برای این نوع موقعیت‌ها وجود دارد (پیش‌بینی‌های منفی را روی صفر قرار دهید؟) من استفاده از نوعی پیش‌بینی‌کننده طبقه‌بندی را در نظر گرفته بودم، اما مجموعه داده من برای پر کردن تعداد معنی‌داری از دسته‌ها بسیار کوچک است. با تشکر از هر گونه اشاره یا پیشنهاد.
در صورت پیش بینی های بی معنی (زمان بقا منفی) چه باید کرد؟
14067
### زمینه یک سوال رایج در این سایت این است که گناهان آماری رایج چیست؟. یکی از گناهانی که ذکر شد این است که فرض کنیم همبستگی دلالت بر علیت دارد... لینک سپس در نظرات با 5 رای موافق پیشنهاد می شود که: گوگل سالانه 65 میلیارد دلار درآمد دارد که به تفاوت اهمیت نمی دهد. در خطر تجزیه و تحلیل بیش از حد یک شوخی ساده، فکر کردم که این ممکن است یک بحث مفید برای تشریح تمایز بین همبستگی و علیت و ارتباط عملی تمایز باشد. و شاید بتواند چیزی را در مورد رابطه بین یادگیری ماشین و تمایز بین همبستگی و علیت برجسته کند. من فرض می‌کنم که این نظر به فناوری‌هایی می‌پردازد که زیربنای تولید نتایج موتورهای جستجو و فناوری‌های مرتبط با نمایش تبلیغات هستند. ### سوال * تا چه اندازه تمایز بین همبستگی و علیت به درآمدزایی گوگل مرتبط است، شاید به ویژه بر تولید درآمد از طریق فناوری‌های مرتبط با نمایش تبلیغات و نتایج جستجوی با کیفیت تمرکز کند؟
تمایز بین همبستگی و علیت تا چه حد برای گوگل مرتبط است؟
106065
من می‌خواهم این فرضیه صفر را آزمایش کنم که همه ضرایب متغیر طبقه‌بندی من با 4 سطح واقعاً با استفاده از Wald test & R صفر هستند. من تازه وارد خانواده R هستم. و فقط برای اجرای این سوال مشکلاتی وجود دارد. مدل من «lm(Y ~ X + Z)» است که در آن «X» پیوسته و «Z» کیفی/طبقه با 4 سطح است. مثال: بنابراین من model<-lm(prestige~height(cm)+weight(kg)+education) را اجرا کردم که در آن Education بله یا نه است. همانطور که دیدم، من به «coef(model)» ادامه می‌دهم و بعد از آن $H_0$ را همانطور که در بالا ذکر شد آزمایش می‌کنم. سپس از «Hypothesis(model,c(قد(سانتی متر)=وزن(کیلوگرم)،آموزش(بله)=آموزش(نه)+1) استفاده می کنم و خروجی زیر را دریافت می کنم: آزمون فرضیه خطی فرضیه: قد-وزن = 0 تحصیلات(بله)-تحصیلات(نه) = 1 بنابراین سوال من این است که چگونه Z یا در را محاسبه کنم آموزش نمونه با بیش از 2 سطح...
چگونه از آزمون آماری پارامتریک با R استفاده کنیم؟
3795
من به دنبال یک ابزار نرم افزاری (ترجیحا متن باز) برای ترسیم مدل های معادلات ساختاری/مخلوط به صورت کارآمد و زیبا هستم. پس از بررسی xfig و graphviz، اکنون به بسته گرافیکی برداری کلی inkscape پایبندم زیرا به نظر منعطف ترین است. می‌خواهم از جامعه stat.stackexchange نظرسنجی کنم: مدل‌های معادله/مخلوط ساختاری خود را چگونه ترسیم می‌کنید؟ از چه نرم افزاری استفاده می کنید؟
چگونه مدل های معادله ساختاری/MPLUS را ترسیم می کنید؟
86526
من سعی می کنم یک مسئله حداقل مربعات را حل کنم که در آن تابع هدف دارای یک جمله حداقل مربعات به همراه منظم سازی هنجار L1 و L2 است. من نمی توانم پیدا کنم کدام تابع matlab توانایی انجام چنین بهینه سازی را علاوه بر مشخص کردن محدودیت ها فراهم می کند. من به جعبه ابزار بهینه سازی MATLAB نگاه کردم که همچنین آزادی زیادی برای تعیین توابع هدف خود ارائه نمی دهد (اگرچه امیدوارم در این مورد اشتباه کرده باشم!) در مورد مسائل بهینه سازی حداقل مربع. اگر کسی می داند چگونه می توان چنین مشکل بهینه سازی را در متلب مدلسازی کرد لطفا به من کمک کند. مشکل بهینه سازی به صورت زیر است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/W8YP6.png) در اینجا **aj** یک بردار m X 1 است و **A** یک ماتریس mXn، **wj** یک بردار n x 1 است. نمی‌دانم چگونه دو عبارت منظم‌سازی اضافی را در مسائل بهینه‌سازی ادغام کنم، زیرا آنها فقط 2 ماتریس را می‌پذیرند و عملیات حداقل مربعات را روی آنها انجام می‌دهند. من می خواهم بدانم که چگونه این تابع هدف را پیاده سازی کنم و آن را به تابع حداقل مربع بهینه سازی matlab منتقل کنم. هر گونه کمکی قدردانی خواهد شد.
حل مسائل حداقل مربعات منظم با استفاده از جعبه ابزار بهینه سازی Matlab
14111
من در حال انجام یک آزمایش ریشه واحد با استفاده از **Phillips-Perron** در کتابخانه _tseries_ (pp.test) هستم. من این کد را امتحان کردم: > pp.test(c(1:1000)) و نتیجه این است: خطا در pp.test(c(1:1000)): تکینگی ها در رگرسیون با انجام یک تحقیق، خطوط روی pp را پیدا کردم. تابع تست با این خطا: if (res$rank < 3) stop (تکینگی ها در رگرسیون) _ جایی که **res** مدل خطی است (lm)._ چرا دریافت می کنم این نوع خطا؟ اگر همین کار را با یک تست ریشه واحد دیگر (در همان کتابخانه) مانند ADF انجام دهم، خطایی دریافت نمی کنم. متشکرم
چرا آزمون فیلیپس پرون «تکینگی ها در رگرسیون» را برمی گرداند؟
14064
من سعی می کنم تفاوت ریاضی بین Cpk و Ppk مورد استفاده در کنترل فرآیند آماری (SPC) را درک کنم. من وب را مرور کرده ام اما همه یک مفهوم نظری گیج کننده و گیج کننده تر از این دو را پیدا کردم. قبل از اینکه بتوانم کاربرد آنها را القا کنم، باید بفهمم تفاوت ریاضی چیست؟ و حتی این که من نمی توانم منبع خوبی پیدا کنم. من گوگل کردم و ویکی ویرایش کردم. درک من این است که Ppk از تمام داده ها در محاسبه انحراف استاندارد خود استفاده می کند و Cpk از همه داده ها استفاده می کند اما منهای 1 در محاسبه انحراف استاندارد خود. این است؟ برای مثال، اگر مجموعه ای از داده های 5، 4، 5.5، 4.5، 3.5 داشته باشم Cpk و Ppk آنها چیست؟
تفاوت ریاضی Cpk و Ppk چیست؟
50547
من سعی می کنم نحوه ارائه نتایج (مانند دقت، یادآوری، دقت، منحنی ROC) را برای یک پروژه کلاسی بیابم. من یک مشکل طبقه بندی چند کلاسه دارم (الگوریتم طبقه بندی خاص واقعاً مهم نیست) کلاس های **A، B، C و D**. الگوریتم طبقه بندی **آموزش** روی **A، B و C** بود. در طول مرحله آزمون، الگوریتم طبقه‌بندی داده‌های آزمون واحد را به صورت **کلاس A** تعیین می‌کند اگر **احتمال_آستانه_آزمون>= احتمال_آستانه_A** که در مرحله آموزش به دست می‌آید. به طور مشابه کلاس های B و C نیز در مرحله آزمایشی شناسایی می شوند. اگر **relihood_of_test_data < آستانه احتمال A، B و C**، **به رسمیت شناخته می شود** که متعلق به **کلاس D** است. چگونه می توانم منحنی ROC را در این حالت رسم کنم؟ آیا برای هر یک از کلاس های A، B، C و D باید دقت و فراخوانی را جداگانه محاسبه کنم؟ یا من فقط دقت را محاسبه کنم؟
سوال در مورد ارائه نتایج طبقه بندی چند طبقه
114020
من سعی می کنم میانه های دو توزیع غیر عادی را مقایسه کنم: $A$ و $B$. * $A$ توزیع مدت زمان تکمیل برای یک نوع کار است * $B$ توزیع مدت زمان تکمیل برای نوع دیگری از کار است، اما از آنجایی که این توزیع ها از کارگرانی که می توانند وظایف هر دو توزیع را تکمیل کنند اندازه گیری می شوند، * فرض اینکه این توزیع ها مستقل هستند نادرست است؟ در حالت ایده آل، تکمیل کار $A$ نباید هیچ تاثیری بر زمان انجام کار $B$ داشته باشد. با این حال، می توانم تصور کنم که در کجا ممکن است یک کارگر در تکمیل یک نمونه از کار $A$ مشکل داشته باشد، ناراضی شود، و بنابراین زمان بیشتری برای تکمیل کار $B$ نیاز دارد. هر گونه کمکی قدردانی خواهد شد. با تشکر **ویرایش**: * من در حال تجزیه و تحلیل داده هایی هستم که قبلاً جمع آوری شده اند (به جای طراحی مطالعه). * در واقع بیش از دو توزیع در داده های من وجود دارد، من فقط می خواستم ابتدا روی دو توزیع تمرکز کنم.
آیا این توزیع ها مستقل هستند؟
102993
من در این زمینه تازه کار هستم و نمی‌دانم که آیا تکنیک رگرسیون در ادبیات موجود است که همیشه متغیر وابسته (y) را کمتر پیش‌بینی کند. من در واقع قصد دارم مدل‌سازی دو مرحله‌ای را پیاده‌سازی کنم که در آن مرحله اول شامل رگرسیون y بر x و در سطح دوم، از باقیمانده‌های مرحله اول برای انجام یک تحلیل متفاوت استفاده می‌کنم. مرحله دوم مستلزم آن است که متغیر پاسخ (باقیمانده مدل در مرحله اول) همیشه مثبت باشد. پیشاپیش از کمک شما متشکرم! ویرایش: من سعی می‌کنم مدل انتشار باس (BDM) را روی داده‌های فروش پیاده‌سازی کنم، اما ابتدا می‌خواهم اثر برخی از متغیرهای بازاریابی را با استفاده از رگرسیون چندگانه بررسی کنم. اجرای BDM در مرحله دوم مستلزم مثبت بودن باقیمانده های مرحله اول است.
رگرسیون که در آن مقادیر پیش‌بینی‌شده همیشه متغیر وابسته را کمتر پیش‌بینی می‌کند
70753
من از «glmmLasso» برای انتخاب متغیر استفاده می کنم. در مورد من، «n» کمی کمتر از «p» است و «p» متغیرهای زیست اقلیمی برای دوره‌های زمانی مختلف هستند، بنابراین همبستگی بالایی دارند. چگونه مقادیر مناسب را برای آرگومان‌ها انتخاب کنم: lambda و control. من با مقادیر مختلف «lambda»، «maxIter» (حتی تا 10000) و «کنترل» («شروع» و «گام‌ها») امتحان کرده‌ام. اما، الگوریتم هرگز همگرا نمی شود. p.values ​​همه متغیرهای انتخاب شده 0 هستند و این باعث می شود که بپرسم آیا عدم همگرایی علت است یا خیر. چه عاملی می تواند به دستیابی به همگرایی در تعداد معقولی از تکرارها کمک کند؟ در بین متغیرهای انتخاب شده، از آنجایی که p.values ​​همه 0 هستند (بقیه متغیرها NA هستند)، آیا می توانم اهمیت نسبی متغیر را بر اساس 'StdErr' تخمین بزنم؟ همچنین، «لامبدا» که منجر به پایین‌ترین مقادیر «BIC» می‌شود، متغیرهای زیادی را به‌عنوان مهم انتخاب می‌کند. آیا در این مورد مشکلی نیست، (چون من فقط یک متغیر تقریبی را برای مدل‌سازی انجام می‌دهم) نگران BIC نباشم، اما لامبدا را انتخاب کنم که تعداد معقولی از متغیرها را به من می‌دهد که با توجه به داده‌های من نیز منطقی هستند. به هر حال، آرگومان های «شروع» در «کنترل» چیست؟ همه صفرها قابل قبول نیستند و بردارهای زیر یک طول مشخص نیز قابل قبول نیستند. مقادیر و طول برداری به چه چیزی بستگی دارد؟ با عرض پوزش، اگر این نشان دهنده ناآگاهی از ریاضیات پشت مدل های مختلط است... برای جزئیات بیشتر در مورد داده ها، لطفاً به انتخاب متغیر با استفاده از مدل های مختلط (lme4) مراجعه کنید. چیزی برای راهنمایی من در این مورد. آیا کسی از glmmLasso برای تجزیه و تحلیل استفاده کرده و با موقعیت های مشابه روبرو شده است؟ خوشحالم که هر پیشنهادی را می شنوم
تخمین صحیح آرگومان ها برای تابع glmmLasso
102995
در یکی از آزمایش‌هایم برای اندازه‌گیری عملکرد نوع خاصی از نرم‌افزار، زمان اجرا و مصرف حافظه را اندازه‌گیری می‌کنم. اکنون می‌دانم که اندازه‌گیری این موارد می‌تواند بسیار مشکل‌ساز باشد، زیرا سیستم عامل در نحوه اجرای برنامه تداخل دارد و سایر برنامه‌ها/فرآیندها می‌توانند در حین اجرای معیار اجرا شوند. بهترین روش‌های زیر را به خاطر می‌آورم: * چندین بار دویدن * کمترین زمانی را که برای اجرای معیار صرف کردید، نه میانگین. * استفاده از حافظه را با مقدار زیادی نمک در نظر بگیرید و فقط زمانی در مورد آن صحبت کنید که حافظه مورد استفاده زیاد باشد (اگر به کیلوبایت یا چند مگابایت است، نمی توانید چیز زیادی در مورد آن بگویید) و زمانی که تفاوت قابل توجه است (حداقل چند ده مگابایت). در حالی که سرگرم کننده است که می توانم این بهترین شیوه ها را به خاطر بسپارم و می توانم برای درستی هر یک از آنها استدلال کنم، ترجیح می دهم این بهترین شیوه ها را به برخی ادبیات گره بزنم. با این حال من هنوز چیزی پیدا نکرده ام که به طور خاص در مورد معیارهای سرعت / حافظه صحبت کند. آیا کسی از مقالات یا مطالب دیگری که می توانم برای اثبات این بهترین شیوه ها استناد کنم، می شناسد؟ _(مطمئن نیستم که آیا این سوال به اعتبار متقاطع تعلق دارد یا خیر. اما از آنجایی که من یک سوال مرتبط را در اینجا پرسیدم، فکر کردم بهتر است از اینجا شروع کنم. اگر این سوال برای دانشگاه، تئوری cs یا سرریز پشته مناسب تر است، لطفا به من کمک کنید حرکت کنم. آن را به سایت فرعی صحیح)_
ادبیات اندازه گیری سرعت و استفاده از حافظه نرم افزار
38773
درک مدل های خطی در R برای من سخت بود. اسناد زیادی برای این مورد وجود دارد، اما بسیاری از آنها به جای آموزش مفهوم، راهنمای فنی هستند. من این مقاله را بسیار ساده و آموزنده یافتم، امیدوارم برای سایر افرادی که همین مشکل را دارند مفید باشد. پیشنهاد بهتری ندارید؟
معرفی ساده مدل های خطی در R
102990
من یک سوال در مورد اینکه آیا برای درخت رگرسیون الزامات ثابتی وجود دارد یا خیر دارم. اگر بخواهم 2 قیمت سهم را بر روی یکدیگر رگرسیون کنم (رگرسیون خطی معمولی)، به دلیل ثابت نبودن داده ها ((روند تصادفی) قیمت سهم) به عنوان رگرسیون کاذب طبقه بندی می شود. بنابراین به منظور تصحیح که ما می‌توانیم بازگشت‌های log (امیدواریم که log برمی‌گرداند که یک سری ثابت ایجاد می‌کند) بر روی یکدیگر رگرسیون کنیم - لطفاً اگر اشتباه است تصحیح کنید. اما با درخت رگرسیون هیچ فرض توزیعی وجود ندارد - و نه آزمون t و غیره. بنابراین آیا باید یک درخت رگرسیون را بر اساس بازده ورود به سیستم قیمت سهام انجام دهم یا بر اساس خود قیمت سهام؟ فکر اولیه من این است که استفاده از سری های ثابت در داده ها بهتر است، اما بیشتر به دنبال درک این موضوع باشید که چرا از شما برای هر کمکی متشکرم
سبد خرید و فرضیات ثابت بودن
71404
من می خواهم یک متاآنالیز چند متغیره (یا متاآنالیز شبکه) برای بررسی تأثیر دو عامل (A & B، 1 و 2) انجام دهم. برای هر ترکیبی از این دو عامل، تعدادی مطالعه دارم که نتایجی را گزارش می‌کنند که تفاوت در اندازه اثر و همچنین واریانس آن را توصیف می‌کنند (A1 در مقابل B1، A1 در مقابل B2، A2 در مقابل B1، A2 در مقابل B2). هر اندازه اثر از یک مطالعه جداگانه می آید. من می خواهم تأثیرات اصلی و همچنین تعامل دو عامل خود را بررسی کنم. در اینجا من یک مثال ساختگی از داده‌های R ارائه می‌دهم که در ابتدا برای آزمایش بسته gemtc ایجاد می‌کنم: set.seed(100) treat1 <- c(rep(A1, 10), rep(A1, 8) ,rep(A2، 15)،rep(A2، 5)) treat2 <- c(rep(B1، 10)،rep(B2، 8)، rep(B1، 15)، rep(B2، 5)) TE <- c(rnorm(10,5,1),rnorm(8,2,1),rnorm(15,3, 1),rnorm(5,1,1)) seTE <- c(rnorm(10,1,1),rnorm(8,2,1),rnorm(15,0.5,1),rnorm(5,0.2,1)) studlab <- paste(rep(مطالعه_، 38 ), as.character(c(1:38))، sep=) my_data <- data.frame(treat1, treat2, TE, seTE, studlab) my_data من ممنون می‌شوم برای یک اشاره‌گر به یک بسته R مناسب (gemtc، netmeta، mvmeta؟) که بتواند چنین داده‌هایی را مدیریت کند و چگونه نه تنها اثرات اصلی، بلکه تعامل عوامل من را نیز مدل‌سازی کنم. چند راهنمایی برای شروع فوق العاده خواهد بود...
اثرات اصلی و تعامل در متاآنالیز چند متغیره (فراتحلیل شبکه) در R
102998
من تقریباً 15 متغیر/ویژگی دارم که 6 هزار مشتری را در مجموعه داده‌ام مشخص می‌کند. از آنجایی که آنها دسته بندی هستند، من آنها را به 1 ویژگی برای هر مقدار ممکن تبدیل کرده ام (کدگذاری 1-از K). یک مثال می تواند منطقه با مقادیر A، B و C باشد که به 3 متغیر تبدیل می شود: Region_A، Region_B و Region_C. همین امر در مورد سایر متغیرها مانند کانال فروش نیز صدق می کند. پس از این تغییر، اکنون حدود 70 ویژگی دارم. من می خواهم بررسی کنم که آیا تعامل دو طرفه قابل توجهی بین متغیرهای مختلف با توجه به یک متغیر پاسخ (در رابطه با کیفیت مشتری) با استفاده از رگرسیون لجستیک وجود دارد یا خیر. برای مثال، جالب است که ببینیم آیا تعاملی بین «Region_A» و «Sales Channel 1» وجود دارد یا خیر. با این حال، تعاملات احتمالی بسیار زیادی وجود دارد و بنابراین من می خواهم با حذف برخی از متغیرها شروع کنم، که مشاهدات بسیار کمی به آنها متصل است. یک مثال می تواند این باشد که فقط 3 مشتری از «Region_A» آمده اند. به طور خاص، من با حذف تمام ویژگی هایی که 5 مشاهده یا کمتر به آنها متصل هستند (از 6k مشاهده) شروع می کنم. با این حال، من نمی توانم پیدا کنم که چگونه این کار را انجام دهم. بنابراین من سوالات زیر را دارم: 1. آیا فکر من منطقی است؟ یا باید جور دیگری به موضوع برخورد کنم؟ 2. چگونه می توانم تمام ویژگی های مجموعه داده ای را که کمتر از 5 مشاهده به آنها متصل است حذف کنم؟ مقادیر متغیرها همیشه 0 یا 1 است زیرا مشتری یا از منطقه A است (=1) یا از منطقه A نیست (=0). 3. پس از حذف این متغیرها باید تعاملات کمتری وجود داشته باشد. با این حال، هنوز هم مقدار بسیار زیادی خواهد بود. بنابراین من همچنین می خواهم فقط تعاملات را با 5 مشاهده یا بیشتر بررسی کنم. من فکر می کنم این کار را می توان با استفاده از یک فرمول در رگرسیون لجستیک انجام داد، اما آیا می توانید به من کمک کنید که چگونه متغیرهای مناسب را برای فرمول پیدا کنم؟
حذف صفات با مشاهدات کم در R
102991
الگوریتم‌ها/برنامه‌های بسیاری وجود دارند که هدفشان یادگیری پارامترهای هایپر، یعنی پارامترهای توزیع قبلی از داده‌های مشاهده‌شده است. یک الگوریتم معمولی در یک تابع تکراری کار می کند که در آن مقداری از تابع هزینه را برای یک مجموعه معین از مقادیر پارامترهایپر بهینه می کنیم و سپس گام بعدی به روز رسانی پارامترهای هایپر با استفاده از تخمین های فعلی پارامترهای مدل دیگر است. شاید الگوریتم EM به این صورت عمل کند؟ سوال من بیشتر فلسفی است. من فکر می‌کردم که پیشین‌ها باید ثابت شوند و اصلاً نباید به داده‌ها وابسته باشند، زیرا قبل از مشاهده هر داده‌ای، باور ما را منعکس می‌کنند. بنابراین آیا تنظیم پارامترهای hyper کمی غیر اصولی نیست؟
یادگیری پارامترهای هایپر: آیا پس از مشاهده داده ها مجاز به لمس پارامترهای قبلی هستیم؟
106066
من از libsvm برای طبقه بندی باینری استفاده کرده ام، به عنوان مثال. داده‌های $(x_1,\dots,x_n)$ و برچسب‌های $(y_1,\dots,y_n)$ داده شده که در آن $y_i\in\\{0,1\\}$ است. اکنون می‌پرسم آیا می‌توان پیش‌بینی مدل من را به گونه‌ای تنظیم کرد که خروجی به عنوان مثال [0,1]$ باشد. طبقه بندی مشخص تر است. کسی میدونه libsvm همچین چیزی رو ساپورت میکنه؟ به سلامتی
امتیاز دهی متفاوت با libsvm
38777
من داده ها را در 20 گروه (هر گروه با 30 عنصر) جمع آوری کردم. یک روش مقایسه چندگانه (آزمون t زوجی با تصحیح هولم) نشان می دهد که به طور کلی سه گروه از گروه ها وجود دارد: گروه بالا با 4 گروه، گروه پایین با 2 گروه و متوسط ​​با 14 گروه باقی مانده. هر مجموعه برای گروه های درون تفاوت معنی داری ندارد اما تفاوت قابل توجهی با گروه های مجموعه های دیگر دارد. (این یک ساده‌سازی است، زیرا نتایج مهم و غیر قابل توجه دیگری برای افراط‌های هر مجموعه وجود دارد، اما من نتایج را ساده‌سازی می‌کنم تا بتوانم خلاصه‌ای از آزمایش را هم برای شما و هم برای خوانندگان بنویسم. اگر قرار است از این نتیجه برای تصمیم‌گیری استفاده شود، مثلاً اعضای گروه‌های میانی را به‌عنوان معادل در نظر بگیریم، باید مطمئن بود که نتایج «واقعی» هستند و نه فقط به دلیل حجم نمونه کوچک. بنابراین من باید مقداری از توان را محاسبه کنم (قدرت = 1- احتمال پذیرش H0 در صورت نادرست بودن) یا مقداری از اندازه نمونه را محاسبه کنم تا نشان دهم که یا به آزمایش جدیدی با حجم نمونه بزرگتر نیاز است یا اینکه واقعاً تفاوت ها وجود دارد. احتمالا درست هستند. اما قدرت آماری WHAT؟ 1. از کل 20 گروه ANOVA نیست، زیرا آن تجزیه و تحلیل تهی را رد کرد. 2. آیا باید ANOVA 14 گروه را در ست میانی اجرا کنم و توان آن را محاسبه کنم؟ اما به نظر می رسد که این قدرت را بیش از حد برآورد می کند (یا اندازه نمونه مورد نیاز را دست کم می گیرد) زیرا گروه های افراطی در مجموعه میانی تقریبا متفاوت هستند. 3. آیا باید توان آزمون t زوجی کمترین معنادار را در گروه میانی (با آلفای اصلاح شده بونفرونی) محاسبه کنم؟ اما این به طرز وحشتناکی قدرت را دست کم می گیرد، زیرا دو گروه مشابه به احتمال زیاد واقعا متفاوت نیستند. هر ایده ای؟ هر مرجعی که بتوانم دنبال کنم؟ آنچه تاکنون می دانم: 1. پکیج R، توان یا اندازه نمونه را برای آزمون t، ANOVA یک طرفه، و تست های دیگر محاسبه می کند. 2. در مورد اندازه نمونه نسبی مورد نیاز برای مقایسه های چندگانه، توسط Witte، Elston AND Cardon استفاده از مقادیر آلفای اصلاح شده Bonferroni را در محاسبات اندازه نمونه برای مقایسه های متعدد مورد بحث قرار می دهد. ویرایش - آگوست 2013 در این سوال حرکتی مثبت وجود دارد، بنابراین تصمیم گرفتم اطلاعات بیشتری یا توضیح بهتری در مورد این موضوع اضافه کنم. من با دو پاسخ ارسال شده کاملا موافق نبودم. فکر نمی کنم مشکل داده کاوی/خوشه بندی باشد. اما احتمالا من سوال را درست بیان نکردم. آن مقاله منتشر شده است، بنابراین من نه تنها می توانم به آن اشاره کنم، بلکه در مورد آنچه نیاز داشتم نیز بحث کنم. در مقاله من (و همکاران) تفاوت‌های بین بهره‌وری و استنادها را در میان زیر حوزه‌های مختلف علوم رایانه، بر اساس یک نمونه تصادفی از 30 محقق در هر حوزه، مورد بحث قرار می‌دهیم. این مقاله دارای یک نمایشگر حروف جمع و جور است که **تفاوت*های قابل توجه بین هر دو تا از 20 زیرمنطقه CS را نشان می دهد. اما من می خواستم ** معادل**های قابل توجهی بین مناطق نشان دهم. این زمانی است که با توجه به 30 امتیاز نمونه برای هر منطقه، احتمال اینکه دو منطقه بهره وری یکسان یا استنادات یکسان در هر مقاله داشته باشند بسیار زیاد است. من تست های هم ارزی (یا دو تست یک طرفه - TOST) را می شناسم - در CV بحث هایی در مورد آن وجود داشته است، اما من در هیچ کجا تست های هم ارزی متعدد ندیدم! ایده من برای استفاده از قدرت این بود که تعریف قدرت = 1- احتمال پذیرش H0 در زمانی که نادرست است دقیقاً همان چیزی است که باید بیان کنم که دو ناحیه بهره وری یکسان دارند - من این جمله را می گویم که بهره وری یکسان دارند ( H0) و این جمله با سطح اطمینان قدرت درست است! من هنوز نمی دانم چگونه این کار را انجام دهم، و مقاله هیچ بیانیه ای از **هم ارزی احتمالی ** بین برخی از مناطق CS ندارد، که در واقع نتیجه جالب تر است! من دوباره از هر نظر یا کمکی قدردانی می کنم.
چگونه توان (یا اندازه نمونه) را برای آزمایش مقایسه چندگانه محاسبه کنیم؟
95054
من می خواهم مقدار قابل توجه و اندازه اثر متغیر مستقل را به طور کلی به جای خروجی عادی از lme4 در R دریافت کنم. این دقیقاً مانند چیزی است که افراد هنگام اجرای ANOVA گزارش می دهند. آیا ایده ای دارید که چگونه می توانم این را دریافت کنم؟
چگونه می توان جلوه کلی مدل مختلط خطی را در lme4 در r بدست آورد؟
30569
تفاوت بین آزمون Kwiatkowski–Phillips–Schmidt–Shin (KPSS) و آزمایش Dickey-Fuller (ADF) تقویت شده چیست؟ آیا آنها همان چیزی را تست می کنند؟ یا اینکه در شرایط مختلف باید از آنها استفاده کنیم؟
تفاوت بین تست ثابت و تست ریشه واحد چیست؟
106069
من یک مجموعه داده دارم که حاوی تعداد زیادی (صدها) سری زمانی کوتاه (3-30 obs) با طول های مختلف است. هر سری در حال حاضر به عنوان یک عدد نشان داده می شود که نشان می دهد چقدر طول کشیده تا رویداد بعدی. برای اینکه به شما ایده بدهم: 0، 30، 34، 39، 45، 47، 51، 51 0، 5، 5، 7، 40 من مطمئن هستم که مقادیر به زمان روز/هفته/ماه/ بستگی ندارند. .. و اینکه سریال های زمانی روی هم تاثیر نمی گذارند. من انتظار دارم که زمان های قبلی بین رویدادها دارای ارزش پیش بینی برای مدت زمان دیدن رویداد بعدی باشد. منبع داده های من تعداد زیادی (آن صدها) دستگاهی است که تحت نظارت هستند و همه این دستگاه ها یکسان هستند. چیزی که من سعی می کنم بفهمم این است که چگونه می توان یک مدل واحد ساخت تا پیش بینی کند که چقدر طول می کشد تا رویداد بعدی در یک دستگاه اتفاق بیفتد. مشکل من این است که مدل های کافی برای داشتن یک سری زمانی یا حتی چند سری زمانی وجود دارد، اگر آنها در زمان تراز باشند (در مورد داده های من نیز چنین نیست). **بنابراین از چه مدلی استفاده کنم که اجازه می دهد تا حد امکان از داده ها استفاده شود؟** اگر لازم باشد، می توانم تجزیه و تحلیل خود را به زیرمجموعه ای از داده ها با مقادیر مساوی از نقاط داده در سری های زمانی خود محدود کنم.
پیش بینی بر روی داده های متشکل از بسیاری از سری های زمانی کوتاه مستقل؟
86522
آیا معدل کردن ضرایب LASSO از جابجایی مکرر مجموعه های تمرین/آزمون معقول است؟ فرض کنید داده‌هایم را به‌طور تصادفی به مجموعه‌های آزمایشی و آموزشی تقسیم می‌کنم، سپس در مجموعه آموزشی از اعتبارسنجی متقاطع 10 برابری برای انتخاب $\lambda$ بهینه استفاده می‌کنم، سپس روی داده‌های آموزشی کامل قرار می‌دهم و ضرایب مدل را ثبت می‌کنم. حال، فرض کنید که من این فرآیند را $k$ چندین بار تکرار می کنم. هر تکرار ضرایب کمی متفاوت را انتخاب می کند. ممکن است کسی فکر کند که اینها را با هم میانگین بگیریم. با این حال، هر تکرار ممکن است مجموعه یکسانی از ضرایب غیر صفر را انتخاب نکند، بنابراین میانگین همه ضرایب ممکن است حاوی ضرایب غیر صفر بسیار بیشتری از هر راه حل منفرد باشد. من این بحث کوتاه مشابه را در اینجا یافتم، اما نمی‌خواهم با بحث اضافی در مورد انتساب چندگانه گیج شوم: ترکیب ضرایب LASSO در مجموعه داده‌های منتسب لطفاً توجه داشته باشید که هیچ پاسخی برای این سؤال پذیرفته نشد.
میانگین ضرایب LASSO برای پارتیشن بندی تصادفی مکرر داده ها
106064
من سعی می کنم یک مدل نمایی را برای برخی از داده ها برازش دهم. داده ها عبارتند از: طول موج aCDOM 350.01 0.80605 350.22 0.78302 350.43 0.78302 350.64 0.78302 350.85 0.78302 351.0302 351.0302 351.0302 351.0302 351.0302 351.0302. 351.48 0.78302 351.68 0.75999 351.89 0.75999 352.1 0.75999 352.31 0.75999 352.52 0.75999 352.739 352.739 0.73696 353.15 0.73696 353.36 0.73696 353.57 0.73696 353.78 0.73696 353.99 0.73696 354.2 354.2 353.57 0.73469 354.62 0.73696 354.83 0.73696 355.04 0.73696 355.25 0.71393 355.46 0.71393 355.67 0.71393 ~ می دانم که بهترین نوع داده برای این نوع داده مناسب است * exp(-b * c)» که در آن «a» تخمین جذب در طول موج مرجع است، «b» شیب طیفی است که مقدار مورد نظر من است، و «c» طول موج منهای طول موج مرجع (440nm) است. ). من سعی کردم از تابع nls با تخمین پارامترهای شروع به دنبال روش ذکر شده در فاکس (2002) استفاده کنم، اما خطای زیر را در nlsModel(فرمول، mf، start، wts) دریافت می کنم: ماتریس گرادیان منفرد در پارامتر اولیه تخمین ها فرمولی که من استفاده می کنم «model1 <- nls(St0104 ~ a * exp(-b * (Wavelength-440))، start = list(a=0.1, b=0.0012)، trace=T)`، حتی اگر پارامترهای شروع را به درستی محاسبه کرده باشم، نیستم. من سعی کردم به جای آن لاگ 'Y' را رسم کنم و رگرسیون خطی و چند جمله ای انجام دهم، اما می دانم که این برای این داده ها درست نیست و باقیمانده ها وحشتناک هستند. من کاملاً با R جدید هستم، اما همه چیز را امتحان کرده ام، اما این من را دیوانه می کند، آیا کسی می تواند کمک کند لطفا؟
رگرسیون غیر خطی در برازش منحنی نمایی R
106068
در راه حل این سوال (نظریه ارزش افراطی - نمایش: نرمال به گامبل)، OP دنباله $(a_n، b_n)$ را درخواست کرد به طوری که $\Phi(a_nx+b_n)$ به CDF Gumbel همگرا شود. من نه تنها نتوانستم اشتقاق در پاسخ پذیرفته شده را بفهمم (من مشتق پاراگراف آخر را نمی بینم)، همچنین کنجکاو هستم که بدانم چگونه می توان دنباله را برای توزیع هایی غیر از حالت عادی استاندارد استخراج کرد. به عنوان مثال، دنباله های موجود در مثال های 7.5 و 7.6 در این سند (صفحه 6) به نظر می رسد از هوای رقیق بیرون کشیده شده اند.
نحوه پیدا کردن $(a_n,b_n)$ برای نظریه ارزش افراطی
38770
من می‌خواهم چند معیار تشابه را برای تشخیص پرت آزمایش کنم. من برخی از داده ها را از مخزن UCI دریافت کرده ام، به عنوان مثال: سرطان سینه. آیا راه هوشمندی برای اضافه کردن نقاط پرت مصنوعی به داده‌های موجود وجود دارد؟ متشکرم.
چگونه می توان مقادیر پرت را به داده های موجود اضافه کرد؟
71406
من می دانم که ویژگی = مثبت واقعی / (مثبت واقعی + منفی کاذب) حساسیت = منفی واقعی / (مثبت کاذب + منفی واقعی) pv مثبت = مثبت واقعی / (مثبت واقعی + مثبت کاذب) منفی pv = منفی واقعی / (منفی واقعی + منفی کاذب) با این حال، فرض کنید من فقط می دانم که کدام درصد از جمعیت در یک آزمایش خاص مثبت شده است. همچنین، من شیوع آن را می دانم. چگونه می توانم ویژگی / حساسیت / مقادیر پیش بینی را در این مورد محاسبه کنم؟ سوال را می توان به این موارد تقلیل داد: با توجه به x، y، z، w مجموع تشخیص مثبت، جاهای خالی را پر کنید؟ ? x منفی؟ ? y مجموع z w
چگونه می توانم ویژگی/حساسیت/ارزش پیش بینی را تنها با شیوع و تعداد موارد مثبت پیدا کنم
113464
من سعی می کنم با استفاده از یک مثال بسیار ساده آزمون کولموگروف-اسمیرنوف را درک کنم. من مجموعه ای از مقادیر تصادفی و یکنواخت بین 0 و 1.0 ایجاد می کنم. سپس با استفاده از تابع scipy kstest آزمایش می کنم که این مقادیر از یک توزیع یکنواخت هستند. من یک مقدار D بسیار کوچک و یک pvalue نزدیک به 1.0 را انتظار دارم، اما در عوض هر بار که کد را اجرا می‌کنم، pvalueهای بسیار متفاوتی دریافت می‌کنم. چه چیزی را از دست داده ام؟ وارد کردن numpy به عنوان np import scipy a = np.random.uniform(size=4999) print(scipy.stats.kstest(a, 'uniform')) در اینجا خروجی های چند اجرای متوالی آمده است: (0.0075523161200627964, 0.007964, 0.007964, 0.007964, 0.007964, 0.007579) (0.013787195268362473, 0.29799260741344774) (0.014359046616557847, 0.25402403230845855) (0.01289444774) 0.41329007558099806) (0.011159003477582918, 0.56216895575676396)
آشنایی با آزمون کولموگروف اسمیرنوف
69624
من می دانم که از نظر ریاضی، مقادیر p باید به طور یکنواخت تحت فرضیه صفر توزیع شوند. با این حال، این فرضیه صفر (در این زمینه) چیست؟ میشه لطفا یکی به من مثال بزنه؟
درک اینکه چرا مقدار p به طور یکنواخت توزیع شده است
106060
اجازه دهید $X_1,X_2,...,X_n$ یک نمونه تصادفی از یک توزیع نرمال با میانگین $\mu$ و واریانس $\sigma^2$ باشد. من نشان دادم که $(\bar X,S^2)$ بطور مشترک برای تخمین ($\mu$,$\sigma^2$) کافی است که در آن $\bar X$ میانگین نمونه و $S^2$ است واریانس نمونه سپس با فرض اینکه $(\bar X,S^2)$ نیز کامل است، باید نشان دهم که $$\sqrt{n-1\over 2}{\Gamma ({ n-1\over 2})\over\ گاما (\frac n2)} S$$ یک برآوردگر یکنواخت حداقل واریانس بدون سوگیری برای $\sigma$ است. من فکر می کنم باید از قضیه Lehman Scheffe استفاده کنم زیرا $(\bar X,S^2)$ به طور مشترک برای $\sigma$ کافی و کامل است. اما چگونه می توانم تابعی را پیدا کنم که برای $\sigma$ بی طرف باشد که حاوی هر دو $(\bar X,S^2)$ باشد. من نمی فهمم وقتی یک **مشترک** کافی و کامل وجود دارد چگونه کار کنم.
UMVUE برای توزیع عادی $\sigma$
38776
من یک متغیر بسامد ملاقات دارم و می‌خواهم با 1) کنترل آن و 2) بررسی تعدیل‌کننده بودن آن تعیین کنم که آیا بر رابطه فرضی تأثیر می‌گذارد یا خیر. متأسفانه، این اقدام چندان حساس نبود و توزیع آن به انحراف کشیده شده است. تفکیک عبارت است از: 10٪ روزانه، 5٪ دو بار در هفته، 52٪ در هفته، 27٪ هر دو هفته یکبار و 6٪ ماهانه. شخصی پیشنهاد کرد که به دلیل توزیع (52٪ در یک دسته)، من از استفاده از آن به عنوان متغیر ترتیبی/لیکرت چیزی معنادار دریافت نمی کنم. آنها گفتند، در عوض، باید آن را به صورت هفتگی یا بیشتر (67٪) یا کمتر از هفتگی (33٪) تقسیم کنم. من نمی دانم که آیا باید این کار را انجام دهم یا نه. مقالاتی که من در مورد متغیرهای تقسیم بندی خوانده ام (مثلاً مک کالوم و همکاران، 2002) می گویند که تنها زمانی که توزیع یک متغیر شمارش به شدت منحرف شده باشد دوقطبی کردن اشکالی ندارد. فرکانس ملاقات دارای انحراف است (چولگی استاندارد = ~-2)، اما **بسیار زیاد** کج نیست. افکار؟ در حال حاضر به این فکر می‌کنم که بهتر است آن را مانند یک متغیر لیکرت در نظر بگیرم و سپس در بخش محدودیت‌ها بگویم که متغیر دارای واریانس پایین است و خیلی حساس نیست و این اعتبار یافته‌ها را محدود می‌کند. هر کمکی در این مورد عالی خواهد بود. **مقاله ای که در این باره خواندم این است:** در مورد تمرین دوگانه سازی متغیرهای کمی. مک کالوم، رابرت سی. ژانگ، شائوبو؛ واعظ، کریستوفر جی. Rucker, Derek D. Psychological Methods, Vol 7 (1), Mar 2002, 19-40
زمانی که متغیر منحرف است، دوگانه شدن
30560
من یک کلمه دارم که نشان دهنده یک دنباله DNA است و هر حرف از آن کلمه یک پایه نوکلئوتیدی است (A,T,G,C). هر حرف یک امتیاز کیفیت phred دارد. فرمول مورد استفاده برای نمره کیفیت phred $Q=-10\log_{10} P$ است که $Q$ امتیاز phred و $P$ احتمال نادرست بودن آن حرف است (به عنوان مثال، مشکلی در توالی یابی DNA). سوال من این است: **بهترین راه برای دادن نمره کیفیت به کل کلمه، به طوری که نمره phred هر حرف را در نظر بگیرد، چیست؟** یک چیزی که فکر کردم این بود که میانگین را بگیرم و دیگری اضافه کردن phred نمره می دهد.
چگونه به کل کلمه یک نمره کیفیت برای محاسبه امتیاز phred هر حرف بدهیم؟
113627
ما در تلاش هستیم تا با ترکیب آمار دو بررسی مقطعی چند ساله، یکی برای مخرج و دیگری برای صورت، نرخ رویداد X را در هر ساعت در معرض فعالیت‌های خاص (مانند رفت‌وآمد) تخمین بزنیم. با این حال ما واقعاً نمی دانیم چگونه این کار را انجام دهیم و در حال جستجو برای هر ایده ای هستیم. اولین سوال این است که آیا می توان میانگین (X/Y) و VAR (X/Y) را تخمین زد، که در آن X موارد و Y نشان دهنده ساعات قرار گرفتن در معرض است؟ روش‌های معمولی برای تخمین نسبت (به عنوان مثال روش دلتا) ممکن است در اینجا کار نکنند، زیرا X و Y از دو بررسی متفاوت هستند. ما متوجه شدیم که یک موضوع قدیمی در سایت دیگر (http://www.stata.com/statalist/archive/2011-01/msg00723.html) از نظر تئوری نشان می دهد که می توان MEAN (X /Y) را تخمین زد حتی اگر X و Y از نظرسنجی های مختلف هستند. آیا انجام این کار بسیار پیچیده خواهد بود (مثلاً وزن دادن مجدد X، وزن دادن مجدد Y... و غیره)؟ بنابراین ما به طرح B رسیدیم: در مورد فقط تخمین MEAN(X)/MEAN(Y) و از این رو VAR(MEAN(X)/MEAN(Y)) چطور؟ مطمئناً، با انجام این کار، ما در صدد محاسبه میانگین نرخ‌های فردی نیستیم، بلکه صرفاً سعی می‌کنیم نسبت بین کل رویدادها تقسیم بر کل ساعت‌های مواجهه را محاسبه کنیم، روشی که معمولاً در مطالعات اپیدمیولوژیک برای تخمین خطر در سطح جمعیت مورد استفاده قرار می‌گیرد. سپس سوال اصلی این است که در طرح B چگونه VAR(MEAN(X)/MEAN(Y)) را محاسبه کنیم؟ همچنین، آیا برآورد MEAN(X)/MEAN(Y) همان طور که فکر می کردیم ساده است، یعنی فقط MEAN(X) را با میانگین نمونه جایگزین کنید و همین کار را برای MEAN(Y) انجام دهید؟ از لطف شما متشکرم
ایده هایی برای تخمین نسبت (X و Y از نظرسنجی های مختلف)؟
30562
چگونه می توانم آزمایش کنم که آیا میانگین (مثلاً فشار خون) یک زیر گروه (مثلاً کسانی که فوت کرده اند) با کل گروه (مثلاً همه افرادی که به این بیماری مبتلا شده اند از جمله کسانی که فوت کرده اند) متفاوت است یا خیر؟ واضح است که اولی زیر گروه دومی است. از چه آزمون فرضیه ای استفاده کنم؟
چگونه می توان آزمایش کرد که آیا میانگین زیرگروه با گروه کلی که شامل زیرگروه است متفاوت است؟
112712
من با 3 متغیر {x1، x2، x3} سر و کار دارم که هر سه گسسته هستند و حاوی داده های گم شده هستند. x1 | x2| x3 | -------------- 3 | 2 | . | . | 1 | 3 | 1 | . | 2 | 3 | 2 | . | 2 | . | 1 | . | 3 | 1 | -------------- من در حال بررسی گزینه استفاده از انتساب چندگانه هستم. من قصد دارم مشاهداتی را با استفاده از توزیع مشترک دیریکله چند متغیره ایجاد کنم. آیا در مسیر درستی حرکت می کنم؟ لطفا راهنمایی کنید. در زیر کل مجموعه داده من است![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/NE2Z3.png) / ******************** ** پی***************************/ y x1 x2 x3 فرکانس پی 0 1 1 1 15 0.02078 1 1 1 1 7 0.0097 0 2 1 1 13 0.01801 1 2 1 1 9 0.01247 0 3 1 1 10 0.01385 1 3 1 1 13 0.01801 0 1 2 1 16 0.02216 1 1 2 1 15 12 1 0 1 0.01939 1 2 2 1 18 0.02493 0 3 2 1 6 0.00831 1 3 2 1 26 0.03601 0 1 3 1 13 0.01801 1 1 3 1 2216 0. 0.02493 1 2 3 1 16 0.02216 0 3 3 1 17 0.02355 1 3 3 1 15 0.02078 0 1 1 2 12 0.01662 1 1 1 0 2 02 282 18 0. 0.01108 1 2 1 2 17 0.02355 0 3 1 2 16 0.02216 1 3 1 2 11 0.01524 0 1 2 2 17 0.02355 1 1 2 0 1 2 0 102 2 0 10 0.01108 1 2 2 14 0.01939 0 3 2 2 17 0.02355 1 3 2 2 11 0.01524 0 1 3 2 11 0.01524 1 1 3 2 012355 1 0.02216 1 2 3 2 23 0.03186 0 3 3 2 11 0.01524 1 3 3 2 21 0.02909 0 1 1 3 15 0.02078 1 1 1 0 1 1 2 8 1 0 0. 0.01662 1 2 1 3 11 0.01524 0 3 1 3 10 0.01385 1 3 1 3 11 0.01524 0 1 2 3 8 0.01108 1 1 2 3 0123 0. 0.03186 1 2 2 3 11 0.01524 0 3 2 3 7 0.0097 1 3 2 3 14 0.01939 0 1 3 3 8 0.01108 1 1 3 3 5 0.0097 0.006. 1 2 3 3 16 0.02216 0 3 3 3 16 0.02216 1 3 3 3 19 0.02632
دیریکله چند متغیره برای انتساب چندگانه
83549
وزن سکه های ضرب شده پس از سال 1982 تقریباً به طور معمول با میانگین 2.46 گرم و انحراف معیار 0.02 گرم توزیع می شود. احتمال اینکه در یک نمونه تصادفی ساده 10 سکه ای که پس از سال 1982 ضرب شده است، میانگین نمونه حداقل 2.465 گرم را بدست آوریم چقدر است؟ من متوجه شدم که پاسخ 0.2148 است، اما نمی دانم چگونه نتیجه خود را تفسیر کنم. من می دانم که اگر 100 تا از این پنی ها را بگیرم، حدود 21 مورد از آنها به میانگین نمونه حداقل 2.465 منجر می شود، اما وقتی این را می گویم منطقی نیست. آیا می خواهم بگویم که من میانگین 21 پنی از این پنی ها را حداقل 2.465 گرم می کنم؟ آیا آنها به طور تصادفی میانگین می گیرند؟ چه تعبیری بهتر است؟ احتمال اینکه یک پنی به طور تصادفی انتخاب شده دارای میانگین نمونه 2.465 گرم باشد 21.48٪ است؟ وقتی این را می‌گویم، هنوز نمی‌توانم معنی کلمه را بفهمم.
سوال آمار در مورد تفسیر نتایج من برای توزیع نمونه
113626
من لیستی از 20000 ژن با مقدار p مرتبط (تعداد کل توپ های موجود در کوزه) دارم. من همچنین فهرستی از ژن‌های خاصی دارم که «هدف» مورد علاقه هستند (این‌ها توپ‌های سفید موجود در کوزه هستند). من می‌خواهم یک آزمایش فوق هندسی انجام دهم تا ببینم آیا در بین ژن‌هایی که من آن‌ها را قابل توجه می‌نامم (یعنی فراوانی بیش از حد توپ‌های سفید از توپ‌هایی که از کوزه می‌کشم) بیش از حد اهداف وجود دارد یا خیر. تا اینجای کار با «فایپر» در R آسان است. اما من می‌توانم تعداد ژن‌های مهم (تعداد توپ‌هایی که می‌کشم) را با تغییر آستانه p-value که برای نامیدن چیزی مهم استفاده می‌کنم تغییر دهم (.001، 0.01، 0.05). و غیره). چیزی که من تعجب می کنم - آیا آزمایش جایگزینی وجود دارد که فراوانی بیش از حد هدف ها (توپ های سفید) را در بالای لیست ژن های رتبه بندی شده توسط p-value بررسی کند؟ یعنی آیا می توانم این تست را بدون تعیین قطع p-value انجام دهم؟ یعنی چیزی شبیه یک تست فراهندسی تعمیم‌یافته‌تر که در آن من مجبور نیستم تعداد توپ‌هایی را که می‌کشم مشخص کنم، که یک نتیجه را برای همه تعداد ممکن توپ‌های کشیده شده محاسبه می‌کند (ژن‌های انتخاب شده)؟ با تشکر
آستانه لغزشی برای تست هایپرهندسی
3244
می دانم که احتمالاً اکثر شما احساس می کنید که Google Docs هنوز یک ابزار ابتدایی است. این نه متلب یا R و نه حتی اکسل است. با این حال، من از قدرت این نرم افزار مبتنی بر وب که فقط از قابلیت عملیاتی یک مرورگر استفاده می کند (و با بسیاری از مرورگرهایی که به طور بسیار متفاوت کار می کنند سازگار است) گیج شده ام. مایک لارنس، فعال در این انجمن، صفحه گسترده ای را با استفاده از Google Docs با ما به اشتراک گذاشته است و کارهای بسیار زیبایی را با آن انجام می دهد. من شخصاً یک چارچوب آزمایش فرضیه کاملاً کامل (شامل آزمایش‌های پارامتری و ناپارامتریک متعدد) را که در ابتدا در اکسل در Google Docs انجام شده بود، تکرار کردم. من علاقه مندم که اگر یکی از شما Google Docs را امتحان کرده باشد و در برنامه های جالب آن را به حد خود رسانده باشد. من همچنین علاقه مند به شنیدن اشکالات یا نقص هایی هستم که در Google Docs با آن مواجه شده اید. این بیشتر از هر چیزی یک نظرسنجی است.
آیا برخی از شما از صفحه گسترده Google Docs برای انجام و به اشتراک گذاری کار آماری خود با دیگران استفاده می کنید؟
83546
به من گفته می شود که دلیل زیر نادرست است، اما نمی توانم دلیل آن را بفهمم. $X_{(1)} را در نظر بگیرید، \ldots، X_{(n)}$ آمار سفارش یک نمونه تصادفی با اندازه $n$ است. من می خواهم نشان دهم که آمار سفارش کافی است. بنابراین من یادداشت کردم: $$P(X_1, \ldots, X_n|X_{(1)}, \ldots, X_{(n)}) = \tfrac{1}{n!}$$ همانطور که بردار داده شده است آمار سفارش، $n!$ امکانات برای نمونه $X_1، \ldots، X_n$ وجود دارد. همانطور که در یک i.i.d هستیم. در این صورت، هر بردار برابر است، و بنابراین تساوی به دست می آید. به من گفته می شود که این به خصوص در مورد متغیرهای تصادفی گسسته درست نیست. من نمی بینم چقدر اشتباه است. هر توضیحی عالی خواهد بود.
کافی بودن آمار سفارش
112718
برای سازگاری برآوردگر OLS برای مدل خطی $$ y_i = \beta^T x_i + \epsilon_i, \; i = 1,\cdots, n, $$ مفروضات مدل معمولاً (آنهایی که من با آنها آشنا هستم) هستند ثابت و ارگودیک 2. $\mathbb{E}[x_i \epsilon_i] = 0$ برای همه $i$. سپس LLN سازگاری می دهد. حال اگر یکی از رگرسیون‌ها، مثلاً $(x_i)_1$، آیا $i$--- روند زمانی خطی قطعی است اگر $i = t$ باشد و یک سری زمانی داشته باشیم، آیا همچنان سازگاری ممکن است؟ من فرض می‌کنم یک ترفند اجرای رگرسیون بر روی اولین تفاوت‌ها است. $ y_i - y_{i-1} = \beta^T (x_i - x_{i-1}) + (\epsilon_i - \epsilon_{i-1}) , \; i = 1،\cdots، n، $ و شرط متعامد اضافی را فرض کنید $\mathbb{E}[\epsilon_i x_{i \pm 1}] = 0$. آیا راه های استاندارد/پیچیده تری برای مقابله با این موضوع وجود دارد؟ در مورد روندهای زمانی عمومی تر---دوره ای، نمایی و غیره چطور؟
سازگاری OLS در حضور روند قطعی
89729
من تخمین IV و خطای استاندارد تخمین IV را محاسبه کرده ام. چرا به خطای استاندارد آن اهمیت می دهم؟
خطای استاندارد تخمین IV من به من چه می گوید؟
30565
**آیا راه آسانی برای به دست آوردن کوواریانس پارامترها از برازش رگرسیون محدود وجود دارد؟** من از تابع PCLS در بسته MGCV در R برای برازش رگرسیون محدود استفاده می‌کنم، با این حال من به روش‌های دیگر باز هستم. محدودیتی که من اعمال می کنم این است که ضرایب باید مثبت باشد.
چگونه می توان ماتریس کوواریانس را برای برازش رگرسیون محدود به دست آورد؟
79871
من در چند سال گذشته در حال مطالعه فیزیک انرژی بالا (HEP) بوده ام، اما اخیراً کار روی پروژه ای در زمینه تصویربرداری پزشکی را آغاز کرده ام. من کمی متعجب شده‌ام (کاملاً نمی‌دانستم که ۹۵٪ معمولاً استفاده می‌شود) از یافتن گزارش‌های مطالعات عمده با استفاده از ۹۵٪ cl. در HEP، کنوانسیون تا 3 SD، اگر نه 5، خیلی نگران نباشید. من متشکرم در «دنیای واقعی» چنین موقعیت‌های ایده‌آلیستی همیشه نمی‌توانند ایجاد شوند، اما با وجود این، 95 درصد به نظر سطح بالایی از اعتماد به نفس نمی‌رسد. دلیل این امر چیست؟ آیا این امر صرفاً عملی به نفع تکمیل به موقع است؟ من قبلاً با یکی دو آزمایش مواجه شده‌ام که حداقل در یافته‌هایشان غیرقابل درک به نظر می‌رسند. آیا کسی می تواند یک کتاب خوب برای پرش به ریاضیات این موضوع را توصیه کند؟ من یک مقدمه نسبتاً کیفی قرض گرفته‌ام، اما چیزهایی مانند محاسبات توان و منحنی‌های کاپلان مایر اساساً برای من کاملاً جدید هستند.
اهمیت کارآزمایی های بالینی
47495
* VAR ثابت (خودرگرسیون برداری) چیست؟ * آیا یک VAR با متغیرهای غیر ثابت می تواند ثابت باشد؟ * چگونه ثابت یا غیر ثابت بودن VAR را آزمایش می کنید؟ (به عنوان مثال در زبان R در صورت امکان / قابل اجرا).
VAR ثابت چیست؟
3249
من می‌خواهم اقلام خرده‌فروشی را با استفاده از هموارسازی نمایی پیش‌بینی کنم (بر اساس هفته). من در حال حاضر در نحوه محاسبه، ذخیره و اعمال شاخص های فصلی گیر کرده ام. مشکل این است که تمام نمونه هایی که من پیدا کرده ام با نوعی فصلی بودن ساده سروکار دارند. در مورد من مشکلات زیر را دارم: 1\. فصل ها هر سال در یک هفته رخ نمی دهند: آنها متحرک هستند. Mardi-gras، لنت، عید پاک، و چند مورد دیگر. 2\. فصل هایی هستند که بسته به سال تغییر می کنند. به عنوان مثال، یک فصل تعطیلات ملی وجود دارد. بسته به اینکه تعطیلات نزدیک به آخر هفته باشد، مشتریان شهر را ترک خواهند کرد یا نخواهند کرد. بنابراین به نوعی شبیه به داشتن دو فصل است: یکی که مشتریان شهر را ترک می کنند و دیگری که در آن شهر را ترک نمی کنند. 3\. گاهی اوقات دو (یا 3) فصل به طور همزمان رخ می دهد. به عنوان مثال، ما فصل ماردی گراس را داشتیم که همزمان با فصل ولنتاین اتفاق می افتاد. 4\. گاهی اوقات فصل ها از نظر مدت زمان تغییر می کنند. به عنوان مثال، «فصل هالووین» اوایل امسال شروع شد. کریسمس نیز نمونه دیگری است که به نظر می رسد هر سال زودتر شروع به حمل محصولات می کنیم. به نظر من باید راهی برای تنظیم نوعی پروفایل فصلی پیدا کنم که بسته به سناریوی خاص به نوعی اضافه می شود تا شاخص فصلی صحیح را بدست آوریم. آیا این منطقی است؟ کسی میدونه کجا میتونم اطلاعات عملی در مورد نحوه انجام این کار پیدا کنم؟ ممنون، ادگارد
محاسبه شاخص های فصلی برای فصلی بودن پیچیده
72988
من در درک مطالب قبلی برای محاسبه LDA که در صفحه 7 Blei (2007) بیان شده است، مشکل دارم. از دیدگاه من، دقیقاً مطابق با قضیه بیز نیست، همانطور که در اینجا توضیح داده شد. آیا کسی می تواند یک توضیح ساده در مورد چگونگی استخراج این فرمول به من بدهد؟ من واقعا نمی دانم که چگونه $p(\beta، \theta، z، w)$ با $P(B|A)P(A)$ در قضیه بیز مطابقت دارد. برای هر کمکی بی نهایت سپاسگزار خواهم بود.
تخصیص دیریکله نهفته - درک پسین
76757
بنابراین من مقداری داده دارم... > head(df) y a b c d e f g 1 9.393915 نه نه خیر نه بله نه WAW9H 2 9.936906 نه نه نه نه بله نه WAW9H 3 7.573025 نه بله نه نه نه WAW9H 4 نه 9.1239 بله 5 13.569253 نه بله نه نه بله نه WAW9H 6 10.468927 نه خیر نه بله نه WAW9H و من مناسب این مدل هستم... > mod <\- lm(y ~ a + b + c + d + e + f + g + a: g + b:g + c:g + d:g + e:g + > f:g، داده = df) اما برخی از ضرایب هستند NA: > خلاصه (mod) فراخوانی: lm(فرمول = y ~ a + b + c + d + e + f + g + a:g + b:g + c:g + d:g + e:g + f:g، داده = df) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -16.2662 -1.8112 0.0096 1.8455 28.3563 ضرایب: (55 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای t مقدار Pr(>|t|) (قطع) 9.855044 0.128512 76.686 < 2e-16 *** بله 0.152247 0.341803 0.445 0.656016 bYes 1.5018 0.656016 1.501. 2e-16 *** cYes 0.956878 0.130900 7.310 2.71e-13 *** . . . aYes:gBJK2U NA NA NA NA من فکر می کنم این مربوط به نبود داده های کافی برای تخمین این ضرایب باشد (BJK2U را بررسی کنید) > table(data.frame(df$a, df$g)) df.a AS2CD BJK2U . . . شماره 2096 2 . . . بله 84 0 . . . چگونه می توانم یک مدل کاهش یافته را بدون این ضرایب مناسب کنم؟ چگونه می توانم برخی از سطوح فاکتور g را حذف کنم؟ دلیل اینکه می‌خواهم این کار را انجام دهم این است که هنگام فراخوانی تابع ()predict در این مدل اخطار دریافت نمی‌کنم. من نمی خواهم تصادفاً سعی کنم یک چیز غیرقابل برآورد را پیش بینی کنم. پوزش بابت عدم تکرارپذیری در این مثال. > سطوح (df$g) [1] AS2CD BJK2U CAT2N CER CG3N CH2XF CMU5P CV7D DDS2S DGP3A DRB5P DRG3E DTL4N EAR9W ES6T GEM3M GRU6N JHM7Q JJA9H [20] JPR5K JSH5N JSR7N MAK4Z MKW2Y MS7HA NPC8A PAR8B PRK5R RCR3E RDP5P REO4X RMW5S RR RS5FG SAO4R SAS3K SDL4V SK7BQ [39] TAS8N WAW9H WB4Z
ماتریس های مدل تخمینی و کمتر از رتبه کامل
89724
من فرم زیر را برای توزیع مشترک $$ دارم P(w, \lambda, \phi \vert y) = P(\phi) \times P(w \vert \lambda) \times P(\lambda) \times \ prod_{i=1}^{N}P(y_i \vert w_i، \phi، \lambda) $$ من مقداری تقریبی برای $w$ دارم و کاری که می‌خواهم انجام دهم پارامترهای توزیع های $\lambda$ و $\phi$ را به روز می کند. برای استفاده از ویژگی های قبلی مزدوج، من راه اندازی زیر را دارم. $\lambda$ به عنوان توزیع گاما مدل‌سازی می‌شود که در آن $a$ و $b$ به ترتیب مقیاس و پارامترهای نرخ توزیع هستند. $$ P(\lambda; a, b) = \frac{b^a \lambda^{a-1} \exp{(-b\lambda)}}{\Gamma(a)} ​​$$ گزارش پسین روی $\lambda$ می‌توان به صورت زیر نوشت: $$ \log P(\lambda; a, b) = (a-1)\log(\lambda) -b\lambda + const(\lambda) $$ $\phi$ که نویز _precision_ است نیز به عنوان توزیع گاما مدل‌سازی می‌شود و log پسین را می‌توان به صورت مشابه نوشت: $$ \log P(\phi; s, t) = (s- 1)\log(\phi) -t\phi + const(\phi) $$ گزارش تبدیل شده قبل از $w$ (که به $\lambda$ بستگی دارد: $$ است \log P(w \vert \lambda) = \frac{1}{2}(\log(\lambda \Lambda) - w^T(\lambda \Lambda)w) + const (\lambda, w) $$ این فقط یک میانگین MVN است که _precision_ به صورت $\lambda \Lambda$ تعریف شده است در نهایت، عبارت log-likelihood را می توان به صورت: $$ \log نوشت P(y \vert x, w, \phi) = \frac{N}{2}\log(\phi) -\frac{\phi}{2} \sum_{i=1}^{N}(y_i - t(x_i, w_i)) + const(w, \phi) $$ x و y مشاهده می شوند و t یک تبدیل غیر خطی با $w$ است که پارامتر مورد نظر است من می‌خواستم برای $w$ معین، توزیع حاشیه‌ای خلفی را برای $\lambda$ بدست بیاورم. اکنون log پسین من به صورت (با نادیده گرفتن شرایط ثابت برای لحظه) داده می شود: $$ \mathcal{L} = \log P(\lambda; a, b) + \log P(\phi; s, t) + \ log P(w \vert \lambda) + \log P(y \vert x, w, \phi) $$ بنابراین، من فکر کردم که می‌توانیم شرط کنیم $w$ آن را به عنوان یک ثابت در نظر بگیریم و ادغام کنیم $\phi$ و ما باید پارامترهای $\lambda$ را بدست آوریم زیرا قسمت پسین نیز به دلیل خواص مزدوج باید گاما توزیع شود. بنابراین، چگالی خلفی در $\lambda$ این است: $$ P(\lambda) = \mathcal{L}\:d\phi $$ اکنون، با انجام ادغام، چیزی پیچیده به عنوان: $$ \phi((a -1)\log\lambda - b\lambda) + (s-1)\phi(log \phi - 1) -\frac{t\phi^2}{2} + \phi (\frac{1}{2}(\log(\lambda \Lambda) - w^T(\lambda \Lambda)w)) + \frac{N}{2}\phi(\log\phi - 1) -\frac{\phi^2}{2}(y-t(x, w))^T(y-t(x, w)) $$ بنابراین اساساً به چیزی پیچیده تبدیل می شود و برای من روشن نیست چگونه می توان توزیع گامای خلفی را از آن استنباط کرد که باعث می شود فکر کنم با استراتژی به روز رسانی خود اشتباه کرده ام. آیا کسی می تواند نظر دهد که آیا به روز رسانی اینگونه باید امکان پذیر باشد؟ فکر می‌کردم باید اینطور باشد، زیرا این موضوع استفاده از پیشین‌های مزدوج است، اما من در مورد اشتباهی که مرتکب شده‌ام بی‌تفاوت هستم. من تمایل دارم فکر کنم که مشکل در مرحله $$ P(\lambda) = \mathcal{L}\:d\phi $$ نهفته است، اما مطمئن نیستم که مشکل اصلی چیست.
انجام به روز رسانی پارامترها در توزیع گاما
18187
من می خواهم 1000 شبیه سازی X-Y$ را اجرا کنم که در آن X$ میانگین 100 مشاهدات تصادفی با میانگین 69.5 و SD 2.9 است و $Y$ میانگین 100 مشاهده تصادفی با میانگین 63.9 و SD 2.7 است. من کارهای زیر را انجام دادم: x <- rnorm(100، 69.5، 2.9) y <- rnorm(100، 63.9، 2.7) و اکنون می‌خواهم 1000 شبیه‌سازی $X-Y$ را اجرا کنم.
چگونه تفاوت های شبیه سازی شده میانگین ها را به طور مکرر محاسبه کنیم؟
47497
من در حال ایجاد یک GLMM بر اساس آزمایشی هستم که در آن هر موضوع 2 تکرار دارد. در برخی موارد، هر چند فقط داده‌هایی برای یکی از موضوعات داده شده وجود دارد که برای اکثر موارد تکرار می‌شود، داده‌هایی برای هر دو وجود دارد. آیا هنوز می توانم وجود موضوع را به عنوان یک اثر تصادفی توجیه کنم؟ ممنون جاناتان
مقادیر از دست رفته در GLMM
103114
اخیراً تعداد زیادی از تنظیم کننده ها به وجود آمده اند. حوزه انتخاب مدل علاقه زیادی را ایجاد کرده است. خیلی وقت‌ها می‌خواهیم پیچیدگی مدل را کنترل کنیم، اما این کار را با ترویج نوعی ساختار مطلوب (پراکندگی، پراکندگی گروهی، رتبه پایین، ...) انجام می‌دهیم. . از هرگونه مرجع مرتبط قدردانی خواهد شد. به سختی می توان با همه تنظیم کننده های موجود (قاعده سازهای القا کننده پراکندگی، تنظیم کننده های هنجار مختلط، تنظیم کننده های هنجارهای ماتریسی، تنظیم کننده های هنجار اتمی، ...) همراه بود.
درخواست مرجع: منظم سازی
112713
می‌دانم که می‌توانید برای پارامتر C (-c) در libSVM با مرور مقداری که از 10^-5 به 10^5 می‌رود، جستجوی شبکه‌ای انجام دهید. چگونه باید پارامتر اپسیلون بهینه (-p) را پیدا کنم؟ آیا انجام جستجوی شبکه ای از پیش فرض p = 0.1، در توان های مختلف 10 بهترین راه است؟ آیا به طور بحرانی به هسته وابسته است؟ (من فکر می کنم اینطور است، زیرا برای یک هسته خطی یک مقدار اپسیلون ممکن است نتیجه متفاوتی نسبت به RBF بدهد). برای ارائه برخی زمینه ها، مجموعه داده من ویژگی تصویر مربوط به حوزه بینایی کامپیوتر است، بنابراین فضاهای ویژگی بین 512 تا 4096 در ابعاد در هر نمونه در نوسان هستند.
چگونه باید جستجوی شبکه ای برای گاما در SVM انجام دهم؟
85878
من می دانم که قدرت احتمال رد صحیح فرضیه صفر است، اما فقط می خواهم بررسی کنم که تفسیر من از آن با تفاوت قابل تشخیص درست است. آزمون 2 نمونه ای را با فرض صفر در نظر بگیرید که تفاوتی بین میانگین های گروهی وجود ندارد. درک من این است که با قرار دادن حداقل اختلاف قابل تشخیص مثلاً 5٪، با توان 80٪، در محاسبه اندازه نمونه، سپس در ارتباط با اندازه نمونه محاسبه شده این بدان معناست که: > اگر تفاوت واقعی 5٪ باشد، آزمایش من احتمال 80 درصد > رد فرضیه صفر را خواهد داشت. اگر تفاوت واقعی 6% باشد، احتمال رد فرضیه صفر کمی بیشتر است. آیا این درست است؟
تفسیر قدرت و تفاوت قابل تشخیص
108899
آیا کسی می تواند نظریه (یا فرمول) را در مورد محاسبه Sum Sq (پررنگ در زیر) مربوط به موارد رگرسیون توضیح دهد؟ پیوند ویکی پدیا مقدمه ای در مورد نحوه محاسبه مجموع مجموع، مدل و رگرسیون مربع ها ارائه می دهد. آیا شبیه محاسبه Sum Sq است؟ آیا مجموع رگرسیون مربع ها برابر است با (0.000437+ 0.002545+ 0.060984+ 0.062330+ 0.060480)؟ TraingData <- data.frame(x1 = c(3.532,2.868,2.868,3.532,2.868,2.536,3.864), x2 = c(1.992,1.992,1.328,1.328,1.328,1.6 = 6.6) c(9.040330254,8.900894412,8.701929163,9.057944749, 8.701929163,8.74317832,9.10859913) lm.sol <- lm(y~1+x1+x2+I(x1^2)+I(x2^2)+I(x1*x2), data=TraingData) anova(lm.sol) تحلیل واریانس پاسخ جدول: y Df * *Sum Sq** میانگین مربع F مقدار Pr(>F) x1 0.000437 0.000437 0.1055 0.8001 x2 1 0.002545 0.002545 0.6141 0.5768 I(x1^2) 1 0.060984 0.060984 14.7162 0.1620 0.1623 I(x230) 0.062330 15.0409 0.1607 I(x1 * x2) 1 0.060480 0.060480 14.5945 0.1630 باقیمانده 1 0.004144 0.004144
تقسیم مجموع مربعات (ANOVA)
30564
من باید لیستی از متغیرهای تصادفی $\bf{x}$ را با توجه به محدودیت‌هایی ایجاد کنم که می‌تواند به شکل $\bf{E}x=b$ که $\bf{E}$ یک $m \times است بیان شود. n ماتریس $ اگر $\bf{x}$ دارای ورودی $n$ باشد. در تمام مواردی که من با آنها سر و کار دارم، $n >> m$، برای مثال $n$ حدود 14000 و $m$ 50 خواهد بود. مطمئن نیستم از چه روشی برای نمونه گیری تصادفی استفاده کنم، چه معمولی یا یکنواخت، مشخص نیست که کدام یک برای مشکلی که می‌خواهم حل کنم بهترین است، اما من نیاز دارم که همه متغیرها از توزیع‌هایی با میانگین و دامنه/واریانس یکسان نمونه‌برداری شوند. کاری که من برای حل این مشکل انجام داده‌ام این است که $\bf{E}$ را به شکل ردیفی کاهش می‌دهم، همه متغیرهای مربوط به ستون‌های سمت راست آخرین محور را روی مقادیر تصادفی تنظیم می‌کنیم و سپس معادله ماتریس مربع باقی‌مانده را حل می‌کنیم. . با این حال، یک مشکل وجود دارد، برای حل تساوی ماتریس مربع، مقادیر از قبل تنظیم شده را از سمت راست کم می کنم. متأسفانه، واریانس ها نیز اضافه می شوند، بنابراین 50 مقدار آخر من به شدت متفاوت است، که متأسفانه در این مشکل غیرقابل قبول است. آیا راه بهتری برای این کار وجود دارد؟ من نمی توانم راهی برای اصلاح روش فعلی که استفاده می کنم فکر کنم. من از R استفاده می کنم.
ایجاد متغیرهای تصادفی برای ارضای محدودیت ها
47494
من می‌خواهم شاخص‌های روند (به‌دست‌آمده با روش‌های مختلف با اشاره به یک موضوع، با فرض عدم تفاوت معنی‌دار) دو سری زمانی متفاوت و ترکیب نرخ تغییر سالانه و خطای استاندارد را ترکیب کنم. برای ترکیب شاخص‌های سالانه ($Y$) و خطاهای استاندارد ($S$) در دوره همپوشانی، از فرمول‌های زیر استفاده می‌کنم: $$ \begin{aligned} Y^*&=(Y_1/S_1^2+Y_2/S_2^ 2)\cdot S_1^2\cdot S_2^2/(S_1^2+S_2^2) \\\ S^*&=\sqrt{S_1^2+S_2^2/S_1^2\cdot S_2^2} \end{aligned} $$ در اینجا یک مجموعه داده نمونه با تخمین روند به دست آمده از معادلات تخمین تعمیم یافته است (من ندارم داده های خام که برآوردها از آن محاسبه می شوند): سال Y1 S1 Y2 S2 1990 91.3 12.0 NA NA 1991 81.8 8.7 NA NA 1992 65.9 6.9 NA NA 1993 80.8 8.0 NA NA 1994 81.7 8.1 NA NA 1995 90.0 8.5 NA NA 1996 113.7 NA 113.7 NA 1996 113.7 NA 10.2 NA NA 1998 139.9 11.6 NA NA 1999 120.0 9.9 NA NA 2000 130.1 10.6 NA NA 2001 115.1 9.4 NA NA 2002 NA 2002 9.203. 7.5 NA NA 2004 105.8 8.9 NA NA 2005 111.0 9.5 85.7 7.2 2006 100.0 0 100.0 0 2007 105.3 9.4 104.0 9.5 104.0 104.0 2006 6.1 5.5 2009 117.0 10.8 111.5 6.2 2010 107.0 10.4 108.5 6.1 حالا، من می خواهم تخمینی از نرخ ترکیبی سالانه تغییر و خطای استاندارد آن برای دوره زمانی 1998 تا 2008 را دریافت کنم.
چگونه می توانم نرخ تغییرات سالانه را برای برآوردهای روند ترکیبی دریافت کنم؟
18185
این مثال از فصل اول گلمن و هیل 2007 است: > > نسبت تولد دختر در وین برای هر ماه > در سال های 1908 و 1909 (از میانگین 3900 تولد در ماه) در زیر آمده است: >> >> . 4777.4875.4859.4754.4874.4864.4813.4787. .4895 .4797 .4876 .4859 .4857 .4907 .5010 .4903 .4860 .4911 .4871 .4725 .4822 .4870 .4823 .4973 داده های دختر در پوشه >> فون میزس (1957) از این نسبت ها استفاده کرد تا ادعا کند که نسبت های جنسی کمتر از آن چیزی است که به طور تصادفی انتظار می رود متغیر است. >> >> انحراف استاندارد این نسبت ها را محاسبه کنید و با انحراف معیاری که در صورتی که جنسیت نوزادان به طور مستقل و با احتمال ثابت در طول دوره 24 ماهه تعیین شود، مورد انتظار است مقایسه کنید. * * * انحراف معیار این است: 0.064 من نمی دانم چگونه انحراف استاندارد مورد انتظار را محاسبه کنم؟ آیا باید از مدل دوجمله ای استفاده کنم؟ اما احتمالات از کجا می آیند؟ ویرایش: مرحله بعدی ارزیابی این است که آیا انحرافات مشاهده شده (0.0064) و شانس (0.0080) تفاوت قابل توجهی دارند یا خیر. تمرین یک اشاره می کند: تحت مدل تصادفی، واریانس واقعی باید دارای توزیعی با مقدار مورد انتظار برابر با واریانس نظری و متناسب با یک chi^2 با 23 درجه آزادی باشد. دو انحراف به طور قابل توجهی متفاوت هستند. تنها راه حلی که می توانم به آن دست یابم این است (مشاهده-منتظره^2)/ انتظار = (0.0064-0.0080)^2/0.0080 = 0.00032 و سپس این را با توزیع chi^2 با 23 درجه آزادی مقایسه کنید. آیا این روش درستی است؟
انحراف استاندارد مورد انتظار را از داده های نسبت محاسبه کنید
83548
من اطلاعات سری قیمت طلا را دارم. من می خواهم پیش بینی سری قیمت طلا را انجام دهم. ابتدا سری با STL تجزیه می شود و سپس هر جزء با استفاده از روش GRNN و تتا پیش بینی می شود. روش تتا برای پیش بینی مولفه روند استفاده خواهد شد. اگر بخواهم از تابع ()thetaf استفاده کنم، آیا می توانم تابع را مستقیماً روی مولفه روند اعمال کنم تا پیش بینی مولفه روند را بدست بیاورم؟ متشکرم.
پیش بینی مولفه روند با استفاده از روش تتا
70517
من در حال انجام رگرسیون لجستیک هستم که در آن داده های نمونه وزنی دارم. آیا هنگام انجام رگرسیون لجستیک باید گزینه وزن را روشن یا خاموش کنم؟
نمونه وزنی و رگرسیون لجستیک
89722
من می‌خواهم مدلی به شکل $z = k x^\alpha y^\beta$ را به برخی از داده‌هایی که در اختیار دارم قرار دهم (این یک مدل گرانشی فضایی است). اکنون می‌دانم که می‌توانید گزارش‌های هر دو طرف را بگیرید و یک رگرسیون خطی تنظیم کنید $\log z = \log k + \alpha \log x + \beta \log y$ اما دو مشکل وجود دارد: 1. آیا این فرضیات OLS را نقض می‌کند. اگر $\log x$ و $\log y$ توزیع نرمال نداشته باشند رگرسیون؟ 2. برخی از $z$s من صفر هستند - چگونه با آن برخورد کنیم؟ **ویرایش** در پاسخ به سوال whuber. این مدلی است از تعداد افراد از هر یک از مناطق مختلف به یک رویداد. $x$ جمعیت ناحیه و $y$ (میانگین) فاصله (از هر ناحیه) است - بنابراین من انتظار دارم $\alpha \حدود 1$ و $\beta < 0$. $z$ از نظرسنجی زیر 1٪ از بیش از 100 هزار بازدیدکننده نمونه برداری شده است. من علاقه مند به تخمین هایی هستم که 99٪ باقیمانده بازدیدکنندگان از کجا آمده اند، که برای هیچ منطقه ای انتظار $z=0$ ندارم، اما در داده های نمونه محدود $z$ گاهی اوقات صفر است زیرا افراد نظرسنجی انجام ندادند. اتفاقاً با کسی از آن منطقه ملاقات نکردم. اگر کسی نظری در مورد اینکه چگونه موارد بالا انتظارات را در مورد توزیع خطا در $z$ تغییر می‌دهد و در نتیجه بهترین راه برای تطبیق با مدل را تغییر می‌دهد، مایلم آن را بشنوم. همانطور که انتظار $a \تقریبا 1$ را داشتم، حداقل مربعات غیرخطی را با $a$ ثابت در 1 امتحان کردم، اما این منجر به واریانس بسیار بد در $k$ شد ($\sigma_k > k$). من از آن زمان GLM را با یک تابع پیوند پواسون تجهیز کردم که $k$ و $\beta$ معقول می دهد اما $\alpha \تقریباً 0.85$ - عالی نیست، اما فقط یک مدل خشن است بنابراین می توانم با آن زندگی کنم.
برازش یک مدل خطی ورود به سیستم (یا تعمیم یافته؟).
18184
با توجه به دنباله DNA $L$، من به دنبال توزیعی برای مدل کردن موقعیت های شروع بلوک های $k$ با طول $w$ هستم. من شروع به بررسی در یک فرم مجزا از توزیع دیریکله می کنم، اما کنجکاو بودم که آیا هر یک از شما تا به حال با مشکل مشابهی روبرو شده اید و چگونه آن را حل کرده اید. بنابراین، هر ایده ای؟
توزیع نقاط شروع برای بلوک ها در DNA
72981
من در حال حاضر یک چارچوب داده با 98 مشاهده و 107 متغیر دارم. همه متغیرها عددی هستند، اما یک متغیر باینری است (بله یا خیر). هدف من تعیین همبستگی و/یا متغیری است که بیشترین تفکیک را بین نمونه‌های بله و خیر دارد. من از تابع زوج () برای انجام این کار استفاده کرده ام، اما فقط می توانم چند متغیر را در یک زمان انجام دهم. آیا راهی برای تعیین اینکه کدام همبستگی بیشترین تشخیص را بین بله و نه دارد وجود دارد؟ برای روشن کردن - جدول من 98 مشاهده و 107 متغیر است، اما انجام یک ماتریس همبستگی با تابع جفت قادر به جا دادن همه متغیرها نیست. من از این تابع استفاده کرده ام: جفت (x[70:80]، ch=21، bg=c(قرمز، سبز)[unclass(x$outcome)])
چگونه می توان متغیری را (از بین بسیاری از متغیرها) که می تواند بین گروه ها تمایز قائل شود شناسایی کرد؟
83097
من اطلاعات زیر را در این سایت خوانده ام و مطمئن نیستم که آیا واقعاً درست است (یا اینکه آن را اشتباه تفسیر می کنم): > رویدادهایی که تصادفی هستند کاملاً قابل پیش بینی نیستند، اما دارای قاعده مندی های طولانی مدت هستند که می توانیم آنها را توصیف کنیم و با استفاده از احتمال کمیت کنید در مقابل، رویدادهای تصادفی لزوماً دارای قاعده مندی طولانی مدت نیستند. > علاوه بر این، اصطلاح احتمال را به رویدادهایی محدود می کنیم که می توانیم برای آنها > همه نتایج ممکن را مشخص کنیم. این که چگونه یک سکه منصفانه هنگامی که به شدت پرتاب می شود زمین می افتد > نمونه ای متعارف از یک رویداد تصادفی است. نمی توان به طور کامل پیش بینی کرد که آیا سکه به سر می رسد یا دم. با این حال، در پرتاب‌های مکرر، کسری از دفعاتی که سر سکه فرود می‌آید تا سقف 50 درصد کاهش می‌یابد. > نتیجه یک پرتاب فردی کاملاً قابل پیش بینی نیست، اما > رفتار میانگین بلندمدت قابل پیش بینی است. بنابراین منطقی است که نتیجه پرتاب یک سکه منصفانه را تصادفی در نظر بگیریم. بیایید 100000 آزمایش پرتاب سکه را در مجموع و یک سکه کاملا منصفانه فرض کنیم. اگر مشاهده کنیم که در 1000 کارآزمایی اول، Heads 600 بار و Tails 400 بار اتفاق افتاده است، آن‌چه که پاراگراف بالا به ما می‌گوید این است (راهی که من این را درک می‌کنم): می‌توانیم پیش‌بینی کنیم که در مقطعی، در 99000 آزمایش بعدی (و شاید برای تعداد نسبتاً کوتاهی از آزمایش‌ها، Tails بیشتر از Heads شروع به آمدن کند تا نتیجه نهایی (از 100000) پرتاب) تقریباً 50000 سر و 50000 دم خواهد بود. آیا این تفسیر صحیح است یا چنین قاعده قابل پیش بینی معتبر است؟ اگر بله، آیا راهی برای نشان دادن این موضوع با روش های بیزی وجود دارد؟ (این یک تمرین دانشجویی نیست. من فوق دکترای بیوانفورماتیک هستم و احتمالاً کمی گیج هستم.)
رفتار بلندمدت در آزمایش پرتاب سکه
47498
من می خواهم دو توزیع را با هم مقایسه کنم تا ببینم آیا آنها تفاوت قابل توجهی دارند یا خیر. آنها تکمیل زمان کار را نشان می دهند (بنابراین از 1 تا حدود 1000 ثانیه متغیر است) در دو ماه مختلف. آنها به طور معمول توزیع نمی شوند. می‌خواهم ببینم که آیا گرایش‌های مرکزی آن‌ها به‌طور قابل‌توجهی متفاوت است (در نگاه اول حالت، میانگین و میانه بین دو ماه بسیار نزدیک به نظر می‌رسد، فقط ۳ تا ۴ ثانیه تفاوت دارند)، اما همچنین ببینم آیا شکل‌های آنها شبیه به هم هستند یا نه (دوباره، در نگاه اول، آنها شبیه به هم هستند). من در حال حاضر این تجزیه و تحلیل را با SPSS 20 انجام می دهم. من تست من ویتنی برای آزمایش گرایش های مرکزی و آزمون کولموگروف-اسمیرنوف برای شکل توزیع دارم، (اگرچه خوانده ام که آزمون K-S یک تست مقایسه کلی برای توزیع ها). همچنین در ماه اول 300000 مشاهده و در ماه دوم 122000 مشاهده دارم. بنابراین، داده های زیادی ... اما نامتناسب. آیا این مسئله مانعی برای اجرای این آزمایشات، برابر نبودن حجم نمونه هاست؟ من هر دو Mann-Whitney و K-S را اجرا کردم و به نظر می رسد که هر دوی آنها را رد می کنند. با توجه به حجم نمونه خود چقدر باید به نتایج اعتماد کنم؟ آیا تست های جایگزینی را پیشنهاد می کنید؟ با تشکر
آزمون U Mann-Whitney و آزمون K-S با حجم نمونه نابرابر
70759
در داده های طولی خود، ابتدا یک مدل با دو افکت ثابت، session.week و sync می سازم. اولی فقط متغیر زمان است. من در واقع دو سوال فرعی دارم: _**(1) اگر متغیر زمان مهم نباشد چه؟ آیا می توانم آن را حذف کنم؟_** وقتی کد زیر را با کیفیت R اجرا می کنم.Model.1<- lmer(کیفیت ~ session.week + sync + (1|group.name/student.id), data = dfSubset) pvals .fnc(quality.Model.1) چیزی که من بدست می‌آورم تخمین ثابت $ زیر است Pr(>|t|) (Intercept) 3.3166 2.9966 0.9498 4.6601 0.0154 0.0000 session.week -0.0458 -0.0265 -0.2369 0.1867 0.1867 0.71338 0.71320 0.71320 0.71320 0.713206. 0.1026 3.7183 0.0244 0.0206 $ تصادفی نام گروه ها Std.Dev. MCMCmedian MCMCmean HPD95lower HPD95upper 1 student.id:group.name (Intercept) 0.3303 0.1417 0.1535 0.0000 0.3912 2 group.name (Intercept) 0.0000 0.19740.3000 0.1975 3 Residual 0.6365 0.6798 0.6859 0.5408 0.8552 همانطور که می بینید، متغیر زمان مهم نیست، اما همگام سازی معنی دار است (p<.05) اگر خلاصه ای از مدل بالا را اجرا کنم، دریافت می کنیم: AIC BIC logLik انحراف REMLdev -12.6. 96.63 101.3 در واقع اگرچه این یک مطالعه طولی است، من در واقع انتظار ندارم که زمان متغیر مستقل من را تغییر دهد. نتیجه غیر معنی دار در واقع انتظارات من را تایید می کند. از آنجایی که متغیر زمان (session.week) قابل توجه نیست، آیا می توانم آن را در مدل خود حذف کنم، بنابراین تبدیل به: quality.Model.2<- lmer(quality ~ sync + (1|group.name/student.id) می شود. داده = dfSubset) pvals.fnc(quality.Model.2) نتیجه این مدل ها این است: $ ثابت برآورد MCMCmean HPD95 پایین تر HPD95 upper pMCMC Pr(>|t|) (Intercept) 3.091 2.897 1.5119 3.931 0.0032 0.0000 sync 1.413 1.691 0.3116 3.320 0.00Groups720 $ran MCMCmedian MCMCmean HPD95lower HPD95upper 1 student.id:group.name (Intercept) 0.3371 0.1480 0.1583 0.0000 0.3903 2 group.name (Intercept) 0.0000 0.17020.17050.0. 3 باقیمانده 0.6284 0.6721 0.6784 0.5373 0.8353 و اگر نتیجه را خلاصه کنیم، به دست می‌آییم: AIC BIC logLik انحراف REMLdev 108.7 118 -49.35 96.91 98.71 98.71 علامت sync را کاهش داده است. آیا می توانم نتیجه بگیرم که مدل دوم من (بدون متغیر زمان) بهتر است؟ و آیا می توانم متغیر زمان را با خیال راحت حذف کنم؟ این فقط باعث شد من احساس کنم که می خواهم متغیر زمان را در یک مطالعه طولی حذف کنم. _**(2) اگر اهمیت همگام سازی هنگام آزمایش یک مدل با شرایط تعامل لغو شود، چه می شود؟ .Model.3<- lmer(کیفیت ~ session.week * sync + (1|group.name/student.id)، داده = dfSubset) pvals.fnc(quality.Model.3) و موارد زیر را دریافت کردیم: $fixed Estimate MCMCmean HPD95down HPD95upper pMCMC Pr(>|t|) (Intercept) 4.6887 4.3486 1.058 7.477 0.00204 هفته 0.0504 جلسه -0.3402 -0.953 0.313 0.2842 0.1744 sync -0.6694 -0.2381 -4.267 3.874 0.8706 0.6835 session.week: sync 0.5110 0.436960. 0.46910 - 0.2018 $ تصادفی نام گروه ها Std.Dev. MCMCmedian MCMCmean HPD95lower HPD95upper 1 student.id:group.name (Intercept) 0.3488 0.1465 0.1576 0.00 0.3941 2 group.name (Intercept) 0.0000 0.183061 0.183810. باقیمانده 0.6260 0.6808 0.6869 0.53 0.8444 **بعد از معرفی اصطلاح تعامل، اصلاً هیچ چیز مهم نیست، از جمله عبارت تعامل!!!**. اگر خلاصه ای را در مورد آن انجام دهیم: AIC BIC logLik انحراف REMLdev 113.7 126.7 -49.85 94.92 99.71 AIC بزرگتر از هر دو کیفیت.Model.1 و quality.Model.2 است. _**(3) چه چیزی را انتخاب کنم_** بنابراین، اگر بخواهم تأثیر همگام سازی را بر کیفیت ببینم، کدام مدل را انتخاب کنم؟ اگر متغیر زمان را به عنوان جلوه های ثابت حذف کنم، کاملاً انجام شده است. اگر متغیر زمان را حذف نکنم، مدل جلوه‌های اصلی اهمیت همگام‌سازی را نشان می‌دهد، اما مدل تعامل همه چیز را لغو می‌کند.
اگر متغیر زمان در تحلیل طولی معنادار نباشد، آیا می‌توانیم آن را در مدل حذف کنیم؟
70511
آیا اجرای یک رگرسیون لجستیک در یک DV بله/خیر و شامل یک متغیر پیش بینی کننده که تعداد دفعاتی است که اتفاقی قبلاً رخ داده است، قابل قبول است، اما هیچ یک از موارد دارای شمارش صفر نیستند؟ به نظر من اگر بیش از 1 رویداد مهم باشد، باید آزمایش کنید، اما نه اینکه آیا تعداد کلی در مقایسه با هیچ رویداد مهم است یا خیر. با تشکر برای ارائه برخی زمینه ها، مطالعه ای است برای اینکه ببینیم چگونه تعامل با مقامات دولتی بر استفاده آینده از خدمات دولتی تأثیر می گذارد. اگر شرکت‌کنندگان محدود به کسانی بودند که حداقل یک تعامل داشتند، آیا می‌توانید از یک رگرسیون برای شناسایی تأثیر بالقوه هر تعامل اضافی استفاده کنید؟ به نظر می رسد طراحی بهتر و نتایج قوی تری باشد اگر شرکت کنندگان صفر نیز داشته باشید. افکار؟ با تشکر از پاسخ های مدبرانه این مطالعه من نیست، من مطالعه شخص دیگری را ارزیابی می کنم. صحبت کردن درباره تأثیر چیزی بدون مقایسه افرادی که هیچ تجربه ای با X نداشتند، برایم عجیب بود. ممکن است تعداد دفعاتی نباشد که چیزی اتفاق افتاده است که اثر را ایجاد می کند، بلکه اصلاً اتفاق افتاده است. شما ممکن است تشدید اثر را با X بیشتر تشخیص دهید، اما بدون صفر، آیا می‌دانید اگر X وجود نداشته باشد، این اثر وجود دارد یا خیر. و بله، بسیاری از مسائل دیگر وجود دارد، زیرا مشخص است که تعداد X قبلی قطعاً تصادفی نیست بازم ممنون
ارزیابی نقش متغیر شمارش در رگرسیون ... آیا به صفر نیاز دارید؟
47490
تست ناهمگونی من این نتایج را دریافت می‌کنم: تست Breusch-Pagan / Cook-Weisberg برای ناهمگونی Ho: واریانس ثابت متغیرها: مقادیر برازش log_expdu chi2(1) = 21.41 Prob > chi2 = 0.0000 تست عدم تنش وایت در برابر Hoskedasticity: همواسکداستیک chi2(47) = 48.91 Prob > chi2 = 0.3964 آزمون Breusch-Pagan به من می گوید که هتروسکداستیکی وجود دارد، در حالی که تست سفید برعکس است. از کدام نتیجه استفاده کنم؟
اگر نتایج آزمون بروش-پگان برای ناهمسانی با نتایج آزمون وایت در تضاد باشد چه؟
89239
برای مسائل طبقه‌بندی، من از شبکه‌های عصبی و اندازه‌گیری خطای نوع I و II با استفاده از ماتریس سردرگمی و اندازه‌گیری‌های آن مطابق با این منبع استفاده کرده‌ام که کاملاً مستقیم است. هنگامی که با یک مشکل برآورد مواجه می شوید، چگونه می توان عملکرد مدل را ارزیابی کرد؟ با فرض اینکه هیچ کلاسی وجود ندارد و خروجی به صورت واقعی تفسیر می شود. فراتر از میانگین معیارهای فاصله، که بینش زیادی به شما نمی دهد.
ارزیابی مدل رگرسیون
15007
فرض کنید دو متغیر تصادفی $X$ و $Y$ با توزیع ناشناخته داریم. من به دنبال یک برآوردگر بی طرف برای تفاوت مطلق مورد انتظار هستم: $$ | E \\{ X - Y \\} | . $$ برای مثال، فرض کنید ما مشاهدات مستقل بی‌طرفداری $x_1، \ldots، x_n$ و $y_1، \ldots، y_m$ ($n,m \geq 1$) داریم، چگونه می‌توانیم از این داده‌ها برای ساختن یک برآوردگر بی‌طرف استفاده کنیم. برای مقدار بالا؟ ترجیحاً، من می‌خواهم یک تخمین‌گر بی‌طرفانه برای مورد کلی پیدا کنم، که احتمالاً فقط مفروضات خفیفی مانند وجود لحظه(های) اول (چند لحظه) را شامل می‌شود. با این حال، من از هر گونه پیشرفتی خوشحالم، از جمله: * راه حل هایی برای توزیع های خاص با پارامترهای ناشناخته (به عنوان مثال، با این فرض که $X$ و $Y$ هر دو بر اساس یک توزیع نرمال توزیع شده اند، اما میانگین ها و واریانس ها ناشناخته هستند)، * برآوردگرهای مغرضانه کارآمد، به عنوان مثال که میانگین مربعات خطا را به حداقل می رساند (باز هم پیشنهاداتی برای حالت کلی و برای توزیع های خاص مورد استقبال قرار می گیرد)، و * هر گونه فکری در مورد برآوردگرهای خوب برای موارد خاص با تشکر برای هر ورودی!
چگونه می توان تفاوت مطلق مورد انتظار را تخمین زد؟
72989
من داده هایی از این نوع دارم: افراد متعددی وجود دارند. این مجموعه از افراد بر اساس سه درمان طبقه بندی می شوند. دو درمان اول هر کدام کل مجموعه افراد را به دو گروه تقسیم می کند. هنگامی که هر دو اعمال می شوند، کل مجموعه به چهار زیر گروه تقسیم می شود. هر فرد قبل و بعد از سومین درمان اندازه گیری می شود. این آخرین درمان در واقع یک متغیر وابسته یا نتیجه است. تغییر، در صورت وجود، که قبل و بعد از آن رخ می دهد، مورد توجه است. اگر کمک کند، درمان اول جنسیت (در سطوح مرد و زن) و درمان دوم ژنوتیپ با دو سطح متفاوت (دو نوع ژن در غیر این صورت یکسان) است. درمان سوم جراحی است. من به تفاوت در نتیجه قبل از مقایسه بعد از جراحی علاقه مند هستم. و من علاقه مندم که آیا جنسیت و ژنوتیپ فاکتورهای مهمی هستند یا خیر. کاری که انجام داده ام: تا کنون دو کار انجام داده ام. ابتدا، تفاوت در نتیجه قبل و بعد از عمل را در نظر گرفتم و از آن به عنوان یک متغیر وابسته در ANOVA با استفاده از جنسیت و ژنوتیپ و جنسیت*ژنوتیپ به عنوان فاکتور استفاده کردم. دوم، من نتایج قبل و بعد را در مدل گنجانده ام. فاکتورهای ANOVA شامل جنس، ژنوتیپ و روش (دو سطح: قبل از نتیجه و بعد از نتیجه)، به علاوه برهمکنش بود. در اینجا، هر فرد دو بار در تجزیه و تحلیل قرار می گیرد: یک بار برای نتیجه قبل از جراحی، و یک بار دیگر برای نتیجه بعد از جراحی. تست بهتری هست؟
تست بهتری هست؟
14110
آیا بسته R وجود دارد که بتوانم از آن برای تعیین مدل های انتقال هموار استفاده کنم. من به طور خاص به دنبال چیزی هستم که به من اجازه دهد یک مدل TAR را برای یک سری زمانی مشخص مشخص کنم. در سال 2008، بسته ای به نام RSTAR در کنفرانس کاربر R توسط Mehmet Balcilar ارائه شد. با این حال، به نظر می رسد بسته ها منتشر نشده اند و من می خواستم بدانم که آیا جایگزین دیگری در R وجود دارد.
بسته R برای مدل های رگرسیون انتقال صاف
517
در زمینه یادگیری ماشینی، تفاوت بین یادگیری بدون نظارت، یادگیری نظارت شده و یادگیری نیمه نظارت چیست؟ و برخی از رویکردهای الگوریتمی اصلی که باید به آنها نگاه کرد چیست؟
یادگیری بدون نظارت، نظارت و نیمه نظارت
14113
من به دنبال یک آزمون آماری برای مقایسه فرکانس ها در یک مجموعه داده خاص هستم. در یک رشته طولانی، دنباله خاصی از کاراکترها با فرکانس x در هر 1000 کاراکتر رخ می دهد. در برخی از بخش‌های رشته، فرکانس y در هر 1000 کاراکتر بیشتر است. آیا می توانیم بگوییم که آیا y و x تفاوت معنی داری دارند یا خیر؟
بهترین آمار برای مقایسه فرکانس ها در دو مجموعه داده
15001
من سعی می‌کنم راهی برای آزمایش آماری این سؤال بیابم، و می‌توانم از برخی ورودی‌ها استفاده کنم، زیرا از آنچه من معمولاً انجام می‌دهم بسیار دور است. من یک شبکه سلسله مراتبی دارم، مانند این: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/ryKh1.png) و اندازه گیری مرکزیت هر گره. کاری که من می‌خواهم انجام دهم این است که آزمایش کنم آیا اندازه‌گیری برای هر لایه (یعنی گره‌های 1 قدم از الماس، یا 2 قدم از الماس و غیره) به طور یکنواخت توزیع شده‌اند. مشکل این است که لایه‌ها در واقع مستقل نیستند - لایه‌های نزدیک‌تر به الماس برخی از اعوجاج‌های لایه‌های زیر خود را به ارث می‌برند، بنابراین چیزی که من واقعاً می‌خواهم آزمایش کنم این است که توزیع لایه X _بدون تحریف بیشتر از لایه X است. لایه قبل از آن آیا ایده ای دارید که چگونه در مورد آن اقدام کنید؟
یک آزمون آماری برای اینکه آیا یک متغیر به طور یکنواخت با پیچ خوردگی توزیع شده است چیست؟
96912
من ممکن است مدلی با متغیرهای حذف شده داشته باشم که با متغیرهای پیش بینی من همبستگی دارند. اگر در مدل خود، فرض کنید، دو متغیر درون زا X1، X2 داشته باشم، اما علاقه مند به بدست آوردن ضریب بی طرفانه فقط یک متغیر X1 هستم، آیا باید ابزاری برای هر دو متغیر X1، X2 پیدا کنم؟ یا اینکه فقط برای X1 ساز بزنیم و X2 را تنها بگذاریم کافی است؟ X2 فقط یک متغیر کنترل جزئی است که من ابزاری برای آن ندارم. با این حال، علاقه اصلی من ضریب X1 است که ابزار خوبی برای آن دارم. آیا این کار برای ادامه دادن مشکلی ندارد؟ با تشکر فراوان
سوگیری بیش از یک متغیر درون زا
72325
اول از همه، اگر این یک سوال احمقانه است، عذرخواهی می کنم، من نسبتاً تازه وارد آمار هستم، بنابراین هنوز کمی از نظر اصولی راهم را پیدا می کنم! ما آزمایش تقسیم یک ویژگی محصول جدید را انجام داده‌ایم و می‌خواهیم اندازه‌گیری کنیم که آیا افزایش درآمد قابل توجه است یا خیر. مشاهدات ما قطعاً به طور معمول توزیع نمی‌شوند (بیشتر کاربران ما هزینه نمی‌کنند، و در بین کاربرانی که انجام می‌دهند، به شدت به سمت خرج‌کنندگان کوچک و معدود خرج‌کنندگان بسیار بزرگ منحرف می‌شود)، بنابراین ما تصمیم گرفتیم از bootstrapping برای مقایسه استفاده کنیم. به این معنی است که مشکل توزیع نشدن داده ها به طور معمول را برطرف کند. بنابراین نتایج من نشان می‌دهد که ما در مقایسه با کنترل حدود 8 درصد افزایش داریم. اکنون می‌خواهم محاسبه کنم که چقدر می‌توانم در این ارتقاء مطمئن باشم. آیا اندازه گیری نسبت تابع چگالی احتمال زیر صفر، برای PDF که گروه آزمایشی PDF منهای PDF کنترل است، ساده است؟ (به عنوان مثال، این بخش نشان دهنده درصد شانس عدم تفاوت 2 فایل PDF من است؟) هر گونه کمکی بسیار قدردانی خواهد شد.
چگونه نتایج آزمون A/B را از طریق روش بوت استرپ تجزیه و تحلیل و تفسیر کنیم؟
6538
من می دانم که مردم دوست دارند نسخه های تکراری را ببندند، بنابراین من **نخواهم** برای ارجاع به آمار یادگیری _شروع_ (مانند اینجا) درخواست نمی کنم. من دکترای ریاضی دارم اما آمار یاد نگرفتم. کوتاه‌ترین مسیر برای رسیدن به دانش معادل برای مدرک آماری درجه یک BS چیست و چگونه می‌توانم زمانی که به آن دست یافته‌ام اندازه‌گیری کنم. اگر فهرستی از کتاب ها کافی باشد (با فرض اینکه تمرینات را انجام دهم)، فوق العاده است. بله، من انتظار دارم حل کردن مشکلات بخشی ضمنی از یادگیری آن باشد، اما می‌خواهم تا آنجا که ممکن است به‌طور واقع‌بینانه سریع‌تر پیگیری کنم. من به دنبال درمان دیوانه‌وار سختگیرانه‌ای نیستم، مگر اینکه این بخشی از چیزی باشد که عموماً متخصصان آماری می‌آموزند.
ریاضیدان دانشی معادل با مدرک آماری با کیفیت می خواهد
70516
فرمول محاسبه واریانس برای توزیع نمونه آماری نمونه (یعنی میانگین نمونه، میانه نمونه و نسبت نمونه) چگونه خواهد بود؟ در ابتدا فکر می‌کردم که این فقط فرمان var() در R با مخرج 1/(n-1) است، اما کسی به جای آن اشاره کرد که مخرج می‌تواند 1/n باشد، کسی می‌تواند این یکی را برای من توضیح دهد؟ بنابراین سوال اصلی من این است که مخرج آن چیست، آیا 1/n است یا 1/(n-1)؟ نه به طور خاص کل فرمول واریانس.
فرمول محاسبه واریانس برای توزیع نمونه آماری نمونه (یعنی میانگین نمونه، میانه نمونه و نسبت نمونه)
30388
من 4 گروه دارم که آنها را با یک معیار مقایسه می کنم. در یکی از گروه های من، همه شرکت کنندگان در مورد هر مورد یکسان پاسخ دادند، یعنی هیچ واریسی وجود ندارد. چگونه در ANOVA خود با آن برخورد کنم؟ همچنین، در آزمایش t که آن را با یک معیار مقایسه می‌کنم، از آنجایی که هیچ عبارت خطایی دریافت نمی‌کنم، چه می‌توانم بگویم؟ اگر من یک شرکت‌کننده را وارد کنم که مطمئن نیستم در دانش‌آموزم گنجانده باشم، واریانس با 1 مشاهده متفاوت از 37 کاملاً یکنواخت نیست، اما وقتی آن را اجرا می‌کنم، معنی‌دار نیست زیرا واریانس بسیار کوچک است. من می دانم که از نظر محاسباتی کاری نمی توانم انجام دهم. من می پرسم که چگونه از نظر مفهومی آن را مدیریت می کند.
اگر در یک گروه واریانس کم یا بدون واریانس داشته باشم، آیا می توانم آزمون t انجام دهم؟
89238
من در حال انجام یک آزمایش مجذور کای هستم که در آن خطوط با جهت متفاوت یکدیگر را متقاطع می کنند. از آنجایی که نمی‌توانید دو خط با هم جهت یکدیگر را داشته باشید، قطرهای هر دو جدول مشاهده‌شده و مورد انتظار من 0 است. چگونه می‌توانم یک آزمایش Chi-squared انجام دهم تا مشکل Div/0 را دریافت نکنم؟ با تشکر
نحوه برخورد با مقادیر 0 در مورب ها برای آزمون مجذور کای
10619
من از Matlab استفاده می کنم تا سعی کنم یک مناسب برای این منحنی پیدا کنم: ![توزیع تجمعی](http://i.stack.imgur.com/pF3lz.png) به نظر می رسد هیچ یک از فرمول های داخلی به خوبی کار نمی کنند. پیشنهادی دارید؟
کدام فرمول رگرسیون به بهترین وجه با این منحنی مطابقت دارد؟
83543
برای این مثال، من 4 رویداد مختلف **a ... d** دارم که هر کدام احتمال وقوع متفاوتی دارند. فضای نمونه من به صورت زیر است: { **a a b b b c c c d d d** } p( **a** ) = 2/12 p( **b** ) = 4/12 p( **c** ) = 3/12 p( **d** ) = 3/12 نمونه ها یکی یکی بدون جایگزینی کشیده می شوند. به محض ترسیم یک رویداد خاص، تمام نتایج یکسان دیگر از فضای نمونه حذف می شوند. برای مثال، اگر من رویداد **b** را ترسیم کنم، 3 **b** دیگر از فضای نمونه حذف می‌شوند و { **a a c c c d d d** } برای من باقی می‌ماند. آیا روش کارآمدی برای محاسبه احتمال وقوع یک رویداد خاص در هر موقعیت خاص وجود دارد؟ در این مثال، من 4 رویداد متمایز که می توان ترسیم کرد و 4 موقعیت ممکن برای هر رویداد دارم. من می خواهم بتوانم احتمال ترسیم رویداد **a** را در موقعیت های 1، 2، 3، و 4، رویداد **b** در موقعیت های 1، 2، 3، و 4 محاسبه کنم. به همین ترتیب. از آنجایی که احتمال وقوع یک رویداد خاص در یک موقعیت خاص به رویدادهای انتخاب شده قبل از آن بستگی دارد، من مطمئن نیستم که چگونه فرمولی ارائه کنم که به مجموعه داده های بزرگتر تعمیم یابد. من می توانم این را به طور نسبتاً ساده با احتمال شرطی اولیه در این مثال محاسبه کنم، اما در تعجبم که آیا زمانی که تعداد رویدادهای احتمالی فراتر از یک استاندارد معقول برای محاسبه دستی افزایش می یابد، فرمول کارآمدتری وجود دارد. هر گونه کمک در این مورد بسیار قدردانی خواهد شد. با تشکر
آیا روش کارآمدی برای محاسبه احتمالات مرتب شده یک نمونه وزنی از رویدادها وجود دارد؟
15008
من در آمار مبتدی هستم و در مورد فرض استقلال برای آزمون های آماری سردرگمی دارم. 1. تو اینترنت سرچ کردم یه سری اطلاعات میگه برای آزمون t مشاهدات دو گروه مستقل باشه (یعنی اندازه گیری ها در نمونه 1 و اندازه گیری ها در نمونه 2 متفاوت باشه). برخی اطلاعات دیگر می گوید که همه مشاهدات (حتی در یک گروه) باید مستقل باشند. کدام یک درست است؟ 2. آیا فرض استقلال برای ANOVA و فرض استقلال برای آزمون t یکسان است؟ 3. آیا آزمون های ناپارامتریک مانند آزمون رتبه امضا شده ویلکاکسون نیز نیاز به برآورده کردن فرض استقلال دارند؟
سوال در مورد فرض استقلال برای آزمون های ANOVA، t-test و ناپارامتریک
72985
من باید عبارت زیر را محاسبه کنم: $$\sum_{k=1}^N a_k b_k$$ ${a_k}$ و $b_k$ اعداد مثبت واقعی هستند. N و k اعداد صحیح هستند. من مقادیر متوسط ​​$a_k$ را می‌دانم که به‌عنوان $\overline {a} = {\sum_{k=1}^N a_k \over N } $ و $b_k$ تعریف شده است، به عنوان $\overline {b} = { \sum_{k=1}^N b_k \over N } $. من همچنین انحراف معیار $a_k$ و $b_k$، $\sigma_a$ و $\sigma_b$ را می دانم. اگر فقط با دانستن این مقادیر، باید مقداری تقریب انجام دهم، می خواهم بدانم با آن تقریب چقدر خطا تولید می کنم. $N$ نسبتا بزرگ است. هر کمکی قابل تقدیر است.
جمع بندی یک محصول
85879
### _[توجه] برای اختصار تصمیم گرفتم سوالم را دوباره بنویسم. سوال اصلی را می توان در زیر یافت. فرض کنید تعدادی از افراد یک پرسشنامه را در چند نقطه زمانی پر می کنند. به عبارت دیگر، برای هر فرد $i \in \\{1، \ldots، m\\}$ و برای هر نقطه زمانی $t \in \\{1,\ldots,T\\}$، پاسخ‌هایی داریم. $\mathbf{y}_i^{(t)} = (y_{i1}^{(t)},\ldots,y_{ip}^{(t)})^{T}$ جایی که $p$ است تعداد موارد موجود در پرسشنامه من علاقه مندم که بدانم کدام پاسخ های آیتم ها باعث/پیش بینی پاسخ آیتم های دیگر می شوند، ترجیحا با استفاده از مدل های شبکه. من به مدلی نیاز دارم که بتواند این کار را تحت شرایط زیر انجام دهد: * همه پاسخ‌ها $y_{ik}$ در محدوده محدودی هستند (آنها پاسخ‌های لیکرت هستند) * ممکن است داده‌ها ثابت نباشند * من می‌خواهم حلقه‌های بازخورد را در نظر بگیرم. . یعنی در زمان 1 یک پاسخ به مورد A ممکن است پاسخ به مورد B در زمان 2 را تحت تاثیر قرار دهد، که ممکن است بر روی مورد A در زمان 3 تاثیر بگذارد. * برآورد جهت مورد نیاز است، یعنی من نه تنها به همبستگی علاقه مند هستم، بلکه همچنین جهت * * * ### فرمول اصلی سوال من: من در حال تلاش برای یافتن یک مدل مناسب برای مشکلی هستم که از من خواسته شده است که بررسی کنم. فرض کنید تعدادی از افراد یک پرسشنامه را در چند نقطه زمانی پر می کنند. به عبارت دیگر، برای هر فرد $i \in \\{1، \ldots، m\\}$ و برای هر نقطه زمانی $t \in \\{1,\ldots,T\\}$، پاسخ‌هایی داریم. $\mathbf{y}_i^{(t)} = (y_{i1}^{(t)},\ldots,y_{ip}^{(t)})^{T}$ جایی که $p$ است تعداد موارد موجود در پرسشنامه من علاقه مند به ارائه بازخورد به این افراد در مورد پاسخ های آنها هستم، به عنوان مثال. سیر نتایج به آیتم های خاص، و روابط بین آیتم-پاسخ. به طور خاص، من علاقه مند به تخمین و تجسم یک مدل شبکه ای هستم که با این داده ها برازش می کند. امید این است که این مدل شبکه بتواند نشان دهد که کدام آیتم-پاسخ برای سایر آیتم-پاسخ ها پیش بینی می کند. علیت گرنجر به ذهن خطور کرد، اما به نظر نمی رسد بهترین روش در اینجا باشد. برای یکی، داده ها مقوله ای هستند (مقیاس لیکرت) و لزوما ثابت نیستند. همچنین، معمولاً نمی توان عادی بودن را فرض کرد. من علاقه ای به پیش بینی چیزی ندارم، مهم ترین ویژگی این است که فرد این حس را به دست می آورد که چه پاسخ های آیتم ها پاسخ های دیگر آیتم ها را پیش بینی می کنند؟ چه مدل مناسبی برای این تنظیم خواهد بود؟ پیشاپیش ممنون
تشخیص «علیت» در داده‌های سری زمانی لیکرت
14118
من می خواهم چهار بار پلات را روی یک گراف در R رسم کنم. من از کد زیر استفاده کردم. در اینجا، چگونه می توان یک افسانه را در بالای نمودار نگه داشت، به طور خاص افسانه باید بین 2 تا 3 بار پلات باشد. من همچنین با `par(mar=c(4.1,4.1,8.1,4.1)` امتحان کردم اما موفقیتی حاصل نشد. علاوه بر این، من همچنین سعی کردم legend() را بعد از بارپلات دوم اجرا کنم اما فایده ای نداشت. legend برای هر چهار بار پلات است لطفاً در این مورد به من کمک کنید. ylim=c(-100,100),..) barplot(t(B), beside=T, ylim=c(-100,100),..) barplot(t(C), beside=T, ylim=c(-100,100 ),..) barplot(t(D)، beside=T، ylim=c(-100,100)،..) legend(...)
ترسیم بار پلات های متعدد بر روی یک نمودار در R
83091
من با تابع دلتای دیراک در فرمول نمونه برداری مونت کارلو گیج شده ام. برای مثال http://www.cs.ubc.ca/~arnaud/doucet_johansen_tutorialPF.pdf در بخش 3.1 صفحه 8 حاشیه را به عنوان $\pi(x_k)=\frac{1}{N}\sum_{i تعریف می‌کند. =1}^N\delta_{X^i_k}(x_k)$. اینجا به چه معناست؟ اینکه چگالی x_k$ میانگین چگالی نمونه ها برابر با x_k$ است؟ پیشاپیش ممنون
تابع دلتا در نمونه گیری مونت کارلو
85875
من چندین سری زمانی متشکل از شاخص های کلان کلان اقتصادی دارم و سعی می کنم یک یا چند تکنیک مناسب را برای پاسخ به تعدادی سوال انتخاب کنم. ابتدا باید یک یا چند روند فصلی را در شاخص ها شناسایی کنم. دوم، باید بتوانم ناهنجاری ها یا شکست های روند را در یک یا چند شاخص شناسایی کنم. در نهایت باید بتوانم شاخص ها یا برخی از جنبه های آنها را پیش بینی کنم یا حداقل بفهمم که آیا شاخص ها قابل پیش بینی هستند یا خیر. من می دانم که چندین روش خطی و پارامتری وجود دارد که می توان برای پاسخ به این سؤالات استفاده کرد. البته روش‌های غیر خطی و ناپارامتریک متعددی نیز موجود است. با این حال، وقتی صحبت از تجزیه و تحلیل سری های زمانی و به طور خاص روش های ناپارامتریک به میان می آید، کاملاً تازه کار هستم. بنابراین، ممنون می‌شوم اگر راهنمایی‌هایی در مورد روش یا ترکیبی از روش‌ها به من بدهید.
چندین روش سری زمانی برای شناسایی روند، پیش‌بینی و غیره
83096
من دیده‌ام که هنگام مدل‌سازی عبارت احتمال با یک گاوسی چند متغیره، تمایل به پارامتر گاوسی با ماتریس کوواریانس معکوس (دقت) دارد تا ماتریس کوواریانس، این ادعا که ممکن است برای محاسبات خاصی که معمولاً در استنباط بیزی انجام می‌شوند، ساده‌تر باشد. کسی میدونه به چی اشاره میکنن؟
دقت در مقابل کوواریانس
77802
چگونه ARL درون کنترلی را برای نمودارهای کنترل محاسبه کنیم؟ به عنوان مثال، برای طراحی یک نمودار کنترل EWMA، چگونه می‌توان نتیجه گرفت که ARL درون کنترلی برای Lambda=0.1 و L=2.7 تقریباً 500 است؟ متشکرم!
چگونه ARL درون کنترلی را برای نمودارهای کنترل محاسبه کنیم؟
103119
من یک مجموعه داده دارم، دو متغیر فاصله ای و تعداد زیادی متغیرهای طبقه بندی شده (ترتیبی و اسمی) اجتماعی-جمعیتی دارم. فرض کنید یکی از متغیرهای فاصله ممکن است $x$ و دیگری $y$ است، من می‌خواهم اثر $x$ و یک متغیر جمعیتی مانند جنسیت یا سطح تحصیلات را روی $y$ آزمایش کنم. به عبارت دیگر، چگونه می توانم رابطه ای بین نمرات $x$ را با سطوح مختلف تحصیلی و نمرات $y$ (متغیر وابسته) مقایسه یا پیدا کنم؟ من می خواهم بگویم که تفاوت بین نمرات $x$ از دبیرستان و $y$ وجود دارد. یا می خواهم بگویم بین نمرات $x$ از دبیرستان و $y$ رابطه وجود دارد. یا می‌خواهم بگویم که نمرات x از سطح تحصیلات دانشگاهی با نمرات y مرتبط است.
لطفا کمک کنید من برای تصمیم گیری در مورد کدام آزمون آماری سردرگم هستم؟
87733
من باید ماتریس کوواریانس دو تخمین داده شده از یک مدل AR(1) را پیدا کنم. X_3 دلار. اجازه دهید W = ($X_1, X_3$)' چگونه می توانم ماتریس کوواریانس W را محاسبه کنم؟ Cov(X1، X1)، Cov(X1، X3)، و غیره. متشکرم
یافتن ماتریس کوواریانس برای یافتن بهترین پیش بینی کننده خطی (مدل AR(1))؟
43337
این هفته در مورد استفاده از الگوریتم kNN برای پیش بینی نتیجه یک متغیر پیوسته بر اساس ورودی یک یا چند متغیر پیوسته مطالعه کردم. مثال، پیش‌بینی قیمت یک بطری شراب بر اساس رتبه و سن بود. آیا می توان از این برای پیش بینی یک نتیجه مستمر بر اساس داده های فاکتوریل استفاده کرد؟ مثلاً پیش بینی هزینه خودرو بر اساس سازنده، مدل، گارانتی و ...؟ یا شاید پیش بینی حضور در یک بازی بسکتبال بر اساس حریف، روز هفته، ساعت روز و غیره؟ در موقعیت های مشابه در گذشته، من هر عامل را به یک عدد تبدیل کرده ام، اما کنجکاو هستم که بدانم آیا راهی برای رد شدن از آن مرحله وجود دارد یا خیر.
k-نزدیک ترین همسایه برای داده های مبتنی بر عامل