_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
19412
با فرض اینکه بتوانم لیستی از دوستانم را از فیس بوک دانلود کنم و کدام یک از آنها با یکدیگر دوست هستند - آیا می توانم از روی این اطلاعات تخمین بزنم که کدام یک از آنها مرکزی است؟ (من دقیقاً مطمئن نیستم که چگونه «مرکزی» را در این زمینه تعریف کنم) چه اطلاعات/فرض هایی مورد نیاز است؟ با تشکر
با توجه به شبکه های دوستانم - آیا می توانم مرکزی ترین دوستانم را شناسایی کنم؟
40517
بابت دانش ضعیفم در مورد آمار عذرخواهی می کنم. آیا راهی برای محاسبه فاصله پیش‌بینی در سطح اطمینان 95 درصد یک مدل با برازش کامل وجود دارد؟ من می خواهم مقایسه کنم که چگونه پیش بینی مدل واقعی من با مدل کاملا مناسب مقایسه می شود. می‌خواهم ببینم آیا نقاط پیش‌بینی‌شده در بازه پیش‌بینی ۹۵ درصدی مدل کاملاً برازش قرار می‌گیرند یا خیر. از هرگونه اشاره و ایده بسیار استقبال می شود. پیشاپیش از شما بسیار سپاسگزارم.
محاسبه فاصله پیش‌بینی 95 درصدی یک مدل مناسب
114843
من به دنبال تکنیکی هستم که به من کمک کند افراد را بر اساس 3 امتیاز A، B و C رتبه بندی کنم (هر کدام یک امتیاز جداگانه در 3 زمینه خاص را نشان می دهند). A، B و C همگی مقادیر نرمال شده بین 0 و 1 هستند که 0 بدترین امتیاز ممکن و 1 بهترین نمره ممکن است. من به سادگی می توانم سه متغیر را میانگین بگیرم، به جز اینکه چگالی احتمال A، B و C متفاوت و ناشناخته است. سطح درک من از آمار به اندازه ای است که احساس کنم میانگین گرفتن احتمالاً ایده وحشتناکی است. چه تکنیکی، در صورت وجود، می تواند به من کمک کند تا افرادم را از بهترین به بدترین مرتب کنم؟ آیا برای انجام این کار باید توابع چگالی احتمال A، B و C را بدانم؟ هر گونه کمک و/یا توصیه خواندن قدردانی می شود.
افراد را بر اساس 3 امتیاز مختلف رتبه بندی کنید
91512
اگر بتوان مثال‌های زیر را ذکر کرد، قدردانی می‌شود: 1. توزیعی با میانگین بی‌نهایت و واریانس بی‌نهایت. 2. توزیعی با میانگین بی نهایت و واریانس محدود. 3. توزیعی با میانگین محدود و واریانس بی نهایت. 4. توزیعی با میانگین محدود و واریانس محدود. این از آنجا ناشی می شود که من این عبارات ناآشنا (میانگین بی نهایت، واریانس بی نهایت) را در مقاله ای که می خوانم استفاده می کنم، موضوعی را در انجمن/وب سایت ویلموت در گوگل جستجو می کنم و می خوانم، و توضیح کافی برای آن پیدا نمی کنم. همچنین در هیچ یک از کتاب های درسی خودم هیچ توضیحی پیدا نکردم.
چگونه یک توزیع می تواند میانگین و واریانس نامتناهی داشته باشد؟
80217
PCA به این صورت عمل می کند: اولین واریانس بزرگ در اولین جزء اصلی، دومین واریانس بزرگ در دومین جزء اصلی و غیره. برای من مشکلی در این فرآیند تکراری وجود دارد. اگر بدانم فقط دو جزء اصلی را می‌خواهم تا داده‌هایم را در دو بعدی تجسم کنم چه؟ دو رایانه اول بهترین نیستند زیرا دومین رایانه دوم بهترین رایانه شخصی است اما با رایانه اول آنها بهترین زوج اصلی را تشکیل نمی دهند. **آیا راهی برای یافتن بهترین دو جزء اصلی وجود دارد؟**
کاهش ابعاد بهتر از PCA
111685
داشتم یک مقاله تحقیقاتی می خواندم: $Y_{t}\text{=}\beta_{0}+\beta_{1}X_{1t}+\beta_{2}X_{2t}$ (جایی که $Y_{t} $ بازده سهام است و نه تغییر در بازده سهام) ($X{}_{1t}$ بازده شاخص بازار سهام و X_{2t}$ بازده شاخص اوراق قرضه است) آنها فکر می کنند $X_{2t}$ یک فرآیند AR(3) را دنبال می‌کند و دو مورد را در مقاله ذکر می‌کنند که می‌خواهم در مورد آن پرس و جو کنم: 1- آنها ذکر می‌کنند که نتایج با و بدون سفید کردن مشابه است. 2- ذکر می‌کنند که سری نرخ بهره باقیمانده فرآیند AR(3) است. سوال من این است: چگونه آنها روند را سفید کردند؟
سفید کردن رگرسیون با فرآیند AR
43996
همانطور که برای همه شناخته شده است، SVM می تواند از روش هسته برای نمایش نقاط داده در فضاهای بالاتر استفاده کند تا نقاط را بتوان با یک فضای خطی از هم جدا کرد. اما ما همچنین می توانیم از رگرسیون لجستیک برای انتخاب این مرز در فضای هسته استفاده کنیم، بنابراین مزایای SVM چیست؟ از آنجایی که SVM از یک مدل پراکنده استفاده می‌کند که در آن فقط آن بردارهای پشتیبان در هنگام پیش‌بینی مشارکت می‌کنند، آیا این باعث می‌شود SVM در پیش‌بینی سریع‌تر شود؟
رگرسیون لجستیک هسته در مقابل SVM
43991
من به دنبال استفاده از طرح فاکتوریل کسری به منظور کاهش تعداد دفعات درمان برای آزمایشی که شامل یک نتیجه باینری است، هستم. ایده این است که طرح را ایجاد کنیم، پس از آنجایی که این یک برنامه کاربردی بازاریابی است و مهندسی نیست، از تعدادی تکرارکننده در هر ترکیب درمان استفاده کنید (مثلاً 20000 در هر کدام) و نتیجه را در یک رگرسیون لجستیک تجزیه و تحلیل کنید. من از بسته FRF2 برای فاکتوریل های کسری استفاده می کنم. بگویید من یک فاکتوریل 2^8 دارم و می‌خواهم بتوانم جلوه‌های اصلی و یک گروه انتخابی از تعاملات مرتبه دوم را ببینم: #حالا فرض کنید می‌خواهیم بتوانیم تمام جلوه‌های اصلی A-H و همچنین یک جفت اثر دوم را بخوانیم. فعل و انفعالات سفارشی که *فکر می کنیم* به طور خاص مهم/بزرگ # خواهند بود، فرض کنید AB، AC، AD، FH و GH می خواهیم dMod3<-FrF2(nfactors=8,default.levels = c(-، +),estimable= c(AB،AC،AD،FH،GH) ، روشن = FALSE , res3 = FALSE) aliasprint(dMod3) design.info(dMod3) این یک طرح با 16 ران به دست می دهد که هر کدام دریافت خواهند کرد 20000 تکرار کننده نام مستعار به شرح زیر است: $fi2 [1] AB=CF=DG=HE AC=BF=DH=GE AD=BG=CH=FE AE=BH=CG=DF AF=BC=DE=GH AG=BD= CE=FH [7] AH=BE=CD=FG اگر پاسخ‌های (1 یا 0) را به این موارد 20000*16 شبیه‌سازی کنم، می‌توانم از یک رگرسیون لجستیک برای تجزیه و تحلیل آزمایش. چیزی که من گیج شده‌ام این است که می‌توانم جلوه‌های اصلی و تعاملاتی را که ظاهراً مخدوش شده‌اند، جا بدهم، به عنوان مثال می‌توانم glm (Y~A+B+A:B+C:F) را متناسب کنم. حتی اگر AB و CF اشتباه گرفته شوند. **سوالات:** 1. آیا به این دلیل است که من تکرار دارم که می توانم این مدل را جا بدهم؟ 2. تطبیق چنین مدلی چه معنایی دارد؟ 3. آیا فاکتوریل کسری با استفاده از این وضعیت (مانند مقاله پیوند داده شده) بی معنی است؟
نام مستعار در طرح های فاکتوریل کسری
80212
من دو مجموعه از متغیرهای تصادفی دارم. من دو CDF برای آنها تولید کرده ام. دو تا از CDF ها به صورت گرافیکی رسم شده اند.![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/oetZL.png) من باید تفاوت توزیع دو CDF را پیدا کنم. من با روشی به نام پیچیدگی توزیع ها آشنا شده ام که توزیع مجموع را نشان می دهد. اگر نفی یک توزیع را که باید تفریق شود اضافه کنیم، تفاوت توزیع (مانند A - B = A + (-B) ) را به دست می آوریم که همان چیزی است که من نیاز داشتم. آیا کسی می تواند ابزارهای نرم افزاری مانند scipy در پایتون را به من پیشنهاد دهد که بتوانم از آنها برای یافتن راه حلی برای مشکلم استفاده کنم؟
تفاوت دو توزیع متغیر تصادفی
91511
اجازه دهید $X$ از توزیع یکنواخت و $Y$ از توزیع عادی پیروی کند. در مورد $\frac X Y$ چه می توان گفت؟ آیا توزیعی برای آن وجود دارد؟ نسبت دو نرمال با میانگین صفر کوشی است.
نسبت توزیع یکنواخت و نرمال چقدر است؟
81129
http://www.real-statistics.com/statistics-tables/shapiro-wilk-table/ من سعی می کنم تابعی بسازم که تست Shapiro-Wilk را روی یک جامعه نمونه انجام دهد، اما نمی توانم بفهمم که چگونه a- مقادیر در جدول وزن Shapiro-Wilk محاسبه می شود. به عنوان مثال، اگر من یک آرایه از 6 مقدار داشته باشم: array(2,4,7,9,10,12) می دانم که باید 3 مقدار زیر را از جدول Shapiro-Wilk بدست بیاورم: a1 - 0.6431 a2 - 0.2806 a3 - 0.0875 من تقریباً 2 ساعت است که در حال جستجو و تحقیق هستم و نمی توانم آن را بفهمم. کسی میتونه لطفا کمکم کنه؟
مقادیر جدول Shapiro-Wilk چگونه محاسبه می شوند؟
4034
این ممکن است یک سوال ساده لوحانه باشد، اما اینجاست. اگر مجموعه‌ای از داده‌های تجربی داشته باشم و چگالی هسته‌ای را به آن برسانم، و سپس یک مقدار واحد جدید به دست بیاورم که احتمالاً از همان فرآیندی که مجموعه داده‌های اصلی را تولید کرده است، به دست بیاورم، آیا می‌توانم احتمال تعلق این مقدار جدید به مجموعه را تعیین کنم. به سادگی با خواندن مقدار از محور y که در آن مقدار جدید در محور x خط چگالی هسته را قطع می کند و بر مساحت زیر خط چگالی تقسیم می شود؟
تفسیر/استفاده از چگالی هسته
86178
من نسبتی از دو متغیر تصادفی (وابسته یا مستقل) دارم که به طور معمول توزیع شده اند. دانستن اینکه توزیع کوشی حاصل هیچ لحظه ای ایجاد نمی کند. ممکن است بپرسم: آیا تقریبی برای توزیع کوشی وجود دارد؟ آیا هنوز هم می توانم چیزی از مجموعه نسبت هایم دریافت کنم؟
تقریب توزیع کوشی
86170
پیشاپیش از هر گونه کمکی متشکرم. این مشکل برای کلاس MBA است. من می خواهم از R به عنوان ابزار جدیدی استفاده کنم که قبلاً با آن کار نکرده ام. من تجربه کار با داده ها را دارم، اما در درجه اول برای تجزیه و تحلیل تجاری و نه تحلیل های آماری عمیق. **زمینه** مشکل بر اساس داده های مربوط به بازدیدکنندگان از فروشگاه است. در هر بازدید و در بین بازدیدها، یک بازدیدکننده ممکن است یک یا چند محصول را مشاهده کند. آنها همچنین می توانند هر یک از محصولاتی را که مشاهده می کنند سفارش دهند (یا نه). **نمونه داده** در اینجا نمونه ای از داده ها آمده است: بازدیدکننده_کلید بازدید_تعداد محصول_کلید محصول_سفارشات مشاهده شده 3 1 18151 1 1 مجموعه داده خاصی که من استفاده می کنم شامل 10 میلیون رکورد و میلیون ها سفارش است. هزاران محصول وجود دارد که در هر ترکیبی قابل مشاهده هستند. **تحلیل دلخواه** از نقطه نظر شهودی، اگرچه یک فرد ممکن است فقط یک محصول را خریداری کند، این بدان معنا نیست که محصولات دیگر ارزشی به خرید اضافه نکرده اند. آنها کمک می کنند تا زمینه را برای بهترین محصول برای خرید مشخص کنند. من می‌خواهم این تأثیر را با تخصیص ارزش سفارش در همه محصولات مشاهده‌شده اندازه‌گیری کنم، با این فرض که هر نمای محصول دارای ۰>= سهم سفارش است. در اصل - اگر من سه محصول را مشاهده کنم و یکی از این سه محصول را سفارش دهم، اعتبار جزئی برای سفارش دریافت می کنم. **من الان کجا هستم** معتقدم که رویکرد صحیح برای این یک رگرسیون لجستیک است، با این حال، مطمئن نیستم که چگونه مدل را ایجاد کنم، زیرا همه بازدیدکنندگان مجموعه یکسانی از محصولات را به عنوان متغیرهای مستقل برای ورود به آن ندیده اند. مدل در مجموعه داده ها هزاران ترکیب بالقوه از محصولات وجود خواهد داشت (اگرچه مجموعه داده بسیار بزرگ است، بنابراین اگر درست باشد، به طور بالقوه از بسیاری از مدل ها پشتیبانی می کند). لطفاً به من بگویید چگونه می توانم مشکل را بهتر توضیح دهم تا به بهترین راه حل کمک کنم. متشکرم!
نسبت دادن ارزش سفارش برای محصولات مشاهده شده با استفاده از رگرسیون لجستیک؟
14898
من باید دو نمودار سری زمانی روی یک نمودار در «R» رسم کنم. مشکلی که من با آن روبرو هستم به شرح زیر است. هر نمودار دارای 200 نقطه داده است، و بنابراین، نموداری که من تهیه کرده ام در فایل pdf دو ستونی من ناشیانه به نظر می رسد. من سعی می کنم از مقادیر مختلف `pch` استفاده کنم، اما هنوز نمودار به نظر من خوب نیست. لطفاً کسی می تواند به من کمک کند تا این داده ها را به شیوه ای زیبا تجسم کنم؟ لطفا نمودار زیر را ببینید. مهمترین شرط این است که نمودار باید «در هنگام چاپ» واضح باشد. کد `R` که من استفاده کردم به شرح زیر است: plot(temp11, type=b, col=blue, ylim=c(0.5,1), lwd=0.8, lty=4, pch=1, xlab=Time, ylab=price, cex.lab=1.2,cex.axis=1.2) > lines(temp22, type=b, col=red, lwd=1.5,lty=1, pch=18) > legend(top,legend=c(temp11,temp22),lty=c(4,1),pch=c(1,18), col=c(آبی، قرمز),text.col=c(آبی، قرمز)) ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/fTtu5.png)
یک روش زیبا برای تجسم دو سری زمانی با نقاط داده بسیار چیست؟
43994
من برخی از داده‌های روان‌شناختی دارم (N=100، 2 شرط) که در آن‌ها در 55 سؤال، شرکت‌کنندگان تخمینی را انجام دادند، و سپس پس از دستکاری، تخمین دیگری انجام دادند. سپس محاسبه کردم که برآورد آنها در دور دوم چقدر به دست آورده یا چقدر ضرر کرده است. دو دستکاری قبل از دور دوم رخ داد و هر شرکت کننده یکی از آنها را دریافت کرد. دریافتم که در هر دو شرایط برآوردها (به طور متوسط) در دور دوم نسبت به دور اول بهبود یافته است. با این حال، میانگین بهبود از دور 1 تا دور 2 منفی بود. این در هر دو شرایط صادق بود. به من پیشنهاد شده است که دلیل این امر فقط خطای نمونه گیری بوده است. آیا راهی برای بررسی معقول بودن این پیشنهاد بدون انجام مجدد مطالعه وجود دارد؟ در پاسخ به سوال اریک، لینک داده های خام در اینجا آمده است: https://dl.dropbox.com/u/53771404/estimation_data.xlsx. ستون 1 = میانگین خطای برآوردهای اولیه. ستون 2 = میانگین خطای تخمین دوم. ستون 3 = میانه خطای برآوردهای اولیه. ستون 4 = میانه خطای تخمین دوم. این فقط شرط 1 دستکاری است، اما شرط دوم نتایج بسیار مشابهی داشت.
چگونه می توانم بفهمم که آیا داده های من به دلیل خطای نمونه گیری کج شده است؟
80216
من یک سری مدل را با استفاده از انتخاب مدل GAMLSS stepGAIC اجرا می کنم. مشکلی که من دارم این است که در GAMLSS، stepGAIC از مقادیر AIC برای انتخاب متغیرهای مدل استفاده می کند. از آنجایی که حجم نمونه من کوچک در نظر گرفته می شود، احتمالاً باید از مقادیر AICc برای انتخاب بهترین مدل استفاده کنم. نمی‌دانم می‌توانم با استفاده از AIC مدل‌هایی ایجاد کنم و از بین آن مدل‌ها بهترین را براساس AICc انتخاب کنم.
معضل انتخاب مدل (steGAIC با استفاده از AIC و انتخاب مدل نهایی با استفاده از AICc)
70235
من اسکریپت های زیر را در r برای رگرسیون لجستیک اثر مختلط اجرا می کنم. textbook.usage.glm <- glmer(textbook.usageSession ~ session.week * condition.player + (1|group.name),family=binomial,data=dfDSP) خلاصه (textbook.usage.glm) و من دریافت کردم نتایج زیر مدل ترکیبی خطی تعمیم یافته متناسب با تقریب لاپلاس فرمول: textbook.usageSession ~ session.week * condition.player + (1 | group.name) داده: dfDSP AIC BIC logLik انحراف 37.27 45.19 -13.64 27.27 اثرات تصادفی: St. توسعه دهنده group.name (Intercept) 0 0 تعداد obs: 36، group: group.name، 2 اثرات ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -68.00 14338.57 -0.005 0.996 session.week 17.31 3584.64 0.005 0.996 condition.playerDEFAULT 75.63 1430909057 session.week:condition.playerDEFAULT -20.09 3584.64 -0.006 0.996 همبستگی جلوه های ثابت: (Intr) sssn.w c.DEFA session.week -1.000 cnd.DEFAULT -1.000 1.000 -1.1DEFA000T. -1000 نتایج بسیار مشکوک به نظر می رسند. خطاها بسیار بزرگ هستند و همه مقادیر p یکسان هستند. اگر خود داده ها مشکلی ندارند، دلیل آن چه می تواند باشد؟
خطاهای بزرگ برای رگرسیون لجستیک، به چه معناست؟
10150
اگر فهرستی از مقادیر در طول زمان داشته باشم، لیستی از مقادیر را برای هر دقیقه در طول یک ساعت نظارت بر چیزی بگویم، آیا می توانم به نحوی «پیش بینی» یا تخمین بزنم که احتمالاً در آینده چه مقدار خواهد بود، مثلاً 20 تا 30 دقیقه دیگر پس از آن. آخرین مقدار شناخته شده من؟ و اگر چنین است، چگونه می توان این کار را انجام داد؟ فکر می‌کنم شاید بتوانم آن را فقط با یک «بهترین تناسب» برای یک درجه دوم انجام دهم و به مقدار x=90 نگاه کنم (60 مقدار شناخته شده + 30 مقدار در آینده) اما احساس می‌کنم که احتمالاً اینطور نخواهد بود. دقیق ترین روش آیا کسی پیشنهادی برای راه بهتری برای انجام این کار دارد؟ فقط یک نکته، من تجربه آماری بسیار کمی دارم، بنابراین اگر این سوال آسان (یا غیرممکن) شناخته شده است، لطفاً با من صحبت کنید. با تشکر
پیش بینی مقدار داده های آینده با رگرسیون
70236
من مقادیر بسته روزانه شاخص اولیه برای DJUSER، MSCI، SP500، SPGSCI از 1 ژانویه 1999 تا 31 دسامبر 2011 را دارم. می خواهم آنها را به داده های بازده سالانه تبدیل کنم. چگونه با استفاده از R این کار را انجام دهیم؟ از کدام بسته باید استفاده کنم؟ چگالی بازده سالانه مربوط به هر داده باید مشابه نمودار در تصویر باشد: ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/CJOMr.png) می توانم برای شما ارسال کنم داده های اولیه اگر می خواهید امتحان کنید.
چگونه با استفاده از R یک بازده سالانه چرخشی از یک سری زمانی ایجاد کنیم؟
92695
من از R برای تطبیق یک شبکه عصبی با داده های تولید شده با فرمول $y = x^2 + \epsilon / 2$ استفاده می کنم که در آن $x \sim \mathcal{U}(0, 2)$ و $\epsilon \sim N(0، 1)$ (خیلی ساده، درست است؟). نمودار زیر نمودار تابع $x^2$ و داده های تولید شده را نشان می دهد: ![1](http://i.imgur.com/DDnbIxA.png) اکنون، من میانگین خطای $10$ را اجرا می کنم. مدل شبکه عصبی با اندازه $k$ برای همه $k \in \\{1, \ldots, 50\\}$ نمودار زیر را دریافت می کند: ![2](http://i.imgur.com/Cg5zovY.png) چیزی که به نظر من نسبتاً عجیب است این است که از 10$ تا ~30$$ و از ~$40$$~~$50$$\حدود 0$ است. و پایدار است اما از ~$30$ تا~$40$ فرار و $>> 0$ است. من همچنین چندین عملکرد دیگر را امتحان کرده ام که همین اثر را دارند. آیا این طبیعی است؟ میشه توضیحی براش بدید نمودار بالا توسط کد R زیر ایجاد شد: require(nnet) f<-function(x) 2 + x^2 error <- rep(0, 50) for (k در 1:50) { for (z in 1 :10) { x<-sort(runif(300,0,2)) fx <- f(x) y<-fx + 0.5*rnorm(300) d<-data.frame(x,y) names(d)<-c(X,Y) n<-nnet(Y~X,size=k,linout=T,data=d,maxit= 40) pn<-predict(n,d) error[k] = error[k] + mean((fx - pn)^2) } error[k] = error[k] / 10 نمودار (خطا، xlab = k، ylab = خطا) }
اثر عجیب طرح خطای شبکه عصبی
108069
من هم مشکل پست زیر را دارم اما نمونه های بیشتری دارم و شاخص پرت مشخص است. درمان پرت در مدل خودرگرسیون برداری (VAR) من سعی کردم نقاط پرت را حذف کنم. کار می کند. من همچنین می‌خواهم متغیرهای ساختگی را برای نقاط پرت وارد کنم (مغنای ساختگی مقدار 1 را روی نقاط پرت می‌گیرد و در غیر این صورت صفر را می‌گیرد) و این دو روش را با هم مقایسه کنم. یکی از دلایلی که می‌خواهم این کار را انجام دهم این است که یک رویداد خاص در t1 ممکن است بر متغیر پاسخ y2 در t2 نیز تأثیر بگذارد. با این حال، تاثیر آن بر t2 به اندازه کافی قابل توجه نیست، بنابراین y2 یک چیز پرت نیست. سوال: VAR در بسته R vars NAs در متغیر ساختگی را برمی‌گرداند. حدس می‌زنم به این دلیل است که متغیر ساختگی از صفرهای زیادی تشکیل شده است. نمیدونم چطوری درستش کنم پیشاپیش ممنون
درمان پرت در مدل خودرگرسیون برداری (VAR) با استفاده از بسته vars در r
91519
من در حال حاضر با توالی های بزرگ DNA برای اهداف یادگیری ماشینی سر و کار دارم، اساساً در حال بهبود روش های موجود هستم. چیزی که من دارم چند میلیون توالی DNA است: ACGTAGGCAGGCTTTC... در روش هایی که در حال حاضر بررسی می کنم، آنها ویژگی ها را به این صورت استخراج می کنند: برای هر هسته 4 ویژگی، اولی مربوط به A، دومی مربوط به C، سومی است. به G و آخرین به T. اگر برای مثال پایه فعلی G باشد، 4 ویژگی مربوطه 0 0 1 0 خواهد بود. مشکلی که من با آن دارم این است که تعداد ویژگی موثر را در چهار ضرب کنید و بسیار پراکنده خواهد بود. می‌خواستم بدانم که آیا قرار دادن یک ویژگی در هر نوکلئوباز که بسته به حرف 0، 1، 2، 3 باشد، مضراتی دارد یا خیر. این به DNA اعمال می شود، اما سوال من به هر نوع ویژگی گسسته گسترش می یابد.
نمایش ویژگی برای طبقه بندی پایگاه های DNA
6364
**انگیزه**: من در حال نوشتن یک تخمینگر حالت در متلب هستم (فیلتر کالمن بدون بو) که خواستار به روز رسانی ریشه مربع (مثلثی بالا) یک ماتریس کوواریانس $S$ در هر تکرار است (یعنی ، برای یک ماتریس کوواریانس $P$، درست است که $P=SS^{T}$). برای اینکه بتوانم محاسبات لازم را انجام دهم، باید با استفاده از تابع «cholupdate» متلب، یک به‌روزرسانی و کاهش رتبه Cholesky Rank-1 انجام دهم. **مشکل**: متأسفانه، در طول تکرارها، این ماتریس $S$ گاهی اوقات قطعیت مثبت خود را از دست می دهد. کاهش تاریخ Cholesky در ماتریس های غیر PD شکست می خورد. **سوال من این است**: آیا راه های ساده و قابل اعتمادی در متلب وجود دارد که بتوان $S$ را مثبت و قطعی کرد؟ (*یا به طور کلی تر، آیا راه خوبی برای مثبت-معین کردن هر کوواریانس داده شده $X$ وجود دارد؟** ) * * * **نکته** : * $S$ رتبه کامل است * من امتحان کردم رویکرد تجزیه ویژه (که کار نکرد). این اساساً شامل یافتن $S = VDV^{T}$، تنظیم تمام عناصر منفی $V,D = 1 \times 10^{-8}$ و بازسازی یک $S' = V' D' V'^ جدید بود. {T}$ که در آن $V',D'$ ماتریس هایی هستند که فقط عناصر مثبت دارند. * من از رویکرد Higham آگاه هستم (که در R به عنوان nearpd پیاده سازی می شود)، اما به نظر می رسد که فقط به نزدیکترین ماتریس PSD نمایش داده می شود. برای آپدیت Cholesky به یک ماتریس PD نیاز دارم.
ساخت ماتریس کوواریانس مثبت-معین ریشه مربع (Matlab)
100392
من کنجکاو هستم که آیا تحقیقی برای ترکیب موثر درختان حاصل از فرآیند افزایش گرادیان انجام شده است یا خیر. من به طور معمول فرآیندی را اجرا می کنم که 20 یا 30 هزار درخت در R ایجاد می کند. سپس این درخت ها را به SAS تبدیل می کنم که منجر به صدها هزار خط کد می شود. با این حال، بسیاری از درختان بسیار شبیه به هم هستند. این سؤال پیش می‌آید که آیا می‌توان زیر مجموعه‌های درخت‌های مرتبط را برای کاهش مقدار کدی که باید تولید کرد، ترکیب کرد؟ اولین رویکرد من این بود که درختانی را پیدا کنم که تنها بر اساس پیش‌بینی‌های نهایی‌شان تفاوت داشتند و آنها را فریب داد. این درختان برهمکنش ها و شکاف های یکسانی در هر گره داشتند. هنگامی که تعداد تعاملات کوچک است (<3) به خوبی کار می کند، با این حال، زمانی که تعاملات فراتر از این اندازه افزایش می یابد، عملاً هیچ افزایش عملکردی وجود ندارد زیرا درختان به طور فزاینده ای به احتمال زیاد منحصر به فرد هستند. فکر بعدی من این است که بسیاری از تقسیم‌های اول یا دوم یکسان خواهند بود، پس چرا آن منطق را ادغام نکنیم و گره‌های باقی‌مانده را درون آن قرار ندهیم؟ با این حال، قبل از رفتن به آن مسیر، فکر می‌کردم که در اینجا برای راهنمایی یا بینش تلاش کنم. آیا راهی برای ترکیب خروجی درختان تصمیم از فرآیند GBM برای کاهش تعداد لازم برای محاسبه امتیاز نهایی وجود دارد؟
درخت های تصمیم را از GBM برای کاهش خروجی ترکیب کنید
6366
من یک سوال در مورد مدل AR(1) دارم. به صورت ریاضی بیان می شود: $$ Z_{t} = \rho Z_{t-1} + \epsilon_{t}, t=1,..,T$$ $$ \epsilon_{t} \sim iid \ N(0 ,1) $$ سوال من در مورد روش گروه تبدیل برای ایجاد پیشین های غیر اطلاعاتی است که به اعتقاد من در ابتدا توسط ادوین جینز پیشنهاد شد (و در فصل 12 مورد بحث قرار گرفته است. کتاب تئوری احتمالات: منطق علم. یکی از پیشنهادات ممکن برای یک گروه تبدیل، در نظر گرفتن «معکوس کردن» سری زمانی و سپس تغییر مقیاس است. بنابراین گروه تبدیل من به شرح زیر است: $$\rho^{(1)} = \rho^{-1}$$ $$Z_{t}^{(1)} = \rho^{(1)}Z_ {T-t+1}$$ با استفاده از توزیع AR اصلی، می‌توانید نشان دهید که این تبدیل اساساً فقط عبارت‌های $\epsilon_{t}$ را که بنا به تعریف مدل قابل مبادله هستند، «در هم می‌ریزد». بنابراین، تخمین $\rho$ با استفاده از $Z_{t}$ معادل تخمین $\rho^{(1)}$ با استفاده از $Z_{t}^{(1)}$ ( _i.e._ ) مفصل است. توزیع نویز در هر دو مورد یکسان است). بنابراین پیشین برای $\rho^{(1)}$ باید تبدیل احتمال قبلی برای $\rho$ باشد. یا، از نظر ریاضی، قبلی باید معادله تابعی زیر را برآورده کند: $$f(\rho)=|{\frac{\partial \rho^{-1}}{\partial \rho}}| f(\rho^{-1})=\rho^{-2}f(\rho^{-1})$$ متاسفانه این یک تابع منحصر به فرد را توصیف نمی کند. در واقع، هر تابعی با شکل زیر معادله تابعی فوق را برآورده می کند: $$ f(\rho) = (constant) \times \begin{bmatrix} \ \rho^{2b} (1-\rho^{2}) )^{a} & |\rho|<1 \\\ \ \rho^{-2(b+a+1)} (\rho^{2}-1)^{a} & |\rho|>1 \end{bmatrix}.$$ برای $a > -1$ و $b>-\frac{1}{2}$ این توزیع مناسب است، با ثابت نرمال‌سازی متقابل $2\ beta(b+\frac{1}{2},a+1)$ که در آن $\beta(a,b)$ انتگرال بتا است. توجه داشته باشید که این کلاس شامل مرجع متقارن قبلی است که در _Berger, J. O. and Yang, R. (1994) توصیه شده است. مقدمات غیر اطلاعاتی و آزمایش بیزی برای مدل AR(1). تئوری اقتصاد سنجی 10 461-482._ معمولاً مشخص کردن یک گروه تبدیل راه حل را منحصر به فرد می کند، بنابراین من گیج هستم که چگونه این گروه از تبدیل ها یک راه حل منحصر به فرد تولید نمی کنند. آیا در روند ایجاد گروه تحول کار اشتباهی انجام داده ام؟ لطفا اگر لازم است سوالم را بهتر توضیح دهم به من اطلاع دهید. این کاملاً خفن است! به روز رسانی: شاید هیچ گروه تبدیلی وجود نداشته باشد که به طور منحصر به فرد قبلی را در این مورد تعیین کند؟
پیشین های غیر اطلاعاتی برای مدل AR(1).
45272
من یک مجموعه داده دارم که شامل N اندازه گیری است. هر اندازه گیری یک بردار 8 بعدی است که نشان دهنده 8 ولتاژ اندازه گیری شده از یک ماشین است. من می خواهم ماتریس کوواریانس این داده ها را محاسبه کنم. فرض کنید داده‌ها را صفر کرده‌ام، از این رو می‌خواهم $E[V_i*V_j]$ را پیدا کنم که در آن $V_i$ مولفه i-ام یک بردار اندازه‌گیری است. کاری که من در اینجا انجام دادم این بود که میانگین زمانی $V_i*V_j$ را که برابر با $\frac{1}{N} \sum (V_i*V_j)$ برای همه اندازه‌گیری‌ها است، گرفتم. من فکر می کنم در واقع این از قضیه ارگودیک برای مرتبط کردن میانگین های آماری با میانگین های زمانی آنها استفاده می کند. اما چیزی که من را گیج می کند این است که به معنای واقعی آن فکر کنم. برای من، اندازه‌گیری‌های من در یک نقطه از زمان، تحقق یک فرآیند تصادفی نیستند، بلکه اندازه‌گیری‌های قطعی هستند (ولتاژها از یک سیگنال قطعی ناشی می‌شوند و بیایید نویز اندازه‌گیری را نادیده بگیریم) و بنابراین مطمئن نیستم که چگونه انتظارات را درک کنم. به معنای متغیر تصادفی آیا استدلال من درست است؟
چه زمانی میانگین های زمانی با میانگین های آماری برابری می کنند؟
104633
من مجموعه ای از خواص مورد نظر را دارم و می خواهم خانواده توزیعی پیدا کنم که این ویژگی ها را برآورده کند. 1. توزیع ها در خانواده پیوسته و در فواصل محدود پشتیبانی می شوند. آنها در تمام نقاط پشتیبان محدود خود محدود هستند، قابل نرمال سازی هستند و میانگین و واریانس محدودی دارند. 2. PDF ها یکنواخت یا یکنواخت هستند. به عبارت دیگر، فایل‌های پی‌دی‌اف هیچ حداقل محلی در فواصل زمانی پشتیبانی خود ندارند. 3. پیچیدگی توزیع ها در داخل خانواده (احتمالاً با پارامترهای مختلف) باید منجر به توزیع در داخل خانواده شود. یعنی خانواده تحت کانولوشن بسته می شود. 4. یک محصول از دو PDF از این خانواده (با پارامترهای مختلف به طور کلی) که فواصل پشتیبانی آنها در یک بازه غیر منفرد قطع می شود، باید یک pdf دیگر (تا ثابت نرمال سازی) از همان خانواده ایجاد کند. یعنی خانواده زیر محصولات بسته است. 5. توزیع یکنواخت روی تکیه گاه های محدود متعلق به خانواده است. به عنوان مثال، توزیع نرمال کوتاه شده بسیاری از این ویژگی ها را برآورده می کند، به جز 3 و 5.
توزیع تک وجهی محدود پیوسته با خواص دلخواه
14894
من از «smooth.spline» برای برخی از خطوط هموارسازی اولیه استفاده می‌کنم. با این حال، باید به تابعی سوئیچ کنم که به من امکان استفاده از چندین متغیر مستقل را بدهد. من در یافتن یکی به غیر از مریخ مشکل دارم، که نتایج عجیبی به من می دهد، بنابراین فکر می کنم ممکن است آن چیزی نباشد که به دنبالش هستم. پیشینه آماری من بسیار محدود است، و فکر نمی‌کنم نوع spline خیلی مهم باشد، بنابراین می‌پرسیدم که آیا یک spline هموارسازی اولیه واقعی مانند 'smooth.spline' وجود دارد که برای چندین متغیر مستقل کار کند.
هموارسازی اسپلاین ها با چندین متغیر مستقل در R
80211
من در حال مطالعه مدل‌های ARMA هستم و سرم را روی چیزی می‌شکنم که احتمالاً ساده است اما نمی‌توانم آن را ببینم. من در R یک مدل AR(1) ساده ایجاد کردم و از تابع ARIMA برای تخمین ضرایب آن استفاده کردم. من دو ضریب دریافت می کنم، یک ضریب AR(1) و یک رهگیری. اکنون سعی می کنم خودم مقادیر برازش را محاسبه کنم. در پست دیگری در StackExchange متوجه شدم که می‌توانم مقدار مناسب Y(i) را با انجام «Y(i-1)*model$coef[1] + ((1-model$coef[1])*model$coef پیدا کنم. [2])` لطفاً کسی توضیح دهد که چرا باید وقفه را در 1 منهای ضریب AR(1) ضرب کرد؟ پیشاپیش متشکرم Kasper PS این سوال دیگری است که من به آن اشاره می کنم: محاسبه مقدار برازش شده برای اولین مشاهده در یک سری زمانی
چگونه مقادیر برازش یک مدل آرما را محاسبه کنم؟
80968
من یک توزیع احتمال مشترک همانطور که در شکل داده شده است دارم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/jBQN4.png) در این شکل، متغیرهای موجود در دایره ها متغیرهای تصادفی و متغیرهای مربعی هستند. ثابت هستند. بنابراین، من می توانم توزیع مشترک را روی داده $y$ و پارامترهای مدل را به صورت زیر بنویسم: $$ P(y, w, \lambda, \phi) = P(y|w, \phi) \times P(w| \lambda) \times P(\lambda) \times P(\phi) $$ اکنون $P(w|\lambda)$ با استفاده از یک توزیع نرمال چند متغیره با میانگین 0 و یک کوواریانس مدل‌سازی می‌شود. ماتریس با $\lambda$ مقیاس شده است. $P(\lambda)$ و $P(\phi)$ با استفاده از توزیع‌های گاما مدل‌سازی می‌شوند. همچنین، عبارت درستنمایی $P(y|x, w, \phi)$ یک احتمال گاوسی است که توسط: $$ P(y|x, w, \phi) = (\frac{\phi}{2\pi) })^{0.5} \exp^{-0.5 e \phi e} $$ نویز مدل مستقل است و به طور یکسان توزیع شده است. اکنون، من به $P(w, \lambda, \phi|y)$ علاقه دارم که توسط توزیع مشترک در بالا به طور مناسب توسط $P(y)$ نرمال شده است. سوال من در مورد استفاده از انتشار انتظار برای انجام استنتاج در این مدل من سعی کردم EP را با موفقیت کمی درک کنم. آیا کسی می تواند به من کمک کند تا بفهمم چه تقریبی باید برای این مدل انجام دهم تا از EP در آن استفاده کنم؟ $P(w|\lambda)$ قبلی با استفاده از توزیع نرمال چند متغیره میانگین صفر مدل‌سازی می‌شود. $P(\lambda)$ با استفاده از توزیع گاما مدل‌سازی می‌شود و $P(\phi)$ نیز یک توزیع گاما است. بنابراین، برای استنباط $P(w، \lambda، \phi|y)$ پسین، من در مورد اینکه از کجا شروع کنم سردرگم هستم. آیا برای فرض استقلال در میان توزیع های پسین این پارامترها باید با رویکرد میدان میانگین شروع کنم؟ $$ P(w, \lambda, \phi) \approx q(w) \times q(\lambda) \times q(\phi) $$ من هفته‌هاست که با این مشکل دست و پنجه نرم می‌کنم. هر گونه پیشنهاد / مرجع و غیره واقعا قدردانی می شود. با نگاهی به یادداشت‌های سخنرانی مینکا، من با مشکلاتی روبرو هستم که بفهمم آیا نمودار عاملی برای این موضوع معمولاً ساختاری است که او در مثال‌هایش استفاده می‌کند یا خیر.
استفاده از انتشار انتظار برای استنتاج مدل
10155
هنگام استفاده از یک خانواده دوجمله ای، پیوند لاجیت برای GLM (یا GEE در مورد من)، متوجه می شوم که تخمین های مدل من زمانی واگرا می شوند که متغیرهای پاسخ من (که احتمالات پیوسته با محدوده 0 تا 1 هستند) شامل 0 یا 1 (یا 0 <= y) باشد. <= 1) به عنوان مقادیر مشاهده شده، اما مدل هایی با متغیرهای پاسخ که شامل 0 یا 1 (یا 0 < y < 1) نیستند، می توانند به خوبی همگرا شوند سوال: * چرا این اتفاق می افتد؟ هنگام اجرای یک مدل رگرسیون لجستیک (با 0 < y < 1) مدل به خوبی اجرا می شود، همانطور که مدل زمانی که متغیر پاسخ دوگانه 0/1 است، خوب اجرا می شود. من به موارد زیر مشکوک هستم: بگوئیم مشاهداتی دارم 0 < y <= 1. در این مورد، الگوریتم یک‌های من را می‌بیند اما هیچ صفری را نمی‌بیند، و سپس می‌گوید بعضی گروه‌ها کمتر از x مشاهدات دارند، گروه فوق الذکر است. آنهایی که قرار است صفر داشته باشند. سوال ثانویه: * اگر مشاهداتی که 0 یا 1 هستند را به منظور مطابقت با مدل های خود حذف کنم، آیا نتایج خود را جانبدارانه می کنم؟ در اینجا یک مثال آورده شده است: متغیر پاسخ من نرخ فارغ التحصیلی است که به صورت درصد بیان می شود. برای مدل‌های رگرسیون لجستیک، ظاهراً مدارسی وجود دارند که نرخ فارغ‌التحصیلی 100٪ دارند (در مجموعه داده من به عنوان 1 دیده می‌شود). آیا حذف این مکاتب از مدل راهبردی معتبر خواهد بود و پیامدهای آن در تفسیر چیست؟ آیا این شبیه به حذف اقلام پرت خواه یا ناخواسته است؟
برآوردهای واگرا با استفاده از احتمالات پیوسته در رگرسیون لجستیک
70234
من سعی می کنم از الگوریتم FastICA در متلب استفاده کنم. سوال من این است: از کجا بدانم تعداد بهینه آی سی کدام است؟ من ماتریسی از 62 نمونه با 1009 سیگنال دارم و الگوریتم FastICA 31 آی سی را برمی گرداند. چرا 31؟ آیا خروجی وجود دارد که بتوانم ببینم چه مقدار واریانس با چه تعداد مؤلفه توضیح داده شده است؟ درسته که ترتیب آی سی ها اصلا مهم نیست؟
ICA - چگونه تعداد بهینه اجزا را بدانم؟
10154
اول از همه باید اشاره کنم که من اصلا اهل ایستا نیستم، فقط یک برنامه نویس ساده هستم و کنجکاوی هایی دارم... و بدتر از همه، نمی دانم از کجا شروع کنم. بیایید سناریوی کاری زیر را فرض کنیم: یک شرکت بزرگ، یک ارائه‌دهنده خدمات اینترنتی (ISP) با پهنای باند نامحدود، تغییر نحوه استفاده و پرداخت هزینه‌های خدمات اینترنتی توسط کاربران را انتخاب می‌کند: هر کاربر باید پیش‌بینی کند که در آینده چقدر پهنای باند مصرف می‌کند. روز برای هر ساعت اگر کاربر پیش بینی کند که از 0.00 تا 18.00 0 مگابایت مصرف می کند، هیچ پرداختی نخواهد کرد. اگر کاربر پیش‌بینی کند که از ساعت 18 تا 20 یک فیلم HD می‌بیند، 10 گیگابایت مصرف می‌کند و فقط برای آن مقدار داده پول می‌پردازد. اگر کاربر بیشتر از آنچه که پیش‌بینی کرده مصرف کند، برای آن مقدار داده (فقط برای تفاوت) هزینه بیشتری می‌پردازد. مقدار پیش‌بینی‌شده داده ارزان‌ترین است. اگر بیشتر از آنچه پیش بینی شده مصرف کنند، باید جریمه بپردازند. مسئله این است که کاربران می توانند با دوستان خود شبکه/گروه بسازند تا هزینه های خود را بهینه کنند. به عنوان مثال، اگر کاربر از مقدار پیش‌بینی‌شده داده‌اش استفاده نمی‌کند، دوست دیگری از شبکه او می‌تواند به صورت رایگان از آن استفاده کند. اگر بخواهند کاربران یک گروه، می توانند (هر 30 دقیقه) ببینند که آیا دوستانشان ترافیک مصرف می کنند یا خیر. ایده این است که هر کاربر باید بر اساس عادات و برنامه های خود پیش بینی کند که چقدر اینترنت مصرف می کند. کاربران در پایان هر ماه میزان ترافیک مصرفی خود را پرداخت خواهند کرد. اکنون، تلاش برای یافتن مناسب‌ترین راه برای نمایش پیش‌بینی‌های ترافیک برای هر کاربر، گروه و برای ISP است. \- من از نمودارهای خطی برای نشان دادن مقداری که کاربر در هر روز برای هر ساعت پیش‌بینی کرده و چه مقدار مصرف کرده است استفاده می‌کنم. \- من از نمودارهای میله ای برای نشان دادن تفاوت بین آنچه پیش بینی شده بود و آنچه در هر ساعت مصرف شده بود استفاده می کنم. مشکل این است که آن داده‌ها را به‌صورت گرافیکی برای هر ماه، برای هر کاربر، گروه و ISP نشان دهیم: -آیا می‌توانید نمونه‌ها یا منابعی را به من بدهید که می‌تواند به یافتن بهترین راه برای بازنمایی هزینه‌های داده‌ام کمک کند؟ آیا ایده ای دارید که از چه رویکرد آماری برای نشان دادن پیش آگهی ها، کم مصرف ها و خطاها استفاده کنید؟ با تشکر فراوان
نمایش پیش بینی های استفاده از ترافیک به صورت گرافیکی
5195
به عنوان عنوان، باید چیزی شبیه به این ترسیم کنم: ![alt text](http://i.stack.imgur.com/KYQ5V.jpg) آیا می توان از ggplot یا بسته های دیگر در صورت عدم توانایی ggplot برای ترسیم چیزی استفاده کرد. اینجوری؟
چگونه نمودار قیف را با استفاده از ggplot2 در R رسم کنیم؟
84246
یک شرکت دارای 20 کارمند، 12 مرد و 8 زن است. فرض کنید باید کمیته ای متشکل از 5 کارمند تشکیل دهیم. 1. در صورت نیاز به 3 مرد و 2 زن چند راه برای تشکیل این کمیته وجود دارد؟ من معتقدم این یک مشکل جایگشت است و آن را به عنوان یکی محاسبه می کنم. 12 * 11 * 10 * 8 * 7 = 73920 2. اگر حداقل به 4 زن نیاز داشته باشیم چند راه برای تشکیل این کمیته وجود دارد؟ مانند موارد فوق به جز اینکه ما به چهار زن نیاز داریم، بنابراین، 8 * 7 * 6 * 5 * 12 = 20169 3. اگر حداقل به 2 مرد و حداقل 2 زن نیاز داشته باشیم، چند راه برای تشکیل این کمیته وجود دارد؟ 12 * 11 * 8 * 7 * 16 (چون تعداد افراد باقی مانده است) = 118272. مردم پاسخ های متفاوتی دریافت کردند، آیا من به این موضوع اشتباه نگاه می کنم؟
به چند روش مختلف می توانم این کمیته را ترتیب دهم؟
84242
من n اتاق (که می تواند به عنوان حالت در نظر گرفته شود) و یک سنسور روی رباتم دارم که به من یک آرایه احتمالی می دهد که در چه اتاقی است (این آرایه اندازه n است و مجموع آن 1 است). در هر مهر زمانی (مثلاً 5 ثانیه بین مهرهای زمانی فاصله دارند) ربات اندازه گیری می کند و آن را ذخیره می کند. علاوه بر این، من می دانم که ربات من بسیار کند است و اتاق ها بسیار بزرگ هستند، بنابراین ربات باید در طول زمان x در همان اتاق بماند (مثلاً با x = 12، باید 60 ثانیه در همان اتاق بماند). حالا قسمت مشکل اینجاست: * سنسور نسبتاً پر سر و صدا است، بنابراین اتاق مناسب باید در بدترین حالت در مکان سوم آرایه سنسور باشد (اگر با کاهش احتمال سفارش دهید) * خوشبختانه، من فقط باید در مورد اتاق ها بدانم جایی که ربات **بعد از** سفر او به پایان رسید (از این رو شناسایی اتاق خلفی) در آن قرار داشت، به این معنی که ربات هنگام سفر از این حسگر استفاده نمی کند * اتاق قبلی وجود ندارد. توپولوژی، می توانید در نظر بگیرید که اتاق ها همه به یکدیگر متصل هستند. آخرین بخش از اطلاعات: من می توانم مدل را با مجموعه داده های حقیقت پایه آموزش دهم. فکر نمی کنم برای طراحی یک مدل نیازی به افزودن داده های بیشتری باشد. من قصد داشتم به سراغ یک مدل حالت ساده مارکوف بروم، اما سه مشاهداتی که انجام دادم باعث می‌شود من شک کنم که درست اعمال شود، زیرا حال به گذشته **و** به آینده بستگی دارد. از چه مدلی استفاده می کنید؟
برای شناسایی اتاق خلفی از چه مدل بیزی استفاده کنم؟
84244
من این سوال را پرسیدم: واریانس های چند گروه را مقایسه کنید روش لوین فقط همه گروه ها را آزمایش می کند. چگونه می توانم گروه هایی را که دارای واریانس های مختلف هستند شناسایی کنم؟
واریانس چند گروه را به طور جداگانه مقایسه کنید
6368
لطفاً برای طراحی مطالعه و پاسخ اولیه کاراکال به این سؤال (stats.stackexchange.com) http://bit.ly/got8Bs مراجعه کنید. سوال من اکنون این است: چگونه می توانم تضاد تعامل بین دو گروه را همانطور که او پیشنهاد کرد آزمایش کنم؟ من طرف علم چیزها هستم (تخصص حداقل آمار) و از Graphpad Prism برای تحلیل های اولیه استفاده می کنم. من همچنین درک اولیه ای از R دارم. آیا می توان H1′:(μ12-μ11)>(μ22-μ21) را با استفاده از هر یک از این برنامه ها آزمایش کرد؟ بازم ممنون
کنتراست های تعامل را با استفاده از Prism یا R تست کنید
10159
من می خواهم شروع کنم با گفتن این که این یک مشکل تکلیف است که مستقیماً از کتاب خارج شده است. چند ساعتی را صرف جستجوی چگونگی یافتن مقادیر مورد انتظار کرده‌ام و به این نتیجه رسیده‌ام که هیچ چیز نمی‌فهمم. > اجازه دهید $X$ دارای cdf $F(x) = 1 باشد - x^{-\alpha}، x\ge1$. $E(X)$ را برای آن > مقادیر $\alpha$ که $E(X)$ برای آنها وجود دارد، پیدا کنید. من هیچ ایده ای برای شروع این کار ندارم. چگونه می توانم تعیین کنم که کدام مقادیر $\alpha$ وجود دارد؟ من همچنین نمی دانم با cdf چه کنم (من فرض می کنم این به معنای تابع توزیع تجمعی است). انجمن هایی برای یافتن مقدار مورد انتظار وجود دارد که تابع فرکانس یا تابع چگالی دارید. ویکی‌پدیا می‌گوید CDF $X$ را می‌توان بر حسب تابع چگالی احتمال ƒ به صورت زیر تعریف کرد: $F(x) = \int_{-\infty}^x f(t)\,dt$ این تا جایی است که من گرفت. از اینجا کجا برم؟ ویرایش: منظورم این بود که $x\ge1$ قرار دهم.
مقدار مورد انتظار را با استفاده از cdf پیدا کنید
10152
من در مورد توزیع دوجمله ای منفی با تورم صفر چند ماه پیش هنگامی که در تلاش برای انجام رگرسیون بر روی برخی از داده های گسسته بودم، یاد گرفتم. من اکنون یک مجموعه داده متفاوت دارم، و به نظر می‌رسد بسیار شبیه است با این تفاوت که به نظر می‌رسد مقدار «1» بیش از حد نشان داده شده است (در مقابل «0»). آیا چیزی به نام توزیع دوجمله ای منفی یک طرفه وجود دارد؟ چگونه می توانم این داده ها را مدل کنم؟
دوجمله ای منفی یک متورم؟
84258
من مدلی را در نظر می‌گیرم که شامل یک ماتریس کوواریانس است که تابعی از پارامترهای مدل است: $$ \mathbf \Sigma = \Sigma(\mathbf \theta)، $$ که $\mathbf \theta$ $p$-بعدی است، $\mathbf \Sigma$ $d \times d$ و $d \geq p$ است. من می دانم که برای هر $\mathbf \theta$، $\mathbf \Sigma(\mathbf \theta)$ به احتمال زیاد به صفر همگرا می شود. می‌خواهم بدانم که تحت چه شرایطی به این معنی است: $$ \frac{\partial \mathbf \Sigma(\mathbf \theta)}{\partial \mathbf \theta_k} \overset{p}{\to} \mathbf 0، \;\;\; \forall \, k $$ آیا باید همگرایی یکنواخت $\frac{\partial \mathbf \Sigma(\mathbf \theta)}{\partial \mathbf \theta_k}$ را فرض کنم؟ با تشکر از شما برای هر گونه پیشنهاد / اشاره!
شرایط همگرایی ضعیف مشتقات ماتریس کوواریانس
45276
فرض کنید شما یک سری آزمایش _n_ دارید که احتمال موفقیت در هر آزمایش _p_ است. توزیع تعداد آزمایش‌های موفق از توزیع دوجمله‌ای با پارامترهای (n، p) پیروی می‌کند. میانگین با _np_ داده می شود در حالی که واریانس _np(1-p)_ است. تا اینجا خیلی خوب است: این چیزهای آمار 101 بسیار پیش پا افتاده است. اما حالا فرض کنید که من فقط از آزمایش‌های موفق می‌دانستم و از تعداد کل آزمایش‌ها _n_ اطلاعی نداشتم، که متغیری است که من علاقه مند به تخمین آن هستم. برای مثال، می‌دانستم که 100 آزمایش موفق داشتم، که در آن هر آزمایش 0.1 شانس موفقیت داشت. آیا توزیع احتمال شناخته شده ای وجود دارد که پیامدهای احتمالی _n_، تعداد کل آزمایش ها را توصیف کند؟ تخمین میانگین آسان است: اگر _m_ تعداد موفقیت ها باشد، آنگاه فقط _m/p_ است. اما در مورد واریانس و سایر معیارها چطور؟ اگر هر موفقیت شانس موفقیت متفاوتی (اما شناخته شده) داشت چه؟ فرض کنید من سوابق زیر را داشتم: * success1 (با p=0.1) * success2 (با p=0.1) * success3 (با p=0.2) باز هم، با جمع کردن _1/ می‌توان تخمین خوبی از تعداد کل آزمایش‌ها به دست آورد. p_ برای هر آزمایش موفق. در این صورت آن عدد 10+10+5=25 است. اما در مورد واریانس و سایر معیارها چطور؟
توزیع تعداد آزمایشات برنولی با توجه به تعداد موفقیت ها
70237
همه ما Leptokurtic ~ Kurtosis > 3 و Platykurtic ~ Kurtosis < 3 را می شناسیم من در مورد شکل منحنی کمی گیج هستم. در جایی خوانده بودم که از آنجایی که سطح زیر منحنی باید 1 باشد، برای توزیع های لپتوکورتیک (از آنجایی که پیک بالاتر از توزیع نرمال است)، دم ها خیلی زودتر از حالت توزیع عادی به محور X نزدیک می شوند، یعنی زمانی که pdf است. رسم شده است، دم در مورد لپتوکورتیک زیر دم منحنی معمولی قرار دارد، بنابراین حدس می‌زنم لپتوکورتیک دم نازکی دارد. از سوی دیگر، در مورد پلاتیکورتیک، اوج کمتر از منحنی معمولی است، اما دم آن بالای دم منحنی نرمال قرار دارد و دم چاق است. این درک من است و ممکن است سخت در اشتباه باشم. با این حال، زمانی که به سایت‌های زیادی مراجعه کردم یا تصاویر گوگل را مرور کردم، با موارد زیادی برخورد کردم که در آن اوج بسیار بالاتر از توزیع عادی و همچنین دم بالای منحنی توزیع عادی نشان داده شد. بنابراین من در حال حاضر بسیار گیج هستم زیرا من یک آماردان اصلی نیستم اما مطمئناً دوست دارم شک های خود را روشن کنم و چیزهای کمی یاد بگیرم. همچنین، مطمئن نیستم که FAT tail مترادف HEAVY tail باشد یا خیر. میشه یکی اینو با کلمات ساده توضیح بده تا احمقی مثل من روشن بشه.
کورتوز و توزیع دم چربی
5443
هنگام ساختن یک مدل CART (به ویژه درخت طبقه بندی) با استفاده از rpart (در R)، گاهی اوقات واضح است که متغیرهایی (X) وجود دارند که برای پیش بینی برخی از متغیرهای نتیجه (y) معنادار هستند - در حالی که سایر پیش بینی کننده ها برای سایر متغیرهای y مرتبط هستند. فقط **چگونه می توان تخمین زد که کدام متغیر توضیحی برای کدام یک از مقادیر پیش بینی شده در متغیر نتیجه استفاده شده است؟** در اینجا کد مثالی وجود دارد که در آن x2 تنها متغیر مهم برای پیش بینی b است (یکی از y نتایج). هیچ متغیر پیش بینی کننده ای برای c وجود ندارد و x1 یک پیش بینی کننده برای a است، با این فرض که x2 آن را اجازه می دهد. چگونه می توان این وضعیت را از مدل برازش شده استخراج کرد؟ N <- 200 set.seed(5123) x1 <- runif(N) x2 <- runif(N) x3 <- runif(N) y <- نمونه(حروف[1:3]، N، T) y[x1 <.5] <- a y[x2 <.1] <- b fit <- rpart(y ~ x1+x2) fit2 <- prune(fit, cp= 0.07) plot(fit2) text(fit2, use.n=TRUE) با تشکر.
پیش‌بینی‌کننده‌های «معنی‌دار» برای یک مقدار در مدل CART (rpart) را تخمین بزنید.
5191
این سوال مربوط به سوال قبلی من است. تعصب برای تخمینگر چگالی هسته (مورد تناوبی) یک هسته $K(x)$ از مرتبه $p$ است اگر $$\int_{-\infty}^{\infty}K(x )x^{j}=\delta_{0,j}\ j=0,...p-1$$ $$\int_{-\infty}^{\infty}K(x)x^{p}\neq0\ $$ آیا به این معنی است که برای هسته با دوره 1 تعریف ترتیب هسته $$\ است؟ int_{0}^{1}K(x)Min(x,1-x)^{j}=\delta_{0,j}\ j=0,...p-1$$ $$\int_{0}^{1}K(x)Min(x,1-x)^{p}\neq0\ $$
ترتیب هسته برای موارد دوره ای
1610
من از نظر تحصیلات آمارگیر نیستم، من یک مهندس نرم افزار هستم. با این حال آمار بسیار زیاد است. در واقع، سؤالات مخصوصاً در مورد خطای نوع I و نوع II در دوره تحصیل من برای آزمون کاردانی توسعه نرم افزار گواهی شده (ریاضی و آمار 10٪ از آزمون است) زیاد می شود. من همیشه در ارائه تعاریف درست برای خطای نوع I و نوع II با مشکل مواجه هستم - اگرچه اکنون آنها را حفظ می کنم (و اغلب اوقات می توانم آنها را به خاطر بسپارم) ، واقعاً نمی خواهم در این امتحان تصمیم بگیرم. سعی کنید به یاد بیاورید که تفاوت چیست می‌دانم که خطای نوع اول مثبت کاذب است، یا زمانی که شما فرضیه صفر را رد می‌کنید و در واقع درست است و خطای نوع دوم، منفی کاذب است، یا زمانی که فرضیه صفر را می‌پذیرید و در واقع نادرست است. آیا راه آسانی برای یادآوری تفاوت وجود دارد، مانند یادداشت؟ آماردانان حرفه ای چگونه این کار را انجام می دهند - آیا این فقط چیزی است که آنها از استفاده یا بحث اغلب آن می دانند؟ (توجه جانبی: این سوال احتمالاً می تواند از برچسب های بهتری استفاده کند. یکی که می خواستم ایجاد کنم اصطلاحات بود، اما شهرت کافی برای انجام آن ندارم. اگر کسی بتواند آن را اضافه کند، عالی است. با تشکر.)
آیا راهی برای یادآوری تعاریف خطاهای نوع I و نوع II وجود دارد؟
114603
من یک سوال در مورد خوشه بندی دارم. من یک ماتریس متقارن از 50 تخصص دارم (50 در 50) که در آن هر سلول تعداد مشاهدات مربوط به هر ترکیبی از تخصص ها را نشان می دهد. برخی از ترکیبات در این ماتریس در داده ها (کد شده با فرکانس صفر) وجود ندارد و قطر آن صفر است. من می خواهم برای یافتن ساختار این تخصص ها، خوشه بندی سلسله مراتبی را انجام دهم. اما قبل از آن، من باید فرکانس هر سلول را به مجاربتی (شباهت ها / عدم تشابه ها) تبدیل کنم. آیا کسی از شاخصی از شباهت ها / عدم شباهت ها بر اساس فرکانس های مشترک خبر دارد؟ سوال دیگر اینکه روش خوشه بندی پذیرفته شده (تک پیوند، پیوند متوسط، روش بخش و غیره) برای تحلیل این مجاورت ها چیست؟ همه پیشنهادات استقبال می شود.
تجزیه و تحلیل خوشه ای ( مجاورت ها )
45897
**وقتی نوبت به تخمین همبستگی‌هایی می‌رسد که در فهرست زیر از قلم افتاده‌ام، به دنبال کسب اطلاعات در مورد جایگزین‌های اصلی/محبوب هستم. بهترین پاسخ یک مرجع (می تواند ویکی پدیا) باشد، یک توضیح سریع و یک انگیزه/هدف/دلیل استفاده ارائه می دهد. در اینجا مواردی وجود دارد که من قبلاً از آنها آگاه هستم: * * * $$\text{برآورندگان بدون شرط}$$ * تخمین پیرسون. * تخمین کندال تاو. * تخمین همبستگی رتبه اسپیرمن $$\text{برآورندگان زمان متغیر}$$ * برآورد همبستگی متغیر با زمان DCC-fGARCH. (یعنی DCC(p,q) با انواع مختلف GARCH؛ موارد رایج در امور مالی GARCH، eGARCH، TGARCH یا GJR-GARCH هستند). * همبستگی های متغیر با زمان توسط رگرسیون های فیلتر کالمن (هرچند من از این روش شناسی بی اطلاع هستم، فقط آن را در مقاله ای دیدم که نگاهی به آن انداختم). $$\text{برآورنده‌های افراطی توزیع}$$ * فناوری جدید در بلوک. همبستگی های چندکی، روشی است که ظاهراً قوی برای تخمین همبستگی ها در انتهای/دم یکی از متغیرها است. * * * من می دانم که برخی از کارهای همبستگی با ماتریس های تصادفی انجام شده است، اما من از این موضوع بی اطلاع هستم.
برآوردگرهای همبستگی متفاوت/جایگزین اصلی کدامند؟
80962
تحت چه شرایطی باید از نظر همسویی (یعنی با استفاده از تست Levene) آزمایش کنم؟ آیا این فقط برای طرح‌های اندازه‌گیری مکرر است یا باید آن را در طرح‌های مستقل نیز آزمایش کنم؟
چه زمانی برای همجنسگرایی آزمایش کنیم؟
45277
هنگامی که یک سری زمانی از فرآیند IMA(1,1) پیروی می کند و هموارسازی نمایی تکی (SES) به عنوان یک روش پیش بینی استفاده می شود، آیا باید یک ثابت هموارسازی پایین ($\alpha<0.3$) یا بزرگتر ($\alpha) را انتخاب کنیم. > 0.5 دلار)؟ تفسیر شهودی چیست؟
پیش‌بینی فرآیند IMA(1،1) با استفاده از SES
5197
من بانک اطلاعاتی از 78706 حادثه مقیم در مراکز مراقبت سالمندان (5 سال داده) دارم. من می‌خواهم ابزاری را یاد بگیرم و پیاده‌سازی کنم که امکان تجزیه و تحلیل این داده‌ها را با استفاده از ویژگی‌های زیر فراهم می‌کند: 1. مقیم 2. تاریخ/زمان 3. مکان 4. نتیجه 5. آسیب من می‌خواهم بتوانم مفروضات زیر را از سیستم خود دریافت کنم که تصویب خواهد شد. به متخصصان برای تحقیقات بیشتر، تصمیم گیری و اقدام: نمونه هایی از خروجی ها: 1. اکثر حوادث در تاسیسات A با ساکنان X، Y و Z 2. سقوط در شمال رخ می دهد. بال بین ساعت 2 صبح تا 5 صبح 3. پارگی پوست در حین دوش گرفتن در مرکز B رخ می دهد 4. بیشتر حوادث در یک مرکز C مربوط به تغییر موقعیت است. این مشکل را حل می کند - رگرسیون، خوشه و غیره.
چه نوع تحلیل آماری این مشکل را حل می کند؟
114600
مشکل من این است: ارزیابی: $$\sum_{i=0}^n i{n \choose i}$$ فقط می دانم که $$\sum_{i=0}^n{n \choose i} = 2^n وقتی یک i اضافه می شود، $$ مطمئن نیستم. مرحله این ارزیابی چیست؟
مجموع ترکیب
14272
من مجموعه داده ای دارم که شامل پاسخ های فردی به یک سری سؤال می شود. شرکت کنندگان یک بازی با یکی از دو نقش (پنهان، جستجوگر) انجام دادند و پاسخ خود را با یک متغیر باینری (0: آبی، 1: قرمز) نشان دادند. 4 مورد در شرایط موضوعی و 3 مورد بین شرایط موضوعی وجود داشت. من به نوعی می خواهم به صورت گرافیکی الگوهای کل را در پاسخ های فردی خلاصه کنم. یعنی من می خواهم الگوهای رایج در هر شرایط را خلاصه کنم. به عنوان مثال، برای اینکه ببینم چند شرکت کننده در هر شرایط، در بین شرایط و غیره پاسخ یکسانی دادند. بنابراین من به نوعی توزیع فرکانس فکر می کنم، اما برای هر سؤال جداگانه. بنابراین احتمالاً نوعی شبکه چند بعدی بهترین خواهد بود. پیشنهادی دارید؟
جست‌وجوی پیشنهادهایی برای خلاصه‌سازی و تجسم داده‌ها
80967
این سوال یک تعریف کمی از آنتروپی متقاطع را از نظر فرمول ارائه می دهد. ویکی‌پدیا می‌گوید: در تئوری اطلاعات، آنتروپی متقاطع بین دو توزیع احتمال، میانگین تعداد بیت‌های مورد نیاز برای شناسایی یک رویداد از مجموعه‌ای از احتمالات را اندازه‌گیری می‌کند. بر اساس توزیع احتمالی > داده شده q، به جای توزیع صحیح p._ من بر بخشی تاکید کرده ام که در درک این موضوع برای من مشکل ایجاد می کند. من یک تعریف خوب می خواهم که نیازی به درک جداگانه (از قبل) آنتروپی نداشته باشد.
از نظر کیفی آنتروپی متقاطع چیست
94826
اجازه دهید $X_1,\dots X_n$ i.i.d باشد. و $N(\mu,\sigma^2)$ توزیع شد. اجازه دهید $$\overline{X} = \frac{1}{n}\sum_{i=1}^n X_i$$ و $$S^2=\frac{1}{n-1}\sum_{i =1}^n (X_i -\overline{X})^2$$ سپس می‌دانم که از طریق توزیع $S^2$ می‌توان به راحتی واریانس آن را پیدا کرد که $$\mathbf{Var} است. (S^2)=\sigma^4 \cdot \frac{2}{n-1} $$ اما با توجه به این که این نتیجه همه چیز مورد نیاز من است، آیا می توان آن را تنها با استفاده از احتمال اولیه استخراج کرد؟ p.s. نمی‌دانستم سوال را چه برچسبی بزنم، خیلی راحت به من کمک کنید.
اثبات ساده مبنی بر اینکه تخمین واریانس واریانس $\sigma^4 \cdot \frac{2}{n-1}$ است با توجه به نمونه iid عادی
45898
من یک سوال در مورد رگرسیون چند جمله ای چند جمله ای و حداقل مطلق امتیاز در شرایط مختلف دارم. حداقل مقدار امتیاز مورد نیاز برای یک چند جمله ای مرتبه دوم (در یک متغیر) سه و به طور کلی p+1 خواهد بود که p مرتبه چند جمله ای است. من شهودی را دارم که این به بیش از یک متغیر تعمیم می‌دهد، اما نمی‌توانم آن را ثابت کنم و می‌خواهم ماتریس طراحی خود را ترم به ترم (در نتیجه ستون به ستون) برای مقادیر کافی از نقاط بررسی کنم. به عنوان مثال مدل زیر را در نظر بگیرید: $y = b_0 + b_1x_1 + b_2x_2 + b_{12}x_1x_2$ ترتیب جمله آخر 2 است، که نشان می‌دهد برای تغییر کافی این عبارت به سه امتیاز نیاز است. آیا کسی می تواند من را به اثباتی راهنمایی کند که ستون سوم در ماتریس طراحی من باید حداقل سه مقدار متمایز داشته باشد؟ راه دیگری برای بیان سوال این است: آیا در نمونه‌برداری از نقاط $x_1$ و $x_2$ در هذلولی $x_1x_2=\mathrm{const}_1$ (یا در $x_1x_2=\mathrm{const}_1$) با مشکل مواجه می‌شوید. و $x_1x_2=\mathrm{const}_2$؟
مکان های نقطه نمونه و رگرسیون خطی چندگانه
5196
به منظور کالیبره کردن سطح اطمینان به احتمال در یادگیری نظارت شده (مثلاً برای ترسیم اطمینان از یک SVM یا درخت تصمیم با استفاده از داده های نمونه برداری بیش از حد) یک روش استفاده از مقیاس پلات است (به عنوان مثال، بدست آوردن احتمالات کالیبره شده از تقویت). اساساً از رگرسیون لجستیک برای ترسیم $[-\infty;\infty]$ به $[0;1]$ استفاده می شود. متغیر وابسته برچسب واقعی و پیش بینی کننده اطمینان حاصل از مدل کالیبره نشده است. چیزی که من نمی فهمم استفاده از یک متغیر هدف به غیر از 1 یا 0 است. این روش نیازمند ایجاد یک برچسب جدید است: > برای جلوگیری از تطبیق بیش از حد با مجموعه قطار سیگموئید، یک مدل خارج از نمونه > استفاده می شود. اگر $N_+$ مثال‌های مثبت و $N_-$ مثال‌های منفی در > مجموعه قطار وجود دارد، برای هر مثال آموزشی Platt Calibration از target > مقادیر $y_+$ و $y_-$ (به‌ترتیب به‌جای 1 و 0) استفاده می‌کند. ، جایی که $$ > y_+=\frac{N_++1}{N_++2};\quad\quad y_-=\frac{1}{N_-+2} $$ چیزی که من نمی فهمم این است که چگونه این هدف جدید مفید است. آیا رگرسیون لجستیک صرفاً متغیر وابسته را به عنوان یک برچسب باینری (صرف نظر از اینکه چه برچسبی داده شده است) در نظر نمی گیرد؟ **به روز رسانی:** متوجه شدم که در SAS تغییر وابسته از $1/0$ به چیز دیگری به همان مدل برگردانده شده است (با استفاده از PROC GENMOD). شاید اشتباه من یا شاید عدم تطبیق پذیری SAS. من توانستم مدل را در R تغییر دهم. به عنوان مثال: data(ToothGrowth) attach(ToothGrowth) # 1/0 dep coding <- ifelse(supp == VC, 1, 0) OneZeroModel <- glm(dep~ len، خانواده = دوجمله ای) OneZeroModel پیش بینی (OneZeroModel) # Platt کدگذاری dep2 <- ifelse(supp == VC، 31/32، 1/32) plattCodeModel <- glm(dep2~len، خانواده=دوجمله ای) plattCodeModel predict(plattCodeModel) مقایسه <- cbind(predict(OneZeroModel), predict(plattCodeModel)) plot(predict(OneZ ), پیش بینی (plattCodeModel))
چرا از مقیاس بندی Platt استفاده کنیم؟
14893
من سعی می کنم اسکریپت wrapper ارائه شده توسط libsvm easy.py را روی یک مجموعه آموزشی از 100 هزار ردیف اجرا کنم، هر ردیف دارای 300 ویژگی است. داده‌های ویژگی نسبتاً پراکنده هستند، مثلاً فقط 1/10 مقادیر غیر صفر هستند. فیلمنامه به طرز طاقت فرسایی کند است، من روزها (یا بیشتر) صحبت می کنم. من همان اسکریپت را روی 1٪ از داده ها اجرا کردم، و در حدود 20 دقیقه با نتایج معقولی به پایان رسید، بنابراین به نظر می رسد که داده / قالب ورودی صحیح است و هیچ مشکل آشکاری در آن وجود ندارد. من دریافتم که مستندات libsvm تا حدودی کم است و در مورد مسائل عملی مانند عملکرد چندان مفید نیست. سؤالات متداول آنها در مورد این موارد بی‌صدا است: http://www.csie.ntu.edu.tw/~cjlin/libsvm/faq.html آیا کسی مشکلات مشابهی را با سرعت آموزش SVM تجربه کرده است؟ آیا کتابخانه های مناسب تری می شناسید یا راهبردهای خاصی برای آزمایش در چنین مواردی؟
آموزش libsvm خیلی کند روی 100K ردیف، پیشنهاد می کنید؟
80964
داشتم یک مقاله علوم اجتماعی می خواندم که سعی می کرد همبستگی بین دو متغیر را توضیح دهد. در آن مرجع به خطای استاندارد و مقدار p اشاره شد و این باعث شد که فکر کنم آیا نویسنده از یک فرمول ناشناخته (برای من) استفاده می کند که شامل متغیرهای توضیحی و پاسخ است یا خیر. تصور من این است که او خطای استاندارد و مقدار p را برای متغیر پاسخ مورد نظر اندازه می‌گرفت.
آیا فرمولی برای خطای استاندارد هر دو متغیر توضیحی و پاسخ وجود دارد؟
99960
به من آموزش داده شد که می توانم با مقایسه آن با حالت اشباع شده با آزمون افت در انحراف، یک تست خوب برازش برای مدل دو جمله ای انجام دهم. وقتی مدل دوجمله ای من دارای پراکندگی بیش از حد است، چه کاری باید انجام دهم؟ آیا هنوز هم می توانم از تست خوب بودن تناسب با استفاده از افت در انحراف استفاده کنم؟ و چگونه می توانم این کار را با استفاده از R انجام دهم (اگر آزمون با انحراف افت استاندارد متفاوت است)؟
چگونه می توانم خوب بودن برازش را برای مدل شبه دو جمله ای به دست بیاورم؟
45896
من در حال انجام تحقیقی در مورد تأثیر فرسودگی شغلی بر اضطراب، خستگی و خواب، قبل از یک رویداد خاص و بعد از یک رویداد هستم. یک نمونه وجود دارد که داده های متفاوتی از آن طی 6 سال جمع آوری شده است. 5 اندازه گیری مختلف (Time1 T2 T3 T4 T5) در T1 T2 و فرسودگی T3 اندازه گیری شد، خستگی در تمام اندازه گیری های زمانی اندازه گیری شد (Time1 T2 T3 T4 T5) اضطراب فقط در T4 و T5 اندازه گیری شد. ابتدا باید پیدا کنم آیا فرسودگی شغلی، خستگی و اضطراب واقعاً در این دوره زمانی رخ داده است (به فکر استفاده از اندازه گیری مکرر آنووا برای هر متغیر مجزا؟؟) یا مدل مختلط خطی؟ سپس می خواهم ببینم فرسودگی شغلی تأثیری بر خستگی و افسردگی دارد یا خیر. چگونه این را در SPSS پیدا کنم؟
چگونه می توان یک طرح مطالعه را با نگاهی به یک نمونه توصیف کرد که داده های مختلف آن در چندین دوره زمانی جمع آوری شده است
45895
** پس از یافتن نسخه پیش نویس فصل Imbens و Rubin، این را کمی ساده کردم. ** من علاقه مند به تخمین اثر درمان ضربی ثابت از یک آزمایش تصادفی هستم. من معتقدم DGP برای داده های مشاهده شده من چیزی شبیه \begin{equation} y_i=y_i^C\cdot(1+\beta)^T\cdot\varepsilon_i، \end{equation} که $y_i^C$ برابر است نتیجه بالقوه در حالت درمان نشده و $T\in \\{0,1\\}$. کیله و همکاران (2012) به Imbens و Rubin (2008) استناد کرده و پیشنهاد می کنند که می توانید \begin{equation} \Delta_M=\left(\frac{1}{N_T}\sum_{T=1} \ln y_i^T\right) را تفسیر کنید. -\left(\frac{1}{N_C}\sum_{T=0} \ln y_i^C \right) \end{معادله} به عنوان یک اثر درمانی ضربی ثابت. ایمبنز و روبین در واقع این فرض را دارند که $y_i=y_i^C\cdot\exp\\{\beta\\}^T,$ که از $\exp\\{\beta\\}\approx1+\beta$ مشابه است. . در مورد من، من فکر می کنم مشتق به این شکل است: \begin{equation} \Gamma_M=\frac{\left(\frac{1}{N_T}\sum \ln y_i^T\right)-\left(\frac {1}{N_C}\sum \ln y_i^C \right)}{\left(\frac{1}{N_C}\sum \ln y_i^C \right)}=\frac{\left(\frac{1}{N_T}\sum \ln y_i^C \cdot(1+\beta)\right)-\left(\frac{1}{N_C}\ sum \ln y_i^C \right)}{\left(\frac{1}{N_C}\sum \ln y_i^C \right)}، \end{معادله} که اگر میانگین پیامد درمان نشده برای افراد گروه تحت درمان (بالقوه و مشاهده نشده) با میانگین پیامد گروه کنترل در صورت عدم درمان (مشاهده) یکسان باشد، به $\beta$ ساده می شود. این باید در مورد تصادفی سازی مناسب باشد. این با معادله روبین/ایمبنس متفاوت است، اما تا حدودی پیچیده تر است، بنابراین من از مدل نمایی آنها استفاده خواهم کرد. سوال من اینجاست چگونه می توانم یک فاصله اطمینان برای $\Delta_M$ بدست بیاورم؟ آیا می توانم برای دریافت خطاهای استاندارد، یک رگرسیون $\ln y$ روی یک ساختگی درمان اجرا کنم؟
اثرات درمان ضربی با خطاهای استاندارد
80969
برای یک سوال آماری، داده ها به طور معمول توزیع نمی شدند، اما سوال نیاز به ANOVA دو طرفه داشت، بنابراین از یک تبدیل استفاده شد و همه به خوبی انجام شدند. حال در قسمت بعدی نیاز است که مجموعه داده ها توسط یکی از متغیرهای اسمی (در SPSS) تقسیم شود و یک آزمون t اجرا شود. بدیهی است که داده های تبدیل شده به طور معمول توزیع می شوند و بنابراین یک آزمون t قابل اجرا است، با این حال داده های اصلی (به طور معمول توزیع نشده) نیز می توانند با استفاده از یک آزمون ناپارامتریک قابل اجرا باشند. کدام یک برای استفاده بهتر است و چرا؟
پس از تبدیل داده ها، من یک آزمون t یا یک ناپارامتریک انجام می دهم
114304
من باید از تابع Survdiff برای مقایسه آماری (با استفاده از آزمون log-rank) توابع بقای زیر استفاده کنم: (1) مرد (جنس = 1) و زن (جنس = 2) (2) بیماران <= 65 ساله و بیماران > 65 ساله از دستور زیر Male <- استفاده کردم survdiff(Surv(time,Status)~sex==1,data=myeloma) Female <- survdiff(Surv(time,Status)~sex==2,data=myeloma) درست است؟
آزمون log-rank در R
84247
من می خواهم آزمایش کنم که آیا 3 متغیر وابسته (اندازه گیری شده با شرکت کنندگان یکسان) در واریانس متفاوت هستند یا خیر. برنامه من این است که یک مدل را که در آن 3 متغیر دارای واریانس یکسان هستند، و یک مدل که در آن اجازه دارند واریانس متفاوتی داشته باشند، جا بزنم و سپس با استفاده از آزمون انحراف، این مدل ها را مقایسه کنم. حال سوال این است که چگونه این کار را در SAS PROC MIXED انجام دهم؟ مدلی که در آن 3 متغیر دارای واریانس متفاوتی هستند، به این صورت است: Proc mixed data=example method=REML noclprint covtest; کلاس X IDpart; مدل Y = X/ راه حل ddfm=kr; تصادفی X / موضوع = شناسه نوع قسمت = un g gcorr; Parms (1) (1) (1) (1) (1) (1) (0.000001) / hold=7; دویدن؛ در جایی که Y امتیاز متغیرهای وابسته است، X نشان می دهد که امتیاز به کدام متغیر تعلق دارد (x=1 x=2 یا x=3) و IDpart تک تک شرکت کنندگان را مشخص می کند. توجه داشته باشید که ما از دستور Parms برای ثابت کردن واریانس باقیمانده روی (مقدار بسیار نزدیک به) صفر استفاده می کنیم، زیرا دستور تصادفی قبلاً 3 واریانس جداگانه برای 3 متغیر برازش داده است. (ما از عبارت تکرار استفاده نمی کنیم زیرا اجازه نمی دهد واریانس ها برابر باشند و در عین حال کوواریانس های بدون ساختار وجود دارد.) نتایج این مدل درست و با نتایج MLwiN یکسان است. اکنون، برای مدلی که در آن 3 متغیر واریانس یکسانی دارند، ما همچنان با مشکل مواجه می شویم. ما فکر کردیم که می توانیم سه واریانس را از ماتریس کوواریانس تعریف شده توسط دستور تصادفی به (مقدار بسیار نزدیک به) صفر ثابت کنیم، و اجازه دهید واریانس کلی با واریانس باقیمانده تخمین زده شود، مانند نحو زیر: Proc mixed data= روش مثال=REML noclprint covtest; کلاس X IDpart; مدل Y = X/ راه حل ddfm=kr; تصادفی X / موضوع = شناسه نوع قسمت = un g gcorr; پارمز (0.000001) (1) (0.000001) (1) (1) (0.000001) (1) / hold=1,3,6; دویدن؛ مدل همگرا می شود و کوواریانس ها تخمین زده می شوند در حالی که واریانس ها تا مقادیر اولیه بسیار کوچک خود حفظ می شوند. با این حال، 'gcorr' به ما همبستگی های '1' را بین 3 متغیر تعریف شده توسط X می دهد. این نمی تواند درست باشد و بنابراین یا چیزی در مدل اشتباه است، یا چیزی در نحوه ایجاد همبستگی 'gcorr' اشتباه است. هر گونه کمک یا پیشنهاد استقبال می شود.
چگونه پارامترهای کوواریانس را در sas proc مختلط محدود کنیم؟
64996
علیرغم بهترین جستجوی من، نتوانستم سرنخ محکمی برای مشکلم پیدا کنم، بنابراین فکر کردم آن را با جامعه به اشتراک بگذارم. این یک سوال در مورد چگونگی تشخیص تفاوت بین چندین داده اندازه گیری مکرر طبقه بندی است. در اینجا یک تفکیک ساده از مطالعه من است: * در زمان T1 (تابستان)، من 100 نفر را به صورت جداگانه 65 عبارت (داده های طبقه بندی) را در مقیاسی از اکثر موافقان تا اکثر مخالفان رتبه بندی کردند. * در زمان T2 (زمستان)، من همان 100 نفر را به همان 65 عبارت نگاه کردند و سپس از آنها خواستم که 5 عبارتی را که بیشتر با آنها موافق هستند و 5 گزاره ای را که بیشتر با آنها مخالف هستند انتخاب کنند (تقریباً مشابه تمرین T1) . هیچ ترتیب یا رتبه‌بندی بین محتوای هر عبارت وجود ندارد. کاری که اکنون می خواهم انجام دهم این است که پاسخ های T1 و T2 را با هم مقایسه کنم تا ببینم آیا تغییر قابل توجهی وجود دارد یا خیر. به طور خاص، با مشاهده 5 مورد موافق ترین و 5 مورد مخالف ترین گزینه در T2 و مشاهده اینکه آیا آنها در 9 عبارت بیشترین موافق و 9 مخالف ترین بیانیه T1 قرار دارند یا خیر. با این حال، من واقعاً مطمئن نیستم که چگونه این کار را انجام دهم. من می‌خواهم سعی کنم از مدل‌های رگرسیون اجتناب کنم، و در عوض با یک مقایسه غیر پارامتری ساده‌تر پیش بروم. پیشنهادی دارید؟ اگر مقایسه 5 عبارت از T2 با 9 از T1 خیلی سخت است، می توانم آن را به 5 از T1 محدود کنم. داده‌های من چیزی شبیه این به نظر می‌رسد (بدون رتبه یا ترتیب در بیشترین موافق یا بیشترین مخالف): فرد تابستان (T1) زمستان (T2) 9 بیشتر موافق 9 بیشتر مخالف 5 بیشتر موافق 5 بیشتر مخالف (براساس عبارت #) ( توسط عبارت #) (توسط بیانیه #) (با بیانیه #) 1 44,63,2,24,49, 19,59,17,26,62, 2,9,35,44,63 11,17,19,42,55 9,15,46,54 18,42,52,55 ... 100 27,49, 24,41,57 42,55,3,8,52 5,13,24,29,49 3,33,35,42,55 2,5,9,21 12,19,28,61 امیدوارم سوالم به اندازه کافی واضح بوده باشد و پیشاپیش از راهنمایی شما سپاسگزارم.
آزمون معنی‌داری برای داده‌های اندازه‌گیری مکرر طبقه‌ای
69840
من مجموعه‌ای از $n$ اندازه‌گیری‌های مستقل $m_i$ در برابر یک شی برای طبقه‌بندی برای کلاس‌های $C_1، C_2،...، C_k$ دارم. برای هر کلاس، یک منحنی pdf غیر پارامتری برای اندازه گیری ها به صورت $p_mi = f(x_mi|C_j)$ وجود دارد. یعنی منحنی pdf اندازه گیری برای برخی از کلاس های $C_j$ با تمام مقادیر نمونه برچسب گذاری شده $x_i$ برای آن کلاس. چگونه می توانم احتمال کل را برای هر کلاس $p_1,p_2,...,p_k$ اندازه گیری کنم تا در برابر مقیاس و پراکندگی نرمال شود (یعنی وزن کمتری به اندازه گیری که منحنی «مسطح» دارد می دهد؟ با توجه به اینکه میانگین نمونه و انحراف معیار وجود دارد، می‌توان آن را به صورت $p_j = \sum\limits_{i = 1}^n (f(m_i) - \mu_{m_i})/\sigma_{m_i}) ^2$ فرمول‌بندی کرد؟ علاوه بر این، آیا می توان احتمال کل $p_j$ را زمانی که مجموعه اندازه گیری های مختلف $m_{ij}$ برای هر کلاس $C_j$ وجود دارد محاسبه کرد و آنها را با هم مقایسه کرد؟
چگونه احتمال کل را برای توزیع غیر پارامتری محاسبه کنیم؟
103229
آیا روشی وجود دارد که به من اجازه دهد مجموعه ای از اعداد (تصادفی) $z_1,\dots,z_n$ را پیدا کنم به طوری که $z_1 c_1 + z_2 c_2 + ... + z_n c_n = 0$ که برای $k=1، \dots,n$، $c_k$ ضرایب ثابت هستند و $z_k$ تحقق یک متغیر تصادفی معمولی استاندارد هستند؟ پیشاپیش سپاس فراوان! ویرایش: سناریوی در نظر گرفته شده یک توزیع نرمال چند متغیره با ماتریس کوواریانس شناخته شده $\mathbf{\Sigma}$ و تجزیه Cholesky $\mathbf{C}\mathbf{C'}=\mathbf{\Sigma}$ است. من از رویکرد مونت کارلو استفاده می‌کنم، که در آن به همه تحقق‌های بردار علاقه‌مندم $\mathbf{z} = (z_1, z_2,..., z_n)'$ where, با استفاده از $\mathbf{x} = \ mathbf{C}\mathbf{z}$، مقدار $x_n = z_1 c_1 + z_2 c_2 + ... + z_n c_n$ برابر است با صفر امیدوارم این موضوع کمی واضح تر باشد.
یافتن مجموع تحقق متغیرهای تصادفی عادی برابر با صفر
94828
من برنامه ای را کدنویسی می کنم که بخشی از آن نمودار مقادیر از یک پایگاه داده است. نمودار مقدار متوسط ​​هر 10% از مقادیر را تا 100% ترسیم می کند، بنابراین ده نقطه در امتداد محور x وجود دارد. نمودار روند طول عمر آمار را نشان می دهد. امیدوارم این منطقی باشد. من باید بر اساس **میانگین کلی** مقادیری که نمودار شده است، مقیاسی را برای محور y نمودار تعیین کنم. آیا فرمول استانداردی وجود دارد که بتوانم برای این میانگین اعمال کنم تا مقیاسی را تعیین کنم که احتمالاً اطمینان حاصل کند که بیشتر یا نه همه محدوده پوشش داده شده و در نمودار مذکور ظاهر می شود؟
انحراف استاندارد یک نمونه زمانی که میانگین آن را بدانید
14270
من تست های AB را در صفحه اصلی وب سایت خود با 8 تنوع مختلف اجرا می کنم. در صورت نیاز می توانید در مورد هدف آزمون در اینجا بخوانید (ضروری نیست) - http://westiseast.co.uk/blog/ab-split-testing-a-promise-ogilvy/ سوال من این است - در چه موردی نکته آیا می توانم انواع بدترین عملکرد را از آزمون حذف کنم؟ آیا می‌توانم بدترین نوع عملکرد را وقتی که در مقایسه با گونه با بهترین عملکرد از اهمیت آماری برخوردار است حذف کنم؟ یا زمانی که در مقایسه با نوع دوم بدترین عملکرد از نظر آماری معنادار است؟ من می‌خواهم به‌طور مداوم آزمون را اصلاح کنم، و حذف نمونه‌هایی که بدترین عملکرد را دارند، ترافیک را به سمت نمونه‌های «بهتر» بهبود می‌بخشد. با تشکر فراوان برای کمک شما!
آزمایش چند متغیره AB - چه زمانی می توانم بدترین عملکردها را حذف کنم؟
114302
من سعی می کنم آزمایش کنم که آیا در یک مکان خاص تراکم بی مهرگان اندازه گیری شده در حال حاضر به طور قابل توجهی متفاوت از اندازه گیری یک دهه پیش است یا خیر. من از همان دو قطعه (A و B) نمونه برداری کردم که در گذشته نمونه برداری شده بود، در همان زمان های فصل مانند گذشته (فصل اولیه، اواسط و اواخر)، با n = 3 هسته تکراری در هر سه محل نمونه برداری (یک، دو و سه) به طور تصادفی در هر کرت انتخاب شدند. حال سوال من این است: I) ​​آیا یک ANOVA تو در تو چهار عاملی با ضریب سال (ثابت، دو سطح: گذشته و فعلی)، زمان عامل (ثابت، تودرتو در سال، سه سطح: اولیه، میانه، دیر)، فاکتور پلات ( ثابت، دو سطح: A، B) و سایت فاکتور (تصادفی، تو در تو در طرح، سه سطح: یک، دو، سه) طراحی صحیح برای آزمون؟ II) بعد از ریشه دوم و حتی ریشه چهارم، داده ها به طور کلی هنوز غیر عادی هستند. چه کار کنم؟ III) اگر بخواهم ببینم که چگالی کدام یک از زمان‌های سال جاری با زمان مربوطه در گذشته متفاوت است، آیا آزمون تاکی پس از آن روش صحیحی است؟
من تست درستی انجام می دهم؟
114301
من الان در حال مطالعه نمره های t هستم. تا آنجا که من متوجه شدم، امتیازهای t زمانی استفاده می شود که پارامترهای جمعیت واقعی (مانند: انحراف معیار و میانگین جمعیت) را نمی دانیم و نمی توانیم از z-score استفاده کنیم. فرمولی که در کتابها و اینترنت برای محاسبه امتیاز t موجود است: $$t= \frac{\bar{X}-\mu }{\frac{S}{\sqrt{n}}}$$ تا اینجا همانطور که می دانم «μ» برای تعریف میانگین جمعیت واقعی استفاده می شود. بنابراین در فرمول بالا برای محاسبه t-score به میانگین جمعیت واقعی «μ» نیاز دارم. اما همانطور که قبلاً گفتم هنگام محاسبه t-score ما پارامترهای جمعیت واقعی را نمی دانیم، در این مورد جمعیت واقعی به معنای «μ» است. بنابراین از چه عددی باید در «μ» استفاده کنم و چگونه آن را محاسبه کنم؟ همچنین برای روشن شدن موضوع، اگر مثالی از محاسبه امتیاز t واقعی ارائه دهید، بسیار مفید خواهد بود.
چگونه می توانم نمره t را بدون دانستن میانگین جمعیت واقعی محاسبه کنم؟
69844
من سعی می‌کنم یک GLM دوجمله‌ای را اجرا کنم، اما تعداد سلول‌ها صفر است که منجر به تخمین بی‌نهایت +/- می‌شود. در کتاب درسی مقدمه ای بر تجزیه و تحلیل داده های طبقه بندی شده Agresti A. (1996) پیشنهاد می کند که یک ثابت کوچک به سلول های صفر اضافه کنید - که من همچنین در مقاله در دسترس تر اینجا با آن برخورد کردم. با این حال، وقتی این را در R امتحان می‌کنم، یک پیام هشدار دریافت می‌کنم: > تعداد غیرصحیح در یک glm دوجمله‌ای!. بنابراین: 1. من مطمئن نیستم که آیا این کار درستی است؟ 2. آیا راه بهتری برای مقابله با تعداد سلول های صفر وجود دارد؟ داده ها: A<-c(10،10،10،10،10،10،19،19،19،19،19،19) B<-c(0،1،2،0 1، 2، 0، 1، 2، 0، 1، 2) C<-c(-ve، -ve، -ve، +ve، +ve، +ve، -ve، -ve، -ve, «+ve»، «+ve»، «+ve») مرده<-c(1,1,27,0,6,18,2,10,23,0,14,21) Alive<-c(29,32,2,22,19,4,28,22,3,20,11,0) mod2<-glm(cbind(مرده,زنده)~A*B*C,خانواده=دوجمله ای )
نسبت شانس با تعداد سلول های صفر
83738
من روی پردازش تصویر کار می کنم که در آن 15 خوشه مربوط به نقاط 3 بعدی دارم. این نقاط بر اساس 15 متغیر ثابت در یک مدت زمان خوشه بندی می شوند. (به عنوان مثال 10 ثانیه) با فرض اینکه داده ها در هر ثانیه جمع آوری می شوند، تمام نقاط مربوط به متغیر x در طول مدت زمان در یک خوشه x قرار می گیرند، به عنوان مثال. t = 10 ثانیه . مانند عاقلانه برای 14 متغیر دیگر. خوشه بندی با استفاده از مدل مخلوط گاوسی انجام شده است. هدف من این است که در آینده پس از ساخته شدن خوشه‌ها، می‌خواهم توزیع را بر اساس توزیع عادی از خوشه‌ای که قبلاً تشکیل شده بود، تولید کنم. با عرض پوزش، انگلیسی من بد است، با این حال می نویسم که در صورت لزوم، کل موضوع مختصر است. تنها چیزی که من می خواهم این است که توزیع ها را از خوشه ای از نقاط تولید کنم. بهترین روش برای انجام این کار چیست؟ آیا نمونه برداری مونت کارلو به این موضوع مرتبط است؟
ایجاد توزیع از خوشه ها
29977
آیا می توان از مولفه های اصلی مشترک برای ارزیابی شباهت ماتریس کوواریانس در R استفاده کرد؟ این رویکرد توسط Flurry، 1988 حمایت شد، اما این مقاله همان چیزی است که من در ذهن دارم. ### مراجع * Flury B (1988) مولفه های اصلی مشترک و مدل های چند متغیره مرتبط. وایلی، نیویورک
آیا می توان از مولفه های اصلی مشترک برای ارزیابی شباهت ماتریس کوواریانس در R استفاده کرد؟
114309
آیا می‌توانید در مورد چنین مشکلی به من کمک کنید: بیایید فرض کنیم داده‌های چند بعدی دارم که از 30 نمونه و 10 متغیر تشکیل شده است. این یک ماتریس 30x10 است. من سه گروه با اندازه مساوی دارم (10 نمونه در هر گروه) و نمونه ها جفت هستند. سوال این است که متغیرهایی را پیدا کنیم که نتایج آماری قابل توجهی را به همراه داشته باشند. من می توانم از آزمون فریدمن برای یافتن مقادیر p متناظر استفاده کنم. با این حال، من نمی دانم چگونه از مقایسه های چندگانه به درستی استفاده کنم. اگر از آزمون تعقیبی برای شناسایی گروهی استفاده کنم که به طور قابل توجهی با دیگران متفاوت است، آیا باید با توجه به تعداد متغیرهایی که دارم، مثلاً اصلاح Bonferroni را نیز اعمال کنم؟
مقایسه های چندگانه، داده های چند بعدی، چندین گروه
5444
**انگیزه** من یک متغیر تصادفی $X\sim \beta^\prime(\alpha,\beta)$ دارم که می‌خواهم در JAGS استفاده کنم. JAGS از توزیع $\beta^\prime$ پشتیبانی نمی‌کند، اما از توزیع‌های $F$ پشتیبانی می‌کند و توزیع F به $\beta^\prime(\alpha,\beta)$ مربوط می‌شود. $\text{if } X\sim \beta^\prime(\alpha,\beta) \text{ سپس } X\frac{\alpha}{\beta}\sim F(2\alpha, 2\beta)$ $ **سوال** آیا تغییر $$c,d = f(\alpha, \beta)$$ وجود دارد که: $$\text{if } X\sim \beta^\prime(\alpha,\beta) \text{ سپس } X\sim F(c, d)؟$$ یک رویکرد تحلیلی یا راه حل مناسب برای این مشکل چیست؟ **رویکرد فعلی** راه حل من استفاده از شبیه سازی است. اگرچه برای درخواست من کافی است، اما یک راه حل رسمی رضایت بخش تر خواهد بود. set.seed(0) آلفا <- 2 بتا <- 4 Y <- rf(100000، 2*آلفا، 2*بتا) * (بتا / آلفا) parms <-signif(fitdistr(Y, 'f', start = list(df1=1, df2=2))$estimate,2) **به روز رسانی** پاسخ whuber بیان می کند که کلی وجود ندارد تبدیل.
چگونه پارامترهای توزیع F را تبدیل کنم؟
45278
من روی یک مدل رشد خطی تکه تکه کار می‌کنم و برای درک نحوه نوشتن کد «lmer()» و نحوه تفسیر خروجی «R» به کمک نیاز دارم. داده های من بازگشت فروش شناسه های مختلف در یک دوره زمانی است. من می خواهم بدانم پس از یک رویداد خاص (نقطه شکست) چگونه بازده فروش (رشد) تغییر می کند. برای تعریف نقطه شکست من یک متغیر کدگذاری شده درج کردم. df = data.frame ( ID = c(1,1,1,1,1,1,1,1,1,1,1,2,2,2,2,2,2,2,2,2, 2،2،2،2)، فروش = c(1,4,10,12,20,26,28,30,31,32,33,2,5,9,12,15,19,26,27,29,31,32,34,36) ، var1 = c(1,2,3,3,3,3,3,3,3,3,3,1,2,3,4,4,4,4,4,4,4,4,4) , var2 = c(0,0,0,0,0,0,1,2,3,4,5,0,0,0,0,0,0,1,2,3,4,5 ,6)) من باید یک مدل چند سطحی را اعمال کنم -- a مدل 2-سطح برای دقیق تر -- با استفاده از بسته 'lme4'. من به دنبال کد «lmer()» صحیح برای تخمین این معادله هستم: $$Y_{ti} = \pi _{0i} + (\gamma _{00}+\varepsilon _{0i})a_{1ti } + (\gamma _{10}+\varepsilon _{1i})a_{2ti} + e_{ti}$$ داده‌ها و متغیرهای من: > سطح 1: فردی ID-level > > level 2: inter-individual level > > $\varepsilon _{0i}$: var1 (این اولین متغیر کدگذاری شده من است، دوره 1) > > $\varepsilon _{1i}$: var2 (این است متغیر دوم رمزگذاری شده من، دوره 2) > > فروش: شناسه متغیر وابسته: اثر تصادفی (این درست است؟) > > var1 و var 2: اثرات ثابت (آیا این درست است؟) فکر می کنم کد مدل من باید این باشد: test <- lmer(sales ~ 0 + var1 + var2 + (1| ID)، data=df) **Q1:** آیا این کد مناسب است؟ خروجی من > خلاصه (آزمون) مدل ترکیبی خطی متناسب با REML فرمول: فروش ~ 0 + var1 + var2 + (1 | شناسه) داده: df AIC BIC logLik انحراف REMLdev 154.1 158.8 -73.05 147.8 146.1 تغییرات تصادفی گروهی توسعه دهنده ID (Intercept) 11.646 3.4127 Residual 25.902 5.0894 تعداد obs: 24، گروه: ID، 2 Fixed effect: Estimate Std. خطای t مقدار var1 5.5828 0.7759 7.195 var2 3.5039 0.5646 6.206 همبستگی اثرات ثابت: var1 var2 -0.433 **Q2:** تفسیر (ببخشید، من واقعاً با تأثیرات آماری آشنا نیستم: * تفسیر آماری درست است: var1 برآورد من است پارامتر شیب برای دوره 1 * اثرات ثابت: var2 آیا پارامتر شیب من برای دوره 2 تخمین زده می شود؟
چند سطحی-مدل، lmer()-املا و تفسیر؟
89552
چگونه می توان این را حل کرد؟ _**به شما گفته می شود که 95% CI برای محتوای سرنخ مورد انتظار زمانی که جریان ترافیک 15 باشد، بر اساس نمونه ای از n = 12 مشاهده، (468.1، 591.7) است. وقتی جریان ترافیک 15 است، یک CI را با سطح اطمینان 99% برای محتوای سرنخ مورد انتظار محاسبه کنید. (پاسخ های خود را به یک رقم اعشار گرد کنید.)_** با تشکر
محاسبه فاصله اطمینان
87600
من یک سری زمانی دارم که یک مؤلفه اتورگرسیو فصلی غیر ثابت را نشان می دهد و همچنین ناهمسانی شناخته شده را می پرسد. برای مدل سازی سری، یک مدل arima فصلی برای میانگین با مدل auto.arima در بسته R پیش بینی و یک مدل GARCH بر روی باقیمانده های مدل arima قرار داده ام. آیا روش تخمین متوالی مدل ARIMA و GARCH صحیح است یا بهتر بود میانگین و واریانس سری را به طور مشترک مدل کنیم؟ در این درست بود آیا و (احتمالاً R) تابع برای انجام آن وجود دارد؟
تخمین ARMA/GARCH به ترتیب
7686
اگر محدوده پی دی اف گاوسی یک احتمال نیست، پس چگونه در قانون بیز به همان شیوه pmf استفاده می شود؟
قانون بیز و پی دی اف گاوسی
114305
قبل از ارسال این سوال، سوالات دیگری را در این Stack مرور کردم، و این احتمالاً برای هر کسی که آن را می‌خواند، قدم زدن در پارک خواهد بود! اما توضیحات این Stack شامل تجزیه و تحلیل داده ها و تجسم است، بنابراین امیدوارم این در جای درستی باشد! </preapology> من از Raspberry Pi با آهنربا و حسگر نی استفاده می کنم تا همسترم را در شب ثبت کنم. Pi هر چرخش را به صورت زیر ثبت می کند: 2014-09-04 00:20:04.987819,1 2014-09-04 00:20:16.219891,2 2014-09-04 00:20:17.2390084 00:20:20.031204,4 2014-09-04 00:20:20.907755,5 ... وقتی نوبت به انجام کاری با داده‌ها می‌رسد، می‌خواهم در مورد آن کمک کنم. در اینجا نمونه ای از تحلیل روزانه ای است که Pi تولید می کند: > سلام بابا! > > دیشب ساعت 00:20 سوار چرخ شدم و ساعت 04:51 پیاده شدم تا بخوابم > (البته با استراحت!). طولانی ترین دوری من از چرخ به مدت 26 دقیقه از ساعت 03:05 تا 03:31 بود. > > در طول 4 ساعت و 31 دقیقه، 11903 بار چرخ را دور زدم! از آنجایی که قطر چرخ 18 سانتی متر است، این بدان معناست که من 18π⋅11903/100 ≈> 6731 متر را طی کردم. یعنی 4.18 مایل! > > Love Biscuit x من همچنین یک نمودار ساده از داده ها تهیه کرده ام که به صورت زیر است: ![نمودار چرخش چرخ هامستر در مقابل زمان](http://i.stack.imgur.com/eyGOM.png) I همچنین به این فکر کرده‌ام که به صورت ساعتی یک تقسیم‌بندی انجام دهم تا ببینم او در چه زمان‌هایی فعال‌تر است. با توجه به دانش آماری ناموجود من، این تنها چیزی است که می توانم به آن فکر کنم. آیا کار دیگری وجود دارد که بتوانم انجام دهم؟ (از نظر تحلیل و تجسم). اگر نیاز به گرفتن داده های اضافی دارد، خوب است. **ویرایش شده برای نشان دادن شروع ردیابی اکتیوگرافی ** ![شروع ردیابی اکتیوگرافی](http://i.stack.imgur.com/CSLhX.png)
تجزیه و تحلیل داده های چرخشی چرخ همستر
115205
**طراحی مطالعه** من یک متغیر وابسته (PP) دارم که تحت دو شرایط مختلف (شرایط) در ده موضوع (موضوع) با ارتفاع های مختلف (قد)، در سه آزمایش مختلف (آزمایشی) جمع آوری شده است. هر دو شرایط در هر آزمایش اندازه گیری شد. M **تلاش و سوال من ** من مایلم تاثیر این دو شرط روی متغیر وابسته من (PP) را بدانم. ویژگی‌های موضوع (ارتفاع) ممکن است بر PP تأثیر بگذارد و PP ممکن است در آزمایش‌های مختلف متفاوت باشد. من می‌خواهم مدل‌سازی اثرات مختلط خطی را روی این داده‌ها انجام دهم. هنگامی که من برای اولین بار یک ANOVA یک طرفه را روی تأثیر Condition بر PP اجرا کردم، یک <2e-16 در خروجی دریافت کردم. آیا به دلیل شخصیت بودن Condition به تناسب کامل می رسم؟ می‌خواهم اندازه‌گیری‌های مکرر را در نظر بگیرم و اذعان کنم که افراد با قدهای متفاوت ممکن است نمرات PP متفاوتی داشته باشند، اما مطمئن نیستم که آیا مدل من با موفقیت این را اندازه‌گیری می‌کند؟ **چه شکلی است** # نمونه داده‌های من PP <- c(4324, 4425, 4589, 3455، 4788، 5123) شرایط <- c(S S، H، H، S، S) موضوع <- c(1، 1، 1، 1، 2، 2) آزمایشی <- c(B، B، M، M، F، F) ارتفاع <- c(197، 197, 197، 197، 164 164) # یک قاب داده بسازید df <- data.frame(list(PP=PP، شرط=شرط، موضوع=موضوع، آزمایشی=آزمایشی، ارتفاع=ارتفاع)) # اجرای ANOVA dfAov = aov (PP ~ شرط، داده = df) خلاصه (dfAov) # ایجاد مدل مختلط خطی lme <- lme( ثابت = PP ~ شرایط + آزمایش، تصادفی = ~ 1 | موضوع، داده = df)
ساخت یک مدل جلوه های ترکیبی خطی؟
3885
سه برآوردگر بی طرفانه انحراف معیار در ادبیات برای m نمونه با اندازه n ارائه شده است. مورد اول بر اساس محدوده های نمونه است و می توان آن را با $\hat \sigma_1 = \frac{\bar R}{d_2}$ به دست آورد. دومی بر اساس انحراف استاندارد نمونه است و می تواند توسط $\hat \sigma_2 محاسبه شود. = \frac{\bar S}{c_4}$ برآوردگر سوم به دلیل واریانس نمونه است و می‌تواند به صورت $\hat \sigma_3 = تخمین زده شود. \frac{\sqrt{\bar {S^2}}}{k_4}$ مخرج‌ها مقادیر ثابتی هستند که به اندازه نمونه n وابسته هستند و برآوردگرها را بی‌طرف می‌کنند. آیا کسی روشی برای بدست آوردن ارزش آنها در R (به جای استفاده از جداول در کتابهای کنترل کیفیت آماری) می شناسد؟
محاسبه برآوردگرهای بی طرفانه $\sigma$ برای m نمونه با اندازه n
87603
من از DESeq برای تجزیه و تحلیل DGE استفاده می کنم. من داده های STRANDED RNA-Seq را برای 4 مرحله رشد بدون تکرار دارم. برای داشتن یک DGE قابل اعتمادتر، من باید تکرار داشته باشم و بنابراین (از یک عضو آزمایشگاه دیگر) داده های RNA-Seq بدون رشته را با 3 تکرار در هر مرحله به دست آوردم. قبل از انجام DGE، من فکر کردم که همبستگی بین این نمونه ها را آزمایش کنم، فقط برای اینکه نشان دهم که نمونه های مشابه با هم خوشه ای می شوند. اگر چنین است، من می‌توانم از داده‌های بدون رشته برای تجزیه و تحلیل DGE خود استفاده کنم تا در هر مرحله تکرار بیشتری داشته باشم. من خوانش‌های خام را با استفاده از TOPHAT به ژنوم نگاشت کردم، فایل‌های bam را بر اساس نام مرتب کردم و از htseq-count برای دریافت تعداد خوانده‌های خام برای هر دو داده استفاده کردم. برای داده های رشته ای از گزینه -s yes و برای داده های رشته نشده از -s no استفاده کردم. من از DESeq برای گنجاندن فراداده و عادی سازی استفاده کردم و ژن هایی را که همیشه مقدار 0 دارند حذف کردم. سپس همبستگی را محاسبه کردم که واقعاً کم بود. سپس سعی کردم از htseq-count با گزینه -s reverse برای داده های رشته ای استفاده کنم و همچنان همبستگی بسیار پایینی داشتم. بنابراین من htseq-count را روی داده‌های رشته‌ای با انتخاب گزینه -s no دوباره اجرا کردم و به این ترتیب تعداد کل شمارش‌های بسیار مشابهی بین داده‌های رشته‌ای نشده و رشته‌ای به دست آوردم (در حالی که هر دو مورد قبل از رشته‌های رشته‌ای دو برابر بودند). سپس فراداده را وارد کردم، فاکتورهای اندازه جدید را تخمین زدم، همبستگی جدید را نرمال کردم و محاسبه کردم. پیرسون و اسپیرمن هر دو عملکرد بسیار خوبی داشتند که توسط PCA و همبستگی تایید شده است. با این حال، من همچنان می خواهم راهی برای استفاده از شمارش های رشته ای پیدا کنم. مطمئن نیستم برخی از اطلاعات را با استفاده از -s no در داده‌های رشته‌ای در حال اجرا htseq-count از دست بدهم. چیزی که من در ذهن داشتم استفاده از داده های بدون رشته برای تخمین سطح تغییرات برای بدست آوردن آستانه ای برای تشخیص DE بود اما همچنان از داده های رشته ای به عنوان مقادیر بیان استفاده می کنم. مطمئن نیستم که می‌توانم این کار را انجام دهم، اگرچه با توجه به اینکه یکی از آن‌ها درگیر است و دیگری نه. اگر نظری در این مورد دارید می خواهم از شما بشنوم. اگر برای درک بهتر موضوع به اطلاعات بیشتری نیاز دارید به من اطلاع دهید. خیلی ممنون فدریکو
تعداد کم تکرار آنالیز DGE
96120
من دو عامل بین موضوعی دارم که هر کدام دو سطح دارند (بنابراین 4 شرط). علاوه بر این، من یک متغیر وابسته (کیفی) دارم که از دو سطح تشکیل شده است. اکنون می خواهم مقایسه های زوجی انجام دهم (بنابراین من در کل 6 تست کای دو دارم). آیا راهی وجود دارد که بتوانم خطاهای نوع 1 را کنترل کنم؟ در ادبیاتی که دیدم آنها اغلب برهمکنش را با آزمون کای دو محاسبه کردند. آیا این روش انجام می شود و اگر چنین است، چگونه این کار را انجام دهم؟ من می توانم هم با SPSS و هم با MATLAB کار کنم. نمونه ای از آنچه می خواهم انجام دهم: > آزمون های مجذور کای مستقل که تعامل بین > شرایط آزمایشی و انطباق شرکت کننده با درخواست > را تجزیه و تحلیل می کند > انجام شد. با شرکت‌کنندگانی که برای اولین بار شرکت در مطالعه را پذیرفتند، تعامل معنی‌داری یافت شد [x2(1، N = 199) = 21.06، > p<0.001، r = 0.30]. مقایسه های زوجی نشان داد که شرایط کنترل > به طور قابل توجهی متفاوت از شرایط FITD [40.0٪ در مقابل 60.0٪، x2 (1، > N = 100) = 4.00، p<0.05، φ = 0.20] و FITD-'' بود، اما تو آزاد هستی . . .'' > شرط [40.0% در مقابل 56.0%, x2 (1، N = 100) = 14.92، p<.001، ϕ = 0.36] اما > نه با ولی شما آزاد هستید. . شرط .'' [40.0% در مقابل 60.0، x2 (1، N > = 100) = 2.56، غیر قابل توجه (ns)، ϕ = 0.16]. هیچ تفاوت آماری > بین شرط FITD و اما شما آزاد هستید یافت نشد. . .'' > شرط [60.0% در مقابل 56.0، x2 (1، N = 100) = 0.16، ns، ϕ = 0.04] و بین > شرط FITD و FITD-«اما شما آزاد هستید. . شرایط .'' [60.0% > در مقابل 78.0%, x2 (1، N = 100) = 3.78، p = 0.06، φ = 0.19]. با این حال، تفاوت معنی‌داری بین «اما شما آزاد هستید» پیدا شد. . .'' > شرط و FITD - اما شما آزاد هستید. . شرایط .'' [56.0% در مقابل > 78.0%, x2 (1، N = 100) = 5.47، p<0.02، φ = 0.23]. **مرجع:** Guéguen, N. Meineri, S. Martin, A. & Grandjean, I. (2010). اثر ترکیبی تکنیک پا در داخل خانه و تکنیک اما تو آزاد هستی: ارزیابی در طبقه بندی انتخابی زباله های خانگی. اکوپسایکولوژی. 2 (4)، 231 - 237. doi: 10.1089/eco.2009.0051
چگونه تورم خطای نوع 1 را با چندین تست مجذور کای کنترل کنیم؟
87599
تست دیکی-فولر برای ریشه واحد تعداد obs = 21 ---------- درون یابی دیکی-فولر --------- تست 1% بحرانی 5% بحرانی 10% ارزش آماری بحرانی مقدار ارزش ------------------------------------------------ ---------------------------- Z(t) -14.272 -4.380 -3.600 -3.240 ------------------------------------------------ ---------------------------- مقدار p تقریبی MacKinnon برای Z(t) = 0.0000 ------------------------------------------------ ---------------------------- D.TotalS | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ مجموعS | L1. | -.9774459 .0684873 -14.27 0.000 -1.121332 -.8335593 _trend | .4713369 .0326362 14.44 0.000 .4027708 .539903 _cons | 48.50135 3.370879 14.39 0.000 41.41939 55.5833 ------------------------------------------------ ----------------------------- به طور خاص: آیا اشکالی ندارد که مقدار p صفر یا یک داشته باشیم؟ در این مثال من یک مقدار p برابر با صفر دارم. همچنین در یک مورد دیگر من مقدار p = 1.0000 دارم. خوبه؟
از آزمون ریشه واحد چه چیزی را تفسیر کنم؟
1611
به عنوان یک فرد خارجی، به نظر می رسد که دو دیدگاه رقیب در مورد چگونگی انجام استنتاج آماری وجود دارد. آیا دو روش مختلف هر دو توسط آماردانان معتبر در نظر گرفته می شوند؟ آیا انتخاب یکی بیشتر یک سوال فلسفی تلقی می شود؟ یا اینکه شرایط فعلی مشکل آفرین تلقی می شود و تلاش می شود به نحوی رویکردهای مختلف یکسان شود؟
آیا آماردانان کار به تفاوت بین استنتاج مکرر و بیزی اهمیت می دهند؟
105783
من می خواهم مجموعه داده رگرسیون لجستیک را آموزش دهم. من یک مجموعه داده آموزشی بسیار بزرگ دارم (> 100 000) و حدود 10 ویژگی دارم که می توانم با آنها تمرین کنم. نیمی از داده‌های آموزشی من داده‌های آموزشی منفی است و من با اطمینان می‌دانم که تقریباً همه این مشاهدات منفی واقعی هستند. اما من مطمئناً می دانم که در مجموعه داده های مثبت من، نیمی از شاید حتی بیشتر از نیمی، مثبت کاذب هستند. فقط نمیدونم کدومشون چگونه می توانم با چنین مشکلی کنار بیایم؟ آیا کسی نکات خوبی در مورد ادبیات دارد؟ پیشاپیش ممنون
نحوه مدیریت (بسیاری) مثبت کاذب در مجموعه داده های آموزشی برای طبقه بندی کننده رگرسیون لجستیک
48943
من سعی می کنم داده های DOE سطح 3 را با استفاده از 4 عامل مدل کنم. هر عامل در مقایسه با عوامل دیگر به نظر می رسد: ![سلول پراکنده چند متغیره از 4 عامل](http://i.stack.imgur.com/qgmzJ.png) از آنجایی که من یک نقطه مرکزی و 3 نقطه پشت سر هم برای هر عامل، فکر می‌کنم می‌توانم از اصطلاحات تعامل دو عاملی در مدل خود استفاده کنم. اما اگر منحنی را در نمودارهای اهرمی یا نمودار پیش بینی شده در مقابل واقعی تا زمانی که VIF پایین بماند، می توانم از اصطلاحات مربع استفاده کنم؟ وقتی این عبارات را اضافه می‌کنم، اغلب به‌عنوان قابل‌توجه ظاهر می‌شوند و R^2 تنظیم‌شده مدل را بهبود می‌بخشند، اما من نگرانم که این بیش از حد مناسب باشد. اگر افزودن عبارت های مربعی به این مدل ها معتبر نیست، از چه تشخیصی می توانم برای متقاعد کردن خودم استفاده کنم؟ برای داده هایی که به این شکل هستند چطور؟: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/8LjaM.png)
خطرات اضافه کردن عبارت های مربع به مدل داده های DOE
100763
من از الگوریتم ژنتیک برای انتخاب معماری یک شبکه عصبی استفاده می کنم، اما هنوز نتایج خوبی ارائه نکرده است. من یک جمعیت اولیه 40 نفری دارم (هر فرد نشان دهنده یک معماری ممکن است که از دو ژن تشکیل شده است که با اعداد صحیح نشان داده شده است) و من آنها را برای 10 نسل تکامل داده ام. میانگین تناسب اندام افراد در نسل برای 3 نسل اول بهبود می یابد، سپس در مقدار کمی بالاتر از تناسب اندام بهترین فرد است. تناسب اندام بهترین فرد در تمام 10 نسل یکسان می ماند. از نظر ریاضی، من فکر می کنم این به عنوان گیرکردن در حداقل محلی شناخته می شود. بعید می دانم که بهترین راه حل را در نسل اول خود پیدا کنم، بنابراین به نظر می رسد چیزی مانع از تبدیل افراد به چیزی بهتر از این می شود. آیا کاری وجود دارد که بتوانم تلاش کنم و بعد از هر نسل، تناسب اندام بهترین فرد را بهبود بخشم؟
روش هایی برای وادار کردن بهترین فرد برای بهبود تناسب اندام هنگام استفاده از الگوریتم ژنتیک
58307
من برخی از داده ها را دانلود کرده ام. مشکل این است که برخی از آنها به صورت فصلی تنظیم شده اند، در حالی که بقیه آن را تنظیم نکرده اند. من نتوانستم داده‌هایی را پیدا کنم که همگی به صورت فصلی تنظیم شده باشند. نمی دانم اگر من یک رگرسیون روی این ترکیب از متغیرها با مجموعه ای از ساختگی های یک چهارم اجرا کنم، آیا تاثیری بر نتایج رگرسیون من خواهد داشت؟ متشکرم!
از جمله آدمک های فصلی در رگرسیون
50699
بهترین مدل آماری برای ارزیابی تأثیر «نوع رویشگاه» و «سال» (عوامل طبقه‌بندی)، و «درصد پوشش گونه‌های گیاهی» (%)، به عنوان متغیرهای مستقل بر روی متغیر وابسته: «تعداد حشرات» (تعداد) کدام است؟ من در داده هایم صفر دارم و DV به طور معمول توزیع نمی شود.
وقتی DV یک متغیر شمارش است، کدام مدل آماری را باید اعمال کنم؟
89556
من واقعاً می‌توانم از یک نکته برای کمک به ترسیم یک مرز تصمیم برای جدا کردن از کلاس‌های داده استفاده کنم. من تعدادی داده نمونه (از توزیع گاوسی) از طریق Python NumPy ایجاد کردم. در این حالت، هر نقطه داده یک مختصات دو بعدی است، یعنی یک بردار 1 ستونی متشکل از 2 ردیف. به عنوان مثال، [ 1 2 ] فرض کنید من 2 کلاس دارم، class1 و class2، و 100 نقطه داده برای class1 و 100 نقطه داده برای class2 از طریق کد زیر ایجاد کردم (به متغیرهای x1_samples و x2_samples اختصاص داده شده است). mu_vec1 = np.array([0,0]) cov_mat1 = np.array([[2,0],[0,2]]) x1_samples = np.random.multivariate_normal(mu_vec1، cov_mat1، 100) mu_vec1 = mu_vec1. reshape(1,2).T # به بردار 1-col mu_vec2 = np.array([1,2]) cov_mat2 = np.array([[1,0],[0,1]]) x2_samples = np.random.multivariate_normal(mu_vec2، cov_mat2، 100) mu_vec2 = mu_vec2. reshape(1,2).T وقتی نقاط داده را برای هر کلاس رسم می کنم، آن را به این صورت خواهد بود: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/XMDXa.png) حالا، من معادله ای برای مرز تصمیم برای جدا کردن هر دو کلاس ارائه کردم و می خواهم اضافه کنم آن را به طرح. با این حال، من واقعاً مطمئن نیستم که چگونه می توانم این تابع را رسم کنم: def vendim_boundary(x_vec, mu_vec1, mu_vec2): g1 = (x_vec-mu_vec1).T.dot((x_vec-mu_vec1)) g2 = 2*( (x_vec- mu_vec2).T.dot((x_vec-mu_vec2)) ) g1 - g2 را برگرداند من واقعا از هر کمکی قدردانی می کنم! ویرایش: به طور شهودی (اگر حسابم را درست انجام دهم) انتظار دارم وقتی تابع را رسم می کنم، مرز تصمیم تا حدودی شبیه به این خط قرمز باشد... ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur. com/orSsC.png)
ترسیم یک مرز تصمیم که 2 کلاس را با استفاده از پای پلت Matplotlib از هم جدا می کند
48948
من مجموعه‌ای از اندازه‌گیری‌های فاصله دارم که همگی با دقت «+/- 0.01 M» هستند. {1.00،2.00،3،00} می‌توانیم فاصله جابه‌جا شده بین اندازه‌گیری‌ها را با گفتن «{2-1، 3-2}» به دست آوریم تا ببینیم هر بار «1M» حرکت کرده‌ایم. سوال من اینه اگر می‌خواهید میانگین فاصله جابه‌جا شده را بدانید، چگونه «+/- 0.01M» را از میانگین عبور می‌دهید. من می خواهم تفاوت میانگین +/- عدم قطعیت را گزارش کنم. چگونه عدم قطعیت را محاسبه کنم؟ (داده های واقعی من آشفته تر از این است).
انتشار عدم قطعیت از طریق میانگین
7681
فرض کنید 5 شهر زیر را داریم که هر کدام جمعیت یکسانی دارند * CityA با 20٪ هر یک از 5 قومیت * CityB با 99٪ از یک قومیت، اما 100 قومیت مختلف در 1٪ باقی مانده * CityC با 40٪ از یک قومیت و 60% باقیمانده به طور مساوی بین 10 قومیت مختلف توزیع شده است چگونه می توان تنوع نسبی آنها را اندازه گیری کرد؟
آیا راهی برای محاسبه تنوع در یک جمعیت وجود دارد؟
58302
من مجموعه ای از بردارهای واحد توزیع شده یکنواخت در یک مخروط دارم (که اساساً زیرمجموعه ای از توزیع یکنواخت در کره واحد، همانطور که در اینجا توضیح داده شده است). من نحوه بدست آوردن ماتریس کوواریانس برای یک توزیع کروی یکنواخت را پیدا کرده ام، اما در اعمال آن برای مسئله خود مشکل دارم (یعنی چگونه می توانم از کوواریانس برای توزیع یکنواخت در کل کره به آن برای یک توزیع یکنواخت بروم. زیر مجموعه کره واحد؟). آیا کسی می تواند توضیح دهد که چگونه می توانم این کار را انجام دهم، یا حداقل به من در جهت درست اشاره کند؟ با تشکر ویرایش: من ماتریس کوواریانس را در مختصات کروی ترجیح می‌دهم، اگرچه فکر می‌کنم می‌توانم برای برنامه‌ام نیز کار دکارتی ایجاد کنم.
کوواریانس مجموعه ای از بردارهای واحد توزیع شده یکنواخت؟
89550
بنابراین من یک دسته از نمرات 0-100 و دو مجموعه وزن دارم، فراوانی که تعداد افراد در نمونه با میانگین نمره در بین آن افراد است. سپس مقدار دیگری دارم که کسری از افراد آن گروه برای نمره داده شده است. یک مثال ممکن است به این صورت باشد: میانگین امتیاز نمونه تعداد افراد در نمونه زیرمجموعه افراد نمونه 65 8 0.75 87 4 1.0 34 1 1.0 50 3 .33333 72 9.66666 در اینجا پیوندی به یک صفحه گسترده Google که سه نمونه از محاسبات در سؤالات مجموعه N=100 را ارائه می دهد: مثال صفحه گسترده بنابراین سوال من این است که در یک حجم نمونه بزرگتر، آیا می توانم از کسری به عنوان وزن (ستون M) استفاده کنم و همچنان انتظار نتایج مشابه با روش وزن دهی فرکانس * کسری (ستون N) داشته باشم؟ چگونه می توانم در مورد تجزیه و تحلیل داده ها برای یافتن سوگیری بین این دو رویکرد اقدام کنم؟ با تشکر از بینش شما! اگر اطلاعات اضافی لازم است لطفا به من اطلاع دهید!
میانگین وزنی یک زیر مجموعه با استفاده از کسر در مقابل فرکانس
7688
من در اینترنت برای کتاب های آمار جستجو کردم (مخصوصاً 4shared.com)، و بیشتر کتاب هایی که پیدا کردم آمارهای چند متغیره را با جزئیات پوشش نمی دهند. آیا کتاب های خوبی وجود دارد که این موضوعات را با جزئیات و با مثال های کافی پوشش دهد؟
کتاب هایی با پوشش خوب توزیع های مشترک، آمار چند متغیره و غیره؟