_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
92846 | امیدوارم کسی ایده ای در رابطه با مشکل زیر داشته باشد: من با استفاده از بسته موش یک انتساب چندگانه انجام دادم - اکنون فقط یک مرحله باقی مانده است: من می خواهم برای NA های خود انتساب نهایی و معتبر ایجاد کنم. چگونه می توانم این کار را انجام دهم؟ با انتساب چندگانه من به طور پیش فرض 5 مجموعه داده با مقادیر مختلف دریافت می کنم. اینها را برای محاسبه یک مدل پیش بینی با عباراتی در مورد خطاهای استاندارد نیاز دارم. اما: چگونه می توانم یک مقدار نهایی برای NA های خود دریافت کنم؟ کد من در اینجا: imp <- mice(داده، m = 5) # محاسبه 5 مجموعه داده منتسب mifit <- با (imp, lm(y ~ x1 + x2 + x3 + c1 + c2)) # محاسبه از 5 داده مجموعهای از مدلهای خطی imp 5 با y بهعنوان متغیر وابسته pmifit <- pool(mifit) # مدلها را برای دریافت ضرایب نهایی جمع کنید اگر pmifit از کلاس (pmifit) == lm خواهد بود من از تابع پیش بینی برای جایگزینی موارد گم شده خود استفاده می کنم، اما pmifit یک شی است که هیچ متدی در پیش بینی ندارد. کسی توصیه ای دارد؟ | انتساب و پیش بینی چندگانه |
92841 | من یک دسته داده در قالب زیر دارم: Count|| میوه |سرهنگ میوه|| گیاهی |سرهنگ گیاهی|| ادویه ----------------------------------------------- -------- 123 || اپل | قرمز || هویج | نارنجی || زیره 20 || اپل | قرمز || هویج | سبز || فلفل ... 20 هزار ترکیب بیشتر... 1 || نارنجی | نارنجی || سیب زمینی | سفید || فلفل دلمه ای این را به شرح زیر می خوانید: **_سیب قرمز** در ترکیب با **هویج نارنجی** و **زیره*******123 بار در طول آزمایش مواجه شد._ باید بتوانم پاسخ دهم. حداقل سوالات زیر در مورد مجموعه داده ها: * محبوب ترین ادویه ها برای محبوب ترین سبزیجات در میان محبوب ترین میوه ها، (الف) با و (ب) بدون توجه به رنگ هر کدام کدامند؟ * کدام رنگ سیب زمینی در کنار محبوب ترین سبزی بیشتر دیده می شود؟ * محبوب ترین میوه قرمزی که با سبزی سبز مواجه می شود چیست؟ و غیره. محبوب ترین در اینجا پاسخی مانند: 1. 5% اپل 2. 4% نارنجی 3. 1% دیگران را فرض می کند. در حالت ایدهآل، ابزار نباید _نه_ از من بخواهد که برای پرسیدن سوال خاص، کدهای پیچیده بنویسم (مقدار کدنویسی از قبل قابل قبول است). ابزاری که بدون کدنویسی آنچه را که من نیاز دارم را انجام دهد بی نقص خواهد بود. | ابزاری برای تجزیه و تحلیل داده های جدولی چند بعدی |
112532 | من از k-means برای انجام برخی خوشهبندی استفاده کردهام و یکی از ایدههایی که با آن درگیر هستم، جنبه n بعد است. اگر بخواهم قیمت مسکن را در مقابل فوت مربع دسته بندی کنم، فقط یک نمودار 2 بعدی ساده است. که بتوانم تجسم کنم و منطقی است. جایی که سخت می شود زمانی است که بیش از 3 ویژگی باشد. اگر من به درستی بفهمم، هر ویژگی در بعد خودش ترسیم می شود. چیزی با ابعاد 3+n از نظر مفهومی چگونه به نظر می رسد؟ راه خوبی برای فکر کردن در مورد نحوه نمایش داده ها چیست؟ می دانم که این سوال کمی مبهم است (که نتیجه عدم درک من در این زمینه است) اما هر کمکی قابل تقدیر است. | چه روش خوبی برای تجسم ذهنی n بعد در یک k است |
90378 | من میدانم که NHST فرض میکند که فرضیه صفر درست است، و ما نمیتوانیم از یک مقدار کم استنتاج کنیم که فرضیه صفر لزوماً نادرست است. با این حال، آیا منصفانه است که بگوییم که p-value در مورد احتمال شرطی $Pr(H_0 = T|T_{obs}) _هیچ چیز را به ما می گوید؟ فرضیه ها درست هستند، چرا کسی از آنها استفاده می کند؟ | آیا منصفانه است که بگوییم مقادیر p چیزی در مورد احتمال درست بودن فرضیه های صفر به ما نمی گویند؟ |
48724 | با توجه به یک ماتریس سند-مدت $X$، که در آن $$X(d, t) = \textit{رویدادهای 't' در 'd'}$$، ممکن است آن را محاسبه کنیم که تجزیه ارزش منفرد کوتاه شده است:$$X_k = U_k \Sigma_k V_k^T$$ سپس، برای نمایه سند $d$ (یعنی بردار رخدادها در آن سند)، ممکن است یک نمایه سند «پیشبینیشده» $\hat{d}$ را محاسبه کنید که، طبق مدل، سازگارتر است، به شرح زیر: $$\hat{d} = d V_k V_k^T$$ این LSA/LSI/ است. روش SVD حال، فرض کنید که به جای محاسبه فقط $V_k$، ماتریس های $C$ $V_{k,c}, c = 0, 1, \dots ,C $ را با ابعاد یکسان $V_k$ اما ورودی های متفاوت محاسبه می کنم. سپس، برای نمایه سند معین، نمایههای «پیشبینیشده» $C$ را محاسبه میکنم، به این صورت: $$\hat{d}_c = d V_{k,c} V_{k,c}^T$$ یک برای هر $ c = 0, 1, \dots ,C $. در میان اینها، من به عنوان نمایه پیشبینیشده نهایی، پروفایلی را انتخاب میکنم که هنجار L-2 را به حداقل میرساند، w.r.t. نمایه ورودی: $$\hat{d} = \arg \min_c \| d-\hat{d}_c\|_2 $$. من کاملاً توسط این الگوریتم متقاعد نشده ام. انتخاب خروجی با هنجار L-2 w.r.t. به نظر من ورودی منبع بیش از حد برازش است. میتونم نظر،پیشنهاد،انتقادتون رو داشته باشم لطفا؟ خیلی ممنون. | آیا این بیش از حد مناسب است؟ |
62714 | من علاقه مند به ساخت یک تابع تشخیص خطی برای تمایز بین 2 گروه، از 60 متغیر هستم. (من در حال برنامه ریزی برای انتخاب متمایزترین متغیرها برای آزمایش تشخیصی آینده هستم.) من مساحت زیر منحنی ROC را برای هر یک از این متغیرها به صورت جداگانه محاسبه کرده ام و هیچ کدام AUC بیشتر از 0.73 ندارند. من یک نمونه نسبتا کوچک از 50 فرد سالم و 50 فرد بیمار دارم (این دو گروه هستند). من سعی کرده ام با استفاده از تحلیل مؤلفه های اصلی تعداد متغیرها را کاهش دهم. 3 مؤلفه وجود دارد که 83 درصد از تغییرات را تشکیل می دهند. اما متأسفانه، همه 60 متغیر دارای وزنهای مشابه (بارگذاری) در 3 مؤلفه هستند، بنابراین من نمیتوانم تعداد کمی را انتخاب کنم. من معمولاً متغیرهای دارای بیشترین وزن را انتخاب می کنم و سپس آنها را در یک تابع متمایز خطی قرار می دهم، اما 60 بسیار زیاد است، به خصوص با توجه به نمونه کوچک. من تعجب کردم که آیا ** به جای ** استفاده از 60 متغیر، می توان از 3 **جزء اصلی** برای ساخت یک تابع تشخیص خطی استفاده کرد؟ من از Stata برای تجزیه و تحلیل استفاده می کنم. کسی پیشنهادی داره؟ | استفاده از مولفه های اصلی در تجزیه و تحلیل تفکیک خطی برای یک تست تشخیصی |
80314 | من در صفحه ویکی پدیا در مورد تحلیل عاملی به این موضوع برخوردم. آیا این درست است که _چرخش مستقیم oblimin منجر به مقادیر ویژه بیشتر می شود؟ اگر درست است، دلیل آن چیست و آیا به سایر چرخشهای **میب** تعمیم مییابد؟ (برای جلوگیری از هر گونه سردرگمی، ما فقط PCA را به عنوان روش استخراج فاکتور در نظر می گیریم) | چرا چرخش مستقیم oblimin منجر به مقادیر ویژه بیشتر می شود؟ |
90771 | من QP دوگانه یک SVM را حل می کنم و از هسته RBF استفاده می کنم. همانطور که می دانید، تابع هدف به شکل $$f(\alpha) = \alpha^T Q \alpha $$ است که $\alpha$ متغیر بهینه سازی است و $Q$ یک ماتریس نیمه معین مثبت است. وقتی $Q$ متراکم است، میخواهم ببینم که cvx (یا هر بسته بهینهسازی دیگری اگر میتوانید به من اشاره کنید) از چه چیزی به عنوان $Q^{-1}$ هنگام حل QP استفاده میکند. هر ایده ای؟ | برگرداندن معکوس یک ماتریس در یک برنامه درجه دوم (SVM) در بسته بهینه سازی cvx |
80319 | من سابقه کمی در مورد SEM دارم. اکنون میخواهم روی جنبههای نظری آن مانند مدل آماری، تخمین مدل و ارزیابی مدل تمرکز کنم. کتاب اصلی در مورد این موضوع توسط بولن: معادلات ساختاری با متغیرهای پنهان است. متأسفانه این کتاب در منطقه من در دسترس من نیست. نمیدانم که آیا مطالب یا مقالههای کلاس آنلاین بهطور رایگان برای برآوردن نیازهای من وجود دارد. پیشاپیش ممنون | مواد در مدل سازی معادلات ساختاری (SEM) |
92664 | من سعی دارم با شبکه های عصبی نمرات درسی دانش آموزان را پیش بینی کنم. من پارامترهای زیادی دارم که ممکن است روی نمره یک درس مانند جنسیت، معدل و بسیاری از نمرات دوره قبلی تأثیر بگذارد. من حدس میزنم قبل از تلاش برای ساخت یک مدل شبکه عصبی، باید یک ویژگی را انتخاب کنم. به عنوان مثال ABC440 ممکن است تحت تأثیر ABC101، ABC 201 و ABC205 قرار گیرد اما من 30 دوره دارم. در اینجا باید از سایر دوره های اولیه انتخاب کنم. برای یک مسئله غیرخطی مانند این، چگونه می توانم یک پارامتر موثر انتخاب کنم؟ آیا می توانم از تحلیل همبستگی یا تحلیل رگرسیون خطی استفاده کنم؟ آیا استفاده از روش تحلیل خطی برای یک مسئله غیرخطی روش صحیحی است؟ | انتخاب ویژگی مشکل غیرخطی |
48726 | هنگامی که یک بازدیدکننده به طور بالقوه می تواند بیش از یک بار «تبدیل» کند، روش مناسب برای اندازه گیری اهمیت در آزمون A/B چیست؟ من میدانم که آزمون کای اسکوئر یا z-test اغلب برای تست A/B استفاده میشود، اما از آنجایی که من میدانم این فقط در صورتی است که طبقهبندی شده باشد، مانند اینکه بازدیدکننده خرید کرده باشد یا نه. در مورد من، مشتریان میتوانند چندین بار در یک دوره آزمایشی خرید کنند، و من میخواهم مطمئن شوم که از آزمون اهمیت مناسب برای این کار استفاده میکنم. به عنوان مثال: تست A: 800,000 بازدیدکننده, 50,000 خرید تست B: 45,000 بازدیدکننده, 2,700 خرید من یک سوال مشابه را اینجا دیدم اما در مورد درآمد پرسیده شد: AB تست عوامل دیگر به غیر از نرخ تبدیل. در مورد من، آیا باید از تست Wilcoxon نیز استفاده کنم؟ | آزمون معناداری برای استفاده برای تبدیل های متعدد در آزمون A/B |
67295 | برای درک و/یا کسب اطلاعات از مجموعه ای از داده ها به چه نوع تحلیلی نیاز دارم؟ به عنوان مثال، من داده های دانش آموزان برای SATScore، HighSchoolGPA، HighSchoolRank، و غیره، و FreshmenGPA را دارم. اکنون میخواهم مدلی ایجاد کنم که به من بگوید کدام یک از معیارها برای FreshmenGPA مهم هستند و به چه میزان. من میخواهم اهمیت این دستهها (SATScore، HighSchoolGPA، HighSchoolRank، و غیره) را کمّی کنم. چه گزینه هایی دارم؟ دقیق ترین روش برای انجام چنین تحلیلی کدام است؟ چیزی که میخواهم از دادهها بدانم: من میخواهم شناسایی کنم که کدام یک از این متغیرها (SATScore، HighSchoolGPA، HighSchoolRank، و غیره) میتوانند به من در پیشبینی دانشآموزان FreshmenGPA کمک کنند. من در مورد آنچه که باید برای این کار انجام دهم مطالعه کردم، اما منبع قطعی یا پاسخ قطعی وجود ندارد. از آنچه من تقریباً درک می کنم، به نظر می رسد که باید بفهمم کدام یک از این متغیرها در پیش بینی FreshmenGPA مفید هستند و آیا یک متغیر تعاملی (ترکیبی از دو یا چند متغیر) وجود دارد که پیش بینی کننده بهتری از هر متغیر فردی باشد. چگونه می توانم این کار را انجام دهم؟ وقتی فهمیدم کدام متغیرها و/یا متغیرهای تعاملی برای مدل من مهم هستند، باید اهمیت متغیر را کمیت کنم، برای این کار باید وزن (ضرایب) متغیرهایی را که به نظرم برای FreshmenGPA مهم هستند، بیابم. آیا کسی می تواند مراحلی را که برای درک و انجام این کار باید طی کنم به من نشان دهد؟ همچنین، به نظر میرسد راههای متعددی برای انجام این کار وجود دارد، مطمئن نیستم که این درست است، اما اگر چنین است، کدام یک از این روشها دقیقترین مدل را برای دادهها ارائه میدهد؟ | شناسایی و کمی سازی متغیرها (پیش بینی کننده ها) برای درک رابطه |
15100 | من در PMML، زبان نشانه گذاری مدل پیش بینی کننده تازه کار هستم و می خواستم بدانم که آیا نوعی پشتیبانی جاوا (منبع باز / حرفه ای) برای ایجاد/تجزیه فایل های PMML وجود دارد. در ابتدا فقط امکان ایجاد/تجزیه فایل های PMML به صورت برنامه ای از محیط های جاوا را در ذهن دارم. من گوگل کرده ام و چندین احتمال پیدا کرده ام: * jpmml منبع باز از PMML 3.2. * javax.datamining JDM، با این حال به نظر مرده است... آیا کسی اطلاعات بیشتری دارد؟ * کتابخانه حرفه ای Zementis. * از یک کتابخانه XML Java استفاده کنید و تجزیه کننده/نویسنده DIY فایل های PMML را بسازید. من قدردان همه نظرات شما هستم. پیشاپیش از اسکار متشکرم | پشتیبانی جاوا از PMML |
62719 | من می دانم که این یک روش بسیار ساده است، اما به دلایلی راه های مختلفی را می بینم و مطمئن نیستم که کدام یک را دنبال کنم. بنابراین - من $Y_1,...Y_n \sim U(1,3)$ دارم و می خواهم $P(y<c)$ را بدانم. پاسخی که من برای این دارم (و با آنچه در ویکی می بینم متفاوت است) این است: $c+\int_1^c 0.5\,dy $ آیا این راه درست است؟ اگر چنین است، منطق پشت آن چیست؟ | توزیع یکنواخت - یک سوال ساده |
54662 | من میخواهم ترکیبی از دو چگالی گاوسی را در دادههای مالی خود قرار دهم. داده ها را می توانید در اینجا پیدا کنید: http://uploadeasy.net/upload/2a7mw.rar متغیر را dat می نامند. چگالی احتمال یک مخلوط به صورت زیر بدست می آید: \begin{align} f(l)=\pi \phi(l;\mu_1,\sigma^2_1)+(1-\pi)\phi(l;\mu_2, \sigma^2_2) \end{align} میتوان چندک را با استفاده از یک الگوریتم عددی برای حل موارد زیر محاسبه کرد: \begin{align} \alpha=P(L \leq VaR_\alpha) = \pi F_1(Quantile_\alpha;\mu_1،\sigma^2_1)+(1-\pi) F_2(Quantile_\alpha;\mu_2،\sigma^2_2) \end{align} من از mixtools در R استفاده میکنم: install.packages(mixtools) library(mixtools) mix<-normalmixEM(dat,k=2,fast=TRUE) این از الگوریتم EM استفاده می کند. من اکنون می خواهم 0.95 کمیت توزیع مخلوط را محاسبه کنم. من یک حلقه انجام می دهم، نوعی جستجوی شبکه ای، من فرض می کنم که کمیت (به دلیل ویژگی های داده های من) زیر 0.3 باشد. بنابراین حلقه به 0.3 پیکسل ختم می شود<-mixture$lambda[1] mu1<-mixture$mu[1] mu2<-mixture$mu[2] sigma1<-mixture$sigma[1] sigma2<-mixture$sigma[2 ] quantile<-0 probabilitylevel<-0.95 dummy1<-0 # حلقه حدودا طول می کشد 20-40 ثانیه برای (i در 1:100000){ quantile[i]<-i/(1000000/3) } dummy1<- probabilitylevel - ( pi * pnorm(quantile,mean=mu1,sd=sigma1) + (1 -pi) * pnorm (چک، میانگین=mu2، sd=sigma2)) min(abs(dummy1)) which.min(abs(dummy1)) quantileresult<-which.min(abs(dummy1))/(1000000/3) نتیجه quantile نتیجه '0.025371' است که در صورت کنترل صحیح به نظر می رسد با: pi * pnorm (نتایج کمی، میانگین=mu1، sd=sigma1) + (1-pi) * pnorm(quantileresult,mean=mu2,sd=sigma2) من به طرح نگاه می کنم: plot(density(dat),col=red) curve(expr=pi*dnorm(x,mu1,sigma1 )+(1-pi)*dnorm(x,mu2,sigma2),lwd=2,col=black,add=TRUE) منحنی(dnorm(x,mean(dat),sd(dat)),add=TRUE,lty=3,col=orange,lwd=2) که  به نظر می رسد که مخلوط معمولی (سیاه) بهتر با داده ها مطابقت دارد. خط نارنجی چین، توزیع نرمال تک متغیره است که به مجموعه داده ها برازش می شود. برازش داده ها به خوبی چگالی مخلوط نیست، آیا این درست تفسیر شده است؟ در نهایت، ما به چگالی های منفرد نگاه می کنیم و آن را با مخلوط مقایسه می کنیم: plot(density(dat),col=red) curve(dnorm(x,mu1,sigma1),add=TRUE,lty=2,col= سبز تیره) منحنی (dnorm(x,mu2,sigma2),add=TRUE,lty=2,col=blue) منحنی(expr=pi*dnorm(x,mu1,sigma1)+(1-pi)*dnorm(x,mu2,sigma2),lwd=2,col=black,add=TRUE) که نمودار زیر را نشان می دهد:  چگالی اول پیک بالاتری دارد، چگالی دوم جابجا شده است به سمت چپ و دارای یک اوج کمتر، واریانس بالاتر است. آیا محاسبات و تفسیرهای من درست است؟ | Ftting مخلوطی از دو گاوسی |
104404 | من به این فکر کردهام که چگونه از رگرسیون برای اثبات اینکه عامل X شرط لازم یا کافی برای Y است استفاده کنم. من از این اصطلاحات به معنای منطقی سنتی استفاده میکنم، یعنی * اگر X وجود ندارد، پس Y --> X لازم نیست. برای Y * اگر X، پس Y --> X برای Y کافی است دلیلی که می پرسم این است که در نظریه های علوم اجتماعی ما همیشه در مورد شرایط لازم و کافی صحبت می کنیم (به عنوان مثال، (اگر) خیر بورژوازی، (پس) دموکراسی وجود ندارد»). در عین حال، رایج ترین ابزار، رگرسیون است، اما به نظر می رسد برای بررسی علل ضروری / کافی مناسب نباشد. در واقع، به ندرت از ضرورت و کفایت در زمینه رجعت صحبت می کنیم. تعبیر معمول این است که X به معنای افزایشی Y را «باعث» میشود - یعنی تغییر خاصی در X مرتبط است / باعث تغییر خاصی در Y میشود. بنابراین، آیا میتوان نتایج رگرسیون را به عنوان شواهدی از ضرورت در مقابل کفایت تفسیر کرد؟ در مقابل، یک جدول 2 در 2 ساده X و Y رابطه ضرورت / کفایت را بسیار روشن می کند. P/S: لازم نیست انگیزه به علوم اجتماعی محدود شود. به عنوان مثال، اگر من یک مجموعه داده با DV به عنوان آتش رخ می دهد و IV ها به عنوان وجود سوخت، وجود کبریت، وجود رعد و برق و غیره داشته باشم. آیا می توانیم از رگرسیون برای اثبات اینکه سوخت برای آتش ضروری است اما ناکافی است استفاده کنیم؟ | استفاده از رگرسیون برای اثبات اینکه X یک شرط ضروری / شرط برای Y است |
20543 | اگر یک i.i.d معمولی چند متغیره داشته باشم. $X_1, \ldots, X_n \sim N_p(\mu,\Sigma)$ را نمونه کنید و $$d_i^2(b,A) = (X_i - b)' A^{-1} (X_i - b) را تعریف کنید $$ (که به نوعی فاصله Mahalanobis [مربع] از یک نقطه نمونه تا بردار $a$ با استفاده از ماتریس $A$ برای وزن دادن است)، **چیست توزیع** $d_i^2(\bar X,S)$ (فاصله ماهالانوبیس تا نمونه میانگین $\bar X$ با استفاده از ماتریس کوواریانس نمونه $S$)؟ من به مقاله ای نگاه می کنم که ادعا می کند $\chi^2_p$ است، اما این بدیهی است اشتباه است: توزیع $\chi^2_p$ با استفاده از $d_i^2(\mu,\Sigma)$ به دست می آمد. (ناشناخته) بردار میانگین جمعیت و ماتریس کوواریانس. هنگامی که نمونه های آنالوگ به برق متصل می شوند، باید توزیع هتلینگ $T^{\ 2}$، یا توزیع $F(\cdot)$ مقیاس شده، یا چیزی شبیه به آن را دریافت کرد، اما نه $\chi^2_p$. . من نتوانستم نتیجه دقیقی را نه در Muirhead (2005) و نه در Anderson (2003) و نه در Mardia، Kent and Bibby (1979، 2003) پیدا کنم. ظاهراً این افراد با تشخیص پرت زحمتی نمیکشیدند، زیرا توزیع نرمال چند متغیره کامل است و هر بار که دادههای چند متغیره را جمعآوری میکند به راحتی به دست میآید:-/. ممکن است همه چیز پیچیده تر از این باشد. نتیجه توزیع هتلینگ $T^{\ 2}$ بر اساس فرض استقلال بین بخش برداری و بخش ماتریس است. چنین استقلالی برای $\bar X$ و $S$ صادق است، اما دیگر برای $X_i$ و $S$ صادق نیست. | توزیع فاصله ماهالانوبیس در سطح مشاهده |
48727 | اجازه دهید فرض کنیم که یک مولد اعداد تصادفی داریم که با تابع چگالی احتمال آن داده شده است. حال باید از این توزیع برای تولید عددی استفاده کنیم که دارای ویژگی زیر باشد. این انحراف ریشه میانگین مربع بین خود و اعداد تصادفی تولید شده توسط توزیع در نظر گرفته شده را به حداقل می رساند. سوال من این است که این شماره یک نام خاص دارد. ممکن است فقط یک میانگین یا میانه باشد؟ | چه عددی RMSD را بین خودش و اعدادی که به طور تصادفی تولید می شوند به حداقل می رساند؟ |
104973 | من با بسته نرم افزاری R `caret` کار می کنم تا مهمترین ویژگی ها را از میان مجموعه ای از داده ها انتخاب کنم. پاسخ من عاملی از چندین کلاس است (مثلاً ویژگی اسمی) و ویژگیهای من اسمی و عددی هستند. من در کتابچه راهنمای نرم افزار خواندم که `rfe()` به صورت زیر عمل می کند > برای طبقه بندی، تجزیه و تحلیل منحنی ROC بر روی هر پیش بینی انجام می شود. برای > دو مشکل کلاس، یک سری برش به داده های پیش بینی کننده اعمال می شود تا کلاس > را پیش بینی کند. حساسیت و ویژگی برای هر برش > محاسبه می شود و منحنی ROC محاسبه می شود. قانون ذوزنقه ای برای محاسبه مساحت زیر منحنی ROC استفاده می شود. این ناحیه به عنوان معیار > اهمیت متغیر استفاده می شود. برای نتایج چند کلاسه، مسئله به تمام مسائل زوجی تجزیه میشود و مساحت زیر منحنی برای هر جفت کلاس محاسبه میشود (یعنی کلاس 1 در مقابل کلاس 2، کلاس 2 در مقابل کلاس 3 و غیره). برای یک کلاس > خاص، حداکثر مساحت زیر منحنی در سراسر AUCهای جفت مربوطه به عنوان معیار اهمیت متغیر استفاده می شود. تا اینجای کار خیلی خوبه. اما نمیدانم اگر ویژگی من اسمی باشد، منحنی ROC چگونه محاسبه میشود. برای مثال، من برخی از داده های اسباب بازی را تنظیم کرده و «rfe()» را انجام می دهم. AUC برای Geschlecht چگونه محاسبه می شود؟ rm(list=ls()) library(klaR) library(caret) library(matlab) library(FSelector) Faktor<-factor((نمونه( LETTERS[1:4], 10000, replace=TRUE, prob=c(0.1 ، 0.2، 0.65، 0.05)))) alter<-abs(rnorm(10000,30,5)) HF<-abs(rnorm(10000,1000,200)) Diffalq<-rnorm(10000) Geschlecht<-sample(c(Mann,Frau, Firma)، 10000، جایگزین = صحیح) data<-data.frame(Faktor,alter,HF,Diffalq,Geschlecht) set.seed(5678) flds<-createFolds(data$Faktor, 10) train<-data[-flds$Fold01 ,] test<-data[ flds$Fold01 ,] ویژگی های <- c(HF, alter, Diffalq, Geschlecht) formel<-as.formula(paste(Faktor ~ , paste(features, collapse= +))) nb<-NaiveBayes(formel, train, usekernel=TRUE) pred<-predict(nb, test) test$Prognose<-as.factor(pred$class) start<-proc.time() set.seed(12345) nbProfile<-rfe(Faktor ~ alter + HF + Diffalq + Geschlecht, train, sizes=1:4,repeats=3, rfeControl = rfeControl(functions = nbFuncs, method = cv)) end< -proc.time() zeit<-ende-start nbProfile با تشکر در پیشبرد! | حذف ویژگی بازگشتی در R با caret |
67299 | من می خواهم شناسایی سیستم یک سیستم AR (2) را با سیگنال گاوسی سفید با استفاده از تکنیک تخمین LS انجام دهم. با فرض اینکه سیگنال دریافتی توسط مدل کانال ارائه شده توسط x(t)= 0.919*x(t-1) - 0.92*x(t-2)+n(t) تولید می شود که در آن n(t) نویز سفید است. من باید پارامترها را با به حداقل رساندن حداقل مربعات خطا بین مقادیر پیش بینی شده و تجربی پیدا کنم، زمانی که بخش گیرنده فقط x(t) را دریافت می کند. همچنین باید فاصله اطمینان 95% را برای هر پارامتر پیدا کنم. اکنون متلب دستور شناسایی سیستم خود را دارد «ar()» که ضرایب را به ما می دهد. پیگیری جریان این تابع دشوار است و از این رو می خواستم بدانم تخمین پارامتر دقیقا چگونه انجام می شود. **ویرایش اینگونه انجام دادم اما ضرایب نادرست هستند.** x(1)=0.001; x(2)=0.002; برای i =3: 200 x(i) = 0.195 *x(i-1) -0.95*x(i-2); %خروجی پایان d= awgn(x,10، 'اندازه گیری شده'); %خروجی سیگنال دریافتی xb = toeplitz(d,[d(1),صفر(1,N-1)]) ;% ماتریس ورودی P1 = pinv(xb)*d; و وقتی از 'model1 = ar(x, 2, 'ls') استفاده کردم، ضرایب را به صورت '-0.1950 0.9500' دریافت کردم، اما علائم معکوس شدند! و وقتی از سیگنال خراب شده با نویز استفاده کردم، نتیجه کاملاً متفاوتی گرفتم. آیا نباید از سیگنال d به جای x استفاده کنم؟ چه اشکالی دارد؟ لطفاً کسی می تواند با جزئیات بیان کند که روش صحیح برای یافتن با استفاده از pinv() و ar() برای آن چیست؟ | مسائل مربوط به برآورد حداقل مربعات |
109356 | من یک سوال دارم در مورد اینکه کدام آزمایش را باید روی برخی از داده ها اجرا کنم. من گروه های کوچکی از مردم دارم که به سوالات پاسخ می دهند. پاسخ به این سوالات به عنوان صحیح یا نادرست طبقه بندی شده است. N از تعداد کل سوالات پرسیده شده نسبتا زیاد است، با این حال، N از تعداد کل گروه ها بسیار کوچک است. من می خواهم دقت را بر اساس اندازه گروه تجزیه و تحلیل کنم. فکر اولیه من این بود که یک ANOVA مناسب است زیرا گروه ها را به اندازه های 1-2، 3-4 و 5+ تقسیم می کنم و از دقت کلی گروه برای هر نمونه استفاده می کنم. با این حال، همانطور که گفتم، N کوچک است. یکی از همکاران پیشنهاد کرد که این نادرست است و در جایی که N مورد نظر به جای دقت کلی گروه، نمونه هایی از تمام پاسخ های صحیح/نادرست باشد، مربع چی مناسب تر است. آیا یکی از این ها یا تست دیگری مناسب تر است؟ | آزمون آماری مناسب برای چند گروه |
80312 | من این رگرسیون خطی را انجام داده ام که شامل ماه کدگذاری شده به عنوان یک متغیر ساختگی است: library(plyr) set.seed(1) y <- rnorm(120) x1 <- c(rep(adult, 60), rep( نوجوان، 60)) x2 <- c(rep(مرد، 60)، rep(مونث، 60)) x3 <- unlist(llply(month.abb، تابع(x) rep(x, 10))) خلاصه (lm(y ~ x1 + x2 + x3)) فراخوانی: lm(فرمول = y ~ x1 + x2 + x3) باقیمانده ها: حداقل 1Q Median 3Q Max -2.46354 -0.51524 -0.03981 0.57625 1.95041 ضرایب: (2 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای t مقدار Pr(>|t|) (قطع) 0.12073 0.28564 0.423 0.673 x1juvenile 0.00663 0.40396 0.016 0.987 x2male NA NA NA NA NA x3750399006.00. 0.355 x3Dec -0.24718 0.40396 -0.612 0.542 x3Feb 0.12812 0.40396 0.317 0.752 x3Jan 0.01147 0.40396 0.40396 0.40396 0.03970.0390. 0.40396 0.802 0.424 x3Jun 0.02273 0.40396 0.056 0.955 x3Mar -0.25440 0.40396 -0.630 0.530 x3 می 0.01403410 x3Nov 0.22012 0.40396 0.545 0.587 x3Oct -0.01502 0.40396 -0.037 0.970 x3Sep NA NA NA NA خطای استاندارد باقیمانده: 0.9033 در 108 درجه آزادی چندگانه: 0.9033 در 108 درجه آزادی چندگانه R-70- R-squared تعدیل شده: -0.05003-آمار F: 0.4845 در 11 و 108 DF، p-value: 0.9093 اکنون می خواهم نتایج این رگرسیون خطی را در یک جدول ارائه کنم. به جای ارائه نسخه بتا برای هر ماه، آیا راهی برای خلاصه کردن اثر کلی ماه بر روی «y» در همان جدول وجود دارد؟ برای مثال، آیا میتوان مقادیر بتا، se، t و p مقدار «x3» را با استفاده از مقادیر میانگین آنها در ماهها خلاصه کرد؟ | چگونه می توان متغیرهای ساختگی را از رگرسیون خطی در جدول ارائه کرد؟ |
15103 | من در حال حاضر در حال تجزیه و تحلیل داده هایم برای یکی از مطالعاتم برای پایان نامه دکتری روانشناسی هستم. امیدوارم کسی بتواند در مورد مشکلی که دارم به من کمک کند... من مطالعه ای انجام داده ام که در آن شرکت کنندگان به مدت یک ساعت پوکر بازی می کنند. من تصمیمات آنها را تجزیه و تحلیل می کنم و به هر تصمیمی که می گیرند یک کد می دهم. اگر تصمیمی دارای ارزش خنثی یا بدون ارزش مورد انتظار بود، تصمیم به عنوان 2 کد می شود. اگر تصمیمی دارای مقدار انتظاری منفی باشد، برای آن تصمیم یک کد 0 می دهم. در نهایت، اگر تصمیمی دارای ارزش مورد انتظار مثبت باشد، کد 1 را به آن میدهم. شرکتکنندگان از نظر تعداد دستهایی که برای بازی در جلسه ساعتی انتخاب میکنند، متفاوت هستند. برخی ممکن است فقط 10 دست بازی کنند، در حالی که برخی دیگر ممکن است 40 دست بازی کنند. بنابراین، برخی از افراد ممکن است تعداد زیادی از تصمیمات رمزگذاری شده داشته باشند، در حالی که برخی دیگر بسیار کمتر. مشکل من اینجاست: من سعی می کنم تعیین کنم که چه تعداد یا چه نسبتی از تصمیمات شرکت کننده دارای ارزش مورد انتظار منفی هستند (یعنی تصمیمات ضعیف). بنابراین کاری که من انجام دادم این بود که تعداد تصمیمات ارزشی منفی مورد انتظار را گرفته و آن را بر کل تصمیمات تقسیم کردم. این درصدی از تصمیمات ارزش مورد انتظار منفی را ایجاد می کند. مشکل این است که برخی از افراد خیلی کم بازی می کردند و بنابراین تصمیمات بسیار کمتری داشتند. داشتن تجربه بیشتر در پوکر با دست کمتر پوکر همراه است. بنابراین، برای مثال، یک فرد با تجربه تر ممکن است تنها 20 تصمیم در جلسه بازی خود گرفته باشد، در حالی که یک بازی با تجربه کمتر ممکن است 50 تصمیم گرفته باشد (به دلیل داشتن دست های بیشتر). اگر هر دو بازیکن 3 تصمیم با ارزش مورد انتظار منفی می گرفتند، درصد تصمیمات ارزش مورد انتظار منفی برای بازیکنی که دست کمتری بازی می کرد 15٪ و بازیکنی که دست های بیشتری بازی می کرد درصد 6٪ خواهد بود. بنابراین به نظر می رسد که افراد با تجربه بیشتر تصمیمات ضعیف تری می گیرند! بازی با دست های کمتر و در نتیجه تصمیم گیری کمتر، به طور مصنوعی امتیازات را افزایش می دهد. آیا راهی وجود دارد که بتوانم این مشکل را برطرف کنم؟ شاید با وزن دادن یا چیزی شبیه به آن؟ من با SPSS کار می کنم. هر گونه کمکی بسیار قدردانی خواهد شد! | چگونه می توانم از افزایش مصنوعی درصد جلوگیری کنم؟ |
72144 | $d$ کوهن تفاوت بین میانگین گروه آزمایش و گروه کنترل را تقسیم بر انحراف معیار اندازه گیری می کند. آماره $d$ کوهن چیزی را تولید می کند که هیچ ارزشی به اندازه اثر مشاهده شده اضافه نمی کند، یعنی تفاوت بین میانگین گروه آزمایش و میانگین گروه کنترل. آیا باید از $d$ کوهن یا تفاوت ساده تولید شده توسط آزمایش کنترل شده برای یک متاآنالیز؟ | آیا $d$ کوهن معیار بهتری برای اندازه اثر نسبت به یک تفاوت میانگین ساده برای یک متاآنالیز است؟ |
67291 | من 10 آیپد دارم. من تعداد دفعاتی را که یک برنامه هر روز برای هر یک از این iPad ها خراب می شود، ثبت می کنم. تعداد خرابیها فقط به سمت چند دستگاه منحرف میشود، به طوری که میانگین گرفتن چیزی معنیدار نمیدهد. از چه نوع معادله ای باید استفاده کنم تا برخی از داده های معنی دار مربوط به خراب شدن برنامه خود را به دست بیاورم؟ و/یا (مهمتر از آن): چه چیزی را باید جستجو کنم تا در مورد نوع معادله(هایی) که به من کمک می کند یاد بگیرم؟ مجموعه داده مثال: {iPad,numCrashes} [{0,11},{1,7},{2,10},{3,0},{4,0},{5,0},{6,0} ,{7,0},{8,0},{9,0}] خرابیها در هر دستگاه 2.8 است، اما فقط 30٪ از دستگاهها واقعاً خراب میشوند. | کدام معادله به من بینش معناداری می دهد؟ |
20545 | من یک برنامه ریز دارم که می تواند N حالت دلخواه را ارزیابی کند و تناسب آنها را محاسبه کند. دامنههایی که ارزیابی میکند هیچ وضعیت پایان صریحی ندارند، بنابراین افق نامحدودی دارد. روش های خوبی برای محاسبه زمانی که باید ارزیابی حالت ها را متوقف کند چیست؟ رویکرد فعلی من این است که احتمال ارزیابی بعدی را به عنوان بهترین حالت بعدی تخمین بزنم و اگر این احتمال کمتر از یک آستانه مشخص شود متوقف شود. به عنوان مثال پس از ارزیابی هر حالت، یک شمارنده را افزایش میدهم، و پس از بهترین تناسب جدید، اگر یافت شد، آن شمارنده را بازنشانی میکنم، که به دنبالهای مانند: مراحل = [0، 1، 2، 0، 1، 2، 0، 0، 0 منجر میشود. , 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 0, 1, 2, 3, 4] سپس میتوانم روی این مورد تکرار کنم و یک احتمال گسسته ساده از هر مرحله قبل از بهترین تناسب بعدی تشکیل دهم: از مجموعهها، شمارش پیشفرض را وارد کنید = پیشفرض (int) مجموع = پیشفرض (int) برای مرحله، بعدی در zip (گامها، مراحل[ 1:]): counts[step] += next == 0 total[step] += 1 for k in sorted(counts.keys()): print k,counts[k],totals[k],'%.2f' % (counts[k]/float(totals[k]),) منجر به: 0 0.43 1 0.00 2 0.50 3 0.00 4 0.00 5 0.00 6 0.00 7 0.00 8 0.00 9 0.00 10 1.00 چگونه می توانم این احتمالات گسسته را بگیرم و یک تقریب کلی برای احتمال P(گام بعدی بهترین گام است | گام فعلی از آخرین بهترین است با یک عدد صحیح گامی دلخواه تشکیل دهم (مخصوصاً برای تعداد گام های بالا که ممکن است به آن نرسیده باشم) ? | محاسبه احتمال کشف |
104972 | من سعی می کنم یک GMM/HMM برای تشخیص واج پیاده کنم که در آن برای هر واج یک مدل HMM 3 حالته از چپ به راست با حالت های شروع و پایان بدون انتشار دارم. احتمالات انتشار با مخلوط های گاوسی مدل شده است. من می خواهم یک معماری HMM بسازم همانطور که در مقاله تشخیص تلفن مستقل از بلندگو با استفاده از مدل های پنهان مارکوف توسط Kai-Fu Lee شکل 3-3 (الف) پیشنهاد شده است. یعنی حالت شروع و پایان بدون انتشار داشته باشیم و در این بین تمام واج ها hmms به صورت موازی برای تشخیص واج پیوسته داشته باشیم. آیا مرجع یا مقاله ای وجود دارد که نحوه اجرای عملی این یا نحوه اجرای حالت های شروع و پایان را بدون انتشار نماد نشان دهد؟ وقتی به پیاده سازی اشاره می کنم منظورم پیاده سازی Baum-Welch و Viterbi و غیره است با تشکر! | اجرای عملی تشخیص گفتار HMM |
57811 | من سعی می کنم LASSO را در R با بسته glmpath انجام دهم. با این حال، مطمئن نیستم که از تابع پیش بینی همراه _predict.glmpath()_ به درستی استفاده می کنم. فرض کنید من برخی از مدلهای رگرسیون دوجملهای منظمشده را برازش میکنم: fit <- glmpath(x = data$x, y=data$y, family=binomial) سپس میتوانم از predict.glmpath() برای تخمین مقدار متغیر پاسخ $ استفاده کنم. y$ در $x$ برای مقادیر متغیر $\lambda$ از طریق pred <- predict.glmpath(fit, newx = x, mode=lambda, s=seq(0,10,1),type=response) اما در فایل راهنما مشاهده می شود که گزینه _newy_ نیز وجود دارد. چگونه باید نتیجه را هنگام فراخوانی _predict.glmpath()_ با _newy = some.y_ تفسیر کرد؟ **[ویرایش]** یک سوال اضافی به ذهنم خطور کرد: گزینه _type_ با توجه به فایل راهنما می تواند مقادیر زیر را داشته باشد: توضیحات در فایل راهنمای پاسخ پاسخ های تخمین زده شده loglik برگردانده می شوند. ضرایب ضرایب برگردانده می شوند. ضرایب برای متغیرهای ورودی اولیه برگردانده می شوند (به جای ضرایب استاندارد شده) پیوند (پیش فرض) پیش بینی کننده های خطی برگردانده می شوند اما، به کدام پیش بینی ها و ضرایب خطی اشاره می کنند؟ مطمئنا مدل اصلی نیست؟ | سوالات مربوط به ()predict.glmpath |
99640 | آیا باید نگران چند خطی بودن در آمار ناپارامتریک باشم؟ | آیا چند خطی بودن یک نگرانی در آمار ناپارامتریک است؟ |
30835 | فرض کنید مجموعهای از مدلهای $M = \\{M_1، M_2، \dots M_n\\}$ را دریافت کردم. حالا بگویید من مقداری داده $x$ دریافت کردم و می خواهم بدانم کدام مدل داده ها را بهتر نشان می دهد. من می دانم که چگونه احتمال $L(\theta | x)$ را محاسبه کنم، که $\theta$ پارامترهای هر یک از آن مدل ها است. من متوجه هستم که ارزش احتمالی یک مدل به تنهایی چیز مفیدی به من نمی گوید. اما کاری که می توانم انجام دهم این است که آنها را با یکدیگر مقایسه کنم. اکنون می دانم که کدام یک از مدل های داده شده محتمل تر است. **اما**: من همچنین می خواهم بدانم، چقدر احتمال دارد که هیچ یک از مدل ها به اندازه کافی یک مدل را نشان ندهند؟ یعنی من به یک روش آماری دقیق علاقه مند هستم که بگویم باید یک مدل جدید برای آن داده ها ایجاد کنم. هیچ اشاره ای در مورد اینکه چگونه می توانم این را محاسبه کنم؟ | انتخاب مدل مبتنی بر احتمال |
80315 | با توجه به $X_1$..$X_n$ و $Y_1$..$Y_n$ استخراج شده از توزیع های ناشناخته $F(x)$ و $G(x)$ به ترتیب، آزمون های آماری مانند دو نمونه کولوموگروف- اسمیرنوف، کرامر- آزمونهای فون میزس و اندرسون-دارلینگ برای آزمایش فرضیه صفر $\mathcal{H} ابداع شدهاند: F(x) = G(x)$ با استفاده از آمار آزمون های مختلف. اما به جای آزمایش فرضیه، من بیشتر علاقه مند به کمی کردن احتمال هستم، $\mathcal{P}(X_1..Xn,Y_1..Y_n | F(x) = G(x))$ بدون دانستن $F(x) $ یا $G(x)$. آیا این امکان پذیر است؟ تستهای بالا $\mathcal{P}(Z\ge{}z | F(x) = G(x))$ را نشان میدهند که $Z$ آمار آزمون است، اما این چیزی نیست که من میخواهم. من سعی کردم نحوه استخراج آماره آزمون کولوموگروف دو نمونه ای را پیدا کنم، اما هیچ چیز مفیدی به دست نیامد... تمام مقالاتی که پیدا کردم یا به سادگی آمار آزمون پیشنهادی را بیان می کنند یا توزیع آن را تحت فرضیه صفر مطالعه می کنند. با توجه به آمار سفارش $X_{(1)}$..$X_{(n)}$ و $Y_{(1)}$..$Y_{(n)}$، آیا چیز مفیدی در مورد $ وجود دارد که بتوانیم بگوییم X_{(i)} - Y_{(i)}$ صرف نظر از توزیعهای $F(x)$ و $G(x)$؟ | آیا می توان احتمال اینکه دو نمونه از یک توزیع گرفته شود را محاسبه کرد؟ |
109352 | من وضعیتی دارم که در آن ما تعدادی ویژگی/متغیر کمی (p) نسبت به تعداد نمونه (n) داریم. هدف من این است که این نمونه ها را به گروه ها (ممکن است سلسله مراتبی) طبقه بندی کنم. من می توانم بحث خوبی در مورد این موضوع در این پست پرسش و پاسخ، اینجا در CV ببینم. من از بحث در مورد خوشه بندی بر اساس داده های با ابعاد بالا در ویکی و نیازهای آن آگاه هستم. در اینجا مثال داده ای برای تمرین است: set.seed(123) # ماتریس از X متغیر xmat <- ماتریس (نمونه(-1:1، 2000000، جایگزین = درست)، ncol = 10000) colnames(xmat) <- چسباندن ( M، 1:10000, sep = ) rownames(xmat) <- paste(sample, 1:200، سپتامبر = ) در اینجا سؤالات من وجود دارد: 1. بهترین رویکرد کدام است؟ 2. من علاقه مند به یافتن کدهای پیاده سازی برای یک روش مناسب (ممکن است خوشه بندی Subspace یا Projected clustering یا Correlation clustering یا Hybrid رویکردهای) برای مورد خود هستم. | خوشه بندی داده های با ابعاد بالا (p > n) در R |
15395 | شاید اجازه دهید ابتدا کاربرد دنیای واقعی مسئله خود را قبل از رفتن به یک مدل ریاضی بیشتر توضیح دهم. فرض کنید من سیستمی دارم که موقعیت فعلی من را تا یک خطای ناشناخته اندازه گیری می کند (مثلاً این یک دستگاه GPS است). در هر نقطه ای که ثبت می شود، موقعیت دقیق به دست آمده از طریق دیگر را نیز ذخیره می کنم. اکنون میخواهم یک فاصله پیشبینی خطای ثبتشده را تخمین بزنم، بنابراین یک مقدار قابل اعتماد میخواهم که بگویم 95٪ از تمام نقاط داده نزدیکتر از مقدار تخمینی به موقعیت واقعی هستند. به این معنی که اساساً مایلم تابع توزیع احتمال مقادیر $$e_i:=|X_i-P_i|,$$ را تخمین بزنم که در آن $X_i$ موقعیت ثبت شده (تصادفی) من و $P_i$ مقدار مرجع شناخته شده است. تا اینجا همه چیز خوب است. اکنون با توجه به مقادیر نمونه $e_i$ مشکلاتی ایجاد می شود. من نقاط داده بسیار مرتبط و تابع توزیع را می بینم که از همه توزیع های پارامتری که من می شناسم فاصله زیادی دارد. آیا روشی قوی و غیر پارامتری برای تخمین توزیع (یا حداقل یک کمیت از پیش تعریف شده از آن توزیع) با داده های همبسته می شناسید؟ اندازه نمونه مشکلی نیست، من حدود 50000 نقطه داده در دسترس دارم. البته یک راه محاسبه تابع توزیع تجربی است، اما آیا این هنوز با داده های همبسته کار می کند؟ قضیه حدی که من می شناسم نمونه های مستقلی را برای تضمین رفتار مجانبی صحیح فرض می کند. با تشکر از ورودی شما. | تخمین فاصله پیش بینی ناپارامتریک |
109351 | فرض کنید من 64 ستون دارم که از بین 500+ ستون بر اساس این واقعیت که آنها بیشترین همبستگی زوجی را دارند انتخاب کرده ام (این راه خوبی است؟). من 16 تا از این ستون ها را انتخاب می کنم و یک رگرسیون چند متغیره ساده اجرا می کنم. من متوجه شدم که 4 مورد از این ستون ها دارای مقادیر P کمتر از 0.05 هستند. آیا می توانم به عقب برگردم، این کار را برای مجموعه 16 بعدی انجام دهم (متقابل از مجموعه اول)، مقادیر P را بررسی کرده و ستون های موفق را بدون مشکل به مدل اضافه کنم؟ علاوه بر این، آیا درست است که فقط چهار مجموعه متشکل از 16 ستون را انتخاب کنم یا باید 64 مورد را 16 بار انتخاب کنم و وجوه مشترکی بین هر مجموعه پیدا کنم؟ من احساس میکنم در روشی که در بالا انجام میدهم مشکلی وجود دارد، بنابراین امیدوارم کسی بتواند راه درست را برای این کار روشن کند. همچنین، لطفاً اگر کاری برای بهبود این سؤال می توانم انجام دهم، به من اطلاع دهید. | اضافه کردن تکراری متغیرها به مدل بر اساس مقدار P |
73817 | من این مجموعه داده سری زمانی را دارم:  نمودار خطوط روند را برای 7 قیمت سهام نشان می دهد. آنها بسیار نزدیک و همپوشانی هستند، اما شما می توانید این ایده را به دست آورید که خطوط روند لایه لایه هستند (به عنوان مثال قهوه ای در بالا و قرمز/نارنجی در پایین، هرچند دور از چشم انداز). آیا راهی برای تجسم بهتر این داده ها وجود دارد؟ مانند تبدیل $y$-axis به مقیاس دیگر، نگاشت کل چیز روی سیلندر/مخروط و غیره؟ من با میانگین متحرک امتحان کردم، اما پیشرفت چندان خوب نیست. توجه: این یک مشکل ML/DM نیست. من به دنبال یک تکنیک تجسم بهتر/جایگزین/مناسب هستم، همین. | سری های زمانی همپوشانی: آیا راه بهتری برای تجسم آنها وجود دارد؟ |
95817 | من یک بازآفرینی واقعی رشد سالانه درخت را از اندازه گیری حلقه درخت انجام می دهم و در کار با نمودارها و حاشیه آنها مشکلات زیادی دارم. من دو تا گراف رو جدا انجام دادم و اینها خوب کار میکنن ولی فعلا که بزارم با هم کار نمیکنه! و در صورت امکان من می خواهم این را به عنوان فایل GIF نیز ذخیره کنم. ایده اصلی من این است که این دو نمودار را با هم ترسیم کنم و در صورت امکان آنها را به عنوان یک فایل Gif ذخیره کنید. در اینجا دو نمودار حرکتی من به طور جداگانه: tree01 <- read.table(url(http://darwin.ec/test/tree01.txt)، header=T، dec = ) x = tree01$x y = tree01 $y z = tree01$z year=tree01$year TRW = tree01$TRW # PLOTTING DISC plot.new() for(i in 1:125) { Sys.sleep(0.1) par(new=T) plot(x[1],y[1], xlim = c(-1000, 1000), ylim = c(-10000, 10000)) par (new=T) نقاط (x[i]، y[i]، cex= z[i]، col=black) افسانه (بالا سمت راست، legend= year[i], border=) # سعی کردم بدون حاشیه ترسیم کنم } # PLOTTING LINES plot.new() for (i در 1:125){ Sys.sleep(0.1) plot(x=year, y =TRW, type=l, ylim = c(0,5)) points(year[i], TRW[i], col=red, pch=20, font = 20) abline(v=year[i], col = خاکستری) } به همین دلیل سعی شد آنها را در کنار هم قرار دهد، اما در پنل های مختلف، اما متاسفانه کار نمی کند: library(animation) # saveGIF({ for( i در 1:125) { old.par <- par(mfrow=c(2,1)) #disc Sys.sleep(0.1) par(new=T) نمودار (x[1]، y[1]، xlim = c(-10000، 10000)، ylim = c(-10000، 10000)) par(new=T) نقاط(x[i]،y[i]، cex= z[i], col=black) legend(topright, legend= year[i], border=) #lines par(new=T) نمودار (x=year، y=TRW، type=l، ylim= c(0500)) نقاط (year[i]، TRW[i]، col=red، pch=20، font = 20) abline (v=year[i]، col = خاکستری) par(old.par) } # }، movie.name = tree01.gif، فاصله = 0.1، ani.width = 600، ani.height = 600) و در پایان می خواهم یک نمودار در دو پانل داشته باشم، اما در همان زمان اجرا شود:  از کمک شما بسیار سپاسگزار خواهم بود. با تشکر | چگونه دو طرح حرکتی را با هم در R اجرا کنیم؟ |
114979 | من میخواهم دادههای تصادفی ماهانه _(m)_ دما (_T_) و بارش (_P_) را با توجه به اینکه هر دو متغیر به هم مرتبط هستند (_rTP[m]_) تولید کنم. به طور نرمال توزیع شده است، در حالی که بارش ها از توزیع لگ نرمال پیروی می کنند و باید تبدیل به log-تغییر شوند **mvrnorm** از بسته MASS می توان استفاده کرد. mT=c(1،2،4،7،10،15،17،18،17،10،5،1) mP=c(3.9،3.7،3.9،4.1،4.5،4.7،4.8،4.8،4.4، 4.1،4.2،3.9) #log-transformed sdT=c(1,1,1,1,1,1,1,1,1,1,1,1) sdP=c(0.7,0.8,0.7,0.6,0.4,0.4,0.4,0.5,0.6, 1,0.8,0.6) #log-transformed rTP=c(0.4,0.4,0.4,0.4,0.4,0.4,0.4,0.4,0.4,0.4,0.4,0.4) covTP=rTP*(sdT*sdP) simP=NULL برای (متر در 1:12) { خارج =mvrnorm(500، mu = c(mT[m]، mP[m])، سیگما = ماتریس (c(sdT[m]*sdT[m]،covTP[m]،covTP[m]،sdP[m]*sdP[m]، ncol = 2)، تجربی = TRUE) simP[m]= mean(exp(out[,2])-1) } در این مورد من دو سری زمانی تصادفی ایجاد میکنم که با هم مرتبط هستند که عالی است. با این حال، بارش های شبیه سازی شده ( _simP_ ) به طور متوسط بیشتر از نمودار مشاهده شده ( _mP_ ) است (exp(mP)-1, type=l, lwd=2, ylim=c(0,250)); نقاط (simP، type=l، lwd=2، lty=2) من میتوانم از **rlnorm** یا **rlnorm.rplus** استفاده کنم تا بارندگیها تبدیل به log-تغییر شوند، اما بعد از آن با دما مشکل دارم. که به طور معمول توزیع می شوند. سوال من این است: چگونه می توانم نمونه گیری تصادفی برای متغیرهایی که دارای ویژگی های کمی خاص هستند (توزیع log-normal و نرمال) ایجاد کنم؟ با تشکر | R: نمونهگیری تصادفی برای توزیعهای نرمال و لگ نرمال چند متغیره |
95118 | * متوجه شدم که درختهای تصمیم روشهای ناپارامتریک هستند. * استدلال من این خواهد بود که از آنجایی که هر مشاهده ای که به یک گره پایانی اختصاص داده می شود (به عنوان یک مقدار پیش بینی شده) به میانگین متغیر وابسته در آن گره پایانه اختصاص داده می شود، انتظار دارید توزیع شرطی (یعنی برای هر گره) تقریباً باشد. عادی * من دو نمودار را برای درخت تصمیم خود ضمیمه کرده ام (در مجموعه آزمایشی 63 درصد تأیید می شود، بنابراین به نوعی ضعیف است)، باقیمانده ها در مقابل برازش و باقیمانده ها در برابر واقعی - اساساً، سؤال من: آیا یک درخت رگرسیون قوی شبیه یک درخت نیست. گام تابع از انواع؟   | نمودار باقیمانده برای درخت رگرسیون: چگونه باید باشد؟ |
57814 | قبل از شروع می خواهم بگویم که من سابقه ریاضی ندارم، بنابراین لطفاً به روشی ساده پاسخ دهید. من در حال آزمایش 2 مجموعه داده های بازار سهام هستم (بورس بورس شانگهای (شاخص ترکیبی SSE) و بورس اوراق بهادار هنگ کنگ (HANG SENG INDEX)). من میخواهم همبستگی بین دو مجموعه داده را آزمایش کنم (به ساختارهای لید/لگ اهمیتی نمیدهم). من برخی از پستهای این وبسایت را خواندم و با توجه به آنچه فهمیدم، ابتدا باید دادههایم را «سفید» کنم تا بتوانم همبستگی را آزمایش کنم. سوالات من به شرح زیر است؛ 1. آیا باید اطلاعاتم را سفید کنم؟ اگر چنین است، چگونه این کار را انجام دهم؟ آیا این کار در اکسل امکان پذیر است یا به نرم افزار خاصی نیاز دارم (کدام نرم افزار می تواند این کار را برای من انجام دهد؟) 2. وقتی داده های من سفید شد، آیا می توانم فقط از روش همبستگی پیرسون برای آزمایش همبستگی استفاده کنم؟ | سفید کردن داده ها و آزمایش همبستگی |
48720 | من در مدل سازی ترکیبی تازه کار هستم و گیج هستم که آیا استفاده از یک اثر تصادفی در تحلیلی که انجام می دهم مناسب است یا خیر. هر توصیه ای قدردانی خواهد شد. مطالعه من در حال آزمایش است که چگونه یک شاخص تازه توسعه یافته فراوانی پستانداران می تواند ارزش یک شاخص ثابت اما کار فشرده تر را پیش بینی کند. من این شاخصها را در چندین تکه جنگلی با چندین قطعه در هر تکه جنگل اندازهگیری کردهام. چون من مستقیماً به تأثیر تکههای جنگلی علاقهمند نیستم، و از آنجا که نمونههای نمونه من در داخل تکههای جنگلی تودرتو هستند، از پچ جنگل به عنوان یک اثر تصادفی استفاده کردهام. با این حال، من چند سوال در این مورد دارم: اول، می دانم که اثرات تصادفی به شما امکان می دهد نتایج خود را در تمام سطوح ممکن عامل تصادفی تعمیم دهید، نه فقط سطوحی که نمونه برداری کردید. اما به نظر من برای انجام این نوع استنباط سطوح شما باید به صورت تصادفی نمونه برداری شوند؟ تکههای جنگلی من بهطور تصادفی نمونهبرداری نشدهاند، بنابراین آیا میتوانم همچنان از آنها به عنوان یک افکت تصادفی استفاده کنم؟ دوم، من خواندم که میتوانید با انجام آزمایش نسبت درستنمایی برای مقایسه مدلهای با و بدون اثر، آزمایش کنید که آیا لازم است اثر تصادفی داشته باشید. من این کار را انجام دادهام، و نشان میدهد که مدل اثر تصادفی دادهها را توضیح نمیدهد و همچنین یک مدل فقط اثرات ثابت را توضیح میدهد. مشکل من با این این است که قطعات من هنوز در داخل تکه های جنگلی تودرتو هستند و بنابراین احتمالاً مستقل نیستند. بنابراین، آیا میتوانم از این رویکرد LRT برای توجیه حذف اثر تصادفی استفاده کنم، یا هنوز باید آن را برای توضیح تودرتو در نظر بگیرم؟ و اگر در نهایت اثر تصادفی را حذف کنم، آیا راهی برای تأیید اینکه قطعههای درون تکههای جنگل میتوانند مستقل در نظر گرفته شوند وجود دارد؟ با تشکر از کمک شما! جی | چه زمانی یک افکت تصادفی در یک مدل لحاظ شود |
72143 | من یک متغیر تصادفی X دارم. set.seed(1) X <- rnorm(10,0,30) من می خواهم سه متغیر دیگر (y1, y2, y3) ایجاد کنم که دارای R^2 از پیش تعیین شده .50 هستند، ` 0.36` و `.26`. به عنوان مثال: `cor(x,cbind(y1,y2,y3))^2=0.5,0.36,0.26` و همچنین ضرایب یک مدل خطی که در آن y1 y2 و y3 در بازگشت X رگرسیون می شوند: `0.4، 0.25 و 0.1 `، به عنوان مثال: `lm(X~y1+y2+y3) -> 0.4*y1 + 0.25*y2 + 0.15*y3` آیا این کار با شروع از X امکان پذیر است؟ | متغیرهایی با Rsquare و ضرایب ثابت تولید کنید |
73818 | من فقط می خواهم مطمئن شوم که چیزی در ذهنم روشن است. وقتی اندازه اثر را برای یک آزمون t نمونه های زوجی پس از به دست آوردن یک نتیجه قابل توجه محاسبه می کنم، به سادگی میانگین تفاوت ها را تقسیم بر انحراف استاندارد تفاوت ها می گیرم تا اندازه اثر d به دست آید. آیا باید d را بگیرم و آن را بر جذر 1-r تقسیم کنم، جایی که r همبستگی بین جفتها است و r از جفتهای نمونه تخمین زده میشود؟ من گیج شده ام زیرا تقسیم بر جذر 1-r ظاهراً به من اندازه اثر عملیاتی می دهد و من واقعاً مطمئن نیستم که آیا اندازه اثر عملیاتی همان چیزی است که باید در تجزیه و تحلیل های خود گزارش کنم. به عنوان مثال، در این گزارش که روی آن کار می کنم، باید بدانم که آیا اندازه افکت 2 SD وجود دارد یا خیر. بنابراین وقتی اندازه اثر خود را محاسبه می کنم، آیا باید بر جذر 1-r تقسیم کنم؟ فکر نمیکنم، فکر میکنم باید اندازه اثر واقعی شناساییشده را گزارش کنم و نه اثر عملیاتی، اما من دوست دارم نظر دومی داشته باشم. با تشکر | گزارش اثر عملیاتی در آزمون t زوجی |
95119 | من دو مجموعه از ویژگیها دارم که خروجیهای یکسانی را پیشبینی میکنند. اما به جای اینکه همه چیز را به یکباره آموزش دهم، دوست دارم آنها را جداگانه آموزش دهم و تصمیمات را با هم ترکیب کنم. در طبقهبندی SVM، میتوانیم مقادیر احتمال را برای کلاسهایی که میتوان برای آموزش SVM دیگر استفاده کرد، در نظر گرفت. اما در SVR چگونه می توانیم این کار را انجام دهیم؟ هر ایده ای؟ ممنون :) | سطح تصمیم ترکیب خروجی های SVR |
72497 | من در حال طراحی یک آزمایش بسیار ساده هستم که به این صورت است. به شرکتکنندگان مجموعهای از محرکها نشان داده میشود و پس از مشاهده هر کدام، به چند سؤال پاسخ میدهند که در آنجا درباره محرک قضاوت میکنند - همه موارد لیکرت. دو نوع محرک وجود دارد. احتمالاً واضح است، اما فرضیه این است که بین پاسخهای محرک A در مقابل B تفاوت وجود خواهد داشت. 30 یا بیشتر محرک وجود خواهد داشت، با تعداد مساوی محرک A و B. همه شرکتکنندگان همه محرکها را خواهند دید (در درون سوژهها). من نمیدانم که آیا متعادل کردن ترتیب دریافت آیتمها، در مقابل نشان دادن دنباله تصادفی یکسانی از محرکها (که تنظیم آن آسانتر است) سودی خواهد داشت. اگر روش بهتری وجود دارد که باید در نظر بگیرم، مایلم در مورد آن بشنوم. من همچنین به طرحهای مسدود کردن نگاه کردم، اما این به قدری ساده است که فکر نمیکنم در اینجا کاربرد داشته باشند. من قصد دارم با آزمون t یا Mann-Whitney-Wilcoxon تجزیه و تحلیل کنم. | طراحی آزمایشی ساده - آیا باید تعادل ایجاد کنم؟ |
34641 | برای برخی تحقیقاتی که انجام میدهم، با مشکل زیر مواجه شدهام، که باید بارها آن را حل کنم: دادههای من متشکل از دنبالهای از مشاهدات $\\{O_1,O_2,\ldots,O_n\\}$ است که هر کدام به طور معمول متفاوت است. خطای توزیع شده طول توالی ها متغیر است و از 5 تا 44 مشاهده متغیر است. **من به یک سیستم رتبهبندی نیاز دارم که بیان کند یک دنباله مشاهدات چقدر در حال _کاهش است. > \cdots > O_n )$ یا $\prod_{i=1}^{n-1}P(O_i > O_{i+1})$ از طریق مونت کارلو بنابراین اولین راه ساده لوحانه من برای مقابله با این مشکل این است که این دو امتیاز را امتحان کنم. این رویکرد مشکلاتی دارد. در دادههای من، مشاهدات ممکن است با یک کمیت در حال کاهش مطابقت داشته باشند یا از یک قانون قدرت پیروی کنند. در این موارد مجانبی همگرا، برای n$ بزرگ این امتیازات می تواند بسیار پایین باشد. علاوه بر این، یک دنباله کوتاه با نوارهای خطای گسترده می تواند به راحتی امتیاز بالاتری کسب کند. بنابراین یک سیستم رتبه بندی خوب باید توالی های کوتاه و مبهم را مجازات کند و توالی های طولانی و مجانبی همگرا را ببخشد. با فکر کردن به مورد مبهم، می توان نشان داد که اگر همه مشاهدات i.i.d باشند، بدون توجه به توزیع: * $\displaystyle P(O_1 > O_2 > \cdots > O_n) = \frac{1}{n!}$ و * $\displaystyle\prod_{i=1}^{n-1}P(O_i > O_{i+1}) = \frac{1}{2^{n-1}}$ از این مشاهدات، من الهام گرفتم تا رتبهبندیهای زیر را بدست بیاورم: * $P(O_1 > \cdots > O_n ) \times {n!}$ * $ \displaystyle\prod_{i=1}^{n-1}P(O_i > O_{i+1}) \times 2^{n-1}$ نمیتوانم چیزی در مورد ویژگی های آماری این رتبه بندی ها، زیرا آنها اختراع خود من هستند و نمی توانم مقاله ای در مورد این مشکل پیدا کنم. همچنین، من هنوز چیزی را اجرا نکرده ام، زیرا اخیراً با این مشکل مواجه شدم. من این سوال را با پیشرفت هایم به روز می کنم. ورودی و انتقاد پذیرفته می شود! پیشاپیش از همه متشکرم | رتبه بندی متغیرهای توزیع شده تصادفی بر اساس کاهش |
109357 | من از مثال زیر در کتابچه راهنمای R استفاده می کنم: # (2) از lmmlasso در مجموعه داده های شبیه سازی شده کوچک استفاده کنید.seed(54) N <- 20 # تعداد گروه ها p <- 6 # تعداد متغیرهای کمکی (شامل رهگیری) q <- 2 # تعداد متغیرهای کمکی اثر تصادفی ni <- rep(6,N) # مشاهدات در هر گروه ntot <- مجموع (ni) # تعداد کل مشاهدات grp <- ضریب (rep(1:N، هر=ni)) # گروه بندی متغیر بتا <- c(1,2,4,3,0,0,0) # ضرایب اثرات ثابت x <- cbind(1 ,ماتریس(rnorm(ntot*p),nrow=ntot)) # ماتریس طراحی bi1 <- rep(rnorm(N,0,3),each=ni) # Psi=diag(3,2) bi2 <- rep(rnorm(N,0,2),each=ni) bi <- rbind(bi1,bi2) z <- x[,1:2,drop=FALSE] y <- عددی (ntot) برای (k در 1:ntot) y[k] <- x[k،]%*%بتا + t(z[k,])%*%bi[,grp[k]] + rnorm(1) # ساختار اثرات تصادفی صحیح fit2 <- lmmlasso(x=x,y=y,z=z,grp=grp, lambda=10,pdMat=pdDiag) summary(fit2) وقتی میخواهم مقدار p را بیشتر از ntot افزایش دهم، با خطای پارامترهای کوواریانس اضافی (بعد از اینکه لامبدا را به میزان قابل توجهی افزایش دادم). مطمئن نیستم اینجا چیزی را از دست داده ام یا نه. هر کمکی بسیار قدردانی خواهد شد. کد من به شرح زیر است: # lmmlasso استفاده شده در مجموعه داده های شبیه سازی شده.seed(54) need(lmmlasso) N <- 30 # تعداد گروه p <- 500 # تعداد متغیرهای کمکی (شامل مقطع) q <- 1 # تعداد متغیرهای اثر تصادفی ni <- rep(6,N) # مشاهدات در هر گروه ntot <- مجموع(ni) # تعداد کل مشاهدات grp <- factor(rep(1:N، هر=ni)) # گروه بندی متغیر بتا <- c(1,2,4,3,3,rep(0,496)) # ضرایب واقعی با اثرات ثابت x <- cbind( 1، ماتریس (rnorm(ntot*(p))،nrow=ntot)) # ماتریس طراحی X z <- x[,1,drop=FALSE]#Z ماتریس طراحی زیرمجموعه ای از ماتریس طراحی X bi1 <- (rep(rnorm(N,0,sqrt(0.56))، هر=ni)) bi = rbind(bi1) y است <- عددی (ntot) برای (k در 1:ntot) y[k] <- x[k،]%*%بتا + t(z[k,])%*%bi[,grp[k]] + rnorm(1,0,sqrt(0.25)) # ساختار اثرات تصادفی صحیح fit2 <- lmmlasso(x=x,y=y,z =z,grp=grp,lambda=1200,pdMat=pdDiag) خلاصه (fit2) | lmmlasso برای p>n کار نمی کند |
99642 | فرض کنید من یک متغیر تصادفی طبقه بندی شده $X$ روی یک فضای برچسب مجزا دارم $L$ = {Sky, Road, Tree, Unknown}. به عبارت دیگر هر $X_i \در L$. اکنون پارامترهای هر $X_i$ را ذخیره میکنم که احتمالات فردی هستند یعنی P(X_i = آسمان)، P(X_i = جاده)، ...$. حالا بگویید من چند تا از این X_1، X_2،...، X_m$ دارم. من می خواهم یک متغیر تصادفی جدید $X_A$ دریافت کنم که نشان دهنده میانگین $X_1, X_2,...,X_m$ است. بنابراین در حال حاضر من پارامترهای $X_A$ را با متوسط کردن پارامترهای $X_1، X_2،...، X_m$ محاسبه میکنم. **سوال من این است که اگر روش فوق صحیح است؟** * * * جزئیات بیشتر: از آنجایی که من پارامترهای هر $X_i$: P(X_i = Sky)، P(X_i = Road) را به عنوان یک ذخیره می کنم. بردار $P_i$ با اندازه $|L|$. من از معادله زیر برای محاسبه میانگین استفاده میکنم: $P_A = (\sum_{i=1}^{m} P_i )/m$ و سپس به صورت $P_A = P_A / (\sum_{l=1}^{ عادی میشود. |L|} P_A[l] )$ و اگر احتمالات Log را در هر $P_i= [\log P(X_i= Sky), \log P(X_i= ذخیره کنم Road)، ..]$ سپس من این کار را انجام می دهم: $P_A = \log \sum_{i=1}^{m} \exp (P_i) - \log(m)$ و عادی سازی به صورت $P_A = P_A - \log \sum_{l=1}^{|L|} \exp(P_A[l])$ که $\log \sum \exp$ همانطور که در اینجا توضیح داده شده است. **یک سوال جانبی** این است که آیا روش کارآمدتری برای محاسبه این در هنگام ذخیره log-احتمالات (معادله 2) وجود دارد؟ یک کاربرد مبتنی بر این میانگینگیری میتواند به شرح زیر باشد: مثلاً وکسلهای سهبعدی با اندازهای خاص که در آن هر وکسل یک متغیر تصادفی $X_i$ را ذخیره میکند که نشاندهنده برچسب Sky، Road، Tree، Unknown است. اکنون میخواهید به نمایش درشتتر با وکسلهای بزرگتر (اکتره) بروید، بنابراین باید میانگین X_A$ تمام وکسلهای کوچکتر داخل وکسل جدید را محاسبه کنید. | میانگین چند متغیر تصادفی طبقه بندی شده |
17870 | > **تکراری احتمالی:** > تفاوت بین احتمال و آمار چیست؟ امروز تازه از یک سمینار دانشجویی در بخش خود برگشتم. و من شنیدم که برای توزیع پارتو، تخمین پارامتر به نوعی دشوار است. صدها تخمین از پارامتر وجود دارد و تفاوت های زیادی با هم دارند، یعنی راهی برای تخمین آن وجود ندارد. بنابراین، من فقط می دانم که آمار چیست؟ آمار نمی تواند چنین پارامتری را تخمین بزند؟ آمار متکی است به چه چیزی تخمین زده می شود؟ خواص احتمالی این توزیع نیست؟ آمار فقط به یک مجموعه داده انبوه متکی است و چگونه می تواند آماری برای تخمین پارامتر مورد نظر بدست آورد؟ ما از میانگین برای تخمین انتظار استفاده می کنیم فقط به دلیل قضیه حد مرکزی که کاملاً احتمال است. پس آمار چیست؟ | رابطه آمار و احتمال |
34648 | میخواهم بدانم آیا هنگام اجرای آزمایشهای جایگشت ناپارامتریک، محدودیتی در اندازه گروهها وجود دارد؟ پرونده من متعلق به حوزه تصویربرداری پزشکی است. من یک تصویر بیمار را با یک گروه از تصاویر کنترل مقایسه می کنم. برای هر تصویر (از جمله تصویر بیمار)، حداکثر آمار T را محاسبه می کنم. این معیار «سطح اول» من است. در طراحی سطح دوم خود از متریک سطح اول خود برای مقایسه بیمار با توزیع متریک سطح اول در گروه کنترل استفاده می کنم. من یک نمره T کسب می کنم. سپس برچسبهای (بیمار، کنترل) تصاویرم را تغییر میدهم و دوباره یک T-score برای آن جایگشت به دست میآورم. من همه جایگشت ها را در جایی اجرا می کنم که یک تصویر در گروه بیمار و بقیه تصاویر (30) در گروه کنترل داشته باشم. اگر 1 بیمار و 30 کنترل داشته باشم، 31 جایگشت با پیکربندی 1 بیمار و 30 کنترل به دست میآید. پس از ساختن توزیع جایگشت با این روش، متوجه میشوم که امتیاز پیکربندی اولیه من (پیکربندی که دارم آزمایش میکنم) از آستانه 0.05 بهدستآمده از توزیع جایگشت فراتر نمیرود. این مورد انتظار است، زیرا من جایگشت کافی برای داشتن مقدار p-value کم ندارم. با این حال، (و این یک مشکل بزرگ است)، وقتی همه جایگشت های ممکن ($2^{31}$) را اجرا کردم و برچسب بیمار یا کنترل را به هر موضوع اختصاص دادم، متوجه شدم که آمار پیکربندی اولیه من از آستانه 0.05 فراتر می رود. اما آیا می توانم این کار را انجام دهم؟ آیا می توانم همه جایگشت های ممکن را زمانی که طرح اصلی من 1 در مقابل بسیاری است اجرا کنم؟ آیا چیزی وجود دارد که من از دست بدهم؟ یا روش من معقول به نظر می رسد؟ | محدودیت در اندازه گروه با آزمون های جایگشت ناپارامتریک |
29697 | من داده های زیر را برای 200 مورد/موضوع دارم: * زمان مرگ در یک دوره 15 ساله، t$. یک داده با ارزش 180 ماه به این معنی است که آزمودنی در طول دوره 15 ساله نمرده است. * فراوانی سه نوع خاص رویداد مرتبط با هر موضوع $a_{i}$، $b_{i}$ و $c_{i}$، جدا از آمار واضح بقا و منحنی های KM، چگونه می توانم ارتباط را آزمایش کنم بین $t$ و هر یک از $a_{i}$، $b_{i}$ و $c_{i}$. من فرض می کنم که نمایه $t$ برای هر یک از $a_{i}$، $b_{i}$ و $c_{i}$ متمایز خواهد بود. یکی از راه هایی که من برای آزمایش این فرضیه فکر می کردم این بود که به سادگی همبستگی پیرسون را بین $t$ و هر یک از $a_{i}$، $b_{i}$ و $c_{i}$ انجام دهم. سپس میتوانم این را با یک نمودار پراکنده $t$ _vs_ هر کدام از $a_{i}$، $b_{i}$ و $c_{i}$ تجسم کنم. آیا پیشنهادی در مورد تجزیه و تحلیل پیچیده تر از جمله تغییرات تجزیه و تحلیل KM دارید؟ نمونه کد با R قدردانی شد. | آزمایش بقا در برابر فراوانی برخی رویدادها |
109355 | من از بسته dlnm برای ساخت یک مدل خطی تاخیر توزیع محدود استفاده می کنم. من قصد دارم برازش مدل را بر اساس سطوح تاخیر مختلف آزمایش کنم تا ارزیابی کنم که کدام تاخیر مناسب است. نیازی به ذکر نیست که برای برقراری یک تماس خوب از دانش دامنه استفاده خواهم کرد. من از این دو منبع موجود برای انجام این تمرین نسبتاً پیچیده استفاده می کنم: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3191524/ http://cran.r-project.org/web/packages /dlnm/vignettes/dlnmOverview.pdf من برای اولین بار یک ماتریس ایجاد کردم تا اثرات غیرخطی هر دو پیش بینی کننده من را با استفاده از این شامل شود: `ImpressionsA.x<-onebasis(locanatmodelset$ImpressionsA.x، fun=poly، grade=2)` `ImpressionsA.y<-onebasis(locanatmodelset$ImpressionsA.y، fun=poly، grade=2)` از آنجایی که رابطه غیر خطی من به درجه دوم تمایل دارد، من از چند جمله ای درجه 2 استفاده می کنم. اکنون باید با فراخوانی «crossbasis»، تأخیرهای هر متغیر را فاکتور کنم. اینجاست که من گیج شدم. تابع مطابق اسناد بسته به این شکل است: `cb <- crossbasis(chicagoNMMAPS$temp,lag=30,argvar=list(thr,thr.value=c(10,20)), arglag=list( knots=c(1,4,12)))` تردیدهای من این است: 1) در `lag=30` 30 واحد از همان متغیر پاسخ من است یا در واحدهای متغیر پیش بینی من خواهد بود؟ در مورد من، تاخیر من در روز مشخص شده است. من می خواهم 5 روز را به عنوان تاخیر قبل از نصب مدل مشخص کنم. چگونه باید استدلال را پاس کنم؟ 2) از آنجایی که من قبلاً ماتریس پایه خود را برای متغیرهای پیش بینی با استفاده از onebasis ایجاد کرده ام، چگونه باید آرگومان های argvar و arglag را پاس کنم؟ 3) همچنین میخواستم مقادیر تاخیری متغیرهای پیشبینیکننده خود (ImpressionsA.x و ImpressionsA.y) را در واحدهای اصلی خود استخراج کنم. خود ماتریس مفید نیست. همه چیز را با هم به مقادیر منفی در مقیاس دیگری تبدیل می کند. | مشخص کردن تاخیر در dlnm هنگام ارسال آرگومان ها به crossbasis. |
67873 | **TLDR**: چگونه می توانم استنتاج بین تفاوت های گروهی را در یک رشد احتمالاً لجستیک با زمان در حضور نقاط پرت، زمان و فرکانس اندازه گیری نابرابر، اندازه گیری های محدود و اثرات تصادفی احتمالی در سطح فردی و هر مطالعه انجام دهم؟ من سعی می کنم مجموعه داده ای را تجزیه و تحلیل کنم که در آن اندازه گیری برای افراد در مقاطع زمانی مختلف انجام شده است. اندازه گیری ها در زمان 0 کم شروع می شوند و با گذشت زمان از یک الگوی رشد لجستیک پیروی می کنند (بسیار تقریباً). من سعی می کنم مشخص کنم که آیا بین دو گروه از افراد تفاوت وجود دارد یا خیر. تجزیه و تحلیل توسط عوامل زیر پیچیده می شود: * اثر زمان غیرخطی است، بنابراین یا یک رگرسیون لجستیک غیر خطی (از نظر بیولوژیکی قابل قبول است، اما به طور خاص مناسب نیست) یا یک رگرسیون ناپارامتریک مناسب به نظر می رسد * رگرسیون های پرت عظیم وجود دارد. ، بنابراین رگرسیون با استفاده از مجموع مجذور باقیمانده به نظر خارج از جدول است. رگرسیون کمی مناسب به نظر می رسد. * اثرات تصادفی ممکن است برای هر فرد و در هر سطح مطالعه مناسب باشد. مدل های جلوه های ترکیبی مناسب به نظر می رسد. * زمان اندازه گیری، تعداد اندازه گیری های موجود و پایان نظارت بین افراد متفاوت است. تکنیک های تجزیه و تحلیل بقا مناسب به نظر می رسد. احتمالاً وزنه هایی معادل 1 / تعداد مشاهدات برای فرد اعمال شود. * اندازهگیریها در زیر صفر محدود میشوند و در حالی که هیچ مرز آشکاری در بالا وجود ندارد، اندازهگیریهای خودسرانه بالا از نظر بیولوژیکی غیرمحتمل به نظر میرسند. با این حال، تعداد کمی از افراد دارای اندازه گیری های صفر هستند (تا حدی به دلیل دقت اندازه گیری دستگاه). * چند مدلی که تاکنون امتحان کردهام، معمولاً با یک خطای غیرمفید مربوط به روش عددی مطابقت نداشتند. این من را به این باور می رساند که به یک روش منطقی قوی برای مقابله با این مجموعه داده تا حدودی زشت نیاز دارم. * در نهایت، من می خواهم استنتاج به شکل گروه 1 رشد سریع تری نسبت به گروه 2 دارد یا گروه 1 دارای سطح مجانبی بالاتر از گروه 2 است را تولید کنم. آنچه تاکنون امتحان کردهام (همه در R) - میدانستم که بیشتر موارد زیر برای مجموعه داده مناسب نیستند، اما میخواستم ببینم کدام مدلها میتوانند بدون خطاهای عددی برازش شوند: * رگرسیون ناپارامتریک با استفاده از crs در بسته crs Nicely یک منحنی تقریباً نزدیک به رشد لجستیک در بیشتر دوره زمانی با رفتارهای عجیب در پایان دوره نظارت (جایی که مشاهدات کمتری وجود دارد) ایجاد می کند. استفاده از افراد به عنوان اثرات ثابت، برخی موارد پرت را آشکار می کند. استفاده از متغیر علاقه به عنوان اثرات ثابت تفاوت هایی را نشان می دهد. با این حال، مطمئن نیستم که آیا راهی برای ارزیابی تناسب و استنتاج بر روی مدلی با این مجموعه وجود دارد یا خیر. * رگرسیون غیر خطی اثرات مختلط با استفاده از nlme در بسته nlme و SSlogis. به تدریج ساخت مدل با update() به خوبی کار می کند. پیچیده شدن بیش از حد با اثرات ثابت یا اثرات تصادفی منجر به شکست همگرایی می شود. از آنجایی که هیچ دلیلی وجود ندارد که باور کنیم باقیمانده ها به طور معمول توزیع می شوند، به نظر می رسد ایده بدی باشد که این موضوع را بیشتر دنبال کنیم. ویرایش: اخیراً متوجه شده ام که امکان تعیین باقیمانده های همبسته خودکار در nlme وجود دارد. با این حال، در حال حاضر به نظر میرسد که حتی نمیتوانم وزنههای ثابتی را به کار ببرم. مشاوره در مورد نحو صحیح خوش آمدید. * رگرسیون غیرخطی اثرات مختلط با استفاده از nlmer در بسته LME4 و احتمال سفارشی برای مدل رشد لجستیک. نسبتاً خوب کار می کند، اما خطاهای استاندارد در جلوه های ثابت، احتمالاً به دلیل نقاط پرت است. من همچنین کمی شک دارم که برخی از مدل ها بدون خطا مطابقت ندارند، زیرا گاهی اوقات جلوه های تصادفی کوچکی دریافت می کنم (حدود 10^10 کوچکتر از مدل های کمی ساده تر). از آنجایی که هیچ دلیلی وجود ندارد که باور کنیم باقیمانده ها به طور معمول توزیع می شوند، به نظر می رسد ایده بدی باشد که این موضوع را بیشتر دنبال کنیم. * رگرسیون چندک غیر خطی با استفاده از nlrq در بسته quantreg و SSlogis. به طور قابل اعتماد و سریع متناسب است، اما خطوط صدک متقاطع هستند. این بدان معناست که ناحیه ای که 90 درصد داده ها را شامل می شود به طور کامل در منطقه ای حاوی 95 درصد داده ها قرار نمی گیرد. * رگرسیون چندک ناپارامتریک با استفاده از روش LMS با بسته VGAM. حتی مدلهای بیاهمیت با استفاده از این مجموعه داده با خطاهای مبهم شکست خوردند. من معتقدم که تعداد صفرها در مجموعه داده و / یا محدوده بزرگ داده ها در حالی که نزدیک شدن به صفر نیز ممکن است مشکل باشد. * برای تکمیل این لیست، احتمالاً باید به پکیج lqmm برای مدل های ترکیبی Quantile خطی نیز اشاره کنم که هنوز از آن استفاده نکرده ام. در حالی که تا آنجایی که من می دانم بسته نمی تواند از مدل های غیر خطی استفاده کند، تبدیل متغیر زمان ممکن است چیزی تقریباً نزدیک ایجاد کند. اگر این یا هر روش دیگری ممکن است برای تولید استنتاج نسبتاً قوی در این سناریو مورد استفاده قرار گیرد، از بازخورد من سپاسگزارم. شاید رگرسیون اصلاً مورد نیاز نباشد و روش دیگری و احتمالاً سادهتر کافی باشد. خوشحال می شوم در صورت نیاز یک مجموعه داده نمونه ارائه کنم، اما فکر کنید این سوال ممکن است فراتر از مجموعه داده فعلی نیز جالب باشد. | استنتاج بین تفاوت های گروهی (با مولفه زمانی غیر خطی، نقاط پرت و اثرات مختلط) |
114978 | من مشتریانی دارم که سالی یک بار پیشنهادی را رزرو می کنند. میخواهم تعیین کنم که آیا «اثر وفاداری» وجود دارد یا خیر - یعنی مشتری از امسال احتمالاً سال آینده را دوباره رزرو میکند. می توانم ببینم که پس از رزرو امسال، مشتری به احتمال زیاد حدود یک سال بعد یا ژانویه آینده رزرو خواهد کرد. علاوه بر این، به طور تصادفی یک مشتری دلخواه با من رزرو می کند (با اوج تقاضا در ژانویه یا اواسط سال). آیا میتوانید روشی برای تقسیم و تعیین کمیت این اثرات از تاریخهای رزروی که میدانم برای مشتریانم پیشنهاد کنید؟ (بنابراین می دانم: مشتری1:[تاریخ1، تاریخ2، ...]، مشتری2:[تاریخ3، ...]، ...) می خواهم تقاضای تصادفی عمومی را از پاداش وفاداری جدا کنم. هر ایده ای؟ | اثر مدل وفاداری مشتریان بازگشتی |
115088 | آیا هنگام انجام چندین تحلیل رگرسیون چندگانه در مقایسه با انجام رگرسیون چند متغیره تفاوتی در ضرایب بتا وجود دارد؟ | رگرسیون چند متغیره یا رگرسیون چند متغیره |
91919 | اگر دادههای من غیرعادی توزیع شدهاند و من یک ANOVA 2x2 انجام میدهم، برای اصلاح این مشکل چه کاری میتوانم انجام دهم تا بتوانم اثر اصلی و خروجی تعامل را به طور مناسب گزارش کنم؟ تنها یک یافته قابل توجه است (یکی از اثرات اصلی). من خواندهام که بوت استرپ را نمیتوان برای یک ANOVA تک متغیره در SPSS اعمال کرد... من خودم این را در SPSS امتحان کردم و نتوانستم هیچ خروجی بوت استرپ را به دست بیاورم. **اطلاعات بیشتر:** من از یک ANOVA تک متغیره 2×2 (سن [6 سال، 7 سال] × طبقه بندی آموزشی [گروه A، گروه B]) برای بررسی این فرضیه استفاده کردم که عملکرد آزمون (درصد موارد صحیح) افزایش می یابد. با سن برای کودکان در گروه B، اما در بین سن دانش آموزان گروه A تفاوت معنی داری نداشت. من درصدها را به مقادیر آرکسین تبدیل کردم تا با فرض وابستگی پیوسته مواجه شوم. متغیر نمونه من کوچک است، بنابراین اندازه نمونه برای هر سلول ایجاد شده توسط 2 x 2 به شرح زیر است: گروه A 6 ساله = 10، گروه A 7 ساله = 13، گروه B 6 ساله = 20، و گروه B 7 ساله = 14. من می دانم که نمرات به طور غیر عادی در گروه A و گروه B توزیع می شود، زیرا اکثر دانش آموزان نمرات بالایی در آزمون کسب می کنند. (و من تست های نرمال بودن را انجام دادم و به نمودارهای Q-Q نگاه کردم). گروه A که همچنین گروه کوچکتر از 2 است، واریانس بیشتری دارد. اما آیا باید تست های نرمال بودن را برای هر 4 گروه ایجاد شده توسط 2 x 2 اجرا کنم؟ من یک اثر اصلی برای طبقه بندی آموزشی پیدا کردم اما برای سن نه، و هیچ تعاملی وجود نداشت. من فقط می خواهم بدانم که آیا یافته های من با توجه به غیر عادی بودن معتبر هستند یا اینکه باید راهی برای رفع این مشکل در SPSS (به عنوان مثال، بوت استرپ) پیدا کنم. | استفاده از ANOVA تک متغیره با داده های توزیع شده غیر عادی |
34642 | من می خواهم تفاوت بین تجزیه و تحلیل داده های تابلویی و تحلیل مدل ترکیبی را بدانم. تا آنجا که من می دانم، هم مدل های پانل و هم مدل های ترکیبی از جلوه های ثابت و تصادفی استفاده می کنند. اگر چنین است، چرا آنها نام های مختلفی دارند؟ یا مترادف هستند؟ من پست زیر را خواندم که تعریف افکت ثابت، تصادفی و ترکیبی را توضیح میدهد، اما دقیقاً به سوال من پاسخ نمیدهد: تفاوت بین مدلهای افکت ثابت، افکت تصادفی و جلوه ترکیبی چیست؟ اگر کسی بتواند مرا به یک مرجع مختصر (حدود 200 صفحه) در مورد تجزیه و تحلیل مدل ترکیبی ارجاع دهد سپاسگزار خواهم بود. عمدتاً توضیح نظری مدلسازی مخلوط. | تفاوت بین داده پانل و مدل ترکیبی |
67871 | من خیلی با تجزیه و تحلیل بقا آشنا نیستم، بنابراین این ممکن است یک سوال اساسی باشد. من به زمان بین دو رویداد [$A$ - دارو] و [$B$ - زمان اولین درمان] علاقه مند هستم که دومی می تواند برابر با $A$ باشد. به طور خاص، من می خواهم بدانم که آیا این در طول سال ها متفاوت است یا خیر. آزمودنی های مورد نظر حداقل 5 سال داده دارند و من داده های 2001-2011 را دارم. به همین دلیل، آزمون های آمار خلاصه انجام نمی شود (آزمودنی ها در سال 2011 ظرفیت تا 11 سال را دارند در حالی که افراد در سال 2006 فقط ظرفیت 6 سال را دارند). بنابراین، در عوض، من مقدار $A-B$ را در نظر میگیرم که اگر $B$ در یک سال از ورود موضوع به مجموعه داده سقوط کند، سانسور شود و سپس یک منحنی KM بسازم. با این حال، مدت زمان تحت پوشش هر گروه همچنان متفاوت خواهد بود، مانند: متفاوت هستند، اگرچه تنها مقایسه سال 2011 در مقابل هر گروه دیگر از طریق آزمون لوگرانک معنادار است. از طرف دیگر، من میتوانم تفاوتهای زمانی بیشتر از 5 سال را کوتاه کنم (با در نظر گرفتن آنها سانسور شده): همانطور که انتظار می رود = 5 است، با این حال، آزمون لوگرانک تفاوت های مهم تری را نشان می دهد (2010 در مقابل هر گروه دیگری). من مطمئن نیستم که کدام یک از این تنظیمات مناسب تر است. | منحنی کاپلان مایر با طول های زمانی مختلف در گروه ها |
115084 | به منظور یافتن زمان بهینه برای شروع درمان پس از جراحی (بیماران انکولوژیک) من یک منحنی ROC با مرگ تعریف شده به عنوان رویداد ایجاد کردم. AUC قابل توجه نبود. با این حال، تصمیم گرفتم از زمانی که بهترین ویژگی و حساسیت را در رگرسیون کاکس ارائه میدهد به عنوان یک متغیر باینری استفاده کنم. پارامتر کاکس معنی دار بود. به این فکر می کردم که آیا با استفاده از داده های منحنی ROC با p-value > 0.05 و با استفاده از داده های به دست آمده از تجزیه و تحلیل اکتشافی برای تجزیه و تحلیل همان داده های آموزشی، مرتکب گناه می شوم. من بسیار علاقه مند به شنیدن نظرات و پیشنهادات هستم (شاید برای اعتبارسنجی؟) پیشاپیش ممنون لیران | استفاده از داده ها از منحنی ROC |
78103 | من سعی کرده ام به دنبال مرجعی در مورد نظریه پشت استفاده از آزمون F برای آزمایش برابری ضرایب رگرسیون باشم. نزدیکترین چیزی که من پیدا کردم این است که برای محدودیت های خطی کلی است: http://www.mattblackwell.org/files/teaching/ftests.pdf. به نظر می رسد گوگل من را شکست داده است. آیا میتوانید برای یک مرجع نظری در مورد استفاده از آزمونهای F برای آزمایش برابری ضرایب رگرسیون به من در جهت درست اشاره کنید؟ پیشاپیش بسیار متشکرم | آزمون F برای برابری ضرایب رگرسیون |
34390 | من به روش های مختلف اندازه گیری پراکندگی بردارها عمدتاً برای استفاده در تحلیل خوشه ای علاقه مند هستم. من می توانم به سه روش فکر کنم: 1. بردار میانگین (مرکز) را پیدا کنید، سپس واریانس فواصل همه بردارها را تا این بردار میانگین محاسبه کنید. ممکن است مجموعه بردارها همه متفاوت باشند، اما فاصله یکسانی با بردار میانگین داشته باشند. در این مورد به نظر نمی رسد که این یک اقدام عالی باشد، اگرچه این وضعیت ممکن است در عمل بعید باشد. به نظر می رسد که معیار کیفیت خوشه Davies-Bouldin از این برای اندازه گیری کیفیت درون خوشه ای استفاده می کند. 2. از میانگین فاصله زوجی بین بردارها استفاده کنید. من دیده ام که از این برای اندازه گیری کیفیت درون و بین خوشه ای استفاده می شود. به نظر می رسد که این به نوعی ماتریس فاصله نیاز دارد. اگر کسی سعی کند بردارها را اضافه یا حذف کند و ماتریس فاصله را در حال به روز رسانی کند، ممکن است پیاده سازی دشوار باشد. 3. واریانس جمعیت را برای هر جزء از بردارها محاسبه کنید. این منجر به یک بردار حاوی واریانس جمعیت برای هر جزء می شود. سپس مجموع مولفه های این بردار را بگیرید. سوالات من: * نظری در مورد این اقدامات دارید؟ * اقدامات خوب دیگری وجود دارد؟ * همچنین آیا کسی یک الگوریتم یک پاس برای محاسبه #1 و #2 می داند. من می دانم که چگونه شماره 3 را با یک الگوریتم یک پاس ثابت عددی محاسبه کنم. اساساً هر بار که بردار را از یک خوشه اضافه یا حذف می کنم، می خواهم معیار کیفیت به طور خودکار به روز شود. من در این مورد برای اقدامات خاصی شانس داشتم. | چگونه می توان واریانس بردارها را برای خوشه بندی محاسبه کرد؟ |
77513 | من باید یک نمونه با اندازه معین از یک جمعیت ایجاد کنم. با این حال، جمعیت پویا است، یعنی به صورت جریانی از اقلام می آید و هر آیتم بر اساس موقعیتش در این جریان، «مهر زمانی» دارد. من از قبل نمیدانم طول این جریان چقدر است، اما نیاز دارم که در نمونه انتخابی، مهرهای زمانی به صورت یک دنباله تصادفی به نظر برسند. عملاً من نمی توانم کل جمعیت را ذخیره کنم و سپس نمونه ای را انتخاب کنم. من باید به نحوی یک نمونه را در طول فرآیند حفظ کنم و در نهایت نمونه مورد نیاز با اندازه اصلی را بدست بیاورم. در اینجا ایده ای وجود داشت: فرض کنید باید m مورد را نمونه برداری کنید، و مجموع اندازه جمعیت ناشناخته n است. \- عدد k را انتخاب کنید که بزرگتر از m و کوچکتر از n باشد و برای آن می توانید جمعیت هایی با اندازه k \- را برای اولین k عناصر در جریان مدیریت کنید، یک نمونه تصادفی از m عناصر از آن ایجاد کنید و آن را به عنوان نگه دارید. نمونه کاری \- برای k بعدی (که دومین تکه از k آیتم است)، حدود m/2 عنصر را از آن نمونه برداری کنید، و m/2 را به طور تصادفی از نمونه کار خود جایگزین کنید، با آیتم های نمونه جدید. اکنون شما یک نمونه m از 2k مورد \- و غیره دارید... برای تکه یکم k مورد از جریان، عناصر m/i را به طور تصادفی انتخاب کنید و آنها را به طور تصادفی در نمونه کاری خود جایگزین کنید... \- این کار را انجام دهید تا پخش جریانی تمام شود. نمونه کار شما نتیجه است آیا این الگوریتم نمونه خوبی ایجاد می کند؟ آیا راه های بهتری برای انجام آن وجود دارد؟ | نمونه گیری از جمعیت پویا |
109354 | مقایسه رتبهبندیها برای دستور پختها که من اغلب فکر میکردم، مثلاً 50 بررسی با میانگین 4.5 بهتر از 31 بررسی با میانگین 4.8 است؟ چرخش به دور این ملاحظات از نظر آماری دارای اهمیت بوده است. از زمانی که تصمیم گرفتم اینجا بپرسم، امروز تمام عدم قطعیت از بین می رود. بدون شک پاسخ روشنی برای این سوال وجود دارد که آیا می توان به سادگی از روی تعداد رتبه ها (و میانگین آنها یا حتی توزیع آنها) تعیین کرد که کدام دستور غذا بهتر است؟ و اگر چنین است، فرمول سریعی برای ارزیابی ذهنی این موضوع چیست؟ **ویرایش**: برای شفافیت بیشتر، تعریف «بهتر»: 1. همه بررسی ها در بازه واقعی $[0,5]$ رتبه بندی می شوند. یک دستور غذا بهعنوان «نمره» واقعی، مستقل و «عینی» (در همان بازه زمانی) مدلسازی میشود که توسط رتبهبندی بازبینان دستور، با خطا تخمین زده میشود. هنگامی که ادعا می کنیم یک دستور غذا در مقایسه با دیگری بهتر است، به این امتیاز ضروری اشاره می کنیم. ما سعی میکنیم از طریق مدلهایی از آن، مانند میانگین رتبهبندیها و تعداد رتبهبندی آن دستور، به این امتیاز ضروری دسترسی پیدا کنیم. 2. اگر رتبهبندیها (دو دستور غذای $F$ و $G$ برای یک آیتم منوی نسخهبندیشده یکسان، $M$) در یک سایت هستند و تعداد نظرات یکسانی دارند، درج هرگونه اطلاعات اضافی را ممنوع کنید. دستور $F$ بهتر از $G$ است اگر $avg(ratings(F)) > avg(ratings(G))$. 3. اگر رتبهبندیها در یک سایت هستند، و تعداد بررسیهای متفاوتی دارند، **نمیدانم.** 4. اگر رتبهبندیها در سایتهای مختلف است، پس از درج هرگونه اطلاعات اضافی، مطابق با 2 و 3. 5. اگر اطلاعات اضافی در دسترس است، مانند، برای مثال (و خوانندگان ممکن است انتخاب کنند که تا آنجایی که می خواهند در این جهت عمیق تر کاوش کنند): * قابلیت اطمینان سایت $A$ در مقابل سایت $B$. این به صلاحدید خواننده واگذار میشود، و یک مقدار احتمال تصور میشود که «اعتماد به اعتماد به اعتبار» رتبهبندیهای سایت $A$ را ارائه میکند، یعنی معیاری از وفاداری رتبهبندی سایت $A$ به ارزش واقعی درجه بندی دستور غذا. بنابراین، اگر سایت $A$ رتبه های بسیار بالایی را به دستور غذای یک آیتم $M$ ارائه می دهد، اما به طور کلی تصور می شود که سیگنال بهتری غیر قابل اعتماد است، در حالی که سایت $B$ میانگین کمی پایین تر، با قابلیت اطمینان بسیار بیشتر، برای یک دستور غذای متفاوت ارائه می دهد. در مورد همان مورد $M$، می توان یک مورد معقول ایجاد کرد که دستور العمل سایت B بهتر از سایت $A$ است. هر معیاری از قابلیت اطمینان سایت و مکانیسم مربوط به محاسبه یک سفارش در دستور پخت باید به همین نتیجه برسد. * توزیع قابلیت اطمینان ارزیابها، یعنی معیاری از نزدیک بودن امتیاز یک ارزیاب برای هر دستور غذا، مثلاً $score(rater, recipe)$، امتیاز «هدف» اساسی دستور را مدل میکند. از نظر آنچه برای پاسخ به این سوال لازم است، 3 لازم و کافی است، و 5 غیر ضروری و (به تنهایی) ناکافی است، هرچند خوش آمدید. | چگونه تشخیص دهیم که کدام دستور غذا بهتر است؟ |
29691 | من یک نظرسنجی قبل و بعد انجام دادم که شامل پنج سوال بود که پاسخهای آن موافق یا مخالف بود. این نظرسنجی برای ارزیابی این بود که آیا درک افراد از پیتبول پس از تعامل با آن بهبود یافته است یا خیر. اولین یا قبل از بررسی قبل از تعامل فرد با سگ بود. پس از انجام آنها، بلافاصله به پاسخ دهندگان همان نظرسنجی داده شد (پست نظرسنجی). من اکنون نتایج دو نظرسنجی را دارم و مطمئن نیستم که چگونه باید آزمایش $\chi^2$ را انجام دهم تا ببینم آیا بهبود قابل توجهی در درک سگ وجود دارد؟ به طور خاص نمی دانم که آیا باید هر سؤال را به صورت جداگانه ارزیابی کنم یا اینکه اعداد برای همه سؤالات جمع آوری شده است. | چگونه می توانم یک آزمون $\chi^2$ را روی دو نظرسنجی مختلف انجام دهم؟ |
79444 | من به دنبال راهنمایی برای همکار هستم که با مدلهای رگرسیون سر و کار دارد و میداند که متغیر کمکی پیوسته بهره X_1$ با خطا اندازهگیری شده است. به طور دقیق تر، ما فقط می دانیم که $X_1$ واقعی در بازه $(X_L, X_R)$ قرار دارد. اولین ایده من این بود که اثر خطای اندازهگیری را با برازش سه مدل از شکل \begin{align*} \text{Model 1:} \quad Y & = \beta_0 + \beta_1X_M + \beta_2 X_2 + نشان دهم/توضیح دهم. .. \\\ \text{Model 2:} \quad Y & = \beta_0 + \beta_1X_L + \beta_2 X_2 +... \\\ \text{Model 3:} \quad Y & = \beta_0 + \beta_1X_R + \beta_2 X_2 +... \\\ \end{align*} که در آن $X_M$ نقطه میانی است فاصله چه روشهای رگرسیون دیگری در دسترس هستند که ارزش واقعی X_1 $ در (X_L, X_R)$ را در نظر بگیرند؟ به طور خاص، هنگام استفاده از مدلهای رگرسیون خطی، مدلهای رگرسیون لجستیک یا مدلهای ترکیبی خطی تعمیمیافته. اطلاعاتی در سایت ویکیپدیا درباره مدلهای خطاهای در متغیرها (http://en.wikipedia.org/wiki/Errors-in-variables_models) وجود دارد، اما مطمئن نیستم که آیا این روشها میتوانند در این مورد اعمال شوند یا خیر. مورد | رگرسیون با خطا در متغیرهای کمکی |
114975 | من میخواهم پیشبینیهایی درباره تقاضای سرانه انرژی نهایی (fe) برای گروهی از کشورها ارائه کنم. متغیرهای توضیحی تولید ناخالص داخلی سرانه (Gdp) و تراکم جمعیت (pop) هستند - همه متغیرها در لگاریتم طبیعی بیان می شوند. من از _R_ و بسته _plm_ برای تخمین استفاده می کنم. مدل من بر اساس معادله زیر است و من از تابع _pgmm_ _plm_ استفاده میکنم که تخمین آرلانو-باند را انجام میدهد: $\text{log(fe)}_{it} = \delta \, \text{log(fe) }_{i,t-1} + \beta_1 \,\text{log(gdp)}_{it} + \beta_2 \,\text{log(gdp)}_{it}^2 + \beta_3 \,\text{log(pop)}_{it} + \beta_5 \, \text{log(year)}$ اکنون میخواهم برای پیش بینی مقادیر آتی تقاضای نهایی انرژی با استفاده از سناریوهای تولید ناخالص داخلی سرانه و تراکم جمعیت و یک روند زمانی لگاریتمی (sic!). اگر روش را به درستی درک کنم، باید به این صورت عمل کند: $\text{fe}_{it} = exp(\delta \, \text{log(fe)}_{i,t-1} + \beta_1 \ ,\text{log(gdp)}_{it} + \beta_2 \,\text{log(gdp)}_{it}^2 + \beta_3 \,\text{log(pop)}_{it} + \beta_5 \, \text{log(year)}) + exp(s^2/2)$ (که $s^2$ میانگین مربعات خطای باقیمانده است.). من می دانم که به سادگی مقادیر سناریوی خود و تقاضای نهایی انرژی در سال قبل را وصل می کنم، اعدادی که به دست می آورم حتی به آنچه انتظار داشتم نزدیک نیستند، بلکه با چندین (ده ها) مرتبه بزرگی کاهش می یابند. برای راحتی، عبارت $exp(s^2/2)$ را کنار می گذارم، اما از آنجایی که این مثبت است، فقط مشکل من را بزرگتر می کند. من چه غلطی می کنم؟ | پیشبینی دادههای پانل از تخمین آرلانو-باند GMM |
30838 | من یک نمره ترکیبی را با تبدیل چهار مورد به z-score ایجاد کردم، سپس امتیازهای z را خلاصه کردم تا یک اندازه گیری ترکیبی ایجاد کنم. با این حال، هنگامی که من میانگین را برای مقایسه یافتن دو گروه مختلف در مجموعه دادههای زوجی با استفاده از این امتیاز ترکیبی محاسبه کردهام، میانگین امتیازها از صفر برابر است. به عنوان مثال، * برای یک مجموعه داده، M1 = 0.76 و M2 = -0.76 * برای مجموعه داده دیگر M1 = 1.34 و M2 = -1.34. آیا این یافته معمولی برای این نوع نمره ترکیبی است؟ به نظرم عجیب میاد | آیا برای میانگین های گروهی نمرات z مرکب معمولی است که میانگین هایی با مقادیر هم اندازه اما علائم مخالف داشته باشند؟ |
61438 | ما یک سکه منصفانه پرتاب می کنیم. اگر یک هد ظاهر شد، آنگاه $X\sim N(0,1)$. اگر یک دنباله ظاهر شود، آنگاه $X=1$ با احتمال $1$. CDF بدون قید و شرط X$ را پیدا کنید و آن را رسم کنید. | تابع توزیع تجمعی را پیدا کرده و رسم کنید |
72145 | من در حال حاضر توابع ذکر شده در بالا را به داده های خود منطبق می کنم و می توانم مشاهده کنم که هر دو lognormal و Weibull بهتر از یک قانون قدرت تناسب دارند. در ادبیات اغلب پیشنهاد می شود که تشخیص این توابع دشوار است، اما من می توانم در داده هایم. اگرچه من کاملاً تفاوت بین آنها را درک نمی کنم. توضیحی برای فرآیند اساسی که داده های من را تولید می کند و من می توانم از این نتایج استنتاج کنم چیست؟ | تفاوت پاورلاو، تابع لگ نرمال و نمایی کشیده (Weibull). |
77515 | در استانداردسازی دادهها برای طبقهبندی نظارت شده، میتوان موارد زیر را انجام داد: 1) میانگین و واریانس را برای هر ویژگی از آموزش استخراج کنید، از آن برای استانداردسازی دادههای آموزشی و آزمایشی استفاده کنید. 2) محاسبه میانگین و واریانس برای کل داده ها، آموزش و آزمایش، و استاندارد کردن هر دو با آمار یکسان. 3) داده های آموزش و آزمایش را به طور جداگانه استاندارد کنید. اینها نتایج طبقه بندی متفاوتی را در یک اعتبارسنجی متقاطع 10 برابری ایجاد می کنند. 1) و 2) تقریباً نتایج مشابهی دارند، با 2) عملکرد طبقه بندی کمی بالاتر است. 3) بهترین نتایج را با 5٪ بهبود ایجاد می کند. آیا انجام 3 مشکلی ندارد؟ کدام یک بهتر است و چرا؟ متشکرم | استاندارد کردن دادههای آزمایش به معنای صفر و واریانس واحد به تنهایی یا از دادههای آموزشی |
78794 | من از قوانین انجمن برای مشکل طبقه بندی استفاده می کنم. من سعی می کنم برچسب ها را برای قطعات کوتاه متن پیش بینی کنم. کاری که اکنون میخواهم انجام دهم این است که پارامترهای اطمینان و پشتیبانی را در قوانین مرتبط خود تنظیم کنم تا فقط از قوانینی استفاده کنم که بهترین عملکرد طبقهبندی را در یک مجموعه آزمایشی خارج از نمونه ایجاد میکند. من نتایج عجیبی می گیرم. به نظر می رسد بهترین اطمینان حدود 55٪ باشد (نه چندان عجیب) اما بهترین پشتیبانی 1 است. به نظر میرسد که این با برخی از ادبیاتی که خواندهام در تضاد است که توصیه میکنند از پشتیبانی حدود 10 درصد اندازه مجموعه تست استفاده کنید. اندازه مجموعه تست من چند میلیون است. من چندین بار کد خود را بررسی کردم و کاملاً مطمئن هستم که درست است. معیار عملکردی که من استفاده می کنم میانگین امتیاز F1 است. آیا کسی می تواند دلیلی بیاندیشد که چرا این اتفاق می افتد؟ | استفاده از قوانین مرتبط برای طبقه بندی (نتایج غیرمعمول در تنظیم پارامتر) |
34644 | با این سوال به من وظیفه داده شده است: 1. بررسی کنید که آیا نوع یا درمان (0 یا 1) روی نتیجه تأثیر دارد یا خیر (0 یا 1) 2. همان 1) اما با در نظر گرفتن متغیر دیگری که 0،1 یا 2 است ممکن است برای نتیجه مخدوش کننده باشد. چگونه می توانم بررسی کنم که آیا تأثیر دارد یا خیر؟ برای سوال اول فکر کنم بتونم از تست خی دو استفاده کنم، این درسته؟ و برای سوال دو، من مطمئن نیستم که چگونه مخدوش کننده را در آزمون قرار دهم. | از کدام آزمایش برای بررسی اینکه آیا یک مخدوش کننده احتمالی روی نتیجه 0/1 تأثیر می گذارد یا خیر استفاده کنیم؟ |
115087 | اول از همه، یک سوال بسیار مشابه قبلا پرسیده شده است. اما پاسخ به این سوال توضیح نداد که مقادیر بالا/پایین تتا به چه معناست. در اینجا شکاف من در تلاش برای فهمیدن اینکه مقادیر بالا/پایین تتا به چه معناست. پس لطفا این سوال را نبندید! بیایید فرض کنیم شما دو مدل ساخته اید: یک رگرسیون دو جمله ای منفی (NB) و یک رگرسیون دو جمله ای منفی با تورم صفر (ZINB). رگرسیون NB دارای تتا 0.5 و رگرسیون ZINB دارای تتای 2 است. همانطور که من متوجه شدم، تتا بالاتر در رگرسیون ZINB نشان می دهد که واریانس بیشتری در باقیمانده ها محاسبه شده است و بنابراین توزیع دوجمله ای منفی که مدل فرض می کند شکل باریک تری دارد. آیا این درست است؟ آیا کسی میتواند بدون استفاده از معادلات، تعریف دقیقتری از مقدار تتا ارائه دهد؟ من همچنین به سرعت تصویری از درک خود را ترسیم کردم. باقیمانده ها در NB بیشتر پخش می شوند، به این معنی که تتا کوچکتر است و شکل توزیع های دو جمله ای منفی چربی بیشتری دارد. باقیمانده ها در ZINB کمتر پخش می شوند، به این معنی که تتا بزرگتر است و شکل توزیع های دو جمله ای منفی باریک تر است.  | تفسیر $\theta$ در رگرسیون دو جمله ای منفی |
59418 | **ویرایش** مقاله ای پیدا کرده ام که دقیقاً رویه مورد نیاز من را شرح می دهد. تنها تفاوت این است که مقاله داده های میانگین ماهانه را به روزانه درون یابی می کند، در حالی که میانگین ماهانه را حفظ می کند. من برای پیاده سازی رویکرد در `R` مشکل دارم. هر گونه راهنمایی قدردانی می شود. **اصلی** برای هر هفته، داده های شمارش زیر را دارم (یک مقدار در هفته): * تعداد مشاوره های پزشک * تعداد موارد آنفولانزا هدف من این است که داده های _ روزانه_ را با درون یابی به دست بیاورم (من به خطی یا کوتاه فکر کردم. اسپلاین). نکته مهم این است که من می خواهم **میانگین هفتگی** را حفظ کنم، یعنی میانگین داده های درون یابی روزانه باید با مقدار ثبت شده این هفته برابر باشد. علاوه بر این، درون یابی باید صاف باشد. یکی از مشکلاتی که ممکن است پیش بیاید این است که یک هفته خاص کمتر از 7 روز دارد (مثلاً در آغاز یا پایان یک سال). برای راهنمایی در این مورد سپاسگزار خواهم بود. خیلی ممنون در اینجا یک مجموعه داده نمونه برای سال 1995 آمده است ( **به روز شده**): structure(list(daily.ts = structure(c(9131, 9132, 9133, 9134, 9135, 9136, 9137, 9138, 9139, 9141, , 9142, 9143, 9144, 9145, 9146, 9147, 9148, 9149, 9150, 9151, 9152, 9153, 9154, 9155, 9156, 9157, 9158, 91159, 9163 9164 9165 9166 9167 9168 9169 9170 9171 9172 9173 9174 9175 9176 9177 9117 9182 9183 9184 9185 9186 9187 9188 9189 9190 9191 9192 9193 9194 9195 9196 9201, 9202, 9203, 9204, 9205, 9206, 9207, 9208, 9209, 9210, 9211, 9212, 9213, 9214, 9215, 9212, 9212, 9219, 9220 9221 9222 9223 9224 9225 9226 9227 9228 9229 9230 9231 9232 9233 9234 9238 9239 9240 9241 9242 9243 9244 9245 9246 9247 9248 9249 9250 9251 9252 9253 9255 9258 9259 9260 9261 9262 9263 9264 9265 9266 9267 9268 9269 9270 9271 9272 9272 9277 9278 9279 9280 9281 9282 9283 9284 9285 9286 9287 9288 9289 9290 9291 9291 9296, 9297, 9298, 9299, 9300, 9301, 9302, 9303, 9304, 9305, 9306, 9307, 9308, 9309, 9310, 93131,9 9315, 9316, 9317, 9318, 9319, 9320, 9321, 9322, 9323, 9324, 9325, 9326, 9327, 9328, 9329, 93339, 9334, 9335, 9336, 9337, 9338, 9339, 9340, 9341, 9342, 9343, 9344, 9345, 9346, 9347, 9348, 93549, 9353, 9354, 9355, 9356, 9357, 9358, 9359, 9360, 9361, 9362, 9363, 9364, 9365, 9366, 9367, 9367,9369 9372 9373 9374 9375 9376 9377 9378 9379 9380 9381 9382 9383 9384 9385 9386 9389 9391, 9392, 9393, 9394, 9395, 9396, 9397, 9398, 9399, 9400, 9401, 9402, 9403, 9404, 9405, 9407, 9409, 9410 9411 9412 9413 9414 9415 9416 9417 9418 9419 9420 9421 9422 9423 9424 9424 9429, 9430, 9431, 9432, 9433, 9434, 9435, 9436, 9437, 9438, 9439, 9440, 9441, 9442, 9443, 9444,944 9448, 9449, 9450, 9451, 9452, 9453, 9454, 9455, 9456, 9457, 9458, 9459, 9460, 9461, 9462, 9464,9464 9467 9468 9469 9470 9471 9472 9473 9474 9475 9476 9477 9478 9479 9480 9481 9481 9486، 9487، 9488، 9489، 9490، 9491، 9492، 9493، 9494، 9495)، کلاس = تاریخ)، wdayno = c(0L، 1L، 2L، 3L، 4L، 1، 5L، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر | درون یابی داده های آنفولانزا که میانگین هفتگی را حفظ می کند |
114970 | به تازگی در دوره آنلاین Andrew Ng در ML شرکت کرده ام و اگرچه روش ها را درک کرده ام، به نظر می رسد شهودی در مورد اینکه کجا آنها را از نظر مشکلات طبقه بندی به کار ببرم را از دست داده ام. مزایا و معایب هر روش چیست و در چه شرایطی باید یکی از روش های دیگر را انتخاب کنم؟ از دوره آموزشی این تصور را به دست آوردم که NN الگوریتم پیچیده تری است و بنابراین قادر به شناسایی الگوهای پیچیده تر، بدون خطی است، اما ممکن است آموزش آن از نظر محاسباتی گران باشد. مزیت SVM نسبت به LR چیست؟ | رگرسیون لجستیک، SVM یا NN؟ |
111255 | من باید نشان دهم که BMI بزرگسالان نه به سن و نه جنسیت اختصاص دارد. آیا باید ANCOVA را انجام دهم یا به طور تصادفی گروه های سنی را انتخاب کنم و ANOVA دو طرفه انجام دهم؟ | ANOVA دو طرفه یا ANCOVA |
59413 | من یک بردار ویژگی به اندازه nx3 دارم که در آن n = no. از نقاط داده و نه. از ویژگی ها = 3. بنابراین میانگین یک بردار 3x1 است. داده ها در واقع مجموعه ای از پیکسل های یک بخش تصویر هستند (نه یک تصویر کامل). و 3 ویژگی فعلاً R,G,B هستند(، اگرچه ممکن است هر چیزی باشد). هدف من: تعریف معیاری که میزان یکنواخت یا همگن بودن داده های من (یا بخش تصویر) را ارزیابی کند. من میخواهم این امتیاز را برای همه بردارهای ویژگی (یا همه بخشهای این تصویر) محاسبه کنم. سپس، من یک آستانه را اعمال می کنم تا تصمیم بگیرم که آیا هر یک از بردارهای ویژگی من یکنواخت است یا غیر یکنواخت. P.S: من نمی خواهم هیچ نوع خوشه بندی را بین نقاط داده خود انجام دهم. نگرانی من: وقتی واریانس (دستور var` در matlab) را پیدا می کنم، یک بردار 3x1، هر عنصر برای هر ویژگی دریافت می کنم. در عوض میخواهم یک مقدار اسکالر پیدا کنم، مانند فاصله اقلیدسی متوسط همه نقاط داده از نقطه میانگین. چیزی شبیه این: `(1/n) * sum(sqrt( (x1^2 - m1^2) + (x2^2 - m2^2) + (x3^2 - m3^2))` `[x1 x2 x3]` این نمونه است. «[m1 m2 m3]» میانگین بردار است. (1) آیا این روش درستی برای اندازه گیری یکنواختی است؟ (2) نام آن چیست؟ آیا باید با خطای میانگین مربعات (MSE) تماس بگیرم؟ (3) آیا راه بهتری وجود دارد که بتوانم یکنواختی نقاط داده خود را ارزیابی کنم؟ ممنون :) | آیا می خواهید ارزیابی کنید که داده های من چقدر یکنواخت هستند؟ |
660 | من در حال جمعآوری دادههای متنی پیرامون انتشارات مطبوعاتی، پستهای وبلاگ، بررسیها، و غیره از محصولات و عملکرد شرکتهای خاص هستم. به طور خاص، من به دنبال این هستم که ببینم آیا همبستگی بین _انواع_ و/یا _منابع_ خاصی از چنین محتوای «متنی» با ارزشگذاری بازار نمادهای سهام شرکتها وجود دارد یا خیر. چنین همبستگی های ظاهری می تواند توسط ذهن انسان نسبتاً سریع پیدا شود - اما این مقیاس پذیر نیست. چگونه می توانم چنین تحلیلی از منابع متفاوت را خودکار کنم؟ | خودکارسازی همبستگی آماری بین «متن» و «داده» |
88536 | هنگام انجام اجزای اصلی به طور مستقیم واضح است که نویز بیشتر به سمت اجزای آخر جمع می شود. توضیح رسمی در مورد چگونگی و چرایی این اتفاق چیست؟ | اجزای اصلی و نویز |
29690 | من میخواهم پیشبینیهایی را برای یک مدل مختلط (لجستیک از طریق glmer) بر روی یک مجموعه داده جدید با استفاده از اثرات ثابت بسازم و جلوههای تصادفی را روی 0 نگه دارم. اما در تنظیم ماتریس مدل مشکل دارم تا بتوانم آنها را محاسبه کنم. از آنجایی که کلاس mer یک روش پیش بینی ندارد، و از آنجایی که می خواهم اثرات تصادفی را برای پیش بینی های مجموعه داده های جدید حذف کنم، فکر می کنم باید یک ماتریس مدل برای اثرات ثابت همان ساختار مورد استفاده در نسخه اصلی بسازم. مدل، اما با استفاده از داده های جدید. سپس در ضرایب اثر ثابت در مدل ضرب کنید. بخش اثر ثابت فرمول مدل من شامل عوامل و شرایط تعامل بین اثرات ثابت عددی است، بنابراین کمی پیچیدهتر از استخراج متغیرهای ثابت از ماتریس است. به عنوان مثال من باید اطمینان حاصل کنم که بسط کنتراست فاکتور مانند نسخه اصلی است، اصطلاحات تعامل به درستی فهرست شده اند، و غیره. بنابراین سوال من این است: رویکرد کلی ساده تر برای ساخت یک ماتریس مدل جدید که ساختار ماتریس مدل اصلی را تقلید می کند چیست؟ در ایجاد مدل استفاده شده است؟ من model.matrix (my.model، data=newdata) را امتحان کردم، اما به نظر می رسد که ماتریس مدل اصلی را برمی گرداند، نه ماتریس مبتنی بر داده های جدید. کد نمونه: library(lme4) cake2 <- head(cake) # cake2 قاب داده جدید برای پیش بینی های آینده است # دستور یک ضریب اثر ثابت است، دما اثر عددی ثابت است، تکرار اثر تصادفی است m <- lmer(زاویه ~ temp + دستور + (1 | تکرار)، داده = کیک) خلاصه (m) nrow(cake2) # اما قاب داده جدید دارای 6 ردیف است nrow(cake) # قاب داده اصلی دارای 270 ردیف است # تلاش برای ایجاد ماتریس مدل جدید با استفاده از قاب داده های مختلف mod.mat.cake2 <- model.matrix(m, data=cake2) nrow(mod.mat.cake2) # 270 ردیف من روشهای دیگری مانند استخراج عبارات از فرمول و ساختن فرمول جدید از آن را امتحان کردم، اما به نظر میرسید بیش از حد پیچیده و شکننده بود. عوامل رسیدگی و شرایط تعامل چگونه می توانم mod.mat.cake2 را به عنوان یک ماتریس مدل جلوه ثابت بر اساس فرمول m، اما با استفاده از مقادیر cake2 دریافت کنم؟ یا آیا راه آسان تری برای دریافت پیش بینی های اثر ثابت از یک مدل lmer وجود دارد؟ از همه کمک ها قدردانی می شود. متشکرم. | دریافت پیشبینیهای تنها با اثر ثابت از مدل ترکیبی بر روی دادههای جدید در R |
34646 | من در حال تلاش برای تعیین یک پارامتر صاف کننده برای فیلتر هودریک-پرسکات هستم. من دیده ام که مقالاتی در مورد این موضوع وجود دارد، اما آنها برای درک من بسیار پیشرفته هستند. اگر مجموعه داده ای دارم، $X$، چه مراحلی باید انجام دهم؟ اطلاعات من ساعتی است. با استفاده از MATLAB من مقادیر پارامتر هموارسازی داده های ماهانه و غیره را می دانم، اما چگونه می توانم آن را برای داده های ساعتی محاسبه کنم؟ | تعیین پارامتر هموارسازی در فیلتر HP برای داده های ساعتی |
115089 | من سؤالاتی دارم که می خواهم در مورد آنها بحث کنم، من در حال انجام برخی تحلیل ها برای حساسیت هستم. من اهل رشته آمار نیستم. من با داده های RNA-Seq کار می کنم. موضوع این است که من ژن هایی پیدا کرده ام که با 4 روش مختلف در تکرارهای مختلف بیان متفاوتی دارند. که یکی از روش ها الگوریتم توسعه یافته خودمان است. اکنون میخواهم آزمایش مثبت را با دادههایم انجام دهم. بنابراین من تمام ژن های داده شده با هر روش را می گیرم و اتحاد را از آن خارج می کنم. بنابراین این جهان همه ژنها را از همه روشها به من میدهد. اکنون میخواهم در مدلهای مختلف جفت تکراری ببینم که برای هر یک از روشها چند نکته مثبت وجود دارد. من می خواهم یک منحنی ایجاد کنم که در آن بتوانم در هر تکرار نشان دهم که برای هر روش چه تعداد مثبت وجود دارد و به طور متناوب تعداد مثبت کاذب در تکرارهای مختلف از هر روش وجود دارد. کسی میتونه بگه توضیحم درسته یا نه برای موارد مثبت میتوانم به سادگی درصد اشتراکگذاری شده در هر تکرار را برای روشهای مختلف در نظر بگیرم که از مجموعه اتحادیه همه متدها محاسبه میشود و سپس منحنی را رسم میکنم و سپس برای مثبتهای کاذب چه باید بکنم؟ آیا باید درصد باقی مانده حقی باشد که در اتحادیه مشترک نیست؟ من می خواهم در اینجا کمی درک داشته باشم. | تست حساسیت برای الگوریتم های مختلف |
73813 | من سعی کرده ام از بسته vars در r برای داده های سری زمانی چند متغیره خود استفاده کنم. من مشکلاتی دارم آیا باید قبل از استفاده از بسته vars کاری برای داده های چند متغیره خود انجام دهم؟ کسی میتونه با مثال کمکم کنه متشکرم. سام | داده های چند متغیره را به مدل VAR در بسته vars تبدیل کنید |
23169 | من می خواهم یک تعامل را تفسیر کنم. معمولاً یک تحلیل رگرسیون شرطی با 1 SD زیر/بالاتر از میانگین انجام میشود (به آیکن و وست، 1993، ص 18 مراجعه کنید). نتیجه من یک کنتراست با $p=.068$ است اگر 1.5 SD بگیرم $p=.044$. با 2 SD $p=.033$. به نظر می رسد که کنتراست ها با افزایش مقادیر تعداد SD ها قوی تر می شوند. بنابراین، آیا گزارش کنتراست برای 2 SD در یک مقاله مناسب است؟ چرا باید 1 SD باشد؟ | رگرسیون شرطی برای 2 SD زیر / بالاتر از میانگین |
109655 | در حال حاضر روی مجموعههای کلان داده کار میکنم، میخواهم یک مدل SARIMAX را برای پیشبینی مقادیر آینده در آن قرار دهم. سوالات من اینجاست: **Q1.** به عنوان اطلاعات، آیا کسی می داند که R چگونه برازش یک مدل ARIMA/SARIMA را محاسبه می کند؟ themodel = arima(auch[0:700,1], order = c(0,1,1), seasonal = list (order = c(0,1,1), period = 144), xreg=tmp[0: 700]) به عنوان مثال، این فرمول با میانگین زمان محاسبه به خوبی کار می کند - حدود 30 ثانیه در هر دقیقه - در حالی که : **Q2.** اگر بخواهم مجموعه دیگری از پارامترها را برازش کنم داده های مشابه: themodel = arima(auch[0:700,1]، سفارش = c(2،1،5)، فصلی = لیست (ترتیب = c(1،2،8)، دوره = 144)، xreg=tmp [0:700]) خطای زیر را دریافت می کنم که واقعاً متوجه نمی شوم: خطا در makeARIMA(trarma[[1L]]، trarma[[2L]]، دلتا، kappa، SSinit): حداکثر تأخیر پشتیبانی شده 350 است، فرضاً «144» است. مگر اینکه D = 2 باعث شود که تمایز دوم از حداکثر تاخیر پشتیبانی شده فراتر رود؟ اگر چنین است، آیا به هر حال می توان این محدودیت را برطرف کرد؟ **ویرایش:** از معادله عمومی SARIMA که $\phi(B)\Phi(B^s)W_t = \theta(B)\Theta(B^s)Z_t$ است، می توانیم حدس بزنیم که حداکثر تاخیر برای مدل داده شده SARIMA(p,d,q)(P,D,Q)144 حداکثر است((p+Px144), (q+Q*144)) (اگر اشتباه می کنم چون متخصص نیستم تصحیح کنید). مشکل من این است که باید دستورات «(p،d،q،P،D،Q)» بزرگتر از 1 را امتحان کنم تا مدل بهتری را پیدا کنم تا با مجموعه دادههای من مطابقت داشته باشد. آیا ایده ای دارید که چگونه می توانم بر این محدودیت 350 غلبه کنم؟ **Q3.** در حالی که همان خط فرمان فوق را انجام می دهید، به عنوان مثال: themodel = arima(auch[0:700,1], order = c(2,1,5), seasonal = list (order = c(1 ,2,2), period = 144), xreg=tmp[0:700]) همچنین گاهی اوقات خطای زیر را دریافت می کنم: خطا در makeARIMA(trarma[[1L]], trarma[[2L]]، دلتا، کاپا، SSinit): نمیتوان بلوک حافظه را با اندازه 7.0 گیگابیت تخصیص داد، اما «memory.size()» و «memory.limit()» را امتحان کردم که به من : memory.size() [ 1] 109.27 memory.limit() [1] 1535 فکر می کنم متوجه شدم که فضای حافظه ممکن است به هم پیوسته نباشد که باعث حافظه می شود مشکل تخصیص، اما برای من عجیب به نظر می رسد زیرا قبلاً با 'arima' و مجموعه داده های بزرگتر بدون مشکل کار می کردم. | خطاها هنگام نصب مدل SARIMAX در R |
73811 | متن یادگیری آماری من ادعا میکند که برای بهترین انتخاب زیر مجموعه، مدلهای کل 2^p باید از طریق رگرسیون برازش شوند اگر برای متغیرهای p، k مدلها را در هر k، k = 1،...، p برازیم. من این را از نظر ریاضی به صورت 2^p = p انتخاب کنید 1 + ... + p را انتخاب کنید، تفسیر می کنم. چرا مدل های 2^p؟ | بهترین انتخاب زیر مجموعه |
72494 | من یک TA برای یک دوره آمار برای مهندسین هستم و امروز یک سوال واقعا خوب از یک دانشجو داشتم که پاسخ آن را نمی دانم. ما با مشکل کلمه زیر مواجه بودیم: 4 کامپیوتر به طور مداوم برای بورس اوراق بهادار تورنتو کار می کنند. احتمال خرابی کامپیوتر در یک روز 5٪ تخمین زده می شود. با فرض اینکه کامپیوترهای مختلف به طور مستقل از کار بیفتند، احتمال خرابی هر 4 کامپیوتر چقدر است. در یک روز؟ از آنجایی که نمونهبرداری در یک بازه زمانی انجام میشود، روشی که من میتوانم به این موضوع بپردازم استفاده از توزیع پواسون است، با میانگین تعداد رایانههایی که در یک روز $\equiv\lambda = 0.05$ از کار میافتند. اگر چهار کامپیوتر از کار بیفتند، $k = 4$. بنابراین، \begin{align*} P(k; \lambda) &= \frac{\lambda^{k} e^{-\lambda}}{k!} \\\ P(k=4; \lambda = 0.05) &= \frac{0.05^{4} e^{-0.05}}{4!} \\\ & = 2.477\ برابر 10^{-7} \end{align*} با این حال، دانشآموزی پرسید که چرا درست نیست که احتمال خرابی هر کامپیوتر را چند برابر کنیم. از آنجایی که احتمال خرابی هر کامپیوتر در هر روز $\equiv p = 0.05 $، و از آنجایی که هر خرابی کامپیوتر مستقل است، او استدلال کرد که \begin{align*} P(k=4) &= p^4 \\\ & = 0.05^4 = 6.25\times 10^{-6} \end{align*} کدام یک از این رویکردها با توجه به سؤال اشتباه است؟ و چرا؟ کدام فرض اساسی از رویکرد اشتباه توسط این سؤال نقض می شود؟ از کمک شما متشکرم. به روز رسانی: اولین باری که این پست ارسال شد، برخی از اطلاعات را در مشکل حذف کردم و عذرخواهی می کنم. | توزیع پواسون در برابر احتمالات ضرب |
109652 | من سعی می کنم یک EFA با حجم نمونه 150 پاسخ دهنده انجام دهم. من همچنین می خواهم از اعتبار سنجی متقاطع استفاده کنم اما استادم می گوید که نمونه برای این کار به اندازه کافی بزرگ نیست. آیا این درست است؟ | ردیابی متقاطع در تحلیل عاملی |
34649 | مزایای گرفتن دکترا در مقابل کارشناسی ارشد در آمار زیستی (در کنار استاد بودن) چیست؟ آیا کار اول برای هر دو سطح یکسان خواهد بود؟ آیا واقعاً دکترا در آمار زیستی تفاوتی در صنعت ایجاد می کند؟ | دکتری در مقابل MS در آمار زیستی |
23167 | من یک پیشبینیکننده ایجاد کردهام که یک نقطه داده، $x$ در مورد احتمال تعلق آن به یک کلاس خاص، $C$، امتیاز میدهد. هر چه امتیاز بالاتر باشد احتمال تعلق نقطه داده به کلاس بیشتر است. پیش بینی کننده تعدادی دیگر از نقاط داده (به عنوان داده های آموزشی) را به عنوان ورودی می گیرد. به طور معمول ممکن است بگویم 10000 عضو غیر کلاسی و 50 عضو کلاس. من با گرفتن 50 عضو کلاس خود و پنهان کردن عضویت کلاس هر یک از اعضا به نوبه خود عملکرد را ارزیابی می کنم. سپس برای عضو کلاس مخفی خود امتیازی به دست میآورم و با نمرات 99950 عضو غیر کلاسی دیگر مقایسه میکنم تا رتبهای ایجاد کنم. بنابراین با تکرار این کار 50 رتبه مختلف به دست میآورم، یکی برای هر 50 عضو کلاس از زمانی که از پیشبینیکننده پنهان شده بودند. سپس این را برای یک نوع کلاس دیگر تکرار میکنم، که ممکن است به عنوان مثال داشته باشد. 30 عضو، و لیستی از رتبه های این 30 ژن را دریافت کنید. من این را برای تعدادی از کلاس های مختلف، با اندازه های مختلف تکرار می کنم. بنابراین من در نهایت با یک بردار رتبه برای هر کلاس میروم. آیا راه آسانی برای رسم این اطلاعات به عنوان منحنی فراخوانی دقیق وجود دارد؟ تا کنون این کار را با صاف کردن بردار رتبه انجام دادهام تا فهرستی از همه رتبهها در همه کلاسها به دست آید، و سپس برای i در 1:10000 محاسبه دقیق به صورت $\frac{(\text{تعداد رتبهها} <i) }{(i*10000)}$ و بهعنوان $\frac{(\text{تعداد رتبهها} <i)}{ \text{total فراخوانی کنید تعداد رتبه ها}}$. با این حال، این یک منحنی فراخوان دقیق کمی عجیب و غریب را ایجاد می کند، که تقریباً شبیه دو منحنی زنگ نامتقارن است، که اینطور نیست که منحنی های پیش از فراخوانی به نظر برسند! ممکن است بتوانید ببینید، مگر اینکه پیوند مسدود شود: http://picturepush.com/public/7618805 امیدوارم تا حدودی منطقی باشد. من از هر راهنمایی که کسی می تواند در این مورد به من بدهد قدردانی می کنم. اگر لازم است چیزی را روشن کنم، به من اطلاع دهید، می ترسم کمی در این مورد هول کرده باشم. | یادآوری دقیق نمودار با استفاده از بردار رتبه ها |
23163 | تا آنجا که من می دانم شما می توانید یک تست F ($F = s_1^2/s_2^2$) یا یک تست مجذور کای ($\chi^2 = (n-1)(s_1^2/s_2^) انجام دهید 2$) برای آزمایش اگر انحراف استاندارد دو نمونه مستقل متفاوت است اما آیا این برای نمونه های وابسته نیز صادق است؟ | مقایسه انحراف معیار دو نمونه وابسته |
78791 | به نظر می رسد برای مدیریت با اندازه گیری های سفارشی، محققان **معمولا** با همبستگی Polychoric سروکار دارند. (مثلاً برای ساختن ماتریس قبل از انجام تحلیل عاملی.) چرا؟ ضریب همبستگی رتبه کندال تاو و ضریب همبستگی رتبه اسپیرمن نیز برای داده های مرتب شده مناسب هستند. از هر نقطه مزاحم و مخالف برای این ضرایب همبستگی استقبال می شود. | ضرایب همبستگی برای داده های مرتب شده: Tau کندال در مقابل Polychoric در مقابل اسپیرمن rho |
61435 | قضیه همرسلی-کلیفورد به ما می گوید که توزیع یک RBM باید گیبس باشد زیرا میدان تصادفی مارکوف است، اما چگونه ثابت کنیم که تابع انرژی آن باید به شکل زیر باشد: $$E = -\sum_{i,j} w_ {ij} \, v_i \, h_j -\sum_i \alpha_i \, v_i - \sum_i \beta_i \, h_i$$ | عملکرد انرژی RBM |
72495 | من به مجموعه دادهای نگاه میکنم که دارای اندازهگیریهای قبل از پس آزمون در مورد سطوح استرس، افسردگی و اضطراب کاربران است که از ارزیابی سلامت آنلاین یک وبسایت جمعآوری شده است. به طور متوسط، شرکتکنندگان سالمتر در ابتدا با گذشت زمان بدتر شدند، و شرکتکنندگان بیمارتر در ابتدا بسیار بهتر شدند، و گروه متوسط کمی بهتر شدند. قطعاً یک اثر رگرسیون در اینجا وجود دارد، بلکه یک اثر درمانی نیز وجود دارد. از آنجایی که این دادهها بر اساس استفاده از وبسایت جمعآوری شدهاند، واقعاً یک گروه کنترل وجود ندارد (همه اندازهگیریهای «پست» از افرادی است که از برنامه آنلاین استفاده کردهاند). احتمالاً راههایی وجود دارد که بتوانم با استفاده از افرادی که میتوانم حدس بزنم از درمان استفاده چندانی نکردهاند، گروه کنترل را ترکیب کنم (بر اساس تعداد ورود یا فاصله زمانی بین ورود)، اما آیا راهی برای جدا کردن آنها وجود دارد. اثر درمان از اثر رگرسیون زمانی که شما نمی توانید از تکنیک های تفاوت در تفاوت با استفاده از گروه کنترل یا هر چیز دیگری استفاده کنید؟ با تشکر | چگونه می توان اثر رگرسیون را از اثر درمان بدون گروه کنترل جدا کرد؟ |
61436 | آیا هدف مدلهای متغیر پنهان مدلسازی علیت است، جایی که علل قابل مشاهده نیستند، یعنی پنهان؟ آیا مدل سازی متغیرهای پنهان علل متغیرهای قابل مشاهده است؟ با تشکر و احترام! | آیا مدل های متغیر پنهان، علیت را مدل می کنند؟ |
77511 | من در حال مطالعه یادگیری ماشینی (SVM) هستم و این $||w||$ را در مقابلم پیدا کردم. من دیگر آن را ندیده ام و گوگل به من اجازه جستجوی آن را نمی دهد. آیا کسی می داند $w$ چیست، $||w||$ چیست، چگونه نامیده می شود، و چرا ما به آن نیاز داریم؟ با تشکر فراوان | آیا کسی می تواند با درک ||w|| به من کمک کند |
63886 | برای آزمون t مستقل، اگر فرضیه من بیان کند که بین دو گروه تفاوت معناداری وجود نخواهد داشت، آیا این یک آزمون یک یا دو دنباله است؟ | آزمون های تی مستقل یک یا دو دم؟ |
24673 | من در صفحه ویکیپدیا برای این توزیع کار زیادی انجام میدهم: http://en.wikipedia.org/wiki/Dirichlet_compound_multinomial_distribution نام واقعی صفحه «توزیع چند متغیره Pólya» است. با این حال، در متنی که مینویسم، من در واقع از «توزیع چندجملهای ترکیبی دیریکله» که به اختصار DCM است استفاده میکنم. من فقط توزیع چند جمله ای دیریکله را دیده ام. کدام یک بیشترین استفاده را دارد؟ تست جستجوی گوگل نشان میدهد: * 20000+ برای چند متغیری polya * 46000+ برای چند جملهای مرکب دیریکله * 24000+ برای چند جملهای دیریکله * 30000+ برای توزیع چند جملهای دیریکله اما این واقعاً چیزی به ما نمیگوید. مخصوصا با توجه به مقادیر غیر شهودی دو جستجوی آخر. حس من این است که Multivariate Polya (با یا بدون لهجه) کمترین استفاده را دارد، اما این فقط یک شهود است. همچنین، اگر آن را «توزیع دیریکله-چندجملهای» بنامیم، چگونه آن را مخفف کنیم، به عنوان مثال. در یک توصیف ریاضی؟ DM()، DirMult()؟ یا همینطور که هست رها شده است؟ همچنین توجه داشته باشید که مقاله «تخمین توزیع دیریکله» نوشته توماس پی. مینکا آن را صرفاً «توزیع پولیا» نامیده است. (یا بهتر است بگوییم که او آن را «توزیع چند جملهای دیریکله» و «توزیع پولیا» مترادف آن معرفی میکند، اما سپس در ادامه بحث از اصطلاح اخیر استفاده میکند.) با این حال، به نظر میرسد که اصطلاح «توزیع پولیا» دارای بسیاری از تعاریف ممکن دیگر که به توزیعهای کاملاً متمایز مختلف اشاره دارند، بنابراین این نام به عنوان نام متعارف خوب نیست. | بیشترین نام استفاده شده برای Dirichlet Compound Multinomial Dist (معروف به Dirichlet-Multinomial، Multivariate Polya)؟ |
105202 | نتایج مجانبی را نمی توان با شبیه سازی کامپیوتری اثبات کرد، زیرا آنها گزاره هایی هستند که مفهوم بی نهایت را در بر می گیرند. اما ما باید بتوانیم این حس را به دست آوریم که همه چیز در واقع همان طور که نظریه به ما می گوید پیش می رود. نتیجه نظری را در نظر بگیرید $$\lim_{n\rightarrow\infty}P(|X_n|>\epsilon) = 0، \qquad \epsilon >0$$ که در آن $X_n$ تابعی از $n$ متغیرهای تصادفی است، مثلاً به طور یکسان و مستقل توزیع شده است. این می گوید که $X_n$ در احتمال به صفر همگرا می شود. حدس میزنم مثال کهنالگویی در اینجا حالتی است که $X_n$ میانگین نمونه منهای مقدار مورد انتظار مشترک i.i.d است. r.v.های نمونه، $$X_n = \frac 1n\sum_{i=1}^nY_i - E[Y_1]$$ **سوال:** **چگونه میتوانیم به طور قانعکنندهای به کسی نشان دهیم که رابطه بالا در دنیای واقعی، با استفاده از نتایج شبیهسازی رایانهای از نمونههای الزاما محدود؟** لطفاً توجه داشته باشید که من به طور خاص همگرایی را به یک _ثابت_. من در زیر رویکرد خود را به عنوان پاسخ ارائه میدهم و امیدوارم موارد بهتری داشته باشیم. **به روز رسانی:** چیزی در پشت سرم مرا آزار داد -و فهمیدم چه چیزی. من یک سوال قدیمی تر را کشف کردم که در آن بحث جالب در نظرات یکی از پاسخ ها مطرح شد. در آنجا، @Cardinal مثالی از برآوردگر ارائه کرد که ثابت است اما واریانس آن به طور مجانبی غیر صفر و متناهی باقی میماند. بنابراین ** یک نوع سختتر از سؤال من این است: چگونه با شبیهسازی نشان دهیم که یک آماره از نظر احتمال به یک ثابت همگرا میشود، در حالی که این آمار واریانس غیر صفر و متناهی را مجانبی حفظ میکند؟** | شبیه سازی همگرایی در احتمال به یک ثابت |
67879 | من منابع متناقضی را در مورد سازگاری فیشر واریانس نمونه می خوانم. $$s^2 = \frac{\sum_i^n (x_i - \bar{x})^2}{n}$$ آیا کسی میتواند به من توضیح دهد که چگونه ثابت کنم که $s^2$ با فیشر سازگار است یا خیر؟ صفحه بحث در ویکی پدیا نیز بی نتیجه بود. | واریانس نمونه سازگاری فیشر |
91913 | روش بیزی تجربی برای من مفهوم جدیدی است. این علاقه من را افزایش می دهد، زیرا دیدگاه فلسفی و روش شناختی متفاوتی از تحلیل آماری ارائه می دهد. با توجه به دانش محدودم، مطمئن نیستم که آیا این روش مفید/قدرت است یا نسبت به روش های جایگزین پایین تر است، و آیا ارزش یادگیری (و تا چه میزان) در مقایسه با یادگیری سایر موضوعات مفید در تحلیل بیزی را دارد؟ در مورد آن چگونه فکر می کنید؟ مزایا و معایب روش های بیزی تجربی چیست؟ | مزایا و معایب روش های بیزی تجربی چیست؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.