_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
92846
امیدوارم کسی ایده ای در رابطه با مشکل زیر داشته باشد: من با استفاده از بسته موش یک انتساب چندگانه انجام دادم - اکنون فقط یک مرحله باقی مانده است: من می خواهم برای NA های خود انتساب نهایی و معتبر ایجاد کنم. چگونه می توانم این کار را انجام دهم؟ با انتساب چندگانه من به طور پیش فرض 5 مجموعه داده با مقادیر مختلف دریافت می کنم. اینها را برای محاسبه یک مدل پیش بینی با عباراتی در مورد خطاهای استاندارد نیاز دارم. اما: چگونه می توانم یک مقدار نهایی برای NA های خود دریافت کنم؟ کد من در اینجا: imp <- mice(داده، m = 5) # محاسبه 5 مجموعه داده منتسب mifit <- با (imp, lm(y ~ x1 + x2 + x3 + c1 + c2)) # محاسبه از 5 داده مجموعه‌ای از مدل‌های خطی imp 5 با y به‌عنوان متغیر وابسته pmifit <- pool(mifit) # مدل‌ها را برای دریافت ضرایب نهایی جمع کنید اگر pmifit از کلاس (pmifit) == lm خواهد بود من از تابع پیش بینی برای جایگزینی موارد گم شده خود استفاده می کنم، اما pmifit یک شی است که هیچ متدی در پیش بینی ندارد. کسی توصیه ای دارد؟
انتساب و پیش بینی چندگانه
92841
من یک دسته داده در قالب زیر دارم: Count|| میوه |سرهنگ میوه|| گیاهی |سرهنگ گیاهی|| ادویه ----------------------------------------------- -------- 123 || اپل | قرمز || هویج | نارنجی || زیره 20 || اپل | قرمز || هویج | سبز || فلفل ... 20 هزار ترکیب بیشتر... 1 || نارنجی | نارنجی || سیب زمینی | سفید || فلفل دلمه ای این را به شرح زیر می خوانید: **_سیب قرمز** در ترکیب با **هویج نارنجی** و **زیره*******123 بار در طول آزمایش مواجه شد._ باید بتوانم پاسخ دهم. حداقل سوالات زیر در مورد مجموعه داده ها: * محبوب ترین ادویه ها برای محبوب ترین سبزیجات در میان محبوب ترین میوه ها، (الف) با و (ب) بدون توجه به رنگ هر کدام کدامند؟ * کدام رنگ سیب زمینی در کنار محبوب ترین سبزی بیشتر دیده می شود؟ * محبوب ترین میوه قرمزی که با سبزی سبز مواجه می شود چیست؟ و غیره. محبوب ترین در اینجا پاسخی مانند: 1. 5% اپل 2. 4% نارنجی 3. 1% دیگران را فرض می کند. در حالت ایده‌آل، ابزار نباید _نه_ از من بخواهد که برای پرسیدن سوال خاص، کدهای پیچیده بنویسم (مقدار کدنویسی از قبل قابل قبول است). ابزاری که بدون کدنویسی آنچه را که من نیاز دارم را انجام دهد بی نقص خواهد بود.
ابزاری برای تجزیه و تحلیل داده های جدولی چند بعدی
112532
من از k-means برای انجام برخی خوشه‌بندی استفاده کرده‌ام و یکی از ایده‌هایی که با آن درگیر هستم، جنبه n بعد است. اگر بخواهم قیمت مسکن را در مقابل فوت مربع دسته بندی کنم، فقط یک نمودار 2 بعدی ساده است. که بتوانم تجسم کنم و منطقی است. جایی که سخت می شود زمانی است که بیش از 3 ویژگی باشد. اگر من به درستی بفهمم، هر ویژگی در بعد خودش ترسیم می شود. چیزی با ابعاد 3+n از نظر مفهومی چگونه به نظر می رسد؟ راه خوبی برای فکر کردن در مورد نحوه نمایش داده ها چیست؟ می دانم که این سوال کمی مبهم است (که نتیجه عدم درک من در این زمینه است) اما هر کمکی قابل تقدیر است.
چه روش خوبی برای تجسم ذهنی n بعد در یک k است
90378
من می‌دانم که NHST فرض می‌کند که فرضیه صفر درست است، و ما نمی‌توانیم از یک مقدار کم استنتاج کنیم که فرضیه صفر لزوماً نادرست است. با این حال، آیا منصفانه است که بگوییم که p-value در مورد احتمال شرطی $Pr(H_0 = T|T_{obs}) _هیچ چیز را به ما می گوید؟ فرضیه ها درست هستند، چرا کسی از آنها استفاده می کند؟
آیا منصفانه است که بگوییم مقادیر p چیزی در مورد احتمال درست بودن فرضیه های صفر به ما نمی گویند؟
48724
با توجه به یک ماتریس سند-مدت $X$، که در آن $$X(d, t) = \textit{رویدادهای 't' در 'd'}$$، ممکن است آن را محاسبه کنیم که تجزیه ارزش منفرد کوتاه شده است:$$X_k = U_k \Sigma_k V_k^T$$ سپس، برای نمایه سند $d$ (یعنی بردار رخدادها در آن سند)، ممکن است یک نمایه سند «پیش‌بینی‌شده» $\hat{d}$ را محاسبه کنید که، طبق مدل، سازگارتر است، به شرح زیر: $$\hat{d} = d V_k V_k^T$$ این LSA/LSI/ است. روش SVD حال، فرض کنید که به جای محاسبه فقط $V_k$، ماتریس های $C$ $V_{k,c}, c = 0, 1, \dots ,C $ را با ابعاد یکسان $V_k$ اما ورودی های متفاوت محاسبه می کنم. سپس، برای نمایه سند معین، نمایه‌های «پیش‌بینی‌شده» $C$ را محاسبه می‌کنم، به این صورت: $$\hat{d}_c = d V_{k,c} V_{k,c}^T$$ یک برای هر $ c = 0, 1, \dots ,C $. در میان اینها، من به عنوان نمایه پیش‌بینی‌شده نهایی، پروفایلی را انتخاب می‌کنم که هنجار L-2 را به حداقل می‌رساند، w.r.t. نمایه ورودی: $$\hat{d} = \arg \min_c \| d-\hat{d}_c\|_2 $$. من کاملاً توسط این الگوریتم متقاعد نشده ام. انتخاب خروجی با هنجار L-2 w.r.t. به نظر من ورودی منبع بیش از حد برازش است. میتونم نظر،پیشنهاد،انتقادتون رو داشته باشم لطفا؟ خیلی ممنون.
آیا این بیش از حد مناسب است؟
62714
من علاقه مند به ساخت یک تابع تشخیص خطی برای تمایز بین 2 گروه، از 60 متغیر هستم. (من در حال برنامه ریزی برای انتخاب متمایزترین متغیرها برای آزمایش تشخیصی آینده هستم.) من مساحت زیر منحنی ROC را برای هر یک از این متغیرها به صورت جداگانه محاسبه کرده ام و هیچ کدام AUC بیشتر از 0.73 ندارند. من یک نمونه نسبتا کوچک از 50 فرد سالم و 50 فرد بیمار دارم (این دو گروه هستند). من سعی کرده ام با استفاده از تحلیل مؤلفه های اصلی تعداد متغیرها را کاهش دهم. 3 مؤلفه وجود دارد که 83 درصد از تغییرات را تشکیل می دهند. اما متأسفانه، همه 60 متغیر دارای وزن‌های مشابه (بارگذاری) در 3 مؤلفه هستند، بنابراین من نمی‌توانم تعداد کمی را انتخاب کنم. من معمولاً متغیرهای دارای بیشترین وزن را انتخاب می کنم و سپس آنها را در یک تابع متمایز خطی قرار می دهم، اما 60 بسیار زیاد است، به خصوص با توجه به نمونه کوچک. من تعجب کردم که آیا ** به جای ** استفاده از 60 متغیر، می توان از 3 **جزء اصلی** برای ساخت یک تابع تشخیص خطی استفاده کرد؟ من از Stata برای تجزیه و تحلیل استفاده می کنم. کسی پیشنهادی داره؟
استفاده از مولفه های اصلی در تجزیه و تحلیل تفکیک خطی برای یک تست تشخیصی
80314
من در صفحه ویکی پدیا در مورد تحلیل عاملی به این موضوع برخوردم. آیا این درست است که _چرخش مستقیم oblimin منجر به مقادیر ویژه بیشتر می شود؟ اگر درست است، دلیل آن چیست و آیا به سایر چرخش‌های **میب** تعمیم می‌یابد؟ (برای جلوگیری از هر گونه سردرگمی، ما فقط PCA را به عنوان روش استخراج فاکتور در نظر می گیریم)
چرا چرخش مستقیم oblimin منجر به مقادیر ویژه بیشتر می شود؟
90771
من QP دوگانه یک SVM را حل می کنم و از هسته RBF استفاده می کنم. همانطور که می دانید، تابع هدف به شکل $$f(\alpha) = \alpha^T Q \alpha $$ است که $\alpha$ متغیر بهینه سازی است و $Q$ یک ماتریس نیمه معین مثبت است. وقتی $Q$ متراکم است، می‌خواهم ببینم که cvx (یا هر بسته بهینه‌سازی دیگری اگر می‌توانید به من اشاره کنید) از چه چیزی به عنوان $Q^{-1}$ هنگام حل QP استفاده می‌کند. هر ایده ای؟
برگرداندن معکوس یک ماتریس در یک برنامه درجه دوم (SVM) در بسته بهینه سازی cvx
80319
من سابقه کمی در مورد SEM دارم. اکنون می‌خواهم روی جنبه‌های نظری آن مانند مدل آماری، تخمین مدل و ارزیابی مدل تمرکز کنم. کتاب اصلی در مورد این موضوع توسط بولن: معادلات ساختاری با متغیرهای پنهان است. متأسفانه این کتاب در منطقه من در دسترس من نیست. نمی‌دانم که آیا مطالب یا مقاله‌های کلاس آنلاین به‌طور رایگان برای برآوردن نیازهای من وجود دارد. پیشاپیش ممنون
مواد در مدل سازی معادلات ساختاری (SEM)
92664
من سعی دارم با شبکه های عصبی نمرات درسی دانش آموزان را پیش بینی کنم. من پارامترهای زیادی دارم که ممکن است روی نمره یک درس مانند جنسیت، معدل و بسیاری از نمرات دوره قبلی تأثیر بگذارد. من حدس می‌زنم قبل از تلاش برای ساخت یک مدل شبکه عصبی، باید یک ویژگی را انتخاب کنم. به عنوان مثال ABC440 ممکن است تحت تأثیر ABC101، ABC 201 و ABC205 قرار گیرد اما من 30 دوره دارم. در اینجا باید از سایر دوره های اولیه انتخاب کنم. برای یک مسئله غیرخطی مانند این، چگونه می توانم یک پارامتر موثر انتخاب کنم؟ آیا می توانم از تحلیل همبستگی یا تحلیل رگرسیون خطی استفاده کنم؟ آیا استفاده از روش تحلیل خطی برای یک مسئله غیرخطی روش صحیحی است؟
انتخاب ویژگی مشکل غیرخطی
48726
هنگامی که یک بازدیدکننده به طور بالقوه می تواند بیش از یک بار «تبدیل» کند، روش مناسب برای اندازه گیری اهمیت در آزمون A/B چیست؟ من می‌دانم که آزمون کای اسکوئر یا z-test اغلب برای تست A/B استفاده می‌شود، اما از آنجایی که من می‌دانم این فقط در صورتی است که طبقه‌بندی شده باشد، مانند اینکه بازدیدکننده خرید کرده باشد یا نه. در مورد من، مشتریان می‌توانند چندین بار در یک دوره آزمایشی خرید کنند، و من می‌خواهم مطمئن شوم که از آزمون اهمیت مناسب برای این کار استفاده می‌کنم. به عنوان مثال: تست A: 800,000 بازدیدکننده, 50,000 خرید تست B: 45,000 بازدیدکننده, 2,700 خرید من یک سوال مشابه را اینجا دیدم اما در مورد درآمد پرسیده شد: AB تست عوامل دیگر به غیر از نرخ تبدیل. در مورد من، آیا باید از تست Wilcoxon نیز استفاده کنم؟
آزمون معناداری برای استفاده برای تبدیل های متعدد در آزمون A/B
67295
برای درک و/یا کسب اطلاعات از مجموعه ای از داده ها به چه نوع تحلیلی نیاز دارم؟ به عنوان مثال، من داده های دانش آموزان برای SATScore، HighSchoolGPA، HighSchoolRank، و غیره، و FreshmenGPA را دارم. اکنون می‌خواهم مدلی ایجاد کنم که به من بگوید کدام یک از معیارها برای FreshmenGPA مهم هستند و به چه میزان. من می‌خواهم اهمیت این دسته‌ها (SATScore، HighSchoolGPA، HighSchoolRank، و غیره) را کمّی کنم. چه گزینه هایی دارم؟ دقیق ترین روش برای انجام چنین تحلیلی کدام است؟ چیزی که می‌خواهم از داده‌ها بدانم: من می‌خواهم شناسایی کنم که کدام یک از این متغیرها (SATScore، HighSchoolGPA، HighSchoolRank، و غیره) می‌توانند به من در پیش‌بینی دانش‌آموزان FreshmenGPA کمک کنند. من در مورد آنچه که باید برای این کار انجام دهم مطالعه کردم، اما منبع قطعی یا پاسخ قطعی وجود ندارد. از آنچه من تقریباً درک می کنم، به نظر می رسد که باید بفهمم کدام یک از این متغیرها در پیش بینی FreshmenGPA مفید هستند و آیا یک متغیر تعاملی (ترکیبی از دو یا چند متغیر) وجود دارد که پیش بینی کننده بهتری از هر متغیر فردی باشد. چگونه می توانم این کار را انجام دهم؟ وقتی فهمیدم کدام متغیرها و/یا متغیرهای تعاملی برای مدل من مهم هستند، باید اهمیت متغیر را کمیت کنم، برای این کار باید وزن (ضرایب) متغیرهایی را که به نظرم برای FreshmenGPA مهم هستند، بیابم. آیا کسی می تواند مراحلی را که برای درک و انجام این کار باید طی کنم به من نشان دهد؟ همچنین، به نظر می‌رسد راه‌های متعددی برای انجام این کار وجود دارد، مطمئن نیستم که این درست است، اما اگر چنین است، کدام یک از این روش‌ها دقیق‌ترین مدل را برای داده‌ها ارائه می‌دهد؟
شناسایی و کمی سازی متغیرها (پیش بینی کننده ها) برای درک رابطه
15100
من در PMML، زبان نشانه گذاری مدل پیش بینی کننده تازه کار هستم و می خواستم بدانم که آیا نوعی پشتیبانی جاوا (منبع باز / حرفه ای) برای ایجاد/تجزیه فایل های PMML وجود دارد. در ابتدا فقط امکان ایجاد/تجزیه فایل های PMML به صورت برنامه ای از محیط های جاوا را در ذهن دارم. من گوگل کرده ام و چندین احتمال پیدا کرده ام: * jpmml منبع باز از PMML 3.2. * javax.datamining JDM، با این حال به نظر مرده است... آیا کسی اطلاعات بیشتری دارد؟ * کتابخانه حرفه ای Zementis. * از یک کتابخانه XML Java استفاده کنید و تجزیه کننده/نویسنده DIY فایل های PMML را بسازید. من قدردان همه نظرات شما هستم. پیشاپیش از اسکار متشکرم
پشتیبانی جاوا از PMML
62719
من می دانم که این یک روش بسیار ساده است، اما به دلایلی راه های مختلفی را می بینم و مطمئن نیستم که کدام یک را دنبال کنم. بنابراین - من $Y_1,...Y_n \sim U(1,3)$ دارم و می خواهم $P(y<c)$ را بدانم. پاسخی که من برای این دارم (و با آنچه در ویکی می بینم متفاوت است) این است: $c+\int_1^c 0.5\,dy $ آیا این راه درست است؟ اگر چنین است، منطق پشت آن چیست؟
توزیع یکنواخت - یک سوال ساده
54662
من می‌خواهم ترکیبی از دو چگالی گاوسی را در داده‌های مالی خود قرار دهم. داده ها را می توانید در اینجا پیدا کنید: http://uploadeasy.net/upload/2a7mw.rar متغیر را dat می نامند. چگالی احتمال یک مخلوط به صورت زیر بدست می آید: \begin{align} f(l)=\pi \phi(l;\mu_1,\sigma^2_1)+(1-\pi)\phi(l;\mu_2, \sigma^2_2) \end{align} می‌توان چندک را با استفاده از یک الگوریتم عددی برای حل موارد زیر محاسبه کرد: \begin{align} \alpha=P(L \leq VaR_\alpha) = \pi F_1(Quantile_\alpha;\mu_1،\sigma^2_1)+(1-\pi) F_2(Quantile_\alpha;\mu_2،\sigma^2_2) \end{align} من از mixtools در R استفاده می‌کنم: install.packages(mixtools) library(mixtools) mix<-normalmixEM(dat,k=2,fast=TRUE) این از الگوریتم EM استفاده می کند. من اکنون می خواهم 0.95 کمیت توزیع مخلوط را محاسبه کنم. من یک حلقه انجام می دهم، نوعی جستجوی شبکه ای، من فرض می کنم که کمیت (به دلیل ویژگی های داده های من) زیر 0.3 باشد. بنابراین حلقه به 0.3 پیکسل ختم می شود<-mixture$lambda[1] mu1<-mixture$mu[1] mu2<-mixture$mu[2] sigma1<-mixture$sigma[1] sigma2<-mixture$sigma[2 ] quantile<-0 probabilitylevel<-0.95 dummy1<-0 # حلقه حدودا طول می کشد 20-40 ثانیه برای (i در 1:100000){ quantile[i]<-i/(1000000/3) } dummy1<- probabilitylevel - ( pi * pnorm(quantile,mean=mu1,sd=sigma1) + (1 -pi) * pnorm (چک، میانگین=mu2، sd=sigma2)) min(abs(dummy1)) which.min(abs(dummy1)) quantileresult<-which.min(abs(dummy1))/(1000000/3) نتیجه quantile نتیجه '0.025371' است که در صورت کنترل صحیح به نظر می رسد با: pi * pnorm (نتایج کمی، میانگین=mu1، sd=sigma1) + (1-pi) * pnorm(quantileresult,mean=mu2,sd=sigma2) من به طرح نگاه می کنم: plot(density(dat),col=red) curve(expr=pi*dnorm(x,mu1,sigma1 )+(1-pi)*dnorm(x,mu2,sigma2),lwd=2,col=black,add=TRUE) منحنی(dnorm(x,mean(dat),sd(dat)),add=TRUE,lty=3,col=orange,lwd=2) که ![quantilecorrect](http://i.stack. imgur.com/DAoHg.png) به نظر می رسد که مخلوط معمولی (سیاه) بهتر با داده ها مطابقت دارد. خط نارنجی چین، توزیع نرمال تک متغیره است که به مجموعه داده ها برازش می شود. برازش داده ها به خوبی چگالی مخلوط نیست، آیا این درست تفسیر شده است؟ در نهایت، ما به چگالی های منفرد نگاه می کنیم و آن را با مخلوط مقایسه می کنیم: plot(density(dat),col=red) curve(dnorm(x,mu1,sigma1),add=TRUE,lty=2,col= سبز تیره) منحنی (dnorm(x,mu2,sigma2),add=TRUE,lty=2,col=blue) منحنی(expr=pi*dnorm(x,mu1,sigma1)+(1-pi)*dnorm(x,mu2,sigma2),lwd=2,col=black,add=TRUE) که نمودار زیر را نشان می دهد: ![densitiescompared](http://i.stack.imgur.com/6dyKD.png) چگالی اول پیک بالاتری دارد، چگالی دوم جابجا شده است به سمت چپ و دارای یک اوج کمتر، واریانس بالاتر است. آیا محاسبات و تفسیرهای من درست است؟
Ftting مخلوطی از دو گاوسی
104404
من به این فکر کرده‌ام که چگونه از رگرسیون برای اثبات اینکه عامل X شرط لازم یا کافی برای Y است استفاده کنم. من از این اصطلاحات به معنای منطقی سنتی استفاده می‌کنم، یعنی * اگر X وجود ندارد، پس Y --> X لازم نیست. برای Y * اگر X، پس Y --> X برای Y کافی است دلیلی که می پرسم این است که در نظریه های علوم اجتماعی ما همیشه در مورد شرایط لازم و کافی صحبت می کنیم (به عنوان مثال، (اگر) خیر بورژوازی، (پس) دموکراسی وجود ندارد»). در عین حال، رایج ترین ابزار، رگرسیون است، اما به نظر می رسد برای بررسی علل ضروری / کافی مناسب نباشد. در واقع، به ندرت از ضرورت و کفایت در زمینه رجعت صحبت می کنیم. تعبیر معمول این است که X به معنای افزایشی Y را «باعث» می‌شود - یعنی تغییر خاصی در X مرتبط است / باعث تغییر خاصی در Y می‌شود. بنابراین، آیا می‌توان نتایج رگرسیون را به عنوان شواهدی از ضرورت در مقابل کفایت تفسیر کرد؟ در مقابل، یک جدول 2 در 2 ساده X و Y رابطه ضرورت / کفایت را بسیار روشن می کند. P/S: لازم نیست انگیزه به علوم اجتماعی محدود شود. به عنوان مثال، اگر من یک مجموعه داده با DV به عنوان آتش رخ می دهد و IV ها به عنوان وجود سوخت، وجود کبریت، وجود رعد و برق و غیره داشته باشم. آیا می توانیم از رگرسیون برای اثبات اینکه سوخت برای آتش ضروری است اما ناکافی است استفاده کنیم؟
استفاده از رگرسیون برای اثبات اینکه X یک شرط ضروری / شرط برای Y است
20543
اگر یک i.i.d معمولی چند متغیره داشته باشم. $X_1, \ldots, X_n \sim N_p(\mu,\Sigma)$ را نمونه کنید و $$d_i^2(b,A) = (X_i - b)' A^{-1} (X_i - b) را تعریف کنید $$ (که به نوعی فاصله Mahalanobis [مربع] از یک نقطه نمونه تا بردار $a$ با استفاده از ماتریس $A$ برای وزن دادن است)، **چیست توزیع** $d_i^2(\bar X,S)$ (فاصله ماهالانوبیس تا نمونه میانگین $\bar X$ با استفاده از ماتریس کوواریانس نمونه $S$)؟ من به مقاله ای نگاه می کنم که ادعا می کند $\chi^2_p$ است، اما این بدیهی است اشتباه است: توزیع $\chi^2_p$ با استفاده از $d_i^2(\mu,\Sigma)$ به دست می آمد. (ناشناخته) بردار میانگین جمعیت و ماتریس کوواریانس. هنگامی که نمونه های آنالوگ به برق متصل می شوند، باید توزیع هتلینگ $T^{\ 2}$، یا توزیع $F(\cdot)$ مقیاس شده، یا چیزی شبیه به آن را دریافت کرد، اما نه $\chi^2_p$. . من نتوانستم نتیجه دقیقی را نه در Muirhead (2005) و نه در Anderson (2003) و نه در Mardia، Kent and Bibby (1979، 2003) پیدا کنم. ظاهراً این افراد با تشخیص پرت زحمتی نمی‌کشیدند، زیرا توزیع نرمال چند متغیره کامل است و هر بار که داده‌های چند متغیره را جمع‌آوری می‌کند به راحتی به دست می‌آید:-/. ممکن است همه چیز پیچیده تر از این باشد. نتیجه توزیع هتلینگ $T^{\ 2}$ بر اساس فرض استقلال بین بخش برداری و بخش ماتریس است. چنین استقلالی برای $\bar X$ و $S$ صادق است، اما دیگر برای $X_i$ و $S$ صادق نیست.
توزیع فاصله ماهالانوبیس در سطح مشاهده
48727
اجازه دهید فرض کنیم که یک مولد اعداد تصادفی داریم که با تابع چگالی احتمال آن داده شده است. حال باید از این توزیع برای تولید عددی استفاده کنیم که دارای ویژگی زیر باشد. این انحراف ریشه میانگین مربع بین خود و اعداد تصادفی تولید شده توسط توزیع در نظر گرفته شده را به حداقل می رساند. سوال من این است که این شماره یک نام خاص دارد. ممکن است فقط یک میانگین یا میانه باشد؟
چه عددی RMSD را بین خودش و اعدادی که به طور تصادفی تولید می شوند به حداقل می رساند؟
104973
من با بسته نرم افزاری R `caret` کار می کنم تا مهمترین ویژگی ها را از میان مجموعه ای از داده ها انتخاب کنم. پاسخ من عاملی از چندین کلاس است (مثلاً ویژگی اسمی) و ویژگی‌های من اسمی و عددی هستند. من در کتابچه راهنمای نرم افزار خواندم که `rfe()` به صورت زیر عمل می کند > برای طبقه بندی، تجزیه و تحلیل منحنی ROC بر روی هر پیش بینی انجام می شود. برای > دو مشکل کلاس، یک سری برش به داده های پیش بینی کننده اعمال می شود تا کلاس > را پیش بینی کند. حساسیت و ویژگی برای هر برش > محاسبه می شود و منحنی ROC محاسبه می شود. قانون ذوزنقه ای برای محاسبه مساحت زیر منحنی ROC استفاده می شود. این ناحیه به عنوان معیار > اهمیت متغیر استفاده می شود. برای نتایج چند کلاسه، مسئله به تمام مسائل زوجی تجزیه می‌شود و مساحت زیر منحنی برای هر جفت کلاس محاسبه می‌شود (یعنی کلاس 1 در مقابل کلاس 2، کلاس 2 در مقابل کلاس 3 و غیره). برای یک کلاس > خاص، حداکثر مساحت زیر منحنی در سراسر AUCهای جفت مربوطه به عنوان معیار اهمیت متغیر استفاده می شود. تا اینجای کار خیلی خوبه. اما نمی‌دانم اگر ویژگی من اسمی باشد، منحنی ROC چگونه محاسبه می‌شود. برای مثال، من برخی از داده های اسباب بازی را تنظیم کرده و «rfe()» را انجام می دهم. AUC برای Geschlecht چگونه محاسبه می شود؟ rm(list=ls()) library(klaR) library(caret) library(matlab) library(FSelector) Faktor<-factor((نمونه( LETTERS[1:4], 10000, replace=TRUE, prob=c(0.1 ، 0.2، 0.65، 0.05)))) alter<-abs(rnorm(10000,30,5)) HF<-abs(rnorm(10000,1000,200)) Diffalq<-rnorm(10000) Geschlecht<-sample(c(Mann,Frau, Firma)، 10000، جایگزین = صحیح) data<-data.frame(Faktor,alter,HF,Diffalq,Geschlecht) set.seed(5678) flds<-createFolds(data$Faktor, 10) train<-data[-flds$Fold01 ,] test<-data[ flds$Fold01 ,] ویژگی های <- c(HF, alter, Diffalq, Geschlecht) formel<-as.formula(paste(Faktor ~ , paste(features, collapse= +))) nb<-NaiveBayes(formel, train, usekernel=TRUE) pred<-predict(nb, test) test$Prognose<-as.factor(pred$class) start<-proc.time() set.seed(12345) nbProfile<-rfe(Faktor ~ alter + HF + Diffalq + Geschlecht, train, sizes=1:4,repeats=3, rfeControl = rfeControl(functions = nbFuncs, method = cv)) end< -proc.time() zeit<-ende-start nbProfile با تشکر در پیشبرد!
حذف ویژگی بازگشتی در R با caret
67299
من می خواهم شناسایی سیستم یک سیستم AR (2) را با سیگنال گاوسی سفید با استفاده از تکنیک تخمین LS انجام دهم. با فرض اینکه سیگنال دریافتی توسط مدل کانال ارائه شده توسط x(t)= 0.919*x(t-1) - 0.92*x(t-2)+n(t) تولید می شود که در آن n(t) نویز سفید است. من باید پارامترها را با به حداقل رساندن حداقل مربعات خطا بین مقادیر پیش بینی شده و تجربی پیدا کنم، زمانی که بخش گیرنده فقط x(t) را دریافت می کند. همچنین باید فاصله اطمینان 95% را برای هر پارامتر پیدا کنم. اکنون متلب دستور شناسایی سیستم خود را دارد «ar()» که ضرایب را به ما می دهد. پیگیری جریان این تابع دشوار است و از این رو می خواستم بدانم تخمین پارامتر دقیقا چگونه انجام می شود. **ویرایش اینگونه انجام دادم اما ضرایب نادرست هستند.** x(1)=0.001; x(2)=0.002; برای i =3: 200 x(i) = 0.195 *x(i-1) -0.95*x(i-2); %خروجی پایان d= awgn(x,10، 'اندازه گیری شده'); %خروجی سیگنال دریافتی xb = toeplitz(d,[d(1),صفر(1,N-1)]) ;% ماتریس ورودی P1 = pinv(xb)*d; و وقتی از 'model1 = ar(x, 2, 'ls') استفاده کردم، ضرایب را به صورت '-0.1950 0.9500' دریافت کردم، اما علائم معکوس شدند! و وقتی از سیگنال خراب شده با نویز استفاده کردم، نتیجه کاملاً متفاوتی گرفتم. آیا نباید از سیگنال d به جای x استفاده کنم؟ چه اشکالی دارد؟ لطفاً کسی می تواند با جزئیات بیان کند که روش صحیح برای یافتن با استفاده از pinv() و ar() برای آن چیست؟
مسائل مربوط به برآورد حداقل مربعات
109356
من یک سوال دارم در مورد اینکه کدام آزمایش را باید روی برخی از داده ها اجرا کنم. من گروه های کوچکی از مردم دارم که به سوالات پاسخ می دهند. پاسخ به این سوالات به عنوان صحیح یا نادرست طبقه بندی شده است. N از تعداد کل سوالات پرسیده شده نسبتا زیاد است، با این حال، N از تعداد کل گروه ها بسیار کوچک است. من می خواهم دقت را بر اساس اندازه گروه تجزیه و تحلیل کنم. فکر اولیه من این بود که یک ANOVA مناسب است زیرا گروه ها را به اندازه های 1-2، 3-4 و 5+ تقسیم می کنم و از دقت کلی گروه برای هر نمونه استفاده می کنم. با این حال، همانطور که گفتم، N کوچک است. یکی از همکاران پیشنهاد کرد که این نادرست است و در جایی که N مورد نظر به جای دقت کلی گروه، نمونه هایی از تمام پاسخ های صحیح/نادرست باشد، مربع چی مناسب تر است. آیا یکی از این ها یا تست دیگری مناسب تر است؟
آزمون آماری مناسب برای چند گروه
80312
من این رگرسیون خطی را انجام داده ام که شامل ماه کدگذاری شده به عنوان یک متغیر ساختگی است: library(plyr) set.seed(1) y <- rnorm(120) x1 <- c(rep(adult, 60), rep( نوجوان، 60)) x2 <- c(rep(مرد، 60)، rep(مونث، 60)) x3 <- unlist(llply(month.abb، تابع(x) rep(x, 10))) خلاصه (lm(y ~ x1 + x2 + x3)) فراخوانی: lm(فرمول = y ~ x1 + x2 + x3) باقیمانده ها: حداقل 1Q Median 3Q Max -2.46354 -0.51524 -0.03981 0.57625 1.95041 ضرایب: (2 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای t مقدار Pr(>|t|) (قطع) 0.12073 0.28564 0.423 0.673 x1juvenile 0.00663 0.40396 0.016 0.987 x2male NA NA NA NA NA x3750399006.00. 0.355 x3Dec -0.24718 0.40396 -0.612 0.542 x3Feb 0.12812 0.40396 0.317 0.752 x3Jan 0.01147 0.40396 0.40396 0.40396 0.03970.0390. 0.40396 0.802 0.424 x3Jun 0.02273 0.40396 0.056 0.955 x3Mar -0.25440 0.40396 -0.630 0.530 x3 می 0.01403410 x3Nov 0.22012 0.40396 0.545 0.587 x3Oct -0.01502 0.40396 -0.037 0.970 x3Sep NA NA NA NA خطای استاندارد باقیمانده: 0.9033 در 108 درجه آزادی چندگانه: 0.9033 در 108 درجه آزادی چندگانه R-70- R-squared تعدیل شده: -0.05003-آمار F: 0.4845 در 11 و 108 DF، p-value: 0.9093 اکنون می خواهم نتایج این رگرسیون خطی را در یک جدول ارائه کنم. به جای ارائه نسخه بتا برای هر ماه، آیا راهی برای خلاصه کردن اثر کلی ماه بر روی «y» در همان جدول وجود دارد؟ برای مثال، آیا می‌توان مقادیر بتا، se، t و p مقدار «x3» را با استفاده از مقادیر میانگین آنها در ماه‌ها خلاصه کرد؟
چگونه می توان متغیرهای ساختگی را از رگرسیون خطی در جدول ارائه کرد؟
15103
من در حال حاضر در حال تجزیه و تحلیل داده هایم برای یکی از مطالعاتم برای پایان نامه دکتری روانشناسی هستم. امیدوارم کسی بتواند در مورد مشکلی که دارم به من کمک کند... من مطالعه ای انجام داده ام که در آن شرکت کنندگان به مدت یک ساعت پوکر بازی می کنند. من تصمیمات آنها را تجزیه و تحلیل می کنم و به هر تصمیمی که می گیرند یک کد می دهم. اگر تصمیمی دارای ارزش خنثی یا بدون ارزش مورد انتظار بود، تصمیم به عنوان 2 کد می شود. اگر تصمیمی دارای مقدار انتظاری منفی باشد، برای آن تصمیم یک کد 0 می دهم. در نهایت، اگر تصمیمی دارای ارزش مورد انتظار مثبت باشد، کد 1 را به آن می‌دهم. شرکت‌کنندگان از نظر تعداد دست‌هایی که برای بازی در جلسه ساعتی انتخاب می‌کنند، متفاوت هستند. برخی ممکن است فقط 10 دست بازی کنند، در حالی که برخی دیگر ممکن است 40 دست بازی کنند. بنابراین، برخی از افراد ممکن است تعداد زیادی از تصمیمات رمزگذاری شده داشته باشند، در حالی که برخی دیگر بسیار کمتر. مشکل من اینجاست: من سعی می کنم تعیین کنم که چه تعداد یا چه نسبتی از تصمیمات شرکت کننده دارای ارزش مورد انتظار منفی هستند (یعنی تصمیمات ضعیف). بنابراین کاری که من انجام دادم این بود که تعداد تصمیمات ارزشی منفی مورد انتظار را گرفته و آن را بر کل تصمیمات تقسیم کردم. این درصدی از تصمیمات ارزش مورد انتظار منفی را ایجاد می کند. مشکل این است که برخی از افراد خیلی کم بازی می کردند و بنابراین تصمیمات بسیار کمتری داشتند. داشتن تجربه بیشتر در پوکر با دست کمتر پوکر همراه است. بنابراین، برای مثال، یک فرد با تجربه تر ممکن است تنها 20 تصمیم در جلسه بازی خود گرفته باشد، در حالی که یک بازی با تجربه کمتر ممکن است 50 تصمیم گرفته باشد (به دلیل داشتن دست های بیشتر). اگر هر دو بازیکن 3 تصمیم با ارزش مورد انتظار منفی می گرفتند، درصد تصمیمات ارزش مورد انتظار منفی برای بازیکنی که دست کمتری بازی می کرد 15٪ و بازیکنی که دست های بیشتری بازی می کرد درصد 6٪ خواهد بود. بنابراین به نظر می رسد که افراد با تجربه بیشتر تصمیمات ضعیف تری می گیرند! بازی با دست های کمتر و در نتیجه تصمیم گیری کمتر، به طور مصنوعی امتیازات را افزایش می دهد. آیا راهی وجود دارد که بتوانم این مشکل را برطرف کنم؟ شاید با وزن دادن یا چیزی شبیه به آن؟ من با SPSS کار می کنم. هر گونه کمکی بسیار قدردانی خواهد شد!
چگونه می توانم از افزایش مصنوعی درصد جلوگیری کنم؟
72144
$d$ کوهن تفاوت بین میانگین گروه آزمایش و گروه کنترل را تقسیم بر انحراف معیار اندازه گیری می کند. آماره $d$ کوهن چیزی را تولید می کند که هیچ ارزشی به اندازه اثر مشاهده شده اضافه نمی کند، یعنی تفاوت بین میانگین گروه آزمایش و میانگین گروه کنترل. آیا باید از $d$ کوهن یا تفاوت ساده تولید شده توسط آزمایش کنترل شده برای یک متاآنالیز؟
آیا $d$ کوهن معیار بهتری برای اندازه اثر نسبت به یک تفاوت میانگین ساده برای یک متاآنالیز است؟
67291
من 10 آیپد دارم. من تعداد دفعاتی را که یک برنامه هر روز برای هر یک از این iPad ها خراب می شود، ثبت می کنم. تعداد خرابی‌ها فقط به سمت چند دستگاه منحرف می‌شود، به طوری که میانگین گرفتن چیزی معنی‌دار نمی‌دهد. از چه نوع معادله ای باید استفاده کنم تا برخی از داده های معنی دار مربوط به خراب شدن برنامه خود را به دست بیاورم؟ و/یا (مهمتر از آن): چه چیزی را باید جستجو کنم تا در مورد نوع معادله(هایی) که به من کمک می کند یاد بگیرم؟ مجموعه داده مثال: {iPad,numCrashes} [{0,11},{1,7},{2,10},{3,0},{4,0},{5,0},{6,0} ,{7,0},{8,0},{9,0}] خرابی‌ها در هر دستگاه 2.8 است، اما فقط 30٪ از دستگاه‌ها واقعاً خراب می‌شوند.
کدام معادله به من بینش معناداری می دهد؟
20545
من یک برنامه ریز دارم که می تواند N حالت دلخواه را ارزیابی کند و تناسب آنها را محاسبه کند. دامنه‌هایی که ارزیابی می‌کند هیچ وضعیت پایان صریحی ندارند، بنابراین افق نامحدودی دارد. روش های خوبی برای محاسبه زمانی که باید ارزیابی حالت ها را متوقف کند چیست؟ رویکرد فعلی من این است که احتمال ارزیابی بعدی را به عنوان بهترین حالت بعدی تخمین بزنم و اگر این احتمال کمتر از یک آستانه مشخص شود متوقف شود. به عنوان مثال پس از ارزیابی هر حالت، یک شمارنده را افزایش می‌دهم، و پس از بهترین تناسب جدید، اگر یافت شد، آن شمارنده را بازنشانی می‌کنم، که به دنباله‌ای مانند: مراحل = [0، 1، 2، 0، 1، 2، 0، 0، 0 منجر می‌شود. , 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 0, 1, 2, 3, 4] سپس می‌توانم روی این مورد تکرار کنم و یک احتمال گسسته ساده از هر مرحله قبل از بهترین تناسب بعدی تشکیل دهم: از مجموعه‌ها، شمارش پیش‌فرض را وارد کنید = پیش‌فرض (int) مجموع = پیش‌فرض (int) برای مرحله، بعدی در zip (گام‌ها، مراحل[ 1:]): counts[step] += next == 0 total[step] += 1 for k in sorted(counts.keys()): print k,counts[k],totals[k],'%.2f' % (counts[k]/float(totals[k]),) منجر به: 0 0.43 1 0.00 2 0.50 3 0.00 4 0.00 5 0.00 6 0.00 7 0.00 8 0.00 9 0.00 10 1.00 چگونه می توانم این احتمالات گسسته را بگیرم و یک تقریب کلی برای احتمال P(گام بعدی بهترین گام است | گام فعلی از آخرین بهترین است با یک عدد صحیح گامی دلخواه تشکیل دهم (مخصوصاً برای تعداد گام های بالا که ممکن است به آن نرسیده باشم) ?
محاسبه احتمال کشف
104972
من سعی می کنم یک GMM/HMM برای تشخیص واج پیاده کنم که در آن برای هر واج یک مدل HMM 3 حالته از چپ به راست با حالت های شروع و پایان بدون انتشار دارم. احتمالات انتشار با مخلوط های گاوسی مدل شده است. من می خواهم یک معماری HMM بسازم همانطور که در مقاله تشخیص تلفن مستقل از بلندگو با استفاده از مدل های پنهان مارکوف توسط Kai-Fu Lee شکل 3-3 (الف) پیشنهاد شده است. یعنی حالت شروع و پایان بدون انتشار داشته باشیم و در این بین تمام واج ها hmms به صورت موازی برای تشخیص واج پیوسته داشته باشیم. آیا مرجع یا مقاله ای وجود دارد که نحوه اجرای عملی این یا نحوه اجرای حالت های شروع و پایان را بدون انتشار نماد نشان دهد؟ وقتی به پیاده سازی اشاره می کنم منظورم پیاده سازی Baum-Welch و Viterbi و غیره است با تشکر!
اجرای عملی تشخیص گفتار HMM
57811
من سعی می کنم LASSO را در R با بسته glmpath انجام دهم. با این حال، مطمئن نیستم که از تابع پیش بینی همراه _predict.glmpath()_ به درستی استفاده می کنم. فرض کنید من برخی از مدل‌های رگرسیون دوجمله‌ای منظم‌شده را برازش می‌کنم: fit <- glmpath(x = data$x, y=data$y, family=binomial) سپس می‌توانم از predict.glmpath() برای تخمین مقدار متغیر پاسخ $ استفاده کنم. y$ در $x$ برای مقادیر متغیر $\lambda$ از طریق pred <- predict.glmpath(fit, newx = x, mode=lambda, s=seq(0,10,1),type=response) اما در فایل راهنما مشاهده می شود که گزینه _newy_ نیز وجود دارد. چگونه باید نتیجه را هنگام فراخوانی _predict.glmpath()_ با _newy = some.y_ تفسیر کرد؟ **[ویرایش]** یک سوال اضافی به ذهنم خطور کرد: گزینه _type_ با توجه به فایل راهنما می تواند مقادیر زیر را داشته باشد: توضیحات در فایل راهنمای پاسخ پاسخ های تخمین زده شده loglik برگردانده می شوند. ضرایب ضرایب برگردانده می شوند. ضرایب برای متغیرهای ورودی اولیه برگردانده می شوند (به جای ضرایب استاندارد شده) پیوند (پیش فرض) پیش بینی کننده های خطی برگردانده می شوند اما، به کدام پیش بینی ها و ضرایب خطی اشاره می کنند؟ مطمئنا مدل اصلی نیست؟
سوالات مربوط به ()predict.glmpath
99640
آیا باید نگران چند خطی بودن در آمار ناپارامتریک باشم؟
آیا چند خطی بودن یک نگرانی در آمار ناپارامتریک است؟
30835
فرض کنید مجموعه‌ای از مدل‌های $M = \\{M_1، M_2، \dots M_n\\}$ را دریافت کردم. حالا بگویید من مقداری داده $x$ دریافت کردم و می خواهم بدانم کدام مدل داده ها را بهتر نشان می دهد. من می دانم که چگونه احتمال $L(\theta | x)$ را محاسبه کنم، که $\theta$ پارامترهای هر یک از آن مدل ها است. من متوجه هستم که ارزش احتمالی یک مدل به تنهایی چیز مفیدی به من نمی گوید. اما کاری که می توانم انجام دهم این است که آنها را با یکدیگر مقایسه کنم. اکنون می دانم که کدام یک از مدل های داده شده محتمل تر است. **اما**: من همچنین می خواهم بدانم، چقدر احتمال دارد که هیچ یک از مدل ها به اندازه کافی یک مدل را نشان ندهند؟ یعنی من به یک روش آماری دقیق علاقه مند هستم که بگویم باید یک مدل جدید برای آن داده ها ایجاد کنم. هیچ اشاره ای در مورد اینکه چگونه می توانم این را محاسبه کنم؟
انتخاب مدل مبتنی بر احتمال
80315
با توجه به $X_1$..$X_n$ و $Y_1$..$Y_n$ استخراج شده از توزیع های ناشناخته $F(x)$ و $G(x)$ به ترتیب، آزمون های آماری مانند دو نمونه کولوموگروف- اسمیرنوف، کرامر- آزمون‌های فون میزس و اندرسون-دارلینگ برای آزمایش فرضیه صفر $\mathcal{H} ابداع شده‌اند: F(x) = G(x)$ با استفاده از آمار آزمون های مختلف. اما به جای آزمایش فرضیه، من بیشتر علاقه مند به کمی کردن احتمال هستم، $\mathcal{P}(X_1..Xn,Y_1..Y_n | F(x) = G(x))$ بدون دانستن $F(x) $ یا $G(x)$. آیا این امکان پذیر است؟ تست‌های بالا $\mathcal{P}(Z\ge{}z | F(x) = G(x))$ را نشان می‌دهند که $Z$ آمار آزمون است، اما این چیزی نیست که من می‌خواهم. من سعی کردم نحوه استخراج آماره آزمون کولوموگروف دو نمونه ای را پیدا کنم، اما هیچ چیز مفیدی به دست نیامد... تمام مقالاتی که پیدا کردم یا به سادگی آمار آزمون پیشنهادی را بیان می کنند یا توزیع آن را تحت فرضیه صفر مطالعه می کنند. با توجه به آمار سفارش $X_{(1)}$..$X_{(n)}$ و $Y_{(1)}$..$Y_{(n)}$، آیا چیز مفیدی در مورد $ وجود دارد که بتوانیم بگوییم X_{(i)} - Y_{(i)}$ صرف نظر از توزیع‌های $F(x)$ و $G(x)$؟
آیا می توان احتمال اینکه دو نمونه از یک توزیع گرفته شود را محاسبه کرد؟
109352
من وضعیتی دارم که در آن ما تعدادی ویژگی/متغیر کمی (p) نسبت به تعداد نمونه (n) داریم. هدف من این است که این نمونه ها را به گروه ها (ممکن است سلسله مراتبی) طبقه بندی کنم. من می توانم بحث خوبی در مورد این موضوع در این پست پرسش و پاسخ، اینجا در CV ببینم. من از بحث در مورد خوشه بندی بر اساس داده های با ابعاد بالا در ویکی و نیازهای آن آگاه هستم. در اینجا مثال داده ای برای تمرین است: set.seed(123) # ماتریس از X متغیر xmat <- ماتریس (نمونه(-1:1، 2000000، جایگزین = درست)، ncol = 10000) colnames(xmat) <- چسباندن ( M، 1:10000, sep = ) rownames(xmat) <- paste(sample, 1:200، سپتامبر = ) در اینجا سؤالات من وجود دارد: 1. بهترین رویکرد کدام است؟ 2. من علاقه مند به یافتن کدهای پیاده سازی برای یک روش مناسب (ممکن است خوشه بندی Subspace یا Projected clustering یا Correlation clustering یا Hybrid رویکردهای) برای مورد خود هستم.
خوشه بندی داده های با ابعاد بالا (p > n) در R
15395
شاید اجازه دهید ابتدا کاربرد دنیای واقعی مسئله خود را قبل از رفتن به یک مدل ریاضی بیشتر توضیح دهم. فرض کنید من سیستمی دارم که موقعیت فعلی من را تا یک خطای ناشناخته اندازه گیری می کند (مثلاً این یک دستگاه GPS است). در هر نقطه ای که ثبت می شود، موقعیت دقیق به دست آمده از طریق دیگر را نیز ذخیره می کنم. اکنون می‌خواهم یک فاصله پیش‌بینی خطای ثبت‌شده را تخمین بزنم، بنابراین یک مقدار قابل اعتماد می‌خواهم که بگویم 95٪ از تمام نقاط داده نزدیک‌تر از مقدار تخمینی به موقعیت واقعی هستند. به این معنی که اساساً مایلم تابع توزیع احتمال مقادیر $$e_i:=|X_i-P_i|,$$ را تخمین بزنم که در آن $X_i$ موقعیت ثبت شده (تصادفی) من و $P_i$ مقدار مرجع شناخته شده است. تا اینجا همه چیز خوب است. اکنون با توجه به مقادیر نمونه $e_i$ مشکلاتی ایجاد می شود. من نقاط داده بسیار مرتبط و تابع توزیع را می بینم که از همه توزیع های پارامتری که من می شناسم فاصله زیادی دارد. آیا روشی قوی و غیر پارامتری برای تخمین توزیع (یا حداقل یک کمیت از پیش تعریف شده از آن توزیع) با داده های همبسته می شناسید؟ اندازه نمونه مشکلی نیست، من حدود 50000 نقطه داده در دسترس دارم. البته یک راه محاسبه تابع توزیع تجربی است، اما آیا این هنوز با داده های همبسته کار می کند؟ قضیه حدی که من می شناسم نمونه های مستقلی را برای تضمین رفتار مجانبی صحیح فرض می کند. با تشکر از ورودی شما.
تخمین فاصله پیش بینی ناپارامتریک
109351
فرض کنید من 64 ستون دارم که از بین 500+ ستون بر اساس این واقعیت که آنها بیشترین همبستگی زوجی را دارند انتخاب کرده ام (این راه خوبی است؟). من 16 تا از این ستون ها را انتخاب می کنم و یک رگرسیون چند متغیره ساده اجرا می کنم. من متوجه شدم که 4 مورد از این ستون ها دارای مقادیر P کمتر از 0.05 هستند. آیا می توانم به عقب برگردم، این کار را برای مجموعه 16 بعدی انجام دهم (متقابل از مجموعه اول)، مقادیر P را بررسی کرده و ستون های موفق را بدون مشکل به مدل اضافه کنم؟ علاوه بر این، آیا درست است که فقط چهار مجموعه متشکل از 16 ستون را انتخاب کنم یا باید 64 مورد را 16 بار انتخاب کنم و وجوه مشترکی بین هر مجموعه پیدا کنم؟ من احساس می‌کنم در روشی که در بالا انجام می‌دهم مشکلی وجود دارد، بنابراین امیدوارم کسی بتواند راه درست را برای این کار روشن کند. همچنین، لطفاً اگر کاری برای بهبود این سؤال می توانم انجام دهم، به من اطلاع دهید.
اضافه کردن تکراری متغیرها به مدل بر اساس مقدار P
73817
من این مجموعه داده سری زمانی را دارم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/eXXhd.png) نمودار خطوط روند را برای 7 قیمت سهام نشان می دهد. آنها بسیار نزدیک و همپوشانی هستند، اما شما می توانید این ایده را به دست آورید که خطوط روند لایه لایه هستند (به عنوان مثال قهوه ای در بالا و قرمز/نارنجی در پایین، هرچند دور از چشم انداز). آیا راهی برای تجسم بهتر این داده ها وجود دارد؟ مانند تبدیل $y$-axis به مقیاس دیگر، نگاشت کل چیز روی سیلندر/مخروط و غیره؟ من با میانگین متحرک امتحان کردم، اما پیشرفت چندان خوب نیست. توجه: این یک مشکل ML/DM نیست. من به دنبال یک تکنیک تجسم بهتر/جایگزین/مناسب هستم، همین.
سری های زمانی همپوشانی: آیا راه بهتری برای تجسم آنها وجود دارد؟
95817
من یک بازآفرینی واقعی رشد سالانه درخت را از اندازه گیری حلقه درخت انجام می دهم و در کار با نمودارها و حاشیه آنها مشکلات زیادی دارم. من دو تا گراف رو جدا انجام دادم و اینها خوب کار میکنن ولی فعلا که بزارم با هم کار نمیکنه! و در صورت امکان من می خواهم این را به عنوان فایل GIF نیز ذخیره کنم. ایده اصلی من این است که این دو نمودار را با هم ترسیم کنم و در صورت امکان آنها را به عنوان یک فایل Gif ذخیره کنید. در اینجا دو نمودار حرکتی من به طور جداگانه: tree01 <- read.table(url(http://darwin.ec/test/tree01.txt)، header=T، dec = ) x = tree01$x y = tree01 $y z = tree01$z year=tree01$year TRW = tree01$TRW # PLOTTING DISC plot.new() for(i in 1:125) { Sys.sleep(0.1) par(new=T) plot(x[1],y[1], xlim = c(-1000, 1000), ylim = c(-10000, 10000)) par (new=T) نقاط (x[i]، y[i]، cex= z[i]، col=black) افسانه (بالا سمت راست، legend= year[i], border=) # سعی کردم بدون حاشیه ترسیم کنم } # PLOTTING LINES plot.new() for (i در 1:125){ Sys.sleep(0.1) plot(x=year, y =TRW, type=l, ylim = c(0,5)) points(year[i], TRW[i], col=red, pch=20, font = 20) abline(v=year[i], col = خاکستری) } به همین دلیل سعی شد آنها را در کنار هم قرار دهد، اما در پنل های مختلف، اما متاسفانه کار نمی کند: library(animation) # saveGIF({ for( i در 1:125) { old.par <- par(mfrow=c(2,1)) #disc Sys.sleep(0.1) par(new=T) نمودار (x[1]، y[1]، xlim = c(-10000، 10000)، ylim = c(-10000، 10000)) par(new=T) نقاط(x[i]،y[i]، cex= z[i], col=black) legend(topright, legend= year[i], border=) #lines par(new=T) نمودار (x=year، y=TRW، type=l، ylim= c(0500)) نقاط (year[i]، TRW[i]، col=red، pch=20، font = 20) abline (v=year[i]، col = خاکستری) par(old.par) } # }، movie.name = tree01.gif، فاصله = 0.1، ani.width = 600، ani.height = 600) و در پایان می خواهم یک نمودار در دو پانل داشته باشم، اما در همان زمان اجرا شود: ![رشد سالانه درخت از حلقه های درخت](http:/ /i.stack.imgur.com/DPn6h.png) از کمک شما بسیار سپاسگزار خواهم بود. با تشکر
چگونه دو طرح حرکتی را با هم در R اجرا کنیم؟
114979
من می‌خواهم داده‌های تصادفی ماهانه _(m)_ دما (_T_) و بارش (_P_) را با توجه به اینکه هر دو متغیر به هم مرتبط هستند (_rTP[m]_) تولید کنم. به طور نرمال توزیع شده است، در حالی که بارش ها از توزیع لگ نرمال پیروی می کنند و باید تبدیل به log-تغییر شوند **mvrnorm** از بسته MASS می توان استفاده کرد. mT=c(1،2،4،7،10،15،17،18،17،10،5،1) mP=c(3.9،3.7،3.9،4.1،4.5،4.7،4.8،4.8،4.4، 4.1،4.2،3.9) #log-transformed sdT=c(1,1,1,1,1,1,1,1,1,1,1,1) sdP=c(0.7,0.8,0.7,0.6,0.4,0.4,0.4,0.5,0.6, 1,0.8,0.6) #log-transformed rTP=c(0.4,0.4,0.4,0.4,0.4,0.4,0.4,0.4,0.4,0.4,0.4,0.4) covTP=rTP*(sdT*sdP) simP=NULL برای (متر در 1:12) { خارج =mvrnorm(500، mu = c(mT[m]، mP[m])، سیگما = ماتریس (c(sdT[m]*sdT[m]،covTP[m]،covTP[m]،sdP[m]*sdP[m]، ncol = 2)، تجربی = TRUE) simP[m]= mean(exp(out[,2])-1) } در این مورد من دو سری زمانی تصادفی ایجاد می‌کنم که با هم مرتبط هستند که عالی است. با این حال، بارش های شبیه سازی شده ( _simP_ ) به طور متوسط ​​بیشتر از نمودار مشاهده شده ( _mP_ ) است (exp(mP)-1, type=l, lwd=2, ylim=c(0,250)); نقاط (simP، type=l، lwd=2، lty=2) من می‌توانم از **rlnorm** یا **rlnorm.rplus** استفاده کنم تا بارندگی‌ها تبدیل به log-تغییر شوند، اما بعد از آن با دما مشکل دارم. که به طور معمول توزیع می شوند. سوال من این است: چگونه می توانم نمونه گیری تصادفی برای متغیرهایی که دارای ویژگی های کمی خاص هستند (توزیع log-normal و نرمال) ایجاد کنم؟ با تشکر
R: نمونه‌گیری تصادفی برای توزیع‌های نرمال و لگ نرمال چند متغیره
95118
* متوجه شدم که درخت‌های تصمیم روش‌های ناپارامتریک هستند. * استدلال من این خواهد بود که از آنجایی که هر مشاهده ای که به یک گره پایانی اختصاص داده می شود (به عنوان یک مقدار پیش بینی شده) به میانگین متغیر وابسته در آن گره پایانه اختصاص داده می شود، انتظار دارید توزیع شرطی (یعنی برای هر گره) تقریباً باشد. عادی * من دو نمودار را برای درخت تصمیم خود ضمیمه کرده ام (در مجموعه آزمایشی 63 درصد تأیید می شود، بنابراین به نوعی ضعیف است)، باقیمانده ها در مقابل برازش و باقیمانده ها در برابر واقعی - اساساً، سؤال من: آیا یک درخت رگرسیون قوی شبیه یک درخت نیست. گام تابع از انواع؟ ![Resdiduals vs. real](http://i.stack.imgur.com/YOF5c.jpg) ![Resdiduals vs predicted](http://i.stack.imgur.com/KYEXe.jpg)
نمودار باقیمانده برای درخت رگرسیون: چگونه باید باشد؟
57814
قبل از شروع می خواهم بگویم که من سابقه ریاضی ندارم، بنابراین لطفاً به روشی ساده پاسخ دهید. من در حال آزمایش 2 مجموعه داده های بازار سهام هستم (بورس بورس شانگهای (شاخص ترکیبی SSE) و بورس اوراق بهادار هنگ کنگ (HANG SENG INDEX)). من می‌خواهم همبستگی بین دو مجموعه داده را آزمایش کنم (به ساختارهای لید/لگ اهمیتی نمی‌دهم). من برخی از پست‌های این وب‌سایت را خواندم و با توجه به آنچه فهمیدم، ابتدا باید داده‌هایم را «سفید» کنم تا بتوانم همبستگی را آزمایش کنم. سوالات من به شرح زیر است؛ 1. آیا باید اطلاعاتم را سفید کنم؟ اگر چنین است، چگونه این کار را انجام دهم؟ آیا این کار در اکسل امکان پذیر است یا به نرم افزار خاصی نیاز دارم (کدام نرم افزار می تواند این کار را برای من انجام دهد؟) 2. وقتی داده های من سفید شد، آیا می توانم فقط از روش همبستگی پیرسون برای آزمایش همبستگی استفاده کنم؟
سفید کردن داده ها و آزمایش همبستگی
48720
من در مدل سازی ترکیبی تازه کار هستم و گیج هستم که آیا استفاده از یک اثر تصادفی در تحلیلی که انجام می دهم مناسب است یا خیر. هر توصیه ای قدردانی خواهد شد. مطالعه من در حال آزمایش است که چگونه یک شاخص تازه توسعه یافته فراوانی پستانداران می تواند ارزش یک شاخص ثابت اما کار فشرده تر را پیش بینی کند. من این شاخص‌ها را در چندین تکه جنگلی با چندین قطعه در هر تکه جنگل اندازه‌گیری کرده‌ام. چون من مستقیماً به تأثیر تکه‌های جنگلی علاقه‌مند نیستم، و از آنجا که نمونه‌های نمونه من در داخل تکه‌های جنگلی تودرتو هستند، از پچ جنگل به عنوان یک اثر تصادفی استفاده کرده‌ام. با این حال، من چند سوال در این مورد دارم: اول، می دانم که اثرات تصادفی به شما امکان می دهد نتایج خود را در تمام سطوح ممکن عامل تصادفی تعمیم دهید، نه فقط سطوحی که نمونه برداری کردید. اما به نظر من برای انجام این نوع استنباط سطوح شما باید به صورت تصادفی نمونه برداری شوند؟ تکه‌های جنگلی من به‌طور تصادفی نمونه‌برداری نشده‌اند، بنابراین آیا می‌توانم همچنان از آنها به عنوان یک افکت تصادفی استفاده کنم؟ دوم، من خواندم که می‌توانید با انجام آزمایش نسبت درستنمایی برای مقایسه مدل‌های با و بدون اثر، آزمایش کنید که آیا لازم است اثر تصادفی داشته باشید. من این کار را انجام داده‌ام، و نشان می‌دهد که مدل اثر تصادفی داده‌ها را توضیح نمی‌دهد و همچنین یک مدل فقط اثرات ثابت را توضیح می‌دهد. مشکل من با این این است که قطعات من هنوز در داخل تکه های جنگلی تودرتو هستند و بنابراین احتمالاً مستقل نیستند. بنابراین، آیا می‌توانم از این رویکرد LRT برای توجیه حذف اثر تصادفی استفاده کنم، یا هنوز باید آن را برای توضیح تودرتو در نظر بگیرم؟ و اگر در نهایت اثر تصادفی را حذف کنم، آیا راهی برای تأیید اینکه قطعه‌های درون تکه‌های جنگل می‌توانند مستقل در نظر گرفته شوند وجود دارد؟ با تشکر از کمک شما! جی
چه زمانی یک افکت تصادفی در یک مدل لحاظ شود
72143
من یک متغیر تصادفی X دارم. set.seed(1) X <- rnorm(10,0,30) من می خواهم سه متغیر دیگر (y1, y2, y3) ایجاد کنم که دارای R^2 از پیش تعیین شده .50 هستند، ` 0.36` و `.26`. به عنوان مثال: `cor(x,cbind(y1,y2,y3))^2=0.5,0.36,0.26` و همچنین ضرایب یک مدل خطی که در آن y1 y2 و y3 در بازگشت X رگرسیون می شوند: `0.4، 0.25 و 0.1 `، به عنوان مثال: `lm(X~y1+y2+y3) -> 0.4*y1 + 0.25*y2 + 0.15*y3` آیا این کار با شروع از X امکان پذیر است؟
متغیرهایی با Rsquare و ضرایب ثابت تولید کنید
73818
من فقط می خواهم مطمئن شوم که چیزی در ذهنم روشن است. وقتی اندازه اثر را برای یک آزمون t نمونه های زوجی پس از به دست آوردن یک نتیجه قابل توجه محاسبه می کنم، به سادگی میانگین تفاوت ها را تقسیم بر انحراف استاندارد تفاوت ها می گیرم تا اندازه اثر d به دست آید. آیا باید d را بگیرم و آن را بر جذر 1-r تقسیم کنم، جایی که r همبستگی بین جفت‌ها است و r از جفت‌های نمونه تخمین زده می‌شود؟ من گیج شده ام زیرا تقسیم بر جذر 1-r ظاهراً به من اندازه اثر عملیاتی می دهد و من واقعاً مطمئن نیستم که آیا اندازه اثر عملیاتی همان چیزی است که باید در تجزیه و تحلیل های خود گزارش کنم. به عنوان مثال، در این گزارش که روی آن کار می کنم، باید بدانم که آیا اندازه افکت 2 SD وجود دارد یا خیر. بنابراین وقتی اندازه اثر خود را محاسبه می کنم، آیا باید بر جذر 1-r تقسیم کنم؟ فکر نمی‌کنم، فکر می‌کنم باید اندازه اثر واقعی شناسایی‌شده را گزارش کنم و نه اثر عملیاتی، اما من دوست دارم نظر دومی داشته باشم. با تشکر
گزارش اثر عملیاتی در آزمون t زوجی
95119
من دو مجموعه از ویژگی‌ها دارم که خروجی‌های یکسانی را پیش‌بینی می‌کنند. اما به جای اینکه همه چیز را به یکباره آموزش دهم، دوست دارم آنها را جداگانه آموزش دهم و تصمیمات را با هم ترکیب کنم. در طبقه‌بندی SVM، می‌توانیم مقادیر احتمال را برای کلاس‌هایی که می‌توان برای آموزش SVM دیگر استفاده کرد، در نظر گرفت. اما در SVR چگونه می توانیم این کار را انجام دهیم؟ هر ایده ای؟ ممنون :)
سطح تصمیم ترکیب خروجی های SVR
72497
من در حال طراحی یک آزمایش بسیار ساده هستم که به این صورت است. به شرکت‌کنندگان مجموعه‌ای از محرک‌ها نشان داده می‌شود و پس از مشاهده هر کدام، به چند سؤال پاسخ می‌دهند که در آنجا درباره محرک قضاوت می‌کنند - همه موارد لیکرت. دو نوع محرک وجود دارد. احتمالاً واضح است، اما فرضیه این است که بین پاسخ‌های محرک A در مقابل B تفاوت وجود خواهد داشت. 30 یا بیشتر محرک وجود خواهد داشت، با تعداد مساوی محرک A و B. همه شرکت‌کنندگان همه محرک‌ها را خواهند دید (در درون سوژه‌ها). من نمی‌دانم که آیا متعادل کردن ترتیب دریافت آیتم‌ها، در مقابل نشان دادن دنباله تصادفی یکسانی از محرک‌ها (که تنظیم آن آسان‌تر است) سودی خواهد داشت. اگر روش بهتری وجود دارد که باید در نظر بگیرم، مایلم در مورد آن بشنوم. من همچنین به طرح‌های مسدود کردن نگاه کردم، اما این به قدری ساده است که فکر نمی‌کنم در اینجا کاربرد داشته باشند. من قصد دارم با آزمون t یا Mann-Whitney-Wilcoxon تجزیه و تحلیل کنم.
طراحی آزمایشی ساده - آیا باید تعادل ایجاد کنم؟
34641
برای برخی تحقیقاتی که انجام می‌دهم، با مشکل زیر مواجه شده‌ام، که باید بارها آن را حل کنم: داده‌های من متشکل از دنباله‌ای از مشاهدات $\\{O_1,O_2,\ldots,O_n\\}$ است که هر کدام به طور معمول متفاوت است. خطای توزیع شده طول توالی ها متغیر است و از 5 تا 44 مشاهده متغیر است. **من به یک سیستم رتبه‌بندی نیاز دارم که بیان کند یک دنباله مشاهدات چقدر در حال _کاهش است. > \cdots > O_n )$ یا $\prod_{i=1}^{n-1}P(O_i > O_{i+1})$ از طریق مونت کارلو بنابراین اولین راه ساده لوحانه من برای مقابله با این مشکل این است که این دو امتیاز را امتحان کنم. این رویکرد مشکلاتی دارد. در داده‌های من، مشاهدات ممکن است با یک کمیت در حال کاهش مطابقت داشته باشند یا از یک قانون قدرت پیروی کنند. در این موارد مجانبی همگرا، برای n$ بزرگ این امتیازات می تواند بسیار پایین باشد. علاوه بر این، یک دنباله کوتاه با نوارهای خطای گسترده می تواند به راحتی امتیاز بالاتری کسب کند. بنابراین یک سیستم رتبه بندی خوب باید توالی های کوتاه و مبهم را مجازات کند و توالی های طولانی و مجانبی همگرا را ببخشد. با فکر کردن به مورد مبهم، می توان نشان داد که اگر همه مشاهدات i.i.d باشند، بدون توجه به توزیع: * $\displaystyle P(O_1 > O_2 > \cdots > O_n) = \frac{1}{n!}$ و * $\displaystyle\prod_{i=1}^{n-1}P(O_i > O_{i+1}) = \frac{1}{2^{n-1}}$ از این مشاهدات، من الهام گرفتم تا رتبه‌بندی‌های زیر را بدست بیاورم: * $P(O_1 > \cdots > O_n ) \times {n!}$ * $ \displaystyle\prod_{i=1}^{n-1}P(O_i > O_{i+1}) \times 2^{n-1}$ نمی‌توانم چیزی در مورد ویژگی های آماری این رتبه بندی ها، زیرا آنها اختراع خود من هستند و نمی توانم مقاله ای در مورد این مشکل پیدا کنم. همچنین، من هنوز چیزی را اجرا نکرده ام، زیرا اخیراً با این مشکل مواجه شدم. من این سوال را با پیشرفت هایم به روز می کنم. ورودی و انتقاد پذیرفته می شود! پیشاپیش از همه متشکرم
رتبه بندی متغیرهای توزیع شده تصادفی بر اساس کاهش
109357
من از مثال زیر در کتابچه راهنمای R استفاده می کنم: # (2) از lmmlasso در مجموعه داده های شبیه سازی شده کوچک استفاده کنید.seed(54) N ​​<- 20 # تعداد گروه ها p <- 6 # تعداد متغیرهای کمکی (شامل رهگیری) q <- 2 # تعداد متغیرهای کمکی اثر تصادفی ni <- rep(6,N) # مشاهدات در هر گروه ntot <- مجموع (ni) # تعداد کل مشاهدات grp <- ضریب (rep(1:N، هر=ni)) # گروه بندی متغیر بتا <- c(1,2,4,3,0,0,0) # ضرایب اثرات ثابت x <- cbind(1 ,ماتریس(rnorm(ntot*p),nrow=ntot)) # ماتریس طراحی bi1 <- rep(rnorm(N,0,3),each=ni) # Psi=diag(3,2) bi2 <- rep(rnorm(N,0,2),each=ni) bi <- rbind(bi1,bi2) z <- x[,1:2,drop=FALSE] y <- عددی (ntot) برای (k در 1:ntot) y[k] <- x[k،]%*%بتا + t(z[k,])%*%bi[,grp[k]] + rnorm(1) # ساختار اثرات تصادفی صحیح fit2 <- lmmlasso(x=x,y=y,z=z,grp=grp, lambda=10,pdMat=pdDiag) summary(fit2) وقتی می‌خواهم مقدار p را بیشتر از ntot افزایش دهم، با خطای پارامترهای کوواریانس اضافی (بعد از اینکه لامبدا را به میزان قابل توجهی افزایش دادم). مطمئن نیستم اینجا چیزی را از دست داده ام یا نه. هر کمکی بسیار قدردانی خواهد شد. کد من به شرح زیر است: # lmmlasso استفاده شده در مجموعه داده های شبیه سازی شده.seed(54) need(lmmlasso) N <- 30 # تعداد گروه p <- 500 # تعداد متغیرهای کمکی (شامل مقطع) q <- 1 # تعداد متغیرهای اثر تصادفی ni <- rep(6,N) # مشاهدات در هر گروه ntot <- مجموع(ni) # تعداد کل مشاهدات grp <- factor(rep(1:N، هر=ni)) # گروه بندی متغیر بتا <- c(1,2,4,3,3,rep(0,496)) # ضرایب واقعی با اثرات ثابت x <- cbind( 1، ماتریس (rnorm(ntot*(p))،nrow=ntot)) # ماتریس طراحی X z <- x[,1,drop=FALSE]#Z ماتریس طراحی زیرمجموعه ای از ماتریس طراحی X bi1 <- (rep(rnorm(N,0,sqrt(0.56))، هر=ni)) bi = rbind(bi1) y است <- عددی (ntot) برای (k در 1:ntot) y[k] <- x[k،]%*%بتا + t(z[k,])%*%bi[,grp[k]] + rnorm(1,0,sqrt(0.25)) # ساختار اثرات تصادفی صحیح fit2 <- lmmlasso(x=x,y=y,z =z,grp=grp,lambda=1200,pdMat=pdDiag) خلاصه (fit2)
lmmlasso برای p>n کار نمی کند
99642
فرض کنید من یک متغیر تصادفی طبقه بندی شده $X$ روی یک فضای برچسب مجزا دارم $L$ = {Sky, Road, Tree, Unknown}. به عبارت دیگر هر $X_i \در L$. اکنون پارامترهای هر $X_i$ را ذخیره می‌کنم که احتمالات فردی هستند یعنی P(X_i = آسمان)، P(X_i = جاده)، ...$. حالا بگویید من چند تا از این X_1، X_2،...، X_m$ دارم. من می خواهم یک متغیر تصادفی جدید $X_A$ دریافت کنم که نشان دهنده میانگین $X_1, X_2,...,X_m$ است. بنابراین در حال حاضر من پارامترهای $X_A$ را با متوسط ​​کردن پارامترهای $X_1، X_2،...، X_m$ محاسبه می‌کنم. **سوال من این است که اگر روش فوق صحیح است؟** * * * جزئیات بیشتر: از آنجایی که من پارامترهای هر $X_i$: P(X_i = Sky)، P(X_i = Road) را به عنوان یک ذخیره می کنم. بردار $P_i$ با اندازه $|L|$. من از معادله زیر برای محاسبه میانگین استفاده می‌کنم: $P_A = (\sum_{i=1}^{m} P_i )/m$ و سپس به صورت $P_A = P_A / (\sum_{l=1}^{ عادی می‌شود. |L|} P_A[l] )$ و اگر احتمالات Log را در هر $P_i= [\log P(X_i= Sky), \log P(X_i= ذخیره کنم Road)، ..]$ سپس من این کار را انجام می دهم: $P_A = \log \sum_{i=1}^{m} \exp (P_i) - \log(m)$ و عادی سازی به صورت $P_A = P_A - \log \sum_{l=1}^{|L|} \exp(P_A[l])$ که $\log \sum \exp$ همانطور که در اینجا توضیح داده شده است. **یک سوال جانبی** این است که آیا روش کارآمدتری برای محاسبه این در هنگام ذخیره log-احتمالات (معادله 2) وجود دارد؟ یک کاربرد مبتنی بر این میانگین‌گیری می‌تواند به شرح زیر باشد: مثلاً وکسل‌های سه‌بعدی با اندازه‌ای خاص که در آن هر وکسل یک متغیر تصادفی $X_i$ را ذخیره می‌کند که نشان‌دهنده برچسب Sky، Road، Tree، Unknown است. اکنون می‌خواهید به نمایش درشت‌تر با وکسل‌های بزرگ‌تر (اکتره) بروید، بنابراین باید میانگین X_A$ تمام وکسل‌های کوچک‌تر داخل وکسل جدید را محاسبه کنید.
میانگین چند متغیر تصادفی طبقه بندی شده
17870
> **تکراری احتمالی:** > تفاوت بین احتمال و آمار چیست؟ امروز تازه از یک سمینار دانشجویی در بخش خود برگشتم. و من شنیدم که برای توزیع پارتو، تخمین پارامتر به نوعی دشوار است. صدها تخمین از پارامتر وجود دارد و تفاوت های زیادی با هم دارند، یعنی راهی برای تخمین آن وجود ندارد. بنابراین، من فقط می دانم که آمار چیست؟ آمار نمی تواند چنین پارامتری را تخمین بزند؟ آمار متکی است به چه چیزی تخمین زده می شود؟ خواص احتمالی این توزیع نیست؟ آمار فقط به یک مجموعه داده انبوه متکی است و چگونه می تواند آماری برای تخمین پارامتر مورد نظر بدست آورد؟ ما از میانگین برای تخمین انتظار استفاده می کنیم فقط به دلیل قضیه حد مرکزی که کاملاً احتمال است. پس آمار چیست؟
رابطه آمار و احتمال
34648
می‌خواهم بدانم آیا هنگام اجرای آزمایش‌های جایگشت ناپارامتریک، محدودیتی در اندازه گروه‌ها وجود دارد؟ پرونده من متعلق به حوزه تصویربرداری پزشکی است. من یک تصویر بیمار را با یک گروه از تصاویر کنترل مقایسه می کنم. برای هر تصویر (از جمله تصویر بیمار)، حداکثر آمار T را محاسبه می کنم. این معیار «سطح اول» من است. در طراحی سطح دوم خود از متریک سطح اول خود برای مقایسه بیمار با توزیع متریک سطح اول در گروه کنترل استفاده می کنم. من یک نمره T کسب می کنم. سپس برچسب‌های (بیمار، کنترل) تصاویرم را تغییر می‌دهم و دوباره یک T-score برای آن جایگشت به دست می‌آورم. من همه جایگشت ها را در جایی اجرا می کنم که یک تصویر در گروه بیمار و بقیه تصاویر (30) در گروه کنترل داشته باشم. اگر 1 بیمار و 30 کنترل داشته باشم، 31 جایگشت با پیکربندی 1 بیمار و 30 کنترل به دست می‌آید. پس از ساختن توزیع جایگشت با این روش، متوجه می‌شوم که امتیاز پیکربندی اولیه من (پیکربندی که دارم آزمایش می‌کنم) از آستانه 0.05 به‌دست‌آمده از توزیع جایگشت فراتر نمی‌رود. این مورد انتظار است، زیرا من جایگشت کافی برای داشتن مقدار p-value کم ندارم. با این حال، (و این یک مشکل بزرگ است)، وقتی همه جایگشت های ممکن ($2^{31}$) را اجرا کردم و برچسب بیمار یا کنترل را به هر موضوع اختصاص دادم، متوجه شدم که آمار پیکربندی اولیه من از آستانه 0.05 فراتر می رود. اما آیا می توانم این کار را انجام دهم؟ آیا می توانم همه جایگشت های ممکن را زمانی که طرح اصلی من 1 در مقابل بسیاری است اجرا کنم؟ آیا چیزی وجود دارد که من از دست بدهم؟ یا روش من معقول به نظر می رسد؟
محدودیت در اندازه گروه با آزمون های جایگشت ناپارامتریک
29697
من داده های زیر را برای 200 مورد/موضوع دارم: * زمان مرگ در یک دوره 15 ساله، t$. یک داده با ارزش 180 ماه به این معنی است که آزمودنی در طول دوره 15 ساله نمرده است. * فراوانی سه نوع خاص رویداد مرتبط با هر موضوع $a_{i}$، $b_{i}$ و $c_{i}$، جدا از آمار واضح بقا و منحنی های KM، چگونه می توانم ارتباط را آزمایش کنم بین $t$ و هر یک از $a_{i}$، $b_{i}$ و $c_{i}$. من فرض می کنم که نمایه $t$ برای هر یک از $a_{i}$، $b_{i}$ و $c_{i}$ متمایز خواهد بود. یکی از راه هایی که من برای آزمایش این فرضیه فکر می کردم این بود که به سادگی همبستگی پیرسون را بین $t$ و هر یک از $a_{i}$، $b_{i}$ و $c_{i}$ انجام دهم. سپس می‌توانم این را با یک نمودار پراکنده $t$ _vs_ هر کدام از $a_{i}$، $b_{i}$ و $c_{i}$ تجسم کنم. آیا پیشنهادی در مورد تجزیه و تحلیل پیچیده تر از جمله تغییرات تجزیه و تحلیل KM دارید؟ نمونه کد با R قدردانی شد.
آزمایش بقا در برابر فراوانی برخی رویدادها
109355
من از بسته dlnm برای ساخت یک مدل خطی تاخیر توزیع محدود استفاده می کنم. من قصد دارم برازش مدل را بر اساس سطوح تاخیر مختلف آزمایش کنم تا ارزیابی کنم که کدام تاخیر مناسب است. نیازی به ذکر نیست که برای برقراری یک تماس خوب از دانش دامنه استفاده خواهم کرد. من از این دو منبع موجود برای انجام این تمرین نسبتاً پیچیده استفاده می کنم: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3191524/ http://cran.r-project.org/web/packages /dlnm/vignettes/dlnmOverview.pdf من برای اولین بار یک ماتریس ایجاد کردم تا اثرات غیرخطی هر دو پیش بینی کننده من را با استفاده از این شامل شود: `ImpressionsA.x<-onebasis(locanatmodelset$ImpressionsA.x، fun=poly، grade=2)` `ImpressionsA.y<-onebasis(locanatmodelset$ImpressionsA.y، fun=poly، grade=2)` از آنجایی که رابطه غیر خطی من به درجه دوم تمایل دارد، من از چند جمله ای درجه 2 استفاده می کنم. اکنون باید با فراخوانی «crossbasis»، تأخیرهای هر متغیر را فاکتور کنم. اینجاست که من گیج شدم. تابع مطابق اسناد بسته به این شکل است: `cb <- crossbasis(chicagoNMMAPS$temp,lag=30,argvar=list(thr,thr.value=c(10,20)), arglag=list( knots=c(1,4,12)))` تردیدهای من این است: 1) در `lag=30` 30 واحد از همان متغیر پاسخ من است یا در واحدهای متغیر پیش بینی من خواهد بود؟ در مورد من، تاخیر من در روز مشخص شده است. من می خواهم 5 روز را به عنوان تاخیر قبل از نصب مدل مشخص کنم. چگونه باید استدلال را پاس کنم؟ 2) از آنجایی که من قبلاً ماتریس پایه خود را برای متغیرهای پیش بینی با استفاده از onebasis ایجاد کرده ام، چگونه باید آرگومان های argvar و arglag را پاس کنم؟ 3) همچنین می‌خواستم مقادیر تاخیری متغیرهای پیش‌بینی‌کننده خود (ImpressionsA.x و ImpressionsA.y) را در واحدهای اصلی خود استخراج کنم. خود ماتریس مفید نیست. همه چیز را با هم به مقادیر منفی در مقیاس دیگری تبدیل می کند.
مشخص کردن تاخیر در dlnm هنگام ارسال آرگومان ها به crossbasis.
67873
**TLDR**: چگونه می توانم استنتاج بین تفاوت های گروهی را در یک رشد احتمالاً لجستیک با زمان در حضور نقاط پرت، زمان و فرکانس اندازه گیری نابرابر، اندازه گیری های محدود و اثرات تصادفی احتمالی در سطح فردی و هر مطالعه انجام دهم؟ من سعی می کنم مجموعه داده ای را تجزیه و تحلیل کنم که در آن اندازه گیری برای افراد در مقاطع زمانی مختلف انجام شده است. اندازه گیری ها در زمان 0 کم شروع می شوند و با گذشت زمان از یک الگوی رشد لجستیک پیروی می کنند (بسیار تقریباً). من سعی می کنم مشخص کنم که آیا بین دو گروه از افراد تفاوت وجود دارد یا خیر. تجزیه و تحلیل توسط عوامل زیر پیچیده می شود: * اثر زمان غیرخطی است، بنابراین یا یک رگرسیون لجستیک غیر خطی (از نظر بیولوژیکی قابل قبول است، اما به طور خاص مناسب نیست) یا یک رگرسیون ناپارامتریک مناسب به نظر می رسد * رگرسیون های پرت عظیم وجود دارد. ، بنابراین رگرسیون با استفاده از مجموع مجذور باقیمانده به نظر خارج از جدول است. رگرسیون کمی مناسب به نظر می رسد. * اثرات تصادفی ممکن است برای هر فرد و در هر سطح مطالعه مناسب باشد. مدل های جلوه های ترکیبی مناسب به نظر می رسد. * زمان اندازه گیری، تعداد اندازه گیری های موجود و پایان نظارت بین افراد متفاوت است. تکنیک های تجزیه و تحلیل بقا مناسب به نظر می رسد. احتمالاً وزنه هایی معادل 1 / تعداد مشاهدات برای فرد اعمال شود. * اندازه‌گیری‌ها در زیر صفر محدود می‌شوند و در حالی که هیچ مرز آشکاری در بالا وجود ندارد، اندازه‌گیری‌های خودسرانه بالا از نظر بیولوژیکی غیرمحتمل به نظر می‌رسند. با این حال، تعداد کمی از افراد دارای اندازه گیری های صفر هستند (تا حدی به دلیل دقت اندازه گیری دستگاه). * چند مدلی که تاکنون امتحان کرده‌ام، معمولاً با یک خطای غیرمفید مربوط به روش عددی مطابقت نداشتند. این من را به این باور می رساند که به یک روش منطقی قوی برای مقابله با این مجموعه داده تا حدودی زشت نیاز دارم. * در نهایت، من می خواهم استنتاج به شکل گروه 1 رشد سریع تری نسبت به گروه 2 دارد یا گروه 1 دارای سطح مجانبی بالاتر از گروه 2 است را تولید کنم. آنچه تاکنون امتحان کرده‌ام (همه در R) - می‌دانستم که بیشتر موارد زیر برای مجموعه داده مناسب نیستند، اما می‌خواستم ببینم کدام مدل‌ها می‌توانند بدون خطاهای عددی برازش شوند: * رگرسیون ناپارامتریک با استفاده از crs در بسته crs Nicely یک منحنی تقریباً نزدیک به رشد لجستیک در بیشتر دوره زمانی با رفتارهای عجیب در پایان دوره نظارت (جایی که مشاهدات کمتری وجود دارد) ایجاد می کند. استفاده از افراد به عنوان اثرات ثابت، برخی موارد پرت را آشکار می کند. استفاده از متغیر علاقه به عنوان اثرات ثابت تفاوت هایی را نشان می دهد. با این حال، مطمئن نیستم که آیا راهی برای ارزیابی تناسب و استنتاج بر روی مدلی با این مجموعه وجود دارد یا خیر. * رگرسیون غیر خطی اثرات مختلط با استفاده از nlme در بسته nlme و SSlogis. به تدریج ساخت مدل با update() به خوبی کار می کند. پیچیده شدن بیش از حد با اثرات ثابت یا اثرات تصادفی منجر به شکست همگرایی می شود. از آنجایی که هیچ دلیلی وجود ندارد که باور کنیم باقیمانده ها به طور معمول توزیع می شوند، به نظر می رسد ایده بدی باشد که این موضوع را بیشتر دنبال کنیم. ویرایش: اخیراً متوجه شده ام که امکان تعیین باقیمانده های همبسته خودکار در nlme وجود دارد. با این حال، در حال حاضر به نظر می‌رسد که حتی نمی‌توانم وزنه‌های ثابتی را به کار ببرم. مشاوره در مورد نحو صحیح خوش آمدید. * رگرسیون غیرخطی اثرات مختلط با استفاده از nlmer در بسته LME4 و احتمال سفارشی برای مدل رشد لجستیک. نسبتاً خوب کار می کند، اما خطاهای استاندارد در جلوه های ثابت، احتمالاً به دلیل نقاط پرت است. من همچنین کمی شک دارم که برخی از مدل ها بدون خطا مطابقت ندارند، زیرا گاهی اوقات جلوه های تصادفی کوچکی دریافت می کنم (حدود 10^10 کوچکتر از مدل های کمی ساده تر). از آنجایی که هیچ دلیلی وجود ندارد که باور کنیم باقیمانده ها به طور معمول توزیع می شوند، به نظر می رسد ایده بدی باشد که این موضوع را بیشتر دنبال کنیم. * رگرسیون چندک غیر خطی با استفاده از nlrq در بسته quantreg و SSlogis. به طور قابل اعتماد و سریع متناسب است، اما خطوط صدک متقاطع هستند. این بدان معناست که ناحیه ای که 90 درصد داده ها را شامل می شود به طور کامل در منطقه ای حاوی 95 درصد داده ها قرار نمی گیرد. * رگرسیون چندک ناپارامتریک با استفاده از روش LMS با بسته VGAM. حتی مدل‌های بی‌اهمیت با استفاده از این مجموعه داده با خطاهای مبهم شکست خوردند. من معتقدم که تعداد صفرها در مجموعه داده و / یا محدوده بزرگ داده ها در حالی که نزدیک شدن به صفر نیز ممکن است مشکل باشد. * برای تکمیل این لیست، احتمالاً باید به پکیج lqmm برای مدل های ترکیبی Quantile خطی نیز اشاره کنم که هنوز از آن استفاده نکرده ام. در حالی که تا آنجایی که من می دانم بسته نمی تواند از مدل های غیر خطی استفاده کند، تبدیل متغیر زمان ممکن است چیزی تقریباً نزدیک ایجاد کند. اگر این یا هر روش دیگری ممکن است برای تولید استنتاج نسبتاً قوی در این سناریو مورد استفاده قرار گیرد، از بازخورد من سپاسگزارم. شاید رگرسیون اصلاً مورد نیاز نباشد و روش دیگری و احتمالاً ساده‌تر کافی باشد. خوشحال می شوم در صورت نیاز یک مجموعه داده نمونه ارائه کنم، اما فکر کنید این سوال ممکن است فراتر از مجموعه داده فعلی نیز جالب باشد.
استنتاج بین تفاوت های گروهی (با مولفه زمانی غیر خطی، نقاط پرت و اثرات مختلط)
114978
من مشتریانی دارم که سالی یک بار پیشنهادی را رزرو می کنند. می‌خواهم تعیین کنم که آیا «اثر وفاداری» وجود دارد یا خیر - یعنی مشتری از امسال احتمالاً سال آینده را دوباره رزرو می‌کند. می توانم ببینم که پس از رزرو امسال، مشتری به احتمال زیاد حدود یک سال بعد یا ژانویه آینده رزرو خواهد کرد. علاوه بر این، به طور تصادفی یک مشتری دلخواه با من رزرو می کند (با اوج تقاضا در ژانویه یا اواسط سال). آیا می‌توانید روشی برای تقسیم و تعیین کمیت این اثرات از تاریخ‌های رزروی که می‌دانم برای مشتریانم پیشنهاد کنید؟ (بنابراین می دانم: مشتری1:[تاریخ1، تاریخ2، ...]، مشتری2:[تاریخ3، ...]، ...) می خواهم تقاضای تصادفی عمومی را از پاداش وفاداری جدا کنم. هر ایده ای؟
اثر مدل وفاداری مشتریان بازگشتی
115088
آیا هنگام انجام چندین تحلیل رگرسیون چندگانه در مقایسه با انجام رگرسیون چند متغیره تفاوتی در ضرایب بتا وجود دارد؟
رگرسیون چند متغیره یا رگرسیون چند متغیره
91919
اگر داده‌های من غیرعادی توزیع شده‌اند و من یک ANOVA 2x2 انجام می‌دهم، برای اصلاح این مشکل چه کاری می‌توانم انجام دهم تا بتوانم اثر اصلی و خروجی تعامل را به طور مناسب گزارش کنم؟ تنها یک یافته قابل توجه است (یکی از اثرات اصلی). من خوانده‌ام که بوت استرپ را نمی‌توان برای یک ANOVA تک متغیره در SPSS اعمال کرد... من خودم این را در SPSS امتحان کردم و نتوانستم هیچ خروجی بوت استرپ را به دست بیاورم. **اطلاعات بیشتر:** من از یک ANOVA تک متغیره 2×2 (سن [6 سال، 7 سال] × طبقه بندی آموزشی [گروه A، گروه B]) برای بررسی این فرضیه استفاده کردم که عملکرد آزمون (درصد موارد صحیح) افزایش می یابد. با سن برای کودکان در گروه B، اما در بین سن دانش آموزان گروه A تفاوت معنی داری نداشت. من درصدها را به مقادیر آرکسین تبدیل کردم تا با فرض وابستگی پیوسته مواجه شوم. متغیر نمونه من کوچک است، بنابراین اندازه نمونه برای هر سلول ایجاد شده توسط 2 x 2 به شرح زیر است: گروه A 6 ساله = 10، گروه A 7 ساله = 13، گروه B 6 ساله = 20، و گروه B 7 ساله = 14. من می دانم که نمرات به طور غیر عادی در گروه A و گروه B توزیع می شود، زیرا اکثر دانش آموزان نمرات بالایی در آزمون کسب می کنند. (و من تست های نرمال بودن را انجام دادم و به نمودارهای Q-Q نگاه کردم). گروه A که همچنین گروه کوچکتر از 2 است، واریانس بیشتری دارد. اما آیا باید تست های نرمال بودن را برای هر 4 گروه ایجاد شده توسط 2 x 2 اجرا کنم؟ من یک اثر اصلی برای طبقه بندی آموزشی پیدا کردم اما برای سن نه، و هیچ تعاملی وجود نداشت. من فقط می خواهم بدانم که آیا یافته های من با توجه به غیر عادی بودن معتبر هستند یا اینکه باید راهی برای رفع این مشکل در SPSS (به عنوان مثال، بوت استرپ) پیدا کنم.
استفاده از ANOVA تک متغیره با داده های توزیع شده غیر عادی
34642
من می خواهم تفاوت بین تجزیه و تحلیل داده های تابلویی و تحلیل مدل ترکیبی را بدانم. تا آنجا که من می دانم، هم مدل های پانل و هم مدل های ترکیبی از جلوه های ثابت و تصادفی استفاده می کنند. اگر چنین است، چرا آنها نام های مختلفی دارند؟ یا مترادف هستند؟ من پست زیر را خواندم که تعریف افکت ثابت، تصادفی و ترکیبی را توضیح می‌دهد، اما دقیقاً به سوال من پاسخ نمی‌دهد: تفاوت بین مدل‌های افکت ثابت، افکت تصادفی و جلوه ترکیبی چیست؟ اگر کسی بتواند مرا به یک مرجع مختصر (حدود 200 صفحه) در مورد تجزیه و تحلیل مدل ترکیبی ارجاع دهد سپاسگزار خواهم بود. عمدتاً توضیح نظری مدلسازی مخلوط.
تفاوت بین داده پانل و مدل ترکیبی
67871
من خیلی با تجزیه و تحلیل بقا آشنا نیستم، بنابراین این ممکن است یک سوال اساسی باشد. من به زمان بین دو رویداد [$A$ - دارو] و [$B$ - زمان اولین درمان] علاقه مند هستم که دومی می تواند برابر با $A$ باشد. به طور خاص، من می خواهم بدانم که آیا این در طول سال ها متفاوت است یا خیر. آزمودنی های مورد نظر حداقل 5 سال داده دارند و من داده های 2001-2011 را دارم. به همین دلیل، آزمون های آمار خلاصه انجام نمی شود (آزمودنی ها در سال 2011 ظرفیت تا 11 سال را دارند در حالی که افراد در سال 2006 فقط ظرفیت 6 سال را دارند). بنابراین، در عوض، من مقدار $A-B$ را در نظر می‌گیرم که اگر $B$ در یک سال از ورود موضوع به مجموعه داده سقوط کند، سانسور شود و سپس یک منحنی KM بسازم. با این حال، مدت زمان تحت پوشش هر گروه همچنان متفاوت خواهد بود، مانند: متفاوت هستند، اگرچه تنها مقایسه سال 2011 در مقابل هر گروه دیگر از طریق آزمون لوگرانک معنادار است. از طرف دیگر، من می‌توانم تفاوت‌های زمانی بیشتر از 5 سال را کوتاه کنم (با در نظر گرفتن آنها سانسور شده): همانطور که انتظار می رود = 5 است، با این حال، آزمون لوگرانک تفاوت های مهم تری را نشان می دهد (2010 در مقابل هر گروه دیگری). من مطمئن نیستم که کدام یک از این تنظیمات مناسب تر است.
منحنی کاپلان مایر با طول های زمانی مختلف در گروه ها
115084
به منظور یافتن زمان بهینه برای شروع درمان پس از جراحی (بیماران انکولوژیک) من یک منحنی ROC با مرگ تعریف شده به عنوان رویداد ایجاد کردم. AUC قابل توجه نبود. با این حال، تصمیم گرفتم از زمانی که بهترین ویژگی و حساسیت را در رگرسیون کاکس ارائه می‌دهد به عنوان یک متغیر باینری استفاده کنم. پارامتر کاکس معنی دار بود. به این فکر می کردم که آیا با استفاده از داده های منحنی ROC با p-value > 0.05 و با استفاده از داده های به دست آمده از تجزیه و تحلیل اکتشافی برای تجزیه و تحلیل همان داده های آموزشی، مرتکب گناه می شوم. من بسیار علاقه مند به شنیدن نظرات و پیشنهادات هستم (شاید برای اعتبارسنجی؟) پیشاپیش ممنون لیران
استفاده از داده ها از منحنی ROC
78103
من سعی کرده ام به دنبال مرجعی در مورد نظریه پشت استفاده از آزمون F برای آزمایش برابری ضرایب رگرسیون باشم. نزدیکترین چیزی که من پیدا کردم این است که برای محدودیت های خطی کلی است: http://www.mattblackwell.org/files/teaching/ftests.pdf. به نظر می رسد گوگل من را شکست داده است. آیا می‌توانید برای یک مرجع نظری در مورد استفاده از آزمون‌های F برای آزمایش برابری ضرایب رگرسیون به من در جهت درست اشاره کنید؟ پیشاپیش بسیار متشکرم
آزمون F برای برابری ضرایب رگرسیون
34390
من به روش های مختلف اندازه گیری پراکندگی بردارها عمدتاً برای استفاده در تحلیل خوشه ای علاقه مند هستم. من می توانم به سه روش فکر کنم: 1. بردار میانگین (مرکز) را پیدا کنید، سپس واریانس فواصل همه بردارها را تا این بردار میانگین محاسبه کنید. ممکن است مجموعه بردارها همه متفاوت باشند، اما فاصله یکسانی با بردار میانگین داشته باشند. در این مورد به نظر نمی رسد که این یک اقدام عالی باشد، اگرچه این وضعیت ممکن است در عمل بعید باشد. به نظر می رسد که معیار کیفیت خوشه Davies-Bouldin از این برای اندازه گیری کیفیت درون خوشه ای استفاده می کند. 2. از میانگین فاصله زوجی بین بردارها استفاده کنید. من دیده ام که از این برای اندازه گیری کیفیت درون و بین خوشه ای استفاده می شود. به نظر می رسد که این به نوعی ماتریس فاصله نیاز دارد. اگر کسی سعی کند بردارها را اضافه یا حذف کند و ماتریس فاصله را در حال به روز رسانی کند، ممکن است پیاده سازی دشوار باشد. 3. واریانس جمعیت را برای هر جزء از بردارها محاسبه کنید. این منجر به یک بردار حاوی واریانس جمعیت برای هر جزء می شود. سپس مجموع مولفه های این بردار را بگیرید. سوالات من: * نظری در مورد این اقدامات دارید؟ * اقدامات خوب دیگری وجود دارد؟ * همچنین آیا کسی یک الگوریتم یک پاس برای محاسبه #1 و #2 می داند. من می دانم که چگونه شماره 3 را با یک الگوریتم یک پاس ثابت عددی محاسبه کنم. اساساً هر بار که بردار را از یک خوشه اضافه یا حذف می کنم، می خواهم معیار کیفیت به طور خودکار به روز شود. من در این مورد برای اقدامات خاصی شانس داشتم.
چگونه می توان واریانس بردارها را برای خوشه بندی محاسبه کرد؟
77513
من باید یک نمونه با اندازه معین از یک جمعیت ایجاد کنم. با این حال، جمعیت پویا است، یعنی به صورت جریانی از اقلام می آید و هر آیتم بر اساس موقعیتش در این جریان، «مهر زمانی» دارد. من از قبل نمی‌دانم طول این جریان چقدر است، اما نیاز دارم که در نمونه انتخابی، مهرهای زمانی به صورت یک دنباله تصادفی به نظر برسند. عملاً من نمی توانم کل جمعیت را ذخیره کنم و سپس نمونه ای را انتخاب کنم. من باید به نحوی یک نمونه را در طول فرآیند حفظ کنم و در نهایت نمونه مورد نیاز با اندازه اصلی را بدست بیاورم. در اینجا ایده ای وجود داشت: فرض کنید باید m مورد را نمونه برداری کنید، و مجموع اندازه جمعیت ناشناخته n است. \- عدد k را انتخاب کنید که بزرگتر از m و کوچکتر از n باشد و برای آن می توانید جمعیت هایی با اندازه k \- را برای اولین k عناصر در جریان مدیریت کنید، یک نمونه تصادفی از m عناصر از آن ایجاد کنید و آن را به عنوان نگه دارید. نمونه کاری \- برای k بعدی (که دومین تکه از k آیتم است)، حدود m/2 عنصر را از آن نمونه برداری کنید، و m/2 را به طور تصادفی از نمونه کار خود جایگزین کنید، با آیتم های نمونه جدید. اکنون شما یک نمونه m از 2k مورد \- و غیره دارید... برای تکه یکم k مورد از جریان، عناصر m/i را به طور تصادفی انتخاب کنید و آنها را به طور تصادفی در نمونه کاری خود جایگزین کنید... \- این کار را انجام دهید تا پخش جریانی تمام شود. نمونه کار شما نتیجه است آیا این الگوریتم نمونه خوبی ایجاد می کند؟ آیا راه های بهتری برای انجام آن وجود دارد؟
نمونه گیری از جمعیت پویا
109354
مقایسه رتبه‌بندی‌ها برای دستور پخت‌ها که من اغلب فکر می‌کردم، مثلاً 50 بررسی با میانگین 4.5 بهتر از 31 بررسی با میانگین 4.8 است؟ چرخش به دور این ملاحظات از نظر آماری دارای اهمیت بوده است. از زمانی که تصمیم گرفتم اینجا بپرسم، امروز تمام عدم قطعیت از بین می رود. بدون شک پاسخ روشنی برای این سوال وجود دارد که آیا می توان به سادگی از روی تعداد رتبه ها (و میانگین آنها یا حتی توزیع آنها) تعیین کرد که کدام دستور غذا بهتر است؟ و اگر چنین است، فرمول سریعی برای ارزیابی ذهنی این موضوع چیست؟ **ویرایش**: برای شفافیت بیشتر، تعریف «بهتر»: 1. همه بررسی ها در بازه واقعی $[0,5]$ رتبه بندی می شوند. یک دستور غذا به‌عنوان «نمره» واقعی، مستقل و «عینی» (در همان بازه زمانی) مدل‌سازی می‌شود که توسط رتبه‌بندی بازبینان دستور، با خطا تخمین زده می‌شود. هنگامی که ادعا می کنیم یک دستور غذا در مقایسه با دیگری بهتر است، به این امتیاز ضروری اشاره می کنیم. ما سعی می‌کنیم از طریق مدل‌هایی از آن، مانند میانگین رتبه‌بندی‌ها و تعداد رتبه‌بندی آن دستور، به این امتیاز ضروری دسترسی پیدا کنیم. 2. اگر رتبه‌بندی‌ها (دو دستور غذای $F$ و $G$ برای یک آیتم منوی نسخه‌بندی‌شده یکسان، $M$) در یک سایت هستند و تعداد نظرات یکسانی دارند، درج هرگونه اطلاعات اضافی را ممنوع کنید. دستور $F$ بهتر از $G$ است اگر $avg(ratings(F)) > avg(ratings(G))$. 3. اگر رتبه‌بندی‌ها در یک سایت هستند، و تعداد بررسی‌های متفاوتی دارند، **نمی‌دانم.** 4. اگر رتبه‌بندی‌ها در سایت‌های مختلف است، پس از درج هرگونه اطلاعات اضافی، مطابق با 2 و 3. 5. اگر اطلاعات اضافی در دسترس است، مانند، برای مثال (و خوانندگان ممکن است انتخاب کنند که تا آنجایی که می خواهند در این جهت عمیق تر کاوش کنند): * قابلیت اطمینان سایت $A$ در مقابل سایت $B$. این به صلاحدید خواننده واگذار می‌شود، و یک مقدار احتمال تصور می‌شود که «اعتماد به اعتماد به اعتبار» رتبه‌بندی‌های سایت $A$ را ارائه می‌کند، یعنی معیاری از وفاداری رتبه‌بندی سایت $A$ به ارزش واقعی درجه بندی دستور غذا. بنابراین، اگر سایت $A$ رتبه های بسیار بالایی را به دستور غذای یک آیتم $M$ ارائه می دهد، اما به طور کلی تصور می شود که سیگنال بهتری غیر قابل اعتماد است، در حالی که سایت $B$ میانگین کمی پایین تر، با قابلیت اطمینان بسیار بیشتر، برای یک دستور غذای متفاوت ارائه می دهد. در مورد همان مورد $M$، می توان یک مورد معقول ایجاد کرد که دستور العمل سایت B بهتر از سایت $A$ است. هر معیاری از قابلیت اطمینان سایت و مکانیسم مربوط به محاسبه یک سفارش در دستور پخت باید به همین نتیجه برسد. * توزیع قابلیت اطمینان ارزیاب‌ها، یعنی معیاری از نزدیک بودن امتیاز یک ارزیاب برای هر دستور غذا، مثلاً $score(rater, recipe)$، امتیاز «هدف» اساسی دستور را مدل می‌کند. از نظر آنچه برای پاسخ به این سوال لازم است، 3 لازم و کافی است، و 5 غیر ضروری و (به تنهایی) ناکافی است، هرچند خوش آمدید.
چگونه تشخیص دهیم که کدام دستور غذا بهتر است؟
29691
من یک نظرسنجی قبل و بعد انجام دادم که شامل پنج سوال بود که پاسخ‌های آن موافق یا مخالف بود. این نظرسنجی برای ارزیابی این بود که آیا درک افراد از پیتبول پس از تعامل با آن بهبود یافته است یا خیر. اولین یا قبل از بررسی قبل از تعامل فرد با سگ بود. پس از انجام آنها، بلافاصله به پاسخ دهندگان همان نظرسنجی داده شد (پست نظرسنجی). من اکنون نتایج دو نظرسنجی را دارم و مطمئن نیستم که چگونه باید آزمایش $\chi^2$ را انجام دهم تا ببینم آیا بهبود قابل توجهی در درک سگ وجود دارد؟ به طور خاص نمی دانم که آیا باید هر سؤال را به صورت جداگانه ارزیابی کنم یا اینکه اعداد برای همه سؤالات جمع آوری شده است.
چگونه می توانم یک آزمون $\chi^2$ را روی دو نظرسنجی مختلف انجام دهم؟
79444
من به دنبال راهنمایی برای همکار هستم که با مدل‌های رگرسیون سر و کار دارد و می‌داند که متغیر کمکی پیوسته بهره X_1$ با خطا اندازه‌گیری شده است. به طور دقیق تر، ما فقط می دانیم که $X_1$ واقعی در بازه $(X_L, X_R)$ قرار دارد. اولین ایده من این بود که اثر خطای اندازه‌گیری را با برازش سه مدل از شکل \begin{align*} \text{Model 1:} \quad Y & = \beta_0 + \beta_1X_M + \beta_2 X_2 + نشان دهم/توضیح دهم. .. \\\ \text{Model 2:} \quad Y & = \beta_0 + \beta_1X_L + \beta_2 X_2 +... \\\ \text{Model 3:} \quad Y & = \beta_0 + \beta_1X_R + \beta_2 X_2 +... \\\ \end{align*} که در آن $X_M$ نقطه میانی است فاصله چه روش‌های رگرسیون دیگری در دسترس هستند که ارزش واقعی X_1 $ در (X_L, X_R)$ را در نظر بگیرند؟ به طور خاص، هنگام استفاده از مدل‌های رگرسیون خطی، مدل‌های رگرسیون لجستیک یا مدل‌های ترکیبی خطی تعمیم‌یافته. اطلاعاتی در سایت ویکی‌پدیا درباره مدل‌های خطاهای در متغیرها (http://en.wikipedia.org/wiki/Errors-in-variables_models) وجود دارد، اما مطمئن نیستم که آیا این روش‌ها می‌توانند در این مورد اعمال شوند یا خیر. مورد
رگرسیون با خطا در متغیرهای کمکی
114975
من می‌خواهم پیش‌بینی‌هایی درباره تقاضای سرانه انرژی نهایی (fe) برای گروهی از کشورها ارائه کنم. متغیرهای توضیحی تولید ناخالص داخلی سرانه (Gdp) و تراکم جمعیت (pop) هستند - همه متغیرها در لگاریتم طبیعی بیان می شوند. من از _R_ و بسته _plm_ برای تخمین استفاده می کنم. مدل من بر اساس معادله زیر است و من از تابع _pgmm_ _plm_ استفاده می‌کنم که تخمین آرلانو-باند را انجام می‌دهد: $\text{log(fe)}_{it} = \delta \, \text{log(fe) }_{i,t-1} + \beta_1 \,\text{log(gdp)}_{it} + \beta_2 \,\text{log(gdp)}_{it}^2 + \beta_3 \,\text{log(pop)}_{it} + \beta_5 \, \text{log(year)}$ اکنون می‌خواهم برای پیش بینی مقادیر آتی تقاضای نهایی انرژی با استفاده از سناریوهای تولید ناخالص داخلی سرانه و تراکم جمعیت و یک روند زمانی لگاریتمی (sic!). اگر روش را به درستی درک کنم، باید به این صورت عمل کند: $\text{fe}_{it} = exp(\delta \, \text{log(fe)}_{i,t-1} + \beta_1 \ ,\text{log(gdp)}_{it} + \beta_2 \,\text{log(gdp)}_{it}^2 + \beta_3 \,\text{log(pop)}_{it} + \beta_5 \, \text{log(year)}) + exp(s^2/2)$ (که $s^2$ میانگین مربعات خطای باقیمانده است.). من می دانم که به سادگی مقادیر سناریوی خود و تقاضای نهایی انرژی در سال قبل را وصل می کنم، اعدادی که به دست می آورم حتی به آنچه انتظار داشتم نزدیک نیستند، بلکه با چندین (ده ها) مرتبه بزرگی کاهش می یابند. برای راحتی، عبارت $exp(s^2/2)$ را کنار می گذارم، اما از آنجایی که این مثبت است، فقط مشکل من را بزرگتر می کند. من چه غلطی می کنم؟
پیش‌بینی داده‌های پانل از تخمین آرلانو-باند GMM
30838
من یک نمره ترکیبی را با تبدیل چهار مورد به z-score ایجاد کردم، سپس امتیازهای z را خلاصه کردم تا یک اندازه گیری ترکیبی ایجاد کنم. با این حال، هنگامی که من میانگین را برای مقایسه یافتن دو گروه مختلف در مجموعه داده‌های زوجی با استفاده از این امتیاز ترکیبی محاسبه کرده‌ام، میانگین امتیازها از صفر برابر است. به عنوان مثال، * برای یک مجموعه داده، M1 = 0.76 و M2 = -0.76 * برای مجموعه داده دیگر M1 = 1.34 و M2 = -1.34. آیا این یافته معمولی برای این نوع نمره ترکیبی است؟ به نظرم عجیب میاد
آیا برای میانگین های گروهی نمرات z مرکب معمولی است که میانگین هایی با مقادیر هم اندازه اما علائم مخالف داشته باشند؟
61438
ما یک سکه منصفانه پرتاب می کنیم. اگر یک هد ظاهر شد، آنگاه $X\sim N(0,1)$. اگر یک دنباله ظاهر شود، آنگاه $X=1$ با احتمال $1$. CDF بدون قید و شرط X$ را پیدا کنید و آن را رسم کنید.
تابع توزیع تجمعی را پیدا کرده و رسم کنید
72145
من در حال حاضر توابع ذکر شده در بالا را به داده های خود منطبق می کنم و می توانم مشاهده کنم که هر دو lognormal و Weibull بهتر از یک قانون قدرت تناسب دارند. در ادبیات اغلب پیشنهاد می شود که تشخیص این توابع دشوار است، اما من می توانم در داده هایم. اگرچه من کاملاً تفاوت بین آنها را درک نمی کنم. توضیحی برای فرآیند اساسی که داده های من را تولید می کند و من می توانم از این نتایج استنتاج کنم چیست؟
تفاوت پاورلاو، تابع لگ نرمال و نمایی کشیده (Weibull).
77515
در استانداردسازی داده‌ها برای طبقه‌بندی نظارت شده، می‌توان موارد زیر را انجام داد: 1) میانگین و واریانس را برای هر ویژگی از آموزش استخراج کنید، از آن برای استانداردسازی داده‌های آموزشی و آزمایشی استفاده کنید. 2) محاسبه میانگین و واریانس برای کل داده ها، آموزش و آزمایش، و استاندارد کردن هر دو با آمار یکسان. 3) داده های آموزش و آزمایش را به طور جداگانه استاندارد کنید. اینها نتایج طبقه بندی متفاوتی را در یک اعتبارسنجی متقاطع 10 برابری ایجاد می کنند. 1) و 2) تقریباً نتایج مشابهی دارند، با 2) عملکرد طبقه بندی کمی بالاتر است. 3) بهترین نتایج را با 5٪ بهبود ایجاد می کند. آیا انجام 3 مشکلی ندارد؟ کدام یک بهتر است و چرا؟ متشکرم
استاندارد کردن داده‌های آزمایش به معنای صفر و واریانس واحد به تنهایی یا از داده‌های آموزشی
78794
من از قوانین انجمن برای مشکل طبقه بندی استفاده می کنم. من سعی می کنم برچسب ها را برای قطعات کوتاه متن پیش بینی کنم. کاری که اکنون می‌خواهم انجام دهم این است که پارامترهای اطمینان و پشتیبانی را در قوانین مرتبط خود تنظیم کنم تا فقط از قوانینی استفاده کنم که بهترین عملکرد طبقه‌بندی را در یک مجموعه آزمایشی خارج از نمونه ایجاد می‌کند. من نتایج عجیبی می گیرم. به نظر می رسد بهترین اطمینان حدود 55٪ باشد (نه چندان عجیب) اما بهترین پشتیبانی 1 است. به نظر می‌رسد که این با برخی از ادبیاتی که خوانده‌ام در تضاد است که توصیه می‌کنند از پشتیبانی حدود 10 درصد اندازه مجموعه تست استفاده کنید. اندازه مجموعه تست من چند میلیون است. من چندین بار کد خود را بررسی کردم و کاملاً مطمئن هستم که درست است. معیار عملکردی که من استفاده می کنم میانگین امتیاز F1 است. آیا کسی می تواند دلیلی بیاندیشد که چرا این اتفاق می افتد؟
استفاده از قوانین مرتبط برای طبقه بندی (نتایج غیرمعمول در تنظیم پارامتر)
34644
با این سوال به من وظیفه داده شده است: 1. بررسی کنید که آیا نوع یا درمان (0 یا 1) روی نتیجه تأثیر دارد یا خیر (0 یا 1) 2. همان 1) اما با در نظر گرفتن متغیر دیگری که 0،1 یا 2 است ممکن است برای نتیجه مخدوش کننده باشد. چگونه می توانم بررسی کنم که آیا تأثیر دارد یا خیر؟ برای سوال اول فکر کنم بتونم از تست خی دو استفاده کنم، این درسته؟ و برای سوال دو، من مطمئن نیستم که چگونه مخدوش کننده را در آزمون قرار دهم.
از کدام آزمایش برای بررسی اینکه آیا یک مخدوش کننده احتمالی روی نتیجه 0/1 تأثیر می گذارد یا خیر استفاده کنیم؟
115087
اول از همه، یک سوال بسیار مشابه قبلا پرسیده شده است. اما پاسخ به این سوال توضیح نداد که مقادیر بالا/پایین تتا به چه معناست. در اینجا شکاف من در تلاش برای فهمیدن اینکه مقادیر بالا/پایین تتا به چه معناست. پس لطفا این سوال را نبندید! بیایید فرض کنیم شما دو مدل ساخته اید: یک رگرسیون دو جمله ای منفی (NB) و یک رگرسیون دو جمله ای منفی با تورم صفر (ZINB). رگرسیون NB دارای تتا 0.5 و رگرسیون ZINB دارای تتای 2 است. همانطور که من متوجه شدم، تتا بالاتر در رگرسیون ZINB نشان می دهد که واریانس بیشتری در باقیمانده ها محاسبه شده است و بنابراین توزیع دوجمله ای منفی که مدل فرض می کند شکل باریک تری دارد. آیا این درست است؟ آیا کسی می‌تواند بدون استفاده از معادلات، تعریف دقیق‌تری از مقدار تتا ارائه دهد؟ من همچنین به سرعت تصویری از درک خود را ترسیم کردم. باقیمانده ها در NB بیشتر پخش می شوند، به این معنی که تتا کوچکتر است و شکل توزیع های دو جمله ای منفی چربی بیشتری دارد. باقیمانده ها در ZINB کمتر پخش می شوند، به این معنی که تتا بزرگتر است و شکل توزیع های دو جمله ای منفی باریک تر است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Fc5ez.jpg)
تفسیر $\theta$ در رگرسیون دو جمله ای منفی
59418
**ویرایش** مقاله ای پیدا کرده ام که دقیقاً رویه مورد نیاز من را شرح می دهد. تنها تفاوت این است که مقاله داده های میانگین ماهانه را به روزانه درون یابی می کند، در حالی که میانگین ماهانه را حفظ می کند. من برای پیاده سازی رویکرد در `R` مشکل دارم. هر گونه راهنمایی قدردانی می شود. **اصلی** برای هر هفته، داده های شمارش زیر را دارم (یک مقدار در هفته): * تعداد مشاوره های پزشک * تعداد موارد آنفولانزا هدف من این است که داده های _ روزانه_ را با درون یابی به دست بیاورم (من به خطی یا کوتاه فکر کردم. اسپلاین). نکته مهم این است که من می خواهم **میانگین هفتگی** را حفظ کنم، یعنی میانگین داده های درون یابی روزانه باید با مقدار ثبت شده این هفته برابر باشد. علاوه بر این، درون یابی باید صاف باشد. یکی از مشکلاتی که ممکن است پیش بیاید این است که یک هفته خاص کمتر از 7 روز دارد (مثلاً در آغاز یا پایان یک سال). برای راهنمایی در این مورد سپاسگزار خواهم بود. خیلی ممنون در اینجا یک مجموعه داده نمونه برای سال 1995 آمده است ( **به روز شده**): structure(list(daily.ts = structure(c(9131, 9132, 9133, 9134, 9135, 9136, 9137, 9138, 9139, 9141, , 9142, 9143, 9144, 9145, 9146, 9147, 9148, 9149, 9150, 9151, 9152, 9153, 9154, 9155, 9156, 9157, 9158, 91159, 9163 9164 9165 9166 9167 9168 9169 9170 9171 9172 9173 9174 9175 9176 9177 9117 9182 9183 9184 9185 9186 9187 9188 9189 9190 9191 9192 9193 9194 9195 9196 9201, 9202, 9203, 9204, 9205, 9206, 9207, 9208, 9209, 9210, 9211, 9212, 9213, 9214, 9215, 9212, 9212, 9219, 9220 9221 9222 9223 9224 9225 9226 9227 9228 9229 9230 9231 9232 9233 9234 9238 9239 9240 9241 9242 9243 9244 9245 9246 9247 9248 9249 9250 9251 9252 9253 9255 9258 9259 9260 9261 9262 9263 9264 9265 9266 9267 9268 9269 9270 9271 9272 9272 9277 9278 9279 9280 9281 9282 9283 9284 9285 9286 9287 9288 9289 9290 9291 9291 9296, 9297, 9298, 9299, 9300, 9301, 9302, 9303, 9304, 9305, 9306, 9307, 9308, 9309, 9310, 93131,9 9315, 9316, 9317, 9318, 9319, 9320, 9321, 9322, 9323, 9324, 9325, 9326, 9327, 9328, 9329, 93339, 9334, 9335, 9336, 9337, 9338, 9339, 9340, 9341, 9342, 9343, 9344, 9345, 9346, 9347, 9348, 93549, 9353, 9354, 9355, 9356, 9357, 9358, 9359, 9360, 9361, 9362, 9363, 9364, 9365, 9366, 9367, 9367,9369 9372 9373 9374 9375 9376 9377 9378 9379 9380 9381 9382 9383 9384 9385 9386 9389 9391, 9392, 9393, 9394, 9395, 9396, 9397, 9398, 9399, 9400, 9401, 9402, 9403, 9404, 9405, 9407, 9409, 9410 9411 9412 9413 9414 9415 9416 9417 9418 9419 9420 9421 9422 9423 9424 9424 9429, 9430, 9431, 9432, 9433, 9434, 9435, 9436, 9437, 9438, 9439, 9440, 9441, 9442, 9443, 9444,944 9448, 9449, 9450, 9451, 9452, 9453, 9454, 9455, 9456, 9457, 9458, 9459, 9460, 9461, 9462, 9464,9464 9467 9468 9469 9470 9471 9472 9473 9474 9475 9476 9477 9478 9479 9480 9481 9481 9486، 9487، 9488، 9489، 9490، 9491، 9492، 9493، 9494، 9495)، کلاس = تاریخ)، wdayno = c(0L، 1L، 2L، 3L، 4L، 1، 5L، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 6 لیتر، 0 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر
درون یابی داده های آنفولانزا که میانگین هفتگی را حفظ می کند
114970
به تازگی در دوره آنلاین Andrew Ng در ML شرکت کرده ام و اگرچه روش ها را درک کرده ام، به نظر می رسد شهودی در مورد اینکه کجا آنها را از نظر مشکلات طبقه بندی به کار ببرم را از دست داده ام. مزایا و معایب هر روش چیست و در چه شرایطی باید یکی از روش های دیگر را انتخاب کنم؟ از دوره آموزشی این تصور را به دست آوردم که NN الگوریتم پیچیده تری است و بنابراین قادر به شناسایی الگوهای پیچیده تر، بدون خطی است، اما ممکن است آموزش آن از نظر محاسباتی گران باشد. مزیت SVM نسبت به LR چیست؟
رگرسیون لجستیک، SVM یا NN؟
111255
من باید نشان دهم که BMI بزرگسالان نه به سن و نه جنسیت اختصاص دارد. آیا باید ANCOVA را انجام دهم یا به طور تصادفی گروه های سنی را انتخاب کنم و ANOVA دو طرفه انجام دهم؟
ANOVA دو طرفه یا ANCOVA
59413
من یک بردار ویژگی به اندازه nx3 دارم که در آن n = no. از نقاط داده و نه. از ویژگی ها = 3. بنابراین میانگین یک بردار 3x1 است. داده ها در واقع مجموعه ای از پیکسل های یک بخش تصویر هستند (نه یک تصویر کامل). و 3 ویژگی فعلاً R,G,B هستند(، اگرچه ممکن است هر چیزی باشد). هدف من: تعریف معیاری که میزان یکنواخت یا همگن بودن داده های من (یا بخش تصویر) را ارزیابی کند. من می‌خواهم این امتیاز را برای همه بردارهای ویژگی (یا همه بخش‌های این تصویر) محاسبه کنم. سپس، من یک آستانه را اعمال می کنم تا تصمیم بگیرم که آیا هر یک از بردارهای ویژگی من یکنواخت است یا غیر یکنواخت. P.S: من نمی خواهم هیچ نوع خوشه بندی را بین نقاط داده خود انجام دهم. نگرانی من: وقتی واریانس (دستور var` در matlab) را پیدا می کنم، یک بردار 3x1، هر عنصر برای هر ویژگی دریافت می کنم. در عوض می‌خواهم یک مقدار اسکالر پیدا کنم، مانند فاصله اقلیدسی متوسط ​​همه نقاط داده از نقطه میانگین. چیزی شبیه این: `(1/n) * sum(sqrt( (x1^2 - m1^2) + (x2^2 - m2^2) + (x3^2 - m3^2))` `[x1 x2 x3]` این نمونه است. «[m1 m2 m3]» میانگین بردار است. (1) آیا این روش درستی برای اندازه گیری یکنواختی است؟ (2) نام آن چیست؟ آیا باید با خطای میانگین مربعات (MSE) تماس بگیرم؟ (3) آیا راه بهتری وجود دارد که بتوانم یکنواختی نقاط داده خود را ارزیابی کنم؟ ممنون :)
آیا می خواهید ارزیابی کنید که داده های من چقدر یکنواخت هستند؟
660
من در حال جمع‌آوری داده‌های متنی پیرامون انتشارات مطبوعاتی، پست‌های وبلاگ، بررسی‌ها، و غیره از محصولات و عملکرد شرکت‌های خاص هستم. به طور خاص، من به دنبال این هستم که ببینم آیا همبستگی بین _انواع_ و/یا _منابع_ خاصی از چنین محتوای «متنی» با ارزش‌گذاری بازار نمادهای سهام شرکت‌ها وجود دارد یا خیر. چنین همبستگی های ظاهری می تواند توسط ذهن انسان نسبتاً سریع پیدا شود - اما این مقیاس پذیر نیست. چگونه می توانم چنین تحلیلی از منابع متفاوت را خودکار کنم؟
خودکارسازی همبستگی آماری بین «متن» و «داده»
88536
هنگام انجام اجزای اصلی به طور مستقیم واضح است که نویز بیشتر به سمت اجزای آخر جمع می شود. توضیح رسمی در مورد چگونگی و چرایی این اتفاق چیست؟
اجزای اصلی و نویز
29690
من می‌خواهم پیش‌بینی‌هایی را برای یک مدل مختلط (لجستیک از طریق glmer) بر روی یک مجموعه داده جدید با استفاده از اثرات ثابت بسازم و جلوه‌های تصادفی را روی 0 نگه دارم. اما در تنظیم ماتریس مدل مشکل دارم تا بتوانم آنها را محاسبه کنم. از آنجایی که کلاس mer یک روش پیش بینی ندارد، و از آنجایی که می خواهم اثرات تصادفی را برای پیش بینی های مجموعه داده های جدید حذف کنم، فکر می کنم باید یک ماتریس مدل برای اثرات ثابت همان ساختار مورد استفاده در نسخه اصلی بسازم. مدل، اما با استفاده از داده های جدید. سپس در ضرایب اثر ثابت در مدل ضرب کنید. بخش اثر ثابت فرمول مدل من شامل عوامل و شرایط تعامل بین اثرات ثابت عددی است، بنابراین کمی پیچیده‌تر از استخراج متغیرهای ثابت از ماتریس است. به عنوان مثال من باید اطمینان حاصل کنم که بسط کنتراست فاکتور مانند نسخه اصلی است، اصطلاحات تعامل به درستی فهرست شده اند، و غیره. بنابراین سوال من این است: رویکرد کلی ساده تر برای ساخت یک ماتریس مدل جدید که ساختار ماتریس مدل اصلی را تقلید می کند چیست؟ در ایجاد مدل استفاده شده است؟ من model.matrix (my.model، data=newdata) را امتحان کردم، اما به نظر می رسد که ماتریس مدل اصلی را برمی گرداند، نه ماتریس مبتنی بر داده های جدید. کد نمونه: library(lme4) cake2 <- head(cake) # cake2 قاب داده جدید برای پیش بینی های آینده است # دستور یک ضریب اثر ثابت است، دما اثر عددی ثابت است، تکرار اثر تصادفی است m <- lmer(زاویه ~ temp + دستور + (1 | تکرار)، داده = کیک) خلاصه (m) nrow(cake2) # اما قاب داده جدید دارای 6 ردیف است nrow(cake) # قاب داده اصلی دارای 270 ردیف است # تلاش برای ایجاد ماتریس مدل جدید با استفاده از قاب داده های مختلف mod.mat.cake2 <- model.matrix(m, data=cake2) nrow(mod.mat.cake2) # 270 ردیف من روش‌های دیگری مانند استخراج عبارات از فرمول و ساختن فرمول جدید از آن را امتحان کردم، اما به نظر می‌رسید بیش از حد پیچیده و شکننده بود. عوامل رسیدگی و شرایط تعامل چگونه می توانم mod.mat.cake2 را به عنوان یک ماتریس مدل جلوه ثابت بر اساس فرمول m، اما با استفاده از مقادیر cake2 دریافت کنم؟ یا آیا راه آسان تری برای دریافت پیش بینی های اثر ثابت از یک مدل lmer وجود دارد؟ از همه کمک ها قدردانی می شود. متشکرم.
دریافت پیش‌بینی‌های تنها با اثر ثابت از مدل ترکیبی بر روی داده‌های جدید در R
34646
من در حال تلاش برای تعیین یک پارامتر صاف کننده برای فیلتر هودریک-پرسکات هستم. من دیده ام که مقالاتی در مورد این موضوع وجود دارد، اما آنها برای درک من بسیار پیشرفته هستند. اگر مجموعه داده ای دارم، $X$، چه مراحلی باید انجام دهم؟ اطلاعات من ساعتی است. با استفاده از MATLAB من مقادیر پارامتر هموارسازی داده های ماهانه و غیره را می دانم، اما چگونه می توانم آن را برای داده های ساعتی محاسبه کنم؟
تعیین پارامتر هموارسازی در فیلتر HP برای داده های ساعتی
115089
من سؤالاتی دارم که می خواهم در مورد آنها بحث کنم، من در حال انجام برخی تحلیل ها برای حساسیت هستم. من اهل رشته آمار نیستم. من با داده های RNA-Seq کار می کنم. موضوع این است که من ژن هایی پیدا کرده ام که با 4 روش مختلف در تکرارهای مختلف بیان متفاوتی دارند. که یکی از روش ها الگوریتم توسعه یافته خودمان است. اکنون می‌خواهم آزمایش مثبت را با داده‌هایم انجام دهم. بنابراین من تمام ژن های داده شده با هر روش را می گیرم و اتحاد را از آن خارج می کنم. بنابراین این جهان همه ژن‌ها را از همه روش‌ها به من می‌دهد. اکنون می‌خواهم در مدل‌های مختلف جفت تکراری ببینم که برای هر یک از روش‌ها چند نکته مثبت وجود دارد. من می خواهم یک منحنی ایجاد کنم که در آن بتوانم در هر تکرار نشان دهم که برای هر روش چه تعداد مثبت وجود دارد و به طور متناوب تعداد مثبت کاذب در تکرارهای مختلف از هر روش وجود دارد. کسی میتونه بگه توضیحم درسته یا نه برای موارد مثبت می‌توانم به سادگی درصد اشتراک‌گذاری شده در هر تکرار را برای روش‌های مختلف در نظر بگیرم که از مجموعه اتحادیه همه متدها محاسبه می‌شود و سپس منحنی را رسم می‌کنم و سپس برای مثبت‌های کاذب چه باید بکنم؟ آیا باید درصد باقی مانده حقی باشد که در اتحادیه مشترک نیست؟ من می خواهم در اینجا کمی درک داشته باشم.
تست حساسیت برای الگوریتم های مختلف
73813
من سعی کرده ام از بسته vars در r برای داده های سری زمانی چند متغیره خود استفاده کنم. من مشکلاتی دارم آیا باید قبل از استفاده از بسته vars کاری برای داده های چند متغیره خود انجام دهم؟ کسی میتونه با مثال کمکم کنه متشکرم. سام
داده های چند متغیره را به مدل VAR در بسته vars تبدیل کنید
23169
من می خواهم یک تعامل را تفسیر کنم. معمولاً یک تحلیل رگرسیون شرطی با 1 SD زیر/بالاتر از میانگین انجام می‌شود (به آیکن و وست، 1993، ص 18 مراجعه کنید). نتیجه من یک کنتراست با $p=.068$ است اگر 1.5 SD بگیرم $p=.044$. با 2 SD $p=.033$. به نظر می رسد که کنتراست ها با افزایش مقادیر تعداد SD ها قوی تر می شوند. بنابراین، آیا گزارش کنتراست برای 2 SD در یک مقاله مناسب است؟ چرا باید 1 SD باشد؟
رگرسیون شرطی برای 2 SD زیر / بالاتر از میانگین
109655
در حال حاضر روی مجموعه‌های کلان داده کار می‌کنم، می‌خواهم یک مدل SARIMAX را برای پیش‌بینی مقادیر آینده در آن قرار دهم. سوالات من اینجاست: **Q1.** به عنوان اطلاعات، آیا کسی می داند که R چگونه برازش یک مدل ARIMA/SARIMA را محاسبه می کند؟ themodel = arima(auch[0:700,1], order = c(0,1,1), seasonal = list (order = c(0,1,1), period = 144), xreg=tmp[0: 700]) به عنوان مثال، این فرمول با میانگین زمان محاسبه به خوبی کار می کند - حدود 30 ثانیه در هر دقیقه - در حالی که : **Q2.** اگر بخواهم مجموعه دیگری از پارامترها را برازش کنم داده های مشابه: themodel = arima(auch[0:700,1]، سفارش = c(2،1،5)، فصلی = لیست (ترتیب = c(1،2،8)، دوره = 144)، xreg=tmp [0:700]) خطای زیر را دریافت می کنم که واقعاً متوجه نمی شوم: خطا در makeARIMA(trarma[[1L]]، trarma[[2L]]، دلتا، kappa، SSinit): حداکثر تأخیر پشتیبانی شده 350 است، فرضاً «144» است. مگر اینکه D = 2 باعث شود که تمایز دوم از حداکثر تاخیر پشتیبانی شده فراتر رود؟ اگر چنین است، آیا به هر حال می توان این محدودیت را برطرف کرد؟ **ویرایش:** از معادله عمومی SARIMA که $\phi(B)\Phi(B^s)W_t = \theta(B)\Theta(B^s)Z_t$ است، می توانیم حدس بزنیم که حداکثر تاخیر برای مدل داده شده SARIMA(p,d,q)(P,D,Q)144 حداکثر است((p+Px144), (q+Q*144)) (اگر اشتباه می کنم چون متخصص نیستم تصحیح کنید). مشکل من این است که باید دستورات «(p،d،q،P،D،Q)» بزرگتر از 1 را امتحان کنم تا مدل بهتری را پیدا کنم تا با مجموعه داده‌های من مطابقت داشته باشد. آیا ایده ای دارید که چگونه می توانم بر این محدودیت 350 غلبه کنم؟ **Q3.** در حالی که همان خط فرمان فوق را انجام می دهید، به عنوان مثال: themodel = arima(auch[0:700,1], order = c(2,1,5), seasonal = list (order = c(1 ,2,2), period = 144), xreg=tmp[0:700]) همچنین گاهی اوقات خطای زیر را دریافت می کنم: خطا در makeARIMA(trarma[[1L]], trarma[[2L]]، دلتا، کاپا، SSinit): نمی‌توان بلوک حافظه را با اندازه 7.0 گیگابیت تخصیص داد، اما «memory.size()» و «memory.limit()» را امتحان کردم که به من : memory.size() [ 1] 109.27 memory.limit() [1] 1535 فکر می کنم متوجه شدم که فضای حافظه ممکن است به هم پیوسته نباشد که باعث حافظه می شود مشکل تخصیص، اما برای من عجیب به نظر می رسد زیرا قبلاً با 'arima' و مجموعه داده های بزرگتر بدون مشکل کار می کردم.
خطاها هنگام نصب مدل SARIMAX در R
73811
متن یادگیری آماری من ادعا می‌کند که برای بهترین انتخاب زیر مجموعه، مدل‌های کل 2^p باید از طریق رگرسیون برازش شوند اگر برای متغیرهای p، k مدل‌ها را در هر k، k = 1،...، p برازیم. من این را از نظر ریاضی به صورت 2^p = p انتخاب کنید 1 + ... + p را انتخاب کنید، تفسیر می کنم. چرا مدل های 2^p؟
بهترین انتخاب زیر مجموعه
72494
من یک TA برای یک دوره آمار برای مهندسین هستم و امروز یک سوال واقعا خوب از یک دانشجو داشتم که پاسخ آن را نمی دانم. ما با مشکل کلمه زیر مواجه بودیم: 4 کامپیوتر به طور مداوم برای بورس اوراق بهادار تورنتو کار می کنند. احتمال خرابی کامپیوتر در یک روز 5٪ تخمین زده می شود. با فرض اینکه کامپیوترهای مختلف به طور مستقل از کار بیفتند، احتمال خرابی هر 4 کامپیوتر چقدر است. در یک روز؟ از آنجایی که نمونه‌برداری در یک بازه زمانی انجام می‌شود، روشی که من می‌توانم به این موضوع بپردازم استفاده از توزیع پواسون است، با میانگین تعداد رایانه‌هایی که در یک روز $\equiv\lambda = 0.05$ از کار می‌افتند. اگر چهار کامپیوتر از کار بیفتند، $k = 4$. بنابراین، \begin{align*} P(k; \lambda) &= \frac{\lambda^{k} e^{-\lambda}}{k!} \\\ P(k=4; \lambda = 0.05) &= \frac{0.05^{4} e^{-0.05}}{4!} \\\ & = 2.477\ برابر 10^{-7} \end{align*} با این حال، دانش‌آموزی پرسید که چرا درست نیست که احتمال خرابی هر کامپیوتر را چند برابر کنیم. از آنجایی که احتمال خرابی هر کامپیوتر در هر روز $\equiv p = 0.05 $، و از آنجایی که هر خرابی کامپیوتر مستقل است، او استدلال کرد که \begin{align*} P(k=4) &= p^4 \\\ & = 0.05^4 = 6.25\times 10^{-6} \end{align*} کدام یک از این رویکردها با توجه به سؤال اشتباه است؟ و چرا؟ کدام فرض اساسی از رویکرد اشتباه توسط این سؤال نقض می شود؟ از کمک شما متشکرم. به روز رسانی: اولین باری که این پست ارسال شد، برخی از اطلاعات را در مشکل حذف کردم و عذرخواهی می کنم.
توزیع پواسون در برابر احتمالات ضرب
109652
من سعی می کنم یک EFA با حجم نمونه 150 پاسخ دهنده انجام دهم. من همچنین می خواهم از اعتبار سنجی متقاطع استفاده کنم اما استادم می گوید که نمونه برای این کار به اندازه کافی بزرگ نیست. آیا این درست است؟
ردیابی متقاطع در تحلیل عاملی
34649
مزایای گرفتن دکترا در مقابل کارشناسی ارشد در آمار زیستی (در کنار استاد بودن) چیست؟ آیا کار اول برای هر دو سطح یکسان خواهد بود؟ آیا واقعاً دکترا در آمار زیستی تفاوتی در صنعت ایجاد می کند؟
دکتری در مقابل MS در آمار زیستی
23167
من یک پیش‌بینی‌کننده ایجاد کرده‌ام که یک نقطه داده، $x$ در مورد احتمال تعلق آن به یک کلاس خاص، $C$، امتیاز می‌دهد. هر چه امتیاز بالاتر باشد احتمال تعلق نقطه داده به کلاس بیشتر است. پیش بینی کننده تعدادی دیگر از نقاط داده (به عنوان داده های آموزشی) را به عنوان ورودی می گیرد. به طور معمول ممکن است بگویم 10000 عضو غیر کلاسی و 50 عضو کلاس. من با گرفتن 50 عضو کلاس خود و پنهان کردن عضویت کلاس هر یک از اعضا به نوبه خود عملکرد را ارزیابی می کنم. سپس برای عضو کلاس مخفی خود امتیازی به دست می‌آورم و با نمرات 99950 عضو غیر کلاسی دیگر مقایسه می‌کنم تا رتبه‌ای ایجاد کنم. بنابراین با تکرار این کار 50 رتبه مختلف به دست می‌آورم، یکی برای هر 50 عضو کلاس از زمانی که از پیش‌بینی‌کننده پنهان شده بودند. سپس این را برای یک نوع کلاس دیگر تکرار می‌کنم، که ممکن است به عنوان مثال داشته باشد. 30 عضو، و لیستی از رتبه های این 30 ژن را دریافت کنید. من این را برای تعدادی از کلاس های مختلف، با اندازه های مختلف تکرار می کنم. بنابراین من در نهایت با یک بردار رتبه برای هر کلاس می‌روم. آیا راه آسانی برای رسم این اطلاعات به عنوان منحنی فراخوانی دقیق وجود دارد؟ تا کنون این کار را با صاف کردن بردار رتبه انجام داده‌ام تا فهرستی از همه رتبه‌ها در همه کلاس‌ها به دست آید، و سپس برای i در 1:10000 محاسبه دقیق به صورت $\frac{(\text{تعداد رتبه‌ها} <i) }{(i*10000)}$ و به‌عنوان $\frac{(\text{تعداد رتبه‌ها} <i)}{ \text{total فراخوانی کنید تعداد رتبه ها}}$. با این حال، این یک منحنی فراخوان دقیق کمی عجیب و غریب را ایجاد می کند، که تقریباً شبیه دو منحنی زنگ نامتقارن است، که اینطور نیست که منحنی های پیش از فراخوانی به نظر برسند! ممکن است بتوانید ببینید، مگر اینکه پیوند مسدود شود: http://picturepush.com/public/7618805 امیدوارم تا حدودی منطقی باشد. من از هر راهنمایی که کسی می تواند در این مورد به من بدهد قدردانی می کنم. اگر لازم است چیزی را روشن کنم، به من اطلاع دهید، می ترسم کمی در این مورد هول کرده باشم.
یادآوری دقیق نمودار با استفاده از بردار رتبه ها
23163
تا آنجا که من می دانم شما می توانید یک تست F ($F = s_1^2/s_2^2$) یا یک تست مجذور کای ($\chi^2 = (n-1)(s_1^2/s_2^) انجام دهید 2$) برای آزمایش اگر انحراف استاندارد دو نمونه مستقل متفاوت است اما آیا این برای نمونه های وابسته نیز صادق است؟
مقایسه انحراف معیار دو نمونه وابسته
78791
به نظر می رسد برای مدیریت با اندازه گیری های سفارشی، محققان **معمولا** با همبستگی Polychoric سروکار دارند. (مثلاً برای ساختن ماتریس قبل از انجام تحلیل عاملی.) چرا؟ ضریب همبستگی رتبه کندال تاو و ضریب همبستگی رتبه اسپیرمن نیز برای داده های مرتب شده مناسب هستند. از هر نقطه مزاحم و مخالف برای این ضرایب همبستگی استقبال می شود.
ضرایب همبستگی برای داده های مرتب شده: Tau کندال در مقابل Polychoric در مقابل اسپیرمن rho
61435
قضیه همرسلی-کلیفورد به ما می گوید که توزیع یک RBM باید گیبس باشد زیرا میدان تصادفی مارکوف است، اما چگونه ثابت کنیم که تابع انرژی آن باید به شکل زیر باشد: $$E = -\sum_{i,j} w_ {ij} \, v_i \, h_j -\sum_i \alpha_i \, v_i - \sum_i \beta_i \, h_i$$
عملکرد انرژی RBM
72495
من به مجموعه داده‌ای نگاه می‌کنم که دارای اندازه‌گیری‌های قبل از پس آزمون در مورد سطوح استرس، افسردگی و اضطراب کاربران است که از ارزیابی سلامت آنلاین یک وب‌سایت جمع‌آوری شده است. به طور متوسط، شرکت‌کنندگان سالم‌تر در ابتدا با گذشت زمان بدتر شدند، و شرکت‌کنندگان بیمارتر در ابتدا بسیار بهتر شدند، و گروه متوسط ​​کمی بهتر شدند. قطعاً یک اثر رگرسیون در اینجا وجود دارد، بلکه یک اثر درمانی نیز وجود دارد. از آنجایی که این داده‌ها بر اساس استفاده از وب‌سایت جمع‌آوری شده‌اند، واقعاً یک گروه کنترل وجود ندارد (همه اندازه‌گیری‌های «پست» از افرادی است که از برنامه آنلاین استفاده کرده‌اند). احتمالاً راه‌هایی وجود دارد که بتوانم با استفاده از افرادی که می‌توانم حدس بزنم از درمان استفاده چندانی نکرده‌اند، گروه کنترل را ترکیب کنم (بر اساس تعداد ورود یا فاصله زمانی بین ورود)، اما آیا راهی برای جدا کردن آنها وجود دارد. اثر درمان از اثر رگرسیون زمانی که شما نمی توانید از تکنیک های تفاوت در تفاوت با استفاده از گروه کنترل یا هر چیز دیگری استفاده کنید؟ با تشکر
چگونه می توان اثر رگرسیون را از اثر درمان بدون گروه کنترل جدا کرد؟
61436
آیا هدف مدل‌های متغیر پنهان مدل‌سازی علیت است، جایی که علل قابل مشاهده نیستند، یعنی پنهان؟ آیا مدل سازی متغیرهای پنهان علل متغیرهای قابل مشاهده است؟ با تشکر و احترام!
آیا مدل های متغیر پنهان، علیت را مدل می کنند؟
77511
من در حال مطالعه یادگیری ماشینی (SVM) هستم و این $||w||$ را در مقابلم پیدا کردم. من دیگر آن را ندیده ام و گوگل به من اجازه جستجوی آن را نمی دهد. آیا کسی می داند $w$ چیست، $||w||$ چیست، چگونه نامیده می شود، و چرا ما به آن نیاز داریم؟ با تشکر فراوان
آیا کسی می تواند با درک ||w|| به من کمک کند
63886
برای آزمون t مستقل، اگر فرضیه من بیان کند که بین دو گروه تفاوت معناداری وجود نخواهد داشت، آیا این یک آزمون یک یا دو دنباله است؟
آزمون های تی مستقل یک یا دو دم؟
24673
من در صفحه ویکی‌پدیا برای این توزیع کار زیادی انجام می‌دهم: http://en.wikipedia.org/wiki/Dirichlet_compound_multinomial_distribution نام واقعی صفحه «توزیع چند متغیره Pólya» است. با این حال، در متنی که می‌نویسم، من در واقع از «توزیع چندجمله‌ای ترکیبی دیریکله» که به اختصار DCM است استفاده می‌کنم. من فقط توزیع چند جمله ای دیریکله را دیده ام. کدام یک بیشترین استفاده را دارد؟ تست جستجوی گوگل نشان می‌دهد: * 20000+ برای چند متغیری polya * 46000+ برای چند جمله‌ای مرکب دیریکله * 24000+ برای چند جمله‌ای دیریکله * 30000+ برای توزیع چند جمله‌ای دیریکله اما این واقعاً چیزی به ما نمی‌گوید. مخصوصا با توجه به مقادیر غیر شهودی دو جستجوی آخر. حس من این است که Multivariate Polya (با یا بدون لهجه) کمترین استفاده را دارد، اما این فقط یک شهود است. همچنین، اگر آن را «توزیع دیریکله-چندجمله‌ای» بنامیم، چگونه آن را مخفف کنیم، به عنوان مثال. در یک توصیف ریاضی؟ DM()، DirMult()؟ یا همینطور که هست رها شده است؟ همچنین توجه داشته باشید که مقاله «تخمین توزیع دیریکله» نوشته توماس پی. مینکا آن را صرفاً «توزیع پولیا» نامیده است. (یا بهتر است بگوییم که او آن را «توزیع چند جمله‌ای دیریکله» و «توزیع پولیا» مترادف آن معرفی می‌کند، اما سپس در ادامه بحث از اصطلاح اخیر استفاده می‌کند.) با این حال، به نظر می‌رسد که اصطلاح «توزیع پولیا» دارای بسیاری از تعاریف ممکن دیگر که به توزیع‌های کاملاً متمایز مختلف اشاره دارند، بنابراین این نام به عنوان نام متعارف خوب نیست.
بیشترین نام استفاده شده برای Dirichlet Compound Multinomial Dist (معروف به Dirichlet-Multinomial، Multivariate Polya)؟
105202
نتایج مجانبی را نمی توان با شبیه سازی کامپیوتری اثبات کرد، زیرا آنها گزاره هایی هستند که مفهوم بی نهایت را در بر می گیرند. اما ما باید بتوانیم این حس را به دست آوریم که همه چیز در واقع همان طور که نظریه به ما می گوید پیش می رود. نتیجه نظری را در نظر بگیرید $$\lim_{n\rightarrow\infty}P(|X_n|>\epsilon) = 0، \qquad \epsilon >0$$ که در آن $X_n$ تابعی از $n$ متغیرهای تصادفی است، مثلاً به طور یکسان و مستقل توزیع شده است. این می گوید که $X_n$ در احتمال به صفر همگرا می شود. حدس می‌زنم مثال کهن‌الگویی در اینجا حالتی است که $X_n$ میانگین نمونه منهای مقدار مورد انتظار مشترک i.i.d است. r.v.های نمونه، $$X_n = \frac 1n\sum_{i=1}^nY_i - E[Y_1]$$ **سوال:** **چگونه می‌توانیم به طور قانع‌کننده‌ای به کسی نشان دهیم که رابطه بالا در دنیای واقعی، با استفاده از نتایج شبیه‌سازی رایانه‌ای از نمونه‌های الزاما محدود؟** لطفاً توجه داشته باشید که من به طور خاص همگرایی را به یک _ثابت_. من در زیر رویکرد خود را به عنوان پاسخ ارائه می‌دهم و امیدوارم موارد بهتری داشته باشیم. **به روز رسانی:** چیزی در پشت سرم مرا آزار داد -و فهمیدم چه چیزی. من یک سوال قدیمی تر را کشف کردم که در آن بحث جالب در نظرات یکی از پاسخ ها مطرح شد. در آنجا، @Cardinal مثالی از برآوردگر ارائه کرد که ثابت است اما واریانس آن به طور مجانبی غیر صفر و متناهی باقی می‌ماند. بنابراین ** یک نوع سخت‌تر از سؤال من این است: چگونه با شبیه‌سازی نشان دهیم که یک آماره از نظر احتمال به یک ثابت همگرا می‌شود، در حالی که این آمار واریانس غیر صفر و متناهی را مجانبی حفظ می‌کند؟**
شبیه سازی همگرایی در احتمال به یک ثابت
67879
من منابع متناقضی را در مورد سازگاری فیشر واریانس نمونه می خوانم. $$s^2 = \frac{\sum_i^n (x_i - \bar{x})^2}{n}$$ آیا کسی می‌تواند به من توضیح دهد که چگونه ثابت کنم که $s^2$ با فیشر سازگار است یا خیر؟ صفحه بحث در ویکی پدیا نیز بی نتیجه بود.
واریانس نمونه سازگاری فیشر
91913
روش بیزی تجربی برای من مفهوم جدیدی است. این علاقه من را افزایش می دهد، زیرا دیدگاه فلسفی و روش شناختی متفاوتی از تحلیل آماری ارائه می دهد. با توجه به دانش محدودم، مطمئن نیستم که آیا این روش مفید/قدرت است یا نسبت به روش های جایگزین پایین تر است، و آیا ارزش یادگیری (و تا چه میزان) در مقایسه با یادگیری سایر موضوعات مفید در تحلیل بیزی را دارد؟ در مورد آن چگونه فکر می کنید؟ مزایا و معایب روش های بیزی تجربی چیست؟
مزایا و معایب روش های بیزی تجربی چیست؟