_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
79142
من واقعاً از چند نکته در مورد بخش اول سؤال زیر سپاسگزارم: اجازه دهید $f_n, n\in \mathbb{N}$ دنباله ای از متغیرهای تصادفی iid بیش از $(\Omega, A,P)$ باشند. یعنی $P(\\{f_1 \in A\\})=P(\\{f_2 \in A\\})= ···$ برای همه $A \in \mathbb{B}$. اگر یک $c \in \Re$ وجود دارد، نشان دهید که $P\Bigg(\Bigg\\{\lim_{n \to \infty}\frac{1}{n}\sum\limits_{i= 1}^n f_i=c\Bigg\\}\Bigg) >0,$ سپس $P(\\{|f_n|>n$ برای بی نهایت $n\\})=0.$ سپس نتیجه بگیرید که $f_1$ (و بنابراین همچنین $f_2,f_3,..$ به دلیل توزیع یکسان) قابل ادغام است.
یکپارچگی دنباله ای از متغیرهای تصادفی iid
52489
من 3 مجموعه داده دارم و می خواهم بدانم از چه آزمایشی می توانم استفاده کنم تا بفهمم آیا آن مجموعه داده ها توزیع یکسانی دارند یا خیر. ویرایش 1: اگر از آزمون‌های فرضیه برای نشان دادن تفاوتی بین میانگین و واریانس مجموعه داده‌ها استفاده کنم، آیا به این معنی است که توزیع یکسانی دارند؟ متشکرم.
چگونه می توانم بدانم که 3 مجموعه داده توزیع یکسان/متفاوت دارند؟
69406
آیا کسی می تواند توضیح دهد که چگونه یک OLS ادغام شده تنظیم می شود، زمانی که رگرسیون ها متغیرهای کل هستند که فقط با زمان متغیر هستند (یعنی برای مقطع مقطعی در هر زمان _t_ تغییر نمی کنند)؟ اگر رگرسیون تلفیقی به صورت زیر بیان شود: $$\;Y_{i,t} = \;X_t \;\beta_i + \;\epsilon_{i,t} $$ بردار پاسخ $Y$ روی هم چیده می‌شود: به عبارت دیگر ، ما سری های زمانی هر $Y_i$ را روی هم قرار می دهیم تا فقط یک بردار پاسخ از ابعاد (TN x 1) تشکیل شود. رگرسیون X باید به طور مشابه روی هم چیده شود تا بردار بعد (TN x 1) به دست آید. مسئله اینجاست که X فقط با زمان متغیر است، به این معنی که بردار پشته‌ای «rep(X, N)» خواهد بود: یعنی همان بردار X N بار تکرار می‌شود. آیا اجرای OLS تلفیقی با چنین رگرسیور پشته‌ای معتبر است؟ ممنون
OLS ادغام شده با رگرسیورهای متغیر زمان
13524
هنگام تخمین خلفی از طریق MCMC، آیا دستورالعمل‌هایی در مورد بهترین روش نمونه‌گیری بسته به ماهیت مدل وجود دارد؟ انواع مختلفی از MCMC وجود دارد - برای مثال نمونه‌گر گیبس، الگوریتم متروپلیس، و الگوریتم متروپلیس-هیستینگ. گیلکس و همکاران (1996) بحث خوبی در مورد تغییرات MCMC دارد. مورد خاص من شامل تخمین پسین با اختلاط بازده امنیتی نمونه مشاهده شده با مدل تعادل قبلی بازده امنیتی است. سری های بازگشتی اغلب ناهمگون هستند و همبستگی های مقطعی دارند و در سراسر رژیم های بازار ثابت نیستند.
روش نمونه‌گیری برای انتخاب در تخمین زنجیره مارکوف مونت کارلو
43453
من باید یک جدول داده های خام برای آزمایش علمی خود ایجاد کنم، اما مطمئن نیستم که سطح عدم قطعیت هنگام اندازه گیری روز چقدر خواهد بود. چگونه می توانم سطح عدم قطعیت را هنگام اندازه گیری یک دوره زمانی تعیین کنم؟
سطح عدم قطعیت هنگام اندازه گیری یک دوره زمانی؟
4753
من علاقه مند به یافتن چند تکنیک عملی (و به خوبی پذیرفته شده) برای یافتن عوامل اساسی یک ماتریس پراکنده هستم. به طور خاص، من یک ماتریس پراکنده بسیار بزرگ دارم که سلول‌های آن از یک توزیع تقریباً هندسی پر شده‌اند. در شکل طبیعی ماتریس مربع است. مقادیر موجود در سلول‌ها نشان‌دهنده اتفاقات مورد x مورد در مورد 1 روی مورب و در مورد 2 در زیر قطر است. در صورت لزوم، می توانم ماتریس را به آیتم های بسیار جالبی زیر مجموعه کنم تا آن را مستطیلی کنم. من معتقدم که عوامل معناداری در زیربنای این ساختار وجود دارد. با این حال، درک من این است که چون ماتریس پراکنده است، تحلیل عاملی رویکرد مناسبی نیست. چه رویکردی می توانم اتخاذ کنم که به احتمال زیاد بتوانم الگوهای قابل تفسیر را در داده ها پیدا کنم؟ دیدم که سوال دیگری وجود دارد که در مورد انواع پراکنده PCA ارجاع می‌دهد، اما فکر می‌کنم به دنبال چیزی بیشتر شبیه به یک راه‌حل عامل چرخش مورب هستم. من مایلم تا حدودی به خواندن های پیشنهادی بپردازم، اما تجربه قبلی من با تحلیل عاملی (و تکنیک های مرتبط) محدود است، و ترجیح می دهم پاسخ نسبتاً ساده ای داشته باشم (یکی با کد R حتی بهتر است).
چگونه می توان عوامل معنادار را از یک ماتریس پراکنده استخراج کرد؟
13521
من در حال حاضر در حال تجزیه و تحلیل یک مجموعه داده متشکل از زوج های مدیر- زیردست هستم. داده‌ها به صورت مقطعی جمع‌آوری شدند و مجموعه داده‌ها شامل برخی از متغیرهای یکسان جمع‌آوری‌شده از هر دو عضو زوج (مانند سن، مدت تصدی رابطه، اعتماد بین‌فردی) و همچنین برخی از متغیرهای منحصربه‌فرد برای هر عضو است. متأسفانه تعداد زیادی شرکت کننده دارم که شرکایشان نظرسنجی هایشان را پر نکرده اند. می خواستم بدانم که آیا این موارد جفت نشده می تواند در تحلیل من مفید باشد؟ به عنوان مثال، هنگام انجام یک EFA یا CFA در مقیاس، آیا می‌توانم همه مدیران (از جمله افراد جفت نشده) را شامل شود یا این روش بد است زیرا افراد جفت نشده بخشی از تحلیل‌های رگرسیون و/یا مسیر من نخواهند بود؟ من در حال مطالعه تجزیه و تحلیل داده های Dyadic توسط David A. Kenny و همکاران هستم، اما تاکنون نتوانسته ام پاسخی برای این سوال پیدا کنم.
آیا هنگام تجزیه و تحلیل داده های دوتایی، می توان از موارد جفت نشده در هر بخشی از تجزیه و تحلیل استفاده کرد؟
20722
در صورت وجود یک تعامل غیر قابل توجه بین X و M بر روی Y، آیا سرکوب کردن وقفه در نمودار که رابطه بین X و Y را نشان می دهد (که X معنی دار است) صحیح است. خط تعدیل کننده در این مورد از مبدأ عبور می کند و هر سطح از عامل (M) را در صفر نشان می دهد (یعنی مرد و زن برای جنسیت). SPSS این گزینه را تحت پراکندگی پراکنده فراهم می کند.
آیا سرکوب کردن وقفه در نمودار رگرسیون مناسب است؟
43455
همانطور که در این موضوع تعریف شده است. کسی میدونه چجوری انجامش بدم؟
استخراج راه حل کمند شکل بسته: شرایط بهینه KKT
19772
لطفاً کسی می تواند به من بگوید که چگونه می توان R نقطه شکست را در یک مدل خطی تکه ای (به عنوان یک پارامتر ثابت یا تصادفی) تخمین زد، در حالی که من همچنین نیاز به تخمین اثرات تصادفی دیگر دارم؟ من یک مثال اسباب‌بازی را در زیر آورده‌ام که با رگرسیون یک چوب هاکی / چوب شکسته با واریانس شیب تصادفی و یک واریانس تصادفی قطع y برای نقطه شکست 4 مطابقت دارد. من می‌خواهم به جای تعیین نقطه شکست آن را تخمین بزنم. این می تواند یک اثر تصادفی (ترجیحا) یا یک اثر ثابت باشد. library(lme4) str(sleepstudy) #توابع پایه bp = 4 b1 <- تابع(x, bp) ifelse(x <bp, bp - x, 0) b2 <- تابع(x, bp) ifelse(x <bp, 0، x - bp) #مدل جلوه‌های مختلط با نقطه شکست = 4 (mod <- lmer(واکنش ~ b1(روز، bp) + b2(روزها، bp) + (b1(روزها، bp) + b2(روزها، bp) | موضوع)، داده = مطالعه خواب)) #نقشه با نقطه شکست = 4 xyplot( واکنش ~ روز | موضوع، مطالعه خواب، aspect = xy، layout = c(6,3)، type = c(g، p، r)، xlab = روزهای محرومیت از خواب، ylab = میانگین زمان واکنش (ms)، panel = function(x,y) { panel.points(x,y) panel.lmline(x,y) pred <- predict(lm(y ~ b1 (x، bp) + b2(x، bp))، newdata = data.frame(x = 0:9)) panel.lines(0:9، pred، lwd=1، lty=2, col=red) } ) خروجی: مدل خطی ترکیبی متناسب با فرمول REML: واکنش ~ b1(روز، bp) + b2(روز، bp) + (b1(روز، bp) + b2(روز، bp) | موضوع) داده ها: مطالعه خواب AIC BIC logLik انحراف REMLdev 1751 1783 -865.6 1744 1731 اثرات تصادفی: نام گروه ها Variance Std.Dev. موضوع Corr (Intercept) 1709.489 41.3460 b1 (روزها، bp) 90.238 9.4994 -0.797 b2 (روزها، bp) 59.348 7.7038 0.118 -0.008 0.118 -0.008 0.008 -0.008 0.008 - 0.063 تعداد 797 bp باقیمانده 180، گروه ها: موضوع، 18 اثرات ثابت: برآورد Std. مقدار خطای t (تقاطع) 289.725 10.350 27.994 b1 (روزها، bp) -8.781 2.721 -3.227 b2 (روزها، bp) 11.710 2.184 5.362 همبستگی b1 (در اثر ثابت) b1 (روز، bp) -0.761 b2(روز، bp) -0.054 0.181 ![براساس رگرسیون چوب شکسته برای هر فرد](http://i.stack.imgur.com/HnAfg.jpg)
تخمین نقطه شکست در یک چوب شکسته / مدل خطی تکه‌ای با افکت‌های تصادفی در R [کد و خروجی شامل]
52488
من یک تابع $X$ دارم که lognormal است (0,1) و سپس تابع دیگری $\log Y = 4 + 2 \log(X) + \epsilon$ که در آن $\epsilon \sim \mathcal N(0,1) $ من می خواهم $E(Y|X)$ را به عنوان تخمینگر Rao Blackwellized تخمین بزنم. من سعی کردم مشکل را اینگونه امتحان کنم: Nsim <- 10000 x <- rlnorm(Nsim) z <- rnorm(Nsim,4+2*log(x),1) برآوردگر استاندارد مونتکارلو sum(epx(z)) خواهد بود. /Nsim من در مورد برآورد Rao Blackwellized سردرگم هستم. آیا فقط p <- 4+2 * log(x) sum(p)/Nsim خواهد بود
چگونه می توان تابع داده شده را با استفاده از رویکرد Rao Blackwellization تخمین زد؟
80178
من می خواهم یک اندازه گیری نتیجه عملکردی را با درد مرتبط کنم. با این حال، معیار پیامد عملکردی شامل درد به عنوان یکی از 21 سوال آن است. بر اساس نحوه محاسبه اندازه گیری نتیجه، درد 5 درصد ارزش آن را تشکیل می دهد. آیا 5٪ به اندازه کافی کوچک است که یک همبستگی هنوز معتبر باشد؟ ضریب همبستگی حاصل 0.71 بود، که نشان می‌دهد بیش از 50 درصد تنوع در اندازه‌گیری نتیجه را می‌توان با درد توضیح داد. از آنجایی که 50٪ بسیار بزرگتر از 5٪ است، آیا می توانم نتیجه بگیرم که همبستگی بین درد و نتیجه عملکردی بسیار بالاتر از مقداری است که از نظر ریاضی برای اندازه گیری نتیجه با استفاده از درد محاسبه می شود؟
در یک همبستگی، جبران یک متغیر تابع دیگری است
79149
نقشه های خود سازماندهی چقدر از مشکلات حداقل محلی رنج می برند؟ من فرض می‌کنم که جهت اصلی شبکه می‌تواند جهت‌گیری اصلی روی شکل حاصل از شبکه داشته باشد، اما آیا این تأثیر زیادی بر تناسب دارد (مثلاً میانگین مربعات اختلاف از داده‌ها به نقاط شبکه اختصاص‌یافته)، یا تفاوت‌ها نسبتاً کوچک هستند؟
نقشه های خود سازماندهی چقدر از مشکلات حداقل محلی رنج می برند؟
101526
برای پایان نامه کارشناسی ارشدم می خواهم چندین آزمایش را تنظیم کنم. یکی از مواردی که استاد من از آن شکایت کرده است این است که اکثر آزمایشات علوم کامپیوتر از نظر علمی کمبود دارند. برای اینکه در این دام نیفتم، می‌خواهم آزمایش‌هایم را به درستی طراحی کنم. متأسفانه من نتوانستم ادبیات زیادی در مورد طراحی آزمایش CS پیدا کنم. (به جز علوم کامپیوتر تجربی: نیاز به تغییر فرهنگی D. Feitelson که در اینجا موجود است که بیشتر جذاب است تا یک راهنما.) به یاد دارم که در آمار مردم اغلب از فرضیه H_0 و H_1 همراه با نوع I و خطای نوع دوم من نمی دانم که آیا این در زمینه علوم کامپیوتر قابل اجرا است؟ یک مثال سریع که می توانم به آن فکر کنم: > H_0: هر دو روش خروجی یکسانی را در این سناریو ایجاد می کنند > > H_1: یک روش خروجی بدتری در این سناریو ایجاد می کند (بدتر: بر اساس > متریک X) اما پس چگونه می توانم مقدار را محاسبه کنم. خطاهای نوع اول و دوم؟ در یک معیار سرعت می‌توانم آزمایش‌ها را چندین بار اجرا کنم و سپس احتمالاً محاسبه کنم که چقدر احتمال دارد که نتیجه معیار هنوز اشتباه باشد. با این حال اغلب من فقط می خواهم خروجی دو روش قطعی را مقایسه کنم. اندازه گیری کیفیت بر اساس یک معیار خاص. این نتیجه با اجرای چندین بار آزمایش تغییر نمی کند. اونوقت چیکار کنم؟ آیا رویکرد فرضیه صفر برای این نوع آزمایش ها مناسب نیست؟
طراحی آزمایش های علوم کامپیوتر (فرضیه ها و خطاها؟)
80173
من یک رگرسیون خطی انجام داده ام. این شکل مدل است: متغیر پاسخ محدود (0-1) ~ فاکتور 1 (2 سطح) + فاکتور 2 (5 سطح) + تعامل بین فاکتور 1: عامل 2 + فاکتور 3 (2 سطح) حجم نمونه حدود 350 است. من نمودار را ترسیم کردم باقیمانده در برابر مقادیر پیش بینی شده از آن مدل: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/UJ1Db.jpg) همانطور که وجود دارد الگوی متمایز در باقیمانده ها، به نظر می رسد رگرسیون خطی مدل مناسبی نیست. من اخیرا چندین رگرسیون خطی دیگر را با داده های مختلف انجام داده ام و بارها این الگو را در باقیمانده ها دیده ام. آیا این الگو اطلاعاتی در مورد بهترین مدل برای استفاده ارائه می دهد؟ آیا باید اصطلاح تعامل اضافه شود؟ آیا یک پیش بینی گم شده است؟ آیا باید از مدل غیر خطی استفاده کرد؟ یا در عوض، آیا این الگوی خاص در باقیمانده ها در واقع هیچ شاخصی برای استفاده از چه مدلی ارائه نمی دهد؟
الگوهای موجود در باقیمانده ها از رگرسیون خطی رسم می کنند: آیا آنها به ما می گویند از چه مدلی استفاده کنیم؟
80175
من نمی دانم که آیا یک روش معمول برای تشخیص یک مدل خطی چند متغیره وجود دارد؟ به عنوان مثال: y <- rmvt(n=100، sigma=diag(3)، df=3) پاسخ # 3 به صورت t-dist x1 چند متغیره کروی <- rchisq(100, 2) # x1 به صورت مجذور کای x2 توزیع شده است. <- rt(100) # x2 به صورت t مناسب توزیع شده <- lm(as.matrix(y)~x1+x2) # با رگرسیون چند متغیره مطابقت دارد چگونه می توانید تشخیص دهید که آیا مدل به خوبی برازش شده است؟
تشخیص مدل برای رگرسیون خطی چند متغیره
17633
من باید ماتریس‌های تصادفی غیرمربع را با ردیف‌های $R$ و ستون‌های $C$ ایجاد کنم، عناصری که به‌طور تصادفی با میانگین = 0 توزیع شده‌اند، و به گونه‌ای محدود شوند که طول (هنجار L2) هر سطر 1$ و طول هر ستون باشد. $\sqrt{\frac{R}{C}}$ است. به طور معادل، مجموع مقادیر مربع برای هر ردیف 1 و برای هر ستون $\frac{R}{C}$ است. تاکنون یک راه برای رسیدن به این هدف پیدا کرده‌ام: به سادگی عناصر ماتریس را به‌طور تصادفی مقداردهی اولیه کنید (به عنوان مثال از توزیع یکنواخت، نرمال یا لاپلاس با میانگین صفر و واریانس دلخواه)، سپس به طور متناوب سطرها و ستون‌ها را به طول ${\rm} = نرمال کنید. 1$ که با عادی سازی ردیف به پایان می رسد. به نظر می رسد این مقدار نسبتاً سریع به نتیجه دلخواه همگرا می شود (به عنوان مثال برای $R=40$ و $C=80$، واریانس طول ستون معمولاً ~ $~0.00001$ پس از تکرار $2$ است)، اما من مطمئن نیستم که آیا من می تواند به طور کلی به این نرخ همگرایی سریع (برای ابعاد مختلف ماتریس و توزیع عناصر اولیه) بستگی داشته باشد. سوال من این است: آیا راهی برای رسیدن به نتیجه دلخواه وجود دارد (${\rm row \ lengths} = 1$, ${\rm column \ lengths} = \sqrt{\frac{R}{C}}$) مستقیماً بدون تکرار بین عادی سازی سطر/ستون؟ به عنوان مثال چیزی شبیه به الگوریتم عادی سازی یک بردار تصادفی (عناصر را به صورت تصادفی راه اندازی کنید، مجموع مقادیر مربع را اندازه بگیرید، سپس هر عنصر را با یک اسکالر مشترک مقیاس کنید). اگر نه، آیا یک توصیف ساده برای نرخ همگرایی (مثلاً تعداد تکرارها تا خطای $< \epsilon$) روش تکراری شرح داده شده در بالا وجود دارد؟
ماتریس های تصادفی با محدودیت در طول سطر و ستون
101520
لطفاً کسی می تواند به من بگوید که شرایط نظم برای توزیع مجانبی آزمون نسبت درستنمایی چیست؟ هر جا را که نگاه می کنم نوشته شده است «تحت شرایط نظم» یا «تحت قواعد احتمالی». دقیقا شرایطش چیه؟ اینکه مشتقات لگ احتمال اول و دوم وجود دارد و ماتریس اطلاعات صفر نباشد؟ یا کلا چیز دیگری؟
شرایط منظم برای آزمون نسبت درستنمایی چیست؟
52481
در «سری‌های زمانی کاربردی اقتصادسنجی» اندرز، بارها به مفهوم «سفارش مدل VAR» برخورد کردم و مطمئن نیستم که مفهوم را درست درک کرده باشم. تا آنجا که من متوجه شدم، این مفهوم به مشکل بازیابی $\epsilon$ واقعی معادلات ساختاری زیرین مربوط می شود. نگاه کردن به عنوان مثال در VAR زیر به شکل استاندارد: $y_t = a_{10} + a_{11}y_{t-1} + a_{12}z_{t-1} + e_{1t}$z_t $ = a_{20} + a_{21}y_{t-1} + a_{22}z_{t-1} + e_{2t}$ مشکل اینجاست که این دو خطا در واقع هستند ترکیبی از شوک های اساسی $\epsilon_{yt}$ و $\epsilon_{zt}$ معادلات ساختاری، که ما نمی دانیم. در اینجا، اندرز اشاره می کند که (...) اگر ضریب همبستگی بین $e_{1t}$ و $e_{2t}$ کم باشد، احتمالاً ترتیب مهم نیست، و بالعکس. مشکل من این است که مفهوم نظم دهی و چگونگی تأثیر آن بر مشکل شناسایی اختلالات در مدل ساختاری را درک نمی کنم. آیا منظور به ترتیب متغیرهای مستقل در VAR است؟
سفارش در مدل های VAR
77033
من 20 عکس گرفته ام. هر عکس شامل یک نمونه موزه از یک پرنده و یک نمودار رنگی بود. در هر عکس، روشنایی قسمت خاصی از پرهای پرنده و روشنایی قسمت خاصی از نمودار رنگی را اندازه گرفتم. در هر عکس، مقدار نمودار رنگ باید 50 باشد. اما به دلیل تغییر شرایط نور از عکسی به عکس دیگر، مقادیر روشنایی نمودار رنگ گاهی زیر 50 و گاهی بالای 50 است. بنابراین، روشنایی پرهای پرنده باید بر این اساس تنظیم شود. چارچوب داده نمایشی از مقادیر روشنایی به دست آمده برای نمودار رنگی و مقادیر روشنایی به دست آمده برای پرهای پرنده است: set.seed(50) data.frame(brightness.colour.chart = c(sample(40:55, 20, جایگزین = T))، brightness.bird.plumage = نمونه (seq(1, 10, 0.1), 20)) brightness.colour.chart روشنایی.پرنده.پر 1 51 6.6 2 47 2.7 3 43 7.3 4 52 8.4 5 48 3.6 6 40 6.5 7 51 5.9 8 50 3.1 9 40 9.6 10 414 414 4.2 13 50 4.4 14 41 5.8 15 44 9.9 16 50 5.7 17 53 1.9 18 45 6.1 19 41 3.7 20 42 4.3 بهترین راه برای تنظیم مقدار روشنایی هر پرنده برای مقادیر ثابت plum عکس ها چیست؟
چگونه مقادیر اندازه گیری شده را بسته به مقادیر کنترل تنظیم کنیم؟
73776
آیا کسی می‌داند که آیا در زمینه مدل‌سازی موضوعی و تحلیل کلاس‌های پنهان، اکتشافی وجود دارد که تعداد خوبی از کلاس‌های پنهان را تعیین کند؟
اکتشافی برای تعیین تعداد کلاس های نهفته
13526
من سعی می کنم یک نمودار حداقل، حداکثر، متوسط ​​با خطوط افقی ایجاد کنم، که در آن محور عمودی نشان دهنده سال های سری است، چیزی شبیه به این نمودار در ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur .com/69lBP.gif) من قبلاً داده‌های نمودار را ایجاد کرده‌ام، فقط نمی‌دانم چگونه ادامه دهم
ساخت نمودار افقی حداکثر-دقیقه میانگین در اکسل
6195
من این سوال را در سایت matemathics stackexchange پرسیدم و پیشنهاد شد اینجا بپرسم. من روی یک پروژه سرگرمی کار می کنم و برای مشکل زیر به کمک نیاز دارم. ### کمی زمینه بیایید بگوییم مجموعه ای از آیتم ها با توضیح ویژگی ها و قیمت وجود دارد. لیستی از ماشین ها و قیمت ها را تصور کنید. همه خودروها دارای لیستی از ویژگی ها هستند، به عنوان مثال. اندازه موتور، رنگ، قدرت اسب بخار، مدل، سال و غیره برای هر ساخت، چیزی شبیه به این: فورد: V8، سبز، دستی، 200 اسب بخار، 2007، 200 دلار V6، قرمز، اتوماتیک، 140 اسب بخار، 2010، 300 دلار V6، آبی، دستی , 140hp, 2005, 100$ ... از این هم فراتر می رویم، لیست خودروهای با قیمت با مدتی منتشر می شود- فاصله زمانی که به این معنی است که ما به داده های قیمت تاریخی دسترسی داریم. ممکن است همیشه دقیقاً همان خودروها را شامل نشود. ### مشکل من می خواهم بدانم که چگونه می توان قیمت هر خودرو را بر اساس این اطلاعات پایه مدل کرد، مهمتر از همه خودروهایی که در لیست اولیه نیستند. فورد، v6، قرمز، اتوماتیک، 130 اسب بخار، 2009 برای ماشین فوق، تقریباً مشابه یکی در لیست است، فقط از نظر قدرت اسب بخار و سال کمی متفاوت است. برای قیمت گذاری این، چه چیزی لازم است؟ _چیزی که من به دنبالش هستم چیزی عملی و ساده است، اما همچنین می‌خواهم درباره روش‌های پیچیده‌تر بشنوم که چگونه می‌توان چنین چیزی را مدل کرد. : 1) استفاده از داده های تاریخی برای جستجوی ماشین X. اگر پیدا نشد، قیمتی وجود ندارد. البته این بسیار محدود است و تنها می توان از آن در ترکیب با مقداری کاهش زمان برای تغییر قیمت خودروهای شناخته شده در طول زمان استفاده کرد. 2) استفاده از طرح وزن دهی ویژگی های خودرو همراه با خودروی نمونه قیمت گذاری شده. اساساً قیمت پایه وجود دارد و ویژگی ها فقط با برخی عوامل آن را تغییر می دهند. بر این اساس قیمت هر خودرو به دست می آید. ثابت شد که اولی کافی نیست و دومی ثابت شد که همیشه درست نیست و شاید بهترین رویکرد را برای استفاده از وزنه ها نداشتم. به نظر می رسد این نیز برای حفظ وزن ها کمی سنگین باشد، بنابراین به همین دلیل فکر کردم که شاید راهی وجود داشته باشد که بتوان از داده های تاریخی به عنوان آمار به نحوی برای بدست آوردن وزن یا چیز دیگری استفاده کرد. فقط نمی دانم از کجا شروع کنم. ### سایر جنبه های مهم * در برخی از پروژه های نرم افزاری که دارم ادغام می شوند. یا با استفاده از کتابخانه های موجود یا الگوریتم نوشتن خودم. * هنگامی که داده های تاریخی جدید وارد می شوند، سریع محاسبه می شود. پیشاپیش بسیار متشکرم و مشتاقانه منتظر خواندن پیشنهادات شما هستم!
چگونه قیمت ها را مدل کنیم؟
17638
من یک مدل تصادفی دارم که برای شبیه سازی سری های زمانی برخی از فرآیندها استفاده می شود. من به تأثیر تغییر یک پارامتر به یک مقدار خاص علاقه مند هستم و می خواهم تفاوت بین سری های زمانی (مثلا مدل A و مدل B) و نوعی فاصله اطمینان مبتنی بر شبیه سازی را نشان دهم. من به سادگی چندین شبیه سازی از مدل A و دسته ای از مدل B را اجرا می کنم و سپس میانه ها را در هر نقطه زمانی کم می کنم تا تفاوت میانه را در طول زمان بیابم. من از همین روش برای یافتن چندک های 2.5 و 97.5 استفاده کردم. این یک رویکرد بسیار محافظه‌کارانه به نظر می‌رسد، زیرا من هر سری زمانی را به طور مشترک در نظر نمی‌گیرم (به عنوان مثال، هر نقطه در زمان‌های قبلی و آینده مستقل از بقیه در نظر گرفته می‌شود). آیا راه بهتری برای این کار وجود دارد؟
فواصل اطمینان برای تفاوت در سری های زمانی
45316
من نمی‌دانم که آیا معادلی بین ماشین‌های محدود شده بولتزمن و شبکه‌های مارکوف زوجی از نظر استنتاج MAP وجود دارد؟ به طور خاص، اجازه دهید $y \in \\{0,1\\}^m$ لایه خروجی/مرئی باشد و $h\in \\{0,1\\}^k$ لایه پنهان باشد. به طور خاص $k < n$ (ممکن است $\ll$ باشد.) تخمین MAP روی RBM ها را می توان به صورت \begin{equation} \text{arg}\max_{y \in \\{0,1\\}^ نوشت n ,h \\in \\{0,1\\}^k} y^T A h + u^t y + v^t h ~~~(1). \end{equation} برای برخی از $A، y، $ و $v$ داده شده است. اکنون، یک شبکه مارکوف زوجی را در نظر بگیرید که فقط روی $y$ تعریف شده است، جایی که استنتاج با \begin{equation} \text{arg}\max_{y \\\{0,1\\}^n} y^ داده می‌شود. T B y + w^t y ~~~(2)، \end{equation} برای برخی از $B$ و $w$ داده شده است. سوال من این است که با توجه به یک RBM با ماتریس $A$ و بردارهای $u$ و $v$، آیا $B$ و $w$ وجود دارد که (1) و (2) برای همان $y$ ماکزیمم شوند. ? اگر نه به طور کلی، آیا این تحت برخی شرایط درست است؟ آیا برعکس (یعنی با توجه به $B$ و $w$، با RBM معادل بدست می آید) با $k < n$ درست است؟
ماشین‌های محدود بولتزمن و شبکه‌های مارکوف: رابطه در استنتاج؟
80172
من یک رگرسیون خطی چند متغیره انجام دادم به این صورت که: fit<-lm(as.matrix(y)~mwtkg+mbmi+mage,data=x) که $y$ یک نتایج چند متغیره 500$ \ برابر 26$ است. سپس، من در تعجب هستم که چگونه anova(fit) را توضیح دهم: > anova(fit) تجزیه و تحلیل جدول واریانس Df Pillai تقریباً F num Df den Df Pr(>F) (برق) 1 0.99959 63064 25 651 < 2.2e- 16 *** mwtkg 1 0.03506 1 25 651 0.5403 mbmi 1 0.20862 7 25 651 < 2.2e-16 *** mage 1 0.09016 3 25 651 4.567e-05 *** Residuals 675 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 سه مقدار Dfs، Pillai و P برای مدل چه معنایی دارند؟
چگونه شی anova را برای یک رگرسیون خطی چند متغیره توضیح دهیم؟
46666
من در این مورد تعجب می کنم. چه زمانی بهتر است از انتخابگر Dantzig (اندازه گیری خطای هنجار بی نهایت به اضافه تنظیم کننده L1)، LASSO (میانگین اندازه گیری خطای مربع به اضافه تنظیم کننده L1) و LAD LASSO (اندازه گیری خطای حاوی حداقل انحراف مطلق به اضافه L1) استفاده شود. تنظیم کننده)؟ برای روشن شدن مسائل، مسائل کمینه سازی حل شده در هر کدام را نقل قول می کنم: LASSO $$ \min_{\beta} \left| \mathbb{y} - \mathbb{X} \boldsymbol{\beta}\right|_2 + \lambda \left|\boldsymbol{\beta}\right|_1 $$ LAD - LASSO $$ \min_{\beta} \چپ| \mathbb{y} - \mathbb{X} \boldsymbol{\beta}\right|_1 + \lambda \left|\boldsymbol{\beta}\right|_1 $$ انتخابگر Dantzig $$ \min_{\beta} \ چپ| \mathbb{X}^T( \mathbb{y} - \mathbb{X} \boldsymbol{\beta})\right|_{\infty} + \lambda \left|\boldsymbol{\beta}\right|_1 $$ در اینجا $\mathbb{y}$ نشان دهنده مشاهدات است، $\mathbb{X}$ نشان دهنده توابع پایه برای هر مشاهده است. $\boldsymbol{\beta}$ ضرایب رگرسیون هستند. زیرنویس ها انتخاب هنجارهای مورد استفاده را نشان می دهد. $\lambda$ یک ضریب مثبت است که معمولاً توسط اعتبارسنجی متقاطع $n$ تعیین می‌شود. اگر معیاری وجود داشته باشد، آیا می توان این را از مجموعه داده تعیین کرد؟ ویرایش: فکر می‌کنم یک سوال معقول‌تر این است: تناسب به دست آمده از هر یک از این روش‌ها چه ویژگی‌هایی دارد. به عنوان مثال، من به دنبال چیزی شبیه به این هستم که LAD-LASSO در مقایسه با LASSO نسبت به نقاط پرت حساسیت کمتری دارد. http://hansheng.gsm.pku.edu.cn/pdf/2007/LAD-Lasso.pdf همچنین لطفاً اگر می توانید منابعی را ارائه دهید.
انتخاب Dantzig، LASSO، LAD LASSO
20721
چگونه می توانم فراوانی کلمات موجود در مجموعه ای را که از توزیع zipfian پیروی می کنند، گسسته کنم؟ آیا روش های استاندارد وجود دارد؟ باید سطل‌هایی با اندازه افزایش نمایی ایجاد کند. هدف من تبدیل این فرکانس واقعی پیوسته به چند سطل برای ایجاد ویژگی های باینری در زمینه های تصادفی شرطی (CRF) است. من دوست دارم بتوانم به راحتی تعداد سطل/تقسیمات مورد نظر خود را تعریف کنم تا کم و بیش دقیق باشم. برای شفاف‌تر شدن، فهرستی به‌ترتیب «freq» ایجاد کرده‌ام که فراوانی و فراوانی تجمعی هر کلمه را در مجموعه مورد مطالعه به من می‌دهد: #1 word1 freq1 cumFreq1 #2 word2 freq2 cumFreq2 #3 ... سپس هنگام تولید ویژگی‌ها در مجموعه آموزشی، برای هر wordx که می‌خواهم به آن قسمت ویژگی که به آن تعلق دارد اختصاص دهم یا یک برچسب «NOT_IN_DICTIONARY» اگر wordx هرگز نبود. در مجموعه مورد مطالعه یافت شد. من می خواهم سطل-برچسب هایی ایجاد کنم تا کلمات را با فرکانس مشابه گروه بندی کنند.
فرکانس کلماتی که به دنبال توزیع zipfian هستند را گسسته کنید
20723
من دو توزیع دو متغیره $A$ و $B$ دارم. برای برخی از مشاهدات جدید $x$، می‌خواهم احتمال تعلق آن به $A$ و نه $B$ را محاسبه کنم. من می‌توانم فرض کنم که $A$ و $B$ توزیع‌های نرمال دو متغیره هستند (اما اگر روشی وجود داشته باشد که فرض نمی‌کند که مایلم بدانم)، اما نمی‌توانم ماتریس‌های کوواریانس آنها را یکسان فرض کنم. تا کنون، من فاصله mahalanobis را از $x$ تا $A$ و از $x$ تا $B$ محاسبه کرده‌ام، اما مطمئن نیستم از آنجا به کجا بروم. همچنین باید اشاره کنم که این کار را برای بسیاری از موضوعاتی که فاصله بین $A$ و $B$ برای آنها یکسان نخواهد بود انجام خواهم داد. اگر راهی برای در نظر گرفتن این مورد در هنگام ارزیابی $P(x\in A ~\wedge\نه B)$ وجود دارد، این نیز خوب است.
طبقه بندی مشاهدات جدید به دو دسته دو متغیره
46669
من به اثرات ترکیبی 12 پیش‌بینی‌کننده پیوسته/بازه‌ای بر یک نتیجه دوتایی/دوجمله‌ای علاقه‌مندم و بنابراین از رگرسیون لجستیک استفاده می‌کنم. ابتدا 12 رگرسیون لجستیک دو متغیره جداگانه را اجرا کردم. همه دارای B مثبت بودند. سپس زمانی که من رگرسیون لجستیک چندگانه (روش ورود) را اجرا کردم، برخی از این پیش بینی کننده ها اکنون به طور منفی با نتیجه مرتبط شده اند. من مطمئن نیستم که از این نتیجه چه کنم. آیا این غیرعادی است؟ وقتی این اتفاق می افتد این به چه معناست؟ خیلی ممنون برای هر راهنمایی! بانی
رگرسیون لجستیک باینری: جهت B در موارد متعدد نسبت به دو متغیره متفاوت است
20093
من اخیراً این ایمیل را از یک دانشجوی فارغ التحصیل دریافت کردم، و اغلب سؤالات مشابهی دریافت می کنم، که فکر کردم آن را در اینجا پست کنم: > من از تحلیل عاملی، رگرسیون چندگانه و SEM استفاده می کنم و در حال حاضر > فرضیات آماری را بررسی می کنم. من تعداد زیادی پرت تک متغیره و > چند متغیره پیدا کرده ام. اگر همه آنها را حذف کنم، به معنای یک قطعه بزرگ > از اندازه نمونه من است ($N \حدود 350$). من همچنین مشکلاتی با غیر نرمال بودن، غیرخطی بودن، ناهمسانی (رگرسیون چندگانه) و > کوواریانس های باقیمانده استاندارد شده بزرگ (SEM) دارم. > > من سعی کرده ام تأثیر نقاط پرت را کاهش دهم (به آنها یک مقدار > یک واحد بزرگتر/کوچکتر از افراطی ترین مقدار غیر پرت بعدی اختصاص دهم)، و > تبدیل ها (عمدتاً متغیرها اریب باقی مانده اند و برخی از نقاط پرت > باقی می مانند). وقتی نتایج اصلی را با داده‌های تغییر یافته مقایسه می‌کنم، اثر > کمی وجود دارد. با توجه به این موضوع، نمی‌دانم که آیا می‌توان داده‌ها را همانطور که هست رها کرد؟ من تمایل دارم، به ویژه به این دلیل که این داده ها از یک جمعیت > غیر بالینی است و من از اقدامات بالینی استفاده کرده ام.
آیا هنگام انجام مدل‌سازی معادلات ساختاری، داده‌ها را در مواجهه با موارد پرت و غیرعادی بدون تغییر رها کنیم؟
80177
من یک متغیر پیش بینی کننده (ارتفاع آب بر حسب متر) و یک متغیر پاسخ (نرخ تغذیه پرندگان) دارم. رابطه بین آنها شبیه به آنچه در نمودار زیر نشان داده شده است به نظر می رسد. tidal_effect <- iris[,3:4] library(plyr); tidal_effect <- rename(tidal_effect, c(Petal.Length = feeding.rate، Petal.Width = water.height)) tidal_effect_extra <- data.frame(water.height = sample(seq(2.5 ، 3، 0.1)، 50، جایگزینی = T)، نرخ تغذیه = نمونه (دنباله (4، 4.5، 0.1)، 50، جایگزین = T)) tidal_effect_extra <- rbind(tidal_effect, tidal_effect_extra) library(ggplot2) ggplot(tidal_effect_extra, aes(water.height, feeding.rate)) + geom_point() + xlab. ارتفاع (متر)) ![توضیحات تصویر را وارد کنید اینجا] (http://i.stack.imgur.com/w9OyE.jpg) من در نظر دارم ارتفاع آب را به یک فاکتور سه سطح برش دهم. همانطور که در نمودار بالا مشاهده می شود، نقطه واضحی که در آن برای کاهش ارتفاع آب در حدود 0.7، 2.5 و 3 است، به این معنی که فاصله بین مقادیر حداقل/حداکثر در هر سطح از فاکتور برابر نیست. می توانم پیش بینی کننده را کاهش دهم. متغیری مانند این: tidal_effect_extra$water.height.cut <- cut(tidal_effect_extra$water.height, breaks = c(0, 0.7, 2.5, 3), labels = c(کم، متوسط، بالا)) و سپس این مدل را اجرا کنید: lm(feeding.rate ~ water.height.cut، tidal_effect_extra) سوال من: آیا مشکلی وجود دارد برش ارتفاع آب به گروه هایی که در آنها فاصله بین مقادیر حداقل/حداکثر در هر سطح از ضریب برابر نیست؟
خوب است که متغیر پیوسته را به فواصل نامنظم برش دهیم؟
46668
من در حال انجام یک طبقه بندی احساسات باینری (مثبت/منفی) با RapidMiner هستم. مشکل من اینه که حدود 400 مدرک مثبت و 1350 مدرک منفی دارم. من دقت بسیار خوبی دریافت می کنم اما بنابراین دقت و فراخوانی من برای کلاس مثبت حدود 60-70٪ است. آیا هیچ عملگر یا روشی وجود دارد که می تواند به من کمک کند تا فراخوانی/دقت بهتری (نمره f1) بدست بیاورم؟ فکر کردم Sample (Bootstrapping) می تواند به من کمک کند. اما این عملگر فقط کل مجموعه داده را به بالا یا پایین اندازه می دهد؟
مشکل توزیع نابرابر طبقات در طبقه بندی احساسات
20729
وقتی سعی می‌کنید از بین مدل‌های مختلف یا تعداد ویژگی‌هایی که باید شامل شوند، انتخاب کنید، مثلاً پیش‌بینی، می‌توانم به دو رویکرد فکر کنم. 1. داده ها را به مجموعه های آموزشی و آزمایشی تقسیم کنید. بهتر است از بوت استرپینگ یا اعتبارسنجی متقاطع k-fold استفاده کنید. هر بار روی مجموعه آموزشی تمرین کنید و خطای مجموعه تست را محاسبه کنید. خطای آزمایش نمودار در برابر تعداد پارامترها. معمولاً چیزی شبیه این دریافت می‌کنید:![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/6PrVd.jpg) 2. احتمال مدل را با ادغام کردن مقادیر پارامترها محاسبه کنید. به عنوان مثال، $\int_\theta P(D|\theta)P(\theta)d \theta$ را محاسبه کنید و آن را بر اساس تعداد پارامترها رسم کنید. سپس چیزی شبیه به این دریافت می کنیم:![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/TwHCk.jpg) بنابراین سوالات من این است: 1. آیا این رویکردها برای حل این مشکل مناسب هستند (تصمیم گیری در مورد تعداد پارامترهایی که باید در مدل خود لحاظ کنید یا از بین تعدادی مدل انتخاب کنید)؟ 2. آیا آنها معادل هستند؟ احتمالا نه. آیا آنها با مفروضات خاص یا در عمل همان مدل بهینه را ارائه خواهند داد؟ 3. به غیر از تفاوت فلسفی معمول در تعیین دانش قبلی در مدل های بیزی و غیره، مزایا و معایب هر رویکرد چیست؟ کدام یک را انتخاب می کنید؟ **به روز رسانی:** من همچنین سوال مرتبط را در مورد مقایسه AIC و BIC پیدا کردم. به نظر می رسد که روش 1 من به طور مجانبی معادل AIC و روش 2 به طور مجانبی با BIC مرتبط است. اما من هم آنجا خواندم که BIC معادل Leave-One-Out CV است. این بدان معناست که حداقل خطای آموزشی و حداکثر درستنمایی بیزی معادل هستند که در آن LOO CV معادل K-fold CV است. یک مقاله شاید بسیار جالب یک نظریه مجانبی برای انتخاب مدل خطی توسط جون شائو به این مسائل مربوط می شود.
بهترین رویکرد برای انتخاب مدل بیزی یا اعتبار متقابل؟
48545
من اولین کسی خواهم بود که اعتراف می‌کنم که احتمالاً در بالای سرم هستم اما... سعی می‌کنم یک رگرسیون گام به گام رو به جلو انجام دهم (با استفاده از SPSS 20). دارای 7 متغیر پیش بینی کننده (عوامل شامل موارد از یک نظرسنجی) و یک متغیر نتیجه که شامل مقادیر 43.07- تا 25.45+ است که در آن 0.0 بهترین مکان است. ENG نتیجه است (بنابراین تلاش برای یافتن عواملی که به بهترین شکل تعامل را پیش‌بینی می‌کنند) اما در مدل تعاملی که من استفاده می‌کنم، تعامل نتیجه تعادل بین چالش و ظرفیت است، بنابراین تفاوت بین چالش و ظرفیت امتیاز تعامل را به دست می‌دهد. انواع؛ تراز کامل 0.0 خواهد بود. چالش بیشتر از ظرفیت = اعداد مثبت. چالش کمتر از ظرفیت = اعداد منفی. جهت‌پذیری در مدل مهم است، زیرا دور شدن از تعامل (0.0) به سمت ارزش‌های مثبت منجر به غرق شدن افراد می‌شود (چالش بیشتر از ظرفیت). راه دیگر کم استفاده است (چالش کمتر از ظرفیت). امیدوارم این منطقی باشد.
آیا متغیر نتیجه در رگرسیون گام به گام رو به جلو می تواند دارای اعداد منفی باشد؟
46663
من یک سری زمانی ماهانه دارم که مدل رگرسیون سری زمانی شامل روند خطی و 11 متغیر ساختگی را برای فصلی بودن برای آن برازش داده ام. سپس، سری‌های زمانی اصلی را در سطح فصلی جمع‌آوری کردم. سپس دوباره همان مدل را برای داده های فصلی با تمایل خطی و سه متغیر ساختگی برازش کردم. سوال این است: **چگونه می توان اهمیت روندهای تخمینی را در هر دو مدل و همچنین فصلی بودن مقایسه کرد؟** به یاد بیاورید که داده های پاسخ در هر دو مدل متفاوت است، اندازه داده ها متفاوت است و تعداد پارامترها نیز متفاوت است.
مقایسه قدرت روند و فصلی برای سطوح مختلف تجمع
13293
بنابراین همانطور که می‌دانم SOM در درجه اول یک ابزار تجسم است و خوشه‌بندی گام بعدی منطقی بعد از ایجاد یک SOM از داده‌ها است. به طور معمول، خوشه‌بندی ذهنی است، زیرا پس از مشاهده SOM خود، می‌توانید N خوشه را ببینید و سپس از آنجا به سمت خوشه‌بندی (k به معنی، سلسله مراتبی و غیره) گره‌های SOM با این N به عنوان پارامتر بروید. آیا یک روش غیر موضوعی (شاید ناپارامتریک؟) برای خوشه بندی گره های SOM (یعنی بدون نگاه کردن به SOM برای تعیین تعداد خوشه های متمایز) وجود دارد؟ با تشکر
خوشه بندی خودکار/هدف SOM
7208
من از کاپا کوهن برای محاسبه توافق بین دو قاضی استفاده می کنم. به صورت زیر محاسبه می شود: $ \frac{P(A) - P(E)}{1 - P(E)} $ که $P(A)$ نسبت توافق و $P(E)$ احتمال توافق تصادفی اکنون برای مجموعه داده زیر، نتایج مورد انتظار را دریافت می کنم: قضاوت های کاربر A: - 1، درست - 2، قضاوت های نادرست کاربر B: - 1، نادرست - 2، نادرست نسبت توافق شده: 0.5 توافق تصادفی: 0.625 کاپا برای کاربر A و ب: -0.3333333333333333 می بینیم که هر دو داور خیلی خوب توافق نکرده اند. اما در مورد زیر که هر دو قاضی یک معیار را ارزیابی می‌کنند، کاپا صفر را ارزیابی می‌کند: قضاوت‌های کاربر A: - 1، قضاوت‌های نادرست کاربر B: - 1، نسبت نادرست توافق شده: 1.0 توافق تصادفی: 1.0 کاپا برای کاربر A و B: 0 اکنون می توانم ببینم که توافق به طور تصادفی 1 است که منجر به صفر بودن کاپا می شود، اما آیا این به عنوان یک نتیجه قابل اعتماد به حساب می آید؟ مشکل این است که من معمولاً بیش از دو قضاوت در هر معیار ندارم، بنابراین همه آنها هرگز به هیچ کاپا بزرگتر از 0 ارزیابی نمی شوند، که فکر می کنم خیلی نماینده نیست. آیا من با محاسباتم درست هستم؟ آیا می توانم از روش دیگری برای محاسبه بین توافق استفاده کنم؟ در اینجا می بینیم که کاپا برای قضاوت های متعدد به خوبی کار می کند: قضاوت های کاربر A: - 1، نادرست - 2، درست - 3، نادرست - 4، نادرست - 5، قضاوت های کاربر A درست: - 1، درست - 2، درست - 3 , نادرست - 4, درست - 5, نادرست نسبت توافق شده: 0.4 توافق تصادفی: 0.5 کاپا برای کاربر A و B: -0.19999999999999996
آیا می توان از کاپا کوهن فقط برای دو قضاوت استفاده کرد؟
13296
من یک پیکره متنی دارم که از روی آن احتمالات تکی هر کلمه را محاسبه کرده ام. حال، اجازه دهید $p_{i}$ و $p_{j}$ به ترتیب احتمالات یک‌گرام $i$ و $j$ باشند، احتمال اینکه یک جفت کلمه $i$ و $j$ با آن هم‌زمان شوند چقدر خواهد بود. زمانی که استقلال بین $i$ و $j$ فرض می‌شود (در حداکثر فاصله 1 کلمه) اتفاق می‌افتد؟ **ویرایش:** در اینجا $p_{i}$ احتمال $i$ بودن هر کلمه داده شده است. منظور من از احتمال وقوع همزمان، این است که کلمه $i$ و $j$ همزمان در یک دنباله تصادفی از سه کلمه برگرفته شده از پیکره اتفاق بیفتد. منظور من از همزمانی این است که $i$ و $j$ در هر جایی از این دنباله تصادفی 3 کلمه‌ای در حداکثر فاصله کلمه 1 رخ می‌دهند. (برای مثال، $i$*$j$ و $ij$ هر دو معتبر هستند. وقوع $i$ و $j$ اما $i**j$ یک اتفاق همزمان معتبر نیست زیرا فاصله بین $i$ و $j$ بیش از 1 است.) و در نهایت $ijij$ به عنوان 3 اتفاق همزمان به حساب می آید.
چگونه می توان احتمال وقوع همزمان را با فرض استقلال از احتمالات یک گرم محاسبه کرد؟
20726
در این مقاله > Anderson, M.J. (2001). روشی جدید برای تحلیل واریانس چند متغیره ناپارامتریک. _Austral Ecology_, **26**, 32-46 رویکرد MANOVA بسیار مفیدی یافتم که می تواند تا حدودی با غیر عادی بودن کنار بیاید. می خواستم بدانم که آیا امکان و معقول است که فواصل ماهالانوبیس را به عنوان روش تشابه لحاظ کنیم؟ در واقع سوال من در مورد تابع بسته R Vegan «adonis» است که این نوع MANOVA را پیاده‌سازی می‌کند، اما فاصله‌های Mahalanobis را به عنوان معیار تشابه مجاز نمی‌داند. اگرچه از طریق تابع طراح امکان ایجاد هر اندازه گیری فاصله در آدونیس را فراهم می کند، اما من کاملاً نمی توانم با آن نحو کنار بیایم. آیا تجربه ای در این مورد دارید؟
فاصله MANOVA جایگشتی و ماهالانوبیس در R
48542
من با یک متغیر وابسته مربوط به قیمت یک دارایی و درصد تغییر در قیمت آن دارایی سروکار دارم. مشکل این نوع تجزیه و تحلیل، مانند زمانی که سهام واحد تجزیه و تحلیل هستند، این است که از چیزی پیروی می کند که به نظر می رسد یک مهره توزیع log-normal دارای بازه [-1، +inf) است. من هرگز با تبدیل این نوع DV برای تجزیه و تحلیل OLS برخورد نکرده ام. هر چیزی که من از نظر ادبیات پیدا می کنم در مورد سهام است و اینکه چرا آنها از یک log-normal پیروی می کنند و نه نحوه برخورد با آن برای هر نوع رگرسیون خطی. همچنین اگر «عادی‌تر» (بدون جناس) و بهتر باشد، می‌توانم به نوع دیگری از تحلیل بپردازم. یک مثال: اگر یک دارایی X وجود داشته باشد که ارزش آن 10 باشد (t = 0) و فردا (t = 1) ارزش آن 0.01 باشد، این تقریباً 100٪ کاهش قیمت است و اساساً می تواند ادامه یابد. نه پایین تر با این حال، اگر در عوض به ارزش 1000 (در t = 1) افزایش یابد، این یک افزایش 9900٪ است. از آنجایی که داده‌های من با الگویی مانند دارایی مطابقت دارند، من یک دم سمت راست بلند و توزیعی دارم که طبیعی به نظر می‌رسد. داشتم فکر می کردم چطور باهاش ​​کنار بیام.
تغییر درصد تغییر: توزیع منطقی؟
13528
این ادامه سوال قبلی من است، چگونه می توانم تخمین چگالی پسینی را از پیشین و احتمالی که در درک چگونگی محاسبه احتمال یک مجموعه پارامتر با توجه به احتمال آن مشکل دارم محاسبه کنم. به عنوان مثال، در پاسخ به سوال قبل، از احتمال برای وزن دادن به احتمال نمونه گیری از توزیع های قبلی استفاده شده است. با این حال، پاسخ به من پیشنهاد کرد که از یک الگوریتم نمونه‌برداری متوالی استفاده کنم، بنابراین رویکرد متروپلیس-هیستینگ را امتحان کردم. با این حال، برای من روشن نیست که چگونه می توانم از احتمالات برای تعیین احتمال پذیرش مجموعه پارامترهای پیشنهادی استفاده کنم. من می توانم به طور تجربی تخمین بزنم (با استفاده از تابع R «fitdistr») که احتمال آن تقریباً $L\sim\textrm{log-}N(8, 0.7)$ است، تصور می کنم که بتوانم احتمال را به صورت «plnorm(L, 8, 0.7)` و احتمال پذیرش به عنوان $P(L_\textrm{new})/P(L_\textrm{old})$. اما آیا راهی برای انجام این کار بدون فرض اینکه احتمال دارای توزیع خاصی است وجود دارد؟ یا اینکه چنین فرضی یک رویه استاندارد است؟
چگونه می توانم یک احتمال را از روی احتمال محاسبه کنم، به عنوان مثال. در الگوریتم متروپلیس-هیستینگ؟
7209
هدف من پیش‌بینی احتمالات سه ماهه پیش‌فرض مشتری است: من اطلاعاتی در مورد 2 میلیون نفر دارم که به‌طور متوسط ​​با احتمال 0.3 درصد به‌طور متوسط ​​نکول می‌کنند. بنابراین من به نمونه‌برداری از کلاس اکثریت (غیر پیش‌فرض) برای صرفه‌جویی در زمان محاسبات فکر می‌کنم (روش‌های هسته می‌توانند بسیار پرهزینه باشند، من در مورد تصحیح پیش‌بینی‌های احتمال می‌دانم) - گزینه دیگر فقط گرفتن نمونه فرعی از داده‌ها است. . به نظر شما نسبت خوبی از پیش فرض ها به غیر پیش فرض ها در نمونه یادگیری من چیست؟ با تشکر از کمک شما!
چه مقدار زیر نمونه برداری باید انجام شود؟
114141
من دقیقاً نمی فهمم در فرمول ضریب همبستگی چه می گذرد. در صورت حساب کواریانس و در مخرج انحراف معیار متغیر x ضرب در انحراف معیار متغیر y را داریم. بنابراین در نهایت نسبت کوواریانس به حاصل ضرب دو انحراف معیار است. تقسیم بر حاصل ضرب دو انحراف معیار چه کاری انجام می دهد تا به ما در تعیین همبستگی کمک کند؟ من سعی کردم آن را ترسیم کنم تا به درک بصری آن کمک کنم زیرا به نظرم این کمک می کند، اما در مورد آنچه باید به دنبال آن باشم گیر کرده ام.
چرا مخرج ضریب همبستگی SD از X در SD از Y ضرب می شود؟
7207
من تفاوت های رسمی بین آنها را درک می کنم، چیزی که می خواهم بدانم این است که چه زمانی استفاده از یکی در مقابل دیگری مناسب تر است. * آیا آنها همیشه بینش تکمیلی در مورد عملکرد یک سیستم طبقه بندی/تشخیص داده شده ارائه می دهند؟ * آیا معقول است که هر دو آنها را مثلاً در یک مقاله ارائه کنیم؟ (چه زمانی منطقی است که هر دوی آنها را به جای یکی از آنها تهیه کنیم؟). * آیا هیچ توصیفگر جایگزین (شاید مدرن تر) وجود دارد که جنبه های مربوط به ROC و یادآوری دقیق را برای یک سیستم طبقه بندی نشان دهد؟ من به آرگومان هایی برای موارد باینری و چند کلاسه (مثلاً به عنوان یک در برابر همه) علاقه مند هستم.
ROC در مقابل منحنی‌های دقت و فراخوان
105690
من یک سوال دارم: چگونه می توانم از پیش بینی های پنجره نورد در R استفاده کنم: من 2 مجموعه داده دارم: 1. داده های ماهانه که از Google دانلود کردم. 2. داده های ماهانه ای که از CBS (دفتر مرکزی آمار در هلند) دانلود کردم، می خواهم آزمایش کنم که آیا می توانم یک مدل پیش بینی معتبر، بر اساس مثلا 6 سال داده گوگل، با استفاده از پیش بینی های پنجره چرخشی ایجاد کنم یا خیر. اولین شهود من این بود که یک مدل ARIMA را بر روی داده های گوگل قرار دهم و با محاسبه RMSE این مدل را روی داده های واقعی CBS آزمایش کنم. اما این کارآمد نیست زیرا من باید این کار را برای هر ماه انجام دهم و ماه های زیادی برای تجزیه و تحلیل دارم. آیا راهی خودکار در R برای انجام این کار وجود دارد؟
پیش‌بینی‌های پنجره‌ای در R
10369
فرض کنید مشاهدات جفتی ترسیم شده i.i.d. به صورت $X_i \sim \mathcal{N}\left(0,\sigma_x^2\right), Y_i \sim \mathcal{N}\left(0,\sigma_y^2\right),$ برای $i=1 ,2,\ldots,n$. اجازه دهید $Z_i = X_i + Y_i,$ و با $Z_{i_j}$ نشان دهیم $j$امین بزرگترین مقدار مشاهده شده $Z$. توزیع (شرطی) $X_{i_j}$ چیست؟ (یا معادل آن $Y_{i_j}$) یعنی، توزیع $X_i$ مشروط به این است که $Z_i$ بزرگترین $j$m از $n$ ارزش مشاهده شده $Z$ باشد؟ من حدس می‌زنم که با $\rho = \frac{\sigma_x}{\sigma_y} \به 0$، توزیع $X_{i_j}$ فقط به توزیع بدون قید و شرط X$ همگرا می‌شود، در حالی که به صورت $\rho \ به \infty$، توزیع $X_{i_j}$ به توزیع بی قید و شرط از $j$th آمار سفارش از $X$ همگرا می شود. اما در وسط، من نامطمئن هستم.
توزیع قطعات غیر مخلوط بر اساس ترتیب مخلوط
29890
> **تکراری احتمالی:** > ارزیابی فاصله قطعی توزیع عادی عنوان تغییر کرد و سوال در زیر ویرایش شد. چگونه ممکن است که یک تابع چگالی احتمال که به صورت زیر تعریف شده است بتواند مقادیری بالاتر از 1 را برگرداند؟! آیا در تعریف من از این pdf خطایی وجود دارد؟ float gauss_pdf = exp( -pow(x-mean, 2.0) / (2.0 * pow(sigma, 2.0)) ) / ( sigma * sqrt(2*M_PI)); به عنوان مثال، برای x = 0.0908182، mean = 0.0552096 و سیگما = 0.0241953، 5.583 را برمی گرداند **EDIT:** خوب، آنچه من نیاز دارم احتمال مربوطه است، بنابراین باید CDF را محاسبه کنم (یعنی P(X < x )) برای آن میانگین و سیگما. چگونه می توانم CDF را محاسبه کنم؟
نحوه محاسبه احتمال توزیع نرمال CDF
46661
من از بسته R ltm برای ایجاد یک رگرسیون لجستیک 2 پارامتری استفاده می کنم. ماتریس ورودی پراکنده است - بسیاری از کاربران زیرمجموعه کوچکی از موارد موجود در بانک اقلام را گرفته اند. برای برخی از مجموعه های داده من با این خطا مواجه می شوم: خطا در if (any(ind <- pr == 0)) pr[ind] <- sqrt(.Machine$double.eps) : مقدار از دست رفته که در آن TRUE/ FALSE مورد نیاز است مطمئن نیستم مشکل چیست. در اکثر مجموعه های داده من تکرار نمی شود. هر فکری؟
خطا در استفاده از بسته ltm R
77060
من با دانش آموز دیگری با سابقه آمار مشورت می کنم، اما مطمئنم که او چیزی می گوید که با آنچه در مورد داده هایم به من گفته شده در تضاد است. من یک متغیر پاسخ روزانه دارم که بر روی 16 نفر در یک GLMM اندازه گیری شده است که اثر تصادفی آن فرد است. بیش از 6000 روز 6000 مقدار وجود دارد. من چندین متغیر مشترک دارم که فقط یکی از آنها در مقیاس زمانی یکسان اندازه گیری می شود، دمای روزانه. سایر متغیرها یا در مقیاس ماهانه متفاوت هستند یا در مقیاس ماهانه x فردی. من همیشه بر این فرض کار کرده‌ام که GLMM به اندازه کافی قدرتمند است که بتواند این کار را انجام دهد، اما این مردی که به من مشاوره می‌دهد می‌گوید که باید میانگین پاسخ‌هایم را به صورت ماهانه (همانطور برای متغیر دما) به‌طوری که آنها در زمان‌های یکسان تغییر کنند، کار کرده‌ام. مقیاس اما من مطمئن هستم که این اطلاعات مهم را به طور غیر ضروری دور می اندازد. وقتی مشکلات مربوط به مقیاس را در آمار جستجو می‌کنم، پاسخ‌های بسیار متفاوتی را در رابطه با مقادیر نسبی متغیرها دریافت می‌کنم، بنابراین حتی اگر ممکن است کمی روشن کنید که مشکل من را چه نامی بگذارم و کجا می‌توانم مرجعی پیدا کنم که سؤال من را حل کند. راه
آیا باید میانگین حسابی متغیرهایی را که در مقیاس های زمانی کوچکتر تغییر می کنند در یک رگرسیون خطی در نظر بگیرم؟
101523
یک نمونه اسباب‌بازی معروف در یادگیری ماشینی، به‌ویژه با یادگیری درخت‌های تصمیم‌گیری، مجموعه داده معروف «بازی تنیس» است. آیا منبع رسمی برای مجموعه داده وجود دارد که بتوان آن را در کارهای علمی نقل کرد؟
منبع اصلی مجموعه داده play tennis.
70357
من انتظار دارم که گروه 1 و 2 بسیار شبیه و گروه 3 متفاوت باشند. من از یک مجموعه داده بسیار بزرگ استفاده می کنم و احساس می کنم که برق مشکلی نخواهد داشت. در ابتدا احساس کردم که انتظار یک ANOVA قابل توجه را دارم، و سپس در مقایسه های برنامه ریزی شده انتظار دارم 1 در مقابل 2 غیر قابل توجه باشد در حالی که 1 در مقابل 3 و 2 در مقابل 3 باید قابل توجه باشد. در حالی که در واقع داده‌های من اینگونه بود، من اکنون فکر می‌کنم که این راه اشتباهی برای انجام کارها بوده است. هنگام مقایسه 1 با 2، آیا باید به جای آن از تست هم ارزی (مثلاً http://www.cscu.cornell.edu/news/statnews/stnews85.pdf) استفاده می کردم؟ اگر چنین است، چگونه می‌توانم با استفاده از SPSS یا برخی نرم‌افزارهای رایج دیگر این کار را انجام دهم؟
ANOVA مستقل یک طرفه که در آن انتظار دارم دو سطح بسیار مشابه و سطح دیگر متفاوت باشند. تست مناسب چیست؟
45310
با استفاده از جامعه زیر: نمونه <- c(41.5، 56.7، 54.2، 98.9، 56.7، 43.9، 35.8، 28.8) هنگام محاسبه دستی آنها، نتیجه متفاوتی برای فواصل اطمینان بالا و پایین دریافت می کنم. تابع t.test() کتابخانه. s <- sd(نمونه) # انحراف استاندارد se <- s/sqrt(NROW(نمونه)) # خطای استاندارد # استفاده از t.test() پایین تر <- (t.test(نمونه))$conf.int[1] # بازده 34.11755 بالا <- (t.test(sample))$conf.int[2] # بازده 70.00745 # محاسبه دستی کمتر <- میانگین(نمونه)-(1.96*se) # بازدهی 37.18821 بالا <- میانگین(نمونه)+(1.96*se) # بازدهی 66.93679 می‌تواند توضیح دهد اینجا چه خبر است؟ ** به روز رسانی: ** با تشکر برای اطلاعات همه! این واقعاً روشنگر بود.
فاصله اطمینان متفاوت به R منجر می شود، چرا؟
10361
سوال تکلیف من: > یک بازرس مشکوک است که مواد غذایی در کارخانه ای که در حال بازرسی است > آلوده به یک ماده شیمیایی مضر بوده است. چنین آلودگی شیمیایی > در 5 درصد از کارخانه های تولید کننده این ماده غذایی رخ می دهد. بازرس یک تست A > برای ماده شیمیایی دارد که در صورت وجود > ماده شیمیایی با اطمینان 100 درصد مثبت می شود، اما در 10 درصد موارد > که ماده شیمیایی وجود ندارد، آزمایش مثبت می شود. او تصمیم می گیرد از این آزمایش برای کمک به او استفاده کند > تصمیم بگیرد که آیا آلودگی وجود دارد یا خیر. > > 1. فرض کنید که احتمال آلودگی قبلی برابر با نرخ پایه > است و آزمایش بازرس نتیجه مثبت را نشان می دهد. احتمال آلودگی پسین را محاسبه کنید. > 2. بازرس آزمایش B دیگری برای ماده شیمیایی c دارد که فقط 50٪ موارد زمانی که c وجود دارد > مثبت را ثبت می کند، اما این مزیت را دارد که هرگز > مثبت کاذب نمی دهد (به عنوان مثال، اگر c وجود نداشته باشد، آزمایش انجام می شود. هرگز نگو > هست). نتایج دو آزمون A و B با توجه به وجود یا عدم وجود c مستقل هستند. معلوم می شود که وقتی بازرس از تست B استفاده می کند، > نتایج منفی است. علاوه بر این، بازرس می داند که کارخانه > ضعیف نگهداری می شود. میزان آلودگی در کارخانه هایی با تعمیر و نگهداری ضعیف دو برابر بیشتر از میزان آلودگی در کارخانه ها است. احتمال آلودگی پسین را محاسبه کنید. > می دانم که اینها باید نسبتاً ابتدایی باشند، اما من گیر کردم. برای شماره 1 به پاسخی رسیده ام، اما مطمئن نیستم که درست باشد: با استفاده از قانون بیز، احتمال باید $P(c|مثبت) = \frac{P(مثبت|c)P(c)}{P باشد. (مثبت)}$ حالا فکر می کنم که $P(مثبت)$ باید باشد: $P(مثبت) = P(مثبت،c)+P(مثبت،\neg c) = P(مثبت|c)P(c) + P(مثبت|\neg c)P(\neg c)$ بنابراین: $P(c|مثبت) = \frac{P(مثبت|c)P(c)}{P(مثبت|c) P(c) + P(مثبت|\neg c) P(\neg c)}$ $P(c|مثبت) = \frac{1 * 0.05}{1 * 0.05 + 0.1 * 0.95} = 0.34$ **آیا این درست است؟** در قسمت شماره 2 فکر کردم چون قرار است مستقل باشند این باید وجود داشته باشد: $ P(A_{positive} \cap B_{negative}|c) = P(A_{مثبت} |c)*P(B_{منفی}|c) $ ابتدا نرخ پایه را تنظیم کردم و شماره 1 را مجدداً محاسبه کردم: $P(c|A_{مثبت}) = \frac{1 * 0.1}{1 * 0.1 + 0.1 * 0.9} = 0.52 $ سؤال می گوید: نتایج منفی است. بنابراین B ​​باید باشد: $P(c|B_{منفی}) = \frac{P(B_{منفی}|c)P(c)}{P(B_{منفی}|c) P(c) + P( B_{منفی}|\neg ج) P(\neg c)} = \frac{0.5 * 0.1}{0.5 * 0.1 + 1 * 0.9} = 0.05$ P(c|A_{مثبت} \cap B_{منفی}) = \frac{P(A_{مثبت} \cap B_{منفی}|c) * P(c)}{P(A_{مثبت} \cap B_{منفی})} = \frac{P(A_{مثبت}|c) * P(B_{منفی}|ج) * P(c)}{P(A_{positive} \cap B_{negative})} $ **بعدش باید چکار کنم؟**
قانون بیز و نرخ پایه
10363
من کنجکاو در مورد رویه‌های تکرارشونده‌ای هستم که می‌توان برای کشف شکل عملکردی تابع «y = f(A, B, C) + error_term» استفاده کرد که در آن تنها ورودی من مجموعه‌ای از مشاهدات است («y»، «A» ، B و C). لطفاً توجه داشته باشید که شکل عملکردی «f» ناشناخته است. مجموعه داده زیر را در نظر بگیرید: AA BB CC DD EE FF == == == == == == 98 11 66 84 67 10500 71 44 48 12 47 7250 54 28 90 73 95 5465 71 44 48 12 37 0 79 43 3221 68 79 1 65 9 4721 53 2 90 10 18 3095 38 75 41 97 40 4558 29 99 46 28 96 5336 274 221 89 78 39 492 10 28 39 59 64 1178 11 59 56 25 5 3418 10 4 79 98 24 431 86 36 84 14 67 10526 29776 29776 2976 12 43 3 5411 14 63 2 9 52 368 99 62 56 81 26 13334 56 4 72 65 33 3495 51 40 62 11 52 5178 29 2024 29 724 17 72 1926 44 45 30 25 5 3360 6 3 65 16 87 288 در این مثال، فرض کنید که می دانیم FF = f(AA، BB، CC، DD، EE) + عبارت خطا، اما مطمئن نیستیم در مورد شکل عملکردی «f(...)». برای یافتن شکل عملکردی «f(...)» از چه روشی/از چه روشی استفاده می کنید؟ (نقطه امتیاز: بهترین حدس شما در تعریف «f» با توجه به داده‌های بالا چیست؟ :-) و بله، یک پاسخ «درست» وجود دارد که «R^2» بیش از 0.99 به دست می‌دهد.)
داده کاوی: چگونه باید فرم عملکردی را پیدا کنم؟
48547
در چند ماه، من چارچوبی را برای استفاده از شبکه های عصبی (کتابخانه FANN) در یک نرم افزار تجارت نمودار ایجاد کرده ام. این چارچوب به من اجازه می‌دهد هر ورودی را برای NN ترکیب کنم، نرخ یادگیری، تکانه، متغیرهای تابع فعال‌سازی، تعداد لایه‌ها و تعداد نورون‌ها را در آنها انتخاب کنم... تقریباً هر چیزی که کتابخانه FANN ارائه می‌دهد. زیر رابط کاربری است. (نسخه tl;dr در زیر) ![UI Framework](http://i.stack.imgur.com/lcoSJ.png) اساساً، من نمی دانم اکنون با آن چه کار کنم. اینترنت تا کنون تنها منبع اطلاعات من بوده است و من از هر چیزی سپاسگزار خواهم بود زیرا در حال حاضر تقریباً گیر کرده ام و نمی توانم جایی حرکت کنم (این پروژه برای مدرک کارشناسی ارشد من الزامی است). من تنظیمات مختلفی را امتحان کرده‌ام و در حال حاضر، فقط ورودی‌ها و پارامترهای NN را بدون هدف تغییر می‌دهم. مشکل این است که هر کاری که انجام می دهم و سپس با تدریس شروع می کنم، NN فقط خودش را به صفر تقریب می زند. من یادگیری افزایشی، یادگیری دسته ای، مقادیر مختلف نرخ یادگیری و حرکت را امتحان کرده ام. به عنوان خروجی که با آن شبکه را آموزش می‌دهم، از شیب منحنی رگرسیون خطی برای میله‌های X زیر استفاده می‌کنم (10 در تصویر در قسمت Output Window). من از انواع چیزها برای ورودی استفاده کرده ام. تصویر دو نوسان ساز CCI را نشان می دهد - هر دو دارای 10 به عنوان پنجره ورودی هستند که به این معنی است که در مجموع 20 ورودی به شبکه عصبی وجود دارد، تفاوت بین آنها طول میانگین متحرک ساده داخلی (15 و 50) است و هر دوی آنها هستند. از آنجایی که من از سیگموئید دوقطبی به عنوان تابع فعال سازی استفاده می کنم، با حداکثر و حداقل کل مجموعه داده در محدوده -1، 1 مقیاس شده است. اما واقعاً، من می‌توانم خود قیمت، حجم یا روز/ساعت، هر میانگین یا هر مشتق دیگری مانند CCI را به عنوان ورودی وارد کنم و انتخاب کنم که چگونه باید مقیاس شود (با حداقل/حداکثر کل مجموعه داده یا بر اساس حداقل/حداکثر پنجره ورودی). من چیزهای ساده ای مانند انتخاب فقط قیمت های بسته 10 میله آخر یا چیزهای فوق العاده پیچیده مانند سه CCI با طول های مختلف، دو میانگین متحرک نمایی، ساعت، روز، آخرین تغییر حجم را امتحان کرده ام.....بیش از 50 ورودی وجود داشت، من از تنظیمات لایه پنهان مختلف استفاده کرده ام... ...اما در نهایت، شبکه عصبی تقریباً به صفر می رسد. من نمی دانم این به چه معناست. من فکر می کردم که شبکه عصبی به سادگی می گوید: با این کار زحمت ندهید، هیچ رابطه ای بین ورودی هایی که استفاده می کنید و شیب منحنی رگرسیون خطی وجود ندارد. اما بعد فکر می‌کنم نمی‌تواند درست باشد - می‌توانم ببینم که واقعاً دو قسمت بالا و پایین وجود دارد، می‌توانم ببینم که واقعاً الگوهایی وجود دارند که دو CCI را ترکیب می‌کنند که به طور مکرر کار می‌کنند (الگوهایی که در کتابی برای مبتدیان معاملات روزانه توضیح داده شده است). من از داده های معاملاتی 3 ماهه S&P 500 e-mini استفاده می کنم که با 1000 تیک گروه بندی شده اند. من فکر می کردم که شاید 3 ماه خیلی زیاد باشد، احتمالاً باید فقط یک ماه تلاش کنم و خوب، تقریب به صفر هنوز اتفاق می افتد، اما فقط زمان بیشتری می برد. تنها با استفاده از یک مجموعه داده واقعاً محدود (مانند چند روز)، شبکه عصبی در واقع تلاش می‌کند خودش را جا دهد، اما من به وضوح می‌توانم بگویم که برای چنین بازه زمانی کوتاهی بیش از حد آموزش دیده است. من شبکه‌های عصبی را زیاد مطالعه کرده‌ام، با این حال احساس می‌کنم برخی فرضیات نادرست در مورد نحوه استفاده یا عدم استفاده از آنها داشته‌ام. تا اینجا، من فکر می کردم که استفاده از ورودی های مختلف و شیب رگرسیون خطی به عنوان خروجی، NN را به یافتن رابطه ای بین این دو سوق می دهد. من می خواهم NN حتی کوچکترین رابطه ای را که پیدا شده اغراق کند و فکر کردم که ممکن است این کار با استفاده از تکانه بالا و نرخ یادگیری بالا انجام شود... NN هنوز تقریباً به صفر می رسد :( شاید NN اصلاً قرار نیست اینطور کار کند ... من چیزهای زیادی در مورد آنها یاد گرفته ام، اما خیلی کم می دانم که بتوانم به نتیجه ای برسم. **TL;DR**: شبکه عصبی من برای انواع ورودی های مختلف با تنظیمات مختلف به صفر می رسد، آیا می دانید چرا ایده، توصیه، منبع جالبی در مورد استفاده از شبکه عصبی برای تجارت وجود دارد؟ می دانید، حداقل، کجا دیگر بپرسید **ویرایش - مشکل پیدا شد، پاسخ من را در زیر ببینید**؟
استفاده از تجارت شبکه عصبی در بورس اوراق بهادار، بخش 2
93170
من داده ها را با متغیرهای طبقه بندی و متغیرهای پیوسته دارم، اما نیاز به یافتن ارزش اطلاعات در تجزیه و تحلیل داده های توضیحی است. فقط دلیل محاسبه مقدار اطلاعات برای هر متغیر را در ابتدای تجزیه و تحلیل داده ها بیان کنید و نقطه برش INFORMATION VALUE برای مراقبت از تجزیه و تحلیل چقدر خواهد بود.
چرا ارزش اطلاعات را محاسبه می کنیم؟
46664
من یک مجموعه آموزشی با 140 نمونه و بدون مجموعه اعتبار سنجی متقاطع جداگانه دارم. مجموعه داده شامل 7 اندازه گیری از هر یک از 20 شی است، از این رو 140 نمونه. هر یک از 7 اندازه گیری برچسب یکسانی دارند. مشکل من انتخاب طرح اعتبار متقاطع (CV) است. من می خواستم 20 برابر CV انجام دهم. اما این تقریباً همیشه مغرضانه خواهد بود زیرا زیر مجموعه‌های تصادفی اندازه‌گیری‌های شی متفاوتی را در هم خواهند داشت. در عوض، تصمیم گرفتم هر بار یک شی را کنار بگذارم، به عنوان مثال، در هر اجرای CV 20 برابری، یک مجموعه اعتبارسنجی شامل یکی از 7 نمونه است و 133 مورد باقیمانده مجموعه آموزشی خواهند بود. به نظر شما این یک طرح CV منصفانه است؟
اعتبار سنجی متقاطع یک شی را کنار بگذارید.
6945
در قرعه کشی، 1/10 از 50 000 000 بلیط جایزه می دهد. حداقل بلیط هایی که باید بخرند تا حداقل 50 درصد شانس برنده شدن داشته باشند چقدر است؟ بسیار خوشحال خواهم شد اگر بتوانید روش خود را هنگام حل این مشکل توضیح دهید. اگر می خواهید این را به عنوان تکلیف در نظر بگیرید.
حداقل بلیط های مورد نیاز برای احتمال مشخص شده برنده شدن در قرعه کشی
48544
این سوالی است که من را درگیر کرده است زیرا می بینم که این عمل در بسیاری از مقالات پزشکی انجام شده است. این سناریو است: شما یک مدل پیش آگهی از جمعیت عمومی بیماران مبتلا به سرطان پستان با معیارهای خروج معقول مانند هیچ سرطان قبلی ایجاد می کنید. متغیرهای شما در نهایت سن، وضعیت گیرنده HER2 و وضعیت گیرنده استروژن هستند. آنچه من در بسیاری از مقالات می بینم این است که نویسندگان مدل را تأیید می کنند، اما سپس آن را روی گروه های متعددی از بیماران با ویژگی های بسیار خاص آزمایش می کنند. مانند عملکرد آزمایش فقط برای بیماران HER2+ و ER+، یا فقط در بیماران جوانی که در مرحله III هستند. سپس آن‌ها چیزهایی از این قبیل می‌گویند: «این مدل روی بیماران ER+/HER2- عملکرد خوبی داشت، اما در کل بیماران HER2+ عملکرد خوبی نداشت». چیزی در دل من می گوید که تمرین یک مدل بر روی یک جمعیت گسترده بیماران و سپس آزمایش آن بر روی چندین زیرمجموعه مختلف از بیماران (مثلاً فقط بیماران مرحله III یا فقط بیماران کمتر از 50 سال که سیاه پوست هستند) تمرین خوبی نیست. من از نظر آموزش یک آمارگیر نیستم، بنابراین هیچ مدرکی برای این موضوع ندارم. کسی می‌داند که آیا در این عمل مشکلات جانبداری وجود دارد؟
آموزش یک مدل بر روی یک جمعیت گسترده بیماران، سپس آزمایش بر روی یک جمعیت زیر مجموعه خاص
104237
من در مورد عملکرد یک پارامتر در تنظیم یک مدل اثر مختلط خطی (مدل سلسله مراتبی/چند سطحی) کمی گیج شده ام. به این ترتیب می فهمم که یک مدل چند سطحی (قطع و شیب تصادفی) تنظیم شده است: سطح 1: $$ y_{ij}=\beta_{0j}+\beta_{1j}x_{ij}+e_{ij} $$ (مشاهده $i$-th در گروه $j$ توسط یک رهگیری برای گروه $j$، یک شیب برای گروه $j$ پیش بینی کننده (در اینجا اولین و تنها) تخمین زده می شود و یک عبارت خطا برای گروه $j$.) سطح 2: قطع در هر گروه: $\beta_{0j}=\beta_0+u_{0j}$ (وقفه برای گروه $j$ توسط یک رهگیری جهانی و یک متغیر تصادفی برای گروه $j$.) `شیب در هر گروه:` $\beta_{1j}=\beta_1+u_{1j}$ (شیب برای گروه $j$ است تخمین زده شده توسط یک وقفه جهانی برای اولین پیش بینی کننده و یک متغیر تصادفی برای $j$-th گروه اولین پیش بینی کننده.) اما من با روش دیگری برای نوشتن وقفه در هر گروه روبرو شده ام: `فاصله برای گروه:` $\beta_{ 0j}=\beta_0+\beta_{0ij}x_{0ij}+u_{0j}$ تفسیر من از این خواهد بود: فاصله گروه $j$ توسط یک جهانی تخمین زده می‌شود رهگیری و شیب برای $i$-th مشاهده در گروه $j$ ضرب با پیش بینی $x$ برای رهگیری و یک متغیر تصادفی برای گروه $j$. اولین سوال من این است که آیا زیرنویس شیب و پیش بینی کننده رهگیری خاص گروه را به درستی تفسیر می کنم؟ این چیزی است که من حدس می‌زنم: $\beta_{0ij}$: $0:=$ فقط برای ثبات وجود دارد. $i:=$ مشاهده; گروه $j:=$. (1) چرا متغیر $x_{0ij}$ و پارامتر/ضریب $\beta_{0ij}$ گنجانده شده است؟ (2) آیا آنها در واقع به عنوان یک پیش بینی ثابت در تخمین شیب عمل می کنند؟ (3) آیا واقعاً سه اشتراک مورد نیاز است؟ (4) من این ادعا را خواندم که $x_{0ij}$ و $\beta_{0ij}$ به منظور تقارن کردن مدل گنجانده شده اند. این به چه معناست؟
تفسیر فرمول ریاضی مدل اثر مختلط
59636
من سعی می‌کنم منحنی کاپلان-مایر داده‌هایم را با R رسم کنم. در حال حاضر، داده‌ها در قالب زیر هستند: بیمار_id;تعداد_روزها;بقا 1;100;T1;200;F 1;300;F2;50 ;F... بقا در زمینه من نباید به معنای واقعی کلمه تفسیر شود: به معنای پیشرفت بیماری است که فقط در موارد بیشتر ارزیابی می شود. یا نقاط زمانی با فاصله کمتر. من در تعیین اینکه تابع Surv چه چیزی را به عنوان ورودی انتظار دارد مشکل دارم؟ چگونه باید داده ها را آماده کنم؟ سعی کرده‌ام داده‌هایم را مستقیماً به «Surv» برسانم: Surv(data$number_of_days,data$survival) با این حال به نظر می‌رسد هر بیمار چندین بار (یک بار در هر نقطه زمانی) شمارش می‌کند. بنابراین حدس من این است که ابتدا باید نوعی تغییر در داده‌هایم اعمال کنم. من نسبتاً مطمئن هستم که این مشکل تبدیل داده های طولی به داده های رویداد باید نسبتاً رایج باشد، بنابراین چگونه نامیده می شود؟ آیا قبلاً در جایی اجرا شده است؟ با تشکر
چگونه داده های طولی را برای تجزیه و تحلیل بقا آماده می کنید؟
59637
اخیراً من شروع به تأیید پیش بینی دمای روزانه توسط ارائه دهندگان مختلف کردم. من خطاهای پیش‌بینی مطلق را برای هر یک از ارائه‌دهندگان محاسبه کردم، و در حال برنامه‌ریزی برای انجام ANOVA هستم تا بررسی کنم که آیا تفاوت در میانگین خطای مطلق بین ارائه‌دهندگان قابل توجه است یا خیر. بنابراین اجازه دهید بگوییم که نمونه من شامل 110 خطای پیش بینی دمای حداکثر روزانه برای 5 ارائه دهنده مختلف است. خطاهای پیش بینی به عنوان تفاوت بین دمای واقعی، به دست آمده از نزدیکترین ایستگاه گزارش آب و هوا و پیش بینی های هر یک از ارائه دهندگان به دست می آید. چیزی که من را در اینجا گیج می کند استقلال نمونه است، زیرا من از همان مجموعه مقادیر دمای واقعی برای به دست آوردن خطاهای هر یک از پیش بینی ها استفاده می کنم. هر چه بیشتر در مورد استقلال نمونه ها می خوانم بیشتر گیج می شوم. آیا در این مورد فرض استقلال نقض می شود؟ علاوه بر این، توزیع نمونه تقریباً نمایی است، بنابراین سعی کردم با تبدیل آن را به توزیع نرمال تقریب دهم. با این حال، آزمون‌های معنی‌داری نرمال بودن نشان می‌دهد که توزیع همچنان غیر نرمال است، با مقدار p 0.01. چگونه می توانم تعیین کنم که آیا فرض توزیع نرمال به طور جدی نقض نشده است، زیرا در بسیاری از رشته ها خوانده ام که آزمایش را می توان انجام داد حتی اگر فرض نرمال بودن به طور متوسط ​​نقض شود؟
استقلال نمونه ها
110185
این یک سوال بعدی است که آیا PCA برای مقایسه زیر مجموعه‌های داده‌های تابلویی مناسب است؟ معلوم می شود که، بله، PCA مناسب است. اما راه‌های بسیار دیگری نیز برای کاهش داده‌های n بعدی به ابعاد 1-3 وجود دارد که می‌توان آن‌ها را تجسم کرد، و من در دریافت یک نمای کلی از مجموعه تکنیک‌های موجود برای انجام این کار با مشکل مواجه هستم. مثلاً در این سؤال و این سؤال به چند مورد اشاره شده است. سوال اخیر پیوندی به کاهش ابعاد غیرخطی در ویکی پدیا دارد که برای یک مقاله ویکی پدیا در مورد یک موضوع فنی نسبتاً جامع و حتی دایره المعارفی است. اما هنوز ویکی پدیا است و من دوست دارم همه چیز را در یک مکان داشته باشم. _edit:_ این سوال هم از امروز هست. **آیا مرجع تا حدودی جامعی برای کاهش ابعاد وجود دارد؟** به عنوان مثال، من واقعاً می خواهم توضیحی در مورد اینکه چرا رویکردهای مبتنی بر چندگانه (مانند ISOMAP) متفاوت یا بهتر از رویکردهای مبتنی بر فاصله (مثلاً کلاسیک) هستند، توضیح دهم. MDS). در حالت ایده‌آل، این شامل برخی از درمان‌های معیارهای فاصله مختلف نیز می‌شود. در نهایت **من سعی می کنم به انواع سوالاتی که هر تکنیک برای پاسخگویی طراحی شده است دست پیدا کنم**. بدیهی است که این موضوع می تواند بزرگتر از آن چیزی باشد که من فکر می کنم. من می دانم که، به عنوان مثال، نقشه های خودسازمانده نوعی شبکه عصبی هستند، و شبکه های عصبی کاملاً متفاوت از، مثلاً، مقیاس بندی چند بعدی هستند. من امیدوارم که مرجع یا مجموعه ای از مراجع وجود داشته باشد که نیازی به دانستن جزئیات زیربنایی هر رویکرد نداشته باشد. یادگیری همه چیزهایی که باید در مورد آمار بدانیم یک فرآیند طولانی است و من هنوز کاملاً به آنجا نرسیده ام (اگرچه تا حدی به لطف این سایت پیشرفت خوبی دارم).
مرجع تکنیک های کاهش ابعاد
70355
من باید اعداد تصادفی را بر اساس داده های همبستگی جزئی موجود (نه داده های همبستگی یا کوواریانس) ایجاد کنم. به طور خاص، یک ماتریس 12*168 بر اساس یک ماتریس همبستگی جزئی 12*12. ایده شبیه سازی یک ماتریس داده است که می تواند برای آزمایش چند جزء از یک پروژه استفاده شود. هر گونه کمک در این زمینه قدردانی خواهد شد. من به اطراف نگاه کردم اما هیچ موضوعی پیدا نکردم که در مورد انجام این کار با داده های همبستگی جزئی صحبت کند. اگر کسی ایده ای در مورد پیاده سازی در متلب داشته باشد، این یک امتیاز خواهد بود! پیشاپیش بسیار متشکرم موارد اضافی: با پوزش از هرگونه ابهام. - منظور من از ماتریس همبستگی جزئی، ماتریسی است که شامل همبستگی های جزئی است که برای هر دو جفت با جدا کردن اثر جزئی همه جفت های دیگر محاسبه می شود. -هدف این است: با توجه به ماتریسی از مقادیر همبستگی جزئی، آیا راهی وجود دارد که بتوانم یک مجموعه داده (12*168) تولید کنم که این مقادیر همبستگی جزئی را داشته باشد؟ -اگر روشی برای تبدیل همبستگی جزئی به مقادیر همبستگی وجود داشته باشد، قابل قدردانی است. بازم ممنون
تولید اعداد تصادفی بر اساس داده های همبستگی جزئی
104234
من تعدادی از اشیاء (مانند دانش آموزان) و نمرات آنها (احتمالاً به رتبه های صدک تبدیل شده است) در رویدادهای مختلف (مثلاً آزمون) دارم. من می‌خواهم دانش‌آموزانی را شناسایی کنم که به طور مداوم نمرات بالایی (مثلاً 10 درصد برتر) در رویدادها کسب کردند. اولین ایده من برای هر دانش آموز این بود که رتبه های صدک خود را در آزمون ها به طور میانگین (یا میانه بگیریم). با این حال، آیا این روش را توصیه می کنید؟ آیا اخطارهایی وجود دارد که باید از آن آگاه باشم؟ من سعی کردم یک جستجوی سریع وب انجام دهم و کسی این کار را انجام نداده است.
میانگین رتبه های صدکی
9416
من آزمایشی برای یافتن پهنای باند موثر n/w انجام داده ام. داده هایی که من بر حسب کیلوبیت بر ثانیه دریافت کردم 223، 221، 510، 220، 471، 229، 222، 221، 220، 221 است. چگونه می توانم پهنای باند موثر را پیدا کنم؟ میانگین 275.8 می دهد. اما اگر من فقط 4 راند اول را انجام داده باشم، میانگین آن 293.5 است. چگونه می توانم مقدار معقول تری به عنوان پهنای باند موثر پیدا کنم. یا اینکه میانگین گیری روش صحیحی برای انجام این کار است؟
چگونه با استفاده از آمار، پهنای باند موثر را به درستی پیدا کنیم؟
806
اخیراً سؤالات متعددی در مورد عادی سازی وجود داشته است. برخی از موقعیت هایی که هرگز نباید داده های خود را عادی سازی کنید، چیست و چه گزینه هایی وجود دارد؟
چه زمانی نباید از نرمال سازی استفاده کرد؟
80171
متاسفم اگر این را دقیق توصیف نمی کنم. من توزیع طول یک پروتئین را دارم. برای پروتئین‌هایی که نزدیک به میانگین طول هستند، با توجه به اینکه پروتئین‌های بسیار بیشتری با این میانگین وجود دارد، نقاط داده بسیار بیشتری دارم. بنابراین من بیشتر مطمئن هستم که خواص آن پروتئین هایی با حجم نمونه بزرگ بومی تر هستند. با این حال، هنگامی که به دنباله های توزیع نزدیک می شوید، اندازه نمونه شما کاهش می یابد، بنابراین خواص آن پروتئین هایی با طول های بزرگ یا کوچک ممکن است خطای بیشتری داشته باشند زیرا حجم نمونه کمتر است. آیا کسی می تواند به من کمک کند که برای مقایسه طول ها باید با چه چیزی نرمال کنم؟ من می دانم که این یک مشکل شناخته شده در آمار است، اما مطمئن نیستم که نام آن چیست.
مقایسه توزیع نمونه برای توزیع‌های نمونه جمعیتی پایین‌تر باید با چه چیزی نرمال‌سازی کنم؟
6224
من از تابع lmer در بسته lme4 به منظور ارزیابی اثرات 2 اثر ثابت طبقه بندی شده (گروه حیوانی 1 درجه: جوندگان و مورچه ها؛ 2 درجه زیستگاه: خاک برهنه و زیر پوشش) بر شکار بذر (یک متغیر وابسته به تعداد) استفاده کردم. ). من 2 سایت دارم، با 10 درخت در هر سایت و 4 ایستگاه بذر در هر درخت. Site و Tree فاکتورهای تصادفی من (از نظر فلسفی) هستند، اما با توجه به اینکه من فقط دو سطح برای Site دارم، باید به عنوان یک عامل ثابت در نظر گرفته شود. من در مورد نحوه تفسیر نتایج سؤالاتی دارم: 1. من یک معیار انتخاب مدل را بر اساس QAICc ایجاد کردم، اما بهترین مدل (QAICc پایین) هیچ اثر ثابت قابل توجهی ندارد و سایر مدل‌ها با QAIC بالاتر (مثلاً مدل کامل) فاکتورهای ثابت قابل توجهی پیدا کرد. آیا این منطقی است؟ 2. با توجه به یک عامل ثابت که برای مدل مهم است، چگونه تشخیص دهم که کدام سطح از عامل ثابت بر متغیر پاسخ تأثیر می گذارد؟ در نهایت، همبستگی بین عوامل ثابت حاکی از برآورد نادرست مدل است؟ FullModel=lmer(SeedPredation ~ AnimalGroup*Microhabitat*Site + (1|Site:Tree) + (1|obs), data=datos, family=poisson) QAICc(FM)104.9896 enterGeneralized مدل مختلط خطی متناسب با تقریب لاپلاس فرمول: SP ~ AG * MH * سایت + (1 | Site:Tree) + (1 | obs) داده: datos AIC BIC logLik انحراف 101.8 125.6 -40.9 81.8 اثرات تصادفی: نام گروه ها Variance Std.Dev. obs (Intercept) 0.20536 0.45317 Site:Tree (Intercept) 1.19762 1.09436 تعداد obs: 80 گروه: obs, 80; Site:Tree, 20 Fixed Effects: Estimate Std. خطای z مقدار Pr(>|z|) (قطع) 0.01161 0.47608 0.024 0.9805 AGR -18.97679 3130.76500 -0.006 0.9952 MHUC -1.60706 -1.60704 0.2051 -1.60704 0.201 -1 -0.91424 0.74506 -1.227 0.2198 AGR:MHUC 19.92369 3130.76508 0.006 0.9949 AGR:Site2 1.02241 4431.84909 MHUC 0.09. 1.80029 0.86235 2.088 0.0368 * AGR:MHUC:Site2 -3.49042 4431.84933 -0.001 0.9994 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) AGR MHUC Site2 AGR:MHUC AGR:S2 MHUC:S AGR 0.000 MHUC -0. 0.000 Site2 -0.639 0.000 0.180 AGR:MHUC 0.000 -1.000 0.000 0.000 AGR:Site2 0.000 -0.706 0.000 0.000 0.706 MHUC:Site2 0.208 -0.008 -0.708 -0.000 0.000 AGR:MHUC:S2 0.000 0.706 0.000 0.000 -0.706 -1.000 0.000 کد اینجا BestModel=lmer(SP ~ AG * MH + (1|Site:Tree) + (1|obs, family, data=pois) ) QAICc(M) 101.4419 مدل مختلط خطی تعمیم یافته متناسب با تقریب لاپلاس فرمول: SP ~ AG + AG:MH + (1 | Site:Tree) + (1 | obs) داده ها: datos AIC BIC logLik انحراف 100.3 114.6 -44.15 Nasndom 88. Variance Std.Dev. obs (Intercept) 0.76027 0.87194 Site:Tree (Intercept) 1.14358 1.06938 تعداد obs: 80 گروه: obs, 80; Site:Tree, 20 Fixed Effects: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -0.5153 0.4061 -1.269 0.205 AGR -18.7146 2603.4397 -0.007 0.994 AGA:MHUC -0.7301 -0.7301 -0.7301 0.5048 A. 17.7221 2603.4397 0.007 0.995
تفسیر خروجی GLMM (متن صحیح)
80179
من می خواهم چند توزیع دو بعدی را نمایش دهم، اما مطمئن نیستم که چگونه آنها را به درستی نگاشت کنم. توزیع‌های من دارای نوک‌های باریکی هستند، بنابراین نقشه‌برداری خطی احتمالات برای رنگ، بیشتر اطلاعات را پنهان می‌کند. من دو روش را امتحان کرده ام، انجام یک تنظیم گاما یا قطع مقادیر بالا در برخی از آستانه ها، در هر دو مورد سعی می کنم توزیع جینی خاصی را برای رنگ های نمایش داده شده هدف قرار دهم. اگرچه نتایج خیلی خوب نیست. من احساس می‌کنم که تبدیل‌های گاما واقعاً به CDF معکوس توزیع رنگ من نزدیک نیست. من تمایلی به استفاده از یک روش کاملاً محلی ندارم، زیرا نمی خواهم تمام تفاوت کنتراست مطلق را از دست بدهم. آیا تبدیل های پارامتریک دیگری وجود دارد که بتوانم آن را امتحان کنم؟
نگاشت تن یک توزیع دو بعدی
10366
من در دریافت $\bar u$ (برای نشان دادن میانگین مقادیر $u_i$) به عنوان برچسب برای محور x در شکل eps خروجی مشکل دارم. هر گونه کمکی قدردانی خواهد شد! با تشکر فراوان
استفاده از عبارت LaTeX در gnuplot
59630
من مجموعه داده ای دارم که حداکثر شامل 150 نمونه است (تقسیم شده به آموزش و آزمایش)، با ویژگی های بسیاری (بیش از 1000). من باید طبقه‌بندی‌کننده‌ها و روش‌های انتخاب ویژگی را با هم مقایسه کنم که عملکرد خوبی روی داده‌ها دارند. بنابراین، من از سه روش طبقه بندی (J48، NB، SVM) و 2 روش انتخاب ویژگی (CFS، WrapperSubset) با روش های مختلف جستجو (Greedy، BestFirst) استفاده می کنم. در حین مقایسه، دقت تمرین (تا زدن متقاطع 5 برابر) و دقت تست را بررسی می کنم. در اینجا یکی از نتایج J48 و CFS-BestFirst آمده است: { accuracyTraining : 95.83, accuracyTest : 98.21 } بسیاری از نتایج اینگونه هستند و در SVM نتایج زیادی وجود دارد که نشان می دهد دقت تست بسیار بالاتر از آموزش است. (آموزش: 60٪، آزمون: 98٪) چگونه می توانم این نوع نتایج را به طور معناداری تفسیر کنم؟ اگر پایین تر بود، می گویم بیش از حد مناسب است. آیا در مورد سوگیری و واریانس در این مورد با مشاهده همه نتایج چیزی می توان گفت؟ چه کاری می توانم انجام دهم تا این طبقه بندی معنادار شود، مانند انتخاب مجدد مجموعه های آموزشی و آزمایشی یا فقط استفاده از اعتبارسنجی متقابل در همه داده ها؟ من 73 مورد آموزش و 58 نمونه تست دارم. برخی از پاسخ ها این اطلاعات را در زمان ارسال نداشتند.
دقت تست بالاتر از آموزش چگونه تفسیر کنیم؟
6226
من در حال انجام یک تحلیل سری زمانی هستم. من بیشتر تحلیل‌هایم را در R انجام می‌دهم، جایی که می‌توانم از NA برای نشان دادن در دسترس نیست استفاده کنم (مثلاً یک نقطه داده از دست رفته). اما من در حال آماده سازی داده ها در OpenOffice هستم. در حال حاضر، من سلول ها را برای داده های از دست رفته خالی می گذارم. آیا راه بهتری برای اعلام NA بودن یک سلول وجود دارد؟
نمایش داده های از دست رفته در صفحه گسترده OpenOffice
80823
### زمینه _این سوال از R استفاده می کند، اما در مورد مسائل آماری کلی است._ من در حال تجزیه و تحلیل اثرات عوامل مرگ و میر (درصد مرگ و میر ناشی از بیماری و انگلی) بر نرخ رشد جمعیت پروانه در طول زمان هستم، جایی که جمعیت لارو از 12 نمونه نمونه برداری شد. سایت ها یک بار در سال به مدت 8 سال. داده های نرخ رشد جمعیت یک روند چرخه ای واضح اما نامنظم را در طول زمان نشان می دهد. بقایای یک مدل خطی تعمیم یافته ساده (نرخ رشد ~ % بیماری + % انگلی + سال) روند چرخه ای مشابه واضح اما نامنظمی را در طول زمان نشان دادند. بنابراین، مدل‌های حداقل مربعات تعمیم‌یافته با همان شکل نیز با ساختارهای همبستگی مناسب برای مقابله با خودهمبستگی زمانی، به عنوان مثال، به داده‌ها برازش داده شدند. ساختارهای همبستگی متقارن مرکب، نظم فرآیند اتورگرسیو 1 و ساختارهای همبستگی میانگین متحرک اتورگرسیو. همه مدل‌ها دارای اثرات ثابت مشابهی بودند، با استفاده از AIC مقایسه شدند و توسط REML برازش شدند (برای مقایسه ساختارهای همبستگی مختلف توسط AIC). من از بسته R nlme و تابع gls استفاده می کنم. ### سوال 1 باقیمانده‌های مدل‌های GLS هنوز الگوهای چرخه‌ای تقریباً یکسانی را هنگام ترسیم زمان نمایش می‌دهند. آیا چنین الگوهایی همیشه باقی خواهند ماند، حتی در مدل هایی که به طور دقیق ساختار خودهمبستگی را توضیح می دهند؟ من برخی از داده های ساده شده اما مشابه را در R در زیر سوال دوم خود شبیه سازی کرده ام، که این مسئله را نشان می دهد _بر اساس درک فعلی من از روش های مورد نیاز برای ارزیابی الگوهای همبستگی موقتی در باقیمانده های مدل_، که اکنون می دانم اشتباه هستند (پاسخ را ببینید). ### سوال 2 من مدل‌های GLS را با تمام ساختارهای همبستگی احتمالی ممکن به داده‌هایم برازش داده‌ام، اما هیچ‌کدام در واقع به طور قابل‌توجهی بهتر از GLM بدون ساختار همبستگی مناسب نیستند: فقط یک مدل GLS تا حدی بهتر است (امتیاز AIC = 1.8 کمتر)، در حالی که بقیه مقادیر AIC بالاتری دارند. با این حال، این تنها زمانی است که همه مدل‌ها توسط REML برازش می‌شوند، نه ML که در آن مدل‌های GLS به وضوح بسیار بهتر هستند، اما من از کتاب‌های آمار می‌دانم که شما فقط باید از REML برای مقایسه مدل‌هایی با ساختارهای همبستگی مختلف و اثرات ثابت یکسان به دلایلی استفاده کنید. من در اینجا به جزئیات نمی پردازم. با توجه به ماهیت آشکارا همبستگی زمانی داده ها، اگر هیچ مدلی حتی نسبتاً بهتر از GLM ساده نباشد، بهترین راه برای تصمیم گیری از کدام مدل برای استنتاج، با فرض استفاده از روش مناسب (در نهایت می خواهم استفاده کنم) چیست. AIC برای مقایسه ترکیبات متغیرهای مختلف)؟ ### «شبیه‌سازی» Q1 در حال بررسی الگوهای باقیمانده در مدل‌های با و بدون ساختارهای همبستگی مناسب، ایجاد متغیر پاسخ شبیه‌سازی شده با اثر چرخه‌ای «زمان» و اثر خطی مثبت «x»: زمان <- 1:50 x <- نمونه (تکرار (1:25، هر = 2)، 50) y <- rnorm(50،5،5) + (5 + 15*sin(2*pi*time/25)) + (x/1) y باید یک روند چرخه ای را در زمان با تغییرات تصادفی نشان دهد: نمودار (زمان، y) و یک رابطه خطی مثبت با x با تصادفی variation: plot(x,y) یک مدل افزودنی خطی ساده از y ~ time + x ایجاد کنید: نیاز(nlme) m1 <- gls(y ~ time + x, method=REML) مدل الگوهای چرخه‌ای واضحی را در باقیمانده‌ها هنگام ترسیم در برابر «زمان» نشان می‌دهد، همانطور که انتظار می‌رود: نمودار (زمان، m1$residuals) و فقدان خوب و واضحی از هر گونه الگو یا روند در باقیمانده‌ها هنگام ترسیم در برابر «x» باید باشد. : plot(x, m1$residuals) یک مدل ساده از y ~ time + x که شامل یک ساختار همبستگی خودرگرسیون از مرتبه 1 است، باید با داده ها بسیار بهتر از مدل قبلی مطابقت داشته باشد زیرا ساختار خودهمبستگی، زمانی که با استفاده از AIC ارزیابی می‌شود: m2 <- gls(y ~ زمان + x، همبستگی = corAR1(form=~time)، روش = REML) AIC(m1،m2) با این حال، مدل هنوز باید تقریباً نمایش داده شود باقیمانده‌های همبسته خودکار «زمان» یکسان: طرح (زمان، m2$ باقی‌مانده) از راهنمایی شما بسیار متشکرم.
آیا الگوهای باقیمانده خودهمبسته حتی در مدل هایی با ساختارهای همبستگی مناسب باقی می مانند و چگونه بهترین مدل ها را انتخاب کنیم؟
41145
ما به یک سیستم هشدار اولیه نیاز داریم. من با سروری سروکار دارم که مشخص است مشکلات عملکردی تحت بارگذاری دارد. خطاها همراه با مهر زمانی در یک پایگاه داده ثبت می شوند. برخی از مراحل مداخله دستی وجود دارد که می‌توان برای کاهش بار سرور انجام داد، اما تنها در صورتی که کسی از این موضوع آگاه باشد... با توجه به مجموعه‌ای از زمان‌هایی که خطاها رخ داده است، چگونه می‌توانم شروع یک جهش در خطاها را شناسایی کنم (در زمان واقعی)؟ ما می توانیم به صورت دوره ای یا روی هر رخداد خطا محاسبه کنیم. ما نگران خطاهای گاه به گاه نیستیم، اما آستانه خاصی نداریم. من فقط می‌توانم هر زمان که مثلاً سه خطا در عرض پنج دقیقه دریافت می‌کنیم به کسی اطلاع دهم، اما مطمئن هستم که راه بهتری وجود دارد... من می‌خواهم بتوانم حساسیت الگوریتم را بر اساس بازخوردهای sysadmin تنظیم کنم. . در حال حاضر، آنها دوست دارند نسبتاً حساس باشد، حتی اگر می‌دانیم که می‌توانیم انتظارات مثبت کاذب را داشته باشیم. من یک آماردان نیستم، که مطمئنم واضح است، و پیاده سازی آن باید با ابزارهای موجود ما نسبتاً ساده باشد: SQL Server و ASP JScript قدیمی. من به دنبال پاسخ در کد نیستم، اما اگر به نرم افزار اضافی نیاز داشته باشد، احتمالاً برای ما کار نخواهد کرد (اگرچه برای کنجکاوی خودم از راه حل های غیر عملی اما ایده آل به عنوان نظر استقبال می کنم).
روشی ساده برای شناسایی الگوریتمی افزایش خطاهای ثبت شده
6225
همانطور که سوال بیان می کند - آیا می توان فرضیه صفر را اثبات کرد؟ از درک (محدود) من از فرضیه، پاسخ منفی است، اما نمی توانم توضیح دقیقی برای آن ارائه دهم. آیا سوال پاسخ قطعی دارد؟
آیا می توان فرضیه صفر را اثبات کرد؟
40899
مطمئن نیستم که آیا این یک سوال معتبر است. می خواستم بدانم که آیا پاسخ های خوبی برای این سوال وجود دارد: > در چه شرایطی منحنی توان در > آزمون فرضیه صاف یا پیوسته نیست؟ با تشکر
شرایطی که در آن منحنی توان در آزمون فرضیه صاف یا پیوسته نیست
33809
من دو مدل رگرسیون لجستیک دارم که از مجموعه داده های یکسان و متغیر باینری وابسته یکسان استفاده می کنند، اما با اندازه های نمونه متفاوت به دلیل IV های مختلف. چگونه می توانم این دو مدل را جدا از استفاده از ماتریس طبقه بندی مقایسه کنم؟
چگونه دو مدل رگرسیون لجستیک را مقایسه کنم؟
59638
آیا هدف از آزمایش جایگشت آزمایش این است که چندین گروه از نمونه ها از توزیع یکسانی می آیند؟ من متوجه شدم که مراحل آن عبارتند از > مراحل یک محاسبه مبتنی بر جایگشت سطح اهمیت یک > آمار آزمون به شرح زیر است: > > i) یک آمار آزمون را انتخاب کنید، به عنوان مثال. یک نمره t برای مقایسه دو گروه، > > ii) آمار آزمون را برای ژن مورد نظر محاسبه کنید، > > iii) برچسب ها را بر روی نمونه ها به طور تصادفی تغییر دهید، و آزمون > آمار را برای برچسب های بازآرایی مجدد دوباره محاسبه کنید. تکرار برای تعداد زیادی (شاید > 1000) جایگشت، و در نهایت، > > iv) کسری از مواردی را محاسبه کنید که در آن آمار آزمون از iii) > از آمار آزمون واقعی از ii بیشتر شود. در مرحله اول چه نوع آمار آزمونی را باید انتخاب کرد؟ مثال از امتیاز t استفاده می کند که تفاوت بین دو گروه را اندازه می گیرد. اما به نظر من هر آماری جواب می دهد، نه لزوماً اندازه گیری تفاوت بین دو گروه. آیا درست است؟ با تشکر و احترام!
چگونه آمار آزمون را برای تست جایگشت انتخاب کنیم؟
80824
سرپرست من یک متغیر پاسخ به من داده است که یک متغیر شمارش است، همراه با 15 متغیر توضیحی. از آنجایی که پاسخ یک شمارش است، من به انجام رگرسیون پواسون یا منفی دو جمله ای روی پاسخ فکر می کردم. با این حال، پس از محاسبه جدول همبستگی و VIFها، متوجه شدم که برخی از متغیرهای توضیحی همبستگی بالایی دارند. من از سرپرستم پرسیدم که آیا می توانم از شر برخی از متغیرهای توضیحی خلاص شوم تا از مشکل چند خطی بودن جلوگیری کنم، اما او جواب منفی داد. چگونه می توانم با خیال راحت GLM را به داده ای تحمیل کنم که هم خطی بالایی دارد (برخی از ضرایب همبستگی بیش از 90/0 است)؟
استفاده از مدل خطی تعمیم یافته برای داده هایی با هم خطی بالا
86260
من مدلی با این فرمول دارم: $$ Y_n=aX_n^b + e_n $$ $$ X_n \in [0,2] \quad\quad a = 1.5 \quad\quad b = 0.5 \quad \quad e_n = N (μ = 0، σ^2 = 1) $$ من می خواهم مقدار $Y_n$ را با استفاده از الگوریتم Metropolis Hastings پیش بینی کنم یا الگوریتم گیبز در این شرایط: (1) اگر N = 1 و X_1$ = 1، سپس Y_1$ = 0.5 (2) اگر N = 1 و X_1$ = 2، سپس Y_1$ = 1.2 (3) اگر N = 2 و $X_1$ = 1 و $X_2$ = 2 سپس Y_1$ = 0.5 و $Y_2$ = 1.2 چرا «متروپلیس هستینگز» را به جای «گیبز» انتخاب کردید و بالعکس؟ دلایل شما؟ مزایا؟ معایب؟
چگونه می توان مقدار Yn را در این فرمول با متروپلیس هاستینگز یا گیبس پیش بینی کرد؟
51328
موقعیتی به من داده می شود که در آن یک میانگین ناشناخته، mu و یک واریانس شناخته شده دارم. من اطلاعات قبلی در مورد میانگین دارم که از توزیع نرمال پیروی می کند و میانگین و واریانس خاصی دارد که داده شده است. اطلاعات نمونه ندارم از اینجا به کجا بروم تا احتمالات متغیر مورد علاقه خود را پیدا کنم؟
آمار بیزی - توزیع نرمال: واریانس شناخته شده، میانگین ناشناخته
5270
من داده‌هایی دارم که پس از جستجوی زیاد، به این نتیجه رسیدم که احتمالاً از استفاده از یک مدل جلوه‌های ترکیبی خطی سود می‌برند. فکر می‌کنم در اینجا نتیجه جالبی دارم، اما در فهمیدن اینکه چگونه همه نتایج را تفسیر کنم کمی مشکل دارم. این چیزی است که من از تابع summary() در R بدست می‌آورم: > summary(nonzero.lmer) مدل خطی ترکیبی متناسب با فرمول REML: relative.sents.A ~ relative.sents.B + (1 | id.A) + ( 1 |. چکیده) داده ها: غیرصفر AIC BIC logLik انحراف REMLdev -698.8 -683.9 354.4 -722.6 -708.8 اثرات تصادفی: نام گروه ها Variance Std.Dev. id.A (Intercept) 1.0790e-04 0.0103877 abstract (Intercept) 3.0966e-05 0.0055647 Residual 2.9675e-04 0.0172263 تعداد obs: 146، گروه: 146; Abstract, 52 Fixed Effects: Estimate Std. مقدار خطای t (Intercept) 0.017260 0.003046 5.667 relative.sents.B 0.428808 0.080050 5.357 همبستگی اثرات ثابت: (Intr) rltv.snts.B -0.742 سوال من متغیر وابسته است. (relative.sents.A) و relative.sents.B زمانی که عوامل تصادفی فاکتورگیری شوند. من جمع می کنم که مقدار t 5.357 برای relative.sents.B باید معنی دار باشد. اما آیا این نشان می دهد که جهت اثر چیست؟ من فکر می کنم که چون ضریب شیب مثبت است، به این معنی است که با افزایش relative.sents.B، متغیر وابسته من نیز افزایش می یابد. آیا این درست است؟ کتابی که استفاده می‌کنم به طور خلاصه اشاره می‌کند که همبستگی گزارش شده در اینجا یک همبستگی عادی نیست، اما به جزئیات نمی‌پردازد. به طور معمول، من آنجا را نگاه می کنم تا جهت و اندازه اثر را بفهمم. آیا این اشتباه است؟ اگر در هر دو مورد اشتباه می‌کنم، پس راه خوب (امیدوارم نسبتاً ساده) برای کشف جهت و اندازه اثر چیست؟
تفسیر اندازه و جهت اثرات ثابت در یک مدل خطی اثر مختلط
55667
با توجه به سوال زیر... ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/L86Hi.jpg) من هنوز نمی دانم چرا $$P(T|L)$$ است و نه $$P(L|T)$$ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bnqcx.jpg) لطفاً از هر توصیه ای قدردانی کنید.
بیان احتمال
41143
سوال من مربوط به: تخمین حداکثر احتمال و تخمین آماری مرتبه n و آماره مرتبه n است. من سعی می کنم به سوالات پاسخ دهم و از شما بچه ها می خواهم که به آن نگاه کنید و از آن انتقاد کنید، زیرا می خواهم همه پاسخ ها واضح باشد :) > با توجه به $$ f_{\theta}(x)= e^{ (\theta -x)}$$for $x \ge \theta$، در غیر این صورت > $f_\theta = 0$ > > نشان دادم که MLE $\hat \theta_n $of $\theta= min(x_1,x_2, ... x_n) = > X_{(1)}$ باید به سؤالات زیر در مورد این توزیع پاسخ دهم: > a.) cdf $\hat \theta_n $ > > b چیست. ) pdf $\hat \theta_n $ چیست و توزیع آن را رسم کنید > > c.) از این توزیع نمونه ای به اندازه $n$ می گیریم و به طور تصادفی مقدار بسیار غیر معمول $\hat \theta_n = را گرفتیم. q_{1-\alpha}$ که در آن > $q_{1-\alpha}$ مقدار $1-\alpha$ از توزیع > $\hat\theta_n$ است. $q_{1-\alpha}$ را به عنوان تابعی از $\theta$ و > $\alpha$ > > d تعیین کنید.) مجدداً از اندازه $n$ نمونه می گیریم و اکنون با بدست آوردن > $\ بسیار خوش شانس بودیم. hat\theta_n=q_0$ که در آن $q_0$، چندک 0 از توزیع $\hat \theta_n$ > است. $q_o$ > > e را تعیین کنید.)X_1=3، X_2=4، X_3=10$ را مشاهده می کنیم. با پاسخ های c.) و d.) ما > اکنون باید بتوانیم یک بازه اطمینان 95٪ برای $\theta$ بدست آوریم، تلاش من: a.) cdf $F_{\hat\theta_n}1-( 1-(F_{\theta}(x))^n= 1-e^{n\theta - nx}$ b.) $f_{\hat\theta_n}= ne^{n\theta - nx} = \frac{d}{dx}( 1-e^{n\theta - nx})$. ج) $1-\alpha =F(q_{1-\alpha})= 1-e^{n\theta -nq_{1-\alpha}} \implies \ln{(1-\alpha)}= n\theta-nq_{1-\alpha} \implies -nq_{1-\alpha}= \ln{(1-\alpha)}-n\theta \implies q_{1-\alpha}=-\frac{\ln{(1-\alpha)}}{n} +\theta$$ d.)$$0=F(q_0)= 1- e^{n\theta -nq_0} \implies 1=e^{n(\theta-q_0)} \implies q_0=\theta$$ e.) ما به یک بازه اطمینان $1-\alpha$ نیاز داریم برای $\theta$. اجازه دهید $c_l$ و $c_u$ مرزهای پایین و بالایی فاصله اطمینان $\theta$ را نشان دهند. من $$P(c_l < \hat\theta_n < c_r)= 1-\alpha $$ را با نیاز به $$P(\hat\theta_n \le c_l) =P(\hat\theta_n \ge c_r)= \ حل خواهم کرد frac{1}2{}\alpha $$ اکنون معادلات زیر را پیدا کردم $$1-e^{n\theta-nc_l} = \frac{\alpha}{2}\implies \ln(1-\frac{1}{2}\alpha)=n\theta-nc_l \implies c_l = -\frac{\ln(1-\frac{1 }{2}\alpha)}{n}+\theta $$ به طور مشابه $$e^{n\theta-nc_u}= \frac{1}{2} \alpha \implies c_u=-\frac{\ln(\frac{1}{2}\alpha)}{n}+\theta $$ حالا متوجه شدم که، هر مقدار که $\theta$ باشد: $$P(-\ frac{\ln(1-\frac{1}{2}\alpha)}{n}+\theta <\hat\theta_n <-\frac{\ln(\frac{1}{2}\alpha)}{n}+\theta ) = 1-\alpha $$ با مرتب کردن مجدد نابرابری ها، می بینیم که این معادل $$ P است (\frac{\ln(\frac{1}{2}\alpha)}{n}+\hat\theta_n <\theta < \frac{\ln(1-\frac{1}{2}\alpha)}{n}+\hat\theta_n ) = 1-\alpha$$ بنابراین، یک بازه اطمینان 100$(1-\alpha) $% برای $\theta$ توسط: $$\left( \frac{\ln(\frac{1}{2}\alpha)}{n}+\hat\theta_n <\theta < \frac{\ln(1-\frac{1}{2}\alpha)}{n}+\hat\theta_n \right) $$ با نگاهی به مشاهده، حداقل (X1, X2, X3) = 3 داریم و n = 3. بنابراین فاصله اطمینان 95% ما باید این باشد: $$\left( \frac{\ln(\frac{0.05}{2})}{3}+3 <\theta < \frac{\ln(1-\frac{0.05}{2})}{3}+3 \right) $$این فاصله [1.77، 2.99] است.
چند سوال در مورد فواصل اطمینان، چندک و cdf/pdf
18002
من سعی کردم آزمایش های شرح داده شده در این مقاله را بازتولید کنم و می خواستم خروجی سیستم خود را با آنچه در مقاله توضیح داده شده مقایسه کنم. من به دنبال مقایسه آماری سیستم ها هستم (در مورد آزمایش فرضیه ها واقعاً مطمئن نیستم). به طور دقیق تر مجموعه داده شامل تصاویر دسته بندی خاصی از اتاق ها (حمام، اتاق نشیمن و غیره) است که در 6 خانه مختلف به دست آمده است. در آزمایش، ما از 5 خانه برای آموزش یک طبقه‌بندی‌کننده و از خانه ششم برای آزمایش آن استفاده می‌کنیم (نویسنده آن را ترک یک‌اوت نامیده است، اما دقیقاً مطمئن نیستم که دقیقاً همینطور باشد). نتایج، نرخ طبقه بندی صحیح برای هر اتاق در هر تا است. آیا شما ایده ای دارید؟
چگونه می توان نتایج یک استراتژی ترک یکی را با هم مقایسه کرد؟
805
من سعی می‌کنم خطای استاندارد (SE) را برای ارزش پیش‌بینی مثبت (PPV)، مقدار پیش‌بینی منفی (NPV) و نسبت شانس تشخیصی (DOR) که با استفاده از نرخ‌های مثبت واقعی، مثبت کاذب، منفی واقعی به دست آورده‌ام محاسبه کنم. و منفی کاذب در یک نمونه. من می توانم 95% CI بگیرم اما نه SE. متشکرم!
چگونه می توانم SE را برای PPV، NPV و DOR محاسبه کنم؟
7202
### زمینه: من داده های ادغام شده را با ابعاد زمان و مقطع دارم. این داده های نامتعادل بدون طیف کاملی از مشاهدات زمانی برای هر مقطع از مشاهدات است. به نوعی مانند داده های پانل نامتعادل است؟ من می خواهم با تعداد محدودی از مشاهدات بدون از دست دادن هیچ داده ای ادامه دهم. ### سوالات: * چگونه می توانم نتایج رگرسیون (حداقل مربعات تعمیم یافته؟) را در SPSS با این نوع داده ها دریافت کنم؟ * هنگام ارزیابی نتایج باید به چه نکاتی توجه کنم؟
رگرسیون با داده های تلفیقی در SPSS
18004
من در مورد اجرای عملی یک تقسیم باینری در یک درخت تصمیم کنجکاو هستم - زیرا به سطوح یک پیش‌بینی کننده طبقه‌بندی $X{j}$ مربوط می‌شود. به طور خاص، من اغلب از نوعی طرح نمونه‌برداری (مانند کیسه‌گیری، نمونه‌برداری بیش از حد و غیره) در هنگام ساختن یک مدل پیش‌بینی با استفاده از درخت تصمیم استفاده می‌کنم - به منظور بهبود دقت و ثبات پیش‌بینی آن. در طول این روال‌های نمونه‌برداری، این امکان وجود دارد که یک متغیر طبقه‌بندی به یک الگوریتم برازش درختی با کمتر از مجموعه سطح کامل ارائه شود. فرض کنید یک متغیر X در سطوح «{A,B,C,D,E}» است. در یک نمونه، شاید فقط سطوح «{A,B,C,D}» وجود داشته باشد. سپس، هنگامی که درخت حاصل برای پیش بینی استفاده می شود، مجموعه کامل ممکن است وجود داشته باشد. در ادامه این مثال، می‌گوییم درختی روی X تقسیم می‌شود و «{A,B}» را به سمت چپ و «{C,D}» را به سمت راست می‌فرستد. من انتظار دارم که منطق تقسیم باینری پس از مواجهه با داده های جدید بگوید: اگر X دارای مقدار A یا B است، به سمت چپ ارسال کنید، در غیر این صورت، این مورد را به راست ارسال کنید. آنچه به نظر می رسد در برخی از پیاده سازی ها اتفاق می افتد این است که اگر X دارای مقدار A یا B است، به سمت چپ ارسال کنید، اگر X دارای مقدار C یا D است، به سمت راست ارسال کنید. وقتی این مورد مقدار E را به خود می گیرد، الگوریتم خراب می شود. روش درست برای انجام یک تقسیم باینری چیست؟ به نظر می رسد راه بسیار قوی تر اغلب اجرا می شود، اما نه همیشه (به Rpart زیر مراجعه کنید). ** در اینجا چند مثال وجود دارد: ** Rpart شکست می خورد، بقیه خوب هستند. #تست درختان و مقادیر از دست رفته خلاصه(لحیم کاری) جدول(لحیم کننده$PadType) # ایجاد قطار و اعتبارسنجی set.seed(12345) t_rows<-sample(1:nrow(solder),size=360, replace=FALSE) train_solder<- solder[t_rows,] val_solder<-solder[-t_rows,] #نگاهی به PadType جدول(train_solder$PadType) table(val_solder$PadType) #تعدادی را به سطوح از دست رفته تنظیم کنید(train_solder$PadType)[train_solder$PadType %in% c('L8','L9','W4','W9')] <- MISSING #برازش چندین درخت، ممکن است مجبور شود با پارامترها بازی کند تا آنها را بر روی متغیر ####RPART mod_rpart<-rpart(Solder~PadType,data=train_solder) predict(mod_rpart,val_solder) #خطا در model.frame.default(Terms, newdata, na.action = na.action, xlev = attr( شیء، : #factor 'PadType' دارای سطح(های) جدید D6، L6، L7، L8, L9, W4 ####TREE mod_tree<-tree(Solder~PadType,data=train_solder,split=gini) predict(mod_tree,val_solder) #خوب کار می کند ####ctree mod_ctree<-ctree(Solder~ PadType,data=train_solder,control=ctree_control(mincriterion = 0.05)) predict (mod_ctree,val_solder) #بخوبی کار می کند
تفاوت در اجرای تقسیم های باینری در درخت های تصمیم
89663
من اخیراً در یک کلاس آمار با PLS-DA آشنا شدم. من می توانم PLS-DA را به صورت ریاضی انجام دهم، اما واقعاً در توضیح آن مشکل دارم. می خواستم بدانم آیا کسی می تواند به من کمک کند که چگونه PLS-DA را به روش غیر ریاضی برای افراد غیر روحانی توضیح دهم؟
توضیح PLS-DA برای یک فرد غیر روحانی
89661
من در حال مبارزه با نحوه قرار دادن مسئله زیر با ریاضیات ساده هستم. فرض کنید من 2 متغیر N & p دارم. 2 نمونه N N1 و N2 و 2 نمونه از p p1 و p2 هستند. اکنون لطفاً عبارت زیر را در نظر بگیرید: abs(N1p1 - N2p2) (یعنی تفاوت مطلق بین 2 نمونه از Np) اکنون باید به این سؤال پاسخ دهم: از تفاوت فوق، چه مقدار (در درصد) به دلیل واریانس برای N است و چگونه بسیار به دلیل p. بنابراین من باید محاسبه کنم: A1 = abs (N1 - N2) A2 = abs (p1 - p1) و از آنجایی که تفاوت کلی در abs (N1p1 - N2p2) فقط به دلیل تفاوت بین N1، N2 و p1، p2 است، من باید قادر به نشان دادن A1 + A2 = 100٪ بنابراین سؤال من این است که چگونه می توان A1 و A2 را طوری به دست آورد که در 100٪ جمع شوند؟ یا راه دیگری برای پاسخ به این سوال وجود دارد: از بین تفاوت abs (N1p1 - N2p2)، چه مقدار (در درصد) به دلیل واریانس برای N و چقدر به دلیل p است. ? با تشکر از کمک شما.
یک ریاضی ساده؟
41146
هدف تخمین نسبت (یا تعداد) یک گونه خاص در میان نمونه جمع آوری شده است. به دلیل تعداد زیاد نمی توان از کل نمونه شمارش کرد. بنابراین من باید نسبتی از نمونه را انتخاب کنم (تقریباً نمونه را بر اساس اندازه یا وزن تقسیم کنید)، به عنوان مثال 1/3 از این نمونه. سوال من این است: آیا این نمونه برداری مجدد بر فاصله اطمینان نسبت تخمینی برای این گونه تأثیر می گذارد؟ به خصوص اگر گونه نادر باشد (نسبت تقریبا 0 است)؟ آیا تفسیر تحلیلی وجود دارد؟ با تشکر
اگر تعداد من از نسبت (نمونه‌گیری مجدد) یک نمونه باشد، آیا بر فاصله اطمینان تأثیر می‌گذارد؟
114024
در یک کتاب، نحو SPSS را برای انجام تبدیل رتبه تراز شده به روش ANOVA دو طرفه پیدا کرده ام. این روش به این صورت است: \- ذخیره باقیمانده ها با انجام یک ANOVA استاندارد \- استفاده از Aggregate برای تعیین اثرات برای میانگین گروه (mij برای تعامل، ai به عنوان عامل اول، bj برای عامل دوم) \- حذف اثر متقابل از باقی مانده برای تعیین تعامل (ran )، حذف افکت‌های تکی برای تعیین اثرات اصلی (ra) \- تبدیل باقیمانده‌ها به رتبه‌ها \- اجرای مدل کامل بر روی این رتبه‌ها برای تعامل / اثرات اصلی، به ترتیب نحو عبارت است از: Unianova x بر اساس داروهای گروهی /save=resid (rab) /design=گروه داروهای گروه*داروها. ra=rab را محاسبه کنید. مجموع /outfile=* mode=addvariables /break=group drugs /mij=mean(x). جمع کردن /outfile=* mode=addvariables /break=group /ai=mean(x). جمع /outfile=* mode=addvariables /break=drugs /bj=mean(x). جمع /outfile=* mode=addvariables /break= /mm=mean(x). محاسبه rab=rab-(mij - ai - bj + mm). ra=ra-(ai + bj - 2*mm) را محاسبه کنید. Rank variables=ra rab (A) /rank into rar rabr. Unianova rabr توسط داروهای گروهی /طراحی=گروه داروهای گروه*داروها. Unianova rar توسط داروهای گروهی /طراحی=گروه داروهای گروه*داروها. اکنون می‌خواهم این را با طرح خود تطبیق دهم که یک عامل تصادفی اضافی موضوع دارد. دستور ANOVA اولیه من به این صورت خواهد بود: Unianova x بر اساس تکرار شرط موضوع / تصادفی=موضوع /method=SSTYPE(3) /intercept=INCLUDE /save=RESID (rab) /criteria=ALPHA(.05) /design=تکرار شرط شرط موضوع*شرط تکرار*تکرار موضوع*موضوع. با این حال، اکنون مطمئن نیستم **چگونه می توان سومین اثر تصادفی** را در روند تبدیل رتبه تراز شده بعدی لحاظ کرد. هر گونه راهنمایی تا حد زیادی قدردانی می شود! با تشکر (منبع: http://www.uni-koeln.de/~a0032/statistik/buch/nonpar-anova-buch.pdf، به زبان آلمانی)
Aligned Rank Transform برای ANOVA اثرات مختلط در SPSS
11615
طرح تحقیق من به شرح زیر است: **من این موارد را بین آزمودنی ها دارم:** * شرایط آزمایش - 5 سطح * وضعیت کاربر فیس بوک - 2 سطح (بله/خیر) ** سرپرست من همچنین از من می خواهد که ببینم آیا تأثیرات قابل توجهی وجود دارد یا خیر از:** * جنسیت - 2 سطح * وضعیت رابطه - 2 سطح * رضایت از رابطه - 2 سطح ** و اینها در داخل آزمودنی های IV:** * خلق و خوی در زمان 1 * خلق و خو در زمان 2 **من همچنین سه DV دارم** * سطح جذابیت * فراوانی فکر * حالت خلق و خوی من در حال بررسی تأثیر یک شرایط خاص بر روی کاربران فیس بوک، در مقابل کاربران غیر فیس بوک هستم. در این مورد می‌خواهم ببینم که آیا تفاوت‌هایی بین جنسیت‌ها وجود دارد یا خیر. اینکه آیا بین افراد در یک رابطه تفاوت وجود دارد یا نه در یک رابطه و تأثیر رضایت از رابطه. این یک مطالعه بزرگ است، اما من در مورد چگونگی توصیف طرح مطمئن نیستم. ### سوال * چگونه باید طراحی این مطالعه را توصیف کنم؟ ### افکار اولیه من فکر می کنم باید یک طرح MANOVA باشد، با این حال آنچه که من گیج کننده می یابم IV های مختلف هستند. آیا این یک MANOVA فاکتوریل 2×5 است؟ من خیلی گیج شدم با همه IV هایی که در اطراف پرواز می کنند.
چگونه می توان طرحی را با ترکیبی از شرایط تجربی، متغیرهای پیش بینی کننده و متغیرهای چندگانه نتیجه توصیف کرد؟
14586
آیا ابزاری برای همکاری از راه دور در تنظیمات پیش بینی یا یادگیری ماشین وجود دارد؟ من به دنبال یک محیط محاسباتی هستم که شامل کنترل منبع مناسب باشد، نحوه تطبیق مجموعه داده‌های مختلف با الگوریتم‌های مختلف را پیگیری کند و ترکیب پیش‌بینی‌های مختلف را تسهیل کند. چه ابزارهایی برای این کار مفید خواهند بود؟
مدیریت پروژه برای همکاری از راه دور در پیش بینی
5271
من یک مدل خطی برازش دارم و اکنون تست عدم تناسب را انجام می دهم. اگر مدل برازش خوبی داشته باشد، انحراف باقیمانده باید از توزیع $\chi^2$ پیروی کند. مدلی که من تازه اجرا کردم تناسب بسیار ضعیفی دارد و اکنون می خواهم این را به صورت بصری نشان دهم. من از کد R زیر برای رسم مقدار انحراف باقیمانده و توزیع $\chi^2$ که باید از آن حاصل شود (تحت فرضیه برازش خوب) استفاده کرده ام. df <- 384162 resdev <- 750749 x <- seq(از=350000، به=800000، توسط=1) y <- dchisq(x، df=df) plot(x، y، type='l') abline( v=resdev، col='red') همه چیز خوب کار می کند، به جز اینکه اکنون مقادیر محور X نمایش داده می شوند در نماد علمی چگونه قالب بندی مقادیر محور را کنترل کنم؟ می‌دانم اگر از نشانه‌گذاری معمولی استفاده کنم ممکن است شلوغ باشد، بنابراین آیا می‌توانم برچسب‌هایی مانند «350k» را برای 350000 قالب‌بندی کنم؟
نحوه تغییر فرمت محور X در نمودار
5275
اجازه دهید $\\{x_i\\}_{i=1}^n$ یک نمونه از توزیع گاوسی چند متغیره ${\cal N}(0, \Sigma_X)$ و $\\{y_i\\}_{ باشد. i=1}^m$ نمونه ای از ${\cal N}(0, \Sigma_Y)$ باشد. آیا آزمون های فرضیه برای $\Sigma_X = \Sigma_Y$ وجود دارد؟ اشاره به ادبیات مرتبط بسیار قدردانی خواهد شد.
آزمون دو نمونه ای برای توزیع های نرمال چند متغیره با این فرض که میانگین ها یکسان هستند
109291
من با یک ویژگی بیولوژیکی سروکار دارم که می‌توان آن را در دسته‌های $2^{20}$ طبقه‌بندی کرد. من همچنین دو مجموعه داده بسیار بزرگ از 1 و 3 میلیون ورودی دارم. در واقع، تنها حدود 30 هزار دسته در دومی مشاهده شد، و حتی کمتر در اولی. بنابراین، تعداد زیادی از دسته‌ها دارای شمارش صفر و تعداد کمی دارای تعداد نسبتاً کوچک هستند. می‌خواهم بگویم که آیا نمونه‌ها از جمعیت‌های متفاوتی می‌آیند، یعنی توزیع ویژگی‌های فوق را مقایسه کنید. تنها تستی که می توانم به آن فکر کنم، $\chi^2$ پیرسون است، که (تا آنجا که من می دانم) در مورد تعداد کم قابل اجرا نیست. هر گونه توصیه (از جمله ادبیات در مورد این موضوع) قدردانی خواهد شد.
مقایسه مجموعه داده های دسته بندی بزرگ با تعداد کم یا صفر
11105
من یک تازه کار در آمار هستم. من در حال تکمیل پایان نامه ام در الگوریتم تکاملی هستم. من باید تعدادی اعداد تصادفی را از توزیع لاپلاس تولید کنم. چگونه می توانم این کار را با استفاده از متلب انجام دهم؟ توضیح آسان و ساده قدردانی خواهد شد. پیشاپیش ممنون
تولید اعداد تصادفی با استفاده از توزیع لاپلاس