_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
110623
من دو شبیه‌سازی برای تست توانایی فیزیکی دارم که به یک نمره کل آزمون اضافه می‌شود، کدگذاری شده به عنوان قبولی دوگانه یا شکست 0، 1. آیا می‌توانم دو شبیه‌سازی را به عنوان پیش‌بینی‌کننده‌های مستقل در رگرسیون لجستیک باینری در نظر بگیرم، حتی اگر آنها به نمره کل اضافه شوند.
رگرسیون لجستیک با متغیرهای پیش بینی مرتبط
65095
در مستندات `glm` خواندم: _ برای خانواده های دوجمله ای و شبه دو جمله ای، پاسخ را می توان به عنوان یک عامل نیز مشخص کرد (زمانی که سطح اول نشان دهنده شکست و سایر موفقیت ها باشد) آیا به این معنی است که احتمال شکست یا موفقیت در حال مدل سازی است. ? من سعی می‌کنم مدل لجستیک ساده را در مجموعه داده‌های «امتیاز اعتبار آلمانی» اعمال کنم که در آن سطوح «خوب» و «بد» وجود دارد. برای به دست آوردن نتایج صحیح (احتمال بیشتر به معنای احتمال بیشتر خوب بودن است) باید «شکست=خوب» و «موفقیت=بد» را فرض کنم. این کار می کند، اما واقعاً غیرمعمول است. من این را به این صورت تعبیر می کنم - این احتمال شکست را مدل می کند (بد نیست). require(ggplot2) german_data <- read.csv(file=http://archive.ics.uci.edu/ml/machine-learning-databases/statlog/german/german.data, sep= , header= FALSE) names(data_german) <- c('ca_status','mob','credit_history','purpose','credit_mount','ssasas', 'present_employment_از زمان','status_sex', 'اقساط_نرخ_درآمد', 'دیگر_بدهکاران', 'sport_residence_از زمان'، 'مالکیت'، 'سن'، 'اقساط_سایر'، 'مسکن'، 'اعتبار_موجود'، 'شغل'، 'مسئول_نگهداری_افراد'، 'تلفن'، 'کارگر_خارجی'، 'gb') str(data_german_data) آلمان gb <- factor(german_data$gb,levels=c(2,1),labels=c(بد،خوب)) level(german_data$gb)[1] table(german_data$gb) model <- glm(data= german_data,formula=gb~.,family=binomial(link=logit)) german_data$prob <- predict(model,newdata=german_data, type=response) ggplot(data=german_data) + geom_boxplot(aes(y=prob,x=gb)) + coord_flip() ![شرح تصویر را اینجا وارد کنید](http:// i.stack.imgur.com/kcbao.png)
احتمال آنچه در glm پیش بینی می شود
95955
من ریاضیدان نیستم، اما می خواهم یک تحلیل آماری کوچک در داده هایم انجام دهم. من داده هایی از مسابقات بسکتبال در قالب زیر دارم: امتیاز برای تیم A / امتیاز برای تیم B / برنده (A، B یا تساوی) / درصد نظری برای تیم A برنده / درصد نظری برای برنده شدن تیم B / درصد نظری برای تساوی / نظری امتیازات برای تیم A / امتیازات نظری برای تیم B چیزی که می خواهم بررسی کنم این است که آیا درصدهای نظری نتایج واقعی را دنبال می کنند و به نوعی برای امتیازات و امتیازات نظری برای هر تیم یکسان را بررسی کنید. من می خواهم موارد زیر را نیز بررسی کنم: اگر امتیاز نظری برای تیم A 50 و برای تیم B 45 باشد (برنده شدن تیم A) و نتایج واقعی تیم A:100 و تیم B:20 باشد، حتی اگر تیم A برنده شود، با آنچه نظری بود فاصله زیادی دارد.
چه نوع تجزیه و تحلیل آماری در داده های من جای می گیرد؟
36096
اگر بتوانید به من بگویید از کدام آزمون آماری برای تجزیه و تحلیل داده های زیر استفاده کنم خوشحال می شوم: من داده های 10 نفر و 10 خواهر و برادر آنها را دارم. برای هر فرد و خواهر و برادرش، من دو نقطه داده دارم: (1) تعداد تلاش ها و (2) تعداد ضربه های واقعی. بنابراین داده ها به این صورت است: نام تلاش ضربه شخص1 300 15 نفر1_خواهر 35 5 نفر2 125 10 نفر2_خواهر و برادر 40 8 و غیره. و بزرگتر از شخص مربوطه. چگونه می توانم این را تست کنم؟
از کدام آزمون برای بررسی نسبت بهتر برای شرکت کنندگان همسان استفاده کنیم؟
50931
استفاده از تابع ksdensity در matlab یک تخمین چگالی را در قالب 2 بردار _f_ و _xi_ برمی گرداند. که در آن _f_ مقادیر چگالی و xi نقاط مربوط به مقادیر چگالی هستند. چگونه می توانم فاصله hellinger بین 2 تخمین چگالی را بر اساس _f_ و _xi_ آنها محاسبه کنم؟
محاسبه واگرایی هلینگر از نتایج تخمین تراکم هسته در Matlab
16074
من یک آزمایش فیزیک ساده انجام دادم که نیروی جاذبه ای را که یک صفحه نسبت به صفحه دیگر تجربه می کند به عنوان تابعی از ولتاژ اعمال شده و فاصله بین صفحات اندازه گیری می کند. اکنون باید بدانم که آیا داده های جمع آوری شده رابطه $F \propto V^2/d^2$ را تایید می کند یا خیر. فرض کنید موارد زیر چیزی است که من جمع آوری کردم. ولتاژ\فاصله 8.000 10.000 12.000 14.000 16.000 4.0 3.3 2.0 1.7 1.2 0.8 6.0 8.1 4.8 3.8 2.5 1.9 8.0 4.0 4.0 10.0 22.9 14.2 9.4 7.0 5.6 12.0 32.7 20.1 13.5 10.5 7.9 عدم قطعیت ها $\pm 0.05 $ برای ولتاژ، $\pm 0.005 $ برای مسافت و 1 $\pm برای فاصله است. تا آنجا که من می دانم، چند راه برای تجزیه و تحلیل داده ها با R وجود دارد. 2) ~ -1 + I(ولتاژ^2))` 3. `aov(I(نیرو * ولتاژ^-2 * فاصله^2) ~ ولتاژ * فاصله)` کدام یک باید استفاده کنم؟
چگونه می توان این داده های به دست آمده از یک آزمایش فیزیک ساده روی نیروهای جاذبه را تجزیه و تحلیل کرد؟
110622
من اطلاعات قبلی درباره گروه بندی دارم، اما ممکن است نادرست باشد یا کافی نباشد زیرا به تعداد بیشتری از گروه ها (یعنی زیر گروه ها) نیاز دارم. به عنوان مثال در داده های زیر 3 گروه علاوه بر دو متغیر دارم. من می خواهم از اطلاعات گروه (به عنوان دانش قبلی) (در اینجا 3 گروه) برای ایجاد گروه های معنی دار (در اینجا 9 گروه/خوشه) استفاده کنم. آیا روش صحیحی برای انجام چنین تحلیلی وجود دارد؟ # گروه داده ساختگی <- تکرار (1:3، هر = 3000) X <- c(rnorm(1000، 0.1، 0.04)، rnorm(1000،0.2، 0.04)، rnorm(1000، 0.4، 0.02)، rnorm( 1000، 0.4، 0.04)، rnorm(1000،0.5، 0.08)، rnorm(1000، 0.6، 0.12)، rnorm(1000، 0.7، 0.08)، rnorm(1000،0.8، 0.1)، rnorm(1000، 0.9، 0.06 <) Y rnorm(1000, 0.5, 0.04)، rnorm(1000،0.6، 0.04)، rnorm(1000، 0.7، 0.04)، rnorm(1000، 0.35، 0.12)، rnorm(1000،0.45، 0.04)، rnorm(1000، 0.0، rnorm(1000، 0.0 1000، 0.55، 0.09)، rnorm(1000، 0.65، 0.12)، rnorm(1000، 0.65، 0.04) اطلاعات قبلی 3 خوشه: col = c(قرمز، فیروزه ای، سبز) نمودار (cbind(X ,Y), col = col[گروه], pch = .) ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/v5xUI.jpg) تجزیه و تحلیل خوشه بندی با فرض 9 خوشه. cl <- kmeans(cbind(X,Y)، 9) رنگ‌ها <- c(قرمز، بنفش، زرد، برنزه، صورتی، فیروزه‌ای، آبی، سبز , سیاه) plot(cbind(X,Y), col = colrs[cl$cluster], pch = .) ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/tecHn.jpg)
چگونه می توان نتایج تجزیه و تحلیل خوشه ای را با گروه های شناخته شده تکمیل کرد
82307
من از طریق آزمایشگاه بر روی رگرسیون ریج و LASSO در ISLR کار می کردم و با یک رفتار عجیب در تابع cv.glmnet مواجه شدم. وقتی آزمایشگاه را همانطور که نوشته شد دنبال کردم، مجموعه زیر را دریافت کردم.seed(1) train <- sample(1:nrow(x)، nrow(x)/2) test <- (-train) y.test <- y[ test] set.seed(1) cv.out <- cv.glmnet(x[train,], y[train], lambda=grid, alpha=0) plot(cv.out) bestlam <- cv.out$lambda.min bestlam [1] 231.013 به نفع خودم، آن را با استفاده از یک دانه متفاوت ('8675309') امتحان کردم و نتیجه متفاوتی گرفتم. هر ترکیبی از تنظیم دانه ها به پاسخ های متفاوتی منجر شد. من فرض می‌کنم این به نحوه تغییر 10 برابر با دانه‌های مختلف مربوط می‌شود، اما «lambda.min» متفاوت می‌تواند بسیار متفاوت باشد، من نگرانم که بسته پایدار نباشد. آیا من چیزی را از دست داده ام؟
نتایج CV.glmnet
12558
من دو مجموعه داده دارم که در آنها 250.000 مقدار برای 78 و 35 نمونه دارم. برخی از نمونه ها اعضای یک خانواده هستند و این ممکن است بر داده ها تأثیر بگذارد. من همبستگی زوجی را محاسبه کرده ام و بین 0.7 تا 0.95 متغیر است اما می خواهم بدانم که آیا تفاوت معنی داری در ضرایب همبستگی درون خانواده و بین خانواده وجود دارد؟ بهترین راه برای انجام این کار چیست؟ با تشکر
مقایسه ضرایب همبستگی
50932
این یک سوال در مورد طبقه بندی است. من یک دانشجوی علوم اعصاب هستم که تجربه کمی از روش‌های طبقه‌بندی دارم و از هرگونه راهنمایی در مورد بهترین راه برای پیاده‌سازی طبقه‌بندی‌کننده خطی (LDA) روی این داده‌ها سپاسگزار خواهم بود. من یک مجموعه داده مغناطیسی مغزی دارم که از افراد هنگام انجام یک کار شناختی ضبط شده است. این ویژگی‌های زیر را دارد: * 306 کانال داده، اما یک مرحله پیش‌پردازش ابعاد را به 64 کاهش داده است و سپس داده‌ها را دوباره بر روی حسگرها بازتاب می‌دهد. * داده ها در حوزه زمان (1000 هرتز) ریزدانه هستند * داده ها به بخش های کوتاهی به نام آزمایش تقسیم می شوند. اینها با وظیفه شناختی آزمودنی ها مطابقت دارد. کارآزمایی‌ها می‌توانند متفاوت باشند، برای مثال، در آزمایش نوع A (که من 50 مورد از آن را خواهم داشت) ممکن است از آزمودنی خواسته شده باشد که به محرک‌های سمت چپ فضا توجه کند، و در آزمایش نوع B (که من دارم همچنین 50) توجه به محرک های سمت راست فضا). من می‌خواهم داده‌هایم را در مقاطع زمانی خاصی در داخل آزمایش‌ها طبقه‌بندی کنم (مثلاً 0.5 ثانیه پس از اینکه به آزمودنی‌ها گفته شد که در سمت چپ/راست شرکت کنند)، طبقه‌بندی کننده را آموزش دهم تا بین کارآزمایی‌های نوع A و نوع B تمایز قائل شود. بردار ویژگی برای هر مشاهده (یعنی آزمایش) بردار فعالیت آنی در هر حسگر در آن نقطه زمانی است. من ویژگی‌های بیشتری نسبت به آزمایش‌ها دارم (حسگرهای 306)، بنابراین یا باید انتخاب ویژگی را انجام دهم یا از LDA منظم استفاده کنم (یا از چیزی مانند تجزیه و تحلیل تفکیک پراکنده Hastie استفاده کنم که به نظر من هر دو را انجام می‌دهد). این کار را می‌توانستم انجام دهم، اما به نظر می‌رسد که اطلاعات مربوط به ساختار آماری داده‌های موجود در نقاط داده را از زمان دقیقی که می‌خواهم طبقه‌بندی کنم، دور می‌اندازد. همچنین، می‌دانم که داده‌ها ابعاد کمتری نسبت به 306 دارند - کمتر از 50 مؤلفه احتمالاً اکثریت قریب به اتفاق واریانس داده‌ها را به تصویر می‌کشند. بنابراین، من به استفاده از یک مرحله کاهش ابعاد، احتمالا PCA، قبل از ارسال داده‌های ابعاد کاهش‌یافته به یک طبقه‌بندی‌کننده LDA نامنظم یا ساده‌لوح فکر می‌کردم. ایده این است که مرحله کاهش ابعاد از این واقعیت استفاده می‌کند که من حجم زیادی از داده‌های نمونه‌گیری شده در طول زمان را دارم. و اینجا بود که من گیج شدم. PCA داده ها را بر روی ابعاد متعامد پروژه می دهد، بنابراین آیا منطقی است که LDA (که یک ماتریس کوواریانس را برای استفاده از اطلاعات مربوط به همبستگی بین ویژگی ها تخمین می زند) انجام دهیم؟ یا باید به دنبال کاهش ابعاد، بیهوده های ساده را انجام دهم؟ در این صورت، احتمالاً می‌توانستم برای شروع کارهای ساده‌ای انجام دهم، با توجه به این که LDA به تعداد ویژگی‌ها حساس نیست. اگر کسی می تواند در مورد یک رویکرد خوب در اینجا، با توجه به ساختار خاص این داده ها، توصیه کند، بسیار سپاسگزار خواهم بود. سوال کلیدی این است: آیا PCA به دنبال LDA منطقی است؟ با تشکر جورج
آیا PCA به دنبال LDA منطقی است؟
2917
## پیشینه من در حال انجام یک متاآنالیز هستم که شامل داده های منتشر شده قبلی است. اغلب، تفاوت بین تیمارها با مقادیر P، کمترین تفاوت معنی‌دار (LSD) و سایر آمارها گزارش می‌شود، اما هیچ برآورد مستقیمی از واریانس ارائه نمی‌دهد. در زمینه مدلی که من استفاده می کنم، تخمین بیش از حد واریانس اشکالی ندارد. ## مشکل در اینجا لیستی از تبدیلات به $SE$ است که در آن $SE=\sqrt{MSE/n}$ (Saville 2003) که من در نظر دارم، بازخورد قابل تقدیر است. در زیر، فرض می‌کنم که $\alpha=0.05$ بنابراین $1-^{\alpha}/_2=0.975$ و متغیرها معمولاً توزیع می‌شوند، مگر اینکه خلاف آن ذکر شده باشد: ## سوالات: 1. با توجه به $P$، $n$، و درمان به معنای $\bar X_1$ و $\bar X_2$ $$SE=\frac{\bar X_1-\bar X_2}{t_{(1-\frac{P}{2},2n-2)}\sqrt{2/n}}$$ 2. با توجه به LSD (روزنبرگ 2004)، $\alpha$، $n$، $b$ که در آن $b$ تعداد بلوک ها است و $n=b$ به طور پیش فرض برای RCBD $$SE = \frac{LSD}{t_{(0.975,n)}\sqrt{2bn}}$ 3. با توجه به MSD (حداقل تفاوت قابل توجه) (Wang 2000)، $n$، $\alpha$، df = $2n- 2$ $$SE = \frac{MSD}{t_{(0.975, 2n-2)}\sqrt{2}}$$ 4. با توجه به 95% فاصله اطمینان (Saville 2003) (اندازه‌گیری شده از میانگین تا حد اطمینان بالا یا پایین)، $\alpha$ و $n$ $$SE = \frac{CI}{t_{(\alpha/2,n)} }$$ 5. با توجه به HSD توکی، $n$، که $q$ آمار محدوده مطالعه شده است، $$SE = \frac{HSD}{q_{(0.975,n)}}$$ یک تابع R برای کپسوله کردن این معادلات: 1. داده‌های مثال: داده <- data.frame(Y=rep(1,5), stat=rep( 1,5), n=rep(4,5), statname=c('SD', 'MSE', 'LSD', 'HSD', 'MSD') 2. مثال استفاده از: transformstats(data) 3. تابع 'transformstats': transformstats <- function(data) { ## تبدیل آمار به SE ## تبدیل SD به SE if (SD %in% data$statname) { sdi < - which(data$statname == SD) data$stat[sdi] <- data$stat[sdi] / sqrt(data$n[sdi]) data$statname[sdi] <- SE } ## تبدیل MSE به SE if (MSE %in% data$statname) { msei <- which(data$statname == MSE) data$stat[msei ] <- sqrt (data$stat[msei]/data$n[msei]) data$statname[msei] <- SE } ## 95%CI اندازه گیری شده از mean to CI بالا یا پایین ## SE = CI/t if (95%CI %in% data$statname) { cii <- which(data$statname == '95%CI') data$stat[cii] <- data$stat[cii]/qt(0.975,data$n[cii]) data$statname[cii] <- SE } ## کمترین میزان فیشر تفاوت (LSD) ## به طور محافظه‌کارانه فرض می‌کنیم که در تکرار بلوک وجود ندارد اگر (LSD %in% data$statname) { lsdi <- which(data$statname == LSD) data$stat[lsdi] <- data$stat [lsdi] / (qt(0.975,data$n[lsdi]) * sqrt( (2 * data$n[lsdi]))) data$statname[lsdi] <- SE } ## تفاوت معنی‌دار توکی (HSD)، ## به طور محافظه‌کارانه فرض می‌کنیم 3 گروه در حال آزمایش هستند بنابراین df =2 if (HSD %in% data$statname) { hsdi <- which(data$statname = = HSD & data$n > 1) data$stat[hsdi] <- data$stat[hsdi] / (qtukey(0.975، data$n[lsdi]، df = 2)) data$statname[hsdi] <- SE } ## MSD حداقل اختلاف مربع ## MSD = t_{\alpha/2، 2n-2} *SD*sqrt(2/n) ## SE = MSD*n/(t*sqrt(2)) اگر (MSD %in% data$statname) { msdi <- which(data$statname == MSD) data$stat[msdi] <- data$stat[msdi] * data$n[msdi] / (qt(0.975,2*data$ n[lsdi]-2)*sqrt(2)) data$statname[msdi] <- SE } if (FALSE %in% c('SE','none') %in% data$statname) { print(paste(trait, ': ERROR!!! داده ها حاوی آمارهای تغییر نیافته است')) } بازگشت (داده) } ** مراجع** Saville 2003Can J. Exptl Psych. (pdf) روزنبرگ و همکاران 2004 (پیوند) وانگ و همکاران. 2000 Env. سم. و شیمی 19 (1): 113-117 (پیوند)
آیا این فرمول‌ها برای تبدیل P، LSD، MSD، HSD، CI، به SE به‌عنوان یک تخمین دقیق یا متورم/محافظه‌کار از $\hat{\sigma}$ صحیح هستند؟
16078
آیا روشی برای رگرسیون (غیرخطی؟ هسته ای؟) توابع با خروجی در فضای تصویری وجود دارد؟ یعنی یک سری مثال $x_i\in\mathbb{R}^n$ (یا $x_i\in\mathbb{P}^n$) و $y_i\in\mathbb{P}^m$ (بنابراین , $\forall c\in\mathbb{R}, y_i=c\cdot y_i$) به طوری که $f(x_i)=y_i$، آیا می توانم تابعی را یادداشت کنم که به طور منطقی تقریباً $f$ است؟ با تشکر
رگرسیون در فضای تصویری؟
95959
برای اینکه بفهمیم Wald با تبدیل پارامتر شما در H0 کار نمی کند، باید $H_0$های زیر را آزمایش کنیم: A) $H_0: exp( \mu)=0.62$ B) $ H_0: \mu=ln(0.62)$ می‌توانم آمار آزمون Wald را برای مورد B بنویسم، که $W_B= (\mu - ln(0.62))^2 / Var( \mu)$ که با نتیجه ای که از Stata می گیریم مطابقت دارد، اما فرمول $W_A$ چیست؟ من فکر می کنم شما باید روش دلتا را اعمال کنید، اما متاسفانه نمی توانم آن را بفهمم. پیشاپیش از شما متشکرم
مثالی از عدم تغییر آزمون والد
114579
لطفاً دستور/کد رسم توزیع شرطی Y|X در برنامه نویسی R را بنویسید؟ من به این کد نیاز دارم تا ببینم آیا رابطه Y و X منحرف است یا نه، و ببینم آیا می توانم فرض خطی بودن آنها را داشته باشم. متشکرم
کد R برای نشان دادن هیستوگرام/نمودار توزیع شرطی Y|X
65096
چه روش‌هایی وجود دارد که می‌توانیم نمونه‌های تصادفی از توزیع موجود تولید کنیم که از نظر محاسباتی کارآمد هستند؟ یکی از روش های رایج ارائه شده در متن آمار، استفاده از تبدیلی به نام روش وارونگی است. ما با توزیع یکنواخت (0،1) شروع می کنیم که می توانیم از آن یک عدد دلخواه انتخاب کنیم و سپس از معکوس CDF توزیع (تابع کمیت آن) برای پیدا کردن عضو توزیع مورد نظر مطابق با عدد تصادفی استفاده می کنیم. بین 0 و 1. چه روش های دیگری برای انجام همین کار وجود دارد؟
تولید نمونه های تصادفی از یک توزیع معین
88718
اگر من بدانم که x = y*y، و کل آمار مربوط به y را بدانم، مانند واریانس و کوواریانس آن با سایر متغیرها، آیا می توانم واریانس و کوواریانس x را به صورت تحلیلی حل کنم؟ همچنین، اگر من یک سری آمار در مورد x بدانم، چه چیزی می توانم در مورد y بدانم؟ با تشکر از کمک!
اگر x = y*y، و شما var(y)، var(z)، و cov(y،z) را می دانید، آیا من cov(x،z) را می دانم؟
65097
در یک آزمایش قابلیت استفاده فرضی، دو تغییر رابط در برابر یک خط پایه آزمایش می‌شوند. تغییرات رابط تجمعی هستند، به عنوان مثال، نوع B گسترش A است. ما قابلیت استفاده را طبق تعریف آن با معیارهایی برای کارایی، اثربخشی و رضایت اندازه گیری می کنیم. بدتر از همه، انواع رابط با پردازش سه مجموعه مختلف از وظایف توسط شرکت کنندگان انسانی اندازه گیری می شود. اگر این فرضیه به صورت «واریان A قابلیت استفاده را نسبت به خط پایه بهبود می‌بخشد» فرموله شود، معیاری که باید آزمایش شود، شاخصی از معیارهای کاربردپذیری در هر سه مجموعه وظایف خواهد بود. از آنجایی که هر سه اندازه گیری در معرض نویز هستند، ممکن است یک سیگنال در یکی از اقدامات از دست برود. به عنوان جایگزین، می‌توانیم هر معیار قابلیت استفاده را جداگانه بررسی کنیم. آیا این درست است که فرض کنیم در مورد دوم باید تورم آلفا را اصلاح کنیم؟ اگر چنین است، آیا بهتر است فقط چند فرضیه به صورت پیشینی بیان شود (مثلاً ب کارایی را نسبت به خط پایه بهبود می بخشد)، نتایج را گزارش کنید و سایر فرضیه ها را در یک تحلیل اکتشافی بررسی کنید؟ همچنین، در مورد سه مجموعه مختلف وظایف چطور؟ آیا این درست است که فرض کنیم بررسی معیارها برای هر مجموعه از وظایف به طور جداگانه منجر به تورم آلفا حتی بیشتر می شود؟ **tl;dr:** در طراحی 3x3 (نوع، مجموعه وظایف) که سه متغیر را اندازه گیری می کند، آیا باید نرخ خطای خانوادگی $1-(1-p) را تنظیم کنیم^{3\cdot3\cdot3} دلار؟ اگر چنین است، آیا می‌توانیم با بیان فرضیه‌های کمتر و واضح‌تر از آن دور شویم و از فرضیه‌های باقی‌مانده به عنوان مبنایی برای تحلیل اکتشافی استفاده کنیم؟
تورم آلفا در زمینه مطالعات قابلیت استفاده
50933
در اینجا تنظیمات: من 90٪ از داده ها را برای آموزش و 10٪ دیگر را برای آزمایش دارم. من در حال انجام اعتبارسنجی متقاطع طبقه ای در آموزش 90٪ هستم. این مجموعه داده 10 کلاسه است. من از LibSVM برای آن استفاده می کنم. هنگام انجام 10 برابر اعتبار متقاطع برای تنظیم Hypermarameters (C در C-SVM) من دقت 100٪ را دریافت می کنم. اساساً چیزی شبیه به این: آموزش با 0.03125 - صحت اعتبارسنجی متقاطع = 68.5097٪ آموزش با 0.12500 - دقت اعتبارسنجی متقاطع = 98.3٪ آموزش با 0.50000 - دقت اعتبارسنجی متقاطع = 100٪ آموزش 1000000 = 100٪ آموزش با دقت 0.00 -0. آموزش با 8.00000 - صحت اعتبارسنجی متقاطع = 100% آیا داشتن دقت 100% در اعتبارسنجی متقاطع در داده های TRAINING مشکلی ندارد؟ در این صورت آیا باید C=0.5 را به عنوان بهترین هایپرپارامتر انتخاب کنم؟ یا در عوض باید از پارامترهایی که من را 100% در اعتبار سنجی متقاطع می کنند، فاصله بگیرم؟ و چرا اگر آنهایی را که 100 درصد دارند نگیرم باید چه 98 درصدی را بگیرم؟ 90 درصد؟ با تشکر
تفسیر صحت اعتبارسنجی متقابل -( دقت 100%
88716
اگر ما در حال انجام یک مطالعه کوهورت از عوامل مرتبط با انفارکتوس عودکننده میوکارد (MI) به دنبال اولین مورد هستیم، آیا جمعیت مورد مطالعه ما در ابتدا باید شامل افرادی باشد که قبلاً از یک MI رنج می‌بردند، افراد _یا_آزمودنی‌هایی که از هر MI قبلی برخوردار نبوده‌اند؟
سوال مطالعات کوهورت اپیدمیولوژی
10893
من در حال توسعه برنامه‌ای هستم که در آن کاربران می‌توانند «بخش‌هایی» (à la subreddit در reddit) ایجاد کنند، که در آن آیتم‌ها/پست‌ها را می‌توان با یک سیستم شست بالا/پایین ایجاد کرد و رأی داد. یک مقاله عالی به من راهنمایی کرد که چگونه این آرا را مرتب کنم به طوری که یک مورد با 100٪ پاسخ مثبت اما با رای کم با صدها رای و قبولی 80٪ بالاتر از یک قرار نگیرد. مقاله به خوبی آن را توصیف می کند. با این حال، من می‌خواهم مواردی که دارای رتبه‌های پایین‌تر هستند را کنار بگذارم و اینجاست که مشکل می‌شود: * چگونه می‌توانم حداقل تعداد رای‌ها را بدانم تا آن را رد کنم؟ * آستانه امتیاز برای دور انداختن آیتم چقدر است؟ همانطور که گفتم بخش هایی وجود دارد و هر کدام مواردی دارند (که رای داده شده است). فرمول باید این واقعیت را در نظر بگیرد که یک بخش ممکن است دارای 100 مورد با هزاران رای باشد و دیگری ممکن است دارای 3 یا 4 مورد با 20 رای باشد، بنابراین حداقل 40 رای مورد نیاز ممکن است برای مورد اول بهینه باشد اما کاملاً خارج از محدوده برای دوم (من وسوسه شدم که این را به MathOverflow ارسال کنم، اما واقعا مطمئن نیستم زیرا این شامل برنامه نویسی نیز می شود) با تشکر!
فرمول دور انداختن اقلام با رای (کران پایینی فاصله اطمینان امتیاز ویلسون)
8005
من یک آزمایش فرضی دارم که در آن نمرات برخی معیارها را در 1 سال با نمرات معیار در 4 سال مقایسه می کنم. من از آزمون t غیر جفتی استفاده می کنم تا ببینم آیا تفاوت معنی داری بین این دو وجود دارد یا خیر. سپس، انجام می دهم: (میانگین 4 سال) - (میانگین 1 سال) حالا می خواهم آن مقدار را، تابعی از دو توزیع مختلف که n و SD متفاوتی دارند، بگیرم و آن را با مقدار دیگری که در همان مقدار به دست آمده مقایسه کنم. از دو توزیع مشابه (سال اول و چهارم اما تحت یک متغیر مستقل متفاوت). چگونه می توانم این کار را انجام دهم؟ و آیا برای بدست آوردن مقدار do 4yrMean - 1yrMean معتبر است یا باید p-value4 - p-value1 یا چیز دیگری را انجام دهم؟
آزمون فرضیه بر روی مقادیری که توابع توزیع های چندگانه هستند
71575
من مجموعه داده ای از داده های استفاده از صدا سری زمانی (اندازه گیری شده در ثانیه و گروه بندی شده بر اساس روز) برای کاربران تلفن همراه دارم. برخی از این حساب‌ها به دلیل پوشش ضعیف لغو شده‌اند (یعنی وقتی از دستگاه خود استفاده می‌کنند استقبال خوبی نمی‌کنند، بنابراین حساب خود را لغو می‌کنند). من در تلاش هستم تا رابطه ای بین استفاده از سری زمانی و مشکلات دریافت پیدا کنم. بنابراین حدس می‌زنم این یک مشکل طبقه‌بندی سری زمانی است. آیا کسی پیشنهادی در مورد نحوه انجام این کار دارد؟ فکر می‌کنم باید ویژگی‌ها را از داده‌های سری زمانی استخراج کنم و یک طبقه‌بندی کننده بر روی آن ویژگی‌ها آموزش دهم. آیا کسی ایده ای دارد که کدام ویژگی ها بیشتر پیش بینی می کنند؟ همچنین، آیا باید داده‌های سری زمانی را از قبل عادی کنم (با این فرض که الگو و نه مقادیر مطلق استفاده مهم هستند)؟ با تشکر
شناسایی پوشش ضعیف از الگوهای استفاده سری زمانی
88717
من یک جریان از اسناد متشکل از $1$ تا $n$ صفحات دارم. هدف تقسیم بندی جریان اسناد است. هر صفحه اول و آخر یک سند به عنوان شروع $b$ یا انتهای $e$ سند طبقه بندی می شود. احتمال تعلق به هر یک از کلاس ها نیز محاسبه می شود. ![جریان اسناد](http://i.stack.imgur.com/tvE8e.png) من می خواهم رابطه بین اسناد را مطالعه کنم تا تصمیم بگیرم که آیا می توان آنها را با هم ترکیب کرد یا تقسیم بندی را تأیید کرد. برای آن من کیس های 4 دلاری دارم. سوال من مربوط به موارد $3rd و $4$ است. 1. مورد 1: اگر صفحه آخر سند اول به عنوان $e$ و صفحه اول سند متوالی به عنوان $b$ طبقه بندی شود. $(e,b)$ سپس من فکر می کنم که سند اول صحیح است و به آخرین صفحه سند متوالی و غیره می روم. 2. حالت 2: اگر هر دو صفحه به عنوان $(e,e)$ طبقه بندی شوند، من اسناد را فیوز کنید 3. **مورد 3:** در مورد $(b,b)$ من می خواهم آن را به $(b,e)$ 4 تغییر دهم. **مورد 4:** در مورد $ (b,e)$ من می خواهم آن را به $(e,b)$ تغییر دهم آیا می توانم تصمیم طبقه بندی کننده را تغییر دهم؟ آیا می توانم هزینه ('تابع ضرر') را برای تغییر به عنوان مثال از $(b,b) \longrightarrow (b,e)$ محاسبه کنم با در نظر گرفتن اینکه تخمین های احتمال را دارم.
تصمیم طبقه بندی کننده را با استفاده از تخمین های احتمال تغییر دهید
76960
من اخیراً با روشی برای رتبه بندی اقلام بر اساس مقایسه آشنا شده ام به نام روش برادلی-تری. من از آن برای رتبه بندی حدود 500 مورد استفاده می کنم. من نمی دانم اگر هر بار به طور یکسان موارد را برای مقایسه انتخاب کنم، چند مقایسه باید انجام دهم. چند مدل ریاضی وجود دارد که می توانم برای پیدا کردن این موضوع استفاده کنم؟ چگونه می توانم سطح اطمینان را به رتبه خود اختصاص دهم؟ یا مقایسه کافی برای تضمین سطح اطمینان خاصی دارید؟
برای رتبه بندی با استفاده از بردلی تری به چند مقایسه نیاز دارم؟
56543
من PyMC را یاد می‌گیرم و اساساً یک متغیر تصادفی $Z = X + Y$ دارم که (مثلاً) $X \sim \mathrm{Normal}(\theta_X)$ و $Y \sim \mathrm{Lognormal}(\theta_Y )$ و $Z$ هیچ توزیع ساده و بسته ای ندارند. اکنون مشاهدات $z_i،\,i=1...N$ از $Z$ دارم و می‌خواهم $\theta_X$ و $\theta_Y$ را استنتاج کنم. ساده ترین راه برای انجام این کار با PyMC چیست؟ اگر توزیع $Z$ را در دسترس داشتم، فکر می‌کنم می‌توانستم این کار را انجام دهم: Z = DistZ('Z', param_x=theta_x, param_y=theta_y, value=z, observed=True) و سپس استنتاج کنم، اما من انجام نمی‌دهم. DistZ را نمی دانم. همچنین تعریف مجموع به این صورت آسان است: @pymc.deterministic def z_sum(x=Y, Y=y): x + y را برگرداند اما فکر نمی کنم بتوانم یک تابع قطعی مشاهده شده تعریف کنم. فکر می کنم می توانم کاری انجام دهم: @pymc.stochastic(observed=True) def z_sum(value=z, x=X, y=Y): def logp(z, x): # return log-likelihood اما من هستم در جزئیات روشن نیست من احتمال مشترک $\mathcal{L}(z, x)$ را می‌دانم، اما امیدوار بودم که نیازی به آن نباشد. من توانستم این کار را با یک نمونه‌گر سفارشی Gibbs (با استفاده از احتمال مشترک) انجام دهم، اما به دنبال راه‌حل «ظریف‌تر» با PyMC هستم. * * * **ویرایش**: سؤال مشابهی در سؤالات متداول BUGS یافت شد که می‌گوید توابع متغیرهای تصادفی پشتیبانی نمی‌شوند. مطمئن نیستم که آیا این برای PyMC صدق می کند یا نه، و رویکرد استاندارد چیست.
PyMC: چگونه می توانم تابعی از دو متغیر تصادفی را بدون توزیع شکل بسته تعریف کنم؟
72424
در رگرسیون OLS: $$Y=\beta_0+\beta_1 X_1+ \beta_2 X_2+\beta_3 X_3 + \beta_4 X_4+\beta_5 X_5+\beta_6 X_6 + \varepsilon،$$$\varepsilon$ چیست؟ آیا نویز گاوسی است یا خطای تصادفی؟ چه تفاوتی دارد؟ چرا آن را به مدل رگرسیون چندگانه اضافه می کنیم؟ در اکثر مقالات، نویسندگان آن را به خطای تصادفی اما بدون توضیح ارجاع می دهند. من به یک دلیل ساده و خوب نیاز دارم که چرا نویسندگان آن را به مدل خود اضافه کنند.
خطای تصادفی در رگرسیون OLS چیست؟ و چه ارتباطی با نویز گاوسی دارد؟
3947
من اصول اولیه هدف ماشین‌های بردار پشتیبان را از نظر طبقه‌بندی یک مجموعه ورودی به چندین کلاس مختلف می‌دانم، اما چیزی که نمی‌فهمم برخی از جزئیات دقیق است. برای شروع، من با استفاده از متغیرهای Slack کمی گیج شده ام. هدف آنها چیست؟ من در حال انجام یک مشکل طبقه بندی هستم که در آن فشار را از حسگرهایی که روی کفی کفش قرار داده ام گرفته ام. در حالی که داده های فشار ثبت می شود، یک سوژه چند دقیقه می نشیند، می ایستد و راه می رود. من می‌خواهم طبقه‌بندی‌کننده‌ای را آموزش دهم تا بتواند تعیین کند که آیا یک فرد نشسته، ایستاده یا راه می‌رود و بتواند این کار را برای داده‌های آزمایشی آینده انجام دهد. چه نوع طبقه بندی کننده ای را باید امتحان کنم؟ بهترین راه برای آموزش طبقه بندی کننده از روی داده هایی که گرفته ام چیست؟ من 1000 ورودی برای نشستن، ایستادن و راه رفتن دارم (3x1000=3000 در مجموع)، و همه آنها فرم بردار ویژگی زیر را دارند. (فشار از حسگر 1، فشار از حسگر 2، فشار از حسگر 3، فشار از حسگر 4)
به من کمک کنید ماشین‌های بردار پشتیبانی را درک کنم
5859
من در مورد اینکه چگونه تصمیم بگیرم در تحلیل بقا، زمان را پیوسته یا گسسته در نظر بگیرم گیج شده ام. به طور خاص، من می خواهم از تجزیه و تحلیل بقا برای شناسایی متغیرهای سطح کودک و خانواده استفاده کنم که بیشترین اختلاف را در تأثیر آنها بر بقای پسران در مقابل دختران (تا سن 5 سالگی) دارند. من مجموعه داده ای از سن کودک (به ماه) به همراه شاخصی برای زنده بودن کودک، سن مرگ (به ماه) و سایر متغیرهای سطح کودک و خانواده دارم. از آنجایی که زمان بر حسب ماه ثبت می شود و همه کودکان زیر 5 سال سن دارند، زمان های زنده ماندن زیادی وجود دارد (اغلب در فواصل نیم ساله: 0mos، 6mos، 12mos، و غیره). بر اساس آنچه در مورد تجزیه و تحلیل بقا خوانده‌ام، داشتن زمان‌های متقابل بقا باعث می‌شود فکر کنم باید زمان را گسسته تلقی کنم. با این حال، من چندین مطالعه دیگر را خوانده ام که در آنها زمان بقا بر حسب سال است (و مطمئناً زمان بقای مرتبطی وجود دارد) و از روش های زمان پیوسته مانند خطرات متناسب کاکس استفاده شده است. معیارهایی که باید برای تصمیم گیری در مورد اینکه زمان را پیوسته یا گسسته در نظر بگیرم چیست؟ برای داده‌ها و سؤال من، استفاده از برخی مدل‌های زمان پیوسته (کاکس، وایبول، و غیره) برای من حس شهودی دارد، اما به نظر می‌رسد ماهیت گسسته داده‌های من و مقدار زمان‌های بقای مرتبط چیز دیگری را نشان می‌دهد.
تجزیه و تحلیل بقا: پیوسته در مقابل زمان گسسته
48356
فرض کنید $X_n$ در توزیع به $X$، $x_n \rightarrow x$ همگرا شود، همچنین تابع توزیع تجمعی برای $X$ در $x$ پیوسته است. نشان دهید که $ P(X_n \leq x_n) \rightarrow P(X \leq x)$. PS: از آنجایی که $F_n(x_n) \subseteq [0,1]$ و $[0,1]$ فشرده است، $F_n(x_n)$ حداقل یک دنباله فرعی دارد که به y همگرا می شود. چگونه ثابت کنیم که $y = F(x)$؟
همگرایی در توزیع و CDF
7467
## پیشینه من بر ورود داده ها از ادبیات اولیه به یک پایگاه داده نظارت می کنم. فرآیند ورود داده ها مستعد خطا است، به ویژه به این دلیل که کاربران باید طراحی آزمایشی را تفسیر کنند، داده ها را از گرافیک ها و جداول استخراج کنند، و نتایج را به واحدهای استاندارد تبدیل کنند. داده ها از طریق یک رابط وب به پایگاه داده MySQL وارد می شوند. بیش از 10 هزار نقطه داده از بیش از 20 متغیر، بیش از 100 گونه و بیش از 500 نقل قول تا کنون گنجانده شده است. من باید کیفیت نه تنها داده‌های متغیر، بلکه داده‌های موجود در جداول جستجو، مانند گونه‌های مرتبط با هر نقطه داده، محل مطالعه و غیره را نیز بررسی کنم. ورود داده‌ها ادامه دارد، بنابراین QA/ QC باید به طور متناوب اجرا شود. این اطلاعات هنوز به صورت عمومی منتشر نشده است، اما ما در حال برنامه ریزی برای انتشار آنها در چند ماه آینده هستیم. در حال حاضر، QA/QC من شامل سه مرحله است: 1. کاربر دوم هر نقطه داده را بررسی می‌کند، 2. هیستوگرام هر متغیر را از نظر نقاط پرت بررسی می‌کند. 3. کاربران داده‌های مشکوک را پس از به دست آوردن نتایج جعلی گزارش می‌کنند. آیا می توان برای توسعه یک روش QA/QC قوی برای این پایگاه داده استفاده کرد؟ 2. مرحله اول بیشترین زمان را دارد. آیا کاری وجود دارد که بتوانم برای کارآمدتر کردن این کار انجام دهم؟
دستورالعمل های تضمین کیفیت و کنترل کیفیت (QA/QC) برای پایگاه داده
83380
من با سوال زیر درگیر هستم: > مدل ها را در نظر بگیرید > > \begin{align} \ln(Y)=\beta_1+\beta_2 \ln(L) + \beta_3 \ln(K)+\epsilon > \tag{ 1}\\\ > \ln(Y)-\ln(K)=\beta_1^*+\beta_2^*(\ln(L)-\ln(K))+\beta_3^*\ln(K)+\epsilon^* > \tag{2}\\\ \ln(Y)-\ln(K)=\beta_1^\\# +\beta_2^\\# (\ln(L) -\ln(K)) + > \epsilon^\\# \tag{3}\\\ \end{align} > > یافتن 3 رابطه بین پارامترهای $(\beta_1,\beta_2,\beta_3)$ در مدل > (1) و $( \beta_1^*,\beta_2^*,\beta_3^*)$ در مدل (2). تحت چه شرایطی می توان مدل را به عنوان مدل (3) بازنویسی کرد، و روابط بین $(\beta_1,\beta_2,\beta_3)$ و > $(\beta_1^\\#,\beta_2^\ چیست؟ \#)$ در (3)؟ با انجام مقداری بازنویسی، می توانم به رابطه ای بین پارامترهای (1) و (2) برسم. اما من نمی فهمم این 3 رابطه یعنی چه. من فکر می کنم شرط نگه داشتن مدل 3 این است که $\beta_3=0$. لطفاً کسی می تواند نکات بیشتری در مورد این سؤال به من بدهد، زیرا من نمی دانم که آیا مطالب را به درستی تفسیر می کنم یا خیر.
سوال رگرسیون خطی
85593
من از جنگل رگرسیون استفاده می کنم. وقتی توزیع چندک خروجی جنگل را ترسیم می‌کنم متوجه شدم این است که در طول چندک طولانی (مثلاً $\tau در [0.1,0.3]$)، خروجی‌ها همگی عدد یکسان را به خود می‌گیرند. من حدس می زنم که این از پراکندگی متغیر پاسخ من و ویژگی های توزیعی ویژگی های من (و همچنین کم عمق بودن درختان من) ناشی می شود. برخی از تنظیمات هایپرپارامتر (یا روش های دیگر) که می توانم برای ایجاد تداوم بیشتر در خروجی جنگل استفاده کنم چیست؟ بهترین حالت خروجی مدل خطی خواهد بود. هدف من رسیدن به این هدف بدون تعمیم زخمی است (که ممکن است امکان پذیر نباشد). برخی از آسیب های تعمیم قابل قبول است (یعنی تنظیمات فراپارامتر زیر بهینه) اگر به این معنی باشد که بتوانم از مدل برای تصمیم گیری آسان تر استفاده کنم.
چگونه تداوم بیشتری در خروجی جنگل رگرسیونی بدست آوریم
81539
من مجموعه داده بزرگی از متغیرهای طبقه بندی دارم. داده ها شامل خریدارانی است که در طی یک سفر به یک فروشگاه دو کالا را خریداری کرده اند. تقریباً 75000 کیس و 1500 محصول مختلف وجود دارد. من قصد دارم داده‌ها را با استفاده از تحلیل خوشه‌ای TwoStep خوشه‌بندی کنم (می‌دانم که برای داده‌های بزرگ است؛ اگرچه مطمئن نیستم که بهترین راه‌حل باشد، اما ممکن است روش‌های خوشه‌بندی دیگری را نیز در نظر بگیرم). داده‌های خام به این شکل جمع‌آوری شد (پاسخ‌دهنده 1 دو مورد را در سه بازدید جداگانه خریداری کرد): ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/O3qmc.jpg) بهترین شکل برای این چیست؟ اگر بخواهم کاربرانی را که محصولات مشابه خریداری کرده‌اند خوشه‌بندی کنم، داده‌ها برای خوشه‌بندی قرار می‌گیرند؟ می دانم که برای هر پاسخ دهنده به یک ردیف/مورد نیاز دارم. بنابراین، من فکر می کردم که این کافی است (گزینه 1): ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/SdJFK.jpg) با این حال، من به طور مداوم یک راه حل یک خوشه ای دریافت می کنم (بر اساس خوشه بندی خودکار) و راه حل های ضعیف وقتی تعداد خوشه ها را مشخص می کنم. من مطمئن نیستم که آیا واقعاً اینطور است یا داده های من به درستی شکل نگرفته اند. گزینه دیگر شکل دادن به داده ها به این صورت خواهد بود (گزینه 2): ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/7k8Wa.jpg) اما من مطمئن نیستم که پیامدهای آن چیست مطرح می کند. یکی از مزایای گزینه 2 که می توانم به آن فکر کنم این است که به طور بالقوه می توانم تکنیک های خوشه بندی اضافی مانند K-means یا Hierarchical را امتحان کنم.
از چه ساختار داده ای برای تجزیه و تحلیل خوشه ای استفاده کنم یا از چه تحلیل خوشه ای برای داده های خود استفاده کنم؟
109841
من مایلم نتایج متاآنالیز خود را با استفاده از بهترین شیوه های ممکن ارائه دهم. با این حال، من نمونه هایی را در مقالات مشابه آنچه خروجی من است پیدا نمی کنم. در اینجا مدل و خروجی من ساده شده است (با استفاده از تابع «rma» از بسته «Metafor»، «R»). rma (yi، vi، mods = ~ varA + varB) برای کسانی که با rma آشنا نیستند، این خط مدل‌های اثر ترکیبی متاآنالیز را با 2 تعدیل‌کننده، متغیر «A» و متغیر «B» کد می‌کند. فرض کنید varA دارای 2 سطح طبقه بندی و varB دارای 3 سطح طبقه بندی است. خروجی مشابه این خواهد بود، بدون هیچ عددی: intercept - تخمین، آمار، p-value، 95% IC varA.level2 - تخمین، آمار، p-value، 95% IC varB.level2 - تخمین، آمار، p- مقدار، 95% IC varB.level3 - تخمین، آمار، p-value، 95% IC همه آن سطوح متغیر به طور قابل توجهی متفاوت از رهگیری من با varA مشکلی ندارم. به راحتی می توانم بگویم که «سطح 1» با «سطح 2» متفاوت است و آمار و مقدار p را برای «varA.level2» گزارش کنم. اما «varB» چطور؟ «سطح 1» با «سطح 2»، «سطح 1» با «سطح 3» متفاوت است... اما آیا «سطح 2» با «3» متفاوت است؟ در این مورد چه چیزی را در مقاله ای گزارش می کنید؟ با تشکر از بینش یا ارجاع به مقالات، کتاب ها...
ارائه نتایج یک متاآنالیز با چند ناظر؟
52390
من خوانده ام که برای ANOVA یک طرفه، باید بررسی کنید که باقیمانده های مدل به طور معمول توزیع شده باشند. اگر واریانس هر گروه همگن باشد، این نشان می‌دهد که باقیمانده‌ها با هر گروهی که مقایسه می‌شوند نیز به طور معمول توزیع می‌شوند، بنابراین فرض کنید داریم یک ANOVA را برای مقایسه میانگین‌ها برای دو گروه انجام می‌دهیم. داده های هر گروه شبیه یک توزیع اریب است و هر دو دارای واریانس تقریباً مساوی هستند اما یک گروه دارای انحراف مثبت و گروه دیگر دارای انحراف منفی هستند. یک هیستوگرام یا نمودار QQ از باقیمانده های مدل احتمالاً نرمال بودن باقیمانده ها و در نتیجه نرمال بودن هر گروه را نشان می دهد. با این حال به وضوح این مورد نیست. بنابراین سوال من این است که چه چیزی را از دست داده ام؟
نمودار QQ با نرمال بودن زمانی که زیرگروه ها غیرعادی هستند سازگار است
85596
تازه وارد اینجام به پیش بینی و من یه سوال خیلی اساسی دارم. من 2 داده سری زمانی مجزا دارم. * سری زمانی A هفتگی است (فرکانس بالا) * سری زمانی B ماهانه است (فرکانس پایین) من باید A را با استفاده از B پیش بینی کنم. من به مقاله Armesto و همکاران در مورد پیش بینی با فرکانس های مختلط نگاه کردم و همچنین به راهنمای کاربر midasr نگاه کردم . هر دو در مورد پیش بینی متغیر فرکانس پایین با فرکانس بالا صحبت می کنند. اما آیا می توان از همین رویکرد برای پیش بینی داده های هفتگی با استفاده از داده های سری زمانی ماهانه استفاده کرد؟ متأسفانه داده هایی که در دسترس من است در آن قالب است. با توجه به آنچه من فهمیدم، تقریباً مطمئن هستم که می توان آن را انجام داد، اما امیدوار بودم کسی بتواند تایید کند. همچنین، آیا نکته مهمی وجود دارد که باید هنگام اجرای این پیش بینی مراقب آن باشم؟
پیش بینی متغیر فرکانس بالا با پیش بینی کننده فرکانس پایین
10897
من می خواهم توزیع احتمال را برای طول قطعاتی که با تکه تکه کردن یک میله خطی به طول $L$ به روش زیر بدست می‌آورم محاسبه کنم: 1. نقاط شکست $n$ را به صورت تصادفی (یکنواخت) انتخاب می‌کنم. 2. برش می‌دهم. میله در آن نقاط شکست، ایجاد قطعات $(n+1)$. در حال حاضر، در حالی که به راحتی می توان دید که احتمال اینکه یک کشش به طول $x$ حاوی هیچ نقطه شکستی نباشد مانند یک نمایی منفی است، من نمی دانم چگونه اطلاعات مربوط به طول میله را وارد کنم.
توزیع احتمال طول قطعه
5850
با توجه به یک متغیر تصادفی $X_1$ از توزیعی با cdf $F$ و متغیرهای تصادفی $X_2, \cdots,X_n$ که از توزیع دیگری با cdf $G$ گرفته شده است، فرمول احتمال X_1$ چیست؟ $k$-th از متغیرهای $n$، زمانی که آنها به ترتیب مرتب شوند. اگر کمک می کند، فرض کنید که $F$ و $G$ هر دو در [0,1] تعریف شده اند، با چگالی مثبت در همه جا.
آمار سفارش: متغیر تصادفی احتمال k-امین از n در هنگام سفارش است
95958
من سعی می کنم بفهمم که چگونه می توان خطای رگرسیون خطی را برای نمودار پراکندگی شکل فوتبال به دست آورد. فرض کنید من دو توزیع دارم که با ضریب $r$ همبستگی دارند. علاوه بر این، این دو توزیع دارای میانگین $\mu_1$ و $\mu_2$ و انحراف استاندارد $\sigma_1$ و $\sigma_2$ هستند. چگونه از این داده ها برای رگرسیون خطی خطا بدست آوریم؟
از انحراف استاندارد تا خطای رگرسیون خطی
97773
می‌خواهم بررسی کنم که آیا موش‌های صحرایی من در طول زمان بهبودی حرکتی را نشان می‌دهند (یعنی روند منفی در خطاهای انجام شده). از کدام آزمایش بهتر می توانم استفاده کنم تا ببینم آیا نتایج من (خطاهای حرکتی انجام شده توسط موش ها) در طول زمان افزایش یا کاهش خطی را نشان می دهد؟ نتایج من همه به صورت غیر پارامتری توزیع شده است. با تشکر
چگونه میزان خطا را در طول زمان تعیین کنیم؟
43699
من مبتدی ابزار R هستم. من یک سوال در مورد چگونگی دانستن عملکرد یک مدل رگرسیون خطی با استفاده از داده های اعتبار سنجی دارم. رویکرد من این بود 1. ایجاد مجموعه داده های آموزشی و اعتبار سنجی از مجموعه داده های اصلی. train نام مجموعه داده های آموزشی من است و valid نام مجموعه داده های اعتبارسنجی من است. category متغیر هدف من خواهد بود و date_time متغیر مستقل من است. 2. از مجموعه داده های آموزشی برای ایجاد یک مدل رگرسیون استفاده کنید > attach(train) > > lreg=lm(category~date_time) 3. اکنون پیش بینی هایی را برای مجموعه داده های اعتبار سنجی با استفاده از مدل ایجاد شده با مجموعه داده های آموزشی انجام دهید > p=predict(lreg,valid ) 4. اکنون با یافتن مقادیر ACC, AUC دقت را بررسی کنید. > mmetric(valid$category,p,AUC) > > mmetric(valid$category,p,ACC) حال اگر AUC و ACC مقادیر کمی داشته باشند، به این معنی است که مدل ایجاد شده توسط مجموعه داده های آموزشی در ساختن خوب نیست. پیش بینی ها آیا رویکرد من صحیح است؟ با تشکر و احترام!
بررسی عملکرد مدل رگرسیون
17387
من داده های زیر را دارم و واقعاً مطمئن نیستم که چگونه آن را تجزیه و تحلیل کنم. توضیح سناریوی واقعی خیلی طول می‌کشد، بنابراین این یک مثال مشابه است: از دو گروه از شرکت‌کنندگان (8=n) خواسته می‌شود تا یک قالب را 60 بار بچرخانند (هر شرکت‌کننده 60 بار می‌پیچد) و تعداد آنها را ثبت کنند. سپس نسبت‌های نسبی هر عدد برای هر شرکت‌کننده برای هر یک از دو گروه میانگین می‌شود، بنابراین چیزی شبیه به این داریم: GROUP 1 Number Av.f 1. 10 2. 10 3. 10 4. 10 5. 10 6. 10 GROUP 2. شماره Av.f 1. 15 2. 15 3. 15 4. 5 5. 5 6. 5 من می‌دانم که اگر این فرکانس‌ها ساده بودند، می‌توانم از مربع کای استفاده کنم، اما اینها میانگین فرکانس‌های با واریانس هستند. در عین حال، من نمی توانم از ANOVA استفاده کنم زیرا ابزارها مستقل از یکدیگر نیستند. (اگر من میانگین فراوانی 5 عدد از اعداد را بدانم، می توانم میانگین 6 را تعیین کنم.) حتی اگر فقط 5 عدد از 6 عدد را تجزیه و تحلیل کنم، این کمکی نمی کند مگر اینکه ANOVA به نحوی بداند که مجموع باید چقدر باشد. آیا کسی تستی می‌شناسد که به من اجازه دهد ببینم آیا دو گروه در توزیع دای رول‌ها با هم تفاوت دارند؟ خیلی ممنون!! ملیسا
تجزیه و تحلیل تفاوت های گروهی در نسبت های متوسط
13605
من چندین سال است که از R استفاده می کنم، اما همیشه از رابط کاربری گرافیکی مانند Tinn-R، JGR و اخیراً R-Studio استفاده کرده ام. اگرچه رابط کاربری R-Studio را دوست دارم، اما احساس می‌کنم برای برنامه‌های طولانی‌تر با گرافیک کم/بدون گرافیک، می‌توانم با بهره‌گیری از میانبرهای ارائه‌شده توسط یک ویرایشگر متن ابتدایی‌تر مانند Emacs، کدنویسی کارآمدتری داشته باشم. من Emacs و افزونه ESS را نصب کردم، همه چیز به درستی کار می کند و کدهایی را تست کرده ام، اما برای عادت کردن به آن مشکل دارم و راهنمای مرجع مناسبی پیدا نکردم. جستجوهای گوگل چند وب سایت بسیار قدیمی را با آموزش هایی که در درجه اول بر نصب و پیکربندی افزونه ها تمرکز دارند برمی گرداند و کتابچه راهنمای موجود در وب سایت رسمی برای من کمی بیش از حد متراکم است. من به دنبال یک مقدمه نسبتا کوتاه هستم، (به طور ایده آل با اسکرین شات و لیستی از کلیدهای میانبر) که برای کسی که با R آشنا است، اما نه Emacs، طراحی شده است. هر گونه مرجع یا نکات دیگری در مورد شروع کار بسیار قدردانی خواهد شد.
برخی از مراجع/توصیه های خوب برای یادگیری Emacs Speaks Statistics (با R) چیست؟
10890
تفاوت بین درون زایی و ناهمگونی مشاهده نشده چیست؟ می دانم که درون زایی مثلاً از متغیرهای حذف شده می آید؟ اما تا آنجا که من متوجه شدم، ناهمگونی مشاهده نشده باعث همین مشکل می شود. اما دقیقاً تفاوت بین این دو مفهوم در کجاست؟
درون زایی در مقابل ناهمگونی مشاهده نشده
94581
من یک متغیر وابسته ترتیبی دارم، easiness، که از 1 (نه آسان) تا 5 (بسیار آسان) متغیر است. افزایش در مقادیر عوامل مستقل با افزایش درجه سهولت همراه است. دو تا از متغیرهای مستقل من ('condA' و 'condB') دسته بندی هستند، هر کدام دارای 2 سطح، و 2 ('abilityA'، 'abilityB') پیوسته هستند. من از بسته ترتیبی در R استفاده می کنم، جایی که از چیزی استفاده می کند که من فکر می کنم $$\text{logit}(p(Y \leqslant g)) = \ln \frac{p(Y \leqslant g)}{p (Y > g)} = \beta_{0_g} - (\beta_{1} X_{1} + \dots + \beta_{p} X_{p}) \quad(g = 1، \ldots, k-1)$$ (از پاسخ @caracal در اینجا) من این را به طور مستقل یاد می‌گیرم و از هر کمکی که ممکن است قدردانی می‌کنم زیرا هنوز در حال مبارزه با آن هستم. علاوه بر آموزش های همراه بسته ترتیبی، موارد زیر را نیز مفید دانستم: * تفسیر رگرسیون لجستیک ترتیبی * ضریب منفی در رگرسیون لجستیک مرتب شده اما من سعی می کنم نتایج را تفسیر کنم، و منابع مختلف را کنار هم قرار دهم. و دارم گیر می کنم 1. من بسیاری از توضیحات مختلف را خوانده ام، چه انتزاعی و چه کاربردی، اما هنوز به سختی می توانم ذهن خود را در مورد معنای گفتن بگم: > با افزایش 1 واحدی در condB (یعنی تغییر از یک سطح به سطح بعدی > از پیش‌بینی‌کننده طبقه‌ای)، شانس پیش‌بینی‌شده برای مشاهده Y = 5 در مقابل > Y = 1 تا 4 (و همچنین شانس پیش‌بینی‌شده مشاهده‌شده Y = 4 در مقابل Y = 1 به > 3) با ضریب exp (بتا) تغییر می کند که برای نمودار، exp(0.457) = 1.58 است. الف آیا این برای متغیرهای مستقل طبقه بندی و پیوسته متفاوت است؟ ب بخشی از مشکل من ممکن است با ایده شانس تجمعی و آن مقایسه ها باشد. ... آیا منصفانه است که بگوییم رفتن از condA = غایب (سطح مرجع) به condA = حاضر، 1.58 برابر بیشتر احتمال دارد که در سطح بالاتری از سهولت رتبه بندی شود؟ من تقریباً مطمئن هستم که درست نیست، اما مطمئن نیستم که چگونه آن را به درستی بیان کنم. از نظر گرافیکی 1\. با پیاده‌سازی کد موجود در این پست، من گیج شدم که چرا مقادیر «احتمال» به‌دست‌آمده اینقدر زیاد است. 2\. نمودار p (Y = g) در این پست برای من بسیار منطقی است ... با تفسیری از احتمال مشاهده یک دسته خاص از Y در مقدار خاص X. دلیل اینکه من سعی می کنم نمودار را بدست بیاورم. در وهله اول درک بهتری از نتایج به طور کلی است. این خروجی از مدل من است: m1c2 <- clmm (آسانی ~ condA + condB + abilityA + abilityB + (1|محتوا) + (1|ID)، داده = d، na.action = na.omit) خلاصه (m1c2) مدل ترکیبی پیوند تجمعی با فرمول تقریبی لاپلاس نصب شده است: easiness ~ illus2 + dx2 + abilEM_obli + valueEM_obli + (1 | محتوا) + (1 | ID) داده: d link threshold nobs logLik AIC niter max.grad logit flexible 366 -468.44 956.88 729(3615) 4.36e-04 cond.H 014 effect. : واریانس نام گروه ها Std.Dev. ID (Intercept) 2.90 1.70 content (Intercept) 0.24 0.49 تعداد گروه ها: ID 92، محتوا 4 ضرایب: Estimate Std. خطای z مقدار Pr(>|z|) condA 0.681 0.213 3.20 0.0014 ** condB 0.457 0.211 2.17 0.0303 * abilityA 1.148 0.255 4.51 6.5 0.7B 006 2.34 0.0195 * ضرایب آستانه: برآورد Std. خطای z مقدار 1|2 -3.500 0.438 -7.99 2|3 -1.545 0.378 -4.08 3|4 0.193 0.366 0.53 4|5 2.121 0.385 5.50
رگرسیون لجستیک ترتیبی را ترسیم و تفسیر کنید
77042
من سعی می کنم تفاوت بین تست تقسیم A/B و تست ANOVA را بفهمم و به این مقاله برخوردم. این نشان می دهد که میانگین $n$ متغیرهای تصادفی مستقل برنولی معمولاً توزیع شده است. آیا این حقیقت دارد؟ اگر یک متغیر تصادفی $y$ داشته باشم که از توزیع برنولی پیروی می کند: $F(\theta) = \theta^{y}(1-\theta)^{1-y}$ و مقادیر 1 یا 0 را می گیرد، آیا میانگین $n$ این متغیرها به طور معمول توزیع می شود؟ $\frac{1}{n}\sum y_{i}$
آیا میانگین n متغیر تصادفی مستقل برنولی نرمال است؟
2315
یکی از کاربران قبلی این سوال را به طور خاص برای R پرسیده است. من می خواهم بدانم چه نرم افزار دیگری می تواند این کار را انجام دهد.
چه نرم افزاری امکان اندازه گیری های تکراری غیر پارامتریک چند طرفه Anova را می دهد؟
5854
من روی ایجاد یک وب سایت کار می کنم که داده های سرشماری را برای چند ضلعی های انتخاب شده کاربر نمایش می دهد و می خواهد توزیع پارامترهای مختلف را به صورت گرافیکی نشان دهد (یک نمودار در هر پارامتر). داده ها معمولاً دارای ویژگی های زیر هستند: 1. حجم نمونه بزرگ است (مثلاً حدود 10000 نقطه داده) 2. دامنه مقادیر بسیار زیاد است (مثلاً حداقل جمعیت می تواند کمتر از 100 و حداکثر باشد. می تواند چیزی در حدود 500000 باشد. 3. q1 معمولاً نزدیک به حداقل است (مثلاً 200) در حالی که q2 و q3 در 10000 خواهد بود. 4. چیزی شبیه توزیع نرمال به نظر نمی رسد. من می خواهم این توزیع را بر روی یک نمودار نشان دهم که توسط شهروندان (در صورت تمایل افراد غیر عادی) مشاهده می شود. من دوست داشتم از هیستوگرام استفاده کنم، اما به دلیل گستره وسیع مقادیر، امکان پذیر نیست، به همین دلیل ساخت سطل ها واقعا آسان و مستقیم نیست. با توجه به اطلاعات کمی که در مورد آمار دارم، نمودار جعبه چیزی است که اغلب برای نشان دادن این نوع داده ها استفاده می شود، اما من احساس می کنم که برای افراد غیرمستقیم، رمزگشایی نمودار جعبه آسان نیست. گزینه های من برای نشان دادن این داده ها به شیوه ای آسان چیست؟
چند جایگزین برای باکس پلات چیست؟
90829
اخیراً من در حال کار بر روی برخی از مشکلات استخراج قانون انجمن هستم. من آموخته ام که در مرحله پس از استخراج، از بسیاری از معیارهای آماری، مانند بالا بردن، پوشش، و قانع کردن، می توان برای ارزیابی جالب بودن قوانین استفاده کرد. برای مورد من از آسانسور استفاده می کنم. من می دانم که لیفت نشان می دهد که آیا یک قانون به طور تصادفی به دست می آید یا خیر. اگر یک بالابر بزرگتر از 1 باشد، نشان دهنده آن است که وقوع مقدمه تأثیر مثبتی بر وقوع نتیجه دارد. در حالی که بالابر کوچکتر از 1 نشان دهنده همبستگی منفی بین پیشین و نتیجه است. همانطور که عمیق تر در مسئله خود کاوش می کنم، می خواهم از این قوانین برای ارزیابی طبیعی بودن یا نبودن یک مشاهده استفاده کنم. بگوییم اگر یک مشاهده با مقدمه قاعده و نتیجه آن مطابقت داشته باشد، چنین مشاهده ای «عادی» است. اگر چنین مشاهده ای مقدم را برآورده کند، اما نتیجه را نداشته باشد، «غیر طبیعی» است. سوال من این است که آیا می توانم از مقدار لیفت قانون برای تعیین کمیت میزان ناهنجاری استفاده کنم؟ به عنوان مثال، مشاهده A یک قانون با بالابر 3 را نقض می کند، و مشاهده B یک قانون با بالابر 2 را نقض می کند. آیا می توانم بگویم که در این مورد، مشاهده غیر طبیعی تر از B است؟ حدس می زنم در مورد معنای بالابر 100٪ مطمئن نیستم. آیا می توانم از آن به عنوان یک شاخص برای چنین برنامه هایی استفاده کنم؟ پیشاپیش برای هر کمکی متشکرم!
استفاده از آمار قوانین در طبقه بندی
63930
من یک رگرسیون خطی دارم که کاملاً خوب است، حدس می‌زنم (برای یک پروژه دانشگاهی است، بنابراین واقعاً لازم نیست دقیق باشم). نکته این است که اگر من باقیمانده ها را در مقابل مقادیر پیش بینی شده رسم کنم، (به گفته معلم من) اشاره ای به ناهمسانی وجود دارد. اما اگر Q-Q-Plot باقیمانده ها را رسم کنم، واضح است که آنها به طور معمول توزیع شده اند. علاوه بر این، آزمایش Shapiro روی باقیمانده‌ها دارای $p$-value 0.8$ است، بنابراین فکر می‌کنم شکی نیست که باقی‌مانده‌ها واقعاً به طور معمول توزیع شده‌اند. **سوال:** اگر باقیمانده ها به طور معمول توزیع شوند، چگونه می توان در مقادیر پیش بینی شده ناهمگونی وجود داشت؟
هتروسکداستیکی و نرمال بودن باقیمانده
43697
من یک مدل رگرسیونی OLS ساده را از نوع تخمین می زنم: $y = \beta X + u$ پس از تخمین مدل، باید ترکیب وزنی از ضرایب ایجاد کنم (به عنوان مثال $w_1 \beta_1 + w_2 \beta_2$) و تخمین بزنم. خطاهای استاندارد برای آمار ترکیبی روش صحیح محاسبه خطاهای استاندارد مجموع ضرایب چیست؟ من تا اینجا رسیده ام: من موارد زیادی دارم، بنابراین می توان گفت که فرض عادی بودن مجانبی برآورده می شود. بیایید خطاهای استاندارد $s_1$ و $s_2$ را به ترتیب برای $\beta_1$ و $\beta_2$ بنامیم. اگر $\beta$ تخمین‌های مستقلی بود، می‌توانیم از تابع مجموع نرمال‌ها استفاده کنیم تا بگوییم که واریانس $\beta_1+\beta_2$ $w_1^2s_1^2 + w_2^2s_2^2$ است. اما اگر عمیقاً در اشتباه نباشم، $\beta_1$ و $\beta_2$ مستقل نیستند. آیا راه ساده ای برای تا زدن ماتریس واریانس-کوواریانس $X$ برای حل این مشکل وجود دارد؟
چگونه خطاهای استاندارد را برای مجموع ضرایب OLS محاسبه کنم؟
94580
یکی از دوستان من باید یک GMM غیر خطی را روی داده های پنل تخمین بزند. همانطور که بررسی کردم، نرم افزارهای Panel GMM فقط فرم های خطی را تخمین می زنند (STATA gmm، xtabond، ...؛ R pgmm از بسته plm). چگونه می توانم تخمین GMM پانل دینامیکی غیرخطی انجام دهم؟
GMM غیر خطی برای داده های پانل پویا
81537
من در حال حاضر در حال آزمایش با gridsearch برای آموزش یک ماشین بردار پشتیبانی هستم. من می‌دانم که اگر پارامتر گاما و C داشته باشم، تابع R tune.svm یک اعتبارسنجی متقاطع 10 برابری را برای همه ترکیب‌های این 2 پارامتر انجام می‌دهد. از آنجایی که نمی دانستم چگونه شروع کنم، سعی کردم اطلاعاتی در مورد آن به دست بیاورم، به عنوان مثال wikipedia2 مقادیری را پیشنهاد می کند که خطی نیستند، به عنوان مثال. C در محدوده {10، 100، 1000}. تا کنون از مثال‌های پیوند دوم ویکی‌پدیای خود استفاده می‌کنم که عبارتند از: گاما = 2^(-15:3) هزینه = 2^(-5:15) که به 399 ترکیب می‌رسد. این کار بسیار بسیار طولانی طول می کشد (2000 نمونه). به عنوان مثال برای هسته شعاعی بهترین نتیجه من گاما = 0.5 و هزینه = 2 است. آیا اگر فقط از مقادیری مانند (1، 2، 3، 4، ... 10) برای هزینه ها استفاده کنم، نمی توانم همان نتیجه را بگیرم. و (0، 0.5، 1، 1.5، 2) برای گاما؟ من می دانم که این مثال ساخته شده است زیرا من از قبل نتیجه را می دانم. سوال من: **اما چرا این مقیاس نمایی؟** مقادیر زیادی بین 0 و 1 وجود دارد که فکر می کنم این اتلاف زمان محاسباتی است و فقط تعداد کمی بسیار بزرگ است که به هر حال نمی تواند نتیجه خیلی دقیقی پیدا کند. . اگر از این برای یافتن یک محدوده کوچکتر استفاده شود، برای من منطقی است، فرض کنید می دانیم که بهترین هزینه 2^3 است و سپس آن را جستجو می کنیم. اما هیچ جا ذکر نشده است که اینگونه اجرا شود.
شبکه برای تخمین پارامتر SVM جستجو کنید
81530
من نتایج 50 آزمایش انجام شده را دارم. تنها نتایجی که من دارم شکست ساختاری یا عدم شکست ساختاری (رفتن یا نرفتن) است. متغیر ورودی من یک بار خارجی است. بگوییم که ساختار من x چند بار شکست خورده است و y بارها خراب نشده است. روش اصلی من برای ایجاد یک توزیع احتمال، همبستگی بار خارجی با نتایج شکست بود. با این حال، با اصول فیزیکی و پیشرفت‌های فن‌آوری، عمدتاً در تحلیل اجزای محدود، درک بهتری از آنچه در موادم می‌گذرد دارم و می‌خواهم تنش‌های داخلی را با نتایج شکست مرتبط کنم، نه همبستگی سنتی بار-شکست. پس از شبیه سازی هر آزمایش با بارها و شرایط مناسب، مجموعه ای از عناصر با مقادیر تنش قابل مشاهده را دارم. برای تجسم تصویر را ببینید: lnengineering.com/fe.jpg ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/fyIzt.jpg) من می دانم که کدام آزمایش شکست خورده و کدام آزمایش انجام نشد. اکنون می‌خواهم تنش‌های مشاهده‌شده را برای هر شبیه‌سازی به هم مرتبط کنم و یک توزیع احتمال بر اساس آن مقادیر ایجاد کنم. شهود فیزیکی می گوید که شکست به احتمال زیاد در نقطه ای با بیشترین استرس (در تصویر، نقطه قرمز نزدیک به بالا) رخ می دهد. یک راه ساده برای ارتباط استرس داخلی و شکست این است که برای هر شبیه سازی نقطه (عنصر) با بیشترین تنش را انتخاب کنید و با استفاده از آن مقادیر، توزیعی ایجاد کنید. با این حال، کاملاً ممکن است که شکست در نقطه ای از نارنجی (البته با احتمال کمتر) یا حتی سبز (با احتمال کمتر) رخ دهد. مانند برگرداندن یک سکه شماره دار با 1 یا 2 روی آن، چرخاندن قالب 6 وجهی و چرخاندن یک قالب هزار وجهی است، و اگر عدد 1 را دریافت کنم، ساختار من از کار می افتد. روش سنتی من می‌گوید نقطه‌ای را با بالاترین احتمال انتخاب کنید (سکه = قرمز) و از آن برای ارتباط بین شکست استفاده کنید. اگرچه روش ظریف تر و دقیق تر، محاسبه با استفاده از احتمال کل است. تنها مشکل این است که من از احتمال ذاتی نقاط خود اطلاعی ندارم، فقط مقادیر تنش اندازه گیری شده آنها را نمی دانم. من می‌خواهم اکثر یا تمام استرس‌هایم را در بر بگیرم و از آنها برای ایجاد یک توزیع احتمال استفاده کنم، نه لزوماً با گرفتن یک مقدار متوسط، زیرا هزاران عنصر وجود دارند که مقادیر مهم را منحرف می‌کنند. اگر کسی بینشی در مورد راه مناسبی برای مقابله یا ارزیابی این مشکل داشته باشد، بسیار سپاسگزار خواهم بود.
مدل سازی احتمالی بر اساس نتایج اجزای محدود مجموع
97776
من با گروه‌های موسیقی کار می‌کنم و حاضرم عمیقاً در کار باشم. من سوابق تاریخی مربوط به موارد زیر را دارم: * مشاهدات یک متغیر * پیش بینی های تاریخی برای همان متغیر برای پیش بینی های تک ارزشی آینده همان متغیر، می خواهم از داده های تاریخی برای تولید مجموعه ها استفاده کنم. من روش های آماری اولیه مانند نمونه برداری از توزیع های مشترک را بررسی کرده ام. سؤالات من این است: * آخرین الگوریتم ها/رویکردها برای این کار چه نوع ارائه شده است؟ * من از رویکرد نتفلیکس برای یادگیری گروهی اطلاع دارم. چگونه می توان این را برای مشکل من اعمال کرد؟ داده ها می توانند یک سری زمانی یا داده های شبکه ای از ماهواره باشند. هر کسی دیگر؟ من اساساً چیزی می خواهم که جدید و سریع باشد. من مایلم انواع مختلفی از روش ها را برای تولید این مجموعه ها کشف کنم. هر گونه ارجاع به کدها و مقالات بیشتر از آن استقبال می شود. با تشکر
جدیدترین روش های تولید مجموعه چیست؟
82924
من یک مشکل 2 کلاسه دارم که شامل بسیاری از ویژگی ها است. آیا طبقه‌بندی‌کننده ماشین بردار پشتیبان خطی (SVM) فقط مقادیر این ویژگی‌ها را در نظر می‌گیرد و نه بیشتر؟ آیا روابط بین متغیرها را می بیند؟ به عنوان مثال، آیا این کار به این صورت است: اگر ویژگی شماره 80 0 است، ویژگی 2: برای کلاس 1 باید بیش از 0.2 باشد و اگر ویژگی شماره 80 1 باشد، ویژگی 2: باید بیش از 0.8 باشد تا باشد. در کلاس 1؟ آیا این کار را با متغیرهای زیادی به طور همزمان انجام می دهد و آیا مقادیر سایر متغیرها بر نحوه تأثیرگذاری SVM توسط متغیرهای دیگر تأثیر می گذارد؟
SVM خطی چگونه کار می کند؟
90821
من می خواهم یک سوال در مورد یک مسئله تمرینی از یک کتاب درسی بپرسم. مسئله تمرینی در مورد یافتن برآوردگرهای $\theta$ است، ابتدا با استفاده از روش گشتاورها و سپس با استفاده از تابع حداکثر درستنمایی، برای pdf زیر: $f(x) = \begin{cases} e^{-(x -\theta)}، &\mbox{if }\: x \ge \theta \\\ 0 و \mbox{در غیر این صورت}. \end{cases} $ برای بدست آوردن $\hat{\theta}$ از طریق روش لحظه‌ها، $\bar{X} = E[X] = \int^{\infty}_\theta x e^{-( \theta -x)}dx = \theta+1، $ دادن $\hat{\theta}$ = $\bar{X}-1$. من در تلاش برای به دست آوردن یک برآوردگر با استفاده از تابع حداکثر درستنمایی گیر کرده ام. مشکل تمرینی نشان می دهد که MLE $\theta$ $min(X_i)$ است. من موارد زیر را تنظیم کردم: $L(\theta ; X_i)=\prod_{i=1}^n e^{-(x_i - \theta)}$$=e^{-\sum_{i=1}^n (x_i - \theta)}$ بر اساس یک نمودار کلی $y=e^{-x}$، آیا نمی‌توان مقدار $y$ را با به حداقل رساندن مقدار x$ به حداکثر رساند؟ بنابراین آیا این بدان معناست که باید $\sum_{i=1}^n (x_i - \theta)$ را به حداقل برسانیم؟ من در اینجا گیج شده‌ام و از راهنمایی‌هایی در مورد نحوه ادامه دادن قدردان خواهم بود. بابت هر گونه ریاضی ظالمانه از طرف من عذرخواهی می کنم. و پیشاپیش ممنون
روش لحظه ها و مشکل حداکثر احتمال
56832
حدس می‌زنم که پاسخ باید مثبت باشد، اما هنوز احساس می‌کنم چیزی درست نیست. باید نتایج کلی در ادبیات وجود داشته باشد، کسی می تواند به من کمک کند؟
آیا هر ماتریس کوواریانس مثبت قطعی است؟
96795
من روی پروژه ای در رابطه با تأثیر دما و سایر متغیرها بر فروش 3 شعبه یک نانوایی محلی کار می کنم. هدف تحقیق این است که بتوانم فروش نانوایی ها (در شهر من) را بهتر پیش بینی کنم و از این طریق در مصرف غذا صرفه جویی کنم. چه داده هایی دارم؟ من داده‌های همه متغیرها را برای بیش از 3 سال (بیش از 1000 روز) دارم و نمی‌خواهم در مورد تفاوت فروش بین شعب مختلف چیزی بدانم، اما میانگین داده‌های فروش عادی هر 3 شعبه را دریافت کنم. سوال چیست؟ هدف بدست آوردن شواهدی برای کل جمعیت نانوایی های شهر من است (تا کنون عمدتاً با استفاده از رگرسیون خطی چندگانه). اما از آنجایی که حجم نمونه به اندازه کافی بزرگ نیست (حداقل 100 شعبه نانوایی از همه شرکت های نانوایی وجود دارد) و داده ها فقط از 3 شعبه یکی از شرکت های متعدد است، در بهترین حالت یک نمونه راحت برای این جمعیت است. بنابراین می‌خواستم بدانم که آیا می‌توانم آن را یک نمونه نماینده برای همه نانوایی‌های شرکت ارائه‌دهنده داده‌ها (آنها 30 شعبه دارند - از 100 شعبه در شهر - و این یک نمونه تصادفی است) نام ببرم؟ اگر اینطور نیست، چگونه نمونه را برای جمعیت همه نانوایی ها و جمعیت شرکت ها نانوایی ها می نامید؟
نمونه کوچک، مشاهدات بسیار. آیا نمونه به اندازه کافی بزرگ است؟
63931
از آنجایی که این یک آزمون دو طرفه است، قابل قبول به نظر می رسد که **من فقط می توانم 0 را رد کنم که تفاوت 0 ** است. با این حال، اگر کل بازه منفی یا مثبت باشد، می توانم بگویم که یکی از دیگری بزرگتر یا کوچکتر است (با اطمینان 1-alpha) یا آیا نیاز به آزمایش دیگری دارم؟ اگر برای اثبات بزرگتر بودن یکی از دیگری به آزمایش دیگری نیاز دارم، از کدام یک استفاده کنم؟
اگر در آزمون t دو نمونه ای عدد صفر را رد کنم، آیا می توانم نتیجه بگیرم که تفاوت به کدام سمت می رود؟
13607
بسیاری از مطالعات بالینی مبتنی بر نمونه های غیر تصادفی هستند. با این حال، اکثر آزمون‌های استاندارد (مانند آزمون‌های t، ANOVA، رگرسیون خطی، رگرسیون لجستیک) بر این فرض استوارند که نمونه‌ها حاوی «اعداد تصادفی» هستند. آیا نتایج معتبر هستند اگر این نمونه های غیر تصادفی با آزمون های استاندارد تجزیه و تحلیل شوند؟ متشکرم.
آیا می توان نمونه های غیر تصادفی را با استفاده از آزمون های آماری استاندارد تجزیه و تحلیل کرد؟
10892
من سعی می‌کنم الگوریتم مقیاس‌بندی چند بعدی R، «cmdscale» را روی تقریباً 2200 متغیر اجرا کنم، یعنی یک ماتریس فاصله 2200x2200. برای همیشه طول می کشد (حدود یک روز تا کنون). من چیز زیادی در مورد الگوریتم استفاده شده در زیر کاپوت نمی دانم. نماد big-O آن چیست؟ آیا الگوریتم کارآمدتر، حتی اگر تقریبی، موجود است که تنظیم و استفاده از آن آسان باشد؟
مقیاس بندی Big-O از R's cmdscale()
19577
من یک مدل ترکیبی 3 سطحی را برازش می‌کنم و سعی می‌کنم خطاهای استاندارد تجربی را به جای خطاهای مبتنی بر مدل برای اثرات ثابت محاسبه کنم. هنگام تعیین گزینه تجربی در PROC MIXED، اخطاری دریافت می کنم که فقط یک موضوع موثر دارم. موضوعات زیادی در مجموعه داده ها وجود دارد، بنابراین من مطمئن نیستم که مشکل چیست. کد من اینجاست. PROC MIXED DATA = روش EngScores = ML تجربی. CLASS id t منطقه جنسیت; MODEL achieveEng = Edu سن زمان جنسی زمان *زمان / راه حل. تکرار t/type=un subject=id; رهگیری تصادفی / موضوع=منطقه; اجرا؛
SAS proc خطاهای استاندارد تجربی را مخلوط کرد
59631
مشکلی که من دارم این است که توزیعی دارم که می‌خواهم همان شکل باقی بماند، اما میانگین و واریانس تغییر کرده است. وقتی از «scale()» در R استفاده می‌کنم، می‌تواند به یک نرمال استاندارد تغییر کند، اما برای دریافت توزیع‌های دیگر مشکل دارم (همانطور که وقتی میانگین را تغییر می‌دهید، بر انحراف استاندارد نیز تأثیر می‌گذارد و بالعکس).
چگونه یک متغیر را به مثلاً میانگین = 5، sd = 10 تغییر شکل دهیم؟
94338
من متغیری دارم که مقدار آن را فقط در پایان عمر محصول (که ثابت نیست) می توانم اندازه گیری کنم. مقدار متغیر، پیوسته و بین 0 تا 100، ممکن است مربوط به سن آن در آن زمان باشد. از این رو، این یک متغیر سنی است. داده‌های من شامل سنین مختلف 1. مجموعه‌ای از محصولاتی است که هنوز به پایان عمر نرسیده‌اند و ارزش متغیر کمکی برای آنها ناشناخته است، و 2. مجموعه‌ای از محصولاتی که به پایان عمر خود رسیده‌اند. زمان زندگی و من ارزش متغیر کمکی و سن نهایی آنها را می دانم. بر اساس این داده‌ها، من می‌خواهم پیش‌بینی‌هایی برای توزیع متغیر کمکی برای وضعیت آینده که در آن همه محصولات در مجموعه فعلی به پایان عمر خود رسیده‌اند، دریافت کنم. چگونه می توان این را تحلیل کرد؟ آیا رابطه علت و معلولی مستقیمی بین متغیر و طول عمر محصول وجود دارد یا خیر، مهم است؟ اگر چنین است، آیا جهت علیت مهم است؟ در این مورد، من در واقع در مورد جهت آن مطمئن نیستم. من معتقدم مدل‌های کاکس برای تحلیل‌هایی استفاده می‌شوند که در آن یک یا چند متغیر کمکی بر طول عمر تأثیر می‌گذارند و یکی به طول عمر علاقه‌مند است. در این مورد من به خود متغیر کمکی علاقه مند هستم. آیا هنوز هم می توانم از مدل کاکس استفاده کنم؟ اگر چنین است، چگونه؟
آمار متغیر وابسته به زمان، با توجه به داده‌های بقا، تنها در پایان عمر قابل مشاهده است
11765
آلفای کریپندورف آمار قابلیت اطمینان بین رمزگذار خوب است زیرا می تواند در انواع مختلفی از داده ها استفاده شود: اسمی، ترتیبی، فاصله ای، نسبت، دایره ای، و غیره. برای انجام این کار، شما فقط یک متریک فاصله متفاوت را در محاسبه قابلیت اطمینان جایگزین کنید. برای توضیحات خوب به ویکی پدیا مراجعه کنید. سوال من: این معیارهای فاصله از کجا می آیند؟ آیا آنها به طور منحصر به فرد برای یک نوع داده مشخص تعیین می شوند؟ آیا خواسته های خاصی وجود دارد که آنها برآورده می کنند؟ من کتاب تحلیل محتوای کریپندورف و هر چیز دیگری که در این زمینه پیدا کردم را خوانده ام و شانسی ندارم...
معیارهای فاصله برای آمار آلفای کریپندورف از کجا می آیند؟
43696
N تعداد افراد و X مقدار اشیا با مقادیر مختلف وجود دارد. هر شخص یک شی را انتخاب می کند و ارزش آن شی را به دست می آورد. اگر چندین نفر یک شیء مشابه را انتخاب کنند، ارزش شی بین افراد به اشتراک گذاشته می شود. به عنوان مثال، اگر 2 شی و 3 نفر وجود داشته باشد، یکی از اشیاء توسط حداقل 2 نفر انتخاب می شود. بنابراین ارزش شی بر 2 تقسیم می شود. هر دور افراد تصمیمات خود را با اشیاء جدید و ارزش های جدید می گیرند. چگونه یک فرد می تواند مقادیر مورد انتظار خود را که از انتخاب هایش در تعداد Q راند جمع شده است، به حداکثر برساند؟ (Q متعلق به $[1,~+\infty)$ است.) یادگیری تصمیمات سایر بازیکنان و ارزش های انباشته شده آنها می تواند در تصمیم گیری های آینده کمک کند.
به حداکثر رساندن انتخاب
56837
در یک مقاله که نتایج تجزیه و تحلیل بقا را توصیف می‌کند، بیانیه‌ای خوانده‌ام که نشان می‌دهد می‌توان نسبت خطر (HR) را به نسبت زمان بقای متوسط ​​($M_1$ و $M_2$) با استفاده از فرمول: $HR = \frac{M_1 ترجمه کرد. }{M_2}$ من مطمئن هستم که وقتی نمی‌توان مدل خطر متناسب را فرض کرد (زیرا اگر منابع انسانی به خوبی تعریف نشده باشد، هیچ کار نمی‌کند) برقرار نیست. اما من گمان می‌کنم که حتی در آن صورت هم برای هیچ توزیع بقای به جز نمایی کار نخواهد کرد. آیا شهود من درست است؟
آیا می توان نسبت خطر را به نسبت میانه های زمان بقا ترجمه کرد؟
14742
من یک مدل ARIMA را در یک سری زمانی روزانه نصب می کنم. داده ها روزانه از 02-01-2010 تا 30-07-2011 جمع آوری می شود و در مورد فروش روزنامه است. از آنجایی که می توان یک الگوی هفتگی در فروش پیدا کرد (متوسط ​​روزانه تعداد نسخه های فروخته شده معمولاً از دوشنبه تا جمعه یکسان است، سپس شنبه و یکشنبه افزایش می یابد)، من سعی می کنم این فصلی را به تصویر بکشم. با توجه به داده های فروش داده، سری زمانی را به صورت زیر ایجاد می کنم: salets<-ts(data,start=c(2010,1),frequency=365) و سپس از تابع auto.arima(.) برای انتخاب استفاده می کنم. بهترین مدل ARIMA از طریق معیار AIC. نتیجه همیشه یک مدل ARIMA غیر فصلی است، اما اگر برخی از مدل‌های SARIMA را با نحو زیر امتحان کنم، به عنوان مثال: sarima1<-arima(فروش، سفارش = c(2،1،2)، فصلی = فهرست (سفارش = c (1، 0، 1)، نقطه = 7)) من می توانم نتایج بهتری کسب کنم. آیا در دستور ts / مشخصات arima اشکالی وجود دارد؟ الگوی هفتگی بسیار قوی است، بنابراین من انتظار ندارم این همه دشواری در گرفتن آن وجود داشته باشد. هر کمکی بسیار مفید خواهد بود. با تشکر از شما، جولیا دپیری به روز رسانی: من قبلاً برخی از استدلال ها را تغییر داده ام. به‌طور دقیق‌تر، وقتی «D=7» را تنظیم کردم، ARIMA (4،1،3) را به‌عنوان بهترین مدل انتخاب می‌کند، اما AIC و سایر شاخص‌ها و پیش‌بینی‌های مناسب) اصلاً بهبود نمی‌یابند. حدس می زنم اشتباهاتی به دلیل خلط فصلی و دوره ای وجود داشته باشد..؟! تماس Auto.arima استفاده شده و خروجی بدست آمده: modArima<-auto.arima(saless,D=7,max.P = 5, max.Q = 5) ARIMA(2,1,2) با دریفت: 1e+20 ARIMA( 0،1،0) با دریفت: 5265.543 ARIMA(1،1،0) با دریفت: 5182.772 ARIMA(0،1،1) با دریفت : 1e+20 ARIMA(2،1،0) با دریفت: 5137.279 ARIMA(2،1،1) با دریفت: 1e+20 ARIMA(3،1،1) با دریفت: 1e+20 ARIMA(2،1،0): 5135.382 ARIMA(1,1,0) : 5180.817 ARIMA(3,1,0) : 5117.714 ARIMA(3,1,1) : 1e+20 ARIMA(4,1,1) : 5045.236 ARIMA(4,1) ) با دریفت: 5040.53 ARIMA(5,1,1) with drift : 1e+20 ARIMA(4,1,0) with drift : 5112.614 ARIMA(4,1,2) with drift : 4953.417 ARIMA(5,1,3) with drift : 1e +20 ARIMA(4,1,2) : 4960.516 ARIMA(3,1,2) با دریفت: 1e+20 ARIMA(5,1,2) با دریفت: 1e+20 ARIMA(4,1,3) با دریفت: 4868.669 ARIMA(5,1,4) با دریفت : 1e+20 ARIMA(4،1،3): 4870.92 ARIMA(3,1,3) با دریفت: 1e+20 ARIMA(4,1,4) با دریفت: 4874.095 بهترین مدل: ARIMA(4,1,3) با دریفت بنابراین من فرض می کنم تابع arima باید به صورت زیر استفاده شود: بهترین سفارش <- cbind(modArima$arma[1],modArima$arma[5],modArima$arma[2]) sarima1<-arima(فروش، سفارش = c(4,1,3)) بدون پارامترهای جزء فصلی و مشخصات دوره. داده ها و تجزیه و تحلیل اکتشافی نشان می دهد که می توان الگوی هفتگی یکسانی را به طور تقریبی برای هر هفته در نظر گرفت، به استثنای آگوست 2010 (زمانی که افزایش مداوم در فروش ثبت شده است). متأسفانه من اصلاً در مدل‌سازی سری‌های زمانی تخصص ندارم، در واقع من این رویکرد را امتحان می‌کنم تا راه‌حلی جایگزین برای مدل‌های پارامتری و ناپارامتریک دیگر پیدا کنم که سعی کردم برای این داده‌های مشکل‌ساز مناسب باشم. من همچنین متغیرهای عددی وابسته زیادی دارم، اما آنها در توضیح متغیر پاسخ، قدرت کمی از خود نشان داده‌اند: بدون شک، سخت‌ترین بخش برای مدل‌سازی، جزء زمان است. علاوه بر این، ساخت متغیرهای ساختگی برای نشان دادن ماه ها و روزهای هفته راه حل محکمی نبود.
Auto.arima با داده های روزانه: چگونه فصلی/تناوب را ضبط کنیم؟
11764
شبکه های عصبی به دلیل ساختار پیچیده ای که دارند اغلب به عنوان جعبه سیاه در نظر گرفته می شوند. این ایده آل نیست، زیرا درک شهودی از نحوه عملکرد داخلی یک مدل اغلب مفید است. روش های تجسم نحوه عملکرد یک شبکه عصبی آموزش دیده چیست؟ از طرف دیگر، چگونه می‌توانیم توصیف‌های قابل هضم شبکه را استخراج کنیم (مثلاً این گره پنهان عمدتاً با این ورودی‌ها کار می‌کند)؟ من در درجه اول به شبکه های پیشخور دو لایه علاقه مند هستم، اما همچنین می خواهم راه حل هایی را برای شبکه های عمیق تر بشنوم. داده های ورودی می توانند ماهیت بصری یا غیر بصری داشته باشند.
چگونه می توان کاری را که یک شبکه عصبی انجام می دهد تجسم و درک کرد؟
52644
هنگامی که رابطه بین متغیر مستقل و متغیر وابسته غیرافزودنی باشد، از مدل‌هایی با اثرات متقابل ضربی استفاده می‌کنیم. سوال من این است که آیا همه مدل‌های دارای اثرات متقابل ضربی غیرخطی هستند؟ و همه مدل ها با اثرات متقابل افزایشی خطی هستند؟ همچنین با غیر خطی بودن، تأثیر متغیر مستقل بر متغیر وابسته به مقدار متغیر مستقل بستگی دارد، در واقع متغیر مستقل به نوعی با خود تعامل دارد. آیا این بدان معناست که یک متغیر مستقل (x1) با خودش (x1) تعامل دارد؟ یا به این معنی است که متغیرهای مستقل (x1) با سایر متغیرهای مستقل (x2, x3...) تعامل دارند و نه با خودش؟ من با مفاهیم خطی بودن، غیرخطی بودن، افزایشی و غیرافزودنی (تکثرپذیری) اشتباه گرفته ام. هر گونه کمک بسیار قدردانی می شود.
فعل و انفعالات افزایشی و غیرافزودنی (ضربی) - سوال نرم -
52395
چه زمانی حداکثر یک تخمین پسین (MAP) معادل تخمین حداکثر احتمال (ML) است؟
حداکثر احتمال معادل حداکثر یک تخمین پسین
17033
فکر می‌کنم سؤال من کاملاً ساده و احمقانه است: با استفاده از مدل هموارسازی نمایی تکی چه چیزی را پیش‌بینی می‌کنیم: مقدار بعدی سری زمانی مشاهده‌شده یا مقدار بعدی سطحی که در مبنای آن قرار دارد؟ اگر آن را به درستی دریافت کنم، یک مقدار مشاهده شده از سری زمانی بدون روند از یک جزء سطح و یک مولفه تصادفی (که پیش بینی آن غیرممکن است) تشکیل شده است. من فکر می‌کنم که با استفاده از حداقل مربعات، نه تنها مقدار بهینه $\alpha$ (پارامتر هموارسازی) بلکه مقدار اولیه $y_0$ برای مدل هموارسازی تک نیز کاملاً ممکن است. من به راحتی این کار را برای برخی از داده های شبیه سازی شده زیر فرمول های (3.10a)، (3.10b) از Hyndman و همکاران انجام داده ام. آیا برای این مدل مفید است یا فقط یک مزخرف است؟
هموارسازی تک نمایی
3734
در چندین زمینه مختلف، قضیه حد مرکزی را برای توجیه هر روش آماری که می‌خواهیم اتخاذ کنیم (به عنوان مثال، تقریب توزیع دوجمله‌ای با یک توزیع نرمال) استناد می‌کنیم. من جزئیات فنی را درک می کنم که چرا این قضیه درست است، اما همین الان به ذهنم رسید که واقعاً شهود پشت قضیه حد مرکزی را درک نمی کنم. بنابراین، شهود پشت قضیه حد مرکزی چیست؟ توضیحات عامیانه ایده آل خواهد بود. اگر به جزئیات فنی نیاز دارید، لطفاً فرض کنید که من مفاهیم pdf، cdf، متغیر تصادفی و غیره را درک می‌کنم، اما هیچ دانشی از مفاهیم همگرایی، توابع مشخصه یا هیچ ارتباطی با نظریه اندازه‌گیری ندارم.
چه توضیح شهودی برای قضیه حد مرکزی وجود دارد؟
90822
من می خواهم درصد یک گونه را در 3 نوع منطقه مختلف مقایسه کنم. از کدوم تست آماری استفاده کنم؟؟
از کدام آزمون آماری برای مقایسه 3 نوع مختلف منطقه استفاده کنیم؟
19576
**زمینه** من اخیرا مقاله Leo A. Goodman, On the Exact Variance of Products _Journal of the American Statistical Association_ Vol. 55، شماره 292 (دسامبر، 1960)، صفحات 708-713 از آنجا نقل قول های ویرایش شده زیر را استخراج می کنم (محاسبات و جملات اضافی را حذف می کنم) > اجازه دهید $x$ و $y$ دو متغیر تصادفی مستقل باشند. اجازه دهید مقدار > مورد انتظار x را با $E(x) = X$ نشان دهیم، واریانس $x$ توسط $V(x)$، ... A > نماد مشابه برای متغیر تصادفی $y$ استفاده خواهد شد. . > > ... داریم که واریانس $V(xy)$ حاصلضرب $xy$ برابر است با $$ > V(xy) = \ldots = X^2V(y) + Y^2V(x) + V(x)V(y)$$ > > ... اکنون یک تخمین بی طرفانه از واریانس $V(xy)$ ارائه خواهیم کرد. ... > داریم که $$ v(xy) = \ldots = x^2v(y) + y^2(x) - v(x)v(y)$$ > > یک تخمین بی طرفانه از $V است (xy)$، که $v(x)$ یک تخمین بی طرفانه از > $V(x)$ و $v(y)$ تخمین بی طرفانه $V(y)$ است. من یک فرمول نسبتاً ساده $P = w + xy/(1-z)$ دارم که در آن هر یک از این متغیرها (مستقل!) توسط یک بسته آماری تخمین زده شده و به همراه 95٪ محدودیت اطمینان و خطاهای استاندارد (از این رو واریانس ها) ارائه شده است. ). در واقع، هر یک از $w,x,y,z$ احتمالات هستند و $z$ از 1 محدود شده است. ,z \lt 0.6$ و تمام خطاهای استاندارد حدود $3 \times 10^{-3}$) **سوالات** باید برخی از محدودیت های اطمینان را در $P$ تخمین بزنم، و اولین ایده من این بود که از محدودیت های اطمینان $w,x,y,z$ استفاده کنم، اما به نظر دشوار/غیر قابل توصیه است. ایده دوم من این بود که واریانس $P$ را محاسبه کنم. این به وضوح به یافتن واریانس برای $xy/(1-z)$ ختم می‌شود. یکی به من گفته است که باید از معادله $v(xy)$ در زمینه فرمولم استفاده کنم. همه چیز خوب و خوب است، من می توانم آن را بپذیرم. بنابراین اکنون تنها کاری که باید انجام دهم این است که واریانس $1/(1-z)$ را پیدا کنم و نتیجه مقاله گودمن را دو بار اعمال کنم، یا شاید فقط واریانس $y/(1-z)$ را پیدا کنم و از گودمن استفاده کنم. یکبار نتیجه بده به خاطر بحث، بیایید اولی را انجام دهیم. من در اینترنت مجموعه‌ای از یادداشت‌ها پیدا کردم که واریانس نسبت $x/y$ را تخمین زده‌اند (با در نظر گرفتن حالت خاص $x,y$ مستقل) $$ Var(x/y) \approx \frac{ E(y)^2 Var(x) + E(x)^2 Var(y)}{E(y)^4} $$ و برای موردی که به آن علاقه دارم، می توانم $x \sim Uniform بگیرم (0،1) دلار (یعنی '$1$') و بنابراین دریافت $$ Var(1/y) \approx \frac{Var(y)}{E(y)^4} \quad \quad (1) $$ آیا این قابل اعتماد است/درست است ? حتی اگر اینطور باشد، اکنون با یک معمای کوچک روبرو هستم. آنالوگ در این مثال برای فرمول $v$ چیست؟ من خوشحالم که همه پاسخ هایی را که به مشکل اصلی من می پردازند، یعنی سؤال تقریبی $Var(1/(1-z))$ را می گیرم، آیا از $Var$ همانطور که در تقریب (1) داده شده است استفاده می کنم یا برخی از تخمین بی طرفانه از نظر داده‌هایی که دارم، و در آخر، این «تخمین بی‌طرفانه» با داده‌شده (1) چه خواهد بود؟
واریانس متقابل II
90820
مزایا و معایب استفاده از روش های شبکه عصبی برای القای داده ها چیست؟ آیا بایاس و خطای کل بیشتر از روش‌های دیگر (مانند روش میانه یا میانگین، نزدیک‌ترین همسایگی، یا K-Means فازی) است؟
مزایای استفاده از شبکه عصبی برای القای داده چیست؟
94336
من یک نمونه 65 شرکت کننده دارم. 20 نفر A را انتخاب کردند. 18 نفر B را انتخاب کردند. 14 نفر C و 13 نفر D را انتخاب کردند. آزمون مناسب برای تعیین اینکه آیا تفاوت معنی داری در نسبت ها وجود دارد چیست؟
مقایسه نسبت ها
90794
من در یافتن کد برای محاسبه بارهای استاندارد شده برای LDA با مشکل مواجه هستم، من یک کد برای آن نوشتم، اما مطمئن نیستم که این راه درستی برای استاندارد کردن بارگذاری ها باشد. lda.fit <- lda(Species~., data=iris) print(summary(lda.fit)) loadings <- lda.fit$scaling print(loadings) print(colSums(loadings^2)) standardize.loadings <- function(loadings) { col.ss <- colSums(loadings^2) sweep(loadings,2,sqrt(col.ss),/) } standardized.loadings <- standardize.loadings(loadings) print(standardized.loadings) print(colSums(standardized.loadings^2)) در این پاسخ وجود دارد هم بارگذاری های غیر استاندارد و هم استاندارد نشان داده شده است، اما هیچ توضیحی در مورد نحوه محاسبه آنها وجود ندارد و عملکرد من نتایج صحیح را تولید نمی کند، در عوض آن را تولید می کند مقادیر بردار ویژه این خروجی LD1 LD2 Sepal است. طول 0.8293776 0.02410215 Sepal.Width 1.5344731 2.16452123 Petal.Length -2.2012117 -0.9120201921-0.9120192 -0.9120192. 2.83918785 LD1 LD2 15.78649 13.61520 LD1 LD2 کاسبرگ.طول 0.2087418 0.006531964 سپال.عرض 0.3862037 0.58666105 - 0.586615105 متر طول -0.252561540 گلبرگ. عرض -0.7073504 0.769453092 LD1 LD2 1 1
بارگذاری استاندارد LDA
96797
من سعی می کنم پریودوگرام (مقیاس شده) یک سری زمانی را در R به دو روش زیر رسم کنم. اما طرح ها یکسان به نظر نمی رسند (اگر به تفاوت در مقادیر آنها نگاه کنید). نمی دانم آیا من اشتباهاتی دارم؟ روش اول: n = طول(x) I = abs(fft(x))^2/n # پریودوگرام P = (4/n)*I[1:(n/2)] # پریودوگرام مقیاس شده f = 0:(n/2-1)/n # فرکانس par(mfrow=c(4,1)) نمودار(f, I[1:length(f)], type=b, xlab=Frequency, ylab=Periodogram) plot(f, P, type=b, xlab=Frequency, ylab=Scaled Periodogram) راه دوم: sr = spec.pgram(x, taper =0، plot=FALSE) نمودار(sr) tmp = sr tmp$spec = (4/n) * sr$spec plot(tmp) # چرا این مقیاس نیست پریودوگرافی طرح به شرح زیر است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/RK6Rd.png)
من دو پریودوگرام متفاوت (مقیاس شده) از دو روش ترسیم مختلف دریافت می کنم
43694
برای یک بررسی بیولوژیکی، من در حال اندازه گیری گروهی از افراد در پنج نقطه زمانی هستم. اندازه گیری همیشه بین 0 تا 1 است. متأسفانه، من نتوانستم هر فرد را در طول هر بازدید اندازه گیری کنم. کاری که من دوست دارم انجام دهم تست های پارامتریک زوجی بین هر نقطه از زمان است تا ببینم میانگین این اندازه گیری ها در طول زمان برای این جمعیت چگونه تغییر می کند. مشکل این است که برای هر نقطه زمانی، توزیع اندازه‌گیری‌ها نرمال نیست و حجم نمونه از کل جمعیت 62 نفری هر بار بسیار متفاوت است، از حدود 15 تا تقریباً کل جمعیت. من یک فایل CSV با داده‌های اینجا پیوست کرده‌ام، متأسفم نمی‌دانم راه بهتری برای نشان دادن شما وجود دارد یا خیر. می دانم که ممکن است بتوانم تست های ناپارامتریک مانند تست Wilcoxon را بین هر نقطه از زمان اجرا کنم. اما من دوست دارم بدانم آیا راهی برای من وجود دارد که بتوانم تبدیلی را انتخاب کنم که بتوانم برای هر پنج نمونه اعمال کنم تا آنها را به طور معمول توزیع کنم تا بتوانم تست های پارامتریک را نیز امتحان کنم.
ملاحظاتی برای انتخاب تبدیل در نمونه های کوچک؟
63934
بیایید با گفتن اینکه من یک تازه کار در آمار هستم شروع کنیم. من به دنبال تجزیه و تحلیل رابطه بین بازده فروش (ROS) و گردش دارایی (TAT) در طول زمان هستم تا ببینم چگونه بر سودآوری شرکت تأثیر می گذارد (بازده دارایی (ROA)). من چند راه برای بررسی این داده ها دارم. اول، من می توانم کل اقتصاد ایالات متحده را به عنوان یک شرکت غول پیکر نگاه کنم و متغیرها را برای هر سال سری زمانی محاسبه کنم. برای اینکه بگوییم رابطه بین این دو متغیر در طول زمان تغییر می کند، چه آزمونی مناسب است؟ آزمونی برای هم انباشتگی برای اینکه بگوییم رابطه ثابت نیست؟ دوم، من می توانم به هر شرکت به صورت سالانه نگاه کنم و رابطه بین دو متغیر را به این صورت ارزیابی کنم. نگرانی من این است که مقادیر پرت عظیمی در مجموعه داده وجود داشته باشد، بنابراین باید از یک رگرسیون وزنی استفاده شود. با توجه به اینکه من برای هر سال بیش از 4000 نمونه (شرکت های متمایز) دارم، آیا آزمون مناسبی برای بررسی این داده ها و احتمالاً بیان چیزی معنادار در مورد رابطه این دو متغیر وجود دارد؟ فکر دیگر من احتمالاً استفاده از چیزی مانند تست چاو بود. اگر این خیلی مبهم است به من اطلاع دهید تا ببینم آیا می توانم واضح تر باشم یا خیر! با تشکر
چگونه می توان تشخیص داد که آیا رابطه بین متغیرهای سری زمانی در طول زمان تغییر می کند؟
17039
به عنوان زمینه: هنگام کار با یک مجموعه داده بسیار بزرگ، گاهی اوقات از من می‌پرسند که آیا می‌توانیم یک مجموعه داده مصنوعی ایجاد کنیم که در آن رابطه بین پیش‌بینی‌کننده‌ها و متغیر پاسخ، یا روابط بین پیش‌بینی‌کننده‌ها را «بشناسیم». در طول سال‌ها، به نظر می‌رسد که من یا با مجموعه‌های داده مصنوعی یکباره، که به نظر می‌رسد به شیوه‌ای موقتی پخته شده‌اند، یا با مجموعه‌های داده‌های ساختاریافته‌تری مواجه شده‌ام که به‌ویژه برای روش مدل‌سازی پیشنهادی محقق به نظر می‌رسد. من معتقدم که به دنبال روش های استاندارد برای ایجاد مجموعه داده های مصنوعی هستم. اگرچه نمونه‌برداری مجدد بوت استرپ یکی از روش‌های رایج برای ایجاد مجموعه داده‌های مصنوعی است، اما این شرط را برآورده نمی‌کند که ** ساختار را می‌دانیم** _ پیشینی_. علاوه بر این، مبادله نمونه‌های بوت استرپ با دیگران اساساً به جای یک روش تولید داده، به تبادل داده نیاز دارد. اگر بتوانیم یک توزیع پارامتریک را به داده‌ها برازش دهیم، یا یک مدل پارامتری به اندازه کافی نزدیک پیدا کنیم، این نمونه‌ای است که می‌توانیم مجموعه‌های داده مصنوعی تولید کنیم. چه روش های دیگری وجود دارد؟ من به خصوص به داده های با ابعاد بالا، داده های پراکنده و داده های سری زمانی علاقه مند هستم. برای داده‌های با ابعاد بالا، من به دنبال روش‌هایی هستم که می‌توانند ساختارهای مورد علاقه (مانند ساختار کوواریانس، مدل‌های خطی، درختان و غیره) را ایجاد کنند. برای داده‌های سری زمانی، از توزیع‌های روی FFT، مدل‌های AR، یا مدل‌های مختلف فیلتر یا پیش‌بینی، شروعی به نظر می‌رسد. برای داده های پراکنده، بازتولید الگوی پراکندگی مفید به نظر می رسد. من معتقدم که اینها فقط سطح را خراش می دهند - اینها شیوه های اکتشافی هستند نه رسمی. آیا مراجع یا منابعی برای تولید داده های مصنوعی وجود دارد که باید برای پزشکان شناخته شود؟ * * * نکته 1: متوجه شدم که این سوال به ادبیاتی در مورد چگونگی تولید داده مانند یک مدل سری زمانی خاص می پردازد. تمایز در اینجا در شیوه ها است، به ویژه برای نشان دادن یک ساختار شناخته شده (سوال من)، در مقابل شباهت / وفاداری به مجموعه داده های موجود. در مورد من شباهت به اندازه ساختار شناخته شده ضروری نیست، اگرچه شباهت به عدم تشابه بسیار ترجیح داده می شود. یک مجموعه داده مصنوعی عجیب و غریب که یک مدل برای آن نوید می دهد، کمتر از یک شبیه سازی واقعی ترجیح داده می شود. نکته 2: مدخل ویکی‌پدیا برای داده‌های مصنوعی اشاره می‌کند که افراد برجسته‌ای مانند روبین و فاینبرگ به این موضوع پرداخته‌اند، اگرچه من هیچ مرجعی در مورد بهترین شیوه‌ها پیدا نکردم. جالب است بدانیم که چه چیزی با، مثلاً Annals of Applied Statistics (یا AOS)، یا در آثار مروری در این یا سایر مجلات، ترکیب می شود. به زبان ساده و غریب، ممکن است پرسیده شود که آستانه بین «(قابل قبول) پخته شده» و «خیلی پخته» کجاست؟ نکته 3: اگرچه بر روی سوال تأثیری نمی گذارد، سناریوی استفاده در مدل سازی مجموعه داده های بزرگ و با ابعاد بالا است، جایی که دستور کار تحقیق یادگیری (هم توسط انسان و هم توسط ماشین ;-)) ساختار داده ها است. برخلاف سناریوهای تک متغیره، دو متغیره و دیگر سناریوهای با ابعاد پایین، ساختار به راحتی قابل استنباط نیست. همانطور که به سمت درک بهتر ساختار قدم می گذاریم، توانایی تولید مجموعه های داده با ویژگی های مشابه برای مشاهده نحوه تعامل یک روش مدل سازی با داده ها (به عنوان مثال برای بررسی پایداری پارامتر) مورد توجه است. با این وجود، راهنماهای قدیمی‌تر در مورد داده‌های مصنوعی با ابعاد پایین می‌توانند نقطه شروعی باشند که ممکن است برای مجموعه‌های داده با ابعاد بالاتر گسترش یابند.
چند روش استاندارد برای ایجاد مجموعه داده های مصنوعی چیست؟
97442
چگونه می توان مجموعه S ناحیه پارامتر معادلات را با استفاده از r ترسیم کرد؟ مشکل من این است که من یک معادله با 2 متغیر تعریف شده توسط $g(x,a,b) = 0$ دارم و می‌خواهم مجموعه $(a,b)$ را در جایی که جواب وجود دارد ترسیم کنم. مثال خاصی که من به آن علاقه دارم به شرح زیر است: $$(F(x) - a)f^2(x) + \left(\frac{F^2(x)}{2} - a F(x) + \left(\frac{a^2}{2} + b\right)\right)f^\prime(x)=0.$$ که در آن $F$ تابع تجمعی توزیع نرمال میانگین=0 است. و sd=1، $f$ تابع چگالی نرمال، و $f^\prime$ اولین مشتق از $f$ است. هدف من ساختن منطقه (سطح) $S$ است که در آن $$S = \\{(a,b)\در [0,1]^2\ |\text{ یک راه حل }x\text{ معادله است. وجود دارد و متعلق به [0,1]\\} است. $$ E<-function(a,u) { ((a-u)*(dnorm(q(u),m,s, log = FALSE))/(qnorm(u)))-((qnorm(u)) ^2)/2 +a*qnorm(u)-(a^2)/2 } a <- u <- seq(0,1,0.01) z <- outer(a,u,E) b<-seq(0,1,0.001) contour(x=a, y=a, z=z,levels=b, las=1, drawlabels=FALSE, lwd=3,xlab=a, ylab= x) لطفاً در اینجا به من کمک کنید. امیدوارم این بتواند بیشتر به من بیاموزد. پیشاپیش ممنون * * * ممنون، این دقیقاً همان چیزی است که من دنبالش بودم. اما من 2 نکته یا نظر دارم: نکته 1: من اشتباه کردم $u=F(x)\in[0,1]$ اما $x = N(0,1)$ بنابراین $x$ در $ محدود نمی شود [0،1] دلار. بنابراین آیا ممکن است کدی را که در Mathematica استفاده کردید پیشنهاد دهید تا من بتوانم آن را تطبیق دهم. نکته 2 : من همچنین با استفاده از Mathematica یک شبیه سازی انجام دادم و تصویر 3 بعدی معادله خود را دریافت کردم، اما نمی توان پروجکشن را به دست آورد. این کدی است که استفاده کردم: f[u_] := Quantile[NormalDistribution[0 , 1], u] g[u_]:=PDF[توزیع عادی[0,1],f[u]] h[u_, a_, e_] := (u - a)*((g[u])^2) + ((u^2)/2 - a*u + (a^2)/2 + e)*f[u]* g[u] ContourPlot3D[h[u, a, e] == 0, {a, 0, 1}, {u, 0, 1}, {e, 0, 1}] سپس این عکس را دریافت می کنم: ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/7fitY.jpg) بنابراین آیا راهی برای دریافت طرح ریزی از این تصویر وجود دارد.
ناحیه پارامتر برای وجود جواب های معادله
11762
سوال من خیلی کلی است. من در حال یادگیری تئوری ارزش افراطی برای بررسی رفتار دم هستم. مفهوم تنوع منظم هنوز برای من مبهم است. کسی می تواند کمک کند تا اطلاعات بیشتری برای روشن شدن مطلب ارائه دهد؟ آیا نظری در مورد اهمیت آن در نظریه احتمال دارید؟
اطلاعات بیشتری در مورد تغییرات منظم مرتبه دوم در نظریه ارزش شدید مورد نیاز است
19572
هنگام تلاش برای ارزیابی اینکه چه چیزی یک خانواده از فرضیه‌ها را در یک آزمایش/پروژه/تحلیل تشکیل می‌دهد، «هدف مشابه» و «محتوای مشابه» را یافته‌ام که به عنوان دستورالعمل‌هایی برای تعیین حدود خانواده‌ها ارائه شده‌اند، اما اینها چیزهای زیادی را برای تفسیر باز می‌گذارد. حداقل بگویم). واضح است که اگر در طول یک تحلیل، چندین آزمون میانگین گروهی و دسته‌ای جداگانه از آزمون‌های همگنی نسبت‌ها را انجام دهم، همه چیز را با هم در یک خانواده فرضیات جمع نمی‌کنم. با این حال، اگر چندین دسته از آزمون‌های تا حدودی مرتبط با میانگین گروهی داشته باشم، چه معیاری آنها را در یک خانواده گرد هم می‌آورد (یا آنها را به خانواده‌های جداگانه تقسیم می‌کند)؟ آیا همه اعضای یک خانواده باید متغیر پاسخ یکسانی داشته باشند؟ اگر متغیرهای پاسخ متفاوتی داشته باشم اما مجموعه موارد مشابهی داشته باشم، آیا همه آنها در یک خانواده از فرضیه ها جمع می شوند؟
تعریف عملی و روشنی برای «خانواده فرضیه ها» (با توجه به میزان خطای خانوادگی) چه می تواند باشد؟
52646
ما پاسخ 2 متغیر را می دانیم: $$ {\rm var}(XY)=E(X^2Y^2)-E(XY)^2={\rm var}(X){\rm var}(Y )+{\rm var}(X)E(Y)^2+{\rm var}(Y)E(X)^2$$ با این حال، اگر بیش از 2 متغیر باشد، پاسخ چه خواهد بود؟ ${\rm var}(X_1X_2 \cdots X_n)= \ ?$ (از نظر واریانس ها و مقادیر مورد انتظار هر متغیر) بسیار متشکرم!
واریانس حاصل ضرب متغیرهای تصادفی چندگانه
63938
من یک رگرسیون خطی انجام می دهم: $Y=\alpha+\beta\times X+\epsilon$, $\epsilon\sim N(0,\sigma^2)$. معلوم شد که فاصله اطمینان برای میانگین پیش‌بینی‌شده $Y$ واقعاً کوچک است (شکل 1)، که به سختی با میانگین پیش‌بینی‌شده قابل تمایز است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qx1In.png) از طرف دیگر، می‌توانیم ببینیم که $Y$s مشاهده شده در واقع به طور گسترده در اطراف هر X پخش می‌شود. شکل دوم فاصله پیش بینی شده را نشان می دهد که بزرگ است. ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Fqn9G.png) سوال من این است: 1. این مدل به من چه می گوید؟ آیا به این معنی است که می تواند یک مدل کامل برای پیش بینی میانگین باشد؟ زیرا فاصله اطمینان در شکل 1 کوچک است. 2. از طرف دیگر، شکل 2 نشان می دهد که خطای تصادفی در این مدل زیاد است. آیا کاری وجود دارد که بتوانیم انجام دهیم (یا لازم است) تا چنین خطاهای تصادفی را کاهش دهیم، اگرچه ما قبلاً یک مدل عالی داریم؟ به عنوان مثال، آیا افزودن متغیرهای مفید اضافی (فرض) به توضیح بیشتر (کاهش) خطای تصادفی کمک می کند؟ به جای اینکه بپرسم تفاوت بین این دو نوع بازه چیست (به لینک @whuber مراجعه کنید)، من علاقه مندم که اگر یک فاصله اطمینان کوچک و یک فاصله پیش بینی بزرگ وجود دارد، چه می توانیم بگوییم و در مورد چنین مدلی چه کاری می توانیم انجام دهیم؟ آیا چنین مدلی در حال حاضر بهترین است و باید نتیجه را ارسال کنیم؟ یا هنوز هم می توان کاری برای توضیح بیشتر خطای تصادفی انجام داد؟ کسی می تواند در توضیح این نتیجه به من کمک کند؟ با تشکر
اگر فواصل اطمینان میانگین پیش بینی شده کوچک باشد اما فواصل پیش بینی شده بزرگ باشد، چه کاری می توانم انجام دهم؟
97448
من شبکه های عصبی برای یادگیری ماشین هینتون را در Coursera تماشا می کنم. من در مورد نمای هندسی پرسپترون هستم. من گیج شده ام. و دلیل اینکه من گیج شده‌ام چون نمی‌دانم منظور او از مورد آموزشی و بردار ورودی چیست. به نظر می رسد آنها چیزهای متمایز هستند، اما آنها چیست؟ او توضیح نمی دهد. توجه داشته باشید. مورد آموزشی و بردار ورودی عمود بر یکدیگر هستند.
نمای هندسی پرسپترون ها
46318
من از Google Docs برای کلاس آمار استفاده می کنم و مربی من پیشنهاد کرد که از تابع tdist() در اکسل استفاده کنیم. http://office.microsoft.com/en-us/excel- help/tdist-HP005209312.aspx من نمی توانم چیزی مشابه در صفحات گسترده گوگل پیدا کنم. https://support.google.com/drive/bin/static.py?hl=en&topic=25273&page=table.cs&tab=1240295 آیا کسی فرمول/عملکرد جایگزینی دارد که بتوانم از آن استفاده کنم؟
جایگزینی برای تابع tdist() در اکسل برای صفحات گسترده گوگل؟
52645
فرض کنید من یک رگرسیون خطی انجام می دهم و می خواهم بررسی کنم که چگونه ارتباط بین یک پیش بینی کننده X و یک پاسخ Y با توجه به سطوح یک عامل 2 سطحی G تغییر می کند. مدل به این صورت خواهد بود: $$E(Y) = \beta_0 + \beta_1 G + \beta_2 X + \beta_3 (G \times X)$$ سوال من این است که چرا برای تست _t_ در $\beta_3$ نتیجه متفاوتی می‌گیرم اگر X و Y را در مدل بالا عوض کنم؟ از نظر مفهومی، به نظر می‌رسد این آزمون‌ها به همین سوال پاسخ می‌دهند: آیا ارتباط X-Y با توجه به سطوح G تغییر می‌کند؟ با این حال، در عمل، می دانم که آزمایش ها نتایج متفاوتی می دهند. شهود من این است که این تفاوت ربطی به این دارد که آیا X و/یا Y با G همبستگی دارند، اما نمی توانم توضیحی رسمی به ذهنم بیاورم. کسی پیشنهادی داره؟ با تشکر
مبادله X و Y در یک رگرسیون که حاوی یک پیش بینی گروه بندی است؟
90797
فرض کنید که $n$ داده آموزشی $x_1، ... x_n$ داریم که توسط یک مدل احتمال $P(x;\theta)$ تولید شده است. ما می خواهیم پارامترهای $\theta$ مدل را بر اساس مشاهدات تخمین بزنیم. در آمارهای غیر بیزی، می‌توانیم پارامترها را با یک تابع احتمال حداکثر تخمین بزنیم. برای محاسبه MLE، می توان از روش های بهینه سازی استفاده کرد (مانند گرادیان تصادفی، EM)، و ما می توانیم پس از همگرایی راه حلی پیدا کنیم. برای مقایسه، روش بیزی این است که پارامترها را با نمونه برداری از یک توزیع پسین (مانند نمونه برداری گیبس، نمونه برداری برش) تخمین بزنیم، و پس از اینکه زنجیره MC به حالت پایدار رسید، می توانیم از توزیع پسین و با استفاده از برخی برآوردگرها نمونه هایی را برای تخمین بدست آوریم. پارامترها آیا رابطه ای بین این دو تکنیک تخمین پارامتر وجود دارد؟
رابطه بین نمونه گیری و بهینه سازی
21291
من 2 سوال عمومی/تئوری بیشتر دارم. 1) من کنجکاو هستم که SVMها چگونه تعاملات متغیر را هنگام ساخت مدل‌های پیش‌بینی انجام می‌دهند. به عنوان مثال، اگر من دو ویژگی f1 و f2 داشته باشم و هدف به f1، f2، و مثلاً f1 * f2 (یا برخی از تابع‌های h(f1، f2) بستگی دارد)، آیا SVM مناسب است (نه فقط در OOS، بلکه حتی در داده‌های آموزشی) با اضافه کردن f1، f2 و h(f1، f2) در ویژگی‌ها نسبت به فقط شامل f1 و f2 بهبود می‌یابد؟ آیا الگوریتم SVM با تعاملات ویژگی سروکار دارد؟ به نظر می رسد که چگونه SVM سعی می کند ابرصفحه ها را در فضای ابعاد بالاتر ایجاد کند، اما مطمئن نیستم که بپرسم. 2) آیا هنگام نصب SVM بر روی داده های آموزشی، با توجه به ویژگی های کافی و یافتن پارامترهای بهینه (از طریق جستجوی brute force یا هر چیز دیگری)، آیا یک SVM همیشه به طور پیش پا افتاده با داده های آموزشی مطابقت می کند؟ مطمئن نیستم که این جمله را درست بیان کردم، اما اساساً، اگر واریانس/نویز کافی در ویژگی ها وجود داشته باشد، آیا یک SVM همیشه 100٪ با داده های آموزشی مطابقت دارد؟ برعکس، اگر SVM 100% با داده های آموزشی مطابقت نداشته باشد، آیا این بدان معناست که برخی اطلاعات (یا ویژگی های دیگر) وجود دارد که بر متغیر هدف تأثیر می گذارد که در داده ها ثبت نمی شود؟ با تشکر یک توضیح کوچک من به طور خاص به SVM های هسته اشاره می کنم
SVM، تعامل متغیر و داده های آموزشی برازش دارند
64050
من از یک روش بیولوژیکی مولکولی استفاده می کنم که به نرمال سازی زیر نیاز دارد $$Q = \frac{A}{\sqrt[k]{\prod_{i=1}^k B_i}}.$$ چگونه می توانم استاندارد را پیدا کنم انحراف $Q$، با توجه به اینکه $A$ و $B_i$ دارای انحرافات استاندارد هستند؟ متأسفانه آموزش ریاضی من به اندازه کافی خوب نیست که بتوانم این را حل کنم. آیا نوعی رویکرد استاندارد برای حل این مشکل وجود دارد؟ **ویرایش** لگاریتم عبارت فوق به صورت زیر بدست می آید: $$ \log(Q)=\log(A)-\frac{1}{k}\cdot \sum_{i=1}^{k} \log(B_{i}) $$
چگونه می توانم انتشار خطای این تابع را محاسبه کنم؟
63936
من اغلب مجموعه داده هایی دارم که در آن حیوانات زیادی وجود دارد، در چندین گروه درمانی، و وزن بدن هر حیوان در طول عمرش در فواصل منظم اندازه گیری می شود. پاسخ وزن بدن در طول زمان غیر یکنواخت است: هنگامی که حیوانات جوان هستند، رشد می کنند. سپس یک دوره حالت پایدار متغیر وجود دارد. سپس، با پیر شدن و بیمار شدن حیوانات، وزن آنها شروع به کاهش می کند. درمان‌ها می‌توانند سرعت افزایش وزن، شروع و مدت زمان ماندگاری، حداکثر وزن به‌دست‌آمده، و شروع و سرعت کاهش پایانی را تغییر دهند. در حال حاضر من از مدل‌های با جلوه ترکیبی استفاده می‌کنم و سعی می‌کنم وزن را به روش‌های مختلف یکنواخت کنم، که همه آنها یا تفسیر رضایت‌بخشی ندارند و/یا مدل‌های مناسبی تولید نمی‌کنند. من سعی کردم به سادگی یک اصطلاح وزن بدن عقب افتاده را به عنوان یک شیب تصادفی وارد کنم و باقیمانده های زیبایی به دست آوردم. این کد R است. کتابخانه (nlme); کتابخانه (gridExtra); ## داده‌های ناشناس دریافت کنید، یک data.frame به نام lagbwtest منبع ایجاد می‌شود('http://pastebin.com/download.php?i=MmSDVBEr'); ## id = گروه بندی متغیر، درمان1 و درمان2 = اثرات ثابت ## زمان = زمان، y = متغیر پاسخ (وزن بدن)، تاخیر = پاسخ تاخیر lagbwtest<-na.omit(lagbwtest); مدل ## با پاسخ تاخیر + زمان شیب تصادفی fit01<-lme(y ~ (treatment1+treatment2)*time, data=lagbwtest, random=~time+lagy|id, method=ML, na.action=na حذف)؛ مدل ## بدون شیب تصادفی تاخیری fit02<-lme(y ~ (treatment1+treatment2)*time, data=lagbwtest, random=~time|id, method=ML, na.action=na.exclude); مدل ## با مدت زمان چند جمله ای fit03<-update(fit02,.~(treatment1+treatment2)*poly(time),random=~poly(time)|id); مدل ## با مدت زمان spline fit04<-update(fit02,.~(treatment1+treatment2)*ns(time),random=~ns(time)|id); ## فهرستی ایجاد کنید تا به طور خودکار همان کار را برای هر مناسب myfits انجام دهید<-list(lag=fit01,nolag=fit02,poly=fit03,spline=fit04); اگر خوب بودن تناسب را مقایسه کنیم، مدل تاخیر بسیار بهتر از بقیه به نظر می رسد: with(myfits,anova(lag,nolag,poly, spline)); مدل تاخیر پیش‌بینی‌های متفاوتی نسبت به بقیه ارائه می‌دهد (لطفاً اصطلاحات باروک لاپلی را ببخشید - فقط سعی می‌کنم تا آنجا که می‌توانم کد را کوتاه نگه دارم): ![fitted](http://i.stack.imgur.com/KTtrq. jpg) do.call(grid.arrange,lapply(names(myfits),function(ii) plot(myfits[[ii]],fitted(.,level=0)~time|treatment1:treatment2,pch='.',abline=0,main=ii))) مدل تاخیری نتیجه متفاوتی نسبت به همه دیگران سؤالات من این است: 1. آیا من واقعاً مشکل یافتن فرم عملکردی مناسب برای چنین داده‌هایی را حل کرده‌ام، یا فقط با قرار دادن پاسخ وابسته به زمان بخشی از عبارت خطا، آن را به زیر فرش برده‌ام؟ 2. با توجه به اینکه _error_ ثابت است (در نمودارهای ACF و resid vs time در انتهای این پست تأیید شده است) آیا این روش معتبری برای معرفی یک متغیر همبسته خودکار در یک مدل خطی است؟ اگر نه، چرا که نه؟ 3. آیا می توان از مدل تاخیر برای پیش بینی و آزمون فرضیه های مربوط به حداکثر مقدار y به دست آمده در هر ترکیب درمانی استفاده کرد؟ 4. نمودارهای «سطح=1» (سطح حیوانی) برای مدل دارای تأخیر عموماً بهتر از مدل‌های دیگر به نظر می‌رسند، اما نمودارهای «سطح=0» (سطح گروه) همه وحشتناک به نظر می‌رسند و به ذهنم می‌رسد که اینطور نیست. می‌دانید که باقیمانده‌های «سطح=0» از یک مدل با جلوه‌های ترکیبی به خوبی برازش _باید_ چگونه به نظر می‌رسند. آیا آنها حتی مهم هستند؟ 5. چرا مدل های بدون تاخیر همگی اینقدر شبیه هم هستند؟ در اینجا کد نمودارهای تشخیصی است. برای دو مورد از آنها، تصاویر واقعی گنجانده شده است: ## همبستگی خودکار do.call(grid.arrange,lapply(names(myfits),function(ii) plot(ACF(myfits[[ii]],form=~time|id) ,main=ii))) ## همبستگی فضایی (واریوگرام ها) do.call(grid.arrange,lapply(names(myfits),function(ii) plot(variogram(myfits[[ii]],form=~time|id),main=ii)) ) ## باقیمانده حیوانات فردی در مقابل نصب شده do.call(grid.arrange,lapply(names(myfits),function(ii) plot(myfits[[ii]],resid(.,type='pearson',level=1)~fitted(.,level=1 ),pch='.',abline=0,main=ii))) ![resid vs fitted](http://i.stack.imgur.com/08XjS.jpg) ## باقیمانده حیوانات فردی در مقابل زمان do.call(grid.arrange,lapply(names(myfits),function(ii) plot(myfits[[ii]],resid(.,type='pearson',level=1)~time,pch='.',abline=0,main=ii))) ![resid vs time](http ://i.stack.imgur.com/cuLdz.jpg) ## باقیمانده های گروه درمانی در مقابل برازش do.call(grid.arrange,lapply(names(myfits),function(ii) plot(myfits[[ii]],resid(.,type='pearson',level=0)~fitted(.,level=0 ),pch='.',abline=0,main=ii))) ## باقیمانده گروه درمان در مقابل زمان do.call(grid.arrange,lapply(names(myfits),function(ii) plot(myfits[[ii]],resid(.,type='pearson',level=0)~time,pch='.' ,abline=0,main=ii))) به هر حال، من همچنین سعی کردم مدل nolag را با correlation=corAR1() به روز کنم (نشان داده نشده است) و اشکال هیچ یک از طرح‌ها را به شکل‌های مدل «تاخر» شبیه‌تر نکرد، حتی طرح‌های «ACF».
عبارت عقب افتاده در سری های زمانی با خطاهای ثابت: خیلی خوب است که درست باشد؟
64053
من یک مشکل دیگر با 14000 ویژگی و 500 نمونه آموزشی دارم. این یک مسئله طبقه بندی باینری و تقریباً به شکل بیضی است. دقت طبقه بندی من با استفاده از هسته چند جمله ای درجه 2 و از طریق CV 80% است. با این حال، من به‌طور تصادفی سعی کرده‌ام داده‌ها را روی دوبعدی نمایش دهم، یعنی فقط دو ویژگی را انتخاب می‌کنم و آنها را نمایش می‌دهم، و متوجه می‌شوم که چندین ترکیب وجود دارد که به من 100% جدایی می‌دهد. من همچنین از هسته RB استفاده کرده ام و دقت طبقه بندی برای آن ~70٪ است. آیا کسی دلیلی دارد که چرا این اتفاق می افتد؟ این کدی است که من برای libsvm استفاده می کنم... % train SVM model model = svmtrain2(Y(train_vec,1),X(train_vec,:),['-t 1 ' '-d 2 ' '-g' num2str(grid_data(i,1)) ' ' '-r' num2str(grid_data(i,2)) ' '-c' num2str(C)]); % مدل تست در مجموعه آزمایشی [predict_label، دقت، dec_values] = svmpredict(Y(test_vec,1),X(test_vec,:),model);
SVM نرخ طبقه‌بندی نسبتاً پایینی برای داده‌های با ابعاد بالا دارد، حتی اگر پیش‌بینی‌های دوبعدی نشان دهند که آنها قابل تفکیک هستند.
97446
من از Stata برای تجزیه و تحلیل داده های پانل خود استفاده می کنم. من چندین رگرسیون اثر ثابت را با متغیرهای ابزار اجرا می‌کنم و می‌خواهم حداقل مربعات مرحله اول و مرحله دوم را با استفاده از outreg (یا outreg2) به اکسل و لاتکس خروجی بدهم. من در حال حاضر قادر به خروجی مرحله اول نیستم. هنگامی که من پس از اجرای رگرسیون خود با مرحله اول فهرست شده در گزینه ها outreg را اجرا می کنم، فقط حداقل مربعات مرحله دوم را خروجی می دهد، نه اولین. آیا کسی راهی برای خروجی حداقل مربعات مرحله اول با استفاده از outreg می داند؟
آیا می توانم از outreg (یا outreg2) در Stata برای خروجی حداقل مربعات مرحله اول استفاده کنم؟
90340
می دانیم که مدل مخلوط گاوسی همتای احتمالی الگوریتم k-means است. آیا همتای احتمالی برای kNN وجود دارد؟ (که شبیه k-means است، اما تحت نظارت است.)
همتای احتمالی برای kNN
80376
من باید یک ماتریس کوواریانس 600x600 را محاسبه کنم، هر عامل دارای اندازه نمونه 750 است. من کامپیوترهای خوشه ای مناسبی دارم، بنابراین به انجام محاسبات به صورت موازی فکر می کنم. روش احمقانه ای که من در مورد آن فکر می کنم این است: برای هر دو عامل، یک شغل برای محاسبه کوواریانس این 2 شغل ایجاد کنید و این کار را به شبکه ارسال کنید. سپس کوواریانس های همه جفت ها را جمع آوری می کنم و سپس آنها را به ماتریس 600x600 اختصاص می دهم. آیا این اصلا منطقی است؟
آیا این روش درستی برای محاسبه موازی کوواریانس ماتریس است؟
52642
من 2 متغیر تصادفی A و B دارم که هر دو دسته بندی هستند. می‌دانم که می‌توانم اطلاعات متقابل آن‌ها را محاسبه کنم، که معیاری از اطلاعاتی را که آنها به اشتراک می‌گذارند به من می‌دهد. با این حال، من می خواهم بدانم با دانستن اینکه A یک مقدار خاص، a دارد، چقدر اطلاعات در مورد B به دست می آید. تنها نامی که می‌توانم برای چیزی شبیه به این فکر کنم، «اطلاعات متقابل مشروط» است، یعنی اطلاعات متقابل A و B با توجه به A=a. من با آمار بسیار جدید هستم، اما به نظرم می‌رسد که می‌توان فرمول استاندارد MI را روی A=a شرطی کرد، اما نمی‌دانم انجام این کار منطقی است یا خیر. گوگل چیزی برای آن نام به دست نیاورد، بنابراین من اینجا پرسیدم.
آیا چیزی به نام اطلاعات متقابل مشروط وجود دارد؟