_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
110623 | من دو شبیهسازی برای تست توانایی فیزیکی دارم که به یک نمره کل آزمون اضافه میشود، کدگذاری شده به عنوان قبولی دوگانه یا شکست 0، 1. آیا میتوانم دو شبیهسازی را به عنوان پیشبینیکنندههای مستقل در رگرسیون لجستیک باینری در نظر بگیرم، حتی اگر آنها به نمره کل اضافه شوند. | رگرسیون لجستیک با متغیرهای پیش بینی مرتبط |
65095 | در مستندات `glm` خواندم: _ برای خانواده های دوجمله ای و شبه دو جمله ای، پاسخ را می توان به عنوان یک عامل نیز مشخص کرد (زمانی که سطح اول نشان دهنده شکست و سایر موفقیت ها باشد) آیا به این معنی است که احتمال شکست یا موفقیت در حال مدل سازی است. ? من سعی میکنم مدل لجستیک ساده را در مجموعه دادههای «امتیاز اعتبار آلمانی» اعمال کنم که در آن سطوح «خوب» و «بد» وجود دارد. برای به دست آوردن نتایج صحیح (احتمال بیشتر به معنای احتمال بیشتر خوب بودن است) باید «شکست=خوب» و «موفقیت=بد» را فرض کنم. این کار می کند، اما واقعاً غیرمعمول است. من این را به این صورت تعبیر می کنم - این احتمال شکست را مدل می کند (بد نیست). require(ggplot2) german_data <- read.csv(file=http://archive.ics.uci.edu/ml/machine-learning-databases/statlog/german/german.data, sep= , header= FALSE) names(data_german) <- c('ca_status','mob','credit_history','purpose','credit_mount','ssasas', 'present_employment_از زمان','status_sex', 'اقساط_نرخ_درآمد', 'دیگر_بدهکاران', 'sport_residence_از زمان'، 'مالکیت'، 'سن'، 'اقساط_سایر'، 'مسکن'، 'اعتبار_موجود'، 'شغل'، 'مسئول_نگهداری_افراد'، 'تلفن'، 'کارگر_خارجی'، 'gb') str(data_german_data) آلمان gb <- factor(german_data$gb,levels=c(2,1),labels=c(بد،خوب)) level(german_data$gb)[1] table(german_data$gb) model <- glm(data= german_data,formula=gb~.,family=binomial(link=logit)) german_data$prob <- predict(model,newdata=german_data, type=response) ggplot(data=german_data) + geom_boxplot(aes(y=prob,x=gb)) + coord_flip()  | احتمال آنچه در glm پیش بینی می شود |
95955 | من ریاضیدان نیستم، اما می خواهم یک تحلیل آماری کوچک در داده هایم انجام دهم. من داده هایی از مسابقات بسکتبال در قالب زیر دارم: امتیاز برای تیم A / امتیاز برای تیم B / برنده (A، B یا تساوی) / درصد نظری برای تیم A برنده / درصد نظری برای برنده شدن تیم B / درصد نظری برای تساوی / نظری امتیازات برای تیم A / امتیازات نظری برای تیم B چیزی که می خواهم بررسی کنم این است که آیا درصدهای نظری نتایج واقعی را دنبال می کنند و به نوعی برای امتیازات و امتیازات نظری برای هر تیم یکسان را بررسی کنید. من می خواهم موارد زیر را نیز بررسی کنم: اگر امتیاز نظری برای تیم A 50 و برای تیم B 45 باشد (برنده شدن تیم A) و نتایج واقعی تیم A:100 و تیم B:20 باشد، حتی اگر تیم A برنده شود، با آنچه نظری بود فاصله زیادی دارد. | چه نوع تجزیه و تحلیل آماری در داده های من جای می گیرد؟ |
36096 | اگر بتوانید به من بگویید از کدام آزمون آماری برای تجزیه و تحلیل داده های زیر استفاده کنم خوشحال می شوم: من داده های 10 نفر و 10 خواهر و برادر آنها را دارم. برای هر فرد و خواهر و برادرش، من دو نقطه داده دارم: (1) تعداد تلاش ها و (2) تعداد ضربه های واقعی. بنابراین داده ها به این صورت است: نام تلاش ضربه شخص1 300 15 نفر1_خواهر 35 5 نفر2 125 10 نفر2_خواهر و برادر 40 8 و غیره. و بزرگتر از شخص مربوطه. چگونه می توانم این را تست کنم؟ | از کدام آزمون برای بررسی نسبت بهتر برای شرکت کنندگان همسان استفاده کنیم؟ |
50931 | استفاده از تابع ksdensity در matlab یک تخمین چگالی را در قالب 2 بردار _f_ و _xi_ برمی گرداند. که در آن _f_ مقادیر چگالی و xi نقاط مربوط به مقادیر چگالی هستند. چگونه می توانم فاصله hellinger بین 2 تخمین چگالی را بر اساس _f_ و _xi_ آنها محاسبه کنم؟ | محاسبه واگرایی هلینگر از نتایج تخمین تراکم هسته در Matlab |
16074 | من یک آزمایش فیزیک ساده انجام دادم که نیروی جاذبه ای را که یک صفحه نسبت به صفحه دیگر تجربه می کند به عنوان تابعی از ولتاژ اعمال شده و فاصله بین صفحات اندازه گیری می کند. اکنون باید بدانم که آیا داده های جمع آوری شده رابطه $F \propto V^2/d^2$ را تایید می کند یا خیر. فرض کنید موارد زیر چیزی است که من جمع آوری کردم. ولتاژ\فاصله 8.000 10.000 12.000 14.000 16.000 4.0 3.3 2.0 1.7 1.2 0.8 6.0 8.1 4.8 3.8 2.5 1.9 8.0 4.0 4.0 10.0 22.9 14.2 9.4 7.0 5.6 12.0 32.7 20.1 13.5 10.5 7.9 عدم قطعیت ها $\pm 0.05 $ برای ولتاژ، $\pm 0.005 $ برای مسافت و 1 $\pm برای فاصله است. تا آنجا که من می دانم، چند راه برای تجزیه و تحلیل داده ها با R وجود دارد. 2) ~ -1 + I(ولتاژ^2))` 3. `aov(I(نیرو * ولتاژ^-2 * فاصله^2) ~ ولتاژ * فاصله)` کدام یک باید استفاده کنم؟ | چگونه می توان این داده های به دست آمده از یک آزمایش فیزیک ساده روی نیروهای جاذبه را تجزیه و تحلیل کرد؟ |
110622 | من اطلاعات قبلی درباره گروه بندی دارم، اما ممکن است نادرست باشد یا کافی نباشد زیرا به تعداد بیشتری از گروه ها (یعنی زیر گروه ها) نیاز دارم. به عنوان مثال در داده های زیر 3 گروه علاوه بر دو متغیر دارم. من می خواهم از اطلاعات گروه (به عنوان دانش قبلی) (در اینجا 3 گروه) برای ایجاد گروه های معنی دار (در اینجا 9 گروه/خوشه) استفاده کنم. آیا روش صحیحی برای انجام چنین تحلیلی وجود دارد؟ # گروه داده ساختگی <- تکرار (1:3، هر = 3000) X <- c(rnorm(1000، 0.1، 0.04)، rnorm(1000،0.2، 0.04)، rnorm(1000، 0.4، 0.02)، rnorm( 1000، 0.4، 0.04)، rnorm(1000،0.5، 0.08)، rnorm(1000، 0.6، 0.12)، rnorm(1000، 0.7، 0.08)، rnorm(1000،0.8، 0.1)، rnorm(1000، 0.9، 0.06 <) Y rnorm(1000, 0.5, 0.04)، rnorm(1000،0.6، 0.04)، rnorm(1000، 0.7، 0.04)، rnorm(1000، 0.35، 0.12)، rnorm(1000،0.45، 0.04)، rnorm(1000، 0.0، rnorm(1000، 0.0 1000، 0.55، 0.09)، rnorm(1000، 0.65، 0.12)، rnorm(1000، 0.65، 0.04) اطلاعات قبلی 3 خوشه: col = c(قرمز، فیروزه ای، سبز) نمودار (cbind(X ,Y), col = col[گروه], pch = .)  تجزیه و تحلیل خوشه بندی با فرض 9 خوشه. cl <- kmeans(cbind(X,Y)، 9) رنگها <- c(قرمز، بنفش، زرد، برنزه، صورتی، فیروزهای، آبی، سبز , سیاه) plot(cbind(X,Y), col = colrs[cl$cluster], pch = .)  | چگونه می توان نتایج تجزیه و تحلیل خوشه ای را با گروه های شناخته شده تکمیل کرد |
82307 | من از طریق آزمایشگاه بر روی رگرسیون ریج و LASSO در ISLR کار می کردم و با یک رفتار عجیب در تابع cv.glmnet مواجه شدم. وقتی آزمایشگاه را همانطور که نوشته شد دنبال کردم، مجموعه زیر را دریافت کردم.seed(1) train <- sample(1:nrow(x)، nrow(x)/2) test <- (-train) y.test <- y[ test] set.seed(1) cv.out <- cv.glmnet(x[train,], y[train], lambda=grid, alpha=0) plot(cv.out) bestlam <- cv.out$lambda.min bestlam [1] 231.013 به نفع خودم، آن را با استفاده از یک دانه متفاوت ('8675309') امتحان کردم و نتیجه متفاوتی گرفتم. هر ترکیبی از تنظیم دانه ها به پاسخ های متفاوتی منجر شد. من فرض میکنم این به نحوه تغییر 10 برابر با دانههای مختلف مربوط میشود، اما «lambda.min» متفاوت میتواند بسیار متفاوت باشد، من نگرانم که بسته پایدار نباشد. آیا من چیزی را از دست داده ام؟ | نتایج CV.glmnet |
12558 | من دو مجموعه داده دارم که در آنها 250.000 مقدار برای 78 و 35 نمونه دارم. برخی از نمونه ها اعضای یک خانواده هستند و این ممکن است بر داده ها تأثیر بگذارد. من همبستگی زوجی را محاسبه کرده ام و بین 0.7 تا 0.95 متغیر است اما می خواهم بدانم که آیا تفاوت معنی داری در ضرایب همبستگی درون خانواده و بین خانواده وجود دارد؟ بهترین راه برای انجام این کار چیست؟ با تشکر | مقایسه ضرایب همبستگی |
50932 | این یک سوال در مورد طبقه بندی است. من یک دانشجوی علوم اعصاب هستم که تجربه کمی از روشهای طبقهبندی دارم و از هرگونه راهنمایی در مورد بهترین راه برای پیادهسازی طبقهبندیکننده خطی (LDA) روی این دادهها سپاسگزار خواهم بود. من یک مجموعه داده مغناطیسی مغزی دارم که از افراد هنگام انجام یک کار شناختی ضبط شده است. این ویژگیهای زیر را دارد: * 306 کانال داده، اما یک مرحله پیشپردازش ابعاد را به 64 کاهش داده است و سپس دادهها را دوباره بر روی حسگرها بازتاب میدهد. * داده ها در حوزه زمان (1000 هرتز) ریزدانه هستند * داده ها به بخش های کوتاهی به نام آزمایش تقسیم می شوند. اینها با وظیفه شناختی آزمودنی ها مطابقت دارد. کارآزماییها میتوانند متفاوت باشند، برای مثال، در آزمایش نوع A (که من 50 مورد از آن را خواهم داشت) ممکن است از آزمودنی خواسته شده باشد که به محرکهای سمت چپ فضا توجه کند، و در آزمایش نوع B (که من دارم همچنین 50) توجه به محرک های سمت راست فضا). من میخواهم دادههایم را در مقاطع زمانی خاصی در داخل آزمایشها طبقهبندی کنم (مثلاً 0.5 ثانیه پس از اینکه به آزمودنیها گفته شد که در سمت چپ/راست شرکت کنند)، طبقهبندی کننده را آموزش دهم تا بین کارآزماییهای نوع A و نوع B تمایز قائل شود. بردار ویژگی برای هر مشاهده (یعنی آزمایش) بردار فعالیت آنی در هر حسگر در آن نقطه زمانی است. من ویژگیهای بیشتری نسبت به آزمایشها دارم (حسگرهای 306)، بنابراین یا باید انتخاب ویژگی را انجام دهم یا از LDA منظم استفاده کنم (یا از چیزی مانند تجزیه و تحلیل تفکیک پراکنده Hastie استفاده کنم که به نظر من هر دو را انجام میدهد). این کار را میتوانستم انجام دهم، اما به نظر میرسد که اطلاعات مربوط به ساختار آماری دادههای موجود در نقاط داده را از زمان دقیقی که میخواهم طبقهبندی کنم، دور میاندازد. همچنین، میدانم که دادهها ابعاد کمتری نسبت به 306 دارند - کمتر از 50 مؤلفه احتمالاً اکثریت قریب به اتفاق واریانس دادهها را به تصویر میکشند. بنابراین، من به استفاده از یک مرحله کاهش ابعاد، احتمالا PCA، قبل از ارسال دادههای ابعاد کاهشیافته به یک طبقهبندیکننده LDA نامنظم یا سادهلوح فکر میکردم. ایده این است که مرحله کاهش ابعاد از این واقعیت استفاده میکند که من حجم زیادی از دادههای نمونهگیری شده در طول زمان را دارم. و اینجا بود که من گیج شدم. PCA داده ها را بر روی ابعاد متعامد پروژه می دهد، بنابراین آیا منطقی است که LDA (که یک ماتریس کوواریانس را برای استفاده از اطلاعات مربوط به همبستگی بین ویژگی ها تخمین می زند) انجام دهیم؟ یا باید به دنبال کاهش ابعاد، بیهوده های ساده را انجام دهم؟ در این صورت، احتمالاً میتوانستم برای شروع کارهای سادهای انجام دهم، با توجه به این که LDA به تعداد ویژگیها حساس نیست. اگر کسی می تواند در مورد یک رویکرد خوب در اینجا، با توجه به ساختار خاص این داده ها، توصیه کند، بسیار سپاسگزار خواهم بود. سوال کلیدی این است: آیا PCA به دنبال LDA منطقی است؟ با تشکر جورج | آیا PCA به دنبال LDA منطقی است؟ |
2917 | ## پیشینه من در حال انجام یک متاآنالیز هستم که شامل داده های منتشر شده قبلی است. اغلب، تفاوت بین تیمارها با مقادیر P، کمترین تفاوت معنیدار (LSD) و سایر آمارها گزارش میشود، اما هیچ برآورد مستقیمی از واریانس ارائه نمیدهد. در زمینه مدلی که من استفاده می کنم، تخمین بیش از حد واریانس اشکالی ندارد. ## مشکل در اینجا لیستی از تبدیلات به $SE$ است که در آن $SE=\sqrt{MSE/n}$ (Saville 2003) که من در نظر دارم، بازخورد قابل تقدیر است. در زیر، فرض میکنم که $\alpha=0.05$ بنابراین $1-^{\alpha}/_2=0.975$ و متغیرها معمولاً توزیع میشوند، مگر اینکه خلاف آن ذکر شده باشد: ## سوالات: 1. با توجه به $P$، $n$، و درمان به معنای $\bar X_1$ و $\bar X_2$ $$SE=\frac{\bar X_1-\bar X_2}{t_{(1-\frac{P}{2},2n-2)}\sqrt{2/n}}$$ 2. با توجه به LSD (روزنبرگ 2004)، $\alpha$، $n$، $b$ که در آن $b$ تعداد بلوک ها است و $n=b$ به طور پیش فرض برای RCBD $$SE = \frac{LSD}{t_{(0.975,n)}\sqrt{2bn}}$ 3. با توجه به MSD (حداقل تفاوت قابل توجه) (Wang 2000)، $n$، $\alpha$، df = $2n- 2$ $$SE = \frac{MSD}{t_{(0.975, 2n-2)}\sqrt{2}}$$ 4. با توجه به 95% فاصله اطمینان (Saville 2003) (اندازهگیری شده از میانگین تا حد اطمینان بالا یا پایین)، $\alpha$ و $n$ $$SE = \frac{CI}{t_{(\alpha/2,n)} }$$ 5. با توجه به HSD توکی، $n$، که $q$ آمار محدوده مطالعه شده است، $$SE = \frac{HSD}{q_{(0.975,n)}}$$ یک تابع R برای کپسوله کردن این معادلات: 1. دادههای مثال: داده <- data.frame(Y=rep(1,5), stat=rep( 1,5), n=rep(4,5), statname=c('SD', 'MSE', 'LSD', 'HSD', 'MSD') 2. مثال استفاده از: transformstats(data) 3. تابع 'transformstats': transformstats <- function(data) { ## تبدیل آمار به SE ## تبدیل SD به SE if (SD %in% data$statname) { sdi < - which(data$statname == SD) data$stat[sdi] <- data$stat[sdi] / sqrt(data$n[sdi]) data$statname[sdi] <- SE } ## تبدیل MSE به SE if (MSE %in% data$statname) { msei <- which(data$statname == MSE) data$stat[msei ] <- sqrt (data$stat[msei]/data$n[msei]) data$statname[msei] <- SE } ## 95%CI اندازه گیری شده از mean to CI بالا یا پایین ## SE = CI/t if (95%CI %in% data$statname) { cii <- which(data$statname == '95%CI') data$stat[cii] <- data$stat[cii]/qt(0.975,data$n[cii]) data$statname[cii] <- SE } ## کمترین میزان فیشر تفاوت (LSD) ## به طور محافظهکارانه فرض میکنیم که در تکرار بلوک وجود ندارد اگر (LSD %in% data$statname) { lsdi <- which(data$statname == LSD) data$stat[lsdi] <- data$stat [lsdi] / (qt(0.975,data$n[lsdi]) * sqrt( (2 * data$n[lsdi]))) data$statname[lsdi] <- SE } ## تفاوت معنیدار توکی (HSD)، ## به طور محافظهکارانه فرض میکنیم 3 گروه در حال آزمایش هستند بنابراین df =2 if (HSD %in% data$statname) { hsdi <- which(data$statname = = HSD & data$n > 1) data$stat[hsdi] <- data$stat[hsdi] / (qtukey(0.975، data$n[lsdi]، df = 2)) data$statname[hsdi] <- SE } ## MSD حداقل اختلاف مربع ## MSD = t_{\alpha/2، 2n-2} *SD*sqrt(2/n) ## SE = MSD*n/(t*sqrt(2)) اگر (MSD %in% data$statname) { msdi <- which(data$statname == MSD) data$stat[msdi] <- data$stat[msdi] * data$n[msdi] / (qt(0.975,2*data$ n[lsdi]-2)*sqrt(2)) data$statname[msdi] <- SE } if (FALSE %in% c('SE','none') %in% data$statname) { print(paste(trait, ': ERROR!!! داده ها حاوی آمارهای تغییر نیافته است')) } بازگشت (داده) } ** مراجع** Saville 2003Can J. Exptl Psych. (pdf) روزنبرگ و همکاران 2004 (پیوند) وانگ و همکاران. 2000 Env. سم. و شیمی 19 (1): 113-117 (پیوند) | آیا این فرمولها برای تبدیل P، LSD، MSD، HSD، CI، به SE بهعنوان یک تخمین دقیق یا متورم/محافظهکار از $\hat{\sigma}$ صحیح هستند؟ |
16078 | آیا روشی برای رگرسیون (غیرخطی؟ هسته ای؟) توابع با خروجی در فضای تصویری وجود دارد؟ یعنی یک سری مثال $x_i\in\mathbb{R}^n$ (یا $x_i\in\mathbb{P}^n$) و $y_i\in\mathbb{P}^m$ (بنابراین , $\forall c\in\mathbb{R}, y_i=c\cdot y_i$) به طوری که $f(x_i)=y_i$، آیا می توانم تابعی را یادداشت کنم که به طور منطقی تقریباً $f$ است؟ با تشکر | رگرسیون در فضای تصویری؟ |
95959 | برای اینکه بفهمیم Wald با تبدیل پارامتر شما در H0 کار نمی کند، باید $H_0$های زیر را آزمایش کنیم: A) $H_0: exp( \mu)=0.62$ B) $ H_0: \mu=ln(0.62)$ میتوانم آمار آزمون Wald را برای مورد B بنویسم، که $W_B= (\mu - ln(0.62))^2 / Var( \mu)$ که با نتیجه ای که از Stata می گیریم مطابقت دارد، اما فرمول $W_A$ چیست؟ من فکر می کنم شما باید روش دلتا را اعمال کنید، اما متاسفانه نمی توانم آن را بفهمم. پیشاپیش از شما متشکرم | مثالی از عدم تغییر آزمون والد |
114579 | لطفاً دستور/کد رسم توزیع شرطی Y|X در برنامه نویسی R را بنویسید؟ من به این کد نیاز دارم تا ببینم آیا رابطه Y و X منحرف است یا نه، و ببینم آیا می توانم فرض خطی بودن آنها را داشته باشم. متشکرم | کد R برای نشان دادن هیستوگرام/نمودار توزیع شرطی Y|X |
65096 | چه روشهایی وجود دارد که میتوانیم نمونههای تصادفی از توزیع موجود تولید کنیم که از نظر محاسباتی کارآمد هستند؟ یکی از روش های رایج ارائه شده در متن آمار، استفاده از تبدیلی به نام روش وارونگی است. ما با توزیع یکنواخت (0،1) شروع می کنیم که می توانیم از آن یک عدد دلخواه انتخاب کنیم و سپس از معکوس CDF توزیع (تابع کمیت آن) برای پیدا کردن عضو توزیع مورد نظر مطابق با عدد تصادفی استفاده می کنیم. بین 0 و 1. چه روش های دیگری برای انجام همین کار وجود دارد؟ | تولید نمونه های تصادفی از یک توزیع معین |
88718 | اگر من بدانم که x = y*y، و کل آمار مربوط به y را بدانم، مانند واریانس و کوواریانس آن با سایر متغیرها، آیا می توانم واریانس و کوواریانس x را به صورت تحلیلی حل کنم؟ همچنین، اگر من یک سری آمار در مورد x بدانم، چه چیزی می توانم در مورد y بدانم؟ با تشکر از کمک! | اگر x = y*y، و شما var(y)، var(z)، و cov(y،z) را می دانید، آیا من cov(x،z) را می دانم؟ |
65097 | در یک آزمایش قابلیت استفاده فرضی، دو تغییر رابط در برابر یک خط پایه آزمایش میشوند. تغییرات رابط تجمعی هستند، به عنوان مثال، نوع B گسترش A است. ما قابلیت استفاده را طبق تعریف آن با معیارهایی برای کارایی، اثربخشی و رضایت اندازه گیری می کنیم. بدتر از همه، انواع رابط با پردازش سه مجموعه مختلف از وظایف توسط شرکت کنندگان انسانی اندازه گیری می شود. اگر این فرضیه به صورت «واریان A قابلیت استفاده را نسبت به خط پایه بهبود میبخشد» فرموله شود، معیاری که باید آزمایش شود، شاخصی از معیارهای کاربردپذیری در هر سه مجموعه وظایف خواهد بود. از آنجایی که هر سه اندازه گیری در معرض نویز هستند، ممکن است یک سیگنال در یکی از اقدامات از دست برود. به عنوان جایگزین، میتوانیم هر معیار قابلیت استفاده را جداگانه بررسی کنیم. آیا این درست است که فرض کنیم در مورد دوم باید تورم آلفا را اصلاح کنیم؟ اگر چنین است، آیا بهتر است فقط چند فرضیه به صورت پیشینی بیان شود (مثلاً ب کارایی را نسبت به خط پایه بهبود می بخشد)، نتایج را گزارش کنید و سایر فرضیه ها را در یک تحلیل اکتشافی بررسی کنید؟ همچنین، در مورد سه مجموعه مختلف وظایف چطور؟ آیا این درست است که فرض کنیم بررسی معیارها برای هر مجموعه از وظایف به طور جداگانه منجر به تورم آلفا حتی بیشتر می شود؟ **tl;dr:** در طراحی 3x3 (نوع، مجموعه وظایف) که سه متغیر را اندازه گیری می کند، آیا باید نرخ خطای خانوادگی $1-(1-p) را تنظیم کنیم^{3\cdot3\cdot3} دلار؟ اگر چنین است، آیا میتوانیم با بیان فرضیههای کمتر و واضحتر از آن دور شویم و از فرضیههای باقیمانده به عنوان مبنایی برای تحلیل اکتشافی استفاده کنیم؟ | تورم آلفا در زمینه مطالعات قابلیت استفاده |
50933 | در اینجا تنظیمات: من 90٪ از داده ها را برای آموزش و 10٪ دیگر را برای آزمایش دارم. من در حال انجام اعتبارسنجی متقاطع طبقه ای در آموزش 90٪ هستم. این مجموعه داده 10 کلاسه است. من از LibSVM برای آن استفاده می کنم. هنگام انجام 10 برابر اعتبار متقاطع برای تنظیم Hypermarameters (C در C-SVM) من دقت 100٪ را دریافت می کنم. اساساً چیزی شبیه به این: آموزش با 0.03125 - صحت اعتبارسنجی متقاطع = 68.5097٪ آموزش با 0.12500 - دقت اعتبارسنجی متقاطع = 98.3٪ آموزش با 0.50000 - دقت اعتبارسنجی متقاطع = 100٪ آموزش 1000000 = 100٪ آموزش با دقت 0.00 -0. آموزش با 8.00000 - صحت اعتبارسنجی متقاطع = 100% آیا داشتن دقت 100% در اعتبارسنجی متقاطع در داده های TRAINING مشکلی ندارد؟ در این صورت آیا باید C=0.5 را به عنوان بهترین هایپرپارامتر انتخاب کنم؟ یا در عوض باید از پارامترهایی که من را 100% در اعتبار سنجی متقاطع می کنند، فاصله بگیرم؟ و چرا اگر آنهایی را که 100 درصد دارند نگیرم باید چه 98 درصدی را بگیرم؟ 90 درصد؟ با تشکر | تفسیر صحت اعتبارسنجی متقابل -( دقت 100% |
88716 | اگر ما در حال انجام یک مطالعه کوهورت از عوامل مرتبط با انفارکتوس عودکننده میوکارد (MI) به دنبال اولین مورد هستیم، آیا جمعیت مورد مطالعه ما در ابتدا باید شامل افرادی باشد که قبلاً از یک MI رنج میبردند، افراد _یا_آزمودنیهایی که از هر MI قبلی برخوردار نبودهاند؟ | سوال مطالعات کوهورت اپیدمیولوژی |
10893 | من در حال توسعه برنامهای هستم که در آن کاربران میتوانند «بخشهایی» (à la subreddit در reddit) ایجاد کنند، که در آن آیتمها/پستها را میتوان با یک سیستم شست بالا/پایین ایجاد کرد و رأی داد. یک مقاله عالی به من راهنمایی کرد که چگونه این آرا را مرتب کنم به طوری که یک مورد با 100٪ پاسخ مثبت اما با رای کم با صدها رای و قبولی 80٪ بالاتر از یک قرار نگیرد. مقاله به خوبی آن را توصیف می کند. با این حال، من میخواهم مواردی که دارای رتبههای پایینتر هستند را کنار بگذارم و اینجاست که مشکل میشود: * چگونه میتوانم حداقل تعداد رایها را بدانم تا آن را رد کنم؟ * آستانه امتیاز برای دور انداختن آیتم چقدر است؟ همانطور که گفتم بخش هایی وجود دارد و هر کدام مواردی دارند (که رای داده شده است). فرمول باید این واقعیت را در نظر بگیرد که یک بخش ممکن است دارای 100 مورد با هزاران رای باشد و دیگری ممکن است دارای 3 یا 4 مورد با 20 رای باشد، بنابراین حداقل 40 رای مورد نیاز ممکن است برای مورد اول بهینه باشد اما کاملاً خارج از محدوده برای دوم (من وسوسه شدم که این را به MathOverflow ارسال کنم، اما واقعا مطمئن نیستم زیرا این شامل برنامه نویسی نیز می شود) با تشکر! | فرمول دور انداختن اقلام با رای (کران پایینی فاصله اطمینان امتیاز ویلسون) |
8005 | من یک آزمایش فرضی دارم که در آن نمرات برخی معیارها را در 1 سال با نمرات معیار در 4 سال مقایسه می کنم. من از آزمون t غیر جفتی استفاده می کنم تا ببینم آیا تفاوت معنی داری بین این دو وجود دارد یا خیر. سپس، انجام می دهم: (میانگین 4 سال) - (میانگین 1 سال) حالا می خواهم آن مقدار را، تابعی از دو توزیع مختلف که n و SD متفاوتی دارند، بگیرم و آن را با مقدار دیگری که در همان مقدار به دست آمده مقایسه کنم. از دو توزیع مشابه (سال اول و چهارم اما تحت یک متغیر مستقل متفاوت). چگونه می توانم این کار را انجام دهم؟ و آیا برای بدست آوردن مقدار do 4yrMean - 1yrMean معتبر است یا باید p-value4 - p-value1 یا چیز دیگری را انجام دهم؟ | آزمون فرضیه بر روی مقادیری که توابع توزیع های چندگانه هستند |
71575 | من مجموعه داده ای از داده های استفاده از صدا سری زمانی (اندازه گیری شده در ثانیه و گروه بندی شده بر اساس روز) برای کاربران تلفن همراه دارم. برخی از این حسابها به دلیل پوشش ضعیف لغو شدهاند (یعنی وقتی از دستگاه خود استفاده میکنند استقبال خوبی نمیکنند، بنابراین حساب خود را لغو میکنند). من در تلاش هستم تا رابطه ای بین استفاده از سری زمانی و مشکلات دریافت پیدا کنم. بنابراین حدس میزنم این یک مشکل طبقهبندی سری زمانی است. آیا کسی پیشنهادی در مورد نحوه انجام این کار دارد؟ فکر میکنم باید ویژگیها را از دادههای سری زمانی استخراج کنم و یک طبقهبندی کننده بر روی آن ویژگیها آموزش دهم. آیا کسی ایده ای دارد که کدام ویژگی ها بیشتر پیش بینی می کنند؟ همچنین، آیا باید دادههای سری زمانی را از قبل عادی کنم (با این فرض که الگو و نه مقادیر مطلق استفاده مهم هستند)؟ با تشکر | شناسایی پوشش ضعیف از الگوهای استفاده سری زمانی |
88717 | من یک جریان از اسناد متشکل از $1$ تا $n$ صفحات دارم. هدف تقسیم بندی جریان اسناد است. هر صفحه اول و آخر یک سند به عنوان شروع $b$ یا انتهای $e$ سند طبقه بندی می شود. احتمال تعلق به هر یک از کلاس ها نیز محاسبه می شود.  من می خواهم رابطه بین اسناد را مطالعه کنم تا تصمیم بگیرم که آیا می توان آنها را با هم ترکیب کرد یا تقسیم بندی را تأیید کرد. برای آن من کیس های 4 دلاری دارم. سوال من مربوط به موارد $3rd و $4$ است. 1. مورد 1: اگر صفحه آخر سند اول به عنوان $e$ و صفحه اول سند متوالی به عنوان $b$ طبقه بندی شود. $(e,b)$ سپس من فکر می کنم که سند اول صحیح است و به آخرین صفحه سند متوالی و غیره می روم. 2. حالت 2: اگر هر دو صفحه به عنوان $(e,e)$ طبقه بندی شوند، من اسناد را فیوز کنید 3. **مورد 3:** در مورد $(b,b)$ من می خواهم آن را به $(b,e)$ 4 تغییر دهم. **مورد 4:** در مورد $ (b,e)$ من می خواهم آن را به $(e,b)$ تغییر دهم آیا می توانم تصمیم طبقه بندی کننده را تغییر دهم؟ آیا می توانم هزینه ('تابع ضرر') را برای تغییر به عنوان مثال از $(b,b) \longrightarrow (b,e)$ محاسبه کنم با در نظر گرفتن اینکه تخمین های احتمال را دارم. | تصمیم طبقه بندی کننده را با استفاده از تخمین های احتمال تغییر دهید |
76960 | من اخیراً با روشی برای رتبه بندی اقلام بر اساس مقایسه آشنا شده ام به نام روش برادلی-تری. من از آن برای رتبه بندی حدود 500 مورد استفاده می کنم. من نمی دانم اگر هر بار به طور یکسان موارد را برای مقایسه انتخاب کنم، چند مقایسه باید انجام دهم. چند مدل ریاضی وجود دارد که می توانم برای پیدا کردن این موضوع استفاده کنم؟ چگونه می توانم سطح اطمینان را به رتبه خود اختصاص دهم؟ یا مقایسه کافی برای تضمین سطح اطمینان خاصی دارید؟ | برای رتبه بندی با استفاده از بردلی تری به چند مقایسه نیاز دارم؟ |
56543 | من PyMC را یاد میگیرم و اساساً یک متغیر تصادفی $Z = X + Y$ دارم که (مثلاً) $X \sim \mathrm{Normal}(\theta_X)$ و $Y \sim \mathrm{Lognormal}(\theta_Y )$ و $Z$ هیچ توزیع ساده و بسته ای ندارند. اکنون مشاهدات $z_i،\,i=1...N$ از $Z$ دارم و میخواهم $\theta_X$ و $\theta_Y$ را استنتاج کنم. ساده ترین راه برای انجام این کار با PyMC چیست؟ اگر توزیع $Z$ را در دسترس داشتم، فکر میکنم میتوانستم این کار را انجام دهم: Z = DistZ('Z', param_x=theta_x, param_y=theta_y, value=z, observed=True) و سپس استنتاج کنم، اما من انجام نمیدهم. DistZ را نمی دانم. همچنین تعریف مجموع به این صورت آسان است: @pymc.deterministic def z_sum(x=Y, Y=y): x + y را برگرداند اما فکر نمی کنم بتوانم یک تابع قطعی مشاهده شده تعریف کنم. فکر می کنم می توانم کاری انجام دهم: @pymc.stochastic(observed=True) def z_sum(value=z, x=X, y=Y): def logp(z, x): # return log-likelihood اما من هستم در جزئیات روشن نیست من احتمال مشترک $\mathcal{L}(z, x)$ را میدانم، اما امیدوار بودم که نیازی به آن نباشد. من توانستم این کار را با یک نمونهگر سفارشی Gibbs (با استفاده از احتمال مشترک) انجام دهم، اما به دنبال راهحل «ظریفتر» با PyMC هستم. * * * **ویرایش**: سؤال مشابهی در سؤالات متداول BUGS یافت شد که میگوید توابع متغیرهای تصادفی پشتیبانی نمیشوند. مطمئن نیستم که آیا این برای PyMC صدق می کند یا نه، و رویکرد استاندارد چیست. | PyMC: چگونه می توانم تابعی از دو متغیر تصادفی را بدون توزیع شکل بسته تعریف کنم؟ |
72424 | در رگرسیون OLS: $$Y=\beta_0+\beta_1 X_1+ \beta_2 X_2+\beta_3 X_3 + \beta_4 X_4+\beta_5 X_5+\beta_6 X_6 + \varepsilon،$$$\varepsilon$ چیست؟ آیا نویز گاوسی است یا خطای تصادفی؟ چه تفاوتی دارد؟ چرا آن را به مدل رگرسیون چندگانه اضافه می کنیم؟ در اکثر مقالات، نویسندگان آن را به خطای تصادفی اما بدون توضیح ارجاع می دهند. من به یک دلیل ساده و خوب نیاز دارم که چرا نویسندگان آن را به مدل خود اضافه کنند. | خطای تصادفی در رگرسیون OLS چیست؟ و چه ارتباطی با نویز گاوسی دارد؟ |
3947 | من اصول اولیه هدف ماشینهای بردار پشتیبان را از نظر طبقهبندی یک مجموعه ورودی به چندین کلاس مختلف میدانم، اما چیزی که نمیفهمم برخی از جزئیات دقیق است. برای شروع، من با استفاده از متغیرهای Slack کمی گیج شده ام. هدف آنها چیست؟ من در حال انجام یک مشکل طبقه بندی هستم که در آن فشار را از حسگرهایی که روی کفی کفش قرار داده ام گرفته ام. در حالی که داده های فشار ثبت می شود، یک سوژه چند دقیقه می نشیند، می ایستد و راه می رود. من میخواهم طبقهبندیکنندهای را آموزش دهم تا بتواند تعیین کند که آیا یک فرد نشسته، ایستاده یا راه میرود و بتواند این کار را برای دادههای آزمایشی آینده انجام دهد. چه نوع طبقه بندی کننده ای را باید امتحان کنم؟ بهترین راه برای آموزش طبقه بندی کننده از روی داده هایی که گرفته ام چیست؟ من 1000 ورودی برای نشستن، ایستادن و راه رفتن دارم (3x1000=3000 در مجموع)، و همه آنها فرم بردار ویژگی زیر را دارند. (فشار از حسگر 1، فشار از حسگر 2، فشار از حسگر 3، فشار از حسگر 4) | به من کمک کنید ماشینهای بردار پشتیبانی را درک کنم |
5859 | من در مورد اینکه چگونه تصمیم بگیرم در تحلیل بقا، زمان را پیوسته یا گسسته در نظر بگیرم گیج شده ام. به طور خاص، من می خواهم از تجزیه و تحلیل بقا برای شناسایی متغیرهای سطح کودک و خانواده استفاده کنم که بیشترین اختلاف را در تأثیر آنها بر بقای پسران در مقابل دختران (تا سن 5 سالگی) دارند. من مجموعه داده ای از سن کودک (به ماه) به همراه شاخصی برای زنده بودن کودک، سن مرگ (به ماه) و سایر متغیرهای سطح کودک و خانواده دارم. از آنجایی که زمان بر حسب ماه ثبت می شود و همه کودکان زیر 5 سال سن دارند، زمان های زنده ماندن زیادی وجود دارد (اغلب در فواصل نیم ساله: 0mos، 6mos، 12mos، و غیره). بر اساس آنچه در مورد تجزیه و تحلیل بقا خواندهام، داشتن زمانهای متقابل بقا باعث میشود فکر کنم باید زمان را گسسته تلقی کنم. با این حال، من چندین مطالعه دیگر را خوانده ام که در آنها زمان بقا بر حسب سال است (و مطمئناً زمان بقای مرتبطی وجود دارد) و از روش های زمان پیوسته مانند خطرات متناسب کاکس استفاده شده است. معیارهایی که باید برای تصمیم گیری در مورد اینکه زمان را پیوسته یا گسسته در نظر بگیرم چیست؟ برای دادهها و سؤال من، استفاده از برخی مدلهای زمان پیوسته (کاکس، وایبول، و غیره) برای من حس شهودی دارد، اما به نظر میرسد ماهیت گسسته دادههای من و مقدار زمانهای بقای مرتبط چیز دیگری را نشان میدهد. | تجزیه و تحلیل بقا: پیوسته در مقابل زمان گسسته |
48356 | فرض کنید $X_n$ در توزیع به $X$، $x_n \rightarrow x$ همگرا شود، همچنین تابع توزیع تجمعی برای $X$ در $x$ پیوسته است. نشان دهید که $ P(X_n \leq x_n) \rightarrow P(X \leq x)$. PS: از آنجایی که $F_n(x_n) \subseteq [0,1]$ و $[0,1]$ فشرده است، $F_n(x_n)$ حداقل یک دنباله فرعی دارد که به y همگرا می شود. چگونه ثابت کنیم که $y = F(x)$؟ | همگرایی در توزیع و CDF |
7467 | ## پیشینه من بر ورود داده ها از ادبیات اولیه به یک پایگاه داده نظارت می کنم. فرآیند ورود داده ها مستعد خطا است، به ویژه به این دلیل که کاربران باید طراحی آزمایشی را تفسیر کنند، داده ها را از گرافیک ها و جداول استخراج کنند، و نتایج را به واحدهای استاندارد تبدیل کنند. داده ها از طریق یک رابط وب به پایگاه داده MySQL وارد می شوند. بیش از 10 هزار نقطه داده از بیش از 20 متغیر، بیش از 100 گونه و بیش از 500 نقل قول تا کنون گنجانده شده است. من باید کیفیت نه تنها دادههای متغیر، بلکه دادههای موجود در جداول جستجو، مانند گونههای مرتبط با هر نقطه داده، محل مطالعه و غیره را نیز بررسی کنم. ورود دادهها ادامه دارد، بنابراین QA/ QC باید به طور متناوب اجرا شود. این اطلاعات هنوز به صورت عمومی منتشر نشده است، اما ما در حال برنامه ریزی برای انتشار آنها در چند ماه آینده هستیم. در حال حاضر، QA/QC من شامل سه مرحله است: 1. کاربر دوم هر نقطه داده را بررسی میکند، 2. هیستوگرام هر متغیر را از نظر نقاط پرت بررسی میکند. 3. کاربران دادههای مشکوک را پس از به دست آوردن نتایج جعلی گزارش میکنند. آیا می توان برای توسعه یک روش QA/QC قوی برای این پایگاه داده استفاده کرد؟ 2. مرحله اول بیشترین زمان را دارد. آیا کاری وجود دارد که بتوانم برای کارآمدتر کردن این کار انجام دهم؟ | دستورالعمل های تضمین کیفیت و کنترل کیفیت (QA/QC) برای پایگاه داده |
83380 | من با سوال زیر درگیر هستم: > مدل ها را در نظر بگیرید > > \begin{align} \ln(Y)=\beta_1+\beta_2 \ln(L) + \beta_3 \ln(K)+\epsilon > \tag{ 1}\\\ > \ln(Y)-\ln(K)=\beta_1^*+\beta_2^*(\ln(L)-\ln(K))+\beta_3^*\ln(K)+\epsilon^* > \tag{2}\\\ \ln(Y)-\ln(K)=\beta_1^\\# +\beta_2^\\# (\ln(L) -\ln(K)) + > \epsilon^\\# \tag{3}\\\ \end{align} > > یافتن 3 رابطه بین پارامترهای $(\beta_1,\beta_2,\beta_3)$ در مدل > (1) و $( \beta_1^*,\beta_2^*,\beta_3^*)$ در مدل (2). تحت چه شرایطی می توان مدل را به عنوان مدل (3) بازنویسی کرد، و روابط بین $(\beta_1,\beta_2,\beta_3)$ و > $(\beta_1^\\#,\beta_2^\ چیست؟ \#)$ در (3)؟ با انجام مقداری بازنویسی، می توانم به رابطه ای بین پارامترهای (1) و (2) برسم. اما من نمی فهمم این 3 رابطه یعنی چه. من فکر می کنم شرط نگه داشتن مدل 3 این است که $\beta_3=0$. لطفاً کسی می تواند نکات بیشتری در مورد این سؤال به من بدهد، زیرا من نمی دانم که آیا مطالب را به درستی تفسیر می کنم یا خیر. | سوال رگرسیون خطی |
85593 | من از جنگل رگرسیون استفاده می کنم. وقتی توزیع چندک خروجی جنگل را ترسیم میکنم متوجه شدم این است که در طول چندک طولانی (مثلاً $\tau در [0.1,0.3]$)، خروجیها همگی عدد یکسان را به خود میگیرند. من حدس می زنم که این از پراکندگی متغیر پاسخ من و ویژگی های توزیعی ویژگی های من (و همچنین کم عمق بودن درختان من) ناشی می شود. برخی از تنظیمات هایپرپارامتر (یا روش های دیگر) که می توانم برای ایجاد تداوم بیشتر در خروجی جنگل استفاده کنم چیست؟ بهترین حالت خروجی مدل خطی خواهد بود. هدف من رسیدن به این هدف بدون تعمیم زخمی است (که ممکن است امکان پذیر نباشد). برخی از آسیب های تعمیم قابل قبول است (یعنی تنظیمات فراپارامتر زیر بهینه) اگر به این معنی باشد که بتوانم از مدل برای تصمیم گیری آسان تر استفاده کنم. | چگونه تداوم بیشتری در خروجی جنگل رگرسیونی بدست آوریم |
81539 | من مجموعه داده بزرگی از متغیرهای طبقه بندی دارم. داده ها شامل خریدارانی است که در طی یک سفر به یک فروشگاه دو کالا را خریداری کرده اند. تقریباً 75000 کیس و 1500 محصول مختلف وجود دارد. من قصد دارم دادهها را با استفاده از تحلیل خوشهای TwoStep خوشهبندی کنم (میدانم که برای دادههای بزرگ است؛ اگرچه مطمئن نیستم که بهترین راهحل باشد، اما ممکن است روشهای خوشهبندی دیگری را نیز در نظر بگیرم). دادههای خام به این شکل جمعآوری شد (پاسخدهنده 1 دو مورد را در سه بازدید جداگانه خریداری کرد):  بهترین شکل برای این چیست؟ اگر بخواهم کاربرانی را که محصولات مشابه خریداری کردهاند خوشهبندی کنم، دادهها برای خوشهبندی قرار میگیرند؟ می دانم که برای هر پاسخ دهنده به یک ردیف/مورد نیاز دارم. بنابراین، من فکر می کردم که این کافی است (گزینه 1):  با این حال، من به طور مداوم یک راه حل یک خوشه ای دریافت می کنم (بر اساس خوشه بندی خودکار) و راه حل های ضعیف وقتی تعداد خوشه ها را مشخص می کنم. من مطمئن نیستم که آیا واقعاً اینطور است یا داده های من به درستی شکل نگرفته اند. گزینه دیگر شکل دادن به داده ها به این صورت خواهد بود (گزینه 2):  اما من مطمئن نیستم که پیامدهای آن چیست مطرح می کند. یکی از مزایای گزینه 2 که می توانم به آن فکر کنم این است که به طور بالقوه می توانم تکنیک های خوشه بندی اضافی مانند K-means یا Hierarchical را امتحان کنم. | از چه ساختار داده ای برای تجزیه و تحلیل خوشه ای استفاده کنم یا از چه تحلیل خوشه ای برای داده های خود استفاده کنم؟ |
109841 | من مایلم نتایج متاآنالیز خود را با استفاده از بهترین شیوه های ممکن ارائه دهم. با این حال، من نمونه هایی را در مقالات مشابه آنچه خروجی من است پیدا نمی کنم. در اینجا مدل و خروجی من ساده شده است (با استفاده از تابع «rma» از بسته «Metafor»، «R»). rma (yi، vi، mods = ~ varA + varB) برای کسانی که با rma آشنا نیستند، این خط مدلهای اثر ترکیبی متاآنالیز را با 2 تعدیلکننده، متغیر «A» و متغیر «B» کد میکند. فرض کنید varA دارای 2 سطح طبقه بندی و varB دارای 3 سطح طبقه بندی است. خروجی مشابه این خواهد بود، بدون هیچ عددی: intercept - تخمین، آمار، p-value، 95% IC varA.level2 - تخمین، آمار، p-value، 95% IC varB.level2 - تخمین، آمار، p- مقدار، 95% IC varB.level3 - تخمین، آمار، p-value، 95% IC همه آن سطوح متغیر به طور قابل توجهی متفاوت از رهگیری من با varA مشکلی ندارم. به راحتی می توانم بگویم که «سطح 1» با «سطح 2» متفاوت است و آمار و مقدار p را برای «varA.level2» گزارش کنم. اما «varB» چطور؟ «سطح 1» با «سطح 2»، «سطح 1» با «سطح 3» متفاوت است... اما آیا «سطح 2» با «3» متفاوت است؟ در این مورد چه چیزی را در مقاله ای گزارش می کنید؟ با تشکر از بینش یا ارجاع به مقالات، کتاب ها... | ارائه نتایج یک متاآنالیز با چند ناظر؟ |
52390 | من خوانده ام که برای ANOVA یک طرفه، باید بررسی کنید که باقیمانده های مدل به طور معمول توزیع شده باشند. اگر واریانس هر گروه همگن باشد، این نشان میدهد که باقیماندهها با هر گروهی که مقایسه میشوند نیز به طور معمول توزیع میشوند، بنابراین فرض کنید داریم یک ANOVA را برای مقایسه میانگینها برای دو گروه انجام میدهیم. داده های هر گروه شبیه یک توزیع اریب است و هر دو دارای واریانس تقریباً مساوی هستند اما یک گروه دارای انحراف مثبت و گروه دیگر دارای انحراف منفی هستند. یک هیستوگرام یا نمودار QQ از باقیمانده های مدل احتمالاً نرمال بودن باقیمانده ها و در نتیجه نرمال بودن هر گروه را نشان می دهد. با این حال به وضوح این مورد نیست. بنابراین سوال من این است که چه چیزی را از دست داده ام؟ | نمودار QQ با نرمال بودن زمانی که زیرگروه ها غیرعادی هستند سازگار است |
85596 | تازه وارد اینجام به پیش بینی و من یه سوال خیلی اساسی دارم. من 2 داده سری زمانی مجزا دارم. * سری زمانی A هفتگی است (فرکانس بالا) * سری زمانی B ماهانه است (فرکانس پایین) من باید A را با استفاده از B پیش بینی کنم. من به مقاله Armesto و همکاران در مورد پیش بینی با فرکانس های مختلط نگاه کردم و همچنین به راهنمای کاربر midasr نگاه کردم . هر دو در مورد پیش بینی متغیر فرکانس پایین با فرکانس بالا صحبت می کنند. اما آیا می توان از همین رویکرد برای پیش بینی داده های هفتگی با استفاده از داده های سری زمانی ماهانه استفاده کرد؟ متأسفانه داده هایی که در دسترس من است در آن قالب است. با توجه به آنچه من فهمیدم، تقریباً مطمئن هستم که می توان آن را انجام داد، اما امیدوار بودم کسی بتواند تایید کند. همچنین، آیا نکته مهمی وجود دارد که باید هنگام اجرای این پیش بینی مراقب آن باشم؟ | پیش بینی متغیر فرکانس بالا با پیش بینی کننده فرکانس پایین |
10897 | من می خواهم توزیع احتمال را برای طول قطعاتی که با تکه تکه کردن یک میله خطی به طول $L$ به روش زیر بدست میآورم محاسبه کنم: 1. نقاط شکست $n$ را به صورت تصادفی (یکنواخت) انتخاب میکنم. 2. برش میدهم. میله در آن نقاط شکست، ایجاد قطعات $(n+1)$. در حال حاضر، در حالی که به راحتی می توان دید که احتمال اینکه یک کشش به طول $x$ حاوی هیچ نقطه شکستی نباشد مانند یک نمایی منفی است، من نمی دانم چگونه اطلاعات مربوط به طول میله را وارد کنم. | توزیع احتمال طول قطعه |
5850 | با توجه به یک متغیر تصادفی $X_1$ از توزیعی با cdf $F$ و متغیرهای تصادفی $X_2, \cdots,X_n$ که از توزیع دیگری با cdf $G$ گرفته شده است، فرمول احتمال X_1$ چیست؟ $k$-th از متغیرهای $n$، زمانی که آنها به ترتیب مرتب شوند. اگر کمک می کند، فرض کنید که $F$ و $G$ هر دو در [0,1] تعریف شده اند، با چگالی مثبت در همه جا. | آمار سفارش: متغیر تصادفی احتمال k-امین از n در هنگام سفارش است |
95958 | من سعی می کنم بفهمم که چگونه می توان خطای رگرسیون خطی را برای نمودار پراکندگی شکل فوتبال به دست آورد. فرض کنید من دو توزیع دارم که با ضریب $r$ همبستگی دارند. علاوه بر این، این دو توزیع دارای میانگین $\mu_1$ و $\mu_2$ و انحراف استاندارد $\sigma_1$ و $\sigma_2$ هستند. چگونه از این داده ها برای رگرسیون خطی خطا بدست آوریم؟ | از انحراف استاندارد تا خطای رگرسیون خطی |
97773 | میخواهم بررسی کنم که آیا موشهای صحرایی من در طول زمان بهبودی حرکتی را نشان میدهند (یعنی روند منفی در خطاهای انجام شده). از کدام آزمایش بهتر می توانم استفاده کنم تا ببینم آیا نتایج من (خطاهای حرکتی انجام شده توسط موش ها) در طول زمان افزایش یا کاهش خطی را نشان می دهد؟ نتایج من همه به صورت غیر پارامتری توزیع شده است. با تشکر | چگونه میزان خطا را در طول زمان تعیین کنیم؟ |
43699 | من مبتدی ابزار R هستم. من یک سوال در مورد چگونگی دانستن عملکرد یک مدل رگرسیون خطی با استفاده از داده های اعتبار سنجی دارم. رویکرد من این بود 1. ایجاد مجموعه داده های آموزشی و اعتبار سنجی از مجموعه داده های اصلی. train نام مجموعه داده های آموزشی من است و valid نام مجموعه داده های اعتبارسنجی من است. category متغیر هدف من خواهد بود و date_time متغیر مستقل من است. 2. از مجموعه داده های آموزشی برای ایجاد یک مدل رگرسیون استفاده کنید > attach(train) > > lreg=lm(category~date_time) 3. اکنون پیش بینی هایی را برای مجموعه داده های اعتبار سنجی با استفاده از مدل ایجاد شده با مجموعه داده های آموزشی انجام دهید > p=predict(lreg,valid ) 4. اکنون با یافتن مقادیر ACC, AUC دقت را بررسی کنید. > mmetric(valid$category,p,AUC) > > mmetric(valid$category,p,ACC) حال اگر AUC و ACC مقادیر کمی داشته باشند، به این معنی است که مدل ایجاد شده توسط مجموعه داده های آموزشی در ساختن خوب نیست. پیش بینی ها آیا رویکرد من صحیح است؟ با تشکر و احترام! | بررسی عملکرد مدل رگرسیون |
17387 | من داده های زیر را دارم و واقعاً مطمئن نیستم که چگونه آن را تجزیه و تحلیل کنم. توضیح سناریوی واقعی خیلی طول میکشد، بنابراین این یک مثال مشابه است: از دو گروه از شرکتکنندگان (8=n) خواسته میشود تا یک قالب را 60 بار بچرخانند (هر شرکتکننده 60 بار میپیچد) و تعداد آنها را ثبت کنند. سپس نسبتهای نسبی هر عدد برای هر شرکتکننده برای هر یک از دو گروه میانگین میشود، بنابراین چیزی شبیه به این داریم: GROUP 1 Number Av.f 1. 10 2. 10 3. 10 4. 10 5. 10 6. 10 GROUP 2. شماره Av.f 1. 15 2. 15 3. 15 4. 5 5. 5 6. 5 من میدانم که اگر این فرکانسها ساده بودند، میتوانم از مربع کای استفاده کنم، اما اینها میانگین فرکانسهای با واریانس هستند. در عین حال، من نمی توانم از ANOVA استفاده کنم زیرا ابزارها مستقل از یکدیگر نیستند. (اگر من میانگین فراوانی 5 عدد از اعداد را بدانم، می توانم میانگین 6 را تعیین کنم.) حتی اگر فقط 5 عدد از 6 عدد را تجزیه و تحلیل کنم، این کمکی نمی کند مگر اینکه ANOVA به نحوی بداند که مجموع باید چقدر باشد. آیا کسی تستی میشناسد که به من اجازه دهد ببینم آیا دو گروه در توزیع دای رولها با هم تفاوت دارند؟ خیلی ممنون!! ملیسا | تجزیه و تحلیل تفاوت های گروهی در نسبت های متوسط |
13605 | من چندین سال است که از R استفاده می کنم، اما همیشه از رابط کاربری گرافیکی مانند Tinn-R، JGR و اخیراً R-Studio استفاده کرده ام. اگرچه رابط کاربری R-Studio را دوست دارم، اما احساس میکنم برای برنامههای طولانیتر با گرافیک کم/بدون گرافیک، میتوانم با بهرهگیری از میانبرهای ارائهشده توسط یک ویرایشگر متن ابتداییتر مانند Emacs، کدنویسی کارآمدتری داشته باشم. من Emacs و افزونه ESS را نصب کردم، همه چیز به درستی کار می کند و کدهایی را تست کرده ام، اما برای عادت کردن به آن مشکل دارم و راهنمای مرجع مناسبی پیدا نکردم. جستجوهای گوگل چند وب سایت بسیار قدیمی را با آموزش هایی که در درجه اول بر نصب و پیکربندی افزونه ها تمرکز دارند برمی گرداند و کتابچه راهنمای موجود در وب سایت رسمی برای من کمی بیش از حد متراکم است. من به دنبال یک مقدمه نسبتا کوتاه هستم، (به طور ایده آل با اسکرین شات و لیستی از کلیدهای میانبر) که برای کسی که با R آشنا است، اما نه Emacs، طراحی شده است. هر گونه مرجع یا نکات دیگری در مورد شروع کار بسیار قدردانی خواهد شد. | برخی از مراجع/توصیه های خوب برای یادگیری Emacs Speaks Statistics (با R) چیست؟ |
10890 | تفاوت بین درون زایی و ناهمگونی مشاهده نشده چیست؟ می دانم که درون زایی مثلاً از متغیرهای حذف شده می آید؟ اما تا آنجا که من متوجه شدم، ناهمگونی مشاهده نشده باعث همین مشکل می شود. اما دقیقاً تفاوت بین این دو مفهوم در کجاست؟ | درون زایی در مقابل ناهمگونی مشاهده نشده |
94581 | من یک متغیر وابسته ترتیبی دارم، easiness، که از 1 (نه آسان) تا 5 (بسیار آسان) متغیر است. افزایش در مقادیر عوامل مستقل با افزایش درجه سهولت همراه است. دو تا از متغیرهای مستقل من ('condA' و 'condB') دسته بندی هستند، هر کدام دارای 2 سطح، و 2 ('abilityA'، 'abilityB') پیوسته هستند. من از بسته ترتیبی در R استفاده می کنم، جایی که از چیزی استفاده می کند که من فکر می کنم $$\text{logit}(p(Y \leqslant g)) = \ln \frac{p(Y \leqslant g)}{p (Y > g)} = \beta_{0_g} - (\beta_{1} X_{1} + \dots + \beta_{p} X_{p}) \quad(g = 1، \ldots, k-1)$$ (از پاسخ @caracal در اینجا) من این را به طور مستقل یاد میگیرم و از هر کمکی که ممکن است قدردانی میکنم زیرا هنوز در حال مبارزه با آن هستم. علاوه بر آموزش های همراه بسته ترتیبی، موارد زیر را نیز مفید دانستم: * تفسیر رگرسیون لجستیک ترتیبی * ضریب منفی در رگرسیون لجستیک مرتب شده اما من سعی می کنم نتایج را تفسیر کنم، و منابع مختلف را کنار هم قرار دهم. و دارم گیر می کنم 1. من بسیاری از توضیحات مختلف را خوانده ام، چه انتزاعی و چه کاربردی، اما هنوز به سختی می توانم ذهن خود را در مورد معنای گفتن بگم: > با افزایش 1 واحدی در condB (یعنی تغییر از یک سطح به سطح بعدی > از پیشبینیکننده طبقهای)، شانس پیشبینیشده برای مشاهده Y = 5 در مقابل > Y = 1 تا 4 (و همچنین شانس پیشبینیشده مشاهدهشده Y = 4 در مقابل Y = 1 به > 3) با ضریب exp (بتا) تغییر می کند که برای نمودار، exp(0.457) = 1.58 است. الف آیا این برای متغیرهای مستقل طبقه بندی و پیوسته متفاوت است؟ ب بخشی از مشکل من ممکن است با ایده شانس تجمعی و آن مقایسه ها باشد. ... آیا منصفانه است که بگوییم رفتن از condA = غایب (سطح مرجع) به condA = حاضر، 1.58 برابر بیشتر احتمال دارد که در سطح بالاتری از سهولت رتبه بندی شود؟ من تقریباً مطمئن هستم که درست نیست، اما مطمئن نیستم که چگونه آن را به درستی بیان کنم. از نظر گرافیکی 1\. با پیادهسازی کد موجود در این پست، من گیج شدم که چرا مقادیر «احتمال» بهدستآمده اینقدر زیاد است. 2\. نمودار p (Y = g) در این پست برای من بسیار منطقی است ... با تفسیری از احتمال مشاهده یک دسته خاص از Y در مقدار خاص X. دلیل اینکه من سعی می کنم نمودار را بدست بیاورم. در وهله اول درک بهتری از نتایج به طور کلی است. این خروجی از مدل من است: m1c2 <- clmm (آسانی ~ condA + condB + abilityA + abilityB + (1|محتوا) + (1|ID)، داده = d، na.action = na.omit) خلاصه (m1c2) مدل ترکیبی پیوند تجمعی با فرمول تقریبی لاپلاس نصب شده است: easiness ~ illus2 + dx2 + abilEM_obli + valueEM_obli + (1 | محتوا) + (1 | ID) داده: d link threshold nobs logLik AIC niter max.grad logit flexible 366 -468.44 956.88 729(3615) 4.36e-04 cond.H 014 effect. : واریانس نام گروه ها Std.Dev. ID (Intercept) 2.90 1.70 content (Intercept) 0.24 0.49 تعداد گروه ها: ID 92، محتوا 4 ضرایب: Estimate Std. خطای z مقدار Pr(>|z|) condA 0.681 0.213 3.20 0.0014 ** condB 0.457 0.211 2.17 0.0303 * abilityA 1.148 0.255 4.51 6.5 0.7B 006 2.34 0.0195 * ضرایب آستانه: برآورد Std. خطای z مقدار 1|2 -3.500 0.438 -7.99 2|3 -1.545 0.378 -4.08 3|4 0.193 0.366 0.53 4|5 2.121 0.385 5.50 | رگرسیون لجستیک ترتیبی را ترسیم و تفسیر کنید |
77042 | من سعی می کنم تفاوت بین تست تقسیم A/B و تست ANOVA را بفهمم و به این مقاله برخوردم. این نشان می دهد که میانگین $n$ متغیرهای تصادفی مستقل برنولی معمولاً توزیع شده است. آیا این حقیقت دارد؟ اگر یک متغیر تصادفی $y$ داشته باشم که از توزیع برنولی پیروی می کند: $F(\theta) = \theta^{y}(1-\theta)^{1-y}$ و مقادیر 1 یا 0 را می گیرد، آیا میانگین $n$ این متغیرها به طور معمول توزیع می شود؟ $\frac{1}{n}\sum y_{i}$ | آیا میانگین n متغیر تصادفی مستقل برنولی نرمال است؟ |
2315 | یکی از کاربران قبلی این سوال را به طور خاص برای R پرسیده است. من می خواهم بدانم چه نرم افزار دیگری می تواند این کار را انجام دهد. | چه نرم افزاری امکان اندازه گیری های تکراری غیر پارامتریک چند طرفه Anova را می دهد؟ |
5854 | من روی ایجاد یک وب سایت کار می کنم که داده های سرشماری را برای چند ضلعی های انتخاب شده کاربر نمایش می دهد و می خواهد توزیع پارامترهای مختلف را به صورت گرافیکی نشان دهد (یک نمودار در هر پارامتر). داده ها معمولاً دارای ویژگی های زیر هستند: 1. حجم نمونه بزرگ است (مثلاً حدود 10000 نقطه داده) 2. دامنه مقادیر بسیار زیاد است (مثلاً حداقل جمعیت می تواند کمتر از 100 و حداکثر باشد. می تواند چیزی در حدود 500000 باشد. 3. q1 معمولاً نزدیک به حداقل است (مثلاً 200) در حالی که q2 و q3 در 10000 خواهد بود. 4. چیزی شبیه توزیع نرمال به نظر نمی رسد. من می خواهم این توزیع را بر روی یک نمودار نشان دهم که توسط شهروندان (در صورت تمایل افراد غیر عادی) مشاهده می شود. من دوست داشتم از هیستوگرام استفاده کنم، اما به دلیل گستره وسیع مقادیر، امکان پذیر نیست، به همین دلیل ساخت سطل ها واقعا آسان و مستقیم نیست. با توجه به اطلاعات کمی که در مورد آمار دارم، نمودار جعبه چیزی است که اغلب برای نشان دادن این نوع داده ها استفاده می شود، اما من احساس می کنم که برای افراد غیرمستقیم، رمزگشایی نمودار جعبه آسان نیست. گزینه های من برای نشان دادن این داده ها به شیوه ای آسان چیست؟ | چند جایگزین برای باکس پلات چیست؟ |
90829 | اخیراً من در حال کار بر روی برخی از مشکلات استخراج قانون انجمن هستم. من آموخته ام که در مرحله پس از استخراج، از بسیاری از معیارهای آماری، مانند بالا بردن، پوشش، و قانع کردن، می توان برای ارزیابی جالب بودن قوانین استفاده کرد. برای مورد من از آسانسور استفاده می کنم. من می دانم که لیفت نشان می دهد که آیا یک قانون به طور تصادفی به دست می آید یا خیر. اگر یک بالابر بزرگتر از 1 باشد، نشان دهنده آن است که وقوع مقدمه تأثیر مثبتی بر وقوع نتیجه دارد. در حالی که بالابر کوچکتر از 1 نشان دهنده همبستگی منفی بین پیشین و نتیجه است. همانطور که عمیق تر در مسئله خود کاوش می کنم، می خواهم از این قوانین برای ارزیابی طبیعی بودن یا نبودن یک مشاهده استفاده کنم. بگوییم اگر یک مشاهده با مقدمه قاعده و نتیجه آن مطابقت داشته باشد، چنین مشاهده ای «عادی» است. اگر چنین مشاهده ای مقدم را برآورده کند، اما نتیجه را نداشته باشد، «غیر طبیعی» است. سوال من این است که آیا می توانم از مقدار لیفت قانون برای تعیین کمیت میزان ناهنجاری استفاده کنم؟ به عنوان مثال، مشاهده A یک قانون با بالابر 3 را نقض می کند، و مشاهده B یک قانون با بالابر 2 را نقض می کند. آیا می توانم بگویم که در این مورد، مشاهده غیر طبیعی تر از B است؟ حدس می زنم در مورد معنای بالابر 100٪ مطمئن نیستم. آیا می توانم از آن به عنوان یک شاخص برای چنین برنامه هایی استفاده کنم؟ پیشاپیش برای هر کمکی متشکرم! | استفاده از آمار قوانین در طبقه بندی |
63930 | من یک رگرسیون خطی دارم که کاملاً خوب است، حدس میزنم (برای یک پروژه دانشگاهی است، بنابراین واقعاً لازم نیست دقیق باشم). نکته این است که اگر من باقیمانده ها را در مقابل مقادیر پیش بینی شده رسم کنم، (به گفته معلم من) اشاره ای به ناهمسانی وجود دارد. اما اگر Q-Q-Plot باقیمانده ها را رسم کنم، واضح است که آنها به طور معمول توزیع شده اند. علاوه بر این، آزمایش Shapiro روی باقیماندهها دارای $p$-value 0.8$ است، بنابراین فکر میکنم شکی نیست که باقیماندهها واقعاً به طور معمول توزیع شدهاند. **سوال:** اگر باقیمانده ها به طور معمول توزیع شوند، چگونه می توان در مقادیر پیش بینی شده ناهمگونی وجود داشت؟ | هتروسکداستیکی و نرمال بودن باقیمانده |
43697 | من یک مدل رگرسیونی OLS ساده را از نوع تخمین می زنم: $y = \beta X + u$ پس از تخمین مدل، باید ترکیب وزنی از ضرایب ایجاد کنم (به عنوان مثال $w_1 \beta_1 + w_2 \beta_2$) و تخمین بزنم. خطاهای استاندارد برای آمار ترکیبی روش صحیح محاسبه خطاهای استاندارد مجموع ضرایب چیست؟ من تا اینجا رسیده ام: من موارد زیادی دارم، بنابراین می توان گفت که فرض عادی بودن مجانبی برآورده می شود. بیایید خطاهای استاندارد $s_1$ و $s_2$ را به ترتیب برای $\beta_1$ و $\beta_2$ بنامیم. اگر $\beta$ تخمینهای مستقلی بود، میتوانیم از تابع مجموع نرمالها استفاده کنیم تا بگوییم که واریانس $\beta_1+\beta_2$ $w_1^2s_1^2 + w_2^2s_2^2$ است. اما اگر عمیقاً در اشتباه نباشم، $\beta_1$ و $\beta_2$ مستقل نیستند. آیا راه ساده ای برای تا زدن ماتریس واریانس-کوواریانس $X$ برای حل این مشکل وجود دارد؟ | چگونه خطاهای استاندارد را برای مجموع ضرایب OLS محاسبه کنم؟ |
94580 | یکی از دوستان من باید یک GMM غیر خطی را روی داده های پنل تخمین بزند. همانطور که بررسی کردم، نرم افزارهای Panel GMM فقط فرم های خطی را تخمین می زنند (STATA gmm، xtabond، ...؛ R pgmm از بسته plm). چگونه می توانم تخمین GMM پانل دینامیکی غیرخطی انجام دهم؟ | GMM غیر خطی برای داده های پانل پویا |
81537 | من در حال حاضر در حال آزمایش با gridsearch برای آموزش یک ماشین بردار پشتیبانی هستم. من میدانم که اگر پارامتر گاما و C داشته باشم، تابع R tune.svm یک اعتبارسنجی متقاطع 10 برابری را برای همه ترکیبهای این 2 پارامتر انجام میدهد. از آنجایی که نمی دانستم چگونه شروع کنم، سعی کردم اطلاعاتی در مورد آن به دست بیاورم، به عنوان مثال wikipedia2 مقادیری را پیشنهاد می کند که خطی نیستند، به عنوان مثال. C در محدوده {10، 100، 1000}. تا کنون از مثالهای پیوند دوم ویکیپدیای خود استفاده میکنم که عبارتند از: گاما = 2^(-15:3) هزینه = 2^(-5:15) که به 399 ترکیب میرسد. این کار بسیار بسیار طولانی طول می کشد (2000 نمونه). به عنوان مثال برای هسته شعاعی بهترین نتیجه من گاما = 0.5 و هزینه = 2 است. آیا اگر فقط از مقادیری مانند (1، 2، 3، 4، ... 10) برای هزینه ها استفاده کنم، نمی توانم همان نتیجه را بگیرم. و (0، 0.5، 1، 1.5، 2) برای گاما؟ من می دانم که این مثال ساخته شده است زیرا من از قبل نتیجه را می دانم. سوال من: **اما چرا این مقیاس نمایی؟** مقادیر زیادی بین 0 و 1 وجود دارد که فکر می کنم این اتلاف زمان محاسباتی است و فقط تعداد کمی بسیار بزرگ است که به هر حال نمی تواند نتیجه خیلی دقیقی پیدا کند. . اگر از این برای یافتن یک محدوده کوچکتر استفاده شود، برای من منطقی است، فرض کنید می دانیم که بهترین هزینه 2^3 است و سپس آن را جستجو می کنیم. اما هیچ جا ذکر نشده است که اینگونه اجرا شود. | شبکه برای تخمین پارامتر SVM جستجو کنید |
81530 | من نتایج 50 آزمایش انجام شده را دارم. تنها نتایجی که من دارم شکست ساختاری یا عدم شکست ساختاری (رفتن یا نرفتن) است. متغیر ورودی من یک بار خارجی است. بگوییم که ساختار من x چند بار شکست خورده است و y بارها خراب نشده است. روش اصلی من برای ایجاد یک توزیع احتمال، همبستگی بار خارجی با نتایج شکست بود. با این حال، با اصول فیزیکی و پیشرفتهای فنآوری، عمدتاً در تحلیل اجزای محدود، درک بهتری از آنچه در موادم میگذرد دارم و میخواهم تنشهای داخلی را با نتایج شکست مرتبط کنم، نه همبستگی سنتی بار-شکست. پس از شبیه سازی هر آزمایش با بارها و شرایط مناسب، مجموعه ای از عناصر با مقادیر تنش قابل مشاهده را دارم. برای تجسم تصویر را ببینید: lnengineering.com/fe.jpg  من می دانم که کدام آزمایش شکست خورده و کدام آزمایش انجام نشد. اکنون میخواهم تنشهای مشاهدهشده را برای هر شبیهسازی به هم مرتبط کنم و یک توزیع احتمال بر اساس آن مقادیر ایجاد کنم. شهود فیزیکی می گوید که شکست به احتمال زیاد در نقطه ای با بیشترین استرس (در تصویر، نقطه قرمز نزدیک به بالا) رخ می دهد. یک راه ساده برای ارتباط استرس داخلی و شکست این است که برای هر شبیه سازی نقطه (عنصر) با بیشترین تنش را انتخاب کنید و با استفاده از آن مقادیر، توزیعی ایجاد کنید. با این حال، کاملاً ممکن است که شکست در نقطه ای از نارنجی (البته با احتمال کمتر) یا حتی سبز (با احتمال کمتر) رخ دهد. مانند برگرداندن یک سکه شماره دار با 1 یا 2 روی آن، چرخاندن قالب 6 وجهی و چرخاندن یک قالب هزار وجهی است، و اگر عدد 1 را دریافت کنم، ساختار من از کار می افتد. روش سنتی من میگوید نقطهای را با بالاترین احتمال انتخاب کنید (سکه = قرمز) و از آن برای ارتباط بین شکست استفاده کنید. اگرچه روش ظریف تر و دقیق تر، محاسبه با استفاده از احتمال کل است. تنها مشکل این است که من از احتمال ذاتی نقاط خود اطلاعی ندارم، فقط مقادیر تنش اندازه گیری شده آنها را نمی دانم. من میخواهم اکثر یا تمام استرسهایم را در بر بگیرم و از آنها برای ایجاد یک توزیع احتمال استفاده کنم، نه لزوماً با گرفتن یک مقدار متوسط، زیرا هزاران عنصر وجود دارند که مقادیر مهم را منحرف میکنند. اگر کسی بینشی در مورد راه مناسبی برای مقابله یا ارزیابی این مشکل داشته باشد، بسیار سپاسگزار خواهم بود. | مدل سازی احتمالی بر اساس نتایج اجزای محدود مجموع |
97776 | من با گروههای موسیقی کار میکنم و حاضرم عمیقاً در کار باشم. من سوابق تاریخی مربوط به موارد زیر را دارم: * مشاهدات یک متغیر * پیش بینی های تاریخی برای همان متغیر برای پیش بینی های تک ارزشی آینده همان متغیر، می خواهم از داده های تاریخی برای تولید مجموعه ها استفاده کنم. من روش های آماری اولیه مانند نمونه برداری از توزیع های مشترک را بررسی کرده ام. سؤالات من این است: * آخرین الگوریتم ها/رویکردها برای این کار چه نوع ارائه شده است؟ * من از رویکرد نتفلیکس برای یادگیری گروهی اطلاع دارم. چگونه می توان این را برای مشکل من اعمال کرد؟ داده ها می توانند یک سری زمانی یا داده های شبکه ای از ماهواره باشند. هر کسی دیگر؟ من اساساً چیزی می خواهم که جدید و سریع باشد. من مایلم انواع مختلفی از روش ها را برای تولید این مجموعه ها کشف کنم. هر گونه ارجاع به کدها و مقالات بیشتر از آن استقبال می شود. با تشکر | جدیدترین روش های تولید مجموعه چیست؟ |
82924 | من یک مشکل 2 کلاسه دارم که شامل بسیاری از ویژگی ها است. آیا طبقهبندیکننده ماشین بردار پشتیبان خطی (SVM) فقط مقادیر این ویژگیها را در نظر میگیرد و نه بیشتر؟ آیا روابط بین متغیرها را می بیند؟ به عنوان مثال، آیا این کار به این صورت است: اگر ویژگی شماره 80 0 است، ویژگی 2: برای کلاس 1 باید بیش از 0.2 باشد و اگر ویژگی شماره 80 1 باشد، ویژگی 2: باید بیش از 0.8 باشد تا باشد. در کلاس 1؟ آیا این کار را با متغیرهای زیادی به طور همزمان انجام می دهد و آیا مقادیر سایر متغیرها بر نحوه تأثیرگذاری SVM توسط متغیرهای دیگر تأثیر می گذارد؟ | SVM خطی چگونه کار می کند؟ |
90821 | من می خواهم یک سوال در مورد یک مسئله تمرینی از یک کتاب درسی بپرسم. مسئله تمرینی در مورد یافتن برآوردگرهای $\theta$ است، ابتدا با استفاده از روش گشتاورها و سپس با استفاده از تابع حداکثر درستنمایی، برای pdf زیر: $f(x) = \begin{cases} e^{-(x -\theta)}، &\mbox{if }\: x \ge \theta \\\ 0 و \mbox{در غیر این صورت}. \end{cases} $ برای بدست آوردن $\hat{\theta}$ از طریق روش لحظهها، $\bar{X} = E[X] = \int^{\infty}_\theta x e^{-( \theta -x)}dx = \theta+1، $ دادن $\hat{\theta}$ = $\bar{X}-1$. من در تلاش برای به دست آوردن یک برآوردگر با استفاده از تابع حداکثر درستنمایی گیر کرده ام. مشکل تمرینی نشان می دهد که MLE $\theta$ $min(X_i)$ است. من موارد زیر را تنظیم کردم: $L(\theta ; X_i)=\prod_{i=1}^n e^{-(x_i - \theta)}$$=e^{-\sum_{i=1}^n (x_i - \theta)}$ بر اساس یک نمودار کلی $y=e^{-x}$، آیا نمیتوان مقدار $y$ را با به حداقل رساندن مقدار x$ به حداکثر رساند؟ بنابراین آیا این بدان معناست که باید $\sum_{i=1}^n (x_i - \theta)$ را به حداقل برسانیم؟ من در اینجا گیج شدهام و از راهنماییهایی در مورد نحوه ادامه دادن قدردان خواهم بود. بابت هر گونه ریاضی ظالمانه از طرف من عذرخواهی می کنم. و پیشاپیش ممنون | روش لحظه ها و مشکل حداکثر احتمال |
56832 | حدس میزنم که پاسخ باید مثبت باشد، اما هنوز احساس میکنم چیزی درست نیست. باید نتایج کلی در ادبیات وجود داشته باشد، کسی می تواند به من کمک کند؟ | آیا هر ماتریس کوواریانس مثبت قطعی است؟ |
96795 | من روی پروژه ای در رابطه با تأثیر دما و سایر متغیرها بر فروش 3 شعبه یک نانوایی محلی کار می کنم. هدف تحقیق این است که بتوانم فروش نانوایی ها (در شهر من) را بهتر پیش بینی کنم و از این طریق در مصرف غذا صرفه جویی کنم. چه داده هایی دارم؟ من دادههای همه متغیرها را برای بیش از 3 سال (بیش از 1000 روز) دارم و نمیخواهم در مورد تفاوت فروش بین شعب مختلف چیزی بدانم، اما میانگین دادههای فروش عادی هر 3 شعبه را دریافت کنم. سوال چیست؟ هدف بدست آوردن شواهدی برای کل جمعیت نانوایی های شهر من است (تا کنون عمدتاً با استفاده از رگرسیون خطی چندگانه). اما از آنجایی که حجم نمونه به اندازه کافی بزرگ نیست (حداقل 100 شعبه نانوایی از همه شرکت های نانوایی وجود دارد) و داده ها فقط از 3 شعبه یکی از شرکت های متعدد است، در بهترین حالت یک نمونه راحت برای این جمعیت است. بنابراین میخواستم بدانم که آیا میتوانم آن را یک نمونه نماینده برای همه نانواییهای شرکت ارائهدهنده دادهها (آنها 30 شعبه دارند - از 100 شعبه در شهر - و این یک نمونه تصادفی است) نام ببرم؟ اگر اینطور نیست، چگونه نمونه را برای جمعیت همه نانوایی ها و جمعیت شرکت ها نانوایی ها می نامید؟ | نمونه کوچک، مشاهدات بسیار. آیا نمونه به اندازه کافی بزرگ است؟ |
63931 | از آنجایی که این یک آزمون دو طرفه است، قابل قبول به نظر می رسد که **من فقط می توانم 0 را رد کنم که تفاوت 0 ** است. با این حال، اگر کل بازه منفی یا مثبت باشد، می توانم بگویم که یکی از دیگری بزرگتر یا کوچکتر است (با اطمینان 1-alpha) یا آیا نیاز به آزمایش دیگری دارم؟ اگر برای اثبات بزرگتر بودن یکی از دیگری به آزمایش دیگری نیاز دارم، از کدام یک استفاده کنم؟ | اگر در آزمون t دو نمونه ای عدد صفر را رد کنم، آیا می توانم نتیجه بگیرم که تفاوت به کدام سمت می رود؟ |
13607 | بسیاری از مطالعات بالینی مبتنی بر نمونه های غیر تصادفی هستند. با این حال، اکثر آزمونهای استاندارد (مانند آزمونهای t، ANOVA، رگرسیون خطی، رگرسیون لجستیک) بر این فرض استوارند که نمونهها حاوی «اعداد تصادفی» هستند. آیا نتایج معتبر هستند اگر این نمونه های غیر تصادفی با آزمون های استاندارد تجزیه و تحلیل شوند؟ متشکرم. | آیا می توان نمونه های غیر تصادفی را با استفاده از آزمون های آماری استاندارد تجزیه و تحلیل کرد؟ |
10892 | من سعی میکنم الگوریتم مقیاسبندی چند بعدی R، «cmdscale» را روی تقریباً 2200 متغیر اجرا کنم، یعنی یک ماتریس فاصله 2200x2200. برای همیشه طول می کشد (حدود یک روز تا کنون). من چیز زیادی در مورد الگوریتم استفاده شده در زیر کاپوت نمی دانم. نماد big-O آن چیست؟ آیا الگوریتم کارآمدتر، حتی اگر تقریبی، موجود است که تنظیم و استفاده از آن آسان باشد؟ | مقیاس بندی Big-O از R's cmdscale() |
19577 | من یک مدل ترکیبی 3 سطحی را برازش میکنم و سعی میکنم خطاهای استاندارد تجربی را به جای خطاهای مبتنی بر مدل برای اثرات ثابت محاسبه کنم. هنگام تعیین گزینه تجربی در PROC MIXED، اخطاری دریافت می کنم که فقط یک موضوع موثر دارم. موضوعات زیادی در مجموعه داده ها وجود دارد، بنابراین من مطمئن نیستم که مشکل چیست. کد من اینجاست. PROC MIXED DATA = روش EngScores = ML تجربی. CLASS id t منطقه جنسیت; MODEL achieveEng = Edu سن زمان جنسی زمان *زمان / راه حل. تکرار t/type=un subject=id; رهگیری تصادفی / موضوع=منطقه; اجرا؛ | SAS proc خطاهای استاندارد تجربی را مخلوط کرد |
59631 | مشکلی که من دارم این است که توزیعی دارم که میخواهم همان شکل باقی بماند، اما میانگین و واریانس تغییر کرده است. وقتی از «scale()» در R استفاده میکنم، میتواند به یک نرمال استاندارد تغییر کند، اما برای دریافت توزیعهای دیگر مشکل دارم (همانطور که وقتی میانگین را تغییر میدهید، بر انحراف استاندارد نیز تأثیر میگذارد و بالعکس). | چگونه یک متغیر را به مثلاً میانگین = 5، sd = 10 تغییر شکل دهیم؟ |
94338 | من متغیری دارم که مقدار آن را فقط در پایان عمر محصول (که ثابت نیست) می توانم اندازه گیری کنم. مقدار متغیر، پیوسته و بین 0 تا 100، ممکن است مربوط به سن آن در آن زمان باشد. از این رو، این یک متغیر سنی است. دادههای من شامل سنین مختلف 1. مجموعهای از محصولاتی است که هنوز به پایان عمر نرسیدهاند و ارزش متغیر کمکی برای آنها ناشناخته است، و 2. مجموعهای از محصولاتی که به پایان عمر خود رسیدهاند. زمان زندگی و من ارزش متغیر کمکی و سن نهایی آنها را می دانم. بر اساس این دادهها، من میخواهم پیشبینیهایی برای توزیع متغیر کمکی برای وضعیت آینده که در آن همه محصولات در مجموعه فعلی به پایان عمر خود رسیدهاند، دریافت کنم. چگونه می توان این را تحلیل کرد؟ آیا رابطه علت و معلولی مستقیمی بین متغیر و طول عمر محصول وجود دارد یا خیر، مهم است؟ اگر چنین است، آیا جهت علیت مهم است؟ در این مورد، من در واقع در مورد جهت آن مطمئن نیستم. من معتقدم مدلهای کاکس برای تحلیلهایی استفاده میشوند که در آن یک یا چند متغیر کمکی بر طول عمر تأثیر میگذارند و یکی به طول عمر علاقهمند است. در این مورد من به خود متغیر کمکی علاقه مند هستم. آیا هنوز هم می توانم از مدل کاکس استفاده کنم؟ اگر چنین است، چگونه؟ | آمار متغیر وابسته به زمان، با توجه به دادههای بقا، تنها در پایان عمر قابل مشاهده است |
11765 | آلفای کریپندورف آمار قابلیت اطمینان بین رمزگذار خوب است زیرا می تواند در انواع مختلفی از داده ها استفاده شود: اسمی، ترتیبی، فاصله ای، نسبت، دایره ای، و غیره. برای انجام این کار، شما فقط یک متریک فاصله متفاوت را در محاسبه قابلیت اطمینان جایگزین کنید. برای توضیحات خوب به ویکی پدیا مراجعه کنید. سوال من: این معیارهای فاصله از کجا می آیند؟ آیا آنها به طور منحصر به فرد برای یک نوع داده مشخص تعیین می شوند؟ آیا خواسته های خاصی وجود دارد که آنها برآورده می کنند؟ من کتاب تحلیل محتوای کریپندورف و هر چیز دیگری که در این زمینه پیدا کردم را خوانده ام و شانسی ندارم... | معیارهای فاصله برای آمار آلفای کریپندورف از کجا می آیند؟ |
43696 | N تعداد افراد و X مقدار اشیا با مقادیر مختلف وجود دارد. هر شخص یک شی را انتخاب می کند و ارزش آن شی را به دست می آورد. اگر چندین نفر یک شیء مشابه را انتخاب کنند، ارزش شی بین افراد به اشتراک گذاشته می شود. به عنوان مثال، اگر 2 شی و 3 نفر وجود داشته باشد، یکی از اشیاء توسط حداقل 2 نفر انتخاب می شود. بنابراین ارزش شی بر 2 تقسیم می شود. هر دور افراد تصمیمات خود را با اشیاء جدید و ارزش های جدید می گیرند. چگونه یک فرد می تواند مقادیر مورد انتظار خود را که از انتخاب هایش در تعداد Q راند جمع شده است، به حداکثر برساند؟ (Q متعلق به $[1,~+\infty)$ است.) یادگیری تصمیمات سایر بازیکنان و ارزش های انباشته شده آنها می تواند در تصمیم گیری های آینده کمک کند. | به حداکثر رساندن انتخاب |
56837 | در یک مقاله که نتایج تجزیه و تحلیل بقا را توصیف میکند، بیانیهای خواندهام که نشان میدهد میتوان نسبت خطر (HR) را به نسبت زمان بقای متوسط ($M_1$ و $M_2$) با استفاده از فرمول: $HR = \frac{M_1 ترجمه کرد. }{M_2}$ من مطمئن هستم که وقتی نمیتوان مدل خطر متناسب را فرض کرد (زیرا اگر منابع انسانی به خوبی تعریف نشده باشد، هیچ کار نمیکند) برقرار نیست. اما من گمان میکنم که حتی در آن صورت هم برای هیچ توزیع بقای به جز نمایی کار نخواهد کرد. آیا شهود من درست است؟ | آیا می توان نسبت خطر را به نسبت میانه های زمان بقا ترجمه کرد؟ |
14742 | من یک مدل ARIMA را در یک سری زمانی روزانه نصب می کنم. داده ها روزانه از 02-01-2010 تا 30-07-2011 جمع آوری می شود و در مورد فروش روزنامه است. از آنجایی که می توان یک الگوی هفتگی در فروش پیدا کرد (متوسط روزانه تعداد نسخه های فروخته شده معمولاً از دوشنبه تا جمعه یکسان است، سپس شنبه و یکشنبه افزایش می یابد)، من سعی می کنم این فصلی را به تصویر بکشم. با توجه به داده های فروش داده، سری زمانی را به صورت زیر ایجاد می کنم: salets<-ts(data,start=c(2010,1),frequency=365) و سپس از تابع auto.arima(.) برای انتخاب استفاده می کنم. بهترین مدل ARIMA از طریق معیار AIC. نتیجه همیشه یک مدل ARIMA غیر فصلی است، اما اگر برخی از مدلهای SARIMA را با نحو زیر امتحان کنم، به عنوان مثال: sarima1<-arima(فروش، سفارش = c(2،1،2)، فصلی = فهرست (سفارش = c (1، 0، 1)، نقطه = 7)) من می توانم نتایج بهتری کسب کنم. آیا در دستور ts / مشخصات arima اشکالی وجود دارد؟ الگوی هفتگی بسیار قوی است، بنابراین من انتظار ندارم این همه دشواری در گرفتن آن وجود داشته باشد. هر کمکی بسیار مفید خواهد بود. با تشکر از شما، جولیا دپیری به روز رسانی: من قبلاً برخی از استدلال ها را تغییر داده ام. بهطور دقیقتر، وقتی «D=7» را تنظیم کردم، ARIMA (4،1،3) را بهعنوان بهترین مدل انتخاب میکند، اما AIC و سایر شاخصها و پیشبینیهای مناسب) اصلاً بهبود نمییابند. حدس می زنم اشتباهاتی به دلیل خلط فصلی و دوره ای وجود داشته باشد..؟! تماس Auto.arima استفاده شده و خروجی بدست آمده: modArima<-auto.arima(saless,D=7,max.P = 5, max.Q = 5) ARIMA(2,1,2) با دریفت: 1e+20 ARIMA( 0،1،0) با دریفت: 5265.543 ARIMA(1،1،0) با دریفت: 5182.772 ARIMA(0،1،1) با دریفت : 1e+20 ARIMA(2،1،0) با دریفت: 5137.279 ARIMA(2،1،1) با دریفت: 1e+20 ARIMA(3،1،1) با دریفت: 1e+20 ARIMA(2،1،0): 5135.382 ARIMA(1,1,0) : 5180.817 ARIMA(3,1,0) : 5117.714 ARIMA(3,1,1) : 1e+20 ARIMA(4,1,1) : 5045.236 ARIMA(4,1) ) با دریفت: 5040.53 ARIMA(5,1,1) with drift : 1e+20 ARIMA(4,1,0) with drift : 5112.614 ARIMA(4,1,2) with drift : 4953.417 ARIMA(5,1,3) with drift : 1e +20 ARIMA(4,1,2) : 4960.516 ARIMA(3,1,2) با دریفت: 1e+20 ARIMA(5,1,2) با دریفت: 1e+20 ARIMA(4,1,3) با دریفت: 4868.669 ARIMA(5,1,4) با دریفت : 1e+20 ARIMA(4،1،3): 4870.92 ARIMA(3,1,3) با دریفت: 1e+20 ARIMA(4,1,4) با دریفت: 4874.095 بهترین مدل: ARIMA(4,1,3) با دریفت بنابراین من فرض می کنم تابع arima باید به صورت زیر استفاده شود: بهترین سفارش <- cbind(modArima$arma[1],modArima$arma[5],modArima$arma[2]) sarima1<-arima(فروش، سفارش = c(4,1,3)) بدون پارامترهای جزء فصلی و مشخصات دوره. داده ها و تجزیه و تحلیل اکتشافی نشان می دهد که می توان الگوی هفتگی یکسانی را به طور تقریبی برای هر هفته در نظر گرفت، به استثنای آگوست 2010 (زمانی که افزایش مداوم در فروش ثبت شده است). متأسفانه من اصلاً در مدلسازی سریهای زمانی تخصص ندارم، در واقع من این رویکرد را امتحان میکنم تا راهحلی جایگزین برای مدلهای پارامتری و ناپارامتریک دیگر پیدا کنم که سعی کردم برای این دادههای مشکلساز مناسب باشم. من همچنین متغیرهای عددی وابسته زیادی دارم، اما آنها در توضیح متغیر پاسخ، قدرت کمی از خود نشان دادهاند: بدون شک، سختترین بخش برای مدلسازی، جزء زمان است. علاوه بر این، ساخت متغیرهای ساختگی برای نشان دادن ماه ها و روزهای هفته راه حل محکمی نبود. | Auto.arima با داده های روزانه: چگونه فصلی/تناوب را ضبط کنیم؟ |
11764 | شبکه های عصبی به دلیل ساختار پیچیده ای که دارند اغلب به عنوان جعبه سیاه در نظر گرفته می شوند. این ایده آل نیست، زیرا درک شهودی از نحوه عملکرد داخلی یک مدل اغلب مفید است. روش های تجسم نحوه عملکرد یک شبکه عصبی آموزش دیده چیست؟ از طرف دیگر، چگونه میتوانیم توصیفهای قابل هضم شبکه را استخراج کنیم (مثلاً این گره پنهان عمدتاً با این ورودیها کار میکند)؟ من در درجه اول به شبکه های پیشخور دو لایه علاقه مند هستم، اما همچنین می خواهم راه حل هایی را برای شبکه های عمیق تر بشنوم. داده های ورودی می توانند ماهیت بصری یا غیر بصری داشته باشند. | چگونه می توان کاری را که یک شبکه عصبی انجام می دهد تجسم و درک کرد؟ |
52644 | هنگامی که رابطه بین متغیر مستقل و متغیر وابسته غیرافزودنی باشد، از مدلهایی با اثرات متقابل ضربی استفاده میکنیم. سوال من این است که آیا همه مدلهای دارای اثرات متقابل ضربی غیرخطی هستند؟ و همه مدل ها با اثرات متقابل افزایشی خطی هستند؟ همچنین با غیر خطی بودن، تأثیر متغیر مستقل بر متغیر وابسته به مقدار متغیر مستقل بستگی دارد، در واقع متغیر مستقل به نوعی با خود تعامل دارد. آیا این بدان معناست که یک متغیر مستقل (x1) با خودش (x1) تعامل دارد؟ یا به این معنی است که متغیرهای مستقل (x1) با سایر متغیرهای مستقل (x2, x3...) تعامل دارند و نه با خودش؟ من با مفاهیم خطی بودن، غیرخطی بودن، افزایشی و غیرافزودنی (تکثرپذیری) اشتباه گرفته ام. هر گونه کمک بسیار قدردانی می شود. | فعل و انفعالات افزایشی و غیرافزودنی (ضربی) - سوال نرم - |
52395 | چه زمانی حداکثر یک تخمین پسین (MAP) معادل تخمین حداکثر احتمال (ML) است؟ | حداکثر احتمال معادل حداکثر یک تخمین پسین |
17033 | فکر میکنم سؤال من کاملاً ساده و احمقانه است: با استفاده از مدل هموارسازی نمایی تکی چه چیزی را پیشبینی میکنیم: مقدار بعدی سری زمانی مشاهدهشده یا مقدار بعدی سطحی که در مبنای آن قرار دارد؟ اگر آن را به درستی دریافت کنم، یک مقدار مشاهده شده از سری زمانی بدون روند از یک جزء سطح و یک مولفه تصادفی (که پیش بینی آن غیرممکن است) تشکیل شده است. من فکر میکنم که با استفاده از حداقل مربعات، نه تنها مقدار بهینه $\alpha$ (پارامتر هموارسازی) بلکه مقدار اولیه $y_0$ برای مدل هموارسازی تک نیز کاملاً ممکن است. من به راحتی این کار را برای برخی از داده های شبیه سازی شده زیر فرمول های (3.10a)، (3.10b) از Hyndman و همکاران انجام داده ام. آیا برای این مدل مفید است یا فقط یک مزخرف است؟ | هموارسازی تک نمایی |
3734 | در چندین زمینه مختلف، قضیه حد مرکزی را برای توجیه هر روش آماری که میخواهیم اتخاذ کنیم (به عنوان مثال، تقریب توزیع دوجملهای با یک توزیع نرمال) استناد میکنیم. من جزئیات فنی را درک می کنم که چرا این قضیه درست است، اما همین الان به ذهنم رسید که واقعاً شهود پشت قضیه حد مرکزی را درک نمی کنم. بنابراین، شهود پشت قضیه حد مرکزی چیست؟ توضیحات عامیانه ایده آل خواهد بود. اگر به جزئیات فنی نیاز دارید، لطفاً فرض کنید که من مفاهیم pdf، cdf، متغیر تصادفی و غیره را درک میکنم، اما هیچ دانشی از مفاهیم همگرایی، توابع مشخصه یا هیچ ارتباطی با نظریه اندازهگیری ندارم. | چه توضیح شهودی برای قضیه حد مرکزی وجود دارد؟ |
90822 | من می خواهم درصد یک گونه را در 3 نوع منطقه مختلف مقایسه کنم. از کدوم تست آماری استفاده کنم؟؟ | از کدام آزمون آماری برای مقایسه 3 نوع مختلف منطقه استفاده کنیم؟ |
19576 | **زمینه** من اخیرا مقاله Leo A. Goodman, On the Exact Variance of Products _Journal of the American Statistical Association_ Vol. 55، شماره 292 (دسامبر، 1960)، صفحات 708-713 از آنجا نقل قول های ویرایش شده زیر را استخراج می کنم (محاسبات و جملات اضافی را حذف می کنم) > اجازه دهید $x$ و $y$ دو متغیر تصادفی مستقل باشند. اجازه دهید مقدار > مورد انتظار x را با $E(x) = X$ نشان دهیم، واریانس $x$ توسط $V(x)$، ... A > نماد مشابه برای متغیر تصادفی $y$ استفاده خواهد شد. . > > ... داریم که واریانس $V(xy)$ حاصلضرب $xy$ برابر است با $$ > V(xy) = \ldots = X^2V(y) + Y^2V(x) + V(x)V(y)$$ > > ... اکنون یک تخمین بی طرفانه از واریانس $V(xy)$ ارائه خواهیم کرد. ... > داریم که $$ v(xy) = \ldots = x^2v(y) + y^2(x) - v(x)v(y)$$ > > یک تخمین بی طرفانه از $V است (xy)$، که $v(x)$ یک تخمین بی طرفانه از > $V(x)$ و $v(y)$ تخمین بی طرفانه $V(y)$ است. من یک فرمول نسبتاً ساده $P = w + xy/(1-z)$ دارم که در آن هر یک از این متغیرها (مستقل!) توسط یک بسته آماری تخمین زده شده و به همراه 95٪ محدودیت اطمینان و خطاهای استاندارد (از این رو واریانس ها) ارائه شده است. ). در واقع، هر یک از $w,x,y,z$ احتمالات هستند و $z$ از 1 محدود شده است. ,z \lt 0.6$ و تمام خطاهای استاندارد حدود $3 \times 10^{-3}$) **سوالات** باید برخی از محدودیت های اطمینان را در $P$ تخمین بزنم، و اولین ایده من این بود که از محدودیت های اطمینان $w,x,y,z$ استفاده کنم، اما به نظر دشوار/غیر قابل توصیه است. ایده دوم من این بود که واریانس $P$ را محاسبه کنم. این به وضوح به یافتن واریانس برای $xy/(1-z)$ ختم میشود. یکی به من گفته است که باید از معادله $v(xy)$ در زمینه فرمولم استفاده کنم. همه چیز خوب و خوب است، من می توانم آن را بپذیرم. بنابراین اکنون تنها کاری که باید انجام دهم این است که واریانس $1/(1-z)$ را پیدا کنم و نتیجه مقاله گودمن را دو بار اعمال کنم، یا شاید فقط واریانس $y/(1-z)$ را پیدا کنم و از گودمن استفاده کنم. یکبار نتیجه بده به خاطر بحث، بیایید اولی را انجام دهیم. من در اینترنت مجموعهای از یادداشتها پیدا کردم که واریانس نسبت $x/y$ را تخمین زدهاند (با در نظر گرفتن حالت خاص $x,y$ مستقل) $$ Var(x/y) \approx \frac{ E(y)^2 Var(x) + E(x)^2 Var(y)}{E(y)^4} $$ و برای موردی که به آن علاقه دارم، می توانم $x \sim Uniform بگیرم (0،1) دلار (یعنی '$1$') و بنابراین دریافت $$ Var(1/y) \approx \frac{Var(y)}{E(y)^4} \quad \quad (1) $$ آیا این قابل اعتماد است/درست است ? حتی اگر اینطور باشد، اکنون با یک معمای کوچک روبرو هستم. آنالوگ در این مثال برای فرمول $v$ چیست؟ من خوشحالم که همه پاسخ هایی را که به مشکل اصلی من می پردازند، یعنی سؤال تقریبی $Var(1/(1-z))$ را می گیرم، آیا از $Var$ همانطور که در تقریب (1) داده شده است استفاده می کنم یا برخی از تخمین بی طرفانه از نظر دادههایی که دارم، و در آخر، این «تخمین بیطرفانه» با دادهشده (1) چه خواهد بود؟ | واریانس متقابل II |
90820 | مزایا و معایب استفاده از روش های شبکه عصبی برای القای داده ها چیست؟ آیا بایاس و خطای کل بیشتر از روشهای دیگر (مانند روش میانه یا میانگین، نزدیکترین همسایگی، یا K-Means فازی) است؟ | مزایای استفاده از شبکه عصبی برای القای داده چیست؟ |
94336 | من یک نمونه 65 شرکت کننده دارم. 20 نفر A را انتخاب کردند. 18 نفر B را انتخاب کردند. 14 نفر C و 13 نفر D را انتخاب کردند. آزمون مناسب برای تعیین اینکه آیا تفاوت معنی داری در نسبت ها وجود دارد چیست؟ | مقایسه نسبت ها |
90794 | من در یافتن کد برای محاسبه بارهای استاندارد شده برای LDA با مشکل مواجه هستم، من یک کد برای آن نوشتم، اما مطمئن نیستم که این راه درستی برای استاندارد کردن بارگذاری ها باشد. lda.fit <- lda(Species~., data=iris) print(summary(lda.fit)) loadings <- lda.fit$scaling print(loadings) print(colSums(loadings^2)) standardize.loadings <- function(loadings) { col.ss <- colSums(loadings^2) sweep(loadings,2,sqrt(col.ss),/) } standardized.loadings <- standardize.loadings(loadings) print(standardized.loadings) print(colSums(standardized.loadings^2)) در این پاسخ وجود دارد هم بارگذاری های غیر استاندارد و هم استاندارد نشان داده شده است، اما هیچ توضیحی در مورد نحوه محاسبه آنها وجود ندارد و عملکرد من نتایج صحیح را تولید نمی کند، در عوض آن را تولید می کند مقادیر بردار ویژه این خروجی LD1 LD2 Sepal است. طول 0.8293776 0.02410215 Sepal.Width 1.5344731 2.16452123 Petal.Length -2.2012117 -0.9120201921-0.9120192 -0.9120192. 2.83918785 LD1 LD2 15.78649 13.61520 LD1 LD2 کاسبرگ.طول 0.2087418 0.006531964 سپال.عرض 0.3862037 0.58666105 - 0.586615105 متر طول -0.252561540 گلبرگ. عرض -0.7073504 0.769453092 LD1 LD2 1 1 | بارگذاری استاندارد LDA |
96797 | من سعی می کنم پریودوگرام (مقیاس شده) یک سری زمانی را در R به دو روش زیر رسم کنم. اما طرح ها یکسان به نظر نمی رسند (اگر به تفاوت در مقادیر آنها نگاه کنید). نمی دانم آیا من اشتباهاتی دارم؟ روش اول: n = طول(x) I = abs(fft(x))^2/n # پریودوگرام P = (4/n)*I[1:(n/2)] # پریودوگرام مقیاس شده f = 0:(n/2-1)/n # فرکانس par(mfrow=c(4,1)) نمودار(f, I[1:length(f)], type=b, xlab=Frequency, ylab=Periodogram) plot(f, P, type=b, xlab=Frequency, ylab=Scaled Periodogram) راه دوم: sr = spec.pgram(x, taper =0، plot=FALSE) نمودار(sr) tmp = sr tmp$spec = (4/n) * sr$spec plot(tmp) # چرا این مقیاس نیست پریودوگرافی طرح به شرح زیر است:  | من دو پریودوگرام متفاوت (مقیاس شده) از دو روش ترسیم مختلف دریافت می کنم |
43694 | برای یک بررسی بیولوژیکی، من در حال اندازه گیری گروهی از افراد در پنج نقطه زمانی هستم. اندازه گیری همیشه بین 0 تا 1 است. متأسفانه، من نتوانستم هر فرد را در طول هر بازدید اندازه گیری کنم. کاری که من دوست دارم انجام دهم تست های پارامتریک زوجی بین هر نقطه از زمان است تا ببینم میانگین این اندازه گیری ها در طول زمان برای این جمعیت چگونه تغییر می کند. مشکل این است که برای هر نقطه زمانی، توزیع اندازهگیریها نرمال نیست و حجم نمونه از کل جمعیت 62 نفری هر بار بسیار متفاوت است، از حدود 15 تا تقریباً کل جمعیت. من یک فایل CSV با دادههای اینجا پیوست کردهام، متأسفم نمیدانم راه بهتری برای نشان دادن شما وجود دارد یا خیر. می دانم که ممکن است بتوانم تست های ناپارامتریک مانند تست Wilcoxon را بین هر نقطه از زمان اجرا کنم. اما من دوست دارم بدانم آیا راهی برای من وجود دارد که بتوانم تبدیلی را انتخاب کنم که بتوانم برای هر پنج نمونه اعمال کنم تا آنها را به طور معمول توزیع کنم تا بتوانم تست های پارامتریک را نیز امتحان کنم. | ملاحظاتی برای انتخاب تبدیل در نمونه های کوچک؟ |
63934 | بیایید با گفتن اینکه من یک تازه کار در آمار هستم شروع کنیم. من به دنبال تجزیه و تحلیل رابطه بین بازده فروش (ROS) و گردش دارایی (TAT) در طول زمان هستم تا ببینم چگونه بر سودآوری شرکت تأثیر می گذارد (بازده دارایی (ROA)). من چند راه برای بررسی این داده ها دارم. اول، من می توانم کل اقتصاد ایالات متحده را به عنوان یک شرکت غول پیکر نگاه کنم و متغیرها را برای هر سال سری زمانی محاسبه کنم. برای اینکه بگوییم رابطه بین این دو متغیر در طول زمان تغییر می کند، چه آزمونی مناسب است؟ آزمونی برای هم انباشتگی برای اینکه بگوییم رابطه ثابت نیست؟ دوم، من می توانم به هر شرکت به صورت سالانه نگاه کنم و رابطه بین دو متغیر را به این صورت ارزیابی کنم. نگرانی من این است که مقادیر پرت عظیمی در مجموعه داده وجود داشته باشد، بنابراین باید از یک رگرسیون وزنی استفاده شود. با توجه به اینکه من برای هر سال بیش از 4000 نمونه (شرکت های متمایز) دارم، آیا آزمون مناسبی برای بررسی این داده ها و احتمالاً بیان چیزی معنادار در مورد رابطه این دو متغیر وجود دارد؟ فکر دیگر من احتمالاً استفاده از چیزی مانند تست چاو بود. اگر این خیلی مبهم است به من اطلاع دهید تا ببینم آیا می توانم واضح تر باشم یا خیر! با تشکر | چگونه می توان تشخیص داد که آیا رابطه بین متغیرهای سری زمانی در طول زمان تغییر می کند؟ |
17039 | به عنوان زمینه: هنگام کار با یک مجموعه داده بسیار بزرگ، گاهی اوقات از من میپرسند که آیا میتوانیم یک مجموعه داده مصنوعی ایجاد کنیم که در آن رابطه بین پیشبینیکنندهها و متغیر پاسخ، یا روابط بین پیشبینیکنندهها را «بشناسیم». در طول سالها، به نظر میرسد که من یا با مجموعههای داده مصنوعی یکباره، که به نظر میرسد به شیوهای موقتی پخته شدهاند، یا با مجموعههای دادههای ساختاریافتهتری مواجه شدهام که بهویژه برای روش مدلسازی پیشنهادی محقق به نظر میرسد. من معتقدم که به دنبال روش های استاندارد برای ایجاد مجموعه داده های مصنوعی هستم. اگرچه نمونهبرداری مجدد بوت استرپ یکی از روشهای رایج برای ایجاد مجموعه دادههای مصنوعی است، اما این شرط را برآورده نمیکند که ** ساختار را میدانیم** _ پیشینی_. علاوه بر این، مبادله نمونههای بوت استرپ با دیگران اساساً به جای یک روش تولید داده، به تبادل داده نیاز دارد. اگر بتوانیم یک توزیع پارامتریک را به دادهها برازش دهیم، یا یک مدل پارامتری به اندازه کافی نزدیک پیدا کنیم، این نمونهای است که میتوانیم مجموعههای داده مصنوعی تولید کنیم. چه روش های دیگری وجود دارد؟ من به خصوص به داده های با ابعاد بالا، داده های پراکنده و داده های سری زمانی علاقه مند هستم. برای دادههای با ابعاد بالا، من به دنبال روشهایی هستم که میتوانند ساختارهای مورد علاقه (مانند ساختار کوواریانس، مدلهای خطی، درختان و غیره) را ایجاد کنند. برای دادههای سری زمانی، از توزیعهای روی FFT، مدلهای AR، یا مدلهای مختلف فیلتر یا پیشبینی، شروعی به نظر میرسد. برای داده های پراکنده، بازتولید الگوی پراکندگی مفید به نظر می رسد. من معتقدم که اینها فقط سطح را خراش می دهند - اینها شیوه های اکتشافی هستند نه رسمی. آیا مراجع یا منابعی برای تولید داده های مصنوعی وجود دارد که باید برای پزشکان شناخته شود؟ * * * نکته 1: متوجه شدم که این سوال به ادبیاتی در مورد چگونگی تولید داده مانند یک مدل سری زمانی خاص می پردازد. تمایز در اینجا در شیوه ها است، به ویژه برای نشان دادن یک ساختار شناخته شده (سوال من)، در مقابل شباهت / وفاداری به مجموعه داده های موجود. در مورد من شباهت به اندازه ساختار شناخته شده ضروری نیست، اگرچه شباهت به عدم تشابه بسیار ترجیح داده می شود. یک مجموعه داده مصنوعی عجیب و غریب که یک مدل برای آن نوید می دهد، کمتر از یک شبیه سازی واقعی ترجیح داده می شود. نکته 2: مدخل ویکیپدیا برای دادههای مصنوعی اشاره میکند که افراد برجستهای مانند روبین و فاینبرگ به این موضوع پرداختهاند، اگرچه من هیچ مرجعی در مورد بهترین شیوهها پیدا نکردم. جالب است بدانیم که چه چیزی با، مثلاً Annals of Applied Statistics (یا AOS)، یا در آثار مروری در این یا سایر مجلات، ترکیب می شود. به زبان ساده و غریب، ممکن است پرسیده شود که آستانه بین «(قابل قبول) پخته شده» و «خیلی پخته» کجاست؟ نکته 3: اگرچه بر روی سوال تأثیری نمی گذارد، سناریوی استفاده در مدل سازی مجموعه داده های بزرگ و با ابعاد بالا است، جایی که دستور کار تحقیق یادگیری (هم توسط انسان و هم توسط ماشین ;-)) ساختار داده ها است. برخلاف سناریوهای تک متغیره، دو متغیره و دیگر سناریوهای با ابعاد پایین، ساختار به راحتی قابل استنباط نیست. همانطور که به سمت درک بهتر ساختار قدم می گذاریم، توانایی تولید مجموعه های داده با ویژگی های مشابه برای مشاهده نحوه تعامل یک روش مدل سازی با داده ها (به عنوان مثال برای بررسی پایداری پارامتر) مورد توجه است. با این وجود، راهنماهای قدیمیتر در مورد دادههای مصنوعی با ابعاد پایین میتوانند نقطه شروعی باشند که ممکن است برای مجموعههای داده با ابعاد بالاتر گسترش یابند. | چند روش استاندارد برای ایجاد مجموعه داده های مصنوعی چیست؟ |
97442 | چگونه می توان مجموعه S ناحیه پارامتر معادلات را با استفاده از r ترسیم کرد؟ مشکل من این است که من یک معادله با 2 متغیر تعریف شده توسط $g(x,a,b) = 0$ دارم و میخواهم مجموعه $(a,b)$ را در جایی که جواب وجود دارد ترسیم کنم. مثال خاصی که من به آن علاقه دارم به شرح زیر است: $$(F(x) - a)f^2(x) + \left(\frac{F^2(x)}{2} - a F(x) + \left(\frac{a^2}{2} + b\right)\right)f^\prime(x)=0.$$ که در آن $F$ تابع تجمعی توزیع نرمال میانگین=0 است. و sd=1، $f$ تابع چگالی نرمال، و $f^\prime$ اولین مشتق از $f$ است. هدف من ساختن منطقه (سطح) $S$ است که در آن $$S = \\{(a,b)\در [0,1]^2\ |\text{ یک راه حل }x\text{ معادله است. وجود دارد و متعلق به [0,1]\\} است. $$ E<-function(a,u) { ((a-u)*(dnorm(q(u),m,s, log = FALSE))/(qnorm(u)))-((qnorm(u)) ^2)/2 +a*qnorm(u)-(a^2)/2 } a <- u <- seq(0,1,0.01) z <- outer(a,u,E) b<-seq(0,1,0.001) contour(x=a, y=a, z=z,levels=b, las=1, drawlabels=FALSE, lwd=3,xlab=a, ylab= x) لطفاً در اینجا به من کمک کنید. امیدوارم این بتواند بیشتر به من بیاموزد. پیشاپیش ممنون * * * ممنون، این دقیقاً همان چیزی است که من دنبالش بودم. اما من 2 نکته یا نظر دارم: نکته 1: من اشتباه کردم $u=F(x)\in[0,1]$ اما $x = N(0,1)$ بنابراین $x$ در $ محدود نمی شود [0،1] دلار. بنابراین آیا ممکن است کدی را که در Mathematica استفاده کردید پیشنهاد دهید تا من بتوانم آن را تطبیق دهم. نکته 2 : من همچنین با استفاده از Mathematica یک شبیه سازی انجام دادم و تصویر 3 بعدی معادله خود را دریافت کردم، اما نمی توان پروجکشن را به دست آورد. این کدی است که استفاده کردم: f[u_] := Quantile[NormalDistribution[0 , 1], u] g[u_]:=PDF[توزیع عادی[0,1],f[u]] h[u_, a_, e_] := (u - a)*((g[u])^2) + ((u^2)/2 - a*u + (a^2)/2 + e)*f[u]* g[u] ContourPlot3D[h[u, a, e] == 0, {a, 0, 1}, {u, 0, 1}, {e, 0, 1}] سپس این عکس را دریافت می کنم:  بنابراین آیا راهی برای دریافت طرح ریزی از این تصویر وجود دارد. | ناحیه پارامتر برای وجود جواب های معادله |
11762 | سوال من خیلی کلی است. من در حال یادگیری تئوری ارزش افراطی برای بررسی رفتار دم هستم. مفهوم تنوع منظم هنوز برای من مبهم است. کسی می تواند کمک کند تا اطلاعات بیشتری برای روشن شدن مطلب ارائه دهد؟ آیا نظری در مورد اهمیت آن در نظریه احتمال دارید؟ | اطلاعات بیشتری در مورد تغییرات منظم مرتبه دوم در نظریه ارزش شدید مورد نیاز است |
19572 | هنگام تلاش برای ارزیابی اینکه چه چیزی یک خانواده از فرضیهها را در یک آزمایش/پروژه/تحلیل تشکیل میدهد، «هدف مشابه» و «محتوای مشابه» را یافتهام که به عنوان دستورالعملهایی برای تعیین حدود خانوادهها ارائه شدهاند، اما اینها چیزهای زیادی را برای تفسیر باز میگذارد. حداقل بگویم). واضح است که اگر در طول یک تحلیل، چندین آزمون میانگین گروهی و دستهای جداگانه از آزمونهای همگنی نسبتها را انجام دهم، همه چیز را با هم در یک خانواده فرضیات جمع نمیکنم. با این حال، اگر چندین دسته از آزمونهای تا حدودی مرتبط با میانگین گروهی داشته باشم، چه معیاری آنها را در یک خانواده گرد هم میآورد (یا آنها را به خانوادههای جداگانه تقسیم میکند)؟ آیا همه اعضای یک خانواده باید متغیر پاسخ یکسانی داشته باشند؟ اگر متغیرهای پاسخ متفاوتی داشته باشم اما مجموعه موارد مشابهی داشته باشم، آیا همه آنها در یک خانواده از فرضیه ها جمع می شوند؟ | تعریف عملی و روشنی برای «خانواده فرضیه ها» (با توجه به میزان خطای خانوادگی) چه می تواند باشد؟ |
52646 | ما پاسخ 2 متغیر را می دانیم: $$ {\rm var}(XY)=E(X^2Y^2)-E(XY)^2={\rm var}(X){\rm var}(Y )+{\rm var}(X)E(Y)^2+{\rm var}(Y)E(X)^2$$ با این حال، اگر بیش از 2 متغیر باشد، پاسخ چه خواهد بود؟ ${\rm var}(X_1X_2 \cdots X_n)= \ ?$ (از نظر واریانس ها و مقادیر مورد انتظار هر متغیر) بسیار متشکرم! | واریانس حاصل ضرب متغیرهای تصادفی چندگانه |
63938 | من یک رگرسیون خطی انجام می دهم: $Y=\alpha+\beta\times X+\epsilon$, $\epsilon\sim N(0,\sigma^2)$. معلوم شد که فاصله اطمینان برای میانگین پیشبینیشده $Y$ واقعاً کوچک است (شکل 1)، که به سختی با میانگین پیشبینیشده قابل تمایز است.  از طرف دیگر، میتوانیم ببینیم که $Y$s مشاهده شده در واقع به طور گسترده در اطراف هر X پخش میشود. شکل دوم فاصله پیش بینی شده را نشان می دهد که بزرگ است.  سوال من این است: 1. این مدل به من چه می گوید؟ آیا به این معنی است که می تواند یک مدل کامل برای پیش بینی میانگین باشد؟ زیرا فاصله اطمینان در شکل 1 کوچک است. 2. از طرف دیگر، شکل 2 نشان می دهد که خطای تصادفی در این مدل زیاد است. آیا کاری وجود دارد که بتوانیم انجام دهیم (یا لازم است) تا چنین خطاهای تصادفی را کاهش دهیم، اگرچه ما قبلاً یک مدل عالی داریم؟ به عنوان مثال، آیا افزودن متغیرهای مفید اضافی (فرض) به توضیح بیشتر (کاهش) خطای تصادفی کمک می کند؟ به جای اینکه بپرسم تفاوت بین این دو نوع بازه چیست (به لینک @whuber مراجعه کنید)، من علاقه مندم که اگر یک فاصله اطمینان کوچک و یک فاصله پیش بینی بزرگ وجود دارد، چه می توانیم بگوییم و در مورد چنین مدلی چه کاری می توانیم انجام دهیم؟ آیا چنین مدلی در حال حاضر بهترین است و باید نتیجه را ارسال کنیم؟ یا هنوز هم می توان کاری برای توضیح بیشتر خطای تصادفی انجام داد؟ کسی می تواند در توضیح این نتیجه به من کمک کند؟ با تشکر | اگر فواصل اطمینان میانگین پیش بینی شده کوچک باشد اما فواصل پیش بینی شده بزرگ باشد، چه کاری می توانم انجام دهم؟ |
97448 | من شبکه های عصبی برای یادگیری ماشین هینتون را در Coursera تماشا می کنم. من در مورد نمای هندسی پرسپترون هستم. من گیج شده ام. و دلیل اینکه من گیج شدهام چون نمیدانم منظور او از مورد آموزشی و بردار ورودی چیست. به نظر می رسد آنها چیزهای متمایز هستند، اما آنها چیست؟ او توضیح نمی دهد. توجه داشته باشید. مورد آموزشی و بردار ورودی عمود بر یکدیگر هستند. | نمای هندسی پرسپترون ها |
46318 | من از Google Docs برای کلاس آمار استفاده می کنم و مربی من پیشنهاد کرد که از تابع tdist() در اکسل استفاده کنیم. http://office.microsoft.com/en-us/excel- help/tdist-HP005209312.aspx من نمی توانم چیزی مشابه در صفحات گسترده گوگل پیدا کنم. https://support.google.com/drive/bin/static.py?hl=en&topic=25273&page=table.cs&tab=1240295 آیا کسی فرمول/عملکرد جایگزینی دارد که بتوانم از آن استفاده کنم؟ | جایگزینی برای تابع tdist() در اکسل برای صفحات گسترده گوگل؟ |
52645 | فرض کنید من یک رگرسیون خطی انجام می دهم و می خواهم بررسی کنم که چگونه ارتباط بین یک پیش بینی کننده X و یک پاسخ Y با توجه به سطوح یک عامل 2 سطحی G تغییر می کند. مدل به این صورت خواهد بود: $$E(Y) = \beta_0 + \beta_1 G + \beta_2 X + \beta_3 (G \times X)$$ سوال من این است که چرا برای تست _t_ در $\beta_3$ نتیجه متفاوتی میگیرم اگر X و Y را در مدل بالا عوض کنم؟ از نظر مفهومی، به نظر میرسد این آزمونها به همین سوال پاسخ میدهند: آیا ارتباط X-Y با توجه به سطوح G تغییر میکند؟ با این حال، در عمل، می دانم که آزمایش ها نتایج متفاوتی می دهند. شهود من این است که این تفاوت ربطی به این دارد که آیا X و/یا Y با G همبستگی دارند، اما نمی توانم توضیحی رسمی به ذهنم بیاورم. کسی پیشنهادی داره؟ با تشکر | مبادله X و Y در یک رگرسیون که حاوی یک پیش بینی گروه بندی است؟ |
90797 | فرض کنید که $n$ داده آموزشی $x_1، ... x_n$ داریم که توسط یک مدل احتمال $P(x;\theta)$ تولید شده است. ما می خواهیم پارامترهای $\theta$ مدل را بر اساس مشاهدات تخمین بزنیم. در آمارهای غیر بیزی، میتوانیم پارامترها را با یک تابع احتمال حداکثر تخمین بزنیم. برای محاسبه MLE، می توان از روش های بهینه سازی استفاده کرد (مانند گرادیان تصادفی، EM)، و ما می توانیم پس از همگرایی راه حلی پیدا کنیم. برای مقایسه، روش بیزی این است که پارامترها را با نمونه برداری از یک توزیع پسین (مانند نمونه برداری گیبس، نمونه برداری برش) تخمین بزنیم، و پس از اینکه زنجیره MC به حالت پایدار رسید، می توانیم از توزیع پسین و با استفاده از برخی برآوردگرها نمونه هایی را برای تخمین بدست آوریم. پارامترها آیا رابطه ای بین این دو تکنیک تخمین پارامتر وجود دارد؟ | رابطه بین نمونه گیری و بهینه سازی |
21291 | من 2 سوال عمومی/تئوری بیشتر دارم. 1) من کنجکاو هستم که SVMها چگونه تعاملات متغیر را هنگام ساخت مدلهای پیشبینی انجام میدهند. به عنوان مثال، اگر من دو ویژگی f1 و f2 داشته باشم و هدف به f1، f2، و مثلاً f1 * f2 (یا برخی از تابعهای h(f1، f2) بستگی دارد)، آیا SVM مناسب است (نه فقط در OOS، بلکه حتی در دادههای آموزشی) با اضافه کردن f1، f2 و h(f1، f2) در ویژگیها نسبت به فقط شامل f1 و f2 بهبود مییابد؟ آیا الگوریتم SVM با تعاملات ویژگی سروکار دارد؟ به نظر می رسد که چگونه SVM سعی می کند ابرصفحه ها را در فضای ابعاد بالاتر ایجاد کند، اما مطمئن نیستم که بپرسم. 2) آیا هنگام نصب SVM بر روی داده های آموزشی، با توجه به ویژگی های کافی و یافتن پارامترهای بهینه (از طریق جستجوی brute force یا هر چیز دیگری)، آیا یک SVM همیشه به طور پیش پا افتاده با داده های آموزشی مطابقت می کند؟ مطمئن نیستم که این جمله را درست بیان کردم، اما اساساً، اگر واریانس/نویز کافی در ویژگی ها وجود داشته باشد، آیا یک SVM همیشه 100٪ با داده های آموزشی مطابقت دارد؟ برعکس، اگر SVM 100% با داده های آموزشی مطابقت نداشته باشد، آیا این بدان معناست که برخی اطلاعات (یا ویژگی های دیگر) وجود دارد که بر متغیر هدف تأثیر می گذارد که در داده ها ثبت نمی شود؟ با تشکر یک توضیح کوچک من به طور خاص به SVM های هسته اشاره می کنم | SVM، تعامل متغیر و داده های آموزشی برازش دارند |
64050 | من از یک روش بیولوژیکی مولکولی استفاده می کنم که به نرمال سازی زیر نیاز دارد $$Q = \frac{A}{\sqrt[k]{\prod_{i=1}^k B_i}}.$$ چگونه می توانم استاندارد را پیدا کنم انحراف $Q$، با توجه به اینکه $A$ و $B_i$ دارای انحرافات استاندارد هستند؟ متأسفانه آموزش ریاضی من به اندازه کافی خوب نیست که بتوانم این را حل کنم. آیا نوعی رویکرد استاندارد برای حل این مشکل وجود دارد؟ **ویرایش** لگاریتم عبارت فوق به صورت زیر بدست می آید: $$ \log(Q)=\log(A)-\frac{1}{k}\cdot \sum_{i=1}^{k} \log(B_{i}) $$ | چگونه می توانم انتشار خطای این تابع را محاسبه کنم؟ |
63936 | من اغلب مجموعه داده هایی دارم که در آن حیوانات زیادی وجود دارد، در چندین گروه درمانی، و وزن بدن هر حیوان در طول عمرش در فواصل منظم اندازه گیری می شود. پاسخ وزن بدن در طول زمان غیر یکنواخت است: هنگامی که حیوانات جوان هستند، رشد می کنند. سپس یک دوره حالت پایدار متغیر وجود دارد. سپس، با پیر شدن و بیمار شدن حیوانات، وزن آنها شروع به کاهش می کند. درمانها میتوانند سرعت افزایش وزن، شروع و مدت زمان ماندگاری، حداکثر وزن بهدستآمده، و شروع و سرعت کاهش پایانی را تغییر دهند. در حال حاضر من از مدلهای با جلوه ترکیبی استفاده میکنم و سعی میکنم وزن را به روشهای مختلف یکنواخت کنم، که همه آنها یا تفسیر رضایتبخشی ندارند و/یا مدلهای مناسبی تولید نمیکنند. من سعی کردم به سادگی یک اصطلاح وزن بدن عقب افتاده را به عنوان یک شیب تصادفی وارد کنم و باقیمانده های زیبایی به دست آوردم. این کد R است. کتابخانه (nlme); کتابخانه (gridExtra); ## دادههای ناشناس دریافت کنید، یک data.frame به نام lagbwtest منبع ایجاد میشود('http://pastebin.com/download.php?i=MmSDVBEr'); ## id = گروه بندی متغیر، درمان1 و درمان2 = اثرات ثابت ## زمان = زمان، y = متغیر پاسخ (وزن بدن)، تاخیر = پاسخ تاخیر lagbwtest<-na.omit(lagbwtest); مدل ## با پاسخ تاخیر + زمان شیب تصادفی fit01<-lme(y ~ (treatment1+treatment2)*time, data=lagbwtest, random=~time+lagy|id, method=ML, na.action=na حذف)؛ مدل ## بدون شیب تصادفی تاخیری fit02<-lme(y ~ (treatment1+treatment2)*time, data=lagbwtest, random=~time|id, method=ML, na.action=na.exclude); مدل ## با مدت زمان چند جمله ای fit03<-update(fit02,.~(treatment1+treatment2)*poly(time),random=~poly(time)|id); مدل ## با مدت زمان spline fit04<-update(fit02,.~(treatment1+treatment2)*ns(time),random=~ns(time)|id); ## فهرستی ایجاد کنید تا به طور خودکار همان کار را برای هر مناسب myfits انجام دهید<-list(lag=fit01,nolag=fit02,poly=fit03,spline=fit04); اگر خوب بودن تناسب را مقایسه کنیم، مدل تاخیر بسیار بهتر از بقیه به نظر می رسد: with(myfits,anova(lag,nolag,poly, spline)); مدل تاخیر پیشبینیهای متفاوتی نسبت به بقیه ارائه میدهد (لطفاً اصطلاحات باروک لاپلی را ببخشید - فقط سعی میکنم تا آنجا که میتوانم کد را کوتاه نگه دارم):  do.call(grid.arrange,lapply(names(myfits),function(ii) plot(myfits[[ii]],fitted(.,level=0)~time|treatment1:treatment2,pch='.',abline=0,main=ii))) مدل تاخیری نتیجه متفاوتی نسبت به همه دیگران سؤالات من این است: 1. آیا من واقعاً مشکل یافتن فرم عملکردی مناسب برای چنین دادههایی را حل کردهام، یا فقط با قرار دادن پاسخ وابسته به زمان بخشی از عبارت خطا، آن را به زیر فرش بردهام؟ 2. با توجه به اینکه _error_ ثابت است (در نمودارهای ACF و resid vs time در انتهای این پست تأیید شده است) آیا این روش معتبری برای معرفی یک متغیر همبسته خودکار در یک مدل خطی است؟ اگر نه، چرا که نه؟ 3. آیا می توان از مدل تاخیر برای پیش بینی و آزمون فرضیه های مربوط به حداکثر مقدار y به دست آمده در هر ترکیب درمانی استفاده کرد؟ 4. نمودارهای «سطح=1» (سطح حیوانی) برای مدل دارای تأخیر عموماً بهتر از مدلهای دیگر به نظر میرسند، اما نمودارهای «سطح=0» (سطح گروه) همه وحشتناک به نظر میرسند و به ذهنم میرسد که اینطور نیست. میدانید که باقیماندههای «سطح=0» از یک مدل با جلوههای ترکیبی به خوبی برازش _باید_ چگونه به نظر میرسند. آیا آنها حتی مهم هستند؟ 5. چرا مدل های بدون تاخیر همگی اینقدر شبیه هم هستند؟ در اینجا کد نمودارهای تشخیصی است. برای دو مورد از آنها، تصاویر واقعی گنجانده شده است: ## همبستگی خودکار do.call(grid.arrange,lapply(names(myfits),function(ii) plot(ACF(myfits[[ii]],form=~time|id) ,main=ii))) ## همبستگی فضایی (واریوگرام ها) do.call(grid.arrange,lapply(names(myfits),function(ii) plot(variogram(myfits[[ii]],form=~time|id),main=ii)) ) ## باقیمانده حیوانات فردی در مقابل نصب شده do.call(grid.arrange,lapply(names(myfits),function(ii) plot(myfits[[ii]],resid(.,type='pearson',level=1)~fitted(.,level=1 ),pch='.',abline=0,main=ii)))  ## باقیمانده حیوانات فردی در مقابل زمان do.call(grid.arrange,lapply(names(myfits),function(ii) plot(myfits[[ii]],resid(.,type='pearson',level=1)~time,pch='.',abline=0,main=ii)))  ## باقیمانده های گروه درمانی در مقابل برازش do.call(grid.arrange,lapply(names(myfits),function(ii) plot(myfits[[ii]],resid(.,type='pearson',level=0)~fitted(.,level=0 ),pch='.',abline=0,main=ii))) ## باقیمانده گروه درمان در مقابل زمان do.call(grid.arrange,lapply(names(myfits),function(ii) plot(myfits[[ii]],resid(.,type='pearson',level=0)~time,pch='.' ,abline=0,main=ii))) به هر حال، من همچنین سعی کردم مدل nolag را با correlation=corAR1() به روز کنم (نشان داده نشده است) و اشکال هیچ یک از طرحها را به شکلهای مدل «تاخر» شبیهتر نکرد، حتی طرحهای «ACF». | عبارت عقب افتاده در سری های زمانی با خطاهای ثابت: خیلی خوب است که درست باشد؟ |
64053 | من یک مشکل دیگر با 14000 ویژگی و 500 نمونه آموزشی دارم. این یک مسئله طبقه بندی باینری و تقریباً به شکل بیضی است. دقت طبقه بندی من با استفاده از هسته چند جمله ای درجه 2 و از طریق CV 80% است. با این حال، من بهطور تصادفی سعی کردهام دادهها را روی دوبعدی نمایش دهم، یعنی فقط دو ویژگی را انتخاب میکنم و آنها را نمایش میدهم، و متوجه میشوم که چندین ترکیب وجود دارد که به من 100% جدایی میدهد. من همچنین از هسته RB استفاده کرده ام و دقت طبقه بندی برای آن ~70٪ است. آیا کسی دلیلی دارد که چرا این اتفاق می افتد؟ این کدی است که من برای libsvm استفاده می کنم... % train SVM model model = svmtrain2(Y(train_vec,1),X(train_vec,:),['-t 1 ' '-d 2 ' '-g' num2str(grid_data(i,1)) ' ' '-r' num2str(grid_data(i,2)) ' '-c' num2str(C)]); % مدل تست در مجموعه آزمایشی [predict_label، دقت، dec_values] = svmpredict(Y(test_vec,1),X(test_vec,:),model); | SVM نرخ طبقهبندی نسبتاً پایینی برای دادههای با ابعاد بالا دارد، حتی اگر پیشبینیهای دوبعدی نشان دهند که آنها قابل تفکیک هستند. |
97446 | من از Stata برای تجزیه و تحلیل داده های پانل خود استفاده می کنم. من چندین رگرسیون اثر ثابت را با متغیرهای ابزار اجرا میکنم و میخواهم حداقل مربعات مرحله اول و مرحله دوم را با استفاده از outreg (یا outreg2) به اکسل و لاتکس خروجی بدهم. من در حال حاضر قادر به خروجی مرحله اول نیستم. هنگامی که من پس از اجرای رگرسیون خود با مرحله اول فهرست شده در گزینه ها outreg را اجرا می کنم، فقط حداقل مربعات مرحله دوم را خروجی می دهد، نه اولین. آیا کسی راهی برای خروجی حداقل مربعات مرحله اول با استفاده از outreg می داند؟ | آیا می توانم از outreg (یا outreg2) در Stata برای خروجی حداقل مربعات مرحله اول استفاده کنم؟ |
90340 | می دانیم که مدل مخلوط گاوسی همتای احتمالی الگوریتم k-means است. آیا همتای احتمالی برای kNN وجود دارد؟ (که شبیه k-means است، اما تحت نظارت است.) | همتای احتمالی برای kNN |
80376 | من باید یک ماتریس کوواریانس 600x600 را محاسبه کنم، هر عامل دارای اندازه نمونه 750 است. من کامپیوترهای خوشه ای مناسبی دارم، بنابراین به انجام محاسبات به صورت موازی فکر می کنم. روش احمقانه ای که من در مورد آن فکر می کنم این است: برای هر دو عامل، یک شغل برای محاسبه کوواریانس این 2 شغل ایجاد کنید و این کار را به شبکه ارسال کنید. سپس کوواریانس های همه جفت ها را جمع آوری می کنم و سپس آنها را به ماتریس 600x600 اختصاص می دهم. آیا این اصلا منطقی است؟ | آیا این روش درستی برای محاسبه موازی کوواریانس ماتریس است؟ |
52642 | من 2 متغیر تصادفی A و B دارم که هر دو دسته بندی هستند. میدانم که میتوانم اطلاعات متقابل آنها را محاسبه کنم، که معیاری از اطلاعاتی را که آنها به اشتراک میگذارند به من میدهد. با این حال، من می خواهم بدانم با دانستن اینکه A یک مقدار خاص، a دارد، چقدر اطلاعات در مورد B به دست می آید. تنها نامی که میتوانم برای چیزی شبیه به این فکر کنم، «اطلاعات متقابل مشروط» است، یعنی اطلاعات متقابل A و B با توجه به A=a. من با آمار بسیار جدید هستم، اما به نظرم میرسد که میتوان فرمول استاندارد MI را روی A=a شرطی کرد، اما نمیدانم انجام این کار منطقی است یا خیر. گوگل چیزی برای آن نام به دست نیاورد، بنابراین من اینجا پرسیدم. | آیا چیزی به نام اطلاعات متقابل مشروط وجود دارد؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.