_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
70426
من با محققی کار می کنم که قصد دارد یک مطالعه را برای اعتبارسنجی دستگاهی برای اندازه گیری فشار خون (BP) انجام دهد. زمانی که این دو دستگاه توسط یک شرکت‌کننده استفاده می‌شود، تفاوتی را بین +/- 5 میلی‌متر جیوه بیان می‌کند. من آمار خلاصه زیر (کمی تغییر یافته) را از یک مطالعه مشابه که از پروتکل ANSI/AAMI SP10A-2002 استفاده می کرد به دست آوردم: n = 100 شرکت کننده میانگین +/- SD BP سیستولیک = -0.70 +/- 5.00 میانگین اختلاف +/- BP دیاستولیک = 0.20 +/- 5.20 محقق باید چند شرکت کننده را برای اعتبار سنجی استخدام کند دستگاه با در نظر گرفتن توان معمولی 80٪ و سطح آلفا 0.05؟ من از R (مخصوصا power.t.test) استفاده می کنم. من فرض می کنم که به دلیل تنوع بیشتر می خواهم روی BP دیاستولیک تمرکز کنم. فرضیه صفر و جایگزین را به صورت زیر تعریف کردم: فرضیه صفر: میانگین اختلاف بین دو اندازه گیری 5 میلی متر جیوه است. فرضیه جایگزین: میانگین تفاوت بین دو اندازه گیری بیشتر از 5 میلی متر جیوه نیست (فرضیه یک طرفه). اما ظاهراً فکر من خاموش است ... آیا اطلاعاتی وجود دارد که من کم دارم؟ پیشاپیش از شما متشکرم
تخمین حجم نمونه
70425
بنابراین، به نظر من تابع وزن‌ها در lm به مشاهدات وزن بیشتری می‌دهد، هر چه مقدار «وزن» مشاهدات مرتبط بزرگتر باشد، در حالی که تابع lme در lme دقیقاً برعکس عمل می‌کند. این را می توان با یک شبیه سازی ساده تایید کرد. #Make 3 Vectors- C به عنوان یک اثر تصادفی غیر آگاهانه برای مدل LME A <-c (1:10) b <-c (2،4،6،10،100،14،16،18،20) c استفاده می شود. <-c (1،1،1،1،1،1،1،1،1،1) اگر اکنون می خواهید مدلی را اجرا کنید که در آن شما مشاهدات را بر اساس معکوس از آن وزن کنید متغیر وابسته در lm، تنها در صورتی می‌توانید همان نتیجه را در nlme ایجاد کنید که فقط با متغیر وابسته وزن کنید، بدون اینکه برعکس را بگیرید. summary(lm(b~a,weights=1/b)) summary(lme(b~a,random=~1|c,weights=~b)) می توانید این را ورق بزنید و ببینید که عکس آن درست است- تعیین وزن= B در LM برای به دست آوردن نتیجه LME مطابق با وزن = 1/b نیاز دارد. بنابراین ، من این را خیلی درک می کنم ، من فقط می خواهم اعتبار در یک چیز را داشته باشم و در مورد دیگری سوالی بپرسم. 1. اگر می خواهم داده های خود را بر اساس معکوس متغیر وابسته وزن کنم ، آیا فقط وزن کد = ~ (متغیر وابسته) در LME خوب است؟ 2. چرا LME برای رسیدگی به وزن کاملاً متفاوت از LM نوشته شده است؟ هدف از این غیر از ایجاد سردرگمی چیست؟ هر بینش قدردانی خواهد شد!
آرگومان وزن در lm و lme در R بسیار متفاوت است - آیا من از آنها به درستی استفاده می کنم؟
5366
من باید واحدها را در خوشه‌های $k$ خوشه‌بندی کنم تا مجموع مربع‌های درون گروهی (WSS) را به حداقل برسانم، اما باید اطمینان حاصل کنم که هر خوشه حداقل دارای واحدهای $m$ باشد. آیا ایده ای دارید که آیا هر یک از توابع خوشه بندی R امکان خوشه بندی در خوشه های $k$ را با حداقل محدودیت اندازه خوشه فراهم می کند؟ به نظر نمی رسد ()kmeans گزینه محدودیت اندازه را ارائه دهد.
خوشه بندی (k-means یا غیره) با حداقل محدودیت اندازه خوشه
114056
من یک سوال جالب دارم که فکر می کنم هنوز اینجا مطرح نشده است. من در حال ساختن یک هوش مصنوعی هستم که هدف آن پیش بینی میزان اشتباه یک مدل استاندارد مبتنی بر تاریخ است. این بر اساس پردازش زبان طبیعی (NLP) انجام می شود، بنابراین از یک منبع خارجی (بله، من هزاران مقاله دارم که هر دقیقه برای انجام این کار زمان بندی شده است!!). من به جایی رسیدم که باید مدل اصلی خود را انتخاب کنم. ساده ترین راه رگرسیون خطی از میله های 0-40 (که 40 'اکنون' است) است و آن را با میله های 5-45 مقایسه کنید. تفاوت مقادیر 40 و 45 را مقایسه کنید و voila ما تفاوت را در مدل خود داریم که می‌توانیم با استفاده از مقالات خبری پیش‌بینی/طبقه‌بندی کنیم. البته استفاده از رگرسیون خطی برای این نوع کارها مناسب نیست اما چیست؟ و حتی بهتر از آن، کتابخانه‌هایی در NET(C#) وجود دارند که بتوانند این کار را انجام دهند، زیرا مهارت‌های ریاضی به کد من چندان عالی نیست. من به دنبال رگرسیون چند جمله‌ای بودم، اما متوجه شدم که این تفاوت می‌تواند نامتناسب باشد. همچنین به GARCH نگاه می‌کردم، اما به نظر نمی‌رسد کتابخانه‌ای (بنابراین نه در R) پیدا کنم که بتواند این کار را بدون پرداخت بخشی از بدنم انجام دهد. چیزی که جالب به نظر می رسد AR(i)MA است، اما در آنجا متوقف شدم و تصمیم گرفتم در مورد مشکلم راهنمایی دریافت کنم. چه چیزی برای چنین ناظری مناسب است؟ آیا به رگرسیون بسیار پیچیده نیاز دارم یا خطی حتی به اندازه کافی خوب است؟ یا در این مورد فقط از یک شبکه عصبی استفاده کنید (یک بار قبلاً یک شبکه بسیار خوب برای این کار ساخته شده است)؟ سلام
مدل سری زمانی مالی
89437
در یک نمونه معرف از جمعیت کشور، من داده های گمشده بسیار کمی دارم، حدود 3%. اما وقتی داده های گمشده را در میان جوامع بررسی کردم، متوجه شدم که یکی از آنها تقریباً 30 درصد از داده ها را از دست داده است. این در همه سنین ثابت است. آیا باید سعی کنم داده ها را تلقی کنم، آن جامعه را از تجزیه و تحلیل حذف کنم یا همه جوامع را نگه دارم اما به خواننده در مورد این سوگیری احتمالی هشدار دهم؟
داده های از دست رفته: بهترین رویکرد چیست؟
10011
من مجموعه ای از نمونه ها را دارم که فرض می کنم 2 زیر مجموعه مشخص در آن وجود دارد. من مقادیر آنها را در یک هیستوگرام رسم کردم و متوجه شدم که دو حالت متمایز همانطور که در شکل زیر نشان داده شده است وجود دارد. سوال من این است که چگونه دو گروه را از هم متمایز کنم. یعنی چگونه مقداری را انتخاب کنم که دو زیر مجموعه را متمایز کند؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/wbIvt.png)
چگونه دو زیر گروه را از هیستوگرام متمایز کنیم؟
10017
من سعی می کنم خوشه بندی خطای استاندارد و نحوه اجرای آن را در R بفهمم (در Stata بی اهمیت است). در R من در استفاده از «plm» یا نوشتن تابع خودم ناموفق بوده‌ام. من از داده های «الماس» از بسته «ggplot2» استفاده خواهم کرد. من می توانم جلوه های ثابت را با متغیرهای ساختگی > library(plyr) > library(ggplot2) > library(lmtest) > library(ساندویچ) > # با dummies برای ایجاد جلوه های ثابت انجام دهم > fe.lsdv <- lm(قیمت ~ قیراط + فاکتور (برش) + 0، داده = الماس) > ct.lsdv <- coeftest(fe.lsdv, vcov. = vcovHC) > ct.lsdv t test of coefficients: Estimate Std. خطای t مقدار Pr(>|t|) قیراط 7871.082 24.892 316.207 < 2.2e-16 *** factor(cut)fair -3875.470 51.190 -75.707 < 2.2e-16 *** -2725Good.1. -103.692 < 2.2e-16 *** ضریب(برش)خیلی خوب -2365.334 20.548 -115.111 < 2.2e-16 *** factor(cut)Premium -2436.393 21.172 -115.075-(e115.075-(برش 6 < 2. ) ایده آل -2074.546 16.092 -128.920 < 2.2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 یا با حذف معنی هر دو سمت چپ و راست (در اینجا بدون رگرسیون ثابت زمان) و تصحیح درجات آزادی . > # با تحقیر با درجات آزادی تصحیح > الماس <- ddply(الماس، .(برش)، تبدیل، price.dm = قیمت - میانگین(قیمت)، carat.dm = قیراط .... [TRUNCATED] > fe. dm <- lm(price.dm ~ carat.dm + 0، داده = الماس) > ct.dm <- coeftest(fe.dm، vcov. = vcovHC، df = nrow(الماس) - 1 - 5) > ct.dm t test of ضرایب: تخمین مقدار خطای t Pr(>|t|) carat.dm 7871.082 24.888 316. < 2.2e-16 *** --- کدهای Signif: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 من نمی توانم این نتایج را با 'plm' تکرار کنم، زیرا شاخص زمان ندارم (یعنی این در واقع یک پانل نیست، فقط خوشه هایی است که می توانند یک سوگیری مشترک در شرایط خطای خود داشته باشند > plm.temp <- plm (قیمت ~). قیراط، داده = الماس، index = برش) زوج های تکراری (time-id) خطا در pdim.default(index[[1]]، index[[2]]): من همچنین سعی کردم ماتریس کوواریانس خودم را با خطای استاندارد خوشه‌بندی شده با استفاده از توضیح Stata درباره گزینه «خوشه» آنها (در اینجا توضیح داده شده است)، که برای حل $$\hat V_{cluster} = (X'X)^{-1} \left( \sum_{j=1}^{n_c} u_j'u_j \right) (X'X)^{-1}$$ جایی که $u_j = \sum_{خوشه ~j} e_i * x_i$، $n_c$ si تعداد خوشه ها، $e_i$ باقیمانده برای $i^{th}$ مشاهده و $x_i$ است. بردار ردیفی پیش‌بینی‌کننده‌ها، از جمله ثابت است (این همچنین به عنوان معادله (7.22) در _مقطع و داده‌های تابلویی Wooldridge ظاهر می‌شود). اما کد زیر ماتریس های کوواریانس بسیار بزرگی را ارائه می دهد. آیا این مقادیر بسیار بزرگ با توجه به تعداد کمی از خوشه های من هستند؟ با توجه به اینکه نمی‌توانم «plm» را برای انجام خوشه‌ها بر اساس یک عامل دریافت کنم، مطمئن نیستم که چگونه کد خود را محک بزنم. > # با خوشه قوی se > lm.temp <- lm(قیمت ~ قیراط + ضریب(برش) + 0، داده = الماس) > > # با استفاده از مدلی که Stata استفاده می کند > stata.clustering <- تابع(x, clu, res) { + x <- as.matrix(x) + clu <- as.vector(clu) + res <- as.vector(res) + fac <- منحصر به فرد(clu) + num.fac <- طول(fac) + num.reg <- ncol(x) + u <- ماتریس (NA، nrow = num.fac، ncol = num.reg) + گوشت <- ماتریس (NA، nrow = num.reg، ncol = num.reg) + + # عبارت بیرونی (X'X)^-1 + خارجی <- حل (t(x) %*% x) + + # inner term sum_j u_j'u_j where u_j = sum_i e_i * x_i + for (i in seq(num.fac)) { + index.loop <- clu == fac[i] + res. حلقه <- res[index.loop] + x.loop <- x[clu == fac[i]، ] + u[i، ] <- as.vector(colSums(res.loop * x.loop)) + } + داخلی <- t(u) %*% u + + # + V <- خارجی %*% داخلی %*% بیرونی + بازگشت (V) + } > x.temp <- data.frame(const = 1, diamonds[, قیراط]) > summary(lm.temp) تماس: lm(فرمول = قیمت ~ قیراط + ضریب(برش) + 0، داده = الماس) باقیمانده ها: حداقل 1Q Median 3Q Max -17540.7 -791.6 -37.6 522.1 12721.4 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) قیراط 7871.08 13.98 563.0 <2e-16 *** factor(cut)fair -3875.47 40.41 -95.9 <2e-16 *** factor(cut) Good -2755.14 -2e-11.9 <2e-16 -16 *** فاکتور(برش)بسیار خوب -2365.33 17.78 -133.0 <2e-16 *** factor(cut)Premium -2436.39 17.92 -136.0 <2e-16 *** factor(cut)Ideal -2074.55 14.23 -145.8 *** <2e-1 Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 1511 در 53934 درجه آزادی چندگانه R-squared: 0.9272، R-squared تنظیم شده: 0.92 F آمار: 1.145e+05 در 6 و 53934 DF،
خوشه بندی خطای استاندارد در R (به صورت دستی یا plm)
70422
بنابراین سؤال زیر به من داده می شود > مجموعه داده نمونه5.txt دارای ورودی 20 بعدی $x$ در $\mathbb{R}^{20}$ است، اما > ما گمان می کنیم که بسیاری از اینها واقعاً نامربوط هستند. آیا می توانید تابع > $y = f(x)$ را مدل کنید در حالی که - در همان زمان - تعیین کنید که کدام ابعاد > به خروجی کمک می کنند؟ بنابراین این یک کار انتخاب ویژگی است - من آن را درک می کنم. اما من به نوعی با قسمت > در عین حال گیج شده ام. من بسیاری از الگوریتم‌های انتخاب ویژگی را می‌شناسم، اما آنها در واقع مدل‌هایی را برای داده‌ها تولید نمی‌کنند، آنها فقط تصمیم می‌گیرند که کدام ویژگی مهم است و کدامیک مهم نیست. برعکس، یک مدل (به تنهایی) واقعاً اطلاعات زیادی در مورد اینکه کدام ویژگی مهم است و کدام یک نیست، نمی دهد. شاید بتوانید رگرسیون خطی ساده انجام دهید و سپس ویژگی ها را بر اساس وزن ها انتخاب کنید (اما من هرگز نشنیده ام که کسی این کار را انجام دهد). یا فکر می کنید که من بیش از حد سوال را تحلیل می کنم و کاری که باید انجام دهم این است که ابتدا انتخاب ویژگی را انجام دهم، سپس مدل را ایجاد کنم؟
تفسیر وظیفه انتخاب ویژگی
7357
من می‌دانم که این یک سؤال «R» نسبتاً خاص است، اما ممکن است درباره واریانس نسبت توضیح داده شده، $R^2$، اشتباه فکر کنم. اینجا می رود. من سعی می کنم از بسته R randomForest استفاده کنم. من مقداری داده آموزشی و داده های آزمایشی دارم. هنگامی که من یک مدل جنگل تصادفی را برازش می‌کنم، تابع 'randomForest' به شما امکان می‌دهد داده‌های آزمایشی جدیدی را برای آزمایش وارد کنید. سپس درصد واریانس توضیح داده شده در این داده جدید را به شما می گوید. وقتی به این نگاه می کنم، یک عدد دریافت می کنم. وقتی از تابع «predict()» برای پیش‌بینی مقدار نتیجه داده‌های آزمایشی بر اساس برازش مدل از داده‌های آموزشی استفاده می‌کنم، و ضریب همبستگی مجذور بین این مقادیر و مقادیر نتیجه _واقعی را برای داده‌های آزمایشی می‌گیرم. یک عدد متفاوت بگیرید _این مقادیر مطابقت ندارند_. در اینجا چند کد «R» برای نشان دادن مشکل وجود دارد. # از داده‌های داخلی داده عنبیه استفاده کنید (عنبیه) #بارگذاری کتابخانه کتابخانه تصادفی جنگل (جنگل تصادفی) # داده‌ها را به مجموعه‌های آموزشی و آزمایشی تقسیم کنید. )/2)) مجموعه قطار <- iris[trainindex, ] testset <- iris[-trainindex, ] # متناسب با یک مدل به مجموعه آموزشی (ستون) 1، Sepal.Length، نتیجه خواهد بود) set.seed(42) model <- randomForest(x=trainset[ ,-1],y=trainset[ ,1]) # مقادیر پیش بینی برای مجموعه آزمایشی (ستون اول نتیجه است، آن را کنار بگذارید) پیش بینی شده <- پیش بینی (مدل، مجموعه آزمایش[ ,-1]) # ضریب همبستگی مجذور بین پیش بینی شده چقدر است و ارزش های واقعی؟ cor(predicted, testset[, 1])^2 # اکنون، مدل را با استفاده از x.test داخلی و y.test set.seed(42) randomForest(x=trainset[,-1], y=trainset[ ,1], xtest=testset[ ,-1], ytest=testset[,1]) از هر کمکی که ممکن است بخواهید بفرستید متشکریم.
$R^2$ محاسبه شده دستی با randomForest() $R^2$ برای آزمایش داده های جدید مطابقت ندارد
24729
من مشاهدات مستقل $Y_1، Y_2، ....، Y_n$ دارم که مقادیر 1 یا 0 را با $$P(Y_i = 1) = \frac{1}{1 + \exp\{-(\alpha + \ می‌گیرد. بتا x_i)\}}$$ که در آن $\alpha$ و $\beta$ ثابت ناشناخته هستند و $x_1، x_2، ....، x_n$ مشخص هستند، باید نشان دهم که $(\sum Y_i،\sum x_i Y_i)$ حداقل آمار کافی برای $(\alpha،\beta)$ است. ما می دانیم که اگر $\frac{\prod_{i=1}^nf(y_i;\alpha, \beta)}{\prod_{i=1}^nf(z_i) هر آماری $T(Y)$ حداقل کافی است ;\alpha, \beta)}$ مستقل از $\alpha$ و $\beta$ است اگر و فقط اگر $T(Y) = T(Z)$. اما در اینجا چگالی احتمال $Y$ مستقل از $y$ است. آیا روش دیگری برای نشان دادن حداقل آمار وجود دارد؟
آمار کافی
7358
من یک الگوریتم MCMC خاص دارم که می‌خواهم آن را به C/C++ پورت کنم. بسیاری از محاسبات گران قیمت در حال حاضر به زبان C از طریق Cython است، اما من می‌خواهم کل نمونه‌گر را به یک زبان کامپایل‌شده نوشته شود تا بتوانم فقط برای Python/R/Matlab/wrapper بنویسم. بعد از گشتن به سمت C++ متمایل شدم. چند کتابخانه مرتبط که من می شناسم عبارتند از Armadillo (http://arma.sourceforge.net/) و Scythe (http://scythe.wustl.edu/). هر دو سعی می کنند برخی از جنبه های R/Matlab را تقلید کنند تا منحنی یادگیری را آسان کنند، که من بسیار آن را دوست دارم. فکر می کنم با کاری که می خواهم انجام دهم کمی بهتر مربع ها را اسکیت کنید. به طور خاص، RNG آن شامل توزیع‌های زیادی است که در آن Armadillo فقط یکنواخت/نرمال دارد، که ناخوشایند است. به نظر می رسد که Armadillo در حال توسعه بسیار فعالی است در حالی که Scythe آخرین نسخه خود را در سال 2007 مشاهده کرد. بنابراین آنچه من تعجب می کنم این است که آیا کسی تجربه ای با این کتابخانه ها دارد -- یا سایر کتابخانه ها که تقریباً مطمئناً آنها را از دست داده ام -- و اگر چنین است، آیا چیزی وجود دارد یا خیر. یکی را نسبت به دیگران برای آماردانی که با Python/R/Matlab بسیار آشناست، اما با زبان های کامپایل شده کمتر آشناست (نه کاملا ناآگاه، اما نه کاملاً مسلط...) توصیه می کنیم.
کتابخانه های C++ برای محاسبات آماری
1040
مدل زیر $Y_i = f(X_i) + e_i$ را در نظر بگیرید که از آن n نقطه داده iid $\left( X_i, Y_i \right)_{i=1}^n$ را مشاهده می کنیم. فرض کنید که $X_i \in \mathbb{R}^d$ یک بردار ویژگی بعدی $d$ باشد. و فرض کنید که یک تخمین حداقل مربعات معمولی با داده ها مناسب است، یعنی $\hat \beta = {\rm arg} \min_{\beta \in \mathbb{R}^d} \sum_i (Y_i - \sum_j X_ {ij} \beta_j)^2$ از آنجایی که یک مدل اشتباه تخمین زده شده است، تفسیر فاصله اطمینان حول ضرایب تخمینی چیست؟ به طور کلی تر، آیا منطقی است که فواصل اطمینان حول پارامترها را در یک مدل نامشخص تخمین بزنیم؟ و فاصله اطمینان در چنین حالتی به ما چه می گوید؟
تعبیر/معنای فواصل اطمینان در مدل های نامشخص چیست؟
110922
فرض کنید ($h_1,h_2,...,h_n$) یک بردار $n\ برابر 1$ است. اجازه دهید $h_i=g_iX_i$، که در آن $g_i$ یک متغیر غیر تصادفی است که می تواند در $i$ متفاوت باشد و $X_i$ یک متغیر تصادفی با توزیع پارتو نوع I است. $$f_X(x) = \begin{cases} {\alpha x_m^\alpha \over x^{\alpha +1}} و \text{if $x\ge x_m$} \\[2ex] 0، & \text{if $x\lt x_m$} \\ \end{cases}$$ احتمال اینکه هر $h_i$ معینی در میان باشد، به عنوان تابعی از $g$ چقدر است بزرگترین $k$ از $n$ $h$؟
احتمال اینکه یک متغیر در هنگام سفارش یکی از k بالای n باشد
110926
ویروس جدیدی در یک کشتی تفریحی شیوع پیدا می کند. من می‌خواهم این فرضیه را آزمایش کنم که احتمال ابتلای مردان و زنان به ویروس به یک اندازه است. من 100 مرد و 100 زن را امتحان می کنم. احتمالاً اگر 87 زن آلوده و 89 مرد را پیدا کنم، نمی‌توانم با خیال راحت آن را رد کنم. از سوی دیگر، اگر 11 مرد و 20 زن را تحت تأثیر قرار دهند، به نظر می‌رسد که مبنای معقولی برای رد این موضوع باشد. بنابراین قبل از اجرای آزمون می خواهم یک منطقه رد تعریف کنم. ناحیه رد باید به گونه ای تعریف شود که احتمال رد صفر با توجه به اینکه درست است _حداکثر_ 5٪ باشد. از آنجایی که این یک عدد تهی ترکیبی است - احتمال ابتلا به بیماری می تواند بین 0 تا 1 باشد - این شرط باید برای هر یک از اعضای تهی برقرار باشد. چگونه می توانم چنین منطقه ای را بسازم؟
منطقه بحرانی برای تفاوت در نسبت
11050
من متوجه شدم که تمرینات ساده تجزیه و تحلیل داده ها اغلب می تواند به توضیح و شفاف سازی مفاهیم آماری کمک کند. از چه تمرین های تجزیه و تحلیل داده ها برای آموزش مفاهیم آماری استفاده می کنید؟
یادگیری مفاهیم آماری از طریق تمرینات تجزیه و تحلیل داده ها
110921
من به یک مشکل منحصر به فرد نزدیک شده ام و می خواهم مطمئن شوم که آزمایشی را که به روش صحیح انجام می دهم انجام می دهم. در اینجا یک پیشینه مختصر آمده است: هدف این پروژه خودکارسازی یک سیستم تبلیغاتی است و هدف سوال من تعیین مقدار p است که یک نوع تبلیغات هزینه هر کاربر کمتری نسبت به نوع دیگری از تبلیغات دارد. **داده ها / تعاریف:** 1. _ورود_ - تعداد افرادی که روی تبلیغ کلیک کرده اند 2. _ثبت نام ها -_ تعداد افرادی که ثبت نام کرده اند 3. _خرج_ - کل مبلغ هزینه شده برای هر تبلیغ 4. *هزینه_به ازای_کاربر = هزینه / ثبت نام هایی که دارم داده های روزانه در مورد همه این متغیرها برای دو آگهی مختلف. این به من اجازه می‌دهد تا جمع‌آوری هزینه_در_کاربر و همچنین واریانس مجموع cost_per_user را دریافت کنم. اکنون، من می‌خواهم امروز احتمال دو آگهی مختلف با عملکرد متفاوت را آزمایش کنم تا بتوانم بودجه‌بندی را به شیوه‌ای آگاهانه تنظیم کنم. بهترین راه برای استفاده از این داده ها برای اجرای یک تست مناسب چیست؟ پیشاپیش متشکرم PS: من فکر می کنم که این آزمون فرضیه آزمون برای تفاوت میانگین ها احتمالاً درست است، اما من نتوانستم مکانیزم آن را پیدا کنم.
تفاوت میانگین ها در زمانی که میانگین جمعیت مشخص است؟
29878
** زمینه: ** من در حال مطالعه نمونه برداری در MCMC برای یادگیری ماشین هستم. در صفحه 5، نمونه‌گیری رد را ذکر می‌کند: تکرار نمونه xi ~ q(x) و u ~ U(0,1) اگر uMq(xi) < p(xi): xi را بپذیرید تا تعداد نمونه‌های کافی (که در آن $M$ انتخاب شود مانند که $p(x) \le Mq(x)$ برای همه $x$) **سوال:** در تجزیه و تحلیل، مقاله می گوید که ممکن است برای تنظیمات ابعاد بالا بد کار کند. در حالی که من می توانم آن را ببینم، مقاله دلیلی را ارائه می دهد که من نمی فهمم: $P(x \text{ پذیرفته شده}) = P \left(u < \frac{p(x)}{Mq(x)} \ سمت راست) = \ frac {1} {m} $. این برای من منطقی نیست اگر احتمال ثابت بود، چرا حتی به خود زحمت ارزیابی $p(x)$ را بدهید؟ آیا این باید حداکثر $\frac{1}{M}$ باشد؟ یا من فقط این عبارت را اشتباه تفسیر می کنم؟
احتمال رد در نمونه گیری رد چقدر است؟
5360
من یک رگرسیون لجستیک گام به گام را بر روی مجموعه ای از داده ها در SPSS نصب می کنم. در این روش، من مدل خود را به یک زیرمجموعه تصادفی که تقریباً برابر است، برازش می‌دهم. 60 درصد از کل نمونه که حدود 330 مورد است. چیزی که به نظر من جالب است این است که هر بار که داده‌هایم را دوباره نمونه‌برداری می‌کنم، متغیرهای مختلفی را در مدل نهایی وارد و خارج می‌کنم. چند پیش بینی همیشه در مدل نهایی وجود دارد، اما برخی دیگر بسته به نمونه وارد و خارج می شوند. سوال من اینه بهترین راه برای رسیدگی به این موضوع چیست؟ من امیدوار بودم که همگرایی متغیرهای پیش بینی کننده را ببینم، اما اینطور نیست. برخی از مدل‌ها از دیدگاه عملیاتی حس بسیار شهودی‌تری دارند (و توضیح آن برای تصمیم‌گیرندگان آسان‌تر است)، و برخی دیگر کمی بهتر با داده‌ها مطابقت دارند. به طور خلاصه، از آنجایی که متغیرها در حال چرخش هستند، چگونه برخورد با وضعیت من را توصیه می کنید؟ پیشاپیش سپاس فراوان
رگرسیون لجستیک و نمونه گیری گام به گام
110925
ما اغلب مدل ها را با هم میانگین می گیریم تا یک مدل پیش بینی انبوه ایجاد کنیم. برخی از تحقیقات اخیر نشان می دهد که میانگین های مدل ساده به خوبی یا بهتر از میانگین های مدل وزن شده توسط توابع امتیازات معیار اطلاعات عمل می کنند. میانگین وزنی یا ساده مدل اغلب (اما نه همیشه) بهتر از انتخاب مدلی با بهترین امتیاز است. بسیاری از نمرات معیار اطلاعات را می توان به صورت تقریبی برای طرح های اعتبار سنجی متقابل مختلف مشاهده کرد. حتی اگر یک مدل در اعتبار سنجی متقابل بدتر از مدل دیگر عمل کند، هنوز آموزنده است. من استدلال می کنم که یک مدل متوسط ​​با وزن ها به عنوان تابعی از نمرات اعتبار سنجی متقاطع منطقی است. با این حال، اکثر افرادی که برای تنظیم هایپرپارامترها اعتبار سنجی متقاطع انجام می دهند، فقط مقدار هایپرپارامتر را انتخاب می کنند که خطای اعتبارسنجی متقاطع را به حداقل می رساند. در چه شرایطی می‌توان انتظار داشت که یک مدل میانگین وزنی با اعتبار متقاطع-خطا بهتر از یک مدل «بهترین» منفرد عمل کند؟ من خوشحال می شوم اگر کسی بتواند مرتبط ترین تحقیق در این مورد را به من نشان دهد. متشکرم.
آیا انجام میانگین‌گیری مدل مبتنی بر خطای CV منطقی است؟
17846
فرض کنید می‌خواهم الگوریتمی را بر اساس یک مقاله یا کتاب پیاده‌سازی کنم و آن را تحت یک مجوز غیر اختصاصی اما نه لزوماً غیرتجاری (مثلاً در یک وبلاگ) منتشر کنم. آیا انجام این کار قانونی است؟ من می‌دانم که یک پاسخ کلی نمی‌تواند بله یا خیر باشد، بنابراین می‌خواهم بدانم چگونه می‌توانم به سرعت بفهمم که آیا این قانونی است یا خیر. چند نمونه عالی خواهد بود. در اینجا چند نمونه برای بحث آورده شده است * Apache Commons Math در راهنمای توسعه‌دهنده خود بیان کرده است که همه توسعه‌دهندگان باید قبل از ارتکاب، مسائل مربوط به مجوز را بررسی کرده و به عنوان مثال به دستورات عددی پیوند دهند. این اولین بار است که چنین هشداری را می بینم. من به این کتاب (نه آنلاین و نه در قالب درخت مرده) دسترسی ندارم. اخطار قانونی به چه صورت است؟ * مقالات لینک شده برای دانلود در صفحه نویسنده معمولاً حاوی اخطار قانونی نیستند. آیا به این معنی است که الگوریتم ها ... رایگان هستند؟ * طبق ویکی پدیا، Random Forest یک اصطلاح تجاری است. آیا این به این معنی است که هیچ کس مجاز به پیاده سازی این الگوریتم نیست؟ می توان نام دیگری به آن داد (مانند Good-Luck-Forests)، زیرا بازتولید الگوریتم دقیق با توجه به اینکه همه جزئیات در کاغذ منتشر نمی شوند (به طور معمول) تقریبا غیرممکن است. * در مورد اوراقی که دسترسی به آنها هم محدود است و هم غیرممکن است، چطور. به عنوان مثال مقاله _جایگزین های انحراف مطلق میانه_ را ببینید که در مجله انجمن آماری آمریکا منتشر شده است، اما اکنون می توان آن را از طریق JSTOR خریداری کرد یا از این صفحه دانلود کرد. آیا فرانک ماشی، آپلودکننده این مقاله، قانون را زیر پا گذاشته است؟ بسیاری از مقالات با یا بدون دسترسی محدود را می توان به صورت آنلاین یافت. ** سلب مسئولیت: ** هیچ پاسخی نباید به عنوان مشاوره حقوقی تلقی شود که می توان در دادگاه به آن مراجعه کرد.
آیا انتشار کد یک الگوریتم منتشر شده قانونی است؟
65713
من مجموعه ای از مشاهدات، مستقل از زمان، دارم. من نمی دانم که آیا باید تست های خودهمبستگی را اجرا کنم؟ به نظر من منطقی نیست، زیرا هیچ جزء زمانی در داده های من وجود ندارد. با این حال، من در واقع تست همبستگی سریال LM را امتحان کردم، و این نشان دهنده همبستگی خودکار قوی باقیمانده ها است. آیا معنایی دارد؟ چیزی که من به آن فکر می کنم این است که در واقع می توانم مشاهدات در مجموعه داده خود را به هر ترتیب ممکن بازآرایی کنم، و این امر همبستگی خودکار را در باقیمانده ها تغییر می دهد. بنابراین سؤال این است - آیا در این مورد اصلاً باید به خودهمبستگی اهمیت بدهم؟ و آیا باید از Newey-West برای تنظیم SE برای آن استفاده کنم در صورتی که آزمایش چنین نشان دهد؟ با تشکر
اگر رگرسیون OLS را روی داده های مقطعی اجرا کنید، آیا باید همبستگی خودکار را در باقیمانده ها آزمایش کنید؟
82690
من یک متغیر طبقه بندی دارم به نام شکنجه (=0، شکنجه اغلب توسط دولت استفاده می شود؛ =1 اغلب استفاده می شود؛ 2= هرگز استفاده نشده است). رگرسیون ناکارآمدی اقتصادی بر شکنجه، علامت ضریب منفی به دست می دهد. آیا این بدان معناست که بهبود شکنجه (یعنی از 0 به 2) ناکارآمدی اقتصادی را کاهش داده و کاهش می دهد؟ یا به این معناست که شکنجه به طور کلی ناکارآمدی اقتصادی را کاهش می دهد؟ با تشکر
تفسیر vble طبقه بندی شده در یک معادله ناکارآمدی
5363
من یک سردرگمی جزئی در مورد الگوریتم پس انتشار مورد استفاده در پرسپترون چندلایه (MLP) داشتم. خطا توسط تابع هزینه تنظیم می شود. در پس انتشار سعی داریم وزن لایه های پنهان را تنظیم کنیم. خطای خروجی را می توانم درک کنم، یعنی `e = d - y` [بدون زیرنویس ها]. سؤالات عبارتند از: 1. چگونه می توان خطای لایه پنهان را دریافت کرد؟ چگونه می توان آن را محاسبه کرد؟ 2. اگر من آن را به عقب انتشار دهم، آیا باید از آن به عنوان تابع هزینه یک فیلتر تطبیقی ​​استفاده کنم یا باید از یک اشاره گر (به زبان C/C++) برای به روز رسانی وزن استفاده کنم؟
الگوریتم پس انتشار
70424
من از R برای محاسبه انحراف مطلق میانه برای چند توزیع استفاده می کنم، اما برخی از مقادیری که محاسبه می کنم اصلا واقعی به نظر نمی رسند. من توزیع زیر را دارم: x <- [1] NA NA NA -0.003 -0.009 0.004 -0.001 -0.001 -0.003 0.001 -0.002 0.000 -0.003 0.000 0.000 0.006 -0.001 -0.006 0.003 -0.001 - -0.007 -0.002 0.006 -0.005 0.000 0.008 0.001 0.009 -0.002 0.001 0.001 0.002 0.003 NA 0.001 NA 0.001 [35] 0.001 - 302 NA 0.007 -0.003 -0.017 0.000 -0.013 0.000 0.002 0.002 0.000 NA 0.000 0.000 [52] 0.000 0.000 0.004 -0.000 -0.000 - 0.004 -0.000 -0.000 -0.007 -0.001 -0.001 0.000 -0.002 0.001 0.003 0.000 -0.011 -0.002 [69] -0.003 0.004 -0.007 NA -0.009 - 0.001 -0.001 -0.005 0.001 -0.001 0.006 0.002 -0.006 0.002 -0.002 0.004 [86] 0.006 0.001 0.000 0.002 -0.002 0.007 0.004 -0.004 - 0.004 0.000 0.003 -0.003 0.002 0.004 0.003 -0.002 [103] -0.002 0.001 0.002 0.000 0.000 0.003 -0.001 0.004 -0.0010 0.004 - 0.0010 -0.005 0.000 -0.002 -0.004 [120] 0.004 NA 0.007 0.000 0.002 0.003 -0.006 -0.002 0.000 -0.002 -0.001 -0.001 -0.001 -0.001 -0.001 -0.001 -0.001 -0.001 -0.008 [137] 0.000 0.003 0.001 0.001 -0.001 0.000 0.011 -0.017 NA NA NA سپس از کد زیر برای تولید مقدار MAD خود استفاده کردم: MADx <- madn(x, na. )، ثابت = (1/(quantile(x, probs=0.75, na.rm = TRUE, names = FALSE, type = 1))), na.rm = TRUE, low = FALSE, high = FALSE) وقتی مقدار 1 را دریافت می کنم انجام این کار، که غیر واقعی به نظر می رسد، زیرا مقادیری که من دارم بسیار کمتر از 1 هستند.
درک نتایج MAD
5364
مدل زیربنایی PLS این است که ماتریس $n \times m$ $X$ و $n$ بردار $y$ با $$X = T P' + E، $$ $$y = T q' + f مرتبط هستند. ,$$ که در آن $T$ یک ماتریس پنهان $n \times k$ است، و $E, f$ اصطلاحات نویز هستند (با فرض اینکه $X، y$ در مرکز قرار گیرند). PLS تخمین‌هایی از $T، P، q$ و یک بردار میانبر از ضرایب رگرسیون، $\hat{\beta}$ تولید می‌کند به طوری که $y \sim X \hat{\beta}$. من می‌خواهم توزیع $\hat{\beta}$ را تحت برخی فرضیات ساده‌کننده پیدا کنم، که احتمالاً باید شامل موارد زیر باشد: 1. مدل صحیح است، _یعنی_ $X = T P' + E,y = t q ' + f $ برای ناشناخته $ t ، p ، q $ ؛ 2. تعداد فاکتورهای پنهان، $k$، شناخته شده است و در الگوریتم PLS استفاده می شود. 3. اصطلاحات خطای واقعی I.I.D. صفر متوسط ​​طبیعی با واریانس شناخته شده ؛ این سوال تا حدودی تعریف نشده است زیرا انواع مختلفی از الگوریتم PLS وجود دارد، اما من نتایج را برای هر یک از آنها می پذیرم. من همچنین راهنمایی در مورد چگونگی تخمین توزیع $\hat{\beta}$ از طریق _e.g._ bootstrap را می پذیرم، اما شاید این یک سوال جداگانه باشد.
چگونه فواصل اطمینان را در ضرایب رگرسیون در PLS محاسبه کنیم؟
17845
مطمئن نیستم که آیا این به همان اندازه پیچیده است که در ذهن من به پایان رسیده است، در اینجا آمده است. من مجموعه‌ای از اندازه‌گیری‌ها را دارم که میزان خطرپذیری بیماران روان‌پزشکی را اندازه‌گیری می‌کند (از این پس HCR نامیده می‌شود و یک نتیجه فاصله‌ای است که معمولاً توزیع می‌شود). این اندازه‌گیری‌ها از پنج مکان مختلف در بیمارستان انجام می‌شوند و در زمان‌های مختلف در تعداد دفعات مختلف اندازه‌گیری می‌شوند (من تاریخ دقیق هر اندازه‌گیری را برای هر بیمار دارم). مدل کردن تغییر در این متغیر برای _patients_ با استفاده از دوست قدیمی من lme4 بسیار ساده است. مدل به این صورت است: HCRmodel=lmer(HCR~Day+Location+(1|patient), data=mydata) [به انگلیسی، امتیاز HCR بستگی به روز دارد (شمارش از 1 برای هر بیمار) به اضافه اثری برای جایی که آنها در بیمارستان هستند و این اندازه‌گیری‌ها در بیماران دسته‌بندی می‌شوند] تا اینجا، خیلی خوب است. مشکلی که من دارم این است که می‌خواهم تغییرات _locations_ را در طول زمان مدل‌سازی کنم. تئوری این است که هر مکان ممکن است در طول 5 سال داده تغییر کرده باشد، مثلاً، سرویس A با بیماران پرخطرتر و پرخطرتر سروکار دارد، سرویس B با ریسک کمتر و کمتر، چیزی شبیه به آن. واضح است که این نوع تجزیه و تحلیل به ANOVA کمک می کند، با این تفاوت که اقدامات تکرار شده و کاملا نامتعادل است. من حتی نمی‌توانم جایی را که تاکنون به آن رسیده‌ام پست کنم، زیرا واقعاً به جایی نرسیده‌ام - در حال فکر کردن به محاسبه میانگین سطوح خطر در هر سرویس برای هر روز در کل مطالعه و قرار دادن این هستم. به یک طراحی ANOVA متعادل. اما من کمی مطمئن نیستم که آیا می‌خواهم داده‌ها را به حالت متعادل درآورم یا واقعاً متعادل باشد. هر کمکی با تشکر دریافت شد.
تغییر در میانگین سطح ریسک را در یک سرویس جایگزین برای اقدامات مکرر نامتعادل ANOVA بررسی کنید
96256
من از تابع رتبه بندی متلب با «روش» محاسباتی p-value که روی «تقریبی» تنظیم شده است استفاده می کنم. آیا راهی برای تعیین اینکه تقریب با چه دقتی انجام می شود وجود دارد؟
MATLAB - انجیر را در تقریب معمولی متلب از p-value نشان می دهد؟
111129
من با SVR کار می‌کردم و به این فکر می‌کردم که چرا نمی‌توانم یک مشکل رگرسیون طبیعی را به عنوان یک کار چند طبقه‌بندی حل کنم؟ مثال: من برای یک مشکل رگرسیون دارم: اهداف 1، 5 و 10، تلاش برای جا دادن اعداد صحیح در داخل این محدوده. چرا نمی توانم از چند طبقه بندی با اهداف 1، 2، 3، 4، 5، 6، 7، 8، 9، 10 استفاده کنم؟ مزایا و معایب چنین رویکردی چیست؟ * یکی از معایبی که می توانم ببینم این است که باید یک مجموعه تمرینی کامل (1 تا 10) در مسئله چند کلاسه داشته باشم. مشکل دیگری وجود دارد؟
رگرسیون در مقابل چند طبقه بندی
11054
برای مشکل طبقه بندی خود، سعی می کنم یک شی را به عنوان خوب یا بد طبقه بندی کنم. من توانستم اولین مرحله طبقه بندی خوبی ایجاد کنم که داده ها را با استفاده از SVM به 2 گروه جدا می کند. پس از تنظیم پارامترها برای SVM با استفاده از یک مجموعه آموزشی/هولدآوت (75% آموزش، 25% توقف)، نتایج زیر را از مجموعه نگه‌داری به دست آوردم: گروه 1 (مدل طبقه‌بندی شده به عنوان بد) شامل 99% اشیاء بد، و گروه 2 (مدل طبقه بندی شده به عنوان خوب) شامل حدود 45٪ اشیاء خوب و 55٪ اشیاء بد بود. من عملکرد مدل را با استفاده از K-fold CV (k=5) تأیید کردم و متوجه شدم که مدل از نظر نرخ‌های طبقه‌بندی اشتباه، پایدار است و عملکرد نسبتاً ثابتی دارد. اکنون، می‌خواهم با آموزش مدل دیگری (ممکن است SVM باشد یا ممکن است SVM) روی گروه 2 اشیاء شاید خوب/شاید بد، این اشیاء را از دور دیگری از طبقه‌بندی عبور دهم تا حالا که خلاص شده‌ام سعی کنم دسته دوم را به درستی طبقه‌بندی کنم. از اشیاء بدیهی من چند تا فکر داشتم، اما مطمئن نیستم که چگونه ادامه دهم. (1) اولین ایده من استفاده از داده های اشیاء طبقه بندی شده از مجموعه Holdout برای آموزش مدل دیگری بود. من توانستم مدل طبقه بندی دیگری را از نتایج مجموعه Holdout آموزش دهم. مشکل این است که من از کمتر از 25٪ از داده های اصلی استفاده می کنم و نگران هستم که در زیر مجموعه بسیار کوچکی از داده هایم بیش از حد برازش کنم. (2) ایده دوم من جمع آوری نتایج CV 5 برابری برای ایجاد مجموعه داده دیگری بود. استدلال من این است که از آنجایی که داده ها به 5 قسمت تقسیم می شوند و هر قسمت از مدلی که توسط 4 قسمت دیگر آموزش داده شده به دو گروه طبقه بندی می شود، فکر کردم که می توانم نتایج پیش بینی شده 5 قسمت را جمع آوری کنم تا نسخه طبقه بندی شده ای از آن به دست آید. مجموعه داده اصلی من و از آنجا ادامه دهید. تنها مشکل این است که من احساس غرق شدن دارم که هر دو روش خوب نیستند. آیا CV می تواند برخی از مراحل بعدی احتمالی را روشن کند؟ متشکرم! **ویرایش** با عرض پوزش، سوال من بد بیان شد. بگذارید سعی کنم روشن کنم که چه کاری می خواهم انجام دهم. می توان آن را مانند یک درخت تصور کرد... * اجازه دهید مجموعه داده اصلی را Node 0 بنامم. * من از روش طبقه بندی 1 برای تقسیم گره 0 به گره 1 و گره 2 استفاده کردم. اشیاء) * گره 2 دارای نرخ اشتباه طبقه بندی بالایی است (تقریباً حتی ترکیبی از اشیاء خوب و بد) * اکنون می خواهم از روش طبقه بندی 2 برای تقسیم گره 2 استفاده کنم. گره 3 و 4 روش طبقه بندی می تواند هر چیزی باشد (LDA، QDA، SVM، CART، Random Forest و غیره). بنابراین حدس می‌زنم آنچه در اینجا می‌خواهم به آن برسم، درخت «طبقه‌بندی» (_not_ CART) است، که در آن هر گره تحت یک روش طبقه‌بندی _دیفرنت قرار می‌گیرد تا یک «خلوص طبقه» کلی به دست آید. اساسا، من می خواهم از ترکیبی از روش های مختلف طبقه بندی برای به دست آوردن نتایج معقول استفاده کنم. مشکل من در از دست دادن داده های آموزشی پس از اولین تقسیم است. پس از اجرای روش طبقه بندی 1 که در مورد من SVM بود، داده های قابل استفاده من تمام می شود.
آموزش چندین مدل برای طبقه بندی با استفاده از مجموعه داده های مشابه
8653
من علاقه مندم که تخمین بزنم که چند موضوع باید در یک مطالعه تصویربرداری مغز گنجانده شود. اگرچه طراحی یک مقایسه مقطعی نسبتاً مستقیم است، اما تعدادی از مراحل پردازش تصویر قابل تغییر بین تصویر خام و تصویر پردازش شده وجود دارد که در آنها مقایسه‌های پیکسلی انجام می‌دهیم. من از تابع power.t.test در R برای تخمین تعداد افراد مورد نیاز برای رسیدن به اهمیت آماری، با استفاده از مقادیر دلتای فرضی و تخمین‌های sd از یک جمعیت کنترل استفاده کرده‌ام. من این تجزیه و تحلیل ها را با تنظیمات مختلف پردازش تصویر اجرا کرده ام که منجر به تعداد زیادی نمودار تعداد سوژه ها در هر گروه در مقابل برخی پارامترهای پردازش تصویر می شود. آنقدر زیاد که ارائه صدها طرح درهم و برهم به نظر می رسد. آنچه من می خواهم یک معادله تجربی است که به کاربران امکان می دهد تعداد سوژه ها را در هر گروه به عنوان تابعی از اندازه افکت، آلفا و چند پارامتر خاص پردازش تصویر دیگر تخمین بزنند. به این ترتیب من فقط باید ضرایب را برای معادله گزارش کنم نه اینکه صدها نمودار را ارائه کنم. آیا چنین چیزی ممکن است؟ تا اینجای کار، اگر N~ k1/effect.size^2 را مدل کنم، برای برخی از مقادیر آلفا (مثلا) خوب به نظر می رسد، اما برای برخی دیگر چندان خوب کار نمی کند. نمودار log-log نیز رابطه را به خوبی مدلسازی نمی کند. به نظر نمی‌رسد که من نمی‌توانم یک فرمول صریح پیدا کنم که تعداد آزمودنی‌ها در هر گروه را با سایر عوامل در تحلیل قدرت مرتبط کند. آیا این وجود دارد؟ با تشکر
نحوه مدل سازی رابطه بین تعداد آزمودنی ها در هر گروه، به دست آمده با استفاده از روش های تحلیل توان استاندارد، و مطالعه پارامترهای خاص
111128
من سعی می کنم یک مدل پیش بینی برای پیش بینی ارزش باقیمانده تجهیزات الکترونیکی استفاده شده بسازم. به عنوان اولین گام، من چند طرح سریع ایجاد کردم تا به صورت بصری هر ویژگی جالبی را شناسایی کنم. در اینجا یک مثال آورده شده است: ![قیمت‌های استفاده شده برای یک محصول الکترونیکی مصرف‌شده](http://i.stack.imgur.com/F360n.png) چند چیز برجسته هستند: 1. قیمت‌ها «تند» هستند، یعنی قیمت‌ها تمایل دارند اعداد گرد را در آغوش بگیرند و تکه تکه کنند. 2. زمانی که یک محصول جدید عرضه می شود، قیمت به طور ناگهانی کاهش می یابد. تاریخ عرضه محصول تا حدودی قابل پیش بینی است. در نگاه اول، به نظر می رسد که این را می توان به سه بخش تقسیم کرد: 1. فرسایش قیمت قبل از عرضه محصول جدید 2. تأثیر عرضه محصول جدید 3. فرسایش قیمت پس از عرضه محصول جدید، سپس قطعات را می توان به هم دوخت. . آیا با در نظر گرفتن رویدادهای بازار قابل پیش بینی، این روشی معقول به نظر می رسد؟ آیا روش ها/رویکردهای آماری خاصی وجود دارد که شما برای این نوع مشکل توصیه می کنید؟
پیش بینی با رویدادهای قابل پیش بینی بازار
5368
من فکر می کنم که پس از اعمال PCA، کوواریانس بین اجزا کاهش می یابد زیرا هدف PCA به حداکثر رساندن واریانس است. کوواریانس توسط تحلیل عاملی مورد نیاز است و بنابراین منطقی نیست که روی داده ها در فضای PCA عمل کنیم. آیا این معنی دارد؟ کسی توضیح دیگه ای داره؟
چرا استفاده از تحلیل عاملی بعد از PCA منطقی نیست؟
17843
من از Holt Winters برای پیش بینی درآمد فروش از عملکرد گذشته استفاده می کنم. فصلی و تغییر روند در داده ها وجود دارد. یکی از دلایل انتخاب شده برای Holt Winters این است که نسبتاً ساده (قابل اجرا در اکسل) و قابل توضیح برای افراد غیرآمار است. اگر روش‌های دیگر مناسب‌تر هستند، خوشحالم که در مورد آنها می‌شنوم. یکی از جزئیات اجرایی کلیدی انتخاب ضرایب $\alpha، \beta$ و $\gamma$ است. آیا مقادیر «استاندارد» برای اینها وجود دارد؟ دلیل دیگر این متدولوژی به روز رسانی خودکار آن است. این مفید خواهد بود زیرا سری با تغییرات بازار تغییر می کند. من قصد داشتم مقدار استاندارد را با چشم تنظیم کنم تا تغییرات احتمالی را کاهش دهم. آیا این یک رویکرد معقول است؟
چگونه ضرایب را برای زمستان هالت انتخاب کنیم؟
111121
اگر $\text{P}(M|D)$ عقب باشد، $a$ ثابت تناسب، $\text{P}(M)$ قبلی و $\text{P}(D|M)$ است. احتمال است. من توزیع قبلی را دارم و تابعی را می دانم که می تواند احتمال هر نمونه پارامتر ورودی را بدهد. سپس قانون بیز این است: $\text{P}(M|D)= a\times\text{P}(M)\times\text{P}(D|M)$. اگر بخواهم از $\text{P}(M|D)$ توسط Gibbs نمونه برداری کنم، توزیع شرطی کامل من چیست؟ آیا $\text{P}(M)\times\text{P}(D|M)$ است؟
توزیع مشروط کامل در مورد من چیست؟
17842
چگونه می توانم نمودار وافل را به عنوان جایگزینی برای استفاده از Piechart در R رسم کنم؟ help.search(waffle) هیچ فایل کمکی با نام مستعار یا مفهوم یا عنوان مطابق با waffle با استفاده از تطبیق فازی یافت نشد. نزدیکترین چیزی که در جستجوی گوگل پیدا کردم، موزائیک‌پلت‌ها هستند.
چگونه نمودار وافل را در R بسازیم؟
50966
من سعی کردم این را در انجمن دیگری بپرسم، اما بعد از 4 ماه هیچ پاسخی ارسال نشده است، بنابراین در اینجا می پرسم: وضعیت فعلی رویکرد هنری برای تعیین ژست یک فرد (از جمله ژست های نزدیک مانند یک ضربه سر) چگونه است. ، و شات دستی و غیره...)، و برای تقسیم شخص از پس زمینه؟ تنظیمات اینجا تصاویر ثابت تکی است.
روش های جدید برای تقسیم بندی افراد و شناسایی ژست افراد چگونه است؟
50969
من در حال طراحی پرسشنامه ای برای مقایسه تجربه کاربر از استفاده از دو نمونه اولیه نرم افزار - نمونه اولیه A و B هستم. کاربران نمونه اولیه A را برای یک کار و سپس نمونه اولیه B را برای انجام همان کار بر اساس مقیاس لیکرت 5 درجه بندی می کنند. این پرسشنامه شامل 5 سوال مربوط به معیارهای مختلف تجربه کاربر و دارای رتبه بندی برای هر معیار است. چگونه می توانم رتبه های لیکرت را برای دو نمونه اولیه با استفاده از آزمون های آماری مقایسه کنم؟
نحوه مقایسه رتبه بندی لیکرت برای چندین روش در یک مطالعه قابلیت استفاده
8657
که درصد جمعیت دارای حق رأی است (برای مثال بالای 18 سال). آیا می توانید چند مقاله را به من نشان دهید که در مورد رای دادن و سن صحبت می کند؟
جمعیت رای
66871
من این سردرگمی را مربوط به دو روش برای اضافه کردن نویز سفید گاوسی به داده ها دارم. فرض کنید من یک توزیع گاوسی دو متغیره با میانگین بردار و ماتریس کوواریانس دارم $$ \mu = \begin{pmatrix} 0 \\ 0 \end{pmatrix}, \quad \Sigma = \begin{pmatrix}1 & 0.5 \\0.5 & 1 \end{pmatrix}. $$ حالا فرض کنید می خواهم یک نویز سفید گاوسی اضافه کنم. می خواهم بدانم تفاوت روش های زیر چیست؟ **روش A** نمونه هایی از توزیع گاوسی دو متغیره با میانگین $\mu$ و ماتریس کوواریانس $\Sigma$ تولید کنید و سپس نویز را با میانگین صفر و واریانس واحد مانند برای هر داده i(i,1) = داده( i,1) + $\epsilon_1$ data(i,2) = data(i,2) + $\epsilon_2$ جایی که $\epsilon_1$ & $\epsilon_2$ نویز است ~ N(0,1) **روش B** تولید نمونه از یک توزیع گاوسی با میانگین $\mu$ و ماتریس کوواریانس $\Sigma + \sigma^2I$، که در آن $I$ نشان دهنده ماتریس هویت است و $\sigma^2$ واریانس نویز روی 1 تنظیم شده است آیا این روش ها معادل هستند؟
سردرگمی مربوط به اضافه کردن نویز به داده های گاوسی
66875
در اینجا پاسخ یکی از سوالات در خبرنامه آمده است. من سعی نمی‌کنم نشان دهم که این نادرست است، فقط نمی‌دانم چرا این یک عمل قابل قبول است. می دانم که فرضیات ساده سازی همیشه مطرح می شوند، اما چرا این کار مفید است؟ \begin{معادله} \begin{split} p(\theta|y) &= \frac{p(y|\theta)p(\theta)}{p(y)} \\ &\propto\frac{\Gamma(\alpha)\Gamma(\beta)}{\Gamma(\alpha+\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1 }*\binom{n}{y}\theta^y(1-\theta)^{n-y} \\ &\propto\theta^{\alpha-1}(1-\theta)^{\beta-1}*\theta^y(1-\theta)^{n-y} \\ &\propto\theta^{\ آلفا+ی-1}(1-\تتا)^{\بتا+n-y-1} \\ &=\frac{\Gamma(\alpha+y-1)\Gamma(\beta+n-y-1)}{\Gamma(\alpha+\beta+n-1)}\theta^{\alpha+y-1 }(1-\theta)^{\beta+n-y-1} \end{split} \end{equation} مشکل من این است که از متناسب به به برابر می رویم، که خوب، اما این دقیقا چه می گوید؟ همانطور که در، من می فهمم که چگونه از هر خط به خطی که در پی آن است می رویم، اما نمی فهمم این به ما چه می گوید. مطمئنا، ما در نهایت به یک توزیع بتا برمی گردیم، اما تنها پس از حذف مقادیر زیادی. آیا این ارزش ها مهم نیستند؟ آیا این که یک بتای قبلی با احتمال دوجمله‌ای دارای خاصیت مزدوج است، معنی عمیقی دارد؟ مطمئناً می‌تواند محاسبات را ساده‌تر کند، اما آیا این در عمل مفید است، اگر چنین است چرا؟ **ویرایش 1:** پس آیا این ثابت ها واقعاً حذف می شوند یا بعداً به حساب می آیند؟ می‌دانم که ثابت‌ها از نظر تناسب و ادغام اهمیتی ندارند، اما بیرون انداختن آنها کاملاً به نظر من غیرشهودی است. مطمئناً، اگر شما در حال ضرب/تقسیم یک دسته از اعداد در یک عبارت با یک ثابت هستید، و تنها چیزی که به آن اهمیت می‌دهید رابطه آن اعداد با یکدیگر است، می‌توانید ثابت‌ها را بیرون بیاورید و این رابطه ثابت می‌ماند. اینجا چه خبر است؟ **ویرایش 2:** از آنچه من می توانم بگویم، ما از ثابت ها خلاص می شویم، ساده می کنیم و سپس انتگرال را می گیریم و آن انتگرال را عادی می کنیم. به موجب نرمال سازی، ما ذاتاً ثابت هایی را که قبلاً حذف کرده بودیم در نظر می گیریم. آیا این درست است؟ فکر می‌کنم اکنون فهمیده‌ام، به هر دلیلی، به معادله اصلی به‌عنوان یک مقدار اسکالر فکر می‌کردم تا توزیع احتمال.
چگونه در یک مشتق بیزی از تناسب به برابری برگردیم؟
89416
چگونه می توانم این را نشان دهم: $$\sum_{i=1}^n (X_i-\bar{X})^2=\sum_{i=1}^n X_i^2-n\bar{X} ^2\,,$$ (جایی که $\bar{X}=\frac{1}{n}\sum_{i=1}^n X_i$)؟ با تشکر از شما برای کمک شما!
معادله آماری پایه
28832
ویکی‌پدیا در طبقه‌بندی باینری می‌گوید: > آزمایش‌هایی که نتایج آن‌ها دارای مقادیر پیوسته هستند، مانند اکثر مقادیر خون، می‌توانند با تعریف یک مقدار قطع، به‌طور مصنوعی باینری شوند، با نتایج آزمایش > بسته به این که آیا مقدار حاصل از آن، مثبت یا منفی است. بالاتر یا پایین تر از برش است. آیا راهنمایی وجود دارد که آیا این کار مطلوبی است یا خیر؟ من داده هایی دارم که در آن مقدار خروجی در مجموعه آموزشی پیوسته است و علاقه مندم بدانم متغیر خروجی چقدر قوی است. در حالت ایده‌آل، یک مقدار پیوسته دقیق بهترین خواهد بود، اما من از طبقه‌بندی باینری نیز راضی خواهم بود. فرض من این است که کار طبقه بندی باینری کمی ساده تر است. آیا راهنمایی در مورد ترجیح دادن خروجی پیوسته در مقابل طبقه بندی باینری وجود دارد؟
طبقه بندی باینری در مقابل خروجی پیوسته با شبکه های عصبی
28833
من با تطبیق بیش از حد در pLSA (Probabilistc Latent Semantic Analisys) مشکل دارم. من از نماد زیر استفاده خواهم کرد: * $t \in T$: موضوع، متغیرهای پنهان * $d \in D = D_{train} \cup D_{test}$: اسناد * $w \in W$: شرایط هر سند $d$ بردار عناصر $|W|$ است و $d[i] = 1$ اگر $w_i \in W$ در $d$ ظاهر شود. **آموزش:** من الگوریتم EM را روی یک مجموعه آموزشی اعمال می کنم و احتمالات $P(w | t)، \forall w، t$ را تخمین می زنم. **تست:** با استفاده از الگوریتم EM، برای هر سند $d' \in D_{test}$ i محاسبه $P(t | d')$; سپس سند را با: $$d'_{predicted}[w] = \sum_{t \in T} P(w | t)P(t | d)$$ بازسازی می‌کنم حالا می‌توانم _False Positive Rate_ و _False را محاسبه کنم Negative Rate_ و مقدار یک تابع _error_ (مساحت زیر یک منحنی ROC را فرض کنید). من متوجه شده‌ام که اگر تعداد مبحث را افزایش دهم، خطا کاهش می‌یابد، بنابراین مانند این است که من مقداری بیش از حد برازش داشته باشم اما در مجموعه اعتبارسنجی. از آنجایی که در مرحله اعتبارسنجی، برخی پارامترها را با الگوریتم EM تخمین می زنم، آیا ممکن است اگر تعداد متغیرهای پنهان (موضوعات) بیش از حد تخمین زده شود، نویز را نیز متناسب کنم؟
بیش از حد با pLSA
110659
من در حال حاضر روی یک مشکل رگرسیون لجستیک با متغیر پاسخ مورد شاهدی و ژنوتیپ SNP به عنوان رگرسیون کار می کنم. آیا می توانم 0، 1، 2 را به جای فاکتور پیوسته در نظر بگیرم؟
آیا می توانم ژنوتیپ SNP 0 1 2 را به عنوان مقدار پیوسته در نظر بگیرم؟
89412
من روی پیش بینی داده ها کار می کنم. با توجه به داده های یک متغیر تصادفی $X$ و $Y$، نحوه پیش بینی $Y$ از $X$ را بیابید. من می دانم که چگونه آن را با رگرسیون خطی انجام دهم، $\hat{Y} = kX + b$. اما، در اینجا، $X$ همیشه غیر منفی است و $Y$ لازم است که غیر منفی باشد. گاهی اوقات، $b$ غیر منفی نیست به طوری که $y < 0$ است. چگونه اطمینان حاصل کنیم که $b > 0$ و همچنین خطای پیش‌بینی را به حداقل برسانیم؟ آیا راه های بهتر دیگری (نه رگرسیون) برای انجام پیش بینی وجود دارد؟
پیش‌بینی داده‌ها با رگرسیون یا روش‌های بهتر
50961
من در حال ساختن یک برنامه برای پیش بینی امتیاز در یک بازی بیست و بیست کریکت هستم. من یک سری دیتاپوینت سه بعدی دارم که از روی تعدادی از بازی هایی که برایشان اطلاعات دارم محاسبه شده است. در امتداد محور x تعداد ویکت هایی داریم که یک تیم از دست داده است. تا محور y تعداد دویدن داریم که در نهایت آنها به ثمر می رسند. و در محور z ما تعداد اورهایی در اینینگ داریم. برای مثال، یک دیتاپوینت ممکن است بگوید، ما 10 اور به بازی رسیده ایم، تیم 2 ویکت پایین تر است: آنها در نهایت 160 ران به ثمر می رسند. از این داده‌ها می‌خواهم بتوانم تعداد اورهای ما و تعداد ویکت‌های یک تیم را از دست بدهم و تعداد ران‌هایی را که پیش‌بینی می‌شود یک تیم به ثمر برساند، مشخص کنم. من داده ها را در اینجا رسم کرده ام (که در آن خطوط رنگ های مختلف به اورهای مختلف در محور z اشاره می کنند): ![خطوط رنگ های مختلف به تعداد اورهای مختلف اشاره دارد](http://i.stack.imgur.com/8SOuK.jpg ) همانطور که ممکن است نتوانید بگویید، در وسط داده ها، خطوط به خوبی با هم مرتبط هستند، این به این دلیل است که ما داده های بسیار بیشتری برای بازی های متوسط داریم (مثلاً جایی که یک تیم 4 نفره است. ویکت ها پس از 10 اوور پایین می آیند). با این حال، در لبه‌ها، داده‌ها بر اساس بازی‌های بسیار کمی است (مثلاً جایی که یک تیم در اوور نوزدهم هیچ ویکتی ندارد)، جایی که یک نقطه داده برای من آشکارا اشتباه به نظر می‌رسد (یک نقطه پرت)، من برای اصلاح آن یک خط چین اضافه کرده‌ام. . سوال این است که چگونه می توانم یک سطح صاف و متناسب با این نقاط بسازم؟ و چگونه می توانم اثر پرت را به حداقل برسانم؟ آیا نام خاصی برای این نوع چیزها وجود دارد؟ ویرایش: اکنون که در مورد آن فکر می کنم، واقعاً چیزهای دور از دسترس نیست، فقط داده های کمتر قابل اعتماد.
اتصال یک سطح به داده های سه بعدی
50963
من در حال خواندن یادداشت های کلاین و منینگ در مورد حداکثر آنتروپی برای پردازش زبان طبیعی هستم. در اسلاید 22، آنها معادله ای دارند که می گوید: $P(C|D،\lambda) = \Pi _{(c,d)\in (C,D)} P(c|d،\lambda)$. من مطمئن نیستم که آنها چگونه این را به دست می آورند یا واقعاً به چه معنی است. در ویدیوی دوره در مورد این موضوع، منینگ می‌گوید که به این دلیل است که متغیرهای تصادفی مستقل و به طور یکسان توزیع شده‌اند. با این حال، من فکر می‌کردم، روش‌های حداکثر آنتروپی نسبت به Naive Bayes ترجیح داده می‌شوند، زیرا آنها فرضیات استقلال «ساده‌انگیز» را انجام نمی‌دهند. اگر کسی مرجعی برای این معادله داشته باشد، عالی خواهد بود.
فرض استقلال در مدل های حداکثر آنتروپی در NLP
50960
من سعی می کنم یک متغیر نتیجه دوگانه را با استفاده از مجموعه بزرگی از متغیرهای مشتق شده از حسگر با ارزش پیوسته توضیح دهم. بسیاری از این متغیرها به شدت با یکدیگر همبستگی دارند، برخی از آنها مبتنی بر مفاهیم فیزیکی جامد هستند (و بنابراین تفسیر آنها آسان تر است) برخی دیگر انتزاعی تر و توضیح آنها دشوار است. من سعی می کنم ارتباط این متغیرهای حسگر را با نتیجه بررسی کنم (یعنی کدام متغیرها یا ترکیبی از متغیرها می توانند متغیر نتیجه دوگانه را به بهترین نحو توضیح دهند؟) هدف ثانویه تعیین اینکه آیا می توان از زیر مجموعه ای از این متغیرها برای توضیح دوگانگی استفاده کرد یا خیر. نتیجه من مایلم از استفاده از روش برازش گام به گام اجتناب کنم (به دلیل خطر بیش از حد برازش و احساس اینکه متغیرهای قابل تفسیر آسانتر باید در مدل بر متغیرهای بسیار همبسته اما کمتر قابل تفسیر ترجیح داده شوند). به طور خلاصه، من به دنبال تداعی های واقعی به جای جایگزین های پر سر و صدا با استفاده از متغیرهای همبسته اما کمتر در سطح جهانی هستم. برای جلوگیری از چند خطی بودن در تحلیل‌ها، تعداد متغیرها را با استفاده از رگرسیون لجستیک با تحلیل بلوکی کاهش دادم. متغیرهای مشتق شده از حسگر بر اساس نوع در بلوک ها گروه بندی شدند. در هر زیرگروه از متغیر نتیجه دوگانه به عنوان متغیر وابسته استفاده شد. با کار با هر بلوک، من یک رگرسیون لجستیک روی هر متغیر مستقل انجام دادم و فقط آنهایی که معنی‌دار بودند (0.05< α) در هر بلوک حفظ شدند. از طریق این روش، تمام متغیرهای غیر معنی‌دار را از تحلیل‌های مدل نهایی حذف کردم. سپس یک مدل رگرسیون لجستیک نهایی را با استفاده از نتایج تحلیل هر زیرگروه ایجاد کردم. من از نظراتی که در مورد اینکه آیا این یک رویکرد معتبر است یا خیر سپاسگزارم؟ آیا می‌توان از نسبت‌های شانس مدل رگرسیون لجستیک نهایی برای تفسیر ارتباط متغیرهای حسگر گنجانده شده با متغیر نتیجه به روش آزمون فرضیه استفاده کرد؟
تحلیل اکتشافی: مدل رگرسیون با پیش‌بینی‌کننده‌های همبسته متقابل برای توضیح یک نتیجه دوگانه؟
64548
در نقطه زمانی اول - 75% (485 از 646) از پسران و 63% (350/555) از دختران در گروه الف قرار دارند. در زمان دوم - 80% (480/600) پسران و 45% ( 225/500) از دختران در گروه الف قرار می گیرند، به طوری که بین دو مقطع زمانی 5% برای پسران و 18% برای دختران تفاوت وجود دارد: ![جدول][1] من امیدوار بودم که کسی بتواند من را در جهت درست راهنمایی کند که از چه آزمونی برای مقایسه این تغییر (5% در مقابل 18%) بین دو نقطه زمانی استفاده کنم. توجه داشته باشید که پسران و دختران در نقطه زمانی اول، در نقطه زمانی دوم یکسان نیستند. آیا فرض می شود این درصد تغییر به طور معمول توزیع شده است؟
تغییر در نسبت - دو نقطه زمانی
8651
آیا راهی برای یافتن همبستگی اسپیرمن بین دو توزیع Weibull وجود دارد؟ من به آن به عنوان یک پارامتر در یک تابع کوپول برای توزیع مشترک Weibull نیاز دارم. من آموختم که استفاده از همبستگی پیرسون، که به راحتی می توانم از واریانس ها و واریانس های متقاطع طیف های داده شده به دست بیاورم، با کوپولا قابل اعتماد نیست، به خصوص زمانی که داده ها به طور معمول توزیع نشده باشند.
همبستگی اسپیرمن دو توزیع وایبول
82038
من پاسخ‌های مقیاس لیکرت پنج نقطه‌ای دارم ((1-بیشترین عدم تغییر، 5-کمترین واکنش) برای 14 مورد که می‌خواهم آنها را با تحلیل عاملی تأییدی به 5 عامل تبدیل کنم. قبلاً طراحی کرده‌ام که کدام مورد باید در چه عاملی قرار گیرد، بنابراین می‌توانم از فاکتورهای اکتشافی استفاده نکنم، از آنها در یک رگرسیون لجستیکی نیز استفاده خواهم کرد، زیرا افراد بیشتری برای اینکه امکانات خاصی در آنها مهم باشد، پاسخ می دهند محله سوال من این است که آیا من باید به CFA مراجعه کنم، یا فقط باید مقدار متوسط ​​را برای پاسخ های موردی در هر یک از امکانات محاسبه کنم (به عنوان مثال، حمل و نقل عمومی، مترو) و از این مقادیر میانگین در رگرسیون لجستیک استفاده کنم. آیا می توانم از SPSS استفاده کنم و فقط مواردی را که در آن فاکتور قرار می گیرند با اجبار به استخراج تنها یک فاکتور اضافه کنم، از کدام روش استفاده کنم-PC، ULS، GLS، ML، PAF متشکرم، آرونا
آیا می توانم از مقادیر میانگین پاسخ های لیکرت به جای نمرات فاکتور در صورت وجود مقادیر اریب استفاده کنم؟
89418
من از R برای 4 ماه گذشته با تجزیه و تحلیل تست پایه، مدل های رگرسیون، ANOVA و غیره استفاده می کنم. اکنون به دنبال یک مشکل خاص هستم. در لغت، مسئله را می‌توان اینگونه بیان کرد: > یک ماشین خاص یک مشکل 'ABC' دارد، احتمال (با > اهمیت آماری معین - pvalue) برای گرفتن مشکل 'XYZ' چقدر خواهد بود. من داده ها را برای مرجع بازسازی کرده ام: ESN,BUILDDATE,FAILEDDATE,FAILCODE XYZ123,06-01-2010,07-12-2010,CCNI XYZ123,06-01-2010,07-12-2010,FYDM XYZ123,06-01-2010,25-01-2011,FBDD XYZ123,06-01-2010,25-01-2011,FRQF XYZ123,06-01-2010,25-01-2011,YJ XYZ123,06-01-2010,17-03-2011,CCIT XYZ123,06-01-2010,03-11-2011,FRQF XYZ123,06-01-2010,03-11-2011,ZOFC PBC221,06-01-2010,25-05-2011,FRQF PBC221,06-01-2010,25-05-2011,JSDM PBC221,06-01-2010,04-08-2011,FBPS PBC221,06-01-2010,04-08-2011,IZBW PBC221,06-01-2010,17-10-2011,FRIE JKL343,06-01-2010,10-06-2010,FUJC JKL343,06-01-2010,08-10-2010,CWHS JKL343,06-01-2010,12-11-2010,FJDN JKL343,06-01-2010,12-11-2010,FY JKL343,06-01-2010,10-09-2011,FRQF JKL343,06-01-2010,05-10-2011,VTEU JKL343,06-01-2010,09-01-2012,FU نمودار احتمال یا نمودار طبقه بندی بر اساس این نوع داده ها. مدل باید نتایجی مانند احتمال خطای CCIT پس از CCNI باید 0.xxx باشد. چیزی که من تاکنون امتحان کرده‌ام 1) احتمال شرطی عادی CCIT/CCNI است - اما این کار را با تقسیم تعداد رویدادها انجام دادم که به من احتمال نقطه‌ای بدون مقادیر معنی‌دار داد. 2) من از بسته قوانین برای پیدا کردن الگوها استفاده کردم. من از کد زیر برای این استفاده می کنم: train<-split(claims$FAILCODE,claims$M_No) listData <- list() for (i in 1:length(train)) { listData[[i]] <- as.character (train[[i]][!duplicated(train[[i]])]) #Line-A } trnsData <- قوانین as(listData,transactions)<-apriori(trnsData,parameter= list(support=.001, اعتماد=0.1,minlen=1)) این کد مطابق با نیازهای من به من پاسخ می دهد، اما تکراری نیست ، مانند یک ماشین واحد اگر یک خطای خاص دو بار اتفاق بیفتد الگوریتم آن را در ورودی قبول نمی کند. (در خط کد بالا ذکر شده با کامنت 'Line-A' حذف کردن فایل کد تکراری است.) بنابراین با این روش دو سوال دارم: الف) چگونه تأثیر یک نوع شکست را چندین بار بررسی کنیم؟ ب) آیا این الگوریتم هنگام تهیه خروجی، دنباله ای را در نظر می گیرد؟ منظورم این است که وقتی من خروجی فالو دریافت می کنم، باید بر اساس faildate باشد. یعنی FBDD و FEQF باید قبل از YYJQ اتفاق بیفتد. قوانین پشتیبانی از افزایش اطمینان 1: {FBDD,FEQF} => {YYJQ} 0.001039655 0.2333333 1.018168 2: {YYJO} => {FRQF} 0.001039655 0.3618421 ممکن است با استفاده از بسته I 0.3618421 اشتباه باشد یا با استفاده از بسته I 0.3618421 اشتباه باشد. تنظیمات اشتباه است، لطفا به من بگویید چگونه می توانم راه حل این مشکل را پیدا کنم. برخی از حقایق مهم: 1. من بیش از 800 نوع Failcode دارم.
تشخیص الگو در مسئله عملی در R
110384
من سعی می کنم از کتابخانه urca برای انجام تست هم انباشتگی و تابع آن ca.jo استفاده کنم که رویه جوهانسن را روی یک مجموعه داده معین انجام می دهد. من فکر می کنم ترتیب تاخیر 1 برای یک VECM cointegrated امکان پذیر است، به این معنی که تصحیح خطای کوتاه مدت ندارد. برای مثال، VAR(1) $$ X_t=\Pi_1X_{t-1} + \epsilon_t $$ داریم و VECM آن $$ \Delta X_t = \Pi X_{t-1} + \epsilon_t $$ است که $ \Pi=\Pi_1-I_2$ چرا ca.jo حداقل ترتیب تاخیر را 2 تعیین می کند؟ آیا دلیلی پشت آن وجود دارد؟
چرا ca.jo دارای حداقل ترتیب تاخیر 2 است؟
82039
من در تلاش برای تشخیص همگرایی یک پیاده روی تصادفی روی یک نمودار هستم. پس از انجام برخی تحقیقات مقدماتی، به نظر می رسد که تشخیص همگرایی Geweke بیشتر برای این مورد استفاده می شود. این تشخیص، امتیاز z زنجیره را در هر تکرار پیاده‌روی می‌خواند و زمانی که امتیاز z در بازه‌ای از [-1، 1] قرار می‌گیرد، همگرایی را اعلام می‌کند. امتیاز z به این ترتیب محاسبه می‌شود: $$ z=\frac{E(X_a)-E(X_b)}{\sqrt{Var(X_a)+Var(X_b)}} $$ که در آن $X_a$ و $X_b$ دو دنباله از زنجیره جاری هستند، معمولاً 10٪ اول و 50٪ آخر زنجیره. مجموعه داده من یک خزیدن متراکم از یک شبکه اجتماعی است که در آن هر گره یک کاربر است. سوال من این است: در این زمینه، مقادیر مورد انتظار زیر زنجیره‌های $X_a$ و $X_b$ چه خواهد بود؟ آیا این طول ها، یا تابعی از طول ها و درجات گره ها یا چیز دیگری است؟ ممنونم!!
تشخیص همگرایی در پیاده روی تصادفی
89417
من یک مدل دو لایه دارم. در لایه دوم مدل که یک لاجیت چند متغیره است، 4 متغیر با ضرایب تصادفی وجود دارد. من فرض می کنم که چهار ضریب تصادفی از توزیع نرمال چند متغیره با واریانس های مختلف پیروی می کنند. برخی از آنها حتی کوواریانس غیر صفر دارند. مقادیر تولید شده/شبیه‌سازی‌شده از لایه دوم در توابع لایه اول قرار می‌گیرند که یک مدل پویا است. لحظه تفاوت بین داده های واقعی و حاصل ضرب مقادیر تولید شده از توابع هر دو لایه است. من می دانم که شبیه سازی مستقیم مونت کارلو برای این مشکل کار نمی کند زیرا راندمان برای چنین مشکلی کم است. ممکن است پوشش ضعیفی ارائه دهد و تعداد قرعه‌کشی‌ها باید بسیار زیاد باشد تا به یک تقریب خوب برسد. با این حال، فکر نمی‌کنم الگوریتم‌های دیگری مانند MCMC بتوانند برای مشکل من کار کنند، زیرا من یک مدل استاتیک با ضرایب تصادفی در یک مدل پویا دارم. علاوه بر این، من باید مجموعه دیگری از خطاها را ترسیم کنم تا رفتار خانواده ها را با پارامترهای شبیه سازی شده شبیه سازی کنم. من همچنین به تقریب لاپلاس نگاه می‌کنم و به سختی می‌توانم آن را در موقعیتم اعمال کنم. من تعجب می کنم که چگونه در چنین مشکلی به طور موثر شبیه سازی کنم. از همه شما متشکرم
چگونه می توان بازده شبیه سازی روش گشتاورهای شبیه سازی شده را با ضریب تصادفی افزایش داد؟
15991
من می خواهم یک رگرسیون حداقل مربعات معمولی را به شکل $$ y = X\beta + \varepsilon، \ $$ تخمین بزنم با این تفاوت که به جای کمینه کردن مجموع مجذورهای باقیمانده، $$ SSR(b)=(y-Xb )'(y-Xb) $$ من می خواهم $$ را به حداقل برسانم (y-Xb)'(y-Xb)+\lambda(b-\tilde{\beta})'(b-\tilde{\beta}) $$ که $\lambda$ مقداری ثابت است. در غیر این صورت، نماد بالا مانند ویکی‌پدیا است. تمام مفروضات استاندارد برآورده می شوند. آیا راهی وجود دارد که بتوانم رگرسیون را برای انجام کمینه سازی مشترک اصلاح کنم؟
چگونه یک محدودیت ضریب نرم را برای رگرسیون OLS اعمال کنیم؟
46978
من یک مدل _Fixed-Effects_ را با رهگیری ها در سطح خوشه نصب می کنم. یکی از مستقیم‌ترین راه‌ها احتمالاً استفاده از بسته «-plm-» است. یکی دیگر از امکان‌های شناخته شده، اعمال OLS (یعنی پذیرش «-lm-») برای داده‌های تحقیر شده است، جایی که میانگین‌ها در سطح خوشه‌بندی گرفته می‌شوند. این رویکرد دوم معمولاً به عنوان **در درون تبدیل** نامیده می شود. از نقطه نظر محاسباتی بسیار راحت است، زیرا ما هنوز ناهمگونی مشاهده نشده را در سطح خوشه بندی کنترل می کنیم، اما نیازی به تخمین همه رهگیری های ثابت زمان نداریم. من هر دوی این روش ها را امتحان کردم و به نتیجه عجیبی رسیدم. در عمل، ضریب رگرسیون بهره، «x»، در هر دو مورد یکسان است. با این حال، خطای استاندارد آن (و در واقع تمام مقادیر مرتبط دیگر رگرسیون: مربع R، آزمون F، و غیره) متفاوت است. لطفاً توجه داشته باشید که من هم اسناد _R را در مورد -plm- و هم مقاله مرتبط نویسندگان را به دقت مطالعه کرده ام، که در آن بیان شده است که بسته از _intransformation_ استفاده می کند و سپس OLS را همانطور که من انجام دادم اعمال می کند. اسکریپت این است: # set seed، بارگیری بسته ها، ایجاد نمونه جعلی set.seed(999) library(plyr) library(plm) dat <- expand.grid(id=factor(1:3), cluster=factor(1:6)) dat <- cbind(dat, x=runif(18), y=runif(18, 2, 5)) ### ######################### # مدل FE با استفاده از -plm- # ########################### # model fit fe.1 <- plm(y ~ x, data=dat, index=cluster , model=within) # ضریب تخمینی و خطای استاندارد x b.1 <- summary(fe.1)$coefficients[,1] se.1 <- summary(fe.1)$coefficients[,2] ##################################### # OLS بر روی داده های درون تبدیل شده # #### ################################# # تقویت قاب داده با متغیرهای مرکز خوشه‌ای dat.2 <- ddply(dat،. ) # ضریب تخمینی و خطای استاندارد x b.2 <- summary(fe.2)$coefficients[1,1] se.2 <- summary(fe.2)$ضرایب[1,2] ######################### مقایسه مدل ها ######### ################# ب.1; b.2 se.1; se.2 summary(fe.1) summary(fe.2) توجه داشته باشید که در مدل دوم لازم است به صورت دستی رهگیری از مدل حذف شود. با تشکر
اثرات ثابت با استفاده از داده های تحقیر شده: چرا خطاهای استاندارد متفاوت هنگام استفاده از -plm-؟
110651
من در حال حاضر اطلاعات مربوط به تعداد دفعات دانلود مجموعه خاصی از آهنگ ها را دارم. هر آهنگ تاریخ انتشار دارد و سپس تعداد دانلودهای روزانه تا امروز وجود دارد. به نظر می رسد: Song1 جمع تجمعی Song1 تاریخ انتشار 5/7/2013 20 20 5/8/2013 40 60 5/9/2013 55 115 ................. ................ Song2 جمع تجمعی Song2 تاریخ انتشار 7/9/2013 13 13 7/10/2013 44 57 7/11/2013 92 149 ................................. من در مجموع حدود 500 آهنگ با داده ها دارم مثل این من کنجکاو هستم که ببینم آیا می توانم نوعی افکت تکثیر کننده را برای هر آهنگ توصیف کنم. منظور من از این این است که آیا مشتریان به نحوی تحت تأثیر تعداد دانلودهایی هستند که در حال حاضر وجود دارد. بنابراین، اگر تأثیر مثبتی داشته باشد، باید هر روز دانلودهای بیشتری را مشاهده کنیم، زیرا مجموع تجمعی بزرگتر می شود. آیا مدلی وجود دارد که ببیند ستون مجموع تجمعی چه تأثیری «ضریب» بر دانلود آهنگ برای روز بعد دارد؟ من سعی کردم در مورد چیزی مانند یک مدل لاجیت فکر کنم، اما فقط برای یک متغیر وابسته باینری کار می کند و یک رگرسیون خطی استاندارد خیلی آسان به نظر می رسد. هر گونه ایده یا توصیه بسیار قدردانی خواهد شد! با تشکر
چگونه می توانم یک اثر ضرب در داده های سری زمانی داشته باشم؟
66872
من سعی کرده ام ناهمگنی یک متغیر معین را کمی سازی کنم. می‌خواهم بگویم که توزیع در غلظت‌های کلسیت، برای مثال، در یک سازند سنگی ناهمگن‌تر از دیگری است. تا کنون من نمودارها و مقایسه توزیع متغیرها را با هیستوگرام های همپوشانی و نمودارهای جعبه ای برای چندین متغیر مقایسه کرده ام، و در کل این خوب است، اما تفسیر نمودارها از طرف خواننده زمان می برد. من به دنبال مقایسه‌های مستقیم‌تری بودم، مثلاً نمودارهای میله‌ای که معیارهای مناسبی از تنوع نمونه را در یک سازه مقایسه می‌کنند. انحراف معیار، محدوده بین چارکی، ضریب تغییرات، میانگین یا میانه انحراف مطلق و غیره. اما به دلایل مختلف من از این رویکردها راضی نیستم. من نمی‌توانم فکر کنم باید یک روش مختصر و دقیق‌تر برای تعیین کمیت ناهمگنی/تغییرپذیری وجود داشته باشد. خطاهای باقیمانده برای سنگ A به شدت توزیع می شوند و برای سنگ B آنها به طور گسترده غیرعادی توزیع می شوند. من سعی می کنم تغییرپذیری مشاهده شده در خطا را با تغییرپذیری مشاهده شده در سایر خواص سنگ گره بزنم. هر دو سنگ A و B از جنبه های مختلف متغیر هستند، و من سعی می کنم تنوعی را که ممکن است مهم باشد برجسته کنم. بنابراین من به دنبال روش‌هایی برای مشخص کردن متغیرها با یک مقدار واحد بوده‌ام، مثلاً تمام IQR‌ها را برای هر متغیر در کنار یکدیگر بر روی نمودار میله‌ای رسم می‌کنم، که در آن می‌توان استنباط کرد که سنگ A معمولاً متغیرتر از سنگ B است. مشکلات من این است: متغیرهایی مانند تخلخل معمولاً همیشه به طور معمول و محکم توزیع می شوند. نفوذپذیری در مقابل همیشه غیر طبیعی است، به شدت کج است، بیش از 6 یا 7 مرتبه بزرگی متفاوت است و معمولاً از یک روند توان پیروی می کند. برای نفوذپذیری، من خوشحال نیستم که یک IQR واقعاً تغییرپذیری را ثبت کند، و ثانیاً IQRهای متغیرهای مختلف با توجه به تفاوت در بزرگی واحد والد، به خوبی در کنار یکدیگر نمودار نمی‌شوند. من به معیارهای نرمال شده تغییرپذیری نگاه کرده‌ام، اما اینها مقادیر را با میانگین یا میانه‌هایی که من احساس نمی‌کنم داده‌ها را منعکس می‌کنند، تغییر می‌دهند. شاید هیچ راه حل ایده آلی برای چنین سبک های توزیع متنوعی وجود نداشته باشد و من فقط باید توزیع های آنها را ارائه دهم...؟
کمی سازی ناهمگنی
89411
من می خواهم آزمایش کنم که آیا تغییرات در سطوح هموگلوبین (Hgb) در طول زمان می تواند به تشخیص سندرم میلودیسپلاستیک (MDS) کمک کند یا خیر. من گروهی متشکل از هزاران بیمار دارم. هر بیمار چندین اندازه گیری Hgb در یک دوره 3 ساله دارد. اندازه‌گیری‌ها با فاصله ناهموار و کم هستند (از دو تا چهار اندازه‌گیری). سوالات من: 1. آیا یک سری زمانی مدل صحیحی برای من است، با توجه به اینکه در طول زمان برای هر موضوع مشاهده بسیار کمی دارم؟ اگر نه چگونه روند را تجزیه و تحلیل کنم؟ 2. اگر بخواهم از یک سری زمانی استفاده کنم، به این فکر کردم که هر اندازه گیری آزمایشگاهی را بر اساس سالش برچسب گذاری کنم تا اندازه گیری ها به طور مساوی فاصله داشته باشند (این از دیدگاه فیزیولوژیکی به اندازه کافی معقول به نظر می رسد). آیا این معتبر است؟ آیا راه بهتری برای رسیدگی به نابرابری فاصله اندازه گیری وجود دارد؟ 3. از چه چیزی برای مقایسه روند بین دو گروه استفاده می کنم؟ من بسیار متعهد می شوم اگر بتوانید مرا به ادامه مطلب ارجاع دهید، متشکرم!
متغیر کمکی یا سری زمانی تاخیر برای تجزیه و تحلیل تغییرات در طول زمان در Hgb (مشاهدات محدود) در پیش‌بینی وضعیت بیماری
114575
آیا کسی می داند که آیا adaptIntegrate یک انتگرال برداری برداری را می پذیرد؟ برای مثال آلفا<-c(1,2) f <- تابع(z){ (z[1]+z[2])*آلفا } تطبیق یکپارچه(f,lower=c(1,3), upper=c(2, 4),tol=0.01) ##کار نمی کند آیا آنچه می خواهم با adaptIntegrate امکان پذیر است؟ پیشاپیش ممنون
adaptIntegrate در r
50965
من یک شرط کنترل **A** و چندین شرط دیگر (*B**، **C**، **D**، و غیره) دارم که می‌خواهم **A** را برای تفاوت‌ها آزمایش کنم ( یعنی **A** در مقابل **B**، **A** در مقابل **C**، **A** در مقابل **D**، و غیره). آیا اجرای: > ttest( **A**, **B**) صحیح است. > > ttest( **A**, **C**); > > ttest( **A**, **D**); و آنها را جداگانه درمان کنید؟ خیلی ممنون.
آزمون t چندگانه در برابر یک شرط کنترل واحد. آیا این درست است؟
89419
فرض کنید $y$ یک متغیر باینری باشد و $x$ یک متغیر کمکی باشد که با خطای اندازه‌گیری ناهمگن اندازه‌گیری شده است: $x_{i}$ ~ $\operatorname{Normal}(x^{*}_{i},\sigma_{i }^{2})$. حالا فرض کنید رابطه با متغیر کمکی واقعی $x^{*}$ $\ Y$ ~ $\operatorname{Bernoulli}(p_i) $ و $\ \operatorname{logit}( p_i )=\alpha+\beta*x_{ i}^{*}$. از نظر تئوری، به نظر من واضح است که برای اهداف پیش‌بینی، یک مدل $\ \operatorname{logit}( p_i )=\alpha+f(\sigma_{i})*x_{i}$ می‌خواهید، جایی که $f (\sigma_{i}) \به 0 $ به عنوان $\sigma_{i}$ بزرگ می شود و $f(\sigma_{i}) \به \بتا $ به عنوان $\sigma_{i}$ کوچک می شود. آیا فرم عملکردی خوبی برای $f(\sigma_{i})$ وجود دارد؟ به نظر یک مشکل به اندازه کافی ساده است که ممکن است وجود داشته باشد، اما من نتوانستم به چیزی برسم.
رگرسیون لجستیک زمانی که یک متغیر کمکی با خطای اندازه گیری شناخته شده اما ناهمگن اندازه گیری می شود
82034
فرض کنید $V \sim W_p(n-1,\sigma^2 I)$ داریم تا لحظه های آماره کرویت Mauchly را پیدا کنیم $\Lambda = \frac{|V|}{(tr(\frac{V }{p}))^p}$ من خواندم که می توان آن را تقسیم کرد و $\Lambda_1 = \frac{|V|}{v_{11}...v_{pp}}$ و $\Lambda_2 = \frac{v_{11}...v_{pp}}{(tr(\frac{V}{p}))^p}$ و سپس با استفاده از $E[\Lambda^h] = E [\Lambda_1^h]E[\Lambda_2^h]$ (که در آن از استقلال $\Lambda_1$ و $\Lambda_2$ استفاده می کنند). این آمار $\Lambda_1$ و $\Lambda_2$ به ترتیب، معیار LR برای برابری واریانس ها و برای استقلال هستند، بنابراین ممکن است لحظات آن را قبلاً محاسبه کنم. سوال من این است: چگونه می توانیم ببینیم که این دو آمار مستقل هستند؟
یافتن لحظه‌ها برای آمار کروییت Mauchly
110387
من در حال انجام پروژه ای در مورد الگوهای فرزندخواندگی سگ هستم، و متوجه شدم که تعداد زیادی (100+) نژادهای مختلف سگ وجود دارد. من می‌خواهم یک مدل پیش‌بینی با استفاده از نژاد به‌عنوان متغیر کمکی بسازم، اما مطمئن نیستم که آیا باید هر نژاد را به یک متغیر ساختگی تبدیل کنم و یک الگوریتم یادگیری نظارت شده سریع و کثیف را اجرا کنم، یا سعی کنم خوشه‌بندی (بر اساس پرخاشگری) انجام دهم. از نژاد، برای مثال)، و سپس سعی کنید الگوریتم را اجرا کنید. مجموعه داده من بسیار بزرگ است: 14000 ورودی. هر توصیه ای؟ با تشکر
چه موقع باید ویژگی های خوشه ای را برای یادگیری نظارت داشته باشید؟
110652
من در حال کار با دوره Udacity Intro to Inferential Statistics هستم. در درس 9: آزمون فرضیه، مثال زیر آورده شده است. بگویید که ما داده‌های نظرسنجی را از همه دانش‌آموزان این دوره Udacity ثبت کرده‌ایم که به جزئیات نحوه مشارکت آنها با مواد سخنرانی اشاره می‌کند. دریافتیم که میانگین سطح درگیری جمعیت (در مقیاس 1-10) 7.47 با انحراف معیار 2.41 است. مربی تصمیم می‌گیرد در یکی از سخنرانی‌ها آهنگی را بخواند تا جرقه‌ای را برای مشارکت ایجاد کند، و ما می‌خواهیم بدانیم که آیا میانگین سطح درگیری پس از اجرای آهنگ تغییر می‌کند یا خیر. اندازه نمونه n=30 را جمع‌آوری می‌کنیم و آن را به $\bar{X} = 8.3$ می‌یابیم. از ما خواسته می شود که یک آزمون z دو دنباله با $\alpha = 0.05$ انجام دهیم تا بفهمیم که آیا میانگین تحت تأثیر آهنگ قرار می گیرد یا خیر. علاوه بر این، اطلاعاتی به ما داده می‌شود که $\mu_{song} = 7.8$، یعنی جمعیت همه دانش‌آموزانی که آهنگ را گوش داده‌اند دارای سطح مشارکت متوسط ​​7.8 هستند. از ما خواسته می‌شود تا دریابیم که آیا آزمون z نتیجه‌ای را ارائه می‌دهد که به طور دقیق جمعیت را منعکس می‌کند، و اگر نه، آیا خطای نوع I یا نوع II رخ داده است. من یک آزمون z روی نمونه انجام دادم و به امتیاز z 1.88 رسیدم که کمتر از مقدار بحرانی 1.96 است. از آنجایی که $\mu_{song} = 7.8$ است که بزرگتر از $\mu = 7.47$ است، به این نتیجه رسیدم که وقتی فرضیه صفر نادرست است (از $\mu_{song} > \mu$) نمی‌توانیم رد کنیم و بنابراین که خطای نوع دوم در حال رخ دادن است. اما این پاسخ به عنوان نادرست برگشت داده شد. در عوض، مدرس توضیح داد که برای $\mu_{song}$ نیز باید یک z-score محاسبه شود، معادل $\frac{\mu_{song} - \mu}{\frac{\sigma}{\sqrt n}} = \frac{7.8 - 7.47}{\frac{2.41}{\sqrt 30}} = 0.75$. از آنجایی که 0.75 از مقدار بحرانی 1.96 در $\alpha=0.05$ فراتر نمی رود، $\mu_{song}$ تفاوت قابل توجهی با $\mu$ ندارد و از فرضیه صفر حمایت می کند. بنابراین، ما نمی‌توانیم فرضیه صفر را در حالی که واقعاً درست است رد کنیم. من این پاسخ را نمی فهمم من باور می‌کردم که از $\mu_{song} \neq \mu$، در واقع فرضیه صفر (که آنها برابر هستند) را رد می‌کردیم و آن خطای نوع II رخ می‌داد. علاوه بر این، هرگز حجم نمونه برای جامعه به ما داده نمی شود، بنابراین مطمئن نیستم که n=30 از کجا آمده است. آیا کسی می تواند رویکرد صحیح را برای چنین مشکلی روشن کند؟ اگر در موقعیتی هستید که پارامترهای جمعیت را برای جمعیت مداخله‌شده می‌دانید، آیا یک z-score اضافی باید محاسبه شود؟ یا اینکه این واقعیت که میانگین مداخله با جمعیت اصلی متفاوت است، شواهد کافی مبنی بر نادرست بودن فرضیه صفر ($\mu = \mu_{I}$) است؟ اگر برای درک بهتر علاقه دارید خودتان سؤال را امتحان کنید، می توانید آن را در اینجا بیابید.
وقتی میانگین جامعه نمونه مداخله را *آیا* می دانیم، چگونه یک آزمون z دو طرفه را انجام دهیم؟
16088
آیا کسی می داند چگونه از (nlme) استفاده کنم؟ من با استفاده از آن برای چیزی که باید بسیار ساده باشد، مشکلات زیادی دارم، هر کمکی واقعاً قدردانی خواهد شد. تا زمانی که ندانم کسی بداند در مورد چه چیزی صحبت می کنم، جزئیات را بیان نمی کنم. داده ها با یک مطالعه مزرعه ای مربوط به الگوی کاشت، ژنوتیپ جمع آوری شد، ما این مطالعه را به مدت 3 سال تکرار کردیم و در هر فصل رشد 10 بار بررسی شد. سوال من این است که چگونه نتایج را به بهترین شکل تفسیر کنیم؟ یک استاد توصیه کرد که از مدل اثر مختلط خطی با سال به عنوان یک عامل تصادفی برای کاهش تعداد تجزیه و تحلیل های جداگانه و خطای نوع I استفاده شود. هر کی میدونه لطفا یه لطفی کنه زیر سایت داده‌های من است YEAR GENOTYPE PATTERN T density 1 1 G S T1 3.0035 2 1 G S T1 3.0538 3 1 G S T1 2.9939 4 1 G S T1 2.8506 5 1 G M T1 2.717 T1 2.717 T1 M T1 2.8791 8 1 G M T1 2.7419 9 1 S S T1 0.6024 10 1 S S T1 0.6079 11 1 S S T1 0.6014 12 1 S S T1 0.5855 13 1 S S T1 0.5855 13 1 S T1 0.6079 T1 0.5774 15 1 S M T1 0.5887 16 1 S M T1 0.5731 1 2 G S T1 3.3064 2 2 G S T1 3.2896 3 2 G S T1 3.3448 4 2 G S T1 3.3064 T1 3.4 G M T1 3.3243 7 2 G M T1 3.3477 8 2 G M T1 3.4031 9 2 S S T1 3.3660 10 2 S S T1 3.3025 11 2 S S T1 3.3760 12 2 2 S T1 3.3760 12 2 2 S T1 3.3660 3.4237 14 2 S M T1 3.5357 15 2 S M T1 3.5001 16 2 S M T1 3.4195 1 3 G S T1 2.2068 2 3 G S T1 2.1492 3 3 G S T1 3.5001 20. 3 G M T1 1.7404 6 3 G M T1 1.8388 7 3 G M T1 1.5185 8 3 G M T1 1.6128 9 3 S S T1 2.3636 10 3 S S T1 2.5092 11 3 G M T1 2.5092 11 3 S T1 2.4065 13 3 S M T1 1.9243 14 3 S M T1 2.0645 15 3 S M T1 2.0000 16 3 S M T1 2.0170 1 1 G S T2 3.6379 2 1 G S T2 3.6379 2 1 G S 6 T20000 15 3 S M T1 2.0000. 1 G S T2 3.6999 5 1 G M T2 3.4241 6 1 G M T2 3.5053 7 1 G M T2 3.4559 8 1 G M T2 3.4751 9 1 S S T2 0.6663 10 1 S T2 0.6663 10 1 S S T2 0.6637 12 1 S S T2 0.6721 13 1 S M T2 0.6458 14 1 S M T2 0.6537 15 1 S M T2 0.6489 16 1 S M T2 0.6508 1 2 G 25 S T24 T24 3 2 G S T2 4.5174 4 2 G S T2 4.5464 5 2 G M T2 4.3512 6 2 G M T2 4.4067 7 2 G M T2 4.4090 8 2 G M T2 4.1965 9 2 2 S T2 4.1965 9 2 S T2 4.5103 11 2 S S T2 4.6466 12 2 S S T2 4.5205 13 2 S M T2 4.4246 14 2 S M T2 4.3424 15 2 S M T2 4.4487 16 2 S M T2 4.4487 16 2 S M T2 4.4487 16 2 S M T2 4.4487 16 2 S M T2 4.4246 T20. 2 3 G S T2 3.0730 3 3 G S T2 2.9657 4 3 G S T2 3.1807 5 3 G M T2 2.6812 6 3 G M T2 2.3729 7 3 G M T2 2.8820 8 3 G S T2 2.8820 8 29 G M T2 2.6812 3.1364 10 3 S S T2 3.0839 11 3 S S T2 2.9036 12 3 S S T2 2.9850 13 3 S M T2 2.7412 14 3 S M T2 2.8202 15 3 S M T2 2.8202 15 3 S M T2 2.8202 15 3 S M T2. 2.5866 1 1 G S T3 3.3762 2 1 G S T3 3.3531 3 1 G S T3 3.5340 4 1 G S T3 3.4096 5 1 G M T3 3.4263 6 1 G M T3 3.195 G M 3.195 T3 3.1915 9 1 S S T3 0.6411 10 1 S S T3 0.6388 11 1 S S T3 0.6565 12 1 S S T3 0.6444 13 1 S M T3 0.6460 14 1 S S M T3 0.6460 14 1 S S M T2 0.6332 16 1 S M T3 0.6224 1 2 G S T3 5.4512 2 2 G S T3 5.3256 3 2 G S T3 5.5334 4 2 G S T3 5.3601 5 2 G M T3 4.924 G 3 4.92 M T3 5.0628 8 2 G M T3 5.0739 9 2 S S T3 5.3199 10 2 S S T3 5.2441 11 2 S S T3 5.2672 12 2 S S T3 5.3007 13 2 S T3 5.3199 T3 5.0120 15 2 S M T3 5.1177 16 2 S M T3 5.0052 1 3 G S T3 2.8808 2 3 G S T3 3.0839 3 3 G S T3 2.7931 4 3 G S T3 5.0052 T5 2.83 G M T3 2.7723
مدل های جلوه های ترکیبی خطی/غیرخطی
16087
من یک مدل معادله ساختاری را تخمین می زنم که در آن دو متغیر پنهان (هر کدام با 4 شاخص) و تعامل بین دو متغیر پنهان، یک متغیر مشاهده شده را پیش بینی می کنند. من می‌خواهم تک تک باقیمانده‌ها را از متغیر درون‌زای مشاهده‌شده ذخیره کنم تا در تجزیه و تحلیل‌های بیشتر استفاده کنم. تا آنجا که من می توانم بگویم، Mplus، برنامه ای که من معمولا از آن استفاده می کنم، راهی برای ذخیره تک تک باقیمانده ها ندارد. * آیا برنامه آماری وجود دارد که به من اجازه دهد باقیمانده ها را از یک متغیر مشاهده شده در یک مدل معادلات ساختاری ذخیره کنم؟
چگونه می توان باقیمانده های فردی را از یک متغیر درون زا مشاهده شده در یک مدل معادلات ساختاری نجات داد؟
7438
به عنوان یک سؤال اساسی در تجزیه و تحلیل رگرسیون ، می خواستم بپرسم که چگونه می توانم حاشیه خطای را هنگام قرار دادن یک خط مستقیم با مجموعه ای از داده ها محاسبه کنم. فرض کنید که من تغییر پارامتر $A$ را به عنوان تابعی از پارامتر $B$ دارم، سپس $A=mB \pm e$، که $m$ مماس خط مستقیم است و $e$ همان چیزی است که من هستم. به دنبال بخشی از داده های من: {39.7678 ، 2320.3} ، 30.8438 ، 1614.21} ، {125.846 ، 3078.81} ، {55.2345 ، \ 1947.98} ، {22.0671 ، 972.995} ، {30.1827. 701.99} ، {29.5734 ، 837.784} ، \ {24.6913 ، 1134.23} ، {27.2493 ، 918.887} ، {62.7684 ، 4535.07} ، {101.449 ، {101.449. 6513.04} ، {187.409 ، 6257.72} ، {174.138 ، 5243.63} ، \ {120.747 ، 3768.02} ، {84.178 ، 3453.12} ، {60.2404 ، 3075.15 {63. 3517.73} ، {101.9 ، 7240.11} ، {90.6265 ، 5706.74} ، {100.897 ، 7353.84} ، \ {159.316 ، 9867.36} ، {109.798 ، 11471.2 {10. 6924.54} ، 82.7057 {، \ 6339.06} ، {140.205 ، 6555.52} ، {173.469 ، 8644.27} ، {138.432 ، 9655.86} ، \ {95.2955 ، 5643.33 {64.55 ، 5643.33 {64.55 ، 5643.33 {64.55 ، 5643.33 3848.77} ، {50.7936 ، 4733.24} ، {34.776 ، 0. - 2707.89 i} ، 25.3775 ، 6158.}}
چگونه حاشیه خطا را در رگرسیون خطی محاسبه کنیم؟
16084
من در حال حاضر از تجزیه و تحلیل شیب ساده برای بررسی اثرات متقابل مهم بین تعدیل کننده پیوسته و پیش بینی دوگانه (مقادیر 1 و 2) در DV پیوسته استفاده می کنم. من 2 متغیر کمکی پیوسته در تحلیل دارم. نمودار شیب ساده من مقادیر منفی را در DV نشان داد (یعنی: مقادیر تعدیل کننده در مقدار پیش بینی کننده 2 مقادیر منفی DV را به خود اختصاص دادند - شیب ها از محور x به سمت راست پایین عبور کردند). آیا این امکان وجود دارد یا یک خطای آماری وجود دارد؟ من شیب هایی را دیده ام که به مقادیر منفی DV برای پیش بینی کننده های پیوسته می روند، اما نه برای پیش بینی کننده های دوگانه.
آیا می توان مقادیر منفی در یک تحلیل شیب ساده برای پیش بینی کننده های دوگانه داشت؟
13636
اگر مقادیر حساسیت و ویژگی را برای گروهی از مطالعات داشته باشم، برای مثال مانند این: ویژگی حساسیت ----------- ----------- 66.3 74.7 87.2 65.9 56.4 76.4 79.5 94.3 چگونه می توانم یک منحنی «ROC» برای چنین مقادیری ایجاد کنم؟ آیا برای مثال آنها را بر '100' تقسیم کنم و فقط مقادیر را مستقیماً در منحنی قرار دهم؟ یا اینکه فرآیند دقیقا چگونه انجام می شود؟
چگونه منحنی ROC رسم کنیم؟
16089
من می خواهم از یک چگالی معمولی شبیه سازی کنم (مثلاً میانگین = 1، sd = 1) اما فقط مقادیر مثبت می خواهم. یکی از راه ها شبیه سازی از حالت عادی و گرفتن مقدار مطلق است. من به این به عنوان یک عادی تاشو فکر می کنم. من می بینم که در R توابعی برای تولید متغیر تصادفی کوتاه شده وجود دارد. اگر من از یک نرمال کوتاه شده شبیه سازی کنم (قطع در 0) آیا این معادل رویکرد فولد شده است؟
آیا نمونه برداری از یک توزیع نرمال تا شده معادل نمونه برداری از یک توزیع نرمال کوتاه شده در 0 است؟
16080
من دو دستگاه دارم و سعی می کنم بفهمم که کدام یک از آنها توسط کاربران ترجیح داده می شود. 30 نفر هر دستگاه را بر اساس یک پرسشنامه 12 سوالی رتبه بندی کرده اند که از آنها می خواهد تا دستگاه را بر اساس 12 پارامتر درجه بندی کنند. * برای تصمیم گیری اینکه کدام دستگاه بهتر است از چه ابزار آماری استفاده کنم؟ (فقط مقایسه نمرات کافی نیست) * آیا می توانم ارتباط بین نوع دستگاه و نوعی نمره وزنی را آزمایش کنم؟
چگونه می توان تفاوت در رتبه بندی ها را برای دو دستگاه آزمایش کرد که در آن هر دستگاه در مقیاس چند مورد رتبه بندی می شود؟
7430
یک قبل یکنواخت برای یک پارامتر مقیاس (مانند واریانس) در مقیاس لگاریتمی یکنواخت است. این قبلی چه شکل عملکردی در مقیاس خطی دارد؟ و چرا اینطور؟
ایجاد یک پیشین یکنواخت در مقیاس لگاریتمی
86976
من هنوز دارم با چیزها بازی می کنم و تازه این را یاد می گیرم، بنابراین لطفاً هر اصطلاح نادرستی را ببخشید. مجموعه داده های اسباب بازی من مجموعه ای از دستور العمل ها با همپوشانی نسبتاً قابل توجهی در مواد تشکیل دهنده است. من از اینها به عنوان ویژگی‌های خود استفاده می‌کنم و از مجذور فاصله پیرسون همانطور که در _Programming Collective Intelligence توضیح داده شده است برای تعیین همبستگی بین دستور العمل‌ها استفاده می‌کنم. من به دنبال آموزش چیزی نیستم. من در حال حاضر فقط می خواهم دستور العمل های موجود در مجموعه خود را با هم مقایسه کنم و نزدیک ترین همسایه $X$ و دورترین همسایه $Y$ را پیدا کنم. من فکر می‌کردم که بسط دادن این موضوع سرگرم‌کننده است، و نظرات/نظرات مردم را در مورد دستور العمل‌ها به عنوان بخشی از محاسبه فاصله لحاظ کنم، که منجر به ارتباط نزدیک‌تر بین دستور العمل‌هایی می‌شود که هر دو به عنوان شیرین یا ترش یا ترش توصیف می‌شوند. . من نمی دانم چگونه این کار را همراه با سایر ویژگی ها انجام دهم. من نمونه هایی از کیسه های کلمات را برای شباهت پیدا کرده ام، اما به نظر نمی رسد اطلاعاتی در مورد ترکیب آن با ویژگی های دیگر پیدا کنم. آیا این یک رویکرد معتبر است، و آیا اصطلاحاتی وجود دارد که باید به دنبال آن باشم؟ با تشکر
شباهت بین دستور العمل ها با استفاده از مواد تشکیل دهنده و نظرات / توضیحات
68259
من نمونه ای از یک توزیع را مشاهده می کنم که انتظار دارم زمان ضربه زدن باشد $$\tau = \inf\{t>0| X(t)>a\}$$ که در آن $X(t)$ یک فرآیند Lévy با $X(0)=0$ و $a$ مقداری ثابت است. $X$ یک حرکت براونی نیست و تناسب تجربی با توزیع Lévy ضعیف است. با این حال، من نیازی به دانستن فرمول دقیق قانون $\tau$ ندارم. برای نیازهایم فقط باید بدانم که انتظار $\tau$ بی نهایت است (مانند مورد تاو برای یک حرکت براونی). آیا می توان این را به عنوان یک فرضیه آماری تدوین و آزمون کرد؟
چگونه تشخیص دهیم که یک نمونه از توزیعی با میانگین بی نهایت آمده است؟
10867
من 3 آزمایش دارم که مقداری 3 بار اندازه گیری شد. بنابراین، 3 ماکت بیولوژیکی، 3 ماکت فنی در هر ماکت بیولوژیکی، در مجموع 9 اندازه گیری. من باید به سؤالات زیر پاسخ دهم: 1. برای هر ماکت بیولوژیکی: آیا 3 اندازه گیری من سازگار است؟ برای این کار از تست کیو دیکسون استفاده می کنم. 2. برای میانگین اندازه گیری های به دست آمده برای هر ماکت بیولوژیکی: آیا این 3 اندازه گیری سازگار هستند؟ بنابراین، چگونه باید در مورد سوال دوم صحبت کنم؟ آیا استفاده از تست کیو دیکسون در اینجا نیز ایده خوبی است؟ از چه تست های دیگری می توانم برای پاسخ به سوالات بالا استفاده کنم؟ من حدس می زنم ANOVA مناسب نیست زیرا نمونه ها خیلی کوچک هستند، درست است؟
آزمایش‌هایی برای اندازه‌گیری‌ها و نقاط پرت
82037
من می دانم که اصل اساسی پشت الگوریتم LLE شامل سه مرحله است. 1. یافتن همسایگی هر نقطه داده با معیاری مانند k-nn. 2. وزن هایی را برای هر همسایه پیدا کنید که نشان دهنده تأثیر همسایه بر نقطه داده است. 3. تعبیه ابعاد کم داده ها را بر اساس وزن های محاسبه شده بسازید. اما توضیح ریاضی مراحل 2 و 3 در تمام کتاب های درسی و منابع آنلاینی که خوانده ام گیج کننده است. من نمی توانم دلیل استفاده از فرمول ها را بیان کنم. این مراحل در عمل چگونه انجام می شود؟ آیا هیچ راه شهودی برای توضیح فرمول های ریاضی استفاده شده وجود دارد؟ منابع: http://www.cs.nyu.edu/~roweis/lle/publications.html
مراحل الگوریتم LLE (جاسازی خطی محلی) را توضیح دهید؟
7432
به نظر می رسد در SPSS نسخه 19 یک ویژگی جدید به نام مدل سازی خطی خودکار وجود دارد. این یک «مدل» ایجاد می‌کند (که برای من جدید است) و به نظر می‌رسد این تابع تعدادی از توابع را که معمولاً برای توسعه مدل پیش‌بینی لازم است ترکیب می‌کند. عملکرد تنها با زیرمجموعه‌ای از تکنیک‌های انتخاب پیش‌بینی ناقص به نظر می‌رسد و مهم‌تر از همه این است که از نظر گام‌های رو به عقب از دست رفته است. ### پرسش * آیا مردم این را خوب می بینند یا بد؟ * و اگر خوب است، آیا راه هایی برای تجزیه کاری که انجام می دهد وجود دارد؟ * به طور خاص چگونه می توانم ضرایب معادله رگرسیون را هنگام بسته شدن یا تقویت پیدا کنم؟ برای من به نظر می رسد که بسیاری از مراحل را پنهان می کند و من دقیقاً مطمئن نیستم که چگونه چیزی را که ارائه می دهد ایجاد می کند. بنابراین هرگونه اشاره به آموزش یا موارد مشابه (از آنجایی که مستندات SPSS عالی نیست) قدردانی می شود.
آیا مدلسازی خطی خودکار در SPSS چیز خوبی است یا بد؟
12508
(من از یک متخصص در زمینه آمار دور هستم، بنابراین اگر سوال من نامربوط است یا استفاده من از هر اصطلاحی نادرست است، پیشاپیش عذرخواهی می کنم) فرض کنید یک متغیر _گسسته_$X$ و مجموعه ای از $n+ داریم. 1$ مشاهدات $\{x_0, x_1, \dots, x_n\}$. مقادیر X$ ممکن است عددی نباشد و همه مشاهدات بدون ترتیب خاصی برابر در نظر گرفته شوند. بنابراین، می‌توانیم مجموعه مشاهدات بالا را به مجموعه‌ای از جفت‌های $k+1$ ارزش/فرکانس $\{<v_0, f_0>, <v_1, f_1>,\dots,<v_k, f_k>\}$ تبدیل کنیم. آیا معیاری وجود دارد که اهمیت یک _value_ خاص را در این مجموعه تخمین بزند؟ به عنوان مثال، در یک مجموعه مشاهداتی که تمام مقادیر دقیقاً سه بار وجود دارند، هیچ کدام را نمی توان مهمتر از بقیه در نظر گرفت. از طرف دیگر، در مجموعه‌ای که همه مقادیر به جز یک 3 بار وجود دارند، می‌خواهم آن یک مقدار که 10 بار وجود دارد از بقیه متمایز شود. همان مقدار با مقداری که فقط یک بار ظاهر می شود. یک محاسبه احتمال ساده، به عنوان مثال، $P(k) = f_k / (n+1)$ کمکی نخواهد کرد، زیرا مقادیر دیگر را در نظر نمی گیرد. من با ترکیبات/فرمول‌های مختلفی با استفاده از معیارهای مختلف شناخته شده (میانگین، انحراف استاندارد، حداکثر، حداقل و غیره) آزمایش کردم، اما هر چیزی که به ذهنم می‌رسید بیش از حد خودسرانه به نظر می‌رسید که نمی‌توانم به آن اعتماد کنم. من در حال حاضر از نمره استاندارد فرکانس مقدار به عنوان تخمین‌گر استفاده می‌کنم، اما یک مشکل اساسی دارد: محدود نیست، و من اصلاً مطمئن نیستم که چگونه آن را بدون سوگیری ناآگاهانه هیچ نتیجه‌ای عادی کنم. من از هرگونه ارجاع به معیاری که ممکن است باعث شروع من شود، یا هر اصطلاحی که آنچه را که می‌خواهم انجام دهم را دقیق‌تر توصیف کند، تا بتوانم جستجوی خود را متمرکز کنم، قدردانی می‌کنم. من به‌ویژه از هر معیار محدودی که می‌توان با اضافه شدن نمونه‌های جدید به مجموعه مشاهدات به صورت تدریجی محاسبه کرد، قدردانی می‌کنم:-)
معیار اهمیت برای مقدار متغیر گسسته
16331
من یک مجموعه داده با تعداد زیادی پاسخ بله/خیر دارم. **آیا** می توانم از اجزای اصلی (PCA) یا هر تحلیل کاهش داده دیگری (مانند تحلیل عاملی) برای این نوع داده ها استفاده کنم؟ لطفا راهنمایی کنید **چگونه** این کار را با استفاده از SPSS انجام دهم.
چگونه می توان تجزیه و تحلیل مؤلفه های اصلی (یا تحلیل عاملی) را روی داده های باینری (با استفاده از SPSS) انجام داد؟
16333
من سعی می کنم از SAS بیشتر از دیدگاه یادگیری ماشینی استفاده کنم تا از دیدگاه آمار خالص. من می‌خواهم نمونه‌گیری مجدد را روی یک مجموعه داده انجام دهم تا دقت پیش‌بینی یک LDA و رگرسیون لجستیک را اندازه‌گیری کنم. با این حال، زمانی که من «proc logistic» یا «proc discrim» را انجام می‌دهم، به نظر می‌رسد که خروجی SAS مجموعه‌ای از معیارهای آماری است. من می خواهم از مدل ها برای پیش بینی خروجی مجموعه داده آزمایشی خود استفاده کنم. آیا راهی برای انجام این کار در SAS وجود دارد؟
چگونه می توانم مدل هایی را برای پیش بینی خروجی یک مجموعه داده آزمایشی با استفاده از SAS اعمال کنم؟
93993
من به دنبال استفاده از LexRank برای خلاصه سازی متن هستم. من دارم به اصل مقاله نگاه می کنم. چیزی که من را متحیر می کند این است که آیا از ضریب میرایی استفاده می شود یا خیر. فرمول ها همه از آن استفاده می کنند، اما به نظر می رسد الگوریتم های ارائه شده از آن استفاده نمی کنند. من تعجب می کنم که آیا باید در تکرار مرحله قدرت گنجانده شود یا نه؟
ضریب میرایی LexRank
19501
> سن <- c(1،2،3) > وزن <- c(4،5،6) > p <- data.frame(سن=سن، قد=قد) > p سن قد 1 1 4 2 2 5 3 3 6 > p[p$age > 1،] سن قد 2 2 5 3 3 6 > سن [1] 1 2 3 > age.df <- data.frame(age=age) > age.df age 1 1 2 3 3 > age.df[age.df$age > 1,] [1] 2 3 من زیرمجموعه دیتافریمی را که درخواست کردم می خواهم، نه بردار، که در آن نام ردیف ها و نام ستون ها از بین رفته است. چرا R این کار را می کند؟ آیا می توان از آن جلوگیری کرد؟
چرا R یک قاب داده یک بعدی را به یک بردار تبدیل می کند؟ (و چگونه می توانم آن را متوقف کنم؟)
63966
متداول‌ترین روش‌هایی که برای یافتن یک خط بهترین تناسب دیده‌ام، رگرسیون حداقل مربعات و میانه-میانگین هستند. آیا راه های خوب دیگری وجود دارد؟ آیا راهی برای به حداقل رساندن اختلاف مقدار مطلق و یافتن خطی با بهترین تناسب وجود دارد؟ یا اینکه به جای فاصله عمودی تا خط، فاصله مستقیم با یک خط را پیدا کنیم؟ افکار؟
راه های دیگر برای یافتن خط بهترین مناسب
19506
من در حال انجام پروژه ای با Weka با الگوریتم های خوشه بندی (k-means، انتظار-بیشینه سازی و OPTICS) هستم. من دوست دارم بتوانم آن الگوریتم ها را از طریق اینترنت فراخوانی کنم. **پس آیا Weka یک API آنلاین دارد؟** اما من شک دارم که وجود نداشته باشد. در این صورت، **گزینه های جایگزین چیست؟** * * * **ویرایش:** آنچه من در تلاش برای رسیدن به آن هستم، یک رابط وب برای راه اندازی و کنترل الگوریتم های خوشه بندی است. اما من فکر می‌کنم در نهایت Weka را مستقیماً روی سرور اجرا می‌کنم، یا با فراخوانی خط فرمان یا با استفاده از برنامه جاوای خودم که از Weka استفاده می‌کند. مزیت دیگر این بود که توسط سخت افزار سرور محدود نمی شد، اما این در مورد من قابل قبول است. * * * من دیده ام که Apache Mahout لیست بزرگی از الگوریتم ها دارد. Apache Mahout کتابخانه ای از الگوریتم های یادگیری ماشینی است، اما همچنین بدون API آنلاین قابل فراخوانی است. Google دارای پلتفرم «یادگیری ماشینی به عنوان سرویس» است که من می‌خواهم، یعنی Google Prediction API، اما الگوریتم‌های دنیای واقعی بیشتری مانند تشخیص هرزنامه یا طبقه‌بندی ایمیل دارد، و نه الگوریتم‌های خوشه‌بندی که من می‌خواهم.
آیا Weka یک API آنلاین دارد؟
16083
### آزمایش فرض کنید من یک جعبه سیاه پر از توپ های شماره دار دارم و آنها را با جایگزینی ترسیم می کنم - بنابراین امکان رسم یک عدد خاص در N ترسیم با توزیع دوجمله ای توصیف می شود؟ مشکل این است که جعبه سیاه من ساختار درونی دارد بنابراین توپ ها با p یکسان رسم نمی شوند. برای جعبه تصادفی (آزمایش) باید نقاط تصادفی را از جعبه مشاهده کنم. بنابراین اگر اعداد شناسه این توپ ها را روی محور قرار دهید، باید محلی سازی تصادفی نقاط را بدست آورید - بله؟ با این حال، آزمایش من جدای از محلی‌سازی تصادفی، نقاطی را نیز ایجاد می‌کند که باید در گروه‌های خوشه‌ای (محلی نزدیک به یکدیگر) باشند. ### سوال * چگونه می توانم مناطقی را پیدا کنم که نقاط (که شناسه توپ هستند) به صورت غیر تصادفی محلی شده اند؟ جعبه من حدود 10^8 توپ دارد و من 10^5 توپ را با جایگزینی در یک آزمایش می کشم. برای هر نظر و پیشنهادی که بهترین ابزار آماری برای هدف من خواهد بود، بسیار سپاسگزار خواهم بود. من به شبیه سازی در حال اجرا فکر کردم - آزمایش خود را به صورت تصادفی شبیه سازی کنم و سپس به توزیع فواصل بین نقاط قرعه کشی نگاه کنم. سپس این توزیع تصادفی به نوعی با من مقایسه می‌شود تا ببینم کدام فاصله‌ها در توزیع تصادفی بسیار نادر هستند و می‌توانند نشانه‌ای از رفتار غیر تصادفی من باشند. اما من کاملاً مطمئن نیستم که چگونه پس از شبیه سازی توزیع تصادفی ادامه دهم ...
چگونه مناطقی را پیدا کنیم که نقاط به صورت غیر تصادفی محلی شده اند؟
65758
ابتدا باید توضیح بدهم که چه کار کردم، و ممکن است درست نباشد. من یک متغیر دارم که نشان دهنده نتیجه آزمایش است، ممکن است مثبت یا منفی باشد. * من مجموعه ای از مشاهدات یک متغیر مهم (نقطه مورد علاقه من) را برای 5 روز گذشته قبل از انجام آزمون دارم. من میانگین 3 روز گذشته و تمام 5 روز را محاسبه کرده ام. * سپس، من چند متغیر دیگر (برای من نه چندان مهم) دارم، برخی از آنها باینری هستند (بله یا خیر)، برخی از آنها پیوسته هستند. من می خواهم یک مدل لاجیت برای DV خود بر اساس این متغیرها ایجاد کنم. از آنجایی که هیستوگرام ها به اندازه کافی نرمال به نظر نمی رسند، من از Mann-Whitney-U بر روی همه متغیرها (با نتیجه آزمون به عنوان متغیر گروه بندی) استفاده کرده ام و مشاهده کرده ام که این آزمون برای میانگین 5 روزه مهم ترین است. دومین روز مهم ترین روز قبل از انجام آزمون بود). بنابراین، من میانگین 5 روزه را برای یک مدل لاجیت تک متغیره انتخاب کرده‌ام و قابل توجه بود. سپس همه متغیرهای دیگر را در مدل قرار دادم و انتخاب مدل گام به گام را در R بر اساس AIC اجرا کردم. اکنون من مدلی دارم که شامل 5 متغیر است - میانگین 5 روزه بسیار معنادار است و دو متغیر دیگر هنوز قابل توجه است، اما دو متغیر نیز وجود دارد که در سطح انتخابی من غیرمعنادار هستند (0.05). من دو سوال دارم: 1. آیا فرآیند انتخاب یک نسخه از متغیر مهم برای مدل، همانطور که من انجام دادم قابل قبول است؟ 2. چگونه دو متغیر غیر معنی دار را تفسیر کنم؟ نشان داده نشده است که آنها تأثیر قابل توجهی بر DV دارند، اما در یک مدل بدون آنها، سایر متغیرها ناچیز می شوند. آیا واقعاً می توانم از مدلی استفاده کنم که حاوی مقادیر غیر معنی دار باشد؟ یا می توانم بگویم که مدل به خوبی با داده های موجود مطابقت دارد و این دو متغیر به مدل کمک می کنند اما در سطح انتخابی من معنی دار نیستند.
تفسیر پیش بینی کننده های ناچیز در مدل رگرسیون لجستیک
65757
من یک رگرسیون ترتیبی در SPSS اجرا می کنم. من متغیرهای مستقل در مقیاس اسمی و ترتیبی دارم. متغیر وابسته من ترتیبی است، نشان‌دهنده سطح عمل، با کد ۰، ۱، ۲ جدول خروجی SPSS تخمین پارامترها به این صورت است: سطح آستانه عمل = 0 تخمین = 0.6 سیگ. = 0.143 سطح آستانه عمل = 1 برآورد = 2.2 سیگ. = 0.000 متغیر مستقل ... من خواندم که _عدم معنی دار بودن یک آستانه نشان می دهد که نقطه برش واقعاً متفاوت نیست و بنابراین برخی از سطوح متغیر وابسته باید با هم ترکیب شوند (Garson, G. D. (2012). رگرسیون ترتیبی. Asheboro ، NC: Statistical Associates Publishers). من تا به حال به چنین جمله ای برخورد نکرده ام. همچنین برخی از رگرسیون های ترتیبی که من نگاهی به آنها داشتم، به موضوعی در مورد آستانه غیر معنی دار اشاره نکردند و با این وجود خروجی را تفسیر کردند. بنابراین اکنون در تعجب هستم که این موضوع چقدر شدید است. اگر من به رگرسیون ترتیبی پایبند باشم، این آستانه غیر معنی‌دار چگونه بر نتایج من تأثیر می‌گذارد (با توجه به برآورده شدن تمام فرضیات دیگر)؟ آیا آنها همچنان معتبر خواهند بود؟ یا این بدان معنی است که من قطعاً باید دسته های نتیجه 0 و 1 را ترکیب کنم، که اساساً به این معنی است که به جای رگرسیون ترتیبی باید رگرسیون لجستیک باینری را اجرا کنم؟
چگونه با یک مقدار آستانه غیر معنی دار در رگرسیون ترتیبی در SPSS برخورد کنیم؟
63967
در یک آزمون، از آزمون جایگشت برای تخمین توزیع صفر آماره آزمون از نمونه استفاده می شود. در مقایسه چندگانه، کاربرد آزمون جایگشت چیست؟ با تشکر
تست جایگشت چه نقشی می تواند در مقایسه چندگانه ایفا کند؟
65753
به عنوان مثال: مجموعه اولیه $[1, 3, 4, 7, 2]$ به 17 می رسد. با تقسیم هر عنصر بر مجموع، مجموع عناصر به 1 می رسد: $[1/17، 3/17،... 2/17]$ مجموعاً به 1 می شود. وقتی مجموعه ای از اعداد به مجموع یک تنظیم می شوند چه نامیده می شود؟
وقتی مجموعه ای از اعداد به صورت مجموع یک تنظیم می شوند، چه نامیده می شود؟
63960
من سعی می کنم فیلتر کالمن بدون عطر را پیاده سازی کنم. به نظر می رسد همه چیز به درستی انجام شده است، اما من یک خطا در مورد تجزیه Cholesky دریافت می کنم. شکست همیشه پس از اجرای برخی از الگوریتم ها رخ می دهد من سعی کردم وابستگی ها را از این مدل حذف کنم. , P, kappa): ''' محاسبه SigmaPoints''' n = len(xm) xm = np.asmatrix(xm) # اندازه را بررسی می کند بردار حالت Xi = np.asmatrix(np.zeros((n,n*2+1))# ایجاد ماتریس صفر sigmaPoints n ردیف، 2n+1 col W = np.zeros((n*2+1,1) )) # وزن برای هر SigmaPoint به عنوان بردار Xi[:,0] = xm # ستون اول ابتدایی برای ورودی xm W[0] = kappa*1.0/(n+kappa) # به روز رسانی اولین وزن U = np.linalg.cholesky(P*(n+kappa)) # شناسهMat * مقدار k را در محدوده(n) برمی گرداند: Xi[:,k] = xm + U[k-1، :].T W[k] = 1.0/(2.0*(n+kappa)) برای k در محدوده(n): Xi[:, n+k] = xm - U[k-1،:].T W[n+k]=1.0/(2.0*(n+kappa)) بازگشت (Xi، W)
تجزیه کولسکی در کوواریانس خطا
65754
من اخیراً در مورد برداشت بیزی در مورد آمار کلاسیک تحقیق کرده ام. پس از مطالعه در مورد فاکتور بیز، من این سوال را داشتم که آیا تحلیل توان در این دیدگاه از آمار ضروری است یا خیر. دلیل اصلی من برای تعجب این است که عامل بیز واقعاً فقط یک نسبت احتمال است. زمانی که 25:1 شد، به نظر می رسد که می توانم آن را یک شب بنامم. آیا من دور هستم؟ خواندن دیگری که بتوانم برای یادگیری بیشتر انجام دهم؟ در حال خواندن این کتاب: مقدمه ای بر آمار بیزی، نوشته W.M. بولستاد (Wiley- Interscience؛ ویرایش دوم، 2007).
آیا تحلیل توان در آمار بیزی ضروری است؟
69619
طبق ویکی‌پدیا، آماره آزمون G «متناسب با واگرایی کولبک-لایبلر توزیع تجربی از توزیع نظری است». برای بدست آوردن رابطه بین $ G $ و واگرایی KL: $$ \begin{align*} G &= 2 \sum_i O_i \ln\left(\frac{O_i}{E_i}\right) \\ &= 2 \ sum_i n P(i) \ln\left(\frac{n P(i)}{n Q(i)}\right) \\ &= 2n \sum_i P(i) \ln\left(\frac{P(i)}{Q(i)}\راست) \\ &= 2n \times D_{KL}(P \| Q) \end{تراز*} $ $ اینجاست که من کمی گیج هستم. $ D_{KL}(P \| Q) $ نشان دهنده واگرایی $ Q $ (توزیع مورد انتظار) از $ P $ (توزیع مشاهده شده). این برعکس بیانیه در صفحه ویکی پدیا است (با فرض اینکه «نظری» به مورد انتظار و «تجربی» به مشاهده اشاره دارد). اکنون از یک تفسیر نظری اطلاعات از واگرایی KL، $ P $ نشان دهنده توزیع واقعی و $ Q $ تقریبی است. اما از این اشتقاق، نتیجه خلاف شهود به نظر می رسد. آیا توزیع مورد انتظار نباید با توزیع واقعی و توزیع مشاهده شده با تقریب مطابقت داشته باشد؟
آماره آزمون G و واگرایی KL
16334
من هرگز دوره ای در آمار نداشته ام، بنابراین امیدوارم در جای مناسب اینجا سوال کرده باشم. فرض کنید من فقط دو داده برای توصیف توزیع نرمال دارم: میانگین $\mu$ و واریانس $\sigma^2$. من می خواهم از یک کامپیوتر برای نمونه برداری تصادفی از این توزیع استفاده کنم تا به این دو آمار احترام بگذارم. کاملاً واضح است که می توانم میانگین را با عادی سازی حدود 0 کنترل کنم: فقط قبل از خروجی نمونه به هر نمونه $\mu$ اضافه کنید. اما من نمی‌دانم که چگونه می‌توان نمونه‌هایی را برای احترام به $\sigma^2$ تولید کرد. برنامه من به یک زبان برنامه نویسی معمولی خواهد بود. من به هیچ بسته آماری دسترسی ندارم.
چگونه از یک توزیع نرمال با میانگین و واریانس شناخته شده با استفاده از یک زبان برنامه نویسی معمولی نمونه برداری کنیم؟
46361
زمانی که یک متغیر دارای توزیع نرمال است و متغیر دیگر دارای توزیع نرمال نیست، کدام آزمون دو دنباله برای مقایسه میانگین/میانگین ها بهتر است؟
وقتی یک متغیر توزیع نرمال دارد و متغیر دیگر ندارد، از کدام آزمون برای مقایسه میانگین/میانگین ها استفاده کنیم؟
110383
مربع R من از رگرسیون کاکس حدود 0.02 است، آیا به من می گوید که مدل واقعاً بد عمل می کند؟ من از coxph در R استفاده کردم.
آیا مربع R رگرسیون کاکس همان چیزی است که مربع رگرسیون خطی R را بیان می کند؟
63962
من به دنبال این هستم که به سرعت در مورد نحوه افزودن شخصی سازی به یک سیستم توصیه مبتنی بر بیزی هوشمند باشم. من از داده‌های جریان کلیک و آمار بیزی برای تخمین احتمال خرید برای رتبه‌بندی فهرستی از محصولات استفاده می‌کنم. چگونه می توانم تاریخچه کاربر خاص را برای اصلاح احتمالات عمومی خود برای یک کاربر خاص ترکیب کنم؟ به عنوان مثال، کاربر در بازدید قبلی از سایت روی یک محصول کلیک کرده است. چگونه احتمال خرید را طی یک بازدید متوالی تخمین بزنم؟ رویکرد استاندارد در اینجا چیست؟ به دنبال مقالات، وبلاگ ها، افرادی هستید که می توانند به روشنگری کمک کنند.
چگونه می توانم شخصی سازی را در موتور رتبه بندی بیزی بگنجانم؟
63968
من قبلاً این عبارت را شنیده ام: > بهینه سازی ریشه همه بدی ها در آمار است. به عنوان مثال، پاسخ بالا در این موضوع، این عبارت را با اشاره به خطر بهینه سازی بیش از حد تهاجمی در طول انتخاب مدل بیان می کند. اولین سوال من این است: آیا این نقل قول به شخص خاصی نسبت داده می شود؟ (به عنوان مثال در ادبیات آماری) از آنچه من می فهمم، این بیانیه به خطرات بیش از حد برازش اشاره دارد. حکمت سنتی می‌گوید که اعتبارسنجی متقاطع مناسب در حال حاضر با این مشکل مبارزه می‌کند، اما به نظر می‌رسد که این مشکل بیش از این است. آیا آماردانان و پزشکان ML باید از بهینه سازی بیش از حد مدل های خود احتیاط کنند، حتی زمانی که به پروتکل های اعتبارسنجی متقاطع سخت پایبند هستند (مثلاً 100 CV 10 برابری تو در تو)؟ اگر چنین است، چگونه بفهمیم که چه زمانی جستجوی «بهترین» را متوقف کنیم؟
بهینه سازی: ریشه همه بدی ها در آمار؟
81523
من دو آزمایش روانشناسی انجام داده ام. متغیر وابسته رتبه‌بندی است که توسط شرکت‌کننده ارائه می‌شود، یعنی یک عدد صحیح از 0 تا 100. آزمایش اول یک طرح مختلط 2x2 است، با یک عامل بین موضوعی (درمان) و یک عامل درون موضوعی (سوال). هر یک از این عوامل دارای دو سطح هستند. یعنی از شرکت کنندگان در آزمایش دو سوال پرسیده می شود (Q1 و Q2)، در حالی که یک عامل به طور سیستماتیک بین دو گروه متفاوت است (Treatment1 و Treatment2). آزمایش دوم یکسان است، با این تفاوت که طرح کاملاً درون موضوعی می شود. یعنی طرح 2x2 با اندازه های مکرر است. از شرکت کنندگان چهار سوال پرسیده می شود که دو دستکاری را به صورت فاکتوریل رمزگذاری می کند: Q1Treatment1، Q1Treatment2، Q2Treatment1 و Q2Treatment2. من به تعاملات بالقوه بین دو عامل (سوال و درمان) علاقه مند هستم. به طور معمول، من ANOVA اندازه گیری های مکرر را برای این آزمایش ها انجام می دهم. با این حال، مشکل این است که داده های من به طور قابل توجهی از حالت عادی منحرف می شوند (در واقع، باقیمانده ها نیز همینطور). بنابراین، من به دنبال معادل های ناپارامتری ANOVA برای این دو طرح هستم. من می توانم از هر دو SPSS و R استفاده کنم.
معادل ناپارامتریک ANOVA اندازه گیری های مخلوط و دو طرفه