_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
70426
|
من با محققی کار می کنم که قصد دارد یک مطالعه را برای اعتبارسنجی دستگاهی برای اندازه گیری فشار خون (BP) انجام دهد. زمانی که این دو دستگاه توسط یک شرکتکننده استفاده میشود، تفاوتی را بین +/- 5 میلیمتر جیوه بیان میکند. من آمار خلاصه زیر (کمی تغییر یافته) را از یک مطالعه مشابه که از پروتکل ANSI/AAMI SP10A-2002 استفاده می کرد به دست آوردم: n = 100 شرکت کننده میانگین +/- SD BP سیستولیک = -0.70 +/- 5.00 میانگین اختلاف +/- BP دیاستولیک = 0.20 +/- 5.20 محقق باید چند شرکت کننده را برای اعتبار سنجی استخدام کند دستگاه با در نظر گرفتن توان معمولی 80٪ و سطح آلفا 0.05؟ من از R (مخصوصا power.t.test) استفاده می کنم. من فرض می کنم که به دلیل تنوع بیشتر می خواهم روی BP دیاستولیک تمرکز کنم. فرضیه صفر و جایگزین را به صورت زیر تعریف کردم: فرضیه صفر: میانگین اختلاف بین دو اندازه گیری 5 میلی متر جیوه است. فرضیه جایگزین: میانگین تفاوت بین دو اندازه گیری بیشتر از 5 میلی متر جیوه نیست (فرضیه یک طرفه). اما ظاهراً فکر من خاموش است ... آیا اطلاعاتی وجود دارد که من کم دارم؟ پیشاپیش از شما متشکرم
|
تخمین حجم نمونه
|
70425
|
بنابراین، به نظر من تابع وزنها در lm به مشاهدات وزن بیشتری میدهد، هر چه مقدار «وزن» مشاهدات مرتبط بزرگتر باشد، در حالی که تابع lme در lme دقیقاً برعکس عمل میکند. این را می توان با یک شبیه سازی ساده تایید کرد. #Make 3 Vectors- C به عنوان یک اثر تصادفی غیر آگاهانه برای مدل LME A <-c (1:10) b <-c (2،4،6،10،100،14،16،18،20) c استفاده می شود. <-c (1،1،1،1،1،1،1،1،1،1) اگر اکنون می خواهید مدلی را اجرا کنید که در آن شما مشاهدات را بر اساس معکوس از آن وزن کنید متغیر وابسته در lm، تنها در صورتی میتوانید همان نتیجه را در nlme ایجاد کنید که فقط با متغیر وابسته وزن کنید، بدون اینکه برعکس را بگیرید. summary(lm(b~a,weights=1/b)) summary(lme(b~a,random=~1|c,weights=~b)) می توانید این را ورق بزنید و ببینید که عکس آن درست است- تعیین وزن= B در LM برای به دست آوردن نتیجه LME مطابق با وزن = 1/b نیاز دارد. بنابراین ، من این را خیلی درک می کنم ، من فقط می خواهم اعتبار در یک چیز را داشته باشم و در مورد دیگری سوالی بپرسم. 1. اگر می خواهم داده های خود را بر اساس معکوس متغیر وابسته وزن کنم ، آیا فقط وزن کد = ~ (متغیر وابسته) در LME خوب است؟ 2. چرا LME برای رسیدگی به وزن کاملاً متفاوت از LM نوشته شده است؟ هدف از این غیر از ایجاد سردرگمی چیست؟ هر بینش قدردانی خواهد شد!
|
آرگومان وزن در lm و lme در R بسیار متفاوت است - آیا من از آنها به درستی استفاده می کنم؟
|
5366
|
من باید واحدها را در خوشههای $k$ خوشهبندی کنم تا مجموع مربعهای درون گروهی (WSS) را به حداقل برسانم، اما باید اطمینان حاصل کنم که هر خوشه حداقل دارای واحدهای $m$ باشد. آیا ایده ای دارید که آیا هر یک از توابع خوشه بندی R امکان خوشه بندی در خوشه های $k$ را با حداقل محدودیت اندازه خوشه فراهم می کند؟ به نظر نمی رسد ()kmeans گزینه محدودیت اندازه را ارائه دهد.
|
خوشه بندی (k-means یا غیره) با حداقل محدودیت اندازه خوشه
|
114056
|
من یک سوال جالب دارم که فکر می کنم هنوز اینجا مطرح نشده است. من در حال ساختن یک هوش مصنوعی هستم که هدف آن پیش بینی میزان اشتباه یک مدل استاندارد مبتنی بر تاریخ است. این بر اساس پردازش زبان طبیعی (NLP) انجام می شود، بنابراین از یک منبع خارجی (بله، من هزاران مقاله دارم که هر دقیقه برای انجام این کار زمان بندی شده است!!). من به جایی رسیدم که باید مدل اصلی خود را انتخاب کنم. ساده ترین راه رگرسیون خطی از میله های 0-40 (که 40 'اکنون' است) است و آن را با میله های 5-45 مقایسه کنید. تفاوت مقادیر 40 و 45 را مقایسه کنید و voila ما تفاوت را در مدل خود داریم که میتوانیم با استفاده از مقالات خبری پیشبینی/طبقهبندی کنیم. البته استفاده از رگرسیون خطی برای این نوع کارها مناسب نیست اما چیست؟ و حتی بهتر از آن، کتابخانههایی در NET(C#) وجود دارند که بتوانند این کار را انجام دهند، زیرا مهارتهای ریاضی به کد من چندان عالی نیست. من به دنبال رگرسیون چند جملهای بودم، اما متوجه شدم که این تفاوت میتواند نامتناسب باشد. همچنین به GARCH نگاه میکردم، اما به نظر نمیرسد کتابخانهای (بنابراین نه در R) پیدا کنم که بتواند این کار را بدون پرداخت بخشی از بدنم انجام دهد. چیزی که جالب به نظر می رسد AR(i)MA است، اما در آنجا متوقف شدم و تصمیم گرفتم در مورد مشکلم راهنمایی دریافت کنم. چه چیزی برای چنین ناظری مناسب است؟ آیا به رگرسیون بسیار پیچیده نیاز دارم یا خطی حتی به اندازه کافی خوب است؟ یا در این مورد فقط از یک شبکه عصبی استفاده کنید (یک بار قبلاً یک شبکه بسیار خوب برای این کار ساخته شده است)؟ سلام
|
مدل سری زمانی مالی
|
89437
|
در یک نمونه معرف از جمعیت کشور، من داده های گمشده بسیار کمی دارم، حدود 3%. اما وقتی داده های گمشده را در میان جوامع بررسی کردم، متوجه شدم که یکی از آنها تقریباً 30 درصد از داده ها را از دست داده است. این در همه سنین ثابت است. آیا باید سعی کنم داده ها را تلقی کنم، آن جامعه را از تجزیه و تحلیل حذف کنم یا همه جوامع را نگه دارم اما به خواننده در مورد این سوگیری احتمالی هشدار دهم؟
|
داده های از دست رفته: بهترین رویکرد چیست؟
|
10011
|
من مجموعه ای از نمونه ها را دارم که فرض می کنم 2 زیر مجموعه مشخص در آن وجود دارد. من مقادیر آنها را در یک هیستوگرام رسم کردم و متوجه شدم که دو حالت متمایز همانطور که در شکل زیر نشان داده شده است وجود دارد. سوال من این است که چگونه دو گروه را از هم متمایز کنم. یعنی چگونه مقداری را انتخاب کنم که دو زیر مجموعه را متمایز کند؟ 
|
چگونه دو زیر گروه را از هیستوگرام متمایز کنیم؟
|
10017
|
من سعی می کنم خوشه بندی خطای استاندارد و نحوه اجرای آن را در R بفهمم (در Stata بی اهمیت است). در R من در استفاده از «plm» یا نوشتن تابع خودم ناموفق بودهام. من از داده های «الماس» از بسته «ggplot2» استفاده خواهم کرد. من می توانم جلوه های ثابت را با متغیرهای ساختگی > library(plyr) > library(ggplot2) > library(lmtest) > library(ساندویچ) > # با dummies برای ایجاد جلوه های ثابت انجام دهم > fe.lsdv <- lm(قیمت ~ قیراط + فاکتور (برش) + 0، داده = الماس) > ct.lsdv <- coeftest(fe.lsdv, vcov. = vcovHC) > ct.lsdv t test of coefficients: Estimate Std. خطای t مقدار Pr(>|t|) قیراط 7871.082 24.892 316.207 < 2.2e-16 *** factor(cut)fair -3875.470 51.190 -75.707 < 2.2e-16 *** -2725Good.1. -103.692 < 2.2e-16 *** ضریب(برش)خیلی خوب -2365.334 20.548 -115.111 < 2.2e-16 *** factor(cut)Premium -2436.393 21.172 -115.075-(e115.075-(برش 6 < 2. ) ایده آل -2074.546 16.092 -128.920 < 2.2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 یا با حذف معنی هر دو سمت چپ و راست (در اینجا بدون رگرسیون ثابت زمان) و تصحیح درجات آزادی . > # با تحقیر با درجات آزادی تصحیح > الماس <- ddply(الماس، .(برش)، تبدیل، price.dm = قیمت - میانگین(قیمت)، carat.dm = قیراط .... [TRUNCATED] > fe. dm <- lm(price.dm ~ carat.dm + 0، داده = الماس) > ct.dm <- coeftest(fe.dm، vcov. = vcovHC، df = nrow(الماس) - 1 - 5) > ct.dm t test of ضرایب: تخمین مقدار خطای t Pr(>|t|) carat.dm 7871.082 24.888 316. < 2.2e-16 *** --- کدهای Signif: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 من نمی توانم این نتایج را با 'plm' تکرار کنم، زیرا شاخص زمان ندارم (یعنی این در واقع یک پانل نیست، فقط خوشه هایی است که می توانند یک سوگیری مشترک در شرایط خطای خود داشته باشند > plm.temp <- plm (قیمت ~). قیراط، داده = الماس، index = برش) زوج های تکراری (time-id) خطا در pdim.default(index[[1]]، index[[2]]): من همچنین سعی کردم ماتریس کوواریانس خودم را با خطای استاندارد خوشهبندی شده با استفاده از توضیح Stata درباره گزینه «خوشه» آنها (در اینجا توضیح داده شده است)، که برای حل $$\hat V_{cluster} = (X'X)^{-1} \left( \sum_{j=1}^{n_c} u_j'u_j \right) (X'X)^{-1}$$ جایی که $u_j = \sum_{خوشه ~j} e_i * x_i$، $n_c$ si تعداد خوشه ها، $e_i$ باقیمانده برای $i^{th}$ مشاهده و $x_i$ است. بردار ردیفی پیشبینیکنندهها، از جمله ثابت است (این همچنین به عنوان معادله (7.22) در _مقطع و دادههای تابلویی Wooldridge ظاهر میشود). اما کد زیر ماتریس های کوواریانس بسیار بزرگی را ارائه می دهد. آیا این مقادیر بسیار بزرگ با توجه به تعداد کمی از خوشه های من هستند؟ با توجه به اینکه نمیتوانم «plm» را برای انجام خوشهها بر اساس یک عامل دریافت کنم، مطمئن نیستم که چگونه کد خود را محک بزنم. > # با خوشه قوی se > lm.temp <- lm(قیمت ~ قیراط + ضریب(برش) + 0، داده = الماس) > > # با استفاده از مدلی که Stata استفاده می کند > stata.clustering <- تابع(x, clu, res) { + x <- as.matrix(x) + clu <- as.vector(clu) + res <- as.vector(res) + fac <- منحصر به فرد(clu) + num.fac <- طول(fac) + num.reg <- ncol(x) + u <- ماتریس (NA، nrow = num.fac، ncol = num.reg) + گوشت <- ماتریس (NA، nrow = num.reg، ncol = num.reg) + + # عبارت بیرونی (X'X)^-1 + خارجی <- حل (t(x) %*% x) + + # inner term sum_j u_j'u_j where u_j = sum_i e_i * x_i + for (i in seq(num.fac)) { + index.loop <- clu == fac[i] + res. حلقه <- res[index.loop] + x.loop <- x[clu == fac[i]، ] + u[i، ] <- as.vector(colSums(res.loop * x.loop)) + } + داخلی <- t(u) %*% u + + # + V <- خارجی %*% داخلی %*% بیرونی + بازگشت (V) + } > x.temp <- data.frame(const = 1, diamonds[, قیراط]) > summary(lm.temp) تماس: lm(فرمول = قیمت ~ قیراط + ضریب(برش) + 0، داده = الماس) باقیمانده ها: حداقل 1Q Median 3Q Max -17540.7 -791.6 -37.6 522.1 12721.4 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) قیراط 7871.08 13.98 563.0 <2e-16 *** factor(cut)fair -3875.47 40.41 -95.9 <2e-16 *** factor(cut) Good -2755.14 -2e-11.9 <2e-16 -16 *** فاکتور(برش)بسیار خوب -2365.33 17.78 -133.0 <2e-16 *** factor(cut)Premium -2436.39 17.92 -136.0 <2e-16 *** factor(cut)Ideal -2074.55 14.23 -145.8 *** <2e-1 Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 1511 در 53934 درجه آزادی چندگانه R-squared: 0.9272، R-squared تنظیم شده: 0.92 F آمار: 1.145e+05 در 6 و 53934 DF،
|
خوشه بندی خطای استاندارد در R (به صورت دستی یا plm)
|
70422
|
بنابراین سؤال زیر به من داده می شود > مجموعه داده نمونه5.txt دارای ورودی 20 بعدی $x$ در $\mathbb{R}^{20}$ است، اما > ما گمان می کنیم که بسیاری از اینها واقعاً نامربوط هستند. آیا می توانید تابع > $y = f(x)$ را مدل کنید در حالی که - در همان زمان - تعیین کنید که کدام ابعاد > به خروجی کمک می کنند؟ بنابراین این یک کار انتخاب ویژگی است - من آن را درک می کنم. اما من به نوعی با قسمت > در عین حال گیج شده ام. من بسیاری از الگوریتمهای انتخاب ویژگی را میشناسم، اما آنها در واقع مدلهایی را برای دادهها تولید نمیکنند، آنها فقط تصمیم میگیرند که کدام ویژگی مهم است و کدامیک مهم نیست. برعکس، یک مدل (به تنهایی) واقعاً اطلاعات زیادی در مورد اینکه کدام ویژگی مهم است و کدام یک نیست، نمی دهد. شاید بتوانید رگرسیون خطی ساده انجام دهید و سپس ویژگی ها را بر اساس وزن ها انتخاب کنید (اما من هرگز نشنیده ام که کسی این کار را انجام دهد). یا فکر می کنید که من بیش از حد سوال را تحلیل می کنم و کاری که باید انجام دهم این است که ابتدا انتخاب ویژگی را انجام دهم، سپس مدل را ایجاد کنم؟
|
تفسیر وظیفه انتخاب ویژگی
|
7357
|
من میدانم که این یک سؤال «R» نسبتاً خاص است، اما ممکن است درباره واریانس نسبت توضیح داده شده، $R^2$، اشتباه فکر کنم. اینجا می رود. من سعی می کنم از بسته R randomForest استفاده کنم. من مقداری داده آموزشی و داده های آزمایشی دارم. هنگامی که من یک مدل جنگل تصادفی را برازش میکنم، تابع 'randomForest' به شما امکان میدهد دادههای آزمایشی جدیدی را برای آزمایش وارد کنید. سپس درصد واریانس توضیح داده شده در این داده جدید را به شما می گوید. وقتی به این نگاه می کنم، یک عدد دریافت می کنم. وقتی از تابع «predict()» برای پیشبینی مقدار نتیجه دادههای آزمایشی بر اساس برازش مدل از دادههای آموزشی استفاده میکنم، و ضریب همبستگی مجذور بین این مقادیر و مقادیر نتیجه _واقعی را برای دادههای آزمایشی میگیرم. یک عدد متفاوت بگیرید _این مقادیر مطابقت ندارند_. در اینجا چند کد «R» برای نشان دادن مشکل وجود دارد. # از دادههای داخلی داده عنبیه استفاده کنید (عنبیه) #بارگذاری کتابخانه کتابخانه تصادفی جنگل (جنگل تصادفی) # دادهها را به مجموعههای آموزشی و آزمایشی تقسیم کنید. )/2)) مجموعه قطار <- iris[trainindex, ] testset <- iris[-trainindex, ] # متناسب با یک مدل به مجموعه آموزشی (ستون) 1، Sepal.Length، نتیجه خواهد بود) set.seed(42) model <- randomForest(x=trainset[ ,-1],y=trainset[ ,1]) # مقادیر پیش بینی برای مجموعه آزمایشی (ستون اول نتیجه است، آن را کنار بگذارید) پیش بینی شده <- پیش بینی (مدل، مجموعه آزمایش[ ,-1]) # ضریب همبستگی مجذور بین پیش بینی شده چقدر است و ارزش های واقعی؟ cor(predicted, testset[, 1])^2 # اکنون، مدل را با استفاده از x.test داخلی و y.test set.seed(42) randomForest(x=trainset[,-1], y=trainset[ ,1], xtest=testset[ ,-1], ytest=testset[,1]) از هر کمکی که ممکن است بخواهید بفرستید متشکریم.
|
$R^2$ محاسبه شده دستی با randomForest() $R^2$ برای آزمایش داده های جدید مطابقت ندارد
|
24729
|
من مشاهدات مستقل $Y_1، Y_2، ....، Y_n$ دارم که مقادیر 1 یا 0 را با $$P(Y_i = 1) = \frac{1}{1 + \exp\{-(\alpha + \ میگیرد. بتا x_i)\}}$$ که در آن $\alpha$ و $\beta$ ثابت ناشناخته هستند و $x_1، x_2، ....، x_n$ مشخص هستند، باید نشان دهم که $(\sum Y_i،\sum x_i Y_i)$ حداقل آمار کافی برای $(\alpha،\beta)$ است. ما می دانیم که اگر $\frac{\prod_{i=1}^nf(y_i;\alpha, \beta)}{\prod_{i=1}^nf(z_i) هر آماری $T(Y)$ حداقل کافی است ;\alpha, \beta)}$ مستقل از $\alpha$ و $\beta$ است اگر و فقط اگر $T(Y) = T(Z)$. اما در اینجا چگالی احتمال $Y$ مستقل از $y$ است. آیا روش دیگری برای نشان دادن حداقل آمار وجود دارد؟
|
آمار کافی
|
7358
|
من یک الگوریتم MCMC خاص دارم که میخواهم آن را به C/C++ پورت کنم. بسیاری از محاسبات گران قیمت در حال حاضر به زبان C از طریق Cython است، اما من میخواهم کل نمونهگر را به یک زبان کامپایلشده نوشته شود تا بتوانم فقط برای Python/R/Matlab/wrapper بنویسم. بعد از گشتن به سمت C++ متمایل شدم. چند کتابخانه مرتبط که من می شناسم عبارتند از Armadillo (http://arma.sourceforge.net/) و Scythe (http://scythe.wustl.edu/). هر دو سعی می کنند برخی از جنبه های R/Matlab را تقلید کنند تا منحنی یادگیری را آسان کنند، که من بسیار آن را دوست دارم. فکر می کنم با کاری که می خواهم انجام دهم کمی بهتر مربع ها را اسکیت کنید. به طور خاص، RNG آن شامل توزیعهای زیادی است که در آن Armadillo فقط یکنواخت/نرمال دارد، که ناخوشایند است. به نظر می رسد که Armadillo در حال توسعه بسیار فعالی است در حالی که Scythe آخرین نسخه خود را در سال 2007 مشاهده کرد. بنابراین آنچه من تعجب می کنم این است که آیا کسی تجربه ای با این کتابخانه ها دارد -- یا سایر کتابخانه ها که تقریباً مطمئناً آنها را از دست داده ام -- و اگر چنین است، آیا چیزی وجود دارد یا خیر. یکی را نسبت به دیگران برای آماردانی که با Python/R/Matlab بسیار آشناست، اما با زبان های کامپایل شده کمتر آشناست (نه کاملا ناآگاه، اما نه کاملاً مسلط...) توصیه می کنیم.
|
کتابخانه های C++ برای محاسبات آماری
|
1040
|
مدل زیر $Y_i = f(X_i) + e_i$ را در نظر بگیرید که از آن n نقطه داده iid $\left( X_i, Y_i \right)_{i=1}^n$ را مشاهده می کنیم. فرض کنید که $X_i \in \mathbb{R}^d$ یک بردار ویژگی بعدی $d$ باشد. و فرض کنید که یک تخمین حداقل مربعات معمولی با داده ها مناسب است، یعنی $\hat \beta = {\rm arg} \min_{\beta \in \mathbb{R}^d} \sum_i (Y_i - \sum_j X_ {ij} \beta_j)^2$ از آنجایی که یک مدل اشتباه تخمین زده شده است، تفسیر فاصله اطمینان حول ضرایب تخمینی چیست؟ به طور کلی تر، آیا منطقی است که فواصل اطمینان حول پارامترها را در یک مدل نامشخص تخمین بزنیم؟ و فاصله اطمینان در چنین حالتی به ما چه می گوید؟
|
تعبیر/معنای فواصل اطمینان در مدل های نامشخص چیست؟
|
110922
|
فرض کنید ($h_1,h_2,...,h_n$) یک بردار $n\ برابر 1$ است. اجازه دهید $h_i=g_iX_i$، که در آن $g_i$ یک متغیر غیر تصادفی است که می تواند در $i$ متفاوت باشد و $X_i$ یک متغیر تصادفی با توزیع پارتو نوع I است. $$f_X(x) = \begin{cases} {\alpha x_m^\alpha \over x^{\alpha +1}} و \text{if $x\ge x_m$} \\[2ex] 0، & \text{if $x\lt x_m$} \\ \end{cases}$$ احتمال اینکه هر $h_i$ معینی در میان باشد، به عنوان تابعی از $g$ چقدر است بزرگترین $k$ از $n$ $h$؟
|
احتمال اینکه یک متغیر در هنگام سفارش یکی از k بالای n باشد
|
110926
|
ویروس جدیدی در یک کشتی تفریحی شیوع پیدا می کند. من میخواهم این فرضیه را آزمایش کنم که احتمال ابتلای مردان و زنان به ویروس به یک اندازه است. من 100 مرد و 100 زن را امتحان می کنم. احتمالاً اگر 87 زن آلوده و 89 مرد را پیدا کنم، نمیتوانم با خیال راحت آن را رد کنم. از سوی دیگر، اگر 11 مرد و 20 زن را تحت تأثیر قرار دهند، به نظر میرسد که مبنای معقولی برای رد این موضوع باشد. بنابراین قبل از اجرای آزمون می خواهم یک منطقه رد تعریف کنم. ناحیه رد باید به گونه ای تعریف شود که احتمال رد صفر با توجه به اینکه درست است _حداکثر_ 5٪ باشد. از آنجایی که این یک عدد تهی ترکیبی است - احتمال ابتلا به بیماری می تواند بین 0 تا 1 باشد - این شرط باید برای هر یک از اعضای تهی برقرار باشد. چگونه می توانم چنین منطقه ای را بسازم؟
|
منطقه بحرانی برای تفاوت در نسبت
|
11050
|
من متوجه شدم که تمرینات ساده تجزیه و تحلیل داده ها اغلب می تواند به توضیح و شفاف سازی مفاهیم آماری کمک کند. از چه تمرین های تجزیه و تحلیل داده ها برای آموزش مفاهیم آماری استفاده می کنید؟
|
یادگیری مفاهیم آماری از طریق تمرینات تجزیه و تحلیل داده ها
|
110921
|
من به یک مشکل منحصر به فرد نزدیک شده ام و می خواهم مطمئن شوم که آزمایشی را که به روش صحیح انجام می دهم انجام می دهم. در اینجا یک پیشینه مختصر آمده است: هدف این پروژه خودکارسازی یک سیستم تبلیغاتی است و هدف سوال من تعیین مقدار p است که یک نوع تبلیغات هزینه هر کاربر کمتری نسبت به نوع دیگری از تبلیغات دارد. **داده ها / تعاریف:** 1. _ورود_ - تعداد افرادی که روی تبلیغ کلیک کرده اند 2. _ثبت نام ها -_ تعداد افرادی که ثبت نام کرده اند 3. _خرج_ - کل مبلغ هزینه شده برای هر تبلیغ 4. *هزینه_به ازای_کاربر = هزینه / ثبت نام هایی که دارم داده های روزانه در مورد همه این متغیرها برای دو آگهی مختلف. این به من اجازه میدهد تا جمعآوری هزینه_در_کاربر و همچنین واریانس مجموع cost_per_user را دریافت کنم. اکنون، من میخواهم امروز احتمال دو آگهی مختلف با عملکرد متفاوت را آزمایش کنم تا بتوانم بودجهبندی را به شیوهای آگاهانه تنظیم کنم. بهترین راه برای استفاده از این داده ها برای اجرای یک تست مناسب چیست؟ پیشاپیش متشکرم PS: من فکر می کنم که این آزمون فرضیه آزمون برای تفاوت میانگین ها احتمالاً درست است، اما من نتوانستم مکانیزم آن را پیدا کنم.
|
تفاوت میانگین ها در زمانی که میانگین جمعیت مشخص است؟
|
29878
|
** زمینه: ** من در حال مطالعه نمونه برداری در MCMC برای یادگیری ماشین هستم. در صفحه 5، نمونهگیری رد را ذکر میکند: تکرار نمونه xi ~ q(x) و u ~ U(0,1) اگر uMq(xi) < p(xi): xi را بپذیرید تا تعداد نمونههای کافی (که در آن $M$ انتخاب شود مانند که $p(x) \le Mq(x)$ برای همه $x$) **سوال:** در تجزیه و تحلیل، مقاله می گوید که ممکن است برای تنظیمات ابعاد بالا بد کار کند. در حالی که من می توانم آن را ببینم، مقاله دلیلی را ارائه می دهد که من نمی فهمم: $P(x \text{ پذیرفته شده}) = P \left(u < \frac{p(x)}{Mq(x)} \ سمت راست) = \ frac {1} {m} $. این برای من منطقی نیست اگر احتمال ثابت بود، چرا حتی به خود زحمت ارزیابی $p(x)$ را بدهید؟ آیا این باید حداکثر $\frac{1}{M}$ باشد؟ یا من فقط این عبارت را اشتباه تفسیر می کنم؟
|
احتمال رد در نمونه گیری رد چقدر است؟
|
5360
|
من یک رگرسیون لجستیک گام به گام را بر روی مجموعه ای از داده ها در SPSS نصب می کنم. در این روش، من مدل خود را به یک زیرمجموعه تصادفی که تقریباً برابر است، برازش میدهم. 60 درصد از کل نمونه که حدود 330 مورد است. چیزی که به نظر من جالب است این است که هر بار که دادههایم را دوباره نمونهبرداری میکنم، متغیرهای مختلفی را در مدل نهایی وارد و خارج میکنم. چند پیش بینی همیشه در مدل نهایی وجود دارد، اما برخی دیگر بسته به نمونه وارد و خارج می شوند. سوال من اینه بهترین راه برای رسیدگی به این موضوع چیست؟ من امیدوار بودم که همگرایی متغیرهای پیش بینی کننده را ببینم، اما اینطور نیست. برخی از مدلها از دیدگاه عملیاتی حس بسیار شهودیتری دارند (و توضیح آن برای تصمیمگیرندگان آسانتر است)، و برخی دیگر کمی بهتر با دادهها مطابقت دارند. به طور خلاصه، از آنجایی که متغیرها در حال چرخش هستند، چگونه برخورد با وضعیت من را توصیه می کنید؟ پیشاپیش سپاس فراوان
|
رگرسیون لجستیک و نمونه گیری گام به گام
|
110925
|
ما اغلب مدل ها را با هم میانگین می گیریم تا یک مدل پیش بینی انبوه ایجاد کنیم. برخی از تحقیقات اخیر نشان می دهد که میانگین های مدل ساده به خوبی یا بهتر از میانگین های مدل وزن شده توسط توابع امتیازات معیار اطلاعات عمل می کنند. میانگین وزنی یا ساده مدل اغلب (اما نه همیشه) بهتر از انتخاب مدلی با بهترین امتیاز است. بسیاری از نمرات معیار اطلاعات را می توان به صورت تقریبی برای طرح های اعتبار سنجی متقابل مختلف مشاهده کرد. حتی اگر یک مدل در اعتبار سنجی متقابل بدتر از مدل دیگر عمل کند، هنوز آموزنده است. من استدلال می کنم که یک مدل متوسط با وزن ها به عنوان تابعی از نمرات اعتبار سنجی متقاطع منطقی است. با این حال، اکثر افرادی که برای تنظیم هایپرپارامترها اعتبار سنجی متقاطع انجام می دهند، فقط مقدار هایپرپارامتر را انتخاب می کنند که خطای اعتبارسنجی متقاطع را به حداقل می رساند. در چه شرایطی میتوان انتظار داشت که یک مدل میانگین وزنی با اعتبار متقاطع-خطا بهتر از یک مدل «بهترین» منفرد عمل کند؟ من خوشحال می شوم اگر کسی بتواند مرتبط ترین تحقیق در این مورد را به من نشان دهد. متشکرم.
|
آیا انجام میانگینگیری مدل مبتنی بر خطای CV منطقی است؟
|
17846
|
فرض کنید میخواهم الگوریتمی را بر اساس یک مقاله یا کتاب پیادهسازی کنم و آن را تحت یک مجوز غیر اختصاصی اما نه لزوماً غیرتجاری (مثلاً در یک وبلاگ) منتشر کنم. آیا انجام این کار قانونی است؟ من میدانم که یک پاسخ کلی نمیتواند بله یا خیر باشد، بنابراین میخواهم بدانم چگونه میتوانم به سرعت بفهمم که آیا این قانونی است یا خیر. چند نمونه عالی خواهد بود. در اینجا چند نمونه برای بحث آورده شده است * Apache Commons Math در راهنمای توسعهدهنده خود بیان کرده است که همه توسعهدهندگان باید قبل از ارتکاب، مسائل مربوط به مجوز را بررسی کرده و به عنوان مثال به دستورات عددی پیوند دهند. این اولین بار است که چنین هشداری را می بینم. من به این کتاب (نه آنلاین و نه در قالب درخت مرده) دسترسی ندارم. اخطار قانونی به چه صورت است؟ * مقالات لینک شده برای دانلود در صفحه نویسنده معمولاً حاوی اخطار قانونی نیستند. آیا به این معنی است که الگوریتم ها ... رایگان هستند؟ * طبق ویکی پدیا، Random Forest یک اصطلاح تجاری است. آیا این به این معنی است که هیچ کس مجاز به پیاده سازی این الگوریتم نیست؟ می توان نام دیگری به آن داد (مانند Good-Luck-Forests)، زیرا بازتولید الگوریتم دقیق با توجه به اینکه همه جزئیات در کاغذ منتشر نمی شوند (به طور معمول) تقریبا غیرممکن است. * در مورد اوراقی که دسترسی به آنها هم محدود است و هم غیرممکن است، چطور. به عنوان مثال مقاله _جایگزین های انحراف مطلق میانه_ را ببینید که در مجله انجمن آماری آمریکا منتشر شده است، اما اکنون می توان آن را از طریق JSTOR خریداری کرد یا از این صفحه دانلود کرد. آیا فرانک ماشی، آپلودکننده این مقاله، قانون را زیر پا گذاشته است؟ بسیاری از مقالات با یا بدون دسترسی محدود را می توان به صورت آنلاین یافت. ** سلب مسئولیت: ** هیچ پاسخی نباید به عنوان مشاوره حقوقی تلقی شود که می توان در دادگاه به آن مراجعه کرد.
|
آیا انتشار کد یک الگوریتم منتشر شده قانونی است؟
|
65713
|
من مجموعه ای از مشاهدات، مستقل از زمان، دارم. من نمی دانم که آیا باید تست های خودهمبستگی را اجرا کنم؟ به نظر من منطقی نیست، زیرا هیچ جزء زمانی در داده های من وجود ندارد. با این حال، من در واقع تست همبستگی سریال LM را امتحان کردم، و این نشان دهنده همبستگی خودکار قوی باقیمانده ها است. آیا معنایی دارد؟ چیزی که من به آن فکر می کنم این است که در واقع می توانم مشاهدات در مجموعه داده خود را به هر ترتیب ممکن بازآرایی کنم، و این امر همبستگی خودکار را در باقیمانده ها تغییر می دهد. بنابراین سؤال این است - آیا در این مورد اصلاً باید به خودهمبستگی اهمیت بدهم؟ و آیا باید از Newey-West برای تنظیم SE برای آن استفاده کنم در صورتی که آزمایش چنین نشان دهد؟ با تشکر
|
اگر رگرسیون OLS را روی داده های مقطعی اجرا کنید، آیا باید همبستگی خودکار را در باقیمانده ها آزمایش کنید؟
|
82690
|
من یک متغیر طبقه بندی دارم به نام شکنجه (=0، شکنجه اغلب توسط دولت استفاده می شود؛ =1 اغلب استفاده می شود؛ 2= هرگز استفاده نشده است). رگرسیون ناکارآمدی اقتصادی بر شکنجه، علامت ضریب منفی به دست می دهد. آیا این بدان معناست که بهبود شکنجه (یعنی از 0 به 2) ناکارآمدی اقتصادی را کاهش داده و کاهش می دهد؟ یا به این معناست که شکنجه به طور کلی ناکارآمدی اقتصادی را کاهش می دهد؟ با تشکر
|
تفسیر vble طبقه بندی شده در یک معادله ناکارآمدی
|
5363
|
من یک سردرگمی جزئی در مورد الگوریتم پس انتشار مورد استفاده در پرسپترون چندلایه (MLP) داشتم. خطا توسط تابع هزینه تنظیم می شود. در پس انتشار سعی داریم وزن لایه های پنهان را تنظیم کنیم. خطای خروجی را می توانم درک کنم، یعنی `e = d - y` [بدون زیرنویس ها]. سؤالات عبارتند از: 1. چگونه می توان خطای لایه پنهان را دریافت کرد؟ چگونه می توان آن را محاسبه کرد؟ 2. اگر من آن را به عقب انتشار دهم، آیا باید از آن به عنوان تابع هزینه یک فیلتر تطبیقی استفاده کنم یا باید از یک اشاره گر (به زبان C/C++) برای به روز رسانی وزن استفاده کنم؟
|
الگوریتم پس انتشار
|
70424
|
من از R برای محاسبه انحراف مطلق میانه برای چند توزیع استفاده می کنم، اما برخی از مقادیری که محاسبه می کنم اصلا واقعی به نظر نمی رسند. من توزیع زیر را دارم: x <- [1] NA NA NA -0.003 -0.009 0.004 -0.001 -0.001 -0.003 0.001 -0.002 0.000 -0.003 0.000 0.000 0.006 -0.001 -0.006 0.003 -0.001 - -0.007 -0.002 0.006 -0.005 0.000 0.008 0.001 0.009 -0.002 0.001 0.001 0.002 0.003 NA 0.001 NA 0.001 [35] 0.001 - 302 NA 0.007 -0.003 -0.017 0.000 -0.013 0.000 0.002 0.002 0.000 NA 0.000 0.000 [52] 0.000 0.000 0.004 -0.000 -0.000 - 0.004 -0.000 -0.000 -0.007 -0.001 -0.001 0.000 -0.002 0.001 0.003 0.000 -0.011 -0.002 [69] -0.003 0.004 -0.007 NA -0.009 - 0.001 -0.001 -0.005 0.001 -0.001 0.006 0.002 -0.006 0.002 -0.002 0.004 [86] 0.006 0.001 0.000 0.002 -0.002 0.007 0.004 -0.004 - 0.004 0.000 0.003 -0.003 0.002 0.004 0.003 -0.002 [103] -0.002 0.001 0.002 0.000 0.000 0.003 -0.001 0.004 -0.0010 0.004 - 0.0010 -0.005 0.000 -0.002 -0.004 [120] 0.004 NA 0.007 0.000 0.002 0.003 -0.006 -0.002 0.000 -0.002 -0.001 -0.001 -0.001 -0.001 -0.001 -0.001 -0.001 -0.001 -0.008 [137] 0.000 0.003 0.001 0.001 -0.001 0.000 0.011 -0.017 NA NA NA سپس از کد زیر برای تولید مقدار MAD خود استفاده کردم: MADx <- madn(x, na. )، ثابت = (1/(quantile(x, probs=0.75, na.rm = TRUE, names = FALSE, type = 1))), na.rm = TRUE, low = FALSE, high = FALSE) وقتی مقدار 1 را دریافت می کنم انجام این کار، که غیر واقعی به نظر می رسد، زیرا مقادیری که من دارم بسیار کمتر از 1 هستند.
|
درک نتایج MAD
|
5364
|
مدل زیربنایی PLS این است که ماتریس $n \times m$ $X$ و $n$ بردار $y$ با $$X = T P' + E، $$ $$y = T q' + f مرتبط هستند. ,$$ که در آن $T$ یک ماتریس پنهان $n \times k$ است، و $E, f$ اصطلاحات نویز هستند (با فرض اینکه $X، y$ در مرکز قرار گیرند). PLS تخمینهایی از $T، P، q$ و یک بردار میانبر از ضرایب رگرسیون، $\hat{\beta}$ تولید میکند به طوری که $y \sim X \hat{\beta}$. من میخواهم توزیع $\hat{\beta}$ را تحت برخی فرضیات سادهکننده پیدا کنم، که احتمالاً باید شامل موارد زیر باشد: 1. مدل صحیح است، _یعنی_ $X = T P' + E,y = t q ' + f $ برای ناشناخته $ t ، p ، q $ ؛ 2. تعداد فاکتورهای پنهان، $k$، شناخته شده است و در الگوریتم PLS استفاده می شود. 3. اصطلاحات خطای واقعی I.I.D. صفر متوسط طبیعی با واریانس شناخته شده ؛ این سوال تا حدودی تعریف نشده است زیرا انواع مختلفی از الگوریتم PLS وجود دارد، اما من نتایج را برای هر یک از آنها می پذیرم. من همچنین راهنمایی در مورد چگونگی تخمین توزیع $\hat{\beta}$ از طریق _e.g._ bootstrap را می پذیرم، اما شاید این یک سوال جداگانه باشد.
|
چگونه فواصل اطمینان را در ضرایب رگرسیون در PLS محاسبه کنیم؟
|
17845
|
مطمئن نیستم که آیا این به همان اندازه پیچیده است که در ذهن من به پایان رسیده است، در اینجا آمده است. من مجموعهای از اندازهگیریها را دارم که میزان خطرپذیری بیماران روانپزشکی را اندازهگیری میکند (از این پس HCR نامیده میشود و یک نتیجه فاصلهای است که معمولاً توزیع میشود). این اندازهگیریها از پنج مکان مختلف در بیمارستان انجام میشوند و در زمانهای مختلف در تعداد دفعات مختلف اندازهگیری میشوند (من تاریخ دقیق هر اندازهگیری را برای هر بیمار دارم). مدل کردن تغییر در این متغیر برای _patients_ با استفاده از دوست قدیمی من lme4 بسیار ساده است. مدل به این صورت است: HCRmodel=lmer(HCR~Day+Location+(1|patient), data=mydata) [به انگلیسی، امتیاز HCR بستگی به روز دارد (شمارش از 1 برای هر بیمار) به اضافه اثری برای جایی که آنها در بیمارستان هستند و این اندازهگیریها در بیماران دستهبندی میشوند] تا اینجا، خیلی خوب است. مشکلی که من دارم این است که میخواهم تغییرات _locations_ را در طول زمان مدلسازی کنم. تئوری این است که هر مکان ممکن است در طول 5 سال داده تغییر کرده باشد، مثلاً، سرویس A با بیماران پرخطرتر و پرخطرتر سروکار دارد، سرویس B با ریسک کمتر و کمتر، چیزی شبیه به آن. واضح است که این نوع تجزیه و تحلیل به ANOVA کمک می کند، با این تفاوت که اقدامات تکرار شده و کاملا نامتعادل است. من حتی نمیتوانم جایی را که تاکنون به آن رسیدهام پست کنم، زیرا واقعاً به جایی نرسیدهام - در حال فکر کردن به محاسبه میانگین سطوح خطر در هر سرویس برای هر روز در کل مطالعه و قرار دادن این هستم. به یک طراحی ANOVA متعادل. اما من کمی مطمئن نیستم که آیا میخواهم دادهها را به حالت متعادل درآورم یا واقعاً متعادل باشد. هر کمکی با تشکر دریافت شد.
|
تغییر در میانگین سطح ریسک را در یک سرویس جایگزین برای اقدامات مکرر نامتعادل ANOVA بررسی کنید
|
96256
|
من از تابع رتبه بندی متلب با «روش» محاسباتی p-value که روی «تقریبی» تنظیم شده است استفاده می کنم. آیا راهی برای تعیین اینکه تقریب با چه دقتی انجام می شود وجود دارد؟
|
MATLAB - انجیر را در تقریب معمولی متلب از p-value نشان می دهد؟
|
111129
|
من با SVR کار میکردم و به این فکر میکردم که چرا نمیتوانم یک مشکل رگرسیون طبیعی را به عنوان یک کار چند طبقهبندی حل کنم؟ مثال: من برای یک مشکل رگرسیون دارم: اهداف 1، 5 و 10، تلاش برای جا دادن اعداد صحیح در داخل این محدوده. چرا نمی توانم از چند طبقه بندی با اهداف 1، 2، 3، 4، 5، 6، 7، 8، 9، 10 استفاده کنم؟ مزایا و معایب چنین رویکردی چیست؟ * یکی از معایبی که می توانم ببینم این است که باید یک مجموعه تمرینی کامل (1 تا 10) در مسئله چند کلاسه داشته باشم. مشکل دیگری وجود دارد؟
|
رگرسیون در مقابل چند طبقه بندی
|
11054
|
برای مشکل طبقه بندی خود، سعی می کنم یک شی را به عنوان خوب یا بد طبقه بندی کنم. من توانستم اولین مرحله طبقه بندی خوبی ایجاد کنم که داده ها را با استفاده از SVM به 2 گروه جدا می کند. پس از تنظیم پارامترها برای SVM با استفاده از یک مجموعه آموزشی/هولدآوت (75% آموزش، 25% توقف)، نتایج زیر را از مجموعه نگهداری به دست آوردم: گروه 1 (مدل طبقهبندی شده به عنوان بد) شامل 99% اشیاء بد، و گروه 2 (مدل طبقه بندی شده به عنوان خوب) شامل حدود 45٪ اشیاء خوب و 55٪ اشیاء بد بود. من عملکرد مدل را با استفاده از K-fold CV (k=5) تأیید کردم و متوجه شدم که مدل از نظر نرخهای طبقهبندی اشتباه، پایدار است و عملکرد نسبتاً ثابتی دارد. اکنون، میخواهم با آموزش مدل دیگری (ممکن است SVM باشد یا ممکن است SVM) روی گروه 2 اشیاء شاید خوب/شاید بد، این اشیاء را از دور دیگری از طبقهبندی عبور دهم تا حالا که خلاص شدهام سعی کنم دسته دوم را به درستی طبقهبندی کنم. از اشیاء بدیهی من چند تا فکر داشتم، اما مطمئن نیستم که چگونه ادامه دهم. (1) اولین ایده من استفاده از داده های اشیاء طبقه بندی شده از مجموعه Holdout برای آموزش مدل دیگری بود. من توانستم مدل طبقه بندی دیگری را از نتایج مجموعه Holdout آموزش دهم. مشکل این است که من از کمتر از 25٪ از داده های اصلی استفاده می کنم و نگران هستم که در زیر مجموعه بسیار کوچکی از داده هایم بیش از حد برازش کنم. (2) ایده دوم من جمع آوری نتایج CV 5 برابری برای ایجاد مجموعه داده دیگری بود. استدلال من این است که از آنجایی که داده ها به 5 قسمت تقسیم می شوند و هر قسمت از مدلی که توسط 4 قسمت دیگر آموزش داده شده به دو گروه طبقه بندی می شود، فکر کردم که می توانم نتایج پیش بینی شده 5 قسمت را جمع آوری کنم تا نسخه طبقه بندی شده ای از آن به دست آید. مجموعه داده اصلی من و از آنجا ادامه دهید. تنها مشکل این است که من احساس غرق شدن دارم که هر دو روش خوب نیستند. آیا CV می تواند برخی از مراحل بعدی احتمالی را روشن کند؟ متشکرم! **ویرایش** با عرض پوزش، سوال من بد بیان شد. بگذارید سعی کنم روشن کنم که چه کاری می خواهم انجام دهم. می توان آن را مانند یک درخت تصور کرد... * اجازه دهید مجموعه داده اصلی را Node 0 بنامم. * من از روش طبقه بندی 1 برای تقسیم گره 0 به گره 1 و گره 2 استفاده کردم. اشیاء) * گره 2 دارای نرخ اشتباه طبقه بندی بالایی است (تقریباً حتی ترکیبی از اشیاء خوب و بد) * اکنون می خواهم از روش طبقه بندی 2 برای تقسیم گره 2 استفاده کنم. گره 3 و 4 روش طبقه بندی می تواند هر چیزی باشد (LDA، QDA، SVM، CART، Random Forest و غیره). بنابراین حدس میزنم آنچه در اینجا میخواهم به آن برسم، درخت «طبقهبندی» (_not_ CART) است، که در آن هر گره تحت یک روش طبقهبندی _دیفرنت قرار میگیرد تا یک «خلوص طبقه» کلی به دست آید. اساسا، من می خواهم از ترکیبی از روش های مختلف طبقه بندی برای به دست آوردن نتایج معقول استفاده کنم. مشکل من در از دست دادن داده های آموزشی پس از اولین تقسیم است. پس از اجرای روش طبقه بندی 1 که در مورد من SVM بود، داده های قابل استفاده من تمام می شود.
|
آموزش چندین مدل برای طبقه بندی با استفاده از مجموعه داده های مشابه
|
8653
|
من علاقه مندم که تخمین بزنم که چند موضوع باید در یک مطالعه تصویربرداری مغز گنجانده شود. اگرچه طراحی یک مقایسه مقطعی نسبتاً مستقیم است، اما تعدادی از مراحل پردازش تصویر قابل تغییر بین تصویر خام و تصویر پردازش شده وجود دارد که در آنها مقایسههای پیکسلی انجام میدهیم. من از تابع power.t.test در R برای تخمین تعداد افراد مورد نیاز برای رسیدن به اهمیت آماری، با استفاده از مقادیر دلتای فرضی و تخمینهای sd از یک جمعیت کنترل استفاده کردهام. من این تجزیه و تحلیل ها را با تنظیمات مختلف پردازش تصویر اجرا کرده ام که منجر به تعداد زیادی نمودار تعداد سوژه ها در هر گروه در مقابل برخی پارامترهای پردازش تصویر می شود. آنقدر زیاد که ارائه صدها طرح درهم و برهم به نظر می رسد. آنچه من می خواهم یک معادله تجربی است که به کاربران امکان می دهد تعداد سوژه ها را در هر گروه به عنوان تابعی از اندازه افکت، آلفا و چند پارامتر خاص پردازش تصویر دیگر تخمین بزنند. به این ترتیب من فقط باید ضرایب را برای معادله گزارش کنم نه اینکه صدها نمودار را ارائه کنم. آیا چنین چیزی ممکن است؟ تا اینجای کار، اگر N~ k1/effect.size^2 را مدل کنم، برای برخی از مقادیر آلفا (مثلا) خوب به نظر می رسد، اما برای برخی دیگر چندان خوب کار نمی کند. نمودار log-log نیز رابطه را به خوبی مدلسازی نمی کند. به نظر نمیرسد که من نمیتوانم یک فرمول صریح پیدا کنم که تعداد آزمودنیها در هر گروه را با سایر عوامل در تحلیل قدرت مرتبط کند. آیا این وجود دارد؟ با تشکر
|
نحوه مدل سازی رابطه بین تعداد آزمودنی ها در هر گروه، به دست آمده با استفاده از روش های تحلیل توان استاندارد، و مطالعه پارامترهای خاص
|
111128
|
من سعی می کنم یک مدل پیش بینی برای پیش بینی ارزش باقیمانده تجهیزات الکترونیکی استفاده شده بسازم. به عنوان اولین گام، من چند طرح سریع ایجاد کردم تا به صورت بصری هر ویژگی جالبی را شناسایی کنم. در اینجا یک مثال آورده شده است:  چند چیز برجسته هستند: 1. قیمتها «تند» هستند، یعنی قیمتها تمایل دارند اعداد گرد را در آغوش بگیرند و تکه تکه کنند. 2. زمانی که یک محصول جدید عرضه می شود، قیمت به طور ناگهانی کاهش می یابد. تاریخ عرضه محصول تا حدودی قابل پیش بینی است. در نگاه اول، به نظر می رسد که این را می توان به سه بخش تقسیم کرد: 1. فرسایش قیمت قبل از عرضه محصول جدید 2. تأثیر عرضه محصول جدید 3. فرسایش قیمت پس از عرضه محصول جدید، سپس قطعات را می توان به هم دوخت. . آیا با در نظر گرفتن رویدادهای بازار قابل پیش بینی، این روشی معقول به نظر می رسد؟ آیا روش ها/رویکردهای آماری خاصی وجود دارد که شما برای این نوع مشکل توصیه می کنید؟
|
پیش بینی با رویدادهای قابل پیش بینی بازار
|
5368
|
من فکر می کنم که پس از اعمال PCA، کوواریانس بین اجزا کاهش می یابد زیرا هدف PCA به حداکثر رساندن واریانس است. کوواریانس توسط تحلیل عاملی مورد نیاز است و بنابراین منطقی نیست که روی داده ها در فضای PCA عمل کنیم. آیا این معنی دارد؟ کسی توضیح دیگه ای داره؟
|
چرا استفاده از تحلیل عاملی بعد از PCA منطقی نیست؟
|
17843
|
من از Holt Winters برای پیش بینی درآمد فروش از عملکرد گذشته استفاده می کنم. فصلی و تغییر روند در داده ها وجود دارد. یکی از دلایل انتخاب شده برای Holt Winters این است که نسبتاً ساده (قابل اجرا در اکسل) و قابل توضیح برای افراد غیرآمار است. اگر روشهای دیگر مناسبتر هستند، خوشحالم که در مورد آنها میشنوم. یکی از جزئیات اجرایی کلیدی انتخاب ضرایب $\alpha، \beta$ و $\gamma$ است. آیا مقادیر «استاندارد» برای اینها وجود دارد؟ دلیل دیگر این متدولوژی به روز رسانی خودکار آن است. این مفید خواهد بود زیرا سری با تغییرات بازار تغییر می کند. من قصد داشتم مقدار استاندارد را با چشم تنظیم کنم تا تغییرات احتمالی را کاهش دهم. آیا این یک رویکرد معقول است؟
|
چگونه ضرایب را برای زمستان هالت انتخاب کنیم؟
|
111121
|
اگر $\text{P}(M|D)$ عقب باشد، $a$ ثابت تناسب، $\text{P}(M)$ قبلی و $\text{P}(D|M)$ است. احتمال است. من توزیع قبلی را دارم و تابعی را می دانم که می تواند احتمال هر نمونه پارامتر ورودی را بدهد. سپس قانون بیز این است: $\text{P}(M|D)= a\times\text{P}(M)\times\text{P}(D|M)$. اگر بخواهم از $\text{P}(M|D)$ توسط Gibbs نمونه برداری کنم، توزیع شرطی کامل من چیست؟ آیا $\text{P}(M)\times\text{P}(D|M)$ است؟
|
توزیع مشروط کامل در مورد من چیست؟
|
17842
|
چگونه می توانم نمودار وافل را به عنوان جایگزینی برای استفاده از Piechart در R رسم کنم؟ help.search(waffle) هیچ فایل کمکی با نام مستعار یا مفهوم یا عنوان مطابق با waffle با استفاده از تطبیق فازی یافت نشد. نزدیکترین چیزی که در جستجوی گوگل پیدا کردم، موزائیکپلتها هستند.
|
چگونه نمودار وافل را در R بسازیم؟
|
50966
|
من سعی کردم این را در انجمن دیگری بپرسم، اما بعد از 4 ماه هیچ پاسخی ارسال نشده است، بنابراین در اینجا می پرسم: وضعیت فعلی رویکرد هنری برای تعیین ژست یک فرد (از جمله ژست های نزدیک مانند یک ضربه سر) چگونه است. ، و شات دستی و غیره...)، و برای تقسیم شخص از پس زمینه؟ تنظیمات اینجا تصاویر ثابت تکی است.
|
روش های جدید برای تقسیم بندی افراد و شناسایی ژست افراد چگونه است؟
|
50969
|
من در حال طراحی پرسشنامه ای برای مقایسه تجربه کاربر از استفاده از دو نمونه اولیه نرم افزار - نمونه اولیه A و B هستم. کاربران نمونه اولیه A را برای یک کار و سپس نمونه اولیه B را برای انجام همان کار بر اساس مقیاس لیکرت 5 درجه بندی می کنند. این پرسشنامه شامل 5 سوال مربوط به معیارهای مختلف تجربه کاربر و دارای رتبه بندی برای هر معیار است. چگونه می توانم رتبه های لیکرت را برای دو نمونه اولیه با استفاده از آزمون های آماری مقایسه کنم؟
|
نحوه مقایسه رتبه بندی لیکرت برای چندین روش در یک مطالعه قابلیت استفاده
|
8657
|
که درصد جمعیت دارای حق رأی است (برای مثال بالای 18 سال). آیا می توانید چند مقاله را به من نشان دهید که در مورد رای دادن و سن صحبت می کند؟
|
جمعیت رای
|
66871
|
من این سردرگمی را مربوط به دو روش برای اضافه کردن نویز سفید گاوسی به داده ها دارم. فرض کنید من یک توزیع گاوسی دو متغیره با میانگین بردار و ماتریس کوواریانس دارم $$ \mu = \begin{pmatrix} 0 \\ 0 \end{pmatrix}, \quad \Sigma = \begin{pmatrix}1 & 0.5 \\0.5 & 1 \end{pmatrix}. $$ حالا فرض کنید می خواهم یک نویز سفید گاوسی اضافه کنم. می خواهم بدانم تفاوت روش های زیر چیست؟ **روش A** نمونه هایی از توزیع گاوسی دو متغیره با میانگین $\mu$ و ماتریس کوواریانس $\Sigma$ تولید کنید و سپس نویز را با میانگین صفر و واریانس واحد مانند برای هر داده i(i,1) = داده( i,1) + $\epsilon_1$ data(i,2) = data(i,2) + $\epsilon_2$ جایی که $\epsilon_1$ & $\epsilon_2$ نویز است ~ N(0,1) **روش B** تولید نمونه از یک توزیع گاوسی با میانگین $\mu$ و ماتریس کوواریانس $\Sigma + \sigma^2I$، که در آن $I$ نشان دهنده ماتریس هویت است و $\sigma^2$ واریانس نویز روی 1 تنظیم شده است آیا این روش ها معادل هستند؟
|
سردرگمی مربوط به اضافه کردن نویز به داده های گاوسی
|
66875
|
در اینجا پاسخ یکی از سوالات در خبرنامه آمده است. من سعی نمیکنم نشان دهم که این نادرست است، فقط نمیدانم چرا این یک عمل قابل قبول است. می دانم که فرضیات ساده سازی همیشه مطرح می شوند، اما چرا این کار مفید است؟ \begin{معادله} \begin{split} p(\theta|y) &= \frac{p(y|\theta)p(\theta)}{p(y)} \\ &\propto\frac{\Gamma(\alpha)\Gamma(\beta)}{\Gamma(\alpha+\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1 }*\binom{n}{y}\theta^y(1-\theta)^{n-y} \\ &\propto\theta^{\alpha-1}(1-\theta)^{\beta-1}*\theta^y(1-\theta)^{n-y} \\ &\propto\theta^{\ آلفا+ی-1}(1-\تتا)^{\بتا+n-y-1} \\ &=\frac{\Gamma(\alpha+y-1)\Gamma(\beta+n-y-1)}{\Gamma(\alpha+\beta+n-1)}\theta^{\alpha+y-1 }(1-\theta)^{\beta+n-y-1} \end{split} \end{equation} مشکل من این است که از متناسب به به برابر می رویم، که خوب، اما این دقیقا چه می گوید؟ همانطور که در، من می فهمم که چگونه از هر خط به خطی که در پی آن است می رویم، اما نمی فهمم این به ما چه می گوید. مطمئنا، ما در نهایت به یک توزیع بتا برمی گردیم، اما تنها پس از حذف مقادیر زیادی. آیا این ارزش ها مهم نیستند؟ آیا این که یک بتای قبلی با احتمال دوجملهای دارای خاصیت مزدوج است، معنی عمیقی دارد؟ مطمئناً میتواند محاسبات را سادهتر کند، اما آیا این در عمل مفید است، اگر چنین است چرا؟ **ویرایش 1:** پس آیا این ثابت ها واقعاً حذف می شوند یا بعداً به حساب می آیند؟ میدانم که ثابتها از نظر تناسب و ادغام اهمیتی ندارند، اما بیرون انداختن آنها کاملاً به نظر من غیرشهودی است. مطمئناً، اگر شما در حال ضرب/تقسیم یک دسته از اعداد در یک عبارت با یک ثابت هستید، و تنها چیزی که به آن اهمیت میدهید رابطه آن اعداد با یکدیگر است، میتوانید ثابتها را بیرون بیاورید و این رابطه ثابت میماند. اینجا چه خبر است؟ **ویرایش 2:** از آنچه من می توانم بگویم، ما از ثابت ها خلاص می شویم، ساده می کنیم و سپس انتگرال را می گیریم و آن انتگرال را عادی می کنیم. به موجب نرمال سازی، ما ذاتاً ثابت هایی را که قبلاً حذف کرده بودیم در نظر می گیریم. آیا این درست است؟ فکر میکنم اکنون فهمیدهام، به هر دلیلی، به معادله اصلی بهعنوان یک مقدار اسکالر فکر میکردم تا توزیع احتمال.
|
چگونه در یک مشتق بیزی از تناسب به برابری برگردیم؟
|
89416
|
چگونه می توانم این را نشان دهم: $$\sum_{i=1}^n (X_i-\bar{X})^2=\sum_{i=1}^n X_i^2-n\bar{X} ^2\,,$$ (جایی که $\bar{X}=\frac{1}{n}\sum_{i=1}^n X_i$)؟ با تشکر از شما برای کمک شما!
|
معادله آماری پایه
|
28832
|
ویکیپدیا در طبقهبندی باینری میگوید: > آزمایشهایی که نتایج آنها دارای مقادیر پیوسته هستند، مانند اکثر مقادیر خون، میتوانند با تعریف یک مقدار قطع، بهطور مصنوعی باینری شوند، با نتایج آزمایش > بسته به این که آیا مقدار حاصل از آن، مثبت یا منفی است. بالاتر یا پایین تر از برش است. آیا راهنمایی وجود دارد که آیا این کار مطلوبی است یا خیر؟ من داده هایی دارم که در آن مقدار خروجی در مجموعه آموزشی پیوسته است و علاقه مندم بدانم متغیر خروجی چقدر قوی است. در حالت ایدهآل، یک مقدار پیوسته دقیق بهترین خواهد بود، اما من از طبقهبندی باینری نیز راضی خواهم بود. فرض من این است که کار طبقه بندی باینری کمی ساده تر است. آیا راهنمایی در مورد ترجیح دادن خروجی پیوسته در مقابل طبقه بندی باینری وجود دارد؟
|
طبقه بندی باینری در مقابل خروجی پیوسته با شبکه های عصبی
|
28833
|
من با تطبیق بیش از حد در pLSA (Probabilistc Latent Semantic Analisys) مشکل دارم. من از نماد زیر استفاده خواهم کرد: * $t \in T$: موضوع، متغیرهای پنهان * $d \in D = D_{train} \cup D_{test}$: اسناد * $w \in W$: شرایط هر سند $d$ بردار عناصر $|W|$ است و $d[i] = 1$ اگر $w_i \in W$ در $d$ ظاهر شود. **آموزش:** من الگوریتم EM را روی یک مجموعه آموزشی اعمال می کنم و احتمالات $P(w | t)، \forall w، t$ را تخمین می زنم. **تست:** با استفاده از الگوریتم EM، برای هر سند $d' \in D_{test}$ i محاسبه $P(t | d')$; سپس سند را با: $$d'_{predicted}[w] = \sum_{t \in T} P(w | t)P(t | d)$$ بازسازی میکنم حالا میتوانم _False Positive Rate_ و _False را محاسبه کنم Negative Rate_ و مقدار یک تابع _error_ (مساحت زیر یک منحنی ROC را فرض کنید). من متوجه شدهام که اگر تعداد مبحث را افزایش دهم، خطا کاهش مییابد، بنابراین مانند این است که من مقداری بیش از حد برازش داشته باشم اما در مجموعه اعتبارسنجی. از آنجایی که در مرحله اعتبارسنجی، برخی پارامترها را با الگوریتم EM تخمین می زنم، آیا ممکن است اگر تعداد متغیرهای پنهان (موضوعات) بیش از حد تخمین زده شود، نویز را نیز متناسب کنم؟
|
بیش از حد با pLSA
|
110659
|
من در حال حاضر روی یک مشکل رگرسیون لجستیک با متغیر پاسخ مورد شاهدی و ژنوتیپ SNP به عنوان رگرسیون کار می کنم. آیا می توانم 0، 1، 2 را به جای فاکتور پیوسته در نظر بگیرم؟
|
آیا می توانم ژنوتیپ SNP 0 1 2 را به عنوان مقدار پیوسته در نظر بگیرم؟
|
89412
|
من روی پیش بینی داده ها کار می کنم. با توجه به داده های یک متغیر تصادفی $X$ و $Y$، نحوه پیش بینی $Y$ از $X$ را بیابید. من می دانم که چگونه آن را با رگرسیون خطی انجام دهم، $\hat{Y} = kX + b$. اما، در اینجا، $X$ همیشه غیر منفی است و $Y$ لازم است که غیر منفی باشد. گاهی اوقات، $b$ غیر منفی نیست به طوری که $y < 0$ است. چگونه اطمینان حاصل کنیم که $b > 0$ و همچنین خطای پیشبینی را به حداقل برسانیم؟ آیا راه های بهتر دیگری (نه رگرسیون) برای انجام پیش بینی وجود دارد؟
|
پیشبینی دادهها با رگرسیون یا روشهای بهتر
|
50961
|
من در حال ساختن یک برنامه برای پیش بینی امتیاز در یک بازی بیست و بیست کریکت هستم. من یک سری دیتاپوینت سه بعدی دارم که از روی تعدادی از بازی هایی که برایشان اطلاعات دارم محاسبه شده است. در امتداد محور x تعداد ویکت هایی داریم که یک تیم از دست داده است. تا محور y تعداد دویدن داریم که در نهایت آنها به ثمر می رسند. و در محور z ما تعداد اورهایی در اینینگ داریم. برای مثال، یک دیتاپوینت ممکن است بگوید، ما 10 اور به بازی رسیده ایم، تیم 2 ویکت پایین تر است: آنها در نهایت 160 ران به ثمر می رسند. از این دادهها میخواهم بتوانم تعداد اورهای ما و تعداد ویکتهای یک تیم را از دست بدهم و تعداد رانهایی را که پیشبینی میشود یک تیم به ثمر برساند، مشخص کنم. من داده ها را در اینجا رسم کرده ام (که در آن خطوط رنگ های مختلف به اورهای مختلف در محور z اشاره می کنند):  همانطور که ممکن است نتوانید بگویید، در وسط داده ها، خطوط به خوبی با هم مرتبط هستند، این به این دلیل است که ما داده های بسیار بیشتری برای بازی های متوسط داریم (مثلاً جایی که یک تیم 4 نفره است. ویکت ها پس از 10 اوور پایین می آیند). با این حال، در لبهها، دادهها بر اساس بازیهای بسیار کمی است (مثلاً جایی که یک تیم در اوور نوزدهم هیچ ویکتی ندارد)، جایی که یک نقطه داده برای من آشکارا اشتباه به نظر میرسد (یک نقطه پرت)، من برای اصلاح آن یک خط چین اضافه کردهام. . سوال این است که چگونه می توانم یک سطح صاف و متناسب با این نقاط بسازم؟ و چگونه می توانم اثر پرت را به حداقل برسانم؟ آیا نام خاصی برای این نوع چیزها وجود دارد؟ ویرایش: اکنون که در مورد آن فکر می کنم، واقعاً چیزهای دور از دسترس نیست، فقط داده های کمتر قابل اعتماد.
|
اتصال یک سطح به داده های سه بعدی
|
50963
|
من در حال خواندن یادداشت های کلاین و منینگ در مورد حداکثر آنتروپی برای پردازش زبان طبیعی هستم. در اسلاید 22، آنها معادله ای دارند که می گوید: $P(C|D،\lambda) = \Pi _{(c,d)\in (C,D)} P(c|d،\lambda)$. من مطمئن نیستم که آنها چگونه این را به دست می آورند یا واقعاً به چه معنی است. در ویدیوی دوره در مورد این موضوع، منینگ میگوید که به این دلیل است که متغیرهای تصادفی مستقل و به طور یکسان توزیع شدهاند. با این حال، من فکر میکردم، روشهای حداکثر آنتروپی نسبت به Naive Bayes ترجیح داده میشوند، زیرا آنها فرضیات استقلال «سادهانگیز» را انجام نمیدهند. اگر کسی مرجعی برای این معادله داشته باشد، عالی خواهد بود.
|
فرض استقلال در مدل های حداکثر آنتروپی در NLP
|
50960
|
من سعی می کنم یک متغیر نتیجه دوگانه را با استفاده از مجموعه بزرگی از متغیرهای مشتق شده از حسگر با ارزش پیوسته توضیح دهم. بسیاری از این متغیرها به شدت با یکدیگر همبستگی دارند، برخی از آنها مبتنی بر مفاهیم فیزیکی جامد هستند (و بنابراین تفسیر آنها آسان تر است) برخی دیگر انتزاعی تر و توضیح آنها دشوار است. من سعی می کنم ارتباط این متغیرهای حسگر را با نتیجه بررسی کنم (یعنی کدام متغیرها یا ترکیبی از متغیرها می توانند متغیر نتیجه دوگانه را به بهترین نحو توضیح دهند؟) هدف ثانویه تعیین اینکه آیا می توان از زیر مجموعه ای از این متغیرها برای توضیح دوگانگی استفاده کرد یا خیر. نتیجه من مایلم از استفاده از روش برازش گام به گام اجتناب کنم (به دلیل خطر بیش از حد برازش و احساس اینکه متغیرهای قابل تفسیر آسانتر باید در مدل بر متغیرهای بسیار همبسته اما کمتر قابل تفسیر ترجیح داده شوند). به طور خلاصه، من به دنبال تداعی های واقعی به جای جایگزین های پر سر و صدا با استفاده از متغیرهای همبسته اما کمتر در سطح جهانی هستم. برای جلوگیری از چند خطی بودن در تحلیلها، تعداد متغیرها را با استفاده از رگرسیون لجستیک با تحلیل بلوکی کاهش دادم. متغیرهای مشتق شده از حسگر بر اساس نوع در بلوک ها گروه بندی شدند. در هر زیرگروه از متغیر نتیجه دوگانه به عنوان متغیر وابسته استفاده شد. با کار با هر بلوک، من یک رگرسیون لجستیک روی هر متغیر مستقل انجام دادم و فقط آنهایی که معنیدار بودند (0.05< α) در هر بلوک حفظ شدند. از طریق این روش، تمام متغیرهای غیر معنیدار را از تحلیلهای مدل نهایی حذف کردم. سپس یک مدل رگرسیون لجستیک نهایی را با استفاده از نتایج تحلیل هر زیرگروه ایجاد کردم. من از نظراتی که در مورد اینکه آیا این یک رویکرد معتبر است یا خیر سپاسگزارم؟ آیا میتوان از نسبتهای شانس مدل رگرسیون لجستیک نهایی برای تفسیر ارتباط متغیرهای حسگر گنجانده شده با متغیر نتیجه به روش آزمون فرضیه استفاده کرد؟
|
تحلیل اکتشافی: مدل رگرسیون با پیشبینیکنندههای همبسته متقابل برای توضیح یک نتیجه دوگانه؟
|
64548
|
در نقطه زمانی اول - 75% (485 از 646) از پسران و 63% (350/555) از دختران در گروه الف قرار دارند. در زمان دوم - 80% (480/600) پسران و 45% ( 225/500) از دختران در گروه الف قرار می گیرند، به طوری که بین دو مقطع زمانی 5% برای پسران و 18% برای دختران تفاوت وجود دارد: ![جدول][1] من امیدوار بودم که کسی بتواند من را در جهت درست راهنمایی کند که از چه آزمونی برای مقایسه این تغییر (5% در مقابل 18%) بین دو نقطه زمانی استفاده کنم. توجه داشته باشید که پسران و دختران در نقطه زمانی اول، در نقطه زمانی دوم یکسان نیستند. آیا فرض می شود این درصد تغییر به طور معمول توزیع شده است؟
|
تغییر در نسبت - دو نقطه زمانی
|
8651
|
آیا راهی برای یافتن همبستگی اسپیرمن بین دو توزیع Weibull وجود دارد؟ من به آن به عنوان یک پارامتر در یک تابع کوپول برای توزیع مشترک Weibull نیاز دارم. من آموختم که استفاده از همبستگی پیرسون، که به راحتی می توانم از واریانس ها و واریانس های متقاطع طیف های داده شده به دست بیاورم، با کوپولا قابل اعتماد نیست، به خصوص زمانی که داده ها به طور معمول توزیع نشده باشند.
|
همبستگی اسپیرمن دو توزیع وایبول
|
82038
|
من پاسخهای مقیاس لیکرت پنج نقطهای دارم ((1-بیشترین عدم تغییر، 5-کمترین واکنش) برای 14 مورد که میخواهم آنها را با تحلیل عاملی تأییدی به 5 عامل تبدیل کنم. قبلاً طراحی کردهام که کدام مورد باید در چه عاملی قرار گیرد، بنابراین میتوانم از فاکتورهای اکتشافی استفاده نکنم، از آنها در یک رگرسیون لجستیکی نیز استفاده خواهم کرد، زیرا افراد بیشتری برای اینکه امکانات خاصی در آنها مهم باشد، پاسخ می دهند محله سوال من این است که آیا من باید به CFA مراجعه کنم، یا فقط باید مقدار متوسط را برای پاسخ های موردی در هر یک از امکانات محاسبه کنم (به عنوان مثال، حمل و نقل عمومی، مترو) و از این مقادیر میانگین در رگرسیون لجستیک استفاده کنم. آیا می توانم از SPSS استفاده کنم و فقط مواردی را که در آن فاکتور قرار می گیرند با اجبار به استخراج تنها یک فاکتور اضافه کنم، از کدام روش استفاده کنم-PC، ULS، GLS، ML، PAF متشکرم، آرونا
|
آیا می توانم از مقادیر میانگین پاسخ های لیکرت به جای نمرات فاکتور در صورت وجود مقادیر اریب استفاده کنم؟
|
89418
|
من از R برای 4 ماه گذشته با تجزیه و تحلیل تست پایه، مدل های رگرسیون، ANOVA و غیره استفاده می کنم. اکنون به دنبال یک مشکل خاص هستم. در لغت، مسئله را میتوان اینگونه بیان کرد: > یک ماشین خاص یک مشکل 'ABC' دارد، احتمال (با > اهمیت آماری معین - pvalue) برای گرفتن مشکل 'XYZ' چقدر خواهد بود. من داده ها را برای مرجع بازسازی کرده ام: ESN,BUILDDATE,FAILEDDATE,FAILCODE XYZ123,06-01-2010,07-12-2010,CCNI XYZ123,06-01-2010,07-12-2010,FYDM XYZ123,06-01-2010,25-01-2011,FBDD XYZ123,06-01-2010,25-01-2011,FRQF XYZ123,06-01-2010,25-01-2011,YJ XYZ123,06-01-2010,17-03-2011,CCIT XYZ123,06-01-2010,03-11-2011,FRQF XYZ123,06-01-2010,03-11-2011,ZOFC PBC221,06-01-2010,25-05-2011,FRQF PBC221,06-01-2010,25-05-2011,JSDM PBC221,06-01-2010,04-08-2011,FBPS PBC221,06-01-2010,04-08-2011,IZBW PBC221,06-01-2010,17-10-2011,FRIE JKL343,06-01-2010,10-06-2010,FUJC JKL343,06-01-2010,08-10-2010,CWHS JKL343,06-01-2010,12-11-2010,FJDN JKL343,06-01-2010,12-11-2010,FY JKL343,06-01-2010,10-09-2011,FRQF JKL343,06-01-2010,05-10-2011,VTEU JKL343,06-01-2010,09-01-2012,FU نمودار احتمال یا نمودار طبقه بندی بر اساس این نوع داده ها. مدل باید نتایجی مانند احتمال خطای CCIT پس از CCNI باید 0.xxx باشد. چیزی که من تاکنون امتحان کردهام 1) احتمال شرطی عادی CCIT/CCNI است - اما این کار را با تقسیم تعداد رویدادها انجام دادم که به من احتمال نقطهای بدون مقادیر معنیدار داد. 2) من از بسته قوانین برای پیدا کردن الگوها استفاده کردم. من از کد زیر برای این استفاده می کنم: train<-split(claims$FAILCODE,claims$M_No) listData <- list() for (i in 1:length(train)) { listData[[i]] <- as.character (train[[i]][!duplicated(train[[i]])]) #Line-A } trnsData <- قوانین as(listData,transactions)<-apriori(trnsData,parameter= list(support=.001, اعتماد=0.1,minlen=1)) این کد مطابق با نیازهای من به من پاسخ می دهد، اما تکراری نیست ، مانند یک ماشین واحد اگر یک خطای خاص دو بار اتفاق بیفتد الگوریتم آن را در ورودی قبول نمی کند. (در خط کد بالا ذکر شده با کامنت 'Line-A' حذف کردن فایل کد تکراری است.) بنابراین با این روش دو سوال دارم: الف) چگونه تأثیر یک نوع شکست را چندین بار بررسی کنیم؟ ب) آیا این الگوریتم هنگام تهیه خروجی، دنباله ای را در نظر می گیرد؟ منظورم این است که وقتی من خروجی فالو دریافت می کنم، باید بر اساس faildate باشد. یعنی FBDD و FEQF باید قبل از YYJQ اتفاق بیفتد. قوانین پشتیبانی از افزایش اطمینان 1: {FBDD,FEQF} => {YYJQ} 0.001039655 0.2333333 1.018168 2: {YYJO} => {FRQF} 0.001039655 0.3618421 ممکن است با استفاده از بسته I 0.3618421 اشتباه باشد یا با استفاده از بسته I 0.3618421 اشتباه باشد. تنظیمات اشتباه است، لطفا به من بگویید چگونه می توانم راه حل این مشکل را پیدا کنم. برخی از حقایق مهم: 1. من بیش از 800 نوع Failcode دارم.
|
تشخیص الگو در مسئله عملی در R
|
110384
|
من سعی می کنم از کتابخانه urca برای انجام تست هم انباشتگی و تابع آن ca.jo استفاده کنم که رویه جوهانسن را روی یک مجموعه داده معین انجام می دهد. من فکر می کنم ترتیب تاخیر 1 برای یک VECM cointegrated امکان پذیر است، به این معنی که تصحیح خطای کوتاه مدت ندارد. برای مثال، VAR(1) $$ X_t=\Pi_1X_{t-1} + \epsilon_t $$ داریم و VECM آن $$ \Delta X_t = \Pi X_{t-1} + \epsilon_t $$ است که $ \Pi=\Pi_1-I_2$ چرا ca.jo حداقل ترتیب تاخیر را 2 تعیین می کند؟ آیا دلیلی پشت آن وجود دارد؟
|
چرا ca.jo دارای حداقل ترتیب تاخیر 2 است؟
|
82039
|
من در تلاش برای تشخیص همگرایی یک پیاده روی تصادفی روی یک نمودار هستم. پس از انجام برخی تحقیقات مقدماتی، به نظر می رسد که تشخیص همگرایی Geweke بیشتر برای این مورد استفاده می شود. این تشخیص، امتیاز z زنجیره را در هر تکرار پیادهروی میخواند و زمانی که امتیاز z در بازهای از [-1، 1] قرار میگیرد، همگرایی را اعلام میکند. امتیاز z به این ترتیب محاسبه میشود: $$ z=\frac{E(X_a)-E(X_b)}{\sqrt{Var(X_a)+Var(X_b)}} $$ که در آن $X_a$ و $X_b$ دو دنباله از زنجیره جاری هستند، معمولاً 10٪ اول و 50٪ آخر زنجیره. مجموعه داده من یک خزیدن متراکم از یک شبکه اجتماعی است که در آن هر گره یک کاربر است. سوال من این است: در این زمینه، مقادیر مورد انتظار زیر زنجیرههای $X_a$ و $X_b$ چه خواهد بود؟ آیا این طول ها، یا تابعی از طول ها و درجات گره ها یا چیز دیگری است؟ ممنونم!!
|
تشخیص همگرایی در پیاده روی تصادفی
|
89417
|
من یک مدل دو لایه دارم. در لایه دوم مدل که یک لاجیت چند متغیره است، 4 متغیر با ضرایب تصادفی وجود دارد. من فرض می کنم که چهار ضریب تصادفی از توزیع نرمال چند متغیره با واریانس های مختلف پیروی می کنند. برخی از آنها حتی کوواریانس غیر صفر دارند. مقادیر تولید شده/شبیهسازیشده از لایه دوم در توابع لایه اول قرار میگیرند که یک مدل پویا است. لحظه تفاوت بین داده های واقعی و حاصل ضرب مقادیر تولید شده از توابع هر دو لایه است. من می دانم که شبیه سازی مستقیم مونت کارلو برای این مشکل کار نمی کند زیرا راندمان برای چنین مشکلی کم است. ممکن است پوشش ضعیفی ارائه دهد و تعداد قرعهکشیها باید بسیار زیاد باشد تا به یک تقریب خوب برسد. با این حال، فکر نمیکنم الگوریتمهای دیگری مانند MCMC بتوانند برای مشکل من کار کنند، زیرا من یک مدل استاتیک با ضرایب تصادفی در یک مدل پویا دارم. علاوه بر این، من باید مجموعه دیگری از خطاها را ترسیم کنم تا رفتار خانواده ها را با پارامترهای شبیه سازی شده شبیه سازی کنم. من همچنین به تقریب لاپلاس نگاه میکنم و به سختی میتوانم آن را در موقعیتم اعمال کنم. من تعجب می کنم که چگونه در چنین مشکلی به طور موثر شبیه سازی کنم. از همه شما متشکرم
|
چگونه می توان بازده شبیه سازی روش گشتاورهای شبیه سازی شده را با ضریب تصادفی افزایش داد؟
|
15991
|
من می خواهم یک رگرسیون حداقل مربعات معمولی را به شکل $$ y = X\beta + \varepsilon، \ $$ تخمین بزنم با این تفاوت که به جای کمینه کردن مجموع مجذورهای باقیمانده، $$ SSR(b)=(y-Xb )'(y-Xb) $$ من می خواهم $$ را به حداقل برسانم (y-Xb)'(y-Xb)+\lambda(b-\tilde{\beta})'(b-\tilde{\beta}) $$ که $\lambda$ مقداری ثابت است. در غیر این صورت، نماد بالا مانند ویکیپدیا است. تمام مفروضات استاندارد برآورده می شوند. آیا راهی وجود دارد که بتوانم رگرسیون را برای انجام کمینه سازی مشترک اصلاح کنم؟
|
چگونه یک محدودیت ضریب نرم را برای رگرسیون OLS اعمال کنیم؟
|
46978
|
من یک مدل _Fixed-Effects_ را با رهگیری ها در سطح خوشه نصب می کنم. یکی از مستقیمترین راهها احتمالاً استفاده از بسته «-plm-» است. یکی دیگر از امکانهای شناخته شده، اعمال OLS (یعنی پذیرش «-lm-») برای دادههای تحقیر شده است، جایی که میانگینها در سطح خوشهبندی گرفته میشوند. این رویکرد دوم معمولاً به عنوان **در درون تبدیل** نامیده می شود. از نقطه نظر محاسباتی بسیار راحت است، زیرا ما هنوز ناهمگونی مشاهده نشده را در سطح خوشه بندی کنترل می کنیم، اما نیازی به تخمین همه رهگیری های ثابت زمان نداریم. من هر دوی این روش ها را امتحان کردم و به نتیجه عجیبی رسیدم. در عمل، ضریب رگرسیون بهره، «x»، در هر دو مورد یکسان است. با این حال، خطای استاندارد آن (و در واقع تمام مقادیر مرتبط دیگر رگرسیون: مربع R، آزمون F، و غیره) متفاوت است. لطفاً توجه داشته باشید که من هم اسناد _R را در مورد -plm- و هم مقاله مرتبط نویسندگان را به دقت مطالعه کرده ام، که در آن بیان شده است که بسته از _intransformation_ استفاده می کند و سپس OLS را همانطور که من انجام دادم اعمال می کند. اسکریپت این است: # set seed، بارگیری بسته ها، ایجاد نمونه جعلی set.seed(999) library(plyr) library(plm) dat <- expand.grid(id=factor(1:3), cluster=factor(1:6)) dat <- cbind(dat, x=runif(18), y=runif(18, 2, 5)) ### ######################### # مدل FE با استفاده از -plm- # ########################### # model fit fe.1 <- plm(y ~ x, data=dat, index=cluster , model=within) # ضریب تخمینی و خطای استاندارد x b.1 <- summary(fe.1)$coefficients[,1] se.1 <- summary(fe.1)$coefficients[,2] ##################################### # OLS بر روی داده های درون تبدیل شده # #### ################################# # تقویت قاب داده با متغیرهای مرکز خوشهای dat.2 <- ddply(dat،. ) # ضریب تخمینی و خطای استاندارد x b.2 <- summary(fe.2)$coefficients[1,1] se.2 <- summary(fe.2)$ضرایب[1,2] ######################### مقایسه مدل ها ######### ################# ب.1; b.2 se.1; se.2 summary(fe.1) summary(fe.2) توجه داشته باشید که در مدل دوم لازم است به صورت دستی رهگیری از مدل حذف شود. با تشکر
|
اثرات ثابت با استفاده از داده های تحقیر شده: چرا خطاهای استاندارد متفاوت هنگام استفاده از -plm-؟
|
110651
|
من در حال حاضر اطلاعات مربوط به تعداد دفعات دانلود مجموعه خاصی از آهنگ ها را دارم. هر آهنگ تاریخ انتشار دارد و سپس تعداد دانلودهای روزانه تا امروز وجود دارد. به نظر می رسد: Song1 جمع تجمعی Song1 تاریخ انتشار 5/7/2013 20 20 5/8/2013 40 60 5/9/2013 55 115 ................. ................ Song2 جمع تجمعی Song2 تاریخ انتشار 7/9/2013 13 13 7/10/2013 44 57 7/11/2013 92 149 ................................. من در مجموع حدود 500 آهنگ با داده ها دارم مثل این من کنجکاو هستم که ببینم آیا می توانم نوعی افکت تکثیر کننده را برای هر آهنگ توصیف کنم. منظور من از این این است که آیا مشتریان به نحوی تحت تأثیر تعداد دانلودهایی هستند که در حال حاضر وجود دارد. بنابراین، اگر تأثیر مثبتی داشته باشد، باید هر روز دانلودهای بیشتری را مشاهده کنیم، زیرا مجموع تجمعی بزرگتر می شود. آیا مدلی وجود دارد که ببیند ستون مجموع تجمعی چه تأثیری «ضریب» بر دانلود آهنگ برای روز بعد دارد؟ من سعی کردم در مورد چیزی مانند یک مدل لاجیت فکر کنم، اما فقط برای یک متغیر وابسته باینری کار می کند و یک رگرسیون خطی استاندارد خیلی آسان به نظر می رسد. هر گونه ایده یا توصیه بسیار قدردانی خواهد شد! با تشکر
|
چگونه می توانم یک اثر ضرب در داده های سری زمانی داشته باشم؟
|
66872
|
من سعی کرده ام ناهمگنی یک متغیر معین را کمی سازی کنم. میخواهم بگویم که توزیع در غلظتهای کلسیت، برای مثال، در یک سازند سنگی ناهمگنتر از دیگری است. تا کنون من نمودارها و مقایسه توزیع متغیرها را با هیستوگرام های همپوشانی و نمودارهای جعبه ای برای چندین متغیر مقایسه کرده ام، و در کل این خوب است، اما تفسیر نمودارها از طرف خواننده زمان می برد. من به دنبال مقایسههای مستقیمتری بودم، مثلاً نمودارهای میلهای که معیارهای مناسبی از تنوع نمونه را در یک سازه مقایسه میکنند. انحراف معیار، محدوده بین چارکی، ضریب تغییرات، میانگین یا میانه انحراف مطلق و غیره. اما به دلایل مختلف من از این رویکردها راضی نیستم. من نمیتوانم فکر کنم باید یک روش مختصر و دقیقتر برای تعیین کمیت ناهمگنی/تغییرپذیری وجود داشته باشد. خطاهای باقیمانده برای سنگ A به شدت توزیع می شوند و برای سنگ B آنها به طور گسترده غیرعادی توزیع می شوند. من سعی می کنم تغییرپذیری مشاهده شده در خطا را با تغییرپذیری مشاهده شده در سایر خواص سنگ گره بزنم. هر دو سنگ A و B از جنبه های مختلف متغیر هستند، و من سعی می کنم تنوعی را که ممکن است مهم باشد برجسته کنم. بنابراین من به دنبال روشهایی برای مشخص کردن متغیرها با یک مقدار واحد بودهام، مثلاً تمام IQRها را برای هر متغیر در کنار یکدیگر بر روی نمودار میلهای رسم میکنم، که در آن میتوان استنباط کرد که سنگ A معمولاً متغیرتر از سنگ B است. مشکلات من این است: متغیرهایی مانند تخلخل معمولاً همیشه به طور معمول و محکم توزیع می شوند. نفوذپذیری در مقابل همیشه غیر طبیعی است، به شدت کج است، بیش از 6 یا 7 مرتبه بزرگی متفاوت است و معمولاً از یک روند توان پیروی می کند. برای نفوذپذیری، من خوشحال نیستم که یک IQR واقعاً تغییرپذیری را ثبت کند، و ثانیاً IQRهای متغیرهای مختلف با توجه به تفاوت در بزرگی واحد والد، به خوبی در کنار یکدیگر نمودار نمیشوند. من به معیارهای نرمال شده تغییرپذیری نگاه کردهام، اما اینها مقادیر را با میانگین یا میانههایی که من احساس نمیکنم دادهها را منعکس میکنند، تغییر میدهند. شاید هیچ راه حل ایده آلی برای چنین سبک های توزیع متنوعی وجود نداشته باشد و من فقط باید توزیع های آنها را ارائه دهم...؟
|
کمی سازی ناهمگنی
|
89411
|
من می خواهم آزمایش کنم که آیا تغییرات در سطوح هموگلوبین (Hgb) در طول زمان می تواند به تشخیص سندرم میلودیسپلاستیک (MDS) کمک کند یا خیر. من گروهی متشکل از هزاران بیمار دارم. هر بیمار چندین اندازه گیری Hgb در یک دوره 3 ساله دارد. اندازهگیریها با فاصله ناهموار و کم هستند (از دو تا چهار اندازهگیری). سوالات من: 1. آیا یک سری زمانی مدل صحیحی برای من است، با توجه به اینکه در طول زمان برای هر موضوع مشاهده بسیار کمی دارم؟ اگر نه چگونه روند را تجزیه و تحلیل کنم؟ 2. اگر بخواهم از یک سری زمانی استفاده کنم، به این فکر کردم که هر اندازه گیری آزمایشگاهی را بر اساس سالش برچسب گذاری کنم تا اندازه گیری ها به طور مساوی فاصله داشته باشند (این از دیدگاه فیزیولوژیکی به اندازه کافی معقول به نظر می رسد). آیا این معتبر است؟ آیا راه بهتری برای رسیدگی به نابرابری فاصله اندازه گیری وجود دارد؟ 3. از چه چیزی برای مقایسه روند بین دو گروه استفاده می کنم؟ من بسیار متعهد می شوم اگر بتوانید مرا به ادامه مطلب ارجاع دهید، متشکرم!
|
متغیر کمکی یا سری زمانی تاخیر برای تجزیه و تحلیل تغییرات در طول زمان در Hgb (مشاهدات محدود) در پیشبینی وضعیت بیماری
|
114575
|
آیا کسی می داند که آیا adaptIntegrate یک انتگرال برداری برداری را می پذیرد؟ برای مثال آلفا<-c(1,2) f <- تابع(z){ (z[1]+z[2])*آلفا } تطبیق یکپارچه(f,lower=c(1,3), upper=c(2, 4),tol=0.01) ##کار نمی کند آیا آنچه می خواهم با adaptIntegrate امکان پذیر است؟ پیشاپیش ممنون
|
adaptIntegrate در r
|
50965
|
من یک شرط کنترل **A** و چندین شرط دیگر (*B**، **C**، **D**، و غیره) دارم که میخواهم **A** را برای تفاوتها آزمایش کنم ( یعنی **A** در مقابل **B**، **A** در مقابل **C**، **A** در مقابل **D**، و غیره). آیا اجرای: > ttest( **A**, **B**) صحیح است. > > ttest( **A**, **C**); > > ttest( **A**, **D**); و آنها را جداگانه درمان کنید؟ خیلی ممنون.
|
آزمون t چندگانه در برابر یک شرط کنترل واحد. آیا این درست است؟
|
89419
|
فرض کنید $y$ یک متغیر باینری باشد و $x$ یک متغیر کمکی باشد که با خطای اندازهگیری ناهمگن اندازهگیری شده است: $x_{i}$ ~ $\operatorname{Normal}(x^{*}_{i},\sigma_{i }^{2})$. حالا فرض کنید رابطه با متغیر کمکی واقعی $x^{*}$ $\ Y$ ~ $\operatorname{Bernoulli}(p_i) $ و $\ \operatorname{logit}( p_i )=\alpha+\beta*x_{ i}^{*}$. از نظر تئوری، به نظر من واضح است که برای اهداف پیشبینی، یک مدل $\ \operatorname{logit}( p_i )=\alpha+f(\sigma_{i})*x_{i}$ میخواهید، جایی که $f (\sigma_{i}) \به 0 $ به عنوان $\sigma_{i}$ بزرگ می شود و $f(\sigma_{i}) \به \بتا $ به عنوان $\sigma_{i}$ کوچک می شود. آیا فرم عملکردی خوبی برای $f(\sigma_{i})$ وجود دارد؟ به نظر یک مشکل به اندازه کافی ساده است که ممکن است وجود داشته باشد، اما من نتوانستم به چیزی برسم.
|
رگرسیون لجستیک زمانی که یک متغیر کمکی با خطای اندازه گیری شناخته شده اما ناهمگن اندازه گیری می شود
|
82034
|
فرض کنید $V \sim W_p(n-1,\sigma^2 I)$ داریم تا لحظه های آماره کرویت Mauchly را پیدا کنیم $\Lambda = \frac{|V|}{(tr(\frac{V }{p}))^p}$ من خواندم که می توان آن را تقسیم کرد و $\Lambda_1 = \frac{|V|}{v_{11}...v_{pp}}$ و $\Lambda_2 = \frac{v_{11}...v_{pp}}{(tr(\frac{V}{p}))^p}$ و سپس با استفاده از $E[\Lambda^h] = E [\Lambda_1^h]E[\Lambda_2^h]$ (که در آن از استقلال $\Lambda_1$ و $\Lambda_2$ استفاده می کنند). این آمار $\Lambda_1$ و $\Lambda_2$ به ترتیب، معیار LR برای برابری واریانس ها و برای استقلال هستند، بنابراین ممکن است لحظات آن را قبلاً محاسبه کنم. سوال من این است: چگونه می توانیم ببینیم که این دو آمار مستقل هستند؟
|
یافتن لحظهها برای آمار کروییت Mauchly
|
110387
|
من در حال انجام پروژه ای در مورد الگوهای فرزندخواندگی سگ هستم، و متوجه شدم که تعداد زیادی (100+) نژادهای مختلف سگ وجود دارد. من میخواهم یک مدل پیشبینی با استفاده از نژاد بهعنوان متغیر کمکی بسازم، اما مطمئن نیستم که آیا باید هر نژاد را به یک متغیر ساختگی تبدیل کنم و یک الگوریتم یادگیری نظارت شده سریع و کثیف را اجرا کنم، یا سعی کنم خوشهبندی (بر اساس پرخاشگری) انجام دهم. از نژاد، برای مثال)، و سپس سعی کنید الگوریتم را اجرا کنید. مجموعه داده من بسیار بزرگ است: 14000 ورودی. هر توصیه ای؟ با تشکر
|
چه موقع باید ویژگی های خوشه ای را برای یادگیری نظارت داشته باشید؟
|
110652
|
من در حال کار با دوره Udacity Intro to Inferential Statistics هستم. در درس 9: آزمون فرضیه، مثال زیر آورده شده است. بگویید که ما دادههای نظرسنجی را از همه دانشآموزان این دوره Udacity ثبت کردهایم که به جزئیات نحوه مشارکت آنها با مواد سخنرانی اشاره میکند. دریافتیم که میانگین سطح درگیری جمعیت (در مقیاس 1-10) 7.47 با انحراف معیار 2.41 است. مربی تصمیم میگیرد در یکی از سخنرانیها آهنگی را بخواند تا جرقهای را برای مشارکت ایجاد کند، و ما میخواهیم بدانیم که آیا میانگین سطح درگیری پس از اجرای آهنگ تغییر میکند یا خیر. اندازه نمونه n=30 را جمعآوری میکنیم و آن را به $\bar{X} = 8.3$ مییابیم. از ما خواسته می شود که یک آزمون z دو دنباله با $\alpha = 0.05$ انجام دهیم تا بفهمیم که آیا میانگین تحت تأثیر آهنگ قرار می گیرد یا خیر. علاوه بر این، اطلاعاتی به ما داده میشود که $\mu_{song} = 7.8$، یعنی جمعیت همه دانشآموزانی که آهنگ را گوش دادهاند دارای سطح مشارکت متوسط 7.8 هستند. از ما خواسته میشود تا دریابیم که آیا آزمون z نتیجهای را ارائه میدهد که به طور دقیق جمعیت را منعکس میکند، و اگر نه، آیا خطای نوع I یا نوع II رخ داده است. من یک آزمون z روی نمونه انجام دادم و به امتیاز z 1.88 رسیدم که کمتر از مقدار بحرانی 1.96 است. از آنجایی که $\mu_{song} = 7.8$ است که بزرگتر از $\mu = 7.47$ است، به این نتیجه رسیدم که وقتی فرضیه صفر نادرست است (از $\mu_{song} > \mu$) نمیتوانیم رد کنیم و بنابراین که خطای نوع دوم در حال رخ دادن است. اما این پاسخ به عنوان نادرست برگشت داده شد. در عوض، مدرس توضیح داد که برای $\mu_{song}$ نیز باید یک z-score محاسبه شود، معادل $\frac{\mu_{song} - \mu}{\frac{\sigma}{\sqrt n}} = \frac{7.8 - 7.47}{\frac{2.41}{\sqrt 30}} = 0.75$. از آنجایی که 0.75 از مقدار بحرانی 1.96 در $\alpha=0.05$ فراتر نمی رود، $\mu_{song}$ تفاوت قابل توجهی با $\mu$ ندارد و از فرضیه صفر حمایت می کند. بنابراین، ما نمیتوانیم فرضیه صفر را در حالی که واقعاً درست است رد کنیم. من این پاسخ را نمی فهمم من باور میکردم که از $\mu_{song} \neq \mu$، در واقع فرضیه صفر (که آنها برابر هستند) را رد میکردیم و آن خطای نوع II رخ میداد. علاوه بر این، هرگز حجم نمونه برای جامعه به ما داده نمی شود، بنابراین مطمئن نیستم که n=30 از کجا آمده است. آیا کسی می تواند رویکرد صحیح را برای چنین مشکلی روشن کند؟ اگر در موقعیتی هستید که پارامترهای جمعیت را برای جمعیت مداخلهشده میدانید، آیا یک z-score اضافی باید محاسبه شود؟ یا اینکه این واقعیت که میانگین مداخله با جمعیت اصلی متفاوت است، شواهد کافی مبنی بر نادرست بودن فرضیه صفر ($\mu = \mu_{I}$) است؟ اگر برای درک بهتر علاقه دارید خودتان سؤال را امتحان کنید، می توانید آن را در اینجا بیابید.
|
وقتی میانگین جامعه نمونه مداخله را *آیا* می دانیم، چگونه یک آزمون z دو طرفه را انجام دهیم؟
|
16088
|
آیا کسی می داند چگونه از (nlme) استفاده کنم؟ من با استفاده از آن برای چیزی که باید بسیار ساده باشد، مشکلات زیادی دارم، هر کمکی واقعاً قدردانی خواهد شد. تا زمانی که ندانم کسی بداند در مورد چه چیزی صحبت می کنم، جزئیات را بیان نمی کنم. داده ها با یک مطالعه مزرعه ای مربوط به الگوی کاشت، ژنوتیپ جمع آوری شد، ما این مطالعه را به مدت 3 سال تکرار کردیم و در هر فصل رشد 10 بار بررسی شد. سوال من این است که چگونه نتایج را به بهترین شکل تفسیر کنیم؟ یک استاد توصیه کرد که از مدل اثر مختلط خطی با سال به عنوان یک عامل تصادفی برای کاهش تعداد تجزیه و تحلیل های جداگانه و خطای نوع I استفاده شود. هر کی میدونه لطفا یه لطفی کنه زیر سایت دادههای من است YEAR GENOTYPE PATTERN T density 1 1 G S T1 3.0035 2 1 G S T1 3.0538 3 1 G S T1 2.9939 4 1 G S T1 2.8506 5 1 G M T1 2.717 T1 2.717 T1 M T1 2.8791 8 1 G M T1 2.7419 9 1 S S T1 0.6024 10 1 S S T1 0.6079 11 1 S S T1 0.6014 12 1 S S T1 0.5855 13 1 S S T1 0.5855 13 1 S T1 0.6079 T1 0.5774 15 1 S M T1 0.5887 16 1 S M T1 0.5731 1 2 G S T1 3.3064 2 2 G S T1 3.2896 3 2 G S T1 3.3448 4 2 G S T1 3.3064 T1 3.4 G M T1 3.3243 7 2 G M T1 3.3477 8 2 G M T1 3.4031 9 2 S S T1 3.3660 10 2 S S T1 3.3025 11 2 S S T1 3.3760 12 2 2 S T1 3.3760 12 2 2 S T1 3.3660 3.4237 14 2 S M T1 3.5357 15 2 S M T1 3.5001 16 2 S M T1 3.4195 1 3 G S T1 2.2068 2 3 G S T1 2.1492 3 3 G S T1 3.5001 20. 3 G M T1 1.7404 6 3 G M T1 1.8388 7 3 G M T1 1.5185 8 3 G M T1 1.6128 9 3 S S T1 2.3636 10 3 S S T1 2.5092 11 3 G M T1 2.5092 11 3 S T1 2.4065 13 3 S M T1 1.9243 14 3 S M T1 2.0645 15 3 S M T1 2.0000 16 3 S M T1 2.0170 1 1 G S T2 3.6379 2 1 G S T2 3.6379 2 1 G S 6 T20000 15 3 S M T1 2.0000. 1 G S T2 3.6999 5 1 G M T2 3.4241 6 1 G M T2 3.5053 7 1 G M T2 3.4559 8 1 G M T2 3.4751 9 1 S S T2 0.6663 10 1 S T2 0.6663 10 1 S S T2 0.6637 12 1 S S T2 0.6721 13 1 S M T2 0.6458 14 1 S M T2 0.6537 15 1 S M T2 0.6489 16 1 S M T2 0.6508 1 2 G 25 S T24 T24 3 2 G S T2 4.5174 4 2 G S T2 4.5464 5 2 G M T2 4.3512 6 2 G M T2 4.4067 7 2 G M T2 4.4090 8 2 G M T2 4.1965 9 2 2 S T2 4.1965 9 2 S T2 4.5103 11 2 S S T2 4.6466 12 2 S S T2 4.5205 13 2 S M T2 4.4246 14 2 S M T2 4.3424 15 2 S M T2 4.4487 16 2 S M T2 4.4487 16 2 S M T2 4.4487 16 2 S M T2 4.4487 16 2 S M T2 4.4246 T20. 2 3 G S T2 3.0730 3 3 G S T2 2.9657 4 3 G S T2 3.1807 5 3 G M T2 2.6812 6 3 G M T2 2.3729 7 3 G M T2 2.8820 8 3 G S T2 2.8820 8 29 G M T2 2.6812 3.1364 10 3 S S T2 3.0839 11 3 S S T2 2.9036 12 3 S S T2 2.9850 13 3 S M T2 2.7412 14 3 S M T2 2.8202 15 3 S M T2 2.8202 15 3 S M T2 2.8202 15 3 S M T2. 2.5866 1 1 G S T3 3.3762 2 1 G S T3 3.3531 3 1 G S T3 3.5340 4 1 G S T3 3.4096 5 1 G M T3 3.4263 6 1 G M T3 3.195 G M 3.195 T3 3.1915 9 1 S S T3 0.6411 10 1 S S T3 0.6388 11 1 S S T3 0.6565 12 1 S S T3 0.6444 13 1 S M T3 0.6460 14 1 S S M T3 0.6460 14 1 S S M T2 0.6332 16 1 S M T3 0.6224 1 2 G S T3 5.4512 2 2 G S T3 5.3256 3 2 G S T3 5.5334 4 2 G S T3 5.3601 5 2 G M T3 4.924 G 3 4.92 M T3 5.0628 8 2 G M T3 5.0739 9 2 S S T3 5.3199 10 2 S S T3 5.2441 11 2 S S T3 5.2672 12 2 S S T3 5.3007 13 2 S T3 5.3199 T3 5.0120 15 2 S M T3 5.1177 16 2 S M T3 5.0052 1 3 G S T3 2.8808 2 3 G S T3 3.0839 3 3 G S T3 2.7931 4 3 G S T3 5.0052 T5 2.83 G M T3 2.7723
|
مدل های جلوه های ترکیبی خطی/غیرخطی
|
16087
|
من یک مدل معادله ساختاری را تخمین می زنم که در آن دو متغیر پنهان (هر کدام با 4 شاخص) و تعامل بین دو متغیر پنهان، یک متغیر مشاهده شده را پیش بینی می کنند. من میخواهم تک تک باقیماندهها را از متغیر درونزای مشاهدهشده ذخیره کنم تا در تجزیه و تحلیلهای بیشتر استفاده کنم. تا آنجا که من می توانم بگویم، Mplus، برنامه ای که من معمولا از آن استفاده می کنم، راهی برای ذخیره تک تک باقیمانده ها ندارد. * آیا برنامه آماری وجود دارد که به من اجازه دهد باقیمانده ها را از یک متغیر مشاهده شده در یک مدل معادلات ساختاری ذخیره کنم؟
|
چگونه می توان باقیمانده های فردی را از یک متغیر درون زا مشاهده شده در یک مدل معادلات ساختاری نجات داد؟
|
7438
|
به عنوان یک سؤال اساسی در تجزیه و تحلیل رگرسیون ، می خواستم بپرسم که چگونه می توانم حاشیه خطای را هنگام قرار دادن یک خط مستقیم با مجموعه ای از داده ها محاسبه کنم. فرض کنید که من تغییر پارامتر $A$ را به عنوان تابعی از پارامتر $B$ دارم، سپس $A=mB \pm e$، که $m$ مماس خط مستقیم است و $e$ همان چیزی است که من هستم. به دنبال بخشی از داده های من: {39.7678 ، 2320.3} ، 30.8438 ، 1614.21} ، {125.846 ، 3078.81} ، {55.2345 ، \ 1947.98} ، {22.0671 ، 972.995} ، {30.1827. 701.99} ، {29.5734 ، 837.784} ، \ {24.6913 ، 1134.23} ، {27.2493 ، 918.887} ، {62.7684 ، 4535.07} ، {101.449 ، {101.449. 6513.04} ، {187.409 ، 6257.72} ، {174.138 ، 5243.63} ، \ {120.747 ، 3768.02} ، {84.178 ، 3453.12} ، {60.2404 ، 3075.15 {63. 3517.73} ، {101.9 ، 7240.11} ، {90.6265 ، 5706.74} ، {100.897 ، 7353.84} ، \ {159.316 ، 9867.36} ، {109.798 ، 11471.2 {10. 6924.54} ، 82.7057 {، \ 6339.06} ، {140.205 ، 6555.52} ، {173.469 ، 8644.27} ، {138.432 ، 9655.86} ، \ {95.2955 ، 5643.33 {64.55 ، 5643.33 {64.55 ، 5643.33 {64.55 ، 5643.33 3848.77} ، {50.7936 ، 4733.24} ، {34.776 ، 0. - 2707.89 i} ، 25.3775 ، 6158.}}
|
چگونه حاشیه خطا را در رگرسیون خطی محاسبه کنیم؟
|
16084
|
من در حال حاضر از تجزیه و تحلیل شیب ساده برای بررسی اثرات متقابل مهم بین تعدیل کننده پیوسته و پیش بینی دوگانه (مقادیر 1 و 2) در DV پیوسته استفاده می کنم. من 2 متغیر کمکی پیوسته در تحلیل دارم. نمودار شیب ساده من مقادیر منفی را در DV نشان داد (یعنی: مقادیر تعدیل کننده در مقدار پیش بینی کننده 2 مقادیر منفی DV را به خود اختصاص دادند - شیب ها از محور x به سمت راست پایین عبور کردند). آیا این امکان وجود دارد یا یک خطای آماری وجود دارد؟ من شیب هایی را دیده ام که به مقادیر منفی DV برای پیش بینی کننده های پیوسته می روند، اما نه برای پیش بینی کننده های دوگانه.
|
آیا می توان مقادیر منفی در یک تحلیل شیب ساده برای پیش بینی کننده های دوگانه داشت؟
|
13636
|
اگر مقادیر حساسیت و ویژگی را برای گروهی از مطالعات داشته باشم، برای مثال مانند این: ویژگی حساسیت ----------- ----------- 66.3 74.7 87.2 65.9 56.4 76.4 79.5 94.3 چگونه می توانم یک منحنی «ROC» برای چنین مقادیری ایجاد کنم؟ آیا برای مثال آنها را بر '100' تقسیم کنم و فقط مقادیر را مستقیماً در منحنی قرار دهم؟ یا اینکه فرآیند دقیقا چگونه انجام می شود؟
|
چگونه منحنی ROC رسم کنیم؟
|
16089
|
من می خواهم از یک چگالی معمولی شبیه سازی کنم (مثلاً میانگین = 1، sd = 1) اما فقط مقادیر مثبت می خواهم. یکی از راه ها شبیه سازی از حالت عادی و گرفتن مقدار مطلق است. من به این به عنوان یک عادی تاشو فکر می کنم. من می بینم که در R توابعی برای تولید متغیر تصادفی کوتاه شده وجود دارد. اگر من از یک نرمال کوتاه شده شبیه سازی کنم (قطع در 0) آیا این معادل رویکرد فولد شده است؟
|
آیا نمونه برداری از یک توزیع نرمال تا شده معادل نمونه برداری از یک توزیع نرمال کوتاه شده در 0 است؟
|
16080
|
من دو دستگاه دارم و سعی می کنم بفهمم که کدام یک از آنها توسط کاربران ترجیح داده می شود. 30 نفر هر دستگاه را بر اساس یک پرسشنامه 12 سوالی رتبه بندی کرده اند که از آنها می خواهد تا دستگاه را بر اساس 12 پارامتر درجه بندی کنند. * برای تصمیم گیری اینکه کدام دستگاه بهتر است از چه ابزار آماری استفاده کنم؟ (فقط مقایسه نمرات کافی نیست) * آیا می توانم ارتباط بین نوع دستگاه و نوعی نمره وزنی را آزمایش کنم؟
|
چگونه می توان تفاوت در رتبه بندی ها را برای دو دستگاه آزمایش کرد که در آن هر دستگاه در مقیاس چند مورد رتبه بندی می شود؟
|
7430
|
یک قبل یکنواخت برای یک پارامتر مقیاس (مانند واریانس) در مقیاس لگاریتمی یکنواخت است. این قبلی چه شکل عملکردی در مقیاس خطی دارد؟ و چرا اینطور؟
|
ایجاد یک پیشین یکنواخت در مقیاس لگاریتمی
|
86976
|
من هنوز دارم با چیزها بازی می کنم و تازه این را یاد می گیرم، بنابراین لطفاً هر اصطلاح نادرستی را ببخشید. مجموعه داده های اسباب بازی من مجموعه ای از دستور العمل ها با همپوشانی نسبتاً قابل توجهی در مواد تشکیل دهنده است. من از اینها به عنوان ویژگیهای خود استفاده میکنم و از مجذور فاصله پیرسون همانطور که در _Programming Collective Intelligence توضیح داده شده است برای تعیین همبستگی بین دستور العملها استفاده میکنم. من به دنبال آموزش چیزی نیستم. من در حال حاضر فقط می خواهم دستور العمل های موجود در مجموعه خود را با هم مقایسه کنم و نزدیک ترین همسایه $X$ و دورترین همسایه $Y$ را پیدا کنم. من فکر میکردم که بسط دادن این موضوع سرگرمکننده است، و نظرات/نظرات مردم را در مورد دستور العملها به عنوان بخشی از محاسبه فاصله لحاظ کنم، که منجر به ارتباط نزدیکتر بین دستور العملهایی میشود که هر دو به عنوان شیرین یا ترش یا ترش توصیف میشوند. . من نمی دانم چگونه این کار را همراه با سایر ویژگی ها انجام دهم. من نمونه هایی از کیسه های کلمات را برای شباهت پیدا کرده ام، اما به نظر نمی رسد اطلاعاتی در مورد ترکیب آن با ویژگی های دیگر پیدا کنم. آیا این یک رویکرد معتبر است، و آیا اصطلاحاتی وجود دارد که باید به دنبال آن باشم؟ با تشکر
|
شباهت بین دستور العمل ها با استفاده از مواد تشکیل دهنده و نظرات / توضیحات
|
68259
|
من نمونه ای از یک توزیع را مشاهده می کنم که انتظار دارم زمان ضربه زدن باشد $$\tau = \inf\{t>0| X(t)>a\}$$ که در آن $X(t)$ یک فرآیند Lévy با $X(0)=0$ و $a$ مقداری ثابت است. $X$ یک حرکت براونی نیست و تناسب تجربی با توزیع Lévy ضعیف است. با این حال، من نیازی به دانستن فرمول دقیق قانون $\tau$ ندارم. برای نیازهایم فقط باید بدانم که انتظار $\tau$ بی نهایت است (مانند مورد تاو برای یک حرکت براونی). آیا می توان این را به عنوان یک فرضیه آماری تدوین و آزمون کرد؟
|
چگونه تشخیص دهیم که یک نمونه از توزیعی با میانگین بی نهایت آمده است؟
|
10867
|
من 3 آزمایش دارم که مقداری 3 بار اندازه گیری شد. بنابراین، 3 ماکت بیولوژیکی، 3 ماکت فنی در هر ماکت بیولوژیکی، در مجموع 9 اندازه گیری. من باید به سؤالات زیر پاسخ دهم: 1. برای هر ماکت بیولوژیکی: آیا 3 اندازه گیری من سازگار است؟ برای این کار از تست کیو دیکسون استفاده می کنم. 2. برای میانگین اندازه گیری های به دست آمده برای هر ماکت بیولوژیکی: آیا این 3 اندازه گیری سازگار هستند؟ بنابراین، چگونه باید در مورد سوال دوم صحبت کنم؟ آیا استفاده از تست کیو دیکسون در اینجا نیز ایده خوبی است؟ از چه تست های دیگری می توانم برای پاسخ به سوالات بالا استفاده کنم؟ من حدس می زنم ANOVA مناسب نیست زیرا نمونه ها خیلی کوچک هستند، درست است؟
|
آزمایشهایی برای اندازهگیریها و نقاط پرت
|
82037
|
من می دانم که اصل اساسی پشت الگوریتم LLE شامل سه مرحله است. 1. یافتن همسایگی هر نقطه داده با معیاری مانند k-nn. 2. وزن هایی را برای هر همسایه پیدا کنید که نشان دهنده تأثیر همسایه بر نقطه داده است. 3. تعبیه ابعاد کم داده ها را بر اساس وزن های محاسبه شده بسازید. اما توضیح ریاضی مراحل 2 و 3 در تمام کتاب های درسی و منابع آنلاینی که خوانده ام گیج کننده است. من نمی توانم دلیل استفاده از فرمول ها را بیان کنم. این مراحل در عمل چگونه انجام می شود؟ آیا هیچ راه شهودی برای توضیح فرمول های ریاضی استفاده شده وجود دارد؟ منابع: http://www.cs.nyu.edu/~roweis/lle/publications.html
|
مراحل الگوریتم LLE (جاسازی خطی محلی) را توضیح دهید؟
|
7432
|
به نظر می رسد در SPSS نسخه 19 یک ویژگی جدید به نام مدل سازی خطی خودکار وجود دارد. این یک «مدل» ایجاد میکند (که برای من جدید است) و به نظر میرسد این تابع تعدادی از توابع را که معمولاً برای توسعه مدل پیشبینی لازم است ترکیب میکند. عملکرد تنها با زیرمجموعهای از تکنیکهای انتخاب پیشبینی ناقص به نظر میرسد و مهمتر از همه این است که از نظر گامهای رو به عقب از دست رفته است. ### پرسش * آیا مردم این را خوب می بینند یا بد؟ * و اگر خوب است، آیا راه هایی برای تجزیه کاری که انجام می دهد وجود دارد؟ * به طور خاص چگونه می توانم ضرایب معادله رگرسیون را هنگام بسته شدن یا تقویت پیدا کنم؟ برای من به نظر می رسد که بسیاری از مراحل را پنهان می کند و من دقیقاً مطمئن نیستم که چگونه چیزی را که ارائه می دهد ایجاد می کند. بنابراین هرگونه اشاره به آموزش یا موارد مشابه (از آنجایی که مستندات SPSS عالی نیست) قدردانی می شود.
|
آیا مدلسازی خطی خودکار در SPSS چیز خوبی است یا بد؟
|
12508
|
(من از یک متخصص در زمینه آمار دور هستم، بنابراین اگر سوال من نامربوط است یا استفاده من از هر اصطلاحی نادرست است، پیشاپیش عذرخواهی می کنم) فرض کنید یک متغیر _گسسته_$X$ و مجموعه ای از $n+ داریم. 1$ مشاهدات $\{x_0, x_1, \dots, x_n\}$. مقادیر X$ ممکن است عددی نباشد و همه مشاهدات بدون ترتیب خاصی برابر در نظر گرفته شوند. بنابراین، میتوانیم مجموعه مشاهدات بالا را به مجموعهای از جفتهای $k+1$ ارزش/فرکانس $\{<v_0, f_0>, <v_1, f_1>,\dots,<v_k, f_k>\}$ تبدیل کنیم. آیا معیاری وجود دارد که اهمیت یک _value_ خاص را در این مجموعه تخمین بزند؟ به عنوان مثال، در یک مجموعه مشاهداتی که تمام مقادیر دقیقاً سه بار وجود دارند، هیچ کدام را نمی توان مهمتر از بقیه در نظر گرفت. از طرف دیگر، در مجموعهای که همه مقادیر به جز یک 3 بار وجود دارند، میخواهم آن یک مقدار که 10 بار وجود دارد از بقیه متمایز شود. همان مقدار با مقداری که فقط یک بار ظاهر می شود. یک محاسبه احتمال ساده، به عنوان مثال، $P(k) = f_k / (n+1)$ کمکی نخواهد کرد، زیرا مقادیر دیگر را در نظر نمی گیرد. من با ترکیبات/فرمولهای مختلفی با استفاده از معیارهای مختلف شناخته شده (میانگین، انحراف استاندارد، حداکثر، حداقل و غیره) آزمایش کردم، اما هر چیزی که به ذهنم میرسید بیش از حد خودسرانه به نظر میرسید که نمیتوانم به آن اعتماد کنم. من در حال حاضر از نمره استاندارد فرکانس مقدار به عنوان تخمینگر استفاده میکنم، اما یک مشکل اساسی دارد: محدود نیست، و من اصلاً مطمئن نیستم که چگونه آن را بدون سوگیری ناآگاهانه هیچ نتیجهای عادی کنم. من از هرگونه ارجاع به معیاری که ممکن است باعث شروع من شود، یا هر اصطلاحی که آنچه را که میخواهم انجام دهم را دقیقتر توصیف کند، تا بتوانم جستجوی خود را متمرکز کنم، قدردانی میکنم. من بهویژه از هر معیار محدودی که میتوان با اضافه شدن نمونههای جدید به مجموعه مشاهدات به صورت تدریجی محاسبه کرد، قدردانی میکنم:-)
|
معیار اهمیت برای مقدار متغیر گسسته
|
16331
|
من یک مجموعه داده با تعداد زیادی پاسخ بله/خیر دارم. **آیا** می توانم از اجزای اصلی (PCA) یا هر تحلیل کاهش داده دیگری (مانند تحلیل عاملی) برای این نوع داده ها استفاده کنم؟ لطفا راهنمایی کنید **چگونه** این کار را با استفاده از SPSS انجام دهم.
|
چگونه می توان تجزیه و تحلیل مؤلفه های اصلی (یا تحلیل عاملی) را روی داده های باینری (با استفاده از SPSS) انجام داد؟
|
16333
|
من سعی می کنم از SAS بیشتر از دیدگاه یادگیری ماشینی استفاده کنم تا از دیدگاه آمار خالص. من میخواهم نمونهگیری مجدد را روی یک مجموعه داده انجام دهم تا دقت پیشبینی یک LDA و رگرسیون لجستیک را اندازهگیری کنم. با این حال، زمانی که من «proc logistic» یا «proc discrim» را انجام میدهم، به نظر میرسد که خروجی SAS مجموعهای از معیارهای آماری است. من می خواهم از مدل ها برای پیش بینی خروجی مجموعه داده آزمایشی خود استفاده کنم. آیا راهی برای انجام این کار در SAS وجود دارد؟
|
چگونه می توانم مدل هایی را برای پیش بینی خروجی یک مجموعه داده آزمایشی با استفاده از SAS اعمال کنم؟
|
93993
|
من به دنبال استفاده از LexRank برای خلاصه سازی متن هستم. من دارم به اصل مقاله نگاه می کنم. چیزی که من را متحیر می کند این است که آیا از ضریب میرایی استفاده می شود یا خیر. فرمول ها همه از آن استفاده می کنند، اما به نظر می رسد الگوریتم های ارائه شده از آن استفاده نمی کنند. من تعجب می کنم که آیا باید در تکرار مرحله قدرت گنجانده شود یا نه؟
|
ضریب میرایی LexRank
|
19501
|
> سن <- c(1،2،3) > وزن <- c(4،5،6) > p <- data.frame(سن=سن، قد=قد) > p سن قد 1 1 4 2 2 5 3 3 6 > p[p$age > 1،] سن قد 2 2 5 3 3 6 > سن [1] 1 2 3 > age.df <- data.frame(age=age) > age.df age 1 1 2 3 3 > age.df[age.df$age > 1,] [1] 2 3 من زیرمجموعه دیتافریمی را که درخواست کردم می خواهم، نه بردار، که در آن نام ردیف ها و نام ستون ها از بین رفته است. چرا R این کار را می کند؟ آیا می توان از آن جلوگیری کرد؟
|
چرا R یک قاب داده یک بعدی را به یک بردار تبدیل می کند؟ (و چگونه می توانم آن را متوقف کنم؟)
|
63966
|
متداولترین روشهایی که برای یافتن یک خط بهترین تناسب دیدهام، رگرسیون حداقل مربعات و میانه-میانگین هستند. آیا راه های خوب دیگری وجود دارد؟ آیا راهی برای به حداقل رساندن اختلاف مقدار مطلق و یافتن خطی با بهترین تناسب وجود دارد؟ یا اینکه به جای فاصله عمودی تا خط، فاصله مستقیم با یک خط را پیدا کنیم؟ افکار؟
|
راه های دیگر برای یافتن خط بهترین مناسب
|
19506
|
من در حال انجام پروژه ای با Weka با الگوریتم های خوشه بندی (k-means، انتظار-بیشینه سازی و OPTICS) هستم. من دوست دارم بتوانم آن الگوریتم ها را از طریق اینترنت فراخوانی کنم. **پس آیا Weka یک API آنلاین دارد؟** اما من شک دارم که وجود نداشته باشد. در این صورت، **گزینه های جایگزین چیست؟** * * * **ویرایش:** آنچه من در تلاش برای رسیدن به آن هستم، یک رابط وب برای راه اندازی و کنترل الگوریتم های خوشه بندی است. اما من فکر میکنم در نهایت Weka را مستقیماً روی سرور اجرا میکنم، یا با فراخوانی خط فرمان یا با استفاده از برنامه جاوای خودم که از Weka استفاده میکند. مزیت دیگر این بود که توسط سخت افزار سرور محدود نمی شد، اما این در مورد من قابل قبول است. * * * من دیده ام که Apache Mahout لیست بزرگی از الگوریتم ها دارد. Apache Mahout کتابخانه ای از الگوریتم های یادگیری ماشینی است، اما همچنین بدون API آنلاین قابل فراخوانی است. Google دارای پلتفرم «یادگیری ماشینی به عنوان سرویس» است که من میخواهم، یعنی Google Prediction API، اما الگوریتمهای دنیای واقعی بیشتری مانند تشخیص هرزنامه یا طبقهبندی ایمیل دارد، و نه الگوریتمهای خوشهبندی که من میخواهم.
|
آیا Weka یک API آنلاین دارد؟
|
16083
|
### آزمایش فرض کنید من یک جعبه سیاه پر از توپ های شماره دار دارم و آنها را با جایگزینی ترسیم می کنم - بنابراین امکان رسم یک عدد خاص در N ترسیم با توزیع دوجمله ای توصیف می شود؟ مشکل این است که جعبه سیاه من ساختار درونی دارد بنابراین توپ ها با p یکسان رسم نمی شوند. برای جعبه تصادفی (آزمایش) باید نقاط تصادفی را از جعبه مشاهده کنم. بنابراین اگر اعداد شناسه این توپ ها را روی محور قرار دهید، باید محلی سازی تصادفی نقاط را بدست آورید - بله؟ با این حال، آزمایش من جدای از محلیسازی تصادفی، نقاطی را نیز ایجاد میکند که باید در گروههای خوشهای (محلی نزدیک به یکدیگر) باشند. ### سوال * چگونه می توانم مناطقی را پیدا کنم که نقاط (که شناسه توپ هستند) به صورت غیر تصادفی محلی شده اند؟ جعبه من حدود 10^8 توپ دارد و من 10^5 توپ را با جایگزینی در یک آزمایش می کشم. برای هر نظر و پیشنهادی که بهترین ابزار آماری برای هدف من خواهد بود، بسیار سپاسگزار خواهم بود. من به شبیه سازی در حال اجرا فکر کردم - آزمایش خود را به صورت تصادفی شبیه سازی کنم و سپس به توزیع فواصل بین نقاط قرعه کشی نگاه کنم. سپس این توزیع تصادفی به نوعی با من مقایسه میشود تا ببینم کدام فاصلهها در توزیع تصادفی بسیار نادر هستند و میتوانند نشانهای از رفتار غیر تصادفی من باشند. اما من کاملاً مطمئن نیستم که چگونه پس از شبیه سازی توزیع تصادفی ادامه دهم ...
|
چگونه مناطقی را پیدا کنیم که نقاط به صورت غیر تصادفی محلی شده اند؟
|
65758
|
ابتدا باید توضیح بدهم که چه کار کردم، و ممکن است درست نباشد. من یک متغیر دارم که نشان دهنده نتیجه آزمایش است، ممکن است مثبت یا منفی باشد. * من مجموعه ای از مشاهدات یک متغیر مهم (نقطه مورد علاقه من) را برای 5 روز گذشته قبل از انجام آزمون دارم. من میانگین 3 روز گذشته و تمام 5 روز را محاسبه کرده ام. * سپس، من چند متغیر دیگر (برای من نه چندان مهم) دارم، برخی از آنها باینری هستند (بله یا خیر)، برخی از آنها پیوسته هستند. من می خواهم یک مدل لاجیت برای DV خود بر اساس این متغیرها ایجاد کنم. از آنجایی که هیستوگرام ها به اندازه کافی نرمال به نظر نمی رسند، من از Mann-Whitney-U بر روی همه متغیرها (با نتیجه آزمون به عنوان متغیر گروه بندی) استفاده کرده ام و مشاهده کرده ام که این آزمون برای میانگین 5 روزه مهم ترین است. دومین روز مهم ترین روز قبل از انجام آزمون بود). بنابراین، من میانگین 5 روزه را برای یک مدل لاجیت تک متغیره انتخاب کردهام و قابل توجه بود. سپس همه متغیرهای دیگر را در مدل قرار دادم و انتخاب مدل گام به گام را در R بر اساس AIC اجرا کردم. اکنون من مدلی دارم که شامل 5 متغیر است - میانگین 5 روزه بسیار معنادار است و دو متغیر دیگر هنوز قابل توجه است، اما دو متغیر نیز وجود دارد که در سطح انتخابی من غیرمعنادار هستند (0.05). من دو سوال دارم: 1. آیا فرآیند انتخاب یک نسخه از متغیر مهم برای مدل، همانطور که من انجام دادم قابل قبول است؟ 2. چگونه دو متغیر غیر معنی دار را تفسیر کنم؟ نشان داده نشده است که آنها تأثیر قابل توجهی بر DV دارند، اما در یک مدل بدون آنها، سایر متغیرها ناچیز می شوند. آیا واقعاً می توانم از مدلی استفاده کنم که حاوی مقادیر غیر معنی دار باشد؟ یا می توانم بگویم که مدل به خوبی با داده های موجود مطابقت دارد و این دو متغیر به مدل کمک می کنند اما در سطح انتخابی من معنی دار نیستند.
|
تفسیر پیش بینی کننده های ناچیز در مدل رگرسیون لجستیک
|
65757
|
من یک رگرسیون ترتیبی در SPSS اجرا می کنم. من متغیرهای مستقل در مقیاس اسمی و ترتیبی دارم. متغیر وابسته من ترتیبی است، نشاندهنده سطح عمل، با کد ۰، ۱، ۲ جدول خروجی SPSS تخمین پارامترها به این صورت است: سطح آستانه عمل = 0 تخمین = 0.6 سیگ. = 0.143 سطح آستانه عمل = 1 برآورد = 2.2 سیگ. = 0.000 متغیر مستقل ... من خواندم که _عدم معنی دار بودن یک آستانه نشان می دهد که نقطه برش واقعاً متفاوت نیست و بنابراین برخی از سطوح متغیر وابسته باید با هم ترکیب شوند (Garson, G. D. (2012). رگرسیون ترتیبی. Asheboro ، NC: Statistical Associates Publishers). من تا به حال به چنین جمله ای برخورد نکرده ام. همچنین برخی از رگرسیون های ترتیبی که من نگاهی به آنها داشتم، به موضوعی در مورد آستانه غیر معنی دار اشاره نکردند و با این وجود خروجی را تفسیر کردند. بنابراین اکنون در تعجب هستم که این موضوع چقدر شدید است. اگر من به رگرسیون ترتیبی پایبند باشم، این آستانه غیر معنیدار چگونه بر نتایج من تأثیر میگذارد (با توجه به برآورده شدن تمام فرضیات دیگر)؟ آیا آنها همچنان معتبر خواهند بود؟ یا این بدان معنی است که من قطعاً باید دسته های نتیجه 0 و 1 را ترکیب کنم، که اساساً به این معنی است که به جای رگرسیون ترتیبی باید رگرسیون لجستیک باینری را اجرا کنم؟
|
چگونه با یک مقدار آستانه غیر معنی دار در رگرسیون ترتیبی در SPSS برخورد کنیم؟
|
63967
|
در یک آزمون، از آزمون جایگشت برای تخمین توزیع صفر آماره آزمون از نمونه استفاده می شود. در مقایسه چندگانه، کاربرد آزمون جایگشت چیست؟ با تشکر
|
تست جایگشت چه نقشی می تواند در مقایسه چندگانه ایفا کند؟
|
65753
|
به عنوان مثال: مجموعه اولیه $[1, 3, 4, 7, 2]$ به 17 می رسد. با تقسیم هر عنصر بر مجموع، مجموع عناصر به 1 می رسد: $[1/17، 3/17،... 2/17]$ مجموعاً به 1 می شود. وقتی مجموعه ای از اعداد به مجموع یک تنظیم می شوند چه نامیده می شود؟
|
وقتی مجموعه ای از اعداد به صورت مجموع یک تنظیم می شوند، چه نامیده می شود؟
|
63960
|
من سعی می کنم فیلتر کالمن بدون عطر را پیاده سازی کنم. به نظر می رسد همه چیز به درستی انجام شده است، اما من یک خطا در مورد تجزیه Cholesky دریافت می کنم. شکست همیشه پس از اجرای برخی از الگوریتم ها رخ می دهد من سعی کردم وابستگی ها را از این مدل حذف کنم. , P, kappa): ''' محاسبه SigmaPoints''' n = len(xm) xm = np.asmatrix(xm) # اندازه را بررسی می کند بردار حالت Xi = np.asmatrix(np.zeros((n,n*2+1))# ایجاد ماتریس صفر sigmaPoints n ردیف، 2n+1 col W = np.zeros((n*2+1,1) )) # وزن برای هر SigmaPoint به عنوان بردار Xi[:,0] = xm # ستون اول ابتدایی برای ورودی xm W[0] = kappa*1.0/(n+kappa) # به روز رسانی اولین وزن U = np.linalg.cholesky(P*(n+kappa)) # شناسهMat * مقدار k را در محدوده(n) برمی گرداند: Xi[:,k] = xm + U[k-1، :].T W[k] = 1.0/(2.0*(n+kappa)) برای k در محدوده(n): Xi[:, n+k] = xm - U[k-1،:].T W[n+k]=1.0/(2.0*(n+kappa)) بازگشت (Xi، W)
|
تجزیه کولسکی در کوواریانس خطا
|
65754
|
من اخیراً در مورد برداشت بیزی در مورد آمار کلاسیک تحقیق کرده ام. پس از مطالعه در مورد فاکتور بیز، من این سوال را داشتم که آیا تحلیل توان در این دیدگاه از آمار ضروری است یا خیر. دلیل اصلی من برای تعجب این است که عامل بیز واقعاً فقط یک نسبت احتمال است. زمانی که 25:1 شد، به نظر می رسد که می توانم آن را یک شب بنامم. آیا من دور هستم؟ خواندن دیگری که بتوانم برای یادگیری بیشتر انجام دهم؟ در حال خواندن این کتاب: مقدمه ای بر آمار بیزی، نوشته W.M. بولستاد (Wiley- Interscience؛ ویرایش دوم، 2007).
|
آیا تحلیل توان در آمار بیزی ضروری است؟
|
69619
|
طبق ویکیپدیا، آماره آزمون G «متناسب با واگرایی کولبک-لایبلر توزیع تجربی از توزیع نظری است». برای بدست آوردن رابطه بین $ G $ و واگرایی KL: $$ \begin{align*} G &= 2 \sum_i O_i \ln\left(\frac{O_i}{E_i}\right) \\ &= 2 \ sum_i n P(i) \ln\left(\frac{n P(i)}{n Q(i)}\right) \\ &= 2n \sum_i P(i) \ln\left(\frac{P(i)}{Q(i)}\راست) \\ &= 2n \times D_{KL}(P \| Q) \end{تراز*} $ $ اینجاست که من کمی گیج هستم. $ D_{KL}(P \| Q) $ نشان دهنده واگرایی $ Q $ (توزیع مورد انتظار) از $ P $ (توزیع مشاهده شده). این برعکس بیانیه در صفحه ویکی پدیا است (با فرض اینکه «نظری» به مورد انتظار و «تجربی» به مشاهده اشاره دارد). اکنون از یک تفسیر نظری اطلاعات از واگرایی KL، $ P $ نشان دهنده توزیع واقعی و $ Q $ تقریبی است. اما از این اشتقاق، نتیجه خلاف شهود به نظر می رسد. آیا توزیع مورد انتظار نباید با توزیع واقعی و توزیع مشاهده شده با تقریب مطابقت داشته باشد؟
|
آماره آزمون G و واگرایی KL
|
16334
|
من هرگز دوره ای در آمار نداشته ام، بنابراین امیدوارم در جای مناسب اینجا سوال کرده باشم. فرض کنید من فقط دو داده برای توصیف توزیع نرمال دارم: میانگین $\mu$ و واریانس $\sigma^2$. من می خواهم از یک کامپیوتر برای نمونه برداری تصادفی از این توزیع استفاده کنم تا به این دو آمار احترام بگذارم. کاملاً واضح است که می توانم میانگین را با عادی سازی حدود 0 کنترل کنم: فقط قبل از خروجی نمونه به هر نمونه $\mu$ اضافه کنید. اما من نمیدانم که چگونه میتوان نمونههایی را برای احترام به $\sigma^2$ تولید کرد. برنامه من به یک زبان برنامه نویسی معمولی خواهد بود. من به هیچ بسته آماری دسترسی ندارم.
|
چگونه از یک توزیع نرمال با میانگین و واریانس شناخته شده با استفاده از یک زبان برنامه نویسی معمولی نمونه برداری کنیم؟
|
46361
|
زمانی که یک متغیر دارای توزیع نرمال است و متغیر دیگر دارای توزیع نرمال نیست، کدام آزمون دو دنباله برای مقایسه میانگین/میانگین ها بهتر است؟
|
وقتی یک متغیر توزیع نرمال دارد و متغیر دیگر ندارد، از کدام آزمون برای مقایسه میانگین/میانگین ها استفاده کنیم؟
|
110383
|
مربع R من از رگرسیون کاکس حدود 0.02 است، آیا به من می گوید که مدل واقعاً بد عمل می کند؟ من از coxph در R استفاده کردم.
|
آیا مربع R رگرسیون کاکس همان چیزی است که مربع رگرسیون خطی R را بیان می کند؟
|
63962
|
من به دنبال این هستم که به سرعت در مورد نحوه افزودن شخصی سازی به یک سیستم توصیه مبتنی بر بیزی هوشمند باشم. من از دادههای جریان کلیک و آمار بیزی برای تخمین احتمال خرید برای رتبهبندی فهرستی از محصولات استفاده میکنم. چگونه می توانم تاریخچه کاربر خاص را برای اصلاح احتمالات عمومی خود برای یک کاربر خاص ترکیب کنم؟ به عنوان مثال، کاربر در بازدید قبلی از سایت روی یک محصول کلیک کرده است. چگونه احتمال خرید را طی یک بازدید متوالی تخمین بزنم؟ رویکرد استاندارد در اینجا چیست؟ به دنبال مقالات، وبلاگ ها، افرادی هستید که می توانند به روشنگری کمک کنند.
|
چگونه می توانم شخصی سازی را در موتور رتبه بندی بیزی بگنجانم؟
|
63968
|
من قبلاً این عبارت را شنیده ام: > بهینه سازی ریشه همه بدی ها در آمار است. به عنوان مثال، پاسخ بالا در این موضوع، این عبارت را با اشاره به خطر بهینه سازی بیش از حد تهاجمی در طول انتخاب مدل بیان می کند. اولین سوال من این است: آیا این نقل قول به شخص خاصی نسبت داده می شود؟ (به عنوان مثال در ادبیات آماری) از آنچه من می فهمم، این بیانیه به خطرات بیش از حد برازش اشاره دارد. حکمت سنتی میگوید که اعتبارسنجی متقاطع مناسب در حال حاضر با این مشکل مبارزه میکند، اما به نظر میرسد که این مشکل بیش از این است. آیا آماردانان و پزشکان ML باید از بهینه سازی بیش از حد مدل های خود احتیاط کنند، حتی زمانی که به پروتکل های اعتبارسنجی متقاطع سخت پایبند هستند (مثلاً 100 CV 10 برابری تو در تو)؟ اگر چنین است، چگونه بفهمیم که چه زمانی جستجوی «بهترین» را متوقف کنیم؟
|
بهینه سازی: ریشه همه بدی ها در آمار؟
|
81523
|
من دو آزمایش روانشناسی انجام داده ام. متغیر وابسته رتبهبندی است که توسط شرکتکننده ارائه میشود، یعنی یک عدد صحیح از 0 تا 100. آزمایش اول یک طرح مختلط 2x2 است، با یک عامل بین موضوعی (درمان) و یک عامل درون موضوعی (سوال). هر یک از این عوامل دارای دو سطح هستند. یعنی از شرکت کنندگان در آزمایش دو سوال پرسیده می شود (Q1 و Q2)، در حالی که یک عامل به طور سیستماتیک بین دو گروه متفاوت است (Treatment1 و Treatment2). آزمایش دوم یکسان است، با این تفاوت که طرح کاملاً درون موضوعی می شود. یعنی طرح 2x2 با اندازه های مکرر است. از شرکت کنندگان چهار سوال پرسیده می شود که دو دستکاری را به صورت فاکتوریل رمزگذاری می کند: Q1Treatment1، Q1Treatment2، Q2Treatment1 و Q2Treatment2. من به تعاملات بالقوه بین دو عامل (سوال و درمان) علاقه مند هستم. به طور معمول، من ANOVA اندازه گیری های مکرر را برای این آزمایش ها انجام می دهم. با این حال، مشکل این است که داده های من به طور قابل توجهی از حالت عادی منحرف می شوند (در واقع، باقیمانده ها نیز همینطور). بنابراین، من به دنبال معادل های ناپارامتری ANOVA برای این دو طرح هستم. من می توانم از هر دو SPSS و R استفاده کنم.
|
معادل ناپارامتریک ANOVA اندازه گیری های مخلوط و دو طرفه
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.