_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
68542
من یک مدل میانجی‌گری تعدیل‌شده با اثر میانجی‌گری قوی، اما با نتایج گیج‌کننده برای اثر تعدیل‌کننده (با استفاده از PROCESS) دارم. اگرچه اثر متقابل در مدل رگرسیون ناچیز است، اما اثر غیرمستقیم شرطی نشان می‌دهد که اثر واسطه‌ای مشروط به تعدیل‌کننده است (مقادیر بالای صدک 10 معنی‌دار هستند). برای درک بهتر آنچه در جریان است، از ماکرو MODMED نیز استفاده کردم که به من امکان می دهد از تکنیک جانسون نیمن استفاده کنم. چیزی که این نشان می‌دهد این است که ناظم تأثیر قابل‌توجهی در مقادیر ناظم بالاتر از 3،38 دارد (من از مقیاس 5 امتیازی استفاده می‌کنم). با این حال، دوباره، تعامل در مدل رگرسیون ناچیز است. من ادبیات را مرور کردم اما نتوانستم پاسخی پیدا کنم. آیا می توانید به من کمک کنید؟
MODMED در PROCESS اصطلاح تعاملی ناچیز و در عین حال اثر مشروط مهم ایجاد می کند: چگونه تفسیر کنیم؟
3392
به نظر می رسد که افراد زیادی (از جمله من) دوست دارند تجزیه و تحلیل داده های اکتشافی را در اکسل انجام دهند. برخی محدودیت‌ها، مانند تعداد ردیف‌های مجاز در یک صفحه‌گسترده، دردسرساز هستند، اما در بیشتر موارد استفاده از اکسل برای بازی با داده‌ها را غیرممکن نمی‌کند. با این حال، مقاله ای از مک کالو و هایزر عملاً فریاد می زند که اگر سعی کنید از اکسل استفاده کنید، نتایج خود را اشتباه می گیرید - و احتمالاً در جهنم نیز خواهید سوخت. آیا این مقاله صحیح است یا مغرضانه است؟ نویسندگان به نظر از مایکروسافت متنفر هستند.
اکسل به عنوان یک میز کار آمار
87831
من یک مجموعه داده بزرگ دارم که می‌خواهم همبستگی‌ها را در آن پیدا کنم. تاکنون ناموفق بوده‌ام. من نمی دانم که آیا این ایده خوبی خواهد بود که: 1. میانگین همه ورودی های همسایه را در همه متغیرهای من در نظر بگیریم. (این بدان معناست که اگر من یک بردار $X=(x_1,\ x_2,\ x_3,\ x_4,\ \ldots)$ داشته باشم آن را به: $X=((x_1+x_2)/2,\ (x_3) تبدیل می کنم +x_4)/2,\ \ldots)$) زیرا برخی از متغیرها واریانس بسیار بالایی دارند که ممکن است همبستگی ها را پنهان کند. 2. تفاوت ها را در نظر بگیرید. این بدان معناست که من $X=(x_1,\ x_2,\ x_3,\ x_4,\ \ldots)$ را به $X=(x_1-x_2,\ x_2-x_3,\ x_3-x_4,\ \ldots)$ تبدیل می کنم. از آنجا که هر ورودی مربوط به 1 نقطه در زمان است، منظورم این است که $x_2$ یک دوره زمانی بعد از $x_1$ می آید. پس از این تحولات من دوباره برای همبستگی آزمایش می کنم. آیا این ایده منطقی است؟ من فرض می‌کنم که اگر قبلاً همبستگی قابل توجهی وجود نداشته باشد، این تحولات آن را تغییر نمی‌دهند، اما مطمئن نیستم. اگر این معقول است، چگونه می توانم آن را در R انجام دهم؟
تأثیر استفاده از تفاوت ها یا ابزارها برای یافتن همبستگی
79275
یک متغیر تصادفی غیرمنفی $x$ دارای توزیع یکنواخت پیوسته در بازه $(0,\theta)$ است. بنابراین، احتمال با: $f(x|\theta) = \frac{1}{\theta}I(x\leq\theta)$ داده می‌شود، که در آن $I$ یک تابع نشانگر است. اما جفریز برای پارامتر $\theta$ چه چیزی مقدم است؟ به طور خاص، چگونه می توان عملکرد نشانگر را هنگام محاسبه اطلاعات فیشر مدیریت کرد؟
Jeffreys برای توزیع یکنواخت مداوم
68545
من باید انتخاب مدل را با استفاده از رویکرد p-value استاندارد انجام دهم. با استفاده از رگرسیون لجستیک می خواهیم مدل های زیر را با هم مقایسه کنیم: Y = A + B + C + D Y = A*B + A + B + C + D Y = A*C + A + B + C + D Y = A*D + A + B + C + D تجزیه و تحلیل زیر را در R انجام دادم: اول <- glm(Y~G+N+E+C, family=binomial) دوم <- glm(Y~G*N+G+N+E+C, family=binomial) سوم <- glm(Y~G*E+G+N+E+C, family=binomial) چهارم <- glm(Y~G*C+G+N+E+C، Family=binomial) خلاصه (اول) خلاصه (دومین) خلاصه (سوم) خلاصه (چهارم) anova (اول، دوم، سوم، چهارم، test=Chisq) با این حال، من فکر می کنم خروجی مناسبی برای انتخاب مدل بر اساس p-values ​​در اینجا ندارم؟ anova (اول، دوم، سوم، چهارم، تست = Chisq) # تجزیه و تحلیل جدول انحراف # مدل 1: Y ~ G + N + E + C # مدل 2: Y ~ G * N + G + N + E + C # مدل 3: Y ~ G * E + G + N + E + C # مدل 4: Y ~ G * C + G + N + E + C # Resid. Df | مقیم توسعه دهنده | Df | انحراف | Pr(>Chi) # 1 595 | 609.90 | # 2 594 | 609.90 | 1 | 0.000169 | 0.9896 # 3 594 | 609.81 | 0 | 0.087775 | # 4 594 | 609.90 | 0 | -0.085001| بنابراین، چگونه می توان یک انتخاب مدل را در اینجا با استفاده از یک رویکرد P-value استاندارد انجام داد؟
انتخاب مدل با استفاده از روش استاندارد p-value
79277
من یک ماتریس ویژگی n توسط p دارم که n کوچک است. من می‌خواهم اعتبارسنجی متقاطع ترک یک‌بیرون (LOOCV) را انجام دهم. آیا باید در همان ابتدا یک بار تکنیک کاهش ابعاد (مانند PCA) را اعمال کنم و LOOCV را بر اساس ماتریس ویژگی جدید انجام دهم یا PCA را در طول هر کدام اعمال کنم. حلقه LOOCV (بنابراین من ماتریس های ویژگی های مختلف را در حلقه های مختلف دریافت می کنم)؟
زمان استفاده از PCA در این سناریو
25914
اجازه دهید $X_1,X_2,...,X_n$ تعداد ثابتی از متغیرهای تصادفی برنولی باشد. مشکل من این است که توزیعی برای $Y$ پیدا کنم به طوری که برای برخی از تابع $f$، $Y=f(X_1,X_2,...,X_n)$ داشته باشیم. دو تابع کاندید برای استفاده وجود دارد، $max$ یا $avg$. من نمی دانم که آیا یک تابع متوسط ​​در اینجا کار می کند یا نه، اما فکر می کنم نتیجه معنی داری به من بدهد. من مشکلات مشابهی را بررسی کردم و بیشتر مواردی را پیدا کردم که $X_i$ متغیرهای تصادفی پیوسته هستند. هر گونه اشاره در مورد این مشکل بسیار قدردانی می شود. با تشکر
تابعی از متغیرهای برنولی؟
109389
من در حال خواندن این مقاله در مورد فاکتورسازی ماتریس هستم. در مقاله آنها می خواهند ویژگی های گره ها را در مدل ترکیب کنند (صفحه 6). ابتدا آنها ایده ساده ترکیب ویژگی های دو گره را به شکل خطی وزن دار $x_{ij} = [x_i x_j]$ نشان می دهند، بنابراین امتیاز=$x_{ij}^T\times w$. بردار $x_{ij}$ برداری است که ویژگی‌های گره‌های $i$ و $j$ را ترکیب می‌کند. گفتند این خوب نیست چون از مسئله **گرایش** رنج می برد! من کاغذی را که لینک کرده بودند بررسی کردم اما نتوانستم بفهمم این چه جهنمی است. سپس آنها گفتند که به جای آن از **فرم رگرسیون دوخطی** استفاده می کنند: $score = x_i^T V x_j$ که $V \in R^{d\times d}$ ماتریس پارامترها/وزن ها و $d$ عدد است. ویژگی های یک گره 1- آیا می دانید آن مسئله گرایش به چه معناست؟ 2- چرا فرم دوخطی بهتر است؟ با اینکه تعداد زیادی پارامتر ($d^2$) داره!!!
تمایل در مدل های خطی و مدل های رگرسیون دوخطی
103451
من یک رگرسیون رشد اقتصادی را با استفاده از داده های پانل پویا تخمین می زنم. مشخصات من به شرح زیر است: $$\ln Y_{i,t} = a \ln Y_{i,t-1} + bX_{i,t} + e_{i,t}$$ * $Y$ درآمد را اندازه می‌گیرد سرانه * $X$ متغیر مستقل بهره است که سهم معینی از تولید ناخالص داخلی را نشان می دهد (به عنوان مثال 0.05) از مشخصات چنین بر می آید که من تأثیر بر رشد اقتصادی را به صورت تخمین می زنم. خوب: $$\ln Y_{i,t} - \ln Y_{i,t-1} = (a-1) \ln Y_{i,t-1} + bX_{i,t} + e_{i ,t}$$ پس از اجرای مدل، تخمین $b$ 0.07 است. آیا کسی می تواند به من در تفسیر این تخمین کمک کند؟ می‌خواهم بدانم تغییر نرخ رشد از این 0.07 چیست؟
تخمین ها از یک مدل رگرسیون لاگ خطی
87832
من سعی داشتم بهتر بفهمم که چه زمانی می‌توانیم یک پارامتر منحصر به فرد برای رگرسیون خطی را یاد بگیریم و چه مقدار داده برای بدست آوردن آن لازم است. بگوییم که می خواهیم پارامتر $\theta$ را یاد بگیریم به طوری که ریسک تجربی $R_n(\theta)$ به حداقل برسد. برای آن می‌خواهیم: \begin{align} \bigtriangledown R_{n}( \theta )_{\theta = \hat{\theta}} &= 0 \\\ \bigtriangledown\frac{1}{n} \sum ^n_{t=1} (y^{(t)} - ​​\theta \cdot x^{(t)}) &= \frac{1}{n}\sum^n_{t=1}-y^{(t)}x^{(t)} + \frac{1}{n} \sum^n_{t=1} x^{(t)} {x^{(t)}}^{T}\theta \end{align} اگر اجازه دهیم $b = \frac{1}{n}\sum^n_{t=1}y^{(t)}x^{(t)}$ و $A = \frac{1}{n} \sum^n_{ t=1}x^{(t)} {x^{(t)}}^{T}\theta$، سپس می‌توانیم آن را دوباره بنویسیم: \begin{align} -b + A \hat{\ تتا} &= 0 \\\ A \hat{\theta} &= b \end{align} یا معمولاً با نام‌های زیر شناخته می‌شود: \begin{align} b &= \frac{1}{n}x^{T}y \\\ A &=\ frac{1}{n}X^{T}X \\\ X^{T}X \hat{\theta} &= X^{T}y \end{align} اما برای من مشخص نبود چه شرایطی ما برای $A$ یا $X$ نیاز داریم بنابراین که $A$ معکوس بود. واضح است که $A$ باید در $R^d$ باشد که در آن $d$ ابعاد داده ها است، اما چگونه می توان آن را ترجمه کرد که داده های آموزشی چگونه باید در آن زیرفضا باشد؟ حدس می‌زنم که به طور خاص مطمئن نیستم که $A$ چه زمانی در رابطه با $X^T X$ معکوس است. این عمدتاً یک سؤال جبر خطی است، با این حال، از آنجایی که من این را در زمینه یادگیری ماشینی نیز پست کردم، خوب است که پاسخی دریافت کنم که توضیح دهد چه شرایطی باید از **نقاط آموزشی ** داشته باشیم به طوری که $ X^TX$ معکوس است. یعنی به چه شرایطی در ** ردیف*های X نیاز داریم به طوری که $X^TX$ معکوس باشد. (همچنین، من علاقه مند به پاسخی هستم که آموزنده باشد، اما اگر با اثبات ادعاها همراه باشد، من را بیشتر خوشحال می کند)
راه حل فرم بسته رگرسیون خطی و داشتن امتیاز تمرینی کافی
91324
من واقعاً در آمار زنگ زده هستم و سعی می کنم یک کد سی شارپ بنویسم که در آن لیستی از اعداد را تغذیه می کنم و به من می گوید که آیا اعداد به طور معمول توزیع شده اند یا نه. من 50 عدد از سایت زیر با میانگین 0 و واریانس 1 تولید کردم. تست (http://en.wikipedia.org/wiki/Anderson%E2%80%93Darling_test). من A^2 = -N - 1 / N * sum(1, N)( (2*i - 1) * (ln Phi(Y[i]) + ln (1-Phi(Y[n+1-) را اجرا کردم i]) ) ) ) (تقریباً نیمی از صفحه است، موردی که میانگین و واریانس هر دو مشخص هستند.) تابع Phi از http://www.johndcook.com/csharp_phi.html وقتی کدی را که روی یک توزیع عادی واقعی نوشته ام اجرا می کنم، مقدار -3.05 برمی گردم. آیا گام بعدی جستجوی این عدد در جدول مقادیر بحرانی توزیع نرمال برای بدست آوردن احتمال مرتبط است؟ -3.05 نقشه تا 0.0011. آیا این به این معنی است که داده‌های من 0.11 درصد احتمال دارد که از یک توزیع معمولی بیایند (با فرض اینکه کد من درست باشد)
تست کد اندرسون-دارلینگ
87834
من مدل‌های مختلط خطی را با استفاده از lme4 انجام می‌دهم و این نتایج مقایسه مدل است: > anova(lmer5,lmer6,lmer32) Df AIC BIC logLik Chisq Chi Df Pr(>Chisq) lmer32 9 43172 43226 -21577 lmer6331921 6.3081 12 0.8998 lmer5 26 43162 43317 -21555 37.9971 5 3.778e-07 *** همانطور که می بینید، نتایج نشان می دهد که یک مدل به طور قابل توجهی بهتر از بقیه است و به طور معمول من مدلی با کوچکترین logLik را انتخاب می کنم. اما در این نتیجه، logLik منفی است. به نظر شما انتخاب مدل از logLik در این مورد ایده خوبی است یا باید آن را از AIC یا BIC انتخاب کنم. از آنجایی که نتیجه‌گیری نمی‌شود که آیا AIC بهتر از BIC است، من گیج هستم که کدام یک را انتخاب کنم. نظر شما چیست؟
اگر لاگ احتمال منفی است، آیا باید آن را انتخاب کنیم؟ - مقایسه مدل
103459
من سعی می کنم بفهمم کدام روش اعتبار سنجی متقاطع برای شرایط من بهترین است. داده‌های زیر فقط نمونه‌ای برای کار کردن با مشکل (در R) هستند، اما داده‌های «X» واقعی من («xmat») با یکدیگر مرتبط هستند و به درجات مختلفی با متغیر «y» («ymat») مرتبط هستند. . من کد R را ارائه کردم، اما سوال من در مورد R نیست بلکه در مورد روش ها است. «Xmat» شامل X متغیرهای V1 تا V100 است در حالی که «ymat» شامل یک متغیر y است. set.seed(1233) xmat <- matrix(sample(-1:1, 20000, replace = TRUE), ncol = 100) colnames(xmat) <- paste(V, 1:100, sep = ) rownames(xmat) <- paste(S, 1:200, sep = ) # داده های واقعی y با xmat ymat <- matrix(rnorm(200, 70,20), ncol = 1) rownames(ymat) <- paste(S, 1:200, sep=) من می خواهم مدلی برای پیش بینی بسازم y بر اساس تمام متغیرهای «xmat». بنابراین یک مدل رگرسیون خطی «y ~ V1 + V2 + V3+ ... + V100» خواهد بود. از یک بررسی، می توانم سه روش اعتبارسنجی متقاطع زیر را ببینم: 1. **داده ها را به نصف تقسیم کنید** و از یکی برای آموزش و از نصف دیگر برای آزمایش استفاده کنید (اعتبار متقابل): prop <- 0.5 # نسبت مجموعه داده های زیر مجموعه .seed(1234) # آموزش مجموعه داده آموزش.s <- نمونه (1:nrow(xmat), round(prop*nrow(xmat),0)) xmat.train <- xmat[training.s,] ymat.train <- ymat[training.s,] # testing مجموعه داده testing.s <- setdiff(1:nrow(xmat), training) xmat.test <- xmat[testing.s, ] ymat.test <- ymat[testing.s,] 2. ** اعتبار سنجی متقاطع K-fold ** \- با استفاده از اعتبار سنجی متقاطع 10 برابری: mydata <- data.frame(ymat, xmat) fit <- lm(ymat ~ ., data=mydata) library(DAAG) cv.lm(df=mydata, fit, m=10) # اعتبارسنجی متقاطع ده برابری 3. **ماسک کردن یک مقدار یا چند مقدار در یک زمان**: در این روش ما به طور تصادفی یک مقدار در مجموعه داده (y) را با جایگزین کردن آن با NA پوشانده و آن را پیش بینی می کنیم. این فرآیند n بار تکرار می شود. n = 500 پیش بینی شده.v <- rep(NA, n) real.v <- rep(NA, n) برای (i در 1:n){ masked.id <- نمونه (1:nrow(xmat)، 1) ymat1 <- ymat real.v[i] <- ymat[masked.id،] ymat1[masked.id،] <- NA mydata <- data.frame(ymat1, xmat) fit <- lm(ymat1 ~ ., data=mydata) predicted.v[i] <- fit$fitted.values[masked.id] } چگونه بفهمم کدام یک برای هر موقعیتی بهترین است ? آیا روش های دیگری وجود دارد؟ اعتبار سنجی بوت استرپ در مقابل «CV»؟ نمونه های کار شده قدردانی می شود.
چگونه می توانم بدانم کدام روش اعتبارسنجی متقابل بهترین است؟
95647
من سه معادله دارم و نمی‌فهمم چرا نقاط را از دست دادم. تمام آنچه گفته شد ساده سازی بود. B^4Yt = c + et (B-0.6B^3)Yt=(2+5B+0.8B^2)et Yt=(1+B^3/B)et
چگونه می توان معادله را بدون استفاده از نشانه گذاری به عقب و با بیان Yt به تنهایی در سمت چپ ساده کرد؟
109381
در مدل های خطی OLS، امتیازات برازش شده (پیش بینی شده) و باقیمانده ها همبستگی ندارند. این تصور را داشتم که در مدل های ترکیبی هم همینطور است. با این حال، من در اینجا یک مدل نمونه دارم که در آن نمرات برازش شده و باقیمانده (شرطی) همبستگی دارند. آیا توجیه نظری برای این اتفاق وجود دارد یا مرجع خوبی برای آن وجود دارد؟ به اطراف نگاه کردم اما چیز زیادی پیدا نکردم. از آزمایش با داده‌ها دریافتم که تخمین واریانس باقیمانده (مثلاً با Rlm4) با مجموع واریانس نمرات باقی‌مانده به اضافه کوواریانس بین امتیازات باقی‌مانده و امتیازات پیش‌بینی‌شده مطابقت دارد. باز هم نتوانستم توضیح نظری پیدا کنم. مثال: > a <-rnorm(100,0,10) > d<-as.data.frame(rbind(cbind(1,1:100,a),cbind(2,1:100,a))) > names(d)<-c('cond','id','a') > d\$y<-d\$a+d\$cond+rnorm(200,0,4) > mm<-lmer(y~(1|id),data=d,REML = F) > خلاصه (mm ) $\ $ مدل مختلط خطی متناسب با حداکثر احتمال ['merModLmerTest'] فرمول: y ~ (1 | id) داده: d AIC BIC logLik انحراف df.resid 1414.2 1424.1 -704.1 1408.2 197 scaled resduals: Min 1Q Median 3Q Max -2.21522 -0.43740 0.05079 0.43243 2.06045 Varidom St. id (Intercept) 108.65 10.423 Residual 18.95 4.353 تعداد obs: 200، گروه ها: id، 100 جلوه های ثابت: Estimate Std. خطای df t مقدار Pr(>|t|) (Intercept) 1.982 1.087 100.000 1.823 0.0712 . --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 cor(پیش‌بینی (میلی‌متر)، باقیمانده‌ها (میلی‌متر)) [1] 0.2725048 با تشکر از هرگونه راهنمایی
همبستگی برازش-باقیمانده در مدل های مختلط
111865
آیا کسی ابزاری را می‌شناسد که بتوانم از آن برای تولید مجموعه‌ای از داده‌ها با همبستگی‌های شناخته‌شده استفاده کنم (و برای قرار دادن روی کیک - خروجی آن در json، csv، txt یا فرمت‌های معمولی)؟ من روی برخی تجسم‌های داده کار می‌کنم و می‌خواهم ارزیابی کنم که کدام یک می‌توانند راحت‌تر به کاربر اجازه دهند تا همبستگی‌ها را ببیند - به صورت بصری.
ابزاری برای تولید مجموعه داده های همبسته
108383
من یک مجموعه داده دارم که در آن هر ردیف اندازه گیری ساعتی فیلدهای خاص (ستون ها) است. سپس برای هر ستون ستون دیگری اضافه می کنم که امتیاز _z_ مربوطه آن نسبت به کل جمعیت است. اگر سپس با محاسبه میانگین کل برای تمام ردیف‌های ادغام شده، ماهانه گروه‌بندی کنم، آیا امتیازات _z_ من هنوز معتبر است یا باید امتیاز _z_ را برای هر ماه دوباره محاسبه کنم؟ **ویرایش** متوجه شدم که در سوالم به اندازه کافی واضح نبودم. من یک مجموعه داده مانند اندازه گیری ساعتی آب و هوا دارم که به چندین سال قبل برمی گردد: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Z8tIR.png) در پاندا I گروه بندی و میانگین هر ساعت مربوطه (بنابراین من میانگین می‌کنم و همه ردیف‌های ۱ ژانویه ۲ بعد از ظهر را در تمام سال‌ها گروه‌بندی می‌کنم... df['hour'] = df['Date'].apply(lambda t: %d-%d-%d % (t.month, t.day, t.hour)) g = np.round(df.groupby('hour').mean(),decimals=4).reset_index () که این را برمی گرداند: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/70Il0.png) سپس دیتافریم گروه بندی شده (g) را در قالب اصلی ادغام می کنم df با اضافه کردن یک ستون برای هر میانگین، فهرست را به تاریخ تنظیم مجدد کنید، و ستون 'ساعت' را از df گروه بندی شده رها کنید: new_df = pd.merge(left=df, right=g, on='hour', پسوندها= ('','_avg') ) new_df.set_index('Date').drop('hour',axis=1,inplace=False).head() این را برمی گرداند: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ zmdYV.png) با این حال، آنچه من می خواهم این است که با استفاده از انحراف استاندارد کل جمعیت، یک ستون z score برای هر ماه/روز/ساعت مربوطه اضافه کنم. من در واقع اکنون مطمئن هستم که چگونه این کار را انجام دهم، اما فکر می کنم شبیه به نحوه محاسبه سایر ستون های _avg باشد. با فرض اینکه همه اینها ممکن است و هر سطر ساعت دارای ستون‌های z-score اضافی برای هر متریک است، این در نهایت من را به سؤال اصلی من می‌رساند... بعداً در خارج از زمینه پایتون/پاندا، فرض کنید فقط یک سال از داده‌ها را می‌گیرم. گروه به ماه، و به طور میانگین جمع آوری کنید. آیا میانگین امتیازات z به تفکیک ماه همچنان نماینده کل جمعیت اصلی خواهد بود؟ به عنوان مثال فرض کنید من میانگین های ژوئن 2011 را گرفتم و متوجه شدم که نمره z دما 1.2 است. آیا می توانم بگویم که میانگین دمای ژوئن 2011 1.2 انحراف استاندارد از میانگین نرمال (کل جمعیت) فاصله داشته است؟
میانگین امتیاز z هنگام انجام یک گروه توسط
95641
من از مدل های مختلف برای مدل سازی داده های شمارش استفاده می کنم، هدف از مدل سازی پیش بینی است. مقادیر از 0 تا 7 متغیر است. من سعی می کنم از روش اعتبار سنجی متقاطع برای ارزیابی عملکرد پیش بینی خارج از نمونه استفاده کنم، اما از چه معیار خطای باید استفاده کنم؟ آیا RMSE کافی است؟ از چه روش های دیگری برای مقایسه و ارزیابی مدل ها می توانم استفاده کنم؟
اعتبارسنجی مدل داده شمارش
35368
من یک سری زمانی با مشاهدات دارم که به صورت شبه دو هفته‌ای در طول چندین سال جمع‌آوری شده‌اند. با این حال، بین 23 تا 26 مشاهده در سال وجود دارد. سری زمانی به دلیل آب و هوای بد یا تعطیلات که در آن نمونه‌گیری صورت نگرفته است فاصله یکسانی ندارد. آیا میانگین گیری این مشاهدات برای بدست آوردن فرکانس قابل استفاده در یک شی سری زمانی R مشروع است؟ برای نشان دادن، در اینجا چند کد (سری زمانی مقادیر pH در آب باران): داده <- read.table(http://dl.dropbox.com/u/2108381/Data.txt) Data.col <- data.frame (زمان = داده[1:122،1]، مقدار = داده[123:244،1]) شماره داده <- as.numeric(Data.col$Value) pH.TimeSeries <- ts(Dat.num، start = c(2006,2)، فرکانس = 24.4) pH.decomp <- decompose(pH.TimeSeries) نمودار(pH.decomp ) آیا می توان اینگونه به تحلیل سری های زمانی نزدیک شد؟ آیا می توانم تجزیه را اینگونه انجام دهم؟ و آیا می توان میانگین فرکانس ها را در طول سال ها محاسبه کرد؟ نمودارهای تجزیه منطقی هستند زیرا در تابستان پیک فصلی و روند صعودی pH وجود دارد. هر گونه پاسخ مستقیم به این چالش یا پیوند به سایر وب سایت ها / پست ها بسیار قدردانی می شود. مقداری گوگل فو از طرف من فایده ای نداشت. لطفا اگر راه هایی برای بهبود این سوال وجود دارد به من اطلاع دهید. با تشکر از وقت شما!
آیا می توان به طور متوسط ​​فرکانس های سالانه را برای منظم کردن یک سری زمانی تعیین کرد؟
23427
من با مفهوم HMM ها تازه کار هستم. من 2 HMM را جداگانه آموزش داده ام. HMM1 با نمادهای A، B، C آموزش داده می شود. HMM2 با نمادهای D، E، F آموزش داده می شود. من مجموعه ای از نمادهای مشاهده در مجموعه V={A,B,C,D,E,F} دارم. در مرحله آزمایش، با تلاش برای مرتبط کردن یک بردار آزمایشی به یکی از نمادهای V (**استفاده از فاصله اقلیدسی تا مراکز خوشه**) یک نماد استخراج می کنم. ** چگونه می توانم احتمال ورود به سیستم یک دنباله مشاهده A، B، C،... را تعیین کنم اگر آن HMM فقط با نمادهای D، E، F...** آموزش داده شده باشد؟ یا اینکه **loglihood** در این مورد تعریف نشده است؟ آیا لازم است که نمادهای مشاهده ای بین HMM های مختلف به اشتراک گذاشته شوند؟ یعنی از مجموعه نمادهای مشاهدات رایج **V** انتخاب شده است؟ لطفا به من کمک کنید بفهمم چه اشتباهی انجام می دهم؟
طبقه بندی نمادهای مشاهده در HMM؟
76948
حداقل تعداد نقاط داده مورد نیاز برای تخمین چگالی هسته که غیر گمراه کننده/قابل قبول/کافی تلقی شود چقدر است؟ آیا قاعده ای بر اساس پراکندگی داده ها وجود دارد؟ به عنوان مثال، اگر محدوده بین چارکی به اندازه کافی کوچک باشد، آیا به امتیاز کمتری نسبت به زمانی که محدوده بین چارکی بزرگتر باشد نیاز دارید؟ از طرف دیگر، ممکن است با موقعیتی مواجه شده باشید که اندازه معینی از مجموعه داده «کافی» یا «کافی نیست» و می‌توانید دلایل کارکرد/عدم کارکرد KDE در آن مورد خاص را به اشتراک بگذارید؟ معیارهای ارزیابی دقت: اگر دو نمونه از یک جامعه داشته باشید و روی هر کدام یک KDE انجام دهید، آنگاه دو چگالی حاصل بسیار شبیه به هم هستند.
حداقل تعداد نقاط داده مورد نیاز برای تخمین چگالی هسته چقدر است؟
109038
من مطالعه ای را انجام دادم که به بررسی پاسخ های MEG (EEG با آهنربا) در محدوده باند گاما (30 تا 50 هرتز) در چند روز پرداخت. داده‌های زیر زمان‌بندی پاسخ اولیه در آن محدوده (در ثانیه)، در یک ماتریس n(موضوع)*m(ارایه‌دهندگان (در موارد مختلف)) ماتریس 0.1025 0.068333333 0.088333333 0.15 0.06 0.15 0.063330.069 0.069 0.083333333 0.080833333 0.075 0.14 0.15 0.133333333 0.1425 0 وقتی از بسته «irr» استفاده می‌کنم، و سعی می‌کنم از یک ICC(3,k) استفاده کنم [به نام «iccresult<-ic» دو طرفه، توافق، متوسط)`]، من یک مقدار ICC (`iccresult$value`) 6.921847 دریافت می کنم. اکنون معمولاً وقتی چیزهایی را می‌شکنم، خودم می‌توانم آن را بفهمم، اما به نظر می‌رسد این یکی در زمینه‌ای است که من تخصص ندارم. هر ایده ای؟
بسته 'irr' R که مقادیر ICC را خارج از 0 - 1 می دهد
111040
# سوال من می خواهم یک رگرسیون لجستیک انجام دهم که در آن متغیرهای مستقل با میانگین logit مقایسه شوند، نه اینکه logit با یک گروه مرجع خاص مقایسه شود. # مثال مثال زیر نشان می دهد که لوجیت am==1 با کربوهیدرات==1 (گروه مرجع) مقایسه می شود: glm( am==1 ~ فاکتور(کربوهیدرات)، داده = mtcars، خانواده = دوجمله ای ممکن است (و آیا منطقی است؟) به جای مقایسه آن با کربوهیدرات ==1، logit am==1 را با میانگین logit مقایسه کنید، امیدوارم این منطقی باشد :)
رگرسیون لجستیک: تلاش برای استفاده از لاجیت میانگین به عنوان گروه مرجع
87838
نزول گرادیان تصادفی (برای رگرسیون): $\theta = 0 $ $ \text{به طور تصادفی } t \in [1,n]\\{\\\ \quad \theta^{(k+1)} انتخاب کنید تتا^{k} + \eta_{k}(y^{(t)} - ​​\theta \cdot x^{(t)})x^{(t)}\\\ \\}$ من چند یادداشت را دنبال می‌کردم و می‌گفتم که برای همگرا بودن شیب نزولی تصادفی، کافی است نرخ یادگیری را روی: $$\eta_{k} = \frac{1}{k+1}$$ تنظیم کنیم. من معمولاً تلاش‌هایم را برای یک سؤال پست می‌کنم، اما صادقانه بگویم نمی‌دانم چگونه ثابت کنم که تنظیم آن مقدار باعث همگرایی شیب نزولی تصادفی می‌شود. اگر کسی اثباتی را بداند بسیار عالی خواهد بود! همچنین پاسخی که حاوی یک برهان باشد، حتی اگر برای یک مورد خاص باشد، مثلاً «تابع محدب» یا در مورد رگرسیون خطی یا هر مورد دیگری، اما بینش (یا اثبات) را ارائه می‌کند که چرا این نتیجه برای موارد مختلف برقرار است. تنظیم نزول گرادیان تصادفی، پاسخ خوبی خواهد بود! من می‌دانم که یافتن راه‌حل‌های حداقل جهانی به هر حال واقعاً سخت است، بنابراین اگر پاسخ شما حاوی یک اثبات/استدلال خوب باشد و/یا اگر حاوی مثالی در یادگیری ماشین باشد، محدود کردن پاسخ شما مشکلی ندارد. همچنین، اگر اثبات را به خاطر نمی آورید، اما در عوض شاید شهود خوبی در مورد اینکه چرا آن مقدار برای نزول گرادیان تصادفی خوب است، دارید، این نیز برای من پاسخ بسیار مفیدی خواهد بود! :) پیشاپیش متشکرم!
نحوه تنظیم اندازه گام برای نزول گرادیان تصادفی به گونه ای که قابل اثبات آن همگرا شود
79276
من یک رگرسیون OLS از کمک های مالی افراد به یک سازمان غیرانتفاعی انجام می دهم. مبلغ اهدایی متغیر وابسته و متغیرهای ساختگی (درمان) تنها متغیرهای مستقل هستند. متغیر درمان تغییریافته معنی‌دار است (سطح 5%)، اما وقتی گزارشی از مقدار اهدا (نه درمان) می‌گیرم، متغیرهای درمان بسیار ناچیز می‌شوند. آیا این یک مشکل پرت را نشان می دهد و نباید برای تفسیر داده ها استفاده شود؟
اگر یک تبدیل ورود به سیستم اهمیت را در رگرسیون از بین ببرد چه؟
76946
من سعی می کنم یک تجزیه و تحلیل قدرت پس از آن را بر روی گزارشی که قبلا منتشر شده است اجرا کنم. هدف این است که میانگین توان به دست آمده برای (معادل) اثرات کوهن d = 0.20، 0.50، 0.80) برای همه اثرات اصلی و تضادها محاسبه شود. طرح مطالعه به شرح زیر است: N = 240، اندازه گیری های مکرر مخلوط (تقسیم پلات) 2x4 (x4) ANOVA. برای ساده تر، دو عامل اول بین موضوعات هستند. عامل الف (جنسیت) دارای 2 سطح (مذکر، زن) و عامل ب (قومیت) دارای 4 سطح در مجموع 8 گروه آزمایشی است. گروه ها با n = 30 در کوچکترین واحد مشاهده متعادل می شوند. هر یک از 8 گروه یک کار را در 4 شرایط مختلف انجام می دهند. هیچ اطلاعاتی در مورد میزان همبستگی پاسخ ها ارائه نشده است. خیلی سرراست امیدوارم چیزی از قلم نینداخته باشم من می توانم از STATA، GPower یا سایر منابع آنلاین برای محاسبه توان برای ANOVA اندازه گیری های تکراری یک و دو طرفه استفاده کنم، اما راهی برای انجام این طراحی خاص پیدا نکردم. آیا کسی در پیکربندی R، نحو STATA، یا برخی دیگر از وودو برای محاسبه قدرت این طراحی موفق بوده است؟
تجزیه و تحلیل توان برای اندازه گیری های مکرر ANOVA
101586
فرض کنید یک تابع همبستگی معتبر روی $R^2$ داشته باشید که به فاصله بستگی دارد. به عنوان مثال اگر فاصله بین دو نقطه $h$ باشد، تابع همبستگی می تواند $\exp(-\phi h)$ باشد که در آن $\phi$ یک پارامتر است. حال اگر به جای $R^2$ روی یک استوانه باشیم: $R \times D$ که در آن $D$ یک دایره است. سوال من این است: تابع همبستگی بر اساس فاصله دوباره یک تابع همبستگی معتبر روی سیلندر است؟ یا شاید این سوال را می توان به روش دیگری بیان کرد: چگونه می توانم ثابت کنم که یک تابع همبستگی در یک فضای عمومی یک تابع همبستگی معتبر است؟
یک تابع همبستگی معتبر در $R^2$ (یک صفحه) همچنین یک تابع همبستگی معتبر در یک استوانه است
25911
آیا این فرمول درست است؟ $$\renewcommand{\Pr}{\mathbb P}\Pr[\cap_{i=1}^n A_i] = \sum_{i=1}^d (-1)^{i-1} \sum_{ |K|=k} \Pr[\cup_{k\in K} A_k]، $$ با $K$ یک زیر مجموعه (بدون تکرار) $\\{1، ...، n\\}$. من یک فرمول مشابه پیدا کرده‌ام که $\Pr[\cup_{i=1}^n A_i]$ را برحسب $\Pr[\cap_{k\in K} A_k]$ بیان می‌کند و من می‌خواهم این باشد مطمئناً فرمول دیگر را به خوبی به دست آورده ام.
اصل احتمال شمول – طرد
25912
من می‌خواهم یک تابع واریانس چند متغیره را در R تخمین بزنم. یعنی می‌خواهم به واریانس (و همچنین میانگین) اجازه دهم که بر اساس مجموعه‌ای از متغیرهای مستقل تغییر کند. در این مورد خاص، من می‌خواهم اثرات مجموعه‌ای از متغیرهای مشترک جمعیتی (سن، نژاد، تحصیلات) را بر واریانس دستمزدهای ثبت‌شده تخمین بزنم. راه خوبی برای پیاده سازی این در R چیست؟ آیا بسته ای وجود دارد که این کار را ساده کند؟ ممکن است این فقط یک جستجو باشد - اما با جستجو در صفحات راهنما R، Google، Rseek، و StackOverflow، نمی‌توانم چیزی مرتبط با عملکرد واریانس یا موارد مشابه پیدا کنم. هر گونه پیشنهاد با تشکر دریافت شد. * * * از پاسخ های شما متشکرم -- سعی می کنم سوالم را روشن کنم. من در چارچوب حداکثر احتمال کار می کنم. من می‌توانم این را با دست از log-likelihood کدنویسی کنم، اما مجموعه داده‌های واقعی دارای مقدار زیادی متغیر است و بهینه بسیار کند است، بنابراین می‌خواهم بسته‌ای در R پیدا کنم که این کار را از نظر محاسباتی کارآمدتر کند. من با احتمال log برای یک رگرسیون اولیه OLS شروع می کنم: $$ \text{ln }L = \sum (-\frac{1}{2} (\text{ln }\sigma^2 - \frac{(y - xB)^2}{\sigma^2})) $$ سپس فرض واریانس ثابت (هماهنگی) را راحت می‌کنم و واریانس را به صورت زیر تعریف می‌کنم: $$ \sigma^2 = exp(Z*\gamma) $$ که در آن $Z$ ماتریس متغیرهای موثر بر $\sigma^2$ است. (تصویر کنید تا در نهایت با $\sigma^2$ کمتر از صفر نشوید.) وقتی پارامتر مجدد $\sigma^2$ را به log-likelihood اصلی جایگزین می کنم و تابع log-likelihood جدید را در R کد می کنم. ، من این را دریافت می کنم: ll.normal.vary <- تابع (par، X، Y، Z) {بتا <-par[1:ncol(X)] گاما <- par[(ncol(X)+1):(ncol(X)+ncol(Z))] -1/2* مجموع((Z %*% گاما) + ((Y - X %*% بتا)^2 )/exp(Z %*% گاما)) } سپس بهینه سازی می کنم: v.optim1 <- optim (par = start1, fn=ll.normal.vary, X=x.mat, Y=y.vec, Z=z.mat، روش = BFGS، hessian = F، control = list(fnscale = -1)) v.optim1$par v.optim1$value در اینجا چند داده نمونه وجود دارد که می خواهید آن را آزمایش کنید: var1 < - c(0،0،0،1،1،0) var2 <- c(.28، 0.07، -.05، 0.38، 0.08، -.1) var3 <- c(-.11، -.17، -.17، -.05، 0.1، -.01) x.mat <- cbind(var1، var2، var3) y.vec <- c(.46، 0.77 , 0.49، 0.59، 0.60، 0.44) z.mat <- cbind(var1، var2) start1 <- rep(0.1، ncol(x.mat)+ncol(z.mat)) مجدداً برای راهنمایی‌ها متشکرم.
چگونه یک تابع واریانس را در R پیاده سازی کنیم؟
77095
من مجموعه ای از توزیع ها (هیستوگرام) مربوط به داده های نمونه برداری شده از دو جمعیت مختلف را دارم. در هر جمعیت توزیع $n=15$ دارم. من به دنبال یک آزمون آماری هستم که به من بگوید آیا این دو جامعه از نظر آماری متفاوت هستند یا نه، بر اساس توزیع های درون آنها. به نظر می رسد اکثر تست هایی که من به آنها نگاه کرده ام (مانند Mann-Whitney U، Wilcoxon) دو نمونه را با هم مقایسه می کنند. با این حال، از آنجایی که من 15 نمونه در هر جامعه دارم، در مورد اینکه آیا این آزمایش ها را می توان در این نمونه اعمال کرد یا خیر سردرگم هستم. آیا می توان داده ها را به گونه ای جمع کرد که برای هر جمعیت یک توزیع انبوه داشته باشم، سپس آزمایشی را روی نتیجه اجرا کنم؟ **ویرایش** در اینجا منتخبی از 5 توزیع (هیستوگرام) از هر جمعیت است که بر روی همان محورها ترسیم شده است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/EwQEU.png) I می خواهم بدانم که آیا تفاوت آماری بین مجموعه های (سیاه و نارنجی) توزیع ها وجود دارد یا خیر.
آزمون فرضیه برای توزیع های چندگانه
23426
بهترین راه برای انتخاب خودکار ویژگی ها برای تشخیص ناهنجاری چیست؟ من معمولاً تشخیص ناهنجاری را به‌عنوان الگوریتمی در نظر می‌گیرم که در آن ویژگی‌ها توسط متخصصان انسانی انتخاب می‌شوند: آنچه که اهمیت دارد، محدوده خروجی است (مانند «ورودی غیرعادی - خروجی غیرعادی») بنابراین حتی با بسیاری از ویژگی‌ها، می‌توانید با ترکیب کردن زیرمجموعه‌ای بسیار کوچک‌تر به دست آورید. ویژگی ها با این حال، با فرض اینکه در حالت کلی یک لیست ویژگی می تواند بزرگ باشد، شاید یادگیری خودکار گاهی اوقات ارجح باشد. تا آنجا که من می بینم، تلاش هایی وجود دارد: * _انتخاب ویژگی خودکار برای تشخیص ناهنجاری_ (pdf) که توصیف داده های بردار پشتیبانی را تعمیم می دهد * _یک سیستم تشخیص نفوذ سریع مبتنی بر میزبان با استفاده از نظریه مجموعه های خشن_ ( هیچ pdf موجود نیست؟) که، حدس می‌زنم، از نظریه مجموعه‌های خشن استفاده می‌کند * _قوانین یادگیری برای تشخیص ناهنجاری شبکه متخاصم ترافیک_ (pdf، ویدئو) که از رویکرد آماری استفاده می کند. بنابراین اکنون نمی دانم که آیا کسی می تواند بگوید - با فرض تشخیص ناهنجاری و مجموعه ویژگی های واقعاً بزرگ (صدها؟): 1. آیا اصلاً این مجموعه ویژگی های عظیم منطقی هستند؟ آیا نباید فقط تنظیم ویژگی را تا مثلاً چند ده کاهش دهیم و تمام؟ 2. اگر مجموعه ویژگی های عظیم منطقی باشد، کدام یک از رویکردهای بالا پیش بینی های بهتری را ارائه می دهد و چرا؟ آیا چیزی لیست نشده است که بسیار بهتر است؟ 3. چرا آنها باید نتایج بهتری را در مقایسه با کاهش ابعاد یا ساخت ویژگی از طریق خوشه‌بندی/رتبه‌بندی/غیره ارائه دهند؟
انتخاب ویژگی خودکار برای تشخیص ناهنجاری
101585
یک نظرسنجی (پیش و پست) در چهار سوال با مقیاس لیکرت انجام داد. بر اساس تعداد پاسخ‌های موافق و کاملاً موافق قبل و بعد از مداخله، بهبود نسبی محاسبه شد. می خواهم بدانم آیا این بهبود نسبی از نظر آماری معنی دار است یا خیر؟ چه آزمایشی باید انجام دهم؟
برای مشاهده اینکه آیا در مطالعه قبل از مداخله بهبود قابل توجهی از نظر آماری وجود دارد از چه آزمون هایی استفاده می شود؟
87830
من چند کار طبقه بندی را با ماشین های بردار پشتیبانی (SVM) انجام می دهم. من از libSVM (با پشتیبانی Matlab) برای پیش‌بینی ماتریس تخمین‌های احتمال استفاده می‌کنم. با این حال، libSVM پیامی را نشان می دهد که؛ مدل از برآوردهای احتمالی پشتیبانی نمی کند در زیر کد نمونه من آمده است. (train_label شامل برچسب هایی برای داده های آموزشی و test_label حاوی برچسب برای داده های آزمایشی است) model = svmtrain(train_label, train_data, '-t 2 -g .01 -c 0.7 -b 1); [y,accuracy,prob_estimates]=svmpredict(test_label,test_data,model,'-b 1'); آیا کسی می تواند به من بگوید که آیا مشکلی در نحوه انجام آن وجود دارد؟ هر گونه کمک / پیشنهاد قدردانی خواهد شد.
مدل SVM از برآوردهای احتمالی پشتیبانی نمی کند؟
103987
من سعی می کنم در مورد نویز، چگالی طیفی توان (PSD) و واریانس های آماری بیشتر بیاموزم. با توجه به این موضوع، من سعی می کنم چگالی طیفی توان نویز سفید را محاسبه کنم. با این حال، وقتی این کار را انجام می دهم، تقارن بسیار عجیبی پیدا می کنم. به نظر می رسد طیف من حول مقدار فرکانس مرکزی متقارن است، که آشکارا نادرست است. من در استفاده از همبستگی خودکار و چگالی طیفی توان تازه کار هستم، بنابراین اگر کسی بتواند مرا در جهت خطا راهنمایی کند ممنون می شوم. کد برای محاسبه PSD: وارد کردن numpy به عنوان np از ریاضی واردات sin، pi، log10 از allan_noise واردات سفید، صورتی، قهوه‌ای، بنفش واردات acor واردات numpy به عنوان np #روش اول: روش تابع همبستگی خودکار def psd1 (زمان_داده‌ها): #auto_corr = a .function(time_dats) auto_corr = np.correlate(time_dats,time_dats,mode=same) #برای بررسی همبستگی خودکار برای i در محدوده(len(auto_corr)): print i*.0000001 ,auto_corr[i] بازگشت fft(auto_corr) #تعریف متغیرها t = . 0001 #زمان شبیه سازی N = 100000 #تعداد نقاط داده dt = t/N #فاصله زمانی بین نقاط داده #CREATE SIGNAL sig = سفید(N) df = 1.0/(t) freq_axis = np.arange(0,N/t,df) spec = psd1(sig) #OPEN UP OUTPUT FILE f = open('data/psdtest_f','w') g = open('data/psdtest_t','w') #PRINT OUT DATA برای i در محدوده(N): f.write('%g %g\n' %(freq_axis[i],log10(abs(spec[i ])))) g.write('%g %g\n' %(i*dt, sig[i])) با استفاده از این کد نمودارهای زیر را تولید می کنم: > ![نمایه زمانی نویز قبل از > محاسبات](http://i.stack.imgur.com/C9PRR.png) ![عملکرد همبستگی خودکار > محاسبه شده از نمایه زمانی \(من می دانم که مقیاس محور x اشتباه است > اما این در هیچ کجای دیگر به کد کمک نمی کند](http://i.stack.imgur.com/1Brsv.png) ![Power Spectral Denisty، > به زیبایی متقارن، اگرچه قرار نیست > باشد] (http://i.stack.imgur.com/am5H7.png) هر کمکی که هر کسی می تواند در مورد اینکه چه چیزی باعث این تقارن شده است بسیار مفید خواهد بود. من کد را با یک سیگنال موج سینوسی ساده آزمایش کردم و نتایج مورد انتظار را دریافت کردم: یک پیک منفرد (بدون تقارن). می دانم که باید از نویز سفید انتظار چگالی طیفی توان مسطح (غیر متقارن) داشته باشم.
تقارن غیر قابل توضیح هنگام محاسبه چگالی طیفی توان نویز سفید
109037
من مجموعه داده ای از یک کارآزمایی بالینی دارم که برای آن همه بیماران سرطانی رادیوتراپی دریافت کردند، اما در زمان های مختلف پس از برداشتن تومور با جراحی. بنابراین ساده تر، من یک متغیر، زمان رادیوتراپی دارم، و می خواهم رابطه آن را با بقا بررسی کنم. کاری که فکر می کنم برای تجزیه و تحلیل باید انجام دهم این است که داده های خود را به یک جدول فرآیند شمارش تبدیل کنم: به عنوان مثال. زمان (m) وضعیت زمان رادیوتراپی بیمار 1 27 1 1.2 تبدیل می شود: شروع توقف وضعیت رادیوتراپی تحویل بیمار1 0 1.2 0 0 بیمار1 1.2 27 1 1 مشکل مفهومی من این است که همه بیماران رادیوتراپی دریافت کرده اند، بنابراین دو گروه وجود ندارد برای مقایسه از طرف دیگر، از آنجایی که هیچ بیماری قبل از شروع پرتودرمانی عود نکرده است، آیا بهتر است زمان رادیوتراپی را به عنوان نقطه عطف تعیین کنم و میزان بقا را از آنجا محاسبه کنم؟ البته، این از ارزیابی من جلوگیری می کند که آیا تأخیر رادیوتراپی بر نتیجه بیماری تأثیر می گذارد یا خیر. آیا مردم می توانند در مورد استراتژی مناسب برای این نوع داده ها راهنمایی کنند؟ همچنین شایان ذکر است که رادیوتراپی معمولاً 1 ماه پس از جراحی انجام می شود و میانگین بقای بیش از 60 ماه است، بنابراین نسبت بقای قبل از رادیوتراپی به بعد از رادیوتراپی کم است.
اضافه کردن زمان قبل از شروع پرتودرمانی به مدل کاکس
109033
من روی یک پروژه تحقیقاتی کار می کنم که برخی اطلاعات اختصاصی برای آن وجود دارد که نمی توانم در اینجا ارائه کنم. با این حال، تمام تلاشم را می‌کنم تا تا جایی که می‌توانم اطلاعات بیشتری ارائه دهم. در این پروژه یک فاکتوریل کامل با دو متغیر مستقل عددی تمرکز (3 سطح) و زمان (4 سطح) انجام دادیم. متغیر وابسته تنها با دو نتیجه ممکن (بله/خیر) مقوله ای است. فاکتوریل کامل بر روی 10 گروه مجزا از اشیا با تعداد تکرارهای متفاوت برای هر ترکیب غلظت/زمان در هر گروه انجام شد. ما انتظار داریم 10 گروه متمایز از داده ها دارای تنوع آماری معنی داری در متغیر وابسته باشند. من برخی از کلاس های آماری اولیه را گذرانده ام، اما در یافتن آزمون/مدل مناسب با این شرایط مشکل دارم. بهترین راه برای تجزیه و تحلیل این داده ها برای سؤالات زیر چیست: * کدام عوامل (تمرکز، زمان، بلوک) مهم هستند / مهم ترین؟ * برای محدوده مقادیر آزمایش شده، ترکیب غلظت/زمان بهینه پیش بینی شده (بیشینه سازی درصد پاسخ های بله) چیست؟ لطفاً به من اطلاع دهید که آیا می توانم اطلاعات بیشتری برای روشن کردن آزمایش یا آنچه به آن علاقه دارم ارائه دهم.
تجزیه و تحلیل فاکتوریل کامل با متغیر وابسته طبقه بندی و مسدود کننده؟
23429
هنگام انجام پردازش زبان طبیعی، می توان یک پیکره را برداشت و احتمال وقوع کلمه بعدی را در دنباله ای از n ارزیابی کرد. n معمولاً 2 یا 3 (بیگرام و سه گرام) انتخاب می شود. آیا نقطه مشخصی وجود دارد که در آن ردیابی داده ها برای زنجیره n با توجه به مدت زمانی که طول می کشد تا یک مجموعه خاص یک بار در آن سطح طبقه بندی شود، معکوس شود؟ یا با توجه به زمان لازم برای جستجوی احتمالات از یک فرهنگ لغت (ساختار داده)؟
در چه n n گرم معکوس می شود؟
87839
یک نظرسنجی نشان داد که 70 درصد از اساتید کالج معتقدند که دوره های آموزش آنلاین آنها به خوبی یا برتر از دوره هایی است که از آموزش های سنتی حضوری استفاده می کنند. فرضیه صفر چیست؟
فرضیه صفر
86347
من یک رگرسیون لجستیک را با حجم نمونه کوچک اجرا می‌کنم: پس از بررسی خطای استاندارد (1.07) و فاصله اطمینان (0.51 - 11.55) برای یکی از متغیرهایم، داده‌هایم را برای مقادیر پرت تصحیح کردم. کسانی که فاصله پخت > 1 و DFBeta > 1 داشتند حذف شدند که منجر به خطای استاندارد حتی بالاتر (2.15) و فاصله اطمینان (0.15 - 676.20) شد. من فرض می کنم این اتفاق به دلیل حجم نمونه کوچک است. آیا درست است که آنهایی را که قبلاً حذف شده بودند، با وجود اینکه تا این حد بر رگرسیون تأثیر می گذارند، درج کنیم؟ استدلال من برای آن مرحله چگونه خواهد بود؟
تصحیح داده ها کیفیت نتایج را کاهش می دهد
87833
من علاقه مند به یافتن عباراتی برای توزیع های حاشیه ای عبارت های خارج از مورب در یک متغیر تصادفی توزیع شده توسط Wishart هستم. به طور خاص، فرض کنید $X$ یک ماتریس $n \times p$ است، که هر ردیف آن به طور مستقل از یک توزیع نرمال $p$-variate با میانگین صفر ترسیم شده است: $X_{(i)}{=}(x_i^ 1,\dots,x_i^p)^T\sim N_p(0,V)$. سپس $S=X^T X$ یک متغیر تصادفی توزیع شده توسط Wishart است که $S\sim W_p(V,n)$ را نشان می‌دهد. عباراتی برای توزیع های حاشیه ای عبارت های مورب، $S_{i,i}$ وجود دارد (به عنوان مثال، صفحه 4، نقطه گلوله سوم در این سند). اما من نتوانستم عبارات مشابهی را برای توزیع‌های حاشیه‌ای خارج از مورب، $S_{i,j}$، جایی که $i \neq j$ پیدا کنم. آیا آنها وجود دارند و اگر چنین هستند، چه هستند؟
توزیع های حاشیه ای عبارت های خارج از مورب در یک متغیر تصادفی توزیع شده توسط Wishart
92670
وقتی صحبت از رگرسیون لجستیک به میان می‌آید، کاملاً تازه کار هستم و به نظر می‌رسد که کاملاً از مفهوم باقیمانده‌های انحراف آگاه نیستم. آیا کسی می تواند به من در تفسیر این طرح کمک کند؟ تا آنجا که من می دانم این مقادیر باقیمانده باید در امتداد رهگیری قرار گیرند. ![std_deviance_residuals](http://i.stack.imgur.com/cicv5.png) همه متغیرهای کمکی از نظر آماری معنادار هستند.
باقیمانده های انحرافی
96763
کاری به من محول شده است که باید یک پرونده تجاری را حل کنم. اجازه دهید توضیح دهم که به دنبال چه اطلاعاتی هستم: من داده های تاریخی چندین محصول را دارم و باید زمان مورد نیاز برای فروش را برای مقدار مشخصی پیش بینی کنم. به عنوان مثال: اگر گردش مالی 5,000,000.00 یورو و هزینه یک تلویزیون مجزا 3000 یورو باشد، باید تعداد قطعات تلویزیون را که می تواند تا 5,000,000.00 یورو (در این مورد 16667 تلویزیون) و دوره زمانی را پیش بینی/پیش بینی کنم. برای فروش این تلویزیون ها مورد نیاز است. به همین ترتیب هر محصول در یک گروه دارای روند متفاوت و عوامل متعددی است مانند فصل ها و غیره من در حال حاضر به دنبال یک مدل پیش بینی هستم که مورد زیر را حل کند یا هر مدلی که می تواند به حل این مورد نزدیکتر باشد. من قبلاً در مورد سری های زمانی و هموارسازی نمایی از https://www.otexts.org/fpp/1 توسط راب جی هایندمن می خوانم. من مدل‌ها را درک می‌کنم، اما تعداد زیادی از این مدل‌ها وجود دارد و من باید بهترین آن‌ها را پیدا کنم که مناسب مورد تجاری من است. من هیچ ایده ای در مورد راه های رویکرد برای حل این موضوع ندارم. هر گونه پیشنهاد یا نکات بسیار قدردانی خواهد شد. با تشکر
پیشنهادات - مدل های پیش بینی
86343
من یک سوال در مورد برازش مدل glm داده های من دارم. شکل توزیع احتمالاً از توزیع پواسون پیروی می کند، اما متغیر پاسخ تعداد/نرخ نیست، بلکه اعشار پیوسته با هر دو مقدار منفی مثبت است (همانطور که در زیر نشان داده شده است). ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/yt95b.jpg) فقط چند نوع خانواده برای انتخاب در glm(): binomial(link = logit) gaussian وجود دارد (پیوند = هویت) گاما (پیوند = معکوس) inverse.gaussian(پیوند = 1/mu^2) poisson(پیوند = log) شبه (پیوند = هویت، واریانس = ثابت) quasibinomial(link = logit) quasipoisson(link = log) لطفاً می‌توانید چند پیشنهاد به من بدهید که کدام یک باید برای مورد من مناسب‌تر باشد؟ پیشاپیش از توجه و کمک شما متشکرم! بهترین LE
توزیع داده ها
101589
من یک مجموعه داده دارم که در آن علاقه مند به محاسبه شیب برای هر مشاهده / ردیف هستم. من متغیر وابسته $Y$ دارم که پیوسته است. هر $Y$ منحصر به یک کد پستی است. و متغیرهای مستقل / پیش‌بینی‌کننده من در طول زمان برای هر $Y$ اندازه‌گیری می‌شوند، مثلاً $x_1$ تا $x_{20}$. من به دنبال یک شیب برای هر $Y$ برای هر کد پستی برای هر ردیف هستم. مطمئن نیستم که بتوانم این کار را با رگرسیون خطی انجام دهم، زیرا فقط یک مشاهده برای $y$ دارم. من نمی توانم $x_1$ را به $x_{20}$ متوسط ​​کنم، زیرا اطلاعات را در شیب از دست خواهم داد. هدف اینجا اندازه‌گیری تغییر در $x$ ($x_1$ به $x_{20}$) در $Y$ است، و از آنجایی که $x_1$ تا $x_{20}$ در طول زمان اندازه‌گیری می‌شود، من دوست دارم شیب را حفظ کنم. اطلاعات و صرفاً میانگین نگیرید. من سعی می کنم به این سوال پاسخ دهم که تغییر در $x$ در یک کد پستی با مقدار $Y$ چقدر شدید است.
شیب های فردی برای بسیاری از کدهای پستی در طول زمان
73539
من می خواهم دو مدل خطی را با هم مقایسه کنم. «lm3» مدل کامل است، «lm4» مدل محدود است. lm3 <- lm(قمار ~ جنس + وضعیت + درآمد + شفاهی، داده = teengamb) lm4 <- lm(قمار ~ درآمد، داده = teengamb) ** ابتدا **، می خواهم از آزمون F برای تعیین مدل استفاده کنم (کامل یا محدود) بهتر است. آیا این رویکرد درست است؟ anova(lm3، lm4) مقدار p نشان می دهد که مدل کامل بهتر است. **دوم **، من می خواهم از بوت استرپینگ و فواصل اطمینان برای تعیین اینکه آیا مدل کامل به طور قابل توجهی بهتر است استفاده کنم. با این حال، من مطمئن نیستم که چگونه در مورد این روش بوت استرپینگ اقدام کنم. من در درک مفهوم پشت کاری که قرار است انجام دهم مشکل دارم.
R - استفاده از و F تست و بوت استرپ برای تست محدودیت های خطی متعدد
96765
من یک مجموعه داده ناقص دارم و تنظیمات پیش فرض در Eviews حذف لیست است. اجرای رگرسیون من (پسرفت یک متغیر پیوسته روی 22 رگرسیور متغیر ساختگی، متأسفانه هیچ داده ای برای استفاده از یک متغیر پیوسته به عنوان رگرسیور وجود ندارد) با OLS و تنظیمات پیش فرض دقیقاً ضرایبی را به دست می دهد که اجرای رگرسیون من با استفاده از FIML، اما خطاهای استاندارد متفاوت است. آیا همیشه اینطور است یا این فقط یک مورد بسیار خاص است که نشان دهنده استحکام برآوردهای من است؟
ضرایب یکسان برای OLS و اطلاعات کامل حداکثر احتمال
109382
این یک سوال بسیار اساسی در مورد اعتبار سنجی متقابل است. بگویید که من یک نمونه 2901 (یا هر عددی که تقسیم آن دشوار است) دارم. چگونه می توانم این را به پارتیشن های **برابر** (غیر از n=1) تقسیم کنم؟ و هر پارتیشن را چقدر باید بزرگ کنم؟ به عنوان مثال، اگر اندازه هر پارتیشن را 300 کنم (که تقریباً 10 پارتیشن به من می دهد)، نقاط داده ای خواهم داشت که در بیش از یک پارتیشن قرار دارند و وزن ناعادلانه ای به آن می دهد. آیا این قابل قبول است/مردم معمولاً در این مورد چه می کنند؟ به هر حال، من می خواستم آن را به پارتیشن های مساوی تقسیم کنم تا بتوانم به راحتی کدی بنویسم که اعتبار متقاطع را برای هر تعداد پارتیشن انجام دهد. زمینه: این قرار است برای SVM استفاده شود
اختصاص پارتیشن های زوج برای اعتبارسنجی متقابل
74543
من در واقع چندان مطمئن نیستم که آیا اینجا جای مناسبی برای پرسیدن سوال است، اما بیایید ببینیم آیا کسی می تواند ایده های جالبی ارائه دهد. من می خواهم یک مدل مالی بسازم که استراتژی خروج یک کسب و کار را توصیف کند. منظور من این است که من می خواهم مدلی بسازم که ورودی های سرمایه مختلف، خروجی های مختلف، نرخ بازده مورد نیاز برای کسب و کار را مدل کند، نتیجه نهایی ارزش خروجی نهایی برای کسب و کار است. لطفاً کسی می تواند مطالعه، هر مدل موجود یا ایده جالبی را پیشنهاد دهد؟ پیشاپیش سپاس فراوان!
مدل مالی استراتژی خروج از کسب و کار
92677
آیا یک چک‌سام یکپارچگی مطلق داده را تضمین می‌کند؟ یعنی، اگر یک قطعه داده به طول چندین گیگابایت در یک بیت تغییر کند، احتمال متفاوت بودن چک‌سوم وجود دارد، به خصوص با توابع هش قوی مانند SHA256؟ با عبارت متفاوت، من می‌پرسم که آیا یک جمع‌بندی چک تضمینی از یکپارچگی معقول ارائه می‌دهد، یعنی ممکن است چند بایت در اینجا و آنجا معمولاً بدون اینکه باعث از کار افتادن یک جمع‌بندی شود (که برای مثال، فایل‌های ویدیویی یا سایر خطاهای تحمل‌پذیر خوب است، از بین برود یا خیر). جریان‌های داده)، یا یک جمع‌بندی صحیح اطمینان حاصل می‌کند که داده‌ها کاملاً دست نخورده هستند؟ به طور خلاصه، آیا یک چک‌سوم _اطمینان_از_صداقت__کافی_، یا _اطمینان_کافی_درستی_مطلق_ را فراهم می‌کند؟
آیا یک جمع کنترل قوی اطمینان معقولی از یکپارچگی مطلق داده ها را فراهم می کند؟
109036
# روش‌ها: از ادبیات یادگیری ماشین، متوجه شدم که پارامترهای مختلف می‌توانند عملکرد مدل را در یادگیری ماشین نشان دهند. من به طور خلاصه درک خود را با ماتریس سردرگمی گسترش می دهم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/f9Bgm.png) (1) **دقت**: نسبت پیش بینی های صحیح را با در نظر گرفتن اندازه گیری می کند ورودی های مثبت و منفی (2) **ویژگی**: نسبت منفی های واقعی را اندازه گیری می کند، یعنی توانایی سیستم در پیش بینی مقادیر صحیح برای مواردی که مخالف مقدار مورد نظر هستند. ** منحنی ROC:** با در نظر گرفتن آستانه های زیاد، می توان مجموعه ای از جفت ها (حساسیت، 1-ویژگی) را محاسبه کرد که می توان آنها را در یک منحنی رسم کرد. این منحنی منحنی ROC برای سیستمی خواهد بود که در آن محور y (ordenade) نشان دهنده حساسیت و محور x (abscissas) مکمل ویژگی (1 - ویژگی) است. **منطقه زیر منحنی ROC (AUC)** \- مساحت منحنی ROC بالاتر، سیستم بهتر است. (3) **حساسیت**: نسبت موارد مثبت واقعی را اندازه گیری می کند، یعنی توانایی سیستم در پیش بینی مقادیر صحیح در موارد ارائه شده. (4) **کارایی**: میانگین حساسیت و ویژگی (5) **ارزش پیش بینی مثبت**: تخمین میزان عملکرد سیستم در هنگام تأیید مثبت - آمار مثبت / کل پیش بینی های مثبت (6) ** ارزش پیش‌بینی منفی**: اندازه‌گیری نشان می‌دهد که سیستم در هنگام ایجاد یک منفی چقدر خوب است. تأیید - آمار منفی / کل پیش‌بینی‌های منفی (7) **ضریب فی (φ)** # داده‌های من متغیر y کمی با بسیاری از متغیرهای کمی x دارم و با معادله رگرسیون لیری مطابقت دارم. هدف در اینجا این است که مقادیر «x» چقدر «y» را پیش‌بینی می‌کنند - به این معنی که انحراف از انتظار در جهت منفی و مثبت خوب نیست. #جمعیت تصادفی 200 نفر با 1000 متغیر M <- ماتریس(rep(0,200*100),200,1000) برای (i در 1:200) { set.seed(i) M[i,] <- ifelse(runif (1000)<0.5،-1،1) } نام ردیف (M) <- 1:200 #تصادفی yvars set.seed(1234) u <- rnorm(1000) g <- as. vector(crossprod(t(M),u)) h2 <- 0.5 set.seed(234) y <- g + rnorm( 200,mean=0,sd=sqrt((1-h2)/h2*var(g))) myd <- data.frame(y=y، M) فرض کنید من می‌خواهم «رج» و «کند» را به این تناسب دهم: require(glmnet) # LASSO fit1=glmnet(M,y, family=gaussian, alpha=1) # Ridge fit1=glmnet(M,y, family=gaussian, alpha=0) # سوال: **_چه معیارهای عملکرد ذکر شده در بالا (یا لیست نشده) در اینجا مرتبط هستند و چگونه می توان من آنها را محاسبه می کنم؟_**
برای چنین مدلی چه معیارهای عملکردی را می توانم محاسبه کنم و چگونه؟
96046
در اعمال یک عبارت جریمه با هنجار $l_1$ یا $l_2$، چرا اولی منجر به انتخاب متغیر می شود اما دومی نه؟
چرا l1 هنجار می تواند منجر به انتخاب متغیر شود اما نه l2
74544
من سعی کردم با استفاده از کد زیر یک منحنی بر روی نقاط سیاه قرار دهم. چرا تناسب اینقدر بد است؟ آیا باید نوع دیگری از عملکرد را متناسب کنم؟ برازش <- nls(grad ~ theta1/(1 + exp(-(theta2 + theta3*x1)))، start=list(theta1 = 4، theta2 = 0.09، theta3 = 0.31)، trace=TRUE) p = پیش بینی( fit) plot(x1, grad) points(x1, p, col = قرمز) ![من می خواهم منحنی را برای این داده ها متناسب کنم. منحنی قرمز تلاش من است. بد است](http://i.stack.imgur.com/npJzB.jpg)
تناسب یک تابع سیگموئید: چرا تناسب من اینقدر بد است؟
100187
من مجموعه داده ای از مربیان و دوره هایی که آنها طراحی کرده اند دارم. فکر اصلی من این بود که یک مدل چند سطحی انجام دهم که در آن دوره ها در درون مربیان قرار می گیرند و نتیجه این است که آیا این دوره به طور عمومی به دانش آموزان ارائه شده است یا خیر. من این مدل را با استفاده از melogit در Stata نصب می کردم. با این حال، متوجه شدم که دوره‌ها را می‌توانستند توسط چندین معلم طراحی کنند. بنابراین دوره‌ها می‌توانند به طور بالقوه در درون چندین معلم قرار بگیرند (یا برعکس). آیا کسی می داند که چگونه می توان این مدل عضویت چندگانه را در Stata جا داد؟
چگونه یک مدل سلسله مراتبی عضویت چندگانه را در Stata اجرا کنیم؟
43642
من در حال حاضر با یک پروژه تصویربرداری پزشکی هستم. فقط تعجب می کنم که چگونه شکل یک کره را اندازه گیری کنیم. به عنوان مثال، چگونه می توان اندازه گیری کرد که یک شی بیشتر شبیه یک کره است تا دیگری؟ می‌دانم که برخی از الگوریتم‌ها می‌توانند «گردی» را در دوبعدی نشان دهند، اما اندازه‌گیری «کره» در سه‌بعدی مفیدتر خواهد بود. همچنین، من به تجزیه و تحلیل شکل های دیگر بسیار علاقه مند هستم. شکل جسم می تواند یک ویژگی بسیار جالب برای تشخیص بیشتر الگو باشد. خیلی ممنون
تجزیه و تحلیل شکل یک شی برای ایجاد ویژگی هایی برای تشخیص الگو
92679
فرض کنید من یک مدل خطی را برازش می‌کنم، و دو پیش‌بینی‌کننده پیوسته «x1» و «x2» دارم. من فکر می کنم که آنها ممکن است تعامل داشته باشند، بنابراین من عبارت تعامل (خطی) را به مدل خود اضافه می کنم (یعنی محصول نقطه ای x1 * x2). اکنون، به عنوان یک قانون سرانگشتی، به نظرم می رسد که به محض انجام این کار، احتمالاً باید اصطلاحات درجه دوم، x1^2 و x2^2 را نیز وارد کنم. در غیر این صورت، در صورتی که پیش‌بینی‌کننده‌های من همبستگی داشته باشند و اثرات غیرخطی داشته باشند (و آیا پیش‌بینی‌کننده‌های همه همیشه همبسته نیستند و حداقل تا حدی اثرات غیرخطی ندارند؟)، ممکن است یک تعامل کاذب قابل توجهی داشته باشم. همبستگی بین پیش بینی کننده ها به این معنی است که تعامل خطی آنها با اثر درجه دوم هر یک از پیش بینی کننده ها به تنهایی مخدوش می شود، بنابراین اگر من آن پیش بینی کننده های درجه دوم را از مدل خود کنار بگذارم، بهترین استراتژی مدل من برای گرفتن هر روند درجه دوم تک متغیری استفاده از تعامل دو متغیره، باعث می‌شود که وقتی واقعاً اینطور نیست، مهم به نظر برسد. سوال من این است: * آیا این استدلال معتبر است؟ * آیا این یک قانون سرانگشتی شناخته شده است، به عنوان مثال، آیا در کتاب های استاندارد به عنوان توصیه ذکر شده است؟ * * * راه دیگری برای قرار دادن آن: در شرایط R، فرض کنید من می‌بینم که چیزی شبیه به: lm(y ~ (x1 + x2)^2، data) اکنون روشی که R این را تفسیر می‌کند این است که آن را به lm ( y ~ x1 + x2 + x1:x1 + x1:x2 + x2:x2، داده) اما سپس تعاملات خود «x1:x1» را کاهش می‌دهد و «x2:x2» به «x1» و «x2» ساده است، بنابراین با lm (y ~ x1 + x2 + x1:x2، داده‌ها) می‌شویم، بنابراین، اگر متوجه شدم چیزی شبیه به «(x1 + x2) می‌نویسم. ^2`، آیا در عوض عادت به نوشتن lm(y ~ (x1 + x2)^2 + I(x1^2) + I(x2^2)، داده) کنم تا شامل تعامل با خود درجه دوم؟ [پس‌زمینه: من نمی‌خواهم پتسی را تغییر دهم تا تعاملات خود را برای متغیرهای پیوسته مانند «x:x» به‌عنوان معادل «I(x^2)» تفسیر کنم، به‌جای اینکه R را دنبال کنم و آنها را معادل «تفسیر کنم». x`. بنابراین من واقعاً به حالت کلی / قاعده سرانگشتی به جای یک نمونه خاص علاقه مند هستم.]
وقتی یک برهمکنش خطی بین دو پیش‌بینی‌کننده پیوسته را شامل می‌شود، آیا به طور کلی باید پیش‌بینی‌کننده‌های درجه دوم را نیز لحاظ کرد؟
73533
**آزمون رتبه بندی شده امضا شده Wilcoxon** به ما می گوید که آیا اختلاف میانه بین داده های جفت شده می تواند صفر باشد. آزمون با محاسبه یک آمار و سپس یک z-score و مقایسه آن با یک مقدار بحرانی انجام می شود. چیزی که به نظر من تکان دهنده است این است که ما **همه جفت های دارای مقادیر یکسان را از فرآیند محاسبه آمار حذف می کنیم**. از ویکی‌پدیا در مرحله 2 داریم: > حذف جفت‌ها با $|x_{2,i} - x_{1,i}| = 0 دلار اجازه دهید $N_r$ کاهش یافته > اندازه نمونه باشد. و فقط $N_r$ در بقیه محاسبات استفاده می شود. یکی از منابع ذکر شده می گوید: > در بیشتر کاربردهای روش Wilcoxon، مواردی که بین X_A$ و $X_B$ > صفر تفاوت وجود دارد، در این مرحله از بررسی حذف می شوند، زیرا آنها اطلاعات مفیدی ارائه نمی دهند، و سپس تفاوت‌های مطلق باقی‌مانده از پایین‌ترین به بالاترین رتبه‌بندی می‌شوند و در صورت لزوم، رتبه‌های همسایه درج می‌شوند. سپس نویسنده به همان روشی که در مقاله ویکی‌پدیا آمده است به محاسبه می‌پردازد. من سعی کردم به مقاله اصلی Wilcoxon نگاه کنم، اما به نظر نمی رسد که او به جفت ارزش های یکسانی اشاره کند. دلیل اینکه من فکر می کنم این دیوانگی است این است: بسیار خوب، جفت های یکسان ارزش آمار را تغییر نمی دهند، اما آنها **امتیاز z را تغییر می دهند**. تصور کنید نمونه‌ای از جفت‌های $10^{1000}$ دارید در حالی که در جفت‌های $10$، مقدار دوم بالاتر است و در تمام جفت‌های باقی‌مانده، مقادیر یکسان است. با توجه به مقالات ذکر شده در بالا، ما باید این جفت‌های 10^{1000}-10$ را کنار بگذاریم زیرا آنها اطلاعات مفیدی ارائه نمی‌دهند و فقط جفت‌های 10$ باقی مانده را در نظر بگیریم. اما آن جفت‌های 10^{1000} - 10 دلاری **اطلاعات مفیدی ارائه می‌دهند**. آنها به نفع فرضیه صفر فریاد می زنند. لطفا توضیح بدید که چطور تست رو درست انجام بدم؟
چرا تفاوت های صفر در محاسبات در آزمون رتبه بندی شده امضا شده Wilcoxon وارد نمی شود؟
6139
من در رشته علوم کامپیوتر زیست پزشکی مطالعه می کنم و باید مقاله ای در مورد ارتباط ژنوتیپ- فنوتیپ تحقیق کنم. در این مقاله، نویسندگان از یک تحلیل همبستگی با محاسبه همبستگی پیرسون و سپس محاسبه توزیع فراهندسی برای فیلتر کردن ارتباط های ناچیز استفاده می کنند. http://www.biomedcentral.com/1471-2164/7/257 تحت روش‌ها/ارتباط ژن‌ها به فنوتیپ‌ها > در حالی که همبستگی قدرت ارتباط بین محتوای ژنومی ارگانیسم و ​​فنوتیپ آن را اندازه‌گیری می‌کند، ما روش دیگری را نیز اعمال کردیم. با بهره‌برداری از تابع توزیع فراهندسی، برای تعیین اهمیت این انجمن‌ها [...] که در آن نتیجه کوچکتر یا مساوی 20% پاسخ منفی در نظر گرفته می شود. بنابراین برای یک ژن معین موجود در گونه M، تابع > بیش هندسی این احتمال را به طور تصادفی فراهم می کند که ژن > در m گونه هایی که حاوی COG هستند و همچنین در آزمایش آزمایشگاهی مثبت هستند، یافت شود. > معیارهای زیر برای مجموعه داده های همبسته اعمال شد. تقاطع بین یک COG خاص و یک فنوتیپ باید حداقل بیش از 3 ارگانیسم داشته باشد، و برای هر تقاطع، 30٪ از میکروب ها باید COG را به اشتراک بگذارند. نمرات با استفاده از تصحیح خطای استاندارد Bonferroni > برای آزمایش چندگانه تنظیم شدند. از آنجایی که تصحیح بونفرونی یکی از محافظه‌کارانه‌ترین اصلاحات است، به احتمال زیاد برخی از ارتباط‌های مرتبط بیولوژیکی به‌طور غیرضروری کنار گذاشته شده‌اند. در این مورد $\alpha$ کمتر از برابر با 0.01 تنظیم شد، > بنابراین، هر امتیاز توزیع فرا هندسی کمتر یا مساوی > 0.0001 معنی‌دار تلقی می‌شود. با استفاده از این معیارها، یک آستانه همبستگی 0.8 و 0.9> را برای ارزیابی اهمیت ارتباط COG-phenotype > تنظیم کردیم. سوال من این است: آیا این یک تحلیل همبستگی علمی معتبر است یا خیر؟ آیا رزرو وجود دارد؟ درضمن میشه یه کتاب آمار خوب برای علم به من بدید؟
آیا تحلیل همبستگی با همبستگی پیرسون و روش بونفرونی یک رویکرد معتبر برای یافتن همبستگی بین دو مجموعه داده است.
57150
من تعجب می کنم که چگونه می توانم حجم نمونه خود را توجیه کنم! من 45 مشاهده و 6 متغیر مستقل دارم که یکی از آنها متغیر کنترل است. آیا قانون کلی یا آزمون خاصی در این زمینه وجود دارد؟ با تشکر فراوان،
چگونه حجم نمونه را توجیه کنیم؟
85529
من فقط تعجب می کردم، وقتی مقالات می گویند ما ژنوتیپ را برای 3 جزء اصلی اول تنظیم کردیم، آیا آنها از بردارهای ویژه یا مقادیر ویژه از تجزیه و تحلیل اجزای اصلی به عنوان عوامل کوفاکتور در تجزیه و تحلیل ارتباط ژنتیکی استفاده می کنند؟ متشکرم
تجزیه و تحلیل ارتباط ژنتیکی تنظیم شده توسط کامپیوتر
108403
آیا بسته ای در R وجود دارد که بتواند داده های پانل را با وزن های حداقل مربعات تعمیم یافته رگرسیون مقطعی به ظاهر نامرتبط (مانند EViews) تخمین بزند؟
SUR مقطعی در R
74547
به عنوان مثال، در کتابچه راهنمای BUGS یا کتاب آتی لی و واگن میکرز (pdf) و در بسیاری از جاهای دیگر از نوعی نشانه گذاری استفاده شده است که به نظر من بسیار انعطاف پذیر است زیرا می توان از آن برای توصیف مختصر بیشتر مدل های آماری استفاده کرد. نمونه‌ای از این نماد به صورت زیر است: $$ y_i \sim \text{دوجمله‌ای}(p_i,n_i) \\\ \log(\frac{p_i}{1 - p_i}) = b_i \\\ b_i \sim \ text{Normal}(\mu_p,\sigma_p) $$ که یک مدل لجستیک سلسله مراتبی را بدون پیش‌بینی‌کننده، اما با $i = توصیف می‌کند. 1\dots n گروه $. به نظر می‌رسد این روش توصیف مدل‌ها برای توصیف مدل‌های متداول و بیزی به همان اندازه خوب عمل می‌کند، به عنوان مثال، برای اینکه این توصیف مدل کاملاً بیزی شود، فقط باید اولویت‌ها را روی $\mu_p$ و $\sigma_p$ اضافه کنید. **آیا این نوع نشانه گذاری/فرمالیسم مدل به طور مفصل در مقاله یا کتابی توضیح داده شده است؟** اگر می خواهید از این نمادگذاری برای نوشتن مدل استفاده کنید، راه های مختلفی برای انجام کارها وجود دارد و با یک راهنمای جامع هر دو واقعا مفید خواهد بود. دنبال کردن و ارجاع دادن به دیگران برخی از تفاوت‌هایی که من در نحوه استفاده مردم از این نوع نشانه‌گذاری پیدا کرده‌ام: * توزیع‌ها را چه می‌نامید؟ به عنوان مثال، من $\mathcal{N}،\text{N}،\text{Norm}،\text{Normal}$، و غیره را دیده‌ام. * چگونه با ایندکس‌ها برخورد می‌کنید؟ به عنوان مثال من $y_{ij}$,$y_{i[j]}$,$y_{j|i}$ و غیره را دیده‌ام. * کدام نمادهای پارامتر معمولاً برای پارامترها استفاده می‌شوند. به عنوان مثال، استفاده از $\mu$ به عنوان میانگین برای توزیع عادی معمول است، اما در مورد سایر توزیع ها چطور؟ (برای این کار من معمولاً توزیع‌های ویکی‌پدیا را بررسی می‌کنم) سؤال بعدی: _ آیا این نماد نام دارد؟
آیا استاندارد برای نمادگذاری مدل آماری وجود دارد؟
33967
من در حال شروع سفر دکترای خود هستم، و هدف نهایی که پیش روی خودم قرار داده ام، توسعه شبکه های عصبی مصنوعی است که محیطی را که در آن کار می کنند نظارت می کند و به صورت پویا معماری آنها را با مشکل موجود تنظیم می کند. مفهوم آشکار موقتی بودن داده است: اگر مجموعه داده پیوسته نیست و در طول زمان تغییر نمی کند، اصلاً چرا باید تنظیم شود؟ سوال بزرگ این است: با افزایش اخیر یادگیری عمیق، آیا هنوز یک موضوع مرتبط است؟ آیا FFNN ها این شانس را دارند که خود را در مشکلات رانش مفهومی جایگاهی بیابند؟ من می ترسم که موضوع را با یک سؤال بیش از حد بارگذاری کنم، اما این یکی کاملاً خارج از موضوع نیست: من از RNN ها آگاه هستم، اما تجربه محدودی (خوب، هیچ، یا کاملاً نظری) با آنها دارم. من معتقدم انطباق معماری پویا باید یک موضوع مرتبط در زمینه RNN ها باشد. سوال این است که آیا قبلاً به آن پاسخ داده شده است و آیا چرخ را دوباره اختراع خواهم کرد؟ P.S. در MetaOptimize ارسال شد
تنظیم پویا معماری NN: اختراع غیر ضروری؟
23420
یک مرحله پیش پردازش رایج برای الگوریتم های ML سفید کردن داده ها است. به نظر می رسد انجام سفید کردن همیشه خوب است زیرا داده ها را از همبستگی خارج می کند و مدل سازی آن را ساده تر می کند. چه زمانی سفید کردن توصیه نمی شود؟ توجه: منظور من از همبستگی داده ها است. با تشکر
آیا سفید کردن همیشه خوب است؟
93230
فرض کنید من یک مدل دارم: $$Y_i = \beta_0 \beta_1^{X_i} \epsilon_i$$ (توجه: این کمی متفاوت از نمونه معمول‌تر $Y_i = \alpha e^{\beta x_i} است. epsilon_i$.) من می توانم گزارش $Y$ را بگیرم: $$\log Y_i = \log\beta_0 + X_i\log\beta_1 + \log\epsilon_i$$ با فرض اینکه تمام مفروضات معمول در مورد خطاها و غیره باقی بمانند، می توانم این را با رگرسیون خطی ساده تخمین بزنم. با این حال، من فقط برای $\log\beta_1$، نه $\beta_1$، تخمین می‌زنم، و بنابراین یک فاصله اطمینان. آیا می توانم با $\hat{\beta_1} = \exp(\widehat{\log\beta_1})$ تبدیل مجدد کنم؟ اگر چنین است، برای یک فاصله اطمینان برای $\hat{\beta_1}$، آیا فقط نقاط انتهایی بازه را تغییر می دهم؟
فواصل اطمینان بتا در رگرسیون خطی تبدیل شده
85520
امروز با یکی از همکارانم وارد بحث جالبی شدم و مطمئن نیستیم که پاسخ چیست: ما نمونه‌های $N=1000$ از یک پی‌دی‌اف رایلی داریم. ما آن نمونه‌های $N$ را می‌گیریم و کشش نمونه (اصلاح شده) آنها را محاسبه می‌کنیم. (به عنوان مثال، محاسبات کشیدگی بدون کاهش معنی اولیه آن نمونه های $N$). نتیجه می گیریم. سپس دسته جدیدی از نمونه‌های $N=1000$ را می‌گیریم، همچنین از یک پی‌دی‌اف Rayleigh، کرتوز اصلاح‌شده را محاسبه می‌کنیم و به نتیجه می‌رسیم. و غیره. ما این را حدود $M=2000$ بار تکرار می کنیم. سوال من این است که آیا با افزایش $M$، PDF حاصل از آن نتایج به یک توزیع گاوسی تبدیل می‌شود یا تمایل به آن دارد؟ من باید با استناد به CLT اینطور فکر کنم، اما همکارم شکاک تر است. **ویرایش:** هنوز اینجا نیست، اما یادگیری: بنابراین من این را برای $N = 10$ و $N = 100$ شبیه سازی کردم، هر دو مورد با $M = 20000$. هیستوگرام ها در زیر نشان داده شده است. به نظر می رسد در حالت $N=10$، نتیجه همچنان Rayleigh است، در حالی که برای مورد $N=1000$، نتیجه ... گاوسی است... شاید؟ یعنی چی؟ به نظر می رسد دم سنگینی در سمت راست دارد... ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gdchw.png) برخی از لینک ها را هم مطالعه کردم، نمی توانم پیدا کنم بیش از حد در فایل های PDF توابع داده ها، ... و تغییر $N$ در اینجا نتایج متفاوتی را نشان می دهد که من را کمی بیشتر گیج می کند.
آیا تابعی از داده‌های یک PDF که بارها و بارها روی داده‌های جدید تکرار می‌شود، در نهایت نباید یک پی‌دی‌اف گاوسی تولید کند؟
95642
### توضیحات من می‌خواهم از آزمون Kolmogorov-Smirnov استفاده کنم تا بررسی کنم که چگونه خوشه‌های داده شده از نقاط 1 بعدی با توزیع عادی تفاوت دارند (سوال اصلی اینجا: چگونه می‌توان مدل داده‌ها را در بهترین حالت مطابقت داد). من رویکرد زیر را در نظر می‌گیرم: خوشه FOREACH p = نقاط از خوشه n = SIZE(p) mu = AVG(p) سیگما = SQRT(VARIANCE(p)) tmp = GENERATE n نقطه تصادفی از توزیع_ normal(mu، سیگما) نتیجه = KS-TEST(SORT(p)، SORT(tmp)) اگر نتیجه > آستانه و سپس خوب در غیر این صورت خوب نیست من اجرای KS-TEST را از اینجا گرفتم: http://root.cern.ch/root/html/src/TMath.cxx.html#RDBIQ تعداد امتیازها معمولاً صدها یا هزاران است. ### مشکل من مشاهده کرده ام که نتیجه به شدت به نقاط tmp تولید شده به طور تصادفی بستگی دارد. حتی زمانی که من به طور تصادفی دو مجموعه نقطه از توزیع مشابه با پارامترهای یکسان تولید کردم، احتمال حاصل از KS-TEST بین 0.0+ چیزی و 0.99+ چیزی شناور بود. بنابراین انتخاب یک مقدار آستانه مناسب برای من دشوار است. همان خوشه را می توان یک بار به عنوان توزیع نزدیک به نرمال در نظر گرفت و یک بار نه. ### پاسخ می توانید به من راهنمایی کنید، من چه اشتباهی انجام می دهم، چگونه می توانم نتایج قابل اعتمادتری بگیرم؟
آزمون کولموگروف-اسمیرنوف - قابلیت اطمینان
58582
من حدود 1000 آزمودنی دارم ($id$) و هر کدام از آنها دارای چند متغیر پایه هستند (متغیرهای جمعیت شناختی $X1، X2، X3، Xn$، که می تواند پیوسته باشد، عوامل). هر موضوع توسط دو ارزیاب ($rater1$، $rater2$) در 2 عامل طبقه بندی می شود. 1. چگونه می توانم تطابق بین ارزیاب ها را ارزیابی و توصیف کنم؟ 2. چگونه می توانم ارزیابی کنم که کدام، آیا و چگونه متغیرهای جمعیتی $X1، X2، X3، Xn$ ممکن است بر این تطابق تأثیر بگذارند. 3. در هر کلاس $rater1$ یا $rater2$، چگونه می توانم میزان شباهت متغیرهای $X1، X2، X3، Xn$ را ارزیابی کنم (آزمودنی ها دارای X1، X2، X3، Xn$ مشابه هستند. متغیرها) هر کمک یا اطلاعاتی کمک بزرگی خواهد بود
نحوه ارزیابی تطابق بین 2 ارزیاب و عوامل موثر بر تطابق
85524
من یک منحنی فراخوان دقیق برای دو الگوریتم جداگانه دارم. اگر بخواهم F-Measure را محاسبه کنم، باید از مقادیر دقت و فراخوانی در یک نقطه خاص در هر منحنی استفاده کنم. این نقطه چگونه تعیین می شود؟ به عنوان مثال در منحنی یک نقطه ای وجود دارد که یادآوری 0.9 و دقت 0.87 است و منحنی دیگر نقطه فراخوانی در 0.95 و دقت در 0.84 وجود دارد. متناوبا، آیا باید منحنی F-Measure را برای هر مقدار فراخوانی دقیق رسم کنم؟
نحوه محاسبه F-Measure از منحنی فراخوان دقیق
28472
یک رگرسیون با خطاهای ARIMA با فرمول زیر ارائه می شود (دید در Hyndman و همکاران، 1998): $Y_t = b_0 + b_1 X_{1,t} + \dots + b_k X_{k,t} + N_t$ که در آن $N_t $ به عنوان یک فرآیند ARIMA مدل شده است. اگر داشته باشیم که مدل $N_t$ ARIMA$(0,0,0)$ است، آنگاه $N_t = e_t$ و $Y_t$ با یک رگرسیون معمولی مدل می شود. داده‌های زیر را فرض کنید: یک ساختار <-(c(29305, 9900, 9802, 17743, 49300, 17700, 24100, 11000, 10625, 23644, 38011, 163904,163904, 163904, 10625 . ساختار(c(1.108528016، 1.136920872، 1.100239002، 1.057191265، 1.044200511، 1.102063834، 1.083847756، 815. 1.084879628، 1.232979511، 1.168894672، 1.257302058، 1.264967051، 1.234793782، 1.306452369، 1.306452369، 1.241, 1.241, 1.241, 1.241, 1.241, 1.241, 1.241, 1.258, 1.25894672, 1.084879628. 1.124432965، 1.132878661، 1.189926986، 1.17249669، 1.176285957، 1.176552، 1.179178082)، .Tsp. = c(201) 2012.16666666667, 12), class = ts) اگر آن را با استفاده از تابع `auto.arima` مدل کنم، دارم: auto.arima(a, xreg=b) سری: یک ARIMA(0,0,0) با میانگین صفر ضرایب: b 15639.266 s.e. 1773.186 sigma^2 تخمین زده شده به عنوان 101878176: احتمال ورود به سیستم=-255.33 AIC=514.65 AICc=515.22 BIC=517.01 lm(a~b) فراخوانی: lm(فرمول = a ~ b) ضرایب 61 -4 b43: ضرایب از مدل ها متفاوت است. آیا آنها نباید یکسان باشند؟ چه چیزی را از دست داده ام؟
رگرسیون با خطاهای ARIMA(0,0,0) متفاوت از رگرسیون خطی
108404
من سعی می کنم یک مدل بیزی برای مشکل زیر ایجاد کنم: یکی دارای بشکه ای است که حاوی تعداد زیادی توپ سفید و چند توپ قرمز است. یکی نسبت به غلظت توپ‌های قرمز آگاهی ندارد (توزیع A)، و دیگری نمونه‌های مکرر (مثلاً 20 درصد از توپ‌ها) را می‌گیرد. علاوه بر این - یک درصد (به دنبال توزیع ناشناخته B) از توپ های قرمزی که پیدا می کند حذف می کند. از این رو، به نظر می رسد که می توان از یک تابع درستنمایی دو جمله ای سنتی استفاده کرد و می توان به راحتی پسین را محاسبه کرد. با این حال، من در تلاش برای ترکیب، به ویژه در زمینه نمونه برداری WinBugs / Gibbs، عنصر حذف و تخمین هم زمان برای A و B هستم. نکات و کمک بسیار قدردانی می شود
مدل سلسله مراتبی بیز - نمونه برداری با محدودیت های اضافی
58588
من در حال حاضر روی پروژه ای کار می کنم که مدل من GLM با توزیع بتا است. متغیر وابسته دووجهی است. من قبلاً این کار را در Stata انجام داده‌ام، اما در تفسیر آنچه R منتشر کرده است مشکل دارم. من مدل را با استفاده از دستور VGLM از بسته VGAM اجرا کردم. بنا به دلایلی برای هر متغیر دو ضریب تولید کرده است. این بخشی است که من را گیج می کند - من مطمئن نیستم که چگونه این را تفسیر کنم، و تاکنون نتوانسته ام کمکی پیدا کنم. متغیر کلیدی مورد علاقه من logoil_gas_valuePOP_1 است. هر کمکی در اینجا بسیار قابل قدردانی خواهد بود - مشورت با معلم آمار من هیچ نتیجه ای نداشت. باقیمانده های پیرسون: حداقل 1Q Median 3Q Max elogit(mu، min = 0، max = 12) -6.4754 -0.34561 0.048202 0.42250 6.32340 log(phi) -23.6802 0.337259 0.33759 0.73015 ضرایب: برآورد Std. خطای z مقدار (Intercept): 1 -0.2731986 / 0.0513944 / -5.315728 (Intercept): 2 0.9116027 / 0.1266222 / 7.199393 polity_5:1 0.12674069 /6010.12674069/60 polity_5:2 0.0481726 / 0.0037464 / 12.858440 logGDP_cap2000_sup_1:1 0.0945281 / 0.0067247 / 14.056858 logGDP_cap20/14.056858 logGDP_cap_cap20. 0.0170221 / 20.812500 logoil_gas_valuePOP_1:1 -0.0330833 / 0.0035020 / -9.447096 logoil_gas_valuePOP_1:2 -0.0082593 / 0.07393/0.009-0.009 پیش بینی کننده ها: 2 نام پیش بینی کننده های خطی: elogit(mu، min = 0، max = 12)، log(phi) پارامتر پراکندگی برای خانواده betaff: 1 احتمال Log: -8592.995 در 10366 درجه آزادی تعداد تکرار: 25 در اینجا کد: کتابخانه (خارجی) rossdatahw<-read.dta(c:/Users/Amanda/Desktop/PS 531/Ross Replication/rossdata1.dta) library(mosaic) library(VGAM) rossdatahw$polity01<-with(rossdatahw,polity/1 ) cor(rossdatahw[,c(polity,polity01)], use=complete.obs) rossdatahw$polity1to11<-rossdatahw$polity+1 bootrossyears<-resample(rossdatahw, inside=rossdatahw$year, size= 1000، جایگزین=درست) bdata<-bootrossyears fit1<-vglm(polity1to11~polity_5 + logGDP_cap2000_sup_1 + logoil_gas_valuePOP_1 + لاتین + latin_logoil_1 + لاتین + dem_prior_update + gdpgrowth_alt_new_1 + mus_pct_new_1 + mus_pct_new_1 + mus_pct_new_1 + mus_pct_6AR19 + YE69 YE900 YEAR1970_74 + YEAR1975_79 + YEAR1980_84 + YEAR1985_89 + YEAR1990_94 + YEAR1995_99، data=rossdatahw[!is.na(rossdatahw$polity01)،]، naomaction. family=betaff(A=0,B=12,lmu = elogit(min = 0, max = 12)), ##family=beta.ab(A=0, B=12), trace=TRUE) coef(fit1 ، ماتریس = TRUE) خلاصه (fit1) coef(fit1)
چگونه نتایج GLM را با توزیع بتا در R تفسیر کنیم؟
81864
### سوال نمرات آزمون سه گروه از افراد به عنوان بردارهای جداگانه در R. set.seed(1) group1 ذخیره می شود <- rnorm(100, mean = 75, sd = 10) group2 <- rnorm(100, mean = 85، sd = 10) group3 <- rnorm(100، میانگین = 95، sd = 10) من می خواهم می دانید که آیا تفاوت معنی داری در **میانگین ها** بین این گروه ها وجود دارد یا خیر. من می دانم که می توانم گروه 1 را در مقابل گروه 2 با استفاده از تست Wilcoxon آزمایش کنم. wilcox.test(group1, group2) با این حال، این فقط دو گروه را در یک زمان مقایسه می کند، و من می خواهم هر سه را به طور همزمان مقایسه کنم. من یک آزمون آماری را می خواهم که مقدار p را در سطح معنی داری 0.05 به دست دهد. کسی میتونه لطفا کمک کنه؟ ### ویرایش شماره 1 - تست میانه Mood به دنبال پاسخ پیشنهادی کاربر Hibernating، تست میانه Mood را امتحان کردم. میانه.تست <- تابع(x، y){ z <- c(x، y) g <- تکرار(1:2، c(طول(x)، طول(y))) m <- میانه(z) fisher.test(z < m, g)$p.value } median.test(group1, group2) با این حال، این رویکرد به من امکان می دهد تفاوت معنی داری را بین میانه های تنها دو گروه در یک زمان آزمایش کنم. من مطمئن نیستم که چگونه از آن برای مقایسه میانگین هر سه به طور همزمان استفاده کنم. ### ویرایش شماره 2 - آزمون Kruskal-Wallis پاسخ پیشنهادی کاربر dmartin به نظر می رسد کم و بیش همان چیزی است که من نیاز دارم و به من اجازه می دهد هر سه گروه را به طور همزمان آزمایش کنم. kruskal.test(list(group1, group2, group3)) ### ویرایش شماره 3 کاربر Greg Snow به طور مفید در پاسخ خود خاطرنشان می کند که آزمون Kruskal-Wallis تا زمانی مناسب است که فرضیات دقیقی داشته باشد که آن را نیز به عنوان آزمونی از ابزارها تبدیل کند. .
آزمون فرضیه برای تفاوت میانه ها در بین بیش از دو نمونه
77631
سوال من اساساً ساده است: فرض کنید دنباله‌ای از سرها و دم‌ها با شانس ظاهری برای گرفتن سرهای $\hat{p} = 0.5$ داریم. > h h t h t t t h t t h ... چگونه بفهمیم که این نمونه از یک توزیع دوجمله ای با این $\hat{p}$ گرفته شده است یا از ترکیبی از توزیع های مختلف که میانگین یکسانی را تولید می کند؟ (به عنوان مثال $p = 0.25$ یا $p = 0.75$) این چیزی است که من به انجام آن فکر می کردم: * دنباله را به زیربخش هایی به طول $n$، به عنوان مثال $n=5$، خرد می کنیم و $\hat{p را محاسبه می کنیم. }$ در هر پنجره از این قبیل: > {h h t h t}, {t t h t t}, {h ...} > 0.6، 0.2، ... * ما سپس انحراف معیار را در این مقادیر $\hat{p}$ محاسبه کنید: $\sigma_{ex}=\sqrt{\frac{\sum_{i=1}^M{(\hat{p}_i - \hat{ \mu})^2}}{M}}$، که $\hat{\mu}$ میانگین $\hat{p}$ است و $M$ تعداد کل پنجره‌هایی با اندازه $n$ است که می‌توانیم ساختن * ما انحراف معیار را در $\hat{p}$ بر اساس توزیع دوجمله‌ای محاسبه می‌کنیم، $\sigma_{th}=\sqrt{\frac{\hat{p}(1-\hat{p})}{n }}$. اکنون مشکل پیش می آید: چگونه تشخیص دهیم که این دو مقدار یکسان هستند؟ پس از تحقیقات فراوان، تصمیم گرفتم از تست نسبت F استفاده کنم و نتیجه را به یک توزیع f متصل کنم. نسبت F: $F = \frac{\sigma_{ex}^2}{\sigma_{th}^2}$ (فقط برای توزیع‌های معمولی معتبر است:S) و سپس یک توزیع f برای رسیدن به p- ارزشی که می توانیم در مقابل آن بررسی کنیم. با این حال، برای توزیع f باید درجات آزادی را در نامگذار و مخرج بدانم. و مشکل من در اینجا نهفته است: درجات آزادی برای واریانس محاسبه شده از تئوری چیست؟ (در مورد آزمایشی فکر می کنم M باشد) اگر این پاسخ یا پیشنهادی در مورد چگونگی حل متفاوت این مشکل دارید، خوشحال می شوم در مورد آن بشنوم!
درجات آزادی در واریانس نمونه نظری (برای استفاده در توزیع F)
73538
چگونه یک فاصله اطمینان منفی را هنگام مقایسه دو میانگین جمعیت تفسیر کنم؟ به عنوان مثال، یک فاصله اطمینان $(-23.11، -1.02)$ است، اهمیت منفی بودن این مقادیر چیست؟ آیا دقیقاً به این معنی است که $\bar{x}_1 < \bar{x}_2$ ?
تفسیر فاصله اطمینان منفی
61354
من برخی از داده ها را دارم که دارای 0s با حدود 1s پرتاب شده است. به عنوان مثال: 00000000010000000100000000000000000000111111111000000 با این حال ، 1 ها بسیار پراکنده تر هستند. من می‌خواهم معیاری را محاسبه کنم که داده‌ها چقدر «روان» هستند. منظور من از این این است که اگر داده‌های من فقط 1های تکی با 0 داشته باشند، می‌خواهم مقدار کمی داشته باشم. اما اگر تعداد زیادی ران های 1 یا طولانی اجراهای 1 وجود دارد، من ارزش بالایی می خواهم. راه خوبی برای اندازه گیری این چیست؟
چگونه احتمال دویدن را اندازه گیری می کنید؟
6133
فکر می کنم افراد اینجا می توانند من را در حل مشکل مربوط به تشخیص ناهنجاری در علوم کامپیوتر راهنمایی کنند. اصطلاح _ناهنجاری_ در اینجا به برخی رویدادهای نامطلوب در سیستم مانند عفونت ویروسی اشاره دارد. من می توانم از بیش از یک منبع در مورد آن بدانم. به عنوان مثال، پس از استخراج یک مقدار از دو ساختار داده متفاوت، اگر تفاوتی وجود داشته باشد، مطمئناً عفونت ویروسی وجود دارد. به منظور حذف موارد مثبت کاذب، اطلاعات از ساختارها یا مکانیسم های مختلف داده جمع آوری می شود. از این رو، برخی اطلاعات کمتر مورد اعتماد هستند و برخی اطلاعات بیشتر قابل اعتماد هستند. من به دنبال یک روش ریاضی هستم که بتواند به راحتی این نوع موقعیت ها را مدیریت کند. آیا فازی/الگوریتم ژنتیک/شبکه ​​عصبی در اینجا مناسب است؟ در برخی مکان‌ها یافت می‌شود که از رویکرد مبتنی بر نرمال (با استفاده از z-score) استفاده می‌کنند. لطفا کمک کنید.
از کدام روش برای تشخیص ناهنجاری استفاده کنیم؟
92706
نماد $x_i$ - مقدار مشاهده ith در نمونه $X_j$ - مقدار مشاهده j در جمعیت $\bar{x}$ میانگین نمونه $\bar{X}$ میانگین جمعیت است این مستقیماً به شرح زیر است از یک سوال قبلی به اثبات اینکه مقدار مورد انتظار $x_i$ $\bar{X}$ است کمک کنید. امیدوارم بتوانم روشن کنم که این اثبات جایگزین سازگار است. به خصوص زمانی که انتظار $E[x_i]$ به صورت $\frac{{N-1\choose n-1}\sum{X_j}}{N\choose n}$ * * * طبق تعریف $\bar{ x} = \frac{\sum x_i}{n}$ بنابراین با توجه به انتظارات آن، اکنون $E[\bar{x}]=\frac{1}{n}E[\sum{x_i}]$ دریافت می‌کنیم، از آنجایی که ما جمعیتی به اندازه $N$ و اندازه نمونه با اندازه $n$ داریم، ${N\choose n}$ نمونه متفاوت داریم و از بین آنها، ${N-1\choose n-1}$ هر کدام را شامل می شود. از مقادیر $X_1، X_2،...، X_N$. سپس به وضوح، $\sum{x_i}={N-1\choose n-1}\sum{X_j}$ بنابراین، انتظار $\sum{x_i}$ توسط $E[\sum{x_i داده می‌شود. }]=\frac{{N-1\choose n-1}\sum{X_j}}{N\choose n}$\hspace{17mm}=\frac{n}{N} \sum{X_j}$ بنابراین $E[\bar{x}]=\frac{1}{n}(\frac{n}{N} \sum{X_j})$$\hspace{10mm}=\bar {X}$
با اثبات «جایگزین» که $E[x_i] = \bar{X}$ است کمک کنید
71390
یک عامل از دیدگاه جبر خطی چیست؟ آیا این یک بردار، ماتریس، پایه، تاپل، سیستم مختصات یا چیز دیگری است؟
عامل در تحلیل عاملی چیست؟
70046
با توجه به دو متغیر تصادفی $X_1$ و $X_2$، ضریب همبستگی کندال-تاو می تواند به عنوان $$ تعریف شود. \tau(X_{1},X_{2})=\mathbb{P}\Big((X_{1}-\tilde{X}_{1})(X_{2}-\tilde{X}_ {2 })>0\Big)-\mathbb{P}\Big((X_{1}-\tilde{X}_{1})(X_{2}-\tilde{X}_{2})<0 \بزرگ) $$ که $(\tilde{X}_1, \tilde{X}_2)$ کپی‌های مستقل $(X_1,X_2)$ هستند. می خواستم بدانم که آیا می توان تفسیری از همبستگی کندال-تاو به عنوان هسته ای مطابق با RKHS، به طور صریح یا ضمنی ارائه داد؟
فضاهای کندال تاو و RKHS
23423
من به دنبال راهی برای مدل‌سازی و استخراج ویژگی‌ها از داده‌های زمانی چند متغیره (مانند ضبط‌های صوتی چند کانالی) هستم. من به طور خاص به روش های یادگیری عمیق مانند RBM، رمزگذارهای خودکار پراکنده و غیره علاقه مند هستم. اکثر روش هایی که من با آنها مواجه شدم، تنها یک بعد از داده ها، یا شاید یک بلوک دو بعدی در داده ها (معمولاً تصاویر) را در نظر می گیرند. من نتوانستم مقاله ای در مورد چگونگی در نظر گرفتن جنبه زمانی و همچنین جنبه چند متغیری پیدا کنم. به عنوان مثال، اگر من در حال ضبط صدا از چندین کانال هستم، می دانم که احتمالاً کانال ها تا حدی با هم مرتبط هستند. همچنین، از آنجایی که این یک سیگنال زمانی در حال تکامل است، همچنین ارتباطی بین هر نمونه با نمونه‌های قبلی وجود دارد. آیا راهی برای ادغام این محدودیت های زمانی چند متغیره در یک شبکه وجود دارد؟ من به دنبال مقالات خاصی در مورد روش‌هایی برای زمانی چند متغیره هستم که در آن ساختار چند کانالی استفاده می‌شود. با تشکر
شبکه های عصبی چند لایه برای داده های زمانی چند متغیره
70047
چگونه می توانم مجموع باقیمانده های مجذور را به عنوان تابعی از میانگین نمونه و واریانس $y$ بنویسم، با توجه به اینکه معادله رگرسیون این است: $y = \beta_0 + \beta_1(x-\bar{x}) + \epsilon $ که در آن $\bar{x}$ میانگین $x$ها است. من می‌خواهم مجموع باقیمانده‌های مجذور را فقط با استفاده از لحظه‌های نمونه اول و دوم از x$ و $y$ محاسبه کنم.
مجموع مجذور باقیمانده ها
94438
من مشغول مطالعه خودم بودم و به فرمول های زیر برای تخمین خطاهای استاندارد برخورد کردم: **فرمول 1:** ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/RaXJM.jpg) ** فرمول 2:** ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/eg3kk.jpg) من درک می کنم که همه این دو می توانند زمانی استفاده شوند که استاندارد جمعیت انحراف ناشناخته است. اما من واقعاً نمی دانم که چرا یکی آن قسمت اضافی را در پشت دارد. لطفاً از برخی نکات قدردانی کنید.
تخمین خطای استاندارد
85525
من این وضعیت را دارم: بیمارانی که تشخیص پزشکی و پاسخ به درمان را به اشتراک می گذارند، اما در مورد پایبندی به درمان متفاوت هستند (محقق نمی دانست که کدام بیماران متعلق به S1 یا S2 هستند) S1 = پیرو (n=32) . S2= عدم پایبند بودن (n=30) تا زمانی که تمام داده ها جمع آوری نشده و بیماران قبلاً ارزیابی شده بودند، پایبند بودن یا عدم پایبند بودن برای محقق ناشناخته بود. دو روش، رتبه بندی شده در مقیاس لیکرت). به عبارت دیگر، ایجاد یک پروفایل از بیماران پایبند/غیر پایبند) متغیر وابسته یک متغیر دوگانه بود و نمونه ها واقعا مستقل نیستند، بنابراین من نتوانستم از t-test برای مقایسه آنها استفاده کنم. آیا ایده ای در مورد روشی مناسب برای یافتن تفاوت های آماری بین هر دو نمونه دارید؟ با تشکر¡
مقایسه دو نمونه
92705
من یک سوال در مورد مقیاس چند بعدی دارم. من از مجموعه داده «eurodist» از بسته «مجموعه داده» برای ایجاد یک پیکربندی دو بعدی از فواصل بین شهرهای اروپایی استفاده کردم. من انتظار داشتم که نمایشی تقریباً دقیق از مکان شهرها ارائه شود (اگرچه می توان نقاط را منعکس کرد) زیرا ما در اینجا داده های مسافتی داریم که پیش از پیش به درستی شناخته می شوند. در داخل داده ها نباید تضاد وجود داشته باشد، اما در واقع تجزیه و تحلیل من نشان می دهد که وجود دارد! آیا کسی دلیل استرس ما در داده ها را می داند؟ کتابخانه (مجموعه داده ها) داده (eurodist) obj <- cmdscale(eurodist, k = 2) plot(obj[,1], obj[,2], type = n) text(obj[,1], obj [,2]، labels = rownames(obj)) sh <- Shepard(eurodist,obj) plot(sh$x, sh$y, main=Shepard-Diagram) abline(0, 1)
مقیاس بندی چند بعدی Eurodist
81861
من باید یک ساختار شبکه بیزی را از یک مجموعه داده یاد بگیرم. من کتابی با عنوان یادگیری شبکه های بیزی نوشته ناپلی و ریچارد را خواندم اما ایده روشنی ندارم. طبق این کتاب از داده‌ها می‌توانم: 1) همه الگوهای DAG را ایجاد کنم، که در آن یک الگوی DAG یک کلاس معادل از DAG است (در رابطه با معادل مارکوف). 2) من می توانم تمام newtowrk بیزی افزوده چند جمله ای مرتبط با هر یک از کلاس های هم ارزی را ایجاد کنم. 3) من از یک تابع امتیاز برای یافتن بهترین نیوتورک بیزی افزوده چند جمله ای استفاده می کنم. اکنون متوجه نشدم که چگونه این تابع امتیازدهی را کار کنم. در ادبیات، بیش از یک وجود دارد؟ آیا می توانید به من کمک کنید تا دقیقاً نحوه عملکرد عملکرد امتیازدهی اصلی را بفهمم؟ همچنین خوانده ام که این تحقیق در مقایسه با تعداد متغیرهای N، فوق نمایی است، درست است؟ در عوض، روش دیگری کارآمدتر وجود دارد؟
چگونه ساختار شبکه بیزی را از مجموعه داده یاد بگیریم؟
74545
من یک مجموعه داده با ستون هایی دارم که مقادیر عقب مانده پیش بینی کننده ها را نشان می دهد. برای نشان دادن یک مثال ساده، فرض کنید ما داده‌های فروش خودرو را به مدت 3 سال در اختیار داشتیم و تنها پیش‌بینی‌کننده‌های موجود درآمد و جمعیت تعدادی از فروشندگان خودرو بود، مجموعه داده را می‌توان به صورت زیر نشان داد، ID IncLag1 PopLag1 SalesLag1 IncLag2 PopLag2 SalesLag2 IncCurrent PopCurr SalesCurr یک 100 1000 200 150 2000 300 500 2500 450 b 10 300 50 60 900 80 90 1000 100 ... k 30 60 10 200 2000 60 80 800 ?? متغیر وابسته من SalesCurr است - یعنی با توجه به سابقه فروش گذشته و مقادیر مربوط به درآمد و جمعیت (که می توانیم از آن به عنوان داده آزمون قطار استفاده کنیم)، میزان فروش در سال جاری (SalesCurr) را پیش بینی کنید. سوال من به شرح زیر است -- با استفاده از R یا GRETL، چگونه می توان یک مدل ARIMA/TimeSeries با داده های بالا برای پیش بینی متغیر SalesCurrent ایجاد کرد. با استفاده از رگرسیون خطی ساده، می توان به سادگی فرمولی مانند lm (SalesCurrent ~.، data=mytable) داشت، اما این یک مدل سری زمانی نخواهد بود زیرا رابطه بین موارد مختلف را در نظر نمی گیرد. متغیرها از طرف دیگر، من کاملاً با مدل‌های یادگیری ماشینی آشنا هستم و می‌خواهم نظرات شما را در مورد اینکه چگونه می‌توان چنین مجموعه‌داده‌ای را با استفاده از مثلاً، randomForest، GBM و غیره مدل‌سازی کرد، بدانم. پیشاپیش متشکرم.
مدلسازی سری زمانی با متغیرهای تاخیری
92672
من می خواهم اساساً بپرسم عنوان چه می گوید؟ تفاوت بین _Primal_، _Dual_ و _Kernel_ Ridge Regression چیست؟ مردم از هر سه استفاده می کنند، و به دلیل نمادهای متفاوتی که همه در منابع مختلف استفاده می کنند، پیگیری برای من دشوار است. پس آیا کسی می تواند با کلمات ساده به من بگوید تفاوت بین این سه چیست؟ علاوه بر این، مزایا یا معایب هر کدام و پیچیدگی آنها چیست.
تفاوت بین رگرسیون Primal، Dual و Kernel Ridge
73537
من یک مجموعه داده کوچک و نامتعادل دارم (70 مثبت، 30 منفی)، و با انتخاب مدل برای پارامترهای SVM با استفاده از BAC (دقت متعادل) و AUC (ناحیه زیر منحنی) بازی می‌کنم. من از وزن کلاس های مختلف برای پارامتر C در libSVM استفاده کردم تا داده های نامتعادل را با توجه به توصیه های اینجا (آموزش درخت تصمیم در برابر داده های نامتعادل) جبران کنم. 1. به نظر می رسد که خطای اعتبار متقابل k-fold نسبت به نوع معیار عملکرد بسیار حساس است. همچنین به خودی خود دارای خطا است زیرا مجموعه های آموزشی و اعتبار سنجی به صورت تصادفی انتخاب می شوند. به عنوان مثال، اگر BAC را دو بار با دانه های تصادفی مختلف تکرار کنم، خطاهای مختلف و متعاقباً مقادیر پارامتر بهینه متفاوتی دریافت خواهم کرد. اگر میانگین نمرات تکرار شده BAC را به دست بیاورم، میانگین 1000 بار مقادیر پارامترهای بهینه متفاوتی نسبت به میانگین 10000 بار به من می دهد. علاوه بر این، تغییر تعداد تاها به من مقادیر پارامتر بهینه متفاوتی می دهد. 2. معیارهای دقت برای اعتبارسنجی متقابل ممکن است بیش از حد خوش بینانه باشد. معمولاً هر چیزی که بیش از یک تأیید متقاطع 2 برابری داشته باشد، دقت 100٪ را به من می دهد. همچنین میزان خطا به دلیل حجم نمونه کوچک گسسته شده است. انتخاب مدل اغلب نرخ خطای یکسانی را در تمام یا بیشتر مقادیر پارامتر به من می دهد. 3. هنگام نوشتن گزارش، چگونه می توانم بفهمم که یک طبقه بندی خوب یا قابل قبول است؟ در این زمینه، به نظر می‌رسد که چیزی شبیه به خوبی برازش یا آستانه p-value که معمولاً پذیرفته شده باشد نداریم. از آنجایی که من به صورت تکراری به داده ها اضافه می کنم، می خواهم بدانم چه زمانی باید متوقف شود - N خوب در جایی که مدل به طور قابل توجهی بهبود نمی یابد چیست؟ با توجه به مسائلی که در بالا توضیح داده شد، به نظر می رسد که نمی توان دقت را به راحتی بین انتشارات مقایسه کرد در حالی که AUC به عنوان یک شاخص ضعیف برای عملکرد توصیف شده است (برای مثال اینجا یا اینجا را ببینید). آیا توصیه ای در مورد چگونگی مقابله با هر یک از این 3 مشکل دارید؟
انتخاب یک معیار عملکرد طبقه بندی برای انتخاب مدل، انتخاب ویژگی و انتشار
48496
برای یک متغیر تصادفی $X\sim \text{Exp}(\lambda)$ ($\mathbb{E}[X] = \frac{1}{\lambda}$) به طور شهودی احساس می‌کنم که $\mathbb{E} [X|X > x]$ باید برابر با $x + \mathbb{E}[X]$ باشد زیرا توسط ویژگی بدون حافظه، توزیع $X|X > x$ مشابه با $X$ است اما تغییر کرده است. به سمت راست توسط $x$. با این حال، من در تلاش برای استفاده از خاصیت بدون حافظه برای ارائه یک دلیل واقعی هستم. هر گونه کمک بسیار قدردانی می شود. با تشکر
انتظار شرطی متغیر تصادفی نمایی
81882
چرا L2 بر خلاف L1 وزنه های صاف و غیر پراکنده تولید می کند؟
چرا تنظیم L2 وزنه های صاف و غیر پراکنده ایجاد می کند؟
64069
خطای استاندارد پیش‌بینی در رگرسیون خطی ساده $\hat\sigma\sqrt{1/n+(x_j-\bar{x})^2/\Sigma{(x_i-\bar{x})^2}}$ است. . سوال من این است که خطای استاندارد پیش‌بینی برای $pop=1029$ را فقط بر اساس خروجی رگرسیون زیر محاسبه کنم. من می توانم همه را به جز $\bar{x}$ دریافت کنم. و همچنین می دانم که چگونه خطای استاندارد تقریبی پیش بینی را بر اساس خطاهای استاندارد رهگیری و ضریب $pop$ محاسبه کنم، بدون توجه به همبستگی آنها. ![خروجی رگرسیون Stata](http://i.stack.imgur.com/0vIsj.png)
آیا می توانیم خطای استاندارد پیش بینی را فقط بر اساس خروجی رگرسیون خطی ساده محاسبه کنیم؟
71392
دو تا سوال دارم آنها مسایلی هستند از K. Fukunaga's _Introduction to Statistical Pattern Recognition_: اول: ثابت کنید معکوس $S \cdot M$ (میانگین بردار) بردار مشابهی با معکوس $\Sigma\cdot M$ است دوم: یک مقدار ویژه غیر صفر را بیان کنید. و بردار ویژه برای معکوس $\Sigma\cdot M\cdot M^t$
سوال در مورد ماتریس خودهمبستگی و کوواریانس
96760
من یک مجموعه داده با دو متغیر V1 و V2 دارم. V1 یک متغیر پیوسته است، در حالی که V2 یک متغیر باینری است. من می خواهم میانگین V1 را تخمین بزنم. V2 به عنوان افزودن خطا به V1 شناخته شده است (وجود V2 داده ها را به سمت چپ منحرف می کند، در حالی که عدم وجود آن باعث انحراف داده ها به سمت راست می شود، هر دو به یک درجه). من می خواهم میانگین V1 را در حالی که خطای اضافه شده به V1 را کنترل می کنم، تخمین بزنم (در نتیجه SE برآورد را کاهش می دهم). یک فکری که داشتم این بود که یک رگرسیون V2 ​​پیش بینی V1 را اجرا کنم. من دو مقدار V1 را روی -.5 و .5 قرار دادم. به نظر من تخمین ثابت اکنون میانگین را پیش‌بینی می‌کند، در حالی که جابجایی اضافه شده توسط V2 را کنترل می‌کند، اما درجات آزادی اضافه‌شده با گنجاندن V2 را به‌عنوان پیش‌بینی‌کننده نیز در نظر می‌گیرد. هر گونه پیشنهاد در مورد نحوه برخورد با این مشکل بسیار قدردانی می شود.
من می خواهم میانگین یک متغیر را تخمین بزنم. من می خواهم SE را با کنترل نویز معرفی شده توسط متغیر دوم دیگر کاهش دهم
38413
بنابراین من یک رویداد دارم که می تواند به صورت روزانه با احتمال 1٪ رخ دهد. هیچ وابستگی بین روزها وجود ندارد. اکنون می توانم احتمال وقوع رویداد X بار در روز Y را محاسبه کنم: COMBIN(Y,X) * (0.01 ^ X) * [0.99 ^ (Y - X)] که در آن COMBIN() تعداد ترکیبات برای X در Y. اکنون آنچه من می خواهم محاسبه کنم احتمال X رویداد در هر پنجره Y برای آخرین روزهای Z است، به عنوان مثال احتمال وقوع 5 رویداد در حداقل یک 30 چقدر است. پنجره روز در 10 سال گذشته هر گونه کمک بسیار قدردانی می شود. با تشکر **توجه:** سوال اصلی برای افزودن حداقل واجد شرایط به ازای هر پیشنهاد MansT در زیر ویرایش شد.
احتمال رخدادهای مستقل در یک پنجره مشخص
38412
من یک طبقه‌بندی مبتنی بر SVM در برابر مجموعه داده‌ها ساختم، دقت آن حدود 66% و فراخوانی حدود 88% است. به طور کلی، چه گزینه هایی برای تنظیم پارامتر وجود دارد که می تواند دقت را افزایش دهد؟
رویکردهای کلی برای بهبود طبقه‌بندی‌کننده مبتنی بر SVM که دقت پایین و یادآوری بالایی دارد.
71394
توزیع نرمال چند متغیره را در نظر بگیرید $X = [X_1, X_2, X_3]^T$ با $$ \mu = \begin{pmatrix} -3 \\\ 1 \\\ 4\end{pmatrix} \quad \quad \Sigma = \begin{pmatrix} 4 & -1 & 0\\\ -1 & 5 & 0\\\ 0 & 0 & 2\end{pmatrix}$$ باید بفهمم که آیا متغیرهای تصادفی زیر مستقل هستند: * $(X_1, X_2)$ و $X_3$ * $X_1 - X_2$ و $X_1 + X_2 - X_3$ چگونه می توانم من تعیین می کنم که؟ من می بینم که به عنوان مثال $X_1$ و $X_3$ کوواریانس $=0$ دارند. به طور معمول، این بدان معنا نیست که آنها مستقل هستند، اما (همانطور که از ویکی پدیا یاد گرفتم) از آنجایی که در اینجا $X_1$ و $X_2$ به طور معمول و مشترک توزیع می شوند، در واقع صدق می کند. اما چگونه می توانم با مبالغ و منفی کنار بیایم؟
استقلال توزیع نرمال چند متغیره
70045
متغیر تصادفی من $X$ معمولاً با میانگین $b$ و واریانس $p$ توزیع می شود. من یک RV جدید تعریف کردم، $Y$، به طوری که $Y=1/X$. آیا کسی می داند چگونه می توان میانگین $Y$ و $Y^2$ را پیدا کرد؟
میانگین و واریانس معکوس یک RV معمولی
87466
چرا انجام تجزیه و تحلیل تشخیص خطی (LDA) بر روی یک محصول بیرونی ماتریس ورودی، نتیجه ای مشابه با انجام تجزیه و تحلیل مؤلفه اصلی (PCA) ماتریس ورودی دارد؟ دقیقاً مطمئن نیستم که این از کجا آمده و چرا کار می‌کند، اما حاصلضرب بیرونی ماتریس ورودی $X^T X$ در PCA از آن برای ایجاد مربع ماتریس استفاده می‌کنند، بنابراین می‌توانند تجزیه و تحلیل تفکیک خطی را روی آن ماتریس انجام دهند. همچنین در معادله نرمال به عنوان اولین مرحله برای حل ضریب رگرسیون در رگرسیون خطی استفاده می شود. یک تفسیر هندسی بسیار مفید خواهد بود.
چرا انجام LDA بر روی یک محصول بیرونی ماتریس ورودی نتیجه مشابهی با انجام PCA ماتریس ورودی دارد؟
55742
در ادبیات، اصطلاحات تصادفی سازی و جایگشتی به جای یکدیگر استفاده می شوند. با بسیاری از نویسندگانی که تست های جایگشت (معروف به تصادفی سازی) را بیان کرده اند، یا برعکس. در بهترین حالت، من معتقدم که تفاوت ظریف است، و در مفروضات آنها در مورد داده ها و نتایج بالقوه ای است که می توان گرفت. فقط باید بررسی کنم که آیا درک من درست است یا تفاوت عمیق تری وجود دارد که من از آن غافل هستم. آزمون‌های جایگشت فرض می‌کنند که داده‌ها به‌طور تصادفی از یک توزیع جمعیت زیربنایی (مدل جمعیت) نمونه‌برداری شده‌اند. این به این معنی است که نتایج به دست آمده از آزمون جایگشت عموماً برای سایر داده های جمعیت قابل استفاده است [3]. آزمون‌های تصادفی‌سازی (مدل تصادفی‌سازی) به ما اجازه می‌دهد که فرض غیرقابل قبول تحقیقات روان‌شناختی معمولی --- نمونه‌گیری تصادفی از یک توزیع مشخص را کنار بگذاریم [2]. با این حال، این بدان معناست که نتایج به دست آمده فقط برای نمونه های مورد استفاده در آزمون قابل استفاده است [3]. مطمئناً تفاوت فقط در تعریف جمعیت است. اگر جمعیت را «همه بیماران مبتلا به این بیماری و مناسب برای درمان» تعریف کنیم، آزمایش جایگشت برای آن جمعیت معتبر است. اما از آنجایی که ما جمعیت را به افرادی که برای درمان مناسب هستند محدود کرده‌ایم، این واقعاً یک آزمایش تصادفی است. منابع: [1] فیلیپ گود، آزمون های جایگشت: راهنمای عملی روش های نمونه گیری مجدد برای آزمون فرضیه ها. [2] یوجین ادینگتون و پاتریک اونگنا، آزمون های تصادفی سازی. [3] مایکل ارنست، روش‌های جایگشت: مبنایی برای استنتاج دقیق
تفاوت بین آزمون تصادفی سازی و آزمون جایگشت
70043
من در حال بررسی الگوریتم‌ها برای تخمین احتمالات انتقال یک زنجیره مارکوف مجزا هستم و متوجه شدم که می‌توان از رویکرد EM استفاده کرد. با این حال، من نمی‌توانم توضیح ساده‌ای در مورد نحوه پیاده‌سازی الگوریتم EM برای جا دادن یک زنجیره مارکوف مجزا که یک توالی داده را ارائه می‌دهد، پیدا کنم. آیا تابع R وجود دارد که این کار را انجام دهد؟
الگوریتم EM برای تخمین احتمالات گسسته انتقال زنجیره مارکوف