_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
68542 | من یک مدل میانجیگری تعدیلشده با اثر میانجیگری قوی، اما با نتایج گیجکننده برای اثر تعدیلکننده (با استفاده از PROCESS) دارم. اگرچه اثر متقابل در مدل رگرسیون ناچیز است، اما اثر غیرمستقیم شرطی نشان میدهد که اثر واسطهای مشروط به تعدیلکننده است (مقادیر بالای صدک 10 معنیدار هستند). برای درک بهتر آنچه در جریان است، از ماکرو MODMED نیز استفاده کردم که به من امکان می دهد از تکنیک جانسون نیمن استفاده کنم. چیزی که این نشان میدهد این است که ناظم تأثیر قابلتوجهی در مقادیر ناظم بالاتر از 3،38 دارد (من از مقیاس 5 امتیازی استفاده میکنم). با این حال، دوباره، تعامل در مدل رگرسیون ناچیز است. من ادبیات را مرور کردم اما نتوانستم پاسخی پیدا کنم. آیا می توانید به من کمک کنید؟ | MODMED در PROCESS اصطلاح تعاملی ناچیز و در عین حال اثر مشروط مهم ایجاد می کند: چگونه تفسیر کنیم؟ |
3392 | به نظر می رسد که افراد زیادی (از جمله من) دوست دارند تجزیه و تحلیل داده های اکتشافی را در اکسل انجام دهند. برخی محدودیتها، مانند تعداد ردیفهای مجاز در یک صفحهگسترده، دردسرساز هستند، اما در بیشتر موارد استفاده از اکسل برای بازی با دادهها را غیرممکن نمیکند. با این حال، مقاله ای از مک کالو و هایزر عملاً فریاد می زند که اگر سعی کنید از اکسل استفاده کنید، نتایج خود را اشتباه می گیرید - و احتمالاً در جهنم نیز خواهید سوخت. آیا این مقاله صحیح است یا مغرضانه است؟ نویسندگان به نظر از مایکروسافت متنفر هستند. | اکسل به عنوان یک میز کار آمار |
87831 | من یک مجموعه داده بزرگ دارم که میخواهم همبستگیها را در آن پیدا کنم. تاکنون ناموفق بودهام. من نمی دانم که آیا این ایده خوبی خواهد بود که: 1. میانگین همه ورودی های همسایه را در همه متغیرهای من در نظر بگیریم. (این بدان معناست که اگر من یک بردار $X=(x_1,\ x_2,\ x_3,\ x_4,\ \ldots)$ داشته باشم آن را به: $X=((x_1+x_2)/2,\ (x_3) تبدیل می کنم +x_4)/2,\ \ldots)$) زیرا برخی از متغیرها واریانس بسیار بالایی دارند که ممکن است همبستگی ها را پنهان کند. 2. تفاوت ها را در نظر بگیرید. این بدان معناست که من $X=(x_1,\ x_2,\ x_3,\ x_4,\ \ldots)$ را به $X=(x_1-x_2,\ x_2-x_3,\ x_3-x_4,\ \ldots)$ تبدیل می کنم. از آنجا که هر ورودی مربوط به 1 نقطه در زمان است، منظورم این است که $x_2$ یک دوره زمانی بعد از $x_1$ می آید. پس از این تحولات من دوباره برای همبستگی آزمایش می کنم. آیا این ایده منطقی است؟ من فرض میکنم که اگر قبلاً همبستگی قابل توجهی وجود نداشته باشد، این تحولات آن را تغییر نمیدهند، اما مطمئن نیستم. اگر این معقول است، چگونه می توانم آن را در R انجام دهم؟ | تأثیر استفاده از تفاوت ها یا ابزارها برای یافتن همبستگی |
79275 | یک متغیر تصادفی غیرمنفی $x$ دارای توزیع یکنواخت پیوسته در بازه $(0,\theta)$ است. بنابراین، احتمال با: $f(x|\theta) = \frac{1}{\theta}I(x\leq\theta)$ داده میشود، که در آن $I$ یک تابع نشانگر است. اما جفریز برای پارامتر $\theta$ چه چیزی مقدم است؟ به طور خاص، چگونه می توان عملکرد نشانگر را هنگام محاسبه اطلاعات فیشر مدیریت کرد؟ | Jeffreys برای توزیع یکنواخت مداوم |
68545 | من باید انتخاب مدل را با استفاده از رویکرد p-value استاندارد انجام دهم. با استفاده از رگرسیون لجستیک می خواهیم مدل های زیر را با هم مقایسه کنیم: Y = A + B + C + D Y = A*B + A + B + C + D Y = A*C + A + B + C + D Y = A*D + A + B + C + D تجزیه و تحلیل زیر را در R انجام دادم: اول <- glm(Y~G+N+E+C, family=binomial) دوم <- glm(Y~G*N+G+N+E+C, family=binomial) سوم <- glm(Y~G*E+G+N+E+C, family=binomial) چهارم <- glm(Y~G*C+G+N+E+C، Family=binomial) خلاصه (اول) خلاصه (دومین) خلاصه (سوم) خلاصه (چهارم) anova (اول، دوم، سوم، چهارم، test=Chisq) با این حال، من فکر می کنم خروجی مناسبی برای انتخاب مدل بر اساس p-values در اینجا ندارم؟ anova (اول، دوم، سوم، چهارم، تست = Chisq) # تجزیه و تحلیل جدول انحراف # مدل 1: Y ~ G + N + E + C # مدل 2: Y ~ G * N + G + N + E + C # مدل 3: Y ~ G * E + G + N + E + C # مدل 4: Y ~ G * C + G + N + E + C # Resid. Df | مقیم توسعه دهنده | Df | انحراف | Pr(>Chi) # 1 595 | 609.90 | # 2 594 | 609.90 | 1 | 0.000169 | 0.9896 # 3 594 | 609.81 | 0 | 0.087775 | # 4 594 | 609.90 | 0 | -0.085001| بنابراین، چگونه می توان یک انتخاب مدل را در اینجا با استفاده از یک رویکرد P-value استاندارد انجام داد؟ | انتخاب مدل با استفاده از روش استاندارد p-value |
79277 | من یک ماتریس ویژگی n توسط p دارم که n کوچک است. من میخواهم اعتبارسنجی متقاطع ترک یکبیرون (LOOCV) را انجام دهم. آیا باید در همان ابتدا یک بار تکنیک کاهش ابعاد (مانند PCA) را اعمال کنم و LOOCV را بر اساس ماتریس ویژگی جدید انجام دهم یا PCA را در طول هر کدام اعمال کنم. حلقه LOOCV (بنابراین من ماتریس های ویژگی های مختلف را در حلقه های مختلف دریافت می کنم)؟ | زمان استفاده از PCA در این سناریو |
25914 | اجازه دهید $X_1,X_2,...,X_n$ تعداد ثابتی از متغیرهای تصادفی برنولی باشد. مشکل من این است که توزیعی برای $Y$ پیدا کنم به طوری که برای برخی از تابع $f$، $Y=f(X_1,X_2,...,X_n)$ داشته باشیم. دو تابع کاندید برای استفاده وجود دارد، $max$ یا $avg$. من نمی دانم که آیا یک تابع متوسط در اینجا کار می کند یا نه، اما فکر می کنم نتیجه معنی داری به من بدهد. من مشکلات مشابهی را بررسی کردم و بیشتر مواردی را پیدا کردم که $X_i$ متغیرهای تصادفی پیوسته هستند. هر گونه اشاره در مورد این مشکل بسیار قدردانی می شود. با تشکر | تابعی از متغیرهای برنولی؟ |
109389 | من در حال خواندن این مقاله در مورد فاکتورسازی ماتریس هستم. در مقاله آنها می خواهند ویژگی های گره ها را در مدل ترکیب کنند (صفحه 6). ابتدا آنها ایده ساده ترکیب ویژگی های دو گره را به شکل خطی وزن دار $x_{ij} = [x_i x_j]$ نشان می دهند، بنابراین امتیاز=$x_{ij}^T\times w$. بردار $x_{ij}$ برداری است که ویژگیهای گرههای $i$ و $j$ را ترکیب میکند. گفتند این خوب نیست چون از مسئله **گرایش** رنج می برد! من کاغذی را که لینک کرده بودند بررسی کردم اما نتوانستم بفهمم این چه جهنمی است. سپس آنها گفتند که به جای آن از **فرم رگرسیون دوخطی** استفاده می کنند: $score = x_i^T V x_j$ که $V \in R^{d\times d}$ ماتریس پارامترها/وزن ها و $d$ عدد است. ویژگی های یک گره 1- آیا می دانید آن مسئله گرایش به چه معناست؟ 2- چرا فرم دوخطی بهتر است؟ با اینکه تعداد زیادی پارامتر ($d^2$) داره!!! | تمایل در مدل های خطی و مدل های رگرسیون دوخطی |
103451 | من یک رگرسیون رشد اقتصادی را با استفاده از داده های پانل پویا تخمین می زنم. مشخصات من به شرح زیر است: $$\ln Y_{i,t} = a \ln Y_{i,t-1} + bX_{i,t} + e_{i,t}$$ * $Y$ درآمد را اندازه میگیرد سرانه * $X$ متغیر مستقل بهره است که سهم معینی از تولید ناخالص داخلی را نشان می دهد (به عنوان مثال 0.05) از مشخصات چنین بر می آید که من تأثیر بر رشد اقتصادی را به صورت تخمین می زنم. خوب: $$\ln Y_{i,t} - \ln Y_{i,t-1} = (a-1) \ln Y_{i,t-1} + bX_{i,t} + e_{i ,t}$$ پس از اجرای مدل، تخمین $b$ 0.07 است. آیا کسی می تواند به من در تفسیر این تخمین کمک کند؟ میخواهم بدانم تغییر نرخ رشد از این 0.07 چیست؟ | تخمین ها از یک مدل رگرسیون لاگ خطی |
87832 | من سعی داشتم بهتر بفهمم که چه زمانی میتوانیم یک پارامتر منحصر به فرد برای رگرسیون خطی را یاد بگیریم و چه مقدار داده برای بدست آوردن آن لازم است. بگوییم که می خواهیم پارامتر $\theta$ را یاد بگیریم به طوری که ریسک تجربی $R_n(\theta)$ به حداقل برسد. برای آن میخواهیم: \begin{align} \bigtriangledown R_{n}( \theta )_{\theta = \hat{\theta}} &= 0 \\\ \bigtriangledown\frac{1}{n} \sum ^n_{t=1} (y^{(t)} - \theta \cdot x^{(t)}) &= \frac{1}{n}\sum^n_{t=1}-y^{(t)}x^{(t)} + \frac{1}{n} \sum^n_{t=1} x^{(t)} {x^{(t)}}^{T}\theta \end{align} اگر اجازه دهیم $b = \frac{1}{n}\sum^n_{t=1}y^{(t)}x^{(t)}$ و $A = \frac{1}{n} \sum^n_{ t=1}x^{(t)} {x^{(t)}}^{T}\theta$، سپس میتوانیم آن را دوباره بنویسیم: \begin{align} -b + A \hat{\ تتا} &= 0 \\\ A \hat{\theta} &= b \end{align} یا معمولاً با نامهای زیر شناخته میشود: \begin{align} b &= \frac{1}{n}x^{T}y \\\ A &=\ frac{1}{n}X^{T}X \\\ X^{T}X \hat{\theta} &= X^{T}y \end{align} اما برای من مشخص نبود چه شرایطی ما برای $A$ یا $X$ نیاز داریم بنابراین که $A$ معکوس بود. واضح است که $A$ باید در $R^d$ باشد که در آن $d$ ابعاد داده ها است، اما چگونه می توان آن را ترجمه کرد که داده های آموزشی چگونه باید در آن زیرفضا باشد؟ حدس میزنم که به طور خاص مطمئن نیستم که $A$ چه زمانی در رابطه با $X^T X$ معکوس است. این عمدتاً یک سؤال جبر خطی است، با این حال، از آنجایی که من این را در زمینه یادگیری ماشینی نیز پست کردم، خوب است که پاسخی دریافت کنم که توضیح دهد چه شرایطی باید از **نقاط آموزشی ** داشته باشیم به طوری که $ X^TX$ معکوس است. یعنی به چه شرایطی در ** ردیف*های X نیاز داریم به طوری که $X^TX$ معکوس باشد. (همچنین، من علاقه مند به پاسخی هستم که آموزنده باشد، اما اگر با اثبات ادعاها همراه باشد، من را بیشتر خوشحال می کند) | راه حل فرم بسته رگرسیون خطی و داشتن امتیاز تمرینی کافی |
91324 | من واقعاً در آمار زنگ زده هستم و سعی می کنم یک کد سی شارپ بنویسم که در آن لیستی از اعداد را تغذیه می کنم و به من می گوید که آیا اعداد به طور معمول توزیع شده اند یا نه. من 50 عدد از سایت زیر با میانگین 0 و واریانس 1 تولید کردم. تست (http://en.wikipedia.org/wiki/Anderson%E2%80%93Darling_test). من A^2 = -N - 1 / N * sum(1, N)( (2*i - 1) * (ln Phi(Y[i]) + ln (1-Phi(Y[n+1-) را اجرا کردم i]) ) ) ) (تقریباً نیمی از صفحه است، موردی که میانگین و واریانس هر دو مشخص هستند.) تابع Phi از http://www.johndcook.com/csharp_phi.html وقتی کدی را که روی یک توزیع عادی واقعی نوشته ام اجرا می کنم، مقدار -3.05 برمی گردم. آیا گام بعدی جستجوی این عدد در جدول مقادیر بحرانی توزیع نرمال برای بدست آوردن احتمال مرتبط است؟ -3.05 نقشه تا 0.0011. آیا این به این معنی است که دادههای من 0.11 درصد احتمال دارد که از یک توزیع معمولی بیایند (با فرض اینکه کد من درست باشد) | تست کد اندرسون-دارلینگ |
87834 | من مدلهای مختلط خطی را با استفاده از lme4 انجام میدهم و این نتایج مقایسه مدل است: > anova(lmer5,lmer6,lmer32) Df AIC BIC logLik Chisq Chi Df Pr(>Chisq) lmer32 9 43172 43226 -21577 lmer6331921 6.3081 12 0.8998 lmer5 26 43162 43317 -21555 37.9971 5 3.778e-07 *** همانطور که می بینید، نتایج نشان می دهد که یک مدل به طور قابل توجهی بهتر از بقیه است و به طور معمول من مدلی با کوچکترین logLik را انتخاب می کنم. اما در این نتیجه، logLik منفی است. به نظر شما انتخاب مدل از logLik در این مورد ایده خوبی است یا باید آن را از AIC یا BIC انتخاب کنم. از آنجایی که نتیجهگیری نمیشود که آیا AIC بهتر از BIC است، من گیج هستم که کدام یک را انتخاب کنم. نظر شما چیست؟ | اگر لاگ احتمال منفی است، آیا باید آن را انتخاب کنیم؟ - مقایسه مدل |
103459 | من سعی می کنم بفهمم کدام روش اعتبار سنجی متقاطع برای شرایط من بهترین است. دادههای زیر فقط نمونهای برای کار کردن با مشکل (در R) هستند، اما دادههای «X» واقعی من («xmat») با یکدیگر مرتبط هستند و به درجات مختلفی با متغیر «y» («ymat») مرتبط هستند. . من کد R را ارائه کردم، اما سوال من در مورد R نیست بلکه در مورد روش ها است. «Xmat» شامل X متغیرهای V1 تا V100 است در حالی که «ymat» شامل یک متغیر y است. set.seed(1233) xmat <- matrix(sample(-1:1, 20000, replace = TRUE), ncol = 100) colnames(xmat) <- paste(V, 1:100, sep = ) rownames(xmat) <- paste(S, 1:200, sep = ) # داده های واقعی y با xmat ymat <- matrix(rnorm(200, 70,20), ncol = 1) rownames(ymat) <- paste(S, 1:200, sep=) من می خواهم مدلی برای پیش بینی بسازم y بر اساس تمام متغیرهای «xmat». بنابراین یک مدل رگرسیون خطی «y ~ V1 + V2 + V3+ ... + V100» خواهد بود. از یک بررسی، می توانم سه روش اعتبارسنجی متقاطع زیر را ببینم: 1. **داده ها را به نصف تقسیم کنید** و از یکی برای آموزش و از نصف دیگر برای آزمایش استفاده کنید (اعتبار متقابل): prop <- 0.5 # نسبت مجموعه داده های زیر مجموعه .seed(1234) # آموزش مجموعه داده آموزش.s <- نمونه (1:nrow(xmat), round(prop*nrow(xmat),0)) xmat.train <- xmat[training.s,] ymat.train <- ymat[training.s,] # testing مجموعه داده testing.s <- setdiff(1:nrow(xmat), training) xmat.test <- xmat[testing.s, ] ymat.test <- ymat[testing.s,] 2. ** اعتبار سنجی متقاطع K-fold ** \- با استفاده از اعتبار سنجی متقاطع 10 برابری: mydata <- data.frame(ymat, xmat) fit <- lm(ymat ~ ., data=mydata) library(DAAG) cv.lm(df=mydata, fit, m=10) # اعتبارسنجی متقاطع ده برابری 3. **ماسک کردن یک مقدار یا چند مقدار در یک زمان**: در این روش ما به طور تصادفی یک مقدار در مجموعه داده (y) را با جایگزین کردن آن با NA پوشانده و آن را پیش بینی می کنیم. این فرآیند n بار تکرار می شود. n = 500 پیش بینی شده.v <- rep(NA, n) real.v <- rep(NA, n) برای (i در 1:n){ masked.id <- نمونه (1:nrow(xmat)، 1) ymat1 <- ymat real.v[i] <- ymat[masked.id،] ymat1[masked.id،] <- NA mydata <- data.frame(ymat1, xmat) fit <- lm(ymat1 ~ ., data=mydata) predicted.v[i] <- fit$fitted.values[masked.id] } چگونه بفهمم کدام یک برای هر موقعیتی بهترین است ? آیا روش های دیگری وجود دارد؟ اعتبار سنجی بوت استرپ در مقابل «CV»؟ نمونه های کار شده قدردانی می شود. | چگونه می توانم بدانم کدام روش اعتبارسنجی متقابل بهترین است؟ |
95647 | من سه معادله دارم و نمیفهمم چرا نقاط را از دست دادم. تمام آنچه گفته شد ساده سازی بود. B^4Yt = c + et (B-0.6B^3)Yt=(2+5B+0.8B^2)et Yt=(1+B^3/B)et | چگونه می توان معادله را بدون استفاده از نشانه گذاری به عقب و با بیان Yt به تنهایی در سمت چپ ساده کرد؟ |
109381 | در مدل های خطی OLS، امتیازات برازش شده (پیش بینی شده) و باقیمانده ها همبستگی ندارند. این تصور را داشتم که در مدل های ترکیبی هم همینطور است. با این حال، من در اینجا یک مدل نمونه دارم که در آن نمرات برازش شده و باقیمانده (شرطی) همبستگی دارند. آیا توجیه نظری برای این اتفاق وجود دارد یا مرجع خوبی برای آن وجود دارد؟ به اطراف نگاه کردم اما چیز زیادی پیدا نکردم. از آزمایش با دادهها دریافتم که تخمین واریانس باقیمانده (مثلاً با Rlm4) با مجموع واریانس نمرات باقیمانده به اضافه کوواریانس بین امتیازات باقیمانده و امتیازات پیشبینیشده مطابقت دارد. باز هم نتوانستم توضیح نظری پیدا کنم. مثال: > a <-rnorm(100,0,10) > d<-as.data.frame(rbind(cbind(1,1:100,a),cbind(2,1:100,a))) > names(d)<-c('cond','id','a') > d\$y<-d\$a+d\$cond+rnorm(200,0,4) > mm<-lmer(y~(1|id),data=d,REML = F) > خلاصه (mm ) $\ $ مدل مختلط خطی متناسب با حداکثر احتمال ['merModLmerTest'] فرمول: y ~ (1 | id) داده: d AIC BIC logLik انحراف df.resid 1414.2 1424.1 -704.1 1408.2 197 scaled resduals: Min 1Q Median 3Q Max -2.21522 -0.43740 0.05079 0.43243 2.06045 Varidom St. id (Intercept) 108.65 10.423 Residual 18.95 4.353 تعداد obs: 200، گروه ها: id، 100 جلوه های ثابت: Estimate Std. خطای df t مقدار Pr(>|t|) (Intercept) 1.982 1.087 100.000 1.823 0.0712 . --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 cor(پیشبینی (میلیمتر)، باقیماندهها (میلیمتر)) [1] 0.2725048 با تشکر از هرگونه راهنمایی | همبستگی برازش-باقیمانده در مدل های مختلط |
111865 | آیا کسی ابزاری را میشناسد که بتوانم از آن برای تولید مجموعهای از دادهها با همبستگیهای شناختهشده استفاده کنم (و برای قرار دادن روی کیک - خروجی آن در json، csv، txt یا فرمتهای معمولی)؟ من روی برخی تجسمهای داده کار میکنم و میخواهم ارزیابی کنم که کدام یک میتوانند راحتتر به کاربر اجازه دهند تا همبستگیها را ببیند - به صورت بصری. | ابزاری برای تولید مجموعه داده های همبسته |
108383 | من یک مجموعه داده دارم که در آن هر ردیف اندازه گیری ساعتی فیلدهای خاص (ستون ها) است. سپس برای هر ستون ستون دیگری اضافه می کنم که امتیاز _z_ مربوطه آن نسبت به کل جمعیت است. اگر سپس با محاسبه میانگین کل برای تمام ردیفهای ادغام شده، ماهانه گروهبندی کنم، آیا امتیازات _z_ من هنوز معتبر است یا باید امتیاز _z_ را برای هر ماه دوباره محاسبه کنم؟ **ویرایش** متوجه شدم که در سوالم به اندازه کافی واضح نبودم. من یک مجموعه داده مانند اندازه گیری ساعتی آب و هوا دارم که به چندین سال قبل برمی گردد:  در پاندا I گروه بندی و میانگین هر ساعت مربوطه (بنابراین من میانگین میکنم و همه ردیفهای ۱ ژانویه ۲ بعد از ظهر را در تمام سالها گروهبندی میکنم... df['hour'] = df['Date'].apply(lambda t: %d-%d-%d % (t.month, t.day, t.hour)) g = np.round(df.groupby('hour').mean(),decimals=4).reset_index () که این را برمی گرداند:  سپس دیتافریم گروه بندی شده (g) را در قالب اصلی ادغام می کنم df با اضافه کردن یک ستون برای هر میانگین، فهرست را به تاریخ تنظیم مجدد کنید، و ستون 'ساعت' را از df گروه بندی شده رها کنید: new_df = pd.merge(left=df, right=g, on='hour', پسوندها= ('','_avg') ) new_df.set_index('Date').drop('hour',axis=1,inplace=False).head() این را برمی گرداند:  با این حال، آنچه من می خواهم این است که با استفاده از انحراف استاندارد کل جمعیت، یک ستون z score برای هر ماه/روز/ساعت مربوطه اضافه کنم. من در واقع اکنون مطمئن هستم که چگونه این کار را انجام دهم، اما فکر می کنم شبیه به نحوه محاسبه سایر ستون های _avg باشد. با فرض اینکه همه اینها ممکن است و هر سطر ساعت دارای ستونهای z-score اضافی برای هر متریک است، این در نهایت من را به سؤال اصلی من میرساند... بعداً در خارج از زمینه پایتون/پاندا، فرض کنید فقط یک سال از دادهها را میگیرم. گروه به ماه، و به طور میانگین جمع آوری کنید. آیا میانگین امتیازات z به تفکیک ماه همچنان نماینده کل جمعیت اصلی خواهد بود؟ به عنوان مثال فرض کنید من میانگین های ژوئن 2011 را گرفتم و متوجه شدم که نمره z دما 1.2 است. آیا می توانم بگویم که میانگین دمای ژوئن 2011 1.2 انحراف استاندارد از میانگین نرمال (کل جمعیت) فاصله داشته است؟ | میانگین امتیاز z هنگام انجام یک گروه توسط |
95641 | من از مدل های مختلف برای مدل سازی داده های شمارش استفاده می کنم، هدف از مدل سازی پیش بینی است. مقادیر از 0 تا 7 متغیر است. من سعی می کنم از روش اعتبار سنجی متقاطع برای ارزیابی عملکرد پیش بینی خارج از نمونه استفاده کنم، اما از چه معیار خطای باید استفاده کنم؟ آیا RMSE کافی است؟ از چه روش های دیگری برای مقایسه و ارزیابی مدل ها می توانم استفاده کنم؟ | اعتبارسنجی مدل داده شمارش |
35368 | من یک سری زمانی با مشاهدات دارم که به صورت شبه دو هفتهای در طول چندین سال جمعآوری شدهاند. با این حال، بین 23 تا 26 مشاهده در سال وجود دارد. سری زمانی به دلیل آب و هوای بد یا تعطیلات که در آن نمونهگیری صورت نگرفته است فاصله یکسانی ندارد. آیا میانگین گیری این مشاهدات برای بدست آوردن فرکانس قابل استفاده در یک شی سری زمانی R مشروع است؟ برای نشان دادن، در اینجا چند کد (سری زمانی مقادیر pH در آب باران): داده <- read.table(http://dl.dropbox.com/u/2108381/Data.txt) Data.col <- data.frame (زمان = داده[1:122،1]، مقدار = داده[123:244،1]) شماره داده <- as.numeric(Data.col$Value) pH.TimeSeries <- ts(Dat.num، start = c(2006,2)، فرکانس = 24.4) pH.decomp <- decompose(pH.TimeSeries) نمودار(pH.decomp ) آیا می توان اینگونه به تحلیل سری های زمانی نزدیک شد؟ آیا می توانم تجزیه را اینگونه انجام دهم؟ و آیا می توان میانگین فرکانس ها را در طول سال ها محاسبه کرد؟ نمودارهای تجزیه منطقی هستند زیرا در تابستان پیک فصلی و روند صعودی pH وجود دارد. هر گونه پاسخ مستقیم به این چالش یا پیوند به سایر وب سایت ها / پست ها بسیار قدردانی می شود. مقداری گوگل فو از طرف من فایده ای نداشت. لطفا اگر راه هایی برای بهبود این سوال وجود دارد به من اطلاع دهید. با تشکر از وقت شما! | آیا می توان به طور متوسط فرکانس های سالانه را برای منظم کردن یک سری زمانی تعیین کرد؟ |
23427 | من با مفهوم HMM ها تازه کار هستم. من 2 HMM را جداگانه آموزش داده ام. HMM1 با نمادهای A، B، C آموزش داده می شود. HMM2 با نمادهای D، E، F آموزش داده می شود. من مجموعه ای از نمادهای مشاهده در مجموعه V={A,B,C,D,E,F} دارم. در مرحله آزمایش، با تلاش برای مرتبط کردن یک بردار آزمایشی به یکی از نمادهای V (**استفاده از فاصله اقلیدسی تا مراکز خوشه**) یک نماد استخراج می کنم. ** چگونه می توانم احتمال ورود به سیستم یک دنباله مشاهده A، B، C،... را تعیین کنم اگر آن HMM فقط با نمادهای D، E، F...** آموزش داده شده باشد؟ یا اینکه **loglihood** در این مورد تعریف نشده است؟ آیا لازم است که نمادهای مشاهده ای بین HMM های مختلف به اشتراک گذاشته شوند؟ یعنی از مجموعه نمادهای مشاهدات رایج **V** انتخاب شده است؟ لطفا به من کمک کنید بفهمم چه اشتباهی انجام می دهم؟ | طبقه بندی نمادهای مشاهده در HMM؟ |
76948 | حداقل تعداد نقاط داده مورد نیاز برای تخمین چگالی هسته که غیر گمراه کننده/قابل قبول/کافی تلقی شود چقدر است؟ آیا قاعده ای بر اساس پراکندگی داده ها وجود دارد؟ به عنوان مثال، اگر محدوده بین چارکی به اندازه کافی کوچک باشد، آیا به امتیاز کمتری نسبت به زمانی که محدوده بین چارکی بزرگتر باشد نیاز دارید؟ از طرف دیگر، ممکن است با موقعیتی مواجه شده باشید که اندازه معینی از مجموعه داده «کافی» یا «کافی نیست» و میتوانید دلایل کارکرد/عدم کارکرد KDE در آن مورد خاص را به اشتراک بگذارید؟ معیارهای ارزیابی دقت: اگر دو نمونه از یک جامعه داشته باشید و روی هر کدام یک KDE انجام دهید، آنگاه دو چگالی حاصل بسیار شبیه به هم هستند. | حداقل تعداد نقاط داده مورد نیاز برای تخمین چگالی هسته چقدر است؟ |
109038 | من مطالعه ای را انجام دادم که به بررسی پاسخ های MEG (EEG با آهنربا) در محدوده باند گاما (30 تا 50 هرتز) در چند روز پرداخت. دادههای زیر زمانبندی پاسخ اولیه در آن محدوده (در ثانیه)، در یک ماتریس n(موضوع)*m(ارایهدهندگان (در موارد مختلف)) ماتریس 0.1025 0.068333333 0.088333333 0.15 0.06 0.15 0.063330.069 0.069 0.083333333 0.080833333 0.075 0.14 0.15 0.133333333 0.1425 0 وقتی از بسته «irr» استفاده میکنم، و سعی میکنم از یک ICC(3,k) استفاده کنم [به نام «iccresult<-ic» دو طرفه، توافق، متوسط)`]، من یک مقدار ICC (`iccresult$value`) 6.921847 دریافت می کنم. اکنون معمولاً وقتی چیزهایی را میشکنم، خودم میتوانم آن را بفهمم، اما به نظر میرسد این یکی در زمینهای است که من تخصص ندارم. هر ایده ای؟ | بسته 'irr' R که مقادیر ICC را خارج از 0 - 1 می دهد |
111040 | # سوال من می خواهم یک رگرسیون لجستیک انجام دهم که در آن متغیرهای مستقل با میانگین logit مقایسه شوند، نه اینکه logit با یک گروه مرجع خاص مقایسه شود. # مثال مثال زیر نشان می دهد که لوجیت am==1 با کربوهیدرات==1 (گروه مرجع) مقایسه می شود: glm( am==1 ~ فاکتور(کربوهیدرات)، داده = mtcars، خانواده = دوجمله ای ممکن است (و آیا منطقی است؟) به جای مقایسه آن با کربوهیدرات ==1، logit am==1 را با میانگین logit مقایسه کنید، امیدوارم این منطقی باشد :) | رگرسیون لجستیک: تلاش برای استفاده از لاجیت میانگین به عنوان گروه مرجع |
87838 | نزول گرادیان تصادفی (برای رگرسیون): $\theta = 0 $ $ \text{به طور تصادفی } t \in [1,n]\\{\\\ \quad \theta^{(k+1)} انتخاب کنید تتا^{k} + \eta_{k}(y^{(t)} - \theta \cdot x^{(t)})x^{(t)}\\\ \\}$ من چند یادداشت را دنبال میکردم و میگفتم که برای همگرا بودن شیب نزولی تصادفی، کافی است نرخ یادگیری را روی: $$\eta_{k} = \frac{1}{k+1}$$ تنظیم کنیم. من معمولاً تلاشهایم را برای یک سؤال پست میکنم، اما صادقانه بگویم نمیدانم چگونه ثابت کنم که تنظیم آن مقدار باعث همگرایی شیب نزولی تصادفی میشود. اگر کسی اثباتی را بداند بسیار عالی خواهد بود! همچنین پاسخی که حاوی یک برهان باشد، حتی اگر برای یک مورد خاص باشد، مثلاً «تابع محدب» یا در مورد رگرسیون خطی یا هر مورد دیگری، اما بینش (یا اثبات) را ارائه میکند که چرا این نتیجه برای موارد مختلف برقرار است. تنظیم نزول گرادیان تصادفی، پاسخ خوبی خواهد بود! من میدانم که یافتن راهحلهای حداقل جهانی به هر حال واقعاً سخت است، بنابراین اگر پاسخ شما حاوی یک اثبات/استدلال خوب باشد و/یا اگر حاوی مثالی در یادگیری ماشین باشد، محدود کردن پاسخ شما مشکلی ندارد. همچنین، اگر اثبات را به خاطر نمی آورید، اما در عوض شاید شهود خوبی در مورد اینکه چرا آن مقدار برای نزول گرادیان تصادفی خوب است، دارید، این نیز برای من پاسخ بسیار مفیدی خواهد بود! :) پیشاپیش متشکرم! | نحوه تنظیم اندازه گام برای نزول گرادیان تصادفی به گونه ای که قابل اثبات آن همگرا شود |
79276 | من یک رگرسیون OLS از کمک های مالی افراد به یک سازمان غیرانتفاعی انجام می دهم. مبلغ اهدایی متغیر وابسته و متغیرهای ساختگی (درمان) تنها متغیرهای مستقل هستند. متغیر درمان تغییریافته معنیدار است (سطح 5%)، اما وقتی گزارشی از مقدار اهدا (نه درمان) میگیرم، متغیرهای درمان بسیار ناچیز میشوند. آیا این یک مشکل پرت را نشان می دهد و نباید برای تفسیر داده ها استفاده شود؟ | اگر یک تبدیل ورود به سیستم اهمیت را در رگرسیون از بین ببرد چه؟ |
76946 | من سعی می کنم یک تجزیه و تحلیل قدرت پس از آن را بر روی گزارشی که قبلا منتشر شده است اجرا کنم. هدف این است که میانگین توان به دست آمده برای (معادل) اثرات کوهن d = 0.20، 0.50، 0.80) برای همه اثرات اصلی و تضادها محاسبه شود. طرح مطالعه به شرح زیر است: N = 240، اندازه گیری های مکرر مخلوط (تقسیم پلات) 2x4 (x4) ANOVA. برای ساده تر، دو عامل اول بین موضوعات هستند. عامل الف (جنسیت) دارای 2 سطح (مذکر، زن) و عامل ب (قومیت) دارای 4 سطح در مجموع 8 گروه آزمایشی است. گروه ها با n = 30 در کوچکترین واحد مشاهده متعادل می شوند. هر یک از 8 گروه یک کار را در 4 شرایط مختلف انجام می دهند. هیچ اطلاعاتی در مورد میزان همبستگی پاسخ ها ارائه نشده است. خیلی سرراست امیدوارم چیزی از قلم نینداخته باشم من می توانم از STATA، GPower یا سایر منابع آنلاین برای محاسبه توان برای ANOVA اندازه گیری های تکراری یک و دو طرفه استفاده کنم، اما راهی برای انجام این طراحی خاص پیدا نکردم. آیا کسی در پیکربندی R، نحو STATA، یا برخی دیگر از وودو برای محاسبه قدرت این طراحی موفق بوده است؟ | تجزیه و تحلیل توان برای اندازه گیری های مکرر ANOVA |
101586 | فرض کنید یک تابع همبستگی معتبر روی $R^2$ داشته باشید که به فاصله بستگی دارد. به عنوان مثال اگر فاصله بین دو نقطه $h$ باشد، تابع همبستگی می تواند $\exp(-\phi h)$ باشد که در آن $\phi$ یک پارامتر است. حال اگر به جای $R^2$ روی یک استوانه باشیم: $R \times D$ که در آن $D$ یک دایره است. سوال من این است: تابع همبستگی بر اساس فاصله دوباره یک تابع همبستگی معتبر روی سیلندر است؟ یا شاید این سوال را می توان به روش دیگری بیان کرد: چگونه می توانم ثابت کنم که یک تابع همبستگی در یک فضای عمومی یک تابع همبستگی معتبر است؟ | یک تابع همبستگی معتبر در $R^2$ (یک صفحه) همچنین یک تابع همبستگی معتبر در یک استوانه است |
25911 | آیا این فرمول درست است؟ $$\renewcommand{\Pr}{\mathbb P}\Pr[\cap_{i=1}^n A_i] = \sum_{i=1}^d (-1)^{i-1} \sum_{ |K|=k} \Pr[\cup_{k\in K} A_k]، $$ با $K$ یک زیر مجموعه (بدون تکرار) $\\{1، ...، n\\}$. من یک فرمول مشابه پیدا کردهام که $\Pr[\cup_{i=1}^n A_i]$ را برحسب $\Pr[\cap_{k\in K} A_k]$ بیان میکند و من میخواهم این باشد مطمئناً فرمول دیگر را به خوبی به دست آورده ام. | اصل احتمال شمول – طرد |
25912 | من میخواهم یک تابع واریانس چند متغیره را در R تخمین بزنم. یعنی میخواهم به واریانس (و همچنین میانگین) اجازه دهم که بر اساس مجموعهای از متغیرهای مستقل تغییر کند. در این مورد خاص، من میخواهم اثرات مجموعهای از متغیرهای مشترک جمعیتی (سن، نژاد، تحصیلات) را بر واریانس دستمزدهای ثبتشده تخمین بزنم. راه خوبی برای پیاده سازی این در R چیست؟ آیا بسته ای وجود دارد که این کار را ساده کند؟ ممکن است این فقط یک جستجو باشد - اما با جستجو در صفحات راهنما R، Google، Rseek، و StackOverflow، نمیتوانم چیزی مرتبط با عملکرد واریانس یا موارد مشابه پیدا کنم. هر گونه پیشنهاد با تشکر دریافت شد. * * * از پاسخ های شما متشکرم -- سعی می کنم سوالم را روشن کنم. من در چارچوب حداکثر احتمال کار می کنم. من میتوانم این را با دست از log-likelihood کدنویسی کنم، اما مجموعه دادههای واقعی دارای مقدار زیادی متغیر است و بهینه بسیار کند است، بنابراین میخواهم بستهای در R پیدا کنم که این کار را از نظر محاسباتی کارآمدتر کند. من با احتمال log برای یک رگرسیون اولیه OLS شروع می کنم: $$ \text{ln }L = \sum (-\frac{1}{2} (\text{ln }\sigma^2 - \frac{(y - xB)^2}{\sigma^2})) $$ سپس فرض واریانس ثابت (هماهنگی) را راحت میکنم و واریانس را به صورت زیر تعریف میکنم: $$ \sigma^2 = exp(Z*\gamma) $$ که در آن $Z$ ماتریس متغیرهای موثر بر $\sigma^2$ است. (تصویر کنید تا در نهایت با $\sigma^2$ کمتر از صفر نشوید.) وقتی پارامتر مجدد $\sigma^2$ را به log-likelihood اصلی جایگزین می کنم و تابع log-likelihood جدید را در R کد می کنم. ، من این را دریافت می کنم: ll.normal.vary <- تابع (par، X، Y، Z) {بتا <-par[1:ncol(X)] گاما <- par[(ncol(X)+1):(ncol(X)+ncol(Z))] -1/2* مجموع((Z %*% گاما) + ((Y - X %*% بتا)^2 )/exp(Z %*% گاما)) } سپس بهینه سازی می کنم: v.optim1 <- optim (par = start1, fn=ll.normal.vary, X=x.mat, Y=y.vec, Z=z.mat، روش = BFGS، hessian = F، control = list(fnscale = -1)) v.optim1$par v.optim1$value در اینجا چند داده نمونه وجود دارد که می خواهید آن را آزمایش کنید: var1 < - c(0،0،0،1،1،0) var2 <- c(.28، 0.07، -.05، 0.38، 0.08، -.1) var3 <- c(-.11، -.17، -.17، -.05، 0.1، -.01) x.mat <- cbind(var1، var2، var3) y.vec <- c(.46، 0.77 , 0.49، 0.59، 0.60، 0.44) z.mat <- cbind(var1، var2) start1 <- rep(0.1، ncol(x.mat)+ncol(z.mat)) مجدداً برای راهنماییها متشکرم. | چگونه یک تابع واریانس را در R پیاده سازی کنیم؟ |
77095 | من مجموعه ای از توزیع ها (هیستوگرام) مربوط به داده های نمونه برداری شده از دو جمعیت مختلف را دارم. در هر جمعیت توزیع $n=15$ دارم. من به دنبال یک آزمون آماری هستم که به من بگوید آیا این دو جامعه از نظر آماری متفاوت هستند یا نه، بر اساس توزیع های درون آنها. به نظر می رسد اکثر تست هایی که من به آنها نگاه کرده ام (مانند Mann-Whitney U، Wilcoxon) دو نمونه را با هم مقایسه می کنند. با این حال، از آنجایی که من 15 نمونه در هر جامعه دارم، در مورد اینکه آیا این آزمایش ها را می توان در این نمونه اعمال کرد یا خیر سردرگم هستم. آیا می توان داده ها را به گونه ای جمع کرد که برای هر جمعیت یک توزیع انبوه داشته باشم، سپس آزمایشی را روی نتیجه اجرا کنم؟ **ویرایش** در اینجا منتخبی از 5 توزیع (هیستوگرام) از هر جمعیت است که بر روی همان محورها ترسیم شده است:  I می خواهم بدانم که آیا تفاوت آماری بین مجموعه های (سیاه و نارنجی) توزیع ها وجود دارد یا خیر. | آزمون فرضیه برای توزیع های چندگانه |
23426 | بهترین راه برای انتخاب خودکار ویژگی ها برای تشخیص ناهنجاری چیست؟ من معمولاً تشخیص ناهنجاری را بهعنوان الگوریتمی در نظر میگیرم که در آن ویژگیها توسط متخصصان انسانی انتخاب میشوند: آنچه که اهمیت دارد، محدوده خروجی است (مانند «ورودی غیرعادی - خروجی غیرعادی») بنابراین حتی با بسیاری از ویژگیها، میتوانید با ترکیب کردن زیرمجموعهای بسیار کوچکتر به دست آورید. ویژگی ها با این حال، با فرض اینکه در حالت کلی یک لیست ویژگی می تواند بزرگ باشد، شاید یادگیری خودکار گاهی اوقات ارجح باشد. تا آنجا که من می بینم، تلاش هایی وجود دارد: * _انتخاب ویژگی خودکار برای تشخیص ناهنجاری_ (pdf) که توصیف داده های بردار پشتیبانی را تعمیم می دهد * _یک سیستم تشخیص نفوذ سریع مبتنی بر میزبان با استفاده از نظریه مجموعه های خشن_ ( هیچ pdf موجود نیست؟) که، حدس میزنم، از نظریه مجموعههای خشن استفاده میکند * _قوانین یادگیری برای تشخیص ناهنجاری شبکه متخاصم ترافیک_ (pdf، ویدئو) که از رویکرد آماری استفاده می کند. بنابراین اکنون نمی دانم که آیا کسی می تواند بگوید - با فرض تشخیص ناهنجاری و مجموعه ویژگی های واقعاً بزرگ (صدها؟): 1. آیا اصلاً این مجموعه ویژگی های عظیم منطقی هستند؟ آیا نباید فقط تنظیم ویژگی را تا مثلاً چند ده کاهش دهیم و تمام؟ 2. اگر مجموعه ویژگی های عظیم منطقی باشد، کدام یک از رویکردهای بالا پیش بینی های بهتری را ارائه می دهد و چرا؟ آیا چیزی لیست نشده است که بسیار بهتر است؟ 3. چرا آنها باید نتایج بهتری را در مقایسه با کاهش ابعاد یا ساخت ویژگی از طریق خوشهبندی/رتبهبندی/غیره ارائه دهند؟ | انتخاب ویژگی خودکار برای تشخیص ناهنجاری |
101585 | یک نظرسنجی (پیش و پست) در چهار سوال با مقیاس لیکرت انجام داد. بر اساس تعداد پاسخهای موافق و کاملاً موافق قبل و بعد از مداخله، بهبود نسبی محاسبه شد. می خواهم بدانم آیا این بهبود نسبی از نظر آماری معنی دار است یا خیر؟ چه آزمایشی باید انجام دهم؟ | برای مشاهده اینکه آیا در مطالعه قبل از مداخله بهبود قابل توجهی از نظر آماری وجود دارد از چه آزمون هایی استفاده می شود؟ |
87830 | من چند کار طبقه بندی را با ماشین های بردار پشتیبانی (SVM) انجام می دهم. من از libSVM (با پشتیبانی Matlab) برای پیشبینی ماتریس تخمینهای احتمال استفاده میکنم. با این حال، libSVM پیامی را نشان می دهد که؛ مدل از برآوردهای احتمالی پشتیبانی نمی کند در زیر کد نمونه من آمده است. (train_label شامل برچسب هایی برای داده های آموزشی و test_label حاوی برچسب برای داده های آزمایشی است) model = svmtrain(train_label, train_data, '-t 2 -g .01 -c 0.7 -b 1); [y,accuracy,prob_estimates]=svmpredict(test_label,test_data,model,'-b 1'); آیا کسی می تواند به من بگوید که آیا مشکلی در نحوه انجام آن وجود دارد؟ هر گونه کمک / پیشنهاد قدردانی خواهد شد. | مدل SVM از برآوردهای احتمالی پشتیبانی نمی کند؟ |
103987 | من سعی می کنم در مورد نویز، چگالی طیفی توان (PSD) و واریانس های آماری بیشتر بیاموزم. با توجه به این موضوع، من سعی می کنم چگالی طیفی توان نویز سفید را محاسبه کنم. با این حال، وقتی این کار را انجام می دهم، تقارن بسیار عجیبی پیدا می کنم. به نظر می رسد طیف من حول مقدار فرکانس مرکزی متقارن است، که آشکارا نادرست است. من در استفاده از همبستگی خودکار و چگالی طیفی توان تازه کار هستم، بنابراین اگر کسی بتواند مرا در جهت خطا راهنمایی کند ممنون می شوم. کد برای محاسبه PSD: وارد کردن numpy به عنوان np از ریاضی واردات sin، pi، log10 از allan_noise واردات سفید، صورتی، قهوهای، بنفش واردات acor واردات numpy به عنوان np #روش اول: روش تابع همبستگی خودکار def psd1 (زمان_دادهها): #auto_corr = a .function(time_dats) auto_corr = np.correlate(time_dats,time_dats,mode=same) #برای بررسی همبستگی خودکار برای i در محدوده(len(auto_corr)): print i*.0000001 ,auto_corr[i] بازگشت fft(auto_corr) #تعریف متغیرها t = . 0001 #زمان شبیه سازی N = 100000 #تعداد نقاط داده dt = t/N #فاصله زمانی بین نقاط داده #CREATE SIGNAL sig = سفید(N) df = 1.0/(t) freq_axis = np.arange(0,N/t,df) spec = psd1(sig) #OPEN UP OUTPUT FILE f = open('data/psdtest_f','w') g = open('data/psdtest_t','w') #PRINT OUT DATA برای i در محدوده(N): f.write('%g %g\n' %(freq_axis[i],log10(abs(spec[i ])))) g.write('%g %g\n' %(i*dt, sig[i])) با استفاده از این کد نمودارهای زیر را تولید می کنم: >   ![Power Spectral Denisty، > به زیبایی متقارن، اگرچه قرار نیست > باشد] (http://i.stack.imgur.com/am5H7.png) هر کمکی که هر کسی می تواند در مورد اینکه چه چیزی باعث این تقارن شده است بسیار مفید خواهد بود. من کد را با یک سیگنال موج سینوسی ساده آزمایش کردم و نتایج مورد انتظار را دریافت کردم: یک پیک منفرد (بدون تقارن). می دانم که باید از نویز سفید انتظار چگالی طیفی توان مسطح (غیر متقارن) داشته باشم. | تقارن غیر قابل توضیح هنگام محاسبه چگالی طیفی توان نویز سفید |
109037 | من مجموعه داده ای از یک کارآزمایی بالینی دارم که برای آن همه بیماران سرطانی رادیوتراپی دریافت کردند، اما در زمان های مختلف پس از برداشتن تومور با جراحی. بنابراین ساده تر، من یک متغیر، زمان رادیوتراپی دارم، و می خواهم رابطه آن را با بقا بررسی کنم. کاری که فکر می کنم برای تجزیه و تحلیل باید انجام دهم این است که داده های خود را به یک جدول فرآیند شمارش تبدیل کنم: به عنوان مثال. زمان (m) وضعیت زمان رادیوتراپی بیمار 1 27 1 1.2 تبدیل می شود: شروع توقف وضعیت رادیوتراپی تحویل بیمار1 0 1.2 0 0 بیمار1 1.2 27 1 1 مشکل مفهومی من این است که همه بیماران رادیوتراپی دریافت کرده اند، بنابراین دو گروه وجود ندارد برای مقایسه از طرف دیگر، از آنجایی که هیچ بیماری قبل از شروع پرتودرمانی عود نکرده است، آیا بهتر است زمان رادیوتراپی را به عنوان نقطه عطف تعیین کنم و میزان بقا را از آنجا محاسبه کنم؟ البته، این از ارزیابی من جلوگیری می کند که آیا تأخیر رادیوتراپی بر نتیجه بیماری تأثیر می گذارد یا خیر. آیا مردم می توانند در مورد استراتژی مناسب برای این نوع داده ها راهنمایی کنند؟ همچنین شایان ذکر است که رادیوتراپی معمولاً 1 ماه پس از جراحی انجام می شود و میانگین بقای بیش از 60 ماه است، بنابراین نسبت بقای قبل از رادیوتراپی به بعد از رادیوتراپی کم است. | اضافه کردن زمان قبل از شروع پرتودرمانی به مدل کاکس |
109033 | من روی یک پروژه تحقیقاتی کار می کنم که برخی اطلاعات اختصاصی برای آن وجود دارد که نمی توانم در اینجا ارائه کنم. با این حال، تمام تلاشم را میکنم تا تا جایی که میتوانم اطلاعات بیشتری ارائه دهم. در این پروژه یک فاکتوریل کامل با دو متغیر مستقل عددی تمرکز (3 سطح) و زمان (4 سطح) انجام دادیم. متغیر وابسته تنها با دو نتیجه ممکن (بله/خیر) مقوله ای است. فاکتوریل کامل بر روی 10 گروه مجزا از اشیا با تعداد تکرارهای متفاوت برای هر ترکیب غلظت/زمان در هر گروه انجام شد. ما انتظار داریم 10 گروه متمایز از داده ها دارای تنوع آماری معنی داری در متغیر وابسته باشند. من برخی از کلاس های آماری اولیه را گذرانده ام، اما در یافتن آزمون/مدل مناسب با این شرایط مشکل دارم. بهترین راه برای تجزیه و تحلیل این داده ها برای سؤالات زیر چیست: * کدام عوامل (تمرکز، زمان، بلوک) مهم هستند / مهم ترین؟ * برای محدوده مقادیر آزمایش شده، ترکیب غلظت/زمان بهینه پیش بینی شده (بیشینه سازی درصد پاسخ های بله) چیست؟ لطفاً به من اطلاع دهید که آیا می توانم اطلاعات بیشتری برای روشن کردن آزمایش یا آنچه به آن علاقه دارم ارائه دهم. | تجزیه و تحلیل فاکتوریل کامل با متغیر وابسته طبقه بندی و مسدود کننده؟ |
23429 | هنگام انجام پردازش زبان طبیعی، می توان یک پیکره را برداشت و احتمال وقوع کلمه بعدی را در دنباله ای از n ارزیابی کرد. n معمولاً 2 یا 3 (بیگرام و سه گرام) انتخاب می شود. آیا نقطه مشخصی وجود دارد که در آن ردیابی داده ها برای زنجیره n با توجه به مدت زمانی که طول می کشد تا یک مجموعه خاص یک بار در آن سطح طبقه بندی شود، معکوس شود؟ یا با توجه به زمان لازم برای جستجوی احتمالات از یک فرهنگ لغت (ساختار داده)؟ | در چه n n گرم معکوس می شود؟ |
87839 | یک نظرسنجی نشان داد که 70 درصد از اساتید کالج معتقدند که دوره های آموزش آنلاین آنها به خوبی یا برتر از دوره هایی است که از آموزش های سنتی حضوری استفاده می کنند. فرضیه صفر چیست؟ | فرضیه صفر |
86347 | من یک رگرسیون لجستیک را با حجم نمونه کوچک اجرا میکنم: پس از بررسی خطای استاندارد (1.07) و فاصله اطمینان (0.51 - 11.55) برای یکی از متغیرهایم، دادههایم را برای مقادیر پرت تصحیح کردم. کسانی که فاصله پخت > 1 و DFBeta > 1 داشتند حذف شدند که منجر به خطای استاندارد حتی بالاتر (2.15) و فاصله اطمینان (0.15 - 676.20) شد. من فرض می کنم این اتفاق به دلیل حجم نمونه کوچک است. آیا درست است که آنهایی را که قبلاً حذف شده بودند، با وجود اینکه تا این حد بر رگرسیون تأثیر می گذارند، درج کنیم؟ استدلال من برای آن مرحله چگونه خواهد بود؟ | تصحیح داده ها کیفیت نتایج را کاهش می دهد |
87833 | من علاقه مند به یافتن عباراتی برای توزیع های حاشیه ای عبارت های خارج از مورب در یک متغیر تصادفی توزیع شده توسط Wishart هستم. به طور خاص، فرض کنید $X$ یک ماتریس $n \times p$ است، که هر ردیف آن به طور مستقل از یک توزیع نرمال $p$-variate با میانگین صفر ترسیم شده است: $X_{(i)}{=}(x_i^ 1,\dots,x_i^p)^T\sim N_p(0,V)$. سپس $S=X^T X$ یک متغیر تصادفی توزیع شده توسط Wishart است که $S\sim W_p(V,n)$ را نشان میدهد. عباراتی برای توزیع های حاشیه ای عبارت های مورب، $S_{i,i}$ وجود دارد (به عنوان مثال، صفحه 4، نقطه گلوله سوم در این سند). اما من نتوانستم عبارات مشابهی را برای توزیعهای حاشیهای خارج از مورب، $S_{i,j}$، جایی که $i \neq j$ پیدا کنم. آیا آنها وجود دارند و اگر چنین هستند، چه هستند؟ | توزیع های حاشیه ای عبارت های خارج از مورب در یک متغیر تصادفی توزیع شده توسط Wishart |
92670 | وقتی صحبت از رگرسیون لجستیک به میان میآید، کاملاً تازه کار هستم و به نظر میرسد که کاملاً از مفهوم باقیماندههای انحراف آگاه نیستم. آیا کسی می تواند به من در تفسیر این طرح کمک کند؟ تا آنجا که من می دانم این مقادیر باقیمانده باید در امتداد رهگیری قرار گیرند.  همه متغیرهای کمکی از نظر آماری معنادار هستند. | باقیمانده های انحرافی |
96763 | کاری به من محول شده است که باید یک پرونده تجاری را حل کنم. اجازه دهید توضیح دهم که به دنبال چه اطلاعاتی هستم: من داده های تاریخی چندین محصول را دارم و باید زمان مورد نیاز برای فروش را برای مقدار مشخصی پیش بینی کنم. به عنوان مثال: اگر گردش مالی 5,000,000.00 یورو و هزینه یک تلویزیون مجزا 3000 یورو باشد، باید تعداد قطعات تلویزیون را که می تواند تا 5,000,000.00 یورو (در این مورد 16667 تلویزیون) و دوره زمانی را پیش بینی/پیش بینی کنم. برای فروش این تلویزیون ها مورد نیاز است. به همین ترتیب هر محصول در یک گروه دارای روند متفاوت و عوامل متعددی است مانند فصل ها و غیره من در حال حاضر به دنبال یک مدل پیش بینی هستم که مورد زیر را حل کند یا هر مدلی که می تواند به حل این مورد نزدیکتر باشد. من قبلاً در مورد سری های زمانی و هموارسازی نمایی از https://www.otexts.org/fpp/1 توسط راب جی هایندمن می خوانم. من مدلها را درک میکنم، اما تعداد زیادی از این مدلها وجود دارد و من باید بهترین آنها را پیدا کنم که مناسب مورد تجاری من است. من هیچ ایده ای در مورد راه های رویکرد برای حل این موضوع ندارم. هر گونه پیشنهاد یا نکات بسیار قدردانی خواهد شد. با تشکر | پیشنهادات - مدل های پیش بینی |
86343 | من یک سوال در مورد برازش مدل glm داده های من دارم. شکل توزیع احتمالاً از توزیع پواسون پیروی می کند، اما متغیر پاسخ تعداد/نرخ نیست، بلکه اعشار پیوسته با هر دو مقدار منفی مثبت است (همانطور که در زیر نشان داده شده است).  فقط چند نوع خانواده برای انتخاب در glm(): binomial(link = logit) gaussian وجود دارد (پیوند = هویت) گاما (پیوند = معکوس) inverse.gaussian(پیوند = 1/mu^2) poisson(پیوند = log) شبه (پیوند = هویت، واریانس = ثابت) quasibinomial(link = logit) quasipoisson(link = log) لطفاً میتوانید چند پیشنهاد به من بدهید که کدام یک باید برای مورد من مناسبتر باشد؟ پیشاپیش از توجه و کمک شما متشکرم! بهترین LE | توزیع داده ها |
101589 | من یک مجموعه داده دارم که در آن علاقه مند به محاسبه شیب برای هر مشاهده / ردیف هستم. من متغیر وابسته $Y$ دارم که پیوسته است. هر $Y$ منحصر به یک کد پستی است. و متغیرهای مستقل / پیشبینیکننده من در طول زمان برای هر $Y$ اندازهگیری میشوند، مثلاً $x_1$ تا $x_{20}$. من به دنبال یک شیب برای هر $Y$ برای هر کد پستی برای هر ردیف هستم. مطمئن نیستم که بتوانم این کار را با رگرسیون خطی انجام دهم، زیرا فقط یک مشاهده برای $y$ دارم. من نمی توانم $x_1$ را به $x_{20}$ متوسط کنم، زیرا اطلاعات را در شیب از دست خواهم داد. هدف اینجا اندازهگیری تغییر در $x$ ($x_1$ به $x_{20}$) در $Y$ است، و از آنجایی که $x_1$ تا $x_{20}$ در طول زمان اندازهگیری میشود، من دوست دارم شیب را حفظ کنم. اطلاعات و صرفاً میانگین نگیرید. من سعی می کنم به این سوال پاسخ دهم که تغییر در $x$ در یک کد پستی با مقدار $Y$ چقدر شدید است. | شیب های فردی برای بسیاری از کدهای پستی در طول زمان |
73539 | من می خواهم دو مدل خطی را با هم مقایسه کنم. «lm3» مدل کامل است، «lm4» مدل محدود است. lm3 <- lm(قمار ~ جنس + وضعیت + درآمد + شفاهی، داده = teengamb) lm4 <- lm(قمار ~ درآمد، داده = teengamb) ** ابتدا **، می خواهم از آزمون F برای تعیین مدل استفاده کنم (کامل یا محدود) بهتر است. آیا این رویکرد درست است؟ anova(lm3، lm4) مقدار p نشان می دهد که مدل کامل بهتر است. **دوم **، من می خواهم از بوت استرپینگ و فواصل اطمینان برای تعیین اینکه آیا مدل کامل به طور قابل توجهی بهتر است استفاده کنم. با این حال، من مطمئن نیستم که چگونه در مورد این روش بوت استرپینگ اقدام کنم. من در درک مفهوم پشت کاری که قرار است انجام دهم مشکل دارم. | R - استفاده از و F تست و بوت استرپ برای تست محدودیت های خطی متعدد |
96765 | من یک مجموعه داده ناقص دارم و تنظیمات پیش فرض در Eviews حذف لیست است. اجرای رگرسیون من (پسرفت یک متغیر پیوسته روی 22 رگرسیور متغیر ساختگی، متأسفانه هیچ داده ای برای استفاده از یک متغیر پیوسته به عنوان رگرسیور وجود ندارد) با OLS و تنظیمات پیش فرض دقیقاً ضرایبی را به دست می دهد که اجرای رگرسیون من با استفاده از FIML، اما خطاهای استاندارد متفاوت است. آیا همیشه اینطور است یا این فقط یک مورد بسیار خاص است که نشان دهنده استحکام برآوردهای من است؟ | ضرایب یکسان برای OLS و اطلاعات کامل حداکثر احتمال |
109382 | این یک سوال بسیار اساسی در مورد اعتبار سنجی متقابل است. بگویید که من یک نمونه 2901 (یا هر عددی که تقسیم آن دشوار است) دارم. چگونه می توانم این را به پارتیشن های **برابر** (غیر از n=1) تقسیم کنم؟ و هر پارتیشن را چقدر باید بزرگ کنم؟ به عنوان مثال، اگر اندازه هر پارتیشن را 300 کنم (که تقریباً 10 پارتیشن به من می دهد)، نقاط داده ای خواهم داشت که در بیش از یک پارتیشن قرار دارند و وزن ناعادلانه ای به آن می دهد. آیا این قابل قبول است/مردم معمولاً در این مورد چه می کنند؟ به هر حال، من می خواستم آن را به پارتیشن های مساوی تقسیم کنم تا بتوانم به راحتی کدی بنویسم که اعتبار متقاطع را برای هر تعداد پارتیشن انجام دهد. زمینه: این قرار است برای SVM استفاده شود | اختصاص پارتیشن های زوج برای اعتبارسنجی متقابل |
74543 | من در واقع چندان مطمئن نیستم که آیا اینجا جای مناسبی برای پرسیدن سوال است، اما بیایید ببینیم آیا کسی می تواند ایده های جالبی ارائه دهد. من می خواهم یک مدل مالی بسازم که استراتژی خروج یک کسب و کار را توصیف کند. منظور من این است که من می خواهم مدلی بسازم که ورودی های سرمایه مختلف، خروجی های مختلف، نرخ بازده مورد نیاز برای کسب و کار را مدل کند، نتیجه نهایی ارزش خروجی نهایی برای کسب و کار است. لطفاً کسی می تواند مطالعه، هر مدل موجود یا ایده جالبی را پیشنهاد دهد؟ پیشاپیش سپاس فراوان! | مدل مالی استراتژی خروج از کسب و کار |
92677 | آیا یک چکسام یکپارچگی مطلق داده را تضمین میکند؟ یعنی، اگر یک قطعه داده به طول چندین گیگابایت در یک بیت تغییر کند، احتمال متفاوت بودن چکسوم وجود دارد، به خصوص با توابع هش قوی مانند SHA256؟ با عبارت متفاوت، من میپرسم که آیا یک جمعبندی چک تضمینی از یکپارچگی معقول ارائه میدهد، یعنی ممکن است چند بایت در اینجا و آنجا معمولاً بدون اینکه باعث از کار افتادن یک جمعبندی شود (که برای مثال، فایلهای ویدیویی یا سایر خطاهای تحملپذیر خوب است، از بین برود یا خیر). جریانهای داده)، یا یک جمعبندی صحیح اطمینان حاصل میکند که دادهها کاملاً دست نخورده هستند؟ به طور خلاصه، آیا یک چکسوم _اطمینان_از_صداقت__کافی_، یا _اطمینان_کافی_درستی_مطلق_ را فراهم میکند؟ | آیا یک جمع کنترل قوی اطمینان معقولی از یکپارچگی مطلق داده ها را فراهم می کند؟ |
109036 | # روشها: از ادبیات یادگیری ماشین، متوجه شدم که پارامترهای مختلف میتوانند عملکرد مدل را در یادگیری ماشین نشان دهند. من به طور خلاصه درک خود را با ماتریس سردرگمی گسترش می دهم:  (1) **دقت**: نسبت پیش بینی های صحیح را با در نظر گرفتن اندازه گیری می کند ورودی های مثبت و منفی (2) **ویژگی**: نسبت منفی های واقعی را اندازه گیری می کند، یعنی توانایی سیستم در پیش بینی مقادیر صحیح برای مواردی که مخالف مقدار مورد نظر هستند. ** منحنی ROC:** با در نظر گرفتن آستانه های زیاد، می توان مجموعه ای از جفت ها (حساسیت، 1-ویژگی) را محاسبه کرد که می توان آنها را در یک منحنی رسم کرد. این منحنی منحنی ROC برای سیستمی خواهد بود که در آن محور y (ordenade) نشان دهنده حساسیت و محور x (abscissas) مکمل ویژگی (1 - ویژگی) است. **منطقه زیر منحنی ROC (AUC)** \- مساحت منحنی ROC بالاتر، سیستم بهتر است. (3) **حساسیت**: نسبت موارد مثبت واقعی را اندازه گیری می کند، یعنی توانایی سیستم در پیش بینی مقادیر صحیح در موارد ارائه شده. (4) **کارایی**: میانگین حساسیت و ویژگی (5) **ارزش پیش بینی مثبت**: تخمین میزان عملکرد سیستم در هنگام تأیید مثبت - آمار مثبت / کل پیش بینی های مثبت (6) ** ارزش پیشبینی منفی**: اندازهگیری نشان میدهد که سیستم در هنگام ایجاد یک منفی چقدر خوب است. تأیید - آمار منفی / کل پیشبینیهای منفی (7) **ضریب فی (φ)** # دادههای من متغیر y کمی با بسیاری از متغیرهای کمی x دارم و با معادله رگرسیون لیری مطابقت دارم. هدف در اینجا این است که مقادیر «x» چقدر «y» را پیشبینی میکنند - به این معنی که انحراف از انتظار در جهت منفی و مثبت خوب نیست. #جمعیت تصادفی 200 نفر با 1000 متغیر M <- ماتریس(rep(0,200*100),200,1000) برای (i در 1:200) { set.seed(i) M[i,] <- ifelse(runif (1000)<0.5،-1،1) } نام ردیف (M) <- 1:200 #تصادفی yvars set.seed(1234) u <- rnorm(1000) g <- as. vector(crossprod(t(M),u)) h2 <- 0.5 set.seed(234) y <- g + rnorm( 200,mean=0,sd=sqrt((1-h2)/h2*var(g))) myd <- data.frame(y=y، M) فرض کنید من میخواهم «رج» و «کند» را به این تناسب دهم: require(glmnet) # LASSO fit1=glmnet(M,y, family=gaussian, alpha=1) # Ridge fit1=glmnet(M,y, family=gaussian, alpha=0) # سوال: **_چه معیارهای عملکرد ذکر شده در بالا (یا لیست نشده) در اینجا مرتبط هستند و چگونه می توان من آنها را محاسبه می کنم؟_** | برای چنین مدلی چه معیارهای عملکردی را می توانم محاسبه کنم و چگونه؟ |
96046 | در اعمال یک عبارت جریمه با هنجار $l_1$ یا $l_2$، چرا اولی منجر به انتخاب متغیر می شود اما دومی نه؟ | چرا l1 هنجار می تواند منجر به انتخاب متغیر شود اما نه l2 |
74544 | من سعی کردم با استفاده از کد زیر یک منحنی بر روی نقاط سیاه قرار دهم. چرا تناسب اینقدر بد است؟ آیا باید نوع دیگری از عملکرد را متناسب کنم؟ برازش <- nls(grad ~ theta1/(1 + exp(-(theta2 + theta3*x1)))، start=list(theta1 = 4، theta2 = 0.09، theta3 = 0.31)، trace=TRUE) p = پیش بینی( fit) plot(x1, grad) points(x1, p, col = قرمز)  | تناسب یک تابع سیگموئید: چرا تناسب من اینقدر بد است؟ |
100187 | من مجموعه داده ای از مربیان و دوره هایی که آنها طراحی کرده اند دارم. فکر اصلی من این بود که یک مدل چند سطحی انجام دهم که در آن دوره ها در درون مربیان قرار می گیرند و نتیجه این است که آیا این دوره به طور عمومی به دانش آموزان ارائه شده است یا خیر. من این مدل را با استفاده از melogit در Stata نصب می کردم. با این حال، متوجه شدم که دورهها را میتوانستند توسط چندین معلم طراحی کنند. بنابراین دورهها میتوانند به طور بالقوه در درون چندین معلم قرار بگیرند (یا برعکس). آیا کسی می داند که چگونه می توان این مدل عضویت چندگانه را در Stata جا داد؟ | چگونه یک مدل سلسله مراتبی عضویت چندگانه را در Stata اجرا کنیم؟ |
43642 | من در حال حاضر با یک پروژه تصویربرداری پزشکی هستم. فقط تعجب می کنم که چگونه شکل یک کره را اندازه گیری کنیم. به عنوان مثال، چگونه می توان اندازه گیری کرد که یک شی بیشتر شبیه یک کره است تا دیگری؟ میدانم که برخی از الگوریتمها میتوانند «گردی» را در دوبعدی نشان دهند، اما اندازهگیری «کره» در سهبعدی مفیدتر خواهد بود. همچنین، من به تجزیه و تحلیل شکل های دیگر بسیار علاقه مند هستم. شکل جسم می تواند یک ویژگی بسیار جالب برای تشخیص بیشتر الگو باشد. خیلی ممنون | تجزیه و تحلیل شکل یک شی برای ایجاد ویژگی هایی برای تشخیص الگو |
92679 | فرض کنید من یک مدل خطی را برازش میکنم، و دو پیشبینیکننده پیوسته «x1» و «x2» دارم. من فکر می کنم که آنها ممکن است تعامل داشته باشند، بنابراین من عبارت تعامل (خطی) را به مدل خود اضافه می کنم (یعنی محصول نقطه ای x1 * x2). اکنون، به عنوان یک قانون سرانگشتی، به نظرم می رسد که به محض انجام این کار، احتمالاً باید اصطلاحات درجه دوم، x1^2 و x2^2 را نیز وارد کنم. در غیر این صورت، در صورتی که پیشبینیکنندههای من همبستگی داشته باشند و اثرات غیرخطی داشته باشند (و آیا پیشبینیکنندههای همه همیشه همبسته نیستند و حداقل تا حدی اثرات غیرخطی ندارند؟)، ممکن است یک تعامل کاذب قابل توجهی داشته باشم. همبستگی بین پیش بینی کننده ها به این معنی است که تعامل خطی آنها با اثر درجه دوم هر یک از پیش بینی کننده ها به تنهایی مخدوش می شود، بنابراین اگر من آن پیش بینی کننده های درجه دوم را از مدل خود کنار بگذارم، بهترین استراتژی مدل من برای گرفتن هر روند درجه دوم تک متغیری استفاده از تعامل دو متغیره، باعث میشود که وقتی واقعاً اینطور نیست، مهم به نظر برسد. سوال من این است: * آیا این استدلال معتبر است؟ * آیا این یک قانون سرانگشتی شناخته شده است، به عنوان مثال، آیا در کتاب های استاندارد به عنوان توصیه ذکر شده است؟ * * * راه دیگری برای قرار دادن آن: در شرایط R، فرض کنید من میبینم که چیزی شبیه به: lm(y ~ (x1 + x2)^2، data) اکنون روشی که R این را تفسیر میکند این است که آن را به lm ( y ~ x1 + x2 + x1:x1 + x1:x2 + x2:x2، داده) اما سپس تعاملات خود «x1:x1» را کاهش میدهد و «x2:x2» به «x1» و «x2» ساده است، بنابراین با lm (y ~ x1 + x2 + x1:x2، دادهها) میشویم، بنابراین، اگر متوجه شدم چیزی شبیه به «(x1 + x2) مینویسم. ^2`، آیا در عوض عادت به نوشتن lm(y ~ (x1 + x2)^2 + I(x1^2) + I(x2^2)، داده) کنم تا شامل تعامل با خود درجه دوم؟ [پسزمینه: من نمیخواهم پتسی را تغییر دهم تا تعاملات خود را برای متغیرهای پیوسته مانند «x:x» بهعنوان معادل «I(x^2)» تفسیر کنم، بهجای اینکه R را دنبال کنم و آنها را معادل «تفسیر کنم». x`. بنابراین من واقعاً به حالت کلی / قاعده سرانگشتی به جای یک نمونه خاص علاقه مند هستم.] | وقتی یک برهمکنش خطی بین دو پیشبینیکننده پیوسته را شامل میشود، آیا به طور کلی باید پیشبینیکنندههای درجه دوم را نیز لحاظ کرد؟ |
73533 | **آزمون رتبه بندی شده امضا شده Wilcoxon** به ما می گوید که آیا اختلاف میانه بین داده های جفت شده می تواند صفر باشد. آزمون با محاسبه یک آمار و سپس یک z-score و مقایسه آن با یک مقدار بحرانی انجام می شود. چیزی که به نظر من تکان دهنده است این است که ما **همه جفت های دارای مقادیر یکسان را از فرآیند محاسبه آمار حذف می کنیم**. از ویکیپدیا در مرحله 2 داریم: > حذف جفتها با $|x_{2,i} - x_{1,i}| = 0 دلار اجازه دهید $N_r$ کاهش یافته > اندازه نمونه باشد. و فقط $N_r$ در بقیه محاسبات استفاده می شود. یکی از منابع ذکر شده می گوید: > در بیشتر کاربردهای روش Wilcoxon، مواردی که بین X_A$ و $X_B$ > صفر تفاوت وجود دارد، در این مرحله از بررسی حذف می شوند، زیرا آنها اطلاعات مفیدی ارائه نمی دهند، و سپس تفاوتهای مطلق باقیمانده از پایینترین به بالاترین رتبهبندی میشوند و در صورت لزوم، رتبههای همسایه درج میشوند. سپس نویسنده به همان روشی که در مقاله ویکیپدیا آمده است به محاسبه میپردازد. من سعی کردم به مقاله اصلی Wilcoxon نگاه کنم، اما به نظر نمی رسد که او به جفت ارزش های یکسانی اشاره کند. دلیل اینکه من فکر می کنم این دیوانگی است این است: بسیار خوب، جفت های یکسان ارزش آمار را تغییر نمی دهند، اما آنها **امتیاز z را تغییر می دهند**. تصور کنید نمونهای از جفتهای $10^{1000}$ دارید در حالی که در جفتهای $10$، مقدار دوم بالاتر است و در تمام جفتهای باقیمانده، مقادیر یکسان است. با توجه به مقالات ذکر شده در بالا، ما باید این جفتهای 10^{1000}-10$ را کنار بگذاریم زیرا آنها اطلاعات مفیدی ارائه نمیدهند و فقط جفتهای 10$ باقی مانده را در نظر بگیریم. اما آن جفتهای 10^{1000} - 10 دلاری **اطلاعات مفیدی ارائه میدهند**. آنها به نفع فرضیه صفر فریاد می زنند. لطفا توضیح بدید که چطور تست رو درست انجام بدم؟ | چرا تفاوت های صفر در محاسبات در آزمون رتبه بندی شده امضا شده Wilcoxon وارد نمی شود؟ |
6139 | من در رشته علوم کامپیوتر زیست پزشکی مطالعه می کنم و باید مقاله ای در مورد ارتباط ژنوتیپ- فنوتیپ تحقیق کنم. در این مقاله، نویسندگان از یک تحلیل همبستگی با محاسبه همبستگی پیرسون و سپس محاسبه توزیع فراهندسی برای فیلتر کردن ارتباط های ناچیز استفاده می کنند. http://www.biomedcentral.com/1471-2164/7/257 تحت روشها/ارتباط ژنها به فنوتیپها > در حالی که همبستگی قدرت ارتباط بین محتوای ژنومی ارگانیسم و فنوتیپ آن را اندازهگیری میکند، ما روش دیگری را نیز اعمال کردیم. با بهرهبرداری از تابع توزیع فراهندسی، برای تعیین اهمیت این انجمنها [...] که در آن نتیجه کوچکتر یا مساوی 20% پاسخ منفی در نظر گرفته می شود. بنابراین برای یک ژن معین موجود در گونه M، تابع > بیش هندسی این احتمال را به طور تصادفی فراهم می کند که ژن > در m گونه هایی که حاوی COG هستند و همچنین در آزمایش آزمایشگاهی مثبت هستند، یافت شود. > معیارهای زیر برای مجموعه داده های همبسته اعمال شد. تقاطع بین یک COG خاص و یک فنوتیپ باید حداقل بیش از 3 ارگانیسم داشته باشد، و برای هر تقاطع، 30٪ از میکروب ها باید COG را به اشتراک بگذارند. نمرات با استفاده از تصحیح خطای استاندارد Bonferroni > برای آزمایش چندگانه تنظیم شدند. از آنجایی که تصحیح بونفرونی یکی از محافظهکارانهترین اصلاحات است، به احتمال زیاد برخی از ارتباطهای مرتبط بیولوژیکی بهطور غیرضروری کنار گذاشته شدهاند. در این مورد $\alpha$ کمتر از برابر با 0.01 تنظیم شد، > بنابراین، هر امتیاز توزیع فرا هندسی کمتر یا مساوی > 0.0001 معنیدار تلقی میشود. با استفاده از این معیارها، یک آستانه همبستگی 0.8 و 0.9> را برای ارزیابی اهمیت ارتباط COG-phenotype > تنظیم کردیم. سوال من این است: آیا این یک تحلیل همبستگی علمی معتبر است یا خیر؟ آیا رزرو وجود دارد؟ درضمن میشه یه کتاب آمار خوب برای علم به من بدید؟ | آیا تحلیل همبستگی با همبستگی پیرسون و روش بونفرونی یک رویکرد معتبر برای یافتن همبستگی بین دو مجموعه داده است. |
57150 | من تعجب می کنم که چگونه می توانم حجم نمونه خود را توجیه کنم! من 45 مشاهده و 6 متغیر مستقل دارم که یکی از آنها متغیر کنترل است. آیا قانون کلی یا آزمون خاصی در این زمینه وجود دارد؟ با تشکر فراوان، | چگونه حجم نمونه را توجیه کنیم؟ |
85529 | من فقط تعجب می کردم، وقتی مقالات می گویند ما ژنوتیپ را برای 3 جزء اصلی اول تنظیم کردیم، آیا آنها از بردارهای ویژه یا مقادیر ویژه از تجزیه و تحلیل اجزای اصلی به عنوان عوامل کوفاکتور در تجزیه و تحلیل ارتباط ژنتیکی استفاده می کنند؟ متشکرم | تجزیه و تحلیل ارتباط ژنتیکی تنظیم شده توسط کامپیوتر |
108403 | آیا بسته ای در R وجود دارد که بتواند داده های پانل را با وزن های حداقل مربعات تعمیم یافته رگرسیون مقطعی به ظاهر نامرتبط (مانند EViews) تخمین بزند؟ | SUR مقطعی در R |
74547 | به عنوان مثال، در کتابچه راهنمای BUGS یا کتاب آتی لی و واگن میکرز (pdf) و در بسیاری از جاهای دیگر از نوعی نشانه گذاری استفاده شده است که به نظر من بسیار انعطاف پذیر است زیرا می توان از آن برای توصیف مختصر بیشتر مدل های آماری استفاده کرد. نمونهای از این نماد به صورت زیر است: $$ y_i \sim \text{دوجملهای}(p_i,n_i) \\\ \log(\frac{p_i}{1 - p_i}) = b_i \\\ b_i \sim \ text{Normal}(\mu_p,\sigma_p) $$ که یک مدل لجستیک سلسله مراتبی را بدون پیشبینیکننده، اما با $i = توصیف میکند. 1\dots n گروه $. به نظر میرسد این روش توصیف مدلها برای توصیف مدلهای متداول و بیزی به همان اندازه خوب عمل میکند، به عنوان مثال، برای اینکه این توصیف مدل کاملاً بیزی شود، فقط باید اولویتها را روی $\mu_p$ و $\sigma_p$ اضافه کنید. **آیا این نوع نشانه گذاری/فرمالیسم مدل به طور مفصل در مقاله یا کتابی توضیح داده شده است؟** اگر می خواهید از این نمادگذاری برای نوشتن مدل استفاده کنید، راه های مختلفی برای انجام کارها وجود دارد و با یک راهنمای جامع هر دو واقعا مفید خواهد بود. دنبال کردن و ارجاع دادن به دیگران برخی از تفاوتهایی که من در نحوه استفاده مردم از این نوع نشانهگذاری پیدا کردهام: * توزیعها را چه مینامید؟ به عنوان مثال، من $\mathcal{N}،\text{N}،\text{Norm}،\text{Normal}$، و غیره را دیدهام. * چگونه با ایندکسها برخورد میکنید؟ به عنوان مثال من $y_{ij}$,$y_{i[j]}$,$y_{j|i}$ و غیره را دیدهام. * کدام نمادهای پارامتر معمولاً برای پارامترها استفاده میشوند. به عنوان مثال، استفاده از $\mu$ به عنوان میانگین برای توزیع عادی معمول است، اما در مورد سایر توزیع ها چطور؟ (برای این کار من معمولاً توزیعهای ویکیپدیا را بررسی میکنم) سؤال بعدی: _ آیا این نماد نام دارد؟ | آیا استاندارد برای نمادگذاری مدل آماری وجود دارد؟ |
33967 | من در حال شروع سفر دکترای خود هستم، و هدف نهایی که پیش روی خودم قرار داده ام، توسعه شبکه های عصبی مصنوعی است که محیطی را که در آن کار می کنند نظارت می کند و به صورت پویا معماری آنها را با مشکل موجود تنظیم می کند. مفهوم آشکار موقتی بودن داده است: اگر مجموعه داده پیوسته نیست و در طول زمان تغییر نمی کند، اصلاً چرا باید تنظیم شود؟ سوال بزرگ این است: با افزایش اخیر یادگیری عمیق، آیا هنوز یک موضوع مرتبط است؟ آیا FFNN ها این شانس را دارند که خود را در مشکلات رانش مفهومی جایگاهی بیابند؟ من می ترسم که موضوع را با یک سؤال بیش از حد بارگذاری کنم، اما این یکی کاملاً خارج از موضوع نیست: من از RNN ها آگاه هستم، اما تجربه محدودی (خوب، هیچ، یا کاملاً نظری) با آنها دارم. من معتقدم انطباق معماری پویا باید یک موضوع مرتبط در زمینه RNN ها باشد. سوال این است که آیا قبلاً به آن پاسخ داده شده است و آیا چرخ را دوباره اختراع خواهم کرد؟ P.S. در MetaOptimize ارسال شد | تنظیم پویا معماری NN: اختراع غیر ضروری؟ |
23420 | یک مرحله پیش پردازش رایج برای الگوریتم های ML سفید کردن داده ها است. به نظر می رسد انجام سفید کردن همیشه خوب است زیرا داده ها را از همبستگی خارج می کند و مدل سازی آن را ساده تر می کند. چه زمانی سفید کردن توصیه نمی شود؟ توجه: منظور من از همبستگی داده ها است. با تشکر | آیا سفید کردن همیشه خوب است؟ |
93230 | فرض کنید من یک مدل دارم: $$Y_i = \beta_0 \beta_1^{X_i} \epsilon_i$$ (توجه: این کمی متفاوت از نمونه معمولتر $Y_i = \alpha e^{\beta x_i} است. epsilon_i$.) من می توانم گزارش $Y$ را بگیرم: $$\log Y_i = \log\beta_0 + X_i\log\beta_1 + \log\epsilon_i$$ با فرض اینکه تمام مفروضات معمول در مورد خطاها و غیره باقی بمانند، می توانم این را با رگرسیون خطی ساده تخمین بزنم. با این حال، من فقط برای $\log\beta_1$، نه $\beta_1$، تخمین میزنم، و بنابراین یک فاصله اطمینان. آیا می توانم با $\hat{\beta_1} = \exp(\widehat{\log\beta_1})$ تبدیل مجدد کنم؟ اگر چنین است، برای یک فاصله اطمینان برای $\hat{\beta_1}$، آیا فقط نقاط انتهایی بازه را تغییر می دهم؟ | فواصل اطمینان بتا در رگرسیون خطی تبدیل شده |
85520 | امروز با یکی از همکارانم وارد بحث جالبی شدم و مطمئن نیستیم که پاسخ چیست: ما نمونههای $N=1000$ از یک پیدیاف رایلی داریم. ما آن نمونههای $N$ را میگیریم و کشش نمونه (اصلاح شده) آنها را محاسبه میکنیم. (به عنوان مثال، محاسبات کشیدگی بدون کاهش معنی اولیه آن نمونه های $N$). نتیجه می گیریم. سپس دسته جدیدی از نمونههای $N=1000$ را میگیریم، همچنین از یک پیدیاف Rayleigh، کرتوز اصلاحشده را محاسبه میکنیم و به نتیجه میرسیم. و غیره. ما این را حدود $M=2000$ بار تکرار می کنیم. سوال من این است که آیا با افزایش $M$، PDF حاصل از آن نتایج به یک توزیع گاوسی تبدیل میشود یا تمایل به آن دارد؟ من باید با استناد به CLT اینطور فکر کنم، اما همکارم شکاک تر است. **ویرایش:** هنوز اینجا نیست، اما یادگیری: بنابراین من این را برای $N = 10$ و $N = 100$ شبیه سازی کردم، هر دو مورد با $M = 20000$. هیستوگرام ها در زیر نشان داده شده است. به نظر می رسد در حالت $N=10$، نتیجه همچنان Rayleigh است، در حالی که برای مورد $N=1000$، نتیجه ... گاوسی است... شاید؟ یعنی چی؟ به نظر می رسد دم سنگینی در سمت راست دارد...  برخی از لینک ها را هم مطالعه کردم، نمی توانم پیدا کنم بیش از حد در فایل های PDF توابع داده ها، ... و تغییر $N$ در اینجا نتایج متفاوتی را نشان می دهد که من را کمی بیشتر گیج می کند. | آیا تابعی از دادههای یک PDF که بارها و بارها روی دادههای جدید تکرار میشود، در نهایت نباید یک پیدیاف گاوسی تولید کند؟ |
95642 | ### توضیحات من میخواهم از آزمون Kolmogorov-Smirnov استفاده کنم تا بررسی کنم که چگونه خوشههای داده شده از نقاط 1 بعدی با توزیع عادی تفاوت دارند (سوال اصلی اینجا: چگونه میتوان مدل دادهها را در بهترین حالت مطابقت داد). من رویکرد زیر را در نظر میگیرم: خوشه FOREACH p = نقاط از خوشه n = SIZE(p) mu = AVG(p) سیگما = SQRT(VARIANCE(p)) tmp = GENERATE n نقطه تصادفی از توزیع_ normal(mu، سیگما) نتیجه = KS-TEST(SORT(p)، SORT(tmp)) اگر نتیجه > آستانه و سپس خوب در غیر این صورت خوب نیست من اجرای KS-TEST را از اینجا گرفتم: http://root.cern.ch/root/html/src/TMath.cxx.html#RDBIQ تعداد امتیازها معمولاً صدها یا هزاران است. ### مشکل من مشاهده کرده ام که نتیجه به شدت به نقاط tmp تولید شده به طور تصادفی بستگی دارد. حتی زمانی که من به طور تصادفی دو مجموعه نقطه از توزیع مشابه با پارامترهای یکسان تولید کردم، احتمال حاصل از KS-TEST بین 0.0+ چیزی و 0.99+ چیزی شناور بود. بنابراین انتخاب یک مقدار آستانه مناسب برای من دشوار است. همان خوشه را می توان یک بار به عنوان توزیع نزدیک به نرمال در نظر گرفت و یک بار نه. ### پاسخ می توانید به من راهنمایی کنید، من چه اشتباهی انجام می دهم، چگونه می توانم نتایج قابل اعتمادتری بگیرم؟ | آزمون کولموگروف-اسمیرنوف - قابلیت اطمینان |
58582 | من حدود 1000 آزمودنی دارم ($id$) و هر کدام از آنها دارای چند متغیر پایه هستند (متغیرهای جمعیت شناختی $X1، X2، X3، Xn$، که می تواند پیوسته باشد، عوامل). هر موضوع توسط دو ارزیاب ($rater1$، $rater2$) در 2 عامل طبقه بندی می شود. 1. چگونه می توانم تطابق بین ارزیاب ها را ارزیابی و توصیف کنم؟ 2. چگونه می توانم ارزیابی کنم که کدام، آیا و چگونه متغیرهای جمعیتی $X1، X2، X3، Xn$ ممکن است بر این تطابق تأثیر بگذارند. 3. در هر کلاس $rater1$ یا $rater2$، چگونه می توانم میزان شباهت متغیرهای $X1، X2، X3، Xn$ را ارزیابی کنم (آزمودنی ها دارای X1، X2، X3، Xn$ مشابه هستند. متغیرها) هر کمک یا اطلاعاتی کمک بزرگی خواهد بود | نحوه ارزیابی تطابق بین 2 ارزیاب و عوامل موثر بر تطابق |
85524 | من یک منحنی فراخوان دقیق برای دو الگوریتم جداگانه دارم. اگر بخواهم F-Measure را محاسبه کنم، باید از مقادیر دقت و فراخوانی در یک نقطه خاص در هر منحنی استفاده کنم. این نقطه چگونه تعیین می شود؟ به عنوان مثال در منحنی یک نقطه ای وجود دارد که یادآوری 0.9 و دقت 0.87 است و منحنی دیگر نقطه فراخوانی در 0.95 و دقت در 0.84 وجود دارد. متناوبا، آیا باید منحنی F-Measure را برای هر مقدار فراخوانی دقیق رسم کنم؟ | نحوه محاسبه F-Measure از منحنی فراخوان دقیق |
28472 | یک رگرسیون با خطاهای ARIMA با فرمول زیر ارائه می شود (دید در Hyndman و همکاران، 1998): $Y_t = b_0 + b_1 X_{1,t} + \dots + b_k X_{k,t} + N_t$ که در آن $N_t $ به عنوان یک فرآیند ARIMA مدل شده است. اگر داشته باشیم که مدل $N_t$ ARIMA$(0,0,0)$ است، آنگاه $N_t = e_t$ و $Y_t$ با یک رگرسیون معمولی مدل می شود. دادههای زیر را فرض کنید: یک ساختار <-(c(29305, 9900, 9802, 17743, 49300, 17700, 24100, 11000, 10625, 23644, 38011, 163904,163904, 163904, 10625 . ساختار(c(1.108528016، 1.136920872، 1.100239002، 1.057191265، 1.044200511، 1.102063834، 1.083847756، 815. 1.084879628، 1.232979511، 1.168894672، 1.257302058، 1.264967051، 1.234793782، 1.306452369، 1.306452369، 1.241, 1.241, 1.241, 1.241, 1.241, 1.241, 1.241, 1.258, 1.25894672, 1.084879628. 1.124432965، 1.132878661، 1.189926986، 1.17249669، 1.176285957، 1.176552، 1.179178082)، .Tsp. = c(201) 2012.16666666667, 12), class = ts) اگر آن را با استفاده از تابع `auto.arima` مدل کنم، دارم: auto.arima(a, xreg=b) سری: یک ARIMA(0,0,0) با میانگین صفر ضرایب: b 15639.266 s.e. 1773.186 sigma^2 تخمین زده شده به عنوان 101878176: احتمال ورود به سیستم=-255.33 AIC=514.65 AICc=515.22 BIC=517.01 lm(a~b) فراخوانی: lm(فرمول = a ~ b) ضرایب 61 -4 b43: ضرایب از مدل ها متفاوت است. آیا آنها نباید یکسان باشند؟ چه چیزی را از دست داده ام؟ | رگرسیون با خطاهای ARIMA(0,0,0) متفاوت از رگرسیون خطی |
108404 | من سعی می کنم یک مدل بیزی برای مشکل زیر ایجاد کنم: یکی دارای بشکه ای است که حاوی تعداد زیادی توپ سفید و چند توپ قرمز است. یکی نسبت به غلظت توپهای قرمز آگاهی ندارد (توزیع A)، و دیگری نمونههای مکرر (مثلاً 20 درصد از توپها) را میگیرد. علاوه بر این - یک درصد (به دنبال توزیع ناشناخته B) از توپ های قرمزی که پیدا می کند حذف می کند. از این رو، به نظر می رسد که می توان از یک تابع درستنمایی دو جمله ای سنتی استفاده کرد و می توان به راحتی پسین را محاسبه کرد. با این حال، من در تلاش برای ترکیب، به ویژه در زمینه نمونه برداری WinBugs / Gibbs، عنصر حذف و تخمین هم زمان برای A و B هستم. نکات و کمک بسیار قدردانی می شود | مدل سلسله مراتبی بیز - نمونه برداری با محدودیت های اضافی |
58588 | من در حال حاضر روی پروژه ای کار می کنم که مدل من GLM با توزیع بتا است. متغیر وابسته دووجهی است. من قبلاً این کار را در Stata انجام دادهام، اما در تفسیر آنچه R منتشر کرده است مشکل دارم. من مدل را با استفاده از دستور VGLM از بسته VGAM اجرا کردم. بنا به دلایلی برای هر متغیر دو ضریب تولید کرده است. این بخشی است که من را گیج می کند - من مطمئن نیستم که چگونه این را تفسیر کنم، و تاکنون نتوانسته ام کمکی پیدا کنم. متغیر کلیدی مورد علاقه من logoil_gas_valuePOP_1 است. هر کمکی در اینجا بسیار قابل قدردانی خواهد بود - مشورت با معلم آمار من هیچ نتیجه ای نداشت. باقیمانده های پیرسون: حداقل 1Q Median 3Q Max elogit(mu، min = 0، max = 12) -6.4754 -0.34561 0.048202 0.42250 6.32340 log(phi) -23.6802 0.337259 0.33759 0.73015 ضرایب: برآورد Std. خطای z مقدار (Intercept): 1 -0.2731986 / 0.0513944 / -5.315728 (Intercept): 2 0.9116027 / 0.1266222 / 7.199393 polity_5:1 0.12674069 /6010.12674069/60 polity_5:2 0.0481726 / 0.0037464 / 12.858440 logGDP_cap2000_sup_1:1 0.0945281 / 0.0067247 / 14.056858 logGDP_cap20/14.056858 logGDP_cap_cap20. 0.0170221 / 20.812500 logoil_gas_valuePOP_1:1 -0.0330833 / 0.0035020 / -9.447096 logoil_gas_valuePOP_1:2 -0.0082593 / 0.07393/0.009-0.009 پیش بینی کننده ها: 2 نام پیش بینی کننده های خطی: elogit(mu، min = 0، max = 12)، log(phi) پارامتر پراکندگی برای خانواده betaff: 1 احتمال Log: -8592.995 در 10366 درجه آزادی تعداد تکرار: 25 در اینجا کد: کتابخانه (خارجی) rossdatahw<-read.dta(c:/Users/Amanda/Desktop/PS 531/Ross Replication/rossdata1.dta) library(mosaic) library(VGAM) rossdatahw$polity01<-with(rossdatahw,polity/1 ) cor(rossdatahw[,c(polity,polity01)], use=complete.obs) rossdatahw$polity1to11<-rossdatahw$polity+1 bootrossyears<-resample(rossdatahw, inside=rossdatahw$year, size= 1000، جایگزین=درست) bdata<-bootrossyears fit1<-vglm(polity1to11~polity_5 + logGDP_cap2000_sup_1 + logoil_gas_valuePOP_1 + لاتین + latin_logoil_1 + لاتین + dem_prior_update + gdpgrowth_alt_new_1 + mus_pct_new_1 + mus_pct_new_1 + mus_pct_new_1 + mus_pct_6AR19 + YE69 YE900 YEAR1970_74 + YEAR1975_79 + YEAR1980_84 + YEAR1985_89 + YEAR1990_94 + YEAR1995_99، data=rossdatahw[!is.na(rossdatahw$polity01)،]، naomaction. family=betaff(A=0,B=12,lmu = elogit(min = 0, max = 12)), ##family=beta.ab(A=0, B=12), trace=TRUE) coef(fit1 ، ماتریس = TRUE) خلاصه (fit1) coef(fit1) | چگونه نتایج GLM را با توزیع بتا در R تفسیر کنیم؟ |
81864 | ### سوال نمرات آزمون سه گروه از افراد به عنوان بردارهای جداگانه در R. set.seed(1) group1 ذخیره می شود <- rnorm(100, mean = 75, sd = 10) group2 <- rnorm(100, mean = 85، sd = 10) group3 <- rnorm(100، میانگین = 95، sd = 10) من می خواهم می دانید که آیا تفاوت معنی داری در **میانگین ها** بین این گروه ها وجود دارد یا خیر. من می دانم که می توانم گروه 1 را در مقابل گروه 2 با استفاده از تست Wilcoxon آزمایش کنم. wilcox.test(group1, group2) با این حال، این فقط دو گروه را در یک زمان مقایسه می کند، و من می خواهم هر سه را به طور همزمان مقایسه کنم. من یک آزمون آماری را می خواهم که مقدار p را در سطح معنی داری 0.05 به دست دهد. کسی میتونه لطفا کمک کنه؟ ### ویرایش شماره 1 - تست میانه Mood به دنبال پاسخ پیشنهادی کاربر Hibernating، تست میانه Mood را امتحان کردم. میانه.تست <- تابع(x، y){ z <- c(x، y) g <- تکرار(1:2، c(طول(x)، طول(y))) m <- میانه(z) fisher.test(z < m, g)$p.value } median.test(group1, group2) با این حال، این رویکرد به من امکان می دهد تفاوت معنی داری را بین میانه های تنها دو گروه در یک زمان آزمایش کنم. من مطمئن نیستم که چگونه از آن برای مقایسه میانگین هر سه به طور همزمان استفاده کنم. ### ویرایش شماره 2 - آزمون Kruskal-Wallis پاسخ پیشنهادی کاربر dmartin به نظر می رسد کم و بیش همان چیزی است که من نیاز دارم و به من اجازه می دهد هر سه گروه را به طور همزمان آزمایش کنم. kruskal.test(list(group1, group2, group3)) ### ویرایش شماره 3 کاربر Greg Snow به طور مفید در پاسخ خود خاطرنشان می کند که آزمون Kruskal-Wallis تا زمانی مناسب است که فرضیات دقیقی داشته باشد که آن را نیز به عنوان آزمونی از ابزارها تبدیل کند. . | آزمون فرضیه برای تفاوت میانه ها در بین بیش از دو نمونه |
77631 | سوال من اساساً ساده است: فرض کنید دنبالهای از سرها و دمها با شانس ظاهری برای گرفتن سرهای $\hat{p} = 0.5$ داریم. > h h t h t t t h t t h ... چگونه بفهمیم که این نمونه از یک توزیع دوجمله ای با این $\hat{p}$ گرفته شده است یا از ترکیبی از توزیع های مختلف که میانگین یکسانی را تولید می کند؟ (به عنوان مثال $p = 0.25$ یا $p = 0.75$) این چیزی است که من به انجام آن فکر می کردم: * دنباله را به زیربخش هایی به طول $n$، به عنوان مثال $n=5$، خرد می کنیم و $\hat{p را محاسبه می کنیم. }$ در هر پنجره از این قبیل: > {h h t h t}, {t t h t t}, {h ...} > 0.6، 0.2، ... * ما سپس انحراف معیار را در این مقادیر $\hat{p}$ محاسبه کنید: $\sigma_{ex}=\sqrt{\frac{\sum_{i=1}^M{(\hat{p}_i - \hat{ \mu})^2}}{M}}$، که $\hat{\mu}$ میانگین $\hat{p}$ است و $M$ تعداد کل پنجرههایی با اندازه $n$ است که میتوانیم ساختن * ما انحراف معیار را در $\hat{p}$ بر اساس توزیع دوجملهای محاسبه میکنیم، $\sigma_{th}=\sqrt{\frac{\hat{p}(1-\hat{p})}{n }}$. اکنون مشکل پیش می آید: چگونه تشخیص دهیم که این دو مقدار یکسان هستند؟ پس از تحقیقات فراوان، تصمیم گرفتم از تست نسبت F استفاده کنم و نتیجه را به یک توزیع f متصل کنم. نسبت F: $F = \frac{\sigma_{ex}^2}{\sigma_{th}^2}$ (فقط برای توزیعهای معمولی معتبر است:S) و سپس یک توزیع f برای رسیدن به p- ارزشی که می توانیم در مقابل آن بررسی کنیم. با این حال، برای توزیع f باید درجات آزادی را در نامگذار و مخرج بدانم. و مشکل من در اینجا نهفته است: درجات آزادی برای واریانس محاسبه شده از تئوری چیست؟ (در مورد آزمایشی فکر می کنم M باشد) اگر این پاسخ یا پیشنهادی در مورد چگونگی حل متفاوت این مشکل دارید، خوشحال می شوم در مورد آن بشنوم! | درجات آزادی در واریانس نمونه نظری (برای استفاده در توزیع F) |
73538 | چگونه یک فاصله اطمینان منفی را هنگام مقایسه دو میانگین جمعیت تفسیر کنم؟ به عنوان مثال، یک فاصله اطمینان $(-23.11، -1.02)$ است، اهمیت منفی بودن این مقادیر چیست؟ آیا دقیقاً به این معنی است که $\bar{x}_1 < \bar{x}_2$ ? | تفسیر فاصله اطمینان منفی |
61354 | من برخی از داده ها را دارم که دارای 0s با حدود 1s پرتاب شده است. به عنوان مثال: 00000000010000000100000000000000000000111111111000000 با این حال ، 1 ها بسیار پراکنده تر هستند. من میخواهم معیاری را محاسبه کنم که دادهها چقدر «روان» هستند. منظور من از این این است که اگر دادههای من فقط 1های تکی با 0 داشته باشند، میخواهم مقدار کمی داشته باشم. اما اگر تعداد زیادی ران های 1 یا طولانی اجراهای 1 وجود دارد، من ارزش بالایی می خواهم. راه خوبی برای اندازه گیری این چیست؟ | چگونه احتمال دویدن را اندازه گیری می کنید؟ |
6133 | فکر می کنم افراد اینجا می توانند من را در حل مشکل مربوط به تشخیص ناهنجاری در علوم کامپیوتر راهنمایی کنند. اصطلاح _ناهنجاری_ در اینجا به برخی رویدادهای نامطلوب در سیستم مانند عفونت ویروسی اشاره دارد. من می توانم از بیش از یک منبع در مورد آن بدانم. به عنوان مثال، پس از استخراج یک مقدار از دو ساختار داده متفاوت، اگر تفاوتی وجود داشته باشد، مطمئناً عفونت ویروسی وجود دارد. به منظور حذف موارد مثبت کاذب، اطلاعات از ساختارها یا مکانیسم های مختلف داده جمع آوری می شود. از این رو، برخی اطلاعات کمتر مورد اعتماد هستند و برخی اطلاعات بیشتر قابل اعتماد هستند. من به دنبال یک روش ریاضی هستم که بتواند به راحتی این نوع موقعیت ها را مدیریت کند. آیا فازی/الگوریتم ژنتیک/شبکه عصبی در اینجا مناسب است؟ در برخی مکانها یافت میشود که از رویکرد مبتنی بر نرمال (با استفاده از z-score) استفاده میکنند. لطفا کمک کنید. | از کدام روش برای تشخیص ناهنجاری استفاده کنیم؟ |
92706 | نماد $x_i$ - مقدار مشاهده ith در نمونه $X_j$ - مقدار مشاهده j در جمعیت $\bar{x}$ میانگین نمونه $\bar{X}$ میانگین جمعیت است این مستقیماً به شرح زیر است از یک سوال قبلی به اثبات اینکه مقدار مورد انتظار $x_i$ $\bar{X}$ است کمک کنید. امیدوارم بتوانم روشن کنم که این اثبات جایگزین سازگار است. به خصوص زمانی که انتظار $E[x_i]$ به صورت $\frac{{N-1\choose n-1}\sum{X_j}}{N\choose n}$ * * * طبق تعریف $\bar{ x} = \frac{\sum x_i}{n}$ بنابراین با توجه به انتظارات آن، اکنون $E[\bar{x}]=\frac{1}{n}E[\sum{x_i}]$ دریافت میکنیم، از آنجایی که ما جمعیتی به اندازه $N$ و اندازه نمونه با اندازه $n$ داریم، ${N\choose n}$ نمونه متفاوت داریم و از بین آنها، ${N-1\choose n-1}$ هر کدام را شامل می شود. از مقادیر $X_1، X_2،...، X_N$. سپس به وضوح، $\sum{x_i}={N-1\choose n-1}\sum{X_j}$ بنابراین، انتظار $\sum{x_i}$ توسط $E[\sum{x_i داده میشود. }]=\frac{{N-1\choose n-1}\sum{X_j}}{N\choose n}$\hspace{17mm}=\frac{n}{N} \sum{X_j}$ بنابراین $E[\bar{x}]=\frac{1}{n}(\frac{n}{N} \sum{X_j})$$\hspace{10mm}=\bar {X}$ | با اثبات «جایگزین» که $E[x_i] = \bar{X}$ است کمک کنید |
71390 | یک عامل از دیدگاه جبر خطی چیست؟ آیا این یک بردار، ماتریس، پایه، تاپل، سیستم مختصات یا چیز دیگری است؟ | عامل در تحلیل عاملی چیست؟ |
70046 | با توجه به دو متغیر تصادفی $X_1$ و $X_2$، ضریب همبستگی کندال-تاو می تواند به عنوان $$ تعریف شود. \tau(X_{1},X_{2})=\mathbb{P}\Big((X_{1}-\tilde{X}_{1})(X_{2}-\tilde{X}_ {2 })>0\Big)-\mathbb{P}\Big((X_{1}-\tilde{X}_{1})(X_{2}-\tilde{X}_{2})<0 \بزرگ) $$ که $(\tilde{X}_1, \tilde{X}_2)$ کپیهای مستقل $(X_1,X_2)$ هستند. می خواستم بدانم که آیا می توان تفسیری از همبستگی کندال-تاو به عنوان هسته ای مطابق با RKHS، به طور صریح یا ضمنی ارائه داد؟ | فضاهای کندال تاو و RKHS |
23423 | من به دنبال راهی برای مدلسازی و استخراج ویژگیها از دادههای زمانی چند متغیره (مانند ضبطهای صوتی چند کانالی) هستم. من به طور خاص به روش های یادگیری عمیق مانند RBM، رمزگذارهای خودکار پراکنده و غیره علاقه مند هستم. اکثر روش هایی که من با آنها مواجه شدم، تنها یک بعد از داده ها، یا شاید یک بلوک دو بعدی در داده ها (معمولاً تصاویر) را در نظر می گیرند. من نتوانستم مقاله ای در مورد چگونگی در نظر گرفتن جنبه زمانی و همچنین جنبه چند متغیری پیدا کنم. به عنوان مثال، اگر من در حال ضبط صدا از چندین کانال هستم، می دانم که احتمالاً کانال ها تا حدی با هم مرتبط هستند. همچنین، از آنجایی که این یک سیگنال زمانی در حال تکامل است، همچنین ارتباطی بین هر نمونه با نمونههای قبلی وجود دارد. آیا راهی برای ادغام این محدودیت های زمانی چند متغیره در یک شبکه وجود دارد؟ من به دنبال مقالات خاصی در مورد روشهایی برای زمانی چند متغیره هستم که در آن ساختار چند کانالی استفاده میشود. با تشکر | شبکه های عصبی چند لایه برای داده های زمانی چند متغیره |
70047 | چگونه می توانم مجموع باقیمانده های مجذور را به عنوان تابعی از میانگین نمونه و واریانس $y$ بنویسم، با توجه به اینکه معادله رگرسیون این است: $y = \beta_0 + \beta_1(x-\bar{x}) + \epsilon $ که در آن $\bar{x}$ میانگین $x$ها است. من میخواهم مجموع باقیماندههای مجذور را فقط با استفاده از لحظههای نمونه اول و دوم از x$ و $y$ محاسبه کنم. | مجموع مجذور باقیمانده ها |
94438 | من مشغول مطالعه خودم بودم و به فرمول های زیر برای تخمین خطاهای استاندارد برخورد کردم: **فرمول 1:**  ** فرمول 2:**  من درک می کنم که همه این دو می توانند زمانی استفاده شوند که استاندارد جمعیت انحراف ناشناخته است. اما من واقعاً نمی دانم که چرا یکی آن قسمت اضافی را در پشت دارد. لطفاً از برخی نکات قدردانی کنید. | تخمین خطای استاندارد |
85525 | من این وضعیت را دارم: بیمارانی که تشخیص پزشکی و پاسخ به درمان را به اشتراک می گذارند، اما در مورد پایبندی به درمان متفاوت هستند (محقق نمی دانست که کدام بیماران متعلق به S1 یا S2 هستند) S1 = پیرو (n=32) . S2= عدم پایبند بودن (n=30) تا زمانی که تمام داده ها جمع آوری نشده و بیماران قبلاً ارزیابی شده بودند، پایبند بودن یا عدم پایبند بودن برای محقق ناشناخته بود. دو روش، رتبه بندی شده در مقیاس لیکرت). به عبارت دیگر، ایجاد یک پروفایل از بیماران پایبند/غیر پایبند) متغیر وابسته یک متغیر دوگانه بود و نمونه ها واقعا مستقل نیستند، بنابراین من نتوانستم از t-test برای مقایسه آنها استفاده کنم. آیا ایده ای در مورد روشی مناسب برای یافتن تفاوت های آماری بین هر دو نمونه دارید؟ با تشکر¡ | مقایسه دو نمونه |
92705 | من یک سوال در مورد مقیاس چند بعدی دارم. من از مجموعه داده «eurodist» از بسته «مجموعه داده» برای ایجاد یک پیکربندی دو بعدی از فواصل بین شهرهای اروپایی استفاده کردم. من انتظار داشتم که نمایشی تقریباً دقیق از مکان شهرها ارائه شود (اگرچه می توان نقاط را منعکس کرد) زیرا ما در اینجا داده های مسافتی داریم که پیش از پیش به درستی شناخته می شوند. در داخل داده ها نباید تضاد وجود داشته باشد، اما در واقع تجزیه و تحلیل من نشان می دهد که وجود دارد! آیا کسی دلیل استرس ما در داده ها را می داند؟ کتابخانه (مجموعه داده ها) داده (eurodist) obj <- cmdscale(eurodist, k = 2) plot(obj[,1], obj[,2], type = n) text(obj[,1], obj [,2]، labels = rownames(obj)) sh <- Shepard(eurodist,obj) plot(sh$x, sh$y, main=Shepard-Diagram) abline(0, 1) | مقیاس بندی چند بعدی Eurodist |
81861 | من باید یک ساختار شبکه بیزی را از یک مجموعه داده یاد بگیرم. من کتابی با عنوان یادگیری شبکه های بیزی نوشته ناپلی و ریچارد را خواندم اما ایده روشنی ندارم. طبق این کتاب از دادهها میتوانم: 1) همه الگوهای DAG را ایجاد کنم، که در آن یک الگوی DAG یک کلاس معادل از DAG است (در رابطه با معادل مارکوف). 2) من می توانم تمام newtowrk بیزی افزوده چند جمله ای مرتبط با هر یک از کلاس های هم ارزی را ایجاد کنم. 3) من از یک تابع امتیاز برای یافتن بهترین نیوتورک بیزی افزوده چند جمله ای استفاده می کنم. اکنون متوجه نشدم که چگونه این تابع امتیازدهی را کار کنم. در ادبیات، بیش از یک وجود دارد؟ آیا می توانید به من کمک کنید تا دقیقاً نحوه عملکرد عملکرد امتیازدهی اصلی را بفهمم؟ همچنین خوانده ام که این تحقیق در مقایسه با تعداد متغیرهای N، فوق نمایی است، درست است؟ در عوض، روش دیگری کارآمدتر وجود دارد؟ | چگونه ساختار شبکه بیزی را از مجموعه داده یاد بگیریم؟ |
74545 | من یک مجموعه داده با ستون هایی دارم که مقادیر عقب مانده پیش بینی کننده ها را نشان می دهد. برای نشان دادن یک مثال ساده، فرض کنید ما دادههای فروش خودرو را به مدت 3 سال در اختیار داشتیم و تنها پیشبینیکنندههای موجود درآمد و جمعیت تعدادی از فروشندگان خودرو بود، مجموعه داده را میتوان به صورت زیر نشان داد، ID IncLag1 PopLag1 SalesLag1 IncLag2 PopLag2 SalesLag2 IncCurrent PopCurr SalesCurr یک 100 1000 200 150 2000 300 500 2500 450 b 10 300 50 60 900 80 90 1000 100 ... k 30 60 10 200 2000 60 80 800 ?? متغیر وابسته من SalesCurr است - یعنی با توجه به سابقه فروش گذشته و مقادیر مربوط به درآمد و جمعیت (که می توانیم از آن به عنوان داده آزمون قطار استفاده کنیم)، میزان فروش در سال جاری (SalesCurr) را پیش بینی کنید. سوال من به شرح زیر است -- با استفاده از R یا GRETL، چگونه می توان یک مدل ARIMA/TimeSeries با داده های بالا برای پیش بینی متغیر SalesCurrent ایجاد کرد. با استفاده از رگرسیون خطی ساده، می توان به سادگی فرمولی مانند lm (SalesCurrent ~.، data=mytable) داشت، اما این یک مدل سری زمانی نخواهد بود زیرا رابطه بین موارد مختلف را در نظر نمی گیرد. متغیرها از طرف دیگر، من کاملاً با مدلهای یادگیری ماشینی آشنا هستم و میخواهم نظرات شما را در مورد اینکه چگونه میتوان چنین مجموعهدادهای را با استفاده از مثلاً، randomForest، GBM و غیره مدلسازی کرد، بدانم. پیشاپیش متشکرم. | مدلسازی سری زمانی با متغیرهای تاخیری |
92672 | من می خواهم اساساً بپرسم عنوان چه می گوید؟ تفاوت بین _Primal_، _Dual_ و _Kernel_ Ridge Regression چیست؟ مردم از هر سه استفاده می کنند، و به دلیل نمادهای متفاوتی که همه در منابع مختلف استفاده می کنند، پیگیری برای من دشوار است. پس آیا کسی می تواند با کلمات ساده به من بگوید تفاوت بین این سه چیست؟ علاوه بر این، مزایا یا معایب هر کدام و پیچیدگی آنها چیست. | تفاوت بین رگرسیون Primal، Dual و Kernel Ridge |
73537 | من یک مجموعه داده کوچک و نامتعادل دارم (70 مثبت، 30 منفی)، و با انتخاب مدل برای پارامترهای SVM با استفاده از BAC (دقت متعادل) و AUC (ناحیه زیر منحنی) بازی میکنم. من از وزن کلاس های مختلف برای پارامتر C در libSVM استفاده کردم تا داده های نامتعادل را با توجه به توصیه های اینجا (آموزش درخت تصمیم در برابر داده های نامتعادل) جبران کنم. 1. به نظر می رسد که خطای اعتبار متقابل k-fold نسبت به نوع معیار عملکرد بسیار حساس است. همچنین به خودی خود دارای خطا است زیرا مجموعه های آموزشی و اعتبار سنجی به صورت تصادفی انتخاب می شوند. به عنوان مثال، اگر BAC را دو بار با دانه های تصادفی مختلف تکرار کنم، خطاهای مختلف و متعاقباً مقادیر پارامتر بهینه متفاوتی دریافت خواهم کرد. اگر میانگین نمرات تکرار شده BAC را به دست بیاورم، میانگین 1000 بار مقادیر پارامترهای بهینه متفاوتی نسبت به میانگین 10000 بار به من می دهد. علاوه بر این، تغییر تعداد تاها به من مقادیر پارامتر بهینه متفاوتی می دهد. 2. معیارهای دقت برای اعتبارسنجی متقابل ممکن است بیش از حد خوش بینانه باشد. معمولاً هر چیزی که بیش از یک تأیید متقاطع 2 برابری داشته باشد، دقت 100٪ را به من می دهد. همچنین میزان خطا به دلیل حجم نمونه کوچک گسسته شده است. انتخاب مدل اغلب نرخ خطای یکسانی را در تمام یا بیشتر مقادیر پارامتر به من می دهد. 3. هنگام نوشتن گزارش، چگونه می توانم بفهمم که یک طبقه بندی خوب یا قابل قبول است؟ در این زمینه، به نظر میرسد که چیزی شبیه به خوبی برازش یا آستانه p-value که معمولاً پذیرفته شده باشد نداریم. از آنجایی که من به صورت تکراری به داده ها اضافه می کنم، می خواهم بدانم چه زمانی باید متوقف شود - N خوب در جایی که مدل به طور قابل توجهی بهبود نمی یابد چیست؟ با توجه به مسائلی که در بالا توضیح داده شد، به نظر می رسد که نمی توان دقت را به راحتی بین انتشارات مقایسه کرد در حالی که AUC به عنوان یک شاخص ضعیف برای عملکرد توصیف شده است (برای مثال اینجا یا اینجا را ببینید). آیا توصیه ای در مورد چگونگی مقابله با هر یک از این 3 مشکل دارید؟ | انتخاب یک معیار عملکرد طبقه بندی برای انتخاب مدل، انتخاب ویژگی و انتشار |
48496 | برای یک متغیر تصادفی $X\sim \text{Exp}(\lambda)$ ($\mathbb{E}[X] = \frac{1}{\lambda}$) به طور شهودی احساس میکنم که $\mathbb{E} [X|X > x]$ باید برابر با $x + \mathbb{E}[X]$ باشد زیرا توسط ویژگی بدون حافظه، توزیع $X|X > x$ مشابه با $X$ است اما تغییر کرده است. به سمت راست توسط $x$. با این حال، من در تلاش برای استفاده از خاصیت بدون حافظه برای ارائه یک دلیل واقعی هستم. هر گونه کمک بسیار قدردانی می شود. با تشکر | انتظار شرطی متغیر تصادفی نمایی |
81882 | چرا L2 بر خلاف L1 وزنه های صاف و غیر پراکنده تولید می کند؟ | چرا تنظیم L2 وزنه های صاف و غیر پراکنده ایجاد می کند؟ |
64069 | خطای استاندارد پیشبینی در رگرسیون خطی ساده $\hat\sigma\sqrt{1/n+(x_j-\bar{x})^2/\Sigma{(x_i-\bar{x})^2}}$ است. . سوال من این است که خطای استاندارد پیشبینی برای $pop=1029$ را فقط بر اساس خروجی رگرسیون زیر محاسبه کنم. من می توانم همه را به جز $\bar{x}$ دریافت کنم. و همچنین می دانم که چگونه خطای استاندارد تقریبی پیش بینی را بر اساس خطاهای استاندارد رهگیری و ضریب $pop$ محاسبه کنم، بدون توجه به همبستگی آنها.  | آیا می توانیم خطای استاندارد پیش بینی را فقط بر اساس خروجی رگرسیون خطی ساده محاسبه کنیم؟ |
71392 | دو تا سوال دارم آنها مسایلی هستند از K. Fukunaga's _Introduction to Statistical Pattern Recognition_: اول: ثابت کنید معکوس $S \cdot M$ (میانگین بردار) بردار مشابهی با معکوس $\Sigma\cdot M$ است دوم: یک مقدار ویژه غیر صفر را بیان کنید. و بردار ویژه برای معکوس $\Sigma\cdot M\cdot M^t$ | سوال در مورد ماتریس خودهمبستگی و کوواریانس |
96760 | من یک مجموعه داده با دو متغیر V1 و V2 دارم. V1 یک متغیر پیوسته است، در حالی که V2 یک متغیر باینری است. من می خواهم میانگین V1 را تخمین بزنم. V2 به عنوان افزودن خطا به V1 شناخته شده است (وجود V2 داده ها را به سمت چپ منحرف می کند، در حالی که عدم وجود آن باعث انحراف داده ها به سمت راست می شود، هر دو به یک درجه). من می خواهم میانگین V1 را در حالی که خطای اضافه شده به V1 را کنترل می کنم، تخمین بزنم (در نتیجه SE برآورد را کاهش می دهم). یک فکری که داشتم این بود که یک رگرسیون V2 پیش بینی V1 را اجرا کنم. من دو مقدار V1 را روی -.5 و .5 قرار دادم. به نظر من تخمین ثابت اکنون میانگین را پیشبینی میکند، در حالی که جابجایی اضافه شده توسط V2 را کنترل میکند، اما درجات آزادی اضافهشده با گنجاندن V2 را بهعنوان پیشبینیکننده نیز در نظر میگیرد. هر گونه پیشنهاد در مورد نحوه برخورد با این مشکل بسیار قدردانی می شود. | من می خواهم میانگین یک متغیر را تخمین بزنم. من می خواهم SE را با کنترل نویز معرفی شده توسط متغیر دوم دیگر کاهش دهم |
38413 | بنابراین من یک رویداد دارم که می تواند به صورت روزانه با احتمال 1٪ رخ دهد. هیچ وابستگی بین روزها وجود ندارد. اکنون می توانم احتمال وقوع رویداد X بار در روز Y را محاسبه کنم: COMBIN(Y,X) * (0.01 ^ X) * [0.99 ^ (Y - X)] که در آن COMBIN() تعداد ترکیبات برای X در Y. اکنون آنچه من می خواهم محاسبه کنم احتمال X رویداد در هر پنجره Y برای آخرین روزهای Z است، به عنوان مثال احتمال وقوع 5 رویداد در حداقل یک 30 چقدر است. پنجره روز در 10 سال گذشته هر گونه کمک بسیار قدردانی می شود. با تشکر **توجه:** سوال اصلی برای افزودن حداقل واجد شرایط به ازای هر پیشنهاد MansT در زیر ویرایش شد. | احتمال رخدادهای مستقل در یک پنجره مشخص |
38412 | من یک طبقهبندی مبتنی بر SVM در برابر مجموعه دادهها ساختم، دقت آن حدود 66% و فراخوانی حدود 88% است. به طور کلی، چه گزینه هایی برای تنظیم پارامتر وجود دارد که می تواند دقت را افزایش دهد؟ | رویکردهای کلی برای بهبود طبقهبندیکننده مبتنی بر SVM که دقت پایین و یادآوری بالایی دارد. |
71394 | توزیع نرمال چند متغیره را در نظر بگیرید $X = [X_1, X_2, X_3]^T$ با $$ \mu = \begin{pmatrix} -3 \\\ 1 \\\ 4\end{pmatrix} \quad \quad \Sigma = \begin{pmatrix} 4 & -1 & 0\\\ -1 & 5 & 0\\\ 0 & 0 & 2\end{pmatrix}$$ باید بفهمم که آیا متغیرهای تصادفی زیر مستقل هستند: * $(X_1, X_2)$ و $X_3$ * $X_1 - X_2$ و $X_1 + X_2 - X_3$ چگونه می توانم من تعیین می کنم که؟ من می بینم که به عنوان مثال $X_1$ و $X_3$ کوواریانس $=0$ دارند. به طور معمول، این بدان معنا نیست که آنها مستقل هستند، اما (همانطور که از ویکی پدیا یاد گرفتم) از آنجایی که در اینجا $X_1$ و $X_2$ به طور معمول و مشترک توزیع می شوند، در واقع صدق می کند. اما چگونه می توانم با مبالغ و منفی کنار بیایم؟ | استقلال توزیع نرمال چند متغیره |
70045 | متغیر تصادفی من $X$ معمولاً با میانگین $b$ و واریانس $p$ توزیع می شود. من یک RV جدید تعریف کردم، $Y$، به طوری که $Y=1/X$. آیا کسی می داند چگونه می توان میانگین $Y$ و $Y^2$ را پیدا کرد؟ | میانگین و واریانس معکوس یک RV معمولی |
87466 | چرا انجام تجزیه و تحلیل تشخیص خطی (LDA) بر روی یک محصول بیرونی ماتریس ورودی، نتیجه ای مشابه با انجام تجزیه و تحلیل مؤلفه اصلی (PCA) ماتریس ورودی دارد؟ دقیقاً مطمئن نیستم که این از کجا آمده و چرا کار میکند، اما حاصلضرب بیرونی ماتریس ورودی $X^T X$ در PCA از آن برای ایجاد مربع ماتریس استفاده میکنند، بنابراین میتوانند تجزیه و تحلیل تفکیک خطی را روی آن ماتریس انجام دهند. همچنین در معادله نرمال به عنوان اولین مرحله برای حل ضریب رگرسیون در رگرسیون خطی استفاده می شود. یک تفسیر هندسی بسیار مفید خواهد بود. | چرا انجام LDA بر روی یک محصول بیرونی ماتریس ورودی نتیجه مشابهی با انجام PCA ماتریس ورودی دارد؟ |
55742 | در ادبیات، اصطلاحات تصادفی سازی و جایگشتی به جای یکدیگر استفاده می شوند. با بسیاری از نویسندگانی که تست های جایگشت (معروف به تصادفی سازی) را بیان کرده اند، یا برعکس. در بهترین حالت، من معتقدم که تفاوت ظریف است، و در مفروضات آنها در مورد داده ها و نتایج بالقوه ای است که می توان گرفت. فقط باید بررسی کنم که آیا درک من درست است یا تفاوت عمیق تری وجود دارد که من از آن غافل هستم. آزمونهای جایگشت فرض میکنند که دادهها بهطور تصادفی از یک توزیع جمعیت زیربنایی (مدل جمعیت) نمونهبرداری شدهاند. این به این معنی است که نتایج به دست آمده از آزمون جایگشت عموماً برای سایر داده های جمعیت قابل استفاده است [3]. آزمونهای تصادفیسازی (مدل تصادفیسازی) به ما اجازه میدهد که فرض غیرقابل قبول تحقیقات روانشناختی معمولی --- نمونهگیری تصادفی از یک توزیع مشخص را کنار بگذاریم [2]. با این حال، این بدان معناست که نتایج به دست آمده فقط برای نمونه های مورد استفاده در آزمون قابل استفاده است [3]. مطمئناً تفاوت فقط در تعریف جمعیت است. اگر جمعیت را «همه بیماران مبتلا به این بیماری و مناسب برای درمان» تعریف کنیم، آزمایش جایگشت برای آن جمعیت معتبر است. اما از آنجایی که ما جمعیت را به افرادی که برای درمان مناسب هستند محدود کردهایم، این واقعاً یک آزمایش تصادفی است. منابع: [1] فیلیپ گود، آزمون های جایگشت: راهنمای عملی روش های نمونه گیری مجدد برای آزمون فرضیه ها. [2] یوجین ادینگتون و پاتریک اونگنا، آزمون های تصادفی سازی. [3] مایکل ارنست، روشهای جایگشت: مبنایی برای استنتاج دقیق | تفاوت بین آزمون تصادفی سازی و آزمون جایگشت |
70043 | من در حال بررسی الگوریتمها برای تخمین احتمالات انتقال یک زنجیره مارکوف مجزا هستم و متوجه شدم که میتوان از رویکرد EM استفاده کرد. با این حال، من نمیتوانم توضیح سادهای در مورد نحوه پیادهسازی الگوریتم EM برای جا دادن یک زنجیره مارکوف مجزا که یک توالی داده را ارائه میدهد، پیدا کنم. آیا تابع R وجود دارد که این کار را انجام دهد؟ | الگوریتم EM برای تخمین احتمالات گسسته انتقال زنجیره مارکوف |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.