_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
89734
من اطلاعات نسبتی در مورد درصد کارمندان زن در 500 سازمان دارم. من می خواهم از GLM برای توضیح این متغیر وابسته با استفاده از سایر متغیرهای مستقل مانند اندازه شرکت، صنعت و غیره استفاده کنم. همانطور که در اینجا توصیه می شود از رگرسیون GLM در Stata استفاده کردم. مدل stata به این صورت است: متغیرهای دیگر glm PercentageFemale، پیوند (logit) خانواده (دوجمله‌ای) nolog قوی، با این حال، وقتی سعی می‌کنم نتایج خود را در R تکرار کنم، نتایج متفاوتی دریافت می‌کنم. مدل من در R به این شکل است: fitglm <- glm (فرمول = cbind(موفقیت‌ها، شکست‌ها) ~ متغیرهای دیگر، خانواده = دوجمله‌ای) که در آن «موفقیت‌ها» تعداد زنان در شرکت و «شکست‌ها» تعداد مردان است. می دانم که نمی توانم از درصد به طور مستقیم در R مانند Stata استفاده کنم، بنابراین از «cbind» استفاده کردم. من سعی کردم از «glmrobust» استفاده کنم اما خطایی روی می دهد که می گوید سیستم دقیقاً تک است. آیا ایده ای در مورد اینکه چگونه می توانم نتایج Stata خود را در R تکرار کنم؟ آیا وقتی از «cbind» در R استفاده می کنم کار اشتباهی انجام می دهم؟
GLM برای داده های نسبت در r
24828
من با تغییر شکل داده هایم مشکل دارم. این پروژه من در کلاس رگرسیون من است و از ما خواسته می شود تا داده های خود را اجرا کنیم و تمام فرضیات ممکن را برآورده کنیم تا زمانی که بتوانیم مدلی را انتخاب کنیم. که ما قصد داریم از آن برای پیش بینی استفاده کنیم. اکنون، من تمام تبدیل های ممکن را امتحان کردم، اما هیچ راه حلی برای خطی کردن این نمودار پراکندگی به من نمی دهد. یا آیا تستی وجود دارد که بتوانم از آن برای بررسی خطی بودن داده هایم استفاده کنم؟ به جای استفاده از روش غیررسمی برای نگاه کردن به طرح. خب، در اینجا تصویر طرح Residual در مقابل مقادیر Fitted است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/6rpXv.png) من تغییر log-transforming، تغییر تابع رگرسیون خود و غیره را امتحان کردم. اما هنوز هم خطی نمی شود. با این حال، من ثبات واریانس خطای خود را با استفاده از تست Breusch-Pagan بررسی می‌کنم، که نتیجه می‌گیرد که ثابت است. اما، من تست دیگری برای بررسی غیر خطی بودن نمی دانم. من واقعا از کمک شما قدردانی می کنم.
چگونه می توانم غیرخطی بودن تابع رگرسیون خود را با این تصویر نمودار برآورده کنم؟
26081
من این تصور را داشتم که مقادیر mid-$p$ عموماً خطای نوع I را کنترل می کنند، و در نتیجه فواصل اطمینان مبتنی بر مقادیر mid-$p$ پوشش را کنترل می کنند. با این حال، من بررسی کرده‌ام که این موضوع با تابع «binom.midp()» بسته «binomSamSize» درست نیست (به زیر مراجعه کنید). آیا با 'binom.midp()' مشکل دارد؟ پوشش کتابخانه(binomSamSize) <- تابع(p, n, conf){ کرانه ها <- binom.midp(0:n,n,conf) کم <- کرانه$پایین به بالا <- کرانه$پوشش بالایی <- که(کم< p & p <up)-1 sum(dbinom(covered, n, p)) } n <- 100 conf <- 95/100 p <- seq(0.01,0.99,length.out=100) cover <- sapply(p, function(p){ coverage(p,n,conf) } ) plot(p,cover,type=l) abline (h=conf, lty=2) ![پوشش](http://i.stack.imgur.com/neIb8.png) ویرایش: اکنون بررسی کردم سطح معنی داری آزمون فرضیه بر اساس مقدار mid-p (پیاده سازی بسیار آسان) و نتایج مطابق هستند: ### مقدار mid-p برای H0:{p>p0} pv <- تابع(x, n,p0){ pbinom(x, n, p0)-dbinom(x,n,p0)/2 } ### نوع خطای نوعI <- تابع(p,n,alpha){ pvs <- pv(0:n,n,p) رد شد <- which(pvs<alpha)-1 sum(dbinom(rejected,n,p)) } ### تست n <- 100 آلفا <- 5/100 p <- seq(0.01,0.99,length.out=100) probs <- sapply(p, function(p){ typeI(p,n,alpha) } ) plot(p,probs,type=l) abline(h=alpha,lty=2) ![significance](http://i.stack.imgur.com/uMLLQ .png)
مقدار دو جمله ای mid-p
68115
این سوال مکمل سوال 1 است که توسط @Jesse در اینجا مطرح شده است. این در مورد زمانی است که در هنگام انجام تست log-rank نتیجه قابل توجهی پیدا نکنیم و زمانی که فرض خطر متناسب برقرار نیست. @Aniko در پاسخ خود به جسی شروع به پاسخ دادن به سؤال فعلی من کرده است: _اگر رد نکرد، پس باید نگران تناسب خطرات و قدرت باشید. من کاملاً درک می کنم که باید نگران باشیم، اما می خواهم بدانم چگونه باید با اضطراب خود کنار بیاییم. آزمون log-rank همیشه معتبر است، حتی اگر فرض خطر متناسب برقرار نباشد، به معنای زیر: تحت فرض صفر $H_0$ (برابری نرخ های خطر)، احتمال رد کردن (تقریبا یا مجانبی) به سطح اهمیت اسمی، یعنی توان کمتر از $H_0$ است. اما وقتی فرض خطر تناسبی درست باشد، رفتار توان تحت $H_1$ واضح است زیرا باید تابع افزایشی ثابت تناسب $k$ باشد. اما وقتی این فرض خطر متناسب _نی_______________ برقرار است، آیا برخی از موقعیت های $H_1$ معمولی وجود دارد که مشخص است که قدرت هنوز کم است؟ و برای یک مجموعه داده معین، آیا روش های بصری برای بررسی اینکه آیا ما در چنین موقعیتی هستیم یا خیر وجود دارد؟
تست log-rank در چه شرایطی قدرت پایینی دارد؟
64962
در رویکرد الگوریتم EM از نابرابری جنسن برای رسیدن به $$\log p(x|\theta) \geq \int \log p(z,x|\theta) p(z|x,\theta^{(k) استفاده می‌کنیم. )}) dz - \int \log p(z|x,\theta) p(z|x,\theta^{(k)})dz$$ و تعریف کنید $\theta^{(k+1)}$ توسط $$\theta^{(k+1)}=\arg \max_{\theta}\int \log p(z,x|\theta) p(z |x,\theta^{(k)}) dz$$ هر چیزی که EM می‌خوانم آن را کم‌کم می‌کند، اما من همیشه از نداشتن توضیحی درباره اینکه چرا الگوریتم EM به طور طبیعی به وجود می‌آید احساس ناراحتی می‌کردم. من می‌دانم که احتمال $\log$ معمولاً برای مقابله با جمع به جای ضرب بررسی می‌شود، اما ظاهر $\log$ در تعریف $\theta^{(k+1)}$ برای من بی‌انگیزه است. چرا باید $\log$ و نه توابع یکنواخت دیگر را در نظر گرفت؟ به دلایل مختلف من گمان می‌کنم که «معنا» یا «انگیزه» پشت به حداکثر رساندن انتظارات، نوعی توضیح از نظر تئوری اطلاعات و آمار کافی دارد. اگر چنین توضیحی وجود داشت، بسیار رضایت بخش تر از یک الگوریتم انتزاعی بود.
الگوریتم به حداکثر رساندن انگیزه انتظارات
26082
زیر سوال 8 از فصل 8 در _همه آمار_ واسرمن است: > اجازه دهید $T_n = \overline{X}_n^2$, $\mu = \mathbb{E}(X_1)$, $\alpha_k = \int| x - > \mu|^kdF(x)$ و $\hat{\alpha}_k = n^{-1}\sum_{i=1}^n|X_i - > \overline{X}_n|^k$. > > نشان دهید که $$v_{\mathrm{boot}} = \frac{4\overline{X}_n^2\hat{\alpha}_2}{n} + > \frac{4\overline{X}_n \hat{\alpha}_3}{n^2} + \frac{\hat{\alpha}_4}{n^3} \>.$$ او قبلاً $v_{\mathrm{boot}} را تعریف کرده بود = \frac{1}{B}\sum_{b=1}^B(T_{n,b}^* - \frac{1}{B}\sum_{r=1}^BT_{n,r} ^*)^2$، که $T_{n,i}^*$ آمار مورد نظر از $i$th تکرار بوت استرپ نمونه $X_1,...,X_n$ است. به نظر می رسد که سوال همانطور که گفته شد منطقی نیست: اگر کمیت نیاز به شبیه سازی داشته باشد چگونه می توان فرمولی برای واریانس بوت استرپ وجود داشت؟ شاید می‌خواست واریانس توزیع نمونه‌گیری را بپرسد، اما من برای آن $\frac{\sigma^2}{n}$ دریافت می‌کنم. نکاتی در مورد چگونگی تفسیر یا حل این موضوع وجود دارد؟
واریانس بوت استرپ میانگین نمونه مربعی
3641
من می خواهم داده ها را در این نمودار برای حداقل 4 یا 5 دوره نمایش دهم. متأسفانه، این با میانگین متحرک امکان پذیر نخواهد بود. یک رگرسیون پس از دوره سوم به مقادیر منفی منجر می شود. گزینه های پیش بینی من چیست؟ اساساً، کاری که من می‌خواهم انجام دهم، این است که پیش‌بینی کنم که جهش رونق در کجا خواهد بود، تنها بر اساس داده‌های جمعیت و سن در سال **ویرایش** در محل کار، ما بسیاری از سایت‌های تصویر مسدود شده‌ایم، این تصویر برای شماست. نمی توانم آن را ببینم **ویرایش 2** تصویر به روز شده ![State Wide Age Distribution](http://i.stack.imgur.com/Ad80M.jpg)
پیش بینی توزیع سنی
106310
> $X_1، \ldots، X_n$ iid ~ Pois($\lambda$). فرض کنید، شما مقدار > هر $X_i$ را نمی دانید، اما می دانید که آیا $X_i = 0$ برای هر i است یا خیر. > > MLE را برای $\lambda$ پیدا کنید. آیا MLE همیشه وجود دارد؟ من می دانم چگونه MLE را پیدا کنم. مشکل من این است که نمی دانم چگونه با دانش محدود نمونه برخورد کنم. من قبلاً فکر می کردم که هنگام ایجاد یک برآوردگر (نه تنها ML، بلکه هر کدام) به نمونه ای که داریم اهمیت نمی دهیم. بنابراین، پاسخ من این است که MLE یکسان خواهد بود. درست میگم؟
سوال پیچیده در مورد MLE
24825
به عنوان مثال، یکی می خواهد قیمت خانه را پیش بینی کند و دو ویژگی ورودی به طول و عرض خانه داشته باشد. گاهی اوقات، یکی شامل ویژگی های ورودی چند جمله ای «مشتق شده» نیز می شود، مانند مساحت، که طول * عرض است. 1) منظور از گنجاندن ویژگی های مشتق شده چیست؟ آیا شبکه عصبی نباید در طول آموزش ارتباط بین طول، عرض و قیمت را بیاموزد؟ چرا ویژگی سوم، مساحت، اضافی نیست؟ علاوه بر این، گاهی اوقات می بینم که افراد الگوریتم های انتخاب ژنتیک را روی ویژگی های ورودی اجرا می کنند تا تعداد آنها را کاهش دهند. 2) اگر همه آنها حاوی اطلاعات مفیدی باشند، کاهش ویژگی های ورودی چیست؟ آیا شبکه عصبی نباید با توجه به اهمیت هر یک از ویژگی های ورودی، وزن های مناسبی را به آن اختصاص دهد؟ اجرای الگوریتم های انتخاب ژنتیک چه فایده ای دارد؟
چرا از ویژگی های مشتق شده در شبکه های عصبی استفاده می شود؟
24827
در یک معادله رگرسیون چندگانه خطی، اگر وزن‌های بتا سهم هر متغیر مستقل منفرد را بیش از سهم همه IV‌های دیگر منعکس می‌کنند، در کجای معادله رگرسیون واریانس بین تمام IV‌هایی که DV را پیش‌بینی می‌کنند مشترک است؟ برای مثال، اگر نمودار ون نمایش داده شده در زیر (و از صفحه «درباره» CV در اینجا گرفته شده است: http://stats.stackexchange.com/about) مجدداً به 3 IV و 1 DV برچسب زده شود، ناحیه با ستاره کجا وارد می شود. به معادله رگرسیون چندگانه؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/6Eqri.png)
واریانس مشترک بین تمام IV ها در یک معادله رگرسیون چندگانه خطی کجاست؟
3890
من می خواهم از تابع **weighted.median()** در بسته **R.basic** (و برخی موارد دیگر نیز استفاده کنم، اگرچه این یکی از همه مهمتر است). install.packages (R.basic) به من می دهد: بسته R.basic در دسترس نیست و library (R.basic) می گوید خطا در library (R.basic): هیچ بسته ای به نام R.basic وجود ندارد یک نسخه قابل دانلود در اینجا وجود دارد. اما با تایپ: install.packages(~/Documents/R.classes_0.62.tar.gz، CRAN=NULL) خطا در do_install(pkg) می دهد: به نظر می رسد این یک بسته است -- و آنها از بین رفته اند پیام هشدار : در install.packages(~/Documents/R.classes_0.62.tar.gz، : نصب بسته '~/Documents/R.classes_0.62.tar.gz' وضعیت خروج غیر صفر داشت چگونه می توان از آن عبور کرد؟
بسته R.basic
99971
تعداد مسیرهای ممکن برای یک TSP متقارن چقدر است؟ آیا آن (n-1) است!/2؟ چون گاهی اوقات دارم متوجه می شوم که n است! و گاهی اوقات (n-1)! و 2/ چون متقارن است
مشکل بهینه سازی TSP
105791
توزیع Lognormal متعلق به دامنه حداکثر جاذبه Gumbel است، جایی که: $F^{logN}(x; \mu,\sigma)=\Phi\left(\frac{\ln x - \mu}{\sigma}\right )$, $F^{Gum}(x;\mu,\beta) = e^{-\exp\left({-\frac{x-\mu}{\beta}}\راست)}$ _سوال من_: آیا ما $\mu=\mu$ و $\sigma=\beta$ داریم؟ توزیع ارزش افراطی تعمیم یافته همچنین از علامت $\beta=\sigma$ استفاده می کند (Gumbel حالت حد $\xi =0$ است)، و مقایسه CDF ها برای Standard-Lognormal و Standard-Gumbel مجدداً به این معنی است که پارامترها مطابقت دارند. اما من در مورد آن مطمئن نیستم، زیرا Gumbel یک مورد محدود کننده Lognormal Maxima است، بنابراین ممکن است مقداری تغییر در پارامترها نیز وجود داشته باشد.
نظریه ارزش افراطی: پارامترهای Lognormal GEV
99978
من اخیراً تحقیقاتی در مورد خودهمبستگی باقیمانده ها در یک مورد خاص از فرآیندهای خودرگرسیون انجام داده ام. بر اساس محاسبات من $$ \hat{r}_k=\frac{\sum_{t=1}^{n-k}\hat{e}_t\hat{e_{t+k}}}{\sum_{t= 1}^{n}\hat{e}^2_t}\sim F $$ که در آن $\hat{r}_k$ $k^{th}$ ترتیب همبستگی‌های خودکار باقیمانده است. من می دانم که F یک توزیع متقارن نیست اما میانه آن برابر با $r_k$ (همبستگی خودکار واقعی) است. علاوه بر این، من می دانم که $F(w)$ را می توان با $\Phi(\frac{aw+b}{cw^2})$ تقریب زد که $\Phi$ یک توزیع استاندارد معمولی است. اکنون هدف من ایجاد یک فاصله اطمینان برای $\hat{r}_k$ است. برای دقیق تر، من نقطه شروع محاسبه خود را اینجا قرار دادم. توجه داشته باشید که MN به معنای توزیع نرمال چند متغیره است و در مورد ما توزیع مجانبی است. $\Theta$ و $\hat\Theta$ به ترتیب پارامترهای واقعی و پارامترهای تخمینی هستند. $$ \sqrt{n}(\Theta -\hat\Theta) \overset{d}{\rightarrow} MN(0,\sigma^2 U_0^{-1}) $$ $$ \Rightarrow \sqrt{n }(H'_{}\Theta -H'_{}\hat\Theta) \overset{d}{\rightarrow} MN(0,\sigma^2 H'_{}U_0^{-1}H_{}) $$ $$ \Rightarrow \sqrt{n}(y-\hat{y})\overset{d}{\rightarrow} MN(0,\sigma ^2 H'_{}U_0^{-1}H_{}) $$ $$ =\sqrt{n}\hat{e}\overset{d}{\rightarrow} MN(0,\sigma^2 H'_{}U_0^{-1}H_{}) $$ $$ (\hat{e}=\sqrt{n}\hat{e}) \Rightarrow \hat{ e}\overset{d}{\rightarrow} MN(0,\sigma^2 H'_{}U_0^{-1}H_{}). $$
خودهمبستگی باقیمانده ها
105797
من از الگوریتم SMOTE در R برای تعادل کلاس استفاده کردم. اندازه داده های من 13000 ردیف دارد، من در نمونه خود 7٪ کلاس اقلیت داشتم، اکنون از SMOTE (تکنیک اقلیت مصنوعی Oversampling) برای متعادل کردن کلاس استفاده کردم به طوری که نسبت کلاس اقلیت را به 42٪ رساندم و تعداد ردیف ها در نمونه داده ها 12655 می شود. ، اکنون باید یک رگرسیون لجستیک را در مجموعه داده‌های خود جای دهم تا نمونه را تقسیم کنم. برای اعتبارسنجی و آزمایش متقابل من دو روش را امتحان کردم: الف) داده های خود را بر روی نمونه به دست آمده پس از SMOTE و آزمایش بر روی نمونه اصلی دارای 13000 ردیف آموزش دهید. ب.) نمونه به‌دست‌آمده پس از SMOTE را به قطار تقسیم کنید و آزمایش کنید و برازش و آزمایش را روی این مجموعه داده‌ها انجام دهید فقط در رویکرد اول ممکن است نتایج من تغییر کند، بنابراین کدام رویکرد را باید انتخاب کنم و چرا؟
آموزش و تست مجموعه داده های نامتعادل
99975
من در اینجا به توزیع ها نگاه می کنم. من گیج شده ام که برخی از فایل های PDF (مثلاً نمایی، Weibull با گاما = 1) دارای P(X) = 1 در مورد محور هستند. من فکر کردم که ادغام در کل توزیع باید 1 را به دست آورد. من چی رو اشتباه میفهمم متشکرم
ناحیه توزیع نمایی
99973
من یک سوال در مورد استفاده از اثرات تصادفی به منظور محاسبه نقض نمونه های مستقل فرض دارم. من این بحث را با سرپرستم دارم و در این مورد اختلاف نظر داریم. من تعجب می کنم که دیگران در مورد آن چه فکر می کنند: آزمایشی را با 3 درمان با 10 تکرار برای هر درمان تصور کنید. بنابراین من 30 واحد دارم که از آنها نمونه می‌گیرم. از هر واحد نمونه ای می گیرم. تعداد افراد گونه X. من این کار را هر روز به مدت یک هفته انجام می دهم. بنابراین در پایان من 30 برابر 7 نمونه دارم. من می خواهم اثر درمان را آزمایش کنم و یک مدل اثر مختلط خطی بسازم. حالا این سوال پیش می آید. من فکر می کنم که باید واحد را به عنوان یک اثر تصادفی اضافه کنم زیرا هر 7 نمونه از یک واحد می آیند و بنابراین به یکدیگر وابسته هستند. هر واحد ممکن است تغییرات تصادفی داشته باشد، افزودن واحد به عنوان اثر تصادفی برای من بسیار منطقی است. سرپرست من می گوید بهتر است زمان را به عنوان یک اثر تصادفی اضافه کنیم، زیرا هر نمونه فقط در هر یک از زمان ها تکرار می شود. اما اگر واقعاً به اثر زمان علاقه مند باشید و بخواهید آن را به عنوان یک جلوه ثابت اضافه کنید، چه اتفاقی می افتد، نمی تواند تصادفی و همزمان ثابت باشد، درست است؟ حدس می‌زنم که او درست می‌گوید (به همین دلیل است که او سرپرست من است)، اما احساس می‌کنم که اضافه نکردن تکرار نمی‌تواند از نقض آن فرض خاص مراقبت کند. لطفا نظرات خود را در این مورد به من بگویید.
اثرات تصادفی و اقدامات مکرر: چه چیزی را به عنوان اثر تصادفی انتخاب می کنید؟
89735
من روی طبقه بندی 16000 تصویر سلولی کار می کنم. هر یک از آنها شامل 706 ویژگی مربوط به شدت، مورفولوژی، colocalization و بافت سلول است. مجموعه قطار از 11 کلاس تشکیل شده است. وقتی pca را روی مجموعه قطار اعمال می‌کنم و از ضرایب مربوطه برای انتقال مجموعه داده‌های آزمایشی استفاده می‌کنم، می‌بینم که ماتریس کوواریانس مجموعه آزمایشی منتقل‌شده دارای عناصر مورب خاموش است که صفر نیستند. من می خواهم ببینم چرا این اتفاق می افتد. اساساً چگونه می توانم مجموعه داده های آزمایش را با استفاده از ضرایب pca (یا حداقل همبستگی بین داده های آزمایشی را بسیار کوچک نگه دارم) ضرایبی را که قبلاً از مجموعه داده های آزمایشی به دست آورده ام، غیر همبستگی کنم.
چگونه می توان ابعاد یک داده تست را کاهش داد و آن را نامرتبط کرد؟
113043
من از پیوند SIN برای تخمین احتمالات استفاده کرده ام، عمدتاً با «برنامه علامت گذاری». با این حال، من مطمئن نیستم که پیوند SIN چگونه کار می کند. من می دانم که پیوند SIN تخمین پارامتر را در مرزها فعال می کند (زمانی که احتمال 0 یا 1 است)، در حالی که به نظر می رسد پیوند logit در آن موقعیت ها مشکل دارد. با توجه به اینکه پیوند SIN در «Program MARK» کار می‌کند، به نظر من باید با رگرسیون لجستیک در glm در «برنامه R» نیز کار کند، زیرا هر دو نسبت موفقیت‌ها را از آزمایش‌های «n» تخمین می‌زنند. با این حال، به نظر نمی رسد پیوند SIN داخلی در `R` برای glm وجود داشته باشد. من در مورد «Stack Overflow» سؤالی پرسیدم که فکر کردم این یک مشکل برنامه نویسی ساده است و یاد گرفتم که «R» به لینک های مشخص شده توسط کاربر در glm اجازه می دهد. با این حال، هیچ‌کس کد «R» را برای پیوند SIN پست نکرده است و من هنگام تلاش برای انجام این کار خودم با معکوس پیوند با مشکل مواجه شده‌ام. یعنی، با توجه به ماهیت دوره ای تابع SIN، ممکن است راه حل های متعددی وجود داشته باشد. تصور می کنم فضای جستجو باید به نحوی محدود شود تا از راه حل های متعدد جلوگیری شود. این مشکل اکنون بیشتر شبیه یک مشکل آماری به نظر می رسد تا یک مشکل برنامه نویسی و من در اینجا پست می گذارم به این امید که کسی کد 'R' را برای پیوند SIN در glm ارسال کند یا شرحی از نحوه عملکرد پیوند SIN ارائه دهد تا بتوانم آن را کدنویسی کنم. خودم گزینه دیگری که در نظر گرفتم این بود که برای سوال «Stack Overflow» جایزه بفرستم و ممکن است بعداً این کار را انجام دهم. به طور خاص، من در مورد نحوه ایجاد معکوس پیوند و اینکه آیا فضای جستجو باید برای جلوگیری از راه حل های متعدد ناشی از ماهیت دوره ای تابع SIN محدود باشد، گیر کرده ام. من از عبارت family در glm و عبارت make.link اطلاع دارم و اینکه پیوندهای مشخص شده توسط کاربر در R امکان پذیر است، برای مثال با پیوند logexp (family در R) . در اینجا پیوندی به سؤال قبلی «Stack Overflow» من وجود دارد: http://stackoverflow.com/questions/25431923/using-the-sin-link-with-logistic- regression پیوند SIN این است: (sin(X * Beta) + 1) / 2 که در آن: X = ماتریس طراحی بتا = تخمین پارامتر از پست قبلی من، توجه داشته باشید که sin(z) بین -1 و +1 محدود شده است. فراگیر بنابراین، (sin(z) + 1) بین 0 و 2 شامل محدود می شود. بنابراین، `(sin(z) + 1)/2` بین 0 و 1 شامل محدود می شود. این شامل بودن احتمالاً همان چیزی است که پیوند را قادر می‌سازد تا تخمین نسبت‌ها را حتی زمانی که احتمال آن 0 یا 1 باشد را برگرداند. پست «سرریز پشته» من همچنین حاوی کد «R» برای «جستجوی جامع» است که نشان می‌دهد پیوند احتمالاً برای تخمین نسبت‌ها کار می‌کند. اگر فضای جستجو به نحوی محدود باشد. برای هر کمکی از شما متشکرم امیدواریم با توجه به تمرکز آماری سؤال حاضر و تمرکز برنامه‌نویسی سؤال قبلی، این استفاده قابل قبولی از ارسال متقاطع باشد. باید اشاره کنم که به نظر می‌رسد در «Program MARK» پیوند SIN برای مدل‌هایی که فقط یک ورودی در هر ردیف در ماتریس طراحی دارند، یعنی بدون متغیرهای کمکی، رزرو شده است. **ویرایش** معکوس پیوند SIN، تا جایی که می توانم بگویم، این است: `lin.pred <- asin((2*y) - 1)` تا زمانی که پیش بینی خطی باشد، پیش بینی کننده خطی صحیح را برمی گرداند. ، `z`، در محدوده `-1 <= z <= 1` قرار می گیرد. اگر متغیرهای کمکی مجاز نباشند، همانطور که در بالا اشاره شد، شاید این تابع معکوس همیشه قابل قبول باشد. البته، من هنوز فعلاً فرض می‌کنم که متغیرهای ساختگی در پیش‌بینی خطی مجاز هستند (حداقل اگر رهگیری وجود نداشته باشد). پیوند معکوس پیشنهادی بالا ممکن است مشکل فوری معکوس و محدودیت‌های فضای جستجو را حل کند. گام بعدی این است که این پیوند معکوس را در یک تابع پیوند مشخص شده توسط کاربر در glm در R به همراه اطلاعات اضافی مورد نیاز برای تخمین نسبت‌ها بگنجانید.
پیوند سینوسی با رگرسیون باینری
105795
من دو گروه از خریداران، A و B دارم، و می خواهم آزمایش کنم که آیا تفاوت بین درصد آنها که یک محصول را خریداری می کنند قابل توجه است یا خیر. * گروه A: 271 از 2520 محصول (10.8 درصد) محصول را خریده و 2249 نفر کالا را خریداری نکرده اند. * گروه B: 1,073,839 از 41,873,457 محصول (2.6 درصد) و 40,799,618 نفر کالا را خریداری نکرده اند. من از «chisq.test()» برای انجام آزمایش $\chi^{2}$ استفاده کرده‌ام تا به این سؤال پاسخ دهم که آیا درصد خریداران در گروه‌های من تفاوت معنی‌داری دارد (من می‌گویم 10.8٪ و 2.6٪ متفاوت هستند. به اندازه کافی). داده های کتابخانه (vcd) <- rbind(x=c(271,1073839), n=c(2249, 40799618)) chisq.test(data) # آزمون مجذور کای پیرسون با تصحیح تداوم یتس # # داده: داده # X-squared = 672.9477، df = 1، p-value < 2.2e-16 assocstats(داده) # X^2 df P(> X^2) # نسبت احتمال 382.03 1 0 # Pearson 676.22 1 0 # # Phi-Coefficient : 0.004 # Contingency Coeff.: 0.000 V. را $p$-value می گوید تفاوت قابل توجهی وجود دارد، Cramer's $V$ می گوید که وجود ندارد. چگونه ممکن است که با چنین تفاوت بزرگی در نسبت ها (گروه A بیش از 4 برابر فروش بیشتری دارد) با توجه به $V$ کرامر تفاوت قابل توجهی وجود نداشته باشد؟
درک $\chi^{2}$ و نتایج $V$ Cramér
24829
من در حال حاضر در حال نوشتن یک گزارش آزمایشگاهی بر روی ماشین اتوود هستم، و خلاصه آن این است که $a=a_{g}\tfrac{\left ( m_{2}-m_{1} \right )}{\left ( m_ {2}+m_{1} \right )}$. $\left (m_{2}+m_{1} \right )$ و $a_{g}$ را ثابت نگه می‌داریم، که $a$ متغیر وابسته ما است و $\left (m_{2}-m_{ 1} \right )$ متغیر مستقل ما است. از آنجایی که ما چندین آزمایش را با همان $\left (m_{2}-m_{1} \right )$ انجام دادیم، فکر می‌کنم می‌توانیم بگوییم که عدم قطعیت اندازه‌گیری ما برای $a$ $\sigma_{a}$ است (درسته؟ ... کاملا مطمئن نیستم). با این حال، ما عدم قطعیت اندازه‌گیری را برای $m_{2}$ یا $m_{1}$ نمی‌دانیم، زیرا خودمان آنها را اندازه‌گیری نمی‌کردیم (وزن‌ها بدون عدم قطعیت داده شد). من مطمئن نیستم که چگونه با این موضوع برخورد کنم... همچنین، به عنوان یک سوال فرضی، اگر من یک مجموعه داده $x$ با مقداری عدم قطعیت اندازه گیری داشته باشم، عدم قطعیت $f\left (x \right )$ چقدر است؟ پیشاپیش متشکرم من مشکل را در گوگل جستجو کردم، اما تا کنون چیزی وجود ندارد.
عدم قطعیت اندازه گیری یادگیری؛ هیچ منبع آنلاینی پیدا نکردم
72990
من سعی دارم توضیح دهم که چرا برخی از فرآیندهای پیچیده از قضیه حد مرکزی پیروی می کنند. این فرآیند یک کامپایلر تراشه است که الگوریتم های پیچیده مکان و مسیر را اجرا می کند. ورودی یک دانه صحیح است. الگوریتم ها را به صورت تصادفی مقداردهی اولیه می کند. خروجی یک عدد واقعی است که کیفیت نتایج را تعیین می کند. هر چه عدد بالاتر باشد - بهتر است. اجرای دقیق الگوریتم مکان و مسیر مشخص نیست. اما هدف آنها رسیدن به کیفیت نتایج مثبت است. من 100 کامپایل را با دانه های مختلف اجرا می کنم. وقتی هیستوگرام نتایج را رسم می کنم، به نظر یک توزیع نرمال می رسد. من طرح‌های مختلف، نسخه‌های ابزار و غیره را امتحان کردم، و همیشه توزیع نرمال به خوبی شکل می‌گیرم، اما با میانگین و واریانس متفاوت. من به شدت مشکوک هستم که قضیه حد مرکزی در اینجا نقش داشته باشد. اما چرا؟ چرا یک الگوریتم مکان و مسیر پیچیده از CLT اطاعت می کند، اگر ربطی به توزیع تصادفی ندارد. یا شاید تفسیر نتایج ربطی به CLT نداشته باشد. در زیر نمودار بلوک فرآیند و نمونه ای از نتایج آورده شده است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qHBWd.jpg)
توضیح اینکه چرا فرآیند از قضیه حد مرکزی پیروی می کند
24821
من نمی دانم چگونه ضریب رگرسیون پواسون را نسبت به ضریب رگرسیون OLS تفسیر کنم. فرض کنید من داده‌های سری زمانی دارم، متغیر سمت چپ من تعداد بازی‌های برنده شده در سال است و متغیر سمت راست اصلی من مقدار NASDAQ است. اگر مشخصات ترجیحی من این باشد که مدل را بر حسب درصد تفسیر کنم، من تغییر لگ بازی‌های برنده شده را در نظر می‌گیرم. همچنین می‌توانم از فهرست NASDAQ استفاده کنم تا بگویم افزایش 1 درصدی NASDAQ چقدر باعث افزایش درصد بازی‌های برنده شده می‌شود. اکنون، من تصدیق می‌کنم که یک مدل پواسون ممکن است منطقی باشد زیرا داده‌های بازی‌های برنده شده شمارش هستند و پیوسته نیستند. من رگرسیون را با بسیاری از متغیرهای کنترلی اجرا می کنم. آیا من روی بازی های برنده شده یک تغییر گزارش انجام نمی دهم و در عوض فقط از بازی ها استفاده نمی کنم؟ وقتی ضرایب را بدست می‌آورم، آیا نوعی محاسبه اثرات حاشیه‌ای را انجام می‌دهم (همانطور که می‌توان برای پروبیت انجام داد)؟ چگونه این ضرایب را تفسیر کنم؟ چگونه می توانم تفسیر پواسون را با OLS مقایسه کنم - یا OLS که تبدیل به log است یا OLS که تغییر نکرده است؟ می‌دانم که قبلاً چنین سؤالی پرسیده شده است، اما هنوز کاملاً متوجه نشده‌ام.
تفسیر ضرایب برای رگرسیون پواسون
104779
من در حال یادگیری رگرسیون پشته هستم و می دانم که رگرسیون پشته در حضور چند خطی بهتر عمل می کند. من تعجب می کنم که چرا این درست است؟ یک پاسخ شهودی یا یک پاسخ ریاضی رضایت‌بخش خواهد بود (هر دو نوع پاسخ حتی رضایت‌بخش‌تر خواهند بود). همچنین، من می دانم که آن $\hat{\beta}$ را همیشه می توان به دست آورد، اما رگرسیون رج در حضور همخطی دقیق (یک متغیر مستقل تابع خطی دیگری است) چقدر خوب کار می کند؟
چرا رگرسیون ریج در حضور چند خطی به خوبی کار می کند؟
25191
من یک پاسخ باینری را در برابر چندین متغیر توضیحی با استفاده از رگرسیون لجستیک مدل کردم. ترکیب های مختلفی از متغیرهای توضیحی وجود داشت که برازش های معقولی را ایجاد می کرد. من می‌خواهم مدل‌ها را با استفاده از CV 10 برابری با مقایسه میانگین نرخ‌های پیش‌بینی مثبت اعتبارسنجی و مقایسه کنم. آیا هنگام انجام چنین مقایسه ای، گزارش میانگین نرخ پیش بینی و ارائه انحراف استاندارد دقت در ده برابر کافی است؟ یا امکان گزارش فواصل اطمینان وجود دارد؟
چگونه می توان دقت طبقه بندی های پیش بینی شده را با CI هنگام استفاده از CV k-fold گزارش کرد؟
87214
چگونه فواصل پیش بینی را برای یک مدل خطی کلی استخراج کنم؟ مدل خطی کلی من که به شکل ماتریس نوشته شده است، $$ \mathbf{Y} = \mathbf{X} \mathbf{B} + \mathbf{R}$$ با هر یک از ردیف‌های ماتریس باقی‌مانده $\mathbf{R است. }$، به صورت $\mathbf{r}_i \sim توزیع شده است \mathcal{N}(\mathbf{0}،\Sigma_{R})$. یا $row(\mathbf{R}) \sim \mathcal{N}(\mathbf{0}، \mathbf{I} \otimes \Sigma_{R})$. من یک برآوردگر حداقل مربعات به عنوان $$\hat{\mathbf{B}} = (\mathbf{X}^{T} \mathbf{X})^{-1} \mathbf{X}^{T} \ دارم ,, $$ از تبدیل‌های affine در $\mathbf{R}$، این برآوردگر به صورت $$ row(\hat{\mathbf{B}}) توزیع می‌شود. \sim \mathcal{N}(\mathbf{B}, \Sigma_{\hat{\mathbf{B}}}) $$ کاری که می‌خواهم انجام دهم این است که یک بازه پیش‌بینی در یک نمونه جدید $\mathbf{Y ایجاد کنم }$ که در محدوده است (یک درون یابی، نه برون یابی). این نمونه جدید $\tilde{\mathbf{y}}_{i}$ است. کاری که من می خواهم انجام دهم این است که یک فاصله پیش بینی (یا فاصله اطمینان؟) در این نمونه جدید پیدا کنم. من به تنهایی، دوباره از تبدیل‌های affine در $\hat{\mathbf{B}}$ استفاده کردم تا آن $$\tilde{\mathbf{y}}_{i} \sim \mathcal{N}(\tilde {\mathbf{x}} \hat{\mathbf{B}}، \mathbf{X}^{T} (\mathbf{X}^{T} \mathbf{X})^{-1} \mathbf{X} \otimes \hat{\Sigma}_{R} ) $$ با این حال من در راه حل خود مطمئن نیستم. کتاب های درسی من در مورد رگرسیون خطی چندگانه منظم فرمول هایی برای فواصل پیش بینی دارند. اما اگر تخمین‌گر LS توزیعی دارد، چرا فقط از این نتیجه استفاده نکنیم؟ از آن می توانم بازه های $1\sigma$ یا $3 \sigma$ و غیره ایجاد کنم. به طور خلاصه، $\textbf{چگونه می توان فواصل پیش بینی را برای مدل خطی عمومی استخراج کرد؟ }$
فواصل پیش بینی برای مدل خطی عمومی
105424
من سعی می‌کنم یک رگرسیون خطی در R انجام دهم، اما محدودیت اضافه‌ای دارم که ضرایب رگرسیون خطی باید به مقدار داده‌شده کاربر بین 0 و 1 جمع شود. ضعیف است، اما این یک محدودیت ضروری است) من مستندات lm() و بسته glmc و همچنین برخی از سوالات مشابه را بررسی کرده ام، اما به نظر نمی رسد هیچ کدام چگونه می توان ضرایب را به یک مقدار خاص جمع کرد. برای داده‌های T، N، و مجموع هدف برای ضرایب p: رگرسیون <- تابع (T، N، p) { مناسب <- lm(T[,1] ~ N) ضریب <- ضریب(برازش) ... } در حالت ایده‌آل من می خواهم sum(coef[-1]) = p (نادیده گرفتن رهگیری) متأسفم نمی توانم کد بیشتری ارائه کنم، اما فکر نمی کنم بتوانم کاری را که می خواهم با lm() انجام دهم. آیا کسی راهی برای انجام این کار یا بسته ای می داند که به من اجازه انجام این کار را بدهد؟
چگونه می توانم ضرایب را از رگرسیون خطی به مجموع یک مقدار معین (در R) محدود کنم؟
25192
من از نرمال سازی مقیاس برای ویژگی های شبکه عصبی خود استفاده می کنم. از آنجایی که بسیاری از مقادیر به ندرت اتفاق می‌افتند، یعنی حداقل تعداد در همه نمونه‌ها اغلب تعداد ویژگی‌ها در بسیاری از نمونه‌ها نیز است، من در نهایت با صفرهای زیادی در نمونه‌ام مواجه می‌شوم. به عنوان مثال، از 15 ویژگی، 8 تا 10 ممکن است صفر باشد. سوال من این است: آیا این هنوز مشکلی ندارد، یا باید مقداری پارامتر هموارسازی را اضافه کنم تا اجازه دهم موارد نادر نیز نقش داشته باشند؟
آیا زمانی که نرمال سازی مقیاس صفرهای زیادی به دست می دهد مشکلی ایجاد می شود؟
26088
من اخیراً از bootstrapping برای تخمین فواصل اطمینان برای یک پروژه استفاده کردم. کسی که اطلاعات زیادی در مورد آمار ندارد، اخیراً از من خواسته است که توضیح دهم _why_ bootstrapping کار می کند، به عنوان مثال، چرا نمونه برداری مجدد از همان نمونه نتایج خوبی به همراه دارد. متوجه شدم که اگرچه زمان زیادی را صرف درک نحوه استفاده از آن کرده‌ام، اما واقعاً نمی‌دانم چرا بوت استرپینگ کار می‌کند. به طور خاص: اگر ما از نمونه خود نمونه گیری مجدد می کنیم، چگونه است که به جای اینکه فقط در مورد نمونه، چیزی در مورد جامعه یاد بگیریم؟ به نظر می رسد جهشی وجود دارد که تا حدودی خلاف شهود است. من در اینجا چند پاسخ برای این سوال پیدا کرده ام که نیمی از آنها را درک می کنم. مخصوصا این یکی من یک «مصرف کننده» آمار هستم، نه یک آمارگیر، و با افرادی کار می کنم که خیلی کمتر از من درباره آمار می دانند. بنابراین، آیا کسی می تواند با حداقل ارجاع به قضایا و غیره، استدلال اساسی پشت بوت استرپ را توضیح دهد؟ یعنی اگه قرار باشه به همسایه توضیح بدی چی میگی؟
توضیح دادن به افراد عادی که چرا بوت استرپینگ کار می کند
3646
من یک مجموعه داده تک متغیره دارم که تقریباً به طور معمول توزیع شده است. من خوشحالم که فرض می کنم جمعیت به طور معمول توزیع شده است، و من می خواهم میانگین و واریانس جمعیت را تخمین بزنم. کتاب درسی من پیشنهاد می کند (همانطور که من می فهمم) که از آنجایی که حجم نمونه من بزرگ است (1000 امتیاز داده)، منطقی است که میانگین نمونه و واریانس نمونه را به عنوان برآورد من برای نمونه/واریانس جامعه در نظر بگیرم. با این حال، من همچنین به طور مبهم آگاه هستم که می توان از رگرسیون برای تطبیق یک مدل با داده ها استفاده کرد. بنابراین در مورد مشکل من، کدام یک رویکرد معقول تر است (و چرا؟): * فقط از مقادیر میانگین/واریانس نمونه به عنوان تخمینی برای میانگین/واریانس جامعه استفاده کنید * داده ها را با یک مدل نرمال برازش دهید و از میانگین محاسبه شده استفاده کنید. /واریانس.
برآوردهای ساده در مقابل مدل برای محاسبه میانگین و واریانس جمعیت
26084
اگر من یک modelLookup('glmnet') انجام دهم، برای probModel می‌گوید TRUE (و در واقع، انتظار دارم که به عنوان مدلی برای پیش‌بینی احتمالات در یک مسئله پیش‌بینی نتیجه باینری قابل استفاده باشد، زیرا glmnet یک آرگومان خانوادگی «دوجمله‌ای» دارد) . با این حال، به دنبال دستورالعمل های بسته caret می گویم: trainControl = trainControl(classProbs=TRUE) modelFit = train(X, y, method='glmnet', trControl=trainControl) و دریافت می کنم: نمی توانم احتمالات کلاس را برای رگرسیون محاسبه کنم. کار اشتباهی انجام می دهد؟
چگونه می توانم احتمالات کلاس را در بسته caret با استفاده از روش 'glmnet' محاسبه کنم؟
26085
فرض کنید از قضیه فاکتورسازی برای یافتن یک آمار کافی استفاده می کنید. بگذارید بگوییم که جلوی $T(x)$ علامت منفی داریم. چگونه می دانید که آیا باید یک علامت منفی را در یک آمار کافی یا هر علامت دیگری جذب کرد یا نه؟ بنابراین به جای $T(x)$ می توانیم $$\widetilde T(x):=−T(x) \> داشته باشیم.$$ برای مثال، فرض کنید شما $$g(T(x)| \theta) دارید. = e^{-T(x)}$$ در قضیه فاکتورسازی. چگونه می دانید که علامت منفی را در $T(x)$ لحاظ کنید یا خیر؟
آمار کافی چندگانه و قضیه فاکتورگیری
24820
> بسیار نزدیک به: یافتن طبقه بندی کننده بیزی برای یک گاوسی دو متغیره > توزیع آیا کسی می تواند گاوس مشترک دو گاوس زیر را به من بگوید (که در آن $C_j = C_1 \text{ یا } C_2$): $$p(x|C_1) ) = \text{N}(μ_1,Σ_1)$$ $$p(x|C_2) = \text{N}(μ_2,Σ_2)$$ که در آن $$μ_1 = \left[\begin{array}{c} 1\\\ 1\end{array}\right], \,\,\,\, Σ_1 = \left[\begin{array}{c} \begin{array}{cc} 2 & 0\\\ 0 & 1\end{array}\end{array}\right]$$ $$μ_2 = \left[\begin{array}{c} 1\\\ 3\end{array}\right],\,\,\,\,Σ_2 = \left[\begin{array}{c} \begin{array}{cc} 2 & 0\\\ 0 & 1\end{array}\end{array}\right]$$
ترکیب دو گاوسی
35144
> **تکراری احتمالی:** > Naive Bayes برای دو ویژگی پیوسته من دیده ام که طبقه بندی کننده چندجمله ای ساده بیز در Sklearn بردارهای ویژگی با ارزش واقعی را می پذیرد. من قبلاً فرض می‌کردم که طبقه‌بندی‌کننده چندجمله‌ای ساده بیز فقط مقادیر گسسته را کنترل می‌کند اگر بخواهم یک طبقه‌بندی‌کننده چندجمله‌ای ساده بیز خودم طراحی کنم، چگونه بردارهای ویژگی با ارزش واقعی را مدیریت می‌کنم؟
مقادیر واقعی در طبقه بندی کننده چند جمله ای ساده بیز
99970
در بحث بلند از رگرسیون به میانگین، بخش‌های متعددی وجود دارد که نمونه‌هایی از رگرسیون به میانگین را به تفصیل شرح می‌دهد، که من می‌دانم که نتیجه اجتناب‌ناپذیر عدم در نظر گرفتن میانگین چندین اندازه‌گیری در هر موضوع است. بلاند در بخش با عنوان _مقایسه دو روش اندازه گیری_ به تحقیقاتی اشاره می کند که وزن های اندازه گیری شده را با وزن های خود گزارش مقایسه کرده است. نتیجه‌گیری این تحقیق این بود که افراد دارای اضافه وزن، وزن خود را کمتر گزارش می‌کنند در حالی که افراد دارای وزن کم وزن خود را بیش از حد گزارش می‌کنند. بلند می‌گوید که این به دلیل بازگشت به میانگین انتظار می‌رود. از درک من، این پارادایم مقایسه‌ای همان است که برای ایجاد اثر دانینگ-کروگر استفاده می‌شود که بیان می‌کند کسانی که مهارت ندارند معتقدند که از آنچه واقعاً هستند ماهرتر هستند و آنهایی که مهارت بالایی دارند معتقدند که مهارت کمتری نسبت به خودشان دارند. واقعا هستند به نظر می رسد که اگر بلاند درست باشد، اثر دانینگ-کروگر بیشتر یک مصنوع آماری است و لزوماً واقعیت نیست. من مقالاتی را در حمایت از اثر دانینگ-کروگر خوانده‌ام و به نظر می‌رسد که آنها واقعاً بر یک اندازه‌گیری واحد برای هر دو «ابزار» تکیه دارند (_یعنی_ گزارش خود در مقابل اندازه‌گیری شده). آیا من چیزی را از دست داده ام یا در واقع شواهد قوی از اثر دانینگ- کروگر وجود دارد که با توجه به رگرسیون به میانگین قوی است؟
آیا اثر دانینگ-کروگر عمدتاً ناشی از بازگشت به میانگین است؟
58903
من یک مشکل اساسی آمار دارم. من آزمایشی را با استفاده از آشکارساز شمارش فوتون برای اندازه‌گیری الگوی پراش انجام می‌دهم. من می خواهم مرکز هر نقطه پراش و خطای مرکز را محاسبه کنم. در یک بعدی داده‌های من را می‌توان هیستوگرام شمارش‌ها در سطل‌هایی با فاصله مساوی در نظر گرفت. من مرکز و خطا را به عنوان میانگین وزنی شدت و خطای استاندارد توزیع محاسبه می‌کنم. مشکل من زمانی رخ می‌دهد که نقطه‌ای دارم که توزیع آن از اندازه پیکسل باریک‌تر است (یعنی در 1-D همه شمارش‌ها در یک سطل هیستوگرام قرار می‌گیرند) و واریانس و در نتیجه خطای صفر در تعیین مقدار دریافت می‌کنم. معنی اولین فکر من این بود که از آنجایی که موقعیت هر شمارش دارای خطای $\pm 0.5$ پیکسل است، می توانم آن را منتشر کنم و به خطای استاندارد اضافه کنم. با این حال، این واقعیت که به نظر می رسد هیچ کس دیگری این کار را انجام نمی دهد، من را تا حدودی نگران می کند. من می دانم که $\text{MSE} = \text{variance} + \text{bias}^2$، اما در مورد نحوه محاسبه بایاس داده‌هایم به همان اندازه نامشخص هستم، اگرچه می‌دانم که در هیستوگرام آمار سوگیری با اندازه سطل متفاوت است. من تقریباً مطمئن هستم که چیز ساده ای را از دست داده ام. اگر کسی ایده ای دارد که عالی است
تخمین میانگین، واریانس و میانگین مربعات خطای هیستوگرام که توزیع واقعی را ضعیف مدل می کند.
103106
در حال حاضر در حال یادگیری طراحی تجربی و راه اندازی آزمایش های کارآمد هستم. من در مورد نام مستعار متغیرها در یک مدل خطی یاد گرفته ام، متغیرها زمانی نام مستعار می شوند که هر دو به طور مشترک در نتیجه طرحی که تنظیم شده است تخمین زده نشوند. با این حال، به نظر می رسد چیزی به نام نام مستعار جزئی نیز وجود دارد. آیا کسی می تواند در این مورد توضیح دهد و به من بگوید که تفاوت آن با aliasing چیست؟ متشکرم.
نام مستعار جزئی در یک مدل خطی
105425
من متعجبم که بهترین روش برای تجزیه و تحلیل یک تعامل متقاطع بین یک عامل و یک متغیر پیوسته چیست. در اینجا مجموعه آزمایشی و فرضیه‌های من به طور خلاصه آمده است: 58 شرکت‌کننده به طور تصادفی به یکی از دو شرط (هر کدام 29=n) با دستکاری‌های مختلف تقسیم شدند. فرض بر این بود که متغیر تفاوت فردی مستمر شرکت کنندگان را مستعدتر به دستکاری ها می کند. دستکاری های مختلف برای داشتن اثرات معکوس بر DV در نظر گرفته شده بود. بنابراین، فرض شد که در شرط 1 DV و IDV همبستگی منفی و در شرط 2 همبستگی مثبت خواهند داشت. در واقع، تجزیه و تحلیل همبستگی (بین DV و IDV) نشان داد که r = 0.-37، p <.05 در شرایط 1، و r = 0.26، p = 0.18 در شرایط 2. من General و _Generalized_ را امتحان کردم. مدل های خطی در SPSS برای آزمایش صحیح فرضیه من. در مدل‌ها، من جلوه‌های اصلی Condition و IDV (که به‌عنوان متغیر کمکی وارد کردم) و یک اثر متقابل را درج کردم، اما نتایج چندان قوی به نظر نمی‌رسند (یعنی حتی کوچک‌ترین تغییرات در مدل‌ها به نظر می‌رسد تأثیر زیادی بر نتایج دارند). من از کدنویسی ساختگی (0 و 1) برای Condition استفاده کرده ام، و DV و IDV به نظر به طور معمول توزیع شده اند. آیا این روشی مناسب برای آزمایش فرضیه من به نظر می رسد یا کسی می تواند رویکرد بهتری را پیشنهاد کند؟
روش‌هایی برای تجزیه و تحلیل یک تعامل متقاطع بین یک عامل و یک متغیر پیوسته؟
99974
![مدل با خطوط نارنجی که مشکل را نشان می دهد](http://i.stack.imgur.com/FewXt.png) من CFA را برای اعتبارسنجی مدل خود توسعه داده ام. شاخص های برازش برازش خوبی را نشان می دهند. از آنجایی که هر متغیر شامل چندین سوال است. من برای ایجاد متغیر مرکب برای رگرسیون، برازش مدل ساختار نهایی را بررسی کردم. معلوم شد که بدترین است! چگونه می تواند از خوب به بد تبدیل شود؟ وقتی CFA را توسعه دادم عالی بود. در شاخص های اصلاحی نشان می دهد که یک مسیر جدید بین متغیر مستقل (IN) و واسطه دوم (PU) ایجاد می کند یا کوواریانس بین متغیر مستقل (IN) و خطای یک واسطه دوم (PU) را نشان می دهد. آیا باید مسیر دیگری را طی کنم و فرضیه دیگری ایجاد کنم؟ آیا راه آسانی برای بیرون آمدن وجود دارد؟ آیا می توانم عبارت خطای (e2) و متغیر مستقل را در صورتی که از نظر تئوری صحیح باشد، متغیر کنم؟ من باید کوواریانس ها را توضیح دهم و از آن دفاع کنم: (گروه شماره 1 - مدل پیش فرض) e2 <\--> INN **18.178 (MI) 0.147 (PAR CHANGE)** واریانس ها: (گروه شماره 1 - مدل پیش فرض) M.I. وزن های رگرسیون تغییر Par: (گروه شماره 1 - مدل پیش فرض) PU <\--- INN **18.178 (MI) 0.135 (PAR CHANGE)**
داشتن مشکل با شاخص های برازش در SEM
105790
من در آزمایش یک کنتراست خطی در یک طراحی طولی نامتعادل با برخی مشکلات مفهومی مواجه هستم. من برخی از تحلیل های همبستگی را با داده های تصویربرداری مغز انجام داده ام. این تجزیه و تحلیل شامل چگالی ماده خاکستری ساختار خاصی از مغز در زمان 1 (_t_1) و دو متغیر رفتاری بود: نتایج آزمون شناختی Z در _t_1 و نتایج همان تست‌های Z دو سال بعد. _t_ 2). در نهایت مشاهده می‌کنم که در یک ساختار مورد علاقه، یک منطقه (بیایید آن را منطقه «A» بنامیم) به طور قابل‌توجهی با آزمون «Z» در _t_ 1 و یک منطقه جداگانه (بیایید آن را منطقه «B» بنامیم) با آزمون همبستگی دارد. Z در _t_ 2. کاری که من می خواستم انجام دهم این است که مقادیر چگالی ماده خاکستری را از منطقه A و B استخراج کرده و به طور رسمی ثابت کنم که ارتباط بین A و Z وجود دارد. در _t_ 1 قوی تر از ارتباط بین A و Z در _t_ 2 است، همچنین ثابت کنید که ارتباط بین B و Z در _t_ 2 قوی تر از ارتباط بین B و Z است. ` در _t_ 1. من فکر کردم دو مدل خطی در R مانند این ایجاد کنم: چگالی ماده خاکستری در _t_ 1`~` تست Z در _t_ 1 \+ تست Z در _t_ 2 \+ سن تراکم ماده خاکستری در _t_ 1`~` تست Z در _t_ 1 \+ تست Z در _t_ 2 \+ سن و سپس کنتراست خطی [0, 1, -1, 0] را برای هر دو آزمایش کنید مدل ها سؤالات عبارتند از: 1. آیا این روش صحیح ارزیابی تفاوت در قدرت انجمن ها است؟ 2. آیا مدل نباید این واقعیت را در نظر بگیرد که آزمون Z در _t_ 1 و تست Z در _t_ 2 دو اندازه گیری مکرر در یک موضوع هستند؟ 3. از چه بسته ای استفاده کنم و چگونه باید داده ها را مرتب کنم؟
آزمایش کنتراست خطی در طراحی طولی نامتعادل (R)
79913
من اغلب می خوانم که، پس از به دست آوردن تعاملات پیچیده (به عنوان مثال، چهار طرفه) در یک ANOVA فاکتوریل، محققان تصمیم می گیرند داده های خود را بر اساس یک عامل (به عنوان مثال، جنسیت) تقسیم کنند و ANOVA های جداگانه را برای این دو گروه اجرا کنند. من متوجه هستم که این می تواند در درک و توضیح تعاملات پیچیده بسیار مفید باشد. با این حال، من این احساس را دارم که از نظر آماری کاملاً صحیح نیست. آیا بهتر نیست ANOVA بزرگ از جمله تضادهای مورد علاقه برای کمک به درک اثرات انجام شود؟ همچنین، نحوه تقسیم داده های خود را چگونه توجیه می کنید؟ به عنوان مثال، آیا می توانید فقط متغیرهایی را در ANOVAهای کوچک جداگانه که بخشی از تعامل مهم در ANOVA بزرگ هستند، بگنجانید، یا می توانید دوباره کل متغیرهای مستقل را وارد کنید؟ این به نظر من شبیه افکت ماهیگیری است. من اصلاً نمی توانم ادبیات مفیدی در این مورد پیدا کنم، بنابراین مطمئن نیستم که آیا غریزه درونی من به سادگی اشتباه است. من برای هر بینشی که ممکن است کسی در مورد این موضوع داشته باشد بسیار سپاسگزار خواهم بود!
ANOVA ها را در زیر مجموعه های داده جدا کنید
87213
من مجموعه ای از $n$ تحققات $y_j \in \\{a,b,c,...\\}$ در الفبای با نمادهای $k$ دارم. هر حرف از این الفبا یک احتمال ناشناخته قبل از $x_i$ دارد. هدف تخمین $\mathbb{x}$ از مشاهدات $\mathbb{y}$ است تا میانگین مربعات خطا را به حداقل برسانیم. من فرض می‌کنم احتمالات $x_i$ از یک توزیع یکنواخت پیروی می‌کنند، با این محدودیت که $\sum_{i}{x_i}=1$ است. من قبلاً می دانم که موردی که الفبا فقط دو حرف داشته باشد، تخمینگر bayes با beta prior نامیده می شود که راه حل های شناخته شده ای دارد. با این حال، من در مورد عمومی تر با حروف $k$ متضرر هستم. هر بینشی؟
برآوردگر بیز با الفبای K-حروف؟
105427
آیا راهی برای آموزش RandomForest، GBM یا سایر مدل های طبقه بندی با استفاده از اندازه گیری خطای LogLoss وجود دارد؟ تا به حال آن را آموزش داده ام، اما نرخ خطای OOB دریافت می کنم. از آنجا سیگموئید را محاسبه می‌کنم و از آن به‌عنوان احتمال استفاده می‌کنم تا LogLoss را به حداقل برسانم... اما به سختی می‌توانم متون یا مثال‌هایی در مورد چگونگی بهینه‌سازی آموزش الگوریتم با استفاده از از دست دادن گزارش پیدا کنم. در اینجا تابع LogLoss در R است: llfun <- تابع (واقعی، پیش‌بینی) { epsilon <-.000000000000001 yhat <- pmin(pmax(پیش‌بینی، اپسیلون)، 1-epsilon) logloss <- -mean(واقعی*log(yhat ) + (1-واقعی)*log(1 - yhat)) بازگشت (logloss) }
الگوریتم یا تابع R برای آموزش با استفاده از خطای LogLoss
105796
من یک مدل معادله ساختاری را با حداقل مربعات جزئی (با R) محاسبه می کنم. بگذارید یک مثال ساده بگوییم: * دو مقدار Response (R1, R2) با یک متغیر پنهان RespLV =weight1*R1+weight2*R2 ترکیب می شوند * و چند متغیر کمکی نیز در متغیرهای پنهان ترکیب می شوند (CoefLV1, CoefLV2, ...) * همه متغیرهای نهفته با میانگین=0 و واریانس=1 استاندارد شده اند * اکنون یک رگرسیون با نتیجه انجام می شود. RespLV = beta1 * CoefLV1 + beta2 * CoefLV2 + ... اکنون می توان روی RespLV استاندارد پیش بینی کرد. آیا امکان پیش بینی در RespLV غیر استاندارد وجود دارد؟
مدل سازی معادلات ساختاری حداقل مربعات جزئی
25193
من داده های استخراج شده از یک ماشین حالت دارم. هر ردیف از داده ها به این شکل است: label1,label2,label3,impedance,did_state_change انواع داده های ستون به شرح زیر است: label1,label2,label3: اینها مقادیر اسمی (طبقه ای) امپدانس هستند: این یک مقدار نسبت (عدد شناور) است. did_state_change: این یک مقدار مقوله ای است (بولی) چیزی که من سعی می کنم انجام دهم این است که بالا بیایم با مدلی که به **تخمین احتمال تغییر حالت با توجه به 4 برابر (label1,label2,label3, امپدانس) کمک می کند**. من مطمئن نیستم که از کدام مدل آماری استفاده کنم و از کمک در انتخاب تحلیل/مدل صحیح قدردانی خواهم کرد.
چگونه می توان این مشکل را کشف/مدل کرد؟
87212
تا کنون من مقدار تحمل، VIF و شاخص های شرط را بررسی کرده ام. اما با بررسی واریانس ضرایب رگرسیون باید تعجب کنم: چقدر واریانس ضریب رگرسیون باید با کوچکترین مقدار ویژه مرتبط باشد و چه مقدار بیش از حد است (نشان دهنده چند خطی بودن)؟
آزمایش چند خطی در رگرسیون لجستیک
10905
من ساعت ها این را بصورت آنلاین جستجو کرده ام اما هیچ یک از پست های آنلاین چیزی نیست که به دنبال آن هستم. اجرای سوال من در روش ترکیبی SAS Proc بسیار آسان است اما مطمئن نیستم که چگونه آن را در بسته های lme و/یا lmer انجام دهم. فرض کنید، من یک مدل دارم، $y = \mu + \alpha + \beta +\alpha\beta + e$، که در آن $\alpha$ ثابت است اما $\beta$ و $\alpha\beta$ تصادفی هستند. کد R من f1 = lme(y ~ ضریب(a)، داده = داده های من، تصادفی = لیست(عامل(b) = ~ 1، فاکتور(a):factor(b) = ~ 1)) خطا: غیرمنتظره `= ` in: f1 = lme(y ~ factor(a)، data = mydata، random = list(factor(a) = لطفا کسی می تواند به من بگوید چگونه اینها را مشخص کنم جلوه های تصادفی در lme بسیار سپاسگزارم
چگونه افکت های تصادفی را در lme مشخص کنیم؟
84091
من می خواهم پیچیدگی خوشه بندی سری های زمانی را درک کنم. خوشه بندی مبتنی بر شباهت است، بنابراین به عنوان یک مرحله اساسی، فاصله بین نقاط را در یک فضای چند بعدی ارزیابی می کنیم. در سری های زمانی، هر نقطه در زمان گسترش می یابد - تابعی از زمان. به جای یافتن فاصله بین دو نقطه، فاصله بین دو خط را پیدا می کنیم؟ سپس یک مولفه فاصله در یک بعد یک تفاوت است، اما برای خطی که چیزی شبیه مجموع اختلافات مربع است (مانند رگرسیون)؟ بیایید یک مثال ساده از طبقه بندی انسان ها را در نظر بگیریم. یک فرد دارای تعدادی توصیفگر در یک لحظه معین از زمان (سن، شغل، درآمد، محل سکونت، وضعیت تأهل، جنسیت، شرایط پزشکی و غیره) است. اکنون، بیایید یک جزء زمان را معرفی کنیم زیرا تقریباً همه این ویژگی ها در طول عمر تغییر می کنند. معمولاً سری زمانی یک بعدی را در نظر می گیریم. اما در بالا یک مثال عملی است. برخی از ابعاد به مرور زمان تغییر خواهند کرد، برخی دیگر تغییر نخواهند کرد. آنها در افراد مختلف به طور متفاوتی تغییر خواهند کرد. برای برخی افراد برخی از توصیفگرها ثابت می مانند، برای برخی دیگر - نه. همچنین ممکن است وابستگی های مرتبه بالاتر غیرخطی بین توصیفگرها وجود داشته باشد. بنابراین، چگونه با این مشکلات پیچیده برخورد کنیم؟ خوشه بندی یک کار محاسباتی بسیار فشرده است. اما جزء زمان آن را بسیار پیچیده تر می کند. ما حتی می توانیم این مشکل را برای یادگیری تحت نظارت و بدون نظارت تعمیم دهیم. اگر یک یا چند توصیفگر (ویژگی ها، ویژگی ها، متغیرهای مستقل) که داریم، تابعی از متغیرهای دیگر باشند، چه می شود. پس چگونه چنین مشکلاتی را مدل کنیم؟ کدام راه حل های چند مدل وجود دارد؟
اصول خوشه بندی سری های زمانی
104771
به‌عنوان تمرینی برای بهبود مهارت‌هایم در PyMC (کتابخانه زنجیره‌ای مارکوف پایتون مونت کارلو)، سعی می‌کنم تخصیص نهفته دیریکله را همانطور که در اینجا توضیح داده شده است پیاده‌سازی کنم: https://en.wikipedia.org/wiki/Latent_Dirichlet_allocation. مدل را می توان به طور فشرده به صورت $$\boldsymbol\phi_{k=1 \dots K} \sim \operatorname{Dirichlet}_V(\boldsymbol\beta)\\\ \boldsymbol\theta_{d=1 \dots M} توصیف کرد. \sim \operatorname{Dirichlet}_K(\boldsymbol\alpha)\\\ z_{d=1 \dots M,w=1 \dots N_d} \sim \operatorname{Categorical}_K(\boldsymbol\theta_d) \\\ w_{d=1 \dots M,w=1 \dots N_d} \sim \operatorname{Categorical}_V(\boldsymbol\phi_{z_ {dw}}) $$ من به کد اسباب بازی زیر رسیدم: import numpy as np import pymc as pm K = 2 # تعداد مبحث V = 4 # تعداد کلمات D = 3 # تعداد اسناد داده = np.array([[1, 1, 1, 1], [1, 1, 1, 1], [0, 0, 0، 0]]) آلفا = np.ones(K) بتا = np.ones(V+1) تتا = pm.Container([pm.Dirichlet(theta_%s %i, theta=alpha) برای i در محدوده(D)]) phi = pm.Container([pm.Dirichlet(phi_%s % k، تتا =بتا) برای k در محدوده (K)]) Wd = [len(doc) برای سند در داده] z = pm.Container([pm.Categorical('z_%i' %d, p = theta[d], size=Wd[d], value=np.random.randint(K, size=Wd[d]), پرمخاطب =1) برای d در محدوده(D)]) w = pm.Container([pm.Categorical(w_%i %d, p = pm.Lambda('phi_z_%i' %d, lambda z=z, phi=phi: [phi[z[d][i]] برای i در محدوده(Wd[d])], value=data[d ], observed=True, verbose=1) برای d در محدوده(D)]) model = pm.Model([تتا، فی، z، w]) mcmc = pm.MCMC(model) mcmc.sample(100، burn=10) بخش مشکل در $w_{d=1 \dots M,w=1 \dots N_d} \sim \operatorname{Categorical}_V(\boldsymbol\ است phi_{z_{dw}})$. با توجه به خروجی نمونه‌برداری، من باید کار اشتباهی انجام می‌دهم، زیرا مدل همگرا نمی‌شود و اخطارهای زیادی در مورد احتمالات در categorical_like دریافت می‌کنم که به یک جمع نمی‌شوند. آیا یک متخصص PyMC در اطراف وجود دارد که بتواند همه اینها را روشن کند؟
تخصیص دیریکله نهفته در PyMC
104774
من سعی می‌کنم برنامه‌ای را در سی شارپ پیاده‌سازی کنم تا اپسیلون Greenhouse-Geisser را برای طراحی ANOVA 2 عاملی با 3 سطح هر فاکتور دریافت کنم. با پیروی از روش http://www.real-statistics.com/anova-repeated- masa/sphericity/additional-information-sphericity/ توانستم GG Epsilon را برای یک ترم دریافت کنم اما برای تعامل، هیچ ایده نحوه محاسبه ماتریس کوواریانس نمونه من سعی کرده ام داده ها را مشابه آنچه SPSS نیاز دارد پارتیشن بندی کنم: به عنوان مثال. برای فاکتورهای A و B با 3 سطح هر کدام: A1B1 A1B2 A1B3 A2B1 A2B2 A2B3 A3B1 A3B2 A3B3 4 6 4 5 3 4 9 6 3 5 5 3 3 5 3 6 2 2 6 8 6 4 3 0 16 0 8 3 4 8 4 4 5 3 5 6 2 8 5 3 3 4 2 3 6 2 5 8 سپس ماتریس کوواریانس را برای هر گروه محاسبه کنید: 2.166667 0.7 0.333333 0.566667 -0.4 -1.6066667 -1.60667 - 0.4 -1.666667 1.366666667 0.7 1.1 2.2 1.1 -0.2 0 -0.2 -0.6 -0.5 0.333333 2.2 7.866667 3.933333 1.8 -1.73333 1.046636 -1.73333 1.046636 - 0.566667 1.1 3.933333 3.766667 4 -1.26667 2.533333 -4.46667 -0.233333333 -0.4 -0.2 1.8 4 7.2 -1 4.83 -1.8 4.8 -1. -1.26667 -1 4.666667 1.066667 2.466667 -0.466666667 -1.46667 -0.2 1.066667 2.533333 4.8 1.06666656 4.0666667 4.4666667 - 0.2 0.133333333 -0.06667 -0.6 -4.53333 -4.46667 -5.8 2.466667 -3.53333 6.266667 1.133333333 1.366667 -0.56633 -0.5 -0.5 - -0.46667 0.133333 1.133333 8.566666667 سپس اگر روش را طوری انجام دهم که گویی یک ANOVA درون فاکتور موضوعی است، GGEpsilon = 0.3594 دریافت می کنم. در حالی که اندازه گیری های مکرر SPSS Two Way GGEpsilon = 0.603 را می دهد. بدیهی است که این روش درستی برای انجام این کار نیست. آیا کسی می تواند مرا به مسیر درست راهنمایی کند؟ یا مرا به برخی از مواد مرجع راهنمایی کنید که در آنجا بتوانم اطلاعات مورد نیاز را پیدا کنم. خیلی ممنون
نحوه محاسبه اپسیلون گلخانه-گیسر برای ترم برهمکنش 2 عامل مکرر در ANOVA اندازه گیری های مکرر
58904
من سعی می کنم یک سیستم حراج را شبیه سازی کنم که در آن تعدادی از رقبا، $N$، به طور مستقل از قیمت مرجعی که قبلا توسط خریدار منتشر شده بود، تخفیف ارائه می کنند. این سفارش بر اساس یک فرمول پیچیده شامل حداکثر تخفیف که از آستانه معینی تجاوز نمی کند، میانه پیشنهادات و سایر پارامترها به یک رقیب خاص تعلق می گیرد. من می‌خواهم مجموعه خاصی از تخفیف‌ها را با استفاده از توزیع مثبت، حول میانگین تعیین‌شده، و همیشه بین حداقل و حداکثر تخفیف، ایجاد کنم. * احتمال داشتن مقداری در حدود حداقل یا حداکثر باید تقریباً $1/N$ باشد. * توزیع نرمال احتمالاً بهترین راه حل نیست زیرا می تواند مقادیر منفی بدهد. من می‌توانم به‌طور مصنوعی آن را بین حداقل و حداکثر با تحمیل $\text{std.dev}=(\text{max}-\text{min})/6$ کوچک کنم، اما این احتمال وقوع بسیار پایین را برای افراطی ها **آیا پیشنهادی برای توزیعی با ویژگی های فوق دارید؟** در حالت ایده آل باید در MS Excel، جایی که شبیه سازی انجام می شود، کار با آن آسان باشد.
مشاوره مورد نیاز در مورد شبیه سازی سیستم حراج
58906
من می خواهم بار الکتریکی کوتاه مدت را با استفاده از شبکه عصبی مصنوعی و رگرسیون بردار پشتیبان پیش بینی کنم. با این حال، یک سوال در ذهن من وجود دارد. در چنین پیش‌بینی‌هایی با روش‌های ناپارامتریک، آیا می‌توان همبستگی خودکار خطاها را بررسی کرد که مقادیر واقعی از مقادیر پیش‌بینی‌شده کم می‌شود؟ من مقالاتی را در مورد پیش‌بینی بار در ادبیات بررسی کرده‌ام، اما به یکی از مقاله‌های اسپینوزا و همکاران برخورد کرده‌ام که همبستگی خودکار خطاهای NARX را بررسی می‌کند. ftp://ftp.esat.kuleuven.be/sista/ida/reports/06-84.pdf سایر مقالات توزیع خطاها را بررسی نمی کنند. من معتقدم این حرکت درستی است زیرا شما در حال حاضر از روش های ناپارامتریک استفاده می کنید. با این وجود، کنجکاو هستم که نظر شما در این مورد چیست.
بررسی خودهمبستگی در روش های ناپارامتریک
111449
من می خواهم یک MANOVA را در SPSS به صورت زیر انجام دهم: من یک متغیر مستقل دارم که از سه گروه (- که اندازه گروه برابر نیست) و شش متغیر وابسته تشکیل شده است. هنگام بررسی آزمون Levene برای برابری واریانس های خطا، دو متغیر وابسته وجود دارد که آزمون در آنها معنادار است. بنابراین، واریانس های خطا برابر نیستند. به دلیل خروجی قابل توجه تست Levene، فکر من این است که نمی توانم این تحلیل را انجام دهم و باید نوع تجزیه و تحلیل خود را تغییر دهم. من می دانم که در یک ANOVA تک متغیره، F براون-فورسایث و F ولش داریم که آزمون F را برای نابرابری واریانس تنظیم می کنند. اما، در MANOVA، چنین گزینه ای به نظر نمی رسد. سوال من این است که چه گزینه هایی دارم. آیا به جای آن باید چندین ANOVA را انجام دهم (و با انجام این کار قدرت یک MANOVA را حذف کنم)؟ یا باید دو متغیر را از MANOVA حذف کنم و فقط با چهار متغیر وابسته اجرا کنم؟
خروجی معنی دار در آزمون لوین برای برابری واریانس ها در MANOVA. چه باید کرد
105422
من در حال یادگیری متغیرهای طبقه بندی شده و اصطلاحات تعاملی در دوره رگرسیون هستم و چیزهای کمی وجود دارد که نمی فهمم. فرض کنید مجموعه داده‌های دستمزد با پیش‌بینی‌کننده‌ها X$ را در سال تجربه می‌کند که کد تحصیلی با 1 برای دیپلم، 2 برای مدرک، 3 برای مدیریت مدرک بالاتر M$ با کد 1 برای فردی با مسئولیت مدیریت و 0 در غیر این صورت. استفاده از متغیر ساختگی $E_{i1}=1 $ در صورتی که فرد دارای مدرک دیپلم باشد، در غیر این صورت. $E_{i2}=1 دلار اگر فرد مورد نظر مدرک داشته باشد، در غیر این صورت. سپس خط رگرسیون خواهد بود. $Y=\beta_0+\beta_1X+\beta_2E_1+\beta_3E_2+\beta_4M+\epsilon$ سپس در کتاب 6 معادله رگرسیونی در نظر گرفته شده است که * $E=1,M=0 $ * $E=1,M=1$ * $ E=2،M=0$ * $E=2،M=1$ * $E=3،M=0$ * $E=3,M=1$ آیا این 6 ترکیب شبیه حالتی نیستند که بین پیش بینی کننده های E و M تعامل وجود دارد. چرا 6 معادله؟ آیا اگر M=0 و اگر M=1 بدون توجه به سطح تحصیلات، نباید 2 معادله باشد. در این مرحله از تعامل کتاب در نظر گرفته نمی شود. تفاوت این 6 ترکیب چیست و چه زمانی عبارت تعامل $[E=1*M=0]$ و $[E=2*M=0]$ سوال دوم من این است که برای این خط رگرسیون اگر ضریب E1 باشد. =-3000$ سپس به عنوان **برای سطح ثابت تجربه، صرف نظر از موقعیت مدیریتی، مدرک بالاتر 3000 ارزش دارد تا دیپلم** تعبیر درستی است.
اصطلاحات متقابل در نظریه رگرسیون
87219
مشکل من این است: من 2 سری $y$ و $x$ دارم که می‌خواهم بررسی کنم که با هم ترکیب شده‌اند. بنابراین ابتدا آنها را با آزمایش ریشه واحد ADF تأیید کردم و نشان دادم که یک متغیر در تفاوت اول $I(1)$ و دیگری در تفاوت دوم $I(2)$ با استفاده از تست با یک رهگیری یکپارچه شده است! اما وقتی آزمایش ADF را روی متغیرهایی اجرا می‌کنم که شامل رهگیری نمی‌شوند (آخرین گزینه - هیچکدام)، هر دو سری در اولین تفاوت $I(1)$ یکپارچه می‌شوند. بنابراین بعد از این من می خواهم برای هم ادغام شدن تست کنم. به جای اجرای یک آزمون جوهانسن، که چند گزینه دشوار برای تنظیم دارد (من گزینه 3 و 1 2 را برای متغیرهای درون زا با تأخیر تنظیم کردم و یک معادله هم انباشتگی پیدا کردم، اما نمی دانم که آیا ترکیب درستی برای من است یا خیر. این تصمیم بسیار ذهنی است، من فکر می کنم)، می خواهم از شما بپرسم که آیا این درست است: با دانستن اینکه $y$ و $x$ $I(1)$ هستند، من معادله $y = a_0 را تخمین می زنم. + a_1 x + e$ و مقادیر را برای متغیر خطای $e$ ذخیره کنید. سپس تست ADF را برای ریشه واحد در متغیر باقیمانده $e$ اجرا می کنم و متوجه می شوم که خطا $I(0)$ یا ثابت است. آیا این ثابت نمی کند که سری $y$ و $x$ با هم ترکیب شده اند؟
سری یکپارچه
58901
من امیدوار هستم که یک تکنیک بدون نظارت را اجرا کنم که خوشه های متمایز از افراد را بر اساس داده های طولی شناسایی کند: 100 متغیر پیوسته یا طبقه بندی شده که در سنین مختلف اندازه گیری می شوند. به نظر می رسد بسیاری از عملکردهای ارائه شده توسط بسته های R برای موارد ساده تر توسعه داده شده است (مثلاً با فقط یک متغیر اندازه گیری شده در مقاطع زمانی مختلف)، بنابراین من نمی دانم بهترین راه برای نزدیک شدن به چنین مشکلی با R چیست و کدام تکنیک ها (مثلاً مدلسازی کلاس پنهان) بهترین عملکرد را دارند.
خوشه بندی داده های طولی (مسیر).
58900
من اخیراً شروع به یادگیری در مورد مدل‌های ترکیبی خطی تعمیم یافته کرده‌ام و از R استفاده می‌کنم تا ببینم چه تفاوتی با عضویت در گروه به عنوان اثر ثابت یا تصادفی دارد. به طور خاص، من به مجموعه داده نمونه ای که در اینجا بحث شده است نگاه می کنم: http://www.ats.ucla.edu/stat/mult_pkg/glmm.htm http://www.ats.ucla.edu/stat/r/dae/ melogit.htm همانطور که در این آموزش توضیح داده شد، تأثیر Doctor ID قابل توجه است و من انتظار داشتم که مدل ترکیبی با یک برش تصادفی نتایج بهتری ارائه دهد. با این حال، مقایسه مقادیر AIC برای دو روش نشان می دهد که این مدل بدتر است: > require(lme4) ; hdp = read.csv(http://www.ats.ucla.edu/stat/data/hdp.csv) > hdp$DID = factor(hdp$DID) ; hdp$Married = factor(hdp$Married) > GLM = glm(remission~Age+Married+IL6+DID,data=hdp,family=binomial);خلاصه(GLM) تماس: glm(فرمول = بهبودی ~ سن + متاهل + IL6 + DID، خانواده = دو جمله ای، داده = hdp) باقیمانده انحراف: حداقل 1Q Median 3Q Max -2.5265 -0.6278 -0.2272 0.5492 2.7329 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -1.560e+01 1.219e+03 -0.013 0.990 سن -5.869e-02 5.272e-03 -11.133 < 2e-16 *** متاهل1 2.68e-2.68. e-02 4.044 5.26e-05 *** IL6 -5.550e-02 1.153e-02 -4.815 1.47e-06 *** DID2 1.805e+01 1.219e+03 0.015 0.988 DID3 1.9301+1.932e ... DID407 2.012e+01 1.219e+03 0.017 0.987 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 10353 در 8524 درجه آزادی انحراف باقیمانده: 6436 در 8115 درجه آزادی AIC: 7256 تعداد تکرارهای امتیازدهی فیشر: 17 > GLMM = glmer(remission~Age+Married+IL6+(1|DID),data=hdp,family=binomial) ; m مدل مخلوط خطی تعمیم یافته متناسب با تقریب لاپلاس فرمول: بهبودی ~ سن + متاهل + IL6 + (1 | DID) داده ها: hdp AIC BIC انحراف logLik 7743 7778 -3867 7733 اثرات تصادفی: نام گروه ها واریانس Std.Dev. DID (Intercept) 3.8401 1.9596 تعداد obs: 8525، گروه‌ها: DID، 407 جلوه‌های ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (انتقال) 1.461438 0.272709 5.359 8.37e-08 *** سن -0.055969 0.005038 -11.109 < 2e-16 *** متاهل1 0.306 0.206 4.50e-05 *** IL6 -0.053288 0.011058 -4.819 1.44e-06 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی اثرات ثابت: (Intr) سن Marrd1 سن -0.898 متاهل1 0.070 -0.224 IL6 -0.162 -0.162 (GLM) ; ExtractAIC(GLMM) [1] 410.000 7255.962 [1] 5.000 7743.188 بنابراین، سؤالات من این است: (1) آیا مقایسه مقادیر AIC ارائه شده توسط دو تابع مناسب است؟ اگر چنین است، چرا مدل اثر ثابت بهتر عمل می کند؟ (2) بهترین راه برای تشخیص اینکه آیا اثرات ثابت یا تصادفی مهمتر است (یعنی تعیین کمیت اینکه تغییرپذیری ناشی از پزشک مهمتر از ویژگی های بیمار است) چیست؟
جلوه های ثابت در مقابل تصادفی
107482
من یک فرآیند تصادفی از مشاهدات مثبت دارم. من یک مدل فضای حالت (به دنبال ساختار ARMA(1,3) ساخته‌ام)، پارامترهایی را پیدا کرده‌ام که با مشاهدات فرآیند از طریق حداکثر کردن احتمال ورود به سیستم مطابقت دارند، و پس از شبیه‌سازی مدل به‌دست‌آمده، مشاهده کردم که مقادیر منفی رخ می‌دهد. من واقعاً هیچ ایده ای در مورد چگونگی اصلاح این نتایج ندارم. آیا این است که نوعی کران پایین باید در مرحله تخمین پارامتر فرموله شود؟
مدل حالت فضایی با مقادیر مثبت دقیق
58905
من یک ماتریس انتقال $n\times n$ دارم که در آن هر مقدار نشان دهنده احتمال انتقال گره (درخت) به گره است. من می خواهم احتمال وقوع یک درخت را با توجه به ماتریس انتقال اندازه گیری کنم. چگونه می توانم این کار را انجام دهم؟
اندازه گیری احتمال وقوع درخت با توجه به یک ماتریس انتقال
69210
فرض کنید یک توزیع دیریکله با پارامتر برداری $K$-بعدی $\vec\alpha = [\alpha_1, \alpha_2,...,\alpha_K]$ داریم. سوال من این است که چگونه می توانم یک نمونه (بردار $K$-بعدی) از این توزیع رسم کنم؟ من برای توضیح احتمالاً ساده بسیار خوشحال خواهم شد.
طراحی از توزیع دیریکله
103399
چه رویکردهای دیگری به جز نظریه پاسخ آیتم برای مدل سازی یادگیری دانش آموزان در آزمون های استاندارد وجود دارد؟
گزینه های نظریه پاسخ آیتم
112394
لطفاً کسی می تواند ریاضیات پشت این جمله را برای من توضیح دهد؟ من مطمئن نیستم که آنها چگونه سمت چپ را با آن انتگرال نشان می دهند و در نهایت چگونه با آن تناسب دارد. \begin{align} p(S_{t+1}|z_{t+1}) &=\int p(S_{t+1}|S_t,z_{t+1})d\mathbb{P}( S_t|z^{t+1}) \\\ &\propto \int p(S_{t+1}|S_t,z_{t+1})p(z_{t+1}|S_t)d\mathbb{P}(S_t|z^t) \end{align} جایی که $z ^{t+1}=(z_1,...,z_t)$ همچنین آیا این دو معادل هستند؟ $$\int p(S_{t+1}|S_t,z_{t+1})d\mathbb{P}(S_t|z^{t+1}) \stackrel{?}{=} \int p (S_{t+1}|S_t,z_{t+1})p(S_t|z^{t+1})dS_t$$ همانطور که در این مورد، این است که روش صحیح تفسیر ادغام با توجه به یک اندازه گیری احتمال؟
توضیح بازنویسی چگالی؟
99020
اگر همبستگی های سریالی در داده ها وجود دارد، یک معادله میانگین برای داده ها بسازید. همانطور که در شکل زیر نشان داده شده است، PACF و ACF اساسا یکسان هستند. چگونه باید بدانم که آیا قرار است یک مدل AR(p) بسازم یا مدل MA(q)؟ آیا همبستگی سریال به این معنی است که باید به یک مدل AR(q) پایبند باشم؟ مشکل بعدی در مجموعه از ما می خواهد که سعی کنیم یک مدل ARMA را متناسب کنیم، که به این معنی است که من نباید سعی کنم یک مدل ARMA برای این سوال بسازم (حتی اگر می بینم که با داده ها بسیار بهتر از MA یا AR مطابقت دارد. مدل به تنهایی). ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/emFll.png)
آیا اطلاعات کافی ارائه شده است؟ اگر همبستگی های سریالی وجود دارد، یک معادله میانگین برای بازده گزارش بسازید
27846
پرس و جوی اول از 2 قسمت: من 100 Drs را مشاهده کرده ام و تعداد دفعاتی را که سطوح در اتاق هستند را ثبت کرده ام: $$ \begin{array}{l|c|c|c|c} Dr\text{ number} &تخت و میز و صندلی و در\\\ دکتر 1&3&2&2&1\\\ دکتر 2&4&1&0&1\\\ \vdots&\vdots &\vdots &\vdots &\vdots\\\ Dr 100& 2&3&1&1 \end{array} $$ می‌خواهم برای مثال احتمال لمس کردن جدول را محاسبه کنم. آیا این خواهد بود:؟ $$ \begin{array}{l|c|c|c|c|c} &Bed&Table&C Chair&Door&\text{Total}\\\ \text{میانگین مخاطبین}&3&2&1&1&\text{7}\\\ P(سطح)&3/ 7&2/7&1/7&1/7&1 \end{array} $$ این من را گیج می‌کند اما فکر می‌کنم جدید جفت چشم فوراً آن را تشخیص می دهد. بخش دوم: من به برخی از پزشکان پرسشنامه دادم که به جای دادن شماره تماس، کادرها را علامت زدند، مثلاً: $$ \begin{array}{l|c|c|c|c} دکتر\text{ number}&Bed&Table&Chair&Door\\\ Dr & \Checkmark&\Checkmark&\Checkmark&\Checkmark\\\ Dr&\checkmark&\checkmark&\times&\checkmark\\\ \vdots&\vdots &\vdots &\vdots &\vdots\\\ Dr 100& \checkmark&\checkmark&\checkmark&\checkmark \end{array} $$ از چه چیزی می توانم نتیجه بگیرم این جدول از کنه ها را با جدول مقادیر دقیق مقایسه کنید؟ یا ارزش چیزی نداره؟ لطفا برای هر گونه توضیح لازم بخواهید، با احترام
مقایسه پرسشنامه ها با مشاهدات واقعی: آیا ارزشش را دارد؟
113041
من در حال انجام یک رگرسیون خطی ساده در SPSS هستم و تست‌های اسپیرمن و پیرسون را اجرا کرده‌ام که در 0.40 منتشر شد. حالا در رگرسیون خطی B و شرط‌های من منفی شده است، من مطمئن نیستم از این چه چیزی استنباط کنم؟ از کمک امی قدردانی می شود، من فقط یک دوره کوتاه در این زمینه انجام می دهم، بنابراین دانش پیشینه من زیاد نیست
مشکل رگرسیون خطی
83412
به احتمال شرطی به سوالی برخوردم که باعث تعجبم شد. یک فروشگاه بزرگ گزارش می دهد که 30٪ از فروش ها از طریق نقدی، 60٪ با کارت اعتباری و 10٪ با کارت نقدی انجام می شود. 20 درصد از خریدهای نقدی فوق، 90 درصد از خریدهای کارت اعتباری فوق و 80 درصد از خریدهای کارت نقدی فوق برای خریدهای بیش از 200 دلار انجام می شود. بنابراین اجازه دهید $C = {نقد}$، D = {کارت اعتباری}، E = {کارت نقدی} و M = {خریدها > 200 دلار} P(C) = 0.3 P(D) = 0.6 P(E) = 0.1 چه مقدار من واقعا مطمئن نیستم که آیا باید $P(M|C) = 0.2$ باشد یا اینکه $P(C|M) = 0.2$ باشد. می خواستم بدانم که آیا ممکن است در این مورد راهنمایی بگیرم.
آیا باید A|B یا B|A باشد؟
83413
من پیشینه ای متوسط ​​در برنامه نویسی و منطق دارم، با این حال سعی می کنم استفاده از R و ابزارهای دیگر را برای انجام مطالعات مبتنی بر یادگیری ماشینی در مورد برخی مشکلات شروع کنم. من احتمالات و آمار را در دانشگاه خواندم، اما آموزش آن بسیار ضعیف بود و تا به حال متوجه نشده بودم. من دو کتاب در آمازون پیدا کردم که دوست داشتم: * آمار برهنه: حذف ترس از داده ها * راهنمای کامل احمق برای آمار هر دو نقطه شروع خوبی به نظر می رسند، حداقل برای درک سریع مفاهیم کلیدی و سپس استفاده از تکنیک های مختلف ابزار خودکار برای اهدافم. ، اما کسی آنها را خوانده است؟ کدام یک بهتر است؟ P.S. من می خواهم یاد بگیرم: توزیع ها (نرمال، پواسون، و غیره)، آمار توصیفی، آمار استنباطی، فرضیه، $R^2$، احتمال، بیز، زنجیره های مارکوف، و تمام مفاهیم مرتبط.
کتابی آسان برای درک مفاهیم اولیه
89130
این رگرسیون لجستیک را در نظر بگیرید: mtcars$vs <- as.factor(mtcars$vs) log_reg_mtcars <- glm(am ~ vs*wt +vs*mpg، خانواده = دوجمله‌ای، mtcars) من سعی کردم از بسته افکت‌ها برای استخراج مقداری استفاده کنم. ضرایب از مدل: as.data.frame(effect(vs, log_reg_mtcars)) توجه: vs یک عبارت مرتبه بالا در مدل در مقابل fit se پایین بالا نیست 1 0 0.3957869 2.916877 0.002150238 0.9950031 2 1 0.0331818182040202. 0.7146704 آیا کسی می تواند توضیح دهد که چرا ضرایب/خطای استاندارد برای «در مقابل» ارائه شده توسط این کد متفاوت است. یا به عبارتی پکیج افکت در حال انجام چه کاری است؟ as.data.frame(summary(log_reg_mtcars)$coef)[2,1:2] Estimate Std. خطا vs1 -40.70047 40.53197
ضرایب استخراج شده توسط بسته اثرات در R
83411
من با رگرسیون لجستیک مشکل دارم. می‌خواهم بدانم آیا تأثیری از متغیرهای سرمایه اجتماعی (مشارکت مدنی، اعتماد تعمیم‌یافته...) بر متغیرهای وابسته مختلف (یعنی سلامت خود گزارش‌دهی، افسردگی، عملکرد شناختی و غیره) وجود دارد. مشکل مشابهی در اینجا پاسخ داده شده بود: مقایسه ضرایب لجستیک در مدل‌هایی با متغیرهای وابسته مختلف؟، اما مشکل من کمی متفاوت است. من طیف وسیعی از مدل‌های مختلف را برای این متغیرهای وابسته ایجاد کرده بودم، اما برای دستیابی به بهترین تناسب با مدل‌هایم، می‌خواهم به عنوان مثال معیار افسردگی را به مدل سلامت خود رتبه‌بندی خود اضافه کنم. من فرض می‌کنم که افسرده بودن از نظر بالینی می‌تواند بر سلامتی که خود ارزیابی می‌کند تأثیر بگذارد. بنابراین سؤال من این است: آیا تأثیر متغیرهای سرمایه اجتماعی بر این متغیرهای وابسته متفاوت با فهرست متغیرهای مستقل کمی متفاوت قابل مقایسه است؟ آیا کاری وجود دارد که بتوانم مدل های خود را با هم مقایسه کنم؟ خیلی ممنون!
مقایسه اثرات مجموعه های کمی متفاوت از متغیرهای مستقل بر متغیرهای وابسته چندگانه در رگرسیون لجستیک
80932
من سعی در پیاده سازی C4.5 دارم و از کتاب Quinlan به نام C4.5: Programs for Machine Learning استفاده می کنم. روش هرس پیشنهاد شده توسط C4.5 استفاده از یک تخمین بدبینانه مبتنی بر CI از خطا از یک گره است. بنابراین، با توجه به سطح اطمینان ($\alpha$)، وزن کل موارد در نظر گرفته شده $N$، و وزن کل موارد اشتباه طبقه بندی شده $E$، برآوردگر پیشنهادی حد بالایی فاصله اطمینان برای توزیع دوجمله ای با آزمایشات $N$ و خطاهای $E$. من کاملاً درک می کنم که ما در اینجا در مورد یک نمونه صحبت نمی کنیم، که مقدار تخمینی کم و بیش یک اکتشافی است و غیره. من علاقه ای به این ندارم، سعی می کنم تمام مشخصات اصلی را رعایت کنم. مشکلی که من متوجه آن نمی شوم یکی از موارد زیر است: به دلیل نحوه مدیریت مقادیر از دست رفته توسط C4.5، معمولاً مقادیر $N$ و $E$ به عنوان مقادیر غیر صحیح وجود دارد. اگر چنین است، چگونه می توان CI را برای دوجمله ای محاسبه کرد؟ توجه: در حال حاضر من در حال مطالعه این مقاله هستم: http://www.sigmazone.com/binomial_spect_interval.htm تا کمی در مورد این موضوع به من توضیح دهد. با این حال، من معتقدم که این مشکل من را حل نمی کند.
چگونه می توان فاصله اطمینان دو جمله ای را برای پارامترهای غیر صحیح محاسبه کرد؟
27841
می خواستم بدانم آیا کسی مرجع خوبی در مورد شبکه های تصمیم گیری پویا دارد، آیا نظرسنجی خوبی در مورد این موضوع وجود دارد؟ پیشاپیش ممنون
شبکه های تصمیم گیری پویا
83415
من باید برخی از کدهای R را تغییر دهم تا جهش ها را در مدل سازی خود در نظر بگیرم. ابتدا یک شبیه سازی از Garch 1,1 ساختم: $r_t=\mu+\sqrt{h_t}\epsilon_t$ $h_t=w_0 +\alpha(r_{t-1}-\mu)^2+\beta h_{ t-1} $ که در آن $\epsilon$ از توزیع نرمال پیروی می کند. سپس سعی می‌کنم پارامترها را تخمین بزنم، بنابراین احتمال گزارش را به این ترتیب می‌سازم و بهینه می‌کنم: garch_loglik<-function(para,x,mu){ # پارامترهای omega0=para[1] alpha=para[2] beta=para[3 ] # فراریت و مقداردهی اولیه loglik loglik=0 h=var(x) # شروع حلقه vol=c() برای (i in 2:length(x)){h=omega0+alpha*(x[i-1]-mu)^2+beta*h loglik=loglik+dnorm(x[i],mu,sqrt(h),log= TRUE) } اکنون من یک GARCH اصلاح شده دارم: $r_t=\mu+\sqrt{h_t}(\epsilon_t+\sum_{i=0}^{N_{t}} x_{i,t})$h_t=w_0 +\alpha(r_{t-1}- \mu)^2+\beta h_{t-1}$ جایی که اپسیلون از توزیع نرمال پیروی می کند، N توزیع پواسون(0.1)، $x_{i,t}$ یک توزیع عادی (-0.1،0.3). من شبیه سازی فرآیند GARCH خود را در نتیجه اصلاح کرده ام. pois=rpois(n,0.1) eps=rnorm(n,0,1)+ sum(rnorm(pois[i],-0.1,0.3)) اما من در تلاش برای اصلاح منطق احتمالی هستم. با توجه به چیزی که فهمیدم باید خط را با dnorm در loglikelihood تغییر دهم، اما نمی‌دانم چگونه توزیع یک قانون نرمال + مجموع نرمال را بسته به یک فرآیند poisson پیدا کنم. آیا امکان محاسبه مستقیم وجود دارد؟ (یک تابع برای میکس توزیع ها) آیا باید آن را به صورت دستی بسازم؟ (شبیه سازی چندین متغیر برای یافتن توزیع.)
برآوردگر شبه حداکثر احتمال برای GARCH با پرش (فرایند سم کامپود با توزیع نرمال)
107486
فرمول Spearman-Brown Prophecy گاهی اوقات برای پیش‌بینی قابلیت اطمینان ارزیابی میانگین بر اساس N رتبه‌دهنده با استفاده از قابلیت اطمینان بین‌سنجی محاسبه‌شده از N مجموعه رتبه‌بندی‌های فردی در یک تنظیم خاص استفاده می‌شود. سوال من مربوط به درخواست است، مثلاً در یک محیط مصاحبه که در آن تعداد زیادی نامزد و N ارزیاب وجود دارد. در زندگی واقعی، ارزیابان بر یکدیگر تأثیر می گذارند. حتی اگر بین پایان مصاحبه و رتبه بندی صحبت نکنند، ارزیابان از طریق سوالاتی که در طول مصاحبه پرسیده اند و با زبان بدن خود (گاهی حتی تا حد آه کشیدن یا چرخاندن چشمان خود) ارتباط برقرار کرده اند. بنابراین، در این تنظیم ما پایایی بین ارزیاب را بر اساس رتبه‌بندی‌هایی که مستقل نیستند محاسبه می‌کنیم و سپس از فرمول SB برای تخمین پایایی میانگین رتبه‌بندی استفاده می‌کنیم. اما اگر قابلیت اطمینان بین ارزیاب افزایش یابد، شاید رویکرد SB منطقی نباشد. شاید میانگین رتبه‌بندی N با استفاده از قابلیت اطمینان بین‌سنجی که بر اساس رتبه‌بندی‌های مستقل نیستند، به خوبی پیش‌بینی نشده باشد. من فکر می کنم پایایی بین ارزیاب به عنوان یک نشانه (بسیار غیر مستقیم) اعتبار در نظر گرفته می شود. (حداقل، اعتبار نمی تواند بالاتر از جذر پایایی باشد.) آیا این نقدی است که قبلاً مطرح شده است؟ نظری دارید یا می توانید مکان هایی را برای یافتن مطالب در مورد این جنبه از استفاده از رویکرد SB، به ویژه در مورد میزان خطر به معنای کمی، پیشنهاد دهید؟
اثر نقض مفروضات فرمول پیشگویی Spearman_Brown
33706
من داده‌هایی را از توییتر، گوگل و ویکی‌پدیا جمع‌آوری کرده‌ام تا به دنبال هرگونه همبستگی (و شاید ارزش پیش‌بینی‌کننده) در برابر بازار سهام باشم. من داده های روزانه توییتر، گوگل و ویکی پدیا را به مدت 148 روز جمع آوری کرده ام. در تحلیل رگرسیون، من از یک متغیر ساختگی، بخش استفاده می کنم. تمام 100 شرکتی که من از آنها اطلاعات جمع آوری کرده ام را می توان در یکی از 6 بخش صنعت طبقه بندی کرد. اکنون، به این فکر کردم که تحلیل رگرسیون ممکن است برای شرکت هایی که پوشش خبری بالاتری داشته اند، بسیار قوی تر باشد. این قابل قبول است که فکر کنیم اگر اخبار زیادی در مورد یک شرکت وجود دارد، مردم تمایل دارند بیشتر در مورد آن شرکت توییت کنند. من عناوین خبری را جمع آوری کرده ام که هر یک از 100 شرکت را در همان 148 روز ذکر کرده است. روزهای زیادی برای بسیاری از شرکت‌ها وجود دارد که هیچ خبری از آنها وجود ندارد، بنابراین تلاش برای مرتبط کردن روزهای غیر خبری به عنوان مثال با تعداد توییت‌ها، منطقی به نظر نمی‌رسد. من اکنون همه سرفصل ها را جمع آوری کرده ام، به عنوان مثال: در طول 148 روز، 846 عنوان در مورد اپل، 137 در مورد مایکروسافت و 0 در مورد آزمایشگاه Abbott وجود داشت. اکنون به این فکر می‌کنم که یک متغیر ساختگی به مجموعه داده اضافه کنم، چیزی مانند «dNews10»، «dNews100»، یعنی شرکت‌هایی با کمتر از 10 مقاله خبری، 10 تا 100 مقاله و غیره. آیا این متغیر قابل قبولی برای افزودن به آن است. تجزیه و تحلیل؟ معمولاً همانطور که به من آموزش داده شده است، آدمک ها برای موضوع تحقیق (مرد: قد، جنس، رنگ چشم و غیره) خاصیت دارند. من نمی دانم که آیا پوشش خبری واجد شرایط است یا خیر.
چگونه نسبت پوشش خبری را در تحلیل رگرسیون مدیریت کنیم؟
99022
در متن من، به ما گفته شده است که از PACF برای یافتن ترتیب مدل‌های MA(q) و ACF برای یافتن ترتیب مدل‌های AR(p) استفاده کنیم. اما در یک مسئله تکلیف، استاد ترتیب یک مدل AR(p) را با استفاده از PACF مشخص می کند. این خیلی گیج کننده است. آیا کسی می تواند تناقض آشکار را روشن کند؟
استفاده از ACF یا PACF برای ساخت مدل AR(p)؟
18504
من یک مدل فیلتر کالمن برای پیش‌بینی آنفولانزا مطابق شکل زیر ساخته‌ام. Y - متغیر هدف X1 - Predictor1 X2 - Predictor2 در حین پیش‌بینی آینده، داده‌ای برای هر سه متغیر نخواهم داشت. بنابراین، من X1 و X2 را با استفاده از دو فیلتر کالمن پیش بینی می کنم. کد زیر x1 است. فیلتر <- dlmFilter(c(train$x1, rep(NA, noofsteps)), x1.model) x2.filter <- dlmFilter(c(train$x2, rep(NA, noofsteps)), x2.model) اکنون در حال پیش بینی هستم Y با استفاده از X1 و X2 پیش‌بینی‌شده به صورت زیر pred <- cbind(c(train$x1, x1.filter$f[260:312])،c(train$x2، x2.filter$f[260:312])) Y.model <- dlmModSeas(52) + dlmModReg(pred، dV=0.5، dW= c(10,0.05,0.1)) Y.filter <- dlmFilter(c(train$Y, rep(NA, noofsteps)), Y.model) دو سوال دارم 1) فصل آنفولانزا معمولا از اوایل سپتامبر شروع می شود و معمولا در هفته آخر دسامبر یا هفته اول ژانویه به اوج خود می رسد. . مراحل زیر مرحله 1 - سپتامبر، اکتبر Stage2 - نوامبر، دسامبر Stage3 - ژانویه، فوریه Stage4 - مارس، آوریل است. dlmModSeas این فصلی بودن را به خوبی به تصویر می کشد. اما برای پیش بینی یک موج خارج از فصل که همان مراحل بالا را دارد، چه کار کنم. می گویند از ماه مه شروع می شود و در اواخر آگوست یا اوایل سپتامبر به اوج خود می رسد. من می توانم اطلاعات این موج خارج از فصل را از کاربر در هنگام شروع، یعنی در ماه می دریافت کنم. چگونه این تغییر فصلی را معرفی کنم؟ 2) آیا راه بهتری برای انجام این پیش بینی وجود دارد؟ لطفا راهنمایی کنید
پیش بینی سری های پرت در فیلتر کالمن
107487
من قوانین انجمن را با استفاده از بسته R Arules ایجاد کردم. سپس آن قوانین را فیلتر کردم و قوانینی را که دارای یک متغیر خاص در RHS هستند نگه داشتم. آن متغیر متغیر Y من است. در کل مجموعه داده، متغیر من فقط 30٪ مواقع رخ می دهد. 99% از قوانینی که من دریافت کردم دارای یک لیفت <1.5 بودند آیا این بدان معنی است که متغیرهای X من قدرت پیش بینی خوبی ندارند؟ در چنین حالتی آیا ساختن درخت تصمیم بر روی آن داده منطقی است؟ آیا اطلاعات بیشتری به ما می دهد؟ یا به این معنی است که عدم تعادل کلاس وجود دارد و باید فرکانس متغیر Y را به نحوی افزایش دهم؟ (بیش از نمونه برداری)
ساختن درخت تصمیم پس از قوانین انجمن
107483
با توزیع احتمال دو جمله ای استاندارد، ما n آزمایش را با احتمال موفقیت p در نظر می گیریم. این را می توان تا حدودی به توزیع دو جمله ای بتا تعمیم داد که عملاً یکسان است، اما این بار احتمال موفقیت یک متغیر تصادفی با توزیع بتا است. سوال من این است: آیا در تئوری می توانم از p استفاده کنم که از توزیع احتمال دلخواه (پیوسته یا گسسته) تا زمانی که پشتیبانی روی [0,1] باشد، نمونه برداری کند، یا چیزی در مورد توزیع بتا وجود دارد که چنین توزیعی را امکان پذیر می کند. ?
مدل های دو جمله ای تعمیم یافته
27843
اگر بخواهم درصدهای شوت (بسکتبال) را در دو شرایط مقایسه کنم، از چه نوع تحلیل آماری استفاده می کنم؟ اگر داده‌ها را در ستون‌ها وارد کنم، شرط 1 شرط 1 را ایجاد می‌کند، شرط 2 شرایط 2 را تلاش می‌کند آیا این روش بدی برای انجام آن است؟ آیا باید 1، 0 را برای ساختن و از دست دادن و مقایسه بر اساس گروه ها اختصاص دهم؟ هر توصیه ای؟ من می‌خواهم به درصد شوت‌زنی روی دراز کشیدن از یک پا در مقابل دراز کشیدن از روی دو پا در بسکتبال دانشگاه دختران نگاه کنم.
برای مقایسه درصد تیراندازی در بسکتبال باید از چه تحلیل آماری استفاده کنم؟
107481
من فقط می‌پرسیدم آیا کسی می‌تواند به من کمک کند، من در حال انجام یک تحلیل مسیر در SPSS Amos با یک نتیجه باینری هستم. من با استفاده از Tools>Data Recode متغیر را به صورت باینری مشخص کردم، سپس با استفاده از MCMC تخمین های متغیر را محاسبه کردم. سوال من این است: چگونه می توانم تناسب کلی مدل را محاسبه کنم؟ مدل به صورت زیر است که همه متغیرها به جز سایکوز (دودویی) پیوسته هستند. * احترام <\--- قلدری * نفوذ <\--- قلدری * نفوذ <\--- احترام * خطر روانی <\--- نفوذ * خطر روانی <\--- قلدری با تشکر فراوان.
نتیجه باینری SPSS Amos - Model Fit
99026
من دو سؤال (مرتبط) در مورد شبیه‌سازی داده‌های همبسته و غیر عادی با مقدار مشخص شده توسط کاربر از کشش چند متغیره Mardia در سال 1970 دارم. (1) استفاده از روشی که توسط Vale و Maurelli (1983) برای انجام یک تبدیل چندجمله ای از متغیرهای تصادفی استاندارد و عادی ($Y=a + bX + cX^{2} + dX^{) توسعه داده شده است، در رشته من بسیار رایج است. 3}$ که در آن $X \sim N(0,1)$) که در آن ضرایب c و d تخمین‌های چولگی و کشیدگی (تک متغیره) را کنترل می‌کنند. سپس غیرعادی بودن از طریق توزیع‌های حاشیه‌ای یک بعدی به دست می‌آید، اما هیچ کنترلی روی تخمین‌های چولگی/کورتوز چند متغیره وجود ندارد (همانطور که در Mardia (1970) تعریف شد. بنابراین اینجا اولین سوال من مطرح می‌شود: چگونه می‌توانم مقادیر جمعیت را به دست بیاورم. کوتاهی چند متغیره اگر من فقط مقادیر جمعیت همه حاشیه های تک متغیره را داشته باشم در اینجا تلاش من برای حل این مشکل است بسته در R (معیار Mardia را محاسبه می‌کند) و بسته lavaan (روش Vale & Maurelli را پیاده‌سازی می‌کند) کتابخانه (semTools) library (lavaan) ### سه متغیر همه در مدل 0.5 همبستگی دارند <- 'x1 ~~ 0,5 * x2 x2 ~~ 0.5*x3 x3 ~~ 0.5*x1' ### بردار برای ذخیره کشش Mardia مقادیر mardia_values ​​<- double(100) برای (i در 1:100){ ### داده های شبیه سازی شده با N=100000 چولگی جمعیت 2 و کشیدگی 7 dataz <- simulateData(model, sample.nobs=100000, skewness= c(2,2,2), kurtosis=c(7,7,7)) mardia_values[i] <- as.numeric(mardiaKurtosis(datz)[1]) } mean(mardia_values) بنابراین اساساً من آن را از طریق یک شبیه‌سازی تقریب می‌زنم (در حجم نمونه بزرگ) آیا این روش قابل قبول است؟ من بسیار آماده پیشنهادات هستم (مخصوصاً اگر بتوان آن را به صورت تحلیلی استخراج کرد (2) اکنون، در یک یادداشت مرتبط... آیا کسی روشی برای شبیه سازی داده می داند که در آن مقدار Mardia Kurtosis توسط کاربر مشخص شود؟ تا اینجا، تنها چیزی که توانسته ام به آن برسم این است که یک بار دیگر از روش Vale and Maurelli (1983) استفاده کنم و به نوعی از طریق دنباله و خطا پیش بروم تا زمانی که مقدار مورد نظر را به دست بیاورم. می خواهم از آنجایی که ماردیا این معیارها را در جمعیت تعریف کرده است، من فرض می کنم که باید روشی برای تولید داده ها وجود داشته باشد که در آن مقدار را بتوان از قبل مشخص کرد، اما من نمی دانم که چگونه مراجع (1970) اندازه گیری چولگی و کشیدگی چند متغیره با کاربردهای بیومتریک، 519-530. A. (1983).
چگونه داده ها را با مقادیر Kurtosis Mardia شبیه سازی کنیم؟
33703
من روی یک کار نسبتاً پیچیده نشسته ام و مطمئن نیستم از کدام روش در اینجا استفاده کنم. برای کلاس دانشگاه، ما با یک روانشناس مشورت می کنیم که تصاویری مانند این را به مردم نشان داده است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/fsUne.png) وظیفه این بود که * الف) پیدا کنید کدام یک از الماس ها رنگ متفاوتی با بقیه دارد. این مقدار زمان می برد که به آن زمان انتخاب می گویند * ب) مشخص کنید کدام طرف الماس خرد شده است. این کار مقداری زمان می برد که «زمان تشخیص» نامیده می شود * ج) با کلیک بر روی دکمه چپ یا راست ماوس، سمت لبه گم شده را گزارش دهید. اکنون، ما فقط توانستیم کل زمان واکنش را اندازه گیری کنیم، به عنوان مثال، زمان تمایز انتخاب _بعلاوه_، زیرا نمی دانیم چه مقدار از کل زمان واکنش یک فرد صرف جستجو یا به ترتیب تمایز می شود. اما ما در واقع به _only_ زمان انتخاب، بخش a) از لیست بالا علاقه مندیم. به همین دلیل است که ما آزمایش زیر را نیز انجام دادیم: قبل از اینکه تصویر را به مردم نشان دهیم، اجازه دادیم یک مربع کوچک (به نام Cue) در نقطه ای که الماس مورد نظر ظاهر می شود چشمک بزند. فرد می داند که الماس مورد نظر در چه مکانی ظاهر می شود. با این کار ما امیدوار بودیم که زمان انتخاب را حذف کنیم، بنابراین فقط بخش ب)، زمان تمایز را اندازه گیری کنیم. اما توجه داشته باشید که ما همچنان به زمان _انتخاب_ علاقه مندیم، نه زمان _تبعیض_. بنابراین مجموعه داده‌های ما شامل 16 نفر است که زمان‌های واکنش در حدود 360 عکس نشان‌داده‌شده برای هر نفر است. حدود نیمی از آنها بدون مربع چشمک زن کوچک (که به معنی کل زمان واکنش شامل زمان انتخاب است) ارائه شدند، و نیمی دیگر دارای مربع چشمک زن بودند (فقط اندازه گیری زمان تشخیص). علاقه اولیه ما _توزیع_ زمان های انتخابی است. چند کلمه کلیدی شنیدیم که برای استخراج آن زمان انتخاب از چه روشی می توانیم استفاده کنیم. یکی از آن‌ها «تحول‌زدایی توزیع‌ها» بود، سپس درباره «تبدیل فوریه سریع» شنیدیم که هنوز مطمئن نیستیم چگونه از آن استفاده کنیم. تفریق ساده زمان‌های واکنش بدون نشانه از زمان‌های واکنش با نشانه ممکن است کارساز باشد، اما ما نمی‌دانیم چگونه این زمان‌های واکنش را جفت کنیم. می دانم که این گیج کننده به نظر می رسد، اما امیدوارم بتوانم تکلیف خود را تا حدودی روشن کنم. اگر چیزی به درستی توضیح داده نشده است، البته می توانم توضیح دهم. اگر پیشنهادی در مورد اینکه کدام روش ممکن است در اینجا مناسب باشد دارید، بسیار سپاسگزار خواهیم بود.
چگونه می توانم توزیع یک RV را با مجموعه ای از مجموع دو RV استخراج کنم؟
99028
![model](http://i.stack.imgur.com/9wV0U.png) این مدل تکرار یک مطالعه قبلی است. پس از تجزیه و تحلیل عاملی در SPSS، من باید فرضیه خود را آزمایش کنم (همانطور که می بینید 7 فرضیه وجود دارد) همه باید رابطه مثبت معنی داری با یکدیگر داشته باشند. به عنوان مثال، نوآوری تأثیر مثبت قابل توجهی بر سهولت استفاده و غیره دارد. سرپرست من اصرار دارد که این تحلیل میانجی است و شما باید ببینید که آیا جزئی است یا کامل یا غیرمستقیم توسط AMOS اما مقاله تحقیقاتی که من از آن دریافت کردم. گرفته شده هیچ یک از آن موارد را ذکر نکرده است. آنها فقط از مدل سازی معادلات ساختاری استفاده کردند و تأثیر هر متغیر بر دیگری را یکی یکی ذکر کردند. میخوام بدونم چه آزمایشی باید انجام بدم؟ آیا واقعاً واسطه است یا فقط SEM؟ آیا باید از SPSS یا AMOS استفاده کنم؟ هدف اصلی من این است که ببینم آیا این متغیرها بر متغیر وابسته ** قصد خرید آینده ** تاثیر می گذارند یا خیر. به خصوص، چگونه «نوآوری» مستقیماً بر « ** قصد خرید آینده ** » تأثیر می گذارد و تأثیر غیرمستقیم از طریق «سهولت استفاده» دارد. اما «مفید بودن» و تأثیرات دیگر بر «نیت خرید آینده» نیز مهم هستند. زمان زیادی برای پایان نامه ام باقی نمانده است و قبلاً چندین بار اشاره کردم که در SPSS بسیار ضعیف هستم و حتی در AMOS بدتر هستم. به من پیشنهاد دهید و در انجام آزمایش مناسب کمک کنید. من به راهنمای گام به گام نیاز دارم. اگر می خواهید ببینید از چه مقاله تحقیقاتی اصلی برای آزمایش استفاده شده است، لطفاً آن را در Emerald insights بررسی کنید 10.1108/14684520810914025
چه آزمایشی باید روی مدل معادلات ساختاری انجام دهم؟
107489
من اطلاعات 1548 مورد بیماری و 1137 کنترل را دارم. به طور خاص، برای هر نفر، من یک امتیاز مشخص $n$ دارم. من به موارد زیر علاقه مند هستم: * ابتدا، برای هر یک از گروه ها، می خواهم بدانم که آیا تفاوت $D$ بین واریانس نمونه (من آن را $SV$ در اینجا می نامم) متغیر $n$ و یک واریانس افزودنی خاص وجود دارد یا خیر. متغیر $n$ ($AV$) به طور قابل توجهی کمتر از $0$ است. به عبارت دیگر: $$ D = SV - AV \\\ ~ \\\ H_0: D = 0 \\\ H_A: D <0 $$ * دوم اینکه، من در مورد تفاوت بین این دو گروه کنجکاو هستم. اگر اجازه بدهم $D_1$ ویژگی D بالا برای موارد باشد و $D_2$ نیز برای کنترل‌ها به همین ترتیب باشد: $$ H_O: D_1 - D_2 = 0 \\\ H_A: D_1 - D_2 \ne 0 $$ من زیاد آشنا نیستم با جزئیات / ملاحظات دقیق انتخاب یک آزمون برای این، اما من فکر می کنم که شبیه آزمونی برای تفاوت بین 2 معنی باشد - چیزی در مورد اول یک طرفه و در مورد دوم دو طرفه. آیا کسی می تواند من را در مسیر درست راهنمایی کند؟
روش صحیحی برای آزمایش اهمیت این داده ها چیست؟
33709
من یک سوال در مورد استفاده من از مدل/lmer مختلط دارم. مدل اصلی این است: lmer(DV ~ گروه * شرط + (1|pptid)، داده = df) گروه و شرط هر دو عامل هستند: گروه دارای دو سطح (گروه A، گروه B) و شرط دارای سه سطح (شرط 1، شرط2، شرط 3). این داده ها از سوژه های انسانی است، بنابراین pptid یک اثر تصادفی برای هر فرد است. مدل با خروجی مقدار p موارد زیر را پیدا کرد: تخمین MCMCmean HPD95HPD95 پایین تر pMCMC Pr(>|t|) (برق) 6.1372 6.1367 6.0418 6.2299 0.0005 0.0000 0.0000 groupB -0.014 -0.0101 0.0706 0.3820 0.3880 شرط2 0.1150 0.1151 0.0800 0.1497 0.0005 0.0000 شرط3 0.1000 0.1004 0.0633 0.130370 گروه: 0.0633 0.130370 -0.1055 -0.1058 -0.1583 -0.0610 0.0005 0.0000 groupB:condition3 -0.0609 -0.0612 -0.1134 -0.0150 0.0170 0.0148 اکنون، من می دانم که فاکتورهای هر سطح مرجع را برای هر سطح مقایسه می کند. برای گروه، مرجع groupA و برای شرط، مرجع شرط 1 است. آیا من در تفسیر این خروجی به روش زیر صحیح خواهم بود: * تفاوت کلی بین گروه ها وجود ندارد (بنابراین گروه B دارای p >.05 است) * تفاوت های کلی بین شرط 1 و شرط 2 و بین شرط 1 و شرط 3. * تفاوت ها بین گروه A، شرط 1 در مقابل گروه B، شرط 2 و همچنین بین گروه A، شرط 1 در مقابل گروه B، شرط 3. آیا این درست است؟ فکر می کنم در مورد چگونگی تفسیر این موضوع با توجه به تعاملات بین سطوح دو عامل مختلف، کمی گیج شده ام. من سوالات مختلفی را در اینجا خوانده ام و برخی از جستجوهای وب را انجام داده ام و موفق شده ام تضادهایی را با glht تنظیم کنم: آیا این روش بهتری برای بررسی تفاوت بین گروه ها و شرایط است؟ با توجه به نشانه‌هایی از وجود تعاملات در اینجا، فکر کردم که این چنین خواهد بود.
تفسیر خروجی رگرسیون از یک مدل ترکیبی زمانی که تعاملات بین متغیرهای طبقه بندی گنجانده شده است.
31705
من دارم می خوانم گناهان آماری رایج چیست؟، و به خصوص @jebyrnes پاسخ می دهد: > عدم آزمایش این فرض که خطا به طور معمول توزیع می شود و > واریانس ثابتی بین درمان ها دارد. این مفروضات همیشه آزمایش نمی شوند، بنابراین برازش مدل حداقل مربعات احتمالاً اغلب زمانی استفاده می شود که واقعاً نامناسب باشد. و نظر بعدی @DikranMarsupial: > اگر داده ها ناهمگون هستند، می توانید با پیش بینی های نمونه بسیار نادرست مواجه شوید زیرا مدل رگرسیون بسیار تلاش می کند تا خطا را در نمونه ها در مناطق با واریانس بالا و به اندازه کافی سخت > به حداقل برساند. نمونه هایی از مناطق با واریانس کم این به این معنی است که شما می توانید با یک مدل بسیار بد تعصب مواجه شوید. همچنین به این معنی است که نوارهای خطا در پیش بینی > اشتباه خواهند بود. من نگران پسرفتم هستم: از rlm با وزنه استفاده کردم. سؤالات من عبارتند از: 1. لطفاً به من نکاتی را در مورد چگونگی انجام تشخیص خوب بودن و باقیمانده برای rlm در R ارائه دهید؟ آیا آموزش/مثال و غیره خوبی دارید؟ 2. چگونه می توان تشخیص باقی مانده و غیره را در هنگام استفاده از وزن های رگرسیون انجام داد؟ 3. هدف نهایی من این بود که پیش‌بینی‌های $\hat y$ را به دست بیاورم و کمتر نگران سوگیری یا کارایی نسخه‌های بتا هستم... آیا پیش‌بینی‌های من $\hat y$ در صورت وجود ناهمگونی به هم می‌خورد؟ غیر عادی بودن و غیره؟ یعنی چه رابطه ای بین کارایی/بی طرفی و پیش بینی نمونه بیرونی خوب وجود دارد؟ متشکرم
چگونه می توان تشخیص خوب بودن و باقیمانده را برای rlm در R انجام داد؟
71551
من وظیفه انجام یک تجزیه و تحلیل ارزش مادام العمر را برای مشتریان یک کسب و کار کوچک تا متوسط ​​دارم، با این حال من یک مشکل دارم که گردش مالی مشتری در واقع بسیار کند است و تا کنون تعداد زیادی مرگ برای شروع فرآیند تخمین میانگین وجود ندارد. زمان بقا آیا با توجه به سن نسبتاً کم شرکت و سطح پایین ترک مشتریان، آیا تکنیکی وجود دارد که بتوانم برای تخمین ارزش طول عمر این مشتریان از آن استفاده کنم یا باید از آن آگاه باشم. (این شرکت تقریباً 450 مشتری دارد و احتمالاً تا کنون کمتر از 50 مراجعه کننده به عنوان مرجع).
تجزیه و تحلیل بقا / تجزیه و تحلیل LTV با تعداد کمی از مرگ و میر
15158
من در مورد محاسبه دقت و یادآوری برای خوشه بندی ذکر شده در این مقاله گیج شده ام (آخرین پاراگراف ستون 1 در صفحه 5). فرض کنید، اگر ماتریس نشانگر خوشه حاصل $C$ به اندازه $n \times k$ به ما داده شود که $n$ تعداد نقاط داده و $k$ تعداد خوشه است. یک نقطه داده ممکن است به چند خوشه اختصاص داده شود. آیا کسی می تواند جزئیات دقیق محاسبه دقت و فراخوانی را برای این ماتریس نشانگر خوشه ای حاصل $C$ همانطور که در مقاله ذکر شد به من ارائه دهد. فرض کنید ماتریس نشانگر خوشه واقعی نیز موجود است، مثلاً $True\\_C$
دقت و فراخوانی برای خوشه بندی؟
90324
> یک نمونه $x_1,...,x_n$ را در نظر بگیرید که نمونه اصلی آن را می نامیم. برای > ایجاد یک نمونه ترجمه شده $x_1+c,...,x_n+c$، یک $c$ ثابت به هر نقطه نمونه اضافه می کنیم. > > اجازه دهید $y_i=x_i+c, \;i=1,...,n$ > > سپس $\bar y=\bar x +c$ > > از جدول زیر برای محاسبه میانگین حسابی فاصله زمانی > بین دوره های قاعدگی، کار با اعدادی که نزدیک به صفر هستند راحت تر است تا 28 دلار، که حالت است. > > ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/e951L.jpg) سوالات من این است: * چرا 28 دلار برای نمونه ترجمه شده کم می شود؟ * آیا همیشه حالت را برای ایجاد یک نمونه ترجمه شده کم می کنید یا هر مقداری کار می کند؟ چرا این است؟ * آیا زمانی که حالت را به جای تفریق، مثلاً 23 انتخاب می کنید، دقیق تر است؟
ایجاد یک نمونه ترجمه شده با تفریق حالت
33702
اگر من یک متغیر وابسته بیش از دو دسته داشته باشم (دسته ها را می توان مرتب کرد) و چند متغیر مستقل که همگی پیوسته هستند، چگونه می توانم ببینم که آیا متغیر مستقل به طور قابل توجهی بر متغیر وابسته تأثیر می گذارد یا خیر؟ می‌توانم ببینم که اگر یک رگرسیون لجستیک ترتیبی اجرا کنم، در مقایسه با دسته مرجع، یک ضریب بتا و سطح معنی‌داری آن برای هر یک از دسته‌های دیگر متغیر وابسته داده می‌شود. اما هدف من این است که به طور کلی اظهار نظر کنم که آیا متغیر مستقل بر متغیر وابسته تأثیر می گذارد یا خیر. به عنوان مثال، اینکه آیا درآمد (مستمر) به طور قابل توجهی بر وضعیت اجتماعی تأثیر می گذارد یا خیر. من نمی خواهم در مقایسه با هیچ مقوله مرجعی بفهمم، فقط می خواهم یک نظر کلی بدهم. اگر این امکان پذیر است، پس چگونه می توانم آن اهمیت کلی را پیدا کنم؟
آزمون معنی‌داری کلی برای تأثیر یک متغیر پیوسته مستقل بر یک متغیر وابسته طبقه‌ای
507
روش ترجیحی شما برای بررسی همگرایی هنگام استفاده از زنجیره مارکوف مونت کارلو برای استنتاج بیزی چیست و چرا؟
بهترین روش برای بررسی همگرایی در MCMC چیست؟
78178
همواریاسیون و همجنسگرایی چگونه به هم مرتبط هستند؟ در یادداشت های سخنرانی من برای کلاس آمار به ما گفته شده است که یک فرض pf ضریب همبستگی پیرون این است که همواریاسیون باید خطی باشد، که من فرض می کنم باید یکنواخت باشد؟ و برای آزمایش رگرسیون خطی داده ها باید هموسکداستی باشند. این اصطلاحات چگونه به هم مرتبط هستند؟
همواریاسیون و همجنسگرایی چگونه به هم مرتبط هستند؟
71554
من یک سال داده برای اسلات های موجود در یک انبار دارم. برای هر دقیقه از سال یک نقطه داده وجود دارد. * مُهر زمان * اسلات‌های موجود به نظر می‌رسد داده‌ها از الگوی خاصی پیروی می‌کنند، یعنی فضای کمتر در طول ساعات کاری، فضای بیشتر در طول شب و در آخر هفته‌ها. سوال من این است که آیا نظریه احتمال می تواند به من در انجام پیش بینی در اینجا کمک کند؟ چگونه می توانم احتمال خالی، نیمه پر، پر بودن انبار را در طول یک ترکیب زمانی معین / روز هفته محاسبه کنم. به عنوان مثال، * چقدر احتمال دارد که انبار بین ساعت 10 صبح تا 11 صبح روز دوشنبه معمولی پر باشد؟ * چقدر احتمال دارد که انبار در روز پنجشنبه معمولی در ساعت 14 خالی باشد
سوال مبتدی: فضای موجود در انبار
109685
من در تفسیر شانس با مشکلاتی روبرو هستم. من یک رگرسیون لجستیک را برای نتیجه بله یا خیر اجرا می کنم. دسته مرجع من نه است. من 2 متغیر دارم و اینها log(odds) و odds هستند: متغیر A -> یک عدد صحیح با مقادیر 2 تا 80 است. logodds: -0.014078787; شانس: 0.9860199 متغیر B -> یک عدد صحیح با مقادیر 1 تا 30 است. logodds: 0.214099984; شانس: 1.2387465 جمله صحیحی برای تفسیر این شانس ها چیست؟ و چگونه می توانم این را در احتمالات واقعی تبدیل کنم؟ من می خواهم چیزی شبیه این بگویم: هر نقطه اضافی از متغیر A باعث کاهش x در احتمال رفتن از نه به بله می شود اگر من exp(coef(model)) /(1+exp(coef( مدل))) برای متغیر A 0.49 به دست می آید. این احتمال درسته؟ آیا درست است که بگوییم هر نقطه از متغیر A احتمال را 0.01٪ کاهش می دهد من واقعاً در این مورد گیج هستم بنابراین از هر کمکی تشکر می کنم!
تفسیر شانس در رگرسیون لجستیک
112025
من اخیراً یک تخمین GMM انجام داده ام، مشکل من این است که همه آمارهای J 0.0000 هستند. این بدان معناست که IV به درستی بیش از حد اصلاح شده است یا مدل به خوبی مشخص نشده است. من از تاخیرهای یک دوره ای متغیرهای مستقل به عنوان فاصله استفاده کردم. آیا فقط باید گزارش کنم که مدل GMM به اشتباه مشخص شده است یا حتی اگر J stat 0.0000 باشد، می توانم در مورد ضرایب استنباط کنم؟
مشکل جی استات، GMM
109935
من سعی می کنم یک سیستم توصیه بر اساس خرید ایجاد کنم. من چند آزمایش انجام دادم و متوجه شدم که برای برخی از گروه‌های مشتریان، توصیه‌کننده بسیار خوب کار می‌کند، اما برای برخی دیگر نه. چگونه می توانم یک رویکرد خوشه بندی یا یک متغیر نمایه را در یک الگوریتم فیلتر مشارکتی مبتنی بر آیتم پیاده سازی کنم؟
متغیر نمایه در فیلترهای مشارکتی
15157
در ادامه پست‌های قبلی‌ام، تا جایی که متوجه شدم، اگر سه ضریب همبستگی داشته باشم، باید آنها را به صورت جفت تست کنم تا ببینم تفاوت معنی‌داری بین آنها وجود دارد یا خیر. این به این معنی است که من باید از تبدیل فیشر برای محاسبه امتیاز z از r و سپس مقدار p از z (که خوشبختانه ماشین‌حساب‌های توصیه شده در پست‌های قبلی انجام می‌دهند) استفاده کنم و سپس مشخص کنم که آیا مقدار p بالاتر است یا کمتر از مقدار آلفای من (0.05) برای هر جفت. یعنی اگر 21 تا 30 سال گروه سنی 1 باشد، 31 تا 40 سال گروه سنی 2 و 41 تا 50 سال گروه سنی 2 باشد، مقایسه من از همبستگی بین عادات خرید آنها و کاهش وزن این خواهد بود: * گروه 1 در مقابل گروه 2 * گروه 1 در مقابل گروه 3 * گروه 2 در مقابل گروه 3 به جای انجام سه محاسبه جداگانه، آیا وجود دارد. چگونه می توان همه این محاسبات را در یک مرحله انجام داد؟
آزمون اهمیت سه یا چند همبستگی با استفاده از تبدیل فیشر
112020
در این مقاله، نویسندگان عدم همبستگی را به روش زیر تعریف کردند: اجازه دهید $\mathbf{X}=(X_1,...,X_n)$, و $\mathbf{Y}=(Y_1,...,Y_n)$ ، جایی که $X_i\sim X$ و $Y_i\sim Y$. $\mathbf{X}،\mathbf{Y}$ همبستگی ندارند اگر $(\mathbf{X}-\bar{X}\mathbf{1})'(\mathbf{Y}-\bar{Y}\mathbf {1})=0$، جایی که $\bar{X}=1/n \sum X_i$ و $\mathbf{1}=(1,...,1)$. سوال من این است که چه ارتباطی بین این تعریف از عدم همبستگی و تعریفی که معمولاً استفاده می شود (من فکر می کنم) وجود دارد، ماتریس کوواریانس (برای بردارها r.v.) - ماتریسی که در آن هر ورودی $(i,j)$ $\text{Corr است. }(X_i,X_j)$ - ماتریس هویت بودن؟ هر گونه کمکی قدردانی خواهد شد.
تطبیق دو تعریف از ناهمبستگی
40869
این لینک پخش زنده صوتی از گیرنده VLF است http://67.207.143.181/vlf19.m3u من باید روش وارد کردن پخش زنده را بدانم. اگر R برای چنین پردازش سیگنالی مناسب نیست، لطفاً جایگزین هایی برای پردازش و تجسم داده های زنده پیشنهاد کنید.
وارد کردن جریان صدای زنده در R
88509
در شکل زیر، من به صورت دستی یک راه حل تقریبی برای برازش حداقل مربعات مناطق مرتبط با خطوط سیاه ترسیم کرده ام. به نظر می‌رسد که داده‌ها با دو مجانب (y=-18 و y = -75) محدود می‌شوند، که من از آنها برای مکان‌یابی مناطق استفاده می‌کنم. 1) روشی برای یافتن این مجانب و سه ناحیه مرتبط چیست؟ 2) آیا نام خاصی برای این نوع معادله تکه ای وجود دارد که حاصل برازش LS بر روی داده های هر منطقه باشد؟ ![model](http://i.stack.imgur.com/5z7gA.png)
پیدا کردن خوشه هایی برای برازش حداقل مربعات و تولید یک معادله تکه ای