_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
97220
من یک جدول دو ستونی دارم که شامل «تاریخ»، «شناسه_کاربر» است. من می‌خواهم شبکه‌ای را با «تاریخ» در امتداد محور «x» و «شناسه_کاربر» در امتداد «y» تجسم کنم. اگر «تاریخ»، «user_id» وجود داشته باشد، می‌خواهم یک شبکه با رنگ، مثلاً سبز، نشان دهم. اگر «تاریخ»، «user_id» وجود نداشته باشد، می‌خواهم یک شبکه به رنگ سفید نشان دهم. اگر «تاریخ»، «user_id» چندین امتیاز نشان داده شود که منجر به رنگ سبز تیره‌تر می‌شود. چه ابزاری، ترجیحا رایگان و آنلاین، برای تجسم این داده ها به روشی که توضیح دادم مناسب تر است؟ سوال بعدی: کدام ابزارهای دیگر در تجسم داده های سری زمانی رویدادهای کاربر به عنوان یک تقویم خوب هستند؟ چیزی مانند: https://developers.google.com/chart/interactive/docs/gallery/calendar
تجسم تقویم
97223
من در مورد خروجی ای که برای تجزیه و تحلیل شبکه عصبی دریافت می کنم سردرگم هستم. کاری که من سعی می کنم انجام دهم این است که ویژگی های features.csv را دریافت کرده و از آنها برای ایجاد یک شبکه عصبی برای پیش بینی متغیر Murder.per.100.000 استفاده کنم. ستون اول یک برچسب برای هر مشاهده است، بنابراین من آن را حذف می کنم. مشکلی که من دارم این است که «preds» بردار «NA» است. برخی از ویژگی های من کم است. من فرض می کنم که با مقادیر از دست رفته به درستی برخورد نمی کنم. چطور باید درستش کنم؟ وقتی آن را به ویژگی‌های غیر پراکنده محدود می‌کنم، «preds» از همان مقدار تقریباً نزدیک به 1 تشکیل می‌شود که درست به نظر نمی‌رسد. library('nnet') dat = read.table(features.csv, sep=,, header=TRUE) # remove observation label dat = dat[ ,-c(1)] nData = dim( dat )[ 1] trainInd = نمونه ( (1: nData), 300 ) # ایجاد داده های آموزشی: trainData = dat[ trainInd, ] # ایجاد آزمایش و اعتبار سنجی مجموعه داده: notTrainData = dat[ -trainInd, ] nData = dim( notTrainData )[1] valInd = نمونه ( (1:nData), nData/2 ) testData = notTrainData[-valInd,] valData = notTrainData[valInd,] = net nnet(Murder.per.100.000 ~ ., data=trainData, size=5, rang=.1, decay=5e-4, maxit=200, na.action=na.exclude) preds = predict(object=net, newdata=valData)
فکر کردن به شبکه های عصبی
107427
من یک مجموعه داده دارم که سعی می کنم آن را در R تجزیه و تحلیل کنم و نسبتاً در محیط جدید هستم. مجموعه کامل داده‌های من شامل 7 آزمودنی است (به نمایندگی از سوژه)، که همگی 3 درمان دریافت می‌کنند (شرایط محیطی، نشان‌دهنده ارتفاع) و 10 بار در هر درمان اندازه‌گیری می‌شوند. هر شرکت کننده هر درمان را به ترتیب متفاوتی دریافت کرد. یک مثال: ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/lHITL.jpg) من همچنین ویژگی هایی در مورد هر سوژه دارم که ممکن است بر تلاش قدرت آنها تأثیر بگذارد، از جمله وزن، تست های ظرفیت و سن. من به تأثیر هر محیط بر نتایج اسپرینت، به علاوه تأثیر نظم بر روی قدرت علاقه مند هستم. من معتقدم یک مدل ترکیبی خطی، با موضوع به عنوان یک اثر تصادفی، ابزار مناسبی برای بررسی مجموعه داده من است. من این کار را با استفاده از خط زیر انجام داده‌ام: alt.model = lmer(Power ~ Sprint + Altitude + VO2max + (1|Subject)، data=ALTMM) با این حال، فکر نمی‌کنم این برای هر اسپرینت جداگانه باشد. چگونه این را نمایندگی کنم؟ متشکرم.
اندازه‌گیری‌های مکرر، تحلیل متقاطع با استفاده از مدل خطی مختلط در R
99040
در شرایطی که آزمون t واریانس نابرابر مناسب است، اگر از آزمون t واریانس مساوی استفاده کنیم، خطای نوع I افزایش می یابد. من یک آزمون نسبت درستنمایی (LRT) معادل آزمون t واریانس نابرابر ایجاد کردم، اما به دلایلی، عملکرد ضعیفی دارد (یعنی بدتر از آزمون t واریانس مساوی). این مشکل باقی می ماند حتی اگر حجم نمونه را به نسبت بزرگ افزایش دهم (100=n). من نمی خواهم فقط به دلیل اندازه نمونه باشد... NL0 <- تابع(p,x1,x2){ l1 <- -sum(dnorm(x1,p[1],p[2],log =T)) l2 <- -sum(dnorm(x2,p[1],p[3],log=T)) l1+l2 } NL1 <- تابع(p,x1,x2){ l1 <- -sum(dnorm(x1,p[1],p[3],log=T)) l2 <- -sum(dnorm(x2,p[2],p[4],log=T)) l1+l2} nsim <- 1000 out1 <- out2 <- out3 <- rep(NA,nsim) n1 <- n2 <- 20 m1 <- m2 <- 100 s1 <- 1 s2 <- 10 برای (i در 1:1000){ x1 <- rnorm(n1,m1,s1) x2 <- rnorm(n2,m2,s2) L0 <- Optim(c(mean(c(x1,x2)),sd(x1),sd(x2)),NL0,x1=x1,x2=x2)$value L1 <- optim(c(mean(x1),mean (x2),sd(x1),sd(x2)),NL1,x1=x1,x2=x2)$value # آمار تست D <- 2*(L0-L1) out1[i] <- t.test(x1,x2,var.equal=TRUE)$p.value out2[i] <- t.test(x1,x2,var.equal=FALSE )$p.value out3[i] <- 1-pchisq(D,1) } mean(out1<0.05) # آزمون t واریانس برابر میانگین (05/0<2<) # آزمون تی واریانس نابرابر میانگین (05/0>3) # آزمون نسبت درستنمایی
خطای نوع I در تست های t و LRT
107424
من سعی می کنم یک تجزیه و تحلیل ساییدگی را روی یک شرکت با اندازه متوسط ​​بین 250 تا 300 انجام دهم. من داده های ساییدگی ماهانه برای 30 ماه گذشته یا بیشتر دارم. حالا اگر بخواهم به سراغ یک رویکرد پیش بینی بروم که بتوانم ساییدگی را برای چند ماه آینده پیش بینی کنم، مثلاً 3 ماه، که کدام یک بهترین رویکرد خواهد بود. پس از چند تحقیق، من بین توزیع پواسون و تحلیل سری های زمانی دستکاری می کنم. کدام روش بهتر است؟ و چرا
از چه رویکردی برای تحلیل ساییدگی استفاده کنیم؟
112377
من یک قاب داده، 1447 obs از 165 متغیر دارم، و به دنبال اضافه کردن ستون ها با پردازش ستون های موجود هستم. من دارم: resvar <- 111 # ستون تعداد متغیر پاسخ (مثلاً CPUE) در «نمونه‌ها» (قاب داده) و به دنبال log1p آن ستون، 111، سطر به ردیف، به ستون جدیدی به نام «grv» هستم. در انتهای نمونه ها: samples$grv <- log1p(samples[resvar]) اما خروجی را در ستون grv، ردیف قرار می دهد. 1، به عنوان ``c(item1,item2,...item1447)` class(log1p(samples[resvar])) = data.frame آیا کسی می داند چه خبر است و چرا کار نمی کند؟ اگر من ساختگی را انجام دهم <- log1p(samples[resvar]) 'dummy' یک data.frame با نام ردیفی است که همان نام ردیف از resvar، نام ردیف ستون 111 است. آیا مشکل این است؟
(R) همه داده‌ها وارد ردیف اول ستون جدید قاب داده می‌شوند
112379
من سعی می کنم نرخ های بازیابی را در داده های خود مدل کنم که در محدوده (-.1، +1) هستند. حدود 8 درصد از مشاهدات من نیز منفی است. به طور کلی، در زیر این فاصله آمده است: RR<0: 8% RR=0: 30% RR>0 و RR<0.95: 53% RR>0.95: 8% بهترین راه برای مدل‌سازی نرخ بازیابی: خطی یا لجستیکی حوادث و محاکمه؟
لجستیک در مقابل رگرسیون خطی برای مدل‌سازی نرخ بازیابی
112375
من باید دو ضریب تعمیم پذیری (G) را برای داده هایی که از دو جمعیت جداگانه هستند مقایسه کنم. ضرایب G نوعی ضریب همبستگی درون طبقاتی (ICC) هستند. ادبیات مربوط به مقایسه آماری ضرایب G از نظر همه حساب‌ها پراکنده است، بنابراین فکر کردم بهترین کاری که می‌توانم انجام دهم، یافتن توصیه‌ای برای مقایسه آماری ICC است. من Fisher's Z را در نظر گرفته ام، اما می دانم که ICC ها به طور معمول توزیع نمی شوند.
چگونه آزمایش کنیم که آیا ICC از گروه های مختلف به طور قابل توجهی متفاوت هستند؟
105482
من rjson را در R نصب کرده‌ام. وقتی می‌خواهم تابعی را از این بسته مانند toJSON فراخوانی کنم، خطایی مانند تابع undefined می‌دهد. اما اگر قبل از فراخوانی تابع از require(rJSON) استفاده کنم، به خوبی کار می کند. بنابراین آیا باید همیشه این کار را انجام دهم؟ با تشکر
آیا پس از نصب یک بسته در R باید همیشه به آن نیاز داشته باشیم؟
105486
اگر یک r.v پیوسته داشته باشیم. x$$ و r.v گسسته. $y$ که یکی از دو مقدار $y_1$ و $y_2$ را می گیرد. فرض کنید احتمالات قبلی $P(y_1)$ و $P(y_2)$ را می‌دانیم. از قضیه بیز می دانیم $p(y_i,x) = P(y_i|x)\cdot p(x)$ $P$ مربوط به prob است. تابع جرم، $p$ مربوط به prob است. تابع چگالی در LHS یک مقدار احتمال داریم که از توزیع پیوسته می آید. در RHS ما حاصل ضرب دو احتمال را داریم که یکی از توزیع گسسته و دیگری از توزیع پیوسته می آید. سوال من این است - چرا عبارت اول در RHS $P(y_i|x)$ است و نه $p(y_i|x)$ (زیرا ممکن است با توجه به $x$، احتمال اینکه $y$ مقداری برابر با $y_i$، ممکن است به آرامی از $0$ تا $1$ متفاوت باشد؟ آیا روش های مختلفی برای نوشتن قضیه بیز وجود دارد که به جای $P(y_i|x)$، $p(y_i|x)$ داشته باشد؟
متغیر مختلط، توزیع مشترک، چگونه بفهمیم کدام توزیع پیوسته، کدام یک گسسته است
40875
من یک برگه متقاطع از یک متغیر طبقه بندی را در برابر یک متغیر ساختگی اجرا می کنم. این متغیر ساختگی وجود یا عدم وجود یک ویژگی شرکت را نشان می دهد (اگر شرکت صنعتی است باید 1 و در غیر این صورت 0 باشد). من در این مورد، هنگام اجرای تست دقیق، باید Exact Sig را در نظر بگیرم. یک طرفه یا دو طرفه؟ با تشکر
در هنگام برخورد با متغیرهای ساختگی کدام یک را در نظر بگیرید: Exact Sig. (دو طرفه) یا Exact Sig. (یک طرفه)؟
14002
PCA و MDS کلاسیک چگونه متفاوت هستند؟ MDS در مقابل غیر متریک-MDS چطور؟ آیا زمانی هست که یکی را بر دیگری ترجیح دهید؟ چگونه تفاسیر متفاوت است؟
تفاوت بین تجزیه و تحلیل اجزای اصلی و مقیاس بندی چند بعدی چیست؟
78190
من در تلاش برای درک اشتقاق فرمول های زیر در سخنرانی خود هستم (متاسفانه بدون هیچ توضیح بیشتر). می گوید که هر خطای پیش بینی جدید به شکل $e(r+1)=y(r+1)-h^T(r+1)\cdot \pi(r)$ است. مشکل، مشکل کوچک‌سازی زیر را ایجاد می‌کند $J(\pi)=\frac{1}{2}\cdot (\pi(r+1)-\pi(r))^T\cdot (\pi(r+1 )-\pi(r)) + \mu \cdot[y(r+1)-h^T(r+1)\cdot \pi(r+1)]$ در سخنرانی گفته شد که شرایط لازم برای دقیقه راه حل عبارتند از: $\dfrac{\partial J}{\partial \pi(r+1)} = \pi(r+1)-\pi(r)-\mu \cdot h^T(r+1) = 0$ $\dfrac{\partial J}{\partial \mu} = y(r+1) - h^T(r+1)\cdot \pi (r+1) = 0$ تا اینجا خوب بوده است. چیزی که من نمی فهمم این است که چگونه می توان جواب زیر را با حل مجموعه معادلات خطی بدست آورد: $\pi(r+1) = \pi(r) + \dfrac{h(r+1)}{ h^T(r+1)\cdot h(r+1)}\cdot [y(r+1)-h^T(r+1)\cdot \pi(r)]$ چگونه این راه حل را دریافت کنم ? هر گونه کمکی بسیار قدردانی می شود
الگوریتم طرح ریزی کازمرز
78198
من مجموعه‌ای از داده‌ها را دارم که نشان‌دهنده گره‌ها و تعداد دفعاتی است که آنها با یکدیگر درگیر شده‌اند. من این را در جدولی شامل گره‌های X و Y پردازش کرده‌ام که داده‌های آن تعداد تعاملات است، به عنوان مثال. A B C D A 2 2 0 0 B 2 2 0 0 C 0 0 2 1 D 0 0 1 2 بنابراین داده ها را می توان به هر طرف نگاه کرد. اکنون می‌خواهم چند خوشه‌بندی از این‌ها را انجام دهم تا خوشه‌هایی از گره‌های مرتبط را از طریق سطح تعاملشان و همچنین برخی تجسم‌سازی پیدا کنم. من R دارم که ایده آل است، اما خوشحالم که اگر راحت تر است از چیز دیگری استفاده کنم. همه خوشه‌بندی‌های for-noddy که من می‌بینم این نوع داده‌ها را ندارند: می‌توان گفت مجموعه‌ای از گره‌ها و برای هر یک مجموعه‌ای از متغیرها و خوشه‌بندی برای شباهت در آن متغیرها است - مشکلی متفاوت از آنچه من تلاش می‌کنم.
خوشه بندی داده ها برای وقوع
105487
هنگامی که از رویکرد بالا به پایین برای القای درخت تصمیم استفاده می کنیم، باید از نوعی معیار تقسیم برای انتخاب ویژگی _splitting_ و _splitting value_ در یک گره داخلی خاص استفاده کنیم. معیارها می تواند این باشد: * IG * IGR * ناخالصی جینی اما انتخاب ویژگی **_بسیار محاسباتی فشرده_** به نظر می رسد. زیرا باید تمام ویژگی های موجود را برشماریم و از تمام مقادیر تقسیم ممکن آن عبور کنیم. و برای هر یک از ویژگی / مقدار تقسیم، باید مقدار معیار را محاسبه کرده و آن را به خاطر بسپاریم و بهترین مقدار را انتخاب کنیم. آیا من در این مورد درست هستم؟ آیا کاری وجود دارد که بتوانیم آن را بهبود بخشیم؟
کارایی درخت تصمیم
91232
چرا از تابع پیوند متعارف به طور مکرر در GLM استفاده می شود؟ چه چیزی آن را طبیعی می کند؟ آیا دلیلی وجود دارد که فکر کنیم، $Q(\theta _i)$ (که در آن $Q$ تابع پیوند متعارف است، و $\theta _i$ پارامتر مورد علاقه است) با ترکیب خطی متغیرهای پیش بینی بهتر از یک تابع دیگر از $\theta_i$. یعنی آیا دلیلی وجود دارد که باور کنیم: $$Q(\theta _i) = \sum_j \beta _j x_{ij}$$ برتر از: $$f(\theta _i) = \sum_j \beta _j x_ {ij}$$ where $Q \neq f$ اگر نه، آیا چیز دیگری وجود دارد که $Q$ را بهتر از $f$ کند؟ کتاب درسی که من استفاده می‌کنم فقط به چیستی تابع پیوند متعارف اشاره می‌کند و از آن استفاده می‌کند (تقریباً منحصراً)، اما توضیح نمی‌دهد که چه چیزی آن را از هر تابع پیوند دلخواه متمایز می‌کند.
چه چیزی عملکرد پیوند متعارف را در GLM ها خاص می کند؟
112086
من با کلمه **نمونه برداری از هر توزیع احتمال P(x)** اشتباه گرفته ام، به این معنی است که از ناآگاهی خود عذرخواهی می کنم، اما، همانطور که فهمیدم، نمونه برداری، مثلا پرتاب کردن یک سکه و نوشتن نتیجه است یک سر بود یا یک دم، x1 {1,0}، خواه آزمودنی چاق، نرمال یا کم وزن، x2 {1=چاق، 2=طبیعی، 3=کم وزنی }، آیا من اشتباه می کنم؟ بنابراین لطفاً به من کمک کنید تا بفهمم « **نمونه‌هایی را از هر توزیع احتمال P(x)** بکشید، به چه معناست؟
ترسیم نمونه با استفاده از الگوریتم متروپلیس-هیستینگ به چه معناست؟
78192
من می خواهم ماتریس کوواریانس کامل یک بردار توزیع شده گاوسی چند متغیره را تخمین بزنم. من یک توزیع گاوسی چند متغیره برای یک بردار $\mathbf{r}=[r_1,..,r_T]^T$ دارم به شکل \begin{align} p(\mathbf{r})&=\sum_{ \boldsymbol{\pi} \in \Omega_{\boldsymbol{\pi}}^T} p(\mathbf{r|\boldsymbol \pi})\prod_{t=1}^T p(\pi_t),\\\ \end{align} متغیر طبقه‌ای پنهان $\boldsymbol{\pi}=[\pi_1,...,\pi_T] $، مقادیری را از یک فضای حالت گسسته می گیرد، به طوری که $\pi_t \in \Omega_{ \pi}: \\{1,...,L\\}$ و بنابراین $\boldsymbol{\pi} \in \Omega_{\pi}^T$. جایی که من ماتریس واریانس را به روش زیر برای سادگی جدا کرده ام: \begin{align} p(\mathbf{r}|\boldsymbol{\pi})=&N_T\left( \begin{bmatrix} \mu_{r_1|\ pi_1}\\\ .\\\ .\\\ .\\\ \mu_{r_T|\pi_T} \end{bmatrix}، \begin{bmatrix} \sigma_{r_1|\pi_1}^2 & & & &0\\\ & .& & & \\\ & & & & \\\ & &.&\. \\0& & & & \sigma_{r_T|\pi_T}^2 \end{bmatrix} \begin{bmatrix} 1 & \vartheta(1) & .& .& &\vartheta(T-1)\\\ \vartheta(1) & 1& & &\\\ .& & & & \\\ .& & &.& \\\\\. vartheta(T-1) & & & & & 1 \end{bmatrix} \right)\nonnumber \\\ \nonumber \\\ =&N_T\left(\boldsymbol{\mu_{r|\pi}},\boldsymbol{\Sigma_{r|\pi}^{\sigma}} \boldsymbol{\Sigma_{r|\pi}^{\vartheta } }\راست)\\\ =&N_T\left(\boldsymbol{\mu_{r|\pi}},\boldsymbol{\Sigma_{r|\pi}}\right)\\\ \end{align} چگونه ماتریس کوواریانس کامل را پیدا کنم $\mathbf{r}؟$ من \begin{align} var(\mathbf{r}) و = E را امتحان کردم var(\mathbf{r}\mid \boldsymbol{\pi})) + var (E(\mathbf{r} \mid \boldsymbol{\pi}) \\\\[12pt] & = \sum_{\ boldsymbol{\pi} \in \Omega^T} p(\boldsymbol{\pi}) \boldsymbol{\Sigma_{r|\pi}} + \sum_{\boldsymbol{\pi} \in \Omega^T} p(\boldsymbol{\pi}) (\mu_{r|\pi}-\bar{\mu_r})(\mu_{r|\pi }-\bar{\mu_r})^T \end{align} اما در اینجا باید عبارت های L^T را جمع کنید. هر گونه راهنمایی در مورد چگونگی تخمین ماتریس کوواریانس کامل $\mathbf{r}$ بسیار استقبال می شود.
ماتریس کوواریانس کامل توزیع گاوسی مخلوط چند متغیره
113972
من سعی می‌کنم نابرابری زیر را اثبات کنم: ویرایش: تقریباً بلافاصله پس از ارسال این سؤال، متوجه شدم که نابرابری که از من خواسته می‌شود اثبات کنم، نامساوی Cantelli است. وقتی این را نوشتم، متوجه نشدم که این نابرابری خاص نامی دارد. من شواهد متعددی را از طریق گوگل پیدا کرده‌ام، بنابراین به طور دقیق دیگر نیازی به راه‌حل ندارم. با این حال، من این سوال را ادامه می‌دهم زیرا هیچ یک از شواهدی که پیدا کردم شامل استناد به این واقعیت نیست که $t=E(t-X)\leq E[(t-X)\mathbb{I}_{X<t}]$، به عنوان در ابتدا در نظر گرفته شده بود. برای $t \geq 0$, $\mathbb{P}(X-E(X)\geq t)\leq \frac{V(X)}{V(X)+t^2}$ استاد ما موارد زیر را به ما داد نکات برای حل این موضوع: ابتدا مشکل را با فرض $E(X)=0$ حل کنید سپس از این واقعیت استفاده کنید که $t=E(t-X)\leq E[(t-X)\mathbb{I}_{X<t}]$. ویرایش: برای روشن بودن، در نماد من، $\mathbb{I}$ به تابع نشانگر اشاره دارد. بخش اول بسیار ساده است. این اساساً نوعی اثبات برای نابرابری مارکوف یا چبیچف است. من این کار را به صورت زیر انجام دادم: $V(X)=\int_{-\infty}^{\infty}(x-E(X))^2f(x)dx$ (من می دانم که، به درستی، باید $ را جایگزین کنیم به عنوان مثال، x$ با $u$ و $f(x)$ با $f_x(u)$ هنگام ارزیابی یک انتگرال، صادقانه بگویم، به نظر من این نماد/قرارداد درست است بی جهت گیج کننده و خیلی شفاف نیست، بنابراین من به نماد غیررسمی تر خود پایبند هستم.) اگر $E(X)=0$ را فرض کنیم، آنگاه حالت فوق به $V(X)=\int_{-\infty}^{ ساده می شود. \infty}x^2f(x)dx$ برای اختصار، برخی از مراحل را رد می‌کنم، اما به راحتی می‌توان نشان داد که $V(X)\geq t^2 P(X>t)$ یا بهتر بگوییم $P(X>t)\leq \frac{V(X)}{t^2}$. از آنجایی که $E(X)=0$، می توانیم $X$ در سمت چپ دومی را با $X-E(X)$ جایگزین کنیم. اینجا جایی است که من برای حرکت رو به جلو مشکل دارم. من نمی‌دانم چگونه می‌توان از این واقعیت استفاده کرد که $t=E(t-X)\leq E[(t-x)\mathbb{I}_{X<t}]$. باز هم، از آنجایی که $E(X)=0$، می‌توانیم $t-E(X)$ را جایگزین $t$ کنیم. این معادل $E(t-X)$ است. سپس، می‌توانیم $t^2$ را در مخرج سمت راست نابرابری به صورت $[E(t-X)]^2$ بازنویسی کنیم، که از آنجایی که عبارت میانی خارج می‌شود به $t^2-[ ساده می‌شود. E(X)]^2$. اما نمی‌دانم از اینجا به کجا می‌توانم بروم. اگرچه می‌توانید این را به‌عنوان $t^2+V(X)-E(X^2)$ بازنویسی کنید، که حداقل عبارت $V(X)+t^2$ را در جای مناسب دریافت می‌کند. واضح است که من چیزی را در اینجا گم کرده ام، مربوط به $E(t-X) \leq E[(t-X)\mathbb{I}_{X<t}]$، اما کاملاً صادقانه بگویم که نمی دانم با این اصطلاح چه کنم . من از نظر مفهومی می فهمم که این اصطلاح به من چه می گوید. به طور شهودی، مقدار مورد انتظار $t-X$ کوچکتر از مقدار مشابه خواهد بود اگر $X$ محدود به کمتر از $t$ باشد. یعنی عبارت اول احتمالاً منفی است، در حالی که دومی باید مثبت باشد. اما نمی‌دانم چگونه می‌توانم از این واقعیت در اثبات استفاده کنم. من سعی کردم توزیع را در داخل برای ساده کردن ... $E[(t-X)\mathbb{I}_{X<t}]=E[t\mathbb{I}_{X<t} - X\mathbb {I}_{X<t}]=tP(X<t)-?$ اما مطمئن نیستم که چگونه $E(X\mathbb{I}_{X<t}]$ را ارزیابی کنم. هر کسی ایده یا ایده ای دارد الف اشاره؟
اثبات نابرابری کانتلی
112085
من برای تکلیف تجزیه و تحلیل داده هایم به کمک نیاز مبرم دارم! من یک آنوا مختلط 3 طرفه دارم - که در آن 2 اثر اصلی sig، یک تعامل دو طرفه قابل توجه و تعامل سه طرفه sig دارم. استنتاج‌ها را در جدول قرار داده‌اند) پس از به دست آوردن روش sig 3، با استفاده از دستور EMMEANS (طبق جزوه‌ای که دریافت کردم)، یک آزمون تعقیبی برای مقایسه میانگین‌ها انجام دادم. از آنجایی که آنووا n2 جزئی می دهد، من می دانم که چگونه جلوه های اصلی و تعامل را به eta n2 تغییر دهم (با استفاده از جدول جلوه های داخلی و جدول بین افکت ها مشخصاً بسته به نوع فاکتور آن است) اما با مقایسه های زوجی که از آن گرفتم. انجام دستور EMMEANS 'EMMEANS = TABLES (نوع*wggroup*تطبیق) COMPARE (تطبیق) /EMMEANS = TABLES (wggroup*type) COMPARE (نوع) چگونه n2 جزئی را در جدول چند متغیره به eta n2 تغییر دهم؟ از آنجایی که من اکنون برای مقایسه های زوجی در متن خود استنباطی را دارم، اما نمی توانم اندازه افکت را از جدول چند متغیره به eta n2 تبدیل کنم تا آن را به درستی تفسیر کنم، تنها جداولی که از EMMEANS داده می شود، مقایسه های زوجی است (که ندارد. استنتاج ها) و سپس در زیر آن جدول چند متغیره (با استنباط) قرار دارد با تشکر!
ANOVA ترکیبی 3 راه و اندازه اثر مقایسه زوجی
113971
بگویید من داده‌های طبقه‌بندی شده بر اساس وضعیت سیگار کشیدن دارم، که در آن $Y=1$ سرطان ریه است، $Y=0$ سرطان ریه ندارد، و در نهایت $D=1$ الکل می‌نوشد، و $D=0$ ندارد. الکل ننوشید چگونه $P(Y=1| D=1، S=1)$ را تخمین بزنم؟ من معتقدم از این فرمول پیروی می کند (http://math.stackexchange.com/questions/419408/how-to-compute- conditonal-probability-on-multiple-conditions-on-the-right-side) ابتدا به سیگاری ها نگاه می کنم نمودار- و زیر $Y=1$ & $D=1$ می بینم که عدد 24$ است. آیا این بیش از احتمال D=1$ و $S=1$ است، پس اکنون 24$/(24+776)=24/800$ است؟ و در نهایت $P(Y=1|D=0, S=0)= 21/(21+2079)=21/2100$؟ **سیگاری ها ($S=1$):** | Y=1 Y=0 ------------------ D=1 | 24 776 D=0 | 6 194 ** غیر سیگاری ها ($S=0$):** | Y=1 Y=0 ----------------- D=1 | 9 891 D=0 | 21 2079
تخمین احتمالات از جدول طبقه بندی شده
80437
من در مورد کاهش ابعاد و خوشه بندی گیج شده ام. آیا همه الگوریتم‌های خوشه‌بندی (k-means، انتشار قرابت، خوشه‌بندی طیفی،...) نوعی کاهش ابعاد را انجام می‌دهند؟
رابطه بین کاهش ابعاد و الگوریتم های خوشه بندی
67238
متاسفم که ممکن است سوال احمقانه به نظر برسد، اما من در حال حاضر واقعا گیج هستم. برای شناخت بهتر آمار، یک مطالعه موجود (همان سوالات) را تکرار کردم و نظرسنجی را انجام دادم (66=n). من همبستگی ها را محاسبه کردم (دو متغیره پیرسون، 2 طرفه) و نتایج آماری معنی داری یافتم. متأسفانه، برخی از نتایج من در جایی که اولین مطالعه (که تکرار کردم) نتایج قابل توجهی پیدا کرد، ناچیز است. در مورد آن چه می توانم بگویم (علاوه بر این که باید فرضیه را رد کنم و برای به دست آوردن نتایج قابل توجهی به حجم نمونه بزرگتری نیاز دارم)؟ آیا مطالعه اول اشتباه است؟
همبستگی معنی دار نیست - تفسیر؟
101125
آیا تحلیل عاملی با استفاده از روش مؤلفه اصلی همانند تحلیل مؤلفه اصلی است؟
تحلیل عاملی با استفاده از روش مؤلفه اصلی
1576
به نظر می رسد تعدادی از بسته های آماری که من استفاده می کنم این دو مفهوم را در کنار هم قرار می دهند. با این حال، من متعجبم که آیا فرضیات یا تشریفات داده های متفاوتی وجود دارد که برای استفاده از یکی بر دیگری باید درست باشد. یک مثال واقعی فوق العاده مفید خواهد بود.
تفاوت بین تحلیل عاملی و تحلیل مؤلفه اصلی چیست؟
3368
فرض کنید من سه سری زمانی با طول یکسان و بازه زمانی یکسان دارم. اگر من هر یک از سه سری زمانی را از طریق درون یابی نمونه برداری کنم، باعث ایجاد نام مستعار می شود. با این حال، اگر من به اطلاعات تعبیه شده در میانگین سه سری زمانی علاقه مند باشم، آیا چنین نمونه گیری موجهی است؟ به عبارت دیگر، آیا بالا بردن و سپس میانگین گیری در بین سه سری زمانی فرکانس Nyquist را سه برابر افزایش می دهد؟ با تشکر
آیا میانگین گیری در چند سری زمانی فرکانس Nyquist بالاتری را ارائه می دهد؟
113438
اگر بقایای یک ARIMA(p,d,q) با پارامترهای شناخته شده داشته باشیم، چگونه می توانیم مشاهدات اصلی سری زمانی را بازیابی کنیم؟
چگونه می توان مشاهدات را از باقیمانده ها در یک مدل ARIMA بدست آورد؟
67237
من باید فرضیه خود را اثبات کنم: تأثیر نسبی پیوندهای مستقیم بر نتیجه پروژه با رشد شبکه پیوندهای مستقیم کاهش می یابد. بنابراین من IV (اندازه شبکه) و DV (نتیجه) دارم. من با رگرسیون ثابت کرده‌ام که IV یک پیش‌بینی‌کننده مهم نسبت به DV است. با این حال، چگونه می توانم ثابت کنم که اثر با رشد IV کاهش می یابد؟
اثر پوسیدگی IV بر DV. چگونه تحلیل کنیم؟
104998
من مجموعه داده ای دارم که دارای باکتری های مختلف در انواع مختلف موش است. فرض کنید به موش ها می گویند: sw/c57، sw/sw، c57/c57 و c57/sw. نمونه مدفوع این موش ها مورد تجزیه و تحلیل قرار گرفته و تعداد باکتری های موجود در نمونه مدفوع آنها در دسترس است. اکنون می‌خواهم آن باکتری‌هایی را پیدا کنم که در هر یک از انواع موش‌ها تفاوت چشمگیری دارند. به عنوان مثال Prevotela در c57/c57 به طور قابل توجهی در مقایسه با موش های دیگر متفاوت است. نمونه ای از مجموعه داده من: sw/sw sw/c57 c57/c57 c57/sw Roseburia 500 141 0 589 Prevotela 300 131 237 288 هر نوع موش دارای 10 تکرار است. از چه نوع آزمون آماری برای تجزیه و تحلیل داده های خود استفاده کنم؟ با تشکر
کدام آزمایش آماری برای مشکل بیولوژیکی من بهترین است؟
104996
دو متغیر تصادفی $X$ و $Y$ را تصور کنید که با $\rho = 1$ همبستگی دارند. هر دو دارای میانگین 100 دلار و انحراف استاندارد 40 دلار هستند. دو متغیر تصادفی دیگر $U$ و $V$ در $\rho=0.8$ همبستگی دارند. هر دو دارای میانگین 0 دلار و انحراف استاندارد 20 دلار هستند. حالا، نمی دانم آیا فرمولی برای محاسبه همبستگی $A = X+U$ و $B=Y+V$ وجود دارد؟ $\text{cor}(X,U)=\text{cor}(X,V)=\text{cor}(Y,U)=\text{cor}(Y,V)=0$ هرگونه ایده چگونه $\text{cor}(A,B)$ را محاسبه کنیم؟ پیشاپیش ممنون
همبستگی دو مجموع متغیرهای تصادفی
67236
من مدل‌هایم را اعتبار متقاطع کرده‌ام و RMSE را بین مقادیر مدل‌سازی‌شده و واقعیت اندازه‌گیری کرده‌ام: RMSE <- تابع(err) sqrt(mean(err^2)) RMSE(پیش‌بینی شده - واقعیت) من قصد دارم مدلی با کمترین RMSE انتخاب کنم. اما من می خواهم بدانم چه تفاوتی در RMSE هنوز قابل توجه است. حدس می‌زنم می‌توانم مقایسه‌های F-test انجام دهم، اما از آنجایی که ده‌ها مدل دارم، از ایده مقایسه‌های زوجی خوشم نمی‌آید. این من را به سوال ## # سوق می دهد که چگونه می توان تابع RMSE من را برای محاسبه SE از RMSE گسترش داد؟ چگونه این کار را در R انجام دهیم؟ من حدس می‌زنم که این به نوعی مبتنی بر توزیع Chi-square باشد که با «طول(خطا)» پارامتر شده است و شاید به نوعی با «sd(err)» (؟) مقیاس‌بندی شود، اما من نمی‌دانم چگونه از نظر آماری این را به درستی در R ایجاد کنم.
SE از RMSE در R
3362
من می‌خواهم تأثیر اجرای سیاست‌های آتی را که با تغییرات در پاسخ پرسشنامه به سؤالی در مقیاس لیکرت اندازه‌گیری می‌شود، ارزیابی کنم. می‌دانم که می‌توانم از رویکرد تفاوت در تفاوت استفاده کنم. با این حال، در وضعیت من، هیچ مقایسه واضحی وجود ندارد، جمعیت درمان نشده. فکر می‌کنم می‌خواهم از روش کنترل مصنوعی برای مطالعات موردی مقایسه‌ای که توسط Abadie و همکارانش توضیح داده شده و به عنوان Synth در R. پیاده‌سازی شده است استفاده کنم. * Alberto Abadie، Alexis Diamond، Jens Hainmueller. مجله انجمن آمار آمریکا. 1 ژوئن 2010، 105(490): 493-505. doi:10.1198/jasa.2009.ap08746. متن کامل همانطور که در R help for synth خلاصه شده است: > synth اثر یک مداخله مورد علاقه را با مقایسه > تکامل یک نتیجه کل برای یک واحد تحت تأثیر مداخله با > تکامل همان نتیجه کل برای یک کنترل مصنوعی برآورد می کند. گروه synth این گروه کنترل مصنوعی را با جستجوی یک ترکیب وزن دار از واحدهای کنترل انتخاب شده برای تقریب واحد تحت تأثیر مداخله از نظر پیش بینی کننده های نتیجه می سازد. تکامل نتیجه برای گروه کنترل مصنوعی حاصل، تخمینی از خلاف واقع آن چیزی است که در غیاب مداخله برای واحد آسیب دیده مشاهده می شد. [..] تابع synth به طور معمول به جستجوی > مجموعه ای از وزنه ها می پردازد که بهترین ترکیب محدب برازش واحدهای کنترل را ایجاد می کنند. به عبارت دیگر، ماتریس وزن پیش‌بینی‌کننده V از بین همه ماتریس‌های مورب قطعی مثبت انتخاب می‌شود به طوری که MSPE برای دوره قبل از مداخله به حداقل می‌رسد. همچنین خلاصه مفید سریکانت وادالی را در پاسخ های زیر ببینید. آیا این روش برای داده های نظرسنجی/نمونه گیری مناسب است؟ آیا کاری وجود دارد که باید به طور متفاوت انجام دهم یا فقط از میانگین پاسخ لیکرت به عنوان متغیر وابسته استفاده کنم؟ پیشنهادی در مورد اینکه چگونه می توانم چنین جانوری را قدرت دهم؟ متشکرم!
آیا می توانم از روش کنترل مصنوعی برای مطالعات موردی مقایسه ای با داده های نظرسنجی استفاده کنم؟
104994
اجازه دهید $X$ یک متغیر تصادفی با ارزش واقعی با تابع مشخصه $\phi$ را نشان دهد. فرض کنید $g$ یک تابع با ارزش واقعی در $\mathbb{R}$ است که دارای نمایش $\hspace{25mm}g(x) = \int_{-\infty}^{\infty}G(t) است. \exp(itx)\,dt$ برای برخی $G$ راضی کننده است $\hspace{25mm}\int_{-\infty}^{\infty}|G(t)|dt < \infty$ ثابت کنید که $\hspace{15mm}$$E[g(X)] = \int_{ -\infty}^{\infty}G(t)\phi(t) dt$ تلاش: $\hspace{15mm}$$E[g(X)] = \int_{-\infty}^{\infty}G(t)\exp(itX)\cdot p(x) dx$ از $\int_{-\infty}^{\infty}\exp(itX)\ cdot p(x) dx$ = $E[\exp(itX)] = \phi(t)$، سپس داریم $\hspace{15mm}$$E[g(X)] = \int_{-\infty}^{\infty}G(t)\phi(t) dt$
ثابت کنید که $E[g(X)] = \int_{-\infty}^{\infty}G(t)\phi(t) dt$
30271
من اخیراً در مورد رگرسیون محور اصلی کاهش یافته، با نام رابطه تابعی متوسط ​​هندسی، رگرسیون حداقل محصولات، رگرسیون مورب، خط همبستگی ارگانیک و خط کمترین مساحت ها آشنا شدم (به ویکی پدیا مراجعه کنید). ایده این است که برای یک رگرسیون OLS تک متغیره سنتی (y=a+bx)، خطاهایی که به حداقل می رسند، فاصله «عمودی» (در امتداد محور y) مشاهدات تا خط رگرسیون است. رگرسیون محور اصلی کاهش یافته فرض می کند که خطاهایی در هر دو y و x وجود دارد. چیزی که به حداقل می رسد، _محصول_ «فاصله y» و «فاصله x» مشاهدات تا خط است. بنابراین در واقع مساحت مثلث بین مشاهده و خط است که به حداقل می رسد. پل ساموئلسون ظاهراً گفت که این یک پسرفت جالب بود. با این حال، درک اینکه چرا و چه زمانی باید از آن استفاده کنم، مشکل دارم. بنابراین، آیا از آن استفاده می کنید؟ چرا؟
چه زمانی باید از رگرسیون محور اصلی کاهش یافته، با نام رابطه تابعی میانگین هندسی استفاده کرد؟
30270
برای مثال، با در نظر گرفتن یک توزیع ساده آلفا-پایدار، توزیع گاوسی معکوس عادی، چگونه می توان تابع درستنمایی را استخراج کرد. داده_، به عنوان مثال یک سری قیمت؟
چگونه می توان تابع احتمال یک توزیع را در خانواده پایدار آلفا با توجه به non-i.i.d ساخت؟ داده ها؟
109950
من دو گروه از افراد دارم، یعنی A و B. میانگین ضربان قلب ساعتی ما بین 45 تا 80 ساعت است که طول آن بر اساس افراد متفاوت است. ما به تأثیر گروه*زمان بر ضربان قلب علاقه مندیم. از آنجایی که من تکرارهای متفاوتی برای زمان های مختلف در هر موضوع دارم، شناسه موضوع یک اثر تصادفی در نظر گرفته می شود. من lme را در R و fit model را در JMP امتحان کردم، اما نتایج متفاوتی دریافت کردم، اثر، مانند زمان 10، 11، یا اصطلاحات تعامل، مانند group[A]*time[3]، group[A]*time [4]، در خروجی های JMP قابل توجه هستند، در حالی که در R نه. آیا کسی می تواند به من بگوید که آیا مدل من صحیح است و چرا آنها متفاوت هستند؟ در R، اسکریپت من این است: lme.RR<-lme(meanRR~Group*timeofday, random=~1|SubjectID) (زمان روز به عنوان فاکتور مشخص می شود) در JMP، من Analyze -> fit model را انتخاب کردم، meanRR را انتخاب کردم. به عنوان Y، group، time، group*time در جلوه های مدل، و subjectID را اضافه کنید و آن را به عنوان افکت های تصادفی مشخص کنید. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/QzTHs.png)
نتیجه مدل اثر تصادفی R و JMP
30169
> **تکراری احتمالی:** > دادن جزئیات بیشتر به آخرین پستم: من خیلی گم شده ام و نمی دانم از کدام > تست ها استفاده کنم یا چگونه داده ها را در SPSS وارد کنم. آزمایشی را با استفاده از طرح درون آزمودنی ها و 2x2 انجام دادم. طراحی عوامل ثابت طبقه‌ای با DV طبقه‌ای (هر موضوعی در هر شرایطی بود). من نمی دانم از چه تستی استفاده کنم. ممنون از کمکت امیلی
از چه تحلیلی برای یک DV طبقه بندی شده و یک طراحی درون سوژه استفاده کنیم؟
30274
من نتایج زیر را از یک آزمایش گرنجر دارم. کسی می تواند به من بگوید چگونه آنها را تفسیر کنم؟ من درک می کنم که p.val(ue) < 0.05 برای رد فرضیه صفر معنی دار است. اما آیا ftest یا r2 (مربع) اطلاعات اضافی اضافه می کنند؟ A g-cause B ftest = 7.523583 p.val = 0.006165445 R2 = 0.005235041 ftest = 5.535103 p.val = 0.004030749 R2 = 0.007986544 p.test 7 = 2.8 0.01242363 R2 = 0.008143064 B g-cause A ftest = 0.3040705 p.val = 0.5814277 R2 = 0.0002147836 ftest = 0.5627182 p.val = 0.5627182 p.val = 0.506 R. ftest = 2.365794 p.val = 0.0693209 R2 = 0.005935409
تفسیر آزمون گرنجر/والد
30278
من یک مبتدی هستم -- در توضیح بیش از حد دریغ نکنید. من باید از توزیع نمونه یک متغیر پیوسته (که هنوز به عنوان یک متغیر گسسته ترتیبی مفید است) استنباط هایی در مورد توزیع جمعیت انجام دهم. آنچه من می خواهم یک نوار اطمینان در تابع احتمال و روش مناسب برای بدست آوردن چگالی در یک بازه (یا جرم) معین با یک نوار اطمینان است. من به این فکر کردم که متغیر را به‌عنوان ترتیبی-گسسته در نظر بگیرم و تخمین‌های تناسبی را در تمام سطوح انجام دهم (مراقبت از 0 «موفقیت»). همانطور که گفتم، من یک مبتدی هستم، اما احساس می کنم این بسیار اشتباه است. منطقه/روش چیست که باید کاوش کنم؟ به نظر می‌رسد که باندهای اطمینان چگالی تخمینی (با فرض اینکه این چیزی است که من نیاز دارم) نسبتاً جدید هستند - امیدوارم چیزی رایج باشد.
نوار اطمینان برای توابع جرم یا چگالی احتمال
4272
در چه شرایطی باید به جای OLS از روش‌های منظم‌سازی (ریج، کمند یا رگرسیون حداقل زاویه) استفاده کرد؟ در صورتی که این به هدایت بحث کمک کند، علاقه اصلی من بهبود دقت پیش‌بینی است.
چه زمانی از روش های منظم سازی برای رگرسیون استفاده کنیم؟
4279
من می خواهم یک برنامه وب با استفاده از R بسازم. من از ویندوز ویستا استفاده می کنم و یک سرور آپاچی دارم. من Rpad را امتحان کردم، اما نتوانستم آن را به درستی پیکربندی کنم. چگونه Rpad را راه اندازی کنم زیرا با PHP و سرور آپاچی چندان خوب نیستم؟ یا راه های دیگری برای استفاده از R در سرور آپاچی وجود دارد؟
چگونه می توانم R را با PHP ادغام کنم؟
109953
در پایگاه داده MySQL یک جدول با یک ستون عددی مقدار وجود دارد. من می خواهم توزیع این مقادیر را به صورت نمودار میله ای/هیستوگرام با شرایط زیر رسم کنم: * باید حداکثر N میله (فاصله) در نمودار وجود داشته باشد * عرض هر میله (محدوده محور x) باید یکنواخت باشد. و ارتفاع هر نوار باید تعداد مقادیر این بازه را منعکس کند. * نقاط انتهایی نوار باید در اعداد گرد باشد. می‌دانم که این یک الزام نسبتاً مبهم است، اما امیدوارم مثال زیر منظور من را نشان دهد * فواصل زمانی باید به هم پیوسته باشند، به عنوان مثال. بازه بعدی باید از جایی شروع شود که فاصله قبلی به پایان رسیده است * در حالت ایده آل باید بتوان داده ها را با یک پرس و جو بازیابی کرد * اشکالی ندارد که بازه هایی با تعداد (مقدار محور y) 0 ## داشته باشیم، مثال اگر N = 3 و جدول حاوی داده های زیر است +------------+ | ارزش | +------------+ | -49.2 | | -28.2 | | 13.3 | | 23.3 | | 51.4 | | 77.9 | +------------+ در بازرسی، به راحتی می توان دریافت که فواصل {-50..0، 0..50، 50..100} الزامات این مجموعه داده را برآورده می کند و مقدار N. با این حال، من در تلاش هستم تا یک راه حل کلی ارائه دهم که برای هر مقدار N و هر مجموعه داده ای کار کند. این چیزی است که من تاکنون امتحان کرده‌ام: ## محاسبه پهنای بازه زمانی حداکثر و حداقل مقدار را از طریق عبارت زیر دریافت کنید SELECT min(value), max(value), count(*) FROM my_table سپس نتیجه را به این ( روش Groovy/Java) برای محاسبه عرض هر بازه // intervalCount همان چیزی است که من از آن به عنوان عدد صحیح ثابت N یاد می کنم. getRoundedIntervalSize(دقیقه دو برابر، حداکثر دو برابر، عدد صحیح فاصله) {عدد فاصله = Math.ceil((حداکثر - دقیقه) / intervalCount) عدد صحیح roundingScale = Math.log10(intervalSize) - 1 عدد roundNearest = 10 ** گرد کردن مقیاس // اندازه فاصله به نزدیکترین دور نزدیکترین عدد intervalDelta = roundNearest - (intervalSize % roundNearest) intervalSize + intervalDelta } ## دریافت توزیع فرکانس، سپس از عبارت جستجوی زیر استفاده می‌کنم (با مقدار بازگشتی «getRoundedIntervalSize» جایگزین «:groupSize») برای دریافت تعداد مقادیر در هر بازه SELECT floor( مقدار / :groupSize) * :groupSize به عنوان groupLowerLimit، count(*) as groupCount FROM my_table GROUP BY groupLowerLimit ORDER BY groupLowerLimit ASC این حد پایین هر بازه و تعداد مقادیر در هر بازه را برمی گرداند، که تمام چیزی است که برای ساختن توزیع فرکانس نیاز دارم. ## کاستی ها اگرچه این رویکرد زمانی که مجموعه داده نسبتاً یکنواخت توزیع شده باشد، نسبتاً خوب عمل می کند، اما وقتی اینطور نیست، فواصل زمانی ایجاد می شود که عرض های متفاوتی دارند یا به هم پیوسته نیستند. همچنین، هنگامی که محدوده مجموعه داده کوچک است (مثلاً همه مقادیر بین 1 و 4) و N بزرگ است (مثلا 30)، تعداد بازه های تولید شده بسیار کمتر از N است. آیا رویکرد بهتری برای حل این مشکل وجود دارد. که شرایط بالا را برآورده می کند؟
تولید توزیع فرکانس از پایگاه داده
108394
من سعی می کنم دو توزیع جزء یک مخلوط محدود ظاهری را از یک مجموعه داده وزن دار (که توسط یک هیستوگرام وزن دار تعیین می شود) جدا کنم. من مجموعه ای از داده ها و وزن ها را فقط برای بخشی از مجموعه دارم، مانند این: وزن داده ها 2.5 2.8 2.6 2.8 3.4 2.8 3.2 2.8 3.5 2.8 3.7 2.8 3.1 2.8 4.4 1.0 4.5 2.8 3.4 2.8 3.2 2.8 3.5 2.8 3.7 2.8 3.1 2.8 4.4 1.0 4.5 1.0 1.0 5.4 1.0 5.3 1.0 5.5 1.0 5.6 1.0 5.7 1.0 4.7 1.0 6.2 1.0 من می توانم آن را بدون وزنه ها با تابع «normalmixEM» در بسته «mixtools» برای «R» جدا کنم، اما با داده های «R» کار می کند. آیا کسی می تواند به من کمک کند تا توزیع ها را از داده های وزنی جدا کنم؟
چگونه توزیع ها را از داده های وزنی جدا کنیم؟
108393
من یک سوال مربوط به svm دارم. من یک مجموعه داده نامتعادل دارم، به این معنی که کلاس A می تواند 1/10 تا 1/35 کلاس B باشد. خوب، من علاقه مند به دریافت یک svm _linear_ هستم که داده ها را از هم جدا می کند و به بالاترین فراخوان ممکن کلاسA می رسد. اجازه دهید برخی **نمونه**ها را برای دقیق تر نشان دهم: * اگر 1000 نمونه به کلاس A توسط هایپرخط نگاشت می شوند، می خواهم 80٪ -90٪ از classA داشته باشم. این بدان معنا نیست که کلاسA فقط 1000 نمونه داشته باشد، بلکه می تواند 2000 یا 10000 نمونه داشته باشد. من به دقت کلاس A علاقه ای ندارم، یعنی معیار استاندارد برای بدست آوردن نمونه های بیشتر کلاسA توسط svm از کل نمونه های متعلق به کلاس A. . * اگر بتوانم 100 نمونه کلاس A و بدون کلاس B بگیرم، بهتر از گرفتن 500 نمونه کلاس A و 500 نمونه کلاس B است. سوال من این است که چگونه این هایپرپلین را انتخاب کنم. من موارد زیر را امتحان کرده‌ام: 1. من از وزن‌های نامتعادل برای نمونه‌ها استفاده کردم (معکوس کردن کاردینالیته‌های کلاس) اما می‌توانم دقت کلاس A بالا اما یادآوری کم داشته باشم. 2. من سعی می‌کنم از وزن‌های پیش‌فرض استفاده کنم، یعنی برای همه 1، اما نتایج عجیبی گرفتم: وقتی روی _train set_ برای همه نمونه‌ها اجرا می‌شود، دقت 95% به دست می‌آید (همانطور که انتظار می‌رود، زیرا مجموعه داده‌ها نامتعادل هستند). **اما** اگر در اعضای classA علامت زده شود 0% می دهد! پس آیا به جز بازی با وزنه، ایده ای هم دارید؟ P.S.1 من از liblinear استفاده می کنم (در matlab اگر مهم باشد). P.S.2 می‌دانم معیار بهینه‌سازی svm اساساً چیزی را که من به دنبال آن هستم در نظر نمی‌گیرد، زیرا حداکثر کردن حاشیه دقت را به حداکثر می‌رساند، اما فکر کردم آن را امتحان کنم.
دستیابی به فراخوان بالا برای کلاس کوچکتر در svm خطی نامتعادل
108397
من یک مجموعه 120000 نفری دارم. این افراد به 10 میلیون گروه اختصاص داده شده اند. هر یک از این گروه ها یک متغیر هدف دارند که نوع خروجی آن را نشان می دهد (A، B، C یا D). من می‌خواهم مجموعه مشترکی از افراد را شناسایی کنم که به یک خروجی خاص کمک کرده‌اند، به عنوان مثال. گروه هایی که Mr.X، Y و Z را داشتند به احتمال زیاد به نتیجه A منجر شدند. چه نوع تحلیلی برای حل این مورد توصیه می شود، ترجیحاً با SPSS، R و/یا Excel؟ من تصور کردم که یک ماتریس عظیم از 120000 نفر (ستون) در 10 میلیون گروه (ردیف) ایجاد می کند، اما مطمئن نبودم که چگونه از آنجا به پیش بروم. من فکر کردم از Decision Tree استفاده کنم، اما ماتریس برای پردازش خیلی بزرگ است. (ویرایش در 23 ژوئیه) هر یک از این افراد به یک سازمان تعلق دارند (به غیر از گروه هایی که به آنها اختصاص داده شده است)، بنابراین اگر من یک تجزیه و تحلیل خوشه بندی ساده انجام دهم، می دانم که افراد را بر اساس سازمانی که به آن تعلق دارند، خوشه بندی خواهم کرد. و این نتیجه ای نیست که من می خواهم. اگر بخواهم خوشه‌هایی بسازم، می‌خواهم خوشه‌هایی از افرادی بسازم که در نتایج A، B، C و/یا D نقش داشته‌اند. آیا پیشنهادی در مورد اینکه چه نوع تحلیلی می‌توانم انجام دهم تا به چنین نتیجه‌ای برسم؟
نحوه شناسایی مشارکت کنندگان در گروه های افراد
79244
من مقادیر ICC را برای دو گروه محاسبه کرده‌ام و اکنون می‌خواهم مقادیر ICC را برای تعیین اینکه آیا گروه‌ها از نظر تکرارپذیری متفاوت هستند، مقایسه کنم. در ادبیات، افراد به سادگی از آزمون های t برای مقایسه تکرارپذیری استفاده کرده اند، اما برای من مشخص نیست که چگونه این کار را انجام دهم. به عنوان مثال، با داده های ساختگی: ID gr رفتار روز 1 1 1 0.361 2 1 1 0.232 3 1 1 0.240 4 1 1 0.693 5 1 1 0.483 6 1 1 0.267 7 2 0.232 3 1 1 0.240 4 1 1 0.483 6 1 1 0.267 7 2 0.232 0.1 0.485 10 2 1 0.567 11 2 1 0.000 12 2 1 0.324 1 1 2 0.055 2 1 2 0.407 3 1 2 0.422 4 1 2 0.124 0.174 0.124 0.051 3 1 2 0.422 7 2 2 0.631 8 2 2 0.283 9 2 2 0.512 10 2 2 0.127 11 2 2 0.000 12 2 2 0.000 من می توانم معیارهای تکرارپذیری برای گروه 1 و 2 را به صورت زیر بدست بیاورم (g library, ICC, ICC) ، data=dummy[dummy$gr==1]) g2 <- ICCest(ID, behaviour, data=dummy[dummy$gr==2,]) اما اکنون چگونه می توانم تشخیص دهم که تکرارپذیری group1 با گروه 2 فرق داره؟
چگونه تکرارپذیری (ICC) گروه های مختلف را مقایسه کنیم؟
72291
من از اعتبار سنجی خارجی برای اندازه گیری موفقیت یک الگوریتم خوشه بندی استفاده می کنم. من مقوله‌های خود را قطعی نمی‌دانم، بنابراین به دنبال معیاری هستم که تا حد زیر بخشنده باشد: * اگر دو خوشه در یکی ادغام شوند، نباید بی‌دلیل جریمه شود زیرا هنوز خوب است. مطابقت (اما هنوز هم باید تا حدی جریمه شود تا از سوق دادن الگوریتم به سمت تولید خوشه های بزرگ جلوگیری شود) * اگر یک خوشه به دو قسمت تقسیم شود، این کار نباید بی دلیل باشد. جریمه شده * فرض کنید دو خوشه وجود دارد، A و B. فرض کنید نیمی از A در A2، نیمی از B در B2 و نیمه دیگر A و B در C ترکیب شده اند. این نوع دسته بندی جایگزین باید جریمه شود، بیشتر نسبت به دو رخداد اول، اما نه بی‌دلیل، زیرا احتمالاً می‌تواند یک طبقه‌بندی معتبر احتمالی دیگر را نشان دهد، معیار خوبی برای این نوع اعتبارسنجی خوشه‌ای چیست؟ این مربوط به سوال قبلی من است
معیار بخشش برای اعتبارسنجی خوشه خارجی
108396
من به دنبال مقدار مجانبی ($n\rightarrow \infty$) (Log تعیین کننده) کوواریانس $\alpha$% مشاهدات با کمترین فاصله اقلدیایی تا مبدا در نمونه ای با اندازه $ هستم. n$ از مثلاً یک استاندارد گاوسی دو متغیره گرفته شده است. \-- حجم بیش از حد یک بیضی با تعیین کننده ماتریس کوواریانس آن متناسب است، از این رو عنوان آن است. $ که $0_2$ بردار 0 به طول 2 است و $\pmb I_2$ هویت رتبه 2 است. ماتریس.--- دیدن آن با شبیه سازی آسان است نسبت به زمانی که $\alpha=52/70$ عدد در حدود $\حدود -1.28$ است: کتابخانه (MASS) n<-10000 p<-2 x<-mvrnorm(n ,rep(0,p),diag(2)) h<-سقف(0.714286*n) p<-ncol(x) w<-mahalanobis(x,rep(0,p),diag(p),inverted=TRUE) #اینها فواصل اقلیدینی هستند، زیرا کوواریانس مورد استفاده ماتریس هویت s<-(1:n)[order(w) است. ][1:h] log(det(cov(x[s,]))) اما یادم نیست چگونه یک عبارت دقیق به دست بیاورم (یا در صورت عدم موفقیت، بهتر است تقریب) برای این.
حجم بیش از حد کانتور $\alpha$ یک گاوسی چند متغیره
108391
میانگین سطح برگرداندن در فرآیند AR(1) زیر $b/(1-a)$ است. $$x(t) = a + bx(t-1).$$ _من این را فهمیدم._ خواندم که میانگین سطح برگرداندن برای فرآیند AR(1) که در زیر با تفاضل محدود ارائه شده است $-(b/a)$ است. : $$x(t)-x(t-1) = a+ bx(t-1).$$ کسی می تواند توضیح دهد که چگونه این درست است؟ میشه لطفا در مورد اشتقاق به من کمک کنید؟
بازگشت میانگین در فرآیند AR(1).
72290
من سعی می کنم از جعبه ابزار شبکه عصبی متلب استفاده کنم. با این حال، من برخی از مسائل را می بینم. اگر از روش های بهینه سازی مانند trainlm، trainrp استفاده کنم، به خوبی همگرا می شود و خطا در طول آموزش با مجموعه اعتبار سنجی کم است. با این حال، وقتی از روش هایی مانند traingd یا traingdm استفاده می کنم، خطا واقعاً زیاد است. این روش وزنه های مناسب را یاد نمی گیرد. موضوع چی میتونه باشه؟
مسائل مربوط به جعبه ابزار شبکه عصبی متلب
26
انحراف معیار چیست، چگونه محاسبه می شود و چه کاربردی در آمار دارد؟
انحراف معیار چیست؟
72294
من می خواهم فصلی بودن را از تقاضای برق روزانه (یک سری زمانی) حذف کنم. درک من این است که هفتگی (تقاضا زیاد در سه شنبه، چهارشنبه، و تقاضای کم در شنبه، یکشنبه) و فصلی سالانه (تقاضا زیاد در زمستان و کمتر در تابستان) وجود دارد. من سعی کردم مدلی برای پیش‌بینی تقاضای برق روزانه در R بسازم و داده‌هایم را مطابق شکل زیر ترسیم کنم: ![تقاضای برق روزانه](http://i.stack.imgur.com/pz5OS.png) سعی کردم فصلی بودن را حذف کنم. با موارد زیر: request.xts.diff<-diff(demand.xts,lag=1,difference=1) Demand.xts.diff<-diff(demand.xts,lag=7,difference=1) همچنین سعی کردم از `lag=365` و `lag=366` استفاده کنم (من مطمئن نیستم از چه تاخیری استفاده کنم، به دلیل شماره سال کبیسه)، اما هیچ یک از آنها با موفقیت فصلی را حذف نکردند. ACF و PACF در زیر نشان داده شده اند: ![ACF](http://i.stack.imgur.com/OV7T4.png) ![PACF](http://i.stack.imgur.com/HcXKi.png) هر توصیه ای قابل تقدیر است.
چگونه فصلی بودن را از تقاضای برق روزانه حذف کنیم؟
97825
![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/xIFSm.png) من سعی می کنم مدلی را برای بررسی مقدار وام (یا تبدیل آن) به عنوان تابعی از متغیرهای درآمد، جنسیت، مشتری و سن برازش رگرسیون خطی استاندارد نتایج ضعیفی به دست می دهد (R-squared فقط 0.27). علاوه بر این، رابطه بین درآمد و وام بسیار عجیب به نظر می رسد. این یک نوع Z شکل چرخشی به چپ دارد (تصویر را ببینید) آیا استفاده از یک مدل نیمه پارامتریک در اینجا مناسب است؟ اگر چنین است، چگونه آن را مدل می کنید؟ من این را در R امتحان کردم: مدل <- spm(loan~f(income, base=trunc.poly)+age+factor(gender)+factor(customer)) اما نتایج ضعیفی به همراه داشت (بدون متغیر قابل توجهی). کسی پیشنهادی داره؟
مدل وام بانکی (spr?)
79240
من یک ابزار کوچک برای کار می نویسم و ​​یک سوال آماری پیش آمده است که فراتر از من است. به زبان ساده: فرض کنید من یک نمونه 50 نفری دارم که WSJ را می‌خوانند و سن آنها معمولاً با میانگین 45 و انحراف معیار 10 توزیع می‌شود. من یک نمونه از 100 نفر دارم که NYT را می‌خوانند. . میانگین سنی: 40 سال توسعه دهنده 8. و من نمونه ای از 36 نفر دارم که E Weekly را می خوانند. میانگین سن: 30، std dev: 15. سپس این کاربر جدید وارد می شود، و من سن او را نمی دانم، اما می دانم که WSJ AND NYT AND E WEEKLY می خواند. چگونه می توانم به سرعت سنی را که احتمال بیشتری دارد پیدا کنم؟ آیا اندازه نمونه مهم است؟ با تشکر
عضو چندین جمعیت با توزیع نرمال
72298
من خودم مدل های گرافیکی را مطالعه می کنم و مطالبی در مورد شبکه های بیزی می خوانم. وقتی در حال مطالعه در صفحه 371، بخش 8.1.4 مدل های خطی-گاوسی، در تشخیص الگو و یادگیری ماشین هستم، نمی توانم معادله $$\mathrm{Cov}[x_i, x_j] = \sum\left(w_) را استخراج کنم. {jk} \mathrm{cov}[x_i,x_k]\right) + I_{ij}v_j $$ کجا $x_k$ والدین $x_j$ هستند، مخصوصاً من نمی دانم که ترم دوم $I_{ij}v_j$ چگونه می آید. من سعی می کنم اثبات را در منابع دیگر پیدا کنم، مانند مدل های گرافیکی احتمالی توسط Koller. یک قضیه 7.3 در صفحه 251 وجود دارد که همان معادله فوق را بیان می کند، اما دلیلی نیز ارائه نمی دهد.
اثبات قضیه 7.3 در کتاب مدل‌های گرافیکی احتمالی نوشته دافنه کولر
110222
من در حال خواندن اسلایدهای سخنرانی در مورد فرآیند دیریکله بوده ام. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Grw1t.png) در صفحه 22، تصویری در مورد مدل مخلوط محدود زیر وجود دارد. $$\phi _{k}\sim H\\\ \pi \sim دیریکله(\alpha /K,\dots,\alpha /K)\\\ Z_{i}\rvert\pi \sim گسسته(\pi )\\\ x_{i}\rvert\phi _{z_{i}}\sim F(\cdot \vert \phi _{z_{i}})$$ **من معنی متغیرهای زیر (لطفا تصحیح کنید اگر اشتباه کردم):** $N:$ تعداد پارامترها/مشاهدات $K:$ تعداد مدل‌های مخلوط $\alpha:$ پارامتر دیریکله $\pi:$ توزیع احتمال بر روی N متغیر $ x_{i}$ متغیرها یا داده‌های مشاهده‌شده‌ای که می‌خواهیم مدل‌سازی کنیم. $H:$ Hyper-پارامترها، توزیع قبلی در مورد مدل‌های K مخلوط پارامترهای $\phi _{k}:$ از مدل k-ام $F(\cdot \vert \phi _{z_{i}})$:مدل های ترکیبی فردی **سوالات من این است:** 1. $z_{i}$ به چه معناست و چیست رابطه با $\pi$ و $x_{i}$؟ 2. $Z_{i}\rvert\pi \sim گسسته(\pi )$ به چه معناست؟ 3. $x_{i}\rvert\phi _{z_{i}}\sim F(\cdot \vert \phi _{z_{i}})$ به چه معناست؟ با تشکر
مدل های مخلوط محدود - درک اولیه
111851
من یک تابع ساده در پایتون برای محاسبه میانگین وزنی نمایی نوشتم: def test(): x = [1,2,3,4,5] alpha = 0.98 s_old = x[0] برای i در محدوده (1, len( x)): s = آلفا * x[i] + (1- آلفا) * s_old s_old = s بازگشت s با این حال، چگونه می توانم SD مربوطه را محاسبه کنم؟
انحراف استاندارد یک میانگین وزنی نمایی
111852
من داده‌های بیماران یک بیمارستان بزرگ با ستون‌هایی که بیماری‌های روحی و جسمی مختلف را نشان می‌دهند و بیمارانی که ردیف‌ها را تشکیل می‌دهند، دارم. داده ها به صورت دودویی هستند (1 = بیمار بیماری دارد، 0 = بیمار بیماری ندارد). با توجه به یک بیماری روانی خاص، می‌خواهم آزمایش کنم که آیا بین بروز بیماری‌های جسمی تنظیم‌شده برای ویژگی‌های جمعیت‌شناختی تفاوت معناداری وجود دارد یا خیر. به این معنا که آیا برخی از بیماری‌های فیزیکی «بیش از حد» در مواردی مانند. بیماران افسرده سن و جنسیت را کنترل می کنند؟ سرپرست من می خواست نوعی تحلیل کوواریانس با بیماری های روانی را به عنوان عامل گروه بندی محاسبه کند که با توجه به ماهیت داده ها نامناسب به نظر می رسد. از کدام آزمون های جایگزین می توانم برای پاسخ به سوال استفاده کنم؟
تست همبودی با تنظیم ویژگی های بیمار
111850
من از طبقه‌بندی‌کننده اکثریت جدول تصمیم WEKA برای انتخاب ویژگی روی یک مجموعه داده با ورودی‌های عددی (پیوسته) و مقوله‌ای و خروجی عددی (پیوسته) استفاده کرده‌ام. من خیلی دوست دارم بدانم Weka چگونه با ورودی های عددی و خروجی عددی برای این مورد (جدول تصمیم) برخورد می کند. هر گونه اطلاعات دیگری در مورد نحوه عملکرد کل کار بسیار قدردانی خواهد شد. (همه چیز به جز مقاله کهوی قدرت جداول تصمیم ... از سال 1995 که قبلاً خوانده ام).
جدول تصمیم weka چگونه خروجی های عددی (پیوسته) و ورودی های عددی را مدیریت می کند؟
97824
پیچیدگی زمانی آموزش یک فرآیند گاوسی و تقریب انتشار انتظارات آن چقدر است؟ (قبل از مطالعه آنها، می خواهم بدانم که آیا آنها حتی برای درخواست من امکان پذیر هستند یا خیر)
پیچیدگی زمان انتشار فرآیند گاوسی و انتظار؟
111855
اجازه دهید $X \sim \textrm{Beta–Binomial}(\alpha_1, \beta_1, n)$ و $Y \sim \textrm{Beta–Binomial}(\alpha_2, \beta_2, n)$ و بنویسید $\mu_1 = \frac{\alpha_1}{\alpha_1 + \beta_1}$, $\phi_1 = \alpha_1 +\beta_1$, $\mu_2 = \frac{\alpha_2}{\alpha_2 + \beta_2}$, $\phi_2 = \alpha_2 +\beta_2$ برای اختصار. من چند نمونه $x_1، x_2، \ldots، x_k$ و $y_1، y_2، \ldots، y_k$ دارم و می‌خواهم فرضیه صفر $\mu_1 = \mu_2$ را آزمایش کنم. من به همه موارد زیر علاقه مند هستم، به خصوص مورد سوم: 1. ما از قبل $\phi = \phi_1 = \phi_2$ را می دانیم. 2. ما می دانیم که $\phi_1 = \phi_2$ اما نه مقدار دقیق. 3. ممکن است که $\phi_1 \ne \phi_2$. من معتقدم که در حد $n \تا \infty$، $\phi \تقریباً n$، با تقریب $X$ و $Y$ با توزیع‌های نرمال مقیاس‌بندی مناسب، این موقعیت‌ها با تفاوت زوجی $Z$-test مطابقت دارند. به ترتیب آزمون t$-test دانشجویی و آزمون $t$-test ولش. با این حال، من بیشتر به مواردی علاقه دارم که $n$ و $k$ کوچک باشند، مثلاً $n = k = 10$. اگر یک راه حل قابل اجرا برای $n = 1$ (توزیعات بتا-برنولی) وجود داشته باشد، بسیار جالب خواهد بود، اما من شک دارم.
آزمون تفاوت برای متغیرهای بتا دو جمله ای
111856
همانطور که از تجربه می دانم، بوت استرپ پارامتریک از نظر احتمال پوشش برای فواصل اطمینان بهتر از بوت استرپ تجربی عمل می کند. البته این منطقی است زیرا شما اطلاعاتی در مورد توزیع قرار می دهید و برای کاهش خطا استفاده می شود. با این حال، این واقعاً توصیفی ریاضی از آنچه در حال وقوع است نیست... کتاب هایی مانند افرون/طبشیرانی وارد جزئیات نمی شوند. آمار مجانبی Van der Vaarts فقط سازگاری مرتبه بالاتر را برای فواصل زمانی دانش‌آموزی در مقابل غیردانش‌آموزی پوشش می‌دهد. فکر می‌کنم هال هم چیزی در این مورد نمی‌نویسد... آیا می‌توانم این را جایی بخوانم؟
چرا (از نظر ریاضی) بوت استرپ پارامتریک معمولاً بهتر از تجربی است؟
111857
من یک تخمین تفاوت در تفاوت لاجیت سفارشی را اجرا کردم و از نظر تفسیر گیر کردم. متغیر وابسته مقادیر 1 2 و 3 را می گیرد و من سعی می کنم ضرایبی را برای متغیرها برای هر یک از سه دسته که در مقالات می بینم به دست بیاورم اما مطمئن نیستم که چگونه آن را انجام دهم.
دستور logit-fference-in-fference
111858
در R، با استفاده از lme4، من از یک مدل ترکیبی برای آزمایش اینکه چگونه یک پاسخ (حالت؛ پیوسته و به طور معمول توزیع شده) توسط یک متغیر کمکی (غنای گونه (sr)؛ پیوسته و به طور معمول توزیع شده) و یک عامل (func.group) تأثیر می‌گیرد استفاده می‌کنم. سه سطح گیاه، گیاهخوار، شکارچی). من همچنین یک اثر تصادفی (جامعه) دارم که فقط یک هویت است. این مدل من است: nr.test1<-lmer( mode ~ sr * func.group + (1|community), data=nr.test, REML=FALSE) من قصد دارم از مقایسه مدل و حذف گام به گام بدون استفاده کنم - شرایط مدل قابل توجهی است، اما سوال من به سادگی این است که چگونه خروجی خلاصه افکت های ثابت زیر را تفسیر می کنم. به ویژه، رهگیری از چه چیزی تشکیل شده است؟ یعنی آیا وقفه وقفه y است (و نه مقدار شیب)، و آیا نشان دهنده تعامل sr با گیاهخواران است؟ (herbivores سطح اول بر اساس حروف الفبا است) اگر intercept فقط func.groupherbivore است، پس چگونه می توانم بفهمم که رهگیری sr:func.groupherbivore چقدر با func.groupherbivore متفاوت است با توجه به اینکه لیست نشده است؟ من همچنین می‌خواستم بدانم که اگر وقفه واقعاً مقطع y است و مقادیر زیر آن تفاوت‌هایی در فاصله y برای هر عبارت مدل، سطح فاکتور و برهمکنش است، پس چگونه می‌توانم مقادیر شیب را برای خطی کردن آن استخراج کنم ( رگرسیون) معادلات؟ مدل مختلط خطی متناسب با حداکثر احتمال فرمول: حالت ~ sr * func.group + (1 | جامعه) داده: nr.test AIC BIC logLik انحراف REMLdev 62.57 68.75 -23.29 46.57 58.38 اثرات تصادفی: گروه ها. نام واریانس.D. Community (Intercept) 4.36963 2.09037 Residual 0.25666 0.50662 تعداد obs: 16 گروه: Community, 6 Fixed effect: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -0.84682 1.27221 -0.666 0.5157 sr 0.49306 0.05798 8.504 2.44e-06 *** func.groupplant 3.39250 3.039250 0.0047 ** func.grouppredator 6.82647 1.02830 6.639 5.08e-05 *** sr:func.groupplant -0.11878 0.05724 -2.075 0.0637. sr:func.grouppredator -0.40567 0.05019 -8.083 9.07e-06 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) sr fnc.grppl fnc.grppr sr:fnc.grppl sr -0.700 fnc. grpplnt -0.459 0.444 fnc.grpprdt -0.482 0.473 0.754 sr:fnc.grppl 0.293 -0.287 -0.904 -0.611 sr:fnc.grppr 0.645 -0.831 -0.667 -0.8376 0.5
تفسیر / درک مقادیر رهگیری و شیب برای یک تعامل با استفاده از خروجی خلاصه در R
35313
من در حال اجرای تجزیه و تحلیل رگرسیون چندگانه هستم و متغیر وابسته من به طور معمول توزیع نشده است (چولگی=-1.794 و کشیدگی: 4.643). به منظور تصحیح این، من تبدیل log را اعمال کردم، اما به دلیل اینکه دارای انحراف منفی است، از این فرمول استفاده کردم: $log(1+ حداکثر مقدار DV - DV)$. DV تبدیل‌شده معکوس و log به توزیع عادی نزدیک‌تر بود (اگرچه تبدیل معکوس بسیار نزدیک‌تر بود، من همچنان تبدیل log را انتخاب کردم زیرا ادبیاتی در مورد نحوه تفسیر تبدیل log وجود دارد، در حالی که هیچ‌یک از نحوه تفسیر تبدیل معکوس در دسترس من نیست). هنگامی که من رگرسیون را روی DV تبدیل شده اجرا می کنم، مقادیر منفی برای b غیر استاندارد دریافت کردم که به این معنی است که افزایش در یک واحد پیش بینی منجر به کاهش 100% بتا در DV می شود. اما در ادبیات کاملاً مشخص است که افزایش آن متغیر مستقل نمی تواند باعث کاهش متغیر وابسته شود. من همچنین شاهد معکوس شدن علائم ضرایب بتا برای برخی از متغیرهای مستقل دیگر هستم (همانطور که انتظار دارم افزایش در متغیرهای وابسته و مستقل را مشاهده کنم، نه یک افزایش یا کاهش دیگر). آیا کسی می داند که آیا این فرمول اعمال شده برای متغیر دارای انحراف منفی واقعاً می تواند چنین نتیجه ای (برگشت علائم) ایجاد کند یا چیز دیگری اشتباه است؟ متشکرم.
تفسیر log تبدیل متغیر وابسته دارای منحنی منفی
35316
من به دنبال شخصی با تجربه در نحوه مدیریت پارامترهای ناهمسانگردی در تابع likfit() هستم که بخشی از بسته GeoR در R است. من از likfit() برای تولید obj.m استفاده می کنم. پارامتر تابع «krige.conv()». داده هایی که من استفاده می کنم از نقاط پراکنده (5 تا 30) در یک شبکه ~50*50 تشکیل شده است. در «likfit()»، می‌خواهم پارامترهای «psiA» و «psiR» از داده‌های موجود تخمین زده شوند. این با بیان این موارد به خوبی کار می کند: fix.psiA = FALSE، fix.psiR = FALSE، با این حال، مقادیر تخمینی محدوده بسیار زیادی را برای 'psiR' نشان می دهد، با توجه به اینکه مجموعه داده هایی که من استفاده کردم اساساً با یکدیگر تفاوت ندارند. (مجموعه‌ای از اندازه‌گیری‌های رطوبت خاک با مقادیر 0 تا 45 است.) «psiR» از 1 تا حدود 8000 متغیر است... آیا این درست است؟ بیشتر مقادیر در محدوده 1 تا 10 قرار دارند، اما نمی توانم بگویم چرا برخی از مجموعه داده ها این مقادیر بسیار بزرگ را برای psiR تولید می کنند. من نتوانستم اطلاعات بیشتری در مورد اینکه این پارامتر _exactly_ چه می کند پیدا کنم. من می‌دانم که این پارامتر وابستگی یک مقدار تخمینی را با توجه به مکان آن نسبت به مقادیر اندازه‌گیری شده محیطی تنظیم می‌کند. اما من نمی دانم از چه طریقی این امر محقق می شود. من برای انگلیسی احتمالاً بد متاسفم، نه یک زبان مادری. من هم متاسفم که کدم را ارسال نکردم، اما بسیار طولانی است و احساس کردم که از طرف سوالم لازم نیست. از علاقه شما بسیار سپاسگزارم. در صورت نیاز توضیحات تکمیلی را ارسال خواهم کرد.
مشکلات تخمین پارامترهای ناهمسانگردی برای یک مدل فضایی
23182
(اگر از هر اصطلاحی سوء استفاده کردم پیشاپیش عذرخواهی می کنم) من یک سری از نقاط داده XY دارم که با یک رگرسیون ساده مطابقت دارم و می خواهم بتوانم از این رگرسیون برای به دست آوردن مقدار p برای نقطه داده جدید استفاده کنم. من چند منبع پیدا کرده‌ام که نحوه محاسبه فاصله پیش‌بینی پاسخ به x خاص را توضیح می‌دهند که به نظر می‌رسد _تقریبا_ به این سوال پاسخ می‌دهد. در واقع، فکر می‌کنم می‌توانم سؤالم را دوباره فرموله کنم که چگونه آلفای کوچک‌ترین فاصله پیش‌بینی را که حاوی نقطه داده جدیدم است پیدا کنم.
با توجه به یک مدل رگرسیون برازش، چگونه می توان مقدار p یک مشاهده جدید را محاسبه کرد؟
94959
احتمال رخداد از جدول
10591
تبدیل Anscombe و تقریب نرمال
29538
چه زمانی از مقدار t و چه زمانی از 1.645 برای فاصله اطمینان 90 درصد استفاده کنیم؟
8374
من سعی می کنم سن (6 تا 90 سال) را با بلندی صدا (در دسی بل) مرتبط کنم. با این حال، داده های من حاوی هیچ نقطه داده ای در محدوده 20-50 سال نیست. کدام معیار همبستگی با چنین شکاف قابل توجهی مناسب‌تر است و چرا؟ من تا الان از کندال تاو استفاده کردم. توجه داشته باشید که در اینجا با داده‌های توزیع‌شده دووجهی سروکار نداریم، بلکه با یک شکاف داده‌های گمشده قابل توجه در محدوده سنی سروکار داریم.
23189
یک سوال بسیار اساسی در مورد اعتبار سنجی متقاطع برای شبکه های عصبی. آیا باید برای هر فولد یک شبکه جدید ایجاد کنم یا باید شبکه را نگه دارم و به صورت تدریجی با مجموعه آموزشی k-th تمرین کنم؟ http://www.faqs.org/faqs/ai-faq/neural-nets/part3/section-12.html می‌گوید شما k-times را تمرین می‌دهید... که اجازه دهید فرض کنم هر بار از یک شبکه استفاده می‌کنم. دوباره تا کنید اما وقتی برای هر فولد یک شبکه جدید ایجاد نکنم، پس از k-th fold k-1 بار استفاده می کنم. در این تصویر می بینید که بدون شبکه جدید، به عنوان مثال. از 4 نقطه داده اول برای آموزش مدل در مرحله 2 تا 5 استفاده می شود. آیا می توانید در مورد تفسیر صحیح به من اشاره کنید؟
سوال اساسی در مورد اعتبار سنجی متقابل
92363
با توجه به افزایش قدرت آماری، آیا این مقدار p را کاهش می دهد؟ اگر چنین است، چرا این اتفاق می افتد؟
رابطه بین توان آماری و مقادیر p
110848
من یک سوال در مورد آزمایش بین یک گروه کنترل بزرگ و تعداد کمتری از موارد در یک مقایسه ساده دارم. به طور خاص در مورد تفاوت رویکردهای بیزی و فرکونتیست تعجب کردم. این سوال تا حدی از این سوال اخیر الهام گرفته شده است. بنابراین فرض کنید که من $n_a=10000$ و $n_b=10$ با متغیرهای $p$ دارم و من گمان می کنم که تفاوت بین $n_b$ و $n_a$ بسیار زیاد است. تا آنجا که من می دانم قدرت، تحت چارچوب مکررگرا، با «قدرت» کوچکترین حجم نمونه محدود می شود. بنابراین من فرض می کنم که، حتی با یک اثر نسبتاً بزرگ، ممکن است هنوز نتوانم یک مقدار p قابل توجهی را مشاهده کنم. اما تأثیر آن در چارچوب بیزی چیست؟ پیشین من در این شرایط چگونه با حجم نمونه ارتباط دارد؟ امیدوارم سوال به اندازه کافی واضح باشد.
99781
من یک سوال کوچک دارم و نیاز به توضیح در مورد قدرت تداعی مربع چی دارم (با استفاده از Phi & Cramer's V). بگویید من 4 پارامتر دارم، همه آنها رابطه معنی داری را با کیفیت نشان می دهند، یعنی p<0.05 در آزمون مربع کای، اما من می خواهم با دانستن قدرت هر پارامتر نتیجه بیشتری را ثابت کنم، بنابراین از فی و کرامر V استفاده می کنم. من قدرت ارتباط هر چهار پارامتر را با هم مقایسه می کنم. از این طریق می توانم بفهمم که کدام یک از آنها قوی ترین (تأثیرگذارترین) و همچنین کمترین رابطه را دارد. بنابراین می خواهم بدانم آیا چنین مقایسه ای بین قدرت پارامترها معتبر و مجاز است یا خیر؟ با تشکر از شما و نظر شما بسیار قابل تقدیر است
آیا می توانم قدرت ارتباط با استفاده از فی و کرامر را بین پارامترها مقایسه کنم؟
110847
من روی مجموعه داده های بزرگ کار می کنم که نشان دهنده مصرف برق در پست برق در طول سال است. من هر 10 دقیقه داده و چندین فصل (و طولانی) دارم. من یک فصلی روزانه، هفتگی و سالانه به ترتیب دوره های '144، 1008 و 52560' دارم. ### ارائه من در مدل سازی داده هایم به دلیل فصلی طولانی که توسط R مدیریت نمی شود مشکل داشتم (`حداکثر تأخیر پشتیبانی شده = 350`)، اما در نهایت از کد موجود در اینجا استفاده کردم تا مدلی به این شکل بدست بیاورم: ![معادله]( http://i.stack.imgur.com/vqaHG.png) این کدی است که من برای تطبیق مدل آریما با عبارات فوریه به عنوان رگرسیون استفاده کردم: > fit = Arima(y[1:n]، order=c(2،1،5)، seasonal=c(1،2،8)، xreg=cbind(fourier(1:n،4،m)، فویر(1: n,4,1008), fourier(1:n,4,52560), lag(tmp[1:n],12), ferie[1:n])) > previ1 = forecast(fit, h=14*m، xreg=cbind(فوریه(n+1:(14*m)،4،m)، فویر(n+1:(14*m)،4،1008)، فویر(n+1: (14*m)،4،52560)، تاخیر (tmp[n+1:(14*m)]،12)، فری[n+1:(14*m)])) من 3 دارم سری فوریه، یکی برای هر فصلی، و دو متغیر برونزا: دما به عنوان دو برابر و [تعطیلات عمومی + یکشنبه ها] به عنوان یک بردار باینری. اکنون نتیجه نمودار «previ1$pred» و «y» وجود دارد: ![forecast1](http://i.stack.imgur.com/zn5EQ.png) در قرمز مجموعه داده های واقعی و به رنگ آبی است. منحنی پیش بینی شده برای یک دوره 2 هفته. من احساس می کنم تا روز نهم نتایج به اندازه کافی نزدیک است. اما من می خواهم رویکرد بهتری برای مشکل داشته باشم. * * * ### برازش از آنچه در Cross Validated و اینترنت خوانده‌ام، فهمیدم که AIC معیار خوبی برای تعیین مناسب بودن مدل با به حداقل رساندن آن است. از آنجایی که من با R کار می کنم و متخصص آمار نیستم، آیا این معیار به تنهایی کافی است؟ آیا باید معیارهای دیگری را بررسی کنم؟ ### پیش‌بینی برای من سخت‌ترین چیز در این مشکل است. خواندم که می‌توانیم از باقی‌مانده‌های مدل استفاده کنیم و آنها را مطالعه کنیم تا بفهمیم آیا مدل پیش‌بینی به اندازه کافی خوب است: اگر باقی‌مانده‌ها شبیه نویز سفید باشند، می‌توانیم به مدل اعتماد کنیم. بنابراین در اینجا مطالعه من درباره fit$residuals است: ![fitresiduals](http://i.stack.imgur.com/WR8TF.png) ![acffitresiduals](http://i.stack.imgur.com /sk9Lf.png) به نظر من یک نویز سفید نیست. احتمالاً به دلیل فصلی بودن 144 است - یا مدل بد است. من مطمئن نیستم که این کار درستی است، اما من از «diff()» برای پاک کردن برخی از تغییرات استفاده کردم. > plot(diff(fit$residuals,144)) > acf(diff(fit$residuals, 144), lag.max = 150) ![diffresiduals](http://i.stack.imgur.com/RdWLv.png ) ![acfdiffresiduals](http://i.stack.imgur.com/n2Dip.png) طرح به نظر می رسد برای من بسیار به یک نویز سفید نزدیکتر است، و شاید بتوانیم «acf» را به اندازه کافی خوب در نظر بگیریم که یک نویز سفید باشد، اما مطمئن نیستم. همچنین در مورد تست نرمال بودن با تابع qqplot() R مطالعه کردم. من با استفاده از qqnorm() روی resid = fit$residuals استفاده کردم: > qqnorm(diff(resid,144)) ![تصویر را وارد کنید توضیحات اینجا](http://i.stack.imgur.com/vgXCC.png) و اینجا من این احساس را دارم که تفاوت باقیمانده ها طبیعی است. آیا انتخاب / اعتبارسنجی یک مدل کافی است؟ **TL;DR:** آیا AIC و نرمال بودن در باقیمانده ها معیارهای کافی برای تعیین کیفیت یک مدل هستند؟
95331
ترکیب فواصل اطمینان برای یک معادله خاص
30895
من سعی می کنم پیدا کنم که مدل درجه دوم برای مجموعه داده های چندگانه مشخص شده چگونه خواهد بود. فرض کنید مجموعه آموزشی من X_1$،...X_n$ با هر X$$$4$ باشد. حالا فرض کنید من می خواهم یک تابع درجه دوم را به این داده برازم. سپس مدل من $$h(X) = a_1 + a_2X + a_3X^2$$ خواهد بود که $a_1، a_2$ و $a_3$ پارامترهای مدل من هستند که باید تخمین زده شوند. از آنجایی که $X$s در معادله بالا بردار هستند، به این معنی که پارامترهای $a_2$ و $a_3$ من نیز باید بردار باشند درست است؟ پس چگونه می توانم این پارامترها را یاد بگیرم؟
نحوه تعیین و تخمین پارامترهای مدلی که در چندین متغیر درجه دوم است
30897
آیا می توان فرمول ساده ای را به دست آورد که یک لحظه مرکزی را به همان لحظه در یک قاب چرخان مرتبط می کند، مانند رابطه بین لحظه مرکزی و لحظه مبدا؟ فرمولی که من استفاده می کنم http://en.wikipedia.org/wiki/Central_moment#Multivariate_moments است
گشتاور و چرخش 2 بعدی
87826
روش معمول برای تطبیق طبقه‌بندی‌کننده‌های باینری مانند SVM‌های مختلف با داده‌های چند برچسبی، یک در مقابل همه است، که فرض می‌کند برچسب‌ها مستقل هستند و در صورت خطای پیش‌بینی، ما اهمیتی نمی‌دهیم که پیش‌بینی نادرست چه برچسبی را خروجی بدهد. اما فرض کنید من می‌خواهم امتیازی را از 1 تا 5 پیش‌بینی کنم و ترجیح می‌دهم نزدیک‌تر به حقیقت اشتباه کنم، پس چگونه آن را دنبال کنم؟ $\lt k$ در مقابل $\ge k$ به ذهن متبادر می‌شود، زیرا در این مورد برچسب‌هایی که به هم نزدیک‌تر هستند همپوشانی داده‌های آموزشی بزرگ‌تری خواهند داشت، اما آیا از نظر تئوری درست است؟ به طور خاص، آیا عملکرد کلی ممکن است آسیب ببیند؟ به طور کلی تر، تکنیک های پیشرفته ای که می توانم در این شرایط به کار ببرم کدامند؟
یادگیری ماشینی با برچسب های سفارش داده شده
115272
پیش‌بینی‌های گلمر: نحوه استخراج نمرات کمک‌کننده
30890
فرض کنید من مجموعه‌ای از اسناد دارم و می‌خواهم از tf-idf به‌عنوان معیار وزن‌دهی اسنادم استفاده کنم. اگر بخواهم دایره لغاتم اندازه 100 باشد، چگونه آن 100 کلمه را در واژگان انتخاب کنم؟ در نظر گرفتن داده های آموزشی به عنوان یک کل و انتخاب 100 کلمه پر تکرار در اینجا کار نمی کند زیرا سیستم وزن دهی من tf-idf است، درست است؟
ایجاد واژگان در طبقه بندی اسناد
87824
یا آیا AC کمتر از 5% (در باقیمانده ها) برای ادامه تجزیه و تحلیل داده های پانل معمولی قابل قبول است؟
آیا باید همه خودهمبستگی ها را حذف کرد؟
87825
ما در حال ساخت مدلی هستیم که برای متغیرهای کمکی استاندارد (به عنوان مثال، سن، جنسیت) و برای نتیجه در ابتدا تنظیم می شود. ایده آل است که برای مقدار پایه هر آزمودنی به این صورت تنظیم شود: $$ Y = \beta_0 + \beta_1*{\rm سن} + \beta_2*{\rm جنسیت} + \beta_3*{\rm پایه} $$ ، ما معیارهای پایه برای همه نداریم. یک تخمین بالینی استاندارد از $Y$ (در حال حاضر و پایه) به عنوان یک تابع غیرخطی از سن و جنسیت و همچنین یک اندازه گیری $X$ (که برای همه داریم) وجود دارد، یعنی $\text{Estimated Baseline} = f (X,\ {\rm سن},\ {\rm جنسیت}) $. آیا مدل کردن $Y$ با درج مقدار خام $X$ یا تابع $X$ منطقی تر است؟ به عنوان مثال: \begin{align} Y &= \beta_0 + \beta_1*{\rm سن} + \beta_2*{\rm جنسیت} + \beta_3*X \\\ Y &= \beta_0 + \beta_1*{\ rm age} + \beta_2*{\rm gender} + \beta_3*f(X,\ {\rm age},\ {\rm gender}) \end{align} تابع تخمینی نیست یک تخمین عالی است، اما به اندازه گیری پایه نزدیک تر است.
آیا زمانی که مقدار انباشته تابعی از سایر متغیرهای کمکی در مدل رگرسیونی است، نسبت داده‌های متغیر کمکی گم‌شده منطقی است؟
91215
باقیمانده در مقابل قطعه نصب شده با نقاط پرت
111466
من سعی می‌کنم یک مدل ترکیبی خطی را برای یک مطالعه مقایسه روش تا حدودی پیچیده، تودرتو و متقاطع با اندازه‌گیری‌های تکراری مشخص کنم. هدف تقسیم بندی و مقایسه واریانس ها است. این پیچیده تر از نمونه های مقدماتی معمولی است که من دیده ام و من کاملاً مطمئن نیستم که چگونه آن را به درستی انجام دهم. داده‌هایی که من جمع‌آوری کرده‌ام از مقایسه روش‌های اندازه‌گیری آزمایشگاهی مختلف (4 سطح)، که هر کدام برای همه ترکیب‌ها برای _parameter1_ (10 سطح) و _parameter2_ (40 سطح) ارزیابی شده‌اند. اندازه‌گیری‌ها (تکرار برای هر ترکیب منحصربه‌فرد از روش، پارامتر 1 و پارامتر2) روی 60 آزمودنی مختلف با ویژگی‌های جنسیت انجام شد. هر اندازه گیری 800 بار تکرار شد (تقریباً 80 میلیون ردیف مشاهده) و تفاوت (مقدار واقعی از قبل با روش مرجع تعیین شد - مقدار اندازه گیری شده) ثبت شد. **بنابراین: روش x پارامتر1 x پارامتر2 به طور کامل تلاقی می‌کنند (همه ترکیبات سطوح عامل یک بار اتفاق می‌افتند)، آزمودنی‌ها درون جنس قرار می‌گیرند، و اندازه‌گیری‌های تکراری درون موضوع تودرتو می‌شوند.** به دنبال برخی توصیه‌ها (https://mailman.ucsd. edu/pipermail/ling-r-lang-l/2011-February/000225.html و Barr و همکاران، 2013)، ابتدا می‌خواهم یک ساختار حداکثر اثرات تصادفی را برای این کار مشخص کنم، به‌عنوان مثال، تفاوت‌های بین سوژه‌ها در حساسیت به همه شرایط را در نظر بگیرم، و سپس مدل را از آنجا حذف کنم. اما برای من واقعاً سخت است که همزمان سرم را روی دستور فرمول و منطق مدل بپیچم. من اینجا در تاریکی عکس می‌گیرم، اما در مورد: (1 + روش*param1*param2*sex | sex/subj_id) # که به (1 + روش*param1*param2*sex | جنسیت) + (1 + روش گسترش می‌یابد) *param1*param2*sex |. sex:subj_id) به نظر من این درست نیست. داشتن رابطه جنسی در هر دو طرف معادله عجیب به نظر می رسد. برای هر کمکی بسیار سپاسگزار خواهم بود. در مورد یک موضوع مرتبط: من قصد دارم تفاوت بین مقدار اندازه گیری شده و مقدار واقعی (معلوم) را پس بزنم: diff ~ …. آیا دلیلی وجود دارد که به جای آن مقدار واقعی شناخته شده را به مقدار اندازه گیری شده برگردانیم: اندازه گیری شده ~ true + …؟
110596
بگویید من می‌خواهم ببینم آیا دو متغیر y و x1 به صورت خطی به هم مرتبط هستند، در حالی که تأثیر یک متغیر «آزاردهنده» x2 را کنترل می‌کنم. تفاوت بین (a) رگرسیون y بر روی x1 و x2 و فقط نگاه کردن به ضریب x1 چیست؟ و (ب) انجام یک همبستگی جزئی برای y و x1 در حالی که برای (تغییر همزمان) x2 کنترل می شود؟
87829
من CRAN و Google را برای تابعی جست‌وجو می‌کنم (که مجبور نیستم خودم کدنویسی کنم) که اندازه نمونه مورد نیاز برای طراحی قبل از پست را با یک نتیجه دوگانه محاسبه می‌کند - فایده‌ای نداشت. اگر اشتباه می کنم، لطفا به من اطلاع دهید! من با یک اسکریپت R از یک دوره دانشگاهی مواجه شدم و می‌پرسیدم که آیا کسی بدش نمی‌آید که آن را برای من دوباره بررسی کند - من آن را کمی اصلاح کردم. (نشانی اینترنتی: http://www.statistik.lmu.de/institut/lehrstuhl/semwiso/bm-sose2009/CaCo/v8_4.pdf) samsize.mcnemar <- تابع (pi.01, pi.10, alpha, بتا، یک طرفه) { pi.d <- (pi.01 + pi.10) N <- (qnorm(1 - alpha/sided) * sqrt(pi.d) + qnorm(1 - بتا) * sqrt(pi.d - (pi.01 - pi.10)^2))^2/(pi.01 - pi.10)^2 return(سقف (N)) } # در مورد من، من فرض می کنم که تغییر 0 به 1 0.13 خواهد بود و هیچ # یک از 1 به 0 تغییر نمی کند. samsize.mcnemar(pi.01 = 0.13، pi.10 = 0، آلفا = 0.05، بتا = 0.2، sided = 2) **اول**، آیا این درست به نظر می رسد؟ **دوم**، از آنجایی که این یک طرح جفت همسان نیست، من فرض نمی‌کنم که مداخله باعث بازگشت افراد به عقب شود (اگر قبلاً رفتار سالمی را انجام می‌دهند). آیا باید محافظه کارتر باشم؟ با تشکر
تابع اندازه نمونه برای آزمون مک نمار نسبت های مکرر در R
92747
من چهار همبستگی وابسته (یعنی از همان نمونه) دارم که شامل متغیرهای پیش‌بینی‌کننده $(A,B,C,D)$ و یک متغیر نتیجه $(E)$ است. $N=172$. $$\begin{array}{c|cccc}{\rm آمار}&AE&BE&CE&DE\\\\\hline r&-.480&.276&.395&.327\\\p&< .01&< .01&< .05&< .01 \end{array}$$ من سعی می‌کنم سه تست مجذور کای را روی این مجموعه چهار وابسته اجرا کنم همبستگی، که در آن $H_0: r_{AE} = r_{BE} = r_{CE} = r_{DE} = 0$; و $H_1$ به سادگی NOT $H_0$ است. با فرض اینکه $H_0$ رد شود، سپس آزمایش خواهم کرد: $H_0: r_{AE} = r_{BE} = r_{CE} = r_{DE}$; با $H_1$ که دوباره NOT $H_0$ است. با فرض اینکه $H_0$ دوباره رد شود، سپس $H_0 را آزمایش خواهم کرد: r_{BE} = r_{CE} = r_{DE}$. SPSS نمی تواند به من در مقایسه همبستگی های وابسته کمک کند و فیلد کشف آمار... (2013) فقط در مورد مقایسه دو همبستگی وابسته بحث می کند، نه یک مجموعه کامل. بنابراین، من تا به حال به چندین مکان هدایت شده ام، بدون شانس: 1. Multicorr اثر Steiger (http://www.statpower.net/Software.html). من به سادگی نمی توانم بفهمم که چگونه از آن استفاده کنم. 2. مقاله ای از اشتایگر (تست هایی برای مقایسه عناصر یک ماتریس همبستگی، _بولتن روانشناسی_، 1980، _87_ (2)). اما من نمی توانم بفهمم که چگونه / کجا اعداد من با فرمول هایی که او در آنجا ارائه کرده است مطابقت دارد. در حالت ایده‌آل، من فقط از فرمول(های) ریاضی می‌خواهم که بتوانم از آن برای بدست آوردن مقدار مشاهده شده کای دو استفاده کنم (من جداول مقادیر بحرانی را قبلاً دارم). هر راهنمایی که می تواند ارائه شود بسیار قدردانی خواهد شد.
تست مجذور کای برای بررسی اینکه آیا مجموعه ای از همبستگی های وابسته برابر هستند یا خیر
35205
آزمون تعقیبی بونفرونی تفاوت معنی داری را بین گروه ها نشان نمی دهد
22444
ما می خواهیم بدانیم که آیا یک قمارباز در قرعه کشی شرکت می کند یا خیر و بر اساس دانش نامطمئن ما در مورد اعتقادات او در مورد بخت آزمایی، انتظار دارد در صورت وارد شدن چه چیزی برنده شود. قمارباز معتقد است که احتمال برنده شدن او در لاتاری p است و همچنین معتقد است که در صورت برنده شدن، جایزه لاتاری W خواهد بود. اما ما باور قماربازان را نمی‌دانیم، فقط این که آنها به ترتیب با توابع چگالی f(p) و f(W) و توابع توزیع تجمعی F(p) و F(W) توزیع شده‌اند. متغیرهای p و W مستقل از یکدیگر هستند. فرض می کنیم که f(p) در بازه (a,b) مثبت است و خارج از این بازه صفر است. ما فرض می کنیم که 0 < a < b <1. f(p) پیوسته و قابل تمایز در سراسر است. همسایگی b وجود دارد که f(p) غیرافزاینده است. همچنین فرض می کنیم که f(W) در بازه (c,d) مثبت است و خارج از این بازه صفر است. c و d هر دو مقادیر بزرگ دلاری هستند که در آن d>c. f(W) پیوسته و قابل تمایز در سراسر است و مقداری همسایگی d وجود دارد که در آن f(W) غیرافزاینده است. فرض می‌کنیم که توزیع‌های f(p) و f(W) هر دو به‌خاطر سادگی مثلثی شکل هستند. **قمارباز فقط در صورتی در لاتاری سرمایه گذاری می کند که pW > S** من دو سوال دارم که در مورد آنها به کمک نیاز دارم: 1. احتمال اینکه قمارباز در لاتاری سرمایه گذاری کند چقدر است؟ 2. در صورت انتخاب سرمایه گذاری، ارزش مورد انتظار قرعه کشی چقدر است؟ متشکرم.
25923
من سعی می کنم روش های مختلف تخمین چگالی را با هم مقایسه کنم. مجموعه داده من $D$ از مخلوط ثابتی از گاوسی ها ایجاد می شود (که به من امکان می دهد pdf واقعی $p(x)$ را تخمین بزنم). سپس، چگالی تخمینی $\bar{p}(x): x\in T$ یک مجموعه آزمایشی $T$ را از $D$ با استفاده از پنجره‌های Parzen و k-NN محاسبه می‌کنم. من دو سوال دارم: * به نظر می رسد $\bar{p}(x)$ در مقایسه با $p(x)$ مقیاس بندی شده است. اگر من از این تراکم ها برای طبقه بندی استفاده کنم، مقیاس گذاری روی تصمیم من تأثیری نخواهد داشت، اما اگر بخواهم کیفیت تخمین تراکم را با هم مقایسه کنم، معتقدم این مقیاس بندی مشکل ساز خواهد بود. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ggkBf.png) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ZBCbT.png) * چگونه آیا کیفیت $\bar{p}(x)$ را تعیین کنم؟ آیا می توانم فقط از خطای مربع یکپارچه استفاده کنم؟ $$ISE = \sum_{i=1}^{|T|} ( p(x) - \bar{p}(x) )^2 $$
تخمین چگالی را با پی دی اف واقعی مقایسه کنید
87715
من EM را روی یک زنجیره مارکوف پنهان (متغیر $\mathbf{Z}=\\{Z_1,...,Z_n\\}$) با مشاهدات ($\mathbf{Y}=\\) اعمال می کنم {Y_0,...,Y_n\\}متغیر$) نه تنها به زنجیره مارکوف پنهان، بلکه به مشاهدات گذشته فوری ( $Y_{j-1}$). $$Log(P(\mathbf{Z},\mathbf{Y}|\mathbf{\Theta)})=\log(\pi_{0z_1})+\sum^n_{j=2} \log(\pi_{z_{j-1}z_j})+\sum^n_{j=1}\log(P(y_j|y_{j-1},z_j;\mathbf{\Theta)})$ $ در مخلوطات متناهی مک لاکلان، صفحات 63 و 64، در مورد چگونگی به دست آوردن ماتریس اطلاعات مشاهده شده، بر حسب Log-Likelihood داده کامل صحبت می کند. سوال من این است که چگونه از ماتریس اطلاعات مشاهده شده، خطاهای استاندارد را دریافت می کنیم؟ (چرا می توان معکوس ماتریس کوواریانس MLE را با ماتریس اطلاعات مشاهده شده تخمین زد؟) و آیا می توانم خطاهای std را به روشی مشابه برای مدل پنهان مارکوف به دست بیاورم؟
محاسبه خطاهای استاندارد در الگوریتم EM
25926
من یک مجموعه داده بزرگ (400 هزار ردیف X 60 ستون) دارم که سعی می کنم از آن برای ساخت یک مدل knn استفاده کنم. من از نسخه بسته «caret» «knn» و روش «forward.search» از بسته «FSelector» برای حذف متغیرها از طریق اعتبارسنجی متقابل استفاده می‌کنم. مشکل من این است که وقتی از بیش از 20 هزار خط داده استفاده می‌کنم، پیامی مبنی بر وجود پیوندهای بسیار زیاد دریافت می‌کنم. در حال حاضر من فقط مقادیر k بین 1-19 را بررسی می‌کنم (و فقط عددهای #فرد را بررسی می‌کنم، زیرا ظاهراً ریسک پیوندها را کاهش می‌دهند) و فقط از متغیرهایی با سطح بالاتر از 2 استفاده می‌کنم. آیا ترفند دیگری برای استفاده از تکه های بزرگ داده در «knn» وجود دارد؟ ویرایش: این مشکل رگرسیون است، نه یک مشکل طبقه بندی.
برخورد با تعداد زیادی پیوند در مدل kNN
25927
فرض کنید دو نمونه داریم و می‌خواهیم تعیین کنیم که آیا آنها از یک توزیع گرفته شده‌اند یا خیر، نمونه‌های A،B که از چند اعداد صحیح تشکیل شده‌اند. اگر این را با استفاده از آزمون جایگشت دو نمونه ای آزمایش کنیم، به ویژه با نگاه کردن به جایگشت هایی که در آن تفاوت در میانگین نمونه ها به اندازه تفاوت مشاهده شده شدید است: آیا دلیلی وجود دارد که فکر کنیم می توانیم p- دو دنباله را محاسبه کنیم. ارزش با نگاه کردن به یک دم و دو برابر کردن احتمال؟ این همان چیزی است که به نظر می رسد در یادداشت های سخنرانی من گفته می شود، اما من نمی فهمم چرا می توانیم فرض کنیم که دنباله ها متقارن هستند (یا چرا این فرض مستلزم آن نیست). توضیحاتی ارائه نشد. متشکرم.
دوبرابر کردن دم ها در تست جایگشت دو نمونه ای
59867
من با داده های آزمایشگاهی کار می کنم که به دلیل چولگی باید تبدیل شوند. در 2 نقطه زمانی جمع آوری شده است و من علاقه مند به تغییر از زمان #1 به زمان #2 هستم. سوال من این است که آیا مقادیر اصلی را تبدیل به لاگ کنم، سپس تفاوت داده‌های تبدیل شده را کم کنم؟ یا اینکه تفاوت را از مقادیر خام محاسبه کنم و سپس تفاوت را تبدیل کنم؟ (این خود یک مشکل ایجاد می کند، زیرا تفاوت می تواند منفی باشد، بنابراین نمی توان آن را ثبت کرد).
هنگام تجزیه و تحلیل یک تفاوت برای داده‌های تبدیل‌شده به گزارش، چه زمانی باید گزارش را گرفت؟
74175
از چه چیزی استفاده کنیم: Nested Case-Control یا Case-Cohort؟
92743
من یک نمونه از داده های مرکز تماس برای سال 2013 دارم. 261 روز داده (به استثنای تعطیلات آخر هفته) وجود دارد. برای سال 2013، من یک متغیر ساختگی تعطیلات («تعطیلات») را برای روزهایی که هیچ آماری وجود نداشت، اضافه کردم. برای سال 2014، من یک متغیر ساختگی تعطیلات آینده ('holidayf') را نیز گنجانده ام. **هدف من این است که ارزیابی کنم این کد چقدر در پیش بینی های سال 2014 دقیق است. ** من این کد را در زیر امتحان کردم اما وقتی به fc$fitted نگاه می کنم، به نظر می رسد پیش بینی ها درست نیستند. برای 8 روز اول ژانویه 2014، تعداد دقیق تماس هایی را که در 8 روز اول ژانویه 2013 دریافت شده است، پیش بینی می کند که اشتباه به نظر می رسد. همچنین، در جایی که در سال 2014 تعطیل عمومی است، پیش‌بینی آینده آن روز حجم تماس‌های معمولی تا زیاد را پیش‌بینی می‌کند، بنابراین به نظر می‌رسد که پیش‌بینی از متغیر «تعطیلات» استفاده می‌کند نه از متغیر «holidayf». کتابخانه(پیش‌بینی) y <- ts(تماس‌ها، فرکانس=5) z <- فویر(ts(تماس‌ها، فرکانس=261)، K=12) zf <- فویر(ts(تماس‌ها، فرکانس=261)، K=12 ,h=261) fit <- auto.arima(y,xreg=cbind(z,holiday)) fc <- پیش‌بینی (fit,xreg=cbind(zf,holidayf),h=261) نمودار(fc) داده: فراخوانی <- c(0,145,175,129,266,219,156,184,167,241,218,194,192,162191,26,192,162,191,23 235, 218,180,150,245,209,210,211,151,236,197,217,140,164,200,156,152,153,141,224,178, 159,153,137,207,173,197,213,206,305,284,248,289,269,359,333,257,0,244,325,292,267, 206,0,0,360,261,327,284,385,377,317,327,271,372,191,320,268,261,376,320,280,251,200, 200,200,0,236,161,259,200,190,166,174,225,228,202,201,155,241,207,199,179,178,249, 243,230,177,181,264,250,219,204,178,244,249,185,184,164,0,253,216,217,165,170,185, 175,160,148,231,223,196,162,149,228,213,190,177,139,212,205,221,190,170,196,210, 198,192,131,220,185,199,153,166,240,176,200,145,0,255,202,220,220,181,250,171,164, 142,118,179,197,167,130,124,180,214,203,153,140,161,200,191,159,141,227,170,166, 166,106,131,0,176,156,109,196,175,175,174,161,230,191,159,150,91,180,188,173,157, 107,193,172,172,172,116,195,183,169,146,125,208,160,160,177,128,191,176,149,175, 136,217,162,178,130,99,158,154,135,146,106,155,148,119,137,96,161,106,114,139,84, 0,97,95,892,65,097,95,892,65,0,97,95,892,65,000 <- c(1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 ,0,0,0,0,0,0,0, 0,1,0,0,0,0,0,1,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0, 0,0,0, 0,0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0,0,0,0, 0,0,0,0,0,0,0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,0,0,0, 0,0,0,0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,0,0, 0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0,0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 1,0,0, 0,0,0,1,1,1,0,0,0) تعطیلات <- c(1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0,0,0,0,0, 0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,1,0,0, 0,0,1, 0,0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0, 0,0,0,0,0,0, 0,0,0,0,0,0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0, 0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0,0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,0,0, 0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0,0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 1,0,0, 0,0,0,0,1,1,0,0,0)
پیش بینی با متغیرهای ساختگی تعطیلات
59860
**آیا استانداردسازی یک متغیر وابسته در گروه شناسایی منطقی است؟** مقاله کاری زیر (کاهش سرعت جنگل زدایی در آمازون قانونی؛ قیمت ها یا سیاست ها؟، pdf) از یک متغیر وابسته استاندارد شده برای تجزیه و تحلیل اثر تغییر خط مشی کلی استفاده می کند. برزیل در مورد جنگل زدایی استانداردسازی به صورت زیر انجام می‌شود: $$ Y^{new}_{it} = \frac{Y_{it} - \overline{Y_i}}{sd(Y_{it})} $$ نویسندگان استدلال می‌کنند، این کار می‌کند تغییرات نسبی در افزایش جنگل زدایی در شهرداری ها را در نظر بگیرید. نویسندگان بدین وسیله از یک تخمین FE (صفحه 12) برای داده های تابلویی استفاده می کنند. از جمله ساختگی پس از سیاست برای هر سال بعد از قانون جدید. * اگر متغیر وابسته به این شکل استاندارد شده باشد، ضرایب چگونه باید تفسیر شوند؟ * آیا استانداردسازی غیرمتعارف نیست زیرا به مشاهداتی که در آن گروه/شهرداری تغییرات کمتری را در طول زمان تجربه کرده اند، ارزش بیشتری می دهد؟
متغیر وابسته استاندارد شده در یک گروه در مدل های داده پانل؟
45055
من از یک مدل خطی برای پیش‌بینی کم‌تغذیه در کودکان زیر 5 سال استفاده می‌کنم. معیار رایج مورد بحث، کوتاه‌قدی (یک نتیجه دوتایی) است که بیش از دو انحراف استاندارد از یک سن استاندارد برای قد فاصله دارد (من پیش‌بینی می‌کنم). امتیاز z که زیربنای وضعیت رشد کوتاه مدت است). در زیر هیستوگرام های همپوشانی قد واقعی (آبی) در مقابل پیش بینی شده (قرمز) برای امتیازات سنی وجود دارد. چیزی که من واقعاً علاقه مند به پیش بینی آن هستم این است که آیا یک فرد زیر نمره z 2- می افتد یا نه، و توزیع من بسیار محدود است. هر گونه راهنمایی؟ در حال حاضر، مدل من به این صورت است: Height.Age.Z ~ سن + مادران. تحصیلات + ثروت + بهداشت + (اثر ثابت در منطقه) هر گونه راهنمایی، کلی و خاص، قابل قدردانی است. با تشکر، ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gz57I.png)
مدل‌سازی نقاط پرت توزیع نرمال