_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
97220
|
من یک جدول دو ستونی دارم که شامل «تاریخ»، «شناسه_کاربر» است. من میخواهم شبکهای را با «تاریخ» در امتداد محور «x» و «شناسه_کاربر» در امتداد «y» تجسم کنم. اگر «تاریخ»، «user_id» وجود داشته باشد، میخواهم یک شبکه با رنگ، مثلاً سبز، نشان دهم. اگر «تاریخ»، «user_id» وجود نداشته باشد، میخواهم یک شبکه به رنگ سفید نشان دهم. اگر «تاریخ»، «user_id» چندین امتیاز نشان داده شود که منجر به رنگ سبز تیرهتر میشود. چه ابزاری، ترجیحا رایگان و آنلاین، برای تجسم این داده ها به روشی که توضیح دادم مناسب تر است؟ سوال بعدی: کدام ابزارهای دیگر در تجسم داده های سری زمانی رویدادهای کاربر به عنوان یک تقویم خوب هستند؟ چیزی مانند: https://developers.google.com/chart/interactive/docs/gallery/calendar
|
تجسم تقویم
|
97223
|
من در مورد خروجی ای که برای تجزیه و تحلیل شبکه عصبی دریافت می کنم سردرگم هستم. کاری که من سعی می کنم انجام دهم این است که ویژگی های features.csv را دریافت کرده و از آنها برای ایجاد یک شبکه عصبی برای پیش بینی متغیر Murder.per.100.000 استفاده کنم. ستون اول یک برچسب برای هر مشاهده است، بنابراین من آن را حذف می کنم. مشکلی که من دارم این است که «preds» بردار «NA» است. برخی از ویژگی های من کم است. من فرض می کنم که با مقادیر از دست رفته به درستی برخورد نمی کنم. چطور باید درستش کنم؟ وقتی آن را به ویژگیهای غیر پراکنده محدود میکنم، «preds» از همان مقدار تقریباً نزدیک به 1 تشکیل میشود که درست به نظر نمیرسد. library('nnet') dat = read.table(features.csv, sep=,, header=TRUE) # remove observation label dat = dat[ ,-c(1)] nData = dim( dat )[ 1] trainInd = نمونه ( (1: nData), 300 ) # ایجاد داده های آموزشی: trainData = dat[ trainInd, ] # ایجاد آزمایش و اعتبار سنجی مجموعه داده: notTrainData = dat[ -trainInd, ] nData = dim( notTrainData )[1] valInd = نمونه ( (1:nData), nData/2 ) testData = notTrainData[-valInd,] valData = notTrainData[valInd,] = net nnet(Murder.per.100.000 ~ ., data=trainData, size=5, rang=.1, decay=5e-4, maxit=200, na.action=na.exclude) preds = predict(object=net, newdata=valData)
|
فکر کردن به شبکه های عصبی
|
107427
|
من یک مجموعه داده دارم که سعی می کنم آن را در R تجزیه و تحلیل کنم و نسبتاً در محیط جدید هستم. مجموعه کامل دادههای من شامل 7 آزمودنی است (به نمایندگی از سوژه)، که همگی 3 درمان دریافت میکنند (شرایط محیطی، نشاندهنده ارتفاع) و 10 بار در هر درمان اندازهگیری میشوند. هر شرکت کننده هر درمان را به ترتیب متفاوتی دریافت کرد. یک مثال:  من همچنین ویژگی هایی در مورد هر سوژه دارم که ممکن است بر تلاش قدرت آنها تأثیر بگذارد، از جمله وزن، تست های ظرفیت و سن. من به تأثیر هر محیط بر نتایج اسپرینت، به علاوه تأثیر نظم بر روی قدرت علاقه مند هستم. من معتقدم یک مدل ترکیبی خطی، با موضوع به عنوان یک اثر تصادفی، ابزار مناسبی برای بررسی مجموعه داده من است. من این کار را با استفاده از خط زیر انجام دادهام: alt.model = lmer(Power ~ Sprint + Altitude + VO2max + (1|Subject)، data=ALTMM) با این حال، فکر نمیکنم این برای هر اسپرینت جداگانه باشد. چگونه این را نمایندگی کنم؟ متشکرم.
|
اندازهگیریهای مکرر، تحلیل متقاطع با استفاده از مدل خطی مختلط در R
|
99040
|
در شرایطی که آزمون t واریانس نابرابر مناسب است، اگر از آزمون t واریانس مساوی استفاده کنیم، خطای نوع I افزایش می یابد. من یک آزمون نسبت درستنمایی (LRT) معادل آزمون t واریانس نابرابر ایجاد کردم، اما به دلایلی، عملکرد ضعیفی دارد (یعنی بدتر از آزمون t واریانس مساوی). این مشکل باقی می ماند حتی اگر حجم نمونه را به نسبت بزرگ افزایش دهم (100=n). من نمی خواهم فقط به دلیل اندازه نمونه باشد... NL0 <- تابع(p,x1,x2){ l1 <- -sum(dnorm(x1,p[1],p[2],log =T)) l2 <- -sum(dnorm(x2,p[1],p[3],log=T)) l1+l2 } NL1 <- تابع(p,x1,x2){ l1 <- -sum(dnorm(x1,p[1],p[3],log=T)) l2 <- -sum(dnorm(x2,p[2],p[4],log=T)) l1+l2} nsim <- 1000 out1 <- out2 <- out3 <- rep(NA,nsim) n1 <- n2 <- 20 m1 <- m2 <- 100 s1 <- 1 s2 <- 10 برای (i در 1:1000){ x1 <- rnorm(n1,m1,s1) x2 <- rnorm(n2,m2,s2) L0 <- Optim(c(mean(c(x1,x2)),sd(x1),sd(x2)),NL0,x1=x1,x2=x2)$value L1 <- optim(c(mean(x1),mean (x2),sd(x1),sd(x2)),NL1,x1=x1,x2=x2)$value # آمار تست D <- 2*(L0-L1) out1[i] <- t.test(x1,x2,var.equal=TRUE)$p.value out2[i] <- t.test(x1,x2,var.equal=FALSE )$p.value out3[i] <- 1-pchisq(D,1) } mean(out1<0.05) # آزمون t واریانس برابر میانگین (05/0<2<) # آزمون تی واریانس نابرابر میانگین (05/0>3) # آزمون نسبت درستنمایی
|
خطای نوع I در تست های t و LRT
|
107424
|
من سعی می کنم یک تجزیه و تحلیل ساییدگی را روی یک شرکت با اندازه متوسط بین 250 تا 300 انجام دهم. من داده های ساییدگی ماهانه برای 30 ماه گذشته یا بیشتر دارم. حالا اگر بخواهم به سراغ یک رویکرد پیش بینی بروم که بتوانم ساییدگی را برای چند ماه آینده پیش بینی کنم، مثلاً 3 ماه، که کدام یک بهترین رویکرد خواهد بود. پس از چند تحقیق، من بین توزیع پواسون و تحلیل سری های زمانی دستکاری می کنم. کدام روش بهتر است؟ و چرا
|
از چه رویکردی برای تحلیل ساییدگی استفاده کنیم؟
|
112377
|
من یک قاب داده، 1447 obs از 165 متغیر دارم، و به دنبال اضافه کردن ستون ها با پردازش ستون های موجود هستم. من دارم: resvar <- 111 # ستون تعداد متغیر پاسخ (مثلاً CPUE) در «نمونهها» (قاب داده) و به دنبال log1p آن ستون، 111، سطر به ردیف، به ستون جدیدی به نام «grv» هستم. در انتهای نمونه ها: samples$grv <- log1p(samples[resvar]) اما خروجی را در ستون grv، ردیف قرار می دهد. 1، به عنوان ``c(item1,item2,...item1447)` class(log1p(samples[resvar])) = data.frame آیا کسی می داند چه خبر است و چرا کار نمی کند؟ اگر من ساختگی را انجام دهم <- log1p(samples[resvar]) 'dummy' یک data.frame با نام ردیفی است که همان نام ردیف از resvar، نام ردیف ستون 111 است. آیا مشکل این است؟
|
(R) همه دادهها وارد ردیف اول ستون جدید قاب داده میشوند
|
112379
|
من سعی می کنم نرخ های بازیابی را در داده های خود مدل کنم که در محدوده (-.1، +1) هستند. حدود 8 درصد از مشاهدات من نیز منفی است. به طور کلی، در زیر این فاصله آمده است: RR<0: 8% RR=0: 30% RR>0 و RR<0.95: 53% RR>0.95: 8% بهترین راه برای مدلسازی نرخ بازیابی: خطی یا لجستیکی حوادث و محاکمه؟
|
لجستیک در مقابل رگرسیون خطی برای مدلسازی نرخ بازیابی
|
112375
|
من باید دو ضریب تعمیم پذیری (G) را برای داده هایی که از دو جمعیت جداگانه هستند مقایسه کنم. ضرایب G نوعی ضریب همبستگی درون طبقاتی (ICC) هستند. ادبیات مربوط به مقایسه آماری ضرایب G از نظر همه حسابها پراکنده است، بنابراین فکر کردم بهترین کاری که میتوانم انجام دهم، یافتن توصیهای برای مقایسه آماری ICC است. من Fisher's Z را در نظر گرفته ام، اما می دانم که ICC ها به طور معمول توزیع نمی شوند.
|
چگونه آزمایش کنیم که آیا ICC از گروه های مختلف به طور قابل توجهی متفاوت هستند؟
|
105482
|
من rjson را در R نصب کردهام. وقتی میخواهم تابعی را از این بسته مانند toJSON فراخوانی کنم، خطایی مانند تابع undefined میدهد. اما اگر قبل از فراخوانی تابع از require(rJSON) استفاده کنم، به خوبی کار می کند. بنابراین آیا باید همیشه این کار را انجام دهم؟ با تشکر
|
آیا پس از نصب یک بسته در R باید همیشه به آن نیاز داشته باشیم؟
|
105486
|
اگر یک r.v پیوسته داشته باشیم. x$$ و r.v گسسته. $y$ که یکی از دو مقدار $y_1$ و $y_2$ را می گیرد. فرض کنید احتمالات قبلی $P(y_1)$ و $P(y_2)$ را میدانیم. از قضیه بیز می دانیم $p(y_i,x) = P(y_i|x)\cdot p(x)$ $P$ مربوط به prob است. تابع جرم، $p$ مربوط به prob است. تابع چگالی در LHS یک مقدار احتمال داریم که از توزیع پیوسته می آید. در RHS ما حاصل ضرب دو احتمال را داریم که یکی از توزیع گسسته و دیگری از توزیع پیوسته می آید. سوال من این است - چرا عبارت اول در RHS $P(y_i|x)$ است و نه $p(y_i|x)$ (زیرا ممکن است با توجه به $x$، احتمال اینکه $y$ مقداری برابر با $y_i$، ممکن است به آرامی از $0$ تا $1$ متفاوت باشد؟ آیا روش های مختلفی برای نوشتن قضیه بیز وجود دارد که به جای $P(y_i|x)$، $p(y_i|x)$ داشته باشد؟
|
متغیر مختلط، توزیع مشترک، چگونه بفهمیم کدام توزیع پیوسته، کدام یک گسسته است
|
40875
|
من یک برگه متقاطع از یک متغیر طبقه بندی را در برابر یک متغیر ساختگی اجرا می کنم. این متغیر ساختگی وجود یا عدم وجود یک ویژگی شرکت را نشان می دهد (اگر شرکت صنعتی است باید 1 و در غیر این صورت 0 باشد). من در این مورد، هنگام اجرای تست دقیق، باید Exact Sig را در نظر بگیرم. یک طرفه یا دو طرفه؟ با تشکر
|
در هنگام برخورد با متغیرهای ساختگی کدام یک را در نظر بگیرید: Exact Sig. (دو طرفه) یا Exact Sig. (یک طرفه)؟
|
14002
|
PCA و MDS کلاسیک چگونه متفاوت هستند؟ MDS در مقابل غیر متریک-MDS چطور؟ آیا زمانی هست که یکی را بر دیگری ترجیح دهید؟ چگونه تفاسیر متفاوت است؟
|
تفاوت بین تجزیه و تحلیل اجزای اصلی و مقیاس بندی چند بعدی چیست؟
|
78190
|
من در تلاش برای درک اشتقاق فرمول های زیر در سخنرانی خود هستم (متاسفانه بدون هیچ توضیح بیشتر). می گوید که هر خطای پیش بینی جدید به شکل $e(r+1)=y(r+1)-h^T(r+1)\cdot \pi(r)$ است. مشکل، مشکل کوچکسازی زیر را ایجاد میکند $J(\pi)=\frac{1}{2}\cdot (\pi(r+1)-\pi(r))^T\cdot (\pi(r+1 )-\pi(r)) + \mu \cdot[y(r+1)-h^T(r+1)\cdot \pi(r+1)]$ در سخنرانی گفته شد که شرایط لازم برای دقیقه راه حل عبارتند از: $\dfrac{\partial J}{\partial \pi(r+1)} = \pi(r+1)-\pi(r)-\mu \cdot h^T(r+1) = 0$ $\dfrac{\partial J}{\partial \mu} = y(r+1) - h^T(r+1)\cdot \pi (r+1) = 0$ تا اینجا خوب بوده است. چیزی که من نمی فهمم این است که چگونه می توان جواب زیر را با حل مجموعه معادلات خطی بدست آورد: $\pi(r+1) = \pi(r) + \dfrac{h(r+1)}{ h^T(r+1)\cdot h(r+1)}\cdot [y(r+1)-h^T(r+1)\cdot \pi(r)]$ چگونه این راه حل را دریافت کنم ? هر گونه کمکی بسیار قدردانی می شود
|
الگوریتم طرح ریزی کازمرز
|
78198
|
من مجموعهای از دادهها را دارم که نشاندهنده گرهها و تعداد دفعاتی است که آنها با یکدیگر درگیر شدهاند. من این را در جدولی شامل گرههای X و Y پردازش کردهام که دادههای آن تعداد تعاملات است، به عنوان مثال. A B C D A 2 2 0 0 B 2 2 0 0 C 0 0 2 1 D 0 0 1 2 بنابراین داده ها را می توان به هر طرف نگاه کرد. اکنون میخواهم چند خوشهبندی از اینها را انجام دهم تا خوشههایی از گرههای مرتبط را از طریق سطح تعاملشان و همچنین برخی تجسمسازی پیدا کنم. من R دارم که ایده آل است، اما خوشحالم که اگر راحت تر است از چیز دیگری استفاده کنم. همه خوشهبندیهای for-noddy که من میبینم این نوع دادهها را ندارند: میتوان گفت مجموعهای از گرهها و برای هر یک مجموعهای از متغیرها و خوشهبندی برای شباهت در آن متغیرها است - مشکلی متفاوت از آنچه من تلاش میکنم.
|
خوشه بندی داده ها برای وقوع
|
105487
|
هنگامی که از رویکرد بالا به پایین برای القای درخت تصمیم استفاده می کنیم، باید از نوعی معیار تقسیم برای انتخاب ویژگی _splitting_ و _splitting value_ در یک گره داخلی خاص استفاده کنیم. معیارها می تواند این باشد: * IG * IGR * ناخالصی جینی اما انتخاب ویژگی **_بسیار محاسباتی فشرده_** به نظر می رسد. زیرا باید تمام ویژگی های موجود را برشماریم و از تمام مقادیر تقسیم ممکن آن عبور کنیم. و برای هر یک از ویژگی / مقدار تقسیم، باید مقدار معیار را محاسبه کرده و آن را به خاطر بسپاریم و بهترین مقدار را انتخاب کنیم. آیا من در این مورد درست هستم؟ آیا کاری وجود دارد که بتوانیم آن را بهبود بخشیم؟
|
کارایی درخت تصمیم
|
91232
|
چرا از تابع پیوند متعارف به طور مکرر در GLM استفاده می شود؟ چه چیزی آن را طبیعی می کند؟ آیا دلیلی وجود دارد که فکر کنیم، $Q(\theta _i)$ (که در آن $Q$ تابع پیوند متعارف است، و $\theta _i$ پارامتر مورد علاقه است) با ترکیب خطی متغیرهای پیش بینی بهتر از یک تابع دیگر از $\theta_i$. یعنی آیا دلیلی وجود دارد که باور کنیم: $$Q(\theta _i) = \sum_j \beta _j x_{ij}$$ برتر از: $$f(\theta _i) = \sum_j \beta _j x_ {ij}$$ where $Q \neq f$ اگر نه، آیا چیز دیگری وجود دارد که $Q$ را بهتر از $f$ کند؟ کتاب درسی که من استفاده میکنم فقط به چیستی تابع پیوند متعارف اشاره میکند و از آن استفاده میکند (تقریباً منحصراً)، اما توضیح نمیدهد که چه چیزی آن را از هر تابع پیوند دلخواه متمایز میکند.
|
چه چیزی عملکرد پیوند متعارف را در GLM ها خاص می کند؟
|
112086
|
من با کلمه **نمونه برداری از هر توزیع احتمال P(x)** اشتباه گرفته ام، به این معنی است که از ناآگاهی خود عذرخواهی می کنم، اما، همانطور که فهمیدم، نمونه برداری، مثلا پرتاب کردن یک سکه و نوشتن نتیجه است یک سر بود یا یک دم، x1 {1,0}، خواه آزمودنی چاق، نرمال یا کم وزن، x2 {1=چاق، 2=طبیعی، 3=کم وزنی }، آیا من اشتباه می کنم؟ بنابراین لطفاً به من کمک کنید تا بفهمم « **نمونههایی را از هر توزیع احتمال P(x)** بکشید، به چه معناست؟
|
ترسیم نمونه با استفاده از الگوریتم متروپلیس-هیستینگ به چه معناست؟
|
78192
|
من می خواهم ماتریس کوواریانس کامل یک بردار توزیع شده گاوسی چند متغیره را تخمین بزنم. من یک توزیع گاوسی چند متغیره برای یک بردار $\mathbf{r}=[r_1,..,r_T]^T$ دارم به شکل \begin{align} p(\mathbf{r})&=\sum_{ \boldsymbol{\pi} \in \Omega_{\boldsymbol{\pi}}^T} p(\mathbf{r|\boldsymbol \pi})\prod_{t=1}^T p(\pi_t),\\\ \end{align} متغیر طبقهای پنهان $\boldsymbol{\pi}=[\pi_1,...,\pi_T] $، مقادیری را از یک فضای حالت گسسته می گیرد، به طوری که $\pi_t \in \Omega_{ \pi}: \\{1,...,L\\}$ و بنابراین $\boldsymbol{\pi} \in \Omega_{\pi}^T$. جایی که من ماتریس واریانس را به روش زیر برای سادگی جدا کرده ام: \begin{align} p(\mathbf{r}|\boldsymbol{\pi})=&N_T\left( \begin{bmatrix} \mu_{r_1|\ pi_1}\\\ .\\\ .\\\ .\\\ \mu_{r_T|\pi_T} \end{bmatrix}، \begin{bmatrix} \sigma_{r_1|\pi_1}^2 & & & &0\\\ & .& & & \\\ & & & & \\\ & &.&\. \\0& & & & \sigma_{r_T|\pi_T}^2 \end{bmatrix} \begin{bmatrix} 1 & \vartheta(1) & .& .& &\vartheta(T-1)\\\ \vartheta(1) & 1& & &\\\ .& & & & \\\ .& & &.& \\\\\. vartheta(T-1) & & & & & 1 \end{bmatrix} \right)\nonnumber \\\ \nonumber \\\ =&N_T\left(\boldsymbol{\mu_{r|\pi}},\boldsymbol{\Sigma_{r|\pi}^{\sigma}} \boldsymbol{\Sigma_{r|\pi}^{\vartheta } }\راست)\\\ =&N_T\left(\boldsymbol{\mu_{r|\pi}},\boldsymbol{\Sigma_{r|\pi}}\right)\\\ \end{align} چگونه ماتریس کوواریانس کامل را پیدا کنم $\mathbf{r}؟$ من \begin{align} var(\mathbf{r}) و = E را امتحان کردم var(\mathbf{r}\mid \boldsymbol{\pi})) + var (E(\mathbf{r} \mid \boldsymbol{\pi}) \\\\[12pt] & = \sum_{\ boldsymbol{\pi} \in \Omega^T} p(\boldsymbol{\pi}) \boldsymbol{\Sigma_{r|\pi}} + \sum_{\boldsymbol{\pi} \in \Omega^T} p(\boldsymbol{\pi}) (\mu_{r|\pi}-\bar{\mu_r})(\mu_{r|\pi }-\bar{\mu_r})^T \end{align} اما در اینجا باید عبارت های L^T را جمع کنید. هر گونه راهنمایی در مورد چگونگی تخمین ماتریس کوواریانس کامل $\mathbf{r}$ بسیار استقبال می شود.
|
ماتریس کوواریانس کامل توزیع گاوسی مخلوط چند متغیره
|
113972
|
من سعی میکنم نابرابری زیر را اثبات کنم: ویرایش: تقریباً بلافاصله پس از ارسال این سؤال، متوجه شدم که نابرابری که از من خواسته میشود اثبات کنم، نامساوی Cantelli است. وقتی این را نوشتم، متوجه نشدم که این نابرابری خاص نامی دارد. من شواهد متعددی را از طریق گوگل پیدا کردهام، بنابراین به طور دقیق دیگر نیازی به راهحل ندارم. با این حال، من این سوال را ادامه میدهم زیرا هیچ یک از شواهدی که پیدا کردم شامل استناد به این واقعیت نیست که $t=E(t-X)\leq E[(t-X)\mathbb{I}_{X<t}]$، به عنوان در ابتدا در نظر گرفته شده بود. برای $t \geq 0$, $\mathbb{P}(X-E(X)\geq t)\leq \frac{V(X)}{V(X)+t^2}$ استاد ما موارد زیر را به ما داد نکات برای حل این موضوع: ابتدا مشکل را با فرض $E(X)=0$ حل کنید سپس از این واقعیت استفاده کنید که $t=E(t-X)\leq E[(t-X)\mathbb{I}_{X<t}]$. ویرایش: برای روشن بودن، در نماد من، $\mathbb{I}$ به تابع نشانگر اشاره دارد. بخش اول بسیار ساده است. این اساساً نوعی اثبات برای نابرابری مارکوف یا چبیچف است. من این کار را به صورت زیر انجام دادم: $V(X)=\int_{-\infty}^{\infty}(x-E(X))^2f(x)dx$ (من می دانم که، به درستی، باید $ را جایگزین کنیم به عنوان مثال، x$ با $u$ و $f(x)$ با $f_x(u)$ هنگام ارزیابی یک انتگرال، صادقانه بگویم، به نظر من این نماد/قرارداد درست است بی جهت گیج کننده و خیلی شفاف نیست، بنابراین من به نماد غیررسمی تر خود پایبند هستم.) اگر $E(X)=0$ را فرض کنیم، آنگاه حالت فوق به $V(X)=\int_{-\infty}^{ ساده می شود. \infty}x^2f(x)dx$ برای اختصار، برخی از مراحل را رد میکنم، اما به راحتی میتوان نشان داد که $V(X)\geq t^2 P(X>t)$ یا بهتر بگوییم $P(X>t)\leq \frac{V(X)}{t^2}$. از آنجایی که $E(X)=0$، می توانیم $X$ در سمت چپ دومی را با $X-E(X)$ جایگزین کنیم. اینجا جایی است که من برای حرکت رو به جلو مشکل دارم. من نمیدانم چگونه میتوان از این واقعیت استفاده کرد که $t=E(t-X)\leq E[(t-x)\mathbb{I}_{X<t}]$. باز هم، از آنجایی که $E(X)=0$، میتوانیم $t-E(X)$ را جایگزین $t$ کنیم. این معادل $E(t-X)$ است. سپس، میتوانیم $t^2$ را در مخرج سمت راست نابرابری به صورت $[E(t-X)]^2$ بازنویسی کنیم، که از آنجایی که عبارت میانی خارج میشود به $t^2-[ ساده میشود. E(X)]^2$. اما نمیدانم از اینجا به کجا میتوانم بروم. اگرچه میتوانید این را بهعنوان $t^2+V(X)-E(X^2)$ بازنویسی کنید، که حداقل عبارت $V(X)+t^2$ را در جای مناسب دریافت میکند. واضح است که من چیزی را در اینجا گم کرده ام، مربوط به $E(t-X) \leq E[(t-X)\mathbb{I}_{X<t}]$، اما کاملاً صادقانه بگویم که نمی دانم با این اصطلاح چه کنم . من از نظر مفهومی می فهمم که این اصطلاح به من چه می گوید. به طور شهودی، مقدار مورد انتظار $t-X$ کوچکتر از مقدار مشابه خواهد بود اگر $X$ محدود به کمتر از $t$ باشد. یعنی عبارت اول احتمالاً منفی است، در حالی که دومی باید مثبت باشد. اما نمیدانم چگونه میتوانم از این واقعیت در اثبات استفاده کنم. من سعی کردم توزیع را در داخل برای ساده کردن ... $E[(t-X)\mathbb{I}_{X<t}]=E[t\mathbb{I}_{X<t} - X\mathbb {I}_{X<t}]=tP(X<t)-?$ اما مطمئن نیستم که چگونه $E(X\mathbb{I}_{X<t}]$ را ارزیابی کنم. هر کسی ایده یا ایده ای دارد الف اشاره؟
|
اثبات نابرابری کانتلی
|
112085
|
من برای تکلیف تجزیه و تحلیل داده هایم به کمک نیاز مبرم دارم! من یک آنوا مختلط 3 طرفه دارم - که در آن 2 اثر اصلی sig، یک تعامل دو طرفه قابل توجه و تعامل سه طرفه sig دارم. استنتاجها را در جدول قرار دادهاند) پس از به دست آوردن روش sig 3، با استفاده از دستور EMMEANS (طبق جزوهای که دریافت کردم)، یک آزمون تعقیبی برای مقایسه میانگینها انجام دادم. از آنجایی که آنووا n2 جزئی می دهد، من می دانم که چگونه جلوه های اصلی و تعامل را به eta n2 تغییر دهم (با استفاده از جدول جلوه های داخلی و جدول بین افکت ها مشخصاً بسته به نوع فاکتور آن است) اما با مقایسه های زوجی که از آن گرفتم. انجام دستور EMMEANS 'EMMEANS = TABLES (نوع*wggroup*تطبیق) COMPARE (تطبیق) /EMMEANS = TABLES (wggroup*type) COMPARE (نوع) چگونه n2 جزئی را در جدول چند متغیره به eta n2 تغییر دهم؟ از آنجایی که من اکنون برای مقایسه های زوجی در متن خود استنباطی را دارم، اما نمی توانم اندازه افکت را از جدول چند متغیره به eta n2 تبدیل کنم تا آن را به درستی تفسیر کنم، تنها جداولی که از EMMEANS داده می شود، مقایسه های زوجی است (که ندارد. استنتاج ها) و سپس در زیر آن جدول چند متغیره (با استنباط) قرار دارد با تشکر!
|
ANOVA ترکیبی 3 راه و اندازه اثر مقایسه زوجی
|
113971
|
بگویید من دادههای طبقهبندی شده بر اساس وضعیت سیگار کشیدن دارم، که در آن $Y=1$ سرطان ریه است، $Y=0$ سرطان ریه ندارد، و در نهایت $D=1$ الکل مینوشد، و $D=0$ ندارد. الکل ننوشید چگونه $P(Y=1| D=1، S=1)$ را تخمین بزنم؟ من معتقدم از این فرمول پیروی می کند (http://math.stackexchange.com/questions/419408/how-to-compute- conditonal-probability-on-multiple-conditions-on-the-right-side) ابتدا به سیگاری ها نگاه می کنم نمودار- و زیر $Y=1$ & $D=1$ می بینم که عدد 24$ است. آیا این بیش از احتمال D=1$ و $S=1$ است، پس اکنون 24$/(24+776)=24/800$ است؟ و در نهایت $P(Y=1|D=0, S=0)= 21/(21+2079)=21/2100$؟ **سیگاری ها ($S=1$):** | Y=1 Y=0 ------------------ D=1 | 24 776 D=0 | 6 194 ** غیر سیگاری ها ($S=0$):** | Y=1 Y=0 ----------------- D=1 | 9 891 D=0 | 21 2079
|
تخمین احتمالات از جدول طبقه بندی شده
|
80437
|
من در مورد کاهش ابعاد و خوشه بندی گیج شده ام. آیا همه الگوریتمهای خوشهبندی (k-means، انتشار قرابت، خوشهبندی طیفی،...) نوعی کاهش ابعاد را انجام میدهند؟
|
رابطه بین کاهش ابعاد و الگوریتم های خوشه بندی
|
67238
|
متاسفم که ممکن است سوال احمقانه به نظر برسد، اما من در حال حاضر واقعا گیج هستم. برای شناخت بهتر آمار، یک مطالعه موجود (همان سوالات) را تکرار کردم و نظرسنجی را انجام دادم (66=n). من همبستگی ها را محاسبه کردم (دو متغیره پیرسون، 2 طرفه) و نتایج آماری معنی داری یافتم. متأسفانه، برخی از نتایج من در جایی که اولین مطالعه (که تکرار کردم) نتایج قابل توجهی پیدا کرد، ناچیز است. در مورد آن چه می توانم بگویم (علاوه بر این که باید فرضیه را رد کنم و برای به دست آوردن نتایج قابل توجهی به حجم نمونه بزرگتری نیاز دارم)؟ آیا مطالعه اول اشتباه است؟
|
همبستگی معنی دار نیست - تفسیر؟
|
101125
|
آیا تحلیل عاملی با استفاده از روش مؤلفه اصلی همانند تحلیل مؤلفه اصلی است؟
|
تحلیل عاملی با استفاده از روش مؤلفه اصلی
|
1576
|
به نظر می رسد تعدادی از بسته های آماری که من استفاده می کنم این دو مفهوم را در کنار هم قرار می دهند. با این حال، من متعجبم که آیا فرضیات یا تشریفات داده های متفاوتی وجود دارد که برای استفاده از یکی بر دیگری باید درست باشد. یک مثال واقعی فوق العاده مفید خواهد بود.
|
تفاوت بین تحلیل عاملی و تحلیل مؤلفه اصلی چیست؟
|
3368
|
فرض کنید من سه سری زمانی با طول یکسان و بازه زمانی یکسان دارم. اگر من هر یک از سه سری زمانی را از طریق درون یابی نمونه برداری کنم، باعث ایجاد نام مستعار می شود. با این حال، اگر من به اطلاعات تعبیه شده در میانگین سه سری زمانی علاقه مند باشم، آیا چنین نمونه گیری موجهی است؟ به عبارت دیگر، آیا بالا بردن و سپس میانگین گیری در بین سه سری زمانی فرکانس Nyquist را سه برابر افزایش می دهد؟ با تشکر
|
آیا میانگین گیری در چند سری زمانی فرکانس Nyquist بالاتری را ارائه می دهد؟
|
113438
|
اگر بقایای یک ARIMA(p,d,q) با پارامترهای شناخته شده داشته باشیم، چگونه می توانیم مشاهدات اصلی سری زمانی را بازیابی کنیم؟
|
چگونه می توان مشاهدات را از باقیمانده ها در یک مدل ARIMA بدست آورد؟
|
67237
|
من باید فرضیه خود را اثبات کنم: تأثیر نسبی پیوندهای مستقیم بر نتیجه پروژه با رشد شبکه پیوندهای مستقیم کاهش می یابد. بنابراین من IV (اندازه شبکه) و DV (نتیجه) دارم. من با رگرسیون ثابت کردهام که IV یک پیشبینیکننده مهم نسبت به DV است. با این حال، چگونه می توانم ثابت کنم که اثر با رشد IV کاهش می یابد؟
|
اثر پوسیدگی IV بر DV. چگونه تحلیل کنیم؟
|
104998
|
من مجموعه داده ای دارم که دارای باکتری های مختلف در انواع مختلف موش است. فرض کنید به موش ها می گویند: sw/c57، sw/sw، c57/c57 و c57/sw. نمونه مدفوع این موش ها مورد تجزیه و تحلیل قرار گرفته و تعداد باکتری های موجود در نمونه مدفوع آنها در دسترس است. اکنون میخواهم آن باکتریهایی را پیدا کنم که در هر یک از انواع موشها تفاوت چشمگیری دارند. به عنوان مثال Prevotela در c57/c57 به طور قابل توجهی در مقایسه با موش های دیگر متفاوت است. نمونه ای از مجموعه داده من: sw/sw sw/c57 c57/c57 c57/sw Roseburia 500 141 0 589 Prevotela 300 131 237 288 هر نوع موش دارای 10 تکرار است. از چه نوع آزمون آماری برای تجزیه و تحلیل داده های خود استفاده کنم؟ با تشکر
|
کدام آزمایش آماری برای مشکل بیولوژیکی من بهترین است؟
|
104996
|
دو متغیر تصادفی $X$ و $Y$ را تصور کنید که با $\rho = 1$ همبستگی دارند. هر دو دارای میانگین 100 دلار و انحراف استاندارد 40 دلار هستند. دو متغیر تصادفی دیگر $U$ و $V$ در $\rho=0.8$ همبستگی دارند. هر دو دارای میانگین 0 دلار و انحراف استاندارد 20 دلار هستند. حالا، نمی دانم آیا فرمولی برای محاسبه همبستگی $A = X+U$ و $B=Y+V$ وجود دارد؟ $\text{cor}(X,U)=\text{cor}(X,V)=\text{cor}(Y,U)=\text{cor}(Y,V)=0$ هرگونه ایده چگونه $\text{cor}(A,B)$ را محاسبه کنیم؟ پیشاپیش ممنون
|
همبستگی دو مجموع متغیرهای تصادفی
|
67236
|
من مدلهایم را اعتبار متقاطع کردهام و RMSE را بین مقادیر مدلسازیشده و واقعیت اندازهگیری کردهام: RMSE <- تابع(err) sqrt(mean(err^2)) RMSE(پیشبینی شده - واقعیت) من قصد دارم مدلی با کمترین RMSE انتخاب کنم. اما من می خواهم بدانم چه تفاوتی در RMSE هنوز قابل توجه است. حدس میزنم میتوانم مقایسههای F-test انجام دهم، اما از آنجایی که دهها مدل دارم، از ایده مقایسههای زوجی خوشم نمیآید. این من را به سوال ## # سوق می دهد که چگونه می توان تابع RMSE من را برای محاسبه SE از RMSE گسترش داد؟ چگونه این کار را در R انجام دهیم؟ من حدس میزنم که این به نوعی مبتنی بر توزیع Chi-square باشد که با «طول(خطا)» پارامتر شده است و شاید به نوعی با «sd(err)» (؟) مقیاسبندی شود، اما من نمیدانم چگونه از نظر آماری این را به درستی در R ایجاد کنم.
|
SE از RMSE در R
|
3362
|
من میخواهم تأثیر اجرای سیاستهای آتی را که با تغییرات در پاسخ پرسشنامه به سؤالی در مقیاس لیکرت اندازهگیری میشود، ارزیابی کنم. میدانم که میتوانم از رویکرد تفاوت در تفاوت استفاده کنم. با این حال، در وضعیت من، هیچ مقایسه واضحی وجود ندارد، جمعیت درمان نشده. فکر میکنم میخواهم از روش کنترل مصنوعی برای مطالعات موردی مقایسهای که توسط Abadie و همکارانش توضیح داده شده و به عنوان Synth در R. پیادهسازی شده است استفاده کنم. * Alberto Abadie، Alexis Diamond، Jens Hainmueller. مجله انجمن آمار آمریکا. 1 ژوئن 2010، 105(490): 493-505. doi:10.1198/jasa.2009.ap08746. متن کامل همانطور که در R help for synth خلاصه شده است: > synth اثر یک مداخله مورد علاقه را با مقایسه > تکامل یک نتیجه کل برای یک واحد تحت تأثیر مداخله با > تکامل همان نتیجه کل برای یک کنترل مصنوعی برآورد می کند. گروه synth این گروه کنترل مصنوعی را با جستجوی یک ترکیب وزن دار از واحدهای کنترل انتخاب شده برای تقریب واحد تحت تأثیر مداخله از نظر پیش بینی کننده های نتیجه می سازد. تکامل نتیجه برای گروه کنترل مصنوعی حاصل، تخمینی از خلاف واقع آن چیزی است که در غیاب مداخله برای واحد آسیب دیده مشاهده می شد. [..] تابع synth به طور معمول به جستجوی > مجموعه ای از وزنه ها می پردازد که بهترین ترکیب محدب برازش واحدهای کنترل را ایجاد می کنند. به عبارت دیگر، ماتریس وزن پیشبینیکننده V از بین همه ماتریسهای مورب قطعی مثبت انتخاب میشود به طوری که MSPE برای دوره قبل از مداخله به حداقل میرسد. همچنین خلاصه مفید سریکانت وادالی را در پاسخ های زیر ببینید. آیا این روش برای داده های نظرسنجی/نمونه گیری مناسب است؟ آیا کاری وجود دارد که باید به طور متفاوت انجام دهم یا فقط از میانگین پاسخ لیکرت به عنوان متغیر وابسته استفاده کنم؟ پیشنهادی در مورد اینکه چگونه می توانم چنین جانوری را قدرت دهم؟ متشکرم!
|
آیا می توانم از روش کنترل مصنوعی برای مطالعات موردی مقایسه ای با داده های نظرسنجی استفاده کنم؟
|
104994
|
اجازه دهید $X$ یک متغیر تصادفی با ارزش واقعی با تابع مشخصه $\phi$ را نشان دهد. فرض کنید $g$ یک تابع با ارزش واقعی در $\mathbb{R}$ است که دارای نمایش $\hspace{25mm}g(x) = \int_{-\infty}^{\infty}G(t) است. \exp(itx)\,dt$ برای برخی $G$ راضی کننده است $\hspace{25mm}\int_{-\infty}^{\infty}|G(t)|dt < \infty$ ثابت کنید که $\hspace{15mm}$$E[g(X)] = \int_{ -\infty}^{\infty}G(t)\phi(t) dt$ تلاش: $\hspace{15mm}$$E[g(X)] = \int_{-\infty}^{\infty}G(t)\exp(itX)\cdot p(x) dx$ از $\int_{-\infty}^{\infty}\exp(itX)\ cdot p(x) dx$ = $E[\exp(itX)] = \phi(t)$، سپس داریم $\hspace{15mm}$$E[g(X)] = \int_{-\infty}^{\infty}G(t)\phi(t) dt$
|
ثابت کنید که $E[g(X)] = \int_{-\infty}^{\infty}G(t)\phi(t) dt$
|
30271
|
من اخیراً در مورد رگرسیون محور اصلی کاهش یافته، با نام رابطه تابعی متوسط هندسی، رگرسیون حداقل محصولات، رگرسیون مورب، خط همبستگی ارگانیک و خط کمترین مساحت ها آشنا شدم (به ویکی پدیا مراجعه کنید). ایده این است که برای یک رگرسیون OLS تک متغیره سنتی (y=a+bx)، خطاهایی که به حداقل می رسند، فاصله «عمودی» (در امتداد محور y) مشاهدات تا خط رگرسیون است. رگرسیون محور اصلی کاهش یافته فرض می کند که خطاهایی در هر دو y و x وجود دارد. چیزی که به حداقل می رسد، _محصول_ «فاصله y» و «فاصله x» مشاهدات تا خط است. بنابراین در واقع مساحت مثلث بین مشاهده و خط است که به حداقل می رسد. پل ساموئلسون ظاهراً گفت که این یک پسرفت جالب بود. با این حال، درک اینکه چرا و چه زمانی باید از آن استفاده کنم، مشکل دارم. بنابراین، آیا از آن استفاده می کنید؟ چرا؟
|
چه زمانی باید از رگرسیون محور اصلی کاهش یافته، با نام رابطه تابعی میانگین هندسی استفاده کرد؟
|
30270
|
برای مثال، با در نظر گرفتن یک توزیع ساده آلفا-پایدار، توزیع گاوسی معکوس عادی، چگونه می توان تابع درستنمایی را استخراج کرد. داده_، به عنوان مثال یک سری قیمت؟
|
چگونه می توان تابع احتمال یک توزیع را در خانواده پایدار آلفا با توجه به non-i.i.d ساخت؟ داده ها؟
|
109950
|
من دو گروه از افراد دارم، یعنی A و B. میانگین ضربان قلب ساعتی ما بین 45 تا 80 ساعت است که طول آن بر اساس افراد متفاوت است. ما به تأثیر گروه*زمان بر ضربان قلب علاقه مندیم. از آنجایی که من تکرارهای متفاوتی برای زمان های مختلف در هر موضوع دارم، شناسه موضوع یک اثر تصادفی در نظر گرفته می شود. من lme را در R و fit model را در JMP امتحان کردم، اما نتایج متفاوتی دریافت کردم، اثر، مانند زمان 10، 11، یا اصطلاحات تعامل، مانند group[A]*time[3]، group[A]*time [4]، در خروجی های JMP قابل توجه هستند، در حالی که در R نه. آیا کسی می تواند به من بگوید که آیا مدل من صحیح است و چرا آنها متفاوت هستند؟ در R، اسکریپت من این است: lme.RR<-lme(meanRR~Group*timeofday, random=~1|SubjectID) (زمان روز به عنوان فاکتور مشخص می شود) در JMP، من Analyze -> fit model را انتخاب کردم، meanRR را انتخاب کردم. به عنوان Y، group، time، group*time در جلوه های مدل، و subjectID را اضافه کنید و آن را به عنوان افکت های تصادفی مشخص کنید. 
|
نتیجه مدل اثر تصادفی R و JMP
|
30169
|
> **تکراری احتمالی:** > دادن جزئیات بیشتر به آخرین پستم: من خیلی گم شده ام و نمی دانم از کدام > تست ها استفاده کنم یا چگونه داده ها را در SPSS وارد کنم. آزمایشی را با استفاده از طرح درون آزمودنی ها و 2x2 انجام دادم. طراحی عوامل ثابت طبقهای با DV طبقهای (هر موضوعی در هر شرایطی بود). من نمی دانم از چه تستی استفاده کنم. ممنون از کمکت امیلی
|
از چه تحلیلی برای یک DV طبقه بندی شده و یک طراحی درون سوژه استفاده کنیم؟
|
30274
|
من نتایج زیر را از یک آزمایش گرنجر دارم. کسی می تواند به من بگوید چگونه آنها را تفسیر کنم؟ من درک می کنم که p.val(ue) < 0.05 برای رد فرضیه صفر معنی دار است. اما آیا ftest یا r2 (مربع) اطلاعات اضافی اضافه می کنند؟ A g-cause B ftest = 7.523583 p.val = 0.006165445 R2 = 0.005235041 ftest = 5.535103 p.val = 0.004030749 R2 = 0.007986544 p.test 7 = 2.8 0.01242363 R2 = 0.008143064 B g-cause A ftest = 0.3040705 p.val = 0.5814277 R2 = 0.0002147836 ftest = 0.5627182 p.val = 0.5627182 p.val = 0.506 R. ftest = 2.365794 p.val = 0.0693209 R2 = 0.005935409
|
تفسیر آزمون گرنجر/والد
|
30278
|
من یک مبتدی هستم -- در توضیح بیش از حد دریغ نکنید. من باید از توزیع نمونه یک متغیر پیوسته (که هنوز به عنوان یک متغیر گسسته ترتیبی مفید است) استنباط هایی در مورد توزیع جمعیت انجام دهم. آنچه من می خواهم یک نوار اطمینان در تابع احتمال و روش مناسب برای بدست آوردن چگالی در یک بازه (یا جرم) معین با یک نوار اطمینان است. من به این فکر کردم که متغیر را بهعنوان ترتیبی-گسسته در نظر بگیرم و تخمینهای تناسبی را در تمام سطوح انجام دهم (مراقبت از 0 «موفقیت»). همانطور که گفتم، من یک مبتدی هستم، اما احساس می کنم این بسیار اشتباه است. منطقه/روش چیست که باید کاوش کنم؟ به نظر میرسد که باندهای اطمینان چگالی تخمینی (با فرض اینکه این چیزی است که من نیاز دارم) نسبتاً جدید هستند - امیدوارم چیزی رایج باشد.
|
نوار اطمینان برای توابع جرم یا چگالی احتمال
|
4272
|
در چه شرایطی باید به جای OLS از روشهای منظمسازی (ریج، کمند یا رگرسیون حداقل زاویه) استفاده کرد؟ در صورتی که این به هدایت بحث کمک کند، علاقه اصلی من بهبود دقت پیشبینی است.
|
چه زمانی از روش های منظم سازی برای رگرسیون استفاده کنیم؟
|
4279
|
من می خواهم یک برنامه وب با استفاده از R بسازم. من از ویندوز ویستا استفاده می کنم و یک سرور آپاچی دارم. من Rpad را امتحان کردم، اما نتوانستم آن را به درستی پیکربندی کنم. چگونه Rpad را راه اندازی کنم زیرا با PHP و سرور آپاچی چندان خوب نیستم؟ یا راه های دیگری برای استفاده از R در سرور آپاچی وجود دارد؟
|
چگونه می توانم R را با PHP ادغام کنم؟
|
109953
|
در پایگاه داده MySQL یک جدول با یک ستون عددی مقدار وجود دارد. من می خواهم توزیع این مقادیر را به صورت نمودار میله ای/هیستوگرام با شرایط زیر رسم کنم: * باید حداکثر N میله (فاصله) در نمودار وجود داشته باشد * عرض هر میله (محدوده محور x) باید یکنواخت باشد. و ارتفاع هر نوار باید تعداد مقادیر این بازه را منعکس کند. * نقاط انتهایی نوار باید در اعداد گرد باشد. میدانم که این یک الزام نسبتاً مبهم است، اما امیدوارم مثال زیر منظور من را نشان دهد * فواصل زمانی باید به هم پیوسته باشند، به عنوان مثال. بازه بعدی باید از جایی شروع شود که فاصله قبلی به پایان رسیده است * در حالت ایده آل باید بتوان داده ها را با یک پرس و جو بازیابی کرد * اشکالی ندارد که بازه هایی با تعداد (مقدار محور y) 0 ## داشته باشیم، مثال اگر N = 3 و جدول حاوی داده های زیر است +------------+ | ارزش | +------------+ | -49.2 | | -28.2 | | 13.3 | | 23.3 | | 51.4 | | 77.9 | +------------+ در بازرسی، به راحتی می توان دریافت که فواصل {-50..0، 0..50، 50..100} الزامات این مجموعه داده را برآورده می کند و مقدار N. با این حال، من در تلاش هستم تا یک راه حل کلی ارائه دهم که برای هر مقدار N و هر مجموعه داده ای کار کند. این چیزی است که من تاکنون امتحان کردهام: ## محاسبه پهنای بازه زمانی حداکثر و حداقل مقدار را از طریق عبارت زیر دریافت کنید SELECT min(value), max(value), count(*) FROM my_table سپس نتیجه را به این ( روش Groovy/Java) برای محاسبه عرض هر بازه // intervalCount همان چیزی است که من از آن به عنوان عدد صحیح ثابت N یاد می کنم. getRoundedIntervalSize(دقیقه دو برابر، حداکثر دو برابر، عدد صحیح فاصله) {عدد فاصله = Math.ceil((حداکثر - دقیقه) / intervalCount) عدد صحیح roundingScale = Math.log10(intervalSize) - 1 عدد roundNearest = 10 ** گرد کردن مقیاس // اندازه فاصله به نزدیکترین دور نزدیکترین عدد intervalDelta = roundNearest - (intervalSize % roundNearest) intervalSize + intervalDelta } ## دریافت توزیع فرکانس، سپس از عبارت جستجوی زیر استفاده میکنم (با مقدار بازگشتی «getRoundedIntervalSize» جایگزین «:groupSize») برای دریافت تعداد مقادیر در هر بازه SELECT floor( مقدار / :groupSize) * :groupSize به عنوان groupLowerLimit، count(*) as groupCount FROM my_table GROUP BY groupLowerLimit ORDER BY groupLowerLimit ASC این حد پایین هر بازه و تعداد مقادیر در هر بازه را برمی گرداند، که تمام چیزی است که برای ساختن توزیع فرکانس نیاز دارم. ## کاستی ها اگرچه این رویکرد زمانی که مجموعه داده نسبتاً یکنواخت توزیع شده باشد، نسبتاً خوب عمل می کند، اما وقتی اینطور نیست، فواصل زمانی ایجاد می شود که عرض های متفاوتی دارند یا به هم پیوسته نیستند. همچنین، هنگامی که محدوده مجموعه داده کوچک است (مثلاً همه مقادیر بین 1 و 4) و N بزرگ است (مثلا 30)، تعداد بازه های تولید شده بسیار کمتر از N است. آیا رویکرد بهتری برای حل این مشکل وجود دارد. که شرایط بالا را برآورده می کند؟
|
تولید توزیع فرکانس از پایگاه داده
|
108394
|
من سعی می کنم دو توزیع جزء یک مخلوط محدود ظاهری را از یک مجموعه داده وزن دار (که توسط یک هیستوگرام وزن دار تعیین می شود) جدا کنم. من مجموعه ای از داده ها و وزن ها را فقط برای بخشی از مجموعه دارم، مانند این: وزن داده ها 2.5 2.8 2.6 2.8 3.4 2.8 3.2 2.8 3.5 2.8 3.7 2.8 3.1 2.8 4.4 1.0 4.5 2.8 3.4 2.8 3.2 2.8 3.5 2.8 3.7 2.8 3.1 2.8 4.4 1.0 4.5 1.0 1.0 5.4 1.0 5.3 1.0 5.5 1.0 5.6 1.0 5.7 1.0 4.7 1.0 6.2 1.0 من می توانم آن را بدون وزنه ها با تابع «normalmixEM» در بسته «mixtools» برای «R» جدا کنم، اما با داده های «R» کار می کند. آیا کسی می تواند به من کمک کند تا توزیع ها را از داده های وزنی جدا کنم؟
|
چگونه توزیع ها را از داده های وزنی جدا کنیم؟
|
108393
|
من یک سوال مربوط به svm دارم. من یک مجموعه داده نامتعادل دارم، به این معنی که کلاس A می تواند 1/10 تا 1/35 کلاس B باشد. خوب، من علاقه مند به دریافت یک svm _linear_ هستم که داده ها را از هم جدا می کند و به بالاترین فراخوان ممکن کلاسA می رسد. اجازه دهید برخی **نمونه**ها را برای دقیق تر نشان دهم: * اگر 1000 نمونه به کلاس A توسط هایپرخط نگاشت می شوند، می خواهم 80٪ -90٪ از classA داشته باشم. این بدان معنا نیست که کلاسA فقط 1000 نمونه داشته باشد، بلکه می تواند 2000 یا 10000 نمونه داشته باشد. من به دقت کلاس A علاقه ای ندارم، یعنی معیار استاندارد برای بدست آوردن نمونه های بیشتر کلاسA توسط svm از کل نمونه های متعلق به کلاس A. . * اگر بتوانم 100 نمونه کلاس A و بدون کلاس B بگیرم، بهتر از گرفتن 500 نمونه کلاس A و 500 نمونه کلاس B است. سوال من این است که چگونه این هایپرپلین را انتخاب کنم. من موارد زیر را امتحان کردهام: 1. من از وزنهای نامتعادل برای نمونهها استفاده کردم (معکوس کردن کاردینالیتههای کلاس) اما میتوانم دقت کلاس A بالا اما یادآوری کم داشته باشم. 2. من سعی میکنم از وزنهای پیشفرض استفاده کنم، یعنی برای همه 1، اما نتایج عجیبی گرفتم: وقتی روی _train set_ برای همه نمونهها اجرا میشود، دقت 95% به دست میآید (همانطور که انتظار میرود، زیرا مجموعه دادهها نامتعادل هستند). **اما** اگر در اعضای classA علامت زده شود 0% می دهد! پس آیا به جز بازی با وزنه، ایده ای هم دارید؟ P.S.1 من از liblinear استفاده می کنم (در matlab اگر مهم باشد). P.S.2 میدانم معیار بهینهسازی svm اساساً چیزی را که من به دنبال آن هستم در نظر نمیگیرد، زیرا حداکثر کردن حاشیه دقت را به حداکثر میرساند، اما فکر کردم آن را امتحان کنم.
|
دستیابی به فراخوان بالا برای کلاس کوچکتر در svm خطی نامتعادل
|
108397
|
من یک مجموعه 120000 نفری دارم. این افراد به 10 میلیون گروه اختصاص داده شده اند. هر یک از این گروه ها یک متغیر هدف دارند که نوع خروجی آن را نشان می دهد (A، B، C یا D). من میخواهم مجموعه مشترکی از افراد را شناسایی کنم که به یک خروجی خاص کمک کردهاند، به عنوان مثال. گروه هایی که Mr.X، Y و Z را داشتند به احتمال زیاد به نتیجه A منجر شدند. چه نوع تحلیلی برای حل این مورد توصیه می شود، ترجیحاً با SPSS، R و/یا Excel؟ من تصور کردم که یک ماتریس عظیم از 120000 نفر (ستون) در 10 میلیون گروه (ردیف) ایجاد می کند، اما مطمئن نبودم که چگونه از آنجا به پیش بروم. من فکر کردم از Decision Tree استفاده کنم، اما ماتریس برای پردازش خیلی بزرگ است. (ویرایش در 23 ژوئیه) هر یک از این افراد به یک سازمان تعلق دارند (به غیر از گروه هایی که به آنها اختصاص داده شده است)، بنابراین اگر من یک تجزیه و تحلیل خوشه بندی ساده انجام دهم، می دانم که افراد را بر اساس سازمانی که به آن تعلق دارند، خوشه بندی خواهم کرد. و این نتیجه ای نیست که من می خواهم. اگر بخواهم خوشههایی بسازم، میخواهم خوشههایی از افرادی بسازم که در نتایج A، B، C و/یا D نقش داشتهاند. آیا پیشنهادی در مورد اینکه چه نوع تحلیلی میتوانم انجام دهم تا به چنین نتیجهای برسم؟
|
نحوه شناسایی مشارکت کنندگان در گروه های افراد
|
79244
|
من مقادیر ICC را برای دو گروه محاسبه کردهام و اکنون میخواهم مقادیر ICC را برای تعیین اینکه آیا گروهها از نظر تکرارپذیری متفاوت هستند، مقایسه کنم. در ادبیات، افراد به سادگی از آزمون های t برای مقایسه تکرارپذیری استفاده کرده اند، اما برای من مشخص نیست که چگونه این کار را انجام دهم. به عنوان مثال، با داده های ساختگی: ID gr رفتار روز 1 1 1 0.361 2 1 1 0.232 3 1 1 0.240 4 1 1 0.693 5 1 1 0.483 6 1 1 0.267 7 2 0.232 3 1 1 0.240 4 1 1 0.483 6 1 1 0.267 7 2 0.232 0.1 0.485 10 2 1 0.567 11 2 1 0.000 12 2 1 0.324 1 1 2 0.055 2 1 2 0.407 3 1 2 0.422 4 1 2 0.124 0.174 0.124 0.051 3 1 2 0.422 7 2 2 0.631 8 2 2 0.283 9 2 2 0.512 10 2 2 0.127 11 2 2 0.000 12 2 2 0.000 من می توانم معیارهای تکرارپذیری برای گروه 1 و 2 را به صورت زیر بدست بیاورم (g library, ICC, ICC) ، data=dummy[dummy$gr==1]) g2 <- ICCest(ID, behaviour, data=dummy[dummy$gr==2,]) اما اکنون چگونه می توانم تشخیص دهم که تکرارپذیری group1 با گروه 2 فرق داره؟
|
چگونه تکرارپذیری (ICC) گروه های مختلف را مقایسه کنیم؟
|
72291
|
من از اعتبار سنجی خارجی برای اندازه گیری موفقیت یک الگوریتم خوشه بندی استفاده می کنم. من مقولههای خود را قطعی نمیدانم، بنابراین به دنبال معیاری هستم که تا حد زیر بخشنده باشد: * اگر دو خوشه در یکی ادغام شوند، نباید بیدلیل جریمه شود زیرا هنوز خوب است. مطابقت (اما هنوز هم باید تا حدی جریمه شود تا از سوق دادن الگوریتم به سمت تولید خوشه های بزرگ جلوگیری شود) * اگر یک خوشه به دو قسمت تقسیم شود، این کار نباید بی دلیل باشد. جریمه شده * فرض کنید دو خوشه وجود دارد، A و B. فرض کنید نیمی از A در A2، نیمی از B در B2 و نیمه دیگر A و B در C ترکیب شده اند. این نوع دسته بندی جایگزین باید جریمه شود، بیشتر نسبت به دو رخداد اول، اما نه بیدلیل، زیرا احتمالاً میتواند یک طبقهبندی معتبر احتمالی دیگر را نشان دهد، معیار خوبی برای این نوع اعتبارسنجی خوشهای چیست؟ این مربوط به سوال قبلی من است
|
معیار بخشش برای اعتبارسنجی خوشه خارجی
|
108396
|
من به دنبال مقدار مجانبی ($n\rightarrow \infty$) (Log تعیین کننده) کوواریانس $\alpha$% مشاهدات با کمترین فاصله اقلدیایی تا مبدا در نمونه ای با اندازه $ هستم. n$ از مثلاً یک استاندارد گاوسی دو متغیره گرفته شده است. \-- حجم بیش از حد یک بیضی با تعیین کننده ماتریس کوواریانس آن متناسب است، از این رو عنوان آن است. $ که $0_2$ بردار 0 به طول 2 است و $\pmb I_2$ هویت رتبه 2 است. ماتریس.--- دیدن آن با شبیه سازی آسان است نسبت به زمانی که $\alpha=52/70$ عدد در حدود $\حدود -1.28$ است: کتابخانه (MASS) n<-10000 p<-2 x<-mvrnorm(n ,rep(0,p),diag(2)) h<-سقف(0.714286*n) p<-ncol(x) w<-mahalanobis(x,rep(0,p),diag(p),inverted=TRUE) #اینها فواصل اقلیدینی هستند، زیرا کوواریانس مورد استفاده ماتریس هویت s<-(1:n)[order(w) است. ][1:h] log(det(cov(x[s,]))) اما یادم نیست چگونه یک عبارت دقیق به دست بیاورم (یا در صورت عدم موفقیت، بهتر است تقریب) برای این.
|
حجم بیش از حد کانتور $\alpha$ یک گاوسی چند متغیره
|
108391
|
میانگین سطح برگرداندن در فرآیند AR(1) زیر $b/(1-a)$ است. $$x(t) = a + bx(t-1).$$ _من این را فهمیدم._ خواندم که میانگین سطح برگرداندن برای فرآیند AR(1) که در زیر با تفاضل محدود ارائه شده است $-(b/a)$ است. : $$x(t)-x(t-1) = a+ bx(t-1).$$ کسی می تواند توضیح دهد که چگونه این درست است؟ میشه لطفا در مورد اشتقاق به من کمک کنید؟
|
بازگشت میانگین در فرآیند AR(1).
|
72290
|
من سعی می کنم از جعبه ابزار شبکه عصبی متلب استفاده کنم. با این حال، من برخی از مسائل را می بینم. اگر از روش های بهینه سازی مانند trainlm، trainrp استفاده کنم، به خوبی همگرا می شود و خطا در طول آموزش با مجموعه اعتبار سنجی کم است. با این حال، وقتی از روش هایی مانند traingd یا traingdm استفاده می کنم، خطا واقعاً زیاد است. این روش وزنه های مناسب را یاد نمی گیرد. موضوع چی میتونه باشه؟
|
مسائل مربوط به جعبه ابزار شبکه عصبی متلب
|
26
|
انحراف معیار چیست، چگونه محاسبه می شود و چه کاربردی در آمار دارد؟
|
انحراف معیار چیست؟
|
72294
|
من می خواهم فصلی بودن را از تقاضای برق روزانه (یک سری زمانی) حذف کنم. درک من این است که هفتگی (تقاضا زیاد در سه شنبه، چهارشنبه، و تقاضای کم در شنبه، یکشنبه) و فصلی سالانه (تقاضا زیاد در زمستان و کمتر در تابستان) وجود دارد. من سعی کردم مدلی برای پیشبینی تقاضای برق روزانه در R بسازم و دادههایم را مطابق شکل زیر ترسیم کنم:  سعی کردم فصلی بودن را حذف کنم. با موارد زیر: request.xts.diff<-diff(demand.xts,lag=1,difference=1) Demand.xts.diff<-diff(demand.xts,lag=7,difference=1) همچنین سعی کردم از `lag=365` و `lag=366` استفاده کنم (من مطمئن نیستم از چه تاخیری استفاده کنم، به دلیل شماره سال کبیسه)، اما هیچ یک از آنها با موفقیت فصلی را حذف نکردند. ACF و PACF در زیر نشان داده شده اند:   هر توصیه ای قابل تقدیر است.
|
چگونه فصلی بودن را از تقاضای برق روزانه حذف کنیم؟
|
97825
|
 من سعی می کنم مدلی را برای بررسی مقدار وام (یا تبدیل آن) به عنوان تابعی از متغیرهای درآمد، جنسیت، مشتری و سن برازش رگرسیون خطی استاندارد نتایج ضعیفی به دست می دهد (R-squared فقط 0.27). علاوه بر این، رابطه بین درآمد و وام بسیار عجیب به نظر می رسد. این یک نوع Z شکل چرخشی به چپ دارد (تصویر را ببینید) آیا استفاده از یک مدل نیمه پارامتریک در اینجا مناسب است؟ اگر چنین است، چگونه آن را مدل می کنید؟ من این را در R امتحان کردم: مدل <- spm(loan~f(income, base=trunc.poly)+age+factor(gender)+factor(customer)) اما نتایج ضعیفی به همراه داشت (بدون متغیر قابل توجهی). کسی پیشنهادی داره؟
|
مدل وام بانکی (spr?)
|
79240
|
من یک ابزار کوچک برای کار می نویسم و یک سوال آماری پیش آمده است که فراتر از من است. به زبان ساده: فرض کنید من یک نمونه 50 نفری دارم که WSJ را میخوانند و سن آنها معمولاً با میانگین 45 و انحراف معیار 10 توزیع میشود. من یک نمونه از 100 نفر دارم که NYT را میخوانند. . میانگین سنی: 40 سال توسعه دهنده 8. و من نمونه ای از 36 نفر دارم که E Weekly را می خوانند. میانگین سن: 30، std dev: 15. سپس این کاربر جدید وارد می شود، و من سن او را نمی دانم، اما می دانم که WSJ AND NYT AND E WEEKLY می خواند. چگونه می توانم به سرعت سنی را که احتمال بیشتری دارد پیدا کنم؟ آیا اندازه نمونه مهم است؟ با تشکر
|
عضو چندین جمعیت با توزیع نرمال
|
72298
|
من خودم مدل های گرافیکی را مطالعه می کنم و مطالبی در مورد شبکه های بیزی می خوانم. وقتی در حال مطالعه در صفحه 371، بخش 8.1.4 مدل های خطی-گاوسی، در تشخیص الگو و یادگیری ماشین هستم، نمی توانم معادله $$\mathrm{Cov}[x_i, x_j] = \sum\left(w_) را استخراج کنم. {jk} \mathrm{cov}[x_i,x_k]\right) + I_{ij}v_j $$ کجا $x_k$ والدین $x_j$ هستند، مخصوصاً من نمی دانم که ترم دوم $I_{ij}v_j$ چگونه می آید. من سعی می کنم اثبات را در منابع دیگر پیدا کنم، مانند مدل های گرافیکی احتمالی توسط Koller. یک قضیه 7.3 در صفحه 251 وجود دارد که همان معادله فوق را بیان می کند، اما دلیلی نیز ارائه نمی دهد.
|
اثبات قضیه 7.3 در کتاب مدلهای گرافیکی احتمالی نوشته دافنه کولر
|
110222
|
من در حال خواندن اسلایدهای سخنرانی در مورد فرآیند دیریکله بوده ام.  در صفحه 22، تصویری در مورد مدل مخلوط محدود زیر وجود دارد. $$\phi _{k}\sim H\\\ \pi \sim دیریکله(\alpha /K,\dots,\alpha /K)\\\ Z_{i}\rvert\pi \sim گسسته(\pi )\\\ x_{i}\rvert\phi _{z_{i}}\sim F(\cdot \vert \phi _{z_{i}})$$ **من معنی متغیرهای زیر (لطفا تصحیح کنید اگر اشتباه کردم):** $N:$ تعداد پارامترها/مشاهدات $K:$ تعداد مدلهای مخلوط $\alpha:$ پارامتر دیریکله $\pi:$ توزیع احتمال بر روی N متغیر $ x_{i}$ متغیرها یا دادههای مشاهدهشدهای که میخواهیم مدلسازی کنیم. $H:$ Hyper-پارامترها، توزیع قبلی در مورد مدلهای K مخلوط پارامترهای $\phi _{k}:$ از مدل k-ام $F(\cdot \vert \phi _{z_{i}})$:مدل های ترکیبی فردی **سوالات من این است:** 1. $z_{i}$ به چه معناست و چیست رابطه با $\pi$ و $x_{i}$؟ 2. $Z_{i}\rvert\pi \sim گسسته(\pi )$ به چه معناست؟ 3. $x_{i}\rvert\phi _{z_{i}}\sim F(\cdot \vert \phi _{z_{i}})$ به چه معناست؟ با تشکر
|
مدل های مخلوط محدود - درک اولیه
|
111851
|
من یک تابع ساده در پایتون برای محاسبه میانگین وزنی نمایی نوشتم: def test(): x = [1,2,3,4,5] alpha = 0.98 s_old = x[0] برای i در محدوده (1, len( x)): s = آلفا * x[i] + (1- آلفا) * s_old s_old = s بازگشت s با این حال، چگونه می توانم SD مربوطه را محاسبه کنم؟
|
انحراف استاندارد یک میانگین وزنی نمایی
|
111852
|
من دادههای بیماران یک بیمارستان بزرگ با ستونهایی که بیماریهای روحی و جسمی مختلف را نشان میدهند و بیمارانی که ردیفها را تشکیل میدهند، دارم. داده ها به صورت دودویی هستند (1 = بیمار بیماری دارد، 0 = بیمار بیماری ندارد). با توجه به یک بیماری روانی خاص، میخواهم آزمایش کنم که آیا بین بروز بیماریهای جسمی تنظیمشده برای ویژگیهای جمعیتشناختی تفاوت معناداری وجود دارد یا خیر. به این معنا که آیا برخی از بیماریهای فیزیکی «بیش از حد» در مواردی مانند. بیماران افسرده سن و جنسیت را کنترل می کنند؟ سرپرست من می خواست نوعی تحلیل کوواریانس با بیماری های روانی را به عنوان عامل گروه بندی محاسبه کند که با توجه به ماهیت داده ها نامناسب به نظر می رسد. از کدام آزمون های جایگزین می توانم برای پاسخ به سوال استفاده کنم؟
|
تست همبودی با تنظیم ویژگی های بیمار
|
111850
|
من از طبقهبندیکننده اکثریت جدول تصمیم WEKA برای انتخاب ویژگی روی یک مجموعه داده با ورودیهای عددی (پیوسته) و مقولهای و خروجی عددی (پیوسته) استفاده کردهام. من خیلی دوست دارم بدانم Weka چگونه با ورودی های عددی و خروجی عددی برای این مورد (جدول تصمیم) برخورد می کند. هر گونه اطلاعات دیگری در مورد نحوه عملکرد کل کار بسیار قدردانی خواهد شد. (همه چیز به جز مقاله کهوی قدرت جداول تصمیم ... از سال 1995 که قبلاً خوانده ام).
|
جدول تصمیم weka چگونه خروجی های عددی (پیوسته) و ورودی های عددی را مدیریت می کند؟
|
97824
|
پیچیدگی زمانی آموزش یک فرآیند گاوسی و تقریب انتشار انتظارات آن چقدر است؟ (قبل از مطالعه آنها، می خواهم بدانم که آیا آنها حتی برای درخواست من امکان پذیر هستند یا خیر)
|
پیچیدگی زمان انتشار فرآیند گاوسی و انتظار؟
|
111855
|
اجازه دهید $X \sim \textrm{Beta–Binomial}(\alpha_1, \beta_1, n)$ و $Y \sim \textrm{Beta–Binomial}(\alpha_2, \beta_2, n)$ و بنویسید $\mu_1 = \frac{\alpha_1}{\alpha_1 + \beta_1}$, $\phi_1 = \alpha_1 +\beta_1$, $\mu_2 = \frac{\alpha_2}{\alpha_2 + \beta_2}$, $\phi_2 = \alpha_2 +\beta_2$ برای اختصار. من چند نمونه $x_1، x_2، \ldots، x_k$ و $y_1، y_2، \ldots، y_k$ دارم و میخواهم فرضیه صفر $\mu_1 = \mu_2$ را آزمایش کنم. من به همه موارد زیر علاقه مند هستم، به خصوص مورد سوم: 1. ما از قبل $\phi = \phi_1 = \phi_2$ را می دانیم. 2. ما می دانیم که $\phi_1 = \phi_2$ اما نه مقدار دقیق. 3. ممکن است که $\phi_1 \ne \phi_2$. من معتقدم که در حد $n \تا \infty$، $\phi \تقریباً n$، با تقریب $X$ و $Y$ با توزیعهای نرمال مقیاسبندی مناسب، این موقعیتها با تفاوت زوجی $Z$-test مطابقت دارند. به ترتیب آزمون t$-test دانشجویی و آزمون $t$-test ولش. با این حال، من بیشتر به مواردی علاقه دارم که $n$ و $k$ کوچک باشند، مثلاً $n = k = 10$. اگر یک راه حل قابل اجرا برای $n = 1$ (توزیعات بتا-برنولی) وجود داشته باشد، بسیار جالب خواهد بود، اما من شک دارم.
|
آزمون تفاوت برای متغیرهای بتا دو جمله ای
|
111856
|
همانطور که از تجربه می دانم، بوت استرپ پارامتریک از نظر احتمال پوشش برای فواصل اطمینان بهتر از بوت استرپ تجربی عمل می کند. البته این منطقی است زیرا شما اطلاعاتی در مورد توزیع قرار می دهید و برای کاهش خطا استفاده می شود. با این حال، این واقعاً توصیفی ریاضی از آنچه در حال وقوع است نیست... کتاب هایی مانند افرون/طبشیرانی وارد جزئیات نمی شوند. آمار مجانبی Van der Vaarts فقط سازگاری مرتبه بالاتر را برای فواصل زمانی دانشآموزی در مقابل غیردانشآموزی پوشش میدهد. فکر میکنم هال هم چیزی در این مورد نمینویسد... آیا میتوانم این را جایی بخوانم؟
|
چرا (از نظر ریاضی) بوت استرپ پارامتریک معمولاً بهتر از تجربی است؟
|
111857
|
من یک تخمین تفاوت در تفاوت لاجیت سفارشی را اجرا کردم و از نظر تفسیر گیر کردم. متغیر وابسته مقادیر 1 2 و 3 را می گیرد و من سعی می کنم ضرایبی را برای متغیرها برای هر یک از سه دسته که در مقالات می بینم به دست بیاورم اما مطمئن نیستم که چگونه آن را انجام دهم.
|
دستور logit-fference-in-fference
|
111858
|
در R، با استفاده از lme4، من از یک مدل ترکیبی برای آزمایش اینکه چگونه یک پاسخ (حالت؛ پیوسته و به طور معمول توزیع شده) توسط یک متغیر کمکی (غنای گونه (sr)؛ پیوسته و به طور معمول توزیع شده) و یک عامل (func.group) تأثیر میگیرد استفاده میکنم. سه سطح گیاه، گیاهخوار، شکارچی). من همچنین یک اثر تصادفی (جامعه) دارم که فقط یک هویت است. این مدل من است: nr.test1<-lmer( mode ~ sr * func.group + (1|community), data=nr.test, REML=FALSE) من قصد دارم از مقایسه مدل و حذف گام به گام بدون استفاده کنم - شرایط مدل قابل توجهی است، اما سوال من به سادگی این است که چگونه خروجی خلاصه افکت های ثابت زیر را تفسیر می کنم. به ویژه، رهگیری از چه چیزی تشکیل شده است؟ یعنی آیا وقفه وقفه y است (و نه مقدار شیب)، و آیا نشان دهنده تعامل sr با گیاهخواران است؟ (herbivores سطح اول بر اساس حروف الفبا است) اگر intercept فقط func.groupherbivore است، پس چگونه می توانم بفهمم که رهگیری sr:func.groupherbivore چقدر با func.groupherbivore متفاوت است با توجه به اینکه لیست نشده است؟ من همچنین میخواستم بدانم که اگر وقفه واقعاً مقطع y است و مقادیر زیر آن تفاوتهایی در فاصله y برای هر عبارت مدل، سطح فاکتور و برهمکنش است، پس چگونه میتوانم مقادیر شیب را برای خطی کردن آن استخراج کنم ( رگرسیون) معادلات؟ مدل مختلط خطی متناسب با حداکثر احتمال فرمول: حالت ~ sr * func.group + (1 | جامعه) داده: nr.test AIC BIC logLik انحراف REMLdev 62.57 68.75 -23.29 46.57 58.38 اثرات تصادفی: گروه ها. نام واریانس.D. Community (Intercept) 4.36963 2.09037 Residual 0.25666 0.50662 تعداد obs: 16 گروه: Community, 6 Fixed effect: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -0.84682 1.27221 -0.666 0.5157 sr 0.49306 0.05798 8.504 2.44e-06 *** func.groupplant 3.39250 3.039250 0.0047 ** func.grouppredator 6.82647 1.02830 6.639 5.08e-05 *** sr:func.groupplant -0.11878 0.05724 -2.075 0.0637. sr:func.grouppredator -0.40567 0.05019 -8.083 9.07e-06 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) sr fnc.grppl fnc.grppr sr:fnc.grppl sr -0.700 fnc. grpplnt -0.459 0.444 fnc.grpprdt -0.482 0.473 0.754 sr:fnc.grppl 0.293 -0.287 -0.904 -0.611 sr:fnc.grppr 0.645 -0.831 -0.667 -0.8376 0.5
|
تفسیر / درک مقادیر رهگیری و شیب برای یک تعامل با استفاده از خروجی خلاصه در R
|
35313
|
من در حال اجرای تجزیه و تحلیل رگرسیون چندگانه هستم و متغیر وابسته من به طور معمول توزیع نشده است (چولگی=-1.794 و کشیدگی: 4.643). به منظور تصحیح این، من تبدیل log را اعمال کردم، اما به دلیل اینکه دارای انحراف منفی است، از این فرمول استفاده کردم: $log(1+ حداکثر مقدار DV - DV)$. DV تبدیلشده معکوس و log به توزیع عادی نزدیکتر بود (اگرچه تبدیل معکوس بسیار نزدیکتر بود، من همچنان تبدیل log را انتخاب کردم زیرا ادبیاتی در مورد نحوه تفسیر تبدیل log وجود دارد، در حالی که هیچیک از نحوه تفسیر تبدیل معکوس در دسترس من نیست). هنگامی که من رگرسیون را روی DV تبدیل شده اجرا می کنم، مقادیر منفی برای b غیر استاندارد دریافت کردم که به این معنی است که افزایش در یک واحد پیش بینی منجر به کاهش 100% بتا در DV می شود. اما در ادبیات کاملاً مشخص است که افزایش آن متغیر مستقل نمی تواند باعث کاهش متغیر وابسته شود. من همچنین شاهد معکوس شدن علائم ضرایب بتا برای برخی از متغیرهای مستقل دیگر هستم (همانطور که انتظار دارم افزایش در متغیرهای وابسته و مستقل را مشاهده کنم، نه یک افزایش یا کاهش دیگر). آیا کسی می داند که آیا این فرمول اعمال شده برای متغیر دارای انحراف منفی واقعاً می تواند چنین نتیجه ای (برگشت علائم) ایجاد کند یا چیز دیگری اشتباه است؟ متشکرم.
|
تفسیر log تبدیل متغیر وابسته دارای منحنی منفی
|
35316
|
من به دنبال شخصی با تجربه در نحوه مدیریت پارامترهای ناهمسانگردی در تابع likfit() هستم که بخشی از بسته GeoR در R است. من از likfit() برای تولید obj.m استفاده می کنم. پارامتر تابع «krige.conv()». داده هایی که من استفاده می کنم از نقاط پراکنده (5 تا 30) در یک شبکه ~50*50 تشکیل شده است. در «likfit()»، میخواهم پارامترهای «psiA» و «psiR» از دادههای موجود تخمین زده شوند. این با بیان این موارد به خوبی کار می کند: fix.psiA = FALSE، fix.psiR = FALSE، با این حال، مقادیر تخمینی محدوده بسیار زیادی را برای 'psiR' نشان می دهد، با توجه به اینکه مجموعه داده هایی که من استفاده کردم اساساً با یکدیگر تفاوت ندارند. (مجموعهای از اندازهگیریهای رطوبت خاک با مقادیر 0 تا 45 است.) «psiR» از 1 تا حدود 8000 متغیر است... آیا این درست است؟ بیشتر مقادیر در محدوده 1 تا 10 قرار دارند، اما نمی توانم بگویم چرا برخی از مجموعه داده ها این مقادیر بسیار بزرگ را برای psiR تولید می کنند. من نتوانستم اطلاعات بیشتری در مورد اینکه این پارامتر _exactly_ چه می کند پیدا کنم. من میدانم که این پارامتر وابستگی یک مقدار تخمینی را با توجه به مکان آن نسبت به مقادیر اندازهگیری شده محیطی تنظیم میکند. اما من نمی دانم از چه طریقی این امر محقق می شود. من برای انگلیسی احتمالاً بد متاسفم، نه یک زبان مادری. من هم متاسفم که کدم را ارسال نکردم، اما بسیار طولانی است و احساس کردم که از طرف سوالم لازم نیست. از علاقه شما بسیار سپاسگزارم. در صورت نیاز توضیحات تکمیلی را ارسال خواهم کرد.
|
مشکلات تخمین پارامترهای ناهمسانگردی برای یک مدل فضایی
|
23182
|
(اگر از هر اصطلاحی سوء استفاده کردم پیشاپیش عذرخواهی می کنم) من یک سری از نقاط داده XY دارم که با یک رگرسیون ساده مطابقت دارم و می خواهم بتوانم از این رگرسیون برای به دست آوردن مقدار p برای نقطه داده جدید استفاده کنم. من چند منبع پیدا کردهام که نحوه محاسبه فاصله پیشبینی پاسخ به x خاص را توضیح میدهند که به نظر میرسد _تقریبا_ به این سوال پاسخ میدهد. در واقع، فکر میکنم میتوانم سؤالم را دوباره فرموله کنم که چگونه آلفای کوچکترین فاصله پیشبینی را که حاوی نقطه داده جدیدم است پیدا کنم.
|
با توجه به یک مدل رگرسیون برازش، چگونه می توان مقدار p یک مشاهده جدید را محاسبه کرد؟
|
94959
|
احتمال رخداد از جدول
|
|
10591
|
تبدیل Anscombe و تقریب نرمال
|
|
29538
|
چه زمانی از مقدار t و چه زمانی از 1.645 برای فاصله اطمینان 90 درصد استفاده کنیم؟
|
|
8374
|
من سعی می کنم سن (6 تا 90 سال) را با بلندی صدا (در دسی بل) مرتبط کنم. با این حال، داده های من حاوی هیچ نقطه داده ای در محدوده 20-50 سال نیست. کدام معیار همبستگی با چنین شکاف قابل توجهی مناسبتر است و چرا؟ من تا الان از کندال تاو استفاده کردم. توجه داشته باشید که در اینجا با دادههای توزیعشده دووجهی سروکار نداریم، بلکه با یک شکاف دادههای گمشده قابل توجه در محدوده سنی سروکار داریم.
| |
23189
|
یک سوال بسیار اساسی در مورد اعتبار سنجی متقاطع برای شبکه های عصبی. آیا باید برای هر فولد یک شبکه جدید ایجاد کنم یا باید شبکه را نگه دارم و به صورت تدریجی با مجموعه آموزشی k-th تمرین کنم؟ http://www.faqs.org/faqs/ai-faq/neural-nets/part3/section-12.html میگوید شما k-times را تمرین میدهید... که اجازه دهید فرض کنم هر بار از یک شبکه استفاده میکنم. دوباره تا کنید اما وقتی برای هر فولد یک شبکه جدید ایجاد نکنم، پس از k-th fold k-1 بار استفاده می کنم. در این تصویر می بینید که بدون شبکه جدید، به عنوان مثال. از 4 نقطه داده اول برای آموزش مدل در مرحله 2 تا 5 استفاده می شود. آیا می توانید در مورد تفسیر صحیح به من اشاره کنید؟
|
سوال اساسی در مورد اعتبار سنجی متقابل
|
92363
|
با توجه به افزایش قدرت آماری، آیا این مقدار p را کاهش می دهد؟ اگر چنین است، چرا این اتفاق می افتد؟
|
رابطه بین توان آماری و مقادیر p
|
110848
|
من یک سوال در مورد آزمایش بین یک گروه کنترل بزرگ و تعداد کمتری از موارد در یک مقایسه ساده دارم. به طور خاص در مورد تفاوت رویکردهای بیزی و فرکونتیست تعجب کردم. این سوال تا حدی از این سوال اخیر الهام گرفته شده است. بنابراین فرض کنید که من $n_a=10000$ و $n_b=10$ با متغیرهای $p$ دارم و من گمان می کنم که تفاوت بین $n_b$ و $n_a$ بسیار زیاد است. تا آنجا که من می دانم قدرت، تحت چارچوب مکررگرا، با «قدرت» کوچکترین حجم نمونه محدود می شود. بنابراین من فرض می کنم که، حتی با یک اثر نسبتاً بزرگ، ممکن است هنوز نتوانم یک مقدار p قابل توجهی را مشاهده کنم. اما تأثیر آن در چارچوب بیزی چیست؟ پیشین من در این شرایط چگونه با حجم نمونه ارتباط دارد؟ امیدوارم سوال به اندازه کافی واضح باشد.
| |
99781
|
من یک سوال کوچک دارم و نیاز به توضیح در مورد قدرت تداعی مربع چی دارم (با استفاده از Phi & Cramer's V). بگویید من 4 پارامتر دارم، همه آنها رابطه معنی داری را با کیفیت نشان می دهند، یعنی p<0.05 در آزمون مربع کای، اما من می خواهم با دانستن قدرت هر پارامتر نتیجه بیشتری را ثابت کنم، بنابراین از فی و کرامر V استفاده می کنم. من قدرت ارتباط هر چهار پارامتر را با هم مقایسه می کنم. از این طریق می توانم بفهمم که کدام یک از آنها قوی ترین (تأثیرگذارترین) و همچنین کمترین رابطه را دارد. بنابراین می خواهم بدانم آیا چنین مقایسه ای بین قدرت پارامترها معتبر و مجاز است یا خیر؟ با تشکر از شما و نظر شما بسیار قابل تقدیر است
|
آیا می توانم قدرت ارتباط با استفاده از فی و کرامر را بین پارامترها مقایسه کنم؟
|
110847
|
من روی مجموعه داده های بزرگ کار می کنم که نشان دهنده مصرف برق در پست برق در طول سال است. من هر 10 دقیقه داده و چندین فصل (و طولانی) دارم. من یک فصلی روزانه، هفتگی و سالانه به ترتیب دوره های '144، 1008 و 52560' دارم. ### ارائه من در مدل سازی داده هایم به دلیل فصلی طولانی که توسط R مدیریت نمی شود مشکل داشتم (`حداکثر تأخیر پشتیبانی شده = 350`)، اما در نهایت از کد موجود در اینجا استفاده کردم تا مدلی به این شکل بدست بیاورم:  این کدی است که من برای تطبیق مدل آریما با عبارات فوریه به عنوان رگرسیون استفاده کردم: > fit = Arima(y[1:n]، order=c(2،1،5)، seasonal=c(1،2،8)، xreg=cbind(fourier(1:n،4،m)، فویر(1: n,4,1008), fourier(1:n,4,52560), lag(tmp[1:n],12), ferie[1:n])) > previ1 = forecast(fit, h=14*m، xreg=cbind(فوریه(n+1:(14*m)،4،m)، فویر(n+1:(14*m)،4،1008)، فویر(n+1: (14*m)،4،52560)، تاخیر (tmp[n+1:(14*m)]،12)، فری[n+1:(14*m)])) من 3 دارم سری فوریه، یکی برای هر فصلی، و دو متغیر برونزا: دما به عنوان دو برابر و [تعطیلات عمومی + یکشنبه ها] به عنوان یک بردار باینری. اکنون نتیجه نمودار «previ1$pred» و «y» وجود دارد:  در قرمز مجموعه داده های واقعی و به رنگ آبی است. منحنی پیش بینی شده برای یک دوره 2 هفته. من احساس می کنم تا روز نهم نتایج به اندازه کافی نزدیک است. اما من می خواهم رویکرد بهتری برای مشکل داشته باشم. * * * ### برازش از آنچه در Cross Validated و اینترنت خواندهام، فهمیدم که AIC معیار خوبی برای تعیین مناسب بودن مدل با به حداقل رساندن آن است. از آنجایی که من با R کار می کنم و متخصص آمار نیستم، آیا این معیار به تنهایی کافی است؟ آیا باید معیارهای دیگری را بررسی کنم؟ ### پیشبینی برای من سختترین چیز در این مشکل است. خواندم که میتوانیم از باقیماندههای مدل استفاده کنیم و آنها را مطالعه کنیم تا بفهمیم آیا مدل پیشبینی به اندازه کافی خوب است: اگر باقیماندهها شبیه نویز سفید باشند، میتوانیم به مدل اعتماد کنیم. بنابراین در اینجا مطالعه من درباره fit$residuals است:   به نظر من یک نویز سفید نیست. احتمالاً به دلیل فصلی بودن 144 است - یا مدل بد است. من مطمئن نیستم که این کار درستی است، اما من از «diff()» برای پاک کردن برخی از تغییرات استفاده کردم. > plot(diff(fit$residuals,144)) > acf(diff(fit$residuals, 144), lag.max = 150)   طرح به نظر می رسد برای من بسیار به یک نویز سفید نزدیکتر است، و شاید بتوانیم «acf» را به اندازه کافی خوب در نظر بگیریم که یک نویز سفید باشد، اما مطمئن نیستم. همچنین در مورد تست نرمال بودن با تابع qqplot() R مطالعه کردم. من با استفاده از qqnorm() روی resid = fit$residuals استفاده کردم: > qqnorm(diff(resid,144))  و اینجا من این احساس را دارم که تفاوت باقیمانده ها طبیعی است. آیا انتخاب / اعتبارسنجی یک مدل کافی است؟ **TL;DR:** آیا AIC و نرمال بودن در باقیمانده ها معیارهای کافی برای تعیین کیفیت یک مدل هستند؟
| |
95331
|
ترکیب فواصل اطمینان برای یک معادله خاص
|
|
30895
|
من سعی می کنم پیدا کنم که مدل درجه دوم برای مجموعه داده های چندگانه مشخص شده چگونه خواهد بود. فرض کنید مجموعه آموزشی من X_1$،...X_n$ با هر X$$$4$ باشد. حالا فرض کنید من می خواهم یک تابع درجه دوم را به این داده برازم. سپس مدل من $$h(X) = a_1 + a_2X + a_3X^2$$ خواهد بود که $a_1، a_2$ و $a_3$ پارامترهای مدل من هستند که باید تخمین زده شوند. از آنجایی که $X$s در معادله بالا بردار هستند، به این معنی که پارامترهای $a_2$ و $a_3$ من نیز باید بردار باشند درست است؟ پس چگونه می توانم این پارامترها را یاد بگیرم؟
|
نحوه تعیین و تخمین پارامترهای مدلی که در چندین متغیر درجه دوم است
|
30897
|
آیا می توان فرمول ساده ای را به دست آورد که یک لحظه مرکزی را به همان لحظه در یک قاب چرخان مرتبط می کند، مانند رابطه بین لحظه مرکزی و لحظه مبدا؟ فرمولی که من استفاده می کنم http://en.wikipedia.org/wiki/Central_moment#Multivariate_moments است
|
گشتاور و چرخش 2 بعدی
|
87826
|
روش معمول برای تطبیق طبقهبندیکنندههای باینری مانند SVMهای مختلف با دادههای چند برچسبی، یک در مقابل همه است، که فرض میکند برچسبها مستقل هستند و در صورت خطای پیشبینی، ما اهمیتی نمیدهیم که پیشبینی نادرست چه برچسبی را خروجی بدهد. اما فرض کنید من میخواهم امتیازی را از 1 تا 5 پیشبینی کنم و ترجیح میدهم نزدیکتر به حقیقت اشتباه کنم، پس چگونه آن را دنبال کنم؟ $\lt k$ در مقابل $\ge k$ به ذهن متبادر میشود، زیرا در این مورد برچسبهایی که به هم نزدیکتر هستند همپوشانی دادههای آموزشی بزرگتری خواهند داشت، اما آیا از نظر تئوری درست است؟ به طور خاص، آیا عملکرد کلی ممکن است آسیب ببیند؟ به طور کلی تر، تکنیک های پیشرفته ای که می توانم در این شرایط به کار ببرم کدامند؟
|
یادگیری ماشینی با برچسب های سفارش داده شده
|
115272
|
پیشبینیهای گلمر: نحوه استخراج نمرات کمککننده
|
|
30890
|
فرض کنید من مجموعهای از اسناد دارم و میخواهم از tf-idf بهعنوان معیار وزندهی اسنادم استفاده کنم. اگر بخواهم دایره لغاتم اندازه 100 باشد، چگونه آن 100 کلمه را در واژگان انتخاب کنم؟ در نظر گرفتن داده های آموزشی به عنوان یک کل و انتخاب 100 کلمه پر تکرار در اینجا کار نمی کند زیرا سیستم وزن دهی من tf-idf است، درست است؟
|
ایجاد واژگان در طبقه بندی اسناد
|
87824
|
یا آیا AC کمتر از 5% (در باقیمانده ها) برای ادامه تجزیه و تحلیل داده های پانل معمولی قابل قبول است؟
|
آیا باید همه خودهمبستگی ها را حذف کرد؟
|
87825
|
ما در حال ساخت مدلی هستیم که برای متغیرهای کمکی استاندارد (به عنوان مثال، سن، جنسیت) و برای نتیجه در ابتدا تنظیم می شود. ایده آل است که برای مقدار پایه هر آزمودنی به این صورت تنظیم شود: $$ Y = \beta_0 + \beta_1*{\rm سن} + \beta_2*{\rm جنسیت} + \beta_3*{\rm پایه} $$ ، ما معیارهای پایه برای همه نداریم. یک تخمین بالینی استاندارد از $Y$ (در حال حاضر و پایه) به عنوان یک تابع غیرخطی از سن و جنسیت و همچنین یک اندازه گیری $X$ (که برای همه داریم) وجود دارد، یعنی $\text{Estimated Baseline} = f (X,\ {\rm سن},\ {\rm جنسیت}) $. آیا مدل کردن $Y$ با درج مقدار خام $X$ یا تابع $X$ منطقی تر است؟ به عنوان مثال: \begin{align} Y &= \beta_0 + \beta_1*{\rm سن} + \beta_2*{\rm جنسیت} + \beta_3*X \\\ Y &= \beta_0 + \beta_1*{\ rm age} + \beta_2*{\rm gender} + \beta_3*f(X,\ {\rm age},\ {\rm gender}) \end{align} تابع تخمینی نیست یک تخمین عالی است، اما به اندازه گیری پایه نزدیک تر است.
|
آیا زمانی که مقدار انباشته تابعی از سایر متغیرهای کمکی در مدل رگرسیونی است، نسبت دادههای متغیر کمکی گمشده منطقی است؟
|
91215
|
باقیمانده در مقابل قطعه نصب شده با نقاط پرت
|
|
111466
|
من سعی میکنم یک مدل ترکیبی خطی را برای یک مطالعه مقایسه روش تا حدودی پیچیده، تودرتو و متقاطع با اندازهگیریهای تکراری مشخص کنم. هدف تقسیم بندی و مقایسه واریانس ها است. این پیچیده تر از نمونه های مقدماتی معمولی است که من دیده ام و من کاملاً مطمئن نیستم که چگونه آن را به درستی انجام دهم. دادههایی که من جمعآوری کردهام از مقایسه روشهای اندازهگیری آزمایشگاهی مختلف (4 سطح)، که هر کدام برای همه ترکیبها برای _parameter1_ (10 سطح) و _parameter2_ (40 سطح) ارزیابی شدهاند. اندازهگیریها (تکرار برای هر ترکیب منحصربهفرد از روش، پارامتر 1 و پارامتر2) روی 60 آزمودنی مختلف با ویژگیهای جنسیت انجام شد. هر اندازه گیری 800 بار تکرار شد (تقریباً 80 میلیون ردیف مشاهده) و تفاوت (مقدار واقعی از قبل با روش مرجع تعیین شد - مقدار اندازه گیری شده) ثبت شد. **بنابراین: روش x پارامتر1 x پارامتر2 به طور کامل تلاقی میکنند (همه ترکیبات سطوح عامل یک بار اتفاق میافتند)، آزمودنیها درون جنس قرار میگیرند، و اندازهگیریهای تکراری درون موضوع تودرتو میشوند.** به دنبال برخی توصیهها (https://mailman.ucsd. edu/pipermail/ling-r-lang-l/2011-February/000225.html و Barr و همکاران، 2013)، ابتدا میخواهم یک ساختار حداکثر اثرات تصادفی را برای این کار مشخص کنم، بهعنوان مثال، تفاوتهای بین سوژهها در حساسیت به همه شرایط را در نظر بگیرم، و سپس مدل را از آنجا حذف کنم. اما برای من واقعاً سخت است که همزمان سرم را روی دستور فرمول و منطق مدل بپیچم. من اینجا در تاریکی عکس میگیرم، اما در مورد: (1 + روش*param1*param2*sex | sex/subj_id) # که به (1 + روش*param1*param2*sex | جنسیت) + (1 + روش گسترش مییابد) *param1*param2*sex |. sex:subj_id) به نظر من این درست نیست. داشتن رابطه جنسی در هر دو طرف معادله عجیب به نظر می رسد. برای هر کمکی بسیار سپاسگزار خواهم بود. در مورد یک موضوع مرتبط: من قصد دارم تفاوت بین مقدار اندازه گیری شده و مقدار واقعی (معلوم) را پس بزنم: diff ~ …. آیا دلیلی وجود دارد که به جای آن مقدار واقعی شناخته شده را به مقدار اندازه گیری شده برگردانیم: اندازه گیری شده ~ true + …؟
| |
110596
|
بگویید من میخواهم ببینم آیا دو متغیر y و x1 به صورت خطی به هم مرتبط هستند، در حالی که تأثیر یک متغیر «آزاردهنده» x2 را کنترل میکنم. تفاوت بین (a) رگرسیون y بر روی x1 و x2 و فقط نگاه کردن به ضریب x1 چیست؟ و (ب) انجام یک همبستگی جزئی برای y و x1 در حالی که برای (تغییر همزمان) x2 کنترل می شود؟
| |
87829
|
من CRAN و Google را برای تابعی جستوجو میکنم (که مجبور نیستم خودم کدنویسی کنم) که اندازه نمونه مورد نیاز برای طراحی قبل از پست را با یک نتیجه دوگانه محاسبه میکند - فایدهای نداشت. اگر اشتباه می کنم، لطفا به من اطلاع دهید! من با یک اسکریپت R از یک دوره دانشگاهی مواجه شدم و میپرسیدم که آیا کسی بدش نمیآید که آن را برای من دوباره بررسی کند - من آن را کمی اصلاح کردم. (نشانی اینترنتی: http://www.statistik.lmu.de/institut/lehrstuhl/semwiso/bm-sose2009/CaCo/v8_4.pdf) samsize.mcnemar <- تابع (pi.01, pi.10, alpha, بتا، یک طرفه) { pi.d <- (pi.01 + pi.10) N <- (qnorm(1 - alpha/sided) * sqrt(pi.d) + qnorm(1 - بتا) * sqrt(pi.d - (pi.01 - pi.10)^2))^2/(pi.01 - pi.10)^2 return(سقف (N)) } # در مورد من، من فرض می کنم که تغییر 0 به 1 0.13 خواهد بود و هیچ # یک از 1 به 0 تغییر نمی کند. samsize.mcnemar(pi.01 = 0.13، pi.10 = 0، آلفا = 0.05، بتا = 0.2، sided = 2) **اول**، آیا این درست به نظر می رسد؟ **دوم**، از آنجایی که این یک طرح جفت همسان نیست، من فرض نمیکنم که مداخله باعث بازگشت افراد به عقب شود (اگر قبلاً رفتار سالمی را انجام میدهند). آیا باید محافظه کارتر باشم؟ با تشکر
|
تابع اندازه نمونه برای آزمون مک نمار نسبت های مکرر در R
|
92747
|
من چهار همبستگی وابسته (یعنی از همان نمونه) دارم که شامل متغیرهای پیشبینیکننده $(A,B,C,D)$ و یک متغیر نتیجه $(E)$ است. $N=172$. $$\begin{array}{c|cccc}{\rm آمار}&AE&BE&CE&DE\\\\\hline r&-.480&.276&.395&.327\\\p&< .01&< .01&< .05&< .01 \end{array}$$ من سعی میکنم سه تست مجذور کای را روی این مجموعه چهار وابسته اجرا کنم همبستگی، که در آن $H_0: r_{AE} = r_{BE} = r_{CE} = r_{DE} = 0$; و $H_1$ به سادگی NOT $H_0$ است. با فرض اینکه $H_0$ رد شود، سپس آزمایش خواهم کرد: $H_0: r_{AE} = r_{BE} = r_{CE} = r_{DE}$; با $H_1$ که دوباره NOT $H_0$ است. با فرض اینکه $H_0$ دوباره رد شود، سپس $H_0 را آزمایش خواهم کرد: r_{BE} = r_{CE} = r_{DE}$. SPSS نمی تواند به من در مقایسه همبستگی های وابسته کمک کند و فیلد کشف آمار... (2013) فقط در مورد مقایسه دو همبستگی وابسته بحث می کند، نه یک مجموعه کامل. بنابراین، من تا به حال به چندین مکان هدایت شده ام، بدون شانس: 1. Multicorr اثر Steiger (http://www.statpower.net/Software.html). من به سادگی نمی توانم بفهمم که چگونه از آن استفاده کنم. 2. مقاله ای از اشتایگر (تست هایی برای مقایسه عناصر یک ماتریس همبستگی، _بولتن روانشناسی_، 1980، _87_ (2)). اما من نمی توانم بفهمم که چگونه / کجا اعداد من با فرمول هایی که او در آنجا ارائه کرده است مطابقت دارد. در حالت ایدهآل، من فقط از فرمول(های) ریاضی میخواهم که بتوانم از آن برای بدست آوردن مقدار مشاهده شده کای دو استفاده کنم (من جداول مقادیر بحرانی را قبلاً دارم). هر راهنمایی که می تواند ارائه شود بسیار قدردانی خواهد شد.
|
تست مجذور کای برای بررسی اینکه آیا مجموعه ای از همبستگی های وابسته برابر هستند یا خیر
|
35205
|
آزمون تعقیبی بونفرونی تفاوت معنی داری را بین گروه ها نشان نمی دهد
|
|
22444
|
ما می خواهیم بدانیم که آیا یک قمارباز در قرعه کشی شرکت می کند یا خیر و بر اساس دانش نامطمئن ما در مورد اعتقادات او در مورد بخت آزمایی، انتظار دارد در صورت وارد شدن چه چیزی برنده شود. قمارباز معتقد است که احتمال برنده شدن او در لاتاری p است و همچنین معتقد است که در صورت برنده شدن، جایزه لاتاری W خواهد بود. اما ما باور قماربازان را نمیدانیم، فقط این که آنها به ترتیب با توابع چگالی f(p) و f(W) و توابع توزیع تجمعی F(p) و F(W) توزیع شدهاند. متغیرهای p و W مستقل از یکدیگر هستند. فرض می کنیم که f(p) در بازه (a,b) مثبت است و خارج از این بازه صفر است. ما فرض می کنیم که 0 < a < b <1. f(p) پیوسته و قابل تمایز در سراسر است. همسایگی b وجود دارد که f(p) غیرافزاینده است. همچنین فرض می کنیم که f(W) در بازه (c,d) مثبت است و خارج از این بازه صفر است. c و d هر دو مقادیر بزرگ دلاری هستند که در آن d>c. f(W) پیوسته و قابل تمایز در سراسر است و مقداری همسایگی d وجود دارد که در آن f(W) غیرافزاینده است. فرض میکنیم که توزیعهای f(p) و f(W) هر دو بهخاطر سادگی مثلثی شکل هستند. **قمارباز فقط در صورتی در لاتاری سرمایه گذاری می کند که pW > S** من دو سوال دارم که در مورد آنها به کمک نیاز دارم: 1. احتمال اینکه قمارباز در لاتاری سرمایه گذاری کند چقدر است؟ 2. در صورت انتخاب سرمایه گذاری، ارزش مورد انتظار قرعه کشی چقدر است؟ متشکرم.
| |
25923
|
من سعی می کنم روش های مختلف تخمین چگالی را با هم مقایسه کنم. مجموعه داده من $D$ از مخلوط ثابتی از گاوسی ها ایجاد می شود (که به من امکان می دهد pdf واقعی $p(x)$ را تخمین بزنم). سپس، چگالی تخمینی $\bar{p}(x): x\in T$ یک مجموعه آزمایشی $T$ را از $D$ با استفاده از پنجرههای Parzen و k-NN محاسبه میکنم. من دو سوال دارم: * به نظر می رسد $\bar{p}(x)$ در مقایسه با $p(x)$ مقیاس بندی شده است. اگر من از این تراکم ها برای طبقه بندی استفاده کنم، مقیاس گذاری روی تصمیم من تأثیری نخواهد داشت، اما اگر بخواهم کیفیت تخمین تراکم را با هم مقایسه کنم، معتقدم این مقیاس بندی مشکل ساز خواهد بود.   * چگونه آیا کیفیت $\bar{p}(x)$ را تعیین کنم؟ آیا می توانم فقط از خطای مربع یکپارچه استفاده کنم؟ $$ISE = \sum_{i=1}^{|T|} ( p(x) - \bar{p}(x) )^2 $$
|
تخمین چگالی را با پی دی اف واقعی مقایسه کنید
|
87715
|
من EM را روی یک زنجیره مارکوف پنهان (متغیر $\mathbf{Z}=\\{Z_1,...,Z_n\\}$) با مشاهدات ($\mathbf{Y}=\\) اعمال می کنم {Y_0,...,Y_n\\}متغیر$) نه تنها به زنجیره مارکوف پنهان، بلکه به مشاهدات گذشته فوری ( $Y_{j-1}$). $$Log(P(\mathbf{Z},\mathbf{Y}|\mathbf{\Theta)})=\log(\pi_{0z_1})+\sum^n_{j=2} \log(\pi_{z_{j-1}z_j})+\sum^n_{j=1}\log(P(y_j|y_{j-1},z_j;\mathbf{\Theta)})$ $ در مخلوطات متناهی مک لاکلان، صفحات 63 و 64، در مورد چگونگی به دست آوردن ماتریس اطلاعات مشاهده شده، بر حسب Log-Likelihood داده کامل صحبت می کند. سوال من این است که چگونه از ماتریس اطلاعات مشاهده شده، خطاهای استاندارد را دریافت می کنیم؟ (چرا می توان معکوس ماتریس کوواریانس MLE را با ماتریس اطلاعات مشاهده شده تخمین زد؟) و آیا می توانم خطاهای std را به روشی مشابه برای مدل پنهان مارکوف به دست بیاورم؟
|
محاسبه خطاهای استاندارد در الگوریتم EM
|
25926
|
من یک مجموعه داده بزرگ (400 هزار ردیف X 60 ستون) دارم که سعی می کنم از آن برای ساخت یک مدل knn استفاده کنم. من از نسخه بسته «caret» «knn» و روش «forward.search» از بسته «FSelector» برای حذف متغیرها از طریق اعتبارسنجی متقابل استفاده میکنم. مشکل من این است که وقتی از بیش از 20 هزار خط داده استفاده میکنم، پیامی مبنی بر وجود پیوندهای بسیار زیاد دریافت میکنم. در حال حاضر من فقط مقادیر k بین 1-19 را بررسی میکنم (و فقط عددهای #فرد را بررسی میکنم، زیرا ظاهراً ریسک پیوندها را کاهش میدهند) و فقط از متغیرهایی با سطح بالاتر از 2 استفاده میکنم. آیا ترفند دیگری برای استفاده از تکه های بزرگ داده در «knn» وجود دارد؟ ویرایش: این مشکل رگرسیون است، نه یک مشکل طبقه بندی.
|
برخورد با تعداد زیادی پیوند در مدل kNN
|
25927
|
فرض کنید دو نمونه داریم و میخواهیم تعیین کنیم که آیا آنها از یک توزیع گرفته شدهاند یا خیر، نمونههای A،B که از چند اعداد صحیح تشکیل شدهاند. اگر این را با استفاده از آزمون جایگشت دو نمونه ای آزمایش کنیم، به ویژه با نگاه کردن به جایگشت هایی که در آن تفاوت در میانگین نمونه ها به اندازه تفاوت مشاهده شده شدید است: آیا دلیلی وجود دارد که فکر کنیم می توانیم p- دو دنباله را محاسبه کنیم. ارزش با نگاه کردن به یک دم و دو برابر کردن احتمال؟ این همان چیزی است که به نظر می رسد در یادداشت های سخنرانی من گفته می شود، اما من نمی فهمم چرا می توانیم فرض کنیم که دنباله ها متقارن هستند (یا چرا این فرض مستلزم آن نیست). توضیحاتی ارائه نشد. متشکرم.
|
دوبرابر کردن دم ها در تست جایگشت دو نمونه ای
|
59867
|
من با داده های آزمایشگاهی کار می کنم که به دلیل چولگی باید تبدیل شوند. در 2 نقطه زمانی جمع آوری شده است و من علاقه مند به تغییر از زمان #1 به زمان #2 هستم. سوال من این است که آیا مقادیر اصلی را تبدیل به لاگ کنم، سپس تفاوت دادههای تبدیل شده را کم کنم؟ یا اینکه تفاوت را از مقادیر خام محاسبه کنم و سپس تفاوت را تبدیل کنم؟ (این خود یک مشکل ایجاد می کند، زیرا تفاوت می تواند منفی باشد، بنابراین نمی توان آن را ثبت کرد).
|
هنگام تجزیه و تحلیل یک تفاوت برای دادههای تبدیلشده به گزارش، چه زمانی باید گزارش را گرفت؟
|
74175
|
از چه چیزی استفاده کنیم: Nested Case-Control یا Case-Cohort؟
|
|
92743
|
من یک نمونه از داده های مرکز تماس برای سال 2013 دارم. 261 روز داده (به استثنای تعطیلات آخر هفته) وجود دارد. برای سال 2013، من یک متغیر ساختگی تعطیلات («تعطیلات») را برای روزهایی که هیچ آماری وجود نداشت، اضافه کردم. برای سال 2014، من یک متغیر ساختگی تعطیلات آینده ('holidayf') را نیز گنجانده ام. **هدف من این است که ارزیابی کنم این کد چقدر در پیش بینی های سال 2014 دقیق است. ** من این کد را در زیر امتحان کردم اما وقتی به fc$fitted نگاه می کنم، به نظر می رسد پیش بینی ها درست نیستند. برای 8 روز اول ژانویه 2014، تعداد دقیق تماس هایی را که در 8 روز اول ژانویه 2013 دریافت شده است، پیش بینی می کند که اشتباه به نظر می رسد. همچنین، در جایی که در سال 2014 تعطیل عمومی است، پیشبینی آینده آن روز حجم تماسهای معمولی تا زیاد را پیشبینی میکند، بنابراین به نظر میرسد که پیشبینی از متغیر «تعطیلات» استفاده میکند نه از متغیر «holidayf». کتابخانه(پیشبینی) y <- ts(تماسها، فرکانس=5) z <- فویر(ts(تماسها، فرکانس=261)، K=12) zf <- فویر(ts(تماسها، فرکانس=261)، K=12 ,h=261) fit <- auto.arima(y,xreg=cbind(z,holiday)) fc <- پیشبینی (fit,xreg=cbind(zf,holidayf),h=261) نمودار(fc) داده: فراخوانی <- c(0,145,175,129,266,219,156,184,167,241,218,194,192,162191,26,192,162,191,23 235, 218,180,150,245,209,210,211,151,236,197,217,140,164,200,156,152,153,141,224,178, 159,153,137,207,173,197,213,206,305,284,248,289,269,359,333,257,0,244,325,292,267, 206,0,0,360,261,327,284,385,377,317,327,271,372,191,320,268,261,376,320,280,251,200, 200,200,0,236,161,259,200,190,166,174,225,228,202,201,155,241,207,199,179,178,249, 243,230,177,181,264,250,219,204,178,244,249,185,184,164,0,253,216,217,165,170,185, 175,160,148,231,223,196,162,149,228,213,190,177,139,212,205,221,190,170,196,210, 198,192,131,220,185,199,153,166,240,176,200,145,0,255,202,220,220,181,250,171,164, 142,118,179,197,167,130,124,180,214,203,153,140,161,200,191,159,141,227,170,166, 166,106,131,0,176,156,109,196,175,175,174,161,230,191,159,150,91,180,188,173,157, 107,193,172,172,172,116,195,183,169,146,125,208,160,160,177,128,191,176,149,175, 136,217,162,178,130,99,158,154,135,146,106,155,148,119,137,96,161,106,114,139,84, 0,97,95,892,65,097,95,892,65,0,97,95,892,65,000 <- c(1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 ,0,0,0,0,0,0,0, 0,1,0,0,0,0,0,1,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0, 0,0,0, 0,0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0,0,0,0, 0,0,0,0,0,0,0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,0,0,0, 0,0,0,0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,0,0, 0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0,0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 1,0,0, 0,0,0,1,1,1,0,0,0) تعطیلات <- c(1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0,0,0,0,0, 0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,1,0,0, 0,0,1, 0,0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0, 0,0,0,0,0,0, 0,0,0,0,0,0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0, 0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0,0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,0,0, 0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 0,0,0,0,0,0, 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 1,0,0, 0,0,0,0,1,1,0,0,0)
|
پیش بینی با متغیرهای ساختگی تعطیلات
|
59860
|
**آیا استانداردسازی یک متغیر وابسته در گروه شناسایی منطقی است؟** مقاله کاری زیر (کاهش سرعت جنگل زدایی در آمازون قانونی؛ قیمت ها یا سیاست ها؟، pdf) از یک متغیر وابسته استاندارد شده برای تجزیه و تحلیل اثر تغییر خط مشی کلی استفاده می کند. برزیل در مورد جنگل زدایی استانداردسازی به صورت زیر انجام میشود: $$ Y^{new}_{it} = \frac{Y_{it} - \overline{Y_i}}{sd(Y_{it})} $$ نویسندگان استدلال میکنند، این کار میکند تغییرات نسبی در افزایش جنگل زدایی در شهرداری ها را در نظر بگیرید. نویسندگان بدین وسیله از یک تخمین FE (صفحه 12) برای داده های تابلویی استفاده می کنند. از جمله ساختگی پس از سیاست برای هر سال بعد از قانون جدید. * اگر متغیر وابسته به این شکل استاندارد شده باشد، ضرایب چگونه باید تفسیر شوند؟ * آیا استانداردسازی غیرمتعارف نیست زیرا به مشاهداتی که در آن گروه/شهرداری تغییرات کمتری را در طول زمان تجربه کرده اند، ارزش بیشتری می دهد؟
|
متغیر وابسته استاندارد شده در یک گروه در مدل های داده پانل؟
|
45055
|
من از یک مدل خطی برای پیشبینی کمتغذیه در کودکان زیر 5 سال استفاده میکنم. معیار رایج مورد بحث، کوتاهقدی (یک نتیجه دوتایی) است که بیش از دو انحراف استاندارد از یک سن استاندارد برای قد فاصله دارد (من پیشبینی میکنم). امتیاز z که زیربنای وضعیت رشد کوتاه مدت است). در زیر هیستوگرام های همپوشانی قد واقعی (آبی) در مقابل پیش بینی شده (قرمز) برای امتیازات سنی وجود دارد. چیزی که من واقعاً علاقه مند به پیش بینی آن هستم این است که آیا یک فرد زیر نمره z 2- می افتد یا نه، و توزیع من بسیار محدود است. هر گونه راهنمایی؟ در حال حاضر، مدل من به این صورت است: Height.Age.Z ~ سن + مادران. تحصیلات + ثروت + بهداشت + (اثر ثابت در منطقه) هر گونه راهنمایی، کلی و خاص، قابل قدردانی است. با تشکر، 
|
مدلسازی نقاط پرت توزیع نرمال
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.