_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
6330 | من قبلاً از forecast pro برای پیشبینی سریهای زمانی تک متغیره استفاده کردهام، اما گردش کار خود را به R تغییر میدهم. بسته پیشبینی برای R شامل بسیاری از توابع مفید است، اما کاری که انجام نمیدهد این است که هر نوع تغییر داده قبل از اجرای خودکار انجام شود. .arima(). در برخی موارد forecast pro تصمیم میگیرد قبل از انجام پیشبینی، دادههای تبدیل را ثبت کند، اما من هنوز دلیل آن را متوجه نشدهام. بنابراین سوال من این است: چه زمانی باید سری زمانی خود را قبل از امتحان متدهای ARIMA روی آن لاگ-تغییر کنم؟ /edit: پس از خواندن پاسخهای شما، میخواهم از چیزی شبیه به این استفاده کنم، جایی که x سری زمانی من است: library(lmtest) if ((gqtest(x~1)$p.value < 0.10) { x<-log (x)} آیا این منطقی است؟ | زمان ثبت تبدیل یک سری زمانی قبل از برازش مدل ARIMA |
10109 | من سعی می کنم از R برای توسعه یک مدل مالی شرکتی استفاده کنم. این مدل شامل موارد خطی مختلف، X، به شکل زیر با مقادیر واقعی برای دوره زمانی 1، 2.. n و مقادیر پیش بینی شده برای دوره های n+1، n+2،.. n+k است. g میانگین نرخ رشد دوره پیش بینی شده است. من باید یک بردار به شکل زیر بسازم: X=c(X1,X2,...,Xn,Xn+1=(1+g)Xn,Xn+2=(1+g)Xn+1,. ..,Xn+k=(1+g)Xn+k-1)) چگونه این کار را در R انجام دهم؟ من سعی کردم ادبیات R را در مورد متغیرهای دارای تاخیر جستجو کنم، اما نتوانستم یک مثال ساده که آنچه لازم است را انجام دهد. من مشتاقانه منتظر هر راهنمایی هستم. | متغیرهای تاخیری در R |
44193 | من اخیراً روی یک تکلیف کار کردهام که در آن هدف پیادهسازی یک رویکرد MCMC برای شبیهسازی از توزیع پسین تولید شده است. توزیع پسین از احتمال داده شده توسط $p(x|\lambda) \sim \text{Poisson}(\lambda)$ و یک قبلی برای $\lambda$ که توسط $p(\lambda) \sim \text داده میشود، ایجاد میشود. {نمای}(\lambda_{0})$. بنابراین، $$ p(\lambda) = \lambda_{0}e^{-\lambda_{0} \lambda} $$ در انتساب، مقداری برای $\lambda_{0}$ برای ما _not_ ارائه شده است ، اما به ما گفته می شود که $90\%$ باور وجود دارد که $\lambda < 7$ است. با توجه به موارد فوق، من استنباط کردم که: $$ \int_0^7 \lambda_{0}e^{-\lambda_{0} \lambda}d\lambda = 0.90$$ و حل برای $\lambda_{0}$ در انتگرال بالا، به $\lambda_{0} \حدود 0.329$ رسیدم. * **اولین سوال من**: آیا این روشی معتبر برای تعیین مقدار $\lambda_{0}$ با توجه به اطلاعات محدود صادر شده در تکلیف است؟ همچنین، در همان تکلیف، به ما دستور داده شده است که از یک $\text{Gamma}$ به عنوان جایگزینی برای $\text{Exponential}$ قبلی استفاده کنیم. هیچ اطلاعات اضافی درباره $\text{Gamma}$ قبلی (یعنی مقادیر پارامترها یا توزیعهای موجود در آن پیشینها) که باید استفاده کنیم، به ما داده نمیشود. من استنباط کردم که اگر $\mathbf{E}[\lambda] = \lambda_{0}^{-1}$ و $\text{Var}[\lambda] = \lambda_{0}^{- را محاسبه کنم 2}$ برای $\text{Exponential}$ که قبلاً در بالا ذکر شد، میتوانم از آن برای حل پارامترهای جایگزین $\text{Gamma}$ قبلی استفاده کنم. از نظر ریاضی بیشتر: $\mathbf{E}[\lambda] = \frac{\alpha}{\beta} = \lambda_{0}^{-1}$ و $\text{Var}[\lambda] = \frac {\alpha}{\beta^{2}} = \lambda_{0}^{-2}$ حل برای $\alpha$ و $\beta$ بازده: $\alpha = \lambda_{0}^{0} = 1 = 0.329^{0} = 1$ و $\beta = \lambda_{0}^{1} = \lambda_{0} = 0.329^{1} = 0.329$ * **سوال دوم من**: آیا این روش معتبری برای استخراج مقادیر پارامتر برای $\alpha$ و $\beta$ برای $\text{Gamma}$ ذکر شده در بالا با توجه به اطلاعات محدود ارائه شده در تکلیف؟ به عبارت دیگر، آیا می توانم از مقدار و واریانس مورد انتظار مشتق شده از $\text{Exponential}$ قبل از توسعه یک $\text{Gamma}$ مشابه استفاده کنم؟ یا حفظ این باور 90$\%$ که $\lambda < 7$ مهمتر است؟ **ویرایش:** شاید باید اشاره کنم که با استفاده از پارامترهای $\text{Gamma}$ که در بالا مشخص شده است، همان توزیع قبلی (و در نتیجه توزیع پسینی یکسان) با توزیع قبلی $\text{Exponential}$ (مورد خاص) به دست میآید. توزیع $\text{Gamma}$)، اما شاید نکته این باشد. | استخراج مقدمات برای اجرای MCMC |
59725 | من در حال انجام آزمایش ترجیح دما در موش هستم. موش ها در اتاقکی قرار می گیرند که نیمی از محفظه دارای کف سرد و نیمی دیگر دارای کف گرم است. موش ها کل زمان مشخصی را در محفظه می گذرانند (3 دقیقه) و می توانند قسمت سرد یا گرم محفظه را انتخاب کنند. من زمان (بر حسب درصد کل زمان) صرف شده در هر طرف برای هر موضوع (هر موش) را محاسبه می کنم. نتایج به این صورت است: گرم موش% سرد% 1 85% 15% 2 80% 20% 3 87% 13% 4 84% 16% 1. چگونه می توانم فاصله اطمینان را برای میانگین درصد زمان سرد جمعیت از کدام گروه از موش ها انتخاب شد؟ 2. اگر همین آزمایش را با گروه دوم موش هایی که درمان تجربی دریافت کرده اند انجام دهم، از کدام آزمون آماری برای بررسی تفاوت بین دو گروه موش استفاده کنم؟ | آزمون های آماری زمانی که هر متغیر در یک نمونه یک درصد باشد |
44737 | سوال (کاسلا و برگر 6.5): اجازه دهید $X_1 \ldots X_n$ متغیرهای تصادفی مستقل با pdf باشند: $f(x_i|\theta)= \begin{cases} \frac{1}{2i\theta} و -i (\theta - 1)<x_i<i(\theta+1) \\\ 0, & \textrm{در غیر این صورت} \end{cases}$ توجه به نابرابری را میتوان بازنویسی کرد: $-\theta<\frac{x_i}{i} - 1<\theta$ سپس میتوانیم از متغیرهای نشانگر برای نوشتن تابع درستنمایی در یک خط استفاده کنیم: $L( \theta|. D )=\Pi_{i=1}^n f(x_i|\theta)= \left[ \left( \frac{1}{2\theta} \right)^n \Pi_{i=1}^n I_{[\frac{\min(x_i)}{i} - 1, \infty)}(x_i)I_{(-\infty, \frac{\ max(x_i)}{i} -1]}(x_i) \right] \left[ \Pi_{i=1}^n \frac{1}{i} \right] $ این عبارت اخیر از شکل مورد نیاز برای قضیه فاکتورسازی: $L(\theta|D)=g(T(D)|\theta)h(D)$ با $h(D)=\Pi_{i=1}^n \ frac{1}{i}$ و $g(T(D)|\theta)$ بقیه آمار کافی است $\left( \frac{\min(x_i)}{i}. \frac{\max(x_i)}{i} \right)$ * * * من حدس میزنم که آیا هیچ الزامی برای فراخوانی قضیه فاکتورسازی را از دست دادهام. * * * به روز رسانی: $L(\theta| D )=\Pi_{i=1}^n f(x_i|\theta)= \left[ \left( \frac{1}{2\theta} \راست)^ n \راست] \چپ[ \Pi_{i=1}^n \frac{1}{i} I_{[\min(\frac{x_i}{i})، \max(\frac{x_i}{i})]}(\frac{x_i}{i}) \right] $ فکر میکنم این اشتباهات در تنظیم متغیر نشانگر را تصحیح میکند. همچنین، متوجه شدم که در گروه اشتباهی قرار داشت، باید بخشی از $h(D)$ باشد نه $g(T(D)|\theta)$ زیرا شامل $x_i$ فرد می شود و نه $\theta$ . | آیا این آمار کافی است؟ |
59094 | من مشکلی دارم که فکر میکنم برای هرکسی که با واریانسهای نابرابر مدلسازی میکند (که متأسفانه نیستم) مشکل بسیار سادهای دارم. من یک متغیر وابسته totrich دارم که میخواهم آن را به عنوان تابعی از یک متغیر سال و یک عامل دو سطحی spont مدل کنم. اساساً من فقط به این علاقه دارم که آیا اسپونت یک پیش بینی کننده مهم توتریچ است یا خیر، اما باید سال ها کنترل کنم. مشکل این است که واریانس توتریچ به وضوح با سال ها همبستگی منفی دارد (هرچه بچه ها (سال ها) کوچکتر باشند، رفتار آنها متغیرتر است (توتریچ)). من سعی میکنم از «gls()» استفاده کنم، اما نمیدانم دقیقاً چگونه مشخص کنم که واریانس توتریچ به سالها بستگی دارد. من این را امتحان کردم: mod2=gls(totrich~years+spont,data=dfm,weight=varPower(form=~years)) summary(mod2) من فکر می کنم این مدلی را ایجاد می کند که می گوید واریانس توتریچ به یک توان مربوط می شود سالها، که به نظر منطقی است، اما راههای دیگری برای انجام آن وجود دارد و من مطمئن نیستم که کدام درست است. خیلی ممنون می شوم اگر کسی بتواند من را از بدبختی نجات دهد و به من بگوید که چگونه باید وزنه ها را تنظیم کنم! در اینجا اطلاعات سالهای من totrich spont 4.202739726 7 N 4.18630137 6 Y 4.128767123 6 N 4.150684932 6 N 4.150684932 6 N 3.7175808241 4.24109589 3 Y 4.178082192 3 N 3.997260274 4 Y 4.22739726 3 Y 4.030136986 3 N 4.15890411 2 Y 4.21646438 2 Y 4.21646438. 6.654794521 6 N 6.4 3 Y 7.112328767 2 Y 6.673972603 4 Y 6.712328767 4 Y 6.693150685 5 Y 6.695890520454 6.660273973 3 Y 6.912328767 3 Y 6.687671233 3 Y 6.679452055 3 N 6.542465753 1 Y 6.597260274 3 Y 6.687671233 N 6.542465753 1 Y 6.597260274 3 Y 6.687671234 N 4 N 6.624657534 4 N 6.490410959 4 Y 6.663013699 2 Y 6.643835616 6 N 6.605479452 6 Y 8.161643836 3 Y 8.161643836 3 Y 8578. 8.063013699 3 Y 8.016438356 4 Y 8.054794521 3 N 8.095890411 3 Y 8.095890411 3 N 8.076712329 6 N 8.076712329 6 N 8.095890411 2 Y 8.035616438 4 Y 8.093150685 4 Y | چگونه یک مدل بسازیم که واریانس به متغیر کمکی بستگی دارد؟ |
48636 | من در حال تدریس دروس آمار پایه هستم و آزمون t را برای دو نمونه مستقل با واریانس های نابرابر (تست ولچ) انجام می دهیم. در مثالهایی که من دیدم، درجههای آزادی تنظیمشدهای که توسط تست ولش استفاده میشود، همیشه کمتر یا مساوی $n_1+n_2-2$ هستند. آیا همیشه اینطور است؟ آیا آزمون ولش همیشه درجات آزادی آزمون t ترکیبی (واریانس های برابر) را کاهش می دهد (یا بدون تغییر باقی می گذارد؟) و در مورد همین موضوع، اگر انحرافات استاندارد نمونه برابر باشد، آیا DFهای تست ولچ به $n_1+n_2-2$ کاهش می یابد؟ من به فرمول نگاه کردم، اما جبر به هم ریخت. | آیا درجات آزادی آزمون ولش همیشه کمتر از DF آزمون تلفیقی است؟ |
101344 | اگر در هسته PCA یک هسته خطی $K(\mathbf{x},\mathbf{y}) = \mathbf x^\top \mathbf y$ را انتخاب کنم، آیا نتیجه با PCA خطی معمولی متفاوت خواهد بود؟ آیا راه حل ها اساساً متفاوت هستند یا یک رابطه خوب تعریف شده وجود دارد؟ | آیا هسته PCA با هسته خطی معادل PCA استاندارد است؟ |
59092 | در کتاب آمار پزشکی نوشته کامبل، ماچین و والترز، در بخش بسیار جالب «تلههای رایج» در صفحه 280 میتوانید بخوانید که آزمون همبستگی بین مقدار اولیه و تغییر معتبر نیست، زیرا همبستگی منفی ذاتی بین وجود دارد. دو اقدام در عوض آنها پیشنهاد می کنند که باید همبستگی بین میانگین خط پایه و پیگیری را آزمایش کنید و برای تولید یک آزمون معتبر تغییر دهید. من متوجه شدم که این منجر به همبستگی منفی ذاتی نمی شود، چیزی که من دریافت نمی کنم این است که چگونه این تخمین خوبی برای همبستگی بین خط مبنا و تغییر خواهد بود. اگر کسی بتواند این موضوع را برای من توضیح دهد یا به مرجع دیگری اشاره کند، بسیار ممنون می شوم! | آزمون صحیح برای همبستگی بین تغییر و اندازه گیری پایه |
11855 | من 5 چک لیست با نمرات کامل مختلف دارم. بگویید، من چک لیست A-E را با نمرات کامل مربوط به آنها دارم: A = 24 B = 17 C = 38 D = 41 E = 25 هر آیتم در همه چک لیست ها معادل 1 امتیاز است. من می خواهم یک آیتم را از یک چک لیست با آیتم دیگر در چک لیست های دیگر مقایسه کنم. چگونه می توانم وزن هر آیتم را در تمام چک لیست ها با یکدیگر برابر کنم؟ | چگونه وزن هر آیتم را در چند چک لیست برابر کنیم؟ |
44199 | من به دنبال مرزهای دم (هم در $0$ و هم $\infty$) برای $$ هستم Z:=\exp \left(\frac{\alpha}{4}(X-Y)^2+\frac{\alpha} {2}(X+Y)\right)$$ که در آن $\alpha$ یک واقعی مثبت و $X,Y$ هستند _i.i.d._ نرمال با میانگین $0$ و واریانس $\sigma^2 >> 1$. من میخواهم احتمال اینکه $Z$ خارج از بازه $[a,b]$ باشد را در حد $a$ کوچک و $b$ بزرگ کنترل کنم. اولین رویکرد من توابع مشخصه بود، من موفق شدم $$ E[\exp(i\omega \log Z)] = \frac{1}{\sqrt{1+i\alpha\sigma^2\omega}} را محاسبه کنم. exp\left(-\frac{1}{4}\alpha^2\sigma^2\omega^2\right)$$ اما نتوانستم تبدیل فوریه معکوس پیدا کنم یا کاری مفید با آن انجام دهم. | مرزهای دنباله روی تابعی از متغیرهای معمولی توزیع شده است |
44734 | ما مجموعه ای بزرگ (1-2 میلیون) از اسناد حوزه های مختلف (سیاست، طراحی، برنامه نویسی و غیره) داریم. و فرض می کنیم که تعداد دامنه ها را دقیق نمی دانیم. و هدف ما ساخت مدل های موضوعی مرتبط برای این دامنه ها است. به عنوان مثال من می خواهم _N_ موضوع را در هر دامنه پیدا کنم. برای سیاست می تواند: سیاست خارجی، دولت، سیاست اقتصادی و غیره باشد. برای حوزه طراحی: طراحی وب، معماری، و غیره و غیره. اگر به درستی متوجه شده باشم، هنگام استفاده از LDA، لازم است یک مجموعه آموزشی برای دامنه مشخص (مثلاً سیاست) تشکیل شود. اما اگر اطلاعاتی در مورد دامنه وجود نداشته باشد مشکل به وجود می آید. چگونه می توانم یک مجموعه آموزشی در آن صورت تشکیل دهم؟ من در مورد نمایه ساختمان فکر می کردم، اسنادی را استخراج می کردم که حاوی کلمات مهمی هستند (تعریف شده توسط TF-IDF). اما به نظر می رسد که بهترین راه حل نیست. اگر به جای LDA می توانیم از HDP استفاده کنیم و مجموعه آموزشی کامپایل شده با اسناد تصادفی را مدیریت کنیم. اما مشکل دیگری وجود دارد - واژگان عظیمی که ممکن است در حافظه جا نگیرد (برای توصیف چندین دامنه به کلمات بسیار بیشتری نیاز داریم تا یک). بنابراین مشکل این است: بهترین راه برای ساخت مدلهای موضوعی (یا یک مدل موضوعی؟) از دامنههای مختلف (و ناشناخته) چیست؟ و آنها این مدل ها را برای اسناد جدید (دیده نشده) اعمال می کنند. | مدل های موضوع LDA برای دامنه های مختلف و ناشناخته |
44731 | این سوال نشان می دهد که چگونه می توان یک عبارت تحلیلی برای توزیع شرطی از یک نرمال چند متغیره استخراج کرد. من کنجکاو هستم که این موضوع تا چه حد در زمانی که یک جفت گاوسی وجود دارد، اما حاشیههای بالقوه متفاوتی وجود دارد، گسترش مییابد. این یک توزیع مشترک $$f\left(X_{1},X_{2}\right)=|C|^{-0.5}exp\left\\{ -\frac{1}{2}\left را پیشنهاد میکند [\begin{array}{cc} Z_{1} & Z_{2}\end{array}\right]\left(C^{-1}-I\right)\left[\begin{array}cc } Z_{1} و Z_{2}\end{array}\right]'\right\\} \times\prod_{i=1}^{n_{1}}f_{i}\left(x_{i} \right)\times\prod_{j=1}^{n_{2}}f_{j}\left(x_{j}\right) $$ که $C$ ماتریس همبستگی است، $n_{1}$ و $n_{2}$ تعداد متغیرهای مربوطه $X1$ و $X2$ و عنصر $i^{th}$ از $Z\equiv\left[\begin{آرایه هستند. {cc} Z_{1} & Z_{2}\end{array}\right]$ توسط $z_{i}\equiv\Phi^{-1}\left(u_{i}\right)$ که در آن $u_{i}$ نمره است. همچنین توزیع حاشیه ای $$f\left(X_{2}\right)=|C_{22}|^{-0.5}exp\left\\{ -\frac{1}{2}Z_{2} نیز وجود دارد \left(C_{22}^{-1}-I\right)Z_{2}'\right\\} \times\prod_{j=1}^{n_{2}}f_{j}\left(x_{j}\right)$$ ترکیب کردن با هم توزیع شرطی $$f\left(X_{1}| X_{2}\right) = \frac{f\left(X_{1},X_{2}\right)}{f\left(X_{2}\right)} = \left(\prod_{i=1}^{n_{1}}f_{i}\left(x_{i}\right)\right)\times\left(\frac{|C|}{|C_{ 22}|}\راست)^{-0.5}\times exp\left\\{ -\frac{1}{2}\left(\left[\begin{array}{cc} Z_{1} و Z_{2}\end{آرایه}\right]\left(C^{-1}-I\right)\left[\begin{array}{cc} Z_{1} & Z_{2}\end{آرایه }\right]'-Z_{2}\left(C_{22}^{-1}-I\right)Z_{2}'\right)\right\\} = \left(\prod_{i=1}^{n_{1}}f_{i}\left(x_{i}\right)\right)\left(|C_{11}-C_{12}C_{22 }^{-1}C_{21}|\right)^{-0.5} exp\left\\{ -\frac{1}{2}Q\right\\} $$ که در آن $Q$ عبارت است داخل پرانتز من سعی کردم $Q$ را ساده کنم تا اگر بخواهم حاشیه های گاوسی را فرض کنم، نتیجه با حالت نرمال چند متغیره مطابقت داشته باشد. به نظر نمی رسد که جبر ماتریسی آن را درست کنم. من چیزی مشابه آنچه برای ماتریس کوواریانس شرطی در مورد گاوسی چند متغیره استفاده میشود، دریافت میکنم، که ممکن است به یک ماتریس همبستگی معتبر نرسد، و سپس چند عبارت اضافی که احتمالاً حاشیهها را تصحیح میکنند. | استخراج توزیع شرطی با استفاده از کوپول گاوسی |
10104 | از آنجایی که همه داده های بالینی و آزمایشگاهی متغیرهای تصادفی پیوسته بزرگتر از صفر هستند (یعنی بالای صفر محدود شده اند)، آیا توزیع نرمال آنها غیرممکن است؟ آیا می توان آنها را فقط به طور معمولی توزیع کرد؟ متشکرم. | آیا توزیع نرمال داده های بالینی و آزمایشگاهی غیرممکن است؟ |
11859 | آیا کسی می تواند تفاوت بین مشکل Multiclass و Multilabel را به من اطلاع دهد. | تفاوت بین Multiclass و Multilabel Problem چیست؟ |
59096 | من می خواهم سه عدد تصادفی تولید کنم و سپس آنها را استاندارد کنم تا مجموع آنها به 1 برسد. من می خواهم این روش را تکرار کنم تا در دراز مدت حالت 0.33 برای هر عدد باشد. | سه عدد تصادفی ایجاد کنید که مجموع آنها 1 در R باشد |
1667 | من به عنوان یک مهندس به موضوعاتی مانند طراحی آزمایش هایی که از نظر آماری معتبر هستند، کنترل کیفیت، کنترل فرآیند، قابلیت اطمینان و کنترل هزینه علاقه مند هستم. من یک دوره آمار مهندسی گذراندم، اما متاسفانه نه کتاب و نه استاد آنقدر خوب نبودند. من در دوره OK را انجام دادم، اما علاقه مندم در مورد این مباحث و نحوه اعمال آنها در مسائل مهندسی بیشتر بیاموزم. من یک کتاب کلی را ترجیح می دهم که تا حد امکان بسیاری از این موضوعات را پوشش دهد - به عمق زیادی نیاز نیست. من فکر می کنم که می توانم با بررسی نحوه استفاده همه رشته های مهندسی از آمار چیزهای زیادی در مورد بهبود توانایی های خود بیاموزم، بنابراین به دنبال رشته مهندسی خاصی نیستم. آیا انجمن تجزیه و تحلیل آماری می تواند کتاب هایی را توصیه کند که بتوانم از آنها برای کسب اطلاعات بیشتر در مورد کاربرد آمار در مسائل مهندسی استفاده کنم؟ | چه کتاب هایی یک نمای کلی از آمار مهندسی ارائه می دهند؟ |
114351 | من مجموعه های متعددی از داده ها را دارم که با توزیع های پواسون بیش از حد پراکنده مطابقت دارند که می توانم آنها را با پارامترسازی جایگزین یک توزیع دوجمله ای منفی ($\mu$ و $D$ به جای $p$ و $r$) مدل کنم. من علاقه مند به تولید اعداد شبه تصادفی از این توزیع ها هستم اما نمی توانم ICDF را برای انجام این کار پیدا کنم. من همچنین سعی کردم ببینم «R» چگونه این کار را انجام داده است، اما به اندازه کافی در «Cpp» مدفون است که گم شوم (نه یک برنامه نویس «C++»). چگونه می توانم یک عدد یکنواخت شبه تصادفی را به یک عدد دوجمله ای منفی شبه تصادفی با پارامترهای $\mu$=mean و $D$=dispersion تبدیل کنم؟ **توضیحات و تشکر** ممنون از پاسخ و نظراتی که مرا به rnbinom در R اشاره کرد. که در ترکیب با fitdistr از بسته MASS دقیقاً همان کاری را که من می خواهم انجام می دهد. **با این حال** علاقه من به تولید این اعداد تصادفی در SQL Server بدون استفاده از زبان دات نت است. همانطور که گفته شد، من کد stata را جالب دیدم، اما برای $p$ و $r$ پارامتر شده است و شاید من خیلی متراکم هستم، اما مطمئن نیستم که چگونه $\mu$ و $D$ خود را به عقب تبدیل کنم. به $p$ و $r$. تمام آنچه گفته شد، من یک مقاله JSTOR پیدا کردم که در مورد توزیع های دوجمله ای منفی با برنامه خاص به عنوان یک پواسون بیش از حد پراکنده است. ببینم آیا می توانم یک CDF از آنجا بسازم یا نه. | اعداد پواسون پراکنده شبه تصادفی ایجاد کنید |
11850 | من واقعاً در یافتن نحوه مقایسه مدل های ARIMA و رگرسیون با مشکل مواجه هستم. من میدانم که چگونه مدلهای ARIMA را در مقابل یکدیگر ارزیابی کنم، و انواع مختلف مدلهای رگرسیون (به عنوان مثال: رگرسیون در مقابل رگرسیون پویا با خطاهای AR) در برابر یکدیگر، با این حال نمیتوانم اشتراکات زیادی بین مدل ARIMA و معیارهای ارزیابی مدل رگرسیونی ببینم. تنها دو معیاری که آنها به اشتراک می گذارند SBC و AIC است. خروجی ARIMA نه یک رقم ریشه MSE یا یک آمار r^2 تولید می کند. من خیلی مطمئن نیستم که آیا برآورد خطای استاندارد یک مدل ARIMA مستقیماً معادل (یا قابل مقایسه) با هر چیزی در خروجی های رگرسیون است یا خیر. اگر کسی بتواند من را در جهت درست راهنمایی کند، عالی خواهد بود، زیرا من در اینجا واقعاً گیج شده ام. احساس می کنم دارم سعی می کنم سیب را با پرتقال مقایسه کنم. به هر حال من از SAS در انجام این تحلیل استفاده می کنم. | مقایسه مدل بین یک مدل ARIMA و یک مدل رگرسیونی |
109451 | اجازه دهید $X$ به طور یکنواخت در $(0,1)$ توزیع شود و $U=\max \\{X, 1-X\\}$ را تنظیم کنید. چگونه می توانم توزیع $U$ را پیدا کنم؟ اولین فکر من این بود که این مسئله را یک مشکل توزیع مخلوط در نظر بگیرم و از تکنیک CDF به صورت زیر استفاده کنم: $$F_U (u)= P\left( U \leq u \right)=P\left(U \leq u, U=X \right) +P\left(U \leq u, U=1-X \right)$$ و سپس مطابق آن ادامه دهید. به نظر می رسد که این رویکرد نادرست است، اما من کاملاً نمی دانم چرا. بنابراین اگر کسی بتواند ابتدا به شکاف قیاسی من در بالا اشاره کند و سپس راه مناسبی برای مقابله با این نوع مشکلات ارائه دهد، سپاسگزار خواهم بود. متشکرم. | اگر $X \sim$ unif$(0,1)$، توزیع $U=\max \{X,1-X \}$ چگونه است؟ |
84232 | من به تأثیر دو عامل مختلف، $x_1$ و $x_2$، بر روی یک پاسخ $y$ علاقه مند هستم. با این حال، اگرچه من به هر دو علاقه دارم، اما بیشتر به تأثیر $x_1$ روی $y$ علاقه مند هستم تا به تأثیر $x_2$ روی $y$. (من مایلم فرض کنم که $x_1$ و $x_2$ دارای اثرات مستقل هستند، که اثرات خطی هستند، و هیچ تعاملی بین $x_1$ و $x_2$ وجود ندارد. همچنین انتظار دارم هر دو $x_1$ و $x_2$ بر اساس شواهد دیگر، اثری معادل $y$ داشته باشد.) بگویید من می توانم چهار مشاهدات را انجام دهم. من دو سناریو را در نظر دارم، $A$ و $B$. من سعی می کنم بفهمم در چه شرایطی هر سناریو ترجیح داده می شود. در سناریوی $A$، من یک آزمایش دو مرحله ای و دو سطحی را بدون تکرار اجرا می کنم. من فرض میکنم که $x_1$ و $x_2$ با هم تعامل ندارند، و ضرایب $\beta_1$ و $\beta_2$ را برای مدل تخمین میزنم: $y(x_1, x_2) = const + \beta_1x_1 + \beta_2x_2 + \epsilon$ که در آن $\epsilon$ یک عبارت خطا است. در سناریوی $B$، من یک آزمایش یک مرحلهای و دو سطحی را با دو تکرار اجرا میکنم (بنابراین هنوز چهار مشاهده در کل) و فقط $\beta_1$ را تخمین میزنم: $y(x_1) = const + \beta_1x_1 + \epsilon$ بدیهی است ، مزیت سناریوی $A$ این است که می توانم $\beta_1$ و $\beta_2$ را تخمین بزنم. اما من نمی توانم آن تخمین $\beta_2$ را به صورت رایگان دریافت کنم، می توانم؟ سوال من این است که سناریوی $A$ با توجه به سناریوی $B$ از چه چیزی صرف نظر می کند تا بتواند به جای یک ضریب، دو ضریب را تخمین بزند. (در این مورد خاص، من مایلم تخمینی بهتر از $\beta_1$ را با برآورد $\beta_2$ معامله کنم.) اولین فکر من این بود که تخمین $\beta_1$ در سناریوی $B$ باید بیشتر باشد. دقیق، زیرا سناریوی $B$ دارای درجات آزادی بیشتری برای خطاها است. با این حال، اگر فرض کنم $x_1$ و $x_2$ واقعا مستقل هستند، و $\epsilon$ توزیع یکسانی در تمام سطوح عامل دارد، فکر میکنم میتوانم ببینم چرا تخمین سناریوی $A$ $\beta_1 است. $ می تواند به اندازه سناریوی $B$ خوب باشد، حتی اگر من به اندازه کافی برای اثبات آن نمی دانم. از این گذشته، در هر دو سناریو، دو مشاهده برای کم $x_1$ و دو مشاهده برای بالا $x_1$ وجود دارد. همچنین، اگر من کمی شبیهسازی صفحهگسترده انجام دهم و هر دو سناریو را امتحان کنم، هیستوگرام بسیار مشابهی از نتایج تخمینی برای $\beta_1$ دریافت میکنم. اگر من با استفاده از $0$ و $1$ برای مقادیر بالا و پایین x$s، $1$ برای $\beta$s شبیه سازی کنم و اجازه بدهم عبارت خطا $\ باشد، تصویر زیر نمونه ای از چیزی است که به دست می آید. epsilon \sim \mathcal N(0, 1)$:  بنابراین، (1) آیا این درست است که هر دو سناریو آیا $\beta_1$ را با همان دقت تخمین می زند؟ (2) اگر چنین است، سناریوی $B$ از داشتن دو تکرار برای هر سطح $x_1$ چیست؟ شاید به فرضیات کمتری نیاز باشد، مثلاً در مورد یکنواختی خطاها در تمام سطوح عامل؟ (اکنون می توان آن را آزمایش کرد و نه فقط فرض کرد.) | معاوضه بین طرح تکرار نشده دو عاملی و طرح تک عاملی با دو تکرار چیست؟ |
84230 | من سعی می کنم یک فصل از پایان نامه خود را به یک مجله ارسال کنم. ما از آنالیز واریانس تودرتو استفاده کردیم که در آن مقایسههای گروهی را در طول سال به صورت تودرتو در نظر گرفتیم تا سوگیری احتمالی را به دلیل ناظران مختلف بین دو سال در نظر بگیریم. تفاوتهای شدیدی بین سالها وجود داشت، اگرچه جالب نیست. مشاور من میگوید همه یافتههای مهم مربوط به سال را خارج از مقاله بگذارید، زیرا به «داستان» کلی ما مرتبط نیست. موافقم که ربطی ندارد، اما میخواستم ببینم در این مورد اجماع چیست. من اغلب میدانم که تحلیلهایی که اجرا میشوند از مقالات خارج میشوند، اما بخشی از نتایج یک مدل ANOVA ساده است؟ آیا این را مدیون خوانندگان هستم که شواهدی مبنی بر تعصب ناظر را روشن کنند یا می توانم آن را کنار بگذارم زیرا برای پیام مقاله مهم نیست. | عدم گزارش نتایج قابل توجه از مدلی که من نتایج دیگری را از آن گزارش می کنم |
84237 |  برای نموداری مانند این، چه روشی هوشمندانه برای تشخیص دادن نوارهای خطا بدون استفاده از کدگذاری رنگ وجود دارد؟ | چگونه با نمودارهای همپوشانی نوارهای خطا بدون رنگ برخورد کنیم؟ |
84235 | سوال زیر در آمارهای قوی مطرح می شود. دو فرمول در زیر نشان داده شده است که من نمی دانم چگونه آنها را استخراج کنم. با این حال، برای روشن شدن زمینه، اجازه دهید با ساده ترین مورد شروع کنیم. میتوان با جایگزین کردن $y_n$ با $z$، تأثیر یک عدد پرت را بر روی تخمینگر $T_n(\mathbf y)$ بررسی کرد و سپس دید با نزدیک شدن $z$ به بینهایت، چه اتفاقی برای $T_n(z)$ خواهد افتاد. . به عنوان مثال، مشاهدات نمایی مستقل $\mathbf y=(y_1، \cdots، y_n)$ را با تابع چگالی $f(y, \theta)=\theta e^{-\theta y}، y>0، \ در نظر بگیرید. تتا> 0 دلار. سپس طبق رویه استاندارد، برآورد حداکثر درستنمایی تحت این مدل $$\widehat\theta(z)=\frac{1}{n^{-1}(z+\sum_{i=1}^{n-1 است. } y_i)};$$ و یک فاصله اطمینان تقریبی 100$(1-\alpha)\%$ برای $\theta$ است $$\left[\widehat{\theta}(z)\mp \Phi^{-1}\left(1-\frac{\alpha}{2}\right)\frac{\widehat{\theta}( z)}{\sqrt{n}}\right].$$ سوالات من از این به بعد شروع می شود. به جای یافتن خطای استاندارد MLE برای esitmator $\widehat{\theta}(z)$، میتوان خطاهای استاندارد $\textbf{non- parametric}$ $\frac{\left[\widehat{\theta را نیز پیدا کرد. }(z)\right]^2\widehat{\sigma}(z)}{\sqrt{n}}$. یعنی یکی اکنون فاصله اطمینان زیر را برای $\widehat\theta(z)$ $$\left[\widehat{\theta}(z)\mp دارد \Phi^{-1}\left(1-\frac{\alpha}{2}\right)\frac{\left[\widehat{\theta}(z)\right]^2\widehat{\sigma} (z)}{\sqrt{n}}\right].$$ > $\textbf{سؤال 1:}$ من قبلاً در معرض آمارهای غیر پارامتریک > نبودهام. لطفاً کسی می تواند به من بگوید که چگونه خطای غیر پارامتری > استاندارد ذکر شده در بالا را استخراج کنم؟ متشکرم اکنون برای داشتن یک برآوردگر قویتر، میتوان به جای میانگین از میانه (med) استفاده کرد تا فاصله اطمینان زیر را برای $\theta$ $$\left[\frac{\log 2}{\mathrm{med}(\mathbf y)}\mp\Phi^{-1}\left(1-\frac{\alpha}{2}\right)\frac{1}{\mathrm{med}{\mathbf(y)}\sqrt{ n}}\right].$$ > $\textbf{سؤال 2:}$ من نمیدانم فاصله اطمینان بالا چگونه > مشتق شده است، مخصوصاً خطای استاندارد. به نظر می رسد برآورد با استفاده از روش لحظه به دست آمده است. تا آنجا که من می دانم، یکی از اشکالات برآوردهای MOM > عدم برآورد واریانس آن است. لطفاً کسی می تواند به من بگوید اینجا چه خبر است؟ متشکرم | اثر نقاط پرت |
44195 | فرض کنید من یک تابع درجه دوم دارم: $$ f(x) = a^T x + x^TBx $$ با $x \in \mathbb{R}^n$. با توجه به یک نقطه $x$ میتوانم $f(x)$ را تا مقداری نویز اندازهگیری کنم، یعنی میتوانم اندازهگیری کنم: $$ \hat{f}(x) = f(x) + z \; \; با \;\; z \sim N(0,\sigma^2). $$ اکنون یک نقطه $x_0$ و یک توپ $n$-بعدی $S^n$ با شعاع $\epsilon$ در مرکز آن داده می شود ($S^n = \\{x: ||x-x_0|| \ leq \epsilon \\}$)، آیا یک راه بهینه (به نوعی) برای انتخاب نقاط از $S^n$ به منظور تخمین پارامترهای $a$ و $B$ وجود دارد؟ تا کنون من فقط نقاط $S^n$ را به صورت تصادفی نمونه برداری کرده ام، اما شاید راهی برای بهره برداری از این واقعیت وجود داشته باشد که $f(x)$ درجه دوم است. همچنین I sphere را انتخاب کردهام، اما میتوانم از یک هایپرمکعب استفاده کنم، مهم این است که باید تابع را در اطراف یک نقطه $x_0$ (که داده شده است) بدون رفتن به آن ارزیابی کنم. | نمونه گیری بهینه برای تخمین تابع درجه دوم |
114353 | کد R برای فرمول زیر چیست؟  | نحوه نوشتن تابع روند SLOBODA در R |
78889 | آیا پیشنهاد کلی وجود دارد که چه زمانی باید از بیزی استفاده کرد و چه زمانی رویکردهای استنتاج دیگری وجود دارد؟! به عنوان مثال در مورد CRF ها، چه زمانی از ML [1] و چه زمانی از رویکرد بیزی [2] استفاده شود؟ [1] http://repository.upenn.edu/cis_papers/159/ [2] https://www.cs.purdue.edu/homes/alanqi/papers/Qi-Szummer-Minka-BCRF- JMLR.pdf | چه زمانی از یادگیری پارامتر بیزی استفاده کنیم، چه زمانی دیگران؟ |
1660 | من باید بدون استفاده از اصطلاحات آماری شدید تعریف کنم که آزمون استقلال چیست. | امتحان استقلال چیست |
5414 | برخی از مشکلات اصلی استفاده از مدلهای خطی اثرات مختلط چیست؟ مهمترین چیزهایی که باید در ارزیابی مناسب بودن مدل خود مورد آزمایش قرار دهید یا مراقب باشید؟ هنگام مقایسه مدلهای یک مجموعه داده، مهمترین چیزهایی که باید به دنبال آن باشید چیست؟ | مشکلات مدل های مختلط خطی |
1668 | من به عنوان یک مهندس نرم افزار به موضوعاتی مانند الگوریتم های آماری، داده کاوی، یادگیری ماشینی، شبکه های بیزی، الگوریتم های طبقه بندی، شبکه های عصبی، زنجیره های مارکوف، روش های مونت کارلو و تولید اعداد تصادفی علاقه مند هستم. من شخصاً لذت کار با هیچ یک از این تکنیکها را نداشتهام، اما مجبور شدم با نرمافزارهایی کار کنم که در زیر کلاه آنها را به کار میگیرند و میخواهم در مورد آنها بیشتر بدانم، در سطح بالایی. من به دنبال کتاب هایی هستم که وسعت زیادی را پوشش دهند - در این مرحله نیازی به عمق زیاد نیست. فکر میکنم اگر بتوانم مبانی ریاضی پشت الگوریتمها و تکنیکهای بهکار رفته را درک کنم، میتوانم در مورد توسعه نرمافزار چیزهای زیادی یاد بگیرم. آیا جامعه تحلیل آماری میتواند کتابهایی را توصیه کند که بتوانم از آنها برای کسب اطلاعات بیشتر در مورد پیادهسازی عناصر مختلف آماری در نرمافزار استفاده کنم؟ | چه کتاب هایی یک نمای کلی از آمار محاسباتی در مورد علوم کامپیوتر ارائه می دهند؟ |
109306 | آیا کسی می تواند مراحل زیر را نشان دهد که چگونه تمایز آنتروپی شانون به نتیجه زیر می رسد؟ $H = -\sum_{l=0}^{L-1} p(l)\log_2[p(l)]$ نتیجه تمایز $H_m = -\sum_{l=0}^{L- 1} \frac{1}{L}\log_2[\frac{1}{L}]$ = $log_2 L $ | تمایز آنتروپی شانون |
44194 | من تعریف زیر را پیدا کردم: توزیع احتمالی $\pi = \\{\pi_x\\}_{x \in S}$ در فضای حالت $S$ یک توزیع ثابت برای زنجیره مارکوف نامیده می شود اگر برای هر $ t > 0$, $$ \pi^T P_t = \pi^T $$ معنی $P_t$ چیست برای زنجیره های مارکوف زمان گسسته و پیوسته نیست، درست است، آیا این ماتریس انتقال در زمان t است؟ | تعریف توزیع ثابت در زنجیره مارکوف زمان پیوسته |
109302 | برای یک بردار ویژگی n بعدی، چگونه تصمیم بگیریم که آیا کلاس ها به صورت خطی قابل تفکیک هستند؟ آیا این برای مشکلات بیش از 2 کلاس صدق می کند؟ بگو برای 3 کلاس، چگونه تصمیم می گیرد؟ متشکرم. | سوال مبتدی در مورد تفکیک پذیری خطی طبقات |
94873 | متوجه شدم، اعتبارسنجی متقاطع کار می کند. من متعجبم که آیا ادبیاتی وجود دارد که توجیه نظری برای اعتبار سنجی متقاطع ارائه دهد. فکر من این است که حداقل چیزی شبیه قضیه حد مرکزی وجود داشته باشد. هر گونه اشاره به ادبیات، یا نظر بسیار استقبال می شود. با تشکر | توجیه نظری برای اعتبارسنجی متقاطع |
44192 | من می خواهم یک مدل فیزیکی را با استفاده از آزمون کولموگروف اسمیرنوف بین داده های تجربی و داده های تولید شده بهینه کنم. خروجی «ks.text(x,y)» فاصله «D» و «p-value» را به من می دهد. کدام رابطه بین آنهاست و کدام یک برای وظیفه من مناسب است؟ یعنی باید مدلی را انتخاب کنم که فاصله کمتری به من بدهد یا مقدار p کوچکتر؟ | آزمون کولموگروف-اسمیرنوف در R |
59721 | من کاملاً مطمئن نیستم که تفاوت بین خروجی ها و نتایج «disstreedisplay» و «seqtreedisplay» چیست. شاید بتوانید تفاوت ها را برای من توضیح دهید؟ راهنمای کاربران TraMineR و مقاله کاری مفصل در مورد کتابخانه WeightedCluster توضیح چندانی در مورد آن نمی دهد. نمونه R اسکریپت من در اینجا آمده است: library(TraMineR) library(WeightedCluster) data(mvad) mvad.alphabet <- c(اشتغال، FE، HE، بیکاری، مدرسه، آموزش) mvad.labels <- c(اشتغال، آموزش تکمیلی، آموزش عالی، بیکاری، مدرسه، Training) mvad.scodes <- c(EM، FE، HE، JL، SC، TR) mvadseq <- seqdef(mvad[, 17:86], alphabet = mvad.alphabet، states = mvad.scodes، labels = mvad.labels، وزن = mvad$weight، xtstep = 6) mvad.ham <- seqdist(mvadseq, method=HAM) seqtree <- seqtree(mvadseq ~ gcse5eq + Grammar + funemp, data=mvad, diss=mvad.ham, weight.permutation=diss) seqtreedisplay(seqtree, type=d, border=NA) disstree <- disstree(mvaddist ~ gcse5eq + گرامر + funemp، داده = mvad، R = 10) disstreedisplay(disstree، imagefunc=seqdplot، imagedata=mvadseq، border=NA، withlegend=FALSE، axes=FALSE، ylab=) باید GraphViz را نصب کرده باشید نمودارها را ببینید | چگونه نتایج TraMineRs از disstreedisplay و seqtreedsplay را تفسیر کنیم؟ |
114355 | من در حال طراحی یک کارآزمایی تصادفی پیشآزمون-پسآزمون هستم که سعی میکنم برای آن یک محاسبه حجم نمونه انجام دهم. مغز من از سردرگمی منفجر می شود، بنابراین امیدوارم کسی بتواند به من کمک کند. فقط یک خلاصه کوچک از آنچه محاکمه به نظر می رسد. ما 2 مداخله داریم که در 3 بازو ارائه خواهد شد: مداخله 1 فقط، مداخله 1+2، مداخله 2 فقط. نتیجه کارآزمایی تفاوت در مرحله تغییر است که یک نتیجه 5 دسته ای است که نشان دهنده آمادگی برای تغییر است. هر شرکت کننده در ابتدا در یک مرحله و در پایان آزمایش در همان مرحله خواهد بود. تعداد مرحله بالاتر بهتر است. با این حال ، تفاوت بین مرحله 1 و مرحله 2 نمی تواند برابر با تفاوت بین مرحله 3 و 4 در نظر گرفته شود. من هنوز مطمئن نیستم که چگونه نتیجه ارائه می شود ، اما فکر می کنم اینگونه به نظر برسد. من هر یک از شرکت کنندگان را به عنوان بهبود (به عنوان مثال از مرحله 2 تا 4) طبقه بندی می کنم ، هیچ تاثیری (به عنوان مثال باقی مانده در مرحله 3) یا کاهش (به عنوان مثال حرکت از مرحله 4 به 1). گزینه دیگر ارائه توزیع در 5 مرحله (نسبت ها) است. حالا کم و بیش اینجا گم می شوم. من باید یک محاسبه اندازه نمونه انجام دهم و فقط نمی دانم چگونه این کار را انجام دهم. من مقالات قبلی را در مورد توزیع در مراحل قبل و پست و همچنین در مورد تعداد/نسبت شرکت کنندگان در هر یک از سه دسته همانطور که در بالا توضیح دادم (افزایش ، بدون تأثیر ، کاهش) قبل و پست پیدا کرده ام. از چه نوع محاسبه حجم نمونه استفاده کنم؟ و مرتبط، از چه روش های آماری می توان (باید) برای تجزیه و تحلیل داده ها استفاده کرد؟ | تحلیل توان برای طراحی اندازه گیری های مکرر با پاسخ ترتیبی |
84234 | من در مورد تابع تلفات مختلف برای برآوردگرهای ناپارامتریک (تراکم) فکر می کنم. اغلب گفته میشود که ضرر L^2$ نسبت به موارد پرت حساس است و کار خوبی برای نمایش توزیع دنباله انجام نمیدهد. استفاده از $L^1$ بسیاری از این مشکلات را حل می کند، اما از نظر محاسباتی کار با آن دشوارتر است. من به سختی میتوانم فاصله هلینگر را بهعنوان تابعی از دست دادن در پرسپکتیو قرار دهم و آن را با این معیارهای رایجتر مقایسه کنم. واضح است که این مزیت نسبت به $L^2$ از دست دادن همیشه موجود برای یک تابع چگالی دارد، اما من مطمئن نیستم که رفتار آن در رابطه با نقاط پرت و احتمالات دنباله چگونه است. آیا کسی بینش یا مرجعی برای این موضوع دارد؟ با تشکر | ویژگی های فاصله هلینگر به عنوان یک تابع از دست دادن |
5418 | من قصد دارم شروع به نوشتن بسته های R کنم. به نظرم خوب است که سورس کد بسته های موجود را مطالعه کنم تا قوانین ساخت پکیج را یاد بگیرم. معیارهای من برای پکیج های خوب برای مطالعه: * **ایده های آماری/فنی ساده**: نکته این است که در مورد مکانیک ساخت پکیج یاد بگیرید. درک پکیج نباید نیاز به اطلاعات دقیق و بسیار خاص در مورد موضوع واقعی بسته داشته باشد. * **سبک کدنویسی ساده و مرسوم**: من به دنبال چیزی بیشتر از Hello World هستم، اما نه خیلی بیشتر. ترفندها و هکهای خاص در اولین یادگیری بستههای R باعث حواسپرتی میشوند. * **سبک کدنویسی خوب**: کد به خوبی نوشته شده است. به طور کلی درک درستی از کدنویسی خوب و آگاهی از قراردادهای کدنویسی در R را نشان می دهد. **سوالات:** * مطالعه کدام بسته ها خوب است؟ * چرا کد منبع بسته پیشنهادی برای مطالعه نسبت به معیارهای ذکر شده در بالا یا هر معیار دیگری که ممکن است مرتبط باشد خوب است؟ **به روز رسانی (13/12/2010)** به دنبال نظرات دیرک می خواستم روشن کنم که بدون شک بسیاری از بسته ها برای مطالعه اول خوب هستند. همچنین موافقم که بستهها مدلهایی را برای چیزهای مختلف ارائه میکنند (مانند عکسها، کلاسهای S3، کلاسهای S4، تست واحد، Roxygen و غیره). با این وجود، خواندن پیشنهادهای ملموس در مورد بسته های خوب برای شروع و دلایلی که چرا آنها بسته های خوبی برای شروع هستند، جالب خواهد بود. من همچنین سوال بالا را برای اشاره به بسته ها به جای بسته به روز کرده ام. | اولین بسته R کد منبع را برای مطالعه آماده می کند تا برای نوشتن بسته خود مطالعه کند |
1661 | X1 طول بال، X2 طول دم برای 45 حشره نر و 45 حشره ماده است. از کدام آزمون t تک متغیره 2 نمونه ای استفاده کنم؟ فکر من این بود که از T-square هتلینگ استفاده کنم؟ اما هتلینگ چند متغیره است نه تک متغیره. حالا، مطمئن نیستم... ایده ای دارید؟ | از کدام آزمون t تک متغیره 2 نمونه ای استفاده کنیم؟ |
114350 | به لطف Rijmen و همکاران (2003)، میتوانیم GRM را با «lme4::glmer» به دادهها تطبیق دهیم. من فکر میکنم مدل Rasch ساده است، با «data.frame» با ستونهایی مانند این مورد شخص پاسخگو 0 1 1 0 1 2 1 1 3 ... 1 2 1 0 2 2 میتوانیم مدل راش را مانند این glmer (پاسخ ~ - کنیم) 1 + آیتم + (1|نفر), داده= , خانواده = دوجمله ای) اما GRM چطور؟ داده ها مانند این مورد فرد پاسخ دهنده 2 1 1 4 1 2 3 1 3 ... 1 2 1 4 2 2 ... برای مقیاس لیکرت (1 تا 5) خواهد بود. من فکر کردم که دادهها را مانند این دسته مورد شخص پاسخگو تبدیل کنم 1 1 1 2 0 1 1 3 1 1 2 4 0 1 2 5 زیرا برای person1، item1، پاسخ 2 است، به این معنی که برای پاسخ 2، این بله و برای پاسخ 3، خیر. مدل پاسخ ~ آیتم:دسته + (1|نفر) خواهد بود اما من کاملاً مطمئن نیستم که این روش درستی برای انجام این کار باشد... _نکته_: طبق گفته De Boeck و همکاران، متغیرهای شخص، آیتم، دسته همه عوامل هستند. (2011)، GRM را نمی توان با lmer تطبیق داد که در مقایسه با Rijmen و همکاران (2003) است. === اضافه شد اکنون فکر می کنم مطمئن هستم که حداقل برای GRM بدون پارامتر شیب کار می کند. داده ها باید به این صورت کدگذاری شوند. پاسخ شخص پاسخ دسته 1 1 1 1 1 1 1 2 0 1 1 3 0 1 1 4 0 1 1 5 برای رده 1-5 (ترتیب) پاسخ. مزیت اصلی استفاده از GLMM برای مدل IRT این است که می توانید متغیرهای کمکی دیگری (شخص، آیتم، شخص-آیتم) را در مدل قرار دهید. و برای GRM ، می توانید تفاوت بین پاسخ ترتیب را تنظیم کنید ، همان است که نمی توان با عملکرد GRM معمولی ، به عنوان مثال ، LTM :: GRM انجام داد. (اوه، من می بینم که ordinal::clmm می تواند این کار را انجام دهد، اما من شک دارم که بتواند برای مدلی مانند این مفید باشد) پاسخ ~ آیتم + (1 + دسته|نفر) یا این پاسخ ~ آیتم + (-1 + دسته | آیتم) ) + (1|نفر) در این مورد، دسته یک عدد صحیح است و بهتر است به صورت -2، -1، 0، 1، 2 کدگذاری شود. **منابع** Rijmen, F., Tuerlinckx, F., De Boeck, P., & Kuppens, P. (2003). یک چارچوب مدل ترکیبی غیرخطی برای نظریه پاسخ آیتم. روشهای روانشناختی، 8(2)، 185. De Boeck, P., Bakker, M., Zwitser, R., Nivard, M., Hofman, A., Tuerlinckx, F., & Partchev, I. (2011). برآورد مدل های پاسخ آیتم با تابع lmer از بسته lme4 در R. Journal of Statistical Software, 39(12)، 1-28. | نحوه تطبیق مدل پاسخ درجه بندی شده با lme4::glmer |
111654 | من روی یک مورد طبقهبندی دودویی کار میکنم و عملکرد طبقهبندیکنندههای مختلف را مقایسه میکنم. آزمایش عملکرد الگوریتم «adaboost» (با درخت تصمیم به عنوان طبقهبندیکننده پایه آن) در برابر «SVM» روی مجموعههای داده چندگانه، متوجه شدم که الگوریتم «تقویت» انجام میدهد. بهتر سوال من این است که چرا این اتفاق می افتد؟ آیا این به این دلیل است که «تقویت» همیشه بهتر از «SVM» است؟ یا ربطی به ویژگی های مجموعه داده من دارد؟ نمیدانم آیا کسی میتواند با برخی توضیحات بالقوه چنین یافتهای به من کمک کند. | تقویت تطبیقی در مقابل SVM |
111650 | من سعی می کنم از SVM خطی برای انتخاب برخی ویژگی ها استفاده کنم. من از libsvm استفاده می کنم، اما نمی توانم بفهمم که چگونه وزن ویژگی ها را پیدا کنم. فایل مدل ایجاد شده چیزی شبیه به این است: svm_type c_svc kernel_type خطی nr_class 2 total_sv 4006 rho 1.81693 label 1 -1 nr_sv 2004 2002 SV 1 1:0 2:0 3:0 7:06:0 :0 9:0 10:0 11:0 12:0 13:0 14:0 15:0 16:0 17:0 18:0 19:0 20:0 21:0 22:0 23:0 24:0 25:0 26: 0 27:0 28:147.66667 29:0 30:0 31:0 32:0 33:0 34:0 35:0 36:0 37:0 38:0 39:0 40:0 41:0 42:0 43:0 44:0 45:0 46:0 47:0 48: 0 49:0 50:96.666667 51:0 52:0 53:0 54:0 55:0 56:0 57:0 58:0 59:0 60:0 61:0 62:0 63:0 64:0 65:0 66:0 67:0 68:0 69:0 70: 0 71:0 72:0 73:0 74:0 75:0 76:0 77:0 78:0 79:0 80:0 81:0 82:0 83:0 84:0 85:0 86:0 87:0 88:0 89:0 90:0 91:0 92:0 93: 0 94:0 95:0 96:0 97:0 98:0 99:0 100:0 101:0 102:0 103:0 104:0 105:0 106:0 107:0 108:0 109:0 110:0 111:0 112:0 113:0 114:0 116:0 115:0 0 117:0 118:0 119:0 120:0 121:0 122:0 123:0 124:0 125:0 126:0 127:0 128:0 129:0 130:0 131:0 132:0 133:0 135:0 135:0 0 136:0 137:0 138:0 139:0 140:0 141:0 142:0 143:0 144:0 145:0 146:0 147:0 148:0 149:0 150:0 151:0 152:0 154:0 153:0 0 155:0 156:0 157:0 158:7.5333333 159:0 160:0 161:0 1 1:0 2:0 3:0 4:0 5:0 6:0 7:0 8:0 9:0 10:0 11:0 12 :0 13:0 14:0 15:0 16:0 17:0 18:0 19:0 20:0 21:0 22:0 23:0 24:0 25:0 26:0 27:0 28:145 29:0 30:0 31:0 32:0 33:0 34: 0 35:0 36:0 37:0 38:0 39:0 40:0 41:0 42:0 43:0 44:0 45:0 46:0 47:0 48:0 49:0 50:95.5 51:0 52:0 53:0 54:0 55:0 56:0 57: 0 58:0 59:0 60:0 61:0 62:0 63:0 64:0 65:0 66:0 67:0 68:0 69:0 70:0 71:0 72:0 73:0 74:0 75:0 76:0 77:0 78:0 79:0 80: 0 81:0 82:0 83:0 84:0 85:0 86:0 87:0 88:0 89:0 90:0 91:0 92:0 93:0 94:0 95:0 96:0 97:0 98:0 99:0 100:0 101:0 102:0 103: 0 104:0 105:0 106:0 107:0 108:0 109:0 110:0 111:0 112:0 113:0 114:0 115:0 116:0 117:0 118:0 119:0 120:0 121:0 122:0 124:0 124:0 0 125:0 126:0 127:0 128:0 129:0 130:0 131:0 132:0 133:0 134:0 135:0 136:0 137:0 138:0 139:0 140:0 141:0 142:0 0 144:0 145:0 146:0 147:0 148:0 149:0 150:0 151:0 152:0 153:0 154:0 155:0 156:0 157:0 158:2.5 159:0 150:0 و 161: چیزهای بیشتری مانند 2 خط آخر است. دستورات با استفاده از رابط اصلی libsvm یا رابط پایتون بسیار قدردانی می شود، و همچنین هر توضیحی در مورد این فایل مدل. | وزن ویژگی SVM خطی را با استفاده از libsvm بیابید |
28035 | به یاد دارم که به من آموختند که همبستگی یک آزمون **ارتباط** است و رگرسیون آزمون **رابطه** است. بهعلاوه، یادم میآید که یاد گرفتم که تداعی به این معناست که هیچ فرضی بر این است که کدام متغیر مستقل و کدام متغیر وابسته است، در حالی که رابطه مستلزم چنین تمایزی است. سوال من: آیا اصطلاحات تعاون و رابطه قابل تعویض هستند؟ به طور خاص، اگر یافتههای خود را از یک تحلیل همبستگی خطی دو متغیره تفسیر کنم، آیا استفاده از کلماتی مانند یک رابطه مثبت قوی بین A و B وجود داشت مناسب است؟ | انجمن یا رابطه |
111657 | من یک داده سری زمانی از اجاره دوچرخه دارم که در آن هر ردیف نشان دهنده یک ساعت خاص و تعدادی دوچرخه اجاره شده در آن ساعت خاص است. وظیفه پیش بینی اجاره ها برای 10 روز آخر (هر ساعت) بر اساس داده های تاریخی 20 روز اول آن ماه است. نمونه داده ها: # تاریخ زمان فصل تعطیلات روز کاری دما رطوبت تعداد سرعت باد 1 2011-01-01 00:00:00 1 0 0 9.84 81 0.0000 3 2 2011-01-01 01:00:00 1 002 3 2011-01-01 02:00:00 1 0 0 9.02 80 0.0000 5 من قبلاً مدل را ساخته ام و اکنون تعجب می کنم که چگونه می توانم اندازه گیری پایه را بدانم تا بتوانم بگویم مدل من X٪ بهتر از اندازه گیری های پایه است؟ به طور کلی، چگونه می توانم کیفیت مدل خود را بر اساس مجموعه آموزشی که دارم اندازه گیری کنم؟ | چگونه می توان اندازه گیری پایه را در داده های سری زمانی بدست آورد؟ |
114357 | من از اعتبارسنجی متقاطع 10 برابری و الگو برای یک مشکل طبقه بندی باینری در MATLAB R2014a استفاده می کنم. وقتی پنجره نتیجه شبکه عصبی را می بینم، در تمام آموزش های شبکه عصبی (آموزش `80%`, اعتبار سنجی` 10%` و آزمون` 10%` با حجم نمونه 200~600`) توقف زودهنگام متوقف کردن روند آموزشی من در تکرار است. بین «15 تا 35». همانطور که می دانید مقدار پیش فرض حداکثر 6 است. برای این مشکل باید چیکار کنم؟ آیا باید حداکثر تعداد بررسی های تکرار توقف اولیه را افزایش دهم؟ **PS.** آموزش شبکه عصبی را نزدیک به 70 بار بررسی کردم. در تمام آموزشها، فرآیند به دلیل توقف زودهنگام با استفاده از اعتبارسنجی متقاطع 10 برابری در تکرارهای بین 15 تا 35 متوقف شد. | بهترین شماره بررسی اعتبار برای شبکه عصبی متلب |
95838 | من از SVM Type 1 با 4 کلاس استفاده می کنم و کلاس های من به صورت دستی تعریف شده است. آیا روش یا الگوریتمی برای تعریف خودکار کلاس وجود دارد؟ | ماشینهای بردار پشتیبانی چند کلاسه در مقابل یادگیری ماشینی |
111651 | طبق درک من، واگرایی متضاد k به دست آوردن v(k) بعد از k مرحله زنجیره گیبس است. واگرایی متضاد پایدار به دست آوردن v(k) مستقل از v(0) است. من کاملاً با عبارت فوق گیج شده ام. من CDK را برای minibatch اجرا کرده ام همانطور که در زیر توضیح داده شده است. آیا این روش مناسب است؟ برای دسته = 1: numbatches ، ٪ شروع داده های فاز مثبت = batchdatas (: ،: ، دسته) ؛ % یافتن توزیع داده poshidprobs= 1./(1 + exp((-data*vishid) - repmat(hidbiases,numcases,1))); posprods = data' * poshidprobs; % v(0) poshidact = sum(poshidprobs) تولید می کند. posvisact = جمع (داده)؛ مرحله منفی را برای CD_K = 1: K ، poshidStates = poshidProbs> RAND (numcases ، numhid) شروع کنید. negdata = 1./(1 + exp (( - poshidstates*vishid ') - repmat (visbiases ، numcases ، 1))) ؛ neghidprobs = 1./(1 + exp (( - negdata*vishid) - repmat (hidbiases ، numcases ، 1))) ؛ poshidprobs=neghidprobs; end negprods = negdata'*neghidprobs; ٪ (v (k) neghidact = جمع (neghidprobs) ؛ negvisact = جمع (negdata) ؛ | تفاوت بین الگوریتم واگرایی متضاد k و الگوریتم واگرایی متضاد پایدار چیست؟ |
95832 | من دو مجموعه داده دارم 1. داده های آموزش 2. داده های آزمایشی (بدون مقادیر متغیر وابسته اما داده هایی روی متغیر مستقل دارم یا می توان گفت باید پیش بینی کنم). با استفاده از دادههای آموزشی (که مقداری «NA» در سلول دارد) من رگرسیون حداقل مربعات معمولی (OLS) را با استفاده از «lm()» در R انجام دادم و مدل را برازش کردم و ضرایب $\beta $ مدل رگرسیون را دریافت کردم. . (تا اینجا همه چیز خوب است!) اکنون، در فرآیند پیشبینی مقادیر برازش، مقداری از سلولهای موجود در مجموعه داده آزمایشی را گم کردهام. من از تابع predict() به صورت زیر استفاده کردم: predict(ols, test_data.df, interval= prediction, na.action=na.pass) برای سلول (یا سلول ها) با مقدار NA کل ردیف کنار گذاشته می شود. در تولید خروجی ('yhat'). آیا تابعی وجود دارد که بتواند مقادیر «yhat» (به غیر از «NA») را برای دادههای آزمایشی بدون حذف ردیفهایی با مقدار گمشده در سلول ایجاد کند. | مقادیر از دست رفته NA در داده های آزمون هنگام استفاده از predict.lm در R |
111659 | یک سوال آماری سریع (با عرض پوزش برای زیست شناسی اضافه شده): من دو مجموعه شمارش دارم (برای بیان دو ایزوفرم مختلف از یک ژن خاص)، و برای تولید متغیر پاسخ در تجزیه و تحلیل خاص خود، نسبت اینها را در نظر گرفته ام ( ایزوفرم 2 / ایزوفرم 1) برای هر یک از 124 نفر. شمارش ها را می توان با توزیع دوجمله ای منفی مدل کرد، اما من مطمئن نیستم که از چه توزیعی برای این نسبت ها استفاده کنم، زیرا بدیهی است که آنها دیگر اعداد صحیح گسسته نیستند. آزمایشی که امیدوارم انجام دهم، یک ژنوتیپ (کد شده به عنوان 0، 1 یا 2) در مقابل تست نسبت ایزوفرم، در سراسر SNP های موجود در این ژن است. هدف شناسایی انواعی است که ممکن است بر پیوند ژن تأثیر بگذارد به طوری که مثلاً افراد دارای ژنوتیپ 0 ایزوفرم 1 بیشتری نسبت به 2 داشته باشند و عکس آن در افراد دارای ژنوتیپ 2 دیده می شود - به طوری که تفاوت بین نسبت ها قابل توجه است. آیا کسی ایده ای در مورد اینکه چگونه باید این نوع تجزیه و تحلیل را انجام دهم دارد؟ به سلامتی | بهترین توزیع برای رسیدگی به نسبت شمارش به عنوان متغیر پاسخ |
89509 | من در حال گذراندن دوره ای در مورد روش های مونت کارلو هستم و در آخرین سخنرانی روش نمونه گیری رد (یا نمونه گیری قبول-رد) را یاد گرفتیم. منابع زیادی در وب وجود دارد که اثبات این روش را نشان می دهد، اما من به نوعی با آنها قانع نشده ام. بنابراین، در Rejection Sampling، یک توزیع $f(x)$ داریم که نمونه برداری از آن سخت است. ما یک توزیع ساده برای نمونه $g(x)$ را انتخاب می کنیم و یک ضریب $c$ پیدا می کنیم به طوری که $f(x) \leq cg(x)$. سپس از $g(x)$ نمونه برداری می کنیم و برای هر قرعه کشی، $x_i$، همچنین یک $u$ از توزیع یکنواخت استاندارد $U(u|0,1)$ نمونه برداری می کنیم. نمونه $x_i$ اگر $cg(x_i)u \leq f(x_i)$ باشد پذیرفته می شود و در غیر این صورت رد می شود. شواهدی که من با آنها برخورد کردم معمولاً فقط نشان میدهند که $p(x|Accept) = f(x)$ و در آنجا متوقف میشود. آنچه من در مورد این فرآیند فکر می کنم این است که ما دنباله ای از متغیرهای $x_1,Accept_1,x_2,Accept_2,...,x_n,Accept_n$ داریم و یک جفت $x_i,Accept_i$ مربوط به نمونه اول ما است ($x_i$ ) و اینکه آیا پذیرفته شده است ($Accept_i$). می دانیم که هر جفت $x_i,Accept_i$ مستقل از یکدیگر است، به این ترتیب: $P(x_1,Accept_1,x_2,Accept_2,...,x_n,Accept_n) = \prod\limits_{i=1}^n P(x_i,Accept_i)$ برای یک جفت $(x_i,Accept_i)$ می دانیم که $P(x_i) = g(x_i)$ و $P(Accept_i|x_i) = \frac{f(x_i)}{cg(x_i)}$. ما میتوانیم به راحتی $p(x_i|Accept_i)$ را محاسبه کنیم، اما نمیدانم چگونه به عنوان یک اثبات کافی است. ما باید نشان دهیم که الگوریتم کار می کند، بنابراین من فکر می کنم یک اثبات باید نشان دهد که توزیع تجربی نمونه های پذیرفته شده به $f(x)$ به عنوان $n\rightarrow\infty$ همگرا می شود. منظورم این است که $n$ تعداد همه نمونههای پذیرفته شده و رد شده است: $\frac{Number \hspace{1mm} از \hspace{1mm} نمونه \hspace{1mm} با \hspace{1mm} (A \leq x_i \leq B) {Number \hspace{1mm} of \hspace{1mm} مورد قبول \hspace{1mm} نمونه} \hspace{1mm} \int_A^B f(x)dx$ به عنوان $n\rightarrow\infty$. آیا من با این الگوی فکری اشتباه می کنم؟ یا ارتباطی بین اثبات مشترک الگوریتم و این وجود دارد؟ پیشاپیش ممنون | اثبات نمونه گیری رد چگونه معنا دارد؟ |
95839 | من روی معیار اهمیت ویژگی جینی برای جنگل تصادفی کار می کنم. بنابراین، من باید کاهش جینی در ناخالصی گره را محاسبه کنم. این روشی است که من این کار را انجام می دهم، که منجر به تضاد با تعریف می شود، نشان می دهد که من یک جایی اشتباه می کنم ... :) برای درخت دودویی و با توجه به احتمالات بچه های چپ و راست می توانم ناخالصی جینی را محاسبه کنم. از یک گره $n$: $$ i(n) = 1 - p_l^2 - p_r^2$$ و جینی کاهش می یابد: $$ \Delta i(n) = i(n) - p_li(n_l) - p_ri(n_r) $$ * * * بنابراین، برای این مثال با 110 مشاهده روی یک گره: - گره (110) - چپ (100) - چپ_چپ (60) - چپ_راست (40) - راست (10) ) - right_left (5) - right_right (5) من کاهش جینی را برای _node_ به این صورت محاسبه می کنم: \begin{align} i({\rm چپ}) &= 1 - (60/100)^² - (40/100)^²& &= 0.48 \\\ i({\rm سمت راست}) &= 1 - (5/10) ^² - (5/10)^²& &= 0.50 \\\ i({\rm node}) &= 1 - (100/110)^² - (10/110)^²& &= 0.16 \end{align} اما با توجه به تعریف Breiman (یا این پاسخ در CV: نحوه اندازه گیری / رتبه بندی اهمیت متغیر هنگام استفاده از CART، اما من به موارد ارجاع شده دسترسی ندارم کتاب)، معیار ناخالصی نزول باید **کمتر** از گره والد باشد: > **اهمیت جینی** > هر بار که یک تقسیم گره در متغیر m ناخالصی جینی > معیار برای دو گره نزولی کمتر از گره والد است. اضافه کردن جینی برای هر متغیر منفرد بر روی همه درختان جنگل، اهمیت متغیر سریعی می دهد که اغلب با معیار اهمیت جایگشتی سازگار است. زیرا در غیر این صورت منجر به کاهش جینی منفی می شود... $$\Delta i({\rm node}) = i({\rm node}) - (100/110)*i({\rm left}) - ( 10/110)*i({\rm right}) = -0.32$$ بنابراین، اگر کسی میتواند بگوید کجا اشتباه میکنم، بسیار سپاسگزار خواهم بود، زیرا به نظر میرسد من چیزی را در اینجا از دست دادهام... | کاهش جینی و ناخالصی جینی گره های کودکان |
114356 | هنگام استفاده از چند آدمک برای یک متغیر طبقهبندی: چه اتفاقی میافتد اگر تعدادی از مشاهدات شما بتوانند 1 را در بیش از یکی از دومیها علامت بزنند؟ آیا این مهم است؟ آیا فقط بستگی به این دارد که چه نسبتی از مشاهدات متناسب با آن دسته باشد (یعنی 5% در مقابل 50%)؟ چگونه ممکن است بر نتایج تأثیر بگذارد؟ مثال: مقایسه هزینه های پزشکی برای بیماری های مختلف خارج از سوابق بیمار. بیمار A سرطان دارد، بیمار B دیابت دارد، بیمار C هر دو را دارد. این چگونه بر تفسیر تأثیر می گذارد (یا بر آن تأثیر می گذارد)؟ مثال دیگر نژاد است: A علامت سفید، B علامت سیاه، C هر دو را نشان می دهد. آیا افراد C فقط با گروه A _و_ گروه B هر دو در محاسبات در مقابل گروه مرجع (می گوییم افراد D) قرار می گیرند؟ افتاده است؟ یکی از راهحلهایی که به آن فکر کردهام این است که بهطور خاص برای کسانی که پاسخهای متعدد دارند (یعنی «تشخیصهای چندگانه» یا «چند نژادی») یک ساختگی ایجاد کنم و کادرهای فردی را بدون علامت بگذارم، به عنوان راهی برای مقابله آماری و مفهومی با آنها. (مسلماً، فردی که بیش از یک بیماری جدی دارد یا با بیش از یک نژاد شناسایی میشود، ممکن است برای برخی از سؤالات تحقیقاتی دستهبندی متفاوتی نسبت به بیماریهای یک بیماری یا یک نژاد باشد.) اما گاهی اوقات مجموعه دادهها این محاسبه را دشوار میکنند، یا ممکن است مواردی از دست رفته، و من در مورد تأثیر نهایی وجود چند مورد از اینها در یک مجموعه داده تعجب می کنم. من همیشه با این نوع متغیرها با این ایده برخورد کردهام که آنها باید کاملاً مقولههایی باشند که متقابلاً منحصر به فرد باشند، اما اکنون کنجکاو هستم. من واقعاً قبلاً به آن فکر نکرده بودم - من همیشه فقط از راه حل بالا استفاده می کردم، اما اکنون می توانم مواردی را ببینم که ممکن است انجام این کار دشوار باشد. | پاسخ 1 به بیش از یکی از ساختگی ها برای یک متغیر طبقه ای منفرد؟ |
111658 | من می دانم که P(null event)=0، اما آیا برعکس آن درست است؟ یعنی اگر P(A)=0 A یک رویداد صفر است؟ راستش من خیلی مطمئن نیستم که حتی بفهمم یک رویداد پوچ چیست. کسی می تواند برای من یک مثال بزند؟ | اگر P(A)=0، آیا A یک رویداد تهی است؟ |
94875 | فرض کنید من یک مدل بقا مانند این دارم: set.seed(123) require(survival) df<-data.frame(time=as.integer(rnorm(100,50,5))، status=rbinom(100,1, 0.7)، سن = rnorm (100،60، 5)، جنسیت = rbinom (100،1،0.5)) df$time<-ifelse(df$time>=50,50,df$time) fit<-survreg(Surv(زمان، وضعیت)~سن+جنسیت، داده=df، dist=weibull) ضریب(مناسب) (برق) سن جنسیت 3.9222741 -0.0001537 -0.0114375 vcov(fit) (Intercept) سن جنسیت Log(مقیاس) (Intercept) 2.365e-03 -3.868e-05 -4.442e-05 1.036e-04 سن -3.868e-05 6.429e-07 9.545e-08 -5.913e-04-04-5.913e-04 جنسیت -4 05 9.545e-08 6.531e-05 -1.064e-04 Log(scale) 1.036e-04 -5.913e-07 -1.064e-04 1.104e-02 من تعجب می کنم که چرا یک عبارت اضافی، Log(scale) در ماتریس vcov؟ کسی توضیح مختصری بدهد؟ | ماتریس واریانس کوواریانس مدل بقا |
89505 | هنگامی که من ارائه هایی را تماشا می کنم که در آن از الگوریتم های یادگیری ماشین استفاده شده است، به نظر می رسد مقدار داده های قرار داده شده در مجموعه های آموزشی و اعتبارسنجی تا حدودی دلخواه است. گاهی 80-20 است، گاهی 90-10. رویکرد کاملاً سادهلوحانه من 50-50 خواهد بود (زیرا، هی، این یک تقسیم منصفانه به نظر میرسد، درست است؟) آیا ریاضی واقعی وجود دارد که روش بهینه برای اندازهگیری مجموعهها را نشان دهد، یا همه اینها بر این اساس است: این به نظر می رسد بیشتر اوقات خوب کار می کند؟ | اندازه مجموعه های آموزشی و اعتبار سنجی در یادگیری ماشین: آیا یک بهینه اثبات شده یا صرفاً اکتشافی وجود دارد؟ |
109143 | من دو مجموعه از نمرات آزمون دارم که از آنها برای پیش بینی عملکرد آینده استفاده می کنم، با استفاده از رگرسیون چندگانه، و متوجه شدم که قطع y منفی است. این نشان می دهد که برای دانش آموزی که در هر دو آزمون نمره صفر می گیرد، من پیش بینی می کنم که نمره آنها X عدد منفی باشد. با توجه به آزمایشاتی که انجام می شود این امکان وجود ندارد. بنابراین من در حال حاضر تعجب می کنم، _آیا راهی برای تعیین حداقل حد برای y-intercept_ من وجود دارد؟ | آیا می توانید حداقل حد را برای قطع Y در R تعیین کنید؟ |
95833 | من یک رگرسیون خطی پایه را با یک پیشبینیکننده با مقداری وزن در R انجام میدهم، به عنوان مثال: lm (پاسخ ~ توضیحی، وزن=w، داده=mydata) وزنها معیارهای دقت متغیر پاسخ هستند. از آنجایی که وزن ها بسیار کج هستند، متوجه می شوم که مقادیر p بسیار کوچکی را برای تأثیر متغیر توضیحی خود دریافت می کنم، اما در واقع فقط با چند نقطه هدایت می شود. بسیاری از نقاط مدل کار زیادی نمی کنند (یعنی وزن کمی دارند) اما همچنان به درجات آزادی کمک می کنند. آیا راه دیگری برای محاسبه درجه آزادی مخرج در رگرسیون وزنی وجود دارد؟ | حجم نمونه موثر رگرسیون وزنی |
51343 | من میخواهم یک ماتریس کوواریانس وزنی (مثلاً 5 متغیر) با استفاده از 3 نقطه زمانی مختلف ایجاد کنم که وزنها از یک تابع هسته میآیند (میتواند عادی، مثلثی و غیره باشد) اما نمیدانم چگونه کار میکند. اساساً من $$S(u,v)=\frac{w_1*cov_1(u,v)+w_2*cov_2(u,v)+w_3*cov_3(u,v)}{w_1+w_2+w_3 را تصور میکنم },$$ که در آن اعداد نشان دهنده 3 نقطه زمانی هستند. آیا این منطقی است؟ هر روشی برای ترکیب تخمین های کوواریانس شروع خوبی است -- من کاملاً برای ایده های جایگزین باز هستم! وزن هسته از مقاله ای توسط رضویان و همکاران مدل های گرافیکی گاوسی متغییر زمان داده های دینامیک مولکولی بدست آمد. در اینجا چند داده نمونه وجود دارد: cov1 = ماتریس (c(175.28، 23.37، 12.76، 3.45، 5.94، 23.37، 90.29، 44.41، 42.83، 52.00، 12.76، 42.76، 42.4، 42.4 22.39، 3.45، 42.83، 22.17، 31.95، 32.21، 5.94، 52.00، 22.39، 32.21، 58.22)، 5، 5) cov2=ماتریس(c(204.9.3،3،204.9 35.60، 27.97، 43.96، 115.52، 71.71، 80.95، 68.69، 45.03، 71.71، 58.70، 53.07، 40.71، 35.60، 80.95، 80.8. 51.95، 27.97، 68.69، 40.71، 51.95، 59.26)، 5، 5) cov3=ماتریس(c(165.67، 63.42، 37.82، 32.63، 43.37، 43.37، 60.60، 61. 74.47، 71.16، 37.82، 66.00، 47.34، 42.24، 34.40، 32.63، 74.47، 42.24، 55.98، 47.48، 43.37، 74.16، 43.37، 74.16 75.61)، 5، 5) من هسته های معمولی، یکنواخت، اپانچنیکوف و مثلثی را نیز ترسیم کرده ام، اما چگونه می توانم بفهمم که در کجای نمودارها وزن را برای یک عنصر کوواریانس خاص دریافت کنم؟ من زمان را صرف خواندن در مورد هسته ها و خیره شدن به این طرح ها کرده ام اما... هیچی. f.normal <- function(x) {dnorm(x); } f.uniform <- function(x) { ifelse(abs(x)<1, 0.5, 0); } f.epanechnikov <- function(x) { ifelse(abs(x)<1, (1-x^2)*3/4, 0); } f.triangle <- function(x) { ifelse(abs(x)<1, 1-abs(x), 0); } plot(c(-1,1),c(0,1.2),xlab=z, ylab=, main=kernels, type=n) curve(f.normal(x) c(-1،1)، add=T، lwd=2، lty=1، col=black) منحنی(f.uniform(x)، c(-1،1)، add=T، lwd=2 lty=2، منحنی col=آبی) (f.epanechnikov(x)، c(-1،1)، add=T، lwd=2، lty=3، col=red) منحنی(f.triangle(x)، c(-1،1)، add=T، lwd=2، lty=4، col=سبز) legend(0.5,1.1,legend=c(Normal،Uniform،Epanech،Triangle)، lwd=c(2,2,2,2), lty=c(1,2,3, 4)، col=c (سیاه، آبی، قرمز، سبز)، cex=0.8) لطفاً کمکی دارید؟ لطفاً خوب باشید -- من واقعاً تلاش زیادی کرده ام تا بفهمم چه خبر است. | ماتریس کوواریانس وزنی با استفاده از هسته |
111656 | در تحلیل رگرسیون خطی چندگانه، مناسب ترین نمودار برای بررسی خطی بودن کدام است؟ من نمونه هایی را دیده ام که از نمودار پراکندگی به عنوان آزمایش اولیه برای استفاده از مدل خطی استفاده می کنند. اما، آیا نمودارهای رگرسیون جزئی معقول تر نیستند؟ | نمودارهای رگرسیون جزئی در مقابل نمودارهای پراکنده برای بررسی خطی بودن |
25308 | چرا معمولاً فرض میکنیم که اثرات تصادفی از توزیع نرمال میآیند؟ آیا می توانیم توزیع دیگری را فرض کنیم؟ یا شاید به این دلیل که CLT نشان می دهد که یک اثر تصادفی به طور معمول توزیع می شود؟ | توزیع اثرات تصادفی |
51340 | من در حال تجزیه و تحلیل دادههای شمارش پرندگان از نظرسنجیهای انجام شده هر هفته (از نوامبر تا آوریل، زمانی که پرندگان در نزدیکی چرخه تولیدمثلی به دنبال غذا هستند) به مدت 6 سال در 9 قطعه آزمایشی بزرگ که بین 3 منطقه در چشمانداز تقسیم شدهاند (6 سال x 3 منطقه x) هستم. 3 قطعه / منطقه). ما علاقه مند به مقایسه تعداد چند گونه رایج (و تعداد کل پرندگان) به عنوان تابعی از موقعیت در چشم انداز (منطقه) و زمان (سال) و تعاملات بالقوه این عوامل (منطقه x زمان) هستیم. اکوسیستم در این دوره هر سال خشک می شود و عمق آب خود عامل مهم شناخته شده الگوهای جستجوی علوفه پرندگان است و در طول زمان تغییر می کند (در طول فصل در قطعه معین کم عمق می شود) و فضا (ارتفاع سطح زمین باعث خشک شدن در شمال می شود → شیب جنوب در سراسر چشم انداز). من عمق آب را در هر قطعه برای هر تاریخ بررسی تخمین زده ام. مشاهده جالبی که ما انجام دادیم این است که اوج تعداد پرندگان در اعماق مختلف در بین 3 منطقه رخ می دهد - این یک نتیجه مهم است (منطقه x پاسخ عمق). داده های شمارش خود آشکارا غیر منفی هستند، و تا حدی به دلیل تعداد زیادی از 0 ها، بسیار پراکنده هستند (واریانس >> میانگین)، بنابراین تمایل به استفاده از GLM دو جمله ای منفی (NB) یا شاید با باد/تنظیم صفر داشت. مانع) رویکرد. از آنجایی که پارامتر عمق به خودی خود به عنوان تابعی از فضا و زمان (سایر عوامل مورد علاقه من) متفاوت است، من در درک نحوه ترکیب آن در یک مدل مشکل دارم. آیا میتوانم از عمق بهعنوان متغیر پیوسته استفاده کنم یا باید در دستهها جمعآوری کنم، و در هر صورت، نحوه برخورد با این واقعیت که در میان سایر عوامل طبقهبندی مورد علاقه، سالها (چند سال مرطوبتر/خشکتر از دیگران و غیره) و مناطق (باز هم، توطئه ها در جنوب عمیق تر از شمال هستند) توزیع اعماق بسیار متفاوت است و همپوشانی ضعیفی را ایجاد می کند؟ سپس مسئله عدم استقلال در مجموعه داده وجود دارد که می تواند به پراکندگی بیش از حد نیز کمک کند. همانطور که در بالا توضیح دادم، واحد مورد علاقه، نظرسنجی یک هفته معین در یک طرح معین است. این طرح تکرار فضایی (n = 3 قطعه / منطقه در هفته هفته) را با تکرار زمانی (n = چندین هفته از دادههای پیمایش برای هر قطعه در هر سال) مخدوش میکند. آیا راهی برای گنجاندن یک نوع تجزیه و تحلیل اندازه گیری های مکرر برای داده های نمودار ea در یک سال معین در یک مدل پواسون، NB، یا ZIP/ZINB، ZAP/ZANB مناسب وجود دارد؟ در حالی که پرندگان مقدار مناسبی را از هفته به هفته جابهجا میکنند، به نظر میرسد مهم است که به طور غیرمستقیم ویژگیهای ساختاری کرتها (تغییرات کاهشیافته درون کرت در مقابل کرت بین کرت در میان هفتههای داده) که چنین تحلیلی میتواند ارائه کند، در نظر گرفته شود. من مدلها را در SAS اجرا میکنم و از هر توصیهای در این زمینه صمیمانه قدردانی میکنم. | مسائل طراحی آزمایشی GLM برای داده های شمارش در آزمایش منظر |
95831 | (من یک آمارگیر نیستم، بنابراین ممکن است این سوال احمقانه به نظر برسد، اما به کمک متخصص شما نیاز دارم!) من داده هایی دارم که به این صورت است: -------------------- --+-------+-----+----- انتشارات شهر تولید ناخالص داخلی مردم منطقه ----------------------------------------- شفیلد . . . . آکسفورد . . . لندن . . . . مجموع . . . . من می خواهم انتشار را با هم مقایسه کنم، اما بر اساس افراد، منطقه و تولید ناخالص داخلی، که البته همه واحدهای مختلف هستند، عادی شوند. من به وضوح نمیتوانم میزان انتشار، افراد و مساحت را با هم اضافه کنم، زیرا این بدان معناست که یک نفر معادل یک واحد مساحت یا تولید ناخالص داخلی است، که بی معنی است. رویکرد من این است: ## 1\. ابعاد را حذف کنید تا بتوانیم مقادیر مختلف را که من مقادیر را بر مجموع ستونها برای هر شهر تقسیم کردم، مقایسه کنیم تا کسری از کل برای هر شهر بدست آوریم. این مقداری را به دست میدهد که **سهم هر شهر از کل ** (انتشار گازهای گلخانهای، مردم، منطقه...) را توصیف میکند. من اینها را _E, P, A, G_ ## 2\ می نامم. میانگین این فاکتورها سپس سه فاکتور/کسری نرمال شده تولید شده در (1) را میانگین کنید: E × ( 1/P + 1/A + 1/G ) ÷ 3 یعنی میانگین (E/P، E/A، E/G) ## سوال به نظر من این یک مقایسه معقول ارائه می دهد. من واحدها را با تقسیم هر یک بر مجموع آن حذف کردم. سپس من میانگین کسری از انتشار به ازای هر بخش از مردم، منطقه، تولید ناخالص داخلی را محاسبه می کنم. من به هر یک از اینها وزن یکسانی می دهم که از آن راضی هستم. بنابراین اگر پاسخ یک شهر به صورت 2 باشد، می گویم که آن شهر دو برابر سهم عادلانه خود از انتشار گازهای گلخانه ای منتشر می کند. با این حال، من انتقادهایی داشته ام که می گویند این از نظر ریاضی/آماری معتبر نیست زیرا میانگین میانگین ها است. میانگین میانگین ها است، اما فکر می کنم این مشکلی ندارد و تنها راه مقایسه چیزهای مختلف با هم است. س. آیا کاری که من انجام داده ام معتبر است یا راه بهتری برای انجام این کار وجود دارد؟ ## ویرایش من اکنون معتقدم که این بهتر است: E ÷ ( P + A + G ) × 3 یعنی E ÷ MEAN ( P, A, G ) که سهم (کسری) از انتشار را بر میانگین کسری از مردم، مساحت تقسیم می کند. و تولید ناخالص داخلی من فکر میکنم این بهتر است، زیرا P، A، G نشاندهنده «چیزهایی هستند که انتشار گازهای گلخانهای برای آنها اشکالی ندارد». در اولین تلاش (در بالا) من به شهری با کسر کلی جمعیت، مساحت و تولید ناخالص داخلی کم اجازه دادهام که امتیازی مشابه شهری با کسر کلی بالا داشته باشد، زمانی که انتشار گازهای گلخانهای یکسان دارند، که با توجه به اینکه من دارم به وضوح اشتباه است. گفت من برای P، A، G به یک اندازه ارزش قائل هستم. | ترکیب سیب و گلابی برای تشکیل یک مقایسه واحد |
65283 | من با تفسیر MANOVA خود در SPSS مشکل دارم. من دو DV و یک IV (سن) دارم، در جدول MANOVA لامبدای Wilk 0.053 است، بنابراین در سطح آلفای 0.05 معنی دار نیست. وقتی به جدول آزمون تاثیرات بین آزمودنی ها نگاه می کنم، تاثیر سن برای یکی از DV ها قابل توجه است (05/0p<). چگونه باید این را گزارش و تفسیر کنم؟ آیا باید جدول بین موضوعات را نادیده بگیرم زیرا جدول MANOVA قابل توجه نیست؟ | چگونه خروجی SPSS را برای MANOVA تفسیر کنیم؟ |
48995 | من یک سیستم با 5 جزء دارم. هر 10 ثانیه سیگنال به همه آنها می رسد و من می دانم که چند نفر از آنها پاسخ دادند. باید بدانم که یک همبستگی در پاسخ وجود دارد. بنابراین، داده های سری زمانی من چیزی شبیه به این است: A B C D E ------------------------ 1 0 1 1 1 1 1 1 1 1 1 0 0 0 1 1 0 1 0 1 ........... حدود 10000 ردیف وجود دارد آیا می توانم از یک تابع همبستگی ساده استفاده کنم تا ببینم آیا همبستگی بین وقوع 5. یا راه بهتری برای این وجود دارد؟ | همبستگی بر اساس رویدادهای دودویی |
51347 | من یک R noob هستم، بنابراین امیدوارم این سوال احمقانه نباشد. من می خواهم یک رگرسیون نمایی با چندین متغیر مستقل انجام دهم (شبیه به تابع LOGEST در اکسل) من سعی می کنم تابع $Y = b {m_1}^{x_1}{m_2}^{x_2}$ را مدل کنم $b$ یک ثابت است، $x_1$ و $x_2$ متغیرهای مستقل من هستند، و $m_1$ و $m_2$ ضرایب مستقل هستند. متغیرها فکر میکنم میتوانم با انجام کاری مانند «glm(log(Y) ~ x1 + x2)» تابع را خطیسازی کنم، اما کاملاً نمیدانم چرا این کار میکند. همچنین، اگر چنین چیزی وجود داشته باشد، میخواهم یک رگرسیون غیرخطی واقعی اجرا کنم. هدف من اجرای هر دو رگرسیون خطی و نمایی و یافتن بهترین خط مناسب بر اساس مقدار R^2$ بالاتر است. همچنین از کمک شما در درک نحوه رسم منحنی پیش بینی شده در نمودار پراکندگی داده های من نیز بسیار سپاسگزارم. پیشاپیش ممنون رایان | نحوه انجام رگرسیون نمایی با چندین متغیر در R |
48992 | من یک GMM با استفاده از OpenMX نصب میکنم: # بارگیری کتابخانه OpenMx (OpenMx) # دادههای مدل مخلوط رشد (myGrowthMixtureData) نامها (myGrowthMixtureData) class1 <- mxModel(Class1, type=RAM, manifestVars=c(x1 ، x2، x3، x4، x5)، latentVars=c(مقاطع، شیب)، # واریانس باقیمانده mxPath( from=c(x1، x2، x3، x4، x5)، فلش=2، free=TRUE , مقادیر = c(1, 1, 1, 1, 1), labels=c(Residual, Residual, Residual, Residual, Residual))، # واریانس پنهان و کوواریانس mxPath( from=c(intercept, slope), arrows=2, connect=unique.pairs, free=TRUE, values=c(1, .4 , 1), labels=c(vari1، cov1، vars1) ), # intercept loadings mxPath( from=intercept, to=c(x1، x2، x3، x4، x5)، arrows=1، free=FALSE، مقادیر=c(1، 1، 1، 1، 1))، # بارگیری شیب mxPath( from=slope، to=c(x1، x2، x3، x4، x5)، arrows=1، free=FALSE، values=c(0, 1, 2, 3, 4) ), # manifest به معنی mxPath( from=one, to=c(x1, x2, x3, x4, x5 ), arrows=1, free=FALSE, values=c(0, 0, 0, 0, 0) ), # latent به معنی mxPath( from=one, to=c(intercept, slope)، arrows=1، free=FALSE، values=c(0, -1)، labels=c(meani1, means1))، # بردار احتمال mxRAMObjective (A = A را فعال می کند، S = S، F = F، M = M، بردار = TRUE) ) # close model class2 <- mxModel(class1، # واریانس پنهان و کوواریانس mxPath( from=c(intercept, slope), arrows=2, connect=unique.pairs, free=TRUE, values=c(1, 0.5, 1), labels=c(vari2 ، cov2، vars2))، # latent به معنی mxPath(از = یک، به=c(مقاطع، شیب)، فلش=1، free=TRUE, values=c(5, 1), labels=c(meani2, means2) ), name=Class2 ) # close model #تعیین احتمالات کلاس classP <- mxMatrix(Full, 2 ، 1، free=c(TRUE، FALSE)، مقادیر=1، lbound=0.001، برچسب ها = c(p1، ps)، name=Props) classS <- mxAlgebra(Props %x% (1 / sum(Props)), name=classProbs) # مشخص کردن مدل مخلوط algObj <- mxAlgebra(-2*sum( log(classProbs[1 ,1] %x% Class1.objective + classProbs[2,1] %x% Class2.objective))، name=mixtureObj) obj <- mxAlgebraObjective(mixtureObj) gmm <- mxModel(Growth Mixture Model, mxData(observed=myGrowthMixtureData, type=raw ), class1, class2, classP, classS, algObj, obj ) gmmFit <-mxRun(gmm) summary(gmmFit) این آمار خلاصه ای را برای راه حل 2 کلاسه ای که در حال اجرا هستم به من می دهد. با این حال، سعی می کنم بفهمم کدام موارد متعلق به کدام طبقه است. چگونه می توانم احتمالات کلاس را برای هر مورد خروجی کنم تا ببینم هر مورد در کدام کلاس قرار می گیرد؟ | نحوه رسیدن به احتمالات کلاس برای هر مورد در GMM با استفاده از R/OpenMX |
95834 | بسته «arm» شامل تابع «sim()» است. در صفحه راهنمای R خود می گوید: library(arm) ?sim این تابع عمومی شبیه سازی های بعدی سیگما و بتا را از یک شی lm یا شبیه سازی بتا از یک شی glm یا شبیه سازی بتا را از یک دریافت می کند. شی merMod از آنچه من جمع آوری کردم، sim() لزوماً از هیچ شکلی از MCMC استفاده نمی کند. تنها زمانی از MCMC استفاده می کند که توزیع خلفی را نتوان به صورت تحلیلی تعریف کرد. اکنون، با توجه به دانش اولیه در مورد MCMC: از مقادیر پارامترهای اولیه، داده های داده شده، مدل و توزیع قبلی استفاده می کند تا تعیین کند که آیا مقادیر اولیه پارامترها مقادیر خوبی هستند یا خیر. الگوریتم MCMC (در حالت ایده آل) به سمت توزیع خلفی مشترک پارامترها با توجه به پیشین ها، مقادیر پارامتر اولیه، مدل و داده ها همگرا می شود. در نتیجه برازش مدل، و نمونه برداری از توزیع خلفی در همان زمان. این واقعیت که «sim()» تنها زمانی از MCMC استفاده میکند که توزیع پسین را نتوان به صورت تحلیلی تعریف کرد، به نظر میرسد به این معناست که «sim()» در همه موارد از حداکثر تخمین احتمال پسینی (MAP) استفاده میکند. این به نظر من دلیل زیر را دارد. من فرض می کنم که «sim()» در همه موارد از پیشین های غیر اطلاعاتی استفاده می کند. اگر «sim()» از MAP استفاده کند، این نتیجه میدهد که مشکل به حداکثر کردن تابع احتمال کاهش مییابد. که به نوبه خود مستلزم این است که یک تفاوت عددی حاشیه ای بین به عنوان مثال وجود خواهد داشت. فواصل اطمینان و فواصل معتبر. از نظر محاسباتی، این بسیار قابل اجراتر از EAP خواهد بود (تخمین پسینی مورد انتظار). اما «sim()» چگونه به یک فاصله زمانی مناسب میرسد که به عنوان یک پیشین غیر اطلاعاتی برای یک مدل خاص عمل میکند؟ آیا یک روش ریاضی ساده وجود دارد که به فرد اجازه دهد این کار را برای هر مدل معین انجام دهد؟ در صورت نیاز در گنجاندن ریاضیات پیچیده تردید نکنید! (این احتمالاً پستی است که میتواند هم در CrossValidated و هم در Stackoverflow باشد. اگر نظرات قوی در این مورد وجود داشته باشد، پست خودم را پرچمگذاری میکنم و از شما درخواست میکنم که منتقل شود. فقط در نظرات به من بگویید.) | عملکرد sim() در بسته بازو چگونه prior های غیر اطلاعاتی را تعیین می کند؟ |
110291 | من سعی میکنم هستههای مختلف را برای محاسبه ماتریس شباهت در R قرار دهم. دادههای مثال - ماتریس X: X <- ماتریس(rep(0,200*1000),200,1000) set.seed(123) برای (i در 1) :200) { X[i,] <- ifelse(runif(1000)<0.5,-1,1) } چه از هسته ها می توان برای تولید یک ماتریس شباهت استفاده کرد و چگونه می توانم این کار را در R انجام دهم؟ | هسته و شباهت (در R) |
111655 | من روی بررسی واریانس ثابت در مدلهای خطی کار میکنم و با مشاهده نمودار باقیماندههای دانشجویی با مقادیر برازش بررسی میکنم. به نظر می رسد مجموعه داده های من از طریق نمودار دارای یک واریانس ثابت است. من یک نمودار سطح گسترده روی داده ها انجام دادم و یک تبدیل توان پیشنهادی را ارائه می دهد. 1.12، با استفاده از این، یک مدل جدید قرار دادم و دوباره نمودار سطح گسترش را بررسی کردم، که تبدیل توان 1.05 را می دهد. تبدیل قدرت را به 1.05 تغییر دادم و این روند را بارها تکرار کردم. من در نهایت به تبدیل قدرت 1.252 رضایت دادم. بعد از اینکه مدل را دوباره تنظیم کردم تا تبدیل توان (1.252) را منعکس کند و دوباره نمودار سطح گسترش را اجرا کردم. تبدیل توان پیشنهادی برای این 1.00068 بود. چیزی که من تعجب می کنم این است که اگر می توانید تبدیل توان پیشنهادی را به 1 نزدیک کنید، آیا به این معنی است که اکنون واریانس ثابتی دارد؟ | اگر تبدیل توان پیشنهادی توسط نمودار سطح گسترش 1 باشد، آیا مدل دارای واریانس ثابت است؟ |
48993 | من فقط میخواهم با گفتن اینکه من اصلاً در آمار خوب نیستم، شروع کنم، بنابراین از نمودار/stat sigma استفاده میکنم. بنابراین من نیاز به مقایسه گروه ها (با اندازه نمونه های مختلف) دارم، و از آنجایی که آنها به طور معمول توزیع نمی شوند، از ANOVA در رتبه ها استفاده می کنم. و من تازه متوجه شدم که نتایج تجزیه و تحلیل بسته به گروه هایی که در آزمون قرار می دهم متفاوت است. به عنوان مثال اگر gp A، B، C، و D را آزمایش کنم. مقایسۀ جفتی دانن می گوید A فقط با B متفاوت است. اگر gp D را درج نکنم. دان می گوید A با B و C متفاوت است. که اگر من ANOVA را روی رتبهها برای بسیاری از گروهها انجام دهم، Dunn's sig را نشان نمیدهد. تفاوت بین چند جفت، اما اگر من تست مجموع رتبه Mann Whitney را روی جفت انجام دهم، علامت وجود دارد. تفاوت بنابراین چگونه می توانم چیزها را ثابت/قابل مقایسه نگه دارم؟ آیا می توانم احمق باشم و همه چیز را به مان ویتنی انجام دهم؟ (همانطور که گفتم، من واقعاً در آمار بد هستم). من از هر گونه کمک یا نظری قدردانی می کنم. خیلی ممنون | ANOVA در رده های سردرگمی |
112413 | من در حال انجام پایان نامه کارشناسی با موضوع تأثیر مدیریت سرمایه در گردش بر سودآوری هستم. این اولین بار است که با نرم افزارهایی مانند stata سر و کار دارم و خیلی چیزها واقعاً مرا گیج کردند. پس از انجام تجزیه و تحلیل رگرسیون تاریخ پانل، من ناهمسانی را پیدا کردم، بنابراین روش های gls روشی است که برای حل این مشکل انتخاب می کنم. اما از نتیجه gls، من نمی توانم R-squared را پیدا کنم. سرپرست من فرمولی برای محاسبه شبه R مربع به من می دهد: . پیش بینی yhat، xb. gen resid = abs(yhat-GOP). نمایش (1-(resid/GOP)^2) که در آن GOP = متغیر مستقل به عنوان معیار سودآوری آیا این فرمول درست است؟ آیا می توانم از نتیجه این فرمول برای ارزیابی تغییرات GOP تحت تأثیر سایر متغیرهای توضیحی استفاده کنم؟ علاوه بر این، تابع gls اشکالی دارد که باعث سوگیری در استنتاج من شود؟ خیلی ممنون!!! | شبه R-Squared برای تابع gls در Stata |
48991 | من در حال انجام تحقیقاتی هستم که در آن میخواهم سوژهها را در معرض یک رویداد غیر معمول قرار دهم و پاسخ آنها را ثبت کنم. من پاسخهای آزمودنیها را از طریق یک ابزار حساس مغزی ضبط میکنم، بنابراین به من گفته شده که قرار دادن آنها در معرض محرک 30 بار یا بیشتر مطلوب است. با این حال، از آنجایی که قرار است این رویداد غیر معمول باشد، من نگران هستم که بیش از 30 بار در طول آزمایش اتفاق بیفتد ممکن است منجر به تحریف نتایج شود. آیا می توان با داشتن سوژه های بیشتر به جای رویدادهای بیشتر در هر موضوع، به N من رسید؟ اگر نه، در چه شرایطی N <30 قابل قبول است؟ | در چه شرایطی N <30 قابل قبول است؟ |
25300 | تبدیل فوریه گسسته سنتی (DFT) و پسرعموی آن، FFT، سطلهایی را تولید میکنند که فاصلهای برابر دارند. به عبارت دیگر، شما چیزی شبیه به 10 هرتز اول در بن اول، 10.1 تا 20 در سطل دوم و غیره دریافت می کنید. با این حال، من به چیزی کمی متفاوت نیاز دارم. من می خواهم محدوده فرکانس تحت پوشش هر سطل به صورت هندسی افزایش یابد. فرض کنید ضریب 1.5 را انتخاب می کنم. سپس در بن اول 0 تا 10 داریم، من در بن دوم از 11 تا 25، در بین سوم 26 تا 48 و ... می خواهم. آیا می توان الگوریتم DFT را تغییر داد تا به این شکل رفتار کند؟ | من به یک DFT جدید و بهبود یافته نیاز دارم |
110293 | من در درک اینکه آمار آزمون نوع III دقیقاً چه کاری انجام می دهد مشکل دارم. در اینجا چیزی است که من از کتاب خود دریافت کردم: > آزمون های «نوع III» برای معناداری هر متغیر توضیحی، > با این فرض که همه متغیرهای دیگر وارد شده در معادله مدل > وجود دارند. سؤالات من این است: 1. «متغیرهای دیگری که در معادله مدل وارد شده وجود دارند» دقیقاً به چه معناست؟ فرض کنید من یک آمار آزمون نوع III برای متغیر $x_i$ دارم، آیا آزمون Type III به ما می گوید که آیا ضریب مقابل $x_i$ برابر با صفر است یا خیر؟ 2. اگر چنین است، پس تفاوت آمار آزمون نوع III و آزمون والد چیست؟ (من معتقدم که آنها اساساً دو چیز متفاوت هستند زیرا SAS دو خروجی عددی متفاوت به من می دهد) در حال حاضر من هر دو خروجی را برای متغیرهای مستقل خود دارم (که همه متغیرهای ساختگی هستند). من نمیدانم به کدام مقدار p نگاه کنم تا تصمیم بگیرم کدام $x$ را کاهش دهم. | آزمایش نوع III دقیقاً چه کاری انجام می دهد؟ |
25309 | من سعی می کنم نشان دهم که همبستگی بین دو ویژگی یک مجموعه داده ضعیف است. من فکر می کنم باید از آزمون t برای اندازه گیری قدرت آماری استفاده کنم، اما می خواهم بدانم به چند نمونه نیاز دارم تا نشان دهم که همبستگی کمتر از x٪ است. آیا باید بفهمم که برای نشان دادن همبستگی ضعیف بین دو ویژگی به نمونه های زیادی نیاز دارم یا روش دیگری وجود دارد که بتوانم از آن استفاده کنم تا نشان دهم همبستگی قوی وجود ندارد؟ اگر روش دیگری وجود دارد، چگونه می توانم تعیین کنم که برای اطمینان از آماری که فقط 30٪ یا کمتر همبستگی وجود دارد به چند نمونه نیاز است؟ من بیشتر با R و MATLAB آشنا هستم. | بی اهمیت بودن آماری |
65288 | در یافتن آزمون آماری مناسب برای نشان دادن تفاوت معناداری [از طریق p-value] به من کمک کنید > Sample_data زیرمجموعه Universe x 2200 5 y 2500 50 از داده های بالا، می خواهم بفهمم آیا نسبت Universe در زیرمجموعه برای x و y به طور قابل توجهی متفاوت هستند. مانند، زیر مجموعههای x و y 0.2% [5/2200*100] و 2% [50/2500*100] هستند، از این رو بین x و Y تفاوت 10 برابری وجود دارد. و کدام تست در محیط R مناسب تر است؟ چگونه می توانم نسبت های جهان را برای تعیین تفاوت معنی دار بین زیر مجموعه x(5) و y(50) حمل کنم؟ * * * ساختار داده به یک ماتریس اشاره دارد. X دارای تعداد کل ژن - 2200 (X-Universe) و Y دارای تعداد کل ژن - 2500 (Y-Universe) است. از همه X-2200، تنها 5 مورد مربوط به زیر مجموعه (یک دسته-P) و از Y-2500، 50 مورد مربوط به همان زیر مجموعه (یا دسته-P) است. و من می خواهم بگویم که مقادیر زیر مجموعه x و y (5 و 50) با توجه به تعداد کل ژن ها در X و Y (2200 و 2500) تفاوت معنی داری دارند. از نظر آماری **چگونه می توانیم تشخیص دهیم که 5 از 2200 و 50 از 2500 تفاوت معنی داری دارند؟** | کدام آزمون آماری برای بدست آوردن احتمال معناداری در تفاوت (p-value) مناسب است. |
65280 | من در حال بازگشایی برخی از فاکتورها برای LME با استفاده از R هستم و به مشکلی برخوردم. من سطوح عاملی را دوباره ترتیب دادم تا بتوانم در مورد نتیجه مدل در رابطه با فرضیه های تجربی خود راحت تر صحبت کنم. مدل بسیار ساده است: دو عامل و تعامل بین این دو. به طور عجیبی، زمانی که من مدل پایه را قبل از revelling اجرا می کنم، و سپس نسخه relevel شده را اجرا می کنم، یکی از عواملی که قبل از relevlling مهم بود، اکنون دیگر قابل توجه نیست. قبل از انجام این کار، تصور میکردم که نتیجه قبل و بعد از بازخوانی یکسان خواهد بود. هر دو عاملی که من به آنها اشاره کردم فقط دو سطح دارند، بنابراین من کمی گیج هستم که چرا ممکن است این اتفاق بیفتد. من در طول روز بارها و بارها کد را مرور می کردم - اما با آن شانسی نداشتم. آیا رفتاری که مشاهده کردهام در مورد LMEها انتظار میرود یا این احتمال وجود دارد که هنگام تغییر سطوح فاکتورم اشتباهی انجام داده باشم؟ | LME Revelling Issue |
5903 | با توجه به دو آرایه x و y، هر دو به طول n، مدل y = a + b*x را برازش میکنم و میخواهم فاصله اطمینان 95% را برای شیب محاسبه کنم. این (b - delta, b + delta) است که در آن b به روش معمول یافت می شود و delta = qt(0.975,df=n-2)*se.slope و se.slope خطای استاندارد در شیب است. یکی از راههای بدست آوردن خطای استاندارد شیب از R، `summary(lm(y~x))$coef[2,2]` است. حالا فرض کنید من احتمال شیب داده شده x و y را بنویسم، آن را در یک مسطح قبل ضرب کنم و از تکنیک MCMC برای رسم نمونه _m_ از توزیع خلفی استفاده کنم. تعریف lims = quantile(m,c(0.025,0.975)) سوال من: آیا (lims[[2]]-lims[[1]])/2 تقریبا برابر با دلتا است که در بالا تعریف شد؟ **ضمیمه** در زیر یک مدل ساده JAGS وجود دارد که به نظر می رسد این دو با هم متفاوت هستند. model { for (i در 1:N) { y[i] ~ dnorm(mu[i]، tau) mu[i] <- a + b * x[i] } a ~ dnorm(0, 0.00001) b ~ dnorm(0, 0.00001) tau <- pow(sigma, -2) sigma ~ dunif(0, 100) } I موارد زیر را در R اجرا کنید: N <- 10 x <- 1:10 y <- c(30.5،40.6،20.5،59.1،52.5، 96.0،121.4،78.9،112.1،128.4) lin <- lm(y~x) #دلتا را برای فاصله اطمینان 95 درصد در شیب محاسبه کنید delta.lm <- qt(0.975,df=N-2)*summary(lin)$coef[2,2] library('rjags') jags <- jags.model('example.bug', data = list( 'x' = x، 'y' = y، 'N' = N)، n.chains = 4، n.adapt = 100) به روز رسانی (jags، 1000) پارامتر <- jags.samples(jags,c('a', 'b', 'sigma'),7500) lims <- quantile(params$b,c(0.025,0.975)) delta.bayes <- ( lims[[2]]-lims[[1]]/2 cat (منطقه اعتماد کلاسیک: +/-round(delta.lm، اعداد=4)،\n) cat (منطقه اعتماد به نفس بیزی: +/-، round(delta.bayes، رقم=4)،\n) و دریافت: منطقه اطمینان کلاسیک: +/- 4.6939 منطقه اطمینان بیزی: +/- 5.1605 با تکرار چندین بار، منطقه اطمینان بیزی به طور مداوم گسترده تر از کلاسیک بنابراین آیا این به دلیل اولویت هایی است که من انتخاب کرده ام؟ | فواصل اطمینان برای پارامترهای رگرسیون: بیزی در مقابل کلاسیک |
65285 | من یک مجموعه داده سری زمانی دارم که سعی میکنم یک مدل مارکوف پنهان (HMM) را برای تخمین تعداد حالتهای نهفته در دادهها برازش کنم. کد شبه من برای انجام این کار به صورت زیر است: for( i in 2 : max_number_of_states ){ ... HMM را با حالت های i محاسبه کنید ... optimal_number_of_states = مدل با کوچکترین BIC ... } اکنون در مدل های رگرسیون معمولی BIC تمایل دارد به صرفه ترین مدل ها علاقه داشته باشد، اما در مورد HMM مطمئن نیستم که این همان کاری است که انجام می دهد. آیا کسی واقعاً می داند که معیار BIC به چه نوع HMM تمایل دارد؟ من همچنین قادر به دریافت AIC و مقدار احتمال نیز هستم. از آنجایی که من سعی می کنم تعداد کل واقعی حالت ها را استنتاج کنم، آیا یکی از این معیارها برای این منظور از دیگری بهتر است؟ | معیارهای انتخاب بهترین مدل در مدل پنهان مارکوف |
89507 | من سعی می کنم فروش روزانه یک رستوران بیرون را پیش بینی کنم. آنها در مرکز شهر یک شهر بزرگ واقع شده اند. مشتریان اصلی آنها کارکنان اداری در زمان استراحت ناهار هستند و به همین دلیل آنها فقط در روزهای کاری باز هستند. بدون تعطیلات آخر هفته. من می خواهم (احتمالا) از هموارسازی نمایی سه گانه Holt-Winters برای پیش بینی فروش در چند ماه آینده استفاده کنم - با استفاده از حدود چهار سال داده فروش روزانه. الگوهای فصلی واضحی وجود دارد (مثلاً زمانی که بسیاری از کارکنان اداری در تعطیلات هستند، در ماههای تابستان شلوغ کمتری دارند). چگونه می توانم برای هیچ فروش آخر هفته و تعطیلات که ممکن است سال به سال تاریخ تغییر کند، حساب کنم؟ من متوجه شده ام که اگر دوشنبه تعطیل است، جمعه قبل از آن آخر هفته طولانی فروش به میزان قابل توجهی کاهش می یابد (احتمالاً از افرادی که ناهار را حذف می کنند و آخر هفته را زود شروع می کنند). من از R برای انجام تجزیه و تحلیل خود استفاده می کنم. هر گونه ورودی از نظر برخورد با تعطیلات در حال تغییر و انتخاب یک مدل مناسب قدردانی خواهد شد. | اطلاعات فروش روزانه - فقط روزهای هفته، بدون تعطیلات |
92829 | من دو مجموعه داده بزرگ دارم، در واقع، یکی از آنها حتی بسیار بزرگتر از دیگری است. از نظر بصری، به نظر نمی رسد تفاوت زیادی بین آنها وجود داشته باشد:  دادههای واقعی زیربنای نمودار جعبه معمولاً توزیع نمیشوند و به خوبی برای تبدیلها عادی نمیشوند. آنها تقریباً توزیع یکسانی هستند (یعنی توزیعهای بله و خیر برای هر الگوریتم)، اما تفاوتهای بزرگ اندازه داده، آزمایشهای دیگر را کمی بیفایده میسازد. من از آزمون دو نمونه ای کولموگروف-اسمیرنوف استفاده کرده ام، اما احتمالاً این اشتباه است و نتایج بسیار قابل توجهی می دهد. سوالات من این است: 1) آیا آزمون های آماری روی مجموعه داده های بزرگ نتایج قابل توجهی را با توجه به تفاوت های جزئی بین دو نمونه ایجاد می کند؟ کوچکی با توجه به داده های بزرگ بزرگ می شود. 2) آیا بازرسی بصری با مجموعه داده های بزرگ بهتر است به جای استفاده از آزمون های غیر پارامتری و پارامتری که در آن برخی مفروضات اساسی ممکن است نقض شوند. 3) برای این داده ها، بهترین اقدام چیست؟ ویرایش دادههای من ساختاری مانند: دادههای من به این شکل است: Name Bind miRNA a 300 NO b 500 YES c 140 YES d 2345 NO | آیا بازرسی بصری تنها راه مقایسه مجموعه داده های بزرگ است؟ |
48994 | هنگام برازش دادهها برای به دست آوردن تخمین ضرایب برای مدلهای ARMA، شرایط MA برای برازش دادهها چگونه توسط نرمافزار تولید میشود؟ آیا هر بار که سعی می کنم برخی از داده ها را جا بدهم، مقادیر متفاوتی دریافت نمی کنم، زیرا عبارت MA(1) نویز سفید است و برای هر شبیه سازی دوباره تولید می شود؟ از نقطه نظر تحلیلی، همچنین هنگام برازش یک مدل ARMA به مجموعه ای از داده ها، آیا مجموعه ای منحصر به فرد از تخمین های ضریب را دریافت می کنم یا احتمالاً به این دلیل متفاوت است؟ | نرم افزار به طور کلی چگونه با مدل های ARMA سازگار است؟ |
25306 | من توزیع نتایج Y زیر را با تابع چگالی نرمال که با خط قرمز روی هم نشان داده شده است دارم:  باید یک روش رگرسیون ایجاد کنم برای پیش بینی $Y$ با توجه به تعدادی پیش بینی $X_n$. به نظر می رسد OLS به دلیل توزیع غیرعادی $Y$ با این صورت حساب سازگار نیست. با توجه به اینکه پیامدها افزایش های غیرمستمر 0.5 هستند، آیا یک رگرسیون پروبیت منظم رویکرد درستی خواهد بود؟ همانطور که من درک می کنم، یک رگرسیون پروبیت اجازه می دهد تا توزیع نتایج را مشخص کنیم. چه جایگزین دیگری دارم؟ | مدل مرتب شده پروبیت برای توزیع غیرعادی نتایج |
65282 | روش های مختلف یادگیری ماشینی که می توانند برای رگرسیون استفاده شوند کدامند و مزایا و معایب آنها چیست؟ | روش های مختلف یادگیری ماشینی که می توان برای رگرسیون استفاده کرد چیست؟ |
78650 | در حوزه من، گاهی اوقات میخواهیم میزان تأثیرپذیری یک متغیر، Y، تحت تأثیر متغیر دیگری، X را ارزیابی کنیم، جایی که X در محدودهای از مقادیر پیوسته اندازهگیری میشود، و مطمئن نیستیم که آیا فرض کنید که اثر X بر Y یک رابطه خطی یا نوعی رابطه غیر خطی ایجاد می کند. قبلاً، مدلسازی افزایشی تعمیمیافته (GAM) را در چنین مواردی بسیار مفید میدانستم، زیرا به من این امکان را میدهد که بدون اطمینان از شکل دقیق آن رابطه، ارزیابی کنم که آیا رابطهای بین X و Y وجود دارد یا خیر، زیرا GAM از روشهای مبتنی بر داده برای یافتن استفاده میکند. توابعی که بهترین تناسب را با داده ها دارند (خطی یا غیر آن). من معمولاً با محاسبه نسبتهای احتمال با مقایسه مدلهای تودرتو به ارزیابی میرسم. با این حال، اخیراً سعی کردهام به چارچوب آماری بیزی بروم و دیگر نمیدانم با چنین مواردی از اثرات احتمالاً غیرخطی چه کنم. آیا رویکرد بیزی استانداردی برای این سناریو وجود دارد؟ | استنتاج بیزی در مورد اثرات احتمالاً غیر خطی |
65287 | می خواستم بدانم چه تفاوت و رابطه ای بین پیش بینی و پیش بینی وجود دارد؟ به خصوص در سری های زمانی و رگرسیون؟ به عنوان مثال، آیا من درست می دانم که: * در سری های زمانی، به نظر می رسد پیش بینی به معنای برآورد مقادیر آینده با توجه به مقادیر گذشته یک سری زمانی است. * در رگرسیون، به نظر میرسد پیشبینی به معنای تخمین یک مقدار باشد، چه آینده باشد، چه فعلی یا گذشته با دادههای داده شده. با تشکر و احترام! | تفاوت بین پیش بینی و پیش بینی؟ |
96567 | من می خواهم با استفاده از درخت های تصمیم تقویت شده با استفاده از Matlab، مسائل طبقه بندی را آزمایش کنم. در مقاله مقایسه تجربی الگوریتمهای یادگیری نظارت شده، این تکنیک با توجه به معیارهایی که نویسندگان پیشنهاد کردند، رتبه اول را کسب کرد. سوال من این است که آیا در Matlab کتابخانه ای برای این نوع طبقه بندی نظارت شده وجود دارد؟ تابع fitensemble(...) دارای چندین تکنیک است که درک آنها برای من دشوار است. به عنوان مثال، تکنیک LSBoost برای مشکلات رگرسیون مرتبط است در حالی که من فقط به طبقه بندی علاقه مند هستم. علاوه بر این، در یک سوال مشابه ارسال شده، دقیقا این سوال در رابطه با R و نه Matlab مطرح شده و پاسخ داده شده است. | درختان تصمیم را با استفاده از Matlab تقویت کرد |
92823 | اگر چندین ورودی برای یک ترکیب موضوع-درمان خاص داشته باشم، آیا عملکرد aov() به درستی این ورودیها را هنگام اجرای ANOVA اندازهگیریهای مکرر انجام میدهد؟ به عنوان مثال، فرض کنید جدول به این شکل باشد، زمان درمان موضوع نتیجه Subj1 صبح کک صبح 15 Subj1 کک صبح 14 Subj1 صبح آبی 17 صبح آبی Subj1 20 صبح کک صبح 45 Subj2 صبح کک 45 Subj2 صبح کک 46 Subj2 آب صبح نیست 58 Subj2 آب صبح که وجود دارد 75 ترکیبات مکرر موضوع-درمان آیا زمانی که aov(subj1 ~ Treatment*Time, + Error(Subject/(Treatment*Time))) به درستی رسیدگی می شود. کد اجرا می شود؟ | آنووا با اقدامات مکرر در R |
25305 | من به دنبال اطلاعاتی در مورد انتخاب ویژگی و اعتبارسنجی متقابل بودم که این پست را پیدا کردم: انتخاب ویژگی برای مدل نهایی هنگام انجام اعتبارسنجی متقابل در یادگیری ماشین. جایی که بحث در مورد نحوه استفاده از انتخاب ویژگی در اعتبار سنجی متقاطع وجود دارد. من دیدم که روشی که توضیح داده شده تا حدودی با آنچه من استفاده می کنم متفاوت است و می خواهم بپرسم آیا کاری که انجام می دهم درست است یا خیر. کاری که من معمولاً برای انتخاب ویژگی انجام میدهم این است که جستجوی بهترین ویژگیها را با استفاده از ناحیه زیر منحنی roc در اعتبارسنجی متقاطع به عنوان تابعی برای بهینهسازی انجام دهم. من معمولاً این جستجو را چند بار انجام میدهم، هر بار با پارتیشنهای اعتبارسنجی متقابل متفاوت، اما با همان تعداد فولد (3 تا 5) که توسط Ron kohavi talk (IJCAI 95) توصیه شده است. مجموعه ویژگی که یک بار دیگر به عنوان بهترین ظاهر شد، مجموعه ای است که من انتخاب می کنم. سپس، با این مجموعه ویژگی، اعتبارسنجی متقاطع 10 برابری را برای پیشبینی دقت انجام میدهم. من از هر نظر در مورد این روش قدردانی می کنم. ممنون، خورخه | آیا این روش صحیحی برای انتخاب ویژگی با استفاده از اعتبارسنجی متقابل است؟ |
82304 | بنابراین اساساً دادههای من به شرح زیر است: نقطه داده «#»، «تاریخ»، «زمان»، «دمای» و «شوری». لاگرها بیش از 9 ماه ثبت شده اند، و من باید هر روز را بر اساس حداقل دما و شوری، و همچنین حداکثر، دامنه و میانگین خلاصه کنم. تعداد نقاط داده هر روز یکسان نیست، زیرا برخی از دادهها باید بیرون کشیده میشد زیرا ثبتکنندهها در جریان جزر و مد قرار گرفتند. آیا پیشنهادی در مورد کد برای این کار دارید؟ R بسیار جدید است، اما می خواهم تا حد امکان از آن استفاده کنم. # تاریخ زمان دما درجه سانتی گراد شوری،ppt 8 5/12/13 9:52 15.13 28.2187 9 5/12/13 10:02 15.21 28.0135 10 5/12/13 10:12 15.38/15.38 10:22 15.51 27.5082 | چگونه می توانم خلاصه ای از داده ها (میانگین، حداقل، حداکثر، محدوده--من با داده های آب و هوا که هر 10 دقیقه ثبت می شود) را برای هر روز از یک سری زمانی دریافت کنم؟ |
82306 | برای مدلسازی دنبالهای از دادهها، یک بار اصطلاح فنی «میانگین وزنی نمایی واریانس جریان داده» را شنیدم. به صورت بازگشتی به صورت  تعریف شده است. من نمی دانم چرا می توان از این فرمول بازگشتی برای تخمین واریانس استفاده کرد؟ چرا $\lambda$ باید 0.999 باشد. | میانگین وزنی نمایی واریانس جریان داده |
82309 | مایلم مقدار زیر را ارزیابی کنم $\log\int_\mathcal{R}p(y|\beta)p(\beta)d\beta$ که در آن $p(y|\beta)=exp(-|y-\ beta|)$ و $p(\beta)=\mathcal{N}(0,1000)$. $y$ شناخته شده است. شما احتمالاً می توانید این را با استفاده از تابع probit $\Phi$ ادغام کنید، با این حال، سوال من 1 است. چگونه می توانید از $p(\beta|y)$ 2 بعدی نمونه برداری کنید. چگونه می توان از این برای ارزیابی انتگرال استفاده کرد. | احتمال ورود به سیستم از طریق نمونه گیری پسین |
64884 | من مجموعه ای از دو کلاس با 4000 مشاهده دارم. من مجموعه ای از 63 ویژگی برای ساختن یک پیش بینی دارم. سوال من این است که آیا رابطه ای وجود دارد که از اضافه برازش برای داشتن ابعاد زیاد جلوگیری کند؟ منظورم حداکثر تعداد ویژگی به ازای تعداد مشاهدات در آموزش است؟ | تعداد نمونه ها در مقابل تعداد ویژگی ها |
25307 | اگر بخواهم تجزیه و تحلیل کنم که آیا یک اثر شناخته شده توسط عامل دیگری مهار می شود، آیا تحلیل مستقیم تأثیر عامل بر اندازه اثر اشتباه است؟ یعنی آیا می توانم فقط از یک آزمون آماری بین اندازه اثر برای شرایط مختلف استفاده کنم یا باید یک مدل تعامل کامل انجام دهم؟ در اینجا تنظیم است. در هر شرایط من دو متغیر X_1 و X_2 را اندازه میگیرم. تفاوت بین متغیر X_1 و X_2 اندازه اثر مورد علاقه من را نشان می دهد. اکنون دو شرط C_1 و C_2 نیز دارم و فرضیه من این است که اندازه اثر برای C_2 کوچکتر خواهد بود. نسبت به «C_1». یکی از راههایی که میتوانم این را آزمایش کنم، محاسبه تمام اندازههای افکت در شرایط «C_1» از «X_1» و «X_2» مناسب و مقایسه همه اینها با اثرات محاسبهشده برای «C_2» است. با این حال، آنچه را که من تجزیه و تحلیل میکنم میتواند به عنوان یک اثر متقابل بین شرایط و عاملی که منجر به تولید «X_1» و «X_2» شد نیز دیده شود. بنابراین میتوانم از مدل تعامل «2x2» استفاده کنم تا ببینم آیا شرایط من تأثیر قابلتوجهی بر اندازه اثر دارد یا خیر. مشکل تجزیه و تحلیل مستقیم اندازه اثر چیست؟ در طرح نهایی من می خواهم فقط شرایط را در مقابل اندازه افکت ها نشان دهم، زیرا این پیچیدگی زیادی را کاهش می دهد. | آیا می توان تأثیر یک عامل متفاوت بر یک اثر شناخته شده را مستقیماً تحلیل کرد؟ |
110290 | فرض کنید $p$ احتمالات باشد و $D$ واقعی است چگونه می توانم ثابت کنم که مناطق $$\int p \; d F_{p}(p|D=1) = \int (1-p) \; d F_{1-p}(1-p|D=1)$$ برابر است. جایی که $F_{p}$ تابع توزیع تجربی $p$ است. تصویر: par(mfrow=c(1,2)) set.seed(123) predRisk <- plogis(runif(1000,-1,10)) plot(ecdf(1-predRisk)) plot(ecdf(predRisk))  | منطقه زیر احتمالات |
92827 | این مقاله (دسترسی آزاد) نوزادان متولد شده در آستانه زنده ماندن: تغییرات در بقا و حجم کاری بیش از 20 سال (جدول 2) داده هایی را برای بقای نوزادان نارس در طول 20 سال گذشته در دوره های زمانی 4 ساله ارائه می دهد. آنها بیان می کنند که بقای نوزادان حاملگی 23 هفته ای در این مدت بهبود نیافته است (08/0=p). آیا این آزمون روند در صورت وجود، قدرت کافی برای تشخیص روند را دارد؟ چگونه می توانم آن را تعیین کنم؟ | محاسبه توان برای آزمایش روند در طول زمان |
72717 | **سوال**: _آیا تنظیم زیر یک پیاده سازی معقول از یک مدل مارکوف پنهان است؟_ من مجموعه داده ای از 108000 مشاهدات (در طول 100 روز) و تقریباً 2000 رویداد در کل دارم. بازه زمانی مشاهده داده ها مانند شکل زیر هستند که در آن متغیر مشاهده شده می تواند 3 مقدار مجزا $[1،2،3]$ بگیرد و ستون های قرمز زمان رویداد را برجسته می کنند، یعنی $t_E$'s:  همانطور که با مستطیل های قرمز در شکل نشان داده شده است، من {$t_E$ را به $t_{E-5}$} برای هر رویداد، به طور موثری اینها را به عنوان پنجره های قبل از رویداد در نظر می گیرد. **آموزش HMM:** من قصد دارم یک مدل پنهان مارکوف (HMM) را بر اساس تمام پنجره های قبل از رویداد آموزش دهم، با استفاده از روش توالی های مشاهده چندگانه همانطور که در صفحه پیشنهاد شده است. 273 از مقاله رابینر. امیدوارم، این به من اجازه دهد یک HMM را آموزش دهم که الگوهای توالی را که منجر به یک رویداد می شود، ثبت کند. **پیشبینی HMM:** سپس من قصد دارم از این HMM برای پیشبینی $log[P(Observations|HMM)]$ در یک روز جدید استفاده کنم، جایی که $Observations$ یک بردار پنجره کشویی خواهد بود که در زمان واقعی بهروزرسانی میشود تا شامل شود. مشاهدات بین زمان کنونی $t$ و $t-5$ در طول روز. انتظار دارم $log[P(Observations|HMM)]$ برای $Observations$ که شبیه پنجره های قبل از رویداد هستند، افزایش یابد. این در واقع باید به من اجازه دهد که رویدادها را قبل از وقوع آنها پیش بینی کنم. | مدل پنهان مارکوف برای پیش بینی رویداد |
105124 | همانطور که میدانم Naïve Bayes توزیعهای مختلفی دارد، همانطور که در کتابچه راهنمای آموزشی Sci-Kit گفته شد: > طبقهبندیکنندههای ساده بیسابقه مختلف عمدتاً بر اساس فرضیاتی که در مورد توزیع $P(x_i \mid y)$ میکنند، متفاوت هستند. بنابراین، روشهای مختلفی از Naïve Bayes مانند Gaussian NB، Multinomial Naïve Bayes وجود دارد، و من متوجه شدم که Sci-kit Learn کتابخانههای مختلفی برای آنها دارد. یک کتابخانه معروف دیگر Naïve Bayes در پایتون به نام NLTK وجود دارد. من در تلاش بودم تا توزیع Naïve Bayes مبتنی بر NLTK را پیدا کنم. پس از جستجو احساس کردم: 1. چند جمله ای نیست (اینجا و اینجا را ببینید) 2. اما در مستندات، مثال های زیر را پیدا می کنم، مثال 6.4، مثال 6.6، به نظر می رسد طبقه بندی کننده ساده بیز NLTK از 'nltk' پشتیبانی می کند. .FreqDist`. بنابراین من کمی گیج هستم. اگر یکی از اعضای محترم ممکن است مرا راهنمایی کند. | توزیع احتمال NLTK Naive Bayes چیست؟ |
16194 | مدل بازیگر-نقد در یادگیری تفاوت زمانی، که روشی در یادگیری تقویتی است، برای بهینهسازی یک فرآیند بر اساس حالت به حالت با استفاده از تفاوت بین عملکرد و عملکرد مورد انتظار برای هر حالت مربوطه استفاده میشود. به عبارت دیگر، مجموعه ای از الگوهای ورودی ممکن برای فرآیند وجود دارد که هر کدام یک حالت را تشکیل می دهند (حالتی که عامل در آن قرار می گیرد). برای هر حالت، کنشگر یک خروجی را محاسبه میکند که توسط یک متریک عملکرد (که از لحاظ نظری میتواند خروجی هدف متفاوتی را برای هر حالت تعریف کند) ارزیابی میشود که سیگنال پاداش (عملکرد) را برمیگرداند. در همین حال، برای هر حالت، منتقد پاداش مورد انتظار را دنبال میکند که تابعی از سیگنالهای پاداش گذشته برای آن حالت است. در هر تکرار، تفاوت بین سیگنال پاداش و سیگنال پاداش مورد انتظار گرفته میشود و برای بهروزرسانی خطمشی بازیگر (امیدوارم یک گرادیان اجرا) و انتظارات عملکرد منتقد برای آن حالت بهروزرسانی میشود. به طور فرضی، برای برخی از مشکلات دو یا چند حالت (الگوهای ورودی) وجود دارد که مشابه هستند و اطلاعاتی که بین این دو متفاوت است نامربوط است. به عبارت دیگر، خروجی هدف برای حالت ها یکسان و ورودی مشابه است. سپس برای منتقد به طور بالقوه مفید خواهد بود که روشی برای تشخیص این موضوع داشته باشد که همه حالت هایی که شباهت خاصی دارند عملاً یک حالت هستند، به طوری که مجموعه ای از آن حالت ها می توانند نتیجه پیش بینی شده یکسانی داشته باشند. به ویژه، اگر با سیستمی سر و کار دارید که دارای مقدار زیادی ورودی است، و اگر بیشتر آن ها در هر مقطع زمانی نامربوط باشند، پس نمی خواهید عملکرد مورد انتظار را برای هر ترکیب ممکن از آن یاد بگیرید. ورودی های غیر مرتبط سوال من این است که چگونه این کار را انجام می دهید. چگونه میتوانید یک منتقد را وادار کنید که حالتهای مختلف را در کلاسهای حالت سازماندهی کند، و به روشی که عملکرد را در درازمدت بهبود بخشد؟ | جلب توجه منتقدان به این موضوع که دو الگوی ورودی مشابه به یک رابطه خروجی-عملکرد اشاره دارد |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.