_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
6330
من قبلاً از forecast pro برای پیش‌بینی سری‌های زمانی تک متغیره استفاده کرده‌ام، اما گردش کار خود را به R تغییر می‌دهم. بسته پیش‌بینی برای R شامل بسیاری از توابع مفید است، اما کاری که انجام نمی‌دهد این است که هر نوع تغییر داده قبل از اجرای خودکار انجام شود. .arima(). در برخی موارد forecast pro تصمیم می‌گیرد قبل از انجام پیش‌بینی، داده‌های تبدیل را ثبت کند، اما من هنوز دلیل آن را متوجه نشده‌ام. بنابراین سوال من این است: چه زمانی باید سری زمانی خود را قبل از امتحان متدهای ARIMA روی آن لاگ-تغییر کنم؟ /edit: پس از خواندن پاسخ‌های شما، می‌خواهم از چیزی شبیه به این استفاده کنم، جایی که x سری زمانی من است: library(lmtest) if ((gqtest(x~1)$p.value < 0.10) { x<-log (x)} آیا این منطقی است؟
زمان ثبت تبدیل یک سری زمانی قبل از برازش مدل ARIMA
10109
من سعی می کنم از R برای توسعه یک مدل مالی شرکتی استفاده کنم. این مدل شامل موارد خطی مختلف، X، به شکل زیر با مقادیر واقعی برای دوره زمانی 1، 2.. n و مقادیر پیش بینی شده برای دوره های n+1، n+2،.. n+k است. g میانگین نرخ رشد دوره پیش بینی شده است. من باید یک بردار به شکل زیر بسازم: X=c(X1,X2,...,Xn,Xn+1=(1+g)Xn,Xn+2=(1+g)Xn+1,. ..,Xn+k=(1+g)Xn+k-1)) چگونه این کار را در R انجام دهم؟ من سعی کردم ادبیات R را در مورد متغیرهای دارای تاخیر جستجو کنم، اما نتوانستم یک مثال ساده که آنچه لازم است را انجام دهد. من مشتاقانه منتظر هر راهنمایی هستم.
متغیرهای تاخیری در R
44193
من اخیراً روی یک تکلیف کار کرده‌ام که در آن هدف پیاده‌سازی یک رویکرد MCMC برای شبیه‌سازی از توزیع پسین تولید شده است. توزیع پسین از احتمال داده شده توسط $p(x|\lambda) \sim \text{Poisson}(\lambda)$ و یک قبلی برای $\lambda$ که توسط $p(\lambda) \sim \text داده می‌شود، ایجاد می‌شود. {نمای}(\lambda_{0})$. بنابراین، $$ p(\lambda) = \lambda_{0}e^{-\lambda_{0} \lambda} $$ در انتساب، مقداری برای $\lambda_{0}$ برای ما _not_ ارائه شده است ، اما به ما گفته می شود که $90\%$ باور وجود دارد که $\lambda < 7$ است. با توجه به موارد فوق، من استنباط کردم که: $$ \int_0^7 \lambda_{0}e^{-\lambda_{0} \lambda}d\lambda = 0.90$$ و حل برای $\lambda_{0}$ در انتگرال بالا، به $\lambda_{0} \حدود 0.329$ رسیدم. * **اولین سوال من**: آیا این روشی معتبر برای تعیین مقدار $\lambda_{0}$ با توجه به اطلاعات محدود صادر شده در تکلیف است؟ همچنین، در همان تکلیف، به ما دستور داده شده است که از یک $\text{Gamma}$ به عنوان جایگزینی برای $\text{Exponential}$ قبلی استفاده کنیم. هیچ اطلاعات اضافی درباره $\text{Gamma}$ قبلی (یعنی مقادیر پارامترها یا توزیع‌های موجود در آن پیشین‌ها) که باید استفاده کنیم، به ما داده نمی‌شود. من استنباط کردم که اگر $\mathbf{E}[\lambda] = \lambda_{0}^{-1}$ و $\text{Var}[\lambda] = \lambda_{0}^{- را محاسبه کنم 2}$ برای $\text{Exponential}$ که قبلاً در بالا ذکر شد، می‌توانم از آن برای حل پارامترهای جایگزین $\text{Gamma}$ قبلی استفاده کنم. از نظر ریاضی بیشتر: $\mathbf{E}[\lambda] = \frac{\alpha}{\beta} = \lambda_{0}^{-1}$ و $\text{Var}[\lambda] = \frac {\alpha}{\beta^{2}} = \lambda_{0}^{-2}$ حل برای $\alpha$ و $\beta$ بازده: $\alpha = \lambda_{0}^{0} = 1 = 0.329^{0} = 1$ و $\beta = \lambda_{0}^{1} = \lambda_{0} = 0.329^{1} = 0.329$ * **سوال دوم من**: آیا این روش معتبری برای استخراج مقادیر پارامتر برای $\alpha$ و $\beta$ برای $\text{Gamma}$ ذکر شده در بالا با توجه به اطلاعات محدود ارائه شده در تکلیف؟ به عبارت دیگر، آیا می توانم از مقدار و واریانس مورد انتظار مشتق شده از $\text{Exponential}$ قبل از توسعه یک $\text{Gamma}$ مشابه استفاده کنم؟ یا حفظ این باور 90$\%$ که $\lambda < 7$ مهمتر است؟ **ویرایش:** شاید باید اشاره کنم که با استفاده از پارامترهای $\text{Gamma}$ که در بالا مشخص شده است، همان توزیع قبلی (و در نتیجه توزیع پسینی یکسان) با توزیع قبلی $\text{Exponential}$ (مورد خاص) به دست می‌آید. توزیع $\text{Gamma}$)، اما شاید نکته این باشد.
استخراج مقدمات برای اجرای MCMC
59725
من در حال انجام آزمایش ترجیح دما در موش هستم. موش ها در اتاقکی قرار می گیرند که نیمی از محفظه دارای کف سرد و نیمی دیگر دارای کف گرم است. موش ها کل زمان مشخصی را در محفظه می گذرانند (3 دقیقه) و می توانند قسمت سرد یا گرم محفظه را انتخاب کنند. من زمان (بر حسب درصد کل زمان) صرف شده در هر طرف برای هر موضوع (هر موش) را محاسبه می کنم. نتایج به این صورت است: گرم موش% سرد% 1 85% 15% 2 80% 20% 3 87% 13% 4 84% 16% 1. چگونه می توانم فاصله اطمینان را برای میانگین درصد زمان سرد جمعیت از کدام گروه از موش ها انتخاب شد؟ 2. اگر همین آزمایش را با گروه دوم موش هایی که درمان تجربی دریافت کرده اند انجام دهم، از کدام آزمون آماری برای بررسی تفاوت بین دو گروه موش استفاده کنم؟
آزمون های آماری زمانی که هر متغیر در یک نمونه یک درصد باشد
44737
سوال (کاسلا و برگر 6.5): اجازه دهید $X_1 \ldots X_n$ متغیرهای تصادفی مستقل با pdf باشند: $f(x_i|\theta)= \begin{cases} \frac{1}{2i\theta} و -i (\theta - 1)<x_i<i(\theta+1) \\\ 0, & \textrm{در غیر این صورت} \end{cases}$ توجه به نابرابری را می‌توان بازنویسی کرد: $-\theta<\frac{x_i}{i} - 1<\theta$ سپس می‌توانیم از متغیرهای نشانگر برای نوشتن تابع درستنمایی در یک خط استفاده کنیم: $L( \theta|. D )=\Pi_{i=1}^n f(x_i|\theta)= \left[ \left( \frac{1}{2\theta} \right)^n \Pi_{i=1}^n I_{[\frac{\min(x_i)}{i} - 1, \infty)}(x_i)I_{(-\infty, \frac{\ max(x_i)}{i} -1]}(x_i) \right] \left[ \Pi_{i=1}^n \frac{1}{i} \right] $ این عبارت اخیر از شکل مورد نیاز برای قضیه فاکتورسازی: $L(\theta|D)=g(T(D)|\theta)h(D)$ با $h(D)=\Pi_{i=1}^n \ frac{1}{i}$ و $g(T(D)|\theta)$ بقیه آمار کافی است $\left( \frac{\min(x_i)}{i}. \frac{\max(x_i)}{i} \right)$ * * * من حدس می‌زنم که آیا هیچ الزامی برای فراخوانی قضیه فاکتورسازی را از دست داده‌ام. * * * به روز رسانی: $L(\theta| D )=\Pi_{i=1}^n f(x_i|\theta)= \left[ \left( \frac{1}{2\theta} \راست)^ n \راست] \چپ[ \Pi_{i=1}^n \frac{1}{i} I_{[\min(\frac{x_i}{i})، \max(\frac{x_i}{i})]}(\frac{x_i}{i}) \right] $ فکر می‌کنم این اشتباهات در تنظیم متغیر نشانگر را تصحیح می‌کند. همچنین، متوجه شدم که در گروه اشتباهی قرار داشت، باید بخشی از $h(D)$ باشد نه $g(T(D)|\theta)$ زیرا شامل $x_i$ فرد می شود و نه $\theta$ .
آیا این آمار کافی است؟
59094
من مشکلی دارم که فکر می‌کنم برای هرکسی که با واریانس‌های نابرابر مدل‌سازی می‌کند (که متأسفانه نیستم) مشکل بسیار ساده‌ای دارم. من یک متغیر وابسته totrich دارم که می‌خواهم آن را به عنوان تابعی از یک متغیر سال و یک عامل دو سطحی spont مدل کنم. اساساً من فقط به این علاقه دارم که آیا اسپونت یک پیش بینی کننده مهم توتریچ است یا خیر، اما باید سال ها کنترل کنم. مشکل این است که واریانس توتریچ به وضوح با سال ها همبستگی منفی دارد (هرچه بچه ها (سال ها) کوچکتر باشند، رفتار آنها متغیرتر است (توتریچ)). من سعی می‌کنم از «gls()» استفاده کنم، اما نمی‌دانم دقیقاً چگونه مشخص کنم که واریانس توتریچ به سال‌ها بستگی دارد. من این را امتحان کردم: mod2=gls(totrich~years+spont,data=dfm,weight=varPower(form=~years)) summary(mod2) من فکر می کنم این مدلی را ایجاد می کند که می گوید واریانس توتریچ به یک توان مربوط می شود سال‌ها، که به نظر منطقی است، اما راه‌های دیگری برای انجام آن وجود دارد و من مطمئن نیستم که کدام درست است. خیلی ممنون می شوم اگر کسی بتواند من را از بدبختی نجات دهد و به من بگوید که چگونه باید وزنه ها را تنظیم کنم! در اینجا اطلاعات سالهای من totrich spont 4.202739726 7 N 4.18630137 6 Y 4.128767123 6 N 4.150684932 6 N 4.150684932 6 N 3.7175808241 4.24109589 3 Y 4.178082192 3 N 3.997260274 4 Y 4.22739726 3 Y 4.030136986 3 N 4.15890411 2 Y 4.21646438 2 Y 4.21646438. 6.654794521 6 N 6.4 3 Y 7.112328767 2 Y 6.673972603 4 Y 6.712328767 4 Y 6.693150685 5 Y 6.695890520454 6.660273973 3 Y 6.912328767 3 Y 6.687671233 3 Y 6.679452055 3 N 6.542465753 1 Y 6.597260274 3 Y 6.687671233 N 6.542465753 1 Y 6.597260274 3 Y 6.687671234 N 4 N 6.624657534 4 N 6.490410959 4 Y 6.663013699 2 Y 6.643835616 6 N 6.605479452 6 Y 8.161643836 3 Y 8.161643836 3 Y 8578. 8.063013699 3 Y 8.016438356 4 Y 8.054794521 3 N 8.095890411 3 Y 8.095890411 3 N 8.076712329 6 N 8.076712329 6 N 8.095890411 2 Y 8.035616438 4 Y 8.093150685 4 Y
چگونه یک مدل بسازیم که واریانس به متغیر کمکی بستگی دارد؟
48636
من در حال تدریس دروس آمار پایه هستم و آزمون t را برای دو نمونه مستقل با واریانس های نابرابر (تست ولچ) انجام می دهیم. در مثال‌هایی که من دیدم، درجه‌های آزادی تنظیم‌شده‌ای که توسط تست ولش استفاده می‌شود، همیشه کمتر یا مساوی $n_1+n_2-2$ هستند. آیا همیشه اینطور است؟ آیا آزمون ولش همیشه درجات آزادی آزمون t ترکیبی (واریانس های برابر) را کاهش می دهد (یا بدون تغییر باقی می گذارد؟) و در مورد همین موضوع، اگر انحرافات استاندارد نمونه برابر باشد، آیا DFهای تست ولچ به $n_1+n_2-2$ کاهش می یابد؟ من به فرمول نگاه کردم، اما جبر به هم ریخت.
آیا درجات آزادی آزمون ولش همیشه کمتر از DF آزمون تلفیقی است؟
101344
اگر در هسته PCA یک هسته خطی $K(\mathbf{x},\mathbf{y}) = \mathbf x^\top \mathbf y$ را انتخاب کنم، آیا نتیجه با PCA خطی معمولی متفاوت خواهد بود؟ آیا راه حل ها اساساً متفاوت هستند یا یک رابطه خوب تعریف شده وجود دارد؟
آیا هسته PCA با هسته خطی معادل PCA استاندارد است؟
59092
در کتاب آمار پزشکی نوشته کامبل، ماچین و والترز، در بخش بسیار جالب «تله‌های رایج» در صفحه 280 می‌توانید بخوانید که آزمون همبستگی بین مقدار اولیه و تغییر معتبر نیست، زیرا همبستگی منفی ذاتی بین وجود دارد. دو اقدام در عوض آنها پیشنهاد می کنند که باید همبستگی بین میانگین خط پایه و پیگیری را آزمایش کنید و برای تولید یک آزمون معتبر تغییر دهید. من متوجه شدم که این منجر به همبستگی منفی ذاتی نمی شود، چیزی که من دریافت نمی کنم این است که چگونه این تخمین خوبی برای همبستگی بین خط مبنا و تغییر خواهد بود. اگر کسی بتواند این موضوع را برای من توضیح دهد یا به مرجع دیگری اشاره کند، بسیار ممنون می شوم!
آزمون صحیح برای همبستگی بین تغییر و اندازه گیری پایه
11855
من 5 چک لیست با نمرات کامل مختلف دارم. بگویید، من چک لیست A-E را با نمرات کامل مربوط به آنها دارم: A = 24 B = 17 C = 38 D = 41 E = 25 هر آیتم در همه چک لیست ها معادل 1 امتیاز است. من می خواهم یک آیتم را از یک چک لیست با آیتم دیگر در چک لیست های دیگر مقایسه کنم. چگونه می توانم وزن هر آیتم را در تمام چک لیست ها با یکدیگر برابر کنم؟
چگونه وزن هر آیتم را در چند چک لیست برابر کنیم؟
44199
من به دنبال مرزهای دم (هم در $0$ و هم $\infty$) برای $$ هستم Z:=\exp \left(\frac{\alpha}{4}(X-Y)^2+\frac{\alpha} {2}(X+Y)\right)$$ که در آن $\alpha$ یک واقعی مثبت و $X,Y$ هستند _i.i.d._ نرمال با میانگین $0$ و واریانس $\sigma^2 >> 1$. من می‌خواهم احتمال اینکه $Z$ خارج از بازه $[a,b]$ باشد را در حد $a$ کوچک و $b$ بزرگ کنترل کنم. اولین رویکرد من توابع مشخصه بود، من موفق شدم $$ E[\exp(i\omega \log Z)] = \frac{1}{\sqrt{1+i\alpha\sigma^2\omega}} را محاسبه کنم. exp\left(-\frac{1}{4}\alpha^2\sigma^2\omega^2\right)$$ اما نتوانستم تبدیل فوریه معکوس پیدا کنم یا کاری مفید با آن انجام دهم.
مرزهای دنباله روی تابعی از متغیرهای معمولی توزیع شده است
44734
ما مجموعه ای بزرگ (1-2 میلیون) از اسناد حوزه های مختلف (سیاست، طراحی، برنامه نویسی و غیره) داریم. و فرض می کنیم که تعداد دامنه ها را دقیق نمی دانیم. و هدف ما ساخت مدل های موضوعی مرتبط برای این دامنه ها است. به عنوان مثال من می خواهم _N_ موضوع را در هر دامنه پیدا کنم. برای سیاست می تواند: سیاست خارجی، دولت، سیاست اقتصادی و غیره باشد. برای حوزه طراحی: طراحی وب، معماری، و غیره و غیره. اگر به درستی متوجه شده باشم، هنگام استفاده از LDA، لازم است یک مجموعه آموزشی برای دامنه مشخص (مثلاً سیاست) تشکیل شود. اما اگر اطلاعاتی در مورد دامنه وجود نداشته باشد مشکل به وجود می آید. چگونه می توانم یک مجموعه آموزشی در آن صورت تشکیل دهم؟ من در مورد نمایه ساختمان فکر می کردم، اسنادی را استخراج می کردم که حاوی کلمات مهمی هستند (تعریف شده توسط TF-IDF). اما به نظر می رسد که بهترین راه حل نیست. اگر به جای LDA می توانیم از HDP استفاده کنیم و مجموعه آموزشی کامپایل شده با اسناد تصادفی را مدیریت کنیم. اما مشکل دیگری وجود دارد - واژگان عظیمی که ممکن است در حافظه جا نگیرد (برای توصیف چندین دامنه به کلمات بسیار بیشتری نیاز داریم تا یک). بنابراین مشکل این است: بهترین راه برای ساخت مدل‌های موضوعی (یا یک مدل موضوعی؟) از دامنه‌های مختلف (و ناشناخته) چیست؟ و آنها این مدل ها را برای اسناد جدید (دیده نشده) اعمال می کنند.
مدل های موضوع LDA برای دامنه های مختلف و ناشناخته
44731
این سوال نشان می دهد که چگونه می توان یک عبارت تحلیلی برای توزیع شرطی از یک نرمال چند متغیره استخراج کرد. من کنجکاو هستم که این موضوع تا چه حد در زمانی که یک جفت گاوسی وجود دارد، اما حاشیه‌های بالقوه متفاوتی وجود دارد، گسترش می‌یابد. این یک توزیع مشترک $$f\left(X_{1},X_{2}\right)=|C|^{-0.5}exp\left\\{ -\frac{1}{2}\left را پیشنهاد می‌کند [\begin{array}{cc} Z_{1} & Z_{2}\end{array}\right]\left(C^{-1}-I\right)\left[\begin{array}cc } Z_{1} و Z_{2}\end{array}\right]'\right\\} \times\prod_{i=1}^{n_{1}}f_{i}\left(x_{i} \right)\times\prod_{j=1}^{n_{2}}f_{j}\left(x_{j}\right) $$ که $C$ ماتریس همبستگی است، $n_{1}$ و $n_{2}$ تعداد متغیرهای مربوطه $X1$ و $X2$ و عنصر $i^{th}$ از $Z\equiv\left[\begin{آرایه هستند. {cc} Z_{1} & Z_{2}\end{array}\right]$ توسط $z_{i}\equiv\Phi^{-1}\left(u_{i}\right)$ که در آن $u_{i}$ نمره است. همچنین توزیع حاشیه ای $$f\left(X_{2}\right)=|C_{22}|^{-0.5}exp\left\\{ -\frac{1}{2}Z_{2} نیز وجود دارد \left(C_{22}^{-1}-I\right)Z_{2}'\right\\} \times\prod_{j=1}^{n_{2}}f_{j}\left(x_{j}\right)$$ ترکیب کردن با هم توزیع شرطی $$f\left(X_{1}| X_{2}\right) = \frac{f\left(X_{1},X_{2}\right)}{f\left(X_{2}\right)} = \left(\prod_{i=1}^{n_{1}}f_{i}\left(x_{i}\right)\right)\times\left(\frac{|C|}{|C_{ 22}|}\راست)^{-0.5}\times exp\left\\{ -\frac{1}{2}\left(\left[\begin{array}{cc} Z_{1} و Z_{2}\end{آرایه}\right]\left(C^{-1}-I\right)\left[\begin{array}{cc} Z_{1} & Z_{2}\end{آرایه }\right]'-Z_{2}\left(C_{22}^{-1}-I\right)Z_{2}'\right)\right\\} = \left(\prod_{i=1}^{n_{1}}f_{i}\left(x_{i}\right)\right)\left(|C_{11}-C_{12}C_{22 }^{-1}C_{21}|\right)^{-0.5} exp\left\\{ -\frac{1}{2}Q\right\\} $$ که در آن $Q$ عبارت است داخل پرانتز من سعی کردم $Q$ را ساده کنم تا اگر بخواهم حاشیه های گاوسی را فرض کنم، نتیجه با حالت نرمال چند متغیره مطابقت داشته باشد. به نظر نمی رسد که جبر ماتریسی آن را درست کنم. من چیزی مشابه آنچه برای ماتریس کوواریانس شرطی در مورد گاوسی چند متغیره استفاده می‌شود، دریافت می‌کنم، که ممکن است به یک ماتریس همبستگی معتبر نرسد، و سپس چند عبارت اضافی که احتمالاً حاشیه‌ها را تصحیح می‌کنند.
استخراج توزیع شرطی با استفاده از کوپول گاوسی
10104
از آنجایی که همه داده های بالینی و آزمایشگاهی متغیرهای تصادفی پیوسته بزرگتر از صفر هستند (یعنی بالای صفر محدود شده اند)، آیا توزیع نرمال آنها غیرممکن است؟ آیا می توان آنها را فقط به طور معمولی توزیع کرد؟ متشکرم.
آیا توزیع نرمال داده های بالینی و آزمایشگاهی غیرممکن است؟
11859
آیا کسی می تواند تفاوت بین مشکل Multiclass و Multilabel را به من اطلاع دهد.
تفاوت بین Multiclass و Multilabel Problem چیست؟
59096
من می خواهم سه عدد تصادفی تولید کنم و سپس آنها را استاندارد کنم تا مجموع آنها به 1 برسد. من می خواهم این روش را تکرار کنم تا در دراز مدت حالت 0.33 برای هر عدد باشد.
سه عدد تصادفی ایجاد کنید که مجموع آنها 1 در R باشد
1667
من به عنوان یک مهندس به موضوعاتی مانند طراحی آزمایش هایی که از نظر آماری معتبر هستند، کنترل کیفیت، کنترل فرآیند، قابلیت اطمینان و کنترل هزینه علاقه مند هستم. من یک دوره آمار مهندسی گذراندم، اما متاسفانه نه کتاب و نه استاد آنقدر خوب نبودند. من در دوره OK را انجام دادم، اما علاقه مندم در مورد این مباحث و نحوه اعمال آنها در مسائل مهندسی بیشتر بیاموزم. من یک کتاب کلی را ترجیح می دهم که تا حد امکان بسیاری از این موضوعات را پوشش دهد - به عمق زیادی نیاز نیست. من فکر می کنم که می توانم با بررسی نحوه استفاده همه رشته های مهندسی از آمار چیزهای زیادی در مورد بهبود توانایی های خود بیاموزم، بنابراین به دنبال رشته مهندسی خاصی نیستم. آیا انجمن تجزیه و تحلیل آماری می تواند کتاب هایی را توصیه کند که بتوانم از آنها برای کسب اطلاعات بیشتر در مورد کاربرد آمار در مسائل مهندسی استفاده کنم؟
چه کتاب هایی یک نمای کلی از آمار مهندسی ارائه می دهند؟
114351
من مجموعه های متعددی از داده ها را دارم که با توزیع های پواسون بیش از حد پراکنده مطابقت دارند که می توانم آنها را با پارامترسازی جایگزین یک توزیع دوجمله ای منفی ($\mu$ و $D$ به جای $p$ و $r$) مدل کنم. من علاقه مند به تولید اعداد شبه تصادفی از این توزیع ها هستم اما نمی توانم ICDF را برای انجام این کار پیدا کنم. من همچنین سعی کردم ببینم «R» چگونه این کار را انجام داده است، اما به اندازه کافی در «Cpp» مدفون است که گم شوم (نه یک برنامه نویس «C++»). چگونه می توانم یک عدد یکنواخت شبه تصادفی را به یک عدد دوجمله ای منفی شبه تصادفی با پارامترهای $\mu$=mean و $D$=dispersion تبدیل کنم؟ **توضیحات و تشکر** ممنون از پاسخ و نظراتی که مرا به rnbinom در R اشاره کرد. که در ترکیب با fitdistr از بسته MASS دقیقاً همان کاری را که من می خواهم انجام می دهد. **با این حال** علاقه من به تولید این اعداد تصادفی در SQL Server بدون استفاده از زبان دات نت است. همانطور که گفته شد، من کد stata را جالب دیدم، اما برای $p$ و $r$ پارامتر شده است و شاید من خیلی متراکم هستم، اما مطمئن نیستم که چگونه $\mu$ و $D$ خود را به عقب تبدیل کنم. به $p$ و $r$. تمام آنچه گفته شد، من یک مقاله JSTOR پیدا کردم که در مورد توزیع های دوجمله ای منفی با برنامه خاص به عنوان یک پواسون بیش از حد پراکنده است. ببینم آیا می توانم یک CDF از آنجا بسازم یا نه.
اعداد پواسون پراکنده شبه تصادفی ایجاد کنید
11850
من واقعاً در یافتن نحوه مقایسه مدل های ARIMA و رگرسیون با مشکل مواجه هستم. من می‌دانم که چگونه مدل‌های ARIMA را در مقابل یکدیگر ارزیابی کنم، و انواع مختلف مدل‌های رگرسیون (به عنوان مثال: رگرسیون در مقابل رگرسیون پویا با خطاهای AR) در برابر یکدیگر، با این حال نمی‌توانم اشتراکات زیادی بین مدل ARIMA و معیارهای ارزیابی مدل رگرسیونی ببینم. تنها دو معیاری که آنها به اشتراک می گذارند SBC و AIC است. خروجی ARIMA نه یک رقم ریشه MSE یا یک آمار r^2 تولید می کند. من خیلی مطمئن نیستم که آیا برآورد خطای استاندارد یک مدل ARIMA مستقیماً معادل (یا قابل مقایسه) با هر چیزی در خروجی های رگرسیون است یا خیر. اگر کسی بتواند من را در جهت درست راهنمایی کند، عالی خواهد بود، زیرا من در اینجا واقعاً گیج شده ام. احساس می کنم دارم سعی می کنم سیب را با پرتقال مقایسه کنم. به هر حال من از SAS در انجام این تحلیل استفاده می کنم.
مقایسه مدل بین یک مدل ARIMA و یک مدل رگرسیونی
109451
اجازه دهید $X$ به طور یکنواخت در $(0,1)$ توزیع شود و $U=\max \\{X, 1-X\\}$ را تنظیم کنید. چگونه می توانم توزیع $U$ را پیدا کنم؟ اولین فکر من این بود که این مسئله را یک مشکل توزیع مخلوط در نظر بگیرم و از تکنیک CDF به صورت زیر استفاده کنم: $$F_U (u)= P\left( U \leq u \right)=P\left(U \leq u, U=X \right) +P\left(U \leq u, U=1-X \right)$$ و سپس مطابق آن ادامه دهید. به نظر می رسد که این رویکرد نادرست است، اما من کاملاً نمی دانم چرا. بنابراین اگر کسی بتواند ابتدا به شکاف قیاسی من در بالا اشاره کند و سپس راه مناسبی برای مقابله با این نوع مشکلات ارائه دهد، سپاسگزار خواهم بود. متشکرم.
اگر $X \sim$ unif$(0,1)$، توزیع $U=\max \{X,1-X \}$ ​​چگونه است؟
84232
من به تأثیر دو عامل مختلف، $x_1$ و $x_2$، بر روی یک پاسخ $y$ علاقه مند هستم. با این حال، اگرچه من به هر دو علاقه دارم، اما بیشتر به تأثیر $x_1$ روی $y$ علاقه مند هستم تا به تأثیر $x_2$ روی $y$. (من مایلم فرض کنم که $x_1$ و $x_2$ دارای اثرات مستقل هستند، که اثرات خطی هستند، و هیچ تعاملی بین $x_1$ و $x_2$ وجود ندارد. همچنین انتظار دارم هر دو $x_1$ و $x_2$ بر اساس شواهد دیگر، اثری معادل $y$ داشته باشد.) بگویید من می توانم چهار مشاهدات را انجام دهم. من دو سناریو را در نظر دارم، $A$ و $B$. من سعی می کنم بفهمم در چه شرایطی هر سناریو ترجیح داده می شود. در سناریوی $A$، من یک آزمایش دو مرحله ای و دو سطحی را بدون تکرار اجرا می کنم. من فرض می‌کنم که $x_1$ و $x_2$ با هم تعامل ندارند، و ضرایب $\beta_1$ و $\beta_2$ را برای مدل تخمین می‌زنم: $y(x_1, x_2) = const + \beta_1x_1 + \beta_2x_2 + \epsilon$ که در آن $\epsilon$ یک عبارت خطا است. در سناریوی $B$، من یک آزمایش یک مرحله‌ای و دو سطحی را با دو تکرار اجرا می‌کنم (بنابراین هنوز چهار مشاهده در کل) و فقط $\beta_1$ را تخمین می‌زنم: $y(x_1) = const + \beta_1x_1 + \epsilon$ بدیهی است ، مزیت سناریوی $A$ این است که می توانم $\beta_1$ و $\beta_2$ را تخمین بزنم. اما من نمی توانم آن تخمین $\beta_2$ را به صورت رایگان دریافت کنم، می توانم؟ سوال من این است که سناریوی $A$ با توجه به سناریوی $B$ از چه چیزی صرف نظر می کند تا بتواند به جای یک ضریب، دو ضریب را تخمین بزند. (در این مورد خاص، من مایلم تخمینی بهتر از $\beta_1$ را با برآورد $\beta_2$ معامله کنم.) اولین فکر من این بود که تخمین $\beta_1$ در سناریوی $B$ باید بیشتر باشد. دقیق، زیرا سناریوی $B$ دارای درجات آزادی بیشتری برای خطاها است. با این حال، اگر فرض کنم $x_1$ و $x_2$ واقعا مستقل هستند، و $\epsilon$ توزیع یکسانی در تمام سطوح عامل دارد، فکر می‌کنم می‌توانم ببینم چرا تخمین سناریوی $A$ $\beta_1 است. $ می تواند به اندازه سناریوی $B$ خوب باشد، حتی اگر من به اندازه کافی برای اثبات آن نمی دانم. از این گذشته، در هر دو سناریو، دو مشاهده برای کم $x_1$ و دو مشاهده برای بالا $x_1$ وجود دارد. همچنین، اگر من کمی شبیه‌سازی صفحه‌گسترده انجام دهم و هر دو سناریو را امتحان کنم، هیستوگرام بسیار مشابهی از نتایج تخمینی برای $\beta_1$ دریافت می‌کنم. اگر من با استفاده از $0$ و $1$ برای مقادیر بالا و پایین x$s، $1$ برای $\beta$s شبیه سازی کنم و اجازه بدهم عبارت خطا $\ باشد، تصویر زیر نمونه ای از چیزی است که به دست می آید. epsilon \sim \mathcal N(0, 1)$: ![مقایسه هیستوگرام](http://i.stack.imgur.com/W5BMo.jpg) بنابراین، (1) آیا این درست است که هر دو سناریو آیا $\beta_1$ را با همان دقت تخمین می زند؟ (2) اگر چنین است، سناریوی $B$ از داشتن دو تکرار برای هر سطح $x_1$ چیست؟ شاید به فرضیات کمتری نیاز باشد، مثلاً در مورد یکنواختی خطاها در تمام سطوح عامل؟ (اکنون می توان آن را آزمایش کرد و نه فقط فرض کرد.)
معاوضه بین طرح تکرار نشده دو عاملی و طرح تک عاملی با دو تکرار چیست؟
84230
من سعی می کنم یک فصل از پایان نامه خود را به یک مجله ارسال کنم. ما از آنالیز واریانس تودرتو استفاده کردیم که در آن مقایسه‌های گروهی را در طول سال به صورت تودرتو در نظر گرفتیم تا سوگیری احتمالی را به دلیل ناظران مختلف بین دو سال در نظر بگیریم. تفاوت‌های شدیدی بین سال‌ها وجود داشت، اگرچه جالب نیست. مشاور من می‌گوید همه یافته‌های مهم مربوط به سال را خارج از مقاله بگذارید، زیرا به «داستان» کلی ما مرتبط نیست. موافقم که ربطی ندارد، اما می‌خواستم ببینم در این مورد اجماع چیست. من اغلب می‌دانم که تحلیل‌هایی که اجرا می‌شوند از مقالات خارج می‌شوند، اما بخشی از نتایج یک مدل ANOVA ساده است؟ آیا این را مدیون خوانندگان هستم که شواهدی مبنی بر تعصب ناظر را روشن کنند یا می توانم آن را کنار بگذارم زیرا برای پیام مقاله مهم نیست.
عدم گزارش نتایج قابل توجه از مدلی که من نتایج دیگری را از آن گزارش می کنم
84237
![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/5TGJu.png) برای نموداری مانند این، چه روشی هوشمندانه برای تشخیص دادن نوارهای خطا بدون استفاده از کدگذاری رنگ وجود دارد؟
چگونه با نمودارهای همپوشانی نوارهای خطا بدون رنگ برخورد کنیم؟
84235
سوال زیر در آمارهای قوی مطرح می شود. دو فرمول در زیر نشان داده شده است که من نمی دانم چگونه آنها را استخراج کنم. با این حال، برای روشن شدن زمینه، اجازه دهید با ساده ترین مورد شروع کنیم. می‌توان با جایگزین کردن $y_n$ با $z$، تأثیر یک عدد پرت را بر روی تخمین‌گر $T_n(\mathbf y)$ بررسی کرد و سپس دید با نزدیک شدن $z$ به بی‌نهایت، چه اتفاقی برای $T_n(z)$ خواهد افتاد. . به عنوان مثال، مشاهدات نمایی مستقل $\mathbf y=(y_1، \cdots، y_n)$ را با تابع چگالی $f(y, \theta)=\theta e^{-\theta y}، y>0، \ در نظر بگیرید. تتا> 0 دلار. سپس طبق رویه استاندارد، برآورد حداکثر درستنمایی تحت این مدل $$\widehat\theta(z)=\frac{1}{n^{-1}(z+\sum_{i=1}^{n-1 است. } y_i)};$$ و یک فاصله اطمینان تقریبی 100$(1-\alpha)\%$ برای $\theta$ است $$\left[\widehat{\theta}(z)\mp \Phi^{-1}\left(1-\frac{\alpha}{2}\right)\frac{\widehat{\theta}( z)}{\sqrt{n}}\right].$$ سوالات من از این به بعد شروع می شود. به جای یافتن خطای استاندارد MLE برای esitmator $\widehat{\theta}(z)$، می‌توان خطاهای استاندارد $\textbf{non- parametric}$ $\frac{\left[\widehat{\theta را نیز پیدا کرد. }(z)\right]^2\widehat{\sigma}(z)}{\sqrt{n}}$. یعنی یکی اکنون فاصله اطمینان زیر را برای $\widehat\theta(z)$ $$\left[\widehat{\theta}(z)\mp دارد \Phi^{-1}\left(1-\frac{\alpha}{2}\right)\frac{\left[\widehat{\theta}(z)\right]^2\widehat{\sigma} (z)}{\sqrt{n}}\right].$$ > $\textbf{سؤال 1:}$ من قبلاً در معرض آمارهای غیر پارامتریک > نبوده‌ام. لطفاً کسی می تواند به من بگوید که چگونه خطای غیر پارامتری > استاندارد ذکر شده در بالا را استخراج کنم؟ متشکرم اکنون برای داشتن یک برآوردگر قوی‌تر، می‌توان به جای میانگین از میانه (med) استفاده کرد تا فاصله اطمینان زیر را برای $\theta$ $$\left[\frac{\log 2}{\mathrm{med}(\mathbf y)}\mp\Phi^{-1}\left(1-\frac{\alpha}{2}\right)\frac{1}{\mathrm{med}{\mathbf(y)}\sqrt{ n}}\right].$$ > $\textbf{سؤال 2:}$ من نمی‌دانم فاصله اطمینان بالا چگونه > مشتق شده است، مخصوصاً خطای استاندارد. به نظر می رسد برآورد با استفاده از روش لحظه به دست آمده است. تا آنجا که من می دانم، یکی از اشکالات برآوردهای MOM > عدم برآورد واریانس آن است. لطفاً کسی می تواند به من بگوید اینجا چه خبر است؟ متشکرم
اثر نقاط پرت
44195
فرض کنید من یک تابع درجه دوم دارم: $$ f(x) = a^T x + x^TBx $$ با $x \in \mathbb{R}^n$. با توجه به یک نقطه $x$ می‌توانم $f(x)$ را تا مقداری نویز اندازه‌گیری کنم، یعنی می‌توانم اندازه‌گیری کنم: $$ \hat{f}(x) = f(x) + z \; \; با \;\; z \sim N(0,\sigma^2). $$ اکنون یک نقطه $x_0$ و یک توپ $n$-بعدی $S^n$ با شعاع $\epsilon$ در مرکز آن داده می شود ($S^n = \\{x: ||x-x_0|| \ leq \epsilon \\}$)، آیا یک راه بهینه (به نوعی) برای انتخاب نقاط از $S^n$ به منظور تخمین پارامترهای $a$ و $B$ وجود دارد؟ تا کنون من فقط نقاط $S^n$ را به صورت تصادفی نمونه برداری کرده ام، اما شاید راهی برای بهره برداری از این واقعیت وجود داشته باشد که $f(x)$ درجه دوم است. همچنین I sphere را انتخاب کرده‌ام، اما می‌توانم از یک هایپرمکعب استفاده کنم، مهم این است که باید تابع را در اطراف یک نقطه $x_0$ (که داده شده است) بدون رفتن به آن ارزیابی کنم.
نمونه گیری بهینه برای تخمین تابع درجه دوم
114353
کد R برای فرمول زیر چیست؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/4wIOW.jpg)
نحوه نوشتن تابع روند SLOBODA در R
78889
آیا پیشنهاد کلی وجود دارد که چه زمانی باید از بیزی استفاده کرد و چه زمانی رویکردهای استنتاج دیگری وجود دارد؟! به عنوان مثال در مورد CRF ها، چه زمانی از ML [1] و چه زمانی از رویکرد بیزی [2] استفاده شود؟ [1] http://repository.upenn.edu/cis_papers/159/ [2] https://www.cs.purdue.edu/homes/alanqi/papers/Qi-Szummer-Minka-BCRF- JMLR.pdf
چه زمانی از یادگیری پارامتر بیزی استفاده کنیم، چه زمانی دیگران؟
1660
من باید بدون استفاده از اصطلاحات آماری شدید تعریف کنم که آزمون استقلال چیست.
امتحان استقلال چیست
5414
برخی از مشکلات اصلی استفاده از مدل‌های خطی اثرات مختلط چیست؟ مهمترین چیزهایی که باید در ارزیابی مناسب بودن مدل خود مورد آزمایش قرار دهید یا مراقب باشید؟ هنگام مقایسه مدل‌های یک مجموعه داده، مهم‌ترین چیزهایی که باید به دنبال آن باشید چیست؟
مشکلات مدل های مختلط خطی
1668
من به عنوان یک مهندس نرم افزار به موضوعاتی مانند الگوریتم های آماری، داده کاوی، یادگیری ماشینی، شبکه های بیزی، الگوریتم های طبقه بندی، شبکه های عصبی، زنجیره های مارکوف، روش های مونت کارلو و تولید اعداد تصادفی علاقه مند هستم. من شخصاً لذت کار با هیچ یک از این تکنیک‌ها را نداشته‌ام، اما مجبور شدم با نرم‌افزارهایی کار کنم که در زیر کلاه آن‌ها را به کار می‌گیرند و می‌خواهم در مورد آنها بیشتر بدانم، در سطح بالایی. من به دنبال کتاب هایی هستم که وسعت زیادی را پوشش دهند - در این مرحله نیازی به عمق زیاد نیست. فکر می‌کنم اگر بتوانم مبانی ریاضی پشت الگوریتم‌ها و تکنیک‌های به‌کار رفته را درک کنم، می‌توانم در مورد توسعه نرم‌افزار چیزهای زیادی یاد بگیرم. آیا جامعه تحلیل آماری می‌تواند کتاب‌هایی را توصیه کند که بتوانم از آنها برای کسب اطلاعات بیشتر در مورد پیاده‌سازی عناصر مختلف آماری در نرم‌افزار استفاده کنم؟
چه کتاب هایی یک نمای کلی از آمار محاسباتی در مورد علوم کامپیوتر ارائه می دهند؟
109306
آیا کسی می تواند مراحل زیر را نشان دهد که چگونه تمایز آنتروپی شانون به نتیجه زیر می رسد؟ $H = -\sum_{l=0}^{L-1} p(l)\log_2[p(l)]$ نتیجه تمایز $H_m = -\sum_{l=0}^{L- 1} \frac{1}{L}\log_2[\frac{1}{L}]$ = $log_2 L $
تمایز آنتروپی شانون
44194
من تعریف زیر را پیدا کردم: توزیع احتمالی $\pi = \\{\pi_x\\}_{x \in S}$ در فضای حالت $S$ یک توزیع ثابت برای زنجیره مارکوف نامیده می شود اگر برای هر $ t > 0$, $$ \pi^T P_t = \pi^T $$ معنی $P_t$ چیست برای زنجیره های مارکوف زمان گسسته و پیوسته نیست، درست است، آیا این ماتریس انتقال در زمان t است؟
تعریف توزیع ثابت در زنجیره مارکوف زمان پیوسته
109302
برای یک بردار ویژگی n بعدی، چگونه تصمیم بگیریم که آیا کلاس ها به صورت خطی قابل تفکیک هستند؟ آیا این برای مشکلات بیش از 2 کلاس صدق می کند؟ بگو برای 3 کلاس، چگونه تصمیم می گیرد؟ متشکرم.
سوال مبتدی در مورد تفکیک پذیری خطی طبقات
94873
متوجه شدم، اعتبارسنجی متقاطع کار می کند. من متعجبم که آیا ادبیاتی وجود دارد که توجیه نظری برای اعتبار سنجی متقاطع ارائه دهد. فکر من این است که حداقل چیزی شبیه قضیه حد مرکزی وجود داشته باشد. هر گونه اشاره به ادبیات، یا نظر بسیار استقبال می شود. با تشکر
توجیه نظری برای اعتبارسنجی متقاطع
44192
من می خواهم یک مدل فیزیکی را با استفاده از آزمون کولموگروف اسمیرنوف بین داده های تجربی و داده های تولید شده بهینه کنم. خروجی «ks.text(x,y)» فاصله «D» و «p-value» را به من می دهد. کدام رابطه بین آنهاست و کدام یک برای وظیفه من مناسب است؟ یعنی باید مدلی را انتخاب کنم که فاصله کمتری به من بدهد یا مقدار p کوچکتر؟
آزمون کولموگروف-اسمیرنوف در R
59721
من کاملاً مطمئن نیستم که تفاوت بین خروجی ها و نتایج «disstreedisplay» و «seqtreedisplay» چیست. شاید بتوانید تفاوت ها را برای من توضیح دهید؟ راهنمای کاربران TraMineR و مقاله کاری مفصل در مورد کتابخانه WeightedCluster توضیح چندانی در مورد آن نمی دهد. نمونه R اسکریپت من در اینجا آمده است: library(TraMineR) library(WeightedCluster) data(mvad) mvad.alphabet <- c(اشتغال، FE، HE، بیکاری، مدرسه، آموزش) mvad.labels <- c(اشتغال، آموزش تکمیلی، آموزش عالی، بیکاری، مدرسه، Training) mvad.scodes <- c(EM، FE، HE، JL، SC، TR) mvadseq <- seqdef(mvad[, 17:86], alphabet = mvad.alphabet، states = mvad.scodes، labels = mvad.labels، وزن = mvad$weight، xtstep = 6) mvad.ham <- seqdist(mvadseq, method=HAM) seqtree <- seqtree(mvadseq ~ gcse5eq + Grammar + funemp, data=mvad, diss=mvad.ham, weight.permutation=diss) seqtreedisplay(seqtree, type=d, border=NA) disstree <- disstree(mvaddist ~ gcse5eq + گرامر + funemp، داده = mvad، R = 10) disstreedisplay(disstree، imagefunc=seqdplot، imagedata=mvadseq، border=NA، withlegend=FALSE، axes=FALSE، ylab=) باید GraphViz را نصب کرده باشید نمودارها را ببینید
چگونه نتایج TraMineRs از disstreedisplay و seqtreedsplay را تفسیر کنیم؟
114355
من در حال طراحی یک کارآزمایی تصادفی پیش‌آزمون-پس‌آزمون هستم که سعی می‌کنم برای آن یک محاسبه حجم نمونه انجام دهم. مغز من از سردرگمی منفجر می شود، بنابراین امیدوارم کسی بتواند به من کمک کند. فقط یک خلاصه کوچک از آنچه محاکمه به نظر می رسد. ما 2 مداخله داریم که در 3 بازو ارائه خواهد شد: مداخله 1 فقط، مداخله 1+2، مداخله 2 فقط. نتیجه کارآزمایی تفاوت در مرحله تغییر است که یک نتیجه 5 دسته ای است که نشان دهنده آمادگی برای تغییر است. هر شرکت کننده در ابتدا در یک مرحله و در پایان آزمایش در همان مرحله خواهد بود. تعداد مرحله بالاتر بهتر است. با این حال ، تفاوت بین مرحله 1 و مرحله 2 نمی تواند برابر با تفاوت بین مرحله 3 و 4 در نظر گرفته شود. من هنوز مطمئن نیستم که چگونه نتیجه ارائه می شود ، اما فکر می کنم اینگونه به نظر برسد. من هر یک از شرکت کنندگان را به عنوان بهبود (به عنوان مثال از مرحله 2 تا 4) طبقه بندی می کنم ، هیچ تاثیری (به عنوان مثال باقی مانده در مرحله 3) یا کاهش (به عنوان مثال حرکت از مرحله 4 به 1). گزینه دیگر ارائه توزیع در 5 مرحله (نسبت ها) است. حالا کم و بیش اینجا گم می شوم. من باید یک محاسبه اندازه نمونه انجام دهم و فقط نمی دانم چگونه این کار را انجام دهم. من مقالات قبلی را در مورد توزیع در مراحل قبل و پست و همچنین در مورد تعداد/نسبت شرکت کنندگان در هر یک از سه دسته همانطور که در بالا توضیح دادم (افزایش ، بدون تأثیر ، کاهش) قبل و پست پیدا کرده ام. از چه نوع محاسبه حجم نمونه استفاده کنم؟ و مرتبط، از چه روش های آماری می توان (باید) برای تجزیه و تحلیل داده ها استفاده کرد؟
تحلیل توان برای طراحی اندازه گیری های مکرر با پاسخ ترتیبی
84234
من در مورد تابع تلفات مختلف برای برآوردگرهای ناپارامتریک (تراکم) فکر می کنم. اغلب گفته می‌شود که ضرر L^2$ نسبت به موارد پرت حساس است و کار خوبی برای نمایش توزیع دنباله انجام نمی‌دهد. استفاده از $L^1$ بسیاری از این مشکلات را حل می کند، اما از نظر محاسباتی کار با آن دشوارتر است. من به سختی می‌توانم فاصله هلینگر را به‌عنوان تابعی از دست دادن در پرسپکتیو قرار دهم و آن را با این معیارهای رایج‌تر مقایسه کنم. واضح است که این مزیت نسبت به $L^2$ از دست دادن همیشه موجود برای یک تابع چگالی دارد، اما من مطمئن نیستم که رفتار آن در رابطه با نقاط پرت و احتمالات دنباله چگونه است. آیا کسی بینش یا مرجعی برای این موضوع دارد؟ با تشکر
ویژگی های فاصله هلینگر به عنوان یک تابع از دست دادن
5418
من قصد دارم شروع به نوشتن بسته های R کنم. به نظرم خوب است که سورس کد بسته های موجود را مطالعه کنم تا قوانین ساخت پکیج را یاد بگیرم. معیارهای من برای پکیج های خوب برای مطالعه: * **ایده های آماری/فنی ساده**: نکته این است که در مورد مکانیک ساخت پکیج یاد بگیرید. درک پکیج نباید نیاز به اطلاعات دقیق و بسیار خاص در مورد موضوع واقعی بسته داشته باشد. * **سبک کدنویسی ساده و مرسوم**: من به دنبال چیزی بیشتر از Hello World هستم، اما نه خیلی بیشتر. ترفندها و هک‌های خاص در اولین یادگیری بسته‌های R باعث حواس‌پرتی می‌شوند. * **سبک کدنویسی خوب**: کد به خوبی نوشته شده است. به طور کلی درک درستی از کدنویسی خوب و آگاهی از قراردادهای کدنویسی در R را نشان می دهد. **سوالات:** * مطالعه کدام بسته ها خوب است؟ * چرا کد منبع بسته پیشنهادی برای مطالعه نسبت به معیارهای ذکر شده در بالا یا هر معیار دیگری که ممکن است مرتبط باشد خوب است؟ **به روز رسانی (13/12/2010)** به دنبال نظرات دیرک می خواستم روشن کنم که بدون شک بسیاری از بسته ها برای مطالعه اول خوب هستند. همچنین موافقم که بسته‌ها مدل‌هایی را برای چیزهای مختلف ارائه می‌کنند (مانند عکس‌ها، کلاس‌های S3، کلاس‌های S4، تست واحد، Roxygen و غیره). با این وجود، خواندن پیشنهادهای ملموس در مورد بسته های خوب برای شروع و دلایلی که چرا آنها بسته های خوبی برای شروع هستند، جالب خواهد بود. من همچنین سوال بالا را برای اشاره به بسته ها به جای بسته به روز کرده ام.
اولین بسته R کد منبع را برای مطالعه آماده می کند تا برای نوشتن بسته خود مطالعه کند
1661
X1 طول بال، X2 طول دم برای 45 حشره نر و 45 حشره ماده است. از کدام آزمون t تک متغیره 2 نمونه ای استفاده کنم؟ فکر من این بود که از T-square هتلینگ استفاده کنم؟ اما هتلینگ چند متغیره است نه تک متغیره. حالا، مطمئن نیستم... ایده ای دارید؟
از کدام آزمون t تک متغیره 2 نمونه ای استفاده کنیم؟
114350
به لطف Rijmen و همکاران (2003)، می‌توانیم GRM را با «lme4::glmer» به داده‌ها تطبیق دهیم. من فکر می‌کنم مدل Rasch ساده است، با «data.frame» با ستون‌هایی مانند این مورد شخص پاسخگو 0 1 1 0 1 2 1 1 3 ... 1 2 1 0 2 2 می‌توانیم مدل راش را مانند این glmer (پاسخ ~ - کنیم) 1 + آیتم + (1|نفر), داده= , خانواده = دوجمله ای) اما GRM چطور؟ داده ها مانند این مورد فرد پاسخ دهنده 2 1 1 4 1 2 3 1 3 ... 1 2 1 4 2 2 ... برای مقیاس لیکرت (1 تا 5) خواهد بود. من فکر کردم که داده‌ها را مانند این دسته مورد شخص پاسخگو تبدیل کنم 1 1 1 2 0 1 1 3 1 1 2 4 0 1 2 5 زیرا برای person1، item1، پاسخ 2 است، به این معنی که برای پاسخ 2، این بله و برای پاسخ 3، خیر. مدل پاسخ ~ آیتم:دسته + (1|نفر) خواهد بود اما من کاملاً مطمئن نیستم که این روش درستی برای انجام این کار باشد... _نکته_: طبق گفته De Boeck و همکاران، متغیرهای شخص، آیتم، دسته همه عوامل هستند. (2011)، GRM را نمی توان با lmer تطبیق داد که در مقایسه با Rijmen و همکاران (2003) است. === اضافه شد اکنون فکر می کنم مطمئن هستم که حداقل برای GRM بدون پارامتر شیب کار می کند. داده ها باید به این صورت کدگذاری شوند. پاسخ شخص پاسخ دسته 1 1 1 1 1 1 1 2 0 1 1 3 0 1 1 4 0 1 1 5 برای رده 1-5 (ترتیب) پاسخ. مزیت اصلی استفاده از GLMM برای مدل IRT این است که می توانید متغیرهای کمکی دیگری (شخص، آیتم، شخص-آیتم) را در مدل قرار دهید. و برای GRM ، می توانید تفاوت بین پاسخ ترتیب را تنظیم کنید ، همان است که نمی توان با عملکرد GRM معمولی ، به عنوان مثال ، LTM :: GRM انجام داد. (اوه، من می بینم که ordinal::clmm می تواند این کار را انجام دهد، اما من شک دارم که بتواند برای مدلی مانند این مفید باشد) پاسخ ~ آیتم + (1 + دسته|نفر) یا این پاسخ ~ آیتم + (-1 + دسته | آیتم) ) + (1|نفر) در این مورد، دسته یک عدد صحیح است و بهتر است به صورت -2، -1، 0، 1، 2 کدگذاری شود. **منابع** Rijmen, F., Tuerlinckx, F., De Boeck, P., & Kuppens, P. (2003). یک چارچوب مدل ترکیبی غیرخطی برای نظریه پاسخ آیتم. روش‌های روان‌شناختی، 8(2)، 185. De Boeck, P., Bakker, M., Zwitser, R., Nivard, M., Hofman, A., Tuerlinckx, F., & Partchev, I. (2011). برآورد مدل های پاسخ آیتم با تابع lmer از بسته lme4 در R. Journal of Statistical Software, 39(12)، 1-28.
نحوه تطبیق مدل پاسخ درجه بندی شده با lme4::glmer
111654
من روی یک مورد طبقه‌بندی دودویی کار می‌کنم و عملکرد طبقه‌بندی‌کننده‌های مختلف را مقایسه می‌کنم. آزمایش عملکرد الگوریتم «adaboost» (با درخت تصمیم به عنوان طبقه‌بندی‌کننده پایه آن) در برابر «SVM» روی مجموعه‌های داده چندگانه، متوجه شدم که الگوریتم «تقویت» انجام می‌دهد. بهتر سوال من این است که چرا این اتفاق می افتد؟ آیا این به این دلیل است که «تقویت» همیشه بهتر از «SVM» است؟ یا ربطی به ویژگی های مجموعه داده من دارد؟ نمی‌دانم آیا کسی می‌تواند با برخی توضیحات بالقوه چنین یافته‌ای به من کمک کند.
تقویت تطبیقی ​​در مقابل SVM
111650
من سعی می کنم از SVM خطی برای انتخاب برخی ویژگی ها استفاده کنم. من از libsvm استفاده می کنم، اما نمی توانم بفهمم که چگونه وزن ویژگی ها را پیدا کنم. فایل مدل ایجاد شده چیزی شبیه به این است: svm_type c_svc kernel_type خطی nr_class 2 total_sv 4006 rho 1.81693 label 1 -1 nr_sv 2004 2002 SV 1 1:0 2:0 3:0 7:06:0 :0 9:0 10:0 11:0 12:0 13:0 14:0 15:0 16:0 17:0 18:0 19:0 20:0 21:0 22:0 23:0 24:0 25:0 26: 0 27:0 28:147.66667 29:0 30:0 31:0 32:0 33:0 34:0 35:0 36:0 37:0 38:0 39:0 40:0 41:0 42:0 43:0 44:0 45:0 46:0 47:0 48: 0 49:0 50:96.666667 51:0 52:0 53:0 54:0 55:0 56:0 57:0 58:0 59:0 60:0 61:0 62:0 63:0 64:0 65:0 66:0 67:0 68:0 69:0 70: 0 71:0 72:0 73:0 74:0 75:0 76:0 77:0 78:0 79:0 80:0 81:0 82:0 83:0 84:0 85:0 86:0 87:0 88:0 89:0 90:0 91:0 92:0 93: 0 94:0 95:0 96:0 97:0 98:0 99:0 100:0 101:0 102:0 103:0 104:0 105:0 106:0 107:0 108:0 109:0 110:0 111:0 112:0 113:0 114:0 116:0 115:0 0 117:0 118:0 119:0 120:0 121:0 122:0 123:0 124:0 125:0 126:0 127:0 128:0 129:0 130:0 131:0 132:0 133:0 135:0 135:0 0 136:0 137:0 138:0 139:0 140:0 141:0 142:0 143:0 144:0 145:0 146:0 147:0 148:0 149:0 150:0 151:0 152:0 154:0 153:0 0 155:0 156:0 157:0 158:7.5333333 159:0 160:0 161:0 1 1:0 2:0 3:0 4:0 5:0 6:0 7:0 8:0 9:0 10:0 11:0 12 :0 13:0 14:0 15:0 16:0 17:0 18:0 19:0 20:0 21:0 22:0 23:0 24:0 25:0 26:0 27:0 28:145 29:0 30:0 31:0 32:0 33:0 34: 0 35:0 36:0 37:0 38:0 39:0 40:0 41:0 42:0 43:0 44:0 45:0 46:0 47:0 48:0 49:0 50:95.5 51:0 52:0 53:0 54:0 55:0 56:0 57: 0 58:0 59:0 60:0 61:0 62:0 63:0 64:0 65:0 66:0 67:0 68:0 69:0 70:0 71:0 72:0 73:0 74:0 75:0 76:0 77:0 78:0 79:0 80: 0 81:0 82:0 83:0 84:0 85:0 86:0 87:0 88:0 89:0 90:0 91:0 92:0 93:0 94:0 95:0 96:0 97:0 98:0 99:0 100:0 101:0 102:0 103: 0 104:0 105:0 106:0 107:0 108:0 109:0 110:0 111:0 112:0 113:0 114:0 115:0 116:0 117:0 118:0 119:0 120:0 121:0 122:0 124:0 124:0 0 125:0 126:0 127:0 128:0 129:0 130:0 131:0 132:0 133:0 134:0 135:0 136:0 137:0 138:0 139:0 140:0 141:0 142:0 0 144:0 145:0 146:0 147:0 148:0 149:0 150:0 151:0 152:0 153:0 154:0 155:0 156:0 157:0 158:2.5 159:0 150:0 و 161: چیزهای بیشتری مانند 2 خط آخر است. دستورات با استفاده از رابط اصلی libsvm یا رابط پایتون بسیار قدردانی می شود، و همچنین هر توضیحی در مورد این فایل مدل.
وزن ویژگی SVM خطی را با استفاده از libsvm بیابید
28035
به یاد دارم که به من آموختند که همبستگی یک آزمون **ارتباط** است و رگرسیون آزمون **رابطه** است. به‌علاوه، یادم می‌آید که یاد گرفتم که تداعی به این معناست که هیچ فرضی بر این است که کدام متغیر مستقل و کدام متغیر وابسته است، در حالی که رابطه مستلزم چنین تمایزی است. سوال من: آیا اصطلاحات تعاون و رابطه قابل تعویض هستند؟ به طور خاص، اگر یافته‌های خود را از یک تحلیل همبستگی خطی دو متغیره تفسیر کنم، آیا استفاده از کلماتی مانند یک رابطه مثبت قوی بین A و B وجود داشت مناسب است؟
انجمن یا رابطه
111657
من یک داده سری زمانی از اجاره دوچرخه دارم که در آن هر ردیف نشان دهنده یک ساعت خاص و تعدادی دوچرخه اجاره شده در آن ساعت خاص است. وظیفه پیش بینی اجاره ها برای 10 روز آخر (هر ساعت) بر اساس داده های تاریخی 20 روز اول آن ماه است. نمونه داده ها: # تاریخ زمان فصل تعطیلات روز کاری دما رطوبت تعداد سرعت باد 1 2011-01-01 00:00:00 1 0 0 9.84 81 0.0000 3 2 2011-01-01 01:00:00 1 002 3 2011-01-01 02:00:00 1 0 0 9.02 80 0.0000 5 من قبلاً مدل را ساخته ام و اکنون تعجب می کنم که چگونه می توانم اندازه گیری پایه را بدانم تا بتوانم بگویم مدل من X٪ بهتر از اندازه گیری های پایه است؟ به طور کلی، چگونه می توانم کیفیت مدل خود را بر اساس مجموعه آموزشی که دارم اندازه گیری کنم؟
چگونه می توان اندازه گیری پایه را در داده های سری زمانی بدست آورد؟
114357
من از اعتبارسنجی متقاطع 10 برابری و الگو برای یک مشکل طبقه بندی باینری در MATLAB R2014a استفاده می کنم. وقتی پنجره نتیجه شبکه عصبی را می بینم، در تمام آموزش های شبکه عصبی (آموزش `80%`, اعتبار سنجی` 10%` و آزمون` 10%` با حجم نمونه 200~600`) توقف زودهنگام متوقف کردن روند آموزشی من در تکرار است. بین «15 تا 35». همانطور که می دانید مقدار پیش فرض حداکثر 6 است. برای این مشکل باید چیکار کنم؟ آیا باید حداکثر تعداد بررسی های تکرار توقف اولیه را افزایش دهم؟ **PS.** آموزش شبکه عصبی را نزدیک به 70 بار بررسی کردم. در تمام آموزش‌ها، فرآیند به دلیل توقف زودهنگام با استفاده از اعتبارسنجی متقاطع 10 برابری در تکرارهای بین 15 تا 35 متوقف شد.
بهترین شماره بررسی اعتبار برای شبکه عصبی متلب
95838
من از SVM Type 1 با 4 کلاس استفاده می کنم و کلاس های من به صورت دستی تعریف شده است. آیا روش یا الگوریتمی برای تعریف خودکار کلاس وجود دارد؟
ماشین‌های بردار پشتیبانی چند کلاسه در مقابل یادگیری ماشینی
111651
طبق درک من، واگرایی متضاد k به دست آوردن v(k) بعد از k مرحله زنجیره گیبس است. واگرایی متضاد پایدار به دست آوردن v(k) مستقل از v(0) است. من کاملاً با عبارت فوق گیج شده ام. من CDK را برای minibatch اجرا کرده ام همانطور که در زیر توضیح داده شده است. آیا این روش مناسب است؟ برای دسته = 1: numbatches ، ٪ شروع داده های فاز مثبت = batchdatas (: ،: ، دسته) ؛ % یافتن توزیع داده poshidprobs= 1./(1 + exp((-data*vishid) - repmat(hidbiases,numcases,1))); posprods = data' * poshidprobs; % v(0) poshidact = sum(poshidprobs) تولید می کند. posvisact = جمع (داده)؛ مرحله منفی را برای CD_K = 1: K ، poshidStates = poshidProbs> RAND (numcases ، numhid) شروع کنید. negdata = 1./(1 + exp (( - poshidstates*vishid ') - repmat (visbiases ، numcases ، 1))) ؛ neghidprobs = 1./(1 + exp (( - negdata*vishid) - repmat (hidbiases ، numcases ، 1))) ؛ poshidprobs=neghidprobs; end negprods = negdata'*neghidprobs; ٪ (v (k) neghidact = جمع (neghidprobs) ؛ negvisact = جمع (negdata) ؛
تفاوت بین الگوریتم واگرایی متضاد k و الگوریتم واگرایی متضاد پایدار چیست؟
95832
من دو مجموعه داده دارم 1. داده های آموزش 2. داده های آزمایشی (بدون مقادیر متغیر وابسته اما داده هایی روی متغیر مستقل دارم یا می توان گفت باید پیش بینی کنم). با استفاده از داده‌های آموزشی (که مقداری «NA» در سلول دارد) من رگرسیون حداقل مربعات معمولی (OLS) را با استفاده از «lm()» در R انجام دادم و مدل را برازش کردم و ضرایب $\beta $ مدل رگرسیون را دریافت کردم. . (تا اینجا همه چیز خوب است!) اکنون، در فرآیند پیش‌بینی مقادیر برازش، مقداری از سلول‌های موجود در مجموعه داده آزمایشی را گم کرده‌ام. من از تابع predict() به صورت زیر استفاده کردم: predict(ols, test_data.df, interval= prediction, na.action=na.pass) برای سلول (یا سلول ها) با مقدار NA کل ردیف کنار گذاشته می شود. در تولید خروجی ('yhat'). آیا تابعی وجود دارد که بتواند مقادیر «yhat» (به غیر از «NA») را برای داده‌های آزمایشی بدون حذف ردیف‌هایی با مقدار گمشده در سلول ایجاد کند.
مقادیر از دست رفته NA در داده های آزمون هنگام استفاده از predict.lm در R
111659
یک سوال آماری سریع (با عرض پوزش برای زیست شناسی اضافه شده): من دو مجموعه شمارش دارم (برای بیان دو ایزوفرم مختلف از یک ژن خاص)، و برای تولید متغیر پاسخ در تجزیه و تحلیل خاص خود، نسبت اینها را در نظر گرفته ام ( ایزوفرم 2 / ایزوفرم 1) برای هر یک از 124 نفر. شمارش ها را می توان با توزیع دوجمله ای منفی مدل کرد، اما من مطمئن نیستم که از چه توزیعی برای این نسبت ها استفاده کنم، زیرا بدیهی است که آنها دیگر اعداد صحیح گسسته نیستند. آزمایشی که امیدوارم انجام دهم، یک ژنوتیپ (کد شده به عنوان 0، 1 یا 2) در مقابل تست نسبت ایزوفرم، در سراسر SNP های موجود در این ژن است. هدف شناسایی انواعی است که ممکن است بر پیوند ژن تأثیر بگذارد به طوری که مثلاً افراد دارای ژنوتیپ 0 ایزوفرم 1 بیشتری نسبت به 2 داشته باشند و عکس آن در افراد دارای ژنوتیپ 2 دیده می شود - به طوری که تفاوت بین نسبت ها قابل توجه است. آیا کسی ایده ای در مورد اینکه چگونه باید این نوع تجزیه و تحلیل را انجام دهم دارد؟ به سلامتی
بهترین توزیع برای رسیدگی به نسبت شمارش به عنوان متغیر پاسخ
89509
من در حال گذراندن دوره ای در مورد روش های مونت کارلو هستم و در آخرین سخنرانی روش نمونه گیری رد (یا نمونه گیری قبول-رد) را یاد گرفتیم. منابع زیادی در وب وجود دارد که اثبات این روش را نشان می دهد، اما من به نوعی با آنها قانع نشده ام. بنابراین، در Rejection Sampling، یک توزیع $f(x)$ داریم که نمونه برداری از آن سخت است. ما یک توزیع ساده برای نمونه $g(x)$ را انتخاب می کنیم و یک ضریب $c$ پیدا می کنیم به طوری که $f(x) \leq cg(x)$. سپس از $g(x)$ نمونه برداری می کنیم و برای هر قرعه کشی، $x_i$، همچنین یک $u$ از توزیع یکنواخت استاندارد $U(u|0,1)$ نمونه برداری می کنیم. نمونه $x_i$ اگر $cg(x_i)u \leq f(x_i)$ باشد پذیرفته می شود و در غیر این صورت رد می شود. شواهدی که من با آنها برخورد کردم معمولاً فقط نشان می‌دهند که $p(x|Accept) = f(x)$ و در آنجا متوقف می‌شود. آنچه من در مورد این فرآیند فکر می کنم این است که ما دنباله ای از متغیرهای $x_1,Accept_1,x_2,Accept_2,...,x_n,Accept_n$ داریم و یک جفت $x_i,Accept_i$ مربوط به نمونه اول ما است ($x_i$ ) و اینکه آیا پذیرفته شده است ($Accept_i$). می دانیم که هر جفت $x_i,Accept_i$ مستقل از یکدیگر است، به این ترتیب: $P(x_1,Accept_1,x_2,Accept_2,...,x_n,Accept_n) = \prod\limits_{i=1}^n P(x_i,Accept_i)$ برای یک جفت $(x_i,Accept_i)$ می دانیم که $P(x_i) = g(x_i)$ و $P(Accept_i|x_i) = \frac{f(x_i)}{cg(x_i)}$. ما می‌توانیم به راحتی $p(x_i|Accept_i)$ را محاسبه کنیم، اما نمی‌دانم چگونه به عنوان یک اثبات کافی است. ما باید نشان دهیم که الگوریتم کار می کند، بنابراین من فکر می کنم یک اثبات باید نشان دهد که توزیع تجربی نمونه های پذیرفته شده به $f(x)$ به عنوان $n\rightarrow\infty$ همگرا می شود. منظورم این است که $n$ تعداد همه نمونه‌های پذیرفته شده و رد شده است: $\frac{Number \hspace{1mm} از \hspace{1mm} نمونه \hspace{1mm} با \hspace{1mm} (A \leq x_i \leq B) {Number \hspace{1mm} of \hspace{1mm} مورد قبول \hspace{1mm} نمونه} \hspace{1mm} \int_A^B f(x)dx$ به عنوان $n\rightarrow\infty$. آیا من با این الگوی فکری اشتباه می کنم؟ یا ارتباطی بین اثبات مشترک الگوریتم و این وجود دارد؟ پیشاپیش ممنون
اثبات نمونه گیری رد چگونه معنا دارد؟
95839
من روی معیار اهمیت ویژگی جینی برای جنگل تصادفی کار می کنم. بنابراین، من باید کاهش جینی در ناخالصی گره را محاسبه کنم. این روشی است که من این کار را انجام می دهم، که منجر به تضاد با تعریف می شود، نشان می دهد که من یک جایی اشتباه می کنم ... :) برای درخت دودویی و با توجه به احتمالات بچه های چپ و راست می توانم ناخالصی جینی را محاسبه کنم. از یک گره $n$: $$ i(n) = 1 - p_l^2 - p_r^2$$ و جینی کاهش می یابد: $$ \Delta i(n) = i(n) - p_li(n_l) - p_ri(n_r) $$ * * * بنابراین، برای این مثال با 110 مشاهده روی یک گره: - گره (110) - چپ (100) - چپ_چپ (60) - چپ_راست (40) - راست (10) ) - right_left (5) - right_right (5) من کاهش جینی را برای _node_ به این صورت محاسبه می کنم: \begin{align} i({\rm چپ}) &= 1 - (60/100)^² - (40/100)^²& &= 0.48 \\\ i({\rm سمت راست}) &= 1 - (5/10) ^² - (5/10)^²& &= 0.50 \\\ i({\rm node}) &= 1 - (100/110)^² - (10/110)^²& &= 0.16 \end{align} اما با توجه به تعریف Breiman (یا این پاسخ در CV: نحوه اندازه گیری / رتبه بندی اهمیت متغیر هنگام استفاده از CART، اما من به موارد ارجاع شده دسترسی ندارم کتاب)، معیار ناخالصی نزول باید **کمتر** از گره والد باشد: > **اهمیت جینی** > هر بار که یک تقسیم گره در متغیر m ناخالصی جینی > معیار برای دو گره نزولی کمتر از گره والد است. اضافه کردن جینی برای هر متغیر منفرد بر روی همه درختان جنگل، اهمیت متغیر سریعی می دهد که اغلب با معیار اهمیت جایگشتی سازگار است. زیرا در غیر این صورت منجر به کاهش جینی منفی می شود... $$\Delta i({\rm node}) = i({\rm node}) - (100/110)*i({\rm left}) - ( 10/110)*i({\rm right}) = -0.32$$ بنابراین، اگر کسی می‌تواند بگوید کجا اشتباه می‌کنم، بسیار سپاسگزار خواهم بود، زیرا به نظر می‌رسد من چیزی را در اینجا از دست داده‌ام...
کاهش جینی و ناخالصی جینی گره های کودکان
114356
هنگام استفاده از چند آدمک برای یک متغیر طبقه‌بندی: چه اتفاقی می‌افتد اگر تعدادی از مشاهدات شما بتوانند 1 را در بیش از یکی از دومی‌ها علامت بزنند؟ آیا این مهم است؟ آیا فقط بستگی به این دارد که چه نسبتی از مشاهدات متناسب با آن دسته باشد (یعنی 5% در مقابل 50%)؟ چگونه ممکن است بر نتایج تأثیر بگذارد؟ مثال: مقایسه هزینه های پزشکی برای بیماری های مختلف خارج از سوابق بیمار. بیمار A سرطان دارد، بیمار B دیابت دارد، بیمار C هر دو را دارد. این چگونه بر تفسیر تأثیر می گذارد (یا بر آن تأثیر می گذارد)؟ مثال دیگر نژاد است: A علامت سفید، B علامت سیاه، C هر دو را نشان می دهد. آیا افراد C فقط با گروه A _و_ گروه B هر دو در محاسبات در مقابل گروه مرجع (می گوییم افراد D) قرار می گیرند؟ افتاده است؟ یکی از راه‌حل‌هایی که به آن فکر کرده‌ام این است که به‌طور خاص برای کسانی که پاسخ‌های متعدد دارند (یعنی «تشخیص‌های چندگانه» یا «چند نژادی») یک ساختگی ایجاد کنم و کادرهای فردی را بدون علامت بگذارم، به عنوان راهی برای مقابله آماری و مفهومی با آن‌ها. (مسلماً، فردی که بیش از یک بیماری جدی دارد یا با بیش از یک نژاد شناسایی می‌شود، ممکن است برای برخی از سؤالات تحقیقاتی دسته‌بندی متفاوتی نسبت به بیماری‌های یک بیماری یا یک نژاد باشد.) اما گاهی اوقات مجموعه داده‌ها این محاسبه را دشوار می‌کنند، یا ممکن است مواردی از دست رفته، و من در مورد تأثیر نهایی وجود چند مورد از اینها در یک مجموعه داده تعجب می کنم. من همیشه با این نوع متغیرها با این ایده برخورد کرده‌ام که آنها باید کاملاً مقوله‌هایی باشند که متقابلاً منحصر به فرد باشند، اما اکنون کنجکاو هستم. من واقعاً قبلاً به آن فکر نکرده بودم - من همیشه فقط از راه حل بالا استفاده می کردم، اما اکنون می توانم مواردی را ببینم که ممکن است انجام این کار دشوار باشد.
پاسخ 1 به بیش از یکی از ساختگی ها برای یک متغیر طبقه ای منفرد؟
111658
من می دانم که P(null event)=0، اما آیا برعکس آن درست است؟ یعنی اگر P(A)=0 A یک رویداد صفر است؟ راستش من خیلی مطمئن نیستم که حتی بفهمم یک رویداد پوچ چیست. کسی می تواند برای من یک مثال بزند؟
اگر P(A)=0، آیا A یک رویداد تهی است؟
94875
فرض کنید من یک مدل بقا مانند این دارم: set.seed(123) require(survival) df<-data.frame(time=as.integer(rnorm(100,50,5))، status=rbinom(100,1, 0.7)، سن = rnorm (100،60، 5)، جنسیت = rbinom (100،1،0.5)) df$time<-ifelse(df$time>=50,50,df$time) fit<-survreg(Surv(زمان، وضعیت)~سن+جنسیت، داده=df، dist=weibull) ضریب(مناسب) (برق) سن جنسیت 3.9222741 -0.0001537 -0.0114375 vcov(fit) (Intercept) سن جنسیت Log(مقیاس) (Intercept) 2.365e-03 -3.868e-05 -4.442e-05 1.036e-04 سن -3.868e-05 6.429e-07 9.545e-08 -5.913e-04-04-5.913e-04 جنسیت -4 05 9.545e-08 6.531e-05 -1.064e-04 Log(scale) 1.036e-04 -5.913e-07 -1.064e-04 1.104e-02 من تعجب می کنم که چرا یک عبارت اضافی، Log(scale) در ماتریس vcov؟ کسی توضیح مختصری بدهد؟
ماتریس واریانس کوواریانس مدل بقا
89505
هنگامی که من ارائه هایی را تماشا می کنم که در آن از الگوریتم های یادگیری ماشین استفاده شده است، به نظر می رسد مقدار داده های قرار داده شده در مجموعه های آموزشی و اعتبارسنجی تا حدودی دلخواه است. گاهی 80-20 است، گاهی 90-10. رویکرد کاملاً ساده‌لوحانه من 50-50 خواهد بود (زیرا، هی، این یک تقسیم منصفانه به نظر می‌رسد، درست است؟) آیا ریاضی واقعی وجود دارد که روش بهینه برای اندازه‌گیری مجموعه‌ها را نشان دهد، یا همه اینها بر این اساس است: این به نظر می رسد بیشتر اوقات خوب کار می کند؟
اندازه مجموعه های آموزشی و اعتبار سنجی در یادگیری ماشین: آیا یک بهینه اثبات شده یا صرفاً اکتشافی وجود دارد؟
109143
من دو مجموعه از نمرات آزمون دارم که از آنها برای پیش بینی عملکرد آینده استفاده می کنم، با استفاده از رگرسیون چندگانه، و متوجه شدم که قطع y منفی است. این نشان می دهد که برای دانش آموزی که در هر دو آزمون نمره صفر می گیرد، من پیش بینی می کنم که نمره آنها X عدد منفی باشد. با توجه به آزمایشاتی که انجام می شود این امکان وجود ندارد. بنابراین من در حال حاضر تعجب می کنم، _آیا راهی برای تعیین حداقل حد برای y-intercept_ من وجود دارد؟
آیا می توانید حداقل حد را برای قطع Y در R تعیین کنید؟
95833
من یک رگرسیون خطی پایه را با یک پیش‌بینی‌کننده با مقداری وزن در R انجام می‌دهم، به عنوان مثال: lm (پاسخ ~ توضیحی، وزن=w، داده=mydata) وزن‌ها معیارهای دقت متغیر پاسخ هستند. از آنجایی که وزن ها بسیار کج هستند، متوجه می شوم که مقادیر p بسیار کوچکی را برای تأثیر متغیر توضیحی خود دریافت می کنم، اما در واقع فقط با چند نقطه هدایت می شود. بسیاری از نقاط مدل کار زیادی نمی کنند (یعنی وزن کمی دارند) اما همچنان به درجات آزادی کمک می کنند. آیا راه دیگری برای محاسبه درجه آزادی مخرج در رگرسیون وزنی وجود دارد؟
حجم نمونه موثر رگرسیون وزنی
51343
من می‌خواهم یک ماتریس کوواریانس وزنی (مثلاً 5 متغیر) با استفاده از 3 نقطه زمانی مختلف ایجاد کنم که وزن‌ها از یک تابع هسته می‌آیند (می‌تواند عادی، مثلثی و غیره باشد) اما نمی‌دانم چگونه کار می‌کند. اساساً من $$S(u,v)=\frac{w_1*cov_1(u,v)+w_2*cov_2(u,v)+w_3*cov_3(u,v)}{w_1+w_2+w_3 را تصور می‌کنم },$$ که در آن اعداد نشان دهنده 3 نقطه زمانی هستند. آیا این منطقی است؟ هر روشی برای ترکیب تخمین های کوواریانس شروع خوبی است -- من کاملاً برای ایده های جایگزین باز هستم! وزن هسته از مقاله ای توسط رضویان و همکاران مدل های گرافیکی گاوسی متغییر زمان داده های دینامیک مولکولی بدست آمد. در اینجا چند داده نمونه وجود دارد: cov1 = ماتریس (c(175.28، 23.37، 12.76، 3.45، 5.94، 23.37، 90.29، 44.41، 42.83، 52.00، 12.76، 42.76، 42.4، 42.4 22.39، 3.45، 42.83، 22.17، 31.95، 32.21، 5.94، 52.00، 22.39، 32.21، 58.22)، 5، 5) cov2=ماتریس(c(204.9.3،3،204.9 35.60، 27.97، 43.96، 115.52، 71.71، 80.95، 68.69، 45.03، 71.71، 58.70، 53.07، 40.71، 35.60، 80.95، 80.8. 51.95، 27.97، 68.69، 40.71، 51.95، 59.26)، 5، 5) cov3=ماتریس(c(165.67، 63.42، 37.82، 32.63، 43.37، 43.37، 60.60، 61. 74.47، 71.16، 37.82، 66.00، 47.34، 42.24، 34.40، 32.63، 74.47، 42.24، 55.98، 47.48، 43.37، 74.16، 43.37، 74.16 75.61)، 5، 5) من هسته های معمولی، یکنواخت، اپانچنیکوف و مثلثی را نیز ترسیم کرده ام، اما چگونه می توانم بفهمم که در کجای نمودارها وزن را برای یک عنصر کوواریانس خاص دریافت کنم؟ من زمان را صرف خواندن در مورد هسته ها و خیره شدن به این طرح ها کرده ام اما... هیچی. f.normal <- function(x) {dnorm(x); } f.uniform <- function(x) { ifelse(abs(x)<1, 0.5, 0); } f.epanechnikov <- function(x) { ifelse(abs(x)<1, (1-x^2)*3/4, 0); } f.triangle <- function(x) { ifelse(abs(x)<1, 1-abs(x), 0); } plot(c(-1,1),c(0,1.2),xlab=z, ylab=, main=kernels, type=n) curve(f.normal(x) c(-1،1)، add=T، lwd=2، lty=1، col=black) منحنی(f.uniform(x)، c(-1،1)، add=T، lwd=2 lty=2، منحنی col=آبی) (f.epanechnikov(x)، c(-1،1)، add=T، lwd=2، lty=3، col=red) منحنی(f.triangle(x)، c(-1،1)، add=T، lwd=2، lty=4، col=سبز) legend(0.5,1.1,legend=c(Normal،Uniform،Epanech،Triangle)، lwd=c(2,2,2,2), lty=c(1,2,3, 4)، col=c (سیاه، آبی، قرمز، سبز)، cex=0.8) لطفاً کمکی دارید؟ لطفاً خوب باشید -- من واقعاً تلاش زیادی کرده ام تا بفهمم چه خبر است.
ماتریس کوواریانس وزنی با استفاده از هسته
111656
در تحلیل رگرسیون خطی چندگانه، مناسب ترین نمودار برای بررسی خطی بودن کدام است؟ من نمونه هایی را دیده ام که از نمودار پراکندگی به عنوان آزمایش اولیه برای استفاده از مدل خطی استفاده می کنند. اما، آیا نمودارهای رگرسیون جزئی معقول تر نیستند؟
نمودارهای رگرسیون جزئی در مقابل نمودارهای پراکنده برای بررسی خطی بودن
25308
چرا معمولاً فرض می‌کنیم که اثرات تصادفی از توزیع نرمال می‌آیند؟ آیا می توانیم توزیع دیگری را فرض کنیم؟ یا شاید به این دلیل که CLT نشان می دهد که یک اثر تصادفی به طور معمول توزیع می شود؟
توزیع اثرات تصادفی
51340
من در حال تجزیه و تحلیل داده‌های شمارش پرندگان از نظرسنجی‌های انجام شده هر هفته (از نوامبر تا آوریل، زمانی که پرندگان در نزدیکی چرخه تولیدمثلی به دنبال غذا هستند) به مدت 6 سال در 9 قطعه آزمایشی بزرگ که بین 3 منطقه در چشم‌انداز تقسیم شده‌اند (6 سال x 3 منطقه x) هستم. 3 قطعه / منطقه). ما علاقه مند به مقایسه تعداد چند گونه رایج (و تعداد کل پرندگان) به عنوان تابعی از موقعیت در چشم انداز (منطقه) و زمان (سال) و تعاملات بالقوه این عوامل (منطقه x زمان) هستیم. اکوسیستم در این دوره هر سال خشک می شود و عمق آب خود عامل مهم شناخته شده الگوهای جستجوی علوفه پرندگان است و در طول زمان تغییر می کند (در طول فصل در قطعه معین کم عمق می شود) و فضا (ارتفاع سطح زمین باعث خشک شدن در شمال می شود → شیب جنوب در سراسر چشم انداز). من عمق آب را در هر قطعه برای هر تاریخ بررسی تخمین زده ام. مشاهده جالبی که ما انجام دادیم این است که اوج تعداد پرندگان در اعماق مختلف در بین 3 منطقه رخ می دهد - این یک نتیجه مهم است (منطقه x پاسخ عمق). داده های شمارش خود آشکارا غیر منفی هستند، و تا حدی به دلیل تعداد زیادی از 0 ها، بسیار پراکنده هستند (واریانس >> میانگین)، بنابراین تمایل به استفاده از GLM دو جمله ای منفی (NB) یا شاید با باد/تنظیم صفر داشت. مانع) رویکرد. از آنجایی که پارامتر عمق به خودی خود به عنوان تابعی از فضا و زمان (سایر عوامل مورد علاقه من) متفاوت است، من در درک نحوه ترکیب آن در یک مدل مشکل دارم. آیا می‌توانم از عمق به‌عنوان متغیر پیوسته استفاده کنم یا باید در دسته‌ها جمع‌آوری کنم، و در هر صورت، نحوه برخورد با این واقعیت که در میان سایر عوامل طبقه‌بندی مورد علاقه، سال‌ها (چند سال مرطوب‌تر/خشک‌تر از دیگران و غیره) و مناطق (باز هم، توطئه ها در جنوب عمیق تر از شمال هستند) توزیع اعماق بسیار متفاوت است و همپوشانی ضعیفی را ایجاد می کند؟ سپس مسئله عدم استقلال در مجموعه داده وجود دارد که می تواند به پراکندگی بیش از حد نیز کمک کند. همانطور که در بالا توضیح دادم، واحد مورد علاقه، نظرسنجی یک هفته معین در یک طرح معین است. این طرح تکرار فضایی (n = 3 قطعه / منطقه در هفته هفته) را با تکرار زمانی (n = چندین هفته از داده‌های پیمایش برای هر قطعه در هر سال) مخدوش می‌کند. آیا راهی برای گنجاندن یک نوع تجزیه و تحلیل اندازه گیری های مکرر برای داده های نمودار ea در یک سال معین در یک مدل پواسون، NB، یا ZIP/ZINB، ZAP/ZANB مناسب وجود دارد؟ در حالی که پرندگان مقدار مناسبی را از هفته به هفته جابه‌جا می‌کنند، به نظر می‌رسد مهم است که به طور غیرمستقیم ویژگی‌های ساختاری کرت‌ها (تغییرات کاهش‌یافته درون کرت در مقابل کرت بین کرت در میان هفته‌های داده) که چنین تحلیلی می‌تواند ارائه کند، در نظر گرفته شود. من مدل‌ها را در SAS اجرا می‌کنم و از هر توصیه‌ای در این زمینه صمیمانه قدردانی می‌کنم.
مسائل طراحی آزمایشی GLM برای داده های شمارش در آزمایش منظر
95831
(من یک آمارگیر نیستم، بنابراین ممکن است این سوال احمقانه به نظر برسد، اما به کمک متخصص شما نیاز دارم!) من داده هایی دارم که به این صورت است: -------------------- --+-------+-----+----- انتشارات شهر تولید ناخالص داخلی مردم منطقه ----------------------------------------- شفیلد . . . . آکسفورد . . . لندن . . . . مجموع . . . . من می خواهم انتشار را با هم مقایسه کنم، اما بر اساس افراد، منطقه و تولید ناخالص داخلی، که البته همه واحدهای مختلف هستند، عادی شوند. من به وضوح نمی‌توانم میزان انتشار، افراد و مساحت را با هم اضافه کنم، زیرا این بدان معناست که یک نفر معادل یک واحد مساحت یا تولید ناخالص داخلی است، که بی معنی است. رویکرد من این است: ## 1\. ابعاد را حذف کنید تا بتوانیم مقادیر مختلف را که من مقادیر را بر مجموع ستون‌ها برای هر شهر تقسیم کردم، مقایسه کنیم تا کسری از کل برای هر شهر بدست آوریم. این مقداری را به دست می‌دهد که **سهم هر شهر از کل ** (انتشار گازهای گلخانه‌ای، مردم، منطقه...) را توصیف می‌کند. من اینها را _E, P, A, G_ ## 2\ می نامم. میانگین این فاکتورها سپس سه فاکتور/کسری نرمال شده تولید شده در (1) را میانگین کنید: E × ( 1/P + 1/A + 1/G ) ÷ 3 یعنی میانگین (E/P، E/A، E/G) ## سوال به نظر من این یک مقایسه معقول ارائه می دهد. من واحدها را با تقسیم هر یک بر مجموع آن حذف کردم. سپس من میانگین کسری از انتشار به ازای هر بخش از مردم، منطقه، تولید ناخالص داخلی را محاسبه می کنم. من به هر یک از اینها وزن یکسانی می دهم که از آن راضی هستم. بنابراین اگر پاسخ یک شهر به صورت 2 باشد، می گویم که آن شهر دو برابر سهم عادلانه خود از انتشار گازهای گلخانه ای منتشر می کند. با این حال، من انتقادهایی داشته ام که می گویند این از نظر ریاضی/آماری معتبر نیست زیرا میانگین میانگین ها است. میانگین میانگین ها است، اما فکر می کنم این مشکلی ندارد و تنها راه مقایسه چیزهای مختلف با هم است. س. آیا کاری که من انجام داده ام معتبر است یا راه بهتری برای انجام این کار وجود دارد؟ ## ویرایش من اکنون معتقدم که این بهتر است: E ÷ ( P + A + G ) × 3 یعنی E ÷ MEAN ( P, A, G ) که سهم (کسری) از انتشار را بر میانگین کسری از مردم، مساحت تقسیم می کند. و تولید ناخالص داخلی من فکر می‌کنم این بهتر است، زیرا P، A، G نشان‌دهنده «چیزهایی هستند که انتشار گازهای گلخانه‌ای برای آنها اشکالی ندارد». در اولین تلاش (در بالا) من به شهری با کسر کلی جمعیت، مساحت و تولید ناخالص داخلی کم اجازه داده‌ام که امتیازی مشابه شهری با کسر کلی بالا داشته باشد، زمانی که انتشار گازهای گلخانه‌ای یکسان دارند، که با توجه به اینکه من دارم به وضوح اشتباه است. گفت من برای P، A، G به یک اندازه ارزش قائل هستم.
ترکیب سیب و گلابی برای تشکیل یک مقایسه واحد
65283
من با تفسیر MANOVA خود در SPSS مشکل دارم. من دو DV و یک IV (سن) دارم، در جدول MANOVA لامبدای Wilk 0.053 است، بنابراین در سطح آلفای 0.05 معنی دار نیست. وقتی به جدول آزمون تاثیرات بین آزمودنی ها نگاه می کنم، تاثیر سن برای یکی از DV ها قابل توجه است (05/0p<). چگونه باید این را گزارش و تفسیر کنم؟ آیا باید جدول بین موضوعات را نادیده بگیرم زیرا جدول MANOVA قابل توجه نیست؟
چگونه خروجی SPSS را برای MANOVA تفسیر کنیم؟
48995
من یک سیستم با 5 جزء دارم. هر 10 ثانیه سیگنال به همه آنها می رسد و من می دانم که چند نفر از آنها پاسخ دادند. باید بدانم که یک همبستگی در پاسخ وجود دارد. بنابراین، داده های سری زمانی من چیزی شبیه به این است: A B C D E ------------------------ 1 0 1 1 1 1 1 1 1 1 1 0 0 0 1 1 0 1 0 1 ........... حدود 10000 ردیف وجود دارد آیا می توانم از یک تابع همبستگی ساده استفاده کنم تا ببینم آیا همبستگی بین وقوع 5. یا راه بهتری برای این وجود دارد؟
همبستگی بر اساس رویدادهای دودویی
51347
من یک R noob هستم، بنابراین امیدوارم این سوال احمقانه نباشد. من می خواهم یک رگرسیون نمایی با چندین متغیر مستقل انجام دهم (شبیه به تابع LOGEST در اکسل) من سعی می کنم تابع $Y = b {m_1}^{x_1}{m_2}^{x_2}$ را مدل کنم $b$ یک ثابت است، $x_1$ و $x_2$ متغیرهای مستقل من هستند، و $m_1$ و $m_2$ ضرایب مستقل هستند. متغیرها فکر می‌کنم می‌توانم با انجام کاری مانند «glm(log(Y) ~ x1 + x2)» تابع را خطی‌سازی کنم، اما کاملاً نمی‌دانم چرا این کار می‌کند. همچنین، اگر چنین چیزی وجود داشته باشد، می‌خواهم یک رگرسیون غیرخطی واقعی اجرا کنم. هدف من اجرای هر دو رگرسیون خطی و نمایی و یافتن بهترین خط مناسب بر اساس مقدار R^2$ بالاتر است. همچنین از کمک شما در درک نحوه رسم منحنی پیش بینی شده در نمودار پراکندگی داده های من نیز بسیار سپاسگزارم. پیشاپیش ممنون رایان
نحوه انجام رگرسیون نمایی با چندین متغیر در R
48992
من یک GMM با استفاده از OpenMX نصب می‌کنم: # بارگیری کتابخانه OpenMx (OpenMx) # داده‌های مدل مخلوط رشد (myGrowthMixtureData) نام‌ها (myGrowthMixtureData) class1 <- mxModel(Class1, type=RAM, manifestVars=c(x1 ، x2، x3، x4، x5)، latentVars=c(مقاطع، شیب)، # واریانس باقیمانده mxPath( from=c(x1، x2، x3، x4، x5)، فلش=2، free=TRUE , مقادیر = c(1, 1, 1, 1, 1), labels=c(Residual, Residual, Residual, Residual, Residual))، # واریانس پنهان و کوواریانس mxPath( from=c(intercept, slope), arrows=2, connect=unique.pairs, free=TRUE, values=c(1, .4 , 1), labels=c(vari1، cov1، vars1) ), # intercept loadings mxPath( from=intercept, to=c(x1، x2، x3، x4، x5)، arrows=1، free=FALSE، مقادیر=c(1، 1، 1، 1، 1))، # بارگیری شیب mxPath( from=slope، to=c(x1، x2، x3، x4، x5)، arrows=1، free=FALSE، values=c(0, 1, 2, 3, 4) ), # manifest به معنی mxPath( from=one, to=c(x1, x2, x3, x4, x5 ), arrows=1, free=FALSE, values=c(0, 0, 0, 0, 0) ), # latent به معنی mxPath( from=one, to=c(intercept, slope)، arrows=1، free=FALSE، values=c(0, -1)، labels=c(meani1, means1))، # بردار احتمال mxRAMObjective (A = A را فعال می کند، S = S، F = F، M = M، بردار = TRUE) ) # close model class2 <- mxModel(class1، # واریانس پنهان و کوواریانس mxPath( from=c(intercept, slope), arrows=2, connect=unique.pairs, free=TRUE, values=c(1, 0.5, 1), labels=c(vari2 ، cov2، vars2))، # latent به معنی mxPath(از = یک، به=c(مقاطع، شیب)، فلش=1، free=TRUE, values=c(5, 1), labels=c(meani2, means2) ), name=Class2 ) # close model #تعیین احتمالات کلاس classP <- mxMatrix(Full, 2 ، 1، free=c(TRUE، FALSE)، مقادیر=1، lbound=0.001، برچسب ها = c(p1، ps)، name=Props) classS <- mxAlgebra(Props %x% (1 / sum(Props)), name=classProbs) # مشخص کردن مدل مخلوط algObj <- mxAlgebra(-2*sum( log(classProbs[1 ,1] %x% Class1.objective + classProbs[2,1] %x% Class2.objective))، name=mixtureObj) obj <- mxAlgebraObjective(mixtureObj) gmm <- mxModel(Growth Mixture Model, mxData(observed=myGrowthMixtureData, type=raw ), class1, class2, classP, classS, algObj, obj ) gmmFit <-mxRun(gmm) summary(gmmFit) این آمار خلاصه ای را برای راه حل 2 کلاسه ای که در حال اجرا هستم به من می دهد. با این حال، سعی می کنم بفهمم کدام موارد متعلق به کدام طبقه است. چگونه می توانم احتمالات کلاس را برای هر مورد خروجی کنم تا ببینم هر مورد در کدام کلاس قرار می گیرد؟
نحوه رسیدن به احتمالات کلاس برای هر مورد در GMM با استفاده از R/OpenMX
95834
بسته «arm» شامل تابع «sim()» است. در صفحه راهنمای R خود می گوید: library(arm) ?sim این تابع عمومی شبیه سازی های بعدی سیگما و بتا را از یک شی lm یا شبیه سازی بتا از یک شی glm یا شبیه سازی بتا را از یک دریافت می کند. شی merMod از آنچه من جمع آوری کردم، sim() لزوماً از هیچ شکلی از MCMC استفاده نمی کند. تنها زمانی از MCMC استفاده می کند که توزیع خلفی را نتوان به صورت تحلیلی تعریف کرد. اکنون، با توجه به دانش اولیه در مورد MCMC: از مقادیر پارامترهای اولیه، داده های داده شده، مدل و توزیع قبلی استفاده می کند تا تعیین کند که آیا مقادیر اولیه پارامترها مقادیر خوبی هستند یا خیر. الگوریتم MCMC (در حالت ایده آل) به سمت توزیع خلفی مشترک پارامترها با توجه به پیشین ها، مقادیر پارامتر اولیه، مدل و داده ها همگرا می شود. در نتیجه برازش مدل، و نمونه برداری از توزیع خلفی در همان زمان. این واقعیت که «sim()» تنها زمانی از MCMC استفاده می‌کند که توزیع پسین را نتوان به صورت تحلیلی تعریف کرد، به نظر می‌رسد به این معناست که «sim()» در همه موارد از حداکثر تخمین احتمال پسینی (MAP) استفاده می‌کند. این به نظر من دلیل زیر را دارد. من فرض می کنم که «sim()» در همه موارد از پیشین های غیر اطلاعاتی استفاده می کند. اگر «sim()» از MAP استفاده کند، این نتیجه می‌دهد که مشکل به حداکثر کردن تابع احتمال کاهش می‌یابد. که به نوبه خود مستلزم این است که یک تفاوت عددی حاشیه ای بین به عنوان مثال وجود خواهد داشت. فواصل اطمینان و فواصل معتبر. از نظر محاسباتی، این بسیار قابل اجراتر از EAP خواهد بود (تخمین پسینی مورد انتظار). اما «sim()» چگونه به یک فاصله زمانی مناسب می‌رسد که به عنوان یک پیشین غیر اطلاعاتی برای یک مدل خاص عمل می‌کند؟ آیا یک روش ریاضی ساده وجود دارد که به فرد اجازه دهد این کار را برای هر مدل معین انجام دهد؟ در صورت نیاز در گنجاندن ریاضیات پیچیده تردید نکنید! (این احتمالاً پستی است که می‌تواند هم در CrossValidated و هم در Stackoverflow باشد. اگر نظرات قوی در این مورد وجود داشته باشد، پست خودم را پرچم‌گذاری می‌کنم و از شما درخواست می‌کنم که منتقل شود. فقط در نظرات به من بگویید.)
عملکرد sim() در بسته بازو چگونه prior های غیر اطلاعاتی را تعیین می کند؟
110291
من سعی می‌کنم هسته‌های مختلف را برای محاسبه ماتریس شباهت در R قرار دهم. داده‌های مثال - ماتریس X: X <- ماتریس(rep(0,200*1000),200,1000) set.seed(123) برای (i در 1) :200) { X[i,] <- ifelse(runif(1000)<0.5,-1,1) } چه از هسته ها می توان برای تولید یک ماتریس شباهت استفاده کرد و چگونه می توانم این کار را در R انجام دهم؟
هسته و شباهت (در R)
111655
من روی بررسی واریانس ثابت در مدل‌های خطی کار می‌کنم و با مشاهده نمودار باقیمانده‌های دانشجویی با مقادیر برازش بررسی می‌کنم. به نظر می رسد مجموعه داده های من از طریق نمودار دارای یک واریانس ثابت است. من یک نمودار سطح گسترده روی داده ها انجام دادم و یک تبدیل توان پیشنهادی را ارائه می دهد. 1.12، با استفاده از این، یک مدل جدید قرار دادم و دوباره نمودار سطح گسترش را بررسی کردم، که تبدیل توان 1.05 را می دهد. تبدیل قدرت را به 1.05 تغییر دادم و این روند را بارها تکرار کردم. من در نهایت به تبدیل قدرت 1.252 رضایت دادم. بعد از اینکه مدل را دوباره تنظیم کردم تا تبدیل توان (1.252) را منعکس کند و دوباره نمودار سطح گسترش را اجرا کردم. تبدیل توان پیشنهادی برای این 1.00068 بود. چیزی که من تعجب می کنم این است که اگر می توانید تبدیل توان پیشنهادی را به 1 نزدیک کنید، آیا به این معنی است که اکنون واریانس ثابتی دارد؟
اگر تبدیل توان پیشنهادی توسط نمودار سطح گسترش 1 باشد، آیا مدل دارای واریانس ثابت است؟
48993
من فقط می‌خواهم با گفتن اینکه من اصلاً در آمار خوب نیستم، شروع کنم، بنابراین از نمودار/stat sigma استفاده می‌کنم. بنابراین من نیاز به مقایسه گروه ها (با اندازه نمونه های مختلف) دارم، و از آنجایی که آنها به طور معمول توزیع نمی شوند، از ANOVA در رتبه ها استفاده می کنم. و من تازه متوجه شدم که نتایج تجزیه و تحلیل بسته به گروه هایی که در آزمون قرار می دهم متفاوت است. به عنوان مثال اگر gp A، B، C، و D را آزمایش کنم. مقایسۀ جفتی دانن می گوید A فقط با B متفاوت است. اگر gp D را درج نکنم. دان می گوید A با B و C متفاوت است. که اگر من ANOVA را روی رتبه‌ها برای بسیاری از گروه‌ها انجام دهم، Dunn's sig را نشان نمی‌دهد. تفاوت بین چند جفت، اما اگر من تست مجموع رتبه Mann Whitney را روی جفت انجام دهم، علامت وجود دارد. تفاوت بنابراین چگونه می توانم چیزها را ثابت/قابل مقایسه نگه دارم؟ آیا می توانم احمق باشم و همه چیز را به مان ویتنی انجام دهم؟ (همانطور که گفتم، من واقعاً در آمار بد هستم). من از هر گونه کمک یا نظری قدردانی می کنم. خیلی ممنون
ANOVA در رده های سردرگمی
112413
من در حال انجام پایان نامه کارشناسی با موضوع تأثیر مدیریت سرمایه در گردش بر سودآوری هستم. این اولین بار است که با نرم افزارهایی مانند stata سر و کار دارم و خیلی چیزها واقعاً مرا گیج کردند. پس از انجام تجزیه و تحلیل رگرسیون تاریخ پانل، من ناهمسانی را پیدا کردم، بنابراین روش های gls روشی است که برای حل این مشکل انتخاب می کنم. اما از نتیجه gls، من نمی توانم R-squared را پیدا کنم. سرپرست من فرمولی برای محاسبه شبه R مربع به من می دهد: . پیش بینی yhat، xb. gen resid = abs(yhat-GOP). نمایش (1-(resid/GOP)^2) که در آن GOP = متغیر مستقل به عنوان معیار سودآوری آیا این فرمول درست است؟ آیا می توانم از نتیجه این فرمول برای ارزیابی تغییرات GOP تحت تأثیر سایر متغیرهای توضیحی استفاده کنم؟ علاوه بر این، تابع gls اشکالی دارد که باعث سوگیری در استنتاج من شود؟ خیلی ممنون!!!
شبه R-Squared برای تابع gls در Stata
48991
من در حال انجام تحقیقاتی هستم که در آن می‌خواهم سوژه‌ها را در معرض یک رویداد غیر معمول قرار دهم و پاسخ آنها را ثبت کنم. من پاسخ‌های آزمودنی‌ها را از طریق یک ابزار حساس مغزی ضبط می‌کنم، بنابراین به من گفته شده که قرار دادن آنها در معرض محرک 30 بار یا بیشتر مطلوب است. با این حال، از آنجایی که قرار است این رویداد غیر معمول باشد، من نگران هستم که بیش از 30 بار در طول آزمایش اتفاق بیفتد ممکن است منجر به تحریف نتایج شود. آیا می توان با داشتن سوژه های بیشتر به جای رویدادهای بیشتر در هر موضوع، به N من رسید؟ اگر نه، در چه شرایطی N <30 قابل قبول است؟
در چه شرایطی N <30 قابل قبول است؟
25300
تبدیل فوریه گسسته سنتی (DFT) و پسرعموی آن، FFT، سطل‌هایی را تولید می‌کنند که فاصله‌ای برابر دارند. به عبارت دیگر، شما چیزی شبیه به 10 هرتز اول در بن اول، 10.1 تا 20 در سطل دوم و غیره دریافت می کنید. با این حال، من به چیزی کمی متفاوت نیاز دارم. من می خواهم محدوده فرکانس تحت پوشش هر سطل به صورت هندسی افزایش یابد. فرض کنید ضریب 1.5 را انتخاب می کنم. سپس در بن اول 0 تا 10 داریم، من در بن دوم از 11 تا 25، در بین سوم 26 تا 48 و ... می خواهم. آیا می توان الگوریتم DFT را تغییر داد تا به این شکل رفتار کند؟
من به یک DFT جدید و بهبود یافته نیاز دارم
110293
من در درک اینکه آمار آزمون نوع III دقیقاً چه کاری انجام می دهد مشکل دارم. در اینجا چیزی است که من از کتاب خود دریافت کردم: > آزمون های «نوع III» برای معناداری هر متغیر توضیحی، > با این فرض که همه متغیرهای دیگر وارد شده در معادله مدل > وجود دارند. سؤالات من این است: 1. «متغیرهای دیگری که در معادله مدل وارد شده وجود دارند» دقیقاً به چه معناست؟ فرض کنید من یک آمار آزمون نوع III برای متغیر $x_i$ دارم، آیا آزمون Type III به ما می گوید که آیا ضریب مقابل $x_i$ برابر با صفر است یا خیر؟ 2. اگر چنین است، پس تفاوت آمار آزمون نوع III و آزمون والد چیست؟ (من معتقدم که آنها اساساً دو چیز متفاوت هستند زیرا SAS دو خروجی عددی متفاوت به من می دهد) در حال حاضر من هر دو خروجی را برای متغیرهای مستقل خود دارم (که همه متغیرهای ساختگی هستند). من نمی‌دانم به کدام مقدار p نگاه کنم تا تصمیم بگیرم کدام $x$ را کاهش دهم.
آزمایش نوع III دقیقاً چه کاری انجام می دهد؟
25309
من سعی می کنم نشان دهم که همبستگی بین دو ویژگی یک مجموعه داده ضعیف است. من فکر می کنم باید از آزمون t برای اندازه گیری قدرت آماری استفاده کنم، اما می خواهم بدانم به چند نمونه نیاز دارم تا نشان دهم که همبستگی کمتر از x٪ است. آیا باید بفهمم که برای نشان دادن همبستگی ضعیف بین دو ویژگی به نمونه های زیادی نیاز دارم یا روش دیگری وجود دارد که بتوانم از آن استفاده کنم تا نشان دهم همبستگی قوی وجود ندارد؟ اگر روش دیگری وجود دارد، چگونه می توانم تعیین کنم که برای اطمینان از آماری که فقط 30٪ یا کمتر همبستگی وجود دارد به چند نمونه نیاز است؟ من بیشتر با R و MATLAB آشنا هستم.
بی اهمیت بودن آماری
65288
در یافتن آزمون آماری مناسب برای نشان دادن تفاوت معناداری [از طریق p-value] به من کمک کنید > Sample_data زیرمجموعه Universe x 2200 5 y 2500 50 از داده های بالا، می خواهم بفهمم آیا نسبت Universe در زیرمجموعه برای x و y به طور قابل توجهی متفاوت هستند. مانند، زیر مجموعه‌های x و y 0.2% [5/2200*100] و 2% [50/2500*100] هستند، از این رو بین x و Y تفاوت 10 برابری وجود دارد. و کدام تست در محیط R مناسب تر است؟ چگونه می توانم نسبت های جهان را برای تعیین تفاوت معنی دار بین زیر مجموعه x(5) و y(50) حمل کنم؟ * * * ساختار داده به یک ماتریس اشاره دارد. X دارای تعداد کل ژن - 2200 (X-Universe) و Y دارای تعداد کل ژن - 2500 (Y-Universe) است. از همه X-2200، تنها 5 مورد مربوط به زیر مجموعه (یک دسته-P) و از Y-2500، 50 مورد مربوط به همان زیر مجموعه (یا دسته-P) است. و من می خواهم بگویم که مقادیر زیر مجموعه x و y (5 و 50) با توجه به تعداد کل ژن ها در X و Y (2200 و 2500) تفاوت معنی داری دارند. از نظر آماری **چگونه می توانیم تشخیص دهیم که 5 از 2200 و 50 از 2500 تفاوت معنی داری دارند؟**
کدام آزمون آماری برای بدست آوردن احتمال معناداری در تفاوت (p-value) مناسب است.
65280
من در حال بازگشایی برخی از فاکتورها برای LME با استفاده از R هستم و به مشکلی برخوردم. من سطوح عاملی را دوباره ترتیب دادم تا بتوانم در مورد نتیجه مدل در رابطه با فرضیه های تجربی خود راحت تر صحبت کنم. مدل بسیار ساده است: دو عامل و تعامل بین این دو. به طور عجیبی، زمانی که من مدل پایه را قبل از revelling اجرا می کنم، و سپس نسخه relevel شده را اجرا می کنم، یکی از عواملی که قبل از relevlling مهم بود، اکنون دیگر قابل توجه نیست. قبل از انجام این کار، تصور می‌کردم که نتیجه قبل و بعد از بازخوانی یکسان خواهد بود. هر دو عاملی که من به آنها اشاره کردم فقط دو سطح دارند، بنابراین من کمی گیج هستم که چرا ممکن است این اتفاق بیفتد. من در طول روز بارها و بارها کد را مرور می کردم - اما با آن شانسی نداشتم. آیا رفتاری که مشاهده کرده‌ام در مورد LMEها انتظار می‌رود یا این احتمال وجود دارد که هنگام تغییر سطوح فاکتورم اشتباهی انجام داده باشم؟
LME Revelling Issue
5903
با توجه به دو آرایه x و y، هر دو به طول n، مدل y = a + b*x را برازش می‌کنم و می‌خواهم فاصله اطمینان 95% را برای شیب محاسبه کنم. این (b - delta, b + delta) است که در آن b به روش معمول یافت می شود و delta = qt(0.975,df=n-2)*se.slope و se.slope خطای استاندارد در شیب است. یکی از راه‌های بدست آوردن خطای استاندارد شیب از R، `summary(lm(y~x))$coef[2,2]` است. حالا فرض کنید من احتمال شیب داده شده x و y را بنویسم، آن را در یک مسطح قبل ضرب کنم و از تکنیک MCMC برای رسم نمونه _m_ از توزیع خلفی استفاده کنم. تعریف lims = quantile(m,c(0.025,0.975)) سوال من: آیا (lims[[2]]-lims[[1]])/2 تقریبا برابر با دلتا است که در بالا تعریف شد؟ **ضمیمه** در زیر یک مدل ساده JAGS وجود دارد که به نظر می رسد این دو با هم متفاوت هستند. model { for (i در 1:N) { y[i] ~ dnorm(mu[i]، tau) mu[i] <- a + b * x[i] } a ~ dnorm(0, 0.00001) b ~ dnorm(0, 0.00001) tau <- pow(sigma, -2) sigma ~ dunif(0, 100) } I موارد زیر را در R اجرا کنید: N <- 10 x <- 1:10 y <- c(30.5،40.6،20.5،59.1،52.5، 96.0،121.4،78.9،112.1،128.4) lin <- lm(y~x) #دلتا را برای فاصله اطمینان 95 درصد در شیب محاسبه کنید delta.lm <- qt(0.975,df=N-2)*summary(lin)$coef[2,2] library('rjags') jags <- jags.model('example.bug', data = list( 'x' = x، 'y' = y، 'N' = N)، n.chains = 4، n.adapt = 100) به روز رسانی (jags، 1000) پارامتر <- jags.samples(jags,c('a', 'b', 'sigma'),7500) lims <- quantile(params$b,c(0.025,0.975)) delta.bayes <- ( lims[[2]]-lims[[1]]/2 cat (منطقه اعتماد کلاسیک: +/-round(delta.lm، اعداد=4)،\n) cat (منطقه اعتماد به نفس بیزی: +/-، round(delta.bayes، رقم=4)،\n) و دریافت: منطقه اطمینان کلاسیک: +/- 4.6939 منطقه اطمینان بیزی: +/- 5.1605 با تکرار چندین بار، منطقه اطمینان بیزی به طور مداوم گسترده تر از کلاسیک بنابراین آیا این به دلیل اولویت هایی است که من انتخاب کرده ام؟
فواصل اطمینان برای پارامترهای رگرسیون: بیزی در مقابل کلاسیک
65285
من یک مجموعه داده سری زمانی دارم که سعی می‌کنم یک مدل مارکوف پنهان (HMM) را برای تخمین تعداد حالت‌های نهفته در داده‌ها برازش کنم. کد شبه من برای انجام این کار به صورت زیر است: for( i in 2 : max_number_of_states ){ ... HMM را با حالت های i محاسبه کنید ... optimal_number_of_states = مدل با کوچکترین BIC ... } اکنون در مدل های رگرسیون معمولی BIC تمایل دارد به صرفه ترین مدل ها علاقه داشته باشد، اما در مورد HMM مطمئن نیستم که این همان کاری است که انجام می دهد. آیا کسی واقعاً می داند که معیار BIC به چه نوع HMM تمایل دارد؟ من همچنین قادر به دریافت AIC و مقدار احتمال نیز هستم. از آنجایی که من سعی می کنم تعداد کل واقعی حالت ها را استنتاج کنم، آیا یکی از این معیارها برای این منظور از دیگری بهتر است؟
معیارهای انتخاب بهترین مدل در مدل پنهان مارکوف
89507
من سعی می کنم فروش روزانه یک رستوران بیرون را پیش بینی کنم. آنها در مرکز شهر یک شهر بزرگ واقع شده اند. مشتریان اصلی آنها کارکنان اداری در زمان استراحت ناهار هستند و به همین دلیل آنها فقط در روزهای کاری باز هستند. بدون تعطیلات آخر هفته. من می خواهم (احتمالا) از هموارسازی نمایی سه گانه Holt-Winters برای پیش بینی فروش در چند ماه آینده استفاده کنم - با استفاده از حدود چهار سال داده فروش روزانه. الگوهای فصلی واضحی وجود دارد (مثلاً زمانی که بسیاری از کارکنان اداری در تعطیلات هستند، در ماه‌های تابستان شلوغ کمتری دارند). چگونه می توانم برای هیچ فروش آخر هفته و تعطیلات که ممکن است سال به سال تاریخ تغییر کند، حساب کنم؟ من متوجه شده ام که اگر دوشنبه تعطیل است، جمعه قبل از آن آخر هفته طولانی فروش به میزان قابل توجهی کاهش می یابد (احتمالاً از افرادی که ناهار را حذف می کنند و آخر هفته را زود شروع می کنند). من از R برای انجام تجزیه و تحلیل خود استفاده می کنم. هر گونه ورودی از نظر برخورد با تعطیلات در حال تغییر و انتخاب یک مدل مناسب قدردانی خواهد شد.
اطلاعات فروش روزانه - فقط روزهای هفته، بدون تعطیلات
92829
من دو مجموعه داده بزرگ دارم، در واقع، یکی از آنها حتی بسیار بزرگتر از دیگری است. از نظر بصری، به نظر نمی رسد تفاوت زیادی بین آنها وجود داشته باشد: ![مقایسه اهداف ژنی از الگوریتم های مختلف بسته به اینکه آیا آنها یک miRNA در داخل دارند](http://i.stack.imgur.com/seW9P.jpg) داده‌های واقعی زیربنای نمودار جعبه معمولاً توزیع نمی‌شوند و به خوبی برای تبدیل‌ها عادی نمی‌شوند. آنها تقریباً توزیع یکسانی هستند (یعنی توزیع‌های بله و خیر برای هر الگوریتم)، اما تفاوت‌های بزرگ اندازه داده، آزمایش‌های دیگر را کمی بی‌فایده می‌سازد. من از آزمون دو نمونه ای کولموگروف-اسمیرنوف استفاده کرده ام، اما احتمالاً این اشتباه است و نتایج بسیار قابل توجهی می دهد. سوالات من این است: 1) آیا آزمون های آماری روی مجموعه داده های بزرگ نتایج قابل توجهی را با توجه به تفاوت های جزئی بین دو نمونه ایجاد می کند؟ کوچکی با توجه به داده های بزرگ بزرگ می شود. 2) آیا بازرسی بصری با مجموعه داده های بزرگ بهتر است به جای استفاده از آزمون های غیر پارامتری و پارامتری که در آن برخی مفروضات اساسی ممکن است نقض شوند. 3) برای این داده ها، بهترین اقدام چیست؟ ویرایش داده‌های من ساختاری مانند: داده‌های من به این شکل است: Name Bind miRNA a 300 NO b 500 YES c 140 YES d 2345 NO
آیا بازرسی بصری تنها راه مقایسه مجموعه داده های بزرگ است؟
48994
هنگام برازش داده‌ها برای به دست آوردن تخمین ضرایب برای مدل‌های ARMA، شرایط MA برای برازش داده‌ها چگونه توسط نرم‌افزار تولید می‌شود؟ آیا هر بار که سعی می کنم برخی از داده ها را جا بدهم، مقادیر متفاوتی دریافت نمی کنم، زیرا عبارت MA(1) نویز سفید است و برای هر شبیه سازی دوباره تولید می شود؟ از نقطه نظر تحلیلی، همچنین هنگام برازش یک مدل ARMA به مجموعه ای از داده ها، آیا مجموعه ای منحصر به فرد از تخمین های ضریب را دریافت می کنم یا احتمالاً به این دلیل متفاوت است؟
نرم افزار به طور کلی چگونه با مدل های ARMA سازگار است؟
25306
من توزیع نتایج Y زیر را با تابع چگالی نرمال که با خط قرمز روی هم نشان داده شده است دارم: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/HFElK.png) باید یک روش رگرسیون ایجاد کنم برای پیش بینی $Y$ با توجه به تعدادی پیش بینی $X_n$. به نظر می رسد OLS به دلیل توزیع غیرعادی $Y$ با این صورت حساب سازگار نیست. با توجه به اینکه پیامدها افزایش های غیرمستمر 0.5 هستند، آیا یک رگرسیون پروبیت منظم رویکرد درستی خواهد بود؟ همانطور که من درک می کنم، یک رگرسیون پروبیت اجازه می دهد تا توزیع نتایج را مشخص کنیم. چه جایگزین دیگری دارم؟
مدل مرتب شده پروبیت برای توزیع غیرعادی نتایج
65282
روش های مختلف یادگیری ماشینی که می توانند برای رگرسیون استفاده شوند کدامند و مزایا و معایب آنها چیست؟
روش های مختلف یادگیری ماشینی که می توان برای رگرسیون استفاده کرد چیست؟
78650
در حوزه من، گاهی اوقات می‌خواهیم میزان تأثیرپذیری یک متغیر، Y، تحت تأثیر متغیر دیگری، X را ارزیابی کنیم، جایی که X در محدوده‌ای از مقادیر پیوسته اندازه‌گیری می‌شود، و مطمئن نیستیم که آیا فرض کنید که اثر X بر Y یک رابطه خطی یا نوعی رابطه غیر خطی ایجاد می کند. قبلاً، مدل‌سازی افزایشی تعمیم‌یافته (GAM) را در چنین مواردی بسیار مفید می‌دانستم، زیرا به من این امکان را می‌دهد که بدون اطمینان از شکل دقیق آن رابطه، ارزیابی کنم که آیا رابطه‌ای بین X و Y وجود دارد یا خیر، زیرا GAM از روش‌های مبتنی بر داده برای یافتن استفاده می‌کند. توابعی که بهترین تناسب را با داده ها دارند (خطی یا غیر آن). من معمولاً با محاسبه نسبت‌های احتمال با مقایسه مدل‌های تودرتو به ارزیابی می‌رسم. با این حال، اخیراً سعی کرده‌ام به چارچوب آماری بیزی بروم و دیگر نمی‌دانم با چنین مواردی از اثرات احتمالاً غیرخطی چه کنم. آیا رویکرد بیزی استانداردی برای این سناریو وجود دارد؟
استنتاج بیزی در مورد اثرات احتمالاً غیر خطی
65287
می خواستم بدانم چه تفاوت و رابطه ای بین پیش بینی و پیش بینی وجود دارد؟ به خصوص در سری های زمانی و رگرسیون؟ به عنوان مثال، آیا من درست می دانم که: * در سری های زمانی، به نظر می رسد پیش بینی به معنای برآورد مقادیر آینده با توجه به مقادیر گذشته یک سری زمانی است. * در رگرسیون، به نظر می‌رسد پیش‌بینی به معنای تخمین یک مقدار باشد، چه آینده باشد، چه فعلی یا گذشته با داده‌های داده شده. با تشکر و احترام!
تفاوت بین پیش بینی و پیش بینی؟
96567
من می خواهم با استفاده از درخت های تصمیم تقویت شده با استفاده از Matlab، مسائل طبقه بندی را آزمایش کنم. در مقاله مقایسه تجربی الگوریتم‌های یادگیری نظارت شده، این تکنیک با توجه به معیارهایی که نویسندگان پیشنهاد کردند، رتبه اول را کسب کرد. سوال من این است که آیا در Matlab کتابخانه ای برای این نوع طبقه بندی نظارت شده وجود دارد؟ تابع fitensemble(...) دارای چندین تکنیک است که درک آنها برای من دشوار است. به عنوان مثال، تکنیک LSBoost برای مشکلات رگرسیون مرتبط است در حالی که من فقط به طبقه بندی علاقه مند هستم. علاوه بر این، در یک سوال مشابه ارسال شده، دقیقا این سوال در رابطه با R و نه Matlab مطرح شده و پاسخ داده شده است.
درختان تصمیم را با استفاده از Matlab تقویت کرد
92823
اگر چندین ورودی برای یک ترکیب موضوع-درمان خاص داشته باشم، آیا عملکرد aov() به درستی این ورودی‌ها را هنگام اجرای ANOVA اندازه‌گیری‌های مکرر انجام می‌دهد؟ به عنوان مثال، فرض کنید جدول به این شکل باشد، زمان درمان موضوع نتیجه Subj1 صبح کک صبح 15 Subj1 کک صبح 14 Subj1 صبح آبی 17 صبح آبی Subj1 20 صبح کک صبح 45 Subj2 صبح کک 45 Subj2 صبح کک 46 Subj2 آب صبح نیست 58 Subj2 آب صبح که وجود دارد 75 ترکیبات مکرر موضوع-درمان آیا زمانی که aov(subj1 ~ Treatment*Time, + Error(Subject/(Treatment*Time))) به درستی رسیدگی می شود. کد اجرا می شود؟
آنووا با اقدامات مکرر در R
25305
من به دنبال اطلاعاتی در مورد انتخاب ویژگی و اعتبارسنجی متقابل بودم که این پست را پیدا کردم: انتخاب ویژگی برای مدل نهایی هنگام انجام اعتبارسنجی متقابل در یادگیری ماشین. جایی که بحث در مورد نحوه استفاده از انتخاب ویژگی در اعتبار سنجی متقاطع وجود دارد. من دیدم که روشی که توضیح داده شده تا حدودی با آنچه من استفاده می کنم متفاوت است و می خواهم بپرسم آیا کاری که انجام می دهم درست است یا خیر. کاری که من معمولاً برای انتخاب ویژگی انجام می‌دهم این است که جستجوی بهترین ویژگی‌ها را با استفاده از ناحیه زیر منحنی roc در اعتبارسنجی متقاطع به عنوان تابعی برای بهینه‌سازی انجام دهم. من معمولاً این جستجو را چند بار انجام می‌دهم، هر بار با پارتیشن‌های اعتبارسنجی متقابل متفاوت، اما با همان تعداد فولد (3 تا 5) که توسط Ron kohavi talk (IJCAI 95) توصیه شده است. مجموعه ویژگی که یک بار دیگر به عنوان بهترین ظاهر شد، مجموعه ای است که من انتخاب می کنم. سپس، با این مجموعه ویژگی، اعتبارسنجی متقاطع 10 برابری را برای پیش‌بینی دقت انجام می‌دهم. من از هر نظر در مورد این روش قدردانی می کنم. ممنون، خورخه
آیا این روش صحیحی برای انتخاب ویژگی با استفاده از اعتبارسنجی متقابل است؟
82304
بنابراین اساساً داده‌های من به شرح زیر است: نقطه داده «#»، «تاریخ»، «زمان»، «دمای» و «شوری». لاگرها بیش از 9 ماه ثبت شده اند، و من باید هر روز را بر اساس حداقل دما و شوری، و همچنین حداکثر، دامنه و میانگین خلاصه کنم. تعداد نقاط داده هر روز یکسان نیست، زیرا برخی از داده‌ها باید بیرون کشیده می‌شد زیرا ثبت‌کننده‌ها در جریان جزر و مد قرار گرفتند. آیا پیشنهادی در مورد کد برای این کار دارید؟ R بسیار جدید است، اما می خواهم تا حد امکان از آن استفاده کنم. # تاریخ زمان دما درجه سانتی گراد شوری،ppt 8 5/12/13 9:52 15.13 28.2187 9 5/12/13 10:02 15.21 28.0135 10 5/12/13 10:12 15.38/15.38 10:22 15.51 27.5082
چگونه می توانم خلاصه ای از داده ها (میانگین، حداقل، حداکثر، محدوده--من با داده های آب و هوا که هر 10 دقیقه ثبت می شود) را برای هر روز از یک سری زمانی دریافت کنم؟
82306
برای مدل‌سازی دنباله‌ای از داده‌ها، یک بار اصطلاح فنی «میانگین وزنی نمایی واریانس جریان داده» را شنیدم. به صورت بازگشتی به صورت ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/ItPHN.png) تعریف شده است. من نمی دانم چرا می توان از این فرمول بازگشتی برای تخمین واریانس استفاده کرد؟ چرا $\lambda$ باید 0.999 باشد.
میانگین وزنی نمایی واریانس جریان داده
82309
مایلم مقدار زیر را ارزیابی کنم $\log\int_\mathcal{R}p(y|\beta)p(\beta)d\beta$ که در آن $p(y|\beta)=exp(-|y-\ beta|)$ و $p(\beta)=\mathcal{N}(0,1000)$. $y$ شناخته شده است. شما احتمالاً می توانید این را با استفاده از تابع probit $\Phi$ ادغام کنید، با این حال، سوال من 1 است. چگونه می توانید از $p(\beta|y)$ 2 بعدی نمونه برداری کنید. چگونه می توان از این برای ارزیابی انتگرال استفاده کرد.
احتمال ورود به سیستم از طریق نمونه گیری پسین
64884
من مجموعه ای از دو کلاس با 4000 مشاهده دارم. من مجموعه ای از 63 ویژگی برای ساختن یک پیش بینی دارم. سوال من این است که آیا رابطه ای وجود دارد که از اضافه برازش برای داشتن ابعاد زیاد جلوگیری کند؟ منظورم حداکثر تعداد ویژگی به ازای تعداد مشاهدات در آموزش است؟
تعداد نمونه ها در مقابل تعداد ویژگی ها
25307
اگر بخواهم تجزیه و تحلیل کنم که آیا یک اثر شناخته شده توسط عامل دیگری مهار می شود، آیا تحلیل مستقیم تأثیر عامل بر اندازه اثر اشتباه است؟ یعنی آیا می توانم فقط از یک آزمون آماری بین اندازه اثر برای شرایط مختلف استفاده کنم یا باید یک مدل تعامل کامل انجام دهم؟ در اینجا تنظیم است. در هر شرایط من دو متغیر X_1 و X_2 را اندازه می‌گیرم. تفاوت بین متغیر X_1 و X_2 اندازه اثر مورد علاقه من را نشان می دهد. اکنون دو شرط C_1 و C_2 نیز دارم و فرضیه من این است که اندازه اثر برای C_2 کوچکتر خواهد بود. نسبت به «C_1». یکی از راه‌هایی که می‌توانم این را آزمایش کنم، محاسبه تمام اندازه‌های افکت در شرایط «C_1» از «X_1» و «X_2» مناسب و مقایسه همه این‌ها با اثرات محاسبه‌شده برای «C_2» است. با این حال، آنچه را که من تجزیه و تحلیل می‌کنم می‌تواند به عنوان یک اثر متقابل بین شرایط و عاملی که منجر به تولید «X_1» و «X_2» شد نیز دیده شود. بنابراین می‌توانم از مدل تعامل «2x2» استفاده کنم تا ببینم آیا شرایط من تأثیر قابل‌توجهی بر اندازه اثر دارد یا خیر. مشکل تجزیه و تحلیل مستقیم اندازه اثر چیست؟ در طرح نهایی من می خواهم فقط شرایط را در مقابل اندازه افکت ها نشان دهم، زیرا این پیچیدگی زیادی را کاهش می دهد.
آیا می توان تأثیر یک عامل متفاوت بر یک اثر شناخته شده را مستقیماً تحلیل کرد؟
110290
فرض کنید $p$ احتمالات باشد و $D$ واقعی است چگونه می توانم ثابت کنم که مناطق $$\int p \; d F_{p}(p|D=1) = \int (1-p) \; d F_{1-p}(1-p|D=1)$$ برابر است. جایی که $F_{p}$ تابع توزیع تجربی $p$ است. تصویر: par(mfrow=c(1,2)) set.seed(123) predRisk <- plogis(runif(1000,-1,10)) plot(ecdf(1-predRisk)) plot(ecdf(predRisk)) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/r8Wqf.png)
منطقه زیر احتمالات
92827
این مقاله (دسترسی آزاد) نوزادان متولد شده در آستانه زنده ماندن: تغییرات در بقا و حجم کاری بیش از 20 سال (جدول 2) داده هایی را برای بقای نوزادان نارس در طول 20 سال گذشته در دوره های زمانی 4 ساله ارائه می دهد. آنها بیان می کنند که بقای نوزادان حاملگی 23 هفته ای در این مدت بهبود نیافته است (08/0=p). آیا این آزمون روند در صورت وجود، قدرت کافی برای تشخیص روند را دارد؟ چگونه می توانم آن را تعیین کنم؟
محاسبه توان برای آزمایش روند در طول زمان
72717
**سوال**: _آیا تنظیم زیر یک پیاده سازی معقول از یک مدل مارکوف پنهان است؟_ من مجموعه داده ای از 108000 مشاهدات (در طول 100 روز) و تقریباً 2000 رویداد در کل دارم. بازه زمانی مشاهده داده ها مانند شکل زیر هستند که در آن متغیر مشاهده شده می تواند 3 مقدار مجزا $[1،2،3]$ بگیرد و ستون های قرمز زمان رویداد را برجسته می کنند، یعنی $t_E$'s: ![توضیح تصویر را در اینجا وارد کنید](http: //i.stack.imgur.com/QkIn0.png) همانطور که با مستطیل های قرمز در شکل نشان داده شده است، من {$t_E$ را به $t_{E-5}$} برای هر رویداد، به طور موثری اینها را به عنوان پنجره های قبل از رویداد در نظر می گیرد. **آموزش HMM:** من قصد دارم یک مدل پنهان مارکوف (HMM) را بر اساس تمام پنجره های قبل از رویداد آموزش دهم، با استفاده از روش توالی های مشاهده چندگانه همانطور که در صفحه پیشنهاد شده است. 273 از مقاله رابینر. امیدوارم، این به من اجازه دهد یک HMM را آموزش دهم که الگوهای توالی را که منجر به یک رویداد می شود، ثبت کند. **پیش‌بینی HMM:** سپس من قصد دارم از این HMM برای پیش‌بینی $log[P(Observations|HMM)]$ در یک روز جدید استفاده کنم، جایی که $Observations$ یک بردار پنجره کشویی خواهد بود که در زمان واقعی به‌روزرسانی می‌شود تا شامل شود. مشاهدات بین زمان کنونی $t$ و $t-5$ در طول روز. انتظار دارم $log[P(Observations|HMM)]$ برای $Observations$ که شبیه پنجره های قبل از رویداد هستند، افزایش یابد. این در واقع باید به من اجازه دهد که رویدادها را قبل از وقوع آنها پیش بینی کنم.
مدل پنهان مارکوف برای پیش بینی رویداد
105124
همانطور که می‌دانم Naïve Bayes توزیع‌های مختلفی دارد، همانطور که در کتابچه راهنمای آموزشی Sci-Kit گفته شد: > طبقه‌بندی‌کننده‌های ساده بی‌سابقه مختلف عمدتاً بر اساس فرضیاتی که در مورد توزیع $P(x_i \mid y)$ می‌کنند، متفاوت هستند. بنابراین، روش‌های مختلفی از Naïve Bayes مانند Gaussian NB، Multinomial Naïve Bayes وجود دارد، و من متوجه شدم که Sci-kit Learn کتابخانه‌های مختلفی برای آنها دارد. یک کتابخانه معروف دیگر Naïve Bayes در پایتون به نام NLTK وجود دارد. من در تلاش بودم تا توزیع Naïve Bayes مبتنی بر NLTK را پیدا کنم. پس از جستجو احساس کردم: 1. چند جمله ای نیست (اینجا و اینجا را ببینید) 2. اما در مستندات، مثال های زیر را پیدا می کنم، مثال 6.4، مثال 6.6، به نظر می رسد طبقه بندی کننده ساده بیز NLTK از 'nltk' پشتیبانی می کند. .FreqDist`. بنابراین من کمی گیج هستم. اگر یکی از اعضای محترم ممکن است مرا راهنمایی کند.
توزیع احتمال NLTK Naive Bayes چیست؟
16194
مدل بازیگر-نقد در یادگیری تفاوت زمانی، که روشی در یادگیری تقویتی است، برای بهینه‌سازی یک فرآیند بر اساس حالت به حالت با استفاده از تفاوت بین عملکرد و عملکرد مورد انتظار برای هر حالت مربوطه استفاده می‌شود. به عبارت دیگر، مجموعه ای از الگوهای ورودی ممکن برای فرآیند وجود دارد که هر کدام یک حالت را تشکیل می دهند (حالتی که عامل در آن قرار می گیرد). برای هر حالت، کنشگر یک خروجی را محاسبه می‌کند که توسط یک متریک عملکرد (که از لحاظ نظری می‌تواند خروجی هدف متفاوتی را برای هر حالت تعریف کند) ارزیابی می‌شود که سیگنال پاداش (عملکرد) را برمی‌گرداند. در همین حال، برای هر حالت، منتقد پاداش مورد انتظار را دنبال می‌کند که تابعی از سیگنال‌های پاداش گذشته برای آن حالت است. در هر تکرار، تفاوت بین سیگنال پاداش و سیگنال پاداش مورد انتظار گرفته می‌شود و برای به‌روزرسانی خط‌مشی بازیگر (امیدوارم یک گرادیان اجرا) و انتظارات عملکرد منتقد برای آن حالت به‌روزرسانی می‌شود. به طور فرضی، برای برخی از مشکلات دو یا چند حالت (الگوهای ورودی) وجود دارد که مشابه هستند و اطلاعاتی که بین این دو متفاوت است نامربوط است. به عبارت دیگر، خروجی هدف برای حالت ها یکسان و ورودی مشابه است. سپس برای منتقد به طور بالقوه مفید خواهد بود که روشی برای تشخیص این موضوع داشته باشد که همه حالت هایی که شباهت خاصی دارند عملاً یک حالت هستند، به طوری که مجموعه ای از آن حالت ها می توانند نتیجه پیش بینی شده یکسانی داشته باشند. به ویژه، اگر با سیستمی سر و کار دارید که دارای مقدار زیادی ورودی است، و اگر بیشتر آن ها در هر مقطع زمانی نامربوط باشند، پس نمی خواهید عملکرد مورد انتظار را برای هر ترکیب ممکن از آن یاد بگیرید. ورودی های غیر مرتبط سوال من این است که چگونه این کار را انجام می دهید. چگونه می‌توانید یک منتقد را وادار کنید که حالت‌های مختلف را در کلاس‌های حالت سازماندهی کند، و به روشی که عملکرد را در درازمدت بهبود بخشد؟
جلب توجه منتقدان به این موضوع که دو الگوی ورودی مشابه به یک رابطه خروجی-عملکرد اشاره دارد