_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
100047
من با آمار جدید هستم و فرصتی برای شرکت در این دوره در دانشگاه نداشتم. با این حال من باید تفاوت بین شبکه های بیزی و فرآیندهای مارکوف را بدانم. من مطالب خوبی برای هر دوی آنها پیدا کردم: شبکه بیزی فرآیند مارکوف من معتقد بودم که اصول هر دو را درک می کنم، اما اکنون که نیاز به مقایسه این دو دارم احساس می کنم گم شده ام. آنها برای من تقریباً همین معنی را دارند. حتما نیستند. کسی میتونه به من بگه فرق این دو چیه؟ پیوندها نیز قدردانی می شوند.
تفاوت بین شبکه های بیزی و فرآیند مارکوف
46850
من روی یک پروژه برای پروژه کارشناسی ارشد کار می کنم. شهری که من به آن نگاه می‌کنم، در 1 فوریه 2011 به سیستم Fareless تغییر مکان داد. من ![داده](http://i.stack.imgur.com/07VnB.jpg) زیر را برای داده‌ها دارم و از سال 2008 تا کنون حتی به تعداد دوچرخه‌سواران در هر ساعت در روز کاهش یافته است. اما من این کار را ندارم. فکر می کنم که جزئیات اطلاعات مورد نیاز است، من فکر می کنم هفته ها نگاه می کنم. مسئله این است که شهر و پایگاه دانشجویی شهر با سرعت فوق العاده در حال رشد است. در سال 2011، 400 دانشجوی جدید به پردیس اضافه شد، اما 1200 دانشجوی ادامه دار وجود داشت، بنابراین سود خالص 1600 دانشجو بود. این شهر تنها 54000 نفر جمعیت دارد و کالج تنها حدود 26000 نفر است (تا پاییز 2012). راهی که می‌خواستم ببینم آیا سیستم جدید Fareless طبق برنامه‌ریزی کار می‌کند یا نه، استفاده از پیش‌بینی سری‌های زمانی و استفاده از داده‌های pre-freeless و پیش‌بینی اعداد مورد انتظار بود. آن‌ها را با داده‌های «بعد از سفر» مقایسه کنید و ببینید آیا در فواصل اطمینان داده‌های «قبل از سفر» قرار می‌گیرد یا خیر. اگر خارج از آن باشد، تغییر در کرایه موفقیت آمیز بوده است؟ رشد دانش‌آموزان از سال 2008 تقریباً ثابت بوده است، اگر نه در سال‌های 2009/2010 قوی‌تر و سپس در سال‌های 2011 و 2012 کاهش یافت. من دسترسی R/SPSS/STATA/Excel دارم. من کاملاً با SPSS مهارت دارم و در R و STATA بسیار جدید هستم. همه کمک / مشاوره عالی خواهد بود. پیشاپیش از شما متشکرم. ویرایش: تاکنون به نظر می رسد که ARIMA روشی است که برای تجزیه و تحلیل این داده ها استفاده می شود. هنوز هم دوست دارم افکار و ایده های دیگران را در مورد موارد دیگری که ممکن است به غیر از رشد جمعیت از دست داده باشم بشنوم.
روش تحقیق بر روی سیستم اتوبوس بدون تردد
46851
فرض کنید متغیرهای ترتیبی $4$ و یک متغیر کمکی ($\log_{10}(x)$) دارم. وقتی یک مدل پروبیت ترتیبی را اجرا می کنم، سه ضریب آستانه و یک شیب پروبیت دریافت می کنم. ضرایب آستانه $b_1، \dots،b_3$ و شیب پروبیت را $b_4$ صدا بزنید. بنابراین می توانیم 10^{b_1/b_4}$ برای دسته 1، 10$^{b_{2}/b_{4}}$ برای دسته 2 و 10$^{b_{3}/b_{4}}$ برای دسته 1 دریافت کنیم. دسته 3. اما چگونه این مقدار را برای دسته $4$ محاسبه کنیم؟ برای دسته 4 ضریب وجود ندارد.
ضرایب در مدل پروبیت مرتب
46855
من سعی می کنم ماشین های بردار پشتیبانی را با استفاده از این منبع کشف کنم. در صفحه 2 بیان شده است که برای داده های قابل جداسازی خطی، مشکل SVM انتخاب یک ابر صفحه است به گونه ای که $\vec{x}_i\vec{w} + b \geq 1$ برای $y_i \in 1$ و $\vec {x}_i\vec{w} + b \leq -1$ برای $y_i \in -1$. من در درک این مشکل دارم که سمت راست محدودیت ها از کجا آمده است؟ P.S سوال بعدی این است که چگونه می توان نشان داد که حاشیه SVM برابر با $\frac{1}{||\vec{w}||}$ است.
تعریف هایپرپلن در یک SVM ساده از کجا می آید؟
112928
ارزیابی یک شی صاف با «smoothCon»، علاوه بر چندین چیز دیگر، پایه های spline معمولی «دست نخورده» objx <- te(x,bs=ps,k=4) Con.mgcv.x <- smoothCon(objx, dat,knots=NULL,scale.penalty=FALSE) Mx.mgcv <- Con.mgcv.x[[1]]$margin[[1]] Mx.mgcv$X نسخه بازسازی شده $\boldsymbol{X}\prime$ Con.mgcv.x[[1]]$X که مطابق با پارامتر صاف از نظر مقادیر تابع در مجموعه ای از گره ها: $f_x(x) = \boldsymbol{X}\boldsymbol{\alpha}$، مجموعه $\boldsymbol{\alpha}\prime=\boldsymbol{\Gamma}\boldsymbol{\alpha}$ جایی که $\Gamma_{ij} = \text{b}_i\left(x=x_j\right)$, $\ boldsymbol{X}\prime = \boldsymbol{X}\boldsymbol{\Gamma}^{-1}$ $\boldsymbol{\Gamma}^{-1}$ Matrix Con.mgcv.x[[1]]$XP[[1]] اکنون در کتاب‌های درسی مانند Wood، مدل‌های افزودنی تعمیم‌یافته: مقدمه‌ای با R ماتریس جریمه $ \boldsymbol{S}$ نیز باید مجدداً به صورت $\boldsymbol{S}\prime = تنظیم شود \boldsymbol{\Gamma}^{-T}\boldsymbol{S}\boldsymbol{\Gamma}^{-1}$. اگر به سادگی خروجی «smoothCon» را بررسی کنیم و اگر خود ماتریس $\boldsymbol{\Gamma}$ را بسازیم و محاسبه کنیم $\boldsymbol{S}\prime$، نتایج متفاوت خواهد بود، هرچند $\boldsymbol{X}\prime $ در اصل برابر است. دلیل آن چیست؟ آیا مقیاس مجدد بیشتری انجام شده است زیرا ماتریس $\boldsymbol{S}\prime$ تقریباً 10000$-برابر بزرگتر از چیزی است که توسط «smoothCon» ارائه شده است.
در عمل، ماتریس جریمه برای splines که توسط smoothCon (بسته mgcv) ایجاد شده است، چگونه مشخص می شود؟
49889
چرا رتبه ماتریس طراحی $\boldsymbol X$ برابر با رتبه $\boldsymbol{X'X}$ است؟ آیا این در همه شرایط درست است؟ اگر X مستقل خطی نباشد، رتبه X'X چقدر خواهد بود؟
چرا رتبه ماتریس طراحی X با رتبه X'X برابر است؟
48687
من سعی می کنم آزمایشی را تحلیل کنم که در آن از هر موضوعی در شرایط مختلف سؤال مشابهی پرسیده می شود. سپس هر یک از پاسخ‌های آن‌ها را در دسته‌هایی توضیح می‌دهم که پاسخ‌های آنها را به تفصیل شرح می‌دهم. من سعی می کنم روابط بین دسته های مختلف را پیدا کنم. به عنوان مثال، چندین کاربر که پاسخ‌هایشان را می‌توان بر اساس دسته A توصیف کرد، اغلب می‌توانند با دسته B توصیف شوند، اما اصلاً با دسته C مرتبط نیستند. من فکر می‌کردم که تحلیل عاملی می‌تواند روابط بین دسته‌ها را پیدا کند، اما به نظر می‌رسد که برای غیر داده های عددی، تجزیه و تحلیل مکاتبات مناسب تر است، آیا این درست است؟ متشکرم.
رابطه بین دسته ها
58046
من کمی در مورد تجزیه و تحلیل بقا می خوانم و بیشتر کتاب های درسی بیان می کنند که $h(t)= \lim_{ \Delta t \rightarrow 0} \frac{P(t < T \leq t+\Delta t |T \geq t )} {\Delta t} =\frac{f(t)}{1-F(t)} (1)$ که در آن $h(t)$ نرخ خطر است، $f(t)=\lim_{\Delta t \rightarrow 0} \frac{P(t < T \leq t+\Delta t)}{ \Delta t}(2)$ تابع چگالی، $F(t) =Pr(T<t) (3)$ and $S(t)=Pr(T>t)=1-F(t) (4)$ همچنین بیان می کنند که $S(t)= e^{- \int_0^t h(s)ds } (5)$ اکثر کتابهای درسی (حداقل آنهایی که من دارم) برای هیچکدام از (1) یا (5) مدرکی ارائه نمی کنند. فکر می‌کنم توانستم از طریق (1) به صورت زیر $h(t)= \lim_{ \Delta t \rightarrow 0} \frac{P(t < T \leq t+\Delta t |T \geq t )}{ \Delta t}=$ $\lim_{ \Delta t \rightarrow 0} \frac{P(T \geq t |t < T \leq t+\Delta t ) P(t < T \leq t+\Delta t)}{ P(T \geq t)\Delta t}$ که به دلیل (2) و (4) می شود $\lim_{ \Delta t \rightarrow 0} \frac{P(T \geq t |t < T \leq t+\Delta t )f(t)}{S(t)\Delta t}$ اما $P(T \geq t |t < T \leq t+\Delta t )=1$ بنابراین $h(t)=\frac{f(t)}{1-F(t)}$ چگونه می توان (5) را ثابت کرد؟
اثبات رابطه بین نرخ خطر، چگالی احتمال، تابع بقا
11829
آیا می توان لاگ یک متغیر مستقل را در رگرسیون پواسون گرفت؟ هنگام انجام این کار باید از چه چیزهایی آگاه باشم؟ (با فرض اینکه متغیر مستقل با log link باشد، نتایج بهتر می شوند.)
گزارش یک متغیر مستقل را در رگرسیون پواسون در نظر بگیرید
14854
من یک متغیر مستقل مقوله ای دارم (دو سطح: شرط 1؛ شرط 2) و متغیرهای وابسته ترتیبی(؟) (تغییرهای بزرگی عددی (به عنوان مثال -3 اگر در بزرگی عدد از 4 به 1 کاهش داشت). اکنون می خواهم ارزیابی کنم. آیا این شرط تغییر در متغیر وابسته را پیش‌بینی می‌کند، اکنون من سؤالات زیر را دارم: رگرسیون خطی برای DV = ترتیبی (طبقه ای) 2. آیا می توانم یک رگرسیون خطی برای طراحی اندازه گیری های مکرر انجام دهم؟
چگونه می توان تأثیر شرط را بر نمرات تغییر برای یک متغیر وابسته احتمالاً ترتیبی آزمایش کرد؟
112923
من یک سوال دارم که مربوط به سری های زمانی یا به احتمال زیاد فقط مربوط به ریاضیات ساده است. فرض کنید که من تعداد بازدیدکنندگان آنلاین 5 وب سایت را به صورت ماهانه اندازه گیری می کنم، بنابراین این داده ها را برای ماه های ژانویه تا دسامبر در اختیار دارم. چیزی که می خواهم بفهمم این است که متوسط ​​نرخ رشد **سالانه** برای چقدر است وب سایت ها؟ یعنی تصور کنید من دارم با این وب سایت ها کاری انجام می دهم و می خواهم به کسی بگویم که این 5 وب سایت که نماینده برخی از جمعیت هستند به طور متوسط ​​به یک وب سایت x% **سالانه** نرخ رشد بازدیدکنندگان در سال اول از آنجایی که من این را برای 12 ماه برای هر وب سایت اندازه گیری کرده ام، یافتن نرخ رشد بازدیدکنندگان برای یک وب سایت استاندارد خواهد بود (t(month12) - t(month 1))/t(month 1). اگر بخواهم میانگین نرخ رشد **سالانه** را در تمام 5 وب سایت پیدا کنم، چه کار می کنم؟ آیا میانگین نرخ رشد **سالانه** بی خطر است؟ من به دنبال یک روش بسیار رسمی برای این نیستم. من فقط می‌خواستم بدانم آیا هنگام تلاش برای دریافت بازتابی کلی از نرخ رشد **سالانه** در وب‌سایت 5، انجام این کار با خطرات شدیدی مواجه است یا خیر. امیدوارم که منطقی باشد. با تشکر
میانگین نرخ رشد برای سال 1 در 5 گروه
100045
مشکل الگوریتم های نزولی گرادیان، به عنوان مثال. الگوریتم لونبرگ-مارکوارت به این صورت است که آنها به حداقل حدس اولیه نزدیک می‌شوند، بنابراین وقتی از موقعیت‌های مختلف شروع می‌کنید به حداقل‌های متفاوتی می‌رسید. آیا یک الگوریتم مبتنی بر گرادیان وجود دارد که بدون توجه به اینکه از کجا شروع می شود، نتایج مشابهی را ارائه می دهد؟ به عنوان مثال حداقلی که از حداقل سطحی فرار می کند و بنابراین احتمال بیشتری دارد که به یک حداقل جهانی یا حداقل یک حداقل محلی شبیه به جهانی همگرا شود. این را می توان با دادن اینرسی به شیب نزولی به دست آورد، بنابراین همانطور که جایگزین به سمت پایین مشتقات جزئی حرکت می کند، شتاب به دست می آورد، و سپس هنگامی که تمام مشتقات جزئی برابر با صفر (یعنی حداقل)، الگوریتم به حرکت در جهت ادامه می دهد. قبلاً می رفت، اما شروع به کند شدن می کند، زیرا اکنون به سمت مشتقات جزئی بالا می رود. این به آن کمک می کند تا از حداقل محلی فرار کند و حداقل جهانی را پیدا کند. آیا چنین الگوریتمی وجود دارد؟ (این یک الگوریتم بهینه سازی جهانی مانند الگوریتم ژنتیک یا بهینه سازی ازدحام ذرات نیست)
الگوریتم کمینه سازی مبتنی بر شیب نزولی که برای نزدیک به بهینه جهانی نیازی به حدس اولیه ندارد
62306
چرا ما نمودار باقیمانده را در تحلیل رگرسیون تحلیل می کنیم و نه بین دو متغیر منفرد؟ به عنوان مثال، هنگام بررسی نرمال بودن، ناهمسانی و غیره، ما دو متغیر مجزا را تجزیه و تحلیل نمی‌کنیم، بلکه نمودار باقیمانده را تجزیه و تحلیل می‌کنیم، چرا چنین است؟
تجزیه و تحلیل نمودار باقیمانده در مقابل نمودار متغیرهای مستقل
62305
من در حال بررسی فصل 4 (تست‌ها) در کتاب دیویسون و هینکلی (D&H) با عنوان روش‌های بوت استرپ و کاربردهای آنها هستم و در مورد یکی از نمونه‌های آنها سوالی دارم. ## تست پیشنهادی دیویسون و هینکلی مثال 4.1 یک آزمون جایگشت برای فرضیه (جایگزین) شیب غیرصفر در یک رگرسیون لجستیک ساده پیشنهاد می‌کند. به نقل از صفحه 141: > **مثال 4.1 (رگرسیون لجستیک)** فرض کنید $y_1، \ldots، y_n$ > نتایج باینری مستقل هستند، با مقادیر متغیر کمکی اسکالر متناظر > $x_1، \ldots، x_n$ و ما آرزو می کنیم برای آزمایش اینکه آیا $x$ روی > $y$ تأثیر می گذارد یا نه. اگر مدل انتخابی ما مدل رگرسیون لجستیک باشد $$ \log > \frac{\Pr(Y_j = 1 | x_j)}{\Pr(Y_j = 0 | x_j} = \lambda + \psi x_j, \quad > j= 1,\ldots,n, $$ سپس فرضیه صفر $H_0 است : \psi=0.$ زیر $H_0$، > آمار کافی برای $\lambda$ است $S=\sum Y_j$ و $T=\sum x_j Y_j$ است > آمار آزمون طبیعی > > [... متن بریده شده...] > > توزیع تهی $Y_1،\ ldots، Y_n$ با توجه به $S = s$ یکنواخت است بیش از $n > جایگشت s$ از $y_1، \ldots، y_n$ را انتخاب کنید به جای محاسبه همه آنها جایگشت‌ها برای بدست آوردن توزیع دقیق $T$، آنها پیشنهاد می‌کنند که $x_i$ ثابت بماند و جایگشت‌های $R$ از $y_i$ تولید شود تا توزیع دقیق $T$ ## به نظر برسد. اما فکر من این بود که یک توزیع تهی کمی متفاوت را شبیه سازی کنم، با توجه به اینکه $\psi = 0$ تحت فرضیه صفر، $$ \Pr(Y_j =). 1| من مجموعه‌های $R$ از $y^*_1، \ldots، y^*_n$ را با هر $y^*_i \sim تولید می‌کنم. \textrm{برنولی}(\frac{e^{\lambda}}{e^{\lambda} + 1})$. به جای (اما احتمالاً معادل) D&H's $T=\sum x_j Y_j$، من تخمین $\psi$ را از یک رگرسیون لجستیک برازش نمونه بوت استرپ به عنوان آمار آزمایشی خود در نظر می‌گیرم. ## سوالات دو تست بالا به توزیع های مختلف نمونه های بوت استرپ بستگی دارد. به عنوان مثال، مال من ممکن است نمونه هایی تولید کند که در آنها همه $y^*_i$ برابر با 1 باشد، در حالی که همه نمونه های D&H دارای همان تعداد 1 هستند. به نظر می رسد تفاوت برجسته این است که توزیع نمونه D&H مشروط به $S=\sum Y_j$ است در حالی که توزیع من مشروط است. آیا یکی از این رویکردها در همه شرایط بر دیگری ارجحیت دارد؟ به نظر می رسد که آنها فرآیندهای مختلف تولید داده را در جمعیت های نمونه اولیه فرض می کنند/مدل می کنند. آیا این درست است؟ اگر چنین است، چه زمانی باید یک رویکرد را بر دیگری انتخاب کنم؟
(چرا) توزیع نمونه بوت استرپ برای شیب رگرسیون لجستیک باید مشروط به $S=\sum Y_j$ باشد؟
62304
من یک مدل ترکیبی را با «lmer()» برازش داده‌ام و با 4 اصطلاح تعامل قابل توجه باقی مانده‌ام. با حذف عبارت تعامل و مقایسه با مدل کامل با استفاده از «anova(fm1, fm2)» یافت شد. اصطلاحات تک را هم در مدل گذاشته ام. وقتی می‌آیم با حذف کردن آن‌ها و استفاده از «anova(fm1, fm2) chi-square را گزارش کنم. به من می‌گویند 0 df و chi-square 0 است. من نمی‌دانم چگونه این امکان وجود دارد: آیا مدل من بیش از حد مناسب است؟
بیش از حد در GLMM
13089
اخیراً در مورد تجزیه و تحلیل متوالی به ویژه آزمون های نسبت احتمال متوالی (بعد از اینکه با تجمع خطاهای آلفا دست و پنجه نرم کردم) یاد گرفتم. این سوال را نیز ببینید: آزمون فرضیه های متوالی در علوم پایه. سوال من این است: اشتقاق یا توضیح آستانه های قاعده توقف چیست (دوباره نگاه کنید به آزمون های نسبت احتمال متوالی - نظریه)؟ چگونه این آستانه ها از تجمع خطاها جلوگیری می کنند؟ من در مورد این طرح صحبت می کنم: $a < S_i < b$ که $S_i$ نسبت احتمال است و $a:=\frac{\beta}{1-\alpha}$ و $b:=\frac{1 -\beta}{\alpha}$. چرا a و b به این صورت تنظیم می شوند؟ من یک توضیح شهودی را ترجیح می‌دهم، اما یک توضیح ریاضی با استفاده از مفاهیم نادر بسیار نادر نیز خوب است.
توضیح آستانه ها در آزمون نسبت احتمال متوالی
14856
من به دنبال انجام طبقه بندی بر روی داده های متنی هستم. من «300 کلاس»، 200 مدرک آموزشی در هر کلاس دارم (بنابراین «در مجموع 60000 مدرک») و این احتمالاً منجر به **داده‌های ابعادی بسیار بالا می‌شود (ممکن است بیش از **1 میلیون ابعاد را جستجو کنیم** ). من می‌خواهم مراحل زیر را در خط لوله انجام دهم (فقط برای اینکه بفهمید نیازهای من چیست): 1. تبدیل هر سند به بردار ویژگی («tf-idf» یا «مدل فضای برداری») 2. «ویژگی» انتخاب (ترجیحاً مبتنی بر «اطلاعات متقابل» یا هر نوع استاندارد دیگری) 3. آموزش طبقه بندی کننده («SVM»، «Naive Bayes»، «رگرسیون لجستیک» یا جنگل تصادفی) 4. پیش بینی داده های دیده نشده بر اساس مدل طبقه بندی آموزش دیده. بنابراین سوال این است که از چه ابزار/چارچوبی برای مدیریت چنین داده های با ابعاد بالا استفاده کنم؟ من از مظنونین معمولی (R، WEKA...) آگاه هستم، اما تا جایی که می دانم (ممکن است اشتباه کنم) احتمالاً هیچ یک از آنها نمی توانند داده های به این بزرگی را مدیریت کنند. آیا ابزار دیگری وجود دارد که بتوانم به آن نگاه کنم؟ اگر بخواهم آن را موازی کنم، آیا باید به آپاچی ماهوت نگاه کنم؟ به نظر می رسد ممکن است هنوز کاملاً عملکرد مورد نیاز من را ارائه ندهد. پیشاپیش از همه ممنونم * * * به روز رسانی: من به اطراف این وب سایت، لیست پستی R و به طور کلی اینترنت نگاه کردم. به نظر من مشکلات زیر ممکن است در موقعیت من ظاهر شود: (1) پیش پردازش داده های من با استفاده از R (به ویژه بسته tm) می تواند غیرعملی باشد، زیرا tm به شدت کند خواهد بود. (2) از آنجایی که من نیاز به استفاده از مجموعه ای از بسته های R (پیش پردازش، ماتریس های پراکنده، طبقه بندی کننده ها و غیره) دارم، قابلیت همکاری بین بسته ها ممکن است مشکل ساز شود و ممکن است در تبدیل داده ها از یک فرمت به فرمت دیگر هزینه های اضافی را متحمل شوم. . به عنوان مثال، اگر من پیش پردازش خود را با استفاده از «tm» (یا ابزار خارجی مانند WEKA) انجام دهم، باید راهی برای تبدیل این داده ها به فرمی پیدا کنم که کتابخانه های HPC در R بتوانند بخوانند. و باز هم برای من روشن نیست که آیا بسته های طبقه بندی کننده مستقیماً داده هایی را که توسط کتابخانه های HPC ارائه شده است دریافت می کنند. آیا من در مسیر درست هستم؟ و مهمتر از آن، آیا من منطقی هستم :-)؟ * * *
طبقه بندی متن در مقیاس بزرگ
13085
من می‌خواهم مقدار عدم قطعیت را در یک پیام معین اندازه‌گیری کنم، اما سیگنالی که با آن کار می‌کنم غیر ثابت و غیر خطی است. آیا امکان اعمال آنتروپی شانون برای چنین سیگنالی وجود دارد؟
آنتروپی شانون برای سیگنال غیر ثابت و غیر خطی
11821
فرض کنید که یک رگرسیون با مجموعه کاملی از متغیرها دارید و می دانید که باقیمانده ها توزیع نرمال نیستند. بنابراین شما فقط یک رگرسیون را با استفاده از OLS برای یافتن بهترین تناسب خطی تخمین می زنید. برای این منظور شما از فرض شرایط خطای توزیع شده عادی خودداری می کنید. پس از تخمین شما 2 ضریب معنادار دارید. اما چگونه کسی می تواند این ضرایب را تفسیر کند؟ بنابراین هیچ راهی برای گفتن این ضرایب وجود ندارد، اگرچه فرضیه $\beta=0$ را می توان با یک آماره t بالا (به دلیل رد فرض خطای عادی) رد کرد. اما در این صورت چه باید کرد؟ چگونه می خواهید بحث کنید؟
زمانی که توزیع نرمال عبارت خطا را فرض نمی کنیم، مقادیر t را تفسیر کنید
14850
آیا کسی می داند چگونه یک اعتبارسنجی متقاطع ترتیب دهد تا بتوانم دو مدل (دوجمله ای منفی با شبه پواسون) را با هم مقایسه کنم؟ من برخی از نظریه‌ها را فراتر از اعتبارسنجی متقاطع می‌دانم، اما نمی‌دانم چه نوع اعتبارسنجی متقاطع منطقی است (یکی را کنار بگذارید، اعتبارسنجی متقاطع ساده، k-fold) هنگام مقایسه دو glms با حدود 1000 مشاهده. و چگونه با استفاده از R این کار را انجام دهیم؟ با تشکر از کمک شما!
مقایسه دو GLM با استفاده از اعتبارسنجی متقابل
94578
داده های من (n> 4000) حاوی نتایج دو آزمون جداگانه (ابزار) است. من یک پروفیل از ترازو لیکرت برای یکی از سازها (S1, S2, ... S20) دارم. من می خواهم مشخصات مربوط به ساز دوم را پیدا کنم که کاملاً (یا تقریباً کاملاً) با ساز اول مرتبط باشد. به نظر می رسد باید جایگشتی وجود داشته باشد که این نمایه ناشناخته را پیدا کند.
همبستگی نیمرخ نظری
112927
فرض کنید من دو مدل ARIMA زیر را دارم: 1. ARIMA(7,1,1) (بدون فصلی) 2. ARIMA(6,1,1)(1,0,0)7 (فصلی بودن دوره 7). آیا آنها از نظر مفهومی یکسان هستند؟ اگر چنین است، چرا وقتی آنها را با استفاده از R مدل می‌کنم، مدل‌های مختلف و تناسب‌های متفاوتی دریافت می‌کنم؟
ضرایب فصلی در مقابل غیر فصلی در R ARIMA
48681
من سعی می کنم یک HMM را به مجموعه داده ای شبیه به: id0: A، A، A، C، B، A، C، B id1: C، B، A، A، C، C id2: B، A، A، تنظیم کنم. C، B، B، A در مجموع سه کاراکتر (A، B، C) و حدود 40k از این ردیف وجود دارد. من از «HMMFit» R از بسته «RHmm» استفاده می کنم. به‌عنوان ورودی «HMMFit» باید تعداد حالت‌های پنهان مورد نظر را انتخاب کرد، بنابراین من می‌توانم مدل‌های مختلفی را برای تعداد مختلف حالت‌های پنهان تولید کنم. علاوه بر مدل، «HMMFit» احتمال ورود، معیار BIC و معیار AIC را گزارش می‌کند. چگونه می توان کفایت چنین مدلی را ارزیابی کرد؟ آیا باید مدل را از داده های آموزشی به جای کل مجموعه داده استنباط کرد که من اکنون انجام می دهم؟ اگر بله، چگونه می توان بررسی کرد که آیا مدل آموزش دیده داده های آزمون را توصیف می کند؟ با توجه به مدل‌های مختلف بالقوه کافی که برای تعداد متفاوتی از حالت‌های پنهان تولید شده‌اند، کدام یک را باید ترجیح دهم؟
ارزیابی کفایت مدل های مارکوف پنهان
62300
بگویید من یک دسته سکه وزنی دارم که 90 درصد مواقع باید سرها را نشان دهند. من یک دسته از آنها را می گیرم، آنها را در جعبه می اندازم و درصد سکه هایی را که روی سرها فرود آمده است محاسبه می کنم. من این کار را چندین بار انجام می دهم و انحراف معیار 5% و میانگین 90% را محاسبه می کنم. با فرض توزیع نرمال، سپس (به طور ناآگاهانه) تصمیم می‌گیرم در اجراهای بعدی برنامه‌ریزی کنم: * 34.1٪ (1 STD DEV) از 90٪ تا 95٪ هدها * 13.6٪ (2 STD DEV) از زمان‌ها من 95% تا 100% هدها را می بینم * **2.1% (3 STD DEV) از زمان ها 100% را می بینم تا 105% سر ** این آخرین ورود، البته، غیرممکن است. من فرض می کنم که کل تحلیل اساساً اشتباه است. راه صحیح برای تفسیر انحراف معیار هنگام برخورد با موقعیت هایی مانند موارد فوق چیست؟ (بالاخره، من یک نوبت آماری هستم، بنابراین اگر در میدان سمت چپ قرار گرفتم، با خیال راحت من را صاف کنید!)
انحراف معیار درصدها
10773
اگرچه با خواندن تعداد زیادی کتاب، هنوز مطمئن نیستم که از کدام روش و نحوه اجرای آن استفاده کنم، بنابراین از هر کمکی قدردانی می کنم! من 4 گروه مختلف (درمان) با 50 شرکت کننده دارم. عمل هر شرکت کننده 5 بار در شرایط یکسان مشاهده می شود. 5 مقدار مختلف در یک دور جمع آوری می شوند، جایی که هر شرکت کننده باید 5 مورد را در یک زمان دلخواه انتخاب کند. بنابراین می دانم که ارزش های مختلف برای هر شرکت کننده مستقل از یکدیگر نیستند. با این حال، اثرات زمانی برای من جالب نیست و تصور نمی‌کنم اثرات یادگیری آشکار باشد. من فقط 5 مقدار برای هر شرکت کننده جمع آوری می کنم تا داده های بیشتری به دست بیاورم. سپس تمام داده‌های درون یک گروه (برای همه کاربران و انتخاب‌های آنها) با هم جمع‌آوری می‌شود و یک معیار جمع‌آوری پیچیده (عددی) برای همه گروه‌ها محاسبه می‌شود. حال سوال این است که آیا تفاوت معناداری برای این معیار بین گروه ها وجود دارد؟ از آنجایی که برآوردگر بی طرفی برای اندازه گیری وجود ندارد و از آنجایی که داده های من عادی نیستند، می دانم که به نوعی از نمونه گیری نیاز دارم. بنابراین، برای مثال، تست‌های ولش یا لوین در اینجا کار نمی‌کنند. من فقط مطمئن نیستم که آیا تست های bootstrapping یا permutation مناسب تر به نظر می رسند. دوم، آیا می‌توانم اقدامات مکرر را نادیده بگیرم و همه مقادیر را بدون توجه به شرکت‌کنندگانی که آن را ارائه کرده‌اند، با هم جابجا کنم؟ اگر نه، آیا قرار است بردارهایی را برای هر شرکت کننده ایجاد کنم و آنها را جایگزین کنم؟ اگر طراحی نامتعادل داشته باشم (در صورت عدم وجود برخی مشاهدات) چه اتفاقی می افتد؟ آیا نرم افزاری می شناسید که چنین روشی قبلاً در آن پیاده سازی شده باشد؟
تست های جایگشت با اندازه گیری های مکرر
10778
من درک کلی از تفاوت بین یک جامعه (مجموعه ای از نهادهای مورد مطالعه) و یک نمونه (یک زیربخش انتخاب شده از جامعه) دارم. با این حال، اخیراً در PPC (پرداخت به ازای کلیک) و AdWords کار کرده‌ام و به نظر نمی‌رسد که تفاوت جمعیت/نمونه در این زمینه را درک کنم. به عنوان مثال، فرض کنید دو تبلیغ گوگل ادوردز وجود دارد. کاربران روی تبلیغ کلیک می کنند و آنها را به فرمی می برد که در صورت تمایل می توانند آن را پر کنند. بنابراین، من اطلاعاتی در مورد تعداد کلیک ها و تعداد فرم های پر شده دارم. سوالی که می‌خواهم به آن پاسخ دهم این است که کدام تبلیغ در دریافت کلیک‌ها و پر کردن فرم‌های بیشتر مؤثرتر بوده است. فرم‌های کلیک Ad1 - 300 105 Ad2 - 320 100 در ابتدا، فکر می‌کردم که نمونه من دو تبلیغ (Ad1 و Ad2) است، اما این درست نیست زیرا من واقعاً تعداد کلیک‌ها و فرم‌های پر شده را بررسی می‌کنم. بنابراین به نظر می رسد جمعیتی که من بررسی می کنم، کلیک ها و فرم های مرتبط با دو آگهی (Ad1 و Ad2) است و نمونه من تعداد کلیک ها و تعداد فرم های پر شده خواهد بود. آیا این درست/اشتباه است؟ بنابراین، آیا کلیک‌ها و فرم‌ها دو نمونه جدا از یک جامعه در نظر گرفته می‌شوند؟ یا جمعیت من با نمونه من در این مورد یکی است؟
تفاوت بین جامعه و نمونه
13084
من دو لیست قیمت تاریخی با ستون های زیر دارم > **داده - قیمت** حالا باید نسبت بین قیمت های این لیست ها را ایجاد کنم: > **لیست A:** 01/01/2011 10.50 > > ** لیست B:** 01/01/2011 23.89 من تاریخ لیست ها را مقایسه می کنم، اگر روز یکسان باشد نسبت را پیدا می کنم، انجام می دهم: > **نسبت** = 10.50 / 23.89 خوب... من این تقسیم را برای هر قیمت لیست انجام می دهم. نتیجه باید این باشد: 0.4395 0.4400 0.4289 0.4361 حال سوال این است: **چگونه می توانم بررسی کنم که آیا این سری (نسبت ها) به معنای برگرداندن است؟**
چگونه بفهمیم که لیست قیمت ها معکوس کننده هستند؟
94421
به دنبال مقاله هوفرت و همکاران استنتاج احتمال برای جفت های ارشمیدسی در ابعاد بالا تحت حاشیه های شناخته شده (http://dl.acm.org/citation.cfm?id=2263953) من یک فیلمنامه در Matlab نوشتم تا تخمین بزنم. کوپولهای ارشمیدسی در ابعاد بالا. روش موجود در مقاله آنها امکان محاسبه مشتقات توابع مولد را بدون توسل به روشهای تکراری فراهم می کند. فقط فرم های بسته بنابراین فکر کردم که استفاده از آن به‌عنوان جایگزینی برای استفاده از کوپول‌های بیضوی برای برخی مدل‌سازی‌های چند متغیره ایده خوبی است. من از آن برای نمایش داده هایی با وابستگی شدید با استفاده از کوپول های Gumbel استفاده کردم. با این حال، زمانی که من از آن برای نشان دادن بیش از چهار متغیر استفاده کردم، برآوردها به خوبی کوپول های بیضوی نبودند! در مقاله‌ای که متعاقباً نوشتم، یک بازبین متوجه شد که دلیل آن این است که _Gumbel copula تنها یک پارامتر دارد، که نشان می‌دهد برای نمایش داده‌های با ابعاد بالا بی‌فایده است. من باید استفاده کنم، او در آن موارد (با پیچیدگی بیشتر) یک کوپال انگور گفت. یک کوپول یکپارمتری نیست. پس از آن سوال من این است که آیا کوپول های Archimidean واقعا برای نمایش داده های با ابعاد بالا مفید هستند؟ آیا آنها به جز ساختارهای وابستگی شاید همگن، که در آن وابستگی ممکن است بین جفت متغیرها برابر باشد، بی فایده هستند؟ آیا نمونه ای از نمایش _good_ داده های چند متغیره وجود دارد؟
آیا کوپول های ارشمیدسی برای نمایش داده های چند متغیره بی فایده هستند؟
10191
گفته می‌شود که اگر طرح‌های پاسخ‌های فرضی موازی نباشند، بلکه متقاطع باشند، تعامل وجود دارد. فرض کنید دو عامل داریم. آیا ممکن است که طرح ها به هم برسند اما تعامل نداشته باشیم؟ این زمانی معقول تر است که طرح ها به هم نزدیک باشند. متوجه شدم که برعکسش درسته حتی اگر منحنی های عامل A روی عامل B و فاکتور B روی عامل A با هم تلاقی نداشته باشند، ممکن است تعامل داشته باشیم. در کتابی که خوانده‌ام، این زمانی اتفاق می‌افتد که تعامل قابل حذف باشد، به این معنی که متغیر مستقل همزاد دیگری وجود دارد.
مثال متقابل برای برهم کنش و منحنی های موازی؟
29759
من اخیراً در مورد بیز تجربی (مقدمه ای توسط Cassella؟) مطالعه کردم و بسیار شبیه به مدل جلوه های تصادفی بود. از این نظر که هر دو تخمین‌ها به میانگین جهانی کاهش یافته‌اند... اما من آن را کامل نخوانده‌ام... آیا کسی درباره شباهت‌ها و تفاوت‌های بین آنها بینشی دارد؟
بیز تجربی و اثرات تصادفی؟
59798
چه زمانی باید از کاپا وزنی درجه دوم یا کاپا وزنی خطی استفاده کنم؟ من دو ناظر دارم که کلاس های تعدادی از اشیاء را ارزیابی می کنند. کلاس ها شکست خورده، pass1، pass2 و عالی (مقیاس ترتیبی) هستند. خطاهای طبقه‌بندی بین «شکست» یا «عالی» و درجات مختلف «گذر» شدیدتر از خطاهای بین کلاس‌های پاس (پاس ۱ و ۲) است. آیا می توانم مقادیر کلاس ها را به صورت fail = 1، pass1=20، pass2=25، excellent=40 تعریف کنم و از کاپا وزنی خطی استفاده کنم (مجازات بالاتر در افراط به روشی شهودی / ذهنی) ? یا باید از کاپا وزنی درجه دوم استفاده کنم؟ چرا باید یک نوع را بر دیگری ترجیح دهم؟
کاپا وزنی درجه دوم در مقابل کاپا وزنی خطی
29756
من سعی می کنم یک نقطه شکست را روی $x$ از چندین هزار $(x,y)$ محاسبه کنم. با توجه به توزیع چگالی مطابق هیستوگرام دو بعدی زیر، روش حداقل مربعات نامناسب است. رگرسیون متعامد برای محور پایین‌تر $x$ مناسب‌تر است، اما آیا می‌توان یک رگرسیون متعامد تکه‌ای انجام داد؟ چگونه می توانم این کار را انجام دهم، ترجیحاً در R؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/xb1fd.png)
رگرسیون متعامد تکه ای
1525
بگو من سال هاست که هر سه شنبه همبرگر می خوردم. می توان گفت که من 14 درصد مواقع همبرگر می خورم، یا اینکه احتمال اینکه در یک هفته یک همبرگر بخورم 14 درصد است. تفاوت های اصلی بین احتمالات و نسبت ها چیست؟ آیا یک احتمال نسبت مورد انتظار است؟ آیا احتمالات نامشخص هستند و نسبت ها تضمین شده است؟
تفاوت بین احتمال و نسبت چیست؟
94572
عکس اول سوال و کلید پاسخ آن است: ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3qWCe.jpg) عکس دوم راه حل من است: ![شرح تصویر را اینجا وارد کنید](http ://i.stack.imgur.com/cIlt5.jpg) من می دانم که $S^2=\frac{\sum(x_i-\bar x)^2}{n-1}$ اما در کلید پاسخ، $s^2$ را نمی توان به این شکل پیدا کرد. من حدس می زنم، اینجا یک اشتباه وجود دارد. یا آیا قانونی وجود دارد که من نمی دانم؟ لطفا در این مورد شفاف سازی کنید. متشکرم.
محاسبه واریانس استاندارد $s^2$
86154
**سوال** من یک مجموعه داده دارم که فکر می کنم به یک تحلیل چند سطحی چند متغیره نیاز دارد. من هم در مورد مدل مناسب و هم اینکه چگونه آن را با «R» تطبیق دهم مطمئن نیستم. من به یک مدل آزمایشی رسیده‌ام، اما درک من از ریاضیات آنقدر سطحی است که نمی‌توانم بگویم تحلیل من «درست» است یا شامل خطاهای آشکار است. من از هرگونه بینشی در مورد طراحی مدل یا مشخصات مدل در `R` سپاسگزارم. **طراحی مطالعه** سوال این است که آیا طراحی معماری یک کلینیک بر نتیجه آسیب شناسی برای ساکنین دائمی این کلینیک تاثیر خواهد داشت؟ ما اطلاعات 13 علامت را برای 8 بیمار در هر کلینیک در 21 کلینیک جمع آوری کرده ایم. یک «دارو» در سطح بیمار و یک «معماری» IV در سطح کلینیک وجود دارد. همه متغیرها پیوسته هستند. 13 علامت به طور متوسط ​​+.20 همبستگی دارند، که فکر می کنم نشان دهنده مناسب بودن تحلیل چند متغیره چند متغیره است. **داده** برای اجرای تجزیه و تحلیل چند متغیره با nlme من DV های خود را استاندارد کرده ام، این 13 DV را در یک ستون منفرد انباشته کرده ام و یک متغیر ساختگی طبقه بندی را اضافه کرده ام تا علامت گذاری کنم که کدام ردیف با کدام علامت مطابقت دارد. به نظر می رسد: امتیاز علائم بیمار کلینیک معماری دارو 1 1 EP1 0.12 1 3.2 1 1 EP2 0.11 1 3.2 1 1 EP3 0.13 1 3.2 1 2 EP1 0.56 4 3.224 3.221. EP3 0.23 4 3.2 2 3 EP1 0.22 3 5.1 2 3 EP2 0.25 3 5.1 2 3 EP3 0.14 3 5.1 2 4 EP1 0.78 6 5.1 2 4 EP2 6 5.1 2 4 EP2 0.25 0.25 5.1 **طراحی مدل** * برای اجرای تجزیه و تحلیل به صورت چند متغیره، من از هر دو «علامت» و «نشانه:معماری» به عنوان IV استفاده می‌کنم و وقفه را در هر دو بخش ثابت و تصادفی مدل حذف می‌کنم. من جلوه اصلی «معماری» را به عنوان IV درج نمی کنم. * اثر دارو باید در همه کلینیک ها یکسان باشد، بنابراین هیچ اثر تصادفی برای این متغیر وجود ندارد. * من نمی‌خواهم برابری را بین تأثیر «معماری» بر «نشانه‌های» مختلف محدود کنم. * با توجه به ماهیت چند متغیره تجزیه و تحلیل، من انتظار دارم که باقیمانده ها با همبستگی های مختلف بین 13 علامت مختلف مرتبط باشند. بنابراین، ساختار کوواریانس باقیمانده‌ها را به‌عنوان «corSymm» مشخص می‌کنم (غیرصفر اما بدون ساختار، اگر این را درست دریافت کنم). * من همچنین انتظار دارم که بین علائم مختلف ناهمگونی وجود داشته باشد (باید واریانس بیشتری در علائم خاص وجود داشته باشد)، بنابراین گزینه وزن را به عنوان (~ 1|علائم) اضافه می کنم. **نتیجه نهایی** این مدلی است که من به آن می پردازم: model1 = lme(ثابت = امتیاز ~ علامت + دارو: علامت + معماری: علامت + دارو: معماری: علامت - 1، + تصادفی = ~ علامت - 1 | بیمار/کلینیک، + همبستگی = corSymm، + وزن=varIdent(شکل= ~ 1|علائم) + روش = ML) برای آزمایش تأثیر متغیرهای معماری، سپس این مدل را با مدل محدود زیر مقایسه می‌کنم و تمام اصطلاحات مربوط به معماری را حذف می‌کنم: model2 = lme(ثابت = امتیاز ~ علامت + دارو: علامت - 1 ، + تصادفی = ~ علامت - 1 | بیمار/کلینیک، + همبستگی = corSymm، + وزن = varIdent 1|علائم) + روش = ML) سپس این مقایسه را با دستور 'anova(model1, model2)' اجرا می کنم و احتمال ورود به سیستم را در دو مدل مقایسه می کنم. به طور کلی، آیا این طراحی مدل و مشخصات r به نظر شما درست است؟ از کمک شما بسیار سپاسگزارم
تجزیه و تحلیل چند سطحی چند متغیره در nlme
20281
من می خواهم داده های عملکردی MRI (fMRI) را به شرح زیر تجزیه و تحلیل کنم: 1. من شبکه های مغزی دو گروه از افراد (بیماران و همسان) را با هم مقایسه می کنم. 2. برای هر موضوع من یک ماتریس همبستگی (پیرسون) با همبستگی بین چندین ناحیه مغز (بالاتر از 50000 همبستگی) دارم. 3. من می خواهم یک معیار واحد برای نشان دادن هر موضوع (شاید میانگین همبستگی های هر شبکه موضوعی) بدست بیاورم. **مناسب ترین معیار چیست؟** آیا باید از تبدیل فیشر برای میانگین ماتریس همبستگی استفاده کنم؟ 4. من فرض می کنم که واریانس دو گروه متفاوت است و واریانس در هر گروه مشابه است: ** چگونه می توان بدون انجام چندین مقایسه آن را بررسی کرد؟**
بهترین معیار شبکه های مغز بر اساس داده های عملکردی MRI چیست؟
13086
می‌خواهم بدانم که آیا یک نوع باکس پلات سازگار با داده‌های توزیع‌شده پواسون (یا احتمالاً سایر توزیع‌ها) وجود دارد؟ با توزیع گاوسی، سبیل هایی که در L = Q1 - 1.5 IQR و U = Q3 + 1.5 IQR قرار می گیرند، نمودار جعبه این ویژگی را دارد که تقریباً به همان تعداد نقاط پرت پایین (نقاط زیر L) به اندازه پرت بالا (نقاط بالای U) وجود خواهد داشت. ). با این حال، اگر داده‌ها پواسون توزیع شده باشند، به دلیل چولگی مثبت، دیگر پابرجا نمی‌ماند. آیا روش جایگزینی برای قرار دادن سبیل ها به گونه ای وجود دارد که با توزیع پواسون «مناسب» شود؟ با تشکر از کمک شما!
آیا یک نوع باکس پلات برای داده های توزیع شده پواسون وجود دارد؟
94570
من مدلی از شهرهای آمریکا با متغیر Y دوگانه با استفاده از رگرسیون لجستیک ایجاد کرده ام. من دلایل نظری دارم که معتقدم این مدل بین شهرهای بزرگتر و کوچکتر تفاوت قابل توجهی خواهد داشت. من این را با استفاده از نقاط شکست دلخواه نشان دادم، اما می‌خواستم بدانم که آیا یک استراتژی رگرسیون بخش‌بندی شده (تکه‌ای) می‌تواند نقطه شکست را برای من در مدلی با متغیر وابسته باینری شناسایی کند. (من از دستور nl با موفقیت در Stata برای پروژه دیگری در زمانی که Y پیوسته بود استفاده کردم.) آیا می توانم از این استراتژی برای شناسایی آماری نقطه شکست استفاده کنم؟ یا باید برای عددی که در غیر این صورت انتخاب می کنم کیس بسازم؟ با تشکر فراوان.
آیا رگرسیون قطعه بندی شده (تکه ای) با یک متغیر وابسته دوگانه امکان پذیر است؟
97909
من پیشینه ریاضی قوی ندارم، بنابراین در تلاش برای درک نحوه عملکرد RBM هستم. در صفحه ویکی‌پدیا در مورد RBM، من می‌توانم فرمول‌ها را به صورت مجزا درک کنم، با این حال، مطمئن نیستم که چگونه این فرمول‌ها به یکدیگر متصل هستند. به طور خاص، آیا وابستگی چرخه‌ای بین تابع انرژی، توابع احتمال و فرآیند نمونه‌برداری وجود ندارد؟ در الگوریتم آموزشی، بیان می‌کند که از نمونه‌گیری گیبس همراه با چیزهای دیگر برای ساخت/آموزش W استفاده شود. با این حال، نمونه‌برداری به P بستگی دارد، و P طبق تعریف به E، و E به W بستگی دارد، بنابراین در چشم نوب من پس این وابستگی چرخه ای است. لطفاً کسی می تواند با یک مثال کوتاه توضیح دهد که چگونه می توانم این حلقه را بشکنم؟ با تشکر http://en.wikipedia.org/wiki/Restricted_Boltzmann_machine
ماشین های محدود بولتزمن چگونه کار می کنند؟
97901
من یک سوال در مورد استفاده از R برای متناسب کردن یک مدل AR دارم. اگر بخواهیم مدل AR(p) را متناسب کنیم، معادله $Y_t = φ_1Y_{t-1} + φ_2Y_{t-2} + ... + φ_pY_{t-p} + Z_t$ خواهد بود. در مورد من فقط می خواهم مدلی مانند $Y_t = φ_1Y_{t-1} + φ_{11}Y_{t-11} + Z_t$ را متناسب کنم؟ ($Z_t$ نویز سفید است). کسی میدونه چطوری میشه این مدل رو در R قرار داد؟
R برازش مدل AR (p) محدود شده
23171
من درک می کنم که چگونه EM به معنای تخمین مدل گاوسی که زیربنای مجموعه ای از داده ها است استفاده می شود، اما مشخص نیست که چگونه این مورد قابل اجرا است. من سعی می کنم بفهمم که چگونه EM ممکن است برای انجام داده کاوی در هر نوع کار پردازش بینایی / تصویر رایانه ای استفاده شود. این دامنه ای است که من بیشتر با آن آشنا هستم، بنابراین هنگام یادگیری الگوریتم های جدید، چارچوب بندی آنها در یک چارچوب آشنا مفید است. بنابراین بار دیگر، چگونه و کجا از حداکثر سازی انتظارات در تصاویر داده کاوی استفاده می شود؟ متشکرم
چگونه از EM به معنای داده کاوی روی تصاویر استفاده می شود؟
97908
آیا منطقی است که از **نمونه برداری پیشرو** برای محاسبه احتمال P(X_1=x_1, ..., X_N=x_n) در HMM استفاده کنیم که در آن متغیر مشاهده است؟ آیا الگوریتم نمونه برداری به جلو با الگوریتم فوروارد برای HMM مرتبط است؟
نمونه برداری به جلو برای HMM
94573
من برای خواندن این جدول ساده گیج شده ام و در تقلا هستم. ![Crosstabs](http://i.imgur.com/NNdbMsP.jpg) من سعی می کنم نمایه ای از دانلودکنندگان ایجاد کنم. یکی از مشخصات جمعیتی که من به آن نگاه می کنم سن است. آیا باید درصد درون سن را ببینم یا درصد درون نوع دانلودر؟ به عنوان مثال، دانلود کننده های ترکیبی به احتمال زیاد 18-21 (50٪) هستند؟ یا باید به احتمال زیاد 18-21 (68.4٪) باشند؟ کسی میتونه راهنمایی کنه لطفا ممنون
خواندن یک جدول متقاطع
29758
سوال اصلی من این بود: چگونه نسبت گونه ها را در یک جمعیت از روی داده های شمارش اعضای بدن آنها تخمین می زنید، مشروط بر اینکه بتوانید هر قسمت را به عنوان متعلق به یک گونه خاص تشخیص دهید. **آیا فقط در نظر گرفتن میانگین تعداد اعضای بدن یافت شده در هر گونه کافی است؟** (در نظر داشته باشید که برخی از گونه ها ممکن است فرکانس بیشتری در قسمت خاصی از بدن نسبت به سایرین داشته باشند). این مربوط به موارد زیر است: برآورد تنوع انواع اپرون با استفاده از HMM ها در متاژنوم ها: Mann-Whitney؟ کروسکال-والیس؟ یا دیگر؟ ویرایش: توضیح بیشتر **مثال 1** - از حیواناتی که تکه تکه بیرون می آیند نمونه برداری می کنید. یک حیوان معمولی به نام گونه 1 دارای 1 پا، 1 بینی و 1 چشم است که هر یک از این صفات را می توانید ببینید و بشمارید. گونه 2 دارای 2 ویژگی است که می توانید آنها را شناسایی کنید: گوش ها (که فقط 1 مورد را دارد) و بال ها (همچنین فقط 1). (فرض کنید این برای K گونه، با صفات K_y صادق است) هر بار که صفات را می شمارید، 1 نمونه از x مکان ها می گیرید. نمونه زیر از 1 مکان است: 1 پا، 5 بینی، 12 چشم، 6 گوش و 8 بال... که به این معنی است که تعداد گونه های 1 ممکن زیر است: حداقل 12 فرد. حداکثر 18 نفر (1+5+12): تعداد گونه های 2 ممکن است: حداقل 8 نفر. حداکثر 14 نفر (8+6). بنابراین در یک کیسه با 1 چشم و 1 گوش می دانم که از هر گونه 1 فرد دارم (بدون تغییر)، در کیسه ای با 1 گوش 1 چشم 2 بال و 5 پا می دانم که حداکثر 6 فرد (5+1) دارم. گونه 1 و یک دقیقه از 5. گونه 2، حداکثر 4 دقیقه از 3. بنابراین در اینجا ما محدودیت های ممکن برای گونه 1 و گونه 2 در محل نمونه داریم. x1. روش صحیح تخمین و مقایسه نسبت هر حیوان چیست؟ ما هر قسمت را به عنوان متعلق به یک گونه خاص شناسایی می کنیم. چشم‌ها، بینی‌ها و پاها (هر بینی چشمی یا پاهای یافت شده) متعلق به گونه 1 هستند، بالاترین تعداد صفات فردی به این معنی است که تعداد احتمالی بیشتری از افراد متعلق به گونه 1 را دارم، هر چه صفات بیشتر به این معنی است که محدوده وسیع‌تری برای پیش‌بینی دارم. تعداد افراد **مثال 2** همچنین می توانید آنها را به عنوان حیوانات واقعی تصور کنید، مثلاً جوجه، بره، خوکچه با قطعاتی در یک کیسه. شما به راحتی می توانید تفاوت بین سه اندام حیوان را تشخیص دهید، می دانید که اگر 18 بال مرغ و فقط 3 چوب طبل بگیرید، حداکثر تعداد مرغ ذبح شده (با فرض اینکه چوب طبل و بال ها همه از حیوانات مختلف باشد) 18+3 است. . در جایی که حداقل تعداد ممکن مرغ ذبح شده جایی است که بال ها 18/2 (9 نفر) جفت می شوند و چوب های طبل 3/2 (بنابراین فقط 2 عدد کامل) در هر مرغ جفت می شوند، **و** بال‌ها و چوب‌های طبل از همان جوجه‌ها می‌آیند (و برخی از اندام‌ها بدیهی است که گم شده‌اند). بنابراین، حداقل تعداد افراد، حداقل تعداد جفت [۹ مرغ کامل] است، و محتمل‌تر #افراد ممکن، مجموع همه جفت‌ها [۹+۲ جوجه] است، (اما نه لزوماً؟؟؟) بنابراین تا می‌توانید محدودیت‌های احتمالی جوجه‌ها را که با محاسبه تک تک آن‌ها یافت می‌شوند، ببینید: حداقل 9 جوجه و حداکثر 21 جوجه…… تعداد واقعی احتمالاً جایی در وسط است (این چیزی است که من می‌خواهم با درجه بالایی از اطمینان محاسبه کنید، می تواند 11 باشد، اما من از این مطمئن نیستم. حالا بیایید تعداد گوشت خوک و سر خوک را بشماریم…. و غیره به جز در مثال اول سوال ساده تر است، **زیرا هر صفت منحصر به فرد است و فقط یک بار برای گونه ها رخ می دهد. گونه های مختلف نیز ویژگی های متفاوتی خواهند داشت** (شما نمی توانید گوشت خوک و بره را بشمارید و آنها را از یک گونه در نظر بگیرید.) آیا باید: -- یک نقطه میانی/میانگین را به صورت (( حداکثر - حداقل )/(تعداد صفات) محاسبه کنم. )) + حداقل برای هر گونه. انحراف استاندارد (برای هر کدام) را محاسبه کنید و ضریب واریانس در هر نمونه را مقایسه کنید؟ - نقطه میانی/میانگین محاسبه‌شده در بالا را بگیرید، آنها را رتبه‌بندی کنید و مقایسه‌های زوجی غیر پارامتری xهای من را انجام دهید - حداکثر یک‌بار و حداقل یک‌بار را بگیرید، هر مرحله را یک بار غیر پارامتریک برای حد بالا یک بار برای حد پایین رتبه‌بندی کنید. --- احتمالاً راهی برای یافتن دقیق تر عدد واقعی (یا چیزی نزدیک به آن) افراد در هر گونه وجود دارد... اگر نظری دارید، لطفاً به من اطلاع دهید. (من متوجه شدم که 1 نمونه تقریبا کافی نیست، اگر اطلاعات بیشتری می خواهید به لینک مراجعه کنید، من فقط می توانم 1 نمونه در هر مکان دریافت کنم، من می خواهم هر صفت را به عنوان یک واحد نمونه برداری جداگانه در نظر بگیرم، این ویژگی ها واقعاً از حیوانات و غیره..)
روش صحیح تخمین نسبت افراد در یک جمعیت از روی شماری از اجزای آنها چیست؟
62307
من از رگرسیون لجستیک منظم در مجموعه داده خود استفاده کردم و چند بازدید قابل توجه دریافت کردم. با این حال، از آنجایی که داده‌ها 1:1 داده‌های همسان مورد شاهدی هستند، تصمیم گرفتم از رگرسیون لجستیک شرطی («clogit()» در بسته «بقا» «R» استفاده کنم. با این حال، هیچ یک از نتایج دیگر قابل توجه نیست. آیا این طبیعی است؟ من امیدوار بودم که با روی آوردن به رگرسیون لجستیک مشروط، قدرت به دست بیاورم. m<-clogit(PHENO==2 ~ x + as.factor (COVAR[,1]) + لایه (COVAR[,2]) ) این یک GWAS (مطالعه ارتباط گسترده ژنوم) است. PHENO یا 1 (کنترل) یا 2 (مورد) است. «x» تعداد کپی‌های آلل فرعی (0، 1 یا 2) در SNP مورد علاقه است، «COVAR[,1]» یک متغیر نژادی است و «COVAR[,2]» متغیر کمکی منطبق است. این آزمایش برای هر SNP (~300000) انجام می شود و مقادیر p حاصل برای FDR تنظیم می شود. شاید تطبیق موارد و کنترل ها خیلی خوب نبود؟ تطبیق: جفت مورد و شاهد: 1) همجنس بودند. 2) BMI > آستانه. 3) همان قومیت خود گزارش شده. 4) در 50 مایلی محل تدارکات زندگی می کرد. شاید باید از GLMM استفاده کنم؟
یافته های کمتر معنی دار با استفاده از رگرسیون لجستیک شرطی
97902
ما در حال ساختن سیستمی هستیم که به دانشگاه و دانشجویان بالقوه آن کمک می کند تا رشته تحصیلی مناسب را انتخاب کنند. متقاضیان رشته های زیادی برای انتخاب دارند (نه تعداد رشته های یکسان برای هر دانش آموز). دسترسی به برخی از رشته ها بر اساس برخی شرایط است (که بسته به رشته و تحصیلات قبلی متقاضیان نیز متفاوت است). ما برای تعیین عادلانه ترین راه برای دادن رشته مناسب به هر دانش آموز به کمک نیاز داریم. یک راه حل آماری، راهنمایی، کلمات کلیدی برای جستجو... و غیره یک مثال می تواند مفید باشد: فرض کنید گزینه های field1، field2 و field3 را داریم. برای دسترسی به فیلد 1، متقاضی باید پیشین1، پیشین2، یا قبلی3 را مطالعه کرده باشد که بیشتر مشروط به داشتن نمره A است. field2 برای هر متقاضی در دسترس است. فیلد3 برای پیشین1 با درجه B یا بیشتر قابل دسترسی است. متقاضیان باید بسته به دستاوردهای تحصیلی قبلی و شرایط رشته های مورد مطالعه، انتخاب های خود را به ترتیب اولویت ارسال کنند. هر کمکی قابل تقدیر است. و ما آماده هرگونه توضیح بیشتر هستیم.
انتساب دانش آموزان به تخصص های مختلف
11823
من استحکام چارچوب رگرسیون را در برابر نویز آزمایش کرده‌ام و در برخی موارد متوجه شده‌ام که افزودن نویز عملکرد پیش‌بینی را بهبود می‌بخشد و در موارد دیگر عملکرد را کاهش می‌دهد. دلایل این امر چه می تواند باشد؟ اگر دلایل متعددی وجود دارد، چگونه می توانم علت را تشخیص دهم؟ ویرایش: برخی جزئیات بیشتر در مورد کاری که انجام می دهم. چارچوب از رگرسیون خطی استفاده می کند. ورودی ها بردار ویژگی های تصویر استخراج شده هستند. خروجی ها بردار زوایای (در درجه، 180- تا 180) هستند. برای تست استحکام در برابر نویز، من 3 سطح نویز (نویز گاوسی افزودنی سفید) را به زوایا (هدف ها) متناسب با واریانس های زاویه فردی (2، 5، و 10 درصد از واریانس هر زاویه) اعمال می کنم. من متوجه شده ام که در برخی از مشاهدات، اضافه کردن مقدار کمی نویز (2-5٪) منجر به بهبود کمی در عملکرد می شود و در یک مورد، تمام سطوح نویز باعث بهبود می شود. در آزمایش‌های من، عبارت منظم‌سازی در تمام سطوح نویز ثابت است و من هر آزمایش سطح نویز را چندین بار انجام داده‌ام تا نوسانات نویز تصادفی را در نظر بگیرم. همچنین، من دو مجموعه گسترده از داده های مشاهداتی دارم. مجموعه اول نسبتاً دقیق مشاهده شد، با این حال مجموعه دوم پیچیده تر بود (به طور قابل توجهی ناهمگن تر، که منجر به کاهش قابل توجه عملکرد نسبت به مجموعه اول شد) و به دلیل محدودتر بودن تکنیک مشاهده، تعدادی خطای جزئی از خود نشان داد. با ست اول استفاده شد در ست اول پدیده عملکرد بهتر از طریق افزودن نویز رخ نداد. با این حال، گاهی اوقات صدای بیشتر بهتر از نویز کمتر بود. اگر برای پاسخ بهتر به سوال به اطلاعات بیشتری نیاز است، خوشحال می شوم آن را ارائه دهم.
چرا داده های پر سر و صدا باعث عملکرد بهتر پیش بینی می شود؟
97906
من یک مجموعه داده دو بعدی دارم که می خواهم آن را به عنوان حاصل ضرب بیرونی دو بردار (یا دو بردار واحد ضربدر یک ثابت) مدل کنم. من باید راهی پیدا کنم که الف) بفهمم این دو بردار چیست و ب) چقدر داده ها با مدل مطابقت دارند. اخطار این است که من باید این کار را در حضور مقادیر گمشده احتمالی انجام دهم. می‌دانم که می‌توانم از PCA برای یافتن یک ماتریس رتبه یک که داده‌های من را تقریب می‌کند و همچنین در صورت کامل بودن ماتریس، این تقریب خوب است استفاده کنم. من مطمئن نیستم که چگونه آن را با مقادیر از دست رفته انجام دهم. این به نظر من نوعی شکل انحطاطی از فیلتر کردن مشارکتی است، با تنها یک پارامتر در هر سطر/ستون. من فکر می کنم باید راه آسان تری برای حل آن وجود داشته باشد.
تقریب یک ماتریس به عنوان حاصلضرب بیرونی دو بردار
59796
من متغیرهای زیر را در مجموعه داده خود دارم: 1. ساعت کاری (عددی: ترتیبی) 2. اثربخشی (رده: ترتیبی؛ 4 مقدار-> (ضعیف، متوسط، خوب، بهترین)) 3. رضایت (رده: ترتیبی؛ 4 مقدار- > (ضعیف، متوسط، خوب، بهترین)) من می‌خواهم داده‌ها را بر اساس اینکه چقدر خوب هستند، خوشه‌بندی کنم. کارگر من انتظار دارم 4-5 خوشه موثر باشد. من fastclus را در sas بعد از نرمال‌سازی داده‌هایم اجرا کردم (mean=0 std=1) اما بعید می‌دانم میانگین k روی متغیرهای طبقه‌بندی کار کند. من وقتی 5 خوشه دارم، مقدار Rsqaure 62٪ را دریافت می کنم. هیچ کمکی در مورد چگونگی حل این مشکل دارید؟
خوشه بندی متغیرهای مختلط در SAS
96738
آیا همیشه باید انتظار داشت که تمایل مرکزی (یعنی میانگین و/یا میانه) نمونه بوت استرپ مشابه مقدار مشاهده شده باشد؟ در این مورد خاص، من پاسخ هایی دارم که به صورت نمایی برای آزمودنی ها در دو شرایط توزیع می شوند (من آزمایش را اجرا نکردم، فقط داده ها را دارم). به من وظیفه داده شده است که اندازه اثر را تسمه دهم (از نظر d کوهن، فرمول یک نمونه، یعنی $\bar{M_D}\over{s_D}$ که در آن تخمین نمونه انحراف استاندارد جمعیت است. انجمن برای این در Rosenthal & Rosnow (2008) در صفحه 398، معادله 13.27 ارائه شده است مخرج چون از نظر تاریخی درست است، با این حال، رویه استاندارد d را به‌عنوان استفاده از $s$ به اشتباه تعریف کرده است، و بنابراین من این خطا را در محاسبه بالا دنبال می‌کنم، هر دو را در شرکت‌کنندگان تصادفی کرده‌ام (یعنی یک شرکت‌کننده RT ممکن است بیش از یک بار نمونه‌برداری شود). و از بین آزمودنی ها (از شرکت کنندگان ممکن است بیش از یک بار نمونه برداری شود) به طوری که حتی اگر از شرکت کننده 1 دو بار نمونه برداری شود، میانگین RT آنها در هر دو نمونه بعید است دقیقاً باشد. برای هر مجموعه داده تصادفی شده مجدداً d را محاسبه می کنم. تا صدک 2.5 مقادیر مشاهده شده شبیه سازی شده. همچنین تمایل دارد به 0 نزدیکتر از میانه بوت استرپ (با 5% تا 10% چگالی توزیع شبیه سازی شده) باشد. چه چیزی می تواند دلیل این امر باشد (با در نظر گرفتن بزرگی اثری که مشاهده می کنم)؟ آیا بدست آوردن واریانس‌های شدیدتر از آنهایی که نسبت به حد متوسط ​​در نمونه‌گیری مجدد مشاهده می‌شوند، به دلیل «آسان‌تر» بودن آن هنگام نمونه‌گیری مجدد است؟ ممکن است این انعکاس داده‌هایی باشد که بیش از حد ماساژ داده شده یا به طور انتخابی کوتاه شده است؟ آیا این روش نمونه برداری مجدد مانند یک بوت استرپ است؟ اگر نه، چه کارهای دیگری باید انجام شود تا یک CI ارائه شود؟
چه زمانی/چرا گرایش مرکزی یک شبیه‌سازی نمونه‌گیری مجدد به طور قابل توجهی با مقدار مشاهده شده متفاوت است؟
8511
نوشته کریستوفر منینگ در مورد رگرسیون لجستیک در R یک رگرسیون لجستیک را در R به شرح زیر نشان می دهد: ced.logr <- glm(ced.del ~ cat + follows + factor(class)، خانواده = دوجمله ای) برخی از خروجی ها: > summary(ced.logr ) تماس بگیرید: glm(formula = ced.del ~ cat + follows + factor(class)، خانواده = دوجمله ای (logit)) Deviance Residuals: Min 1Q Median 3Q Max -3.24384 -1.34325 0.04954 1.01488 6.40094 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -1.31827 0.12221 -10.787 < 2e-16 catd -0.16931 0.10032 -1.688 0.091459 catm 0.17855 0.17855 0.049 0.049 catn 0.66672 0.09651 6.908 4.91e-12 catv -0.76754 0.21844 -3.514 0.000442 followsP 0.95255 0.07400 12.8016 0.07400 12.8016 < s2e دنبال کنید 0.05660 9.436 < 2e-16 ضریب(کلاس)2 1.27045 0.10320 12.310 < 2e-16 ضریب(کلاس)3 1.04805 0.10355 10.122 10.122 < 2e-16 ضریب (کلاس) 122 13.532 < 2e-16 (پارامتر پراکندگی برای خانواده دوجمله ای 1 در نظر گرفته شده است) انحراف صفر: 958.66 در 51 درجه آزادی انحراف باقیمانده: 198.63 در 42 درجه آزادی AIC: 446.10 تعداد انحرافات Fisher Scoring بعد از آن به 4 iتر می رسد. در مورد نحوه تفسیر ضرایب، مقایسه کنید مدل های مختلف و غیره کاملا مفید. با این حال، مدل چقدر واریانس را محاسبه می کند؟ یک صفحه Stata در مورد رگرسیون لجستیک می گوید: > از نظر فنی، R2 را نمی توان به همان روشی که در رگرسیون OLS محاسبه می شود، در رگرسیون لجستیک محاسبه کرد. شبه R2، در رگرسیون لجستیک، به صورت > (1 - L1)/L0 تعریف می شود، که در آن L0 نشان دهنده احتمال ورود به سیستم برای مدل فقط ثابت > و L1 احتمال ورود به سیستم برای مدل کامل با ثابت و > است. پیش بینی کننده ها من این را در سطح بالا درک می کنم. مدل فقط ثابت بدون هیچ یک از پارامترها (فقط عبارت رهگیری) خواهد بود. احتمال ورود به سیستم اندازه گیری میزان تناسب پارامترها با داده ها است. در واقع، منینگ به نوعی اشاره می‌کند که انحراف ممکن است -2 log L باشد. با این حال، من در مورد آن کاملا واضح نیستم. آیا کسی می تواند بررسی کند که چگونه با استفاده از این مثال، شبه R^2 را در R محاسبه می کند؟
چگونه شبه$R^2$ را از رگرسیون لجستیک R محاسبه کنیم؟
10193
من مجموعه‌ای از جلسات و آدرس‌های اینترنتی دارم که در هر یک از این جلسات و فرکانس‌هایی که به آنها دسترسی پیدا کرده‌اند، دسترسی پیدا کرده‌اند. من آنها را در یک نمایش ماتریس مانند قرار داده ام. تصور کنید من ماتریس مشاهده صفحه زیر را دارم: سرفصل های ستون منابع قرار دادن کتاب ها br aca هر ردیف نشان دهنده یک جلسه است. در اینجا نمونه ای از رکوردها آمده است: 4 5 0 2 2 1 2 1 7 3 1 3 6 1 6 ذخیره شده در یک فایل «.txt» آیا می توانم این را به عنوان ورودی به یک برنامه k-means بدهم و بر اساس بیشترین فراوانی وقوع؟ چگونه از آن استفاده کنم؟ اگر k-means نیست، از چه روش خوشه‌ای دیگری می‌توانم استفاده کنم؟
خوشه بندی عناصر بر اساس تعداد دسترسی در جلسات
8512
فرض کنید من مقداری فرآیند تصادفی X_t$ دارم. در هر زمان $t$، من یک توزیع احتمال تخمینی برای $x_t$ دریافت می‌کنم، به دنبال آن یک مشاهده $x_t$. پس از دریافت مجموعه‌ای از مشاهدات ${x_1، \ldots، x_n}$، می‌خواهم به عقب برگردم و توزیع احتمال را برای هر $x_t$، $1 \le t \le n$ دوباره تخمین بزنم. چند راه برای انجام این کار چیست؟ بیایید فرض کنیم که توزیع‌های احتمال تخمین زده شده «بسیار خوب» هستند، بنابراین می‌خواهیم از اطلاعات موجود در آنها استفاده کنیم. به چه فرضیات دیگری نیاز دارم تا بتوانم این مسئله را به یک مشکل جالب/قابل حل تبدیل کنم؟ به عنوان مثال، برخی از افکار (به طور بالقوه کاملاً نادرست) من این بودند: 1. فرض کنید $X_t$ یک مدل مستمر مرتبه اول است: $x_t$ فقط به $x_{t-1}$ بستگی دارد، و اگر $x_{ t-1}، x_{s-1}$ نسبتاً نزدیک هستند، سپس توزیع‌های احتمال برای $x_t، x_s$ نیز باید نسبتاً نزدیک باشند. سپس برای تجدید نظر در تخمین خود از توزیع احتمال برای $x_t$، می توانم از نوعی نمونه بوت استرپ چگالی هسته استفاده کنم و آن را با تخمین اصلی ترکیب کنم: تمام نقاط $x_s$ را طوری بگیرید که $x_{s-1}$ نزدیک باشد. تا $x_{t-1}$، از این نقاط $x_s$ به شکلی وزنی برای تشکیل تخمین چگالی هسته $K$ و میانگین K$$ با احتمال تخمینی اولیه استفاده کنید. توزیع برای بدست آوردن یک توزیع احتمال جدید برای x_t$. 2. فرض کنید $X_t$ یک مدل گاوسی خطی است (به طوری که مفروضات یک فیلتر استاندارد کالمن را برآورده می کند). می‌توانم نوع دیگری از نمونه راه‌انداز را ایجاد کنم: برای هر $x_t$، از پنجره‌ای در اطراف توزیع احتمال تخمینی آن برای نمونه‌برداری از یک مشاهده جدید $x'_t$ استفاده کنید، و سپس از صاف کردن Kalman روی مشاهدات ${x'_t} استفاده کنید. $ برای دریافت مجموعه ای از مشاهدات هموار $\tilde{x_t}$. از این نمونه‌های بوت استرپ برای تولید توزیع‌های احتمال تخمینی جدید استفاده کنید. این یک سؤال عمدتاً تصادفی است که دوستی چندی پیش از من پرسید و من دوباره به آن فکر کردم، بنابراین برنامه خاصی ندارم (و از این رو چرا مجموعه ای مشخص از فرضیات در مورد فرآیند ندارم).
به روز رسانی مجموعه ای از پیش بینی های تخمینی
107897
من به نحوه تجزیه و تحلیل داده ها در آموزش علاقه مند هستم. در انگلستان، نتایج آزمون گزارش شده دانش آموزان با نتایج آزمون ملی با استفاده از آزمون z مقایسه می شود. سپس از این نتایج برای قضاوت در مورد اثربخشی مدارس استفاده می شود. فرضیه من این است که دانش‌آموزان در یک مدرسه IID نیستند، و بنابراین تجزیه و تحلیل با استفاده از آزمون‌های مبتنی بر قضیه حد مرکزی که به دنبال قضاوت در مورد «اثر مدرسه» به جای «تأثیر دانش‌آموز» است، موجه نیست. آیا منطقی است که فرض کنیم دانش آموزان و در نتیجه نمرات آزمون آنها مستقل و به طور یکسان توزیع شده است؟
آیا دانش آموزان یک مدرسه در مقایسه با جمعیت ملی مستقل و به طور یکسان توزیع شده اند؟
23177
من در حال انجام پروژه ای در تجزیه و تحلیل احساسات (در داده های توییتر) با استفاده از رویکرد یادگیری ماشین هستم. برای یافتن بهترین راه برای این کار، من با استفاده از یونیگرام، بیگرام و یونیگرام و بیگرام با هم، طبقه‌بندی‌کننده بیزی ساده و حداکثر آنتروپی را آزمایش کرده‌ام. من از کتابخانه SharpEntropy برای ME و یک پیاده سازی شخصی برای NB استفاده می کنم. سوال من مربوط به طبقه بندی ME است. در یکی از تست‌هایم، آن را با استفاده از یونی‌گرام‌ها و بیگرام‌ها آموزش داده‌ام، زیرا این راه‌حل‌ها از راه‌حل‌های فقط یونیگرام و تنها بیگرام بهتر عمل می‌کنند. من از 100 تکرار و بدون قطع (= حداقل ظاهر برای استفاده از آن در آموزش) استفاده کردم. پس از آموزش اولیه، اعتبارسنجی را شروع کردم و چیز عجیبی که با آن مواجه شدم این است: اگر داده های آزمون به نمایش unigram-bigram تبدیل نشود، طبقه بندی کننده من 4٪ دقیق تر (73٪ -> 77٪) از موردی که من تحول را انجام دادم. بنابراین اساساً طبقه‌بندی‌کننده من با استفاده از uni- و bigrams آموزش داده شده است، اما داده‌های تست در نمایش unigram باقی ماندند و من نتایج بهتری گرفتم. (آموزش یونیگرام - داده های تست یونیگرام منجر به دقت 58 درصد شد، فقط آموزش بیگرام - تست فقط بیگرام منجر به دقت 68 درصد شد) دلیل این رفتار چه می تواند باشد؟ من به دنبال کمکی برای به دست آوردن درک عمیق تر برای این هستم.
طبقه بندی کننده حداکثر آنتروپی و تجزیه و تحلیل احساسات
8515
توزیع های پایدار مثبت با چهار پارامتر توصیف می شوند: پارامتر چولگی $\beta\in[-1,1]$، پارامتر مقیاس $\sigma>0$، پارامتر مکان $\mu\in(-\infty,\infty )$، و به اصطلاح پارامتر شاخص $\alpha\in(0,2]$. وقتی $\beta$ صفر باشد، توزیع در حدود $\mu$ متقارن است. مثبت است (مثلاً منفی) توزیع به سمت راست منحرف می شود (وضعیت به سمت چپ) هنگامی که $\alpha $ کاهش می یابد و $\beta=1 است $ پشتیبانی از توزیع به $(\mu,\infty)$ محدود می شود. $\alpha<1$، $\beta=1$، و $\sigma=\alpha$ است (فرمول (4.4) را اینجا ببینید): $f(y) = -\frac{1}{\pi y} \sum_{k=1}^{\infty} \frac{\Gamma(k\alpha+1)}{k!} (-y^{-\alpha})^k \sin(\alpha k \pi) $ دارد میانگین و واریانس بی نهایت **سوال** من می خواهم از آن چگالی در R استفاده کنم. pm=1) که در آن تابع dstable با بسته fBasics همراه است. آیا می توانید تأیید کنید که این روش صحیح برای محاسبه آن چگالی در R است؟ پیشاپیش از شما متشکرم **ویرایش** یکی از دلایل مشکوک بودن من این است که در خروجی، مقدار _delta_ با مقدار ورودی متفاوت است. مثال: > library(fBasics) > آلفا <- 0.4 > dstable(4، آلفا=آلفا، بتا=1، گاما=آلفا، دلتا=0، pm=1) [1] 0.02700602 attr(control) dist alpha بتا گاما دلتا pm پایدار 0.4 1 0.4 0.290617 1
توزیع پایدار مثبت در R
1126
جاشوا اپستاین مقاله ای با عنوان چرا مدل؟ موجود در http://www.santafe.edu/media/workingpapers/08-09-040.pdf که در آن 16 دلیل آورده شده است: 1. توضیح دهید (بسیار متمایز از پیش بینی) 2. راهنمای جمع آوری داده ها 3. روشن کردن پویایی هسته 4. پیشنهاد تشبیهات پویا 5. کشف سوالات جدید 6. ترویج یک عادت علمی ذهنی 7. محدود (پرانتز) نتایج به محدوده های قابل قبول 8. عدم قطعیت های اصلی را روشن کنید. 9. ارائه گزینه های بحران در زمان تقریباً واقعی 10. نشان دادن معاوضه / پیشنهاد کارآمدی 11. به چالش کشیدن استحکام نظریه غالب از طریق آشفتگی ها 12. افشای خرد غالب به عنوان ناسازگار با داده های موجود 13. آموزش پزشکان 14. انضباط دادن به گفت و گوهای خط مشی. عموم مردم 16. آشکار کردن ظاهراً ساده (پیچیده) تا پیچیده (ساده) (اپستاین در مقاله خود در مورد بسیاری از دلایل با جزئیات بیشتر توضیح می دهد.) من می خواهم از جامعه بپرسم: * آیا دلایل دیگری وجود دارد که اپشتین آنها را فهرست نکرده است؟ * آیا راه ظریف تری برای مفهوم سازی (شاید گروه بندی متفاوت) این دلایل وجود دارد؟ * آیا هیچ یک از دلایل اپشتین ناقص است یا ناقص؟ * آیا توضیح واضح تری از این دلایل دارند؟
دلایلی غیر از پیش بینی برای ساخت مدل ها؟
40933
روش های کلاسیک خوشه بندی سلسله مراتبی تجمعی بر اساس یک الگوریتم حریصانه است. این بدان معنی است که آنها (بسیاری از آنها) مستعد ارائه راه حل های کمتر از حد بهینه به جای نتیجه بهینه جهانی هستند، به خصوص در مراحل بعدی تراکم. برای روشن شدن: هر یک از روش‌های انباشته بهترین انتخاب را انجام می‌دهد که کدام دو خوشه را در یک مرحله $q$ ادغام کنند، انتخابی که ضریب تلفیق $\delta$ در مرحله را به حداقل می‌رساند (برای ارزش گذاری $\delta_q$). با این حال، غیرممکن نیست که اگر الگوریتم انتخاب _نه بهترین، بلکه کمی بدتر_ را در _برخی از مراحل قبلی_ انتخاب کرده بود، می توانست ضریب را در مرحله $q$ به حداقل برساند تا مقدار آن کمتر از $\delta_q باشد. $ با حفظ رشد یکنواخت $\delta$. راه حل بهینه جهانی در مرحله $q$ با حداقل مقدار قابل دستیابی $\delta_q$ مطابقت دارد با این محدودیت که $\delta_q \ge \delta_{q-1} \ge \delta_{q-2} \cdots$ . ریسک زیر بهینه بودن دلیل اصلی این است که چرا خوشه بندی سلسله مراتبی معمولاً با مقادیر زیاد شی (مثلاً بیش از 300) توصیه نمی شود: محقق معمولاً خوشه های کمی می خواهد و بنابراین به مراحل بعدی نگاه می کند، اما اگر مرحله بعدی باشد، مثلاً 1000 امین، گمراه شدن از پارتیشن بهینه جهانی ممکن در گام 1000 مشکوک تر است تا مثلاً 100 گام از پارتیشن بهینه جهانی در 100 گام ممکن است. به نظر می رسد این موضوع حکمی است. سوال من این است که نظر شما در مورد **که از بین روش های انباشتگی معروف ** - پیوند تک، پیوند کامل، پیوند متوسط ​​(در گروه ها)، پیوند متوسط ​​(بین گروه ها)، مرکز، میانه، مجموع مربعات وارد چیست؟ - من آنهایی را در SPSS ذکر می کنم، اما انواع مشابه دیگری نیز وجود دارد - **بیشتر هستند و کمتر مستعد نقص زیربهینه هستند** به عنوان شماره مرحله رشد می کند. شهود به من پیشنهاد می‌کند که پیوندهای منفرد یا کامل به هیچ وجه مستعد نیستند و همیشه بهترین راه‌حل‌های جهانی خود را ارائه می‌دهند، زیرا این روش‌ها در محاسبه هیچ آماری مشتق‌شده از فواصل خام (مثلاً سانتروئیدها) شرکت نمی‌کنند. شاید هم درست می گویم و هم نه. در مورد بقیه روش ها چیست؟ آیا کسی در اینجا می تواند تلاش کند تا درجه (نسبی) ریسک بهینه محلی الگوریتم های حریص بتن بالا را تجزیه و تحلیل کند؟ **تصویر.** خوشبختانه، برای روش _Ward_ سرنخ هایی برای مشاهده اینکه چگونه با افزایش $q$ جمع می شود، داریم. زیرا یک روش تکراری شناخته شده وجود دارد که سعی می کند دقیقاً همان تابع $\delta$ را بهینه کند که Ward انجام می دهد. این خوشه بندی _K-means_ است: هر دو سعی می کنند مجموع مربعات درون خوشه ای را به حداقل برسانند. ما می‌توانیم خوشه‌بندی Ward را انجام دهیم و در هر مرحله مراکز خوشه‌ای را ذخیره کنیم و از آن‌ها به عنوان مراکز اولیه در روش K-means استفاده کنیم. آیا K-means راه حل های بخش را از نظر مجموع مربعات بهبود می بخشد؟ توجه داشته باشید. این تصویر مقادیر $\delta_q$ مشاهده شده وارد را آزمایش می‌کند نه در برابر مقادیر بهینه جهانی _خودش که نمی‌توانیم بدانیم زیرا نمی‌توانیم برای هر مرحله، تمام بازسازی‌های جایگزین بی‌شمار مراحل قبلی را امتحان کنیم تا حداقل $ ممکن را پیدا کنیم. \delta_q$; آن را در برابر بهینه بودن _K-means_ آزمایش می کند (که در اینجا تقریباً جهانی است زیرا مراکز اولیه ارائه شده توسط Ward می توانند شروع مناسبی برای تکرارها در نظر گرفته شوند). در اینجا برخی از داده ها (5 خوشه به خوبی جدا نشده، 183 امتیاز). همانطور که توضیح داده شد، داده ها تحت هر دو جلسه خوشه بندی Ward و جلسات خوشه بندی K-means قرار گرفتند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/T2emJ.jpg) نتایج (مقدار $\delta$) برای خوشه های 50 تا 2 در زیر نشان داده شده است. اگرچه 2 منحنی به هم نزدیک هستند، اما مقادیر K-means تا حدودی بهتر است. یعنی K-means بهینه تر از Ward است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mVzaT.jpg) آخرین تصویر $\delta^{Ward}/\delta^{Kmeans}$ را ترسیم می‌کند. روند به وضوح مشاهده می شود: با کاهش تعداد خوشه ها (یعنی مرحله $q$ برای Ward رشد می کند)، Ward نسبت به K-means کمتر بهینه می شود. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qe33Z.jpg) یک سوال وسوسه انگیز این است که آیا زیربهینه بودن نسبی Ward (مقدار $\delta^{Ward}/\) delta^{Kmeans}$) در این آخرین 49 مرحله تراکم، اگر من به همان روش 1830 نقطه داده را به جای فقط 183 تجزیه و تحلیل کنم، بیشتر خواهد بود.
آیا می توان بهینه بودن روش های مختلف خوشه بندی سلسله مراتبی را ارزیابی یا رتبه بندی کرد؟
108506
در این رشته، دو لحظه اول GPD دو پارامتری داده شده است، جایی که توزیع ممکن است به صورت $G(y)= \begin{cases} 1-\left(1+ \frac{\xi y}{\ تعریف شود. beta} \right)^{-\frac{1}{\xi}} & \xi \neq 0 \\ 1-\exp\left(-\frac{y}{\beta}\right) و \xi=0 \end{cases}$ حالا من به فرمول چهار لحظه اول نیاز دارم و شرایطی که تحت آن وجود دارند / متناهی هستند. ویکی‌پدیا کمکی نکرد زیرا فقط انواع دیگر GPD در اینجا مورد بحث قرار می‌گیرد. همین امر برای این صفحه نیز صادق است.
لحظاتی از توزیع پارتو تعمیم یافته دو پارامتری (GPD) مورد نیاز است
1123
در بسیاری از مقالات، داده هایی را می بینم که نشان دهنده نرخ موفقیت (یعنی عددی بین 0 و 1) است که به عنوان یک گاوسی مدل شده است. این به وضوح یک گناه است (محدوده تغییرات گاوسی همه R است)، اما این گناه چقدر بد است؟ با چه مفروضاتی می گویید قابل تحمل است؟
نرخ موفقیت مدلسازی با توزیع گاوسی
97905
من مقالات زیادی را با استفاده از CV 10 برابر (CV 10-pool) دیده‌ام، اما فکر می‌کنم دقت به‌دست‌آمده از این طریق می‌تواند گاهی اوقات به طرز خوشبینانه‌ای نادرست باشد زیرا در هر مرحله زمانی معین **t** مجموع پرس و جوهای متمایز از همه چین ها ممکن است بزرگتر از **t** باشد. **t** معمولاً در نمودارها به عنوان تعداد پرس و جوها (نمونه های مشاهده شده) استفاده می شود. مشکل دیگر عدم امکان دانستن تعداد پرس‌و‌جوهای مورد استفاده است، انتظار می‌رود با میانگین‌گیری در میان تاها. روش دیگری که معمولا استفاده می شود Holdout 50/50، 70/30 و غیره است. Hold-out آن مشکلات خاص را ندارد، اما برای مجموعه داده های کوچک ناکافی است.
روش آزمون فعلی برای یادگیری فعال مبتنی بر استخر کدام است؟
8513
فرض کنید $y$ یک تابع خطی از $x$ و یک $d$ ساختگی است. فرضیه من این است که $d$ خود مانند یک شاخص لذت‌گرایانه از بردار متغیرهای دیگر، $Z$ است. من برای این در $MANOVA$ از $Z$ (یعنی $z_1$، $z_2$، ...، $z_n$) در $d$ پشتیبانی دارم. آیا راهی برای تست _Equivalence_ این دو مدل وجود دارد: مدل 1: $y = b_0 + b_1 \cdot x + b_2\cdot d + e_1$ مدل 2: $y = g_0 + Z\cdot G + e_2$ که $ G$ بردار ستون پارامترها است.
هم ارزی تست مدل های غیر تودرتو
115356
من در آمار مبتدی هستم و باید رگرسیون لجستیک چند سطحی را اجرا کنم. من با نتایج گیج شده ام زیرا آنها با رگرسیون لجستیک تنها با یک سطح متفاوت هستند. من نمی دانم چگونه واریانس و همبستگی متغیرهای تصادفی را تفسیر کنم. و من تعجب می کنم که چگونه ICC را محاسبه کنم. به عنوان مثال: من یک متغیر وابسته در مورد حمایتی که پیوندهای دوستی به افراد می دهد دارم (1 برای افرادی است که می توانند خیلی به دوستان خود تکیه کنند، 0 برای دیگران است). 50 خوشه جغرافیایی پاسخگو و یک متغیر تصادفی وجود دارد که عاملی برای وضعیت اجتماعی محله است. طبقه بالا/متوسط ​​مرجع است، روش های دیگر طبقه کارگر و محله های محروم هستند. من این نتایج را دریافت می‌کنم: > خلاصه (RLM3) مدل ترکیبی خطی تعمیم‌یافته متناسب با حداکثر احتمال (تقریبا لاپلاس) ['glmerMod'] خانواده: دوجمله‌ای (logit) فرمول: Arp ~ Densite2 + جنسیت + سن + اتودها + pcs1 + Enfants + Origine3 + Sante + مذهب + LPO + جنس * نوزادان + Rev + (1 + استراتژی |. یک چهارم) داده: وزن LPE: کنترل PONDERATION: glmerControl(بهینه ساز = bobyqa) انحراف AIC BIC logLik df.resid 3389.9 3538.3 -1669.9 3339.9 2778 - MaximQ30.21. -0.3601 0.8794 2.7833 اثرات تصادفی: نام گروه ها Variance Std.Dev. کور همسایه. (Intercept) 0.2021 0.4495 Working Cl. 0.2021 0.4495 -1.00 Underpriv. 0.2021 0.4495 -1.00 1.00 تعداد obs: 2803، گروه‌ها: Neigh., 50 جلوه‌های ثابت: تفاوت‌ها با قسمت تماس به این دلیل است که من برخی از کلمات را ترجمه کردم. فکر می‌کنم رابطه بین رگرسیون تصادفی و شیب تصادفی را برای رگرسیون‌های خطی درک می‌کنم، اما برای رگرسیون‌های لجستیکی دشوارتر است. حدس می‌زنم وقتی همبستگی مثبت باشد، می‌توانم نتیجه بگیرم که نوع محله (بافت اجتماعی) تأثیر مثبتی بر محافظت از پیوندهای دوستی دارد و بالعکس. اما چگونه می توانم آن را کمیت کنم؟ علاوه بر این، به نظر من این عجیب است که همبستگی 1 یا -1 را بدست بیاورم و چیزی متوسط ​​تر از آن نباشد. در مورد ICC من متحیر هستم زیرا پستی در مورد رگرسیون lmer دیده ام که نشان می دهد همبستگی درون کلاسی را می توان با تقسیم واریانس قطع تصادفی بر واریانس برش تصادفی به اضافه واریانس متغیرهای تصادفی به اضافه باقیمانده ها محاسبه کرد. . اما هیچ باقیمانده ای در نتایج گلمر وجود ندارد. من در کتابی خوانده‌ام که ICC باید با تقسیم واریانس قطع تصادفی بر واریانس قطع تصادفی به اضافه 2.36 (pi²/3) محاسبه شود. اما در کتاب دیگری، 2.36 با واریانس بین گروهی (فکر می‌کنم واریانس سطح اول) جایگزین شد. راه حل خوب چیست؟ امیدوارم این سوالات زیاد گیج نشده باشند. از توجه شما متشکرم!
نحوه تفسیر نتایج گلمر (واریانس، همبستگی و ICC)
64970
نشانگر بدون بعد چیست؟ من فرض می‌کنم به این واقعیت اشاره دارد که به گونه‌ای سازگار است که در تغییرات عواملش به طور نامتناسبی تغییر نمی‌کند.
نشانگر بدون بعد چیست؟
40934
فرض کنید نمونه ${(x_i)}_{i=1}^{n_1} \sim_{\text{iid}} {\cal N}(\mu, \sigma_1^2)$ مستقل از نمونه ${ (y_i)}_{i=1}^{n_2} \sim_{\text{iid}} {\cal N}(\mu, \sigma_2^2)$. روش های موجود برای به دست آوردن فاصله اطمینان در مورد میانگین رایج $\mu$ چیست؟ در مورد من $n_1=n_2$ دارم. من با پاسخ دادن به این مورد قانع می شوم اما به حالت کلی نیز علاقه مند هستم. **ویرایش:** اوه.. بالاخره این مقاله را با گوگل پیدا کردم. متاسفم
واریانس های نابرابر اما میانگین های برابر
97907
متغیر پاسخی که من با آن سروکار دارم، نسبت کل مساحتی است که زیستگاه مناسبی برای گونه های مورد علاقه است. بنابراین اگرچه متغیر پاسخ بین 0 و 1 محدود شده است، اما شهود من این است که مناسب نیست آن را دوجمله ای بنامیم زیرا صورت و مخرج نسبت غیر صحیح هستند. توزیع بتا به ذهنم می رسد، اما در مورد عملکرد پیوند مناسب و اینکه آیا ابزارهایی در R برای مقابله با بتا وجود دارد یا خیر مطمئن نیستم. پیشینه ای در مورد هدف نهایی من: احتمالاً یک مدل خودبازگشتی مشروط را برای توضیح خودهمبستگی فضایی دنبال خواهم کرد. از آنجایی که با یک سیستم رودخانه سروکار دارم، فضا را یک بعدی می‌دانم، و بنابراین هر واحد رصدی فقط دو همسایه دارد: یکی بالادست و پایین دست. اگر تصمیم بگیرم بیزی بروم، در R و JAGS/BUGS کار خواهم کرد.
GLM مناسب زمانی که متغیر پاسخ نسبت است، اما دو جمله ای نیست
50467
فرض کنید من یک متغیر تصادفی $X$ و نمونه ای از آن با اندازه $N$ دارم. من شمارش می کنم که چند عنصر از نمونه در یک محدوده خاص $a<x<b$ قرار می گیرد و ورودی $n$ پیدا کردم، بنابراین اگر از آمار پواسون استفاده کنم می توانم بگویم که خطا در $n$ $\sqrt{n است. }$. حالا فرض کنید من یک تابع $f$ دارم، کاملا نزدیک به تابع واحد، و یک متغیر تصادفی جدید $X'=f(X)$ تعریف می کنم. اکنون تعداد ورودی‌های $a<x<b$ $n'=n+\delta n$ است. من تحلیلی از $f$ ندارم. من فقط در حال حاضر $n$ و $n'$. خطای $n'-n$ چیست؟ چگونه می توان ارتباط بین آنها را در نظر گرفت؟ دشوارتر: فرض کنید $f$ به پارامتر $\lambda$ با خطای $\delta\lambda$ بستگی دارد.
خطای آماری در تفاوت f(x) - x
12845
این عجیب به نظر می رسد، اما من سعی می کنم چیزی را محاسبه کنم که نام آن را نمی دانم. من می‌خواهم محاسبه کنم که یک متغیر نسبت به بقیه چقدر بزرگ/پایین است. همانطور که ابزار وب مستر گوگل می گوید: سایت شما در 3 ثانیه بارگیری می شود، این سرعت کمتر از 59٪ سایت ها است. چگونه می توانم این را محاسبه کنم؟ مثلاً امتیازهایی که یک بازیکن دارد. او 4440 امتیاز دارد و در رتبه 437 از 16801 بازیکن قرار دارد. میانگین امتیازات در 976 و بازیکن برتر 30076 امتیاز است.
محاسبه کنید که یک متغیر نسبت به دیگران چقدر بزرگ است
40939
من مطمئن نیستم که از کدام آزمون های آماری برای پیگیری تعامل سه جانبه خود استفاده کنم. من قبلاً پرونده خود را تقسیم می کردم و تجزیه و تحلیل را دو بار در هر گروه اجرا می کردم، اما همانطور که در مقاله Hayes & Matthes، 2009، _ روش های تحقیق رفتاری_ خواندم، این رویکرد خوبی نیست. من یک متغیر پیوسته متمرکز (نمره پرسشنامه)، یک متغیر دوگانه و یک متغیر به نام facetype با سه دسته دارم. من 6 کارآزمایی به ازای هر شرایط چهره به ازای هر شرکت‌کننده دارم، بنابراین هر شرکت‌کننده چندین خط در فایل SPSS من دارد. متغیر وابسته من باینری است. من از مدل خطی تعمیم یافته برای تجزیه و تحلیل این داده ها استفاده می کنم. اثرات ثابت یک تعامل سه طرفه قابل توجه را نشان می دهد، و من می خواهم تعامل را با آزمایش اهمیت یک شیب تفسیر کنم. من نمی دانم چگونه این کار را با داده های چند سطحی انجام دهم. GENLINMIXED /DATA_STRUCTURE SUBJECTS=id*trial /FIELDS TARGET=in_team_yes_no TRIALS=NONE OFFSET=NONE /TARGET_OPTIONS REFERENCE=0 DISTRIBUTION=BINOMIAL LINK=LOGITTScoreceementeats نمره پرسشنامه*نمره پرسشنامه درمان*درمان صورت*نوع چهره **نمره پرسشنامه*درمان*چهره**نوع USE_INTERCEPT=TRUE /RANDOM USE_INTERCEPT=TRUE SUBJECTS=id COVARIANCE_TYPE=VARIANCE_COMPFOENTS /COMPONAL USE_INTERCEPT=نادرست COVARIANCE_TYPE=VARIANCE_COMPONENTS /BUILD_OPTIONS TARGET_CATEGORY_ORDER=صعودی INPUTS_CATEGORY_ORDER=صعود MAX_ITERATIONS=100 CONFIDENCE_LEVEL_METHVEL=95 D.
چگونه یک تعامل سه طرفه را در یک مدل چند سطحی تعمیم یافته ارزیابی می کنید؟
8514
من به هیچ وجه در آمار خوب نیستم، اما فکر می کنم به جای درستی آمده ام. سوال من ساده است: مشکل من مقایسه جمعیت چندین ایالت در یک کشور کوچک است، اما برخی از ایالت ها 3000000 نفر و برخی 2000 نفر جمعیت دارند. من آن را روی نقشه نقاشی می کنم، و شدت رنگ بستگی به این دارد که جمعیت هر ایالت با جمعیت کل کشور مقایسه شود. مشکل این است که ایالت های با جمعیت زیاد با رنگ های واقعاً تند نشان داده می شوند و ایالت های کوچک به سختی رنگی دارند. آیا راه آسانی برای عادی سازی یا قابل مقایسه کردن داده ها وجود دارد؟ نمی دانم درست توضیح می دهم یا نه اما امیدوارم یکی بتواند به من کمک کند. لطفا اگر سوالم واضح نیست کامنت بزارید و توضیح میدم. از کمک شما متشکرم!
چگونه یک مقیاس شدت رنگ خوب بسازیم؟
12842
من از کتاب درسی خود خواندم که $\text{cov}(X,Y)=0$ تضمین نمی کند که X و Y مستقل باشند. اما اگر مستقل باشند، کوواریانس آنها باید 0 باشد. کسی می تواند یکی را ارائه دهد؟
کوواریانس و استقلال؟
66556
من در حال بررسی یک سری زمانی هستم که دارای یک چرخه روزانه بسیار قوی است. با این حال، علاوه بر داشتن یک چرخه روزانه در مقادیر واقعی سری های زمانی، یک چرخه واریانس روزانه بسیار قوی نیز دارد. نمی‌دانم آیا می‌توانم به‌طور معنی‌داری «روند واریانس» را از سری‌های زمانی خود حذف کنم. من می توانم «واریانس متوسط» را برای یک ساعت معین محاسبه کنم و سپس بر آن تقسیم کنم، اما مطمئن نیستم که اگر این کار را انجام دهم، کار مفیدی انجام می دهم؟ واریانس بزرگ با مقادیر زیاد در چرخه روزانه نیز مرتبط است، اما به نظر نمی رسد که گرفتن گزارش کمک چندانی کند. ویرایش: اطلاعات اضافی همانطور که در نظرات اشاره شد، این مشکل تقریباً تعریف نشده است. متأسفانه، این یک علامت است که من نیز با آن دست و پنجه نرم می کنم و بنابراین نمی توانم آن را برطرف کنم. با این حال، سعی می کنم اطلاعات بیشتری ارائه کنم. **هدف** داشتن مدلی از سری زمانی است که بتوان از آن پی برد. داده های سری زمانی معیاری از غلظت در طول زمان، با چرخه های روزانه و سالانه واضح و روند خطی است. سری های زمانی متغییر زیادی وجود دارد که حداقل از چرخه های روزانه و سالانه یکسانی پیروی می کنند. من در حال حاضر فقط سعی می کنم تکنیک های سری های زمانی مختلف را کشف و یاد بگیرم. من به یک راه حل امیدوار نبودم، بلکه به دنبال کمی جهت بودم، زیرا نتوانسته بودم اطلاعات زیادی در مورد روند واریانس پیدا کنم.
حذف یک روند در واریانس از یک سری زمانی
95227
من داده‌هایی در لحظه‌های اول تا چهارم یک متغیر تصادفی پیوسته دارم و سعی می‌کنم تا ببینم کدام توزیع به بهترین وجه با داده‌ها مطابقت دارد. ویکی‌پدیا فهرستی از حدود 20 توزیع دارد که می‌تواند با داده‌ها مطابقت داشته باشد و من می‌خواهم هر کدام از آنها را امتحان کنم تا ببینم کدام بهترین است. برخی از این توزیع ها دارای یک پارامتر، برخی دارای دو یا سه پارامتر هستند. آیا آزمایشی وجود دارد که بتوانم از آن برای مقایسه تناسب هر توزیع استفاده کنم؟ یا حداقل آزمایشی برای مقایسه توزیع ها با همان تعداد پارامتر؟
برازش لحظات برای توزیع
22626
فرض کنید یک متغیر تصادفی $X$ دارید (مثلاً کیلومترها رانده شده). دریافت واریانس آن ساده است. اما اگر می‌خواهید بگویید، درصد $A$ از واریانس در $X$ به دلیل $\text{Var}(X)$ برای راننده‌های زن است و $B$% بقیه است، یعنی $\text. {Var}(X)$ برای رانندگان مرد؟ $A + B$ باید 100 درصد باشد. آیا این امکان پذیر است؟ آیا فرضیاتی وجود دارد که می‌توان برای ساده‌سازی کارها انجام داد؟ استقلال رانندگان زن و مرد؟ [سوال در اینجا نیز پرسیده شد http://mathoverflow.net/questions/88185/variance-decomposition-anova اما متوجه شدم که بهتر است به جای آن این کار را در Stats انجام دهم.]
تجزیه واریانس با استفاده از ANOVA
95229
من مجموعه ای از اندازه گیری ها با فواصل اطمینان 95 درصد پواسون دارم و می خواهم آنها را کم و ضرب کنم و خطا را منتشر کنم. به عنوان مثال، من تعداد کپی یک قطعه DNA را در یک نمونه بیولوژیکی 0.0268، 95% CI = 0.308-0.227 اندازه‌گیری کردم. من می دانم که سوگیری های سیستماتیک در اندازه گیری من وجود دارد، یعنی مسائل مربوط به حساسیت و ویژگی، که من به طور مستقل تعیین کردم. به عنوان مثال، برای اندازه‌گیری حساسیت، غلظت مشخصی از کپی‌های DNA، 467 کپی در UL، و 251 کپی در UL، 95% فاصله اطمینان (CI 255-248)، یعنی حدود 54% اندازه‌گیری کردم. برای اندازه‌گیری ویژگی، از یک نمونه DNA منفی شناخته شده استفاده کردم، بنابراین انتظار می‌رفت که عدد 0 کپی باشد، اما 0.00162، 95% فاصله اطمینان (CI): 0.0023-0.000936 اندازه‌گیری شد. من می‌خواهم تعداد کپی اندازه‌گیری‌شده را در ویژگی ضرب کنم، که مقدار ~.496 را به دست می‌دهد، سپس ویژگی را کم می‌کنم، که تخمین شماره نسخه نهایی ~.494 به دست می‌آید. چگونه می توانم خطاها را در این مورد منتشر کنم؟ با تشکر برای هر گونه کمک!
انتشار فواصل اطمینان پواسون
66551
من می‌خواهم مجموعه‌ای از فرضیه‌ها را روی ترکیب‌های خطی ضرایب برای رگرسیون لجستیک روی داده‌های شمارش طبقه‌ای که به‌عنوان یک مدل GLM پیاده‌سازی شده‌اند، آزمایش کنم. من می دانم که چگونه ترکیبات خطی را در حالت عادی انجام دهم، و می دانم چگونه فواصل اطمینان اولیه و آزمون های اهمیت را برای مدل های لجستیک انجام دهم. اما من با کمی خجالت متوجه شدم که دانستن این دو چیز به دانستن چگونگی ساخت آزمون‌های معناداری و فواصل اطمینان بر روی ترکیب‌های خطی ضرایب رگرسیون لجستیک نمی‌شود. ** چگونه آزمون های معناداری و فواصل اطمینان را روی ترکیب های خطی ضرایب رگرسیون لجستیک ایجاد می کنید؟**
چگونه فواصل اطمینان را برای ترکیب خطی ضرایب یک رگرسیون لجستیک محاسبه کنم؟
61026
**زمینه:** مقاله ای را خواندم که در آن نویسندگان همبستگی پیرسون را 0.754 از حجم نمونه 878 گزارش کردند. مقدار p-مقدار برای آزمون همبستگی دو ستاره معنادار است (یعنی p <0.01). با این حال، من فکر می کنم که با چنین اندازه نمونه بزرگ، مقدار p متناظر باید کمتر از 0.001 باشد (یعنی سه ستاره معنی دار). * **آیا می توان مقادیر p برای این آزمون را فقط از روی ضریب همبستگی پیرسون و حجم نمونه محاسبه کرد؟** * **اگر بله، چگونه می توان این کار را در R انجام داد؟**
آیا می توان مقادیر p برای آزمون همبستگی پیرسون را فقط از روی ضریب همبستگی و حجم نمونه محاسبه کرد؟
61028
در کالجم آزمایش های زیادی انجام می دهم، مانند تست همبستگی خودکار، سفید، DW، $t$، $F$ و غیره. با این حال، همیشه باید به دنبال آن باشم، چه زمانی رد کنم و چه زمانی مثلاً H_0 $ را بپذیرم. $ از این رو، من نمی‌خواستم تعمیمی برای تفسیر یک آزمون آماری وجود داشته باشد، مانند: وقتی $value$ بزرگتر از $value$ است همیشه _رد_ H0. آیا از نظر تجربه حرفه ای شما در همه آزمون های آماری الگویی وجود دارد؟
تعمیم برای تفسیر یک آزمون؟
50463
در فصل بازگشت به متوسط از تفکر، سریع و آهسته نوشته دانیل کانمن، یک مثال آورده شده است و از خواننده خواسته می شود تا فروش فروشگاه های فردی را با توجه به پیش بینی فروش کلی و اعداد فروش از سال قبل پیش بینی کند. . به عنوان مثال (مثال کتاب دارای 4 فروشگاه است، من از 2 در اینجا برای سادگی استفاده می کنم): Store 2011 2012 1 100 ? 2500؟ مجموع 600 660 پیش بینی ساده 110 و 550 برای فروشگاه های 1 و 2 خواهد بود، 10 درصد افزایش برای هر کدام. با این حال، نویسنده ادعا می کند که این رویکرد ساده لوحانه اشتباه است. به احتمال زیاد فروشگاه با عملکرد ضعیف تر بیش از 10٪ افزایش می یابد و فروشگاه با عملکرد بهتر کمتر از 10٪ افزایش (یا حتی کاهش) دارد. بنابراین شاید پیش‌بینی ۱۱۵ (۱۵ درصد افزایش) و ۵۳۵ (۷ درصد افزایش) «درست‌تر» از پیش‌بینی ساده‌لوحانه باشد. چیزی که من نمی فهمم این است که چگونه می توانیم نتیجه بگیریم که فروش 100 عدد از فروشگاه 1 لزوماً فروشگاهی با عملکرد ضعیف تر است؟ شاید به دلیل تفاوت‌های مکان، میانگین سری‌های زمانی واقعی فروشگاه‌های 1 و 2 10 و 550 باشد، و فروشگاه 1 در سال 2011 یک سال فوق‌العاده و فروشگاه 2 سال فاجعه‌باری در سال 2011 داشته است. پس آیا منطقی نیست. برای پیش بینی کاهش برای فروشگاه 1 و افزایش برای فروشگاه 2؟ من می دانم که اطلاعات سری زمانی در مثال اصلی ارائه نشده است، اما من این تصور را دارم که رگرسیون به میانگین به میانگین مقطعی اشاره دارد و بنابراین اطلاعات سری زمانی اهمیتی ندارد. من چی رو اشتباه میفهمم
بازگشت به پازل متوسط
12843
من سعی می کنم نمونه های تصادفی را از یک pdf سفارشی با استفاده از R ایجاد کنم. پی دی اف من این است: $$f_{X}(x) = \frac{3}{2} (1-x^2), 0 \le x \le 1$$ من نمونه های یکنواخت تولید کردم و سپس سعی کردم آن را به توزیع سفارشی خود تبدیل کنم. من این کار را با پیدا کردن cdf توزیع خود ($F_{X}(x)$) و تنظیم آن بر روی نمونه یکنواخت ($u$) و حل برای $x$ انجام دادم. $$ F_{X}(x) = \Pr[X \le x] = \int_{0}^{x} \frac{3}{2} (1-y^2) dy = \frac{3} {2} (x - \frac{x^3}{3}) $$ برای ایجاد یک نمونه تصادفی با توزیع فوق، یک نمونه یکنواخت $u \in[0,1]$ بگیرید و برای $x$ در آن حل کنید $$\frac{3}{2} (x - \frac{x^3}{3}) = u $$ من آن را در `R` پیاده‌سازی کردم و توزیع مورد انتظار را دریافت نکردم. آیا کسی می تواند به نقص درک من اشاره کند؟ nsamples <- 1000; x <- runif(nsamples); f <- تابع (x, u) { return(3/2*(x-x^3/3) - u); } z <- c(); برای (i در 1:nsamples) { # ریشه را در (0,1) پیدا کنید r <- uniroot(f, c(0,1), tol = 0.0001, u = x[i])$root; z <- c(z, r); }
تولید نمونه های تصادفی از یک توزیع سفارشی
52828
من سعی می کنم راهی پیدا کنم تا اندازه گیری کنم که یک متغیر چقدر مجموعه کاملی از متغیرهای پیوسته را خلاصه می کند. به عنوان مثال، در یک PCA اولین جزء اصلی درصد معینی از تنوع کل را در یک مجموعه چند متغیره توضیح می دهد. بنابراین، چگونه می توانم اندازه گیری مشابهی را برای یک متغیر از پیش موجود (تبدیل نشده) بدست بیاورم؟ به عنوان مثال، ارتفاع (تک متغیر) چقدر تغییرات آب و هوایی کلی را توضیح می دهد (مثلاً متغیرهای متعدد: میانگین بارش؛ میانگین دما ...)؟ من به ویژه به اندازه گیری علاقه مند هستم که مستقیماً با واریانس توضیح داده شده توسط PCA قابل مقایسه باشد. اگر پیشنهادی دارید به من اطلاع دهید.
تغییرات با تک متغیر توضیح داده شده است
95228
این مرحله بعدی از سوالی است که قبلا پرسیدم. من دو فریم داده دارم: یکی متمرکز بر داده های تولد، و دیگری متمرکز بر رویدادهای آب و هوایی زمستان. هدف پروژه من این است که کشف کنم آیا یک همبستگی ساده بین رویدادهای شدید آب و هوایی زمستانی (به عنوان مثال طوفان های زمستانی) و افزایش تعداد تولدها در 9 ماه بعد (به دلیل گیرکردن افراد در درها در طول طوفان) وجود دارد یا خیر. چندین زمینه وجود دارد که من با آنها دست و پنجه نرم می کنم: 1. من باید رویدادهای آب و هوایی کمتر شدید زمستانی را از combination.weather.birth$EVENT_TYPE در نظر بگیرم. عواملی که در حال حاضر شامل «یخبندان/یخ زدگی»، «تگرگ»، «برف سنگین»، «طوفان یخ»، «طوفان زمستانی»، «آب و هوای زمستان» و «کولاک» هستند. **از این موارد، می‌خواهم سرما/یخ زدگی و تگرگ را حذف کنم.** 2. من در اجرای تابع ()cff روی این داده با مشکل مواجه هستم. همانطور که در بالا توضیح داده شد، من می خواهم همبستگی های بالقوه بین این مجموعه داده ها را کشف و تجزیه و تحلیل کنم. من فقط داده های سال های 2007-2011 در ماساچوست را مقایسه می کنم. این چیزی است که من تاکنون امتحان کرده‌ام: correlation1 <- ccf(birth.data$DATE, combination.weather.birth$DATE, lag.max = NULL, type=correlation, plot=TRUE) correlation2 <- ccf( birth.data$DATE، combined.weather.birth$DATE+combined.weather$EVENT_TYPE، lag.max = NULL، type=correlation, plot=TRUE) **من باید این داده ها را 9 ماه جبران کنم تا بارداری بعد از رویدادهای آب و هوایی زمستان را در نظر بگیرم. نکته ای دارید؟** در اینجا اطلاعاتی در مورد داده هایی که با آنها کار می کنم وجود دارد: str(combined.weather.birth) <- 'data.frame': 966 obs. از 8 متغیر: $ EVENT_ID : int 9620 9619 9623 5391 13835 13845 13844 13847 13846 13836 ... $ STATE : Factor w/ 1 level MASSACHUSETTS11111: $ YEAR : int 2007 2007 2007 2007 2007 2007 2007 2007 2007 2007 ... $ MONTH_NAME : Factor w/ 12 level April, August،...: 5 4 4 5 44 $ EVENT_TYPE: فاکتور w/ 7 سطح یخ زدگی/یخ زدگی،...: 6 6 4 4 5 5 5 5 5 5 ... $ INJURIES_DIRECT: int 0 0 0 1 0 0 0 0 0 0 ... $ DEATHS_DIRECT : int 0 0 0 0 0 0 0 0 0 0 ... $ تاریخ : POSIXct، قالب: 2007-01-01 2007-01-01 2007-01-01 2007-01-01 ... str(birth.data) <- 'data.frame': 60 obs. از 4 متغیر: $ YEAR : int 2007 2007 2007 2007 2007 2007 2007 2007 2007 2007 ... $ MONTH : Factor w/ 12 level April, August ..: 7: 1219 ... دلار BIRTH_TOTAL: num 6250 5833 6570 6227 6858 ... $ DATE : POSIXct، قالب: 2007-01-01 2007-02-01 2007-03-01 2007-04-01IT باید اضافه کنم که من با استفاده از cff() ازدواج نکرده ام اینجا اگر تابع بهتری برای یافتن همبستگی مشخص شده وجود داشته باشد، من آماده یادگیری در مورد آن هستم. من کمی در مورد cor() خوانده‌ام، اما در اینجا مناسب به نظر نمی‌رسد زیرا فقط برای کار با ماتریس طراحی شده است.
استفاده از ccf() برای یافتن همبستگی بین دو فریم داده که نه ماه جبران شده است
22620
من در این سایت خواندم که ظاهرا کینکت به نوعی از الگوریتم جنگل های تصادفی برای یادگیری ماشین استفاده می کند. آیا کسی می تواند توضیح دهد که برای چه چیزی از جنگل های تصادفی استفاده می کند و رویکرد آنها چگونه کار می کند؟
چگونه کینکت از جنگل های تصادفی استفاده می کند؟
28086
Emerson, J. D. (1991) Graphical Display as aid to Analysis, in _Fundamentals of Exploratory Analysis of Variance_ (ویراستار D. C. Hoaglin, F. Mosteller and J. W. Tukey), John Wiley & Sons, Inc., Hoboken, NJ, USA. doi: 10.1002/9780470316832.ch8 نمودارهای کنار هم از افکت ها و باقیمانده ها را شرح می دهد... فکر می کنم ایده خوبی برای تحلیل اکتشافی است، اما نمی دانم چگونه آن را ترسیم کنم. باکس‌پلات جانبی برای تحلیل یک طرفه خوب است، اما وقتی به دوطرفه می‌رسد، برای دیدن جلوه‌های اصلی بسیار پیچیده است. تعاملات...) آیا کسی می داند چگونه؟ اینم چند نمونه از کتاب عالی یک دوره اول در طراحی و تجزیه و تحلیل تجربیات که در وب موجود است!!! ![یک طرفه](http://i.stack.imgur.com/roTYy.jpg) ![تنظیمات پیچیده تر](http://i.stack.imgur.com/4mQVG.jpg)
نحوه ترسیم یک طرح کنار هم که در نمایش گرافیکی به عنوان کمکی برای تجزیه و تحلیل ذکر شده است.
66550
کار با سنسور دو بعدی یک ردیف از 4096 نمونه تشکیل شده است که از این تعداد 16 نمونه _مرجع_ وجود دارد (بقیه _فعال_ هستند). نمونه‌های مرجع سیگنال را اندازه‌گیری نمی‌کنند، اما برای تخمین افست اندازه‌گیری منحصربه‌فرد که بر کل ردیف تأثیر می‌گذارد استفاده می‌شوند. اندازه‌گیری‌ها باید قبل از پردازش بیشتر با این افست ردیف تصحیح شوند. این افست ردیف بین ردیف های متوالی و همچنین در طول زمان متفاوت است. هر نمونه به طور مستقل تحت تأثیر نویز اندازه گیری قرار می گیرد که به نظر می رسد از توزیع گاوسی پیروی می کند. بنابراین یک اندازه گیری داده شده $M$ توسط سیگنال در آن مکان $S$ به اضافه ردیف $O$ به اضافه مقداری نویز گاوسی $G$ داده می شود، بنابراین: $$M_{xy} = S_{xy} + O_{y } + G_{xy}$$ رویه معمولی استفاده از میانگین این اندازه‌گیری‌های مرجع برای تخمین این افست و کم کردن آن از اندازه‌گیری‌های فعال (نمونه‌های باقی‌مانده در آن ردیف) برای به دست آوردن یک اندازه‌گیری اصلاح‌شده: $$O_{y} = \Sigma M_{ref}/N$$ وقتی $N=16، S=0$ (در نمونه‌های مرجع). البته، وقتی $S=0$، $M=O_{y} + G_{xy}$، بنابراین ما هنوز باید نویز را فیلتر کنیم تا جبران شود. در حال حاضر، با استفاده از میانگین، می‌توانیم نویز (stddev) را بسیار کم دریافت کنیم، اما همچنان نویز کافی وجود دارد که آثار هنری قابل توجهی در نتایج وجود دارد. بنابراین ما به دنبال روشی قوی تر (نسبت به میانگین یا میانه) برای تخمین افست از این نمونه ها هستیم. اگر کمک کند، در طول فرآیند کالیبراسیون، می‌توانیم سطح صفر را از کل ردیف به دست آوریم. بنابراین در شرایط آزمایشگاهی (و _نه_ در میدان)، می‌توانیم سطح صفر را از کل ردیف بخوانیم. بنابراین سؤال این است: * چگونه می‌توانید میانگین مقدار یک مجموعه کوچک ($N=16$) از نمونه‌های پر سر و صدا را که نماینده جمعیت بسیار بزرگ‌تری هستند، به طور قوی تخمین بزنید؟ و سوال جایزه: * آیا راهی برای بهره برداری از اندازه گیری های صفر فقط در حین کالیبراسیون وجود دارد؟ به نظر می‌رسد این پاسخ به این سؤال نزدیک‌تر است، اما تاکنون روش‌های توصیف‌شده پیشرفت قابل‌توجهی نداشته‌اند: * دوره تصادف در برآورد میانگین قوی
تخمین قوی میانگین با حجم نمونه کوچک
22625
من یک مبتدی برای تحلیل سری های زمانی هستم. من مدل زیر را دارم y فروش محصول و x نرخ توییت است: $y_t=ay_{t-1}+by_{t-2}+...+cy_{t-m}+dx_t+ex_{t-1}+... +fx_{t-n}$ 1. اسم این مدل چیه؟ حدس می‌زنم به آن یک مدل AR می‌گویند، اما مطمئن نیستم زیرا متغیر وابسته y نیز روی R.H.S است. 2. چگونه می توانم دوره تاخیر، $m$ و $n$ را برطرف کنم؟ آیا $x$ و $y$ می توانند تاخیرهای متفاوتی داشته باشند؟ 3. چگونه می توانم از پایتون برای ساخت این مدل استفاده کنم و همچنین فروش را برای $t+1\ldots t+n$ پیش بینی کنم؟ هر راه حلی برای این کار بدون استفاده از rpy.
تجزیه و تحلیل سری های زمانی در پایتون
28087
در یک زمینه چند متغیره، یعنی حداقل X یا Y که یک بردار تصادفی است، آیا فرمول ها یا قضایایی وجود دارد که (حتی از راه دور) رگرسیون رو به جلو و معکوس، $\text{E}(X|Y)$ و $\ را به هم مرتبط می کند. متن{E}(Y|X)$ ? یا $\text{E}(X_i|Y)$ و $\text{E}(Y|X_i)$، که $X_i$ جزء معینی از $X$ است. به طور مشابه، آیا می توان چیزی در مورد $\text{var}[\text{E}(X|Y)]$ و $\text{var}[\text{E}(Y|X)]$ گفت؟ یا $\text{var}[\text{E}(X_i|Y)]$ و $\text{var}[\text{E}(Y|X_i)]$، که در آن $X_i$ یک جزء داده شده است از X$. هر دو $X$ و $Y$ قرار است تصادفی باشند. مورد معمول کاربرد این است که $X$ از یک توزیع انتخاب شده (مثلاً یک multigaussian) پیروی می کند و $Y$ تابعی از $X$ است. تابع پیوند برای استفاده یا حتی ناشناخته بسیار پیچیده است (معمولاً یک مدل عددی است). توزیع X$، با این حال، کنترل می شود. بنابراین، در صورت نیاز باید فرضیه ای بر روی X$ فرموله کرد. *توجه: این سوال به کاهش ابعاد از طریق تکنیک رگرسیون معکوس برش مربوط می شود. همچنین به تجزیه و تحلیل حساسیت مربوط می شود، زیرا $\text{var}[\text{E}(Y|X)]$ شماره‌گذار شاخص Sobol است (به طور شگفت‌انگیزی، برچسب «تجزیه و تحلیل حساسیت» وجود ندارد -- اگر کسی با شهرت کافی این را بخواند، ممکن است بخواهد آن را بسازد.*
پیوند بین رگرسیون رو به جلو و معکوس ($\text{E}(X|Y)$ و $\text{E}(Y|X)$ ;$ \text{var}[\text{E}(X|Y) ]$ و $\text{var}[\text{E}(Y|X)]$)
77507
من یک سوال کلی دارم، احتمالاً ساده، اما تا به حال نتوانستم پاسخ قاطعی پیدا کنم. فرض کنید من یک مورد ساده از یک مدل خطی عمومی با یک متغیر پیش‌بینی کننده طبقه‌بندی دارم که دارای 3 سطح است. این مربوط به یک ANOVA یک طرفه با 3 گروه است. سپس مدل خطی خواهد بود: $Y_i = \beta_0 + \beta_1X_1 + \beta_2X_2$ من از کدهای کنتراست استاندارد هلمرت زیر (I, II) برای سه گروه A, B, C استفاده می کنم: A B C I -2 1 1 II 0 - 1 1 بر اساس این کدهای کنتراست، **آیا وقفه مدل خطی نشان دهنده میانگین تمام میانگین های گروه خواهد بود؟ به طور کلی تر، آیا این همیشه در مورد متغیرهای کد کنتراست Helmert، ** صرف نظر از تعداد متغیرهای پیش بینی کننده یا سطوح متغیر، صدق می کند؟ بدیهی است که رهگیری مقدار پیش‌بینی‌شده را نشان می‌دهد، زمانی که همه متغیرهای پیش‌بینی‌کننده (در این مورد X_1$ و $X_2$) برابر با صفر باشند، اما من نمی‌توانم بفهمم که آیا این میانگین میانگین گروه را نشان می‌دهد یا خیر.
تفسیر رهگیری در کدگذاری هلمرت
61025
من شنیده ام که می گویند مطالعات طولی و مقطعی اشکالی از مطالعات مشاهده ای هستند. **چرا نمی توان مطالعات طولی و مقطعی را «مطالعات کنترل شده» در نظر گرفت؟** با تعاریفی که دارند، فکر می کنم می توانند.
آیا می توان مطالعات طولی و مقطعی را «کنترل» کرد؟
95226
این یک سری از داده هایی است که من مشاهده می کنم: 1، 1، 1، 1، 0، 1، 1، 1، 1، 0، 1، 1، 1، 1، 1، 0، 1، 1، 1، 1، 1، 1 چگونه می توانم از ریاضیات برای پیش بینی اینکه آیا عدد بعدی در سری یک یا 0 خواهد بود استفاده کنم؟
چگونه از ریاضی برای پیش بینی عدد بعدی در سری استفاده کنم؟
26539
این فقط یک مثال است که من چندین بار با آن برخورد کرده ام، بنابراین هیچ داده نمونه ای ندارم. اجرای یک مدل رگرسیون خطی در R: a.lm = lm(Y ~ x1 + x2) `x1` یک متغیر پیوسته است. «x2» مقوله‌ای است و دارای سه مقدار است. کم، متوسط و بالا. با این حال خروجی داده شده توسط R چیزی شبیه به: summary(a.lm) Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) 0.521 0.20 1.446 0.19 x1 -0.61 0.11 1.451 0.17 x2Low -0.78 0.22 -2.34 0.005 x2Medium -0.50 -0.50 I نوعی کدگذاری ساختگی را بر روی چنین عواملی معرفی می کند ('x2' یک عامل است). من فقط می‌پرسم، چگونه مقدار x2 بالا را تفسیر کنم؟ به عنوان مثال، x2 های بالا چه تاثیری بر متغیر پاسخ در مثال ارائه شده در اینجا دارد؟ من نمونه هایی از این را در جای دیگری دیده ام (مثلاً اینجا) اما توضیحی پیدا نکرده ام که بتوانم آن را بفهمم.
مقدار متغیر طبقه بندی رگرسیون خطی R مخفی.
50466
خوب، بنابراین من یک کد کار می‌کنم تا کاری را که می‌خواهم انجام دهم، اما من در R جدید هستم و احساس می‌کنم راه‌حل من بسیار بد است و احتمالاً راه کارآمدتری برای به دست آوردن همان نتیجه وجود دارد. من مجموعه ای از داده ها را دارم که حاوی رکوردهایی با تاریخ، شهر و امتیاز کیفیت است. برای هر شهر و هر تاریخ، می‌خواهم یک میانگین وزنی نمایی از امتیازهای کیفی قبلی آن شهر ایجاد کنم. (تاریخ اول برای هر شهر هیچ داده قبلی ندارد، بنابراین همیشه NA خواهد بود.) راه حل من چارچوب داده اصلی را گسترش می دهد و میانگین را در یک پاس محاسبه می کند. کار می کند اما من آن را کمی ناکارآمد می بینم و گسترش چارچوب داده می تواند با داده های بزرگ مشکل ساز باشد. از آنجایی که من در R جدید هستم، دوست دارم رویکردهای دیگری را بشنوم که نتیجه نهایی یکسانی داشته باشند. کد من اینجاست: #load در data mydata <- structure(list(date = structure(c(15513, 15507, 15476, 15439, 15442, 15435, 15419, 15410, 15508, 154464, = class )، شهر = ساختار (c(2L، 2L، 2L، 2L، 3L، 3L، 3L، 3L، 1L، 1L، 1L)، .Label = c(MIA، PHX، POR) class = factor کیفیت = c(3.5، 6.7، 5.2، 3.9، 2.6، 7.7، 2.4، 4.7، 3.5، 2.6، 1.8))، .Names = c(تاریخ، شهر، کیفیت)، row.names = c(NA، -11L)، کلاس = data.frame) #تثبیت تاریخ data mydata$date <- as.Date(mydata$date, %d%b%Y) #ایجاد شناسه منحصر به فرد برای هر رکورد mydata$id <- paste(mydata$city, as.numeric(mydata$date), sep='_') #expand the data mydata_expanded <- expand.grid(x=mydata$id, y=mydata$id) mydata_expanded$cityX <- substr (mydata_expanded$x,start=1,stop=3) mydata_expanded$cityY <- substr(mydata_expanded$y,start=1,stop=3) mydata_expanded <- mydata_expanded[mydata_expanded$cityX==mydata_expanded$cityY,] mydata_expanded$dateX <- substr(mydata_expanded=0,stop=1) mydata_expanded$dateY <- substr(mydata_expanded$y,start=5,stop=10) mydata_expanded <- merge(mydata_expanded، mydata، by.x=c(y)، by.y=c(id)) mydata_expanded$dateX <- as.Date(as.numeric(mydata_expanded$dateX), origin=1970-01-01) mydata_expanded$dateY <- as.Date(as.numeric(mydata_expanded$dateY), origin=1970-01-01 ) mydata_expanded <- mydata_expanded[mydata_expanded[,5]>mydata_expanded[,6],] mydata_expanded <- mydata_expanded[order(-as.numeric(mydata_expanded$dateX))،] #ایجاد متغیرهای مورد نیاز برای محاسبه نمایی <mepanansedda$ta_day - mydata_expanded$dateX - mydata_expanded$date mydata_expanded$w <- exp(-as.numeric(mydata_expanded$dayssince)/60) mydata_expanded$wQuality <- mydata_expanded$quality * mydata_expand_ed aggregate(mydata_expanded$w,by=data.frame(mydata_expanded$dateX, mydata_expanded$city),sum,na.rm=T); sum_wQuality <- aggregate(mydata_expanded$wQuality,by=data.frame(mydata_expanded$dateX, mydata_expanded$city),sum,na.rm=T) mydata_quality <- merge(sum_w,sum_wQuality,datadateex(edmy ، mydata_expanded.city)) #محاسبه میانگین وزنی نمایی واقعی mydata_quality$ewQuality <- mydata_quality$x.y/mydata_quality$x.x #ادغام داده ها به دیتافریم اصلی و پاکسازی داده های ما <- merge(mydata,mydatax_quality_. =c(تاریخ، شهر)، by.y=c(mydata_expanded.dateX,mydata_expanded.city),all.x=TRUE) mydata$id <- NULL mydata$x.x <- NULL mydata$x.y <- NULL mydata$ewQuality <- signif( mydata$ewQuality,digits=4) mydata <- mydata[with(mydata, سفارش (شهر))، ]
آیا راه حل دقیق تری برای میانگین وزنی نمایی در R وجود دارد؟
111579
من سعی می‌کنم مدلی را با استفاده از رگرسیون دوجمله‌ای منفی تخمین بزنم، اما مطمئن نیستم که چگونه خوب بودن تناسب را برای مدل خود ارزیابی کنم. من می خواهم مدل دوجمله ای منفی را با مدل پواسون مقایسه کنم. من تقریباً 4000 دلار نقاط داده دارم. پیشنهادی دارید؟ با تشکر
نحوه ارزیابی خوبی تناسب برای رگرسیون دو جمله ای منفی
52829
چرا آمار آزمون یک آزمون نسبت درستنمایی توزیع شده کای دو است؟ $2(\ln \text{ L}_{\rm alt\ model} - \ln \text{ L}_{\rm null\ model} ) \sim \chi^{2}_{df_{\rm alt} -df_{\rm null}}$
چرا یک آزمون نسبت درستنمایی توزیع شده کای دو است؟
22628
من در مورد ساختار پایگاه داده طرحواره ستاره ای (یا ابعادی) مطالعه کرده ام، که تمام اندازه گیری ها را در جدول حقایق اصلی، و تمام زمینه آن اندازه گیری ها را در جدول بعد مرتبط با جدول حقایق قرار می دهد (من کار وحشتناکی انجام می دهم. شغلی که این را توضیح می دهد)، به طوری که می توانید هر اندازه گیری را با شرطی کردن بعد جستجو کنید. وقتی در مورد این مطلب خواندم، به نظرم راهی عالی برای جمع‌آوری فایل‌های csv مختلف با ستون‌های مختلف در یک فروشگاه بود... به عنوان مثال، داده‌های سهام، کالاها و گزینه‌ها در فایل‌های مختلف در یک db با طرح ستاره‌ای قرار می‌گیرند. یک جدول حقایق حاوی باز/بستن/بالا/کم/حجم، با پیوندهای کلیدی خارجی به ابعادی مانند زمان، شرکت، مبادله، و شجره نامه به طوری که ما بدانیم هر ورودی از کجا می آید این به شما این امکان را می‌دهد که مثلاً برای شرکت‌های استخراج چینی در سه ماهه اول با یک عبارت sql نسبتاً ساده پرس و جو کنید. با این حال، به نظر می‌رسد که تمام ادبیات مربوط به این موضوع برای استقرار «شرکتی» در مقیاس بزرگ باشد و نه تحلیل داده‌های کوچک یا مشاغل تحقیقاتی. آیا کسی تجربه ای در سازماندهی داده های خود به این روش دارد؟ آیا راه ساده تری وجود دارد؟
آیا کسی از پایگاه داده های ستاره-شما برای جمع آوری و سازماندهی داده های خود استفاده می کند؟
77503
من تست Box را برای برابری ماتریس های کوواریانس انجام می دهم و باید log(det(S1)) و log(det(S2)) را محاسبه کنم، که در آن S1، S2 نمونه های ماتریس کوواریانس با تعیین کننده تقریباً صفر هستند. چگونه می توانم S1 و S2 را برای به دست آوردن تعیین کننده غیر صفر بهبود دهم؟ من داده های 24 بعدی با 14 مشاهده دارم. متشکرم
چگونه لگاریتم تعیین کننده صفر ماتریس کوواریانس را محاسبه کنیم؟
26537
تأیید اعتبار بوت استرپ/نمونه‌گیری مجدد اعتبارسنجی متقابل برای من جدید است، اما با پاسخ به این سوال مورد بحث قرار گرفت. من جمع‌آوری می‌کنم که شامل 2 نوع داده است: داده‌های واقعی و داده‌های شبیه‌سازی شده، که در آن مجموعه داده‌ای از داده‌های شبیه‌سازی شده از داده‌های واقعی با نمونه‌گیری مجدد با جایگزینی تولید می‌شود تا زمانی که داده‌های شبیه‌سازی‌شده به اندازه داده‌های واقعی باشند. من می توانم به دو رویکرد برای استفاده از این نوع داده ها فکر کنم: (1) مدل را یک بار برازش دهید، آن را بارها در بسیاری از مجموعه داده های شبیه سازی شده ارزیابی کنید. (2) با استفاده از هر یک از مجموعه داده های شبیه سازی شده، مدل را چندین بار برازش دهید، هر بار آن را با داده های واقعی ارزیابی کنید. کدام (اگر یکی) بهترین است؟
رویه «تأیید اعتبار بوت استرپ» (معروف به «نمونه‌گیری مجدد اعتبارسنجی متقابل») چیست؟
61023
آیا $||Y-X\beta||_2^2 + \lambda\beta^T K\beta$، تابع ضرر استاندارد در رگرسیون ریج هسته است یا متفاوت است؟ همچنین، آیا هسته گاوسی یک انتخاب استاندارد برای هسته است، در عمل؟ اگر نه، کدام هسته ها بیشتر از نه استفاده می شوند؟ همچنین، آیا $\lambda$ تنها پارامتری است که از طریق اعتبارسنجی متقاطع تنظیم می شود یا پارامتر هسته مانند $\sigma$ در هسته گاوسی، در عمل نیز از طریق اعتبارسنجی متقاطع تنظیم می شود؟ لطفاً درک من از رگرسیون کرنل ریج را تأیید و/یا تصحیح کنید!
ضرر برای رگرسیون کرنل ریج
66554
من کارهای مرتبط با NLP را انجام می دادم که شامل آموزش یک مدل مخفی مارکوف و استفاده از مدل برای تقسیم جملات است. برای هر جمله، نشانه ها را به بردارهای ویژگی ترجمه می کنم. ویژگی ها به صورت دستی توسط من انتخاب می شوند و من فقط می توانم به 20 ویژگی به طور موقت فکر کنم. همه ویژگی ها باینری هستند. بنابراین یک نمونه بردار ویژگی در مورد من اینگونه خواهد بود: [0، 0، 1، 1، 0…] هنگام آموزش HMM (یادگیری نظارت شده با تخمین حداکثر احتمال)، من بردار ویژگی باینری را به عدد صحیح تبدیل می کنم و از اعداد صحیح استفاده می کنم. به عنوان مشاهدات در HMM. سوال من این است که اگر ابعاد بیشتری از ویژگی‌ها داشته باشم، مثلاً 100 ویژگی، ممکن است هنگام آموزش HMM، نگاشت بردارهای ویژگی به اعداد صحیح ممکن یا کارآمد نباشد. اگر ویژگی ها باینری نباشند چه می شود. راه حل ها/بهترین روش های رایج برای این مشکلات چیست؟ P.S. من تحقیقاتی انجام دادم و متوجه شدم که یک راه حل این است که از K-Means برای یافتن خوشه هایی از بردارهای ویژگی استفاده کنیم و هر خوشه را به عنوان یک مشاهده واحد در HMM در نظر بگیریم (همچنین به عنوان کوانتیزاسیون برداری نیز شناخته می شود). اما به نظر من بهترین راه حل نیست.
چگونه بردار ویژگی با ابعاد بالا را در مدل نمودار احتمال مدیریت کنیم؟
66555
من روی دو مدل زیر کار میکنم Logit: نتیجه باینری $y$ ($y=1$ اگر برای برنده شدن آیتم بیشتر از مقدار مورد پرداخت شود، در غیر این صورت $y=0$) $$ y=b_0+x_1b_1+x_2b_2+x_3b_3. $$ OLS: متغیر وابسته پیوسته $z$ (میزان اضافه پرداخت) $$ z=b_0+x_1b_1+x_2b_2+x_3b_3+e. $$ سوالات من: 1. آیا لازم است این دو مدل را به طور مشترک (به جای جداگانه) تخمین بزنم زیرا متغیرهای وابسته به نظر مرتبط هستند؟ 2. اگر تخمین مشترک ضروری است، از کدام روش (یا بسته در Stata) باید استفاده کنم؟ رگرسیون به ظاهر نامرتبط suest؟ 3. نظر دیگری از نظر روش شناسی وجود دارد؟
روشی برای تخمین مشترک مدل های Logit و OLS